text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Расширение Web Essentials для Visual Studio: LESS, Zen Coding, CoffeeScript и многое другое [![](https://habrastorage.org/r/w1560/storage2/c7f/68a/560/c7f68a56012d552a02883b0682ef7bc7.png)](http://vswebessentials.com/) Visual Studio – поистине потрясающий инструмент для разработки приложений вообще (чувствуете всю маркетинговую мощь этой фразы?) и web-разработки в частности. Но сила Visual Studio не только в возможностях, которые в ней есть «из коробки», но и в наличии тысяч полезных расширений. Одним из моих любимых расширений, которое добавляет поддержку LESS, Zen Coding и CoffeeScript, а также содержит множество других возможностей, является расширение [Web Essentials 2012](http://vswebessentials.com/) ([скачать](http://visualstudiogallery.msdn.microsoft.com/07d54d12-7133-4e15-becb-6f451ea3bea6)), о котором мы и поговорим в данной статье. Не смотря на то, что цикл выпуска обновлений для Visual Studio 2012 короче, чем для предыдущих версий, а [первое крупное обновление](http://www.microsoft.com/visualstudio/rus/visual-studio-update) уже доступно, нам, как разработчикам, обычно, хочется получать новые полезные возможности как можно раньше. И расширение Web Essentials позволяет это делать. По сути своей Web Essentials является экспериментальным расширением, на котором обкатываются те возможности, которые потом могут войти в официальные инструменты для web разработки – Microsoft Web Developer Tools, входящие в Visual Studio. Поэтому то, что доступно сейчас в Web Essentials, может в скором времени стать частью официальной поставки Visual Studio. Естественно к тому времени, как те или иные возможности из Web Essentials станут частью Visual Studio, в Web Essentials появится ещё много чего нового, полезного и интересного, так как расширение постоянно обновляется. Только в декабре 2012 года было выпущено три обновления, которые содержали новый функционал, такой, как, например, окно предпросмотра при редактировании [Markdown](http://ru.wikipedia.org/wiki/Markdown) файлов (а вам нравится язык [Markdown](http://ru.wikipedia.org/wiki/Markdown)?). Но перейдём к самим возможностям Web Essentials. Работа с CSS ------------ В первую очередь я бы хотел отметить, что с Web Essentials действительно удобно работать с CSS стилями. Как пример такого удобства можно привести работу с вендорными префиксами. Вендорные префиксы – это приставки к названияю CSS свойств, которые добавляются производителями браузеров для нестандратных свойств. Примеры вендорных префиксов: –moz, -ms, -webkit и –o. Часто производители браузеров сначала реализуют новое CSS свойство с вендорным префиксом, а потом, после стандартизации свойства, добавляют его поддержу уже без префикса. Поэтому могут возникать ситуации, когда вам надо указать одно и то же свойство несколько раз с разными вендорными префиксами для разных браузеров, а также, возможно, и в варианте без префикса. Например, сейчас все современные браузеры поддерживают свойство word-wrap. И мы можем его использовать напрямую: ``` #text { word-wrap: break-word; } ``` Но так было не всегда. В IE8 такой код работать не будет, хотя IE8 и поддерживает возможности, предоставляемые свойством word-wrap. Для данной версии браузера необходимо указать свойство word-wrap с вендорным префиксом: -ms-word-wrap. ``` #text { -ms-word-wrap: break-word; word-wrap: break-word; } ``` Об этом легко забыть. Web Essentials позволяют добавлять пропущенные, но всё таки нужные, свойства с вендорными префиксами, причем база CSS свойств обновляется автоматически и вам не надо запоминать какие вендорные префиксы необходимо использовать. ![](https://habrastorage.org/r/w1560/storage2/e4e/f59/284/e4ef59284d78885bba3761b74bff3c1b.png) Часто бывают ситуации, когда свойства, которые ранее требовали вендрных префиксов, становятся стандартными. Но свой проект вы создавали когда-то давно и про то, что свойство стало стандартным вы не знаете. Допустим, у вас есть стиль, который использует свойство -moz-transform. ``` .foother { -moz-transform: rotate(10deg); } ``` Такой код будет работать только в Firefox. И это очень плохо. С помощью Web Essentials вы узнаете, что необходимо добавить стандартное свойство transform, а также свойства с вендорными префиксами для других браузеров. ![](https://habrastorage.org/r/w1560/storage2/b7b/6a5/873/b7b6a5873a1c34f11cd4f3c8a9d222cc.png) ``` .foother { -moz-transform: rotate(10deg); -ms-transform: rotate(10deg); -o-transform: rotate(10deg); -webkit-transform: rotate(10deg); transform: rotate(10deg); } ``` Кроме того, вы сможете узнать какое свойство какими версиями браузеров используется. Так, transform со значением rotate(<угол>) работает с Firefox 16, IE10 и Opera 12.5. ![](https://habrastorage.org/r/w1560/storage2/301/3f3/1a3/3013f31a3aae3fb7ee49c23df5af1cc6.png) А –webkit-transform со значением rotate(<угол>) будет работать для Chrome, Safari 3.1 и выше, а также для Opera 12 и выше. ![](https://habrastorage.org/r/w1560/storage2/a8d/0f2/7b5/a8d0f27b59bd99f1c47f081d1929a8e7.png) Примите только во внимание, что свойства с вендорными префиксами и без могут иметь разные возможности и поведение. Так как нестандартная версия свойства, реализованная в браузере ранее, может отличаться от того, что приняли или хотят принять в качестве стандарта. Работать с отдельными CSS стилями и свойствами просто. Но в большом CSS файле бывает трудно найти все проблемы, если проблемные места просто подчеркнуты волнистой линией. Поэтому Web Essentials позволяют увидеть все проблемы одним списком. ![](https://habrastorage.org/r/w1560/storage2/c4a/6b3/ced/c4a6b3ced25e0e5008c858d350f8bf85.png) Кроме того, с помощью Web Essentials можно сразу решить найденные проблемы и оптимизировать большой CSS файл сделав следующее: 1. Убрать повторяющиеся свойства 2. Добавить пропущенные стандартные свойства 3. Добавить пропущенные свойства с вендорными префиксами 4. Отсортировать все свойства ![](https://habrastorage.org/r/w1560/storage2/667/2d3/cf0/6672d3cf063f3fadde11ae65a92d1abf.png) Возможности Web Essentials не ограничиваются работой с вендорными префиксами. Из других возможностей, которые мне очень нравятся, можно примести пример лёгкого преобразования изображения в [DataURI](http://ru.wikipedia.org/wiki/Data:_URL). Допустим в вашем проекте есть изображение, вставленное ссылкой на файл: ``` .foother { background-image: url(themes/base/images/ui-bg_flat_0_aaaaaa_40x100.png); } ``` С помощью Web Essentials это изображение в один клик кодируется в base64 и преобразуется в следующий CSS код: ``` .foother { background-image: url('data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAACgAAABkCAYAAAD0ZHJ6AAAAe0lEQVRoge3OMQHAIBAAMcC/kjdZJHTI0A4XBdkz86wfO18H3hRUBVVBVVAVVAVVQVVQFVQFVUFVUBVUBVVBVVAVVAVVQVVQFVQFVUFVUBVUBVVBVVAVVAVVQVVQFVQFVUFVUBVUBVVBVVAVVAVVQVVQFVQFVUFVUBVUF8O8A8WdY6opAAAAAElFTkSuQmCC') /*themes/base/images/ui-bg_flat_0_aaaaaa_40x100.png*/; *background-image: url(themes/base/images/ui-bg_flat_0_aaaaaa_40x100.png); /* For IE 6 and 7 */ } ``` Заметьте, что при этом учитываются вопросы совместимости с ранними версиями Internet Explorer. Выше были рассмотрены только некоторые из возможностей Web Essentials по работе с CSS. Чтобы не перегружать статью оставлю читателю на самостоятельное ознакомление такие возможности, как поддержка стилизации полос прокрутки для iOS, работу с CSS3 анимацией, подсветку цветов (см. рисунок) и т.д. ![](https://habrastorage.org/r/w1560/storage2/f5d/2cb/c1a/f5d2cbc1a45375fe928bfcf091399361.png) А мы пока рассмотрим поддержку расширения для CSS, которое позволяет получить больше удовольствия от создания CSS стилей, преодолевая ряд ограничений, присущих CSS, а также просто писать меньше CSS кода. Поддержка LESS -------------- LESS – это язык, расширяющий CSS и поддерживающий такие возможности как переменные, примешивания (mixins), операции и функции. На Хабре есть [хорошая статья про LESS](http://habrahabr.ru/post/136525/). Не буду повторять её тут. Web Essentials добавляет в Visual Studio полнофункциональный редактор LESS файлов с подсветкой синтаксиса и поддержкой IntelliScence. LESS файлы будут автоматически компилироваться в CSS, генерируя при этом и минифицированную версию CSS файлов. Кроме того при редактировании LESS файлов в окне предпросмотра отображается генерируемый CSS. Приведу пример LESS кода, содержащего переменную и [миксин (mixin, перемешивание)](http://lesscss.ru/#-mixins): ``` @corner: 15px; .round_courners(@radius: 5px) { -moz-border-radius: @radius; -webkit-border-radius: @radius; border-radius: @radius; } #header { .round_courners(@corner); } #footer { .round_courners(); } ``` Из данного кода будут сгенерированы следующие CSS стили: ``` #header { -moz-border-radius: 15px; -webkit-border-radius: 15px; border-radius: 15px; } #footer { -moz-border-radius: 5px; -webkit-border-radius: 5px; border-radius: 5px; } ``` ![](https://habrastorage.org/r/w1560/storage2/84e/0e5/f68/84e0e5f6870cf38f7b2af47d8d215292.png) Поддержка CoffeeScript ---------------------- Также Web Essentials добавляют поддержку [языка CoffeeScript](http://habrahabr.ru/post/97993/), который является одной из [альтернатив JavaScript](http://habrahabr.ru/post/163033/) и в этот самый JavaScript компилируется. Поддерживается редактор кода с подсветкой синтаксиса и осуществляется автоматическая компиляция в JavaScript с генерацией в том числе минифицированной версии. CoffeeScript является очень мощным языком, хотя лично мне, как человеку, который привык к синтаксису C#, а не Ruby (для любителей Ruby CoffeeScript подходит идеально) больше нравится язык [TypeScript](http://www.typescriptlang.org/) от Microsoft, для поддержки которого в Visual Studio надо установить официальные инструменты разработки (а Web Essentials просто улучшает работу с TypeScript). ZenCoding для HTML ------------------ Как и LESS, ZenCoding уже [обсуждался на Хабре](http://habrahabr.ru/post/76069/). ZenCoding – это инструмент, позволяющий быстрее создавать в данном случае HTML разметку. Достигается это благодаря тому, что можно написать относительно простую строку для ZenCoding, которая потом преобразуется в сложную HTML разметку. Например, в HTML редакторе в Visual Studio можно ввести: ``` div#content>h1+p ``` После этого надо нажать клавишу Tab. И сгенерируется следующая HTML разметка: ``` ``` Больше узнать о ZenCoding можно из видео. Минификация стилей и скриптов, создание бандлов ----------------------------------------------- Web Essentials позволяют минифицировать CSS и JavaScript файлы. Для этого необходимо в контекстном меню файла(ов) в окне Solution Explorer выбрать Web Essentials | Minify CSS file(s) или Minify JavaScript file(s). При этом при изменении исходного файла минифицированный файл будет автоматически перегенерироваться. Также с помощью Web Essentials можно создавать бандлы из нескольких файлов. Для бандла автоматически генерируется минифицированная версия. При изменении одного из исходных файлов, входящих в банлд, сам бандл и его минифицированная версия автоматически перегенерируется. JSHint для JavaScript --------------------- Разрабатывать приложения на JavaScript достаточно сложно. Для того, чтобы при разработке приложений было легче следовать лучшим практикам существуют такие инструменты, как [JSHint](http://www.jshint.com/). JSHint находит ошибки и потенциальные проблемы в JavaScript коде, а также показывает несоответствия принятым конвенциям. Web Essentials добавляет поддержку JSHint в Visual Studio. Для запуска JSHint выберите в контекстном меню JavaScript файла в окне Solution Explorer опцию Web Essentials | Run JSHint. После этого в окне Error List отобразятся все найденные проблемы. ![](https://habrastorage.org/r/w1560/storage2/49f/92f/3cf/49f92f3cfbd1c1ec38005d5275e1e92b.png) Также JSHint можно автоматически запускать при сборке проекта. Таким образом вы можете сделать ваш код на JavaScript лучше (если, конечно, будете следовать рекомендациям JSHint). Итоги ----- Мы рассмотрели только часть возможностей Web Essentials 2012. Но даже из такого небольшого обзора видно насколько мощным является данное расширение. Мы не покрыли многие темы, например хотелось бы более детально рассказать про [работу с TypeScript](http://habrahabr.ru/post/153077/) – новым языком от Microsoft, который компилируется в JavaScript и поддерживает статическую типизацию, классы, модули и интерфейсы. Буду безмерно рад, если вы установите Web Essentials и попробуете рассмотренные выше, а также не рассмотренные, но безусловно полезные возможности самостоятельно! Данное расширение действительно помогает при разработке web приложений, попробуйте!
https://habr.com/ru/post/165735/
null
ru
null
# Сeph — от «на коленке» до «production» часть 2 (первая часть тут: <https://habr.com/ru/post/456446/>) CEPH ==== ### Введение Поскольку сеть является одним из ключевых элементов Ceph, а она в нашей компании немного специфична — расскажем сначала немного о ней. Тут будет сильно меньше описаний самого Ceph, в основном сетевая инфраструктура. Описываться будут только сервера Ceph-а и некоторые особенности серверов виртуализации Proxmox. Итак: Сама сетевая топология построена как **Leaf-Spine.** Классическая трехуровневая архитектура представляет из себя сеть, где есть **Core** (маршрутизаторы ядра), **Aggregation** (маршрутизаторы агрегации) и связанные напрямую с клиентами **Access** (маршрутизаторы доступа): **Трехуровневая схема** ![](https://habrastorage.org/r/w780q1/webt/yf/e8/cm/yfe8cmp5qspkply3yniplpk53oo.jpeg) Топология Leaf-Spine состоит из двух уровней: **Spine** (грубо говоря основной маршрутизатор) и **Leaf** (ветви). **Двухуровневая схема** ![](https://habrastorage.org/r/w780q1/webt/dw/ka/qo/dwkaqo4_ru7urikqyvmv3mqe8ik.jpeg) Вся внутренняя и внешняя маршрутизация построена на BGP. Основная система, которая занимается управлением доступами, анонсами и прочее — это [**XCloud.**](https://www.xcloudnetworks.com/case-studies/innova-case-study/) Сервера, для резервирования канала (а так-же для его расширения) подключаются к двум L3 коммутаторам (большинство серверов включаются в Leaf коммутаторы, но часть серверов с повышенной сетевой нагрузкой включаются напрямую в Spine коммутатора), и через протокол BGP анонсируют свой unicast адрес, а так же anycast адрес для сервиса, если несколько серверов обслуживают трафик сервиса и им достаточно ECMP балансировки. Отдельной особенностью этой схемы, которая позволила нам сэкономить на адресах, но так же потребовала от инженеров познакомиться с миром IPv6, стало использование BGP unnumbered standard на основе RFC 5549. Какое-то время для обеспечения работы BGP в этой схеме для серверов применяли Quagga и периодически возникали проблемы с потерей пиров и связностью. Но после перехода на FRRouting (активными контрибьюторами которого являются наши поставщики ПО для сетевого оборудования: Cumulus и XCloudNetworks), больше таких проблем мы не наблюдали. Всю эту общую схему для удобства называем "фабрика". Поиск пути ---------- Варианты настройки cluster network: 1) Вторая сеть на BGP 2) Вторая сеть на двух отдельных стекированных коммутаторах с LACP 3) Вторая сеть на двух отдельных изолированных коммутаторах с OSPF ### Тесты Тесты проводились двух типов: а) сетевые, с помощью утилит iperf, qperf, nuttcp b) внутренние тесты Ceph ceph-gobench, rados bench, создавали rbd и тестировали на них с помощью dd в один и несколько потоков, с помощью fio Все тесты проводились на тестовых машинах с SAS дисками. На сами цифры в производительности rbd не сильно смотрели, использовали только для сравнения. Интересовали изменения в зависимости от типа подключения. ### Первый вариант **Сетевые карты подключены к фабрике, настроены BGP.** Использовать эту схему для внутренней сети посчитали не самым лучшим выбором: Во первых лишнее количество промежуточных элементов в виде коммутаторов, дающих дополнительные latency (это было основной причиной). Во вторых первоначально для отдачи статики через s3 использовали anycast адрес, поднятый на нескольких машинах с radosgateway. Это выливалось в то, что трафик с фронтендовых машин до RGW распределялся не равномерно, а проходил по кратчайшему маршруту — то есть фронтовый Nginx всегда обращался к той ноде с RGW, которая была подключена к общему с ней leaf-у (это, конечно, был не основной аргумент — мы просто отказались в последствии от anycast адреса для отдачи статики). Но для чистоты эксперимента решили провести тесты и на такой схеме, чтоб иметь данные для сравнения. Запускать тесты на всю полосу пропускания побоялись, поскольку фабрика используется prod серверами, и если бы мы завалили линки между leaf и spine — то это бы задело часть прода. Собственно, это было еще одной из причин отказа от такой схемы. Тесты iperf с ограничением BW в 3Gbps в 1, 10 и 100 потоков использовались для сравнения с другими схемами. Тесты показали следующие результаты: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0a5/257/66b/0a525766bf7e61ffc4ba1129db0d17fd.png) в **1** поток примерно **9.30 — 9.43 Gbits/sec** (при этом сильно вырастает количество ретрансмитов, до **39148**). Цифра оказалась приближенная к максимуму одного интерфейса говорит о том, что используется один интерфейс из двух. Количество ретрансмитов при этом примерно **500-600.** в **10** потоков **9.63 Gbits/sec** на интерфейс, при этом количество ретрансмитов вырастало до среднего **17045.** в **100** потоков результат оказался хуже чем в **10**, при этом количество ретрансмитов меньше: среднее значение **3354** ### Второй вариант **LACP** Нашлось два коммутатора Juniper EX4500. Собрали их в стек, подключили сервера первыми линками в один коммутатор, вторыми во второй. Первоначальная настройка бондинга была такой: ``` root@ceph01-test:~# cat /etc/network/interfaces auto ens3f0 iface ens3f0 inet manual bond-master bond0 post-up /sbin/ethtool -G ens3f0 rx 8192 post-up /sbin/ethtool -G ens3f0 tx 8192 post-up /sbin/ethtool -L ens3f0 combined 32 post-up /sbin/ip link set ens3f0 txqueuelen 10000 mtu 9000 auto ens3f1 iface ens3f1 inet manual bond-master bond0 post-up /sbin/ethtool -G ens3f1 rx 8192 post-up /sbin/ethtool -G ens3f1 tx 8192 post-up /sbin/ethtool -L ens3f1 combined 32 post-up /sbin/ip link set ens3f1 txqueuelen 10000 mtu 9000 auto bond0 iface bond0 inet static address 10.10.10.1 netmask 255.255.255.0 slaves none bond_mode 802.3ad bond_miimon 100 bond_downdelay 200 bond_xmit_hash_policy 3 #(layer3+4 ) mtu 9000 ``` Тесты iperf и qperf показали Bw до **16Gbits/sec.** Решили сравнить разные типа мода: **rr, balance-xor и 802.3ad.** Так-же сравнивали разные типы хэширования **layer2+3 и layer3+4** ( рассчитывая выгадать преимущество на вычислениях хэшей). Ещё сравнили результаты при различных значениях sysctl переменной **net.ipv4.fib\_multipath\_hash\_policy,** (ну и поиграли немного с **net.ipv4.tcp\_congestion\_control**, хотя она к бондингу отношения не имеет. По этой переменной есть [хорошая статья ValdikSS](https://habr.com/ru/post/168407/))). Но на всех тестах так и не получилось преодолеть порог в **18Gbits/sec** (этой цифры достигли используя **balance-xor и 802.3ad**, между ними в результатах тестов разницы особо не было) и то это значение достигалось "в прыжке" всплесками. ### Третий вариант **OSPF** Для настройки этого варианта убрали LACP с коммутаторов (стекирование оставили, но оно использовалось лишь для менеджмента). На каждом коммутаторе собрали по отдельному vlan-у для группы портов (с прицелом на будущее, что в эти же коммутаторы будут воткнуты как QA так и PROD сервера). Настроили две плоских приватных сети для каждого vlan (по одному интерфейсу в каждый коммутатор). Поверх этих адресов идет анонсирование еще одного адреса из третьей приватной сети, которая и является cluster network для CEPH. Поскольку *public network* (по которой мы ходим по SSH ) работает на BGP, то для настройки OSPF использовали frr, который уже стоит в системе. **10.10.10.0/24 и 20.20.20.0/24** — две плоских сети на коммутаторах **172.16.1.0/24** — сеть для анонсирования ![](https://habrastorage.org/r/w780q1/webt/t5/c5/fp/t5c5fpxxwqv7u82ywsvkuumcsag.jpeg) Настройка машины: интерфейсы **ens1f0 ens1f1** смотрят в приватную сеть интерфейсы **ens4f0 ens4f1** смотрят в публичную сеть Конфиг сети на машине выглядит так: ``` oot@ceph01-test:~# cat /etc/network/interfaces # This file describes the network interfaces available on your system # and how to activate them. For more information, see interfaces(5). source /etc/network/interfaces.d/* # The loopback network interface auto lo iface lo inet loopback auto ens1f0 iface ens1f0 inet static post-up /sbin/ethtool -G ens1f0 rx 8192 post-up /sbin/ethtool -G ens1f0 tx 8192 post-up /sbin/ethtool -L ens1f0 combined 32 post-up /sbin/ip link set ens1f0 txqueuelen 10000 mtu 9000 address 10.10.10.1/24 auto ens1f1 iface ens1f1 inet static post-up /sbin/ethtool -G ens1f1 rx 8192 post-up /sbin/ethtool -G ens1f1 tx 8192 post-up /sbin/ethtool -L ens1f1 combined 32 post-up /sbin/ip link set ens1f1 txqueuelen 10000 mtu 9000 address 20.20.20.1/24 auto ens4f0 iface ens4f0 inet manual post-up /sbin/ethtool -G ens4f0 rx 8192 post-up /sbin/ethtool -G ens4f0 tx 8192 post-up /sbin/ethtool -L ens4f0 combined 32 post-up /sbin/ip link set ens4f0 txqueuelen 10000 mtu 9000 auto ens4f1 iface ens4f1 inet manual post-up /sbin/ethtool -G ens4f1 rx 8192 post-up /sbin/ethtool -G ens4f1 tx 8192 post-up /sbin/ethtool -L ens4f1 combined 32 post-up /sbin/ip link set ens4f1 txqueuelen 10000 mtu 9000 # Анонсируемые адреса висят на loopback-ах: auto lo:0 iface lo:0 inet static address 55.66.77.88/32 dns-nameservers 55.66.77.88 auto lo:1 iface lo:1 inet static address 172.16.1.1/32 ``` Конфиги frr выглядят так: ``` root@ceph01-test:~# cat /etc/frr/frr.conf frr version 6.0 frr defaults traditional hostname ceph01-prod log file /var/log/frr/bgpd.log log timestamp precision 6 no ipv6 forwarding service integrated-vtysh-config username cumulus nopassword ! interface ens4f0 ipv6 nd ra-interval 10 ! interface ens4f1 ipv6 nd ra-interval 10 ! router bgp 65500 bgp router-id 55.66.77.88 #поле необязательное, чуть ниже расскажем зачем его указали timers bgp 10 30 neighbor ens4f0 interface remote-as 65001 neighbor ens4f0 bfd neighbor ens4f1 interface remote-as 65001 neighbor ens4f1 bfd ! address-family ipv4 unicast redistribute connected route-map redis-default exit-address-family ! router ospf ospf router-id 172.16.0.1 redistribute connected route-map ceph-loopbacks network 10.10.10.0/24 area 0.0.0.0 network 20.20.20.0/24 area 0.0.0.0 ! ip prefix-list ceph-loopbacks seq 10 permit 172.16.1.0/24 ge 32 ip prefix-list default-out seq 5 permit 0.0.0.0/0 ge 32 ! route-map ceph-loopbacks permit 10 match ip address prefix-list ceph-loopbacks ! route-map redis-default permit 10 match ip address prefix-list default-out ! line vty ! ``` На этих настройках сетевые тесты iperf, qperf и т.д. показали максимальную утилизацию обоих каналов в **19.8 Gbit/sec,** при этом latency упало до **20us** *Поле **bgp router-id:** Используется для идентификации узла при обработке маршрутной информации и построении маршрутов. Если не указано в конфиге, то выбирается один из IP адресов узла. У разных производителей оборудования и ПО алгоритмы могут разниться, в нашем случае FRR использовал наибольший IP адрес на loopback. Это приводило к двум проблемам: 1) Если мы пытались повесить еще один адрес (например, приватный из сети 172.16.0.0) больше, чем текущий — то это приводило к смене **router-id** и, соответственно, к переустановке текущих сессий. А значит к кратковременному разрыву и потере сетевой связности. 2) Если мы пытались повесить anycast адрес, общий для нескольких машин и он выбирался в качестве **router-id** — в сети появлялись два узла с одинаковым **router-id.*** Часть 2 ------- После тестов на QA приступили к модернизации боевого Ceph. ### NETWORK ### Переезд с одной сети на две Параметр cluster network один из тех, которые нельзя поменять на лету, указав OSD его через **ceph tell osd.\* injectargs.** Изменить его в конфиге и перезапустить весь кластер — терпимое решение, но очень не хотелось иметь даже небольшой даунтайм. Перезапускать по одной OSD с новым параметром сети тоже нельзя — в какой-то момент мы бы поимели два полкластера — старые OSD на старой сети, новые на новой. Благо, параметр cluster network (как, кстати, и public\_network) это список, то есть можно указать несколько значений. Решили переезжать постепенно — сначала добавить в конфиги новую сеть, потом убрать старую. Ceph идет по списку сетей последовательно — OSD начинает работать сначала с той сетью, которая в списке указана первой. Сложность заключалась в том, что первая сеть работала через bgp и была подключена к одним коммутаторам, а вторая — на ospf и подключена к другим, физически не связанным с первыми. На момент перехода необходимо было иметь временно сетевой доступ между двумя сетями. Особенность настройки нашей фабрики была в том, что ACLы невозможно настроить на сеть, если её нет в списке аннонсируемой (в этом случае она является "внешней" и ACL для нее может быть создан только вовне. Он создавался на spain-ах, но не приезжал на leaf-ы). Решение было костыльным, сложным, но работало: анонсировать внутреннюю сеть через bgp, одновременно с ospf. Последовательность перехода получилась такой: 1) Настраиваем cluster network для ceph на двух сетях: через bgp и через ospf В конфигах frr менять ничего не пришлось, строка ``` ip prefix-list default-out seq 5 permit 0.0.0.0/0 ge 32 ``` не ограничивает нас в анонсируемых адресах, сам адрес для внутренней сети поднят на loopback интерфейсе, достаточно было на маршрутизаторах настроить приём анонса этого адреса. 2) Добавляем в конфиг **ceph.conf** новую сеть ``` cluster network = 172.16.1.0/24, 55.66.77.88/27 ``` и начинаем по одному перезапускать OSD, пока все не переходят на сеть **172.16.1.0/24.** ``` root@ceph01-prod:~#ceph osd set noout # Что-бы не вызвать резкого всплеска нагрузки при рестарте большого количества OSD # перезапускаем их с некоторой задержкой. Практика показала, что на наших дисках # после старта, OSD заканчивает сверку данных примерно за 30 секунд. root@ceph01-prod:~#for i in $(ps ax | grep osd | grep -v grep| awk '{ print $10}'); \ root@ceph01-prod:~# do systemctl restart ceph-osd@$i; sleep 30; done ``` 3) После чего убираем из конфига лишнюю сеть ``` cluster network = 172.16.1.0/24 ``` и повторяем процедуру. Все, мы плавно переехали на новую сеть. Ссылки: [https://shalaginov.com/2016/03/26/сетевая-топология-leaf-spine/](https://shalaginov.com/2016/03/26/%D1%81%D0%B5%D1%82%D0%B5%D0%B2%D0%B0%D1%8F-%D1%82%D0%BE%D0%BF%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%8F-leaf-spine/) <https://www.xcloudnetworks.com/case-studies/innova-case-study/> <https://github.com/rumanzo/ceph-gobench>
https://habr.com/ru/post/458390/
null
ru
null
# Коллекторный двигатель + Digispark = электровелосипед за 50$ ![Все только начинается](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ad8/405/6ef/ad84056effdda1847397c99228ad1bbb.jpg) Идея е-вела бередит меня уже с десяток лет, реализовал только сейчас! **Спойлер** Указанная сумма — средства на моторизацию обычного велосипеда, включая батареи. Задача — именно поддерживать скорость на горизонтальном участке асфальта 20км/ч и помогать в остальных случаях. Запас хода — ~30 минут **Приступим** Для начала поясню почему 50$ — предел стоимости самоделки — это цена китайской бензопилы, мотор от которой можно приколхозить, а 200$ — уже Honda Dio27. **Вводные были следующие:** 1. На горизонтальном участке асфальта, велосипедист на "дорожнике" дл поддержания скорости 20км/ч тратит 100Вт. 2. Большая мощность нужна лишь кратковременно на разгонах/подьемах. 3. Напряжение свинцовой(12В) батареи под нагрузкой сильно просаживается, в е-велах до 10В (а мощность — пропорциональна квадрату напряжения — падает вдвое (против 14В)!) **То-есть, для нормальной езды на велосипеде, достаточно номинально ОТДАВАЕМЫХ мотором 100Вт мощности — нужно только отвязаться от падения напряжения!** **Это реализовано ШИМ-управлением питания 12-вольтового двигателя от батареи в 24В, плюс появляется возможность реализовать кратковременный ФОРСАЖ.** В итоге, был взят двигатель радиатора охлаждения General Motors (Daewoo AKA Opel Kadett) ~ 150Вт (потребление — на выходе как раз Over100Вт и есть) -13$. И две наиболее ходовые батареи для бесперебойников — AGM, 12Вольт, 7ампер-часов каждая, по 10$. Если взять еще цену Digispark — 2$ В общем плюс 1$ — транзисторы (2шт — IRLZ44NPBF) — у меня вышло $36, но допустим у кого-то нет фанеры, патрона от старой дрели и медных проводов сечением 2.5 квадрата. Все это докупается на "блошином" рынке, да и компоненты можно использовать другие — двигатель, батареи. Я пообещал себе, что в начале лета это все поедет — но не успевал, психонул — и таки поехало! ![Е-вел на костылях](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f0e/b2e/c78/f0eb2ec78f82e446ab547efd24787089.jpg) Поначалу, даже без контроллера — батареи заряжены током ~7.5% — 0.5А каждая, запараллелены и через обычный выключатель скоммутированы на двигатель. Да-да, знаю — лютый ~~колхоз~~, но надо было с чего-то начать, а дорабатывать и причесывать можно бесконечно. За основу взят убитый Ашанбайк на колесах 24" (будет Кама/Десна/Салют), ну или колеса от них на этой раме. ![Пластиковы стяжки - рулят!](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e39/25a/98a/e3925a98a5147272a38e191509451493.jpg) Синяя изолента — НАШЕ ВСЕ (конечно уже вовсе не та)! Заклеил вентилляционные отверстия, и был прав — пыли на движок садится слой в палец толщиной! Крепление двигателя — из дельта-древесины (бакелитовой фанеры) и строительного металлического уголка. ![Быстро, дешево и сердито](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0fb/12f/26c/0fb12f26c06ad66436e62c8fff87e8b6.jpg) Привод — прямой на покрышку. Учитывая обороты под нагрузкой 2400Об/мин, для 20км/ч диаметр ролика должен составлять ~40мм (патрон обычной дрели). Но — деревня, грунтовка, ограничился двадцатью миллиметрами. Да, и в таком варианте, даже по грунту скорость держалась (~10км/ч), о разгоне нет и речи. ![Вот, что значит прямой привод, а не эти Ваши, мотор-колеса!](https://habrastorage.org/r/w780q1/getpro/habr/post_images/23c/af6/ab2/23caf6ab2debdf72172e12fafb987369.jpg) **В общем, тестовый прогон первого десятка километров, показал таки ЛЮТУЮ необходимость повышения мощности двигателя хотя-бы до номинальной.** Я уже не говорю о КПД передачи на покрышку — 70% в прыжке. Итак, схема подключения контроллера Digispark (да простит меня читатель за рисунок карандашом на бумаге). ![Знаю, визуализация - олдскульна](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b53/42a/7c5/b5342a7c59b1df1e44001498bebe2b90.jpg) ~~Представляю какая сейчас на изюмском шляхе битва идет~~ да, да, да — знаю не поставил резисторы подтяжки на кнопки. ~~Были демоны~~ резисторы, но они самоликвидировались ) Дело в том, что как оказалось не все входы Digispark-а вопринимают логический ноль, остальные так-же относятся к логической единице. ![Все не так, как рисуют](https://habrastorage.org/r/w780q1/getpro/habr/post_images/524/e3f/448/524e3f448d2ac1ef39bd89eeb1ec9a33.jpg) Схематически все — просто — цифровые пины ввода/вывода — любые, логический 0 на 5-ом ресетит контроллер. Реальность оказалась куда запутанней — пришлось подбирать методом тыка — в итоге повыкусывал резисторы подтяжки, соединил чтобы работало. Для реализации девайса выпилил кусочек макетной платы 10х18 отверстий (3х5см). Еще понадобились две кнопки для трех режимов: 1. Нажата кнопка 1 — режим соответствующий 12В — 100% — едь, пока батареи не сядут. 2. Нажата кнопка 2 — 15В — 156% — в принципе в бортсети авто такое напряжение, но дольше 15 минут лучше не использовать. 3. Две кнопки сразу — ФОРСАЖ! 256% — рвануть со светофора/от злой собаки, в гору, время — меньше — лучше (иначе горелые обмотки гарантированны). Последний пока не реализовал — боюсь за щетки коллектора и обмотки — они даже на 1 режиме перегруз по току получают. Остальное — резисторы — 2шт — 10K (подтяжка нуля на затворы транзисторов). 3K и 330R — делитель напряжения на аналоговый вход P2 (при падении до 18в — идет отсечка нагрузки). 2х100R- ограничение тока управления транзисторами с ШИМ-выхода P0. Ну и наконец, 330R на Vin — ограничитель тока регулятора напряжения Digispark (дабы не сжечь стабилизатор напряжения). ![Так оно выглядит в жизни](https://habrastorage.org/r/w780q1/getpro/habr/post_images/924/b7b/bb8/924b7bbb88168724827b2294e62ac7c4.jpg) В общем, в "железе" все выглядело следующим образом — силовые транзисторы закрепил на радиатор от какого-то процессора 70x60x40мм. Сток IRLZ44 соединен с пластиной теплоотвода, поэтому дабы убрать необходимость изоляции близкорасположенных ног — двигатель подключал именно сюда (коричневый провод). Пару слов о транзисторах — полевые, 5-го поколения, со внутренним обратным диодом (важно для подключения индуктивной нагрузки, как то: двигатель). Максимальный ток — 47A, напряжение — 55В, Rds (при 5В на затворе и токе 25A) — 0.025Ом. Можно выбрать любые другие мощные полевики с низким сопротивлением перехода. Кроме того, для того, что-бы не использовать драйвер управления ОБЯЗАТЕЛЬНО должны быть с управлением логическим уровнем (L в наименовании). Почему их два? Номинальные характеристики того-же сопротивления указаны для 25 градусов Цельсия и токах в 20-25А, при нагреве и большем токе будет хуже. И да, логическая 1 — это не всегда ровно 5 вольт, сам-же транзистор на 4В по затвору недооткрывается, Rds уже 0.035Ом при токе 21А. Запас должен быть по крайней мере двойной — а через движок, берущий до 14 Ампер при 12 вольтах, на 24В может протекать 28А! Да и к тому-же их у меня в запасе с десяток — лучше сразу поставить пару, чем потом по одному перепаивать. Совсем забыл, Digispark у меня включается в разьемы (PBS PBD). **Теперь — скетч:** ``` //Программа для Digispark (Attiny85) // Шим-контроллер двигателя постоянного тока byte voltage1=0; byte pwm0=0; void setup() { //определение пинов //ШИМ для MOSFET pinMode(0, OUTPUT); // аналоговый вход для чтения напряжения батареи pinMode(2, INPUT); // цифровые пины чтения состояния кнопок pinMode(1, INPUT); pinMode(3, INPUT); } void loop() { analogWrite(0,0); delay(1); voltage1 = analogRead(1)*62/1023; //проверка состояния разряженности батареи - если напряжение ниже 18В - движок не стартует if ( voltage1<18 ) { goto lowvoltage1; } if ( digitalRead(3) ) { if ( digitalRead(1) ) { //расчет потребляемой мощности как пропорция квадрата напряжения - нормализуем до 12В pwm0=(12^2/voltage1^2)*255; analogWrite(0,pwm0); delay(100); } } else { //расчет потребляемой мощности как пропорция квадрата напряжения - нормализуем до 15В pwm0=(15^2/voltage1^2)*255; analogWrite(0,pwm0); delay(100); } lowvoltage1: ; } ``` **Что можно поменять в схеме и компонентах?** 1. Двигатель — изначально предполагал использовать МЭ-272 (ВАЗ), но корейский оказался доступнее, если взять движок на разборке, то можно сэкономить на дополнительные батареи. 2. Батареи — по соотношению цена-емкость (в ампер-часах) 12-вольтовые на 7А-ч — оптимальны, 2 батареи в 10А-ч обойдутся в цену ЧЕТЫРЕХ семерок! Если нужно увеличить пробег — соединяйте их попарно-параллельно! И да — никаких гелевых — только AGM! **Впечатления:** Тестовый прогон первого километра на более мощном режиме показал отсутствие перегрева двигателя (до 40 градусов цельсия) и чуть теплый радиатор транзисторов — значит схема рабтает корректно. В состоянии покоя — потребление — 30мА — чисто Digispark, через MOSFET утечек нет. Для выбранного типа привода нужны покрышки-слики. Но даже при таких раскладах двигатель тянет куда веселей, чем от запараллеленых батарей напрямую — по асфальтовому участку даже с "ветерком". В общем, идея ШИМ-управления 12-вольтовым двигателем от 24V-источника себя оправдала! *С Вами был Андрей, до новых встреч на Хабре!*
https://habr.com/ru/post/415497/
null
ru
null
# Обзор маршрутизатора Draytek серии 2925. Часть вторая В [первой части обзора](https://geektimes.ru/company/digitalangel/blog/280228/) серии маршрутизаторов Draytek 2925n, мы подробно рассмотрели, как устройство позиционируется на рынке, схему использования маршрутизатора, его ключевые функции и примеры их использования, ознакомились с подробной технической спецификацией, посмотрели комплектацию и внешний вид маршрутизатора, подробно разобрали функции индикаторов и интерфейсов устройства. [![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/8f9/a2c/f5c/8f9a2cf5c7364219dcf2f8d1351308a1.jpg)](https://geektimes.ru/company/digitalangel/blog/280324/) Полученные результаты однозначно демонстрируют широкие возможности маршрутизатора в купе с «гигабитом», который может понадобиться предприятию уровня SMB и SMB+ или небольшому филиалу крупной компании, которые «переросли» предельную скорость сетевых подключений в 100Мбит\с и нуждаются в сотнях мегабит в локальной сети и на WAN-интерфейсах к Интернет-провайдеру. Поэтому, устройство имеет огромный потенциал для использования в ресурсоёмких корпоративных сетях. Нагрузочное тестирование, с результатам которого вы можете ознакомиться в первой части обзора, показало неплохие результаты. Первая часть обзора доступна по этой ссылке. В данной части обзора мы подробно рассмотрим веб-интерфейс устройства, познакомимся с его особенностям и примером настройки таких функции и интерфейсов как WAN и LAN, Load-balancing, беспроводная сеть, VPN (PPTP, IPSec и SSL), сетевой экран, NAT, специальными инструментами авто настройки и централизованного управления точками доступа – Central AP Management и VPN-соединениями на удалённых маршрутизаторах –Central VPN Management, управление пропускной способностью, функцией создания кластера высокой доступности из нескольких маршрутизаторов, а также функции USB, диагностики и мониторинга маршрутизатора. Ниже представлена общая схема подключения маршрутизатора. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/e51/4de/a98/e514dea985e47b34be2f1609641aaa36.jpg) *Рис. 0* ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/e5f/b78/dc6/e5fb78dc683be1d6c5cc2e8db538ea4a.jpg) *Рис. 0-1* Обращаю внимание что все Ethernet все порты WAN и LAN «гигабитные». По умолчанию, на маршрутизаторе включена открытая беспроводная сеть с именем Draytek и DHCP-сервер, можно подключиться к ней или использовать один из портов LAN. После подключения к маршрутизатору с ПК и успешного получения IP адреса, из сети 192.168.1.0/24, откроем его веб-интерфейс, для этого в веб-браузере нужно набрать IP LAN по умолчанию 192.168.1.1, Username:admin, password:admin. Рекомендую сразу же изменить пароль на более безопасный. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/789/72d/b79/78972db79efec2b56ae1208154651b38.jpg) *Рис. 1* Мы попадаем в меню «*Online Status»,* где отображена основная информация об устройстве ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/afe/582/899/afe582899f7df4d6b5b031c65c84e3ce.jpg) *Рис. 2* Ниже, на изображении, представлено меню «*Dashboard»,* в котором наглядно отображается схема подключения маршрутизатора к сетям WAN, LAN и беспроводной WLAN. Просто и наглядно ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/3b9/a6a/bb0/3b9a6abb0bccf099c224a8ff5637c6ba.png) *Рис. 2-1* Обращаю внимание что версия прошивки 3.7.8.2\_R предустановлена на маршрутизаторах, поставляемых в Россию, такая прошивка отличается от обычной тем что в ней отсутствует шифрование кроме PPTP протокола, выглядит это так: ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/b32/a64/461/b32a6446181e7d4ab3d34179c38385ed.jpg) *Рис. 3* Если этого недостаточно, можно поставить полноценную прошивку, загрузив её с сайта Draytek.com в разделе *Supports -> Downloads -> Firmware — Vigor2925 Series*. Я выбрал последнюю 3.8.2.3 и загрузил её, далее, разархивируем её, в веб-интерфейсе маршрутизатора открываем *System Maintenance >> Firmware Upgrade* и указываем файл v2925\_3823.all, затем нажимаем *«Upgrade»*. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/166/1cb/033/1661cb033b6c66ba413acf38bd1f2222.jpg) *Рис. 4* После успешного обновления, перезагрузим маршрутизатор и получим последнюю прошивку без каких-либо ограничений. Для наглядности, ниже представлено изображение сетевой схемы для маршрутизатора Draytek 2925n, на примере которой мы будем рассматривать его веб-интерфейс, а также некоторые примеры настройки функций. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/9ee/a3e/8ee/9eea3e8ee247cc3266e07b2cdf82c261.jpg) *Рис. 4-1* Для подключения к Интернет мы используем два WAN интерфейса с несколькими правилами маршрутизации, в случае аварии на первом канале, трафик автоматически пойдёт через резервный. Мы используем две подсети: LAN0=192.168.1.0/24 и LAN1=192.168.2.0/24. И три беспроводных сети с SSID: DrayTek, DrayTek\_Guest и DrayTek\_Unencrypted. Они объединены через настройки VLAN с беспроводными сетями. Удалённые клиенты могут подключаться по VPN используя Smart VPN Client и протоколы PPTP и IPSec. Для приложения SmartMonitor включено зеркалирование с LAN портов. В целом, в независимости от модели маршрутизатора Draytek, структура меню имеет схожую организацию, можно не найти каких-то функций, или обнаружить большее их количество, чем в другой модели или версии встроенного ПО, но структура остаётся неизменной. Слева блок глобальных пунктов меню, структурированных по подсистемам маршрутизатора: Мастера быстрой настройки (Wizards), настройки интерфейсов проводной сети WAN и LAN, затем блок настроек межсетевого экрана (Firewall, Objects Settings, CSM) и управление пользователями (User Management), затем блок настроек специальных приложений маршрутизатора (Applications). Затем два пункта меню отвечающие за централизованное управление беспроводными точками Draytek – Central AP Management и централизованное управление VPN на маршрутизаторах Draytek – Central VPN Management. Далее блок VPN настроек, за ним меню отвечающее за настройку беспроводной сети (Wireless LAN), отдельное меню для настройки USB-порта (USB Application) и наконец меню сервисных функций (System Maintenance) и меню диагностики маршрутизатора (Diagnostics). Все пункты структурированы просто и логично, в соответствии с сетевым функциям, без какой-то специфичной и запутанной логики. Каждый глобальный пункт меню включает один или несколько подпунктов. Рассмотрим основные пункты меню, так как маршрутизатор имеет конфигурацию, соответствующую сетевой схеме, которая была представлена выше, по ходу рассмотрения новых пунктов меню станет понятно как настроены те или иные сетевые функции. Меню Wizards ------------ Здесь находятся мастера настроек, позволяющие в несколько кликов настроить основные функции маршрутизатора. Они представляют из себя цепь из нескольких диалоговых окон, в последнем окне выводится листинг всех сделанных настроек и кнопка «Finish» для их применения. Мне показалось, что данные мастера для совсем ленивых администраторов, так как и без них, настройка основных функций на маршрутизаторе не составляет труда. *Quick Start Wizard* – служит для быстрой настройки подключения WAN 1-3 интерфейсов. *Service Activation Wizard* – активирует интеллектуальный тематический фильтр сайтов *Web Content Filter*. Следующие мастера *VPN Client Wizard и VPN Server Wizard* показались мне интересными, с помощью них легко настроить работу VPN в режимах LAN-to-LAN и Remote Dial-in User, активировать сервис и прописать пользователей. Ниже, пример из 3х шагов, чтобы добавить и актировать VPN пользователя. Мы выбрали PPTP, дальше нужно выполнить настройки на стороне клиента, мы будем использовать Draytek Smart VPN клиент. Вернёмся к настройкам VPN в меню *VPN and Remote Access*. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/396/8d5/79e/3968d579e44509912e413e276b2dfdd8.jpg) *Рис. 5* ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/789/aa1/31d/789aa131d263220017a2aa244bdeece1.jpg) *Рис. 6* ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/f89/5bc/b4e/f895bcb4e56dc937463fe69905e7a75e.jpg) *Рис. 7* Мастер *Wireless Wizard* служит для первичной настройки беспроводной сети. Ниже финальное окно в завершении работы мастера. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/1e1/bd5/2fc/1e1bd52fc43c49e4a8dd6fe46ce1a582.jpg) *Рис. 8* За пару кликов беспроводная сеть настроена. Меню Online Status ------------------ Следующий пункт меню содержит два подпункта: первый *Physical Connection* – показывает физический статус интерфейсов LAN, WAN 1-3 и счётчики канального уровня, тоже самое, но только для виртуальный интерфейсов можно увидеть в меню *Virtual WAN*. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/56f/912/985/56f91298597864a4b2e590a40dd9bf06.jpg) *Рис. 9* Более подробную информацию о статусе системы можно посмотреть в *System Maintenance -> System Status*. Меню WAN -------- В данном меню выполняются все настройки связанные с подключением маршрутизатора к Интернет провайдерам. В нашем примере активны WAN 1 и 2: ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/2ae/15a/afe/2ae15aafe31666436d8d7ea7f23e2242.jpg) *Рис. 10-1* Настройка *Load balance mode* доступна при одновременном использовании двух или трех WAN интерфейсов. Мы используем режим, *Auto Weigh*, в этом режиме маршрутизатор автоматически распределяет нагрузку. Интерфейс WAN 3 может быть использован при подключении 3/4G модема. Ниже детальная настройка WAN 2 интерфейса, мы используем режим балансировки нагрузки. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/d03/af5/801/d03af58017be08a0ae1452438a7bc1cc.jpg) *Рис. 10-2* В подменю *Internet Access* настраиваются непосредственно интерфейсы. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/88c/f3b/157/88cf3b157d164ad6a55466f2ca29d6ad.jpg) *Рис. 10-3* Переходим на *Detalils Page WAN 2*, здесь находятся настройки режима подключения, мы используем статический IP, на первом интерфейсе работает DHCP-клиент. Кроме использованных нами способов, можно подключиться к Интернет используя протоколы PPTP/L2TP или PPPoE, также IPv6. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/974/f3a/d39/974f3ad390ec9444209ef9e063239a1d.jpg) *Рис. 11* Подменю *Multi-VLAN* позволяет администратору создать профили для определенного физического WAN 1-2 интерфейса и создать мост с интерфейсами LAN локальной сети, для достижения максимальной пропускной способности. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/7f2/6eb/b95/7f26ebb95461763fe1f400ad6456d8a2.jpg) *Рис. 12* То есть, на базе физического интерфейса WAN 1-2 мы создаём дополнительный виртуальный WAN 5-7 в указанном нами VLAN и «бриджуем» его с нужными LAN портами 1-3(4 порт может работать только в режиме NAT), опционально, можем назначить виртуальному интерфейсу WAN 5-7 IP адрес вручную или получать по DHCP, то есть сделать его L3. В качестве примера, можно привести проброс трафика IPTV с WAN на LAN. Подменю *Multi-VLAN* отвечает за бюджетирование или лимитрование объёма трафика через WAN интерфейсах. Бюджет трафика выделяется на определенный интервал времени, который определяет администратор. После истечения интервала, счётчик израсходованного трафика обнуляется и включается заново. Администратор указывает действие, которое произойдет, если бюджет трафика будет израсходован до истечения временного интервала, это может быть: выключить интерфейс, послать уведомление по электронной почте или в SMS-сообщении. Ниже представлены изображения списка интерфейсов и детальные настройки, на примере интерфейса WAN1 ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/620/592/834/620592834fe6d5a11dff55581cc74b5b.png) *Рис. 12-1* ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/cc7/1cd/bac/cc71cdbac2cdca546376a18385b429b1.png) *Рис. 12-2* Меню LAN -------- Пункт отвечает за настройку локальной сети и содержит ряд подпунктов. Маршрутизатор поддерживает два независимых LAN сегмента со своими настройками, по умолчанию это 192.168.1.1/24 и 192.168.2.1/24, также можно добавить одну маршрутизируемую сеть. В обоих сегментах включен DHCP который выдаёт IP-адреса подключающимся терминалам пользователей. Кстати, DHCP-сервер можно настроить на передачу любых дополнительный DHCP-опций, это очень удобно если в сети есть специализированные сервисы, например, TFTP-сервер. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/5c6/2f6/57e/5c62f657ead9d3837ff26e068f660a80.png)![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/865/77d/319/86577d31917038c8a5fb7bd5a79ba807.png) *Рис. 13* Дополнительно, можно разрешить или запретить маршрутизацию между LAN 1-5 в разделе Inter-LAN Routing. В следующем подменю *LAN >> Static Route Setup* можно добавить до 10 статических маршрутов в другие сети за IP-адресами в подсетях LAN 1-5. Подменю *LAN >> VLAN Configuration* позволяет объединить в один VLAN указанные порты LAN P1-5 с беспроводными сетями SSID 1-4 и опционально добавить метки VLAN с приоритетами. При включении VLAN Tag трафик с метками, указанными в поле VID, появится на соответствующих портах LAN, по беспроводным сетям теги не передаются. В нашем примере два независимых VLAN. В VLAN0 входят LAN порты P 2-5 и беспроводная сеть с SSID1 – всё это находится в LAN 1 сегменте. В VLAN1 входит порт P1 и беспроводные сети с SSID2 и SSID3 – всё это находится в LAN 2 сегменте. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/424/b3a/d13/424b3ad133633b443854ff9bea210c16.png) *Рис. 14* Маршрутизатор может работать в режиме создания не тегированных VLAN на базе портов, или VLAN на основе меток VID. Следующий пункт подменю *LAN >> Bind IP to MAC*. Позволяет создавать списки с соответствиями MAC-адреса и IP-адреса, если функция разрешена все назначенные IP-адреса на MAC-адреса не могут быть изменены. Созданные листы можно сохранять в файл и восстанавливать в конфигурацию маршрутизатора из предварительно сохраненного файла. В меню *LAN >> LAN Port Mirror* можно включить копирование всего трафика с указанных LAN *Mirrored port* на принимающий *Mirror port*. Эта функция полезна для отладки сети при помощи сниффера или при использовании приложения для мониторинга и анализа сетевой активности Draytek Smart Monitor, информацию об этом приложении можно найти в первой части данного обзора. В отличие от маршрутизатора Draytek 2912, обзор которого в двух частях доступен по ссылкам: [часть 1](https://geektimes.ru/company/digitalangel/blog/276476/) и [часть 2](https://geektimes.ru/company/digitalangel/blog/277382/), в модели 2925, для каждого порта можно указать какой трафик зеркалировать: только входящий Rx, только исходящий Tx, или тот и другой. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/b3a/ff8/2d3/b3aff82d3d7ef7ef6429ecafe231b12a.png) *Рис. 15* Подменю *Wired 802.1X* включить 802.1X аутентификацию для любого из 5 LAN портов. Причём функция может работать в двух режимах: локальная аутентификация 802.1X(настраивается через меню User Profile) или через внешний RADIUS-сервер. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/5cc/709/39a/5cc70939a21c92f884a2442e057d2220.png) *Рис. 15-1* Подменю *LAN >> Web Portal Setup* позволяет определить профили, которые назначаются на интерфейсы LAN или WLAN-беспроводной сети и указать в них URL-ссылку сайта для автоматической переадресации пользователя при первой попытке открыть веб-страницу, после подключения через указанный в профиле интерфейс, например, SSID1. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/9d5/f72/187/9d5f72187b36f2dfd89f2af1a75ee238.png) *Рис. 16* Это функция используется в рекламных целях или для уведомления пользователя, который подключается к Интернету при через сеть определенной компании. В примере, при попытке впервые открыть любую веб-страницу, пользователь будет переадресован на сайт [www.ucexpert.ru](http://www.ucexpert.ru), где в верхней части экрана будет сообщение с предложением пользователю нажать кнопку «Continue» для продолжения веб-сессии и перехода на нужный сайт. Ниже приведен пример такой страницы. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/4f7/987/b43/4f7987b436a6dc71b31b897cfaa40107.png) *Рис. 17* Меню Load-Balance/Route Policy ------------------------------ Данный пункт меню содержит подпункт *General Setup* – непосредственную настройку правил балансировки нагрузки и политик маршрутизации и *Diagnose* – подпункт для отладки настроенных правил, где можно имитировать маршрут прохождения одного или нескольких пакетов через таблицу настроенных правил и проверить результат. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/98c/d48/0e6/98cd480e6d12e278aae8892828e7f3b9.png) *Рис. 18* В примере пакеты, уходящие с любых IP адресов LAN маршрутизатора на IP 8.8.8.8 пройдут через WAN1, аналогично работает второе правило, только для IP назначения 8.8.4.4 и пакеты пройдут уже через WAN2. В третьем правиле указывается целая подсеть, в четвёртом правиле указывается что весь трафик нужно посылать через WAN1, в случае отказа WAN1, посылать на WAN2. Каждое правило имеет приоритет, чем он ниже, тем раньше выполняется правило. На следующем изображении представлены критерии, по которым можно задать правило, их довольно много, также можно определить куда посылать пакет, если правило не сработало. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f21/bfa/4be/f21bfa4be57287e2f7e07fcbc5ebd0b2.png) *Рис. 19* На следующем рисунке представлена диагностика маршрута. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/3a1/c5f/5fd/3a1c5f5fd6f6c649ba60aee395ecb13d.png) *Рис. 20* Меню NAT -------- В меню настраиваются функции адресной трансляции NAT (Network Address Translation), оно содержит подменю *Port Redirection* – перенаправление портов с порта указанного интерфейса WAN на IP-адрес и порт в сети LAN, это может быть необходимо для FTP-серверов, почтовых серверов и т.д. Подменю *DMZ Host* позволяет задать по одному DMZ хосту в локальной сети LAN на каждый из WAN интерфейсов. Подменю *Open Ports* позволяют держать открытыми указанные диапазоны портов для специальных приложений, например, P2P, и направлять их на определенные IP-адреса в LAN. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/8ab/65c/35e/8ab65c35e16c79aed0b58b59a43b4d36.png) *Рис. 21* *Port Triggering* это вариация *Open Ports*. Если после активации правила Open Ports, указанные порты постоянно открыты, то при применения правила *Port Triggering*, указанные порты будут открываться только когда условия правил совпадут, затем по таймауту порты снова закроются. Работа функции в соответствующем пункте подменю задается набором правил. Меню Hardware Acceleration -------------------------- Данное меню служит для настройки аппаратного ускорения таких функций как Data Flow Monitor – один из пунктов подменю диагностики, в котором отображается информация об активных сессиях с IP-адресов, *Traffic Graph* – информация от трафике проходящим через WAN интерфейсы в виде графиков, *WAN Budget* – функция бюджетирования объёма трафика за определенный период времени. Причём функцию можно включить как в автоматическом режиме, так и в ручном – указать для какого IP-адреса хоста и протокола UDP\TCP с диапазоном портов и включить данную функцию. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/773/515/4a2/7735154a2507d405c55fd7c5fa436509.png) *Рис. 21-1* Меню Firewall ------------- В данном меню настраиваются глобальные правила работы межсетевого экрана, задаются наборы и порядок правил проверки трафика, также указываются правила фильтрации трафика по умолчанию. Межсетевой экран можно условно разделить на 3 подсистемы: 1. Настраиваемый пользователем IP-фильтр на основе наборов правил Call Filter/ Data Filter 2. Фильтр Stateful Packet Inspection (SPI) 3. Защита от атак Denial of Service (DoS) /Distributed DoS (DDoS) В архитектуре межсетевого экрана используется два независимых набора правил Call Filter и Data Filter. Набор правил Call Filter применяется для трафика, направляющегося из локальной сети в WAN, когда нет активного Интернет-соединения (WAN-интерфейс не активен) и перед установлением соединения трафик проходит через правила Call Filter, если пакеты не блокируются, соединение устанавливается. При активном состоянии WAN-интерфейса, все пакеты сразу же попадают в набор правил Data Filter, туда же попадает и весь входящий на WAN-интерфейсы трафик. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/60f/484/e29/60f484e29960aef75fb58294672c10e1.png) *Рис. 22* В правилах работы межсетевого экрана могут указываться объекты (определенные через меню Objects Settings), такие, как IP-адреса или группы IP-адресов, протокол и диапазон портов и их группы, ключевые слова и группы ключевых слов, профили расширений файлов, пользователи (определенные в меню User Management) и наконец, в меню CSM (Content Security Management), определить приложения, например, Skype, URL-адреса и даже тематика тех или иных сайтов при помощи системы Web Content Filter. То есть, мы можем работать с трафиком начиная с сетевого уровня и заканчивая уровнем приложений, плюс использовать систему Web Content Filter для интеллектуальной обработки трафика по тематике веб-контента, то есть создавать очень широкие правила. Ниже представлены глобальные настройки в подменю *Firewall >> General Setup*, далее, подменю *Firewall >> Filter Setup*, иллюстрирующее наборы правил межсетевого экрана, подменю *Firewall >> Filter Setup >> Edit Filter Set*, иллюстрирующее состав конкретного набора правил. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/7f7/06c/e8d/7f706ce8d0a62dbc2077f3c10c118578.png) *Рис. 23* Теперь рассмотрим конкретное правило в из таблицы под названием block-social ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a5d/4ac/beb/a5d4acbeb19d8959433d5fa5c0d62509.png) *Рис. 24* Во-первых, в *Schedule* можно указать расписание, когда правило будет работать, например, блокировать социальные сети с 9-30 до 18-00 с понедельника по пятницу. Далее, указываем направление проверки трафика в поле *Direction*, входящие и исходящие IP-адреса любые, тип сервиса может задаваться конкретным объектом в меню *Objects Setting >> Service Type Object*, а может набором объектов, и представляет из себя связку типа протокола + порт или диапазон портов. Далее, в поле *Filter* указываем критерий *«Pass If No Further Match»* — пакеты нужно пропускать, если ни один из критериев в оставшихся правилах не совпадёт. Если пользователь обратится к социальной сети, например, ok.ru, критерий совпадёт и пакет будет заблокирован. Критерий в данном примере — это профиль в *URL Content Filter*, который содержит объект – группу включающую ключевые слова – адреса социальных сетей. Ниже, я проиллюстрирую настройки, когда мы дойдём до них. Таким же образом, в правиле включаются и другие критерии, то есть в правилах межсетевого фильтра можно добавлять критерии как на сетевом уровне, так и на уровне приложений, более того, можно включить *Web Content Filter*, который работает ещё выше – на уровне тематики веб-контента. Подменю *DoS Defense*. В маршрутизаторе реализованы детектирование и автоматическая защита от DoS атак, причём метрики порога интенсивности трафика, после которого событие считается атакой могут настраиваться вручную. Также предусмотрено отправка уведомлений об атаке. Меню User Management -------------------- Межсетевой экран может работать в одном из двух глобальных режимов: > Rule-Based, то есть базирующийся на правилах, где объекты, например, IP-адреса станций пользователей. Администратор устанавливает правила на основании различных IP-адресов. > User-Based, то есть управление осуществляется на основании профилей пользователей. Администратор устанавливает правила на различные профили пользователей или их группы. Перед этим пользователи должны авторизоваться. После авторизации системе создаётся соответствие между именем пользователя и IP адресом, с которым он авторизовался. Ниже представлены *подменю User Management >> General Setup,* где происходит переключение между работой с IP-адресами или работой с профилями пользователя. Если с работой по IP-адресам всё понятно: администратор присваивает IP-адрес терминалу пользователя, который не должен меняться и назначает правила для IP-адреса. Как только мы переключаемся в режим User-Based, пользователь должен авторизоваться, до этого момента он не сможет работать в сети, а при открытии браузера и попытки зайти на любой сайт он будет переадресован на страницу авторизации. Чтобы авторизоваться, профиль пользователя с соответствующими правами должен содержаться в таблице User Management >> User Profile. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/997/413/065/9974130656f44d430bdc78dbb1e56e5b.jpg) *Рис. 25* В примере есть профиль пользователя Игнат Кудрявцев, откроем профиль данного пользователя ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/4c9/42f/a1b/4c942fa1bd3eca44ceaa720ba9d560e7.png) *Рис. 26* Как видно, здесь можно установить таймаут на автоматический логаут в случае простоя, и ограничение на одновременное число логинов, включить внешнюю аутентификацию по протоколам LDAP или RADIUS. Также можно установить квоты на время и объём трафика, потребляемые пользователем. Landing Page — это страница которую увидит пользователь после успешной авторизации. Можно выводить просто сообщение, как в нашем примере: «Login Success!», а можно делать переадресацию на любой веб-сайт, например, сайт компании. Для этого в настройках Landing page нужно написать строку вида: ``` window.location='http://www.draytek.com' ``` Все настройки подробно описаны в руководстве пользователя. При открытии веб-браузера и попытке зайти на любой сайт, пользователь будет переадресован на страницу авторизации, после успешной авторизации появится сообщение «Login Success!» и пользователь сможет работать в сети. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/69a/df4/666/69adf466636a3ef695278d40a9704bdc.jpg) *Рис. 27* В подменю *User Group* пользователей можно группировать, чтобы затем назначать группам пользователей одинаковые правила, например, по отделам компании. Подменю *User Online Status* служит для просмотра статуса пользователей. Меню Objects Setting -------------------- Маршрутизаторы серии Draytek 2925 поддерживают межсетевой экран с невидимой проверкой пакетов SPI (Stateful Packet Inspection) базирующийся на объектах (Object-based), таких как: пользователь (при авторизации он получает определенный IP), IP-адреса или группы IP-адресов, протокол и диапазон портов и их группы, ключевые слова и группы ключевых слов, профили расширений файлов. Эти объекты могут быть использованы для создания правил межсетевого экрана, которые можно включать и отключать по расписанию. В меню Objects Setting создаются и группируются различные типы объектов. В подменю *IP Object* создаются объекты на основе хоста, диапазона IP-адресов или подсети, также можно использовать конкретный MAC-адрес для любого IP-адреса. В подменю IP Group из IP объектов создаются группы, которые затем можно использовать для создания правил межсетевого экрана. То же самое для *IPv6 Object и IPv6 Group* с IP адресацией IPv6. В подменю *Service Type Object и Service Type Group* создаются и группируются объекты на основе типа протокола, портов источника и назначения. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f93/e2e/521/f93e2e5211d9033e3ddce909285a6e70.png) *Рис. 28* В подменю *Keyword Object и Keyword Group* создаются и группируются объекты на основе ключевых слов, затем эти объекты могут быть использованы для создания правил фильтрации, например, для URL Content Filter Profile и DNS Filter Profile в подсистеме CSM. В нашем примере мы блокируем социальные сети vk.com twitter.com facebook.com и ok.ru, для этого создали два профиля с именами social-nets и social-ok.ru содержащие данные ключевые слова и добавили их в группу social-nets-gro подменю *Objects Setting >> Keyword Group*. Далее, мы используем эту группу в *CSM >> URL Content Filter Profile*. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/470/387/9db/4703879db1e72ccd413434fbef956b19.png) *Рис. 29* В подменю *File Extension Object* создаются профили расширений, файлов которые могут распознаваться и применяться в правилах межсетевого экрана. Таким образом, например, можно запретить загрузку всех сжатых файлов или видео файлов с указанными расширениями. В примере запрещена загрузка любых изображений. Созданный профиль с названием blk-img затем будет использован в профиле *CSM >> URL Content Filter Profile*. Мы увидим это в примере ниже. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/467/ab1/24b/467ab124b940bab84e53ed9967d8bce5.png) *Рис. 30* Подменю *SMS/Mail Service Object и Notification Object* позволяют настроить до 10 профилей уведомлении для сервиса *Application>>SMS/Mail Alert Service*. Меню CSM -------- Система безопасности содержимого CSM (Content Security Management), это подсистема межсетевого экрана, работающая на прикладном уровне, позволяется блокировать URL ссылки по ключевым словам и по типу содержимого, например, Java Applet, Cookies, Active X, также можно блокировать различные сетевые приложения, например, IM/P2P или по протоколам прикладного уровня, например, MySQL, SMB, SSH, UltraVPN, список сервисов и протоколов довольно внушительный. Имеется возможность блокировки DNS по ключевым словам. В подменю *APP Enforcement Profile* создаются профили для фильтрации сетевых приложении которые могут использовать динамически меняющиеся порты и каждое такое приложение имеет свою специфику, например, Skype. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/fa3/1de/bed/fa31debeda70927fe5d5a870c7701b7b.png) *Рис. 31* В примере настроек правила межсетевого экрана таблицы Data Filter, который был приведён выше, указано данное правило. Подменю *URL Content Filter Profile* отвечает за фильтрацию веб-контента. Здесь указываются ранее созданные объекты *Group/Object Keyword* и разрешается функции *URL Access Control*, тогда в каждом адресе веб-сайта будет вестись поиск по ключевым словам. В нашем примере мы добавили ранее в созданную группу social-nets-gro содержащую ключевые слова с веб-адресами социальных сетей. В разделе *Web Feature* можно включить блокировку Cookie, Proxy и загрузки файлов с указанными в профиле *File Extension Profile*, в примере ранее, мы создали профиль 1-blk-img. Созданный профиль social назначается в правиле межсетевого экрана в поле URL Content Filter. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/dff/694/59f/dff69459f28de70f97cb93e73d71116d.png) *Рис. 32* Когда правило сработает при попытке открыть, например, vk.com, пользователь увидит сообщение из поля *Administration Message,* пример содержимого такого поля приведен на предыдущем изображении. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/d22/309/b4e/d22309b4e454d7ab23d7526a2c2c4331.png) *Рис. 33* Подменю *Web Content Filter Profile*. Ещё один мощный инструмент CSM — система GlobalView Web Content Filter. Предназначена для фильтрации нежелательного контента на тематическом уровне, то есть, например, сайты с тематикой порно, криминал, азартные игры и прочее. Администратор создаёт профили, где указывает тематику сайтов и назначает их в правила межсетевого экрана, затем указывает что делать при совпадении правила, например, заблокировать. Web Content Filter лицензируется, но пробную лицензию для тестирования можно получить бесплатно. Ниже представлена настройка профиля по категориями: ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/ebe/25f/1fb/ebe25f1fb9736ef2c198c6533406a1a9.png) *Рис. 34* Подсистема *DNS Filter Profile* проверят и блокирует DNS запросы на 53 порт UDP в соответствии с назначенным профилем URL Content Filter Profile или Web Content Filter Profile. Также можно кастомизировать сообщение, которое будет выводиться пользователю при блокировке ресурса. Меню Bandwidth Management ------------------------- Подменю *Bandwidth Management >> Sessions Limit* служит для ограничения количества NAT с сессий с IP-адресов LAN, которые могут быть одновременно установлены. Например, P2P (Peer to Peer) приложениям обычно требуется множество одновременных сессий, и они потребляют много сетевых ресурсов. Также можно ограничить число сессий по умолчанию с любого IP. В подменю *Bandwidth Management >> Bandwidth Limit* устанавливаются ограничения на утилизацию полосы пропускания для хостов и диапазонов IP-адресов. Причем, работа правил может настраиваться по расписанию, можно отдельно ограничить полосу для входящего и исходящего трафика. В подменю *Bandwidth Management >> Quality of Service* настраивается качество обслуживания трафика. Сначала трафик при помощи правил классифицируется по критериям таким как IP источника и назначения, тип сервиса и код DiffServ. Затем, каждому классу трафика резервируется свой процент общей полосы пропускания указанного интерфейса. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/ddf/230/645/ddf2306456351c0305fcd6097f0202e5.png) *Рис. 35* Кстати приоритезация для VoIP трафика по умолчанию включена. Меню Applications ----------------- Данное меню содержит настройки служебных приложений, которые помогают выполнить тонкую настройку отдельных функций. Например, в подменю Schedule, настраиваются профили расписания, которые используются в различных настройках функций и правил маршрутизатора, всего в расписании можно создать до 15 записей. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/916/d4f/a02/916d4fa026bf1d20f351a595b11644da.png) *Рис. 36* В меню *LAN DNS* можно указать соответствие IP адреса и доменного имени в локальной сети. В меню *RADIUS и Active Directory /LDAP* можно опционально включить авторизацию пользователей на соответствующих названиям подменю серверах. В подменю *IGMP* можно разрешить IGMP проксирование или IGMP snooping для мульткаст трафика, например, IP TV. Отдельного внимания заслуживает подменю *High Availability,* которое служит для настройки резервирования аппаратных и программных ресурсов основного маршрутизатора 2925 резервным и резервными маршрутизаторами, в случае выхода основного из строя. Для этого необходимо выполнить следующие действия: **1)** разрешить режим *High Availability* – высокой доступности на основном и резервном(-ых) маршрутизаторах **2)** установить самый высокий уровень Priority ID на основном маршрутизаторе, и уровни ниже на резервном или резервных маршрутизаторах **3)** установить одинаковые Redundancy Method/Group ID/Authentication Key на основном и резервных маршрутизаторах **4)** установить интерфейс управления в одной подсети для основного и резервных маршрутизаторах. **5)** разрешить виртуальный IP-адрес для каждой используемой подсети и установить одинаковый виртуальный IP-адрес на каждом маршрутизаторе. Резервирование может работать в двух режимах: Hot-Standby – такой способ подходит для использования одного интернет-подключения: * Все WAN на резервных маршрутизаторах должны быть выключены при помощи функции HA * Настройки WAN основного и резервных маршрутизаторов должны быть одинаковы Когда функция HA начнёт работать на маршрутизаторах, беспроводная сеть будет автоматически разрешена на основном маршрутизаторе, а на резервном маршрутизаторе она автоматически выключится. Все клиенты смогут подключаться только на основной маршрутизатор. Дополнительно устанавливается период синхронизации конфигураций с основного на резервный маршрутизатор. Конфигурация может синхронизироваться между 10 маршрутизатором максимум. Active-Standby – такой способ подходит для использования нескольких интернет-подключений. * Все WAN на резервных маршрутизаторах должны быть включены. Пользователи могут маршрутизировать трафик на эти интерфейсы. * Настройки WAN интерфейсов на основном и резервных маршрутизаторах не должны быть одинаковыми * Синхронизация конфигурации между маршрутизаторам должна быть выключена ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f01/87e/311/f0187e3117a81ad4543917d4d3192cd2.png) *Рис. 36-1* Меню VPN and Remote Access -------------------------- Маршрутизатор поддерживает до 50 VPN\* туннелей типа LAN-to-LAN для создания безопасного подключения между сетями организации или создания VPN-подключения с удалённых рабочих мест надомных сотрудников, используя протоколы SSL/PPTP/IPSec/L2P/L2TPover IPSec. Шифрование AES/DES/3DES и возможность IKE аутентификации обеспечивают повышенную надёжность. Использование сдвоенного WAN соединения позволяет использовать не только схему балансировки нагрузки, но и резервирования. Поэтому, если основной канал VPN канал станет недоступным, его заменит резервный VPN канал. Кстати функции VPN в Draytek настраиваются очень просто. Буквально за пару кликов можно настроить как соединения типа LAN-to-LAN, так и доступ с удалённых рабочих мест. У Dryatek есть свой VPN-клиент для упрощения подключения рабочих мест, называется он Draytek Smart VPN Client, приложение бесплатно доступно для скачивания на сайте draytek.com. > *\* В официальных поставках маршрутизаторов на территорию РФ удалены все программные средства шифрования, не соответствующие ГОСТами, поэтому в такой прошивке есть только поддержка PPTP без шифрования. Это можно исправить путём установки штатного ПО, которое можно скачать с сайта draytek.com.* В подменю *Remote Access Control Setup* включаются протоколы VPN на глобальном уровне, в подменю *IPsec General Setup* указывается Pre-Shared Key для метода IKE Authentication, указываются методы шифрования. Например, укажем ключ draytek.commmmm ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a11/98f/1c1/a1198f1c1b798709a90461e7af4c394b.png) *Рис. 37* В подменю *Remote Dial-in User* указываются пользователи которые могут подключаться по VPN со своих удалённых мест к локальной сети LAN маршрутизатора. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a3f/2f8/e3d/a3f2f8e3d298d510435cc2bf609635ee.png) *Рис. 38* В списке *Status*, видно, что пользователь ignat в статусе «онлайн», так как помечен зелёным цветом. В примере ниже, пользователь ignat подключается по PPTP, второй пользователь будет подключаться через туннель IPSec по преднастроенному выше preshared key= draytek.commmmm. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/543/8b3/663/5438b366352105943c3788d1600b342c.png) *Рис. 39* Для подключения со стороны клиента я использовал Draytek Smart VPN Client, он устанавливается и настраивается в два клика. Ниже пример для PPTP. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/d3a/788/c94/d3a788c94567c5c50b084829fcfbc09e.jpg) *Рис. 40* Аналогичным образом настраивается второй VPN-клиент который будет динамически подключаться по preshared ключу который мы ранее указали в подменю IPsec General Setup как draytek.commmmm. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/71b/536/a51/71b536a5152f1cdba4cba862fc9d9ca5.jpg) *Рис. 42* После успешного подключения в подменю *Connection Management* мы увидим активные соединения. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/c93/2fc/e5d/c932fce5d50504881ee5d219e5bda93e.png) *Рис. 43* Подменю LAN to LAN служит для настройки VPN соединений межу двумя сетями. Создаётся профиль LAN-to-LAN, в нём указываются все необходимые для создания подключения настройки: тип соединения – входящее, исходящее или двухсторонне, протокол VPN – PPTP, L2TP with IPsec Policy или IPsec Tunnel, в зависимости от протокола, специфические настройки, например, логин или пароль или IKE Pre-Shared Key, метод шифрования и прочее. На самом деле, настроек не так много, и они простые в общем случае. Указывается, какую локальную сеть должна «видеть» удалённая сторона и в какую удалённую сеть маршрутизировать трафик через данное VPN-соединение. После сохранения настроек соединения, локальная сторона будет инициировать соединение или ожидать входящее соединение от удалённой стороны — в зависимости от настроек. Установленное соединение можно также посмотреть в подменю *Connection Management*. Меню Central VPN Management --------------------------- В данном меню настраивается централизованное управление VPN-подключениями и некоторыми сервисными функциями между Draytek 2925 и удаленными маршрутизаторами. Настройка очень простая – буквально в несколько действий. В подменю *CVM >> General Setup* устанавливаются настройки авторизации, которые затем должны быть скопированы на удалённое клиентское устройство, в нашем примере, через SSL: <https://192.168.85.156:8443/ACSServer/services/ACSServlet>, с username=acs и паролем. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/55a/a54/ac0/55aa54ac0187feaf4b241762b7cda7aa.png) *Рис. 43-1* Далее, на удалённом устройстве в подменю *System Maintenance >> TR-069* нужно разрешить управление им при помощи ввода настроек указанных выше: ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/6ea/d37/463/6ead37463ae3b0a0f9278211ac8f9277.png) И отметить галкой поле *Allow management from the Internet*в подменю *System Maintenance>> Management Setup*. Далее, нужно перезагрузить удалённый маршрутизатор и снова авторизоваться в веб-интерфейсе Draytek 2925. Если настройка выполнена корректно, в *подменю Central VPN Management>>CPE Management* вы увидите только что добавленное устройство. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/2a3/5e0/3e5/2a35e03e52b9edb8c30527c9ea687946.png) *Рис. 43-3* Теперь удалённый маршрутизатор, в нашем примере это Vigor2860n+, можно настраивать из веб-интерфейса Draytek 2925. Кроме настройки и мониторинга VPN-туннелей, на удалённом маршрутизаторе можно обновлять версию ПО, сохранять и восстанавливать конфигурацию, выполнять перезагрузку. Делать это можно как для одного устройства, так и для группы устройств. Подробны инструкции, в том числе в формате «how to» есть в руководстве пользователя. В подменю *CVM >> VPN Management* служит для настройки и мониторинга VPN-туннелей. Для этого, нужно кликнуть на удалённый маршрутизатор, который нужно настроить, и выбрать тип VPN-туннеля. При нажатии на тип туннеля, например, IPSec, он будет создан и активирован автоматически. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/8b8/40f/230/8b840f23049cf1db80c66f4020c1b61f.png) *Рис. 43-4* При нажатии на ссылку Refresh, будет видно, статус созданного VPN-соединения. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/631/540/2ba/6315402bad18e5927824ccd5fb864a8c.png) *Рис. 43-5* При этом *LAN to LAN profile* будет создан автоматически. Если необходимо, профили можно скорректировать вручную, единственное ограничение – нельзя изменять имя VPN-профиля, так как это может вызвать ошибку в работе инструмента Central VPN Management. Меню Central AP Management -------------------------- Данное меню служит для автоматического обнаружения, настройки и сервисного обслуживания точек доступа Draytek. В подменю *Central AP Management >> Dashboard* отображаются активные точки доступа. Причём Draytek 2925 автоматически находит дочти доступа в сети и отображает их в данном подменю. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/371/b81/560/371b81560275dacb18ef09d9c1c12abb.png) *Рис. 43-6* Подменю *Central AP Management >> WLAN Profile*содержит профили настроек точки доступа. WLAN профиль назначается на точку доступа, затем тока доступа автоматически настраивается или перенастраивается в соответствии с указанными в профиле настройками. *Рис. 43-7* ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/92a/505/157/92a505157fce43549fe53497d0bf3daf.png) Для применения профиля на точку доступа, нужно отметить профиль галкой, затем нажать кнопку *Apply To Device* и выбрать нужное устройство. Ниже представлены детальные настройки профиля, настройка происходит в четыре шага: на четырёх страницах последовательно выставляются все настройки. Как можно убедиться из примера, настроек очень много. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/95b/d74/479/95bd74479e42cefd6a507d498cfe3b29.png) *Рис. 43-8* ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/629/dc1/91f/629dc191f829d8eeabe1fbe049d0f818.png) *Рис. 43-9* По завершении редактирования профиля, на четвёртой странице, следует нажать кнопку *Finish* для сохранения всех выполненных в профиле настроек. В подменю *Central AP Management >> Status* отображается список всех точек доступа, их статус и детальные настройки. В подменю *Central AP Management >> AP Maintenance*, для одной точки доступа или группы, можно выполнять следующие сервисные функции: сохранение и восстановление конфигурации, обновление встроенного ПО, перезагрузка, сброс к заводским настройкам. Далее, следует группа подменю для мониторинга точек доступа: *Traffic Graph* – графическое представление суммарного траффика от точек доступа, *Rogue AP Detection* – детектирование «своих» и «чужих» точек доступа, *Event Log* – просмотр журнала событий, *Total Traffic* – трафик проходящий через сконфигурированные сегменты локальной сети, *Station Number* – общее число активных беспроводных клиентов. В подменю *Central AP Management >> Load Balance* настраивается балансировка нагрузки посредством указания максимального числа беспроводных клиентов на сеть 2.4GHz и 5GHz и шейпинг входящего и исходящего трафика на каждого беспроводного клиента. В подменю *Central AP Management >> Function Support List* отображается список поддерживаемых функций для текущей прошивки в зависимости от модели точки доступа. Информация на двух вкладках – для клиента и для сервера. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/90a/9bd/937/90a9bd9370578bb39de471dd95c24fba.png) *Рис. 43-10* Меню Wireless LAN ----------------- Маршрутизатор, зависимости от модели, поддерживает беспроводную сеть стандарта802.11ac, 802.11n, n-plus и имеет две или три всенаправленные антенны. Настроек функций беспроводной сети в маршрутизаторе большое количество. Устройство поддерживает до 4-х независимых беспроводных сети со своими настройками, причём для каждой из сетей можно ограничить максимальную полосу для исходящего и входящего трафика, а также включить расписание в соответствии с которым будут работать эти ограничения. Ниже для иллюстрации настроек представлены подменю *General Setup и Security Settings*. Настройки очень наглядны. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/49d/11f/64d/49d11f64dd248ba65108e935464c9a9c.png) *Рис. 44* Для каждой из 4х беспроводных сетей настраиваются свои параметры безопасности, включая фильтры MAC-адресов. Для каждой сети можно включить квоту времени использования Wi-Fi на основании MAC-адреса и таймаут на повторное предоставление квоты. Ниже представлено подменю *Station List,* в котором видны, подключённые в данный момент, беспроводные терминалы. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/3bb/f32/408/3bbf324084330eb7093d1d74ed672b41.png) *Рис. 45* Кроме этого, в подменю *Access Control*, можно включить фильтр MAC-адресов, причём создать как белые, так и чёрные списки MAC-адресов. Списки можно сохранять в файл на компьютер или выгружать из файл при необходимости. В подменю *Advanced Setting* содержатся тонкие настройки радиоканала, например, исходящая мощность сигнала, режим работы, ширина канала, длина фрагментов и другие. Беспроводная есть также поддерживает настройку через *WPS (Wi-Fi Protected Setup) и WDS* настройки, которые можно найти в соответствующих подпунктах меню *Wireless LAN*. Меню SSL VPN ------------ В маршрутизаторе Draytek 2925 можно сконфигурировать доступ к приложениям через SSL VPN при помощи обычного веб-браузера. Такой способ даёт определенный преимущества перед традиционным VPN, среди которых отсутствие необходимости в дополнительного ПО, например, VPN-клиента для создания защищённого подключения, другое преимущество: меньшее количество ограничений для шифрования данных при помощи SSL по сравнению с традиционным SSL. Сервис глобально разрешается установкой галки для опции *Enable SSL VPN Service* в подменю *VPN and Remote Access >> Remote Access Control Setup.* Далее, в подменю *SSL VPN >> General Setup* указывается на каких WAN интерфейсах доступен сервис и на каком порту. По умолчанию 443. Советую поменять его на другой, во избежание конфликтом стандартным портом для веб-управления Draytek. Далее, по аналогии с приведёнными выше настройками VPN PPTP и PPTP, в подменю *SSL VPN >> Remote Dial-in User* необходимо сконфигурировать пользователей, которые смогут использовать SSL VPN путём установки галки для опции *SSL Tunnel.* Теперь в подменю *SSL VPN >> SSL Web Proxy* необходимо указать URL адреса для которых необходимо открыть доступ через VPN SSL. В меню *SSL VPN >> SSL Application* можно выбрать приложение и хост и порт, например, RDP на 192.168.1.50:3389 которые будут проброшены по VPN SSL. После сохранения всех настроек, пользователь открывает веб-браузер, вводит IP и порт на WAN интерфейсе, где работает VPN SSL сервис, авторизуется при помощи полученных от администратора имени и пароля, затем попадает на страницу с доступными ему VPN SSL сервисами. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/bbe/a79/fd4/bbea79fd4a050f5e5faad4a406af7cde.png) *Рис. 45-1* В подменю *SSL VPN>> Online Status* будут отображаться активные подключения. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a48/0af/c5e/a480afc5e68f91741f5c178960c5465a.png) *Рис. 45-2* Меню USB Application -------------------- На маршрутизаторе есть USB-порт, который может быть использован в трёх различных режимах. Во-первых, подключения USB модема 3G/4G для резервирования Интернет-соединения или как основное Интернет-соединение, если других способов подключения к Интернет не имеется. Во-вторых, подключения USB-принтера к маршрутизатору, который становится принт-сервером и им смогут воспользоваться пользователи, настроив к нему доступ по сети. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/05c/06d/43c/05c06d43c4091f648eefe675c9659976.jpg)*Рис. 46 На изображении выше, пример, в котором USB-порт используется для подключения накопителя и обмена файлами по сети по протоколам FTP и SMB. Созданы два пользователя с разными домашними директориями. На изображении ниже, пример подменю *USB Device Status,* где мы видим, что к USB-порту подключен накопитель объёмом 8 Гигабайт и виден список активных пользователей, которые подключены к нему по сети. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/e5d/04f/013/e5d04f0133d8b17ebb209025982d4fad.jpg) *Рис. 47* В-третьих, подключить USB-накопитель и предоставить общий доступ к файлам диска по FTP или NetBios/SMB. Список поддерживаемых модемов можно посмотреть в подменю Modem Support List, а список LAN клиентов можно посмотреть в подменю SMB Client Support List. При подключении 3G/4G модема или принтера, их статус будет отражаться на соответствующих вкладках Modem и Printer подменю *USB Device Status*. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/29a/e9c/2b3/29ae9c2b374c00c4750c8da93e104bfc.png) *Рис. 47-1* Меню System Maintenance ----------------------- В меню собраны сервисные функции маршрутизатора. Здесь можно установить новый пароль для пользователей с правами User и Administrator, настроить протокол TR-069 для внешнего управления устройством. В подменю *Configuration Backup* можно сохранить текущую конфигурацию роутера или восстановить из ранее сохраненной. Подменю *Configuration Backup* служит для настройки отправки по сети системных журналов SysLog, можно также указать какие из журналов нужно записывать. Дополнительно, можно настроить отправку уведомлений по электронной почте. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/a34/5ea/097/a345ea09795d07d177f2df0adee16338.png) *Рис. 48* К слову, у Draytek есть бесплатная утилита для упрощения просмотра и хранения syslog на удалённом компьютере. Называется она Draytek Syslog. Ниже приведён снимок экрана интерфейса. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/63a/15d/5d0/63a15d5d098fe65f1e4181f100f937ff.jpg) *Рис. 49* В подменю *Management* выполняется настройка разрешений на удалённое управление. Причём в случае необходимости, нужно отдельно разрешить управление из Интернета, то есть с WAN интерфейсов. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/d39/705/b95/d39705b95e70e0500b2f484f0cc516b7.png) *Рис. 50* Меню Diagnostics ---------------- Функций диагностики на маршрутизаторе большое количество, мне это очень нравится — практически любую задачу по диагностике состояния можно решить через это меню. В подменю *Routing Table* полная таблица маршрутизации, в *ARP Cache Table* список всех MAC-адресов в локальной сети, в *DHCP-Table* список всех активных DHCP-клиентов, есть таблицы NAT-сессий и кэша DNS-записей. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/8a8/989/d0b/8a8989d0ba2b43302d2985cd4eaadabc.png) *Рис. 51* Конечно же присутствуют *Ping* и *Traceroute*. Есть возможность включения и локального просмотра системных логов маршрутизатора, причём они разбиты по типам основных подсистем: VPN, Firewall, WAN и другие. ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/0ed/cdf/f17/0edcdff170cd7f25c409857d7c55fbea.jpg) *Рис. 52* В подменю *Traffic Graph* можно, в графическом виде, оценить утилизацию WAN интерфейсов или число сессий. ![](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/51b/38c/5ee/51b38c5ee33c9ecd8af3d3a3800fb154.png) *Рис. 53* Выводы ------ Мы постарались максимально подробно рассмотреть серию маршрутизаторов Draytek 2925 на примере модели 2925n и надеемся, что нам это удалось. Это устройство содержит максимальное число сетевых функции в одном корпусе и идеально подходит для офиса среднего размера или ресурсоёмких корпоративных сетей, поэтому, приобретая его, владелец экономит деньги за счет отсутствия необходимости приобретать дополнительное сетевое оборудование, которое могло бы реализовать отдельные функции Draytek 2925n, например, межсетевой экран, точку доступа, VPN-концентратор, сетевой принтер или NAS-сервер для хранения общих документов. Drayatek 2925 – это собирательное название модельного ряда маршрутизаторов, включающего 6 различных моделей, которые отличаются стандартами и скоростью работы беспроводных сетей и наличием функций VoIP. В первой части обзора мы определили позиционирование устройства, подробно рассмотрели типовой сценарий использования маршрутизатора, подробно описали все ключевые характеристики и преимущества, посмотрели подробную техническую спецификацию – она впечатляет. Дополнительное программное обеспечение Draytek VigorACS SI, для больших инсталляций, позволит без труда управлять и обслуживать огромный парк маршрутизаторов. Для единичной инсталляции используется программное обеспечение Draytek Smart Monitor, предназначенное для мониторинга и анализа трафика, оно станет незаменимым помощником для отладки сети и мониторинга пользователей. В маршрутизаторах серии 2925 есть инструмент под названием Central VPN Management для централизованного управления VPN-подключениями между Draytek 2925 и удаленными маршрутизаторами. При помощи данного инструмента VPN-соединение между маршрутизаторами может быть создано и установлено в два клика. Для облегчения задач управления и мониторинга беспроводных точек доступа в локальной сети, маршрутизатор Dryatek 2925 имеет встроенный инструмент под названием AP Central Management, который позволяет из веб-интерфейса централизовано настраивать и мониторить точки доступа, при этом настройка точек крайне проста и осуществляется в несколько кликов. Отдельного внимания заслуживают возможности настройки функций высокой доступности High Availability, которые служат для резервирования аппаратных и программных ресурсов основного маршрутизатора 2925 при помощи «запасных» маршрутизаторов Draytek, в случае выхода основного из строя, а также балансировки трафика между маршрутизаторами и WAN подключениями. Мы посмотрели комплектацию и внешний вид устройства, индикацию и интерфейсы, затем протестировали максимальную пропускную способность маршрутизатора в нескольких режимах. Все результаты соответствуют заявленным производителем характеристикам. Во второй части обзора, которую вы сейчас читаете, мы детально рассмотрели каждый пункт меню, с примерами настройки таких функции и интерфейсов как WAN и LAN, балансировка нагрузки и политики маршрутизации, беспроводная сеть, VPN, межсетевой экран, NAT управление пропускной способностью, а также функции USB, диагностики и мониторинга маршрутизатора. На примерах рассмотрели такие важные функции как SSL VPN, создания кластера высокой доступности High Availability, инструменты централизованного управления точками доступа и VPN-соединениями при помощи Central AP Management и Central VPN Management. Что касается документации, здесь тоже порядок, кроме официальных руководств, в Интернете и на сайтах Draytek есть множество примеров настройки маршрутизаторов и интеграции их с оборудованием других производителей. Маршрутизатор Draytek 2925n очень функционален, и прост в настройке, может управляться через веб-браузер, интерфейс командной строки CLI или протокол TR-69. Кроме того, дополнительное ПО VigorACS SI и Smart Monitor для мониторинга и управления как отдельными устройствами, так и большим парком в сотни или тысячи устройств поможет существенно сократить затраты на инсталляцию и техническое обслуживание устройств. Устройство обладает очень широким возможностями в купе с «гигабитом», который может понадобиться предприятию уровня SMB+ или небольшому филиалу крупной компании, которые «переросли» предельную скорость сетевых подключений в 100Мбит\с и нуждаются в сотнях мегабит в локальной сети и на WAN-интерфейсах к Интернет-провайдеру. Поэтому, устройство имеет огромный потенциал для использования в ресурсоёмких корпоративных сетях. Нагрузочное тестирование показало неплохие результаты, других результатов я не ожидал, ведь устройство совсем не начального уровня, поэтому обязано быть производительным.*
https://habr.com/ru/post/397537/
null
ru
null
# Защита сайта от сканирования и хаотичных интенсивных запросов ![image](https://habrastorage.org/r/w1560/files/010/f79/19b/010f7919b95346da8ebf21add09847e1.png) Хаотичные интенсивные запросы сильно нагружают сервера и транспортные каналы, существенно замедляя работу сайта. С помощью сканирования злоумышленники копируют содержимое сайтов и выявляют слабые стороны в их защите, нанося при этом значительный ущерб. Кроме того, запросы к сайту, производящиеся в процессе сканирования, также отрицательно влияют на производительность. Чаще всего проблема медленной работы сайтов касается крупных порталов с высокой посещаемостью. Но она может коснуться и небольших сайтов, так как даже при малой посещаемости сайт может подвергаться высокой нагрузке. Высокая нагрузка создается различными роботами, постоянно сканирующими сайты. При этом работа сайта может сильно замедлиться, или он вообще может оказаться недоступным. **Сканирование сайта** производится программами, сторонними сайтами или вручную. При этом создается большое количество запросов в короткий промежуток времени. Сканирование сайта чаще всего используют для поиска в нем уязвимостей или копирования содержимого сайта. Достаточно эффективной мерой защиты сайта от сканирования будет разграничение прав доступа к ресурсам сайта. Информацию о структуре сайта поможет скрыть модуль apache **mod\_rewrite** изменяющий ссылки. А сделать неэффективным сканирование ссылок и, одновременно, снизить нагрузку поможет установка временной задержки между частыми запросами исходящими от одного пользователя. Для поддержания эффективной защиты от сканирования и хаотичных интенсивных запросов необходим регулярный аудит вэб-ресурсов. **Хаотичные интенсивные запросы** – это случайные или злонамеренные многочисленные запросы в короткий промежуток времени на страницы сайта со стороны пользователей или роботов. К примеру случайных интенсивных запросов относится частое обновление страницы. К злонамеренным многочисленным запросам относится спам на страницы сайта со стороны пользователей или DoS атаки. К хаотичным интенсивным запросам так же относится способ подбора паролей методом перебора. Подобрать пароль можно как вручную, так и при помощи специальных программ. Вручную пароль подбирается лишь в тех случаях, когда известны его возможные варианты. В других случаях используются специальные программы, осуществляющие автоматический подбор пары логина и пароля, т.е. программы для брутфорса. К эффективным методам защиты сайта от **хаотичных интенсивных запросов** относятся: установка временной задержки между запросами в определенный промежуток времени, создание черного и белого списков, установка для поисковых систем временной задержки между запросами страниц сайта в файле **robots.txt** и установка периода обновления страниц в файле **sitemap.xml**. Мной был реализован один из методов по защите сайта от **сканирования** и **хаотичных интенсивных запросов**, который заключается в подсчете количества запросов в определенный промежуток времени и установке временной задержки при превышении установленного порога. В частности этот метод делает неэффективным или даже бесполезным способ взлома пароля путём перебора, потому что затраченное на перебор время будет слишком велико. **Готовый php скрипт под капотом.** #### 1. Данные о реализуемом php-скрипте В настоящее время на практике используются различные подходы к защите любой компьютерной информации, в том числе и информации, располагаемой на Интернет-ресурсе. Данные подходы могут быть определены следующими характеристиками: — наличием формализованных требований, как к набору, так и к параметрам всех механизмов защиты, которые регламентируются большинством современных требований к обеспечению общей компьютерной безопасности (иначе говоря, требованиями, определяющими, что именно должно быть предусмотрено разработчиками); — наличием реальных механизмов защиты, которые реализуются в процессе защиты любой компьютерной информации. К таким механизмам защиты, прежде всего, относя встроенные в операционную систему средства защиты, по той простой причине, что в большинстве своем используемые на веб-сервере скрипты пользуются встроенными в операционную систему механизмами защиты или же наследуют используемые в них методы. Именно на базе этих механизмов и используемых в них методов определяется общий уровень защиты всего веб-сервера; — существующей статистикой различных угроз безопасности компьютерной информации. В частности, это данные об уже осуществленных успешных атаках на какие-либо информационные ресурсы. Ведение данной статистики призвано помочь определить, насколько эффективны предпринятые меры защиты, а также дать оценку уровню выдвигаемых требований к созданию защиты на веб-сервере. Как уже упоминалось, наиболее эффективным методом для противодействия сканированию сайта, а также всем видам хаотичных интенсивных запросов, является установка некоторой временной задержки между запросами, исходящими от одного и того же пользователя. При идентификации пользователя основной упор следует делать на его IP-адрес, по той причине, что файлы cookie могут быть легко удалены. Конечно же, IP-адрес пользователя также может быть изменен, к примеру, при помощи прокси-сервера или же с помощью переподключения, в случае, если IP-адрес у пользователя динамический, правда, такая операция может занять довольно много времени, что в свою очередь сведет на нет все старания злоумышленника. Данный метод защиты сайта следует реализовать путем написания php-скрипта. Использование такого рода скрипта поможет защитить содержимое сайта от сканирования проводимого при помощи программ-краулеров и, одновременно, поможет существенно замедлить проведение сканирования сайта «вручную». Кроме того, использование подобного скрипта обеспечит прекрасную защищенность абсолютно всех страниц сайта от различных видов хаотичных интенсивных запросов, что в свою очередь даст возможность снизить нагрузку на оборудование веб-сервера. Разрабатываемый скрипт должен иметь возможность настройки. В частности необходимо заранее предусмотреть возможность изменения части параметров скрипта. Иначе говоря, в скрипте должно быть: — наличие возможности настройки времени блокировки IP-адреса пользователя; — наличие возможности задать интервал времени, в который будет проверяться активность пользователя, иначе говоря, время, в течение которого будет вестись учет количества запросов, поступивших от одного определенного пользователя; — наличие возможности установки количества запросов, которые один пользователь сможет отправить на страницы сайта в течение заданного временного интервала; — наличие возможности создания списка «всегда разрешенных IP-адресов». IP-адреса, внесенные в данный список, никогда не будут заблокированы; — наличие возможности создания списка «всегда запрещенных IP-адресов», т.е. скрипт всегда будет блокировать IP-адреса, которые внесены в данный список. Преимуществами создания и использования подобного php-скрипта можно считать: — существенное снижение количества запросов, отправляемых к серверу баз данных; — существенную экономию входящего и исходящего трафика на веб-сервере; — наличие удобной и гибкой настройки наиболее важных параметров работы скрипта; — возможность существенного снижения нагрузки на веб-сервер со стороны пользователей; — копирование всей информации, размещенной на сайте, будет сильно затруднено или даже невозможно в случае, если страниц на данном ресурсе доста-точно много. Логика работы разрабатываемой системы защиты сайта, создаваемой в виде php-скрипта, приведена на рисунке: ![image](https://habrastorage.org/r/w780q1/files/f10/0f0/d9a/f100f0d9a3474bdf8a22f20fe4b023bb.jpg) В процессе разработки скрипта важным моментом является выбор способа хранения получаемой информации. В нашем случае, это IP-адреса текущих пользователей. Данная информация может храниться либо в базе данных, либо на жестком диске. Для того чтоб ускорить работу разрабатываемого скрипта, а также сделать его более устойчивым, для хранения IP-адресов текущих пользователей мы будем использовать директории кэширования. В одну из таких директорий скрипт будет помещать на хранение IP-адреса активных, на данный момент пользователей, эта директория будет носить название active. А в другую директорию мы будем вносить файлы, название которых будет включать IP-адреса временно заблокированных пользователей (директория block). Кроме IP-адреса, в процессе работы скрипта, также понадобиться информация об активности пользователя. Для этого в название файла, содержащего IP-адрес пользователя, мы также будем вносить точное системное время, когда он проявил «первую», в заданный промежуток времени, активность, т.е. первый раз за определенный (заранее установленный) промежуток времени отправил запрос к странице сайта. В случае, если пользователь в заданный интервал времени превысил заранее определенное в скрипте количество отправленных запросов к страницам сайта, скрипт удалит файл, содержащий его IP-адрес из директории активных пользователей. После чего запишет новый файл (название которого будет содержать IP-адрес только что заблокированного пользователя) в директорию, содержащую заблокированные IP-адреса. Таким образом, в директориях кэширования (active и block) будут временно сохраняться файлы с такими названиями как: 127.0.0.1\_1302615293, 195.80.91.151\_1302615389, 95.30.17.60\_1302615457, 77.39.54.104\_ 1302615504 и тому подобные. В имени файла, до нижнего слеша, будет содержаться IP-адрес активного пользователя, а после нижнего слеша в имя файла будет вноситься точное системное время, в которое он проявил активность (т.е. отправил запрос к страницам ресурса или же был заблокирован). Отдельно следует отметить тот момент, что для директорий кэширования, т.е. папок active и block, обязательно нужно выставить права доступа владельца файла или 777. Иначе говоря, атрибуты данных папок, указанные на сервере, должны давать скрипту право на запись, право на чтение, а также право на выполнение. Права доступа 777 обязательно должны быть установлены для всех групп пользователей. К тому же следует предусмотреть отдельное исключение на случай, если администратор сайта этого не сделает. Ведь в подобной ситуации работа скрипта будет невозможна, а значит, защита сайта от сканирования и хаотичных интенсивных запросов окажется, как минимум, несостоятельной. Иначе говоря, в процессе работы скрипта обязательно должно проверяться наличие или же отсутствие возможности произведения чтения, а также записи в какую-либо из директорий кэширования. Информацию о текущих пользователях (в частности, об их IP-адресах) мы будем брать из суперглобального массива $\_SERVER[]. Данный массив создается веб-сервером. В нем содержатся значения разнообразных переменных окружения. Для работы с IP-адресами пользователей нам понадобиться использовать такие переменные окружения, содержащиеся в суперглобальном массиве $\_SERVER[]: — $\_SERVER['HTTP\_X\_FORWARDED\_FOR']; — $\_SERVER['HTTP\_CLIENT\_IP']; — $\_SERVER['HTTP\_X\_CLUSTER\_CLIENT\_IP']; — $\_SERVER['HTTP\_PROXY\_USER']; — $\_SERVER['REMOTE\_ADDR']. Переменная окружения $\_SERVER['HTTP\_X\_FORWARDED\_FOR'] дает нам возможность определить IP-адрес клиента, если он использует для работы прокси-сервер. Переменная окружения $\_SERVER['HTTP\_CLIENT\_IP'] дает возможность получить IP-адрес клиента, если он не использует прокси-сервер, для работы в Интернете. Переменная окружения $\_SERVER['HTTP\_X\_CLUSTER\_CLIENT\_IP'] дает возможность получить IP-адрес клиента, в случае, если на сайте не используется криптографический протокол SSL, обеспечивающий безопасное соединение между сервером и клиентом. Переменная окружения $\_SERVER['HTTP\_PROXY\_USER'] дает возможность определить IP-адрес клиента, который использует в работе прокси-сервер. Переменная окружения $\_SERVER['REMOTE\_ADDR'] дает возможность получить IP-адрес удаленного пользователя. Во время тестирования на локальной машине данный IP-адрес будет равен 127.0.0.1. В то же время в сети данная переменная вернет либо IP-адрес клиента, либо IP-адрес последнего используемого пользователем прокси-сервера (при помощи которого данный клиент попал на веб-сервер). Таким образом, используя одновременно множество различных переменных окружения из массива $\_SERVER[] (все используемые переменные приведены выше), у нас будет возможность определить реальный IP-адрес пользователя, даже в том случае, если он попытается его «замаскировать» при помощи какого-либо прокси-сервера. Для устойчивой работы скрипта на любой из страниц сайта, вне зависимости от ее уровня вложенности, будем использовать возможность приведения к абсолютному виду путей к директориям кэширования (active и block). Использование такого подхода даст нам возможность запускать скрипт с любой страницы сайта и при этом не опасаться того, что изначально указанные в скрипте относительные пути к директориям кэширования на какой-то из страниц окажутся неверными. Как уже упоминалось, разрабатываемый скрипт должен иметь возможность настройки. В частности необходимо заранее предусмотреть возможность изменения части параметров скрипта (времени блокировки IP-адреса пользователя, интервала времени, за который будет учитываться количество запросов отправляемых к страницам ресурса, а также количества разрешенных запросов в данный интервал времени). Данные параметры изначально в скрипте будут задаваться при помощи констант. В частности, подобными константами в скрипте будут указаны такие пара-метры: — время блокировки IP-адреса пользователя указываемое в секундах (const blockSeconds); — интервал времени, в который будут учитываться запросы от одного пользователя к страницам сайта. Данный интервал также будет указываться в секундах (const intervalSeconds); — количество запросов к страницам веб-сайта, которые сможет отправить один пользователь за заданный временной промежуток (const intervalTimes). Отдельно в скрипте следует определить такие массива, содержащие строчные данные: — массив значений тех IP-адресов, которые внесены в «список всегда разрешенных IP-адресов» (объявление массива public static $alwaysActive = array(‘’)); — массив значений тех IP-адресов, которые внесены в «список всегда запрещенных IP-адресов» (объявление массива public static $alwaysBlock = array(‘’)). Для правильной работы скрипта, а также для его отладки необходимо предусмотреть наличие в скрипте нескольких флагов. Отметим, что использование подобных флагов также поможет в процессе защиты содержимого сайта от сканирования и различных хаотичных интенсивных запросов. К таким флагам можно отнести: — флаг возможности подключения всегда активных пользователей (const isAlwaysActive); — флаг возможности подключения всегда заблокированных пользователей (const isAlwaysBlock). Разработанный скрипт содержит один класс TBlockIp. Данный класс включает такие методы: — checkIp(). Данный метод реализовывает возможность произведения проверки IP-адреса пользователя на его блокировку или же на активность. При этом пропускаются IP-адреса, внесенные в список «всегда разрешенных IP-адресов», а IP-адреса внесенные в список «всегда запрещенных IP-адресов» наоборот блокируются. В случае, если пользовательский IP-адрес не найден в массиве возможных IP-адресов – скрипт создаст идентификатор нового активного IP-адреса; — \_getIp(). Данный метод дает возможность получить текущий IP-адрес пользователя, выбираемый из всех возможных IP-адресов (фильтрация производиться до выявления нужного IP-адреса клиента). Метод возвращает полученный IP-адрес. В конечном счете разработанный скрипт может считаться эффективным инструментом, который поможет оказывать противодействие процессу сканирования сайта, а также станет мерой пресечения для всех видов хаотичных интенсивных запросов. В разработанном скрипте имеется установка некоторой временной задержки между запросами, исходящими от одного и того же пользователя. При идентификации пользователя основной упор делается на его IP-адрес. Причина этого проста – дело в том, что файлы cookie могут быть легко удалены с компьютера злоумышленника, а значит строить защиту ресурса с их использованием нельзя. Конечно же, IP-адрес пользователя также может быть изменен, к примеру, при помощи прокси-сервера. Для того чтоб исключить подобную возможность для злоумышленника, в скрипте используются переменные окружения, которые в свою очередь помогают выявить реальный IP-адрес пользователя. Именно этот IP-адрес, в случае превышения пользователем установленного лимита запросов к страницам сайта в определенный промежуток времени, окажется заблокированным. Разработанный скрипт выполняет все возложенные на него функции, связанные с защитой сайта от сканирования, а также от хаотичных интенсивных запросов. #### 2 Листинг программы ``` php /** * Класс проверки и блокировки ip-адреса. */ class TBlockIp { /** * Время блокировки в секундах. */ const blockSeconds = 60; /** * Интервал времени запросов страниц. */ const intervalSeconds = 15; /** * Количество запросов страницы в интервал времени. */ const intervalTimes = 3; /** * Флаг подключения всегда активных пользователей. */ const isAlwaysActive = true; /** * Флаг подключения всегда заблокированных пользователей. */ const isAlwaysBlock = true; /** * Путь к директории кэширования активных пользователей. */ const pathActive = 'active'; /** * Путь к директории кэширования заблокированных пользователей. */ const pathBlock = 'block'; /** * Флаг абсолютных путей к директориям. */ const pathIsAbsolute = false; /** * Список всегда активных пользователей. */ public static $alwaysActive = array( '172.16.1.1', ); /** * Список всегда заблокированных пользователей. */ public static $alwaysBlock = array( '172.16.1.1', ); /** * Метод проверки ip-адреса на активность и блокировку. */ public static function checkIp() { // Получение ip-адреса $ip_address = self::_getIp(); // Пропускаем всегда активных пользователей if (in_array($ip_address, self::$alwaysActive) && self::isAlwaysActive) { return; } // Блокируем всегда заблокированных пользователей if (in_array($ip_address, self::$alwaysBlock) && self::isAlwaysBlock) { echo '<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Strict//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd"'; echo ''; echo ''; echo 'Вы заблокированы'; echo ''; echo ''; echo ''; echo ''; echo 'Вы заблокированы администрацией ресурса. '; echo ' '; echo ''; echo ''; exit; } // Установка путей к директориям $path_active = self::pathActive; $path_block = self::pathBlock; // Приведение путей к директориям к абсолютному виду if (!self::pathIsAbsolute) { $path_active = str_replace('\\' , '/', dirname(__FILE__) . '/' . $path_active . '/'); $path_block = str_replace('\\' , '/', dirname(__FILE__) . '/' . $path_block . '/'); } // Проверка возможности записи в директории if (!is_writable($path_active)) { die('Директория кэширования активных пользователей не создана или закрыта для записи.'); } if (!is_writable($path_block)) { die('Директория кэширования заблокированных пользователей не создана или закрыта для записи.'); } // Проверка активных ip-адресов $is_active = false; if ($dir = opendir($path_active)) { while (false !== ($filename = readdir($dir))) { // Выбирается ip + время активации этого ip if (preg_match('#^(\d{1,3}.\d{1,3}.\d{1,3}.\d{1,3})_(\d+)$#', $filename, $matches)) { if ($matches[2] >= time() - self::intervalSeconds) { if ($matches[1] == $ip_address) { $times = intval(trim(file_get_contents($path_active . $filename))); if ($times >= self::intervalTimes - 1) { touch($path_block . $filename); unlink($path_active . $filename); } else { file_put_contents($path_active . $filename, $times + 1); } $is_active = true; } } else { unlink($path_active . $filename); } } } closedir($dir); } // Проверка заблокированных ip-адресов $is_block = false; if ($dir = opendir($path_block)) { while (false !== ($filename = readdir($dir))) { // Выбирается ip + время блокировки этого ip if (preg_match('#^(\d{1,3}.\d{1,3}.\d{1,3}.\d{1,3})_(\d+)$#', $filename, $matches)) { if ($matches[2] >= time() - self::blockSeconds) { if ($matches[1] == $ip_address) { $is_block = true; $time_block = $matches[2] - (time() - self::blockSeconds) + 1; } } else { unlink($path_block . $filename); } } } closedir($dir); } // ip-адрес заблокирован if ($is_block) { header('HTTP/1.0 502 Bad Gateway'); echo ''; echo ''; echo ''; echo '502 Bad Gateway'; echo ''; echo ''; echo ''; echo '502 Bad Gateway =============== '; echo ''; echo 'К сожалению, Вы временно заблокированы, из-за частого запроса страниц сайта. '; echo 'Вам придется подождать. Через ' . $time\_block . ' секунд(ы) Вы будете автоматически разблокированы.'; echo ' '; echo ''; echo ''; exit; } // Создание идентификатора активного ip-адреса if (!$is_active) { touch($path_active . $ip_address . '_' . time()); } } /** * Метод получения текущего ip-адреса из переменных сервера. */ private static function _getIp() { // ip-адрес по умолчанию $ip_address = '127.0.0.1'; // Массив возможных ip-адресов $addrs = array(); // Сбор данных возможных ip-адресов if (isset($_SERVER['HTTP_X_FORWARDED_FOR'])) { // Проверяется массив ip-клиента установленных прозрачными прокси-серверами foreach (array_reverse(explode(',', $_SERVER['HTTP_X_FORWARDED_FOR'])) as $value) { $value = trim($value); // Собирается ip-клиента if (preg_match('#^\d{1,3}.\d{1,3}.\d{1,3}.\d{1,3}$#', $value)) { $addrs[] = $value; } } } // Собирается ip-клиента if (isset($_SERVER['HTTP_CLIENT_IP'])) { $addrs[] = $_SERVER['HTTP_CLIENT_IP']; } // Собирается ip-клиента if (isset($_SERVER['HTTP_X_CLUSTER_CLIENT_IP'])) { $addrs[] = $_SERVER['HTTP_X_CLUSTER_CLIENT_IP']; } // Собирается ip-клиента if (isset($_SERVER['HTTP_PROXY_USER'])) { $addrs[] = $_SERVER['HTTP_PROXY_USER']; } // Собирается ip-клиента if (isset($_SERVER['REMOTE_ADDR'])) { $addrs[] = $_SERVER['REMOTE_ADDR']; } // Фильтрация возможных ip-адресов, для выявление нужного foreach ($addrs as $value) { // Выбирается ip-клиента if (preg_match('#^(\d{1,3}).(\d{1,3}).(\d{1,3}).(\d{1,3})$#', $value, $matches)) { $value = $matches[1] . '.' . $matches[2] . '.' . $matches[3] . '.' . $matches[4]; if ('...' != $value) { $ip_address = $value; break; } } } // Возврат полученного ip-адреса return $ip_address; } } // Проверка текущего ip-адреса TBlockIp::checkIp(); ``` Данный скрипт можно внедрить непосредственно в индексную страницу, либо отдельно в php файле, включив его вызов в самой начале индексного файла. Пример внедрения в индексный файл сайта. В самом верху индексного файла пишем (можно после задания параметров кодировки, чтобы верно отображалась кодировка страницы): ``` include '/block/index.php'; ``` В это случае нужно создать в корне папку «block», в ней еще папки «active» и «block» и файл «index.php» (сюда копируем выше приведенный код). #### 3 Тестирование php-скрипта, внедренного в сайт Просмотр и последующее тестирование написанного кода являются одним из важнейших этапов разработки php-скриптов. Данный этап разработчики, занимающиеся программированием для Web, нередко упускают. Дело в том, что очень просто можно два или три раза запустить написанный скрипт и отметить, что он работает нормально. В то же время это является распространенной ошибкой. Ведь созданный скрипт необходимо подвергнуть тщательному анализу или же тестированию. Главным отличием разрабатываемых php-скриптов от прикладных программ является то, что с Web-приложениями будет работать чрезвычайно широкий круг людей. В подобной ситуации не следует рассчитывать на то, что пользователи будут в совершенстве разбираться в использовании различных Web-приложений. Пользователей нельзя снабдить огромным руководством или же кратким справочником. Именно поэтому разрабатываемые Web-приложения обязательно должны быть не только самодокументируемыми, но и самоочевидными. При внедрении разработанного php-скрипта необходимо учесть всевозможные способы его использования, а также протестировать его поведение в различных ситуациях. Опытному пользователю или программисту нередко сложно понять проблемы, которые возникают у неискушенных пользователей. Одним из способов решения проблемы будет найти тестеров, которые и будут представлять действия типовых пользователей. В прошлом использовался следующий подход – сначала на рынок выпускалась бета-версия разработанного Web-приложения. После того, как большинство ошибок, предположительно, было исправлено, данное приложение публиковали для небольшого количества пользователей, которые, соответственно, создадут небольшую интенсивность входящего трафика. После проведения такого рода теста разработчики получают массу различных комбинаций данных и вариантов использования разработанной системы, о которых ее разработчики даже и не догадывались [13, стр. 394]. Созданный php-скрипт должен делать именно то, для чего, собственно говоря, он и был создан. Применительно к разработанному и созданному в данной работе php-скрипту можно сказать так: если пользователь сможет отправить за определенный промежуток времени (по умолчанию 15 секунд) больше заданного количества запросов (по умолчанию – 3 запроса) к страницам сайта и скрипт не заблокирует его IP-адрес, значит, в работу написанного Web-приложения закралась ошибка. В целом, тестирование представляет собой деятельность, которая направлена на выявление подобного рода несоответствий, существующих между ожидаемым поведением написанного php-скрипта и действительным его поведением. За счет выявления несоответствия в поведении скрипта, а также его некорректного поведения еще во время разработки, у разработчика есть возможность существенно снизить вероятность того, что с такого рода поведением скрипта столкнется и пользователь. Проводить тестирование программы (в нашем случае, написанного php-скрипта) можно как вручную, так и при помощи специализированных онлайнсервисов. ##### 3.1 Тестирование вручную При тестировании написанного php-скрипта вручную, нам необходимо проверить выполняет ли скрипт возложенные на него задачи. В частности, ограничивает ли количество запросов к страницам сайта, исходящим от одного и того же пользователя, в случае, если их частота превышает допустимый предел в определенный промежуток времени. Для проверки работоспособности скрипта нам, прежде всего, необходимо внедрить его в код сайта. Для этого можно воспользоваться такой языковой конструкцией: include «block/index.php»; При таком включении скрипт должен быть расположен в папке block. Следует учесть, что в случае, если система управления содержимым сайта использует для страниц создание, так называемых Friendly URL, т.е. веб-адресов, которые удобны для восприятия человеком (в данном случае имеется ввиду создание каких-либо многоуровневых структур, например, /news/sport/2003/10/), или же загружает страницы с адресом отличным от корня папки (например, /news/sport.php), возникнет необходимость правильного указания адреса к скрипту. В подобной ситуации вполне может быть указан абсолютный путь к скрипту. Само по себе тестирование написанного php-скрипта будет заключаться в отправке запросов к страницам сайта. В процессе тестирования нам нужно проверить: пропускает ли созданный скрипт заданное максимальное количество запросов (по умолчанию – 3 запроса) в определенный промежуток времени (по умолчанию – 15 секунд). Прежде всего, нам необходимо проверить как скрипт справляется со своей основной функцией, т.е. непосредственной блокировкой интенсивных запросов на страницы сайта, исходящих от одного и того же пользователя. Проверка количества запросов, которые могут быть отправлены к страницам сайта, показала, что на протяжении отведенных пятнадцати секунд отправить к страницам сайта более трех запросов нет возможности. В частности, если пользователь отправляет больше трех запросов, то получает сообщение о временной блокировке, приведенное на рисунке: ![image](https://habrastorage.org/r/w1560/files/d49/9d6/84e/d499d684e731432b97fa9ed139c35f38.png) Таким образом, тестирование показало, что скрипт работает именно так, как предполагалось: блокирует пользователя на определенное время (по умолчанию – на одну минуту) в случае, если в определенный интервал времени количество запросов от одного пользователя превышает заданный показатель (по умолчанию – 3 запроса). Следующим этапом тестирования будет проверка, работоспособности отдельных функций написанного php-скрипта. В частности, нужно проверить, как будет работать скрипт если IP-адрес тестирующего пользователя будет добавлен в список «всегда разрешенных IP-адресов». Также нужно проверить, как будет вести себя скрипт, если IP-адрес тестирующего пользователя будет добавлен в список «всегда запрещенных IP-адресов». После добавления IP-адреса тестирующего пользователя в список «всегда разрешенных IP-адресов» ограничение на количество отправляемых к страницам сайта запросов оказалось снятым, и переходить по ссылкам (или обновлять страницу) можно было неограниченное количество раз. Иначе говоря, функция, которую должен выполнять список «всегда разрешенных IP-адресов» правильно работает. После добавления IP-адреса тестирующего пользователя в список «всегда запрещенных IP-адресов» отправить хотя бы один запрос к странице сайта не удалось. Вместо содержимого веб-ресурса в браузере появляется сообщение о блокировке, приведенное на рисунке: ![image](https://habrastorage.org/r/w1560/files/010/f79/19b/010f7919b95346da8ebf21add09847e1.png) Другими словами, функция, которую должен выполнять список «всегда запрещенных IP-адресов» работает правильно. Данная функция полностью блокирует пользователя, IP-адрес которого внесен в список «всегда запрещенных IP-адресов». Таким образом, функции разграничения доступа, которые реализованы при помощи наличия списка «всегда разрешенных IP-адресов», а также наличия списка «всегда запрещенных IP-адресов» работают верно и скрипт ведет себя именно так, как изначально предполагалось. Иначе говоря, скрипт предоставляет неограниченный доступ к страницам сайта для тех пользователей, IP-адреса которых внесены в список «всегда разрешенных IP-адресов» и полностью запрещает доступ тем пользователям, чьи IP-адреса обнаруживаются в списке «всегда запрещенных IP-адресов». Тестирование написанного php-скрипта вручную показало, что все функции скрипта, а значит и сам скрипт, работают правильно, т.е. именно так как изначально задумано. ##### 3.2 Тестирование при помощи онлайн-сервисов Тестирование написанного php-скрипта, при помощи онлайнсервисов, даст возможность узнать, точное количество трафика необходимого для загрузки страниц сайта, а также поможет точно установить «пропускную способность» написанного php-скрипта для запросов, которые будут отправляться различными автоматическими сервисами или же программами. Последний параметр очень важен, ведь одной из задач скрипта является защита сайта от сканирования при помощи программ-краулеров. Такого рода тестирование не только поможет сделать вывод об необходимом количестве трафика и процессорного времени, но и о том, доступна ли будет информация представленная на сайте для программных средств, запрашивающих страницы в автоматическом режиме. Для начала оценим среднее время загрузки страниц сайта, при разных скоростях соединения. Также оценим и размер загружаемых пользователем страниц. Для проведения такого рода тестирования воспользуемся онлайн-сервисом, расположенным по адресу [analyze.websiteoptimization.com](http://analyze.websiteoptimization.com). Размеры загружаемых страниц, определенные сервисом, приведены на рисунке: ![image](https://habrastorage.org/r/w1560/files/ff0/165/029/ff01650295be4f71ab79d7a9fe4c7a53.png) С учетом того, что тестируемый нами сайт состоит лишь из одной страницы, размер которой составляет 1511 байт, она загрузиться за 0,51 секунды (при скорости соединения 56 К) или за 0,21 секунды (при скорости соединения пользователя 1,44 Mbps). Скорость загрузки страниц при разной скорости соединения пользователя приведена на рисунке: ![image](https://habrastorage.org/r/w1560/files/346/294/e4d/346294e4df10417180ab8962876f677e.png) Как видно из приведенной на рисунке информации, даже при самой низкой скорости соединения (14,4 К) страница сайта грузится довольно быстро – за 1,4 секунды. В то же время, если скорость соединения пользователя довольно высока (в частности, 1,44 Mbps), то страница будет загружена буквально моментально (за 0,21 секунды). Отметим, что низкая скорость загрузки на данном ресурсе корректируется на коэффициент потери пакетов (этот коэффициент равен 0,7). Также учитывается и время задержки равное в среднем 0,2 секунды на загрузку одной страницы. Именно эти параметры и объясняют, почему существенный рост скорости соединения не приводит к столь же существенному сокращению времени загрузки страницы. Отметим, что данный сервис кроме оценки основных параметров загрузки страниц сайта также предоставляет общие результаты анализа сайта и, конечно же, рекомендации направленные на улучшение всех параметров загрузки страниц сайта. Результаты анализа и рекомендации сервиса приведены на рисунке: ![image](https://habrastorage.org/r/w1560/files/4b5/f07/275/4b5f0727549c4e47bcd6caf1c40696e3.png) Как видно из рисунка, все показатели тестируемого сайта по всем анализируемым параметрам находятся в пределах нормы. В частности, сервис констатирует, что количество страниц сайта, объектов на них, а также размеры этих страниц и объектов находятся в допустимых пределах. Исходя из полученных данных оптимизация тестируемому сайту не требуется, ведь сайт соответствует нормам по всем анализируемым параметрам. Иначе говоря, объемы загружаемой с сайта информации (или страниц сайта) довольно малы и позволяют экономить ресурсы как веб-сервера, так и пользователя. Т.е. разработанный скрипт не нагружает сайт и, фактически, его присутствие не заметно. Что подчеркивает проведенное тестирование. Проверку скорости загрузки страниц сайта, а также их доступности для других скриптов можно выполнить при помощи такого онлайн-сервиса как [www.pr-cy.ru](http://www.pr-cy.ru). Результат теста, сделанного при помощи данного онлайн-сервиса, приведен на рисунке: ![image](https://habrastorage.org/r/w1560/files/dcd/ab4/183/dcdab418325e47f1aeeedfb1c2a946bd.png) Как видно, из полученных данных при средней скорости загрузки 30,31 Кб/сек, время загрузки страницы составляет 0,05 секунды. В то же время при средней скорости 37,89 Кб/сек, время загрузки страницы составляет уже 0,04 секунды. В то же время, тестирование показало, что разработанный в данной работе скрипт блокирует больше трех запросов к страницам сайта, исходящих от одного IP-адреса и тем самым снижает излишнюю нагрузку и весьма усложняет попытки или вовсе делает невозможным подбор пароля к сайту. ##### 3.3 Результаты тестирования php-скрипта, внедренного в сайт Проведенные тесты показали, что разработанный php-скрипт отлично справляется с изначально возложенными на него функциями по защите сайта от сканирования, а также от хаотичных интенсивных запросов и попыток брутфорса, исходящих от одного пользователя. В частности, тестирование сайта вручную показало, что скрипт блокирует запросы к страницам сайта, исходящие с одного IP-адреса, в случае, если количество этих запросов в заданный интервал времени превышает заранее отведенный лимит. Кроме того, данное тестирование показало, что все функции скрипта работают отлично, в частности функции по работе со списками «всегда разрешенных IP-адресов» и «всегда запрещенных IP-адресов». Иначе говоря, разработанный скрипт предоставляет неограниченный доступ ко всем страницам сайта для тех пользователей, IP-адреса которых внесены в список «всегда разрешенных IP-адресов» и полностью запрещает доступ тем пользователям, чьи IP-адреса обнаруживаются в списке «всегда запрещенных IP-адресов». Тестирование сайта, в который внедрен разработанный php-скрипт, показало, что все показатели тестируемого сайта по всем анализируемым параметрам находятся в пределах нормы. В частности, сервис констатирует, что количество страниц сайта, объектов на них, а также размеры этих страниц и объектов находятся в допустимых пределах. Исходя из полученных данных оптимизация тестируемому сайту не требуется, ведь сайт соответствует нормам по всем анализируемым параметрам. Иначе говоря, объемы загружаемой с сайта информации (или страниц сайта) довольно малы и позволяют экономить ресурсы как веб-сервера, так и пользователя. Ранее скрипт использовался на сайтах по изучению [английского языка](http://www.engwords.net/ru) и [английских слов](http://www.engwords.net/ru), но позднее были предприняты более серьезные меры защиты. Однако, на первых порах, данный скрипт существенно снижал нагрузку на недорогой хостинг и позволял крутить сайты с посещаемостью **5000+** хостов в сутки. Кроме того, тестирование сайта показало, что скорость загрузки страниц тестируемого сайта довольно высока. Также, скрипт заблокировал проведение тестирования сайта, когда количество запросов отправленных с IP-адреса данного онлайн-сервиса превысило допустимый в разработанном скрипте предел (максимальное количество запросов с одного IP-адреса, установленное в скрипте, равно трем запросам за 15 секунд). Другими словами, защита сайта от сканирования и хаотичных интенсивных запросов работает именно так, как и предусматривалось изначально. Другими словами, если количество запросов, исходящих с одного IP-адреса (в случае, если IP-адрес пользователя не находится в списке «всегда разрешенных IP-адресов» или же в списке «всегда запрещенных IP-адресов»), превышает допустимый лимит в определенный интервал времени, то IP-адрес пользователя будет временно заблокирован вне зависимости от того, отправлялись запросы при помощи браузера, программы и использовался ли при отправке запросов прокси-сервер (для маскировки реального IP-адреса пользователя).
https://habr.com/ru/post/234729/
null
ru
null
# Kha vs HTML5: Компилируем JavaScript в C++ Предлагаю вашему вниманию перевод доклада Роберта Конрада с прошедшего в октябре прошлого года [HaxeUp Sessions 2019 Linz](https://haxe.org/videos/conferences/haxeup-sessions-2019/). Данный доклад посвящен процессу портирования на консоли игры [CrossCode](http://www.cross-code.com/en/home), изначально написанной на HTML5. Если вам понравится перевод, то рекомендую также посмотреть его в оригинале на английском — Роберт очень веселый человек, постоянно шутит и его интересно слушать. ![image](https://habrastorage.org/r/w1560/webt/tr/xt/qx/trxtqx3khpzmab1xbw4bddafyc8.png) Немного об авторе: Роберт работает программистом в Deck13, одной из немногих игровых компаний, использующих свои собственные технологии (именно поэтому Роберт и выбрал эту компанию). В основном его работа связана с оптимизацией (например, недавно выпущенной игры Surge 2). До этого он преподавал в Дармштадтском техническом университете (Германия), самостоятельно разрабатывал небольшие видеоигры, а также работал в небольшой видеоигровой компании. Кроме того он часто проводит лекции в университетах и выступает на конференциях. ![image](https://habrastorage.org/r/w1560/webt/p1/w8/r_/p1w8r_rwdqrzxxhs2undkaz7yg8.png) [Kha](https://github.com/kode/kha), [Kinc](https://github.com/kode/kinc) и [Krom](https://github.com/kode/krom) — основные проекты Роба. Это низкоуровневые мультимедийные фреймворки для геймдева. Их можно сравнить с SDL, но с дополнительными возможностями для кросс-платформенной работы с графикой и кросс-компиляцией (как кода игровой логики, так и графических шейдеров). Kinc написан на C/C++. Kha — на Haxe и использует Kinc для работы на нативных платформах (Windows, Linux, Mac OS, Android, iOS, Nintendo Switch и т.д.), кроме того, Kha работает и в вебе (WebGL и Canvas). А Krom — это среда исполнения JavaScript, но без поддержки Web-API. Вместо них имеются мультимедийные API, предоставляемые Kinc, а JS используется как скриптовый язык для быстрой работы с графикой, звуком и т.д. без необходимости компиляции. Krom работает на движке Chakra от Microsoft и в настоящее время используется в основном для отладки приложений на Kha. ![image](https://habrastorage.org/r/w1560/webt/ng/9w/us/ng9wusl1dhasgfqb5e0v_lmrop4.png) Наиболее популярные проекты, использующие Kha — это Armory3D и ArmorPaint: * [Armory3D](https://armory3d.org/) — игровой движок, использующий Blender в качестве редактора * [ArmorPaint](https://armorpaint.org/) — отдельный инструмент для рисования текстур. В настоящее время для него планируется добавить интеграцию с Unreal Engine и Unity. Кстати буквально вчера стало известно, что [ArmorPaint получил Epic MegaGrant](https://twitter.com/luboslenco/status/1232325217319563264). ![image](https://habrastorage.org/r/w1560/webt/1h/kz/jf/1hkzjfm-r5yoxhxg1h7und0ubco.png) [RPG Playground](https://rpgplayground.com/) — еще один довольно популярный проект, использующий Kha. Его можно назвать RPG Maker’ом для веба. ![image](https://habrastorage.org/r/w1560/webt/ef/qi/6g/efqi6gp1g4opmwbnyd_rqbejufa.png) Таким образом, Kha / Kinc / Krom позволяют создавать как простые браузерные 2D-игры, так и крупные 3D-проекты. Но давайте перейдем к основной теме доклада — игре CrossCode: [CrossCode](http://www.cross-code.com/en/home) — это Action RPG, получившая довольно высокие оценки. Кроме того, это довольно большая игра — прохождение основной кампании занимает около 30 часов, а выполнение дополнительных заданий может занять еще 20 часов. ![image](https://habrastorage.org/r/w1560/webt/xf/4z/uq/xf4zuq7n31ewrnz3zm7ajlgjeek.png) CrossCode доступна на Windows, MacOS и Linux и должна в скором времени выйти на PlayStation 4, Xbox One и Nintendo Switch. Но так как CrossCode изначально создавалась как HTML5-игра, то перед Робертом встала задача портировать ее на эти консоли. Что такое “HTML5-игра” в контексте CrossCode? * игра полностью написана на JavaScript * в ней используются Canvas 2d API для отрисовки графики и WebAudio API для работы со звуком ![image](https://habrastorage.org/r/w1560/webt/co/zy/u3/cozyu3goshyi4fdiit6js1ieaa8.png) Давайте “пойдем по стеку” и зададимся вопросом “Что такое JavaScript?”: если вы ничего не знаете о нем, то можете предположить, что это скриптовый язык, имеющий что-то общее с Java :) Что же, пойдем дальше по этой ветке (но рано или поздно мы выберемся из стека, обещаю)... ![image](https://habrastorage.org/r/w1560/webt/uh/oe/c0/uhoec0qa_c2c-bdiipdy0ocl7ry.png) А что такое Java? Java — это объектно-ориентированный язык программирования. ![image](https://habrastorage.org/r/w1560/webt/bp/h-/ja/bph-jaqctykk-r1uorqpo5znygw.png) Так, а что такое объектно-ориентированное программирование? Есть два основных языка, сформировавших современные представления о том, что является объектно-ориентированным программированием — это Simula и Smalltalk. ![image](https://habrastorage.org/r/w1560/webt/gc/0v/gp/gc0vgpmv0hsvhaksnfzzlds7qaq.png) [Simula](https://en.wikipedia.org/wiki/Simula) — это язык, в котором были введены понятия класса, наследования, производного класса, виртуальных процедур. Если говорить об этих особенностях Simula, то их довольно просто реализовать (как это сделал Бьёрн Страуструп при создании C++). Например, наследование можно реализовать с помощью вложенных структур, а виртуальные процедуры — с помощью указателей на функции. Таким образом, с технической точки зрения их можно считать не более чем синтаксическим сахаром, построенным поверх процедурного языка программирования, с системой некоторых ограничений. ![image](https://habrastorage.org/r/w1560/webt/h7/pz/hr/h7pzhr7kvlo0tqngkxb1xbtnp74.png) А вот со [Smalltalk](https://ru.wikipedia.org/wiki/Smalltalk) все сложнее. Да, он позаимствовал из Simula модель классов, но при этом: * в Smalltalk все доступно для изменения прямо во время исполнения программы, и для этого не требуется перекомпиляция и перезапуск программы * Smalltalk является пионером в области [JIT-компиляции](https://ru.wikipedia.org/wiki/JIT-%D0%BA%D0%BE%D0%BC%D0%BF%D0%B8%D0%BB%D1%8F%D1%86%D0%B8%D1%8F) * Smalltalk — динамически типизированный язык Данные особенности трудно реализуемы в процедурных языках программирования. ![image](https://habrastorage.org/r/w1560/webt/9c/lb/kb/9clbkbpdsse3go4kbaypo8x2fiw.png) Из Smalltalk в свое время родился язык [Self](https://ru.wikipedia.org/wiki/Self) — также объектно-ориентированный, но в отличие от Smalltalk он основан не на классах, а на прототипах: * для создания нового типа вы создаете новый объект «с нуля», добавляя к нему необходимые свойства * а наследование осуществляется путем клонирования существующего объекта. Если хотите узнать о Self немного больше, то рекомендую посмотреть [небольшой фильм](https://www.youtube.com/watch?v=Ox5P7QyL774), посвященный данному языку программирования. ![image](https://habrastorage.org/r/w1560/webt/xj/kv/-a/xjkv-auicicknxe-wnbkd92xmu0.png) Разобравшись немного с ООП, вернемся к Java (т.к. теперь мы сможем понять, чем является данный язык): Как язык программирования Java можно считать подобной Simula — язык также основан на классах. C технической точки зрения Java несет в себе немного и от Smalltalk: JIT-компиляция и автоматическое управление памятью в форме сборки мусора (garbage collection). Но эти технические особенности мало влияют на Java, как на язык программирования. ![image](https://habrastorage.org/r/w1560/webt/to/v_/mc/tov_mch-s4lcvhvlu2-eiowfrfc.png) И, наконец, мы вернулись к JavaScript: * JavaScript — это динамически типизированный (подобно Smalltalk) язык программирования, изначально созданный для написания сценариев, исполняемых на стороне клиента * все числа в JavaScript — это числа с плавающей точкой двойной точности. Но с точки зрения производительности это не так уж и плохо, как это традиционно принято считать — на современных процессорах скорость работы с числами единичной точности незначительно превышает скорость работы с числами двойной точности (конечно, до тех пор, пока вы не начнете использовать SIMD) * JavaScript довольно своеобразный язык. Например, для объявления переменных можно использовать `var` и `let`, для сравнения объектов есть операторы `==` и `===`. И как не упомянуть о системе преобразований и арифметике в JavaScript — не каждый сразу скажет, что получится в результате операции: `[] + ""`. Такие особенности языка становятся критичными для крупного проекта, где по той или иной причине (случайно или намеренно) могут использоваться данные особенности. И в CrossCode такой код присутствует, что усложняет его портирование. * JavaScript использует ту же объектную модель что и Self (ООП основанное на прототипах). Подобно Smalltalk в JavaScript вы можете переопределять любые свойства у объектов прямо во время исполнения программы. Заставить работать такой быстро — также довольно сложная задача. ![image](https://habrastorage.org/r/w1560/webt/re/7s/aq/re7saq9sy3gt8yzwhkit5d2a-_a.png) И так как задача Роберта — портировать CrossCode на консоли, то поговорим немного о них: * современные консоли с точки зрения железа являются по сути ПК. Однако благодаря тому, что используемое в консолях железо заранее известно, у нас есть гораздо больше возможностей для оптимизации * для того, чтобы разрабатывать игры для консолей, вам необходимо использовать специализированный программный стек, предоставляемый держателем платформы. Для каждой из консолей он свой. И для того, чтобы получить к нему доступ, необходимо стать сертифицированным разработчиком и подписать соглашение о неразглашении. Поэтому разработка для консолей во многом покрыта тайной. ![image](https://habrastorage.org/r/w1560/webt/fg/vn/vt/fgvnvtayfbc5nluk5ewyieo2ksg.png) ПК-версия CrossCode вышла в сентябре 2018 года, и издатель Deck13 Spotlight искал разработчика, который смог бы портировать игру на консоли. Этим человеком оказался Роберт. Сначала казалось, что все пойдет как по маслу — игра не выглядела слишком сложной с технической точки зрения — двухмерная графика с видом сверху. Роберт надеялся, что сможет заниматься им как второстепенным проектом. Однако, все пошло не так. ![image](https://habrastorage.org/r/w1560/webt/lj/f4/uj/ljf4ujarxyyolowcccfofkwj00g.png) Первоначальная оценка сложности проекта: * двухмерная игра * пиксельарт * с технической точки зрения используемые графические эффекты просты: масштабирование и режимы смешивания * в качестве движка используется [Impact](https://impactjs.com/) ![image](https://habrastorage.org/r/w1560/webt/7j/ct/es/7jctesgr016j61awujtou8qtpui.png) Impact — это игровой движок для создания 2D-игр на HTML5. Его разработка началась еще в 2010 году, так что его можно считать одним из первых. Долгое время Impact был платным, и только [в 2018 году стал бесплатным](https://impactjs.com/blog/2018/05/impact-is-now-free-open-source) и доступным по лицензии MIT. ![image](https://habrastorage.org/r/w1560/webt/my/yn/ik/myynik38g662unnhnaoqgycflfi.png) За выходные Роберту удалось портировать одну из демок с Impact на Kha, это оказалось довольно просто. На основании этого небольшого эксперимента был составлен общий план портирования CrossCode на консоли — рассматривались 3 возможных варианта развития событий (от простого к сложному): 1. использовать интерпретатор JavaScript, что в теории позволило бы использовать код игры напрямую. Дополнительно для этого пришлось бы дополнительно реализовать Canvas и WebAudio API. И если скорость работы этого решения оказалась бы удовлетворительной, то процесс можно будет считать практически завершенным 2. портировать на консоли один из JIT-компиляторов для JavaScript (например, V8), что в теории позволит ускорить исполнение JavaScript 3. если же ни один из предыдущих вариантов не окажется достаточно быстрым, то потребуется полностью переписать код игры с JavaScript ![image](https://habrastorage.org/r/w1560/webt/mm/za/3h/mmza3hc04zryihytacxqxbdg8cc.png) Роберт приступил к работе по первому варианту: * портировал Kinc на современные консоли (до этого Kinc работал только на старых — Xbox 360 и Playstation 3) * в качестве интерпретатора был выбран [Duktape](https://duktape.org/) — довольно быстрый и легко интегрируемый интерпретатор JavaScript * реализовал Canvas и WebAudio API — для этого уже были некоторые наработки (свой рендерер и звуковой миксер), поэтому никаких сложностей не возникло. В итоге запустить игру на PlayStation 4 удалось довольно быстро. ![image](https://habrastorage.org/r/w1560/webt/ii/ci/s3/iicis3h1imsxo2fe-weagolki6c.png) Начальная секция игры работала быстро на мощном ПК, но недостаточно быстро на PlayStation. Чтобы ускорить игру Роберт заменил некоторые части, написанные на JavaScript, переписав их на C++, но этого все равно было недостаточно. Дальнейшие оптимизации давались все сложнее, т.к. основная работа выполнялась на стороне JavaScript, а для интерпретатора JavaScript не было профайлера. Поэтому попытки ускорить игру фактически осуществлялись наугад. ![image](https://habrastorage.org/r/w1560/webt/jw/sx/d5/jwsxd57ncegbxqci24tby59i4ne.png) В итоге Роберт отказался от решения с интерпретатором и перешел ко второму варианту — использованию JIT-компилятора JavaScript: Роберт уже был знаком с V8 — он пробовал его, когда выбирал движок для Krom, но отказался от его использования, т.к. посчитал его избыточным. По этой же причине он не стал использовать V8 и для CrossCode. Поэтому Роберт начал смотреть в сторону JavaScriptCore — это тоже довольно крупный проект, но для него есть порт, входящий в состав [EA Webkit](https://gpl.ea.com/eawebkit.html) — у него открытый исходный код, он уже работает на современных консолях и используется в играх от Electronic Arts. Однако EA Webkit оставил ощущение того, что проект был открыт скорее из-за того, что в нем используется лицензия GPL, а не потому что в Electronic Arts хотели сделать его общедоступным, кроме того, даже компиляция проекта оказалась непростой задачей. ![image](https://habrastorage.org/r/w1560/webt/rf/x6/sp/rfx6spfp7-e_gwtjoy-9a6izv1o.png) В итоге Роберт остановился на самом неочевидном варианте — Chakra — JIT-компилятор от Microsoft. По опыту Роберта работать с ним оказалось проще всего, он неплохо показывал себя в сравнительных тестах. Однако дальнейшая судьба Chakra не ясна, т.к. в Microsoft приняли решение перевести свой браузер Edge на Chromium, проект пока что продолжает поддерживаться, но неизвестно сколько это продлится. Но в контексте CrossCode Роберт посчитал, что и в текущем состоянии Chakra будет достаточно. ![image](https://habrastorage.org/r/w1560/webt/2j/ry/v_/2jryv_rzhv4roxw4hhksk_ron7w.png) Роберту удалось скомпилировать Chakra для одной из консолей (для какой именно — секрет). Затем удалось завести JIT-компилятор — он начал компилировать код, выделять для него память и загружать в нее сгенерированный машинный код. Следующим шагом был переход к выполнению сгенерированного кода. Что произошло дальше — тайна, покрытая NDA. ![image](https://habrastorage.org/r/w1560/webt/c-/0b/lp/c-0blpn9dzu_fxeh7traeocxmeu.png) Однако, чтобы вы могли примерно догадаться, Роберт привел аналогию из мира iOS. Что бы произошло, если бы вы попытались портировать свой JIT-компилятор под iOS? Вам бы удалось: * скомпилировать проект * сгенерировать машинный код * перейти к его исполнению * но затем iOS закроет ваше приложение. Потому что в iOS не допускается выполнять код из перезаписываемой области памяти (writable memory). По этой же причине iOS-версии Firefox и Chrome используют Webkit в качестве движка, а не свои собственные. На основании этого вы можете попробовать догадаться, как это соотносится с разработкой под консоли, но никто вам не скажет точно является ли это истиной. В итоге по какой-то “неизвестной причине” Роберту пришлось отказаться от идеи использования JIT-компилятора JavaScript. Принять это решение было непросто, т.к. уже была проделана довольно большая работа. ![image](https://habrastorage.org/r/w1560/webt/v6/8w/ac/v68wacf_t_ncd9csxmleiadsd1y.png) Поэтому пришлось перейти к работе по третьему сценарию — полностью переписать игру. К этому моменту у Роберта уже сформировалось понимание того, что CrossCode — это очень большой проект. Именно поэтому Роберт считал данный сценарий невыполнимым: игра слишком большая, чтобы завершить проект в разумные сроки, кроме того для игры до сих пор выходят обновления, и Роберту пришлось бы также постоянно портировать и эти обновления. И хотя у нас есть успешные примеры смены технологии, например, Minecraft, но над Minecraft работала команда. В одиночку такого не провернуть. ![image](https://habrastorage.org/r/w1560/webt/67/ek/s5/67eks5nzao8m4je_ixwzyyvvisi.png) Роберт начал искать другой путь. И начал он с попытки создания [Ahead-of-Time (AOT) компилятора](https://ru.wikipedia.org/wiki/AOT-%D0%BA%D0%BE%D0%BC%D0%BF%D0%B8%D0%BB%D1%8F%D1%86%D0%B8%D1%8F) для JavaScript. Проблема была только в том, что никто до этого не достиг существенных успехов в этом начинании. С некоторыми ухищрениями Роберту удалось запустить игру в таком режиме — показывался начальный экран с логотипом и главным героем. Но затем начались буквально “темные дни”. ![image](https://habrastorage.org/r/w1560/webt/to/0r/d7/to0rd74wcpqtxmbovkxyrhee4h0.png) Позднее осознание масштабов задачи: При запуске CrossCode выполняет большое количество работы — игра загружает ~1 GB json-файлов и подготавливает все данные. Все это происходит до того, как вы просто увидите начальный экран игры. Именно поэтому эти дни были “темными” — все, что Роберт видел в течение нескольких месяцев на своем мониторе — это черное окно игры. И в течение всего этого времени он не мог показать визуального прогресса в работе над портом. ![image](https://habrastorage.org/r/w1560/webt/2u/zb/jl/2uzbjl3bo3-n_5z0tipyh2lqyoa.png) Другая проблема — скорость работы игры. В самых “тяжелых” сценах игре требовалось ~10 мс на отрисовку кадра (и это на мощном ПК с процессором с частотой ядра 3.4 ГГц). Проблема усугубляется тем, что приложения на JavaScript не могут одновременно использовать несколько ядер (если, конечно, вы не используете WebWorker API, а в CrossCode это API не используется). Поэтому на консолях, где частоты процессоров существенно ниже, задача выдать стабильные 60 фпс, используя тот же самый код, работающий в одном потоке, выглядит мало выполнимой: вы не можете использовать JIT-компилятор, но при этом от вас требуется, чтобы ваш JavaScript-код работал быстрее, чем в V8 (а над V8 работал не один человек, и не один год). Роберт признался, что он сразу бы отказался от работы над портированием проекта, если бы знал об ожидающих его проблемах. ![image](https://habrastorage.org/r/w1560/webt/cf/5c/rs/cf5crsfgvr3sl7r_05xzfmron-s.png) Масштабы игры также добавляют сложностей — всегда есть вероятность того, что код на выходе из вашего самописного AOT-компилятора может содержать ошибки, при этом ошибки могут проявляться не сразу, а спустя часы после начала игровой кампании. И так как прохождение только основного сюжета занимает порядка 30 часов, то тестирование и выявление таких потенциальных ошибок становится реально непростым занятием. ![image](https://habrastorage.org/r/w1560/webt/5p/ow/pc/5powpcriqksiozs25hlj7dez-dm.png) И по опыту Роберта для крупных проектов, в которых все взаимосвязано, действует закон Мёрфи. Даже если вы пишете идеальный код, всегда есть вероятность того, что в нем возникнет ошибка. И эта вероятность растет по мере роста проекта и его сложности. ![image](https://habrastorage.org/r/w1560/webt/rk/tr/ti/rktrtic4xaxu4hq6hisctjnl6sk.png) Что потребуется для работы нашего AOT-компилятора и какие особенности JavaScript он должен поддерживать? Естественно нам понадобится сборщик мусора, ведь мы имеем дело с JavaScript. Работа сборщика мусора особенно критична в случае, когда мы говорим об играх. Ведь мы хотим, чтобы код работал плавно, стабильно выдавая 60 фпс. Тогда для каждого кадра у нас есть ограниченный “бюджет” в 16,6 мс, часть из которого неизбежно будет забирать сборщик мусора — в те моменты, когда запускается сборка мусора, мы будем видеть скачки в плавности работы нашей игры. И на устройствах с относительно слабыми процессорами (например, в консолях), эти скачки будут заметны сильнее. Когда вы пишете код на языке со сборкой мусора, вы неизбежно будете генерировать мусор, так уж устроены эти языки. Кроме того, некоторые конструкции таких языков сами по себе могут генерировать мусор. Именно поэтому нам нужен быстрый и надежный сборщик мусора. ![image](https://habrastorage.org/r/w1560/webt/ro/6e/dd/ro6eddrhrcs-z0nkqprtpprvr2o.png) Нам также понадобится поддержка [замыканий](https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%BC%D1%8B%D0%BA%D0%B0%D0%BD%D0%B8%D0%B5_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)), которые сами по себе могут генерировать мусор — для того, чтобы “захватить” переменную `a`, потребуется выделить под нее память в динамической области памяти (и затем освободить эту память с помощью сборщика мусора). ![image](https://habrastorage.org/r/w1560/webt/pm/xj/ux/pmxjuxaxnxmnemmrinoe0g7iuau.png) Необходима поддержка работы с объектами в стиле JavaScript, когда к свойствам объекта можно обращаться не только с помощью оператора `.`, но и как к значениям в ассоциативном массиве, то есть с помощью квадратных скобок. И, как мы помним, расширение объектов в JavaScript (как и в Self) основано на прототипах: поэтому если искомое свойство не найдено в самом объекте, то его необходимо искать в его прототипе, а если оно не найдено в прототипе, то будем искать в прототипе прототипа и т.д. ![image](https://habrastorage.org/r/w1560/webt/le/xw/ot/lexwotlvzgkqmni49ncx5das6lg.png) Это приводит нас к вопросу типизации кода и ее влиянии на скорость работы программ. Рассмотрим данный вопрос на примере простого обращения к свойству объекта: `xx = b.x;`, где `x` — это число. В Си это выражение будет преобразовано в 1 или 2 машинные инструкции, и в таком коде будет возможен только 1 “кэш-промах” (cache miss). В JavaScript все будет намного-намного сложнее: * сначала мы будем искать свойство в самом объекте * если поиск завершится неудачей, то потребуется искать его выше по цепочке прототипов до тех пор пока свойство не будет найдено * после того, как свойство найдено, нам нужно поместить его значение в переменную `хх`. При это сборщик мусора должен будет удалить предыдущее значение этой переменной. Плюс под новое значение потребуется выделить новую память. Естественно, что такой код может работать в сотни раз медленнее аналогичного C-кода (если только вы не знаете все типы заранее, тогда этот код можно будет оптимизировать до уровня C-кода). ![image](https://habrastorage.org/r/w1560/webt/1c/9q/o-/1c9qo-z_ndhwiopm9d8iw3afmaa.png) Так как перед Робертом стоит только одна задача — портировать CrossCode на консоли, то создаваемый JavaScript-компилятор: * должен гарантированно работать только с кодом CrossCode. Он не является инструментом общего назначения * используемые оптимизации кода заточены только для кода CrossCode. Поэтому при попытке скомпилировать с его помощью любой другой код на выходе может получиться очень медленное приложение. И не стоит забывать про ограниченные временные рамки — фанаты ждут версию для Nintendo Switch (в сообществе CrossCode это стало мемом — каждый раз, когда разработчики публикуют какую-нибудь новость в соц.сетях, то одним из первых комментариев является “Switch when?”)! ![image](https://habrastorage.org/r/w1560/webt/qk/aw/lf/qkawlfwg3walmid6gyog1wzq_20.png) Давайте рассмотрим существующие решения в области типизации кода для JavaScript и создания AOT-компиляторов: [Flow](https://flow.org/) от Facebook может осуществлять статический анализ типов и поддерживает аннотации типов (поэтому в случае, когда не удается автоматически вывести используемый тип, можно явно указать его). TypeScript — аналогичный инструмент, работающий с расширенной версией JavaScript. ![image](https://habrastorage.org/r/w1560/webt/jt/se/61/jtse61atn4rtgwiau0l-2llx7ko.png) Есть относительно недавнее интересное исследование “AOT компиляция JavaScript”, авторы которого заявляют, что им удалось создать работающий AOT-компилятор. К сожалению самого компилятора нет в открытом доступе, но принцип его работы известен (хотя он оказался недостаточно хорош для целей Роберта) — компилятор генерирует две версии кода: * в первой версии осуществляется попытка подобрать наиболее подходящие типы для переменных * во второй версии код не типизируется и работает крайне медленно, но работает. Эта версия используется как запасной вариант. Авторы исследования заявляют, что полученный на выходе код работает примерно в 2 раза медленнее кода в больших JS-движках (по мнению Роберта такие заявления несут мало смысла, т.к. из них не ясны причины, почему этот код работает медленнее, будет ли код на выходе всегда медленнее и т.д.). ![image](https://habrastorage.org/r/w1560/webt/vz/cl/tr/vzcltr2kishc73lsoyc96axr-te.png) Роберт также нашел [диссертацию Пола Биггара](https://paulbiggar.com/research/#phd-dissertation), посвященную разработке AOT-компилятора для PHP — данная работа может оказаться полезной, если вы решите написать свой компилятор. ![image](https://habrastorage.org/r/w1560/webt/fn/un/ww/fnunwwzrqfncis_gtfammzcz2su.png) Но не пытайтесь задавать вопросы в Интернете — вы можете оказаться в ситуации с бесконечной рекурсией: На Реддите есть пост, посвященный анонсу версии CrossCode для консолей. Кто-то в комментариях к нему высказался о том, что уже существуют решения для конвертации JavaScript в C++. На вопрос Роберта о том, где можно узнать об этом поподробнее, он получил совет обратиться к разработчикам CrossCode :) ![image](https://habrastorage.org/r/w1560/webt/do/vd/au/dovdauwshwgujr4uajkfo8ybnta.png) Роберт также нашел проект [NectarJS](https://nectarjs.com/#) — AOT-компилятор для JavaScript (и не только). По заявлению его автора сгенерированный на выходе код может работать быстрее скомпилированного кода на Си. При этом в качестве доказательства он приводит [пример кода для вычисления числа Фибоначчи](http://blog.seraum.com/compiled-javascript-with-nectarjs-can-be-faster-than-nodejs-and-c). Это довольно специфичный пример, т.к. в нем заранее известны все типы на входе и выходе из функций, в нем не осуществляется работа с JavaScript-объектами, поэтому этот код легко оптимизируется. Так что по мнению Роберта это пример, который на самом деле ничего не доказывает. ![image](https://habrastorage.org/r/w1560/webt/k1/oi/pm/k1oipmga_kvaqovu5lzn54vrpi4.png) В итоге Роберт решил использовать Haxe. И вот почему: * с большой натяжкой Haxe можно считать диалектом JavaScript. Цепочка рассуждений, приводящих к этому выводу, такова: Haxe в свое время родился как замена ActionScript 3; ActionScript 3 — это язык, основанный на стандарте ECMAScript 4; а ECMAScript 4 — это старый стандарт для JavaScript * в Haxe есть замыкания и система выведения типов (не такая как в JavaScript, но это все равно лучше, чем никакая). Стандартные библиотеки языков имеют много общего. Поэтому можно предположить, что за счет такого сходства задача портирования проекта должна несколько упроститься * Haxe компилируется в C++ (как раз то, что нужно для поддержки консолей), при этом для “плюсов” реализован довольно неплохой сборщик мусора (таким образом, не нужно тратить времени на его реализацию) * и Роберт уже имел опыт работы с Haxe Тогда все что остается — это задача по преобразованию JavaScript-кода в Haxe. Но она, к сожалению, усложняется за счет того, что: * Haxe основан на классах, а не прототипах * в Haxe не поддерживается загрузка кода во время исполнения, а в JavaScript такая возможность используется постоянно. ![image](https://habrastorage.org/r/w1560/webt/zf/xu/aa/zfxuaafxltb9y9uwvzf2-t8eh9y.png) Но давайте рассмотрим поближе код движка Impact и то, [как в нем используются прототипы](https://github.com/phoboslab/Impact/blob/66e872e26a62a6f3f1f984c3fb004ec74d29784a/lib/impact/impact.js#L465): в Impact объявляется объект `ig.Class`, который реализует собственную систему классов (как в Java :) ) — довольно распространенный прием в мире JavaScript (в современном JavaScript также появилась поддержка классов, которая делает то же самое, но уже с поддержкой на уровне самого языка). Можно считать, что Роберту повезло, что прототипы используются именно таким образом, т.к. это означает, что достаточно парсить только вызовы к объекту `ig.Class` и преобразовывать их в классы Haxe. Проблему с прототипами для случая CrossCode можно считать решенной! И все благодаря тому, что JavaScript-программисты используют этот язык как Java. ![image](https://habrastorage.org/r/w1560/webt/mz/ci/du/mzcidufowjhvnnlvx-ohbus8gku.png) Проблема с загрузкой кода также значительно упрощается, если реализовывать ее только для случаев, [используемых в движке Impact](https://github.com/phoboslab/Impact/blob/66e872e26a62a6f3f1f984c3fb004ec74d29784a/lib/impact/impact.js#L277): * для загрузки модуля создается script-элемент, которому назначается свойство `src` с путем к загружаемому скрипту * для этого элемента назначается слушатель события загрузки скрипта * затем созданный элемент добавляется в дерево DOM, и тем самым запускается процесс загрузки скрипта. Компилятор Роберта находит подобные вызовы, осуществляет анализ зависимостей между загружаемыми модулями игры и загружает и инициализирует их в нужном порядке (т.к. порядок загрузки модулей имеет значение — модули, зависящие от других модулей, не могут работать до тех пор, пока их зависимости не будут загружены). ![image](https://habrastorage.org/r/w1560/webt/eh/-l/it/eh-litz7gmswjobudesdjo8qrcw.png) Хотя в Haxe и есть замыкания, но их работа несколько отличается от замыканий в JavaScript — в JavaScript указатель на `this` не захватывается автоматически, для этого необходимо использовать встроенный метод `bind`. Поэтому в некоторых случаях в Haxe-функциях (аналогах JavaScript-функций) пришлось добавить дополнительный параметр. ![image](https://habrastorage.org/r/w1560/webt/q2/uk/oj/q2ukojusnx-p-vpinftwr1hbmwo.png) Но сходство Haxe с JavaScript обманчиво, и попытки подменить один язык другим без учета их особенностей ведут к появлению неожиданных багов. Например, Роберт попытался использовать абстрактные типы Haxe для имитации преобразований типов в JavaScript, но столкнулся с тем, что преобразования абстрактных типов работают иначе (и в результате преобразований получались не те типы). В итоге он отказался от их использования. ![image](https://habrastorage.org/r/w1560/webt/mp/a8/x_/mpa8x_ijrntzsddn_j5ilzd1ks8.png) Еще одна проблема, связанная с отличиями Haxe и JavaScript — это работа с числами. Как уже упоминалось, в JavaScript все числа — это 64-битные числа с плавающей точкой. При этом и в Haxe и в JavaScript есть математическая библиотека, включающая в себя такие функции как `Math.round/ceil/floor`. Но в Haxe эти функции возвращают целые числа (что вполне логично), а целые числа в Haxe — 32-битные. И это означает, что используя их, вы теряете точность. Если не знать об этом, то можно нарваться на очень интересные проблемы. Тут Роберту опять относительно повезло, т.к. он наткнулся на эту проблему в одной из сцен в игре, когда на экране отображалось такое большое число, и в какой-то момент (когда это число стало слишком большим, чтобы поместиться в 32 бита) игра попросту зависла. Вот такой визуальный баг-репорт. Обойти эту проблему оказалось просто, т.к. в Haxe есть функции `Math.fround/fceil/ffloor`, возвращающие числа с плавающей точкой. ![image](https://habrastorage.org/r/w1560/webt/lr/hg/mb/lrhgmbpaf9cz6dlbwavxsnb4n0y.png) Вот еще одно отличие: и в Haxe и в JavaScript вы можете объявить литерал объекта, но их отличие в том, что если в JavaScript (начиная со стандарта ECMAScript 2015) проитерировать по всем полям такого объекта, то порядок свойств будет таким же, как и при объявлении объекта. А в Haxe порядок свойств при итерировании по ним не определен. Это отличие Роберт также обнаружил не сразу и ему пришлось поправить это поведение на стороне Haxe. ![image](https://habrastorage.org/r/w1560/webt/sg/-t/s-/sg-ts-ziytknjyjunhalhu_8oc4.png) И раз уж мы упомянули неопределенное поведение, то стоит сказать, в Haxe не все строго определено. Это обусловлено тем, что Haxe может компилироваться под совершенно разные платформы, у каждой из которых свое поведение, и если пытаться поддерживать одинаковое поведение на всех платформах, то это неизбежно ударит по скорости работы кода на выходе, поэтому такая неопределенность является компромиссом между скоростью и универсальностью языка. Учитывая размер проекта, Роберту требовалось одинаковое поведение. Поэтому порт CrossCode собирается только под hxcpp. В начале Роберт пробовал компилировать полученный Haxe-код в JavaScript, надеясь, что это ускорит разработку, но из-за различий в поведении ему пришлось отказаться от этой идеи. По мнению Роберта для данного проекта это не является существенной проблемой, но вам все же стоит знать о том, что такие отличия существуют. ![image](https://habrastorage.org/r/w1560/webt/th/0w/kl/th0wklgh77xiebq3bog1v3vbvki.png) В качестве альтернативы hxcpp (hxcpp — библиотека для поддержки C++ в Haxe) Роберт также рассматривал возможность использования HL/C, который конвертирует байт-код виртуальной машины [HashLink](https://hashlink.haxe.org/) в C-код. Код, полученный с помощью HL/C, компилируется быстрее, однако hxcpp-рантайм обеспечивает лучшую производительность. По этой причине Роберт выбрал hxcpp — для CrossCode скорость выполнения кода важнее скорости его компиляции. В Deck13 для ускорения компиляции проектов используется [IncrediBuild](https://www.incredibuild.com/) — пакет программ, позволяющих распределить выполнение “тяжелых” задач (например, компиляции C++ кода) между компьютерами, объединенными в сеть. Однако при работе из дома Роберту пришлось найти другое “решение” данной проблемы — им оказались старые point-and-click адвенчуры :) Они идеально подходят для того, чтобы скоротать время в ожидании, когда завершиться компиляция проекта: такие игры можно запустить в окне рядом с окном компилятора, их можно поставить на паузу в любое время, и от них можно легко отвлечься и перейти к отладке проекта. ![image](https://habrastorage.org/r/w1560/webt/wp/xm/xg/wpxmxgao5tcyopkcq83buczfgei.png) Теперь давайте рассмотрим улучшения в Kha и hxcpp, появившиеся благодаря работе над CrossCode: Во-первых, была улучшена поддержка работы со звуком в Kha. В Kha реализован свой звуковой микшер (audio mixer), и реализован он на Haxe. Благодаря этому пользователи могут легко вносить изменения в его работу. Но по этой же причине, на его работу влияет сборщик мусора: когда hxcpp запускает процесс сборки мусора, происходит остановка всех потоков, выполняется сборка мусора, и затем выполнение потоков продолжается. При работе со звуком такие кратковременные паузы особенно критичны — при воспроизведении звуковых эффектов могут возникать “заикания”. Но теперь, благодаря помощи со стороны Хью Сандерсона (автора hxcpp), код звукового микшера в Kha может работать независимо от сборщика мусора. ![image](https://habrastorage.org/r/w1560/webt/ab/rx/lm/abrxlm6_u6y6468rgc-z7fuxnia.png) Во-вторых, удалось найти и исправить несколько ошибок в hxcpp, связанных с поддержкой Юникод. Полноценная поддержка Юникод появилась в Haxe 4, и до недавнего времени она была отключена в hxcpp по-умолчанию. Протестировать поддержку Юникод в hxcpp помогло сообщество пользователей Kha — Роберт включил ее в форке hxcpp, распространяемом вместе с Kha. ![image](https://habrastorage.org/r/w1560/webt/ow/dt/ri/owdtri2yftdqhtvz9g8bhinvhpo.png) В-третьих, удалось исправить ошибки в работе [сборщика мусора, основанном на поколениях](https://ru.wikipedia.org/wiki/%D0%A1%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%BC%D1%83%D1%81%D0%BE%D1%80%D0%B0#%D0%9F%D0%BE%D0%BA%D0%BE%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BE%D0%B2) (generational garbage collector). По-умолчанию в hxcpp использовался не такой быстрый алгоритм сборки мусора, но при этом его реализация была хорошо оттестирована. Включив в hxcpp новый сборщик мусора, Роберту удалось избавиться от “подвисаний” игры, связанных с работой сборщика мусора, но спустя примерно 30 секунд игра “упала”. С помощью Хью Сандерсона удалось исправить ошибки в работе сборщика мусора: кое-что Роберт смог поправить самостоятельно, другие проблемы удалось изолировать и тогда Роберт обращался к Хью с примерами, в которых найденные проблемы повторялись. Кроме того, Роберт снова воспользовался помощью сообщества Kha, включив generational garbage collector по-умолчанию и предупредив пользователей о возможных проблемах. К счастью, к этому моменту все критические проблемы уже были исправлены — сборщик мусора теперь работал стабильно, и сон у Роберта стал крепче :) ![image](https://habrastorage.org/r/w1560/webt/bs/kv/3x/bskv3xfnumx2otgpokqoycpxtqe.png) Следующую часть доклада Роберт посвятил тому, как его компилятор выводит типы переменных: Изначально типы всех переменных неизвестны — им присваивается тип `Unknown`. Затем компилятор может определить типы данных: * встретив переменную со значением `1`, он “поймет”, что перед ним число и присвоит переменной тип `Double` (как уже упоминалось, в JavaScript все числа имеют двойную степень точности, а также нет целочисленных типов) * аналогично работает выведение типов `Boolean` и `Array` (компилятор присвоит переменной тип `Array`, если увидит, что в коде создается массив `[]`, который присваивается этой переменной в качестве ее значения) * к сожалению определение типов для объектов происходит несколько сложнее. Созданный компилятор парсит систему классов, используемую в Impact, таким образом он получает информацию о пользовательских типах. Встретив переменную, которой присваивается значение одного из таких типов, компилятор присваивает ей соответствующий тип. Однако если в дальнейшем компилятор встретит код, обращающийся к несуществующему в данном объекте свойству, то ему будет присвоен “табличный” (map-like) тип. Код, использующий “табличные” типы, работает медленнее, поэтому такие ситуации нежелательны, но в случае данного проекта неизбежны ![image](https://habrastorage.org/r/w1560/webt/xb/ie/t9/xbiet9lv0c0szlb4dkubxsptx7g.png) Остальные типы: * `String` — строки с поддержкой Юникод * классы, которые могут передаваться и использоваться впоследствии для создания объектов * множественный тип `Multiple`. Данный тип используется в случаях, когда компилятор находит, что переменной, для которой уже был определен тип, присваивается значение другого типа. С типом `Multiple` могут выполняться любые операции, но как можно догадаться, код, использующий такие переменные, работает крайне медленно (поэтому если всем переменным в проекте присвоить тип `Multiple`, то полученный код будет работать, но будет делать это словно в замедленной съемке). * тип `Nothing` используется в основном для типизации возвращаемых типов * тип `Function` используется для определения типа “функция” (т.к. в JavaScript функции можно передавать в качестве аргументов другим функциям и присваивать их в качестве значений переменным) * тип `Undecidable` — это своего рода “главный враг” (boss enemy) от мира типизации — самый сложный тип. Он используется в случаях, когда у компилятора нет никакого способа определить тип переменной — обычно такое происходит при парсинге JSON (данные для парсинга получаются из внешнего источника, недоступного компилятору, поэтому компилятор ничего не знает о результате парсинга). `Undecidable`-переменные работают аналогично `Multiple`-переменным, но с некоторыми нюансами, связанными с дальнейшим выведением типов. ![image](https://habrastorage.org/r/w1560/webt/th/ba/r_/thbar_qsgptrrrkcurfcycdv5ao.png) Рассмотрим подробнее выведение типов в компиляторе Роберта: Компилятор проходит по всему коду проекта, и когда один тип “встречает” другой, компилятору нужно выполнить кучу разных вещей. Самый простой вариант дальнейших действий компилятора — это “выравнивание типов”. Пример такого сценария — обращение к полю объекта. Встретив в коде выражение типа `a.x`, компилятор сначала определит тип объекта `a` (экземпляром какого класса является объект `a`), таким образом компилятор сможет определить тип поля `x` данного объекта. В идеале тип поля `x` и тип присваиваемого ему значения должны совпадать. Если же выведенные типы не совпадают, то компилятору необходимо “выровнять” их, сделав их совместимыми. Для этого тип поля `x` должен быть “повышен” до совместимого типа. Например, `Boolean` может быть повышен до `Double` и даже до `Object`, т.к. для JavaScript такие преобразования валидны. Но в то же время `Double` не может быть повышен до `Object` — для такого случая тип поля будет заменен на `Multiple`. ![image](https://habrastorage.org/r/w1560/webt/py/m3/5r/pym35r5mqa3aopzobji5uvqor3i.png) Более сложный сценарий выведения типов в компиляторе — коллизии типов (type clash), которые могут происходить: * при присвоении переменной значения другой переменной, * а также при передаче переменной в качестве аргумента функции. В таких ситуациях переменная `a` должна иметь возможность хранить значения того типа, который уже был ей присвоен, плюс значения типа переменной `b`. Тип переменной `b` при этом обычно не изменяется, но тип переменной `a` обычно “повышается”. ![image](https://habrastorage.org/r/w1560/webt/yw/ky/ky/ywkykyx07cst9ipr9vyl1siw70m.png) Также компилятор обрабатывает сценарий “мягких” коллизий типов (soft type clash), которые могу возникать при сравнении двух переменных — в JavaScript у вас есть возможность сравнить переменную, хранящую численное значение, и `null` или `undefined`. В таких случаях выведенный тип переменной повышается до `Multiple`. ![image](https://habrastorage.org/r/w1560/webt/_c/o-/zx/_co-zxe7jsmdhvr58dmftvzl81i.png) Процесс выведения типов переменных разделен на три фазы, каждая из которых происходит не за один проход, а в цикле — до тех пор, пока компилятор не найдет новых типов. Основная цель каждой из фаз — свести к минимуму число переменных с типом `Undecidable`, т.к. они сильнее всего влияют на скорость работы программы. На начальной фазе выполняется выведение типов без возможности присвоения `Undecidable`-типа. На второй фазе типизация выполняется уже с возможностью присвоения `Undecidable`-типа, но только для переменных, все еще имеющих `Unknown`-тип (то есть для тех переменных, которым еще не был присвоен другой тип). Обычно на этом этапе большинство переменных с типом `Undecidable` становятся переменными с другими типами. Далее, для того, чтобы избавиться от оставшихся в коде `Undecidable`-переменных, Роберт вносит точечные изменения в код конвертера. Таким образом, например, Роберту удалось избавиться от `Undecidable`-переменных, получаемых в результате парсинга JSON. ![image](https://habrastorage.org/r/w1560/webt/p1/ix/op/p1ixophhw0f9j-g-uboc_zlktr0.png) Компилятор также выполняет “унификацию типов”. Для чего она нужна? В JavaScript-коде часто используются литералы объектов, но они не попадают в систему классов, построенную ранее, и это негативно сказывается на скорости работы игры (т.к. если не пытаться типизировать данные объекты, то компилятор будет использовать для них табличный тип). Поэтому компилятор Роберта ищет в коде все определения литералов объектов и пытается конвертировать их в классы (в случаях, когда это имеет смысл). Для этого компилятор анализирует как объявленные объекты используются: какие поля они имеют при объявлении, переменным каких типов они присваиваются. На основании данного анализа компилятор создает новый класс, который и используется в качестве типа. Это была сложная задача, но в итоге ее удалось решить. ![image](https://habrastorage.org/r/w1560/webt/oo/ba/in/oobainzpbp9cqedygv2laynajcw.png) Что пока не удалось решить, так это ограничения в компиляторе, связанные с `Mutliple`-типом: в коде часто встречаются места, где одна переменная может хранить значения разных типов, и было бы гораздо эффективнее “запоминать” эти типы, но на данный момент компилятор просто преобразует такую переменную к `Mutliple`-типу. И что еще хуже, компилятор можно “обмануть”: * допустим, у нас есть переменная `x` известного типа * можно создать объект табличного типа `var a = {};` * затем его можно “преобразовать” в табличный тип, хранящий `Multiple`-значения поместив значение переменной `x` в качестве значения одного из полей объекта `a` (`a[‘x’] = x;`), компилятор “забудет” тип помещенного значения. И если впоследствии обратиться к этому полю, то компилятор будет использовать для него `Mutliple`-тип (`var xx = a[‘x’]; // xx будет иметь тип Multiple`) ![image](https://habrastorage.org/r/w1560/webt/3x/lw/es/3xlwesqwe-nxmynir5hdxf0f5dk.png) * и если впоследствии вызвать метод у данного объекта, имеющего `Mutliple`-тип, то компилятор не сможет выполнить (уточняющее) выведение типов аргументов для этого метода (`xx.something(really_weird_object);`) * но при этом компилятор мог ранее вывести типы параметров для этого метода (например, компилятор встречал места в коде, где этот метод вызывался только с численными аргументами) * поэтому, если вызвать этот метод с аргументами, имеющими несовместимые с выведенными ранее типы, то выполнение программы будет аварийно завершено. А этого, как вы понимаете, допустить нельзя, если вы хотите выпустить игру на консолях. Для отлавливания подобных ошибок Роберт добавил специальный режим компиляции, при котором выполнение программы сопровождается проверками типов переменных (при каждом присваивании) и аргументов функций (при каждом вызове функций). Игра при этом работает очень и очень медленно, но при возникновении подобных ошибок можно сразу увидеть, где ошибка возникла и какие при этом типы использовались (и тогда такую ошибку можно исправить). ![image](https://habrastorage.org/r/w1560/webt/jc/vq/bm/jcvqbmw7ufbpuxqysrtsekvzs1u.png) Конечно же, в CrossCode используется `eval` — метод, с помощью которого можно выполнить JavaScript код, представленный строкой. Поэтому Роберту пришлось реализовать интерпретатор JavaScript, который может взаимодействовать с откомпилированным JavaScript-кодом. К счастью потребовалось реализовать поддержку только небольшого подмножества JavaScript, использовавшегося в вызовах `eval`. ![image](https://habrastorage.org/r/w1560/webt/jm/lo/gb/jmlogbptpvudyrpap3qyw7nnz5a.png) Используя описанные решения, Роберту удалось довести порт до играбельного состояния, игру можно было пройти, но она работала недостаточно быстро. Основная причина относительно низкой скорости работы игры заключалась в том, что компилятор часто выбирал `Multiple`-тип для переменных. Чтобы избавиться от избыточного использования `Multiple`, Роберт стал “помогать” компилятору с помощью “подсказок типов” (type hints), добавляя в JavaScript-код комментарии с именами типов, которые компилятор должен использовать для переменных и аргументов функций. И это оказалось одним из основных методов улучшения скорости работы CrossCode — анализируя места в коде, где часто используется `Multiple`, а также причины, почему так происходит, Роберт добавляет комментарии с подсказками, а остальную работу выполняет его компилятор. ![image](https://habrastorage.org/r/w1560/webt/ve/id/5h/veid5h1-kequ5np_k2cundknpn4.png) Используя подсказки типов всего в нескольких местах, Роберту удалось значительно ускорить работу CrossCode — игра заработала быстрее, чем в V8 (на текущий момент игра работает в несколько раз быстрее, чем в V8). ![image](https://habrastorage.org/r/w1560/webt/as/gw/om/asgwomh5oqflvxk3rn4mlaaksw4.png) Пока что дату релиза порта Роберт назвать не может, но говорит, что релиз будет очень скоро: * сейчас игру можно пройти, в ней не осталось критических ошибок, * однако в побочных квестах все еще находятся ошибки (а побочных квестов в CrossCode много) * в некоторых особенно “тяжелых” сценах все еще наблюдается падение скорости работы (но в целом скорость работы приемлемая) ![image](https://habrastorage.org/r/w1560/webt/ag/er/ag/agerag7m0byozq2f8eizailxr2w.png) Подводя предварительные итоги, можно сказать что Haxe: * помог сэкономить время, которое пришлось бы потратить на реализацию таких вещей как замыкания и сборщик мусора * с другой стороны Роберту пришлось решать неожиданные проблемы, связанные с различиями между JavaScript и Haxe. Но, в конце концов, Роберт считает, что Haxe все-таки больше помог, нежели помешал ему (но насколько точно — сказать сложно). ![image](https://habrastorage.org/r/w1560/webt/6u/xo/ak/6uxoak2el_hjoihfdhdme6nnu48.png) Используя накопленный опыт портирования CrossCode, Роберт в свободное время начал экспериментировать с написанием “правильного” компилятора JavaScript, но уже без использования Haxe (но ожидать релиза универсального компилятора, по словам Роберта, все же не стоит, если только этим проектом не заинтересуются инвесторы). ![image](https://habrastorage.org/r/w1560/webt/te/vm/9d/tevm9dnnpbwnwyo2mvaei25jutm.png) Если вы захотите написать свой компилятор JavaScript, то теперь вы примерно знаете, что от вас потребуется: * скорее всего вам понадобится прочитать материалы, на которые Роберт ссылался в своем докладе, * начните со спецификации ECMAScript и реализации описанных в ней тестов (они лучше подходят для начала работы). Пусть эти тесты и будут работать медленно, но это уже будет хорошим началом * затем вы можете заняться типизацией кода и связанными с ней вопросами, рассмотренными в докладе Роберта. ![image](https://habrastorage.org/r/w1560/webt/fl/-d/fz/fl-dfzbcguobqweoxpnau4j-bvu.png) Роберт считает, что раз ему удалось в одиночку создать свой неуниверсальный компилятор JavaScript для CrossCode (а он не считает себя специалистом по компиляторам), то создание универсального компилятора JavaScript — вполне реализуемая задача, особенно если ей займется команда опытных программистов. ![image](https://habrastorage.org/r/w1560/webt/ie/nw/hl/ienwhlfohne81-h5yu7uy-srjjq.png) Роберт также считает, что чем больше JavaScript-программисты “деградируют” в Java-программистов (то есть используют JavaScript как Java, насколько это возможно), то тем проще достичь хорошей производительности JavaScript-кода и скомпилированного из него кода. Именно поэтому ему удалось написать свой AOT-компилятор. ![image](https://habrastorage.org/r/w1560/webt/sa/jh/ns/sajhnsxhmlsplmnqpomoas0dwje.png) И немного о Deck13 Spotlight — издателе CrossCode: Если вы не хотите писать свой компилятор JavaScript (или заниматься подобными вещами), то этим может заняться Роберт, как сотрудник компании :) Deck13 Spotlight занимается издательством небольших инди-игр и весомым доводом в пользу сотрудничества с ними является возможность привлечения опытных разработчиков из студии Deck13. Поэтому издательство сможет помочь инди-компаниям по всем вопросам, связанным с разработкой и портированием игр. Спасибо за внимание!
https://habr.com/ru/post/489974/
null
ru
null
# Эрланг для веб-разработки (1) -> Знакомство; ![](https://habrastorage.org/r/w1560/files/ab9/08a/eb3/ab908aeb3c9c4422ab0de8abe4b4a361.png) *Продолжение о базе данных и деплое во [второй статье](http://habrahabr.ru/post/274107/)*. Я начинаю публиковать серию статей о веб-разработке на Эрланге. Многие хотят попробовать Эрланг, но сталкиваются с проблемой, что вводные курсы в основном касаются Эрланга как функционального языка и далеки от реальных проектов ([Learn You Some Erlang for great good!](http://learnyousomeerlang.com/) — хорошая и подробная книга). С другой стороны все обучающие материалы по веб-разработке подразумевают, что читатель уже хорошо знает Эрланг. Эта серия статей рассчитана для разработчиков, у которых есть опыт в веб-разработке (PHP, Ruby, Java), но не имеют опыта разработки на Эрланге. Задачей будет сделать блог. Код из статей <https://github.com/denys-potapov/n2o-blog-example>, готовый проект можно посмотреть по адресу <http://46.101.118.21:8001/>. Особенности проекта: * обновление комментариев в реальном времени; * авторизация через фейсбук; * данные храним в mnesia. В основе проекта [феймворк n2o](https://github.com/synrc/n2o). Выбор довольно субъективен, но из живых [Эрланг фреймворков](https://github.com/ChicagoBoss/ChicagoBoss/wiki/comparison-of-erlang-web-frameworks), n2o мне показался наиболее «эрлангоподобным», в тоже время ChicagoBoss больше похож на MVC фреймворки в других языках. Настраиваем окружение --------------------- Я буду настраивать окружение в Ubuntu, но схожим образом должно работать и в других ОС. Скачиваем и устанавливаем актуальную версию эрланга [www.erlang-solutions.com/resources/download.html](https://www.erlang-solutions.com/resources/download.html). ### Менеджер зависимостей Стандартный менеджер зависимостей в Эрланге — [rebar](https://github.com/rebar/rebar). Но, в данной статье мы будем использовать mad от создателей n2o, который совместим с rebar конфигурацией, работает быстрее и позволяет отслеживать изменения в шаблонах. ``` curl -fsSL https://raw.github.com/synrc/mad/master/mad > mad chmod +x mad sudo cp mad /usr/local/bin/ ``` Для отслеживание изменений файлов mad требует установки inotify-tools: ``` sudo apt-get install inotify-tools ``` Генерируем костяк приложения и запускаем его: ``` mad app "blog" cd blog mad deps compile plan repl ``` По адресу <http://localhost:8001/> открывается чат, который обновляется по вебсокету в реальном времени, и можно переписываться самому с собой из разных окон. ![](https://habrastorage.org/r/w1560/files/3e7/7b7/0dd/3e77b70dd4814b4f8950812a48c79df0.png) Параметры mad отвечают за получение зависимостей и запуск приложения: * deps — получить зависимости; * compile — скомпилировать приложение; * plan — создать план запуска; * repl — запустить консоль. ### Структура проекта Структура файлов нашего проекта стандартная для Эрланг приложений: ``` ├── apps ├── rebar.config └── sample ├── ebin │ ├── ... ├── priv │ ├── static │ │ ... │ └── templates │ └── index.html ├── rebar.config └── src ├── index.erl ├── routes.erl ├── sample.app.src └── sample.erl ├── deps ├── rebar.config └── sys.config ``` Подробно о структуре можно почитать в [официальной документации](http://www.erlang.org/doc/design_principles/applications.html). Позже мы познакомимся практически со всеми файлами и папками, а пока нам надо знать, что Эрланг приложение обычно состоит из нескольких приложений, которые лежат в папке apps. У нас там одно приложение sample, в котором: * src — исходный код; * ebin — скомпилированные файлы; * priv — остальные файлы проекта, в данном случае шаблоны и статика; * index.erl — заглавная страница. Первый код ---------- Удалим ненужные файлы: ``` rm -r apps/sample/priv/static/ ``` Для шаблонов мы используем ErlyDTL, реализацию Django Template Language на эрланге. Поэтому синтаксис будет понятен тем, кто знаком с Django-подобными шаблонизаторами (Django, Twig, Mustache). **apps/sample/priv/templates/base.html** ``` {% block title %}Erlang blog example{% endblock %} .container { max-width: 40em; } {% block content %}{% endblock %} ``` **apps/sample/priv/templates/index.html** ``` {% extends "base.html" %} {% block title %}Latest posts{% endblock %} {% block content %} Latest posts ============ {{ posts }} {% endblock %} ``` Теперь откроем index.erl и заменим код на такой: ``` -module(index). -compile(export_all). -include_lib("n2o/include/wf.hrl"). -include_lib("nitro/include/nitro.hrl"). main() -> #dtl{file="index"}. ``` В заголовке файла мы объявляем модуль, указываем, что мы экспортируем все функции из этого модуля, и подключаем два заголовочных файла. Функция **main/1** вызывается при открытии главной страницы. Функции могут возвращать или сразу HTML, или DSL Эрланг записи, о которых мы поговорим позже. Пока мы просто возвращаем отрендеренный шаблон index. *В документации к Эрлангу функции всегда пишутся как **название/кратность**, где кратность — количество аргументов*. Знакомимся с синтаксисом ------------------------ Сейчас самое время ознакомиться с основами синтаксиса, это быстрее всего сделать на [www.tryerlang.org](http://www.tryerlang.org/). Мы выведем на главной странице все посты. Пока не будем использовать БД, а будем хранить посты прямо в коде. В заголовочном файле /apps/sample/include/records.hrl опишем запись для хранения постов: ``` -record(post, {id, title, text, author}). ``` Создадим модуль /apps/sample/src/posts.erl для хранения постов. Модуль экспортирует две функции: **get/0** — возвращает все посты, а **get/1** — возвращает пост по Id: ``` -module(posts). -export([get/0, get/1]). -include("records.hrl"). get() -> [ #post{id=1, title="first post", text="interesting text"}, #post{id=2, title="second post", text="not interesting text"}, #post{id=3, title="third post", text="very interesting text"} ]. get(Id) -> lists:keyfind(Id, #post.id, ?MODULE:get()). ``` Записи в Эрланге — это синтаксический сахар, компилятор заменит записи на кортежи, а поля на индексы. Например #post.id будет заменен на 0. DSL --- Выше я писал, что функции могут возвращать Эрланг записи, которые преобразуются в HTML. Изменим наш index.erl, чтобы на странице выводился список всех постов: ``` -module(index). -compile(export_all). -include_lib("n2o/include/wf.hrl"). -include_lib("nitro/include/nitro.hrl"). -include_lib("records.hrl"). posts() -> [ #panel{body=[ #h2{body = #link{body = P#post.title, url = "/post?id=" ++ wf:to_list(P#post.id)}}, #p{body = P#post.text} ]} || P <- posts:get()]. main() -> #dtl{file="index", bindings=[{posts, posts()}]}. ``` Для создания страницы поста, мы в /apps/sample/src/routes.erl указываем, какой модуль будет обрабатывать наш путь: ``` route(<<"post">>) -> post; ``` Модуль apps/sample/src/post.erl просто выводит шаблон с данными поста: модуль ``` -module(post). -compile(export_all). -include_lib("n2o/include/wf.hrl"). -include_lib("records.hrl"). main() -> {Id, _} = string:to_integer(binary_to_list(wf:q(<<"id">>))), Post = posts:get(Id), #dtl{file="post", bindings=[{title, Post#post.title}, {text, Post#post.text}]}. ``` Шаблон: ``` {% extends "base.html" %} {% block title %}{{ title }}{% endblock %} {% block content %} {{ title }} by {{ author }} {{ text }} Comments {{ comments }} {% endblock %} ============================================================================= ``` Вебсокеты --------- Теперь мы подошли к самому интересному, а именно связи браузера с сервером по вебсокету. Мы сделаем комментарии к посту, которые будут обновляться в реальном времени. Для этого в базовый шаблон добавим библиотеки инициализации n2o: ``` {{script}} protos = [ $bert, $client ]; N2O\_start(); ``` А в модуле post.erl добавим обработчик события и код для вывода комментариев: ``` main() -> Id = wf:to_integer(wf:q(<<"id">>)), Post = posts:get(Id), #dtl{file="post", bindings=[{title, Post#post.title}, {text, Post#post.text}, {comments, comments()}]}. comments() -> [#textarea{id=comment, class=["form-control"], rows=3}, #button{id=send, class=["btn", "btn-default"], body="Post comment",postback=comment,source=[comment]} ]. event(comment) -> wf:insert_bottom(comments, #blockquote{body = #p{body = wf:html_encode(wf:q(comment))}}). ``` При выводе кнопки, мы указываем, какое событие будет вызвано (postback) и какие параметры надо передать на сервер (source). В функции event(comment) мы отправляем клиенту код, чтобы добавить комментарий внизу списка. Пока этот комментарий не попадает к другим клиентам, но сейчас мы это исправим: ``` event(init) -> wf:reg({post, post_id()}); event(comment) -> wf:send({post, post_id()}, {client, wf:q(comment)}); event({client, Text}) -> wf:insert_bottom(comments, #blockquote{body = #p{body = wf:html_encode(Text)}}). ``` Событие init, вызывается в момент загрузки страницы, и мы регистрируем наш процесс, что он будет получать сообщения из пула {post, post\_id()}. Вместо вывода комментария в событии event(comment), мы посылаем сообщение с новым комментарием в пул. А вывод комментария делаем в обработчике event({client, Text}). Теперь мы можем весело переписываться в чате под постом, и почти повторили код, который сгенерировал mad как костяк приложения. В следующей статье мы будем хранить посты и комментарии в БД, и добавим авторизацию через фейсбук.
https://habr.com/ru/post/273979/
null
ru
null
# jQuery-сниппеты и плагины для iPad Подборка простых jQuery-сниппетов и плагинов, которые помогут адаптировать сайт для отображения на iPad. Некоторые подойдут и для других тач-устройств. ![](https://habrastorage.org/r/w1560/storage2/dbf/0d4/0e7/dbf0d40e73fc71b93261df46d6dea115.png) ### 1. Определение ориентации экрана ([источник](http://favo.asia/2010/07/detecting-ipad-orientation-using-javascript/)) ``` What's my Orientation?  window.onorientationchange = detectIPadOrientation;  function detectIPadOrientation () {     if ( orientation == 0 ) {      alert ('Portrait Mode, Home Button bottom');     }     else if ( orientation == 90 ) {      alert ('Landscape Mode, Home Button right');     }     else if ( orientation == -90 ) {      alert ('Landscape Mode, Home Button left');     }     else if ( orientation == 180 ) {      alert ('Portrait Mode, Home Button top');     }  } ``` Использование CSS: ``` ``` ### 2. Перетаскивание (Drag) объектов ([источник](http://www.jquery4u.com/mobile/jquery-add-dragtouch-support-ipad/#.UEAbXsHiY0U)) ``` //iPAD Support $.fn.addTouch = function(){   this.each(function(i,el){     $(el).bind('touchstart touchmove touchend touchcancel',function(){       //we pass the original event object because the jQuery event       //object is normalized to w3c specs and does not provide the TouchList       handleTouch(event);     });   });   var handleTouch = function(event)   {     var touches = event.changedTouches,             first = touches[0],             type = '';     switch(event.type)     {       case 'touchstart':         type = 'mousedown';         break;       case 'touchmove':         type = 'mousemove';         event.preventDefault();         break;       case 'touchend':         type = 'mouseup';         break;       default:         return;     }     var simulatedEvent = document.createEvent('MouseEvent');     simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY, false, false, false, false, 0/*left*/, null);     first.target.dispatchEvent(simulatedEvent);   }; }; ``` ### 3. Определение направления тача ([источник](http://labs.skinkers.com/touchSwipe/), [демо](http://labs.skinkers.com/touchSwipe/demo/1_Basic_swipe.php)) ### 4. Скроллинг объектов с overflow:auto, используя один палец вместо двух ([источник](http://forrst.com/posts/jQuery_iPad_one_finger_scroll-B30), [демо](http://jsfiddle.net/mfXMn/)) ### 5. Определение iPhone, iPod и iPad ([источник](http://www.jquery4u.com/mobile/jquery-detect-mobile-devices-iphone-ipod-ipad/#.UEKkycHiY0V)) ``` jQuery(document).ready(function($){     var deviceAgent = navigator.userAgent.toLowerCase();     var agentID = deviceAgent.match(/(iphone|ipod|ipad)/);     if (agentID) {         // mobile code here     } }); ``` ### 6. Множественный выбор в форме ([источник](http://www.tgerm.com/2012/01/ipad-multiselect-picklist-jquery-plugin.html)) ``` ``` ### 7. Назначение события на клик на iPad ([источник](http://www.brightec.co.uk/blog/jquery-click-events-ipad)) ``` var ua = navigator.userAgent, event = (ua.match(/iPad/i)) ? "touchstart" : "click"; $("#theElement").bind(event, function() { // jquery code } ``` ### 8. Простые жесты на сайте при использовании iPad ([источник](http://www.janes.co.za/easy-ipad-gestures-in-your-website-with-jquery/#.UEKoPcHiY0V)) Потребуется библиотека [touchwipe](http://www.netcu.de/jquery-touchwipe-iphone-ipad-library): ``` ``` Назначаем действия жестам: ``` $(document).ready(function(){             $('body').touchwipe({                 wipeLeft: function(){ alert('You swiped left!') },                 wipeRight: function(){ alert('You swiped right!') },                 wipeUp: function(){ alert('You swiped up!') },                 wipeDown: function(){ alert('You swiped down!') }             })         }) ``` ### 9. Двойной тап ([источник](http://appcropolis.com/implementing-doubletap-on-iphones-and-ipads/), [демо](http://sanraul.com/lab/jquery.doubletap/)) Работает также и в десктоп-браузерах. ### 10. jQuery.UI.iPad плагин ([источник](http://cgiphpguy.com/ajax/javascript-for-ipad/jqueryuiipad-plugin)) Обеспечивает поддержку jQuery UI для тач-девайсов. **Скрытый текст** ``` $(function() {   //   // Extend jQuery feature detection   //   $.extend($.support, {     touch: typeof Touch == "object"   });   //   // Hook up touch events   //   if ($.support.touch) {     document.addEventListener("touchstart", iPadTouchHandler, false);     document.addEventListener("touchmove", iPadTouchHandler, false);     document.addEventListener("touchend", iPadTouchHandler, false);     document.addEventListener("touchcancel", iPadTouchHandler, false);   } }); var lastTap = null;      // Holds last tapped element (so we can compare for double tap) var tapValid = false;      // Are we still in the .6 second window where a double tap can occur var tapTimeout = null;      // The timeout reference function cancelTap() {   tapValid = false; } var rightClickPending = false;  // Is a right click still feasible var rightClickEvent = null;    // the original event var holdTimeout = null;      // timeout reference var cancelMouseUp = false;    // prevents a click from occuring as we want the context menu function cancelHold() {   if (rightClickPending) {     window.clearTimeout(holdTimeout);     rightClickPending = false;     rightClickEvent = null;   } } function startHold(event) {   if (rightClickPending)     return;   rightClickPending = true; // We could be performing a right click   rightClickEvent = (event.changedTouches)[0];   holdTimeout = window.setTimeout("doRightClick();", 800); } function doRightClick() {   rightClickPending = false;   //   // We need to mouse up (as we were down)   //   var first = rightClickEvent,     simulatedEvent = document.createEvent("MouseEvent");   simulatedEvent.initMouseEvent("mouseup", true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,       false, false, false, false, 0, null);   first.target.dispatchEvent(simulatedEvent);   //   // emulate a right click   //   simulatedEvent = document.createEvent("MouseEvent");   simulatedEvent.initMouseEvent("mousedown", true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,       false, false, false, false, 2, null);   first.target.dispatchEvent(simulatedEvent);   //   // Show a context menu   //   simulatedEvent = document.createEvent("MouseEvent");   simulatedEvent.initMouseEvent("contextmenu", true, true, window, 1, first.screenX + 50, first.screenY + 5, first.clientX + 50, first.clientY + 5,                                   false, false, false, false, 2, null);   first.target.dispatchEvent(simulatedEvent);   //   // Note:: I don't mouse up the right click here however feel free to add if required   //   cancelMouseUp = true;   rightClickEvent = null; // Release memory } // // mouse over event then mouse down // function iPadTouchStart(event) {   var touches = event.changedTouches,     first = touches[0],     type = "mouseover",     simulatedEvent = document.createEvent("MouseEvent");   //   // Mouse over first - I have live events attached on mouse over   //   simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                             false, false, false, false, 0, null);   first.target.dispatchEvent(simulatedEvent);   type = "mousedown";   simulatedEvent = document.createEvent("MouseEvent");   simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                             false, false, false, false, 0, null);   first.target.dispatchEvent(simulatedEvent);   if (!tapValid) {     lastTap = first.target;     tapValid = true;     tapTimeout = window.setTimeout("cancelTap();", 600);     startHold(event);   }   else {     window.clearTimeout(tapTimeout);     //     // If a double tap is still a possibility and the elements are the same     //  Then perform a double click     //     if (first.target == lastTap) {       lastTap = null;       tapValid = false;       type = "click";       simulatedEvent = document.createEvent("MouseEvent");       simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                            false, false, false, false, 0/*left*/, null);       first.target.dispatchEvent(simulatedEvent);       type = "dblclick";       simulatedEvent = document.createEvent("MouseEvent");       simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                            false, false, false, false, 0/*left*/, null);       first.target.dispatchEvent(simulatedEvent);     }     else {       lastTap = first.target;       tapValid = true;       tapTimeout = window.setTimeout("cancelTap();", 600);       startHold(event);     }   } } function iPadTouchHandler(event) {   var type = "",     button = 0; /*left*/   if (event.touches.length > 1)     return;   switch (event.type) {     case "touchstart":       if ($(event.changedTouches[0].target).is("select")) {         return;       }       iPadTouchStart(event); /*We need to trigger two events here to support one touch drag and drop*/       event.preventDefault();       return false;       break;     case "touchmove":       cancelHold();       type = "mousemove";       event.preventDefault();       break;     case "touchend":       if (cancelMouseUp) {         cancelMouseUp = false;         event.preventDefault();         return false;       }       cancelHold();       type = "mouseup";       break;     default:       return;   }   var touches = event.changedTouches,     first = touches[0],     simulatedEvent = document.createEvent("MouseEvent");   simulatedEvent.initMouseEvent(type, true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                             false, false, false, false, button, null);   first.target.dispatchEvent(simulatedEvent);   if (type == "mouseup" && tapValid && first.target == lastTap) {  // This actually emulates the ipads default behaviour (which we prevented)     simulatedEvent = document.createEvent("MouseEvent");    // This check avoids click being emulated on a double tap     simulatedEvent.initMouseEvent("click", true, true, window, 1, first.screenX, first.screenY, first.clientX, first.clientY,                             false, false, false, false, button, null);     first.target.dispatchEvent(simulatedEvent);   } } ```
https://habr.com/ru/post/158577/
null
ru
null
# Распаковка, редактирование и упаковка прошивок видеорегистраторов и IP камер от Xiong Mai #### Предыстория Не так давно приобрёл на Aliexpress IP камеру (чип Hi3516 платформа 53H20L) и 16-канальный гибридный видеорегистратор (чип Hi3521 платформа MBD6508E). Оба выполнены на чипсете от HiSilicon, так что проблем с совместимостью между собой не испытывают. Разумеется, не обошлось и без глюков. Первый, и самый главный — у камеры криво работал WiFi — нельзя было подключиться к сети, если ключ был задан в HEX виде, а также периодически возникала проблема со шлюзом по умолчанию. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/805/879/4fe/8058794fe12f2658d6a3e6db943c4690.jpg) Прошивка оказалась старая, ещё июньская. Раздобыл несколько [свежих прошивок](http://pan.baidu.com/share/home?uk=2318430757#category/type=0) и попробовал. Некоторые оказались глючными, но одна заработала нормально. Возникла другая проблема — изменился пароль по умолчанию для telnet подключения. Этого я не стерпел и стал искать способы вернуть его обратно. Сразу предупрежу, что данный способ опробован на видеорегистраторах и камерах на чипах HiSilicon, но должен сработать и с другой платформой, так как китайцы широко используют загрузчик U-boot. #### Распаковка Инструкция по распаковке довольно подробно расписана в [этой статье](http://habrahabr.ru/post/173501/), но вот процесс упаковки нигде не описан, что и побудило меня написать этот пост. Расписываю по шагам, чтобы ничего не упустить: Ставим Linux, я выбрал ubuntu. Проверяем тип файла прошивки: ``` root@xc:~/firmware# file General_HZXM_IPC_HI3516C_53H20L_V4.02.R11.20131108_ALL.bin General_HZXM_IPC_HI3516C_53H20L_V4.02.R11.20131108_ALL.bin: Zip archive data, at least v2.0 to extract ``` Распаковываем: ``` root@xc:~/firmware# unzip General_HZXM_IPC_HI3516C_53H20L_V4.02.R11.20131108_ALL.bin Archive: General_HZXM_IPC_HI3516C_53H20L_V4.02.R11.20131108_ALL.bin inflating: Install inflating: u-boot-all.bin.img inflating: web-x.cramfs.img inflating: custom-x.cramfs.img inflating: user-x.cramfs.img inflating: romfs-x.cramfs.img inflating: logo-x.cramfs.img inflating: InstallDesc ``` Смотрим содержимое Install: ``` { "Commands" : [ "burn custom-x.cramfs.img custom", "burn romfs-x.cramfs.img romfs", "burn user-x.cramfs.img user", "burn logo-x.cramfs.img logo", "burn web-x.cramfs.img web" ], "Devices" : [ [ "53H20L", "1.00" ] ] } ``` InstallDesc: ``` "UpgradeCommand" : [ { "Command" : "Burn", "FileName" : "u-boot-all.bin.img" }, { "Command" : "Burn", "FileName" : "custom-x.cramfs.img" }, { "Command" : "Burn", "FileName" : "romfs-x.cramfs.img" }, { "Command" : "Burn", "FileName" : "user-x.cramfs.img" }, { "Command" : "Burn", "FileName" : "web-x.cramfs.img" }, { "Command" : "Burn", "FileName" : "logo-x.cramfs.img" } ], "Hardware" : "53H20L", "Vendor" : "General" } ``` Слово u-boot-all наводит на мысль, что файлы img являются образами загрузчика U-boot, поэтому ставим соответствующий пакет: ``` root@xc:~/firmware# apt-get install u-boot-tools ``` Смотрим, что за файлы у нас были в архиве: ``` root@xc:~/firmware# file u-boot-all.bin.img u-boot-all.bin.img: u-boot legacy uImage, linux, Linux/ARM, Firmware Image (gzip), 524288 bytes, Fri Nov 8 05:15:49 2013, Load Address: 0x00000000, Entry Point: 0x00080000, Header CRC: 0x8A551AA8, Data CRC: 0x8290AD90 root@xc:~/firmware# file romfs-x.cramfs.img romfs-x.cramfs.img: u-boot legacy uImage, linux, Linux/ARM, OS Kernel Image (gzip), 4100096 bytes, Fri Nov 8 05:16:04 2013, Load Address: 0x00080000, Entry Point: 0x00580000, Header CRC: 0xD16AC90F, Data CRC: 0x54CDD868 root@xc:~/firmware# file user-x.cramfs.img user-x.cramfs.img: u-boot legacy uImage, linux, Linux/ARM, OS Kernel Image (gzip), 7602112 bytes, Fri Nov 8 05:16:02 2013, Load Address: 0x00580000, Entry Point: 0x00CC0000, Header CRC: 0x106C19AD, Data CRC: 0x6D54ADA7 root@xc:~/firmware# file web-x.cramfs.img web-x.cramfs.img: u-boot legacy uImage, linux, Linux/ARM, Standalone Program (gzip), 1572800 bytes, Fri Nov 8 05:15:51 2013, Load Address: 0x00CC0000, Entry Point: 0x00E40000, Header CRC: 0x87611FE5, Data CRC: 0x6BD90EBD root@xc:~/firmware# file custom-x.cramfs.img custom-x.cramfs.img: u-boot legacy uImage, linux, Linux/ARM, Standalone Program (gzip), 262080 bytes, Fri Nov 8 05:15:49 2013, Load Address: 0x00E40000, Entry Point: 0x00E80000, Header CRC: 0xF7C82692, Data CRC: 0x5A27F74C root@xc:~/firmware# file logo-x.cramfs.img logo-x.cramfs.img: u-boot legacy uImage, linux, Linux/ARM, Standalone Program (gzip), 262080 bytes, Fri Nov 8 05:15:47 2013, Load Address: 0x00E80000, Entry Point: 0x00EC0000, Header CRC: 0x4FE4A821, Data CRC: 0xF6671BD1 ``` Прошу обратить внимание на два параметра Load Address и Entry Point. Я при первой сборке забыл их указать, они по умолчанию стали нулями, а это адрес загрузчика, который оказался затёрт после прошивки! Из-за этого я потратил лишний час на восстановление — пришлось снимать с улицы камеру, разбирать, и восстанавливать прошивку на программаторе. (Хотя камеру разбирал всё же не зря — добавил в кожух пакетик силикагеля, чтобы убрать возможную влагу из воздуха.) Теперь небольшое пояснение: образ .img из данной прошивки является несколько изменённым образом файловой системы cramfs. Вот [тут](http://habrahabr.ru/post/147793/) можно почитать поподробнее. Чтобы привести образ к нормальному виду, нужно отрезать 64 байта заголовка. ``` root@xc:~/firmware# dd bs=1 skip=64 if=logo-x.cramfs.img of=logo-x.cramfs 262080+0 записей получено 262080+0 записей отправлено скопировано 262080 байт (262 kB), 0,891322 c, 294 kB/c ``` Для остальных файлов команды аналогичные. Смотрим, что получилось: ``` root@xc:~/firmware# file logo-x.cramfs logo-x.cramfs: Linux Compressed ROM File System data, little endian size 28672 version #2 sorted_dirs CRC 0xe29e6340, edition 0, 199 blocks, 2 files ``` Уже похоже на cramfs. Для работы с образами cramfs установим или обновим соответствующий пакет: ``` root@xc:~/firmware# apt-get install cramfsprogs ``` Распаковываем образы: ``` root@xc:~/firmware# cramfsck -x logo logo-x.cramfs root@xc:~/firmware# cramfsck -x user user.cramfs root@xc:~/firmware# cramfsck -x romfs romfs-x.cramfs root@xc:~/firmware# cramfsck -x web web-x.cramfs root@xc:~/firmware# cramfsck -x custom custom-x.cramfs ``` Каталоги я не создаю, они создадутся автоматически. Загрузчик так не распаковать, это не образ cramfs, но его и не надо трогать. #### Что внутри Быстренько пробегусь по содержимому каждого файла внутри архива прошивки: * InstallDesc — описывает действия, которые нужно произвести с этими файлами при обновлении прошивки, install-скрипт. * logo-x.cramfs.img — картинка в формате 800x600 с логотипом изготовителя, которая появляется при загрузке аппарата. * romfs-x.cramfs.img — собственно сама операционная система linux под архитектуру ARM * u-boot-all.bin.img — загрузчик U-boot * custom-x.cramfs.img — содержит наименование платформы и дополнительные настройки * user-x.cramfs.img — прикладной софт, в том числе Sofia — сама программа видеорегистратора * web-x.cramfs.img — картинки веб-интерфейса, web.cab — плагин для Internet Explorer с локализацией, логотипы производителя. Нас интересует romfs-x.cramfs.img, так как именно там присутствует файл passwd, в котором хранится пароль. Вот его содержимое, желающие могут попробовать сбрутить: ``` root:$1$RYIwEiRA$d5iRRVQ5ZeRTrJwGjRy.B0:0:0:root:/:/bin/sh ``` Я же просто сгенерил новый хеш [на сайте](http://www.insidepro.com/hashes.php?lang=rus) и поменял его в файле. #### Собираем обратно После сделанных изменений нужно всё запаковать обратно: ``` root@xc:~/firmware# mkcramfs romfs romfs-x.cramfs Directory data: 3624 bytes Everything: 4004 kilobytes Super block: 76 bytes CRC: 28c62b9b ``` Помните, я заострял внимание на значениях Load Address и Entry Point? Самое время о них вспомнить и добавить в команду. Создаём образ U-boot: ``` root@xc:~/firmware# mkimage -A arm -O linux -T ramdisk -n "linux" -e 0x00580000 -a 0x00080000 -d romfs-x.cramfs romfs-x.cramfs.img Image Name: linux Created: Fri Feb 21 14:27:38 2014 Image Type: ARM Linux RAMDisk Image (gzip compressed) Data Size: 4100096 Bytes = 4004.00 kB = 3.91 MB Load Address: 00080000 Entry Point: 00580000 ``` Кстати, чтобы обновить один модуль не обязательно прошивать всю прошивку, достаточно положить только нужный, и отредактировать файлы Install и InstallDesc, оставив только нужные строчки. Складываем полученные файлы в отдельный каталог, пусть это будет new. Даём команду: ``` root@xc:~/new# zip -D -X firmware.bin * adding: Install (deflated 22%) adding: InstallDesc (deflated 30%) adding: romfs-x.cramfs.img (deflated 0%) ``` Всё, прошивка готова. Осталось только прошить её через web-интерфейс через пункт update #### Предостережение Выполняя рекомендации из этой статьи, вы делаете на ваш страх и риск. Автор не несет ответственности за ваши действия. Допустив ошибку при модификации прошивки вы легко можете получить кирпич, который можно будет восстановить только на программаторе. Поэтому, если не уверены в своих действиях, не делайте этого. #### Ссылки [Burn-in рутовый шелл в IP-камерах Vesta и не только](http://habrahabr.ru/post/173501/) [GNU/Linux и устройство на Rockchip 2918](http://habrahabr.ru/post/147793/) [Hacking RAM disks](http://boundarydevices.com/hacking-ram-disks/)
https://habr.com/ru/post/213411/
null
ru
null
# Шпаргалки по безопасности: Docker ![](https://habrastorage.org/r/w1560/webt/8w/2q/ga/8w2qgad0hpcszydr-apdn1uib-8.png) Docker контейнеры — самая популярная технология для контейнеризации. Изначально она использовалась в основном для dev и test окружений, со временем перешла и в production. Docker контейнеры начали плодиться в production среде, как грибы после дождя, однако мало из тех, кто использует данную технологию, задумывался о том, как же безопасно публиковать Docker контейнеры. Основываясь на [OWASP](https://github.com/OWASP/CheatSheetSeries/blob/master/cheatsheets/Docker_Security_Cheat_Sheet.md), мы подготовили список правил, выполнение которых позволит значительно обезопасить ваше окружение, построенное на Docker контейнерах. ### Правило 0 #### Хостовая машина и Docker должны содержать все актуальные обновления Для защиты от известных уязвимостей, приводящих к выходу за пределы окружения контейнера в хостовую систему, которые, как правило, заканчиваются повышением привилегий на хостовой системе, крайне важна установка всех патчей для хостовой ОС, Docker Engine и Docker Machine. Кроме того, контейнеры (в отличие от виртуальных машин) используют ядро совместно с хостом, поэтому эксплойт ядра, запущенный внутри контейнера, напрямую выполняется в ядре хоста. Например, эксплойт повышения привилегий в ядре (к примеру, Dirty COW), запущенный внутри хорошо изолированного контейнера, приведёт к root-доступу на хосте. ### Правило 1 #### Не давайте доступ к сокету демона Docker Cлужба (демон) Docker использует UNIX сокет /var/run/docker.sock для входящих соединений API. **Владельцем данного ресурса должен быть пользователь root.** И никак иначе. Изменение прав доступа к этому сокету по сути равносильно предоставлению root-доступа к хостовой системе. Также не следует шарить сокет /var/run/docker.sock с контейнерами, там где без этого можно обойтись, поскольку в таком случае компрометация сервиса в контейнере приведет к полному контролю над хостовой системой. Если у вас есть контейнеры, которые используют примерно такую настройку: ``` -v /var/run/docker.sock://var/run/docker.sock ``` или для docker-compose: ``` volumes: - "/var/run/docker.sock:/var/run/docker.sock" ``` необходимо срочно это изменить. И последнее — никогда, слышите, **никогда** не используйте Docker TCP сокет без абсолютной уверенности, что вам это нужно, особенно без использования дополнительных методов защиты (хотя бы авторизации). По умолчанию Docker TCP сокет открывает порт на внешнем интерфейсе 0.0.0.0:2375 (2376, в случае HTTPs) и позволяет полностью контролировать контейнеры, а вместе с ним потенциально и хостовую систему. ### Правило 2 #### Настраивайте непривилегированного пользователя внутри контейнера Настройка контейнера на использование непривилегированного пользователя — лучший способ избежать атаки на повышение привилегий. Это можно сделать различными способами: 1. Используя опцию «-u» команды «docker run»: ``` docker run -u 4000 alpine ``` 2. Во время сборки образа: ``` FROM alpine RUN groupadd -r myuser && useradd -r -g myuser myuser <Здесь ещё можно выполнять команды от root-пользователя, например, ставить пакеты> USER myuser ``` 3. Включить поддержку «user namespace» (пользовательского окружения) в Docker daemon: ``` --userns-remap=default ``` Подробнее об этом в [официальной документации](https://docs.docker.com/engine/security/userns-remap/). В Kubernetes последнее настраивается в [Security Context](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) через опцию runAsNonRoot: ``` kind: ... apiVersion: ... metadata: name: ... spec: ... containers: - name: ... image: .... securityContext: ... runAsNonRoot: true ... ``` ### Правило 3 #### Ограничивайте возможности контейнера В Linux, начиная с ядра 2.2, появился способ контролировать возможности привилегированных процессов под названием [Linux Kernel Capabilities](https://www.opennet.ru/man.shtml?topic=capabilities) (подробности по ссылке). Docker по умолчанию использует предустановленный набор этих возможностей ядра. И позволяет менять этот набор при помощи команд: ``` --cap-drop — отключает поддержку возможности ядра --cap-add — добавляет поддержку возможности ядра ``` Лучшая в плане безопасности настройка — это сначала отключение всех возможностей (--cap-drop all), а потом уже подключение только необходимых. Например так: ``` docker run --cap-drop all --cap-add CHOWN alpine ``` И самое важное (!): избегайте запуска контейнеров с флагом —privileged!!! В Kubernetes ограничение Linux Kernel Capabilities настраивается в Security Context через опцию capabilities: ``` kind: ... apiVersion: ... metadata: name: ... spec: ... containers: - name: ... image: .... securityContext: ... capabilities: drop: - all add: - CHOWN ... ``` ### Правило 4 #### Используйте флаг no-new-privileges При запуске контейнера полезно использовать флаг --security-opt=no-new-privileges который предотвращает повышение привилегий внутри контейнера. В Kubernetes ограничение Linux Kernel Capabilities настраивается в Security Context через опцию allowPrivilegeEscalation: ``` kind: ... apiVersion: ... metadata: name: ... spec: ... containers: - name: ... image: .... securityContext: ... allowPrivilegeEscalation: false ... ``` ### Правило 5 #### Отключайте межконтейнерное взаимодействие По умолчанию в Docker включено межконтейнерное взаимодействие, это означает, что все контейнеры могут взаимодействовать между собой (используя сеть docker0). Эта возможность может быть отключена путём запуска Docker сервиса с флагом —icc=false. ### Правило 6 #### Используйте модули безопасности Linux (Linux Security Module – seccomp, AppArmor, SELinux) По умолчанию Docker уже использует профили для модулей безопасности Linux. Поэтому **никогда не отключайте профили безопасности!** Максимум, что можно с ними делать – ужесточать правила. Профиль по умолчанию для seccomp доступен [здесь](https://github.com/moby/moby/blob/master/profiles/seccomp/default.json). Docker также использует AppArmor для защиты, притом Docker Engine сам генерирует дефолтный профиль для AppArmor при запуске контейнера. Другими словами, вместо: ``` $ docker run --rm -it hello-world ``` запускается: ``` $ docker run --rm -it --security-opt apparmor=docker-default hello-world ``` Также в [документации](https://docs.docker.com/engine/security/apparmor/#nginx-example-profile) приведён пример профиля AppArmor для nginx, который вполне можно (нужно!) использовать: ``` #include profile docker-nginx flags=(attach\_disconnected,mediate\_deleted) { #include network inet tcp, network inet udp, network inet icmp, deny network raw, deny network packet, file, umount, deny /bin/\*\* wl, deny /boot/\*\* wl, deny /dev/\*\* wl, deny /etc/\*\* wl, deny /home/\*\* wl, deny /lib/\*\* wl, deny /lib64/\*\* wl, deny /media/\*\* wl, deny /mnt/\*\* wl, deny /opt/\*\* wl, deny /proc/\*\* wl, deny /root/\*\* wl, deny /sbin/\*\* wl, deny /srv/\*\* wl, deny /tmp/\*\* wl, deny /sys/\*\* wl, deny /usr/\*\* wl, audit /\*\* w, /var/run/nginx.pid w, /usr/sbin/nginx ix, deny /bin/dash mrwklx, deny /bin/sh mrwklx, deny /usr/bin/top mrwklx, capability chown, capability dac\_override, capability setuid, capability setgid, capability net\_bind\_service, deny @{PROC}/\* w, # deny write for all files directly in /proc (not in a subdir) # deny write to files not in /proc//\*\* or /proc/sys/\*\* deny @{PROC}/{[^1-9],[^1-9][^0-9],[^1-9s][^0-9y][^0-9s],[^1-9][^0-9][^0-9][^0-9]\*}/\*\* w, deny @{PROC}/sys/[^k]\*\* w, # deny /proc/sys except /proc/sys/k\* (effectively /proc/sys/kernel) deny @{PROC}/sys/kernel/{?,??,[^s][^h][^m]\*\*} w, # deny everything except shm\* in /proc/sys/kernel/ deny @{PROC}/sysrq-trigger rwklx, deny @{PROC}/mem rwklx, deny @{PROC}/kmem rwklx, deny @{PROC}/kcore rwklx, deny mount, deny /sys/[^f]\*/\*\* wklx, deny /sys/f[^s]\*/\*\* wklx, deny /sys/fs/[^c]\*/\*\* wklx, deny /sys/fs/c[^g]\*/\*\* wklx, deny /sys/fs/cg[^r]\*/\*\* wklx, deny /sys/firmware/\*\* rwklx, deny /sys/kernel/security/\*\* rwklx, } ``` ### Правило 7 #### Ограничивайте ресурсы контейнеров Это правило довольно простое: во имя предотвращения пожирания контейнерами всех ресурсов сервера во время очередной DoS/DDoS атаки мы можем настроить лимиты использования памяти для каждого контейнера в отдельности. Ограничивать можно: количество памяти, CPU, количество перезапусков контейнера. Итак, пойдём по порядку. **Память** **Опция -m или --memory** Максимальное количество памяти, которое может использовать контейнер. Минимальное значение – 4m (4 мегабайта). **Опция --memory-swap** Опция для настройки swap (файла подкачки). Настраивается хитро: * Если --memory-swap > 0, тогда необходимо, чтобы и флаг –memory был установлен. В таком случае memory-swap показывает, сколько всего памяти доступно контейнеру вместе со swap. * Проще на примере. Если --memory=«300m», а --memory-swap=«1g», то контейнер может использовать 300Мб памяти и 700Мб swap (1g — 300m). * Если --memory-swap=0, настройка игнорируется. * Если --memory-swap установлено в то же значение, что и --memory, то у контейнера не будет swap’а. * Если значение --memory-swap не задано, а --memory задано, то количество swap будет равно удвоенному количеству заданной памяти. Например, если --memory=«300m», а --memory-swap не задан, то контейнер будет использовать 300Мб памяти и 600Мб swap. * Если --memory-swap=-1, то контейнер будет использовать весь swap, который возможен на хостовой системе. **Хозяйке на заметку:** утилита free, запущенная внутри контейнера, показывает не реальное значение доступного swap для контейнера, а количество swap хоста. **Опция --oom-kill-disable** Позволяет включать или выключать OOM (Out of memory) killer. Внимание! Выключать OOM Killer можно только при заданной опции --memory, иначе может случиться так, что при out-of-memory внутри контейнера ядро начнёт убивать процессы хостовой системы. Остальные опции настройки управления памятью, такие как --memory-swappiness, --memory-reservation и --kernel-memory больше служат для тюнинга производительности контейнера. **Процессор** **Опция --cpus** Опция устанавливает, сколько доступных ресурсов процессора может использовать контейнер. Например, если у нас хост с двумя CPU и мы зададим --cpus=«1.5», то контейнеру гарантировано использование полутора процессора. **Опция --cpuset-cpus** Настраивает использование конкретных ядер или CPU. Значение может быть задано через дефис или через запятую. В первом случае будет указан диапазон разрешённых ядер, во втором — конкретные ядра. **Количество перезапусков контейнера** ``` --restart=on-failure: ``` Эта настройка устанавливает, сколько раз Docker попытается перезапустить контейнер в случае его неожиданного падения. Счётчик обнуляется, если состояние контейнера перешло в «запущен». Рекомендуется ставить небольшое положительное число, например, 5, что позволит избежать бесконечных перезапусков не работающего сервиса. ### Правило 8 #### Используйте read-only файловые системы и volume Если контейнер не должен что-либо куда-либо писать, то нужно максимально, где это возможно, использовать read-only файловую систему. Это сильно усложнит жизнь потенциальному нарушителю. Пример запуска контейнера с read-only файловой системой: ``` docker run --read-only alpine ``` Пример подключения volume в режиме read-only: ``` docker run -v volume-name:/path/in/container:ro alpine ``` ### Правило 9 #### Используйте инструменты анализа безопасности контейнеров Необходимо применять инструменты для обнаружения контейнеров с уже известными уязвимостями. Их пока не сильно много, но они есть: • Бесплатный: * [Clair.](https://github.com/coreos/clair) • Коммерческие: * [Snyk](https://snyk.io/) (есть бесплатная версия); * [anchore](https://anchore.com/opensource/) (есть бесплатная версия); * [JFrog XRay](https://jfrog.com/); * [Qualys](https://www.qualys.com/apps/container-security/). А для Kubernetes существуют инструменты для выявления ошибок конфигураций: * [kubeaudit](https://github.com/Shopify/kubeaudit); * [kubesec.io](https://kubesec.io/); * [kube-bench](https://github.com/aquasecurity/kube-bench).
https://habr.com/ru/post/448704/
null
ru
null
# Электронное правительство, руки прочь от моих сайтов Уже не в первый раз замечаю атаку на свои сервера из подсети «Ростелекома», относящейся к некоему «электронному правительству». ``` $whois 109.207.13.1 ... inetnum: 109.207.0.0 - 109.207.15.255 netname: Electronic-government descr: OJSC Rostelecom descr: Electronic government of the Russian Federation ... ``` Спрашивается, что им надо от моих сайтов? — впрочем не важно, не умеете себя вести (игнорируете robots.txt), и наверняка ничего хорошего мне не сулите, тогда отправляйтесь в бездну: ``` #iptables -A INPUT -s 109.207.13.0/24 -p tcp -j DROP ```
https://habr.com/ru/post/191546/
null
ru
null
# Возможности PostgreSQL для тех, кто перешел с MySQL *Крутой [varanio](https://habrahabr.ru/users/varanio/) буквально на прошлой неделе прочитал на DevConf забойный доклад для всех кто пересел на Посгрес с MySQL, но до сих пор не использует новую базу данных в полной мере. По мотивам выступления родилась эта публикация.* *Мы рады сообщить, что подготовка к PG Day'17 Russia идет полным ходом! Мы опубликовали [**полное расписание**](https://pgday.ru/ru/2017/schedule?utm_source=habrahabr&utm_medium=blog&utm_campaign=varanio4) предстоящего мероприятия. [**Приглашаем всех**](https://pgday.ru/ru/2017/request/registration?utm_source=habrahabr&utm_medium=blog&utm_campaign=varanio4) желающих прийти и похоливарить с Антоном лично* ![](https://habrastorage.org/r/w780q1/web/a63/c71/e0c/a63c71e0c6d4455cbd9c5ebbeb43bc7d.jpg) Поскольку доклад на DevConf вызвал в целом положительные отзывы, я решил оформить его в виде статьи для тех, кто по каким-то причинам не смог присутствовать на конференции. Почему вообще возникла идея такого доклада? Дело в том, что PostgreSQL сейчас явно хайповая технология, и многие переходят на эту СУБД. Иногда — по объективным причинам, иногда — просто потому что это модно. Но сплошь и рядом складывается такая ситуация, когда какой-нибудь условный программист Вася вчера писал на MySQL, а сегодня вдруг начал писать на Посгресе. Как он будет писать? Да в целом также, как и раньше, используя лишь самый минимальный набор возможностей новой базы. Практика показывает, что проходят годы, прежде чем СУБД начинает использоваться более менее полноценно. Не холивар ---------- Сразу disclaimer: это не статья "мускуль vs посгрес". Переходить на посгрес или нет — ваше дело. Uber, к примеру, перешел обратно на MySQL по своим каким-то причинам. Надо отдать должное Oracle, они явно двигают MySQL в правильном направлении. В 5.7 сделали strict mode по умолчанию. В восьмой версии обещают CTE и оконные функции, а также избавление от движка MyISAM в системных таблицах. Т.е. видно, что в базу вкладываются ресурсы, и хотелки юзеров исследуются очень серьёзно. Однако в PostgreSQL по прежнему полным полно уникальных фич. В итоге я попытался сделать краткий обзор возможностей базы для разработчика. Встроенные типы данных ---------------------- В базу встроено множество типов данных, помимо обычных числовых и строковых. А также операторы для их взаимодействия. Например, есть типы cidr, inet, macaddr для работы с ip адресами. ``` -- проверяем, входит ли ip адрес '128.0.0.1' в cidr '127.0.0.0/24' -- с помощью оператора && select '127.0.0.0/24'::cidr && '128.0.0.1'; -- вернет false ``` Или например, время с таймзоной (timestamptz), интервал времени и т.д. ``` -- Сколько сейчас времени в Нью-Йорке? SELECT NOW() AT TIME ZONE 'America/New_York'; -- Сколько часов разницы сейчас между Москвой и Нью-Йорком? SELECT NOW() AT TIME ZONE 'America/New_York' - NOW() AT TIME ZONE 'Europe/Moscow'; -- результат: -07:00:00 ``` Когда я готовил этот слайд, я решил из любопытства посмотреть, а какое смещение времени относительно UTC было 100 лет назад, в 1917 году: ``` select '1917-06-17 00:00:00 UTC' at time zone 'Europe/Moscow'; -- результат: 1917-06-17 02:31:19 ``` Т.е. москвичи жили по времени UTC+02:31:19. Кроме перечисленных, есть и другие встроенные типы данных: UUID, JSONB, XML, битовые строки и т.д. Тип array --------- Отдельно надо рассмотреть тип "array". Массивы давно и хорошо интегрированы в PostgreSQL. Многомерные массивы, слайсы, операторы пересечения, объединения и т.д. Существует множество функций для работы с массивами. ``` --- Пример проверки пересечения массивов SELECT ARRAY [1, 2, 8, 10] && ARRAY [1, 2, 3, 4, 5]; --- Входит ли один массив в другой? SELECT ARRAY [1, 2] <@ ARRAY [1, 2, 3, 4, 5] ``` Есть очень удобная функция, которая так и называется: array. В качестве аргумента подается некий SELECT-запрос, на выходе — результат запроса в виде массива. Есть и обратная функция: unnest. Она берет массив и возвращает его как результат запроса. Это бывает удобно, например, когда нужно вставить вручную несколько одинаковых записей с разными id, но не хочется заниматься копипастой: ``` INSERT INTO users (id, status, added_at) SELECT user_id, 5, '2010-03-03 10:56:40' FROM unnest(array[123, 1232, 534, 233, 100500]) as u(user_id) ``` Создаем собственные типы ------------------------ Собственные типы можно создавать тремя способами. Во-первых, если вы знаете язык Си, то вы можете создать базовый тип, наравне с каким-нибудь int или varchar. Пример из мануала: ``` CREATE TYPE box ( INTERNALLENGTH = 16, INPUT = my_box_in_function, OUTPUT = my_box_out_function ); ``` Т.е. создаете пару функций, которые умеют делать из cstring ваш тип и наоборот. После чего можно использовать этот тип, например, в объявлении таблицы: ``` CREATE TABLE myboxes ( id integer, description box ); ``` Второй способ — это композитный тип. Например, для хранения комплексных чисел: ``` CREATE TYPE complex AS ( r double precision, i double precision ); ``` И потом использовать это: ``` CREATE TABLE math ( result complex ); INSERT INTO math (result) VALUES ((0.5, -0.6)::complex); SELECT (result).i FROM math; -- результат: -0.6 ``` Третий вид типа, который вы можете создать — это доменный тип. Доменный тип — это просто алиас к существующему типу с другим именем, т.е. именем, соответствующим вашей бизнес-логике. ``` CREATE DOMAIN us_postal_code AS TEXT; ``` us\_postal\_code — это более семантично, чем некий абстрактный text или varchar. Создаем собственные операторы ----------------------------- Можно делать свои операторы. Например, сложение комплексных чисел (сам тип complex мы определили выше): ``` -- описываем функцию сложения, например, на языке SQL CREATE OR REPLACE FUNCTION sum_complex(x COMPLEX, y COMPLEX) RETURNS COMPLEX AS $$ SELECT x.r + y.r, x.i + y.i; $$ language sql; -- создаем оператор "плюс" для комплексных чисел CREATE OPERATOR + ( PROCEDURE = sum_complex, LEFTARG = COMPLEX, RIGHTARG = COMPLEX ); ``` Создаем собственные правила для преобразования типов ---------------------------------------------------- Давайте сделаем какой-нибудь сферический в вакууме пример. Создадим типы RUR и USD, и правило для преобразования одного типа в другой. Так как я плохо знаю си, то для примера сделаем простой композитный тип: ``` CREATE TYPE USD AS ( sum FLOAT ); CREATE TYPE RUR AS ( sum FLOAT ); -- функция преобразования долларов в рубли (по курсу 60, это же сферический пример) CREATE FUNCTION usd2rur(value USD) RETURNS RUR AS $$ SELECT value.sum * 60.0; $$ LANGUAGE SQL; -- описываем правило для посгреса, какой тип как "кастить". CREATE CAST ( USD AS RUR ) WITH FUNCTION usd2rur(USD) AS ASSIGNMENT; ``` Собственно, это всё, теперь можно использовать. Сколько там будет 100 баксов в рублях? ``` select '(100.0)'::usd::rur; ``` Результат будет таким: ``` rur -------- (6000) (1 row) ``` Типы в расширениях PostgreSQL ----------------------------- Существуют расширения, где описаны типы данных и все, что для них нужно. Например, расширение `ip4r`, описывающее типы для IP-адресов и их диапазонов. Если вы посмотрите исходники <https://github.com/RhodiumToad/ip4r/blob/master/ip4r--2.2.sql>, то увидите, что расширение — это просто, по сути, набор иструкций `CREATE TYPE`, `CREATE OPERATOR`, `CREATE CAST` и т.д. Описаны правила индексирования. Например, тип `ip4r` (диапазон IP-адресов) можно проиндексировать индексом GIST по оператору `&&` (и другим). Таким образом, можно сделать таблицу для поиска городов по IP. Или, например, есть расширение `uri`, которое делает тип, в котором вы сможете хранить вашу ссылку так, что из нее потом легко вытянуть схему или хост (в продакшене еще не пробовал, только планирую). Индексы ------- Помимо стандартного `btree` есть и другие: `GIN` (можно использовать для некоторых операций с массивами, для jsonb, для полнотекстового поиска), `GIST`, `brin` и т.д. Partial indexes --------------- Бывают ситуации, когда у вас 10 миллионов строк в таблице, при чем из них только штук 100, допустим, в статусе "Платеж обрабатывается". И вы постоянно дергаете этот статус "обрабатывается" как-то так: `select ... where status = 2`. Понятное дело, что здесь нужен индекс. Но такой индекс будет занимать много места, при этом реально вам нужна из него совсем малая часть. В посгресе можно сделать индекс не по всей таблице, а по строкам, определенным по заданному условию: ``` CREATE INDEX my_money_status_idx on my_money(status) WHERE status = 2; ``` Этот индекс будет хорошо работать на запросах `select * from my_money where status = 2` и при этом занимать мало места. Индексы по выражению -------------------- В посгресе можно делать индексы не по одной колонке, а по любому выражению. Например, можно проиндексировать сразу имя с фамилией: ``` CREATE INDEX people_names ON people ((first_name || ' ' || last_name)); ``` И потом такой запрос будет быстро работать: ``` SELECT * FROM people WHERE (first_name || ' ' || last_name) = 'John Smith'; ``` Constraints ----------- Помимо стандартных UNIQUE и NOT NULL, в базе можно делать еще и другие проверки целостности. В доменном типе можно прописать check: ``` CREATE DOMAIN us_postal_code AS TEXT CHECK( VALUE ~ '^\d{5}$' OR VALUE ~ '^\d{5}-\d{4}$' ); ``` который проверяет, что в колонку типа us\_postal\_code попадут только 5 цифр или 5 цифр, дефис и 4 цифры. Разумеется, сюда можно писать не только регулярки, но и любые другие условия. Также check можно прописать в таблице: ``` CREATE TABLE users ( id integer, name text, email text, CHECK (length(name) >= 1 AND length(name) <= 300) ); ``` Т.е. в имени должен быть хотя бы один символ, и не больше 300. Вообще говоря, сами типы являются также и неким ограничением, дополнительной проверкой, которую делает база. Например, если у вас есть тип complex (смотри выше), состоящий, по сути, из двух чисел, то вы не вставите туда случайно строку: ``` INSERT INTO math (result) VALUES ((0.5, 'привет')::complex); ERROR: invalid input syntax for type double precision: "привет" ``` Таким образом, иногда композитный тип может быть предпочтительнее, чем jsonb, потому что в json вы можете напихать что угодно вообще. Частичная уникальность и уникальность по выражению -------------------------------------------------- В отличие от простой уникальности UNIQUE или PRIMARY KEY, в посгресе можно сделать уникальность среди определенного набора строк, заданного условием. Например, email должен быть уникальным среди неудаленных юзеров: ``` CREATE UNIQUE INDEX users_unique_idx ON users(email) WHERE deleted = false; ``` Еще забавная штука: можно сделать уникальность не по одному полю, а по любому выражению. К примеру, можно сделать так, что в таблице сумма двух колонок не будет повторяться: ``` CREATE TABLE test_summ ( a INT, b INT ); CREATE UNIQUE INDEX test_summ_unique_idx ON test_summ ((a + b)); INSERT INTO test_summ VALUES (1, 2); INSERT INTO test_summ VALUES (3, 0); -- выдаст ошибку уникальности ``` Constraint Exclude ------------------ Ключевое слово EXCLUDE позволяет делать так, что при вставке/обновлении строки, эта строка будет сравниваться с другими по заданному оператору. Например, таблица, содержащая непересекающиеся диапазоны IP (проверяется оператором пересечения `&&`): ``` CREATE TABLE ip_ranges ( ip_range ip4r, EXCLUDE USING gist (ip_range WITH &&) ); ``` Вообще, обычный UNIQUE — это, по сути, EXCLUDE с оператором `=`. Хранимые процедуры ------------------ Хранимые процедуры можно писать на SQL, pl/pgsql, javascript, (pl/v8), python и т.д. Например, можно на языке R обсчитать какую-то статистику и вернуть из нее график с результатом. Это отдельная большая тема, советую поискать доклад Ивана Панченко на этот счет. CTE (Common Table Expressions) ------------------------------ Это будет и в MySQL 8, но всё равно давайте кратко остановимся на этом. CTE — это просто. Вы берете какой-то кусок запроса и выносите его отдельно под каким-то именем. ``` WITH subquery1 AS ( SELECT ... -- тут куча всяких условий и тд. ), subquery2 AS ( SELECT ... -- тут тоже куча условий, группировок ) SELECT * -- начался основной запрос FROM subquery1 JOIN subquery 2 ON ... ``` С точки зрения оптимизации запросов, нужно учитывать, что каждый такой CTE-подзапрос выполняется отдельно. Это может быть как плюсом, так и минусом. Например, если у вас 20 джойнов с подзапросами и группировками, планировщик запросов может не понять ваших намерений и план запроса будет неоптимальным. Тогда можно вынести часть запроса в cte-подзапрос, а остальное уже дофильтровать в основном запросе. И наоборот, если вы решили просто для читабельности вынести часть запроса в CTE, то иногда это может выйти для вас боком. В CTE можно использовать не только SELECT-запросы, но и UPDATE. Пример: обновить юзеров с возрастом > 20 лет, и в том же запросе выдать имена обновленных вместе с какой-нибудь там страной. ``` with users_updated AS ( UPDATE users SET status = 4 WHERE age > 20 RETURNING id ) SELECT name, country FROM users JOIN countries ON users.country_id = countries.id WHERE id IN ( SELECT id FROM users_updated ); ``` Но тут надо понимать, что иногда с помощью CTE можно хорошо выстрелить себе в ногу. Такой запрос синтаксически верен, но по смыслу полный бред: ``` WITH update1 AS ( UPDATE test SET money = money + 1 ), update2 AS ( UPDATE test SET money = money - 1 ) SELECT money FROM test; ``` Кажется, что мы прибавили рубль, потом отняли рубль, и должно остаться всё как есть. Но дело в том, что update1 и update2 при своем выполнении будут брать начальную версию таблицы, т.е. по сути получится так, что один update затрет изменения другого. Поэтому с update внутри CTE надо точно знать, что ты делаешь и зачем. Оконные функции --------------- Про оконные функции я уже когда-то подробно писал здесь: <https://habrahabr.ru/post/268983/>. Оконные функции тоже обещают в MySQL 8. Разное ------ #### FILTER К агрегатным функциям (например, COUNT или SUM), можно дописывать условие FILTER, т.е. агрегировать не все строки, а только ограниченные неким выражением: ``` SELECT count(*) FILTER (WHERE age > 20) AS old, count(*) FILTER (WHERE age <= 20) AS young FROM users; ``` Т.е. мы посчитали людей, которым за двадцать, и тех, кому нет двадцати. #### \watch Все знают, что в psql есть команды для просмотра разных объектов, например `\d`, `\dt+` и т.д. Есть особая команда, называется `\watch`. Т.е. вы выполняете запрос, потом пишете `\watch 5` и ваш запрос будет выполняться каждые 5 секунд, пока не отмените. Это работает не только с select, но и с любым другим, например с update (например, когда нужно большую таблицу медленно обновить по чуть-чуть). #### Materialized View Это как View, только закешированное (материализованное). Кеш можно обновлять с помощью команды REFRESH MATERIALIZED VIEW. Есть также ключевое слово CONCURRENTLY, чтобы Postgres не лочил при обновлении SELECT-запросы. #### Listen / Notify Я пока что не пробовал это в продакшене, поэтому не знаю, применимо ли это на практике (если кто использовал, поделитесь плиз опытом в комментариях). Суть в том, что можно подписаться на какое то событие, а также можно уведомить подписчиков, что событие произошло, передав при этом строку с доп. сведениями. #### FDW Механизм Foreign Data Wrappers позволяет использовать некоторые внешние данные, как простые таблицы. Т.е. к примеру, можно заджойнить постгресовую таблицу, мускульную таблицу, и csv файл. #### Sequences SEQUENCE — это посгресовый аналог MySQL-ного AUTO\_INCREMENT. В отличие от MySQL, sequence может существовать отдельно от таблиц или наоборот, "тикать" сразу для нескольких таблиц. Можно задавать различные параметры, например, размер инкремента, зацикливание и проч. Вместо выводов -------------- Это верхушка айсберга, на самом деле. Есть еще куча нюансов, вообще никак не затронутых в статье, потому что на всё никакой статьи не хватит. По одним только хранимым процедурам можно написать книгу. Или посмотрите, к примеру, полный список sql-команд текущей версии: <https://www.postgresql.org/docs/9.6/static/sql-commands.html> Главное, что я хотел показать в статье: несмотря на хайповость, PostgreSQL — очень старая СУБД, в которой очень много чего есть, и которая очень хорошо расширяется. Поэтому при переходе на нее с MySQL рекомендуется полистать мануал, почитать статьи и т.д.
https://habr.com/ru/post/331460/
null
ru
null
# Установка шрифтов Groff Здравствуй, Хабр! Русские шрифты в Groff, пошаговая инструкция по установке. [Groff](https://www.gnu.org/software/groff/) - небольшой и очень-очень винтажный программный пакет, система набора текста, в каком-то смысле прадедушка TeX, LaTeX. Но если TeX создан [Дональдом Кнутом](https://ru.wikipedia.org/wiki/%D0%9A%D0%BD%D1%83%D1%82,_%D0%94%D0%BE%D0%BD%D0%B0%D0%BB%D1%8C%D0%B4_%D0%AD%D1%80%D0%B2%D0%B8%D0%BD), то [Брайан Керниган](https://ru.wikipedia.org/wiki/%D0%9A%D0%B5%D1%80%D0%BD%D0%B8%D0%B3%D0%B0%D0%BD,_%D0%91%D1%80%D0%B0%D0%B9%D0%B0%D0%BD) *приложил немало усилий для развития концепций* Troff. Итак, две легенды и две дороги. Конечно, сегодня программы troff (GNU версия называется по традиции **groff**) применяют в основном для форматирования man-страниц, но возможности процессора намного шире. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f82/024/b6a/f82024b6ac8fa381622f63eaa866979e.jpg) ...Осенью прошлого года мне пришлось форматировать текстовой файл. Правда, банальная задача? Но дьявол живет в деталях: у меня на руках было 60000 страниц текста из базы данных, где смешались русские, английские и немецкие слова, сцементированные и притертые, как камни пирамиды Хеопса. Мой «текстовой процессор» (OO) намертво завис. Я растерялся, расстроился, попытался найти простенькое решение для командной строки. В самом деле, как работали во времена Ноя и мониторов EGA с текстом? Emacs, vim, jed? Это все насыщенные функциями, как мед сахаром, многорежимные редакторы. Но насущная задача казалась очевидной: создать текстовой файл со строкой в 70 знаков, с возможностью центрирования и необязательного переноса слов. Помнится, в «эпоху DOS» был популярный «процессор» Лексикон, да? Что-то такое я захотел установить на свой компьютер. Только чтобы буквы в utf-8 не резались на биты. Впрочем, чудо случилось: во время поисков я нашел русскоязычную документацию программы nroff, написанную… как вы думаете, кто переводил мануалы? Ну да, производственно-внедренческий кооператив "[ИНТЕРФЕЙС](http://www.kulichki.com/moshkow/MAN/DEMOS210/meintro.txt)" озаботился русскоязычной справкой аж в конце 80 годов, еще во времена СССР. Мои поиски закончились и я за несколько минут подготовил файл с форматированием. Следующая команда прекрасно справилась с текстом utf-8, конечно, без переноса слов. `$ groff -Dutf8 -Tutf8 utf-8.txt > russian.txt` Получилось очень красиво. Мне тут же захотелось продолжить знакомство с легендарной программой и я решил перевести на русский язык документацию Groff, чтобы поглубже изучить, понять всю прелесть старой программы. В процессе перевода у меня также возникло необъяснимое желание создать документ *PostScript*  на русском языке со своими шрифтами. И вот здесь начались сложности: процесс установки «своих» шрифтов в Groff не такой уж простой.(Проблема в том, что некоторые программы не ставятся «по умолчанию» в дистрибутив Debian, которым я пользуюсь, поэтому их придется устанавливать самому.) Ниже я попытаюсь максимально подробно описать компиляцию шрифтов ttf для работы с программой Groff. Шрифты в Groff «настраиваются» несколько необычно, хотя существует небольшой и удобный скрипт **install-font.sh**, созданный Питером Шаффтером, автором *макроса mom* Groff; скрипт я быстро нашел в Сети и переписал «под себя». В частности, мне не понравилось, что исходный скрипт пытается положить шрифты в какую-то далекую директорию, хотя намного проще, чтобы скрипт всего-навсего компилировал файлы «по месту жительства». Также я перевел [сообщение Т. Курта Бонда](https://tkurtbond.github.io/posts/2021/07/17/groff-and-install-fontsh-and-installing-fonts-for-use-in-groff/), но применительно к русскому языку и с необходимыми правками. Ниже инструкция Бонда с моими замечаниями. А в этом [архиве](https://disk.yandex.ru/d/HXQ8AI7eJgx7IA) лежат все необходимые утилиты, даже программа afmtodit, она написана на Perl. Исходный скрипт Питера лежит по [адресу](https://www.schaffter.ca/mom/bin/install-font.sh). В настоящее время install-font.sh не входит в пакет groff, как пишет Бонд, поэтому могут быть небольшие трудности, если возникает необходимость установить шрифты в форматах OpenType или TrueType. И для удобной работы потребуется программа **Fontforge** — бесплатный редактор шрифтов с открытым исходным кодом. Этот редактор может выполнять сценарии преобразований между форматами шрифтов в командной строке. Примечание. Можно также создать шрифтовые метрики AFM, например, с помощью входящей в пакет ghostscript программы, или программы **ttf2afm** из пакета tetex. Скрипт install-font.sh использует Fontforge для преобразований между шрифтами OpenType и TrueType в PostScript Type42 (.t42) и Type1 (.pfa). Затем с помощью утилиты **afmtodit** (по умолчанию не поставляется с пакетом Groff, но доступна в исходниках) создаются необходимые для Groff файлы. Установите Fontforge. `$ sudo apt install fontforge` Скачайте afmtodit (или [архив](https://disk.yandex.ru/d/HXQ8AI7eJgx7IA)). Создайте директорию, например, **FONT**. Положите исполняемые файлы **install-font.sh** и **afmtodit**, необходимые шрифты в эту директорию. Для автоматизации я написал небольшой скрипт, который в автоматическом режиме компилирует шрифты. Скрипт также доступен в архиве как auto-convert.sh ``` #!/bin/bash EXT="ttf" # (расширение) # EXT="TTF" # В директории FONT должны размещаться файлы textmap и text.enc mkdir ./install-font # Необходимая для работы afmtodit директория mkdir ./install-font/DESC # Программа на Perl, можно отключить проверку DESC mkdir ./site-font DEST=`pwd` cp tex* ./install-font # Начинаем цикл for FILE in *.$EXT; do # "Меняем" имя файла (расширение) input=`echo $(basename "$FILE" .$EXT).afm` output=`echo $(basename "$FILE" .$EXT)` # Конвертируем echo "conversion $FILE >> $input" # Опция +R определяет шрифт Regular, см. ниже комментарий sudo ./install-font.sh -n -d -P "$DEST" -F $output -f +R $FILE # Смотрим файлы в директории, это всего лишь удобная фича input=`ls $DEST/site-font/devps/$output*` echo "$input" done exit 0 ``` Как видите, ничего сложного — создается директория install-font с обязательной поддиректорией DESC и директория site-font. В последнем каталоге будут «появляться» шрифты, необходимые для работы с Groff. Обратите внимание! В директорию install-font следует положить два файла: textmap и text.enc (они есть в архиве). Эти файлы нужны для работы программы **afmtodit** и они входят в оригинальный пакет Groff. Также скрипт install-font.sh потребует определенных прав для исполнения. Наверное, от этого можно избавиться, отключив в скрипте две-три команды, но я не стал изменять скрипт. После запуска скрипта auto-convert.sh в директории site-font появятся две субдиректории - devps и devpdf. Последняя директория пока что не нужна, ведь мы создаем шрифты для работы с устройством PS (*PostScript).* *Groff называет директории шрифтов как «****dev****» (устройство) и «формат», п*оэтому все необходимые файлы перемещаются в site-font/devps, причем каталогу назначаются привилегии и права. Также из-за какой-то путаницы afmtodit в созданных «шрифтах» будет ошибка — неправильная строка «spacewidht 0», ее можно закоментировать «**# spacewidht 0**». Или опять-таки переписать старенькую программу afmtodit. Например, вы собираетесь использовать шрифт Russian.ttf, программа Groff предполагает, что будут доступны варианты Regular, Italic, Bold и Bold Italic (**R, I, B и BI**, если говорить в терминологии Groff). Значит, вам потребуются соответствующие шрифты: *Russian-Regular.ttf, Russian-Italic.ttf, Russian-Bold.ttf и Russian-BoldItalic.ttf*. Обычно на сайтах со шрифтами предлагаются подборки семейств, так что вы всегда сможете скачать необходимые шрифты. Шрифты следует скопировать в каталог FONT (который мы создали ранее), разумеется, в этом же каталоге должны лежать все исполняемые файлы. Скрипт auto-convert.sh запускает для каждого ttf шрифта следующую команду: `$ sudo install-font.sh -n -P " $DEST " -d -F Font -f +R Font-Regular.ttf` Параметр -f принимает аргумент, указывающий используемый стиль шрифта: +R, +I, +B или +BI. В данном случае установлена опция +R, создается шрифт Regular. Если вы хотите создать шрифты Italic, Bold и Bold Italic, опция приобретает иной вид: +I, +B и +BI соответственно. Параметр -F принимает аргумент, указывающий используемое имя семейства шрифтов. Это имя для запроса .fam или -f groff, чтобы сообщить процессору, какое семейство шрифтов будет использоваться. Для примера, такая команда создаст RussianI (курсив) шрифт `$ sudo install-font.sh -n -P " $DEST " -d -F Font -f +I Russian-Italic.ttf` Очевидно, можно «встроить» алгоритм, автоматически «называющий» шрифт так, как необходимо процессору Groff. Если компиляция была успешной, в директории ./site-font/devps/ будут созданы шрифты, их следует скопировать в **/usr/share/groff/site-font/devps/** (для дистрибутива Debian). Теперь можно написать файл test.txt для тестирования нового шрифта. ``` .sp 2 .ps 16 .ft RussianR .ti +1 Отладка кода вдвое сложнее, чем его написание. Так что если вы пишете код .br настолько умно, насколько можете, то вы по определению недостаточно .br сообразительны, чтобы его отлаживать. .br Управление сложностью является сущностью компьютерного программирования. .sp 1 .ps 12 .ce .ft RussiandB Брайан Керниган, автор Troff ``` Затем создадим файл *PostScript* `$ groff -P-pa4 -P-l -Dutf8 -Tps test.txt > text.ps` ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/bb1/ebe/ebc/bb1ebeebc861dd49da37e7ccad0dc7d9.jpg)Вот и все, и надеюсь, несмотря на почтенный возраст программы Groff, она еще способна вызвать у любителей ручной верстки какие-то чувства =)
https://habr.com/ru/post/657269/
null
ru
null
# Как работает JS: веб-воркеры и пять сценариев их использования **[Советуем почитать] Другие 19 частей цикла**Часть 1: [Обзор движка, механизмов времени выполнения, стека вызовов](https://habrahabr.ru/company/ruvds/blog/337042/) Часть 2: [О внутреннем устройстве V8 и оптимизации кода](https://habrahabr.ru/company/ruvds/blog/337460/) Часть 3: [Управление памятью, четыре вида утечек памяти и борьба с ними](https://habrahabr.ru/company/ruvds/blog/338150/) Часть 4: [Цикл событий, асинхронность и пять способов улучшения кода с помощью async / await](https://habrahabr.ru/company/ruvds/blog/340508/) Часть 5: [WebSocket и HTTP/2+SSE. Что выбрать?](https://habrahabr.ru/company/ruvds/blog/342346/) Часть 6: [Особенности и сфера применения WebAssembly](https://habrahabr.ru/company/ruvds/blog/343568/) Часть 7: [Веб-воркеры и пять сценариев их использования](https://habrahabr.ru/company/ruvds/blog/348424/) Часть 8: [Сервис-воркеры](https://habrahabr.ru/company/ruvds/blog/349858/) Часть 9: [Веб push-уведомления](https://habrahabr.ru/company/ruvds/blog/350486/) Часть 10: [Отслеживание изменений в DOM с помощью MutationObserver](https://habrahabr.ru/company/ruvds/blog/351256/) Часть 11: [Движки рендеринга веб-страниц и советы по оптимизации их производительности](https://habrahabr.ru/company/ruvds/blog/351802/) Часть 12: [Сетевая подсистема браузеров, оптимизация её производительности и безопасности](https://habr.com/company/ruvds/blog/354070/) Часть 12: [Сетевая подсистема браузеров, оптимизация её производительности и безопасности](https://habr.com/company/ruvds/blog/354070/) Часть 13: [Анимация средствами CSS и JavaScript](https://habr.com/company/ruvds/blog/354438/) Часть 14: [Как работает JS: абстрактные синтаксические деревья, парсинг и его оптимизация](https://habr.com/company/ruvds/blog/415269/) Часть 15: [Как работает JS: классы и наследование, транспиляция в Babel и TypeScript](https://habr.com/company/ruvds/blog/415377/) Часть 16: [Как работает JS: системы хранения данных](https://habr.com/company/ruvds/blog/415505/) Часть 17: [Как работает JS: технология Shadow DOM и веб-компоненты](https://habr.com/company/ruvds/blog/415881/) Часть 18: [Как работает JS: WebRTC и механизмы P2P-коммуникаций](https://habr.com/company/ruvds/blog/416821/) Часть 19: [Как работает JS: пользовательские элементы](https://habr.com/company/ruvds/blog/419831/) Публикуем перевод седьмой части часть серии материалов об особенностях работы различных механизмов JavaScript. Наша сегодняшняя тема — веб-воркеры. В частности, речь пойдёт о различных типах веб-воркеров, о том, как организована совместная работа тех частей, из которых они состоят, а также об их возможностях и об ограничениях, с которыми можно столкнуться в разных сценариях их использования. Здесь же будет показано 5 вариантов практического применения веб-воркеров. [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/626/1dd/71c/6261dd71cfa500ab1358f61cf5f8d157.png)](https://habrahabr.ru/company/ruvds/blog/348424/) Ограничения асинхронного программирования ----------------------------------------- Прежде чем мы начнём говорить о веб-воркерах, стоит вспомнить о том, что JavaScript — это [однопоточный](https://habrahabr.ru/company/ruvds/blog/337042/) язык, однако, он поддерживает и возможности асинхронного выполнения кода. Асинхронному программированию и вариантам его применения в JS-проектах был [посвящён один из предыдущих](https://habrahabr.ru/company/ruvds/blog/340508/) материалов этой серии. Асинхронное выполнение кода позволяет пользовательскому интерфейсу веб-приложений нормально функционировать, реагировать на команды пользователя. Система «планирует» нагрузку на цикл событий таким образом, чтобы в первую очередь выполнялись операции, связанные с пользовательским интерфейсом. Хороший пример использования асинхронных методов программирования демонстрирует техника выполнения AJAX-запросов. Так как ожидание ответа способно занять много времени, запросы можно делать асинхронно, при этом, пока клиент ожидает ответа, может выполняться код, не относящийся к запросу. ``` // Предполагается использование jQuery jQuery.ajax({    url: 'https://api.example.com/endpoint',    success: function(response) {        // Код, который должен быть выполнен после получения ответа    } }); ``` Такой подход, однако, демонстрирует следующую проблему: запросы обрабатываются WEB API браузера. Нас же интересует возможность асинхронного выполнения произвольного кода. Скажем, как быть, если код внутри функции обратного вызова интенсивно использует ресурсы процессора? ``` var result = performCPUIntensiveCalculation(); ``` Если функция `performCPUIntensiveCalculation` — это не нечто вроде асинхронно выполняемого HTTP-запроса, а код, блокирующий главный поток (скажем, огромный и тяжёлый цикл `for`), то при однопоточном подходе к JS-разработке у нас нет способа освободить цикл событий и разблокировать интерфейс браузера. Как результат, пользователь не сможет с ним нормально работать. Это означает, что асинхронные функции смягчают лишь небольшую часть ограничений, связанных с однопоточностью JS. В некоторых случаях хорошего результата в деле разгрузки главного потока при выполнении ресурсоёмких операций можно достичь с помощью `setTimeout`. Например, если разбить сложные вычисления на фрагменты, выполняемые в разных вызовах `setTimeout`, их можно «распределить» по циклу событий, и таким образом, не блокировать пользовательский интерфейс. Взглянем на простую функцию, которая вычисляет среднее значение для числового массива. ``` function average(numbers) {    var len = numbers.length,        sum = 0,        i;    if (len === 0) {        return 0;    }    for (i = 0; i < len; i++) {        sum += numbers[i];    }    return sum / len; } ``` Этот код можно переписать так, чтобы он «эмулировал» асинхронное выполнение: ``` function averageAsync(numbers, callback) {    var len = numbers.length,        sum = 0;    if (len === 0) {        return 0;    }    function calculateSumAsync(i) {        if (i < len) {            // Поместим следующий вызов функции в цикл событий.            setTimeout(function() {                sum += numbers[i];                calculateSumAsync(i + 1);            }, 0);        } else {            // Так как достигнут конец массива, мы вызываем коллбэк            callback(sum / len);        }    }    calculateSumAsync(0); } ``` При таком подходе мы используем функцию `setTimeout`, которая планирует выполнение вычислений. Это приводит к размещению в цикле событий функции, выполняющей следующую порцию вычислений, таким образом, что между сеансами выполнения этой функции достаточно времени для других вычислений, в том числе и для тех, которые связаны с пользовательским интерфейсом. Веб-воркеры ----------- [HTML5](https://www.w3schools.com/html/html5_intro.asp) дал нам множество замечательных возможностей, среди которых можно отметить следующие: * SSE (эту технологию мы рассматривали и сравнивали с протоколом WebSocket в одном из предыдущих [материалов](https://habrahabr.ru/company/ruvds/blog/342346/)). * Геолокация. * Кэш приложения. * Локальное хранилище. * Технология Drag and Drop. * Веб-воркеры. Веб-воркеры — это потоки, принадлежащие браузеру, которые можно использовать для выполнения JS-кода без блокировки цикла событий. Это поистине замечательная возможность. Система понятий JavaScript основана на идее однопоточного окружения, а теперь перед нами технология, которая (частично) снимает это ограничение. Веб-воркеры позволяют разработчику размещать задачи, для выполнения которых требуются длительные и сложные вычисления, интенсивно задействующие процессор, в фоновых потоках, без блокировки пользовательского интерфейса, что позволяет приложениям оперативно реагировать на воздействия пользователя. Более того, нам больше не нужны обходные пути, вроде рассмотренного выше трюка с `setTimeout` для того, чтобы найти приемлемый способ взаимодействия с циклом событий. Вот простой [пример](http://afshinm.github.io/50k/), который демонстрирует разницу между сортировкой массива с помощью веб-воркера и без него. ### ▍Обзор веб-воркеров Веб-воркеры позволяют выполнять тяжёлые в вычислительном плане и длительные задачи без блокировки потока пользовательского интерфейса. На самом деле, при их использовании вычисления выполняются параллельно. Перед нами настоящая многопоточность. Возможно, вы вспомните о том, что JavaScript — это однопоточный язык программирования. Пожалуй, тут вы должны осознать, что JS — это язык, который не определяет модель потоков. Веб-воркеры не являются частью JavaScript. Они представляют собой возможность браузера, к которой можно получить доступ посредством JavaScript. Большинство браузеров исторически были однопоточными (эта ситуация, конечно, изменилась), и большинство реализаций JavaScript создано для браузеров. Веб-воркеры не реализованы в Node.js — там есть концепция «кластеров» или «дочерних процессов», а это уже немного другое. Стоит отметить, что [спецификация](http://www.whatwg.org/specs/web-workers/current-work/) упоминает три типа веб-воркеров: * Выделенные воркеры ([Dedicated Workers](https://developer.mozilla.org/en-US/docs/Web/API/Web_Workers_API/Using_web_workers)) * Разделяемые воркеры ([Shared Workers](https://developer.mozilla.org/en-US/docs/Web/API/SharedWorker)) * Сервис-воркеры ([Service Workers](https://developer.mozilla.org/en-US/docs/Web/API/Service_Worker_API)) ### ▍Выделенные воркеры Экземпляры выделенных веб-воркеров создаются главным процессом. Обмениваться данными с ними может только он. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/73e/c07/197/73ec07197730444ce1f7ca096826a482.png) *Поддержка выделенных воркеров в браузерах* ### ▍Разделяемые воркеры Доступ к разделяемому воркеру может получить любой процесс, имеющий тот же источник, что и воркер (например — разные вкладки браузера, `iframe`, и другие разделяемый воркеры). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e3f/a78/42b/e3fa7842b74d1b310b7f62f72c136ef4.png) *Поддержка разделяемых воркеров в браузерах* ### ▍Сервис-воркеры Сервис-воркеры — это воркеры, управляемые событиями, зарегистрированные с использованием источника их происхождения и пути. Они могут контролировать веб-страницу, с которой связаны, перехватывая и модифицируя команды навигации и запросы ресурсов, и выполняя кэширование данных, которым можно очень точно управлять. Всё это даёт нам отличные средства управления поведением приложения в определённой ситуации (например, когда сеть недоступна). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/df5/2dc/448/df52dc44826fb3c8c6e552a37a85aa03.png) *Поддержка сервис-воркеров в браузерах* Надо отметить, что в этом материале мы будем заниматься выделенными воркерами, именно их мы будем иметь в виду, говоря о «веб-воркерах» или о «воркерах». Как работают веб-воркеры ------------------------ Веб-воркеры реализованы с использованием .js-файлов, которые включаются в страницу с применением асинхронного HTTP-запроса. Эти запросы полностью скрыты от разработчика благодаря [Web Worker API](https://developer.mozilla.org/en-US/docs/Web/API/Web_Workers_API/Using_web_workers). Воркеры используют механизмы передачи сообщений, характерные для технологий, которые применяются для организации взаимодействия потоков, что позволяет организовать их параллельное выполнение. Они отлично подходят для того, чтобы выполнять тяжёлые вычислительные операции, не замедляя работу пользовательского интерфейса. Веб-воркеры выполняются в изолированных потоках в браузере. Как результат, код, который они выполняют, должен быть включён в отдельный файл. Это важно запомнить. Вот как создают веб-воркеры: ``` var worker = new Worker('task.js'); ``` Если файл `task.js` существует и к нему есть доступ, браузер создаст новый поток, который асинхронно загрузит этот файл. После того, как загрузка будет завершена, начнётся выполнение кода воркера. Если при попытке загрузки файла браузер получит сообщение об ошибке 404, файл загружен не будет, при этом сообщения об ошибках не выводятся. Для запуска только что созданного воркера нужно вызвать его метод `postMessage`: ``` worker.postMessage(); ``` Обмен данными с веб-воркером ---------------------------- Для того чтобы страница, создавшая веб-воркер, могла взаимодействовать с ним, нужно использовать либо метод `postMessage`, либо широковещательный канал передачи данных, представленный объектом [BroadcastChannel](https://developer.mozilla.org/en-US/docs/Web/API/BroadcastChannel). ### ▍Метод postMessage При вызове этого метода более новые браузеры поддерживают, в качестве первого параметра, объект JSON, а в более старых браузерах поддерживается лишь параметр типа `String`. Посмотрим на пример того, как страница, создавшая воркер, может обмениваться с ним данными, используя JSON-объект. При передаче строки выглядит всё практически точно так же. Вот часть HTML-страницы: ``` Start computation  function startComputation() {    worker.postMessage({'cmd': 'average', 'data': [1, 2, 3, 4]});  }  var worker = new Worker('doWork.js');  worker.addEventListener('message', function(e) {    console.log(e.data);  }, false); ``` Вот содержимое файла с кодом воркера: ``` self.addEventListener('message', function(e) {  var data = e.data;  switch (data.cmd) {    case 'average':      var result = calculateAverage(data); // Функция, вычисляющая среднее значение числового массива      self.postMessage(result);      break;    default:      self.postMessage('Unknown command');  } }, false); ``` Когда нажимают на кнопку, на странице выполняется вызов метода `postMessage` воркера. Этот вызов передаёт воркеру JSON-объект с ключами `cmd` и `data` и соответствующими им значениями. Воркер обработает это сообщение посредством заданного в нём обработчика `message`. Когда воркер получает сообщение и понимает, чего от него хотят, он будет выполнять вычисления самостоятельно, не блокируя цикл событий. То, чем занимается воркер, выглядит как стандартная JS-функция. Когда вычисления завершены, их результаты передаются главной странице. В контексте воркера и `self`, и `this`, указывают на глобальное пространство имён для воркера. Для того чтобы остановить воркер, можно воспользоваться одним из двух способов. Первый заключается в вызове с главной страницы метода `worker.terminate()`. Второй выполняется внутри воркера и реализуется командой `self.close()`. ### ▍Широковещательный канал передачи данных Объект [BroadcastChannel](https://developer.mozilla.org/en-US/docs/Web/API/BroadcastChannel) представляет собой более универсальное API для передачи данных. Он позволяет передавать сообщения, которые можно принять во всех контекстах, имеющих один и тот же источник. Все вкладки браузера, `iframe` или воркеры, относящиеся к одному источнику, могут передавать и принимать широковещательные сообщения: ``` // Подключение к широковещательному каналу var bc = new BroadcastChannel('test_channel'); // Пример отправки сообщения bc.postMessage('This is a test message.'); // Пример простого обработчика событий, который // выводит сообщения в консоль bc.onmessage = function (e) {  console.log(e.data); } // Отключение от канала bc.close() ``` Вот как выглядит схема взаимодействия различных сущностей с использованием широковещательного канала обмена сообщениями: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ea7/83c/f9d/ea783cf9db67051ba2f98d6f828aaf8e.png) *Обмен данными с использованием широковещательного канала передачи сообщений* Однако тут стоит отметить, что объект `BroadcastChannel` пока имеет довольно ограниченную поддержку в браузерах. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/4c6/2ed/897/4c62ed897a106832e9fc171e49f81dbc.png) *Поддержка BroadcastChannel в браузерах* Способы отправки сообщений веб-воркерам --------------------------------------- Есть два способа отправки сообщений веб-воркерам. Первый заключается в копировании данных, второй — в передаче данных от источника к приёмнику без их копирования. Рассмотрим эти способы работы с сообщениями: * Копирование сообщения. Сообщение сериализуется, копируется, отправляется, а затем, на принимающей стороне, десериализуется. Страница и воркер не используют общий экземпляр сообщения, поэтому тут мы сталкиваемся с созданием копий данных в каждом сеансе отправки сообщений. Большинство браузеров реализуют эту возможность путём автоматического преобразования передаваемой информации в JSON на стороне передатчика и декодирования этих данных на стороне приёмника. Как можно ожидать, это добавляет значительную нагрузку на систему при отправке сообщений. Чем больше сообщение — тем больше времени займёт его отправка. * Передача сообщения. При таком подходе оказывается, что отправитель сообщения больше не может использовать сообщение после того, как оно отправлено. При этом передача сообщений выполняется практически мгновенно. Главная особенность этого метода заключается в том, что передать с его помощью можно только объект [ArrayBuffer](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/ArrayBuffer). Возможности, доступные веб-воркерам ----------------------------------- Веб-воркерам, из-за их многопоточной сущности, доступен лишь ограниченный набор возможностей JavaScript. Вот эти возможности: * Объект `navigator` * Объект `location` (только для чтения) * `XMLHttpRequest` * `setTimeout()/clearTimeout()` и `setInterval()/clearInterval()` * [Кэш приложения](https://www.html5rocks.com/tutorials/appcache/beginner/) * Импорт внешних скриптов с использованием `importScripts()` * [Создание](https://www.html5rocks.com/en/tutorials/workers/basics/#toc-enviornment-subworkers) других веб-воркеров Ограничения веб-воркеров ------------------------ К сожалению, у веб-воркеров нет доступа к некоторым весьма важным возможностям JavaScript. Среди них следующие: * DOM (это не потокобезопасно) * Объект `window` * Объект `document` * Объект `parent` Всё это значит, что веб-воркеры не могут манипулировать DOM (и, таким образом, не могут прямо влиять на пользовательский интерфейс). Поначалу может показаться, что это значительно усложняет использование веб-воркеров, однако со временем, узнав о том, как правильно использовать веб-воркеры, вы начнёте воспринимать их как отдельные «вычислительные машины», в то время как то, что относится к работе с пользовательским интерфейсом, будет выполняться в коде страницы. Воркеры будут выполнять тяжёлые вычисления, и после того, как работа будет завершена, отправлять результаты на страницу, вызывающую их, код которой уже внесёт необходимые изменения в пользовательский интерфейс. Обработка ошибок ---------------- Как и при работе с любым JS-кодом, в веб-воркерах нужно обрабатывать ошибки. Если ошибка возникает в процессе выполнения воркера, вызывается событие `ErrorEvent`. Объект ошибки содержит три полезных свойства, которые позволяют понять её суть: * `filename` — имя файла, в котором содержится скрипт воркера, вызвавший ошибку. * `lineno` — номер строки, в которой произошла ошибка. * `message` — описание ошибки. Вот пример кода для обработки ошибок в веб-воркере: ``` function onError(e) {  console.log('Line: ' + e.lineno);  console.log('In: ' + e.filename);  console.log('Message: ' + e.message); } var worker = new Worker('workerWithError.js'); worker.addEventListener('error', onError, false); worker.postMessage(); // Запустить воркер без сообщения. ``` Вот код воркера ``` self.addEventListener('message', function(e) {  postMessage(x * 2); // Намеренная ошибка. 'x' не определено. }; ``` Тут вы можете видеть, как мы создали воркер и назначили ему обработчик события `error`. Внутри воркера (второй фрагмент кода) мы намеренно вызываем исключение, умножая `x` на 2 в то время как `x` не определено в текущей области видимости. Исключение доходит до исходного скрипта и вызывается обработчик `onError`, выводящий сведения об ошибке. Сценарии использования веб-воркеров ----------------------------------- Мы рассказали о сильных и слабых сторонах веб-воркеров. Теперь рассмотрим несколько сценариев их использования. * Рендеринг трёхмерных сцен. В частности, речь идёт о реализации метода трассировки лучей — техники [рендеринга](https://en.wikipedia.org/wiki/Rendering_%28computer_graphics%29), позволяющей создавать изображения путём отслеживания направления лучей [света](https://en.wikipedia.org/wiki/Light) и определения цвета пикселей. Трассировка лучей использует интенсивные математические вычисления для моделирования особенностей распространения света. При таком подходе реализуются такие эффекты, как отражения и преломления, трассировка лучей позволяет добиться имитировать внешний вид различных материалов, и так далее. Вся эта вычислительная логика может быть вынесена в веб-воркер для того, чтобы она не блокировала поток пользовательского интерфейса. Можно сделать ещё интереснее, а именно, разделить рендеринг изображения между несколькими воркерами (и, соответственно, между несколькими процессорными ядрами). [Вот](https://nerget.com/rayjs-mt/rayjs.html) простой пример реализации трассировки лучей с использованием веб-воркеров. * Шифрование. Сквозное шифрование становится всё более популярным из за всё возрастающего внимания к регулированию распространения персональных и конфиденциальных данных. Операции шифрования могут быть достаточно продолжительными, особенно если возникает необходимость в частом шифровании больших объёмов данных. Это — весьма адекватный сценарий использования веб-воркера, так как тут не нужен доступ к объектам DOM или нечто подобное. Шифрование — это алгоритмы обработки информации, которым достаточно базовых возможностей JS. Когда шифрование выполняется воркером, это не влияет на работу пользователя с интерфейсом сайта. * Предварительная загрузка данных. Для того чтобы оптимизировать веб-сайт и улучшить впечатления пользователя от работы с ним, можно использовать веб-воркеры для заблаговременной загрузки и сохранения некоторых данных, которыми можно очень быстро воспользоваться тогда, когда позже в них возникнет необходимость. Веб-воркеры отлично подходят для подобного сценария использования, так как выполняемые ими операции не подействуют на интерфейс приложения, в отличие от предварительной загрузки данных, реализованной средствами главного потока. * Прогрессивные веб-приложения. Такие приложения должны, даже при ненадёжном сетевом соединении, быстро загружаться. Это означает, что данные нужно хранить в браузере локально. Именно здесь в дело вступает [IndexedDB](https://developer.mozilla.org/en-US/docs/Web/API/IndexedDB_API) или похожее API. В целом, речь идёт о необходимости обслуживания некоего хранилища данных на стороне клиента. Для того чтобы работать с этим хранилищем, не блокируя пользовательский интерфейс, работу надо организовать в веб-воркере. Тут надо отметить, что, в случае с IndexedDB, существует асинхронное API, которое позволяет не нагружать главный поток и без веб-воркеров, но раньше здесь было синхронное API (которое может появиться снова), которым нужно пользоваться только внутри веб-воркеров. * Проверка правописания. Простая система проверки правописания работает так: программа считывает файл словаря со списком правильно написанных слов. Из словаря формируется дерево поиска, которое обеспечивает эффективный поиск по тексту. Когда системе передают слово для проверки, она проверяет его наличие в дереве поиска. Если слово найти не удаётся, пользователю могут быть предоставлены альтернативные варианты этого слова, полученные путём замены символов исходного слова и поиска полученных слов в дереве на предмет проверки того, являются ли они, с точки зрения системы проверки, правильными. Всё это легко можно вынести в веб-воркер, что даст пользователю возможность работать с текстом, не испытывая проблем, связанных с блокировкой интерфейса при проверке слова и при поиске альтернативных вариантов его написания. Итоги ----- В этом материале мы рассказали о веб-воркерах — сравнительно новой возможности, доступной веб-разработчикам в большинстве современных браузеров. Веб-воркеры позволяют выносить в отдельные потоки выполнение ресурсоёмких операций, что позволяет не нагружать главный поток, который может спокойно обрабатывать всё, что связано с пользовательским интерфейсом. Предыдущие части цикла статей: Часть 1: [Как работает JS: обзор движка, механизмов времени выполнения, стека вызовов](https://habrahabr.ru/company/ruvds/blog/337042/) Часть 2: [Как работает JS: о внутреннем устройстве V8 и оптимизации кода](https://habrahabr.ru/company/ruvds/blog/337460/) Часть 3: [Как работает JS: управление памятью, четыре вида утечек памяти и борьба с ними](https://habrahabr.ru/company/ruvds/blog/338150/) Часть 4: [Как работает JS: цикл событий, асинхронность и пять способов улучшения кода с помощью async / await](https://habrahabr.ru/company/ruvds/blog/340508/) Часть 5: [Как работает JS: WebSocket и HTTP/2+SSE. Что выбрать?](https://habrahabr.ru/company/ruvds/blog/342346/) Часть 6: [Как работает JS: особенности и сфера применения WebAssembly](https://habrahabr.ru/company/ruvds/blog/343568/) **Уважаемые читатели!** Используете ли вы веб-воркеры в своих проектах? [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/348424/
null
ru
null
# Установка и настройка LXD на OpenNebula ***Перевод статьи подготовлен в преддверии старта курса [«Администратор Linux»](https://otus.pw/0Q51/).*** ![](https://habrastorage.org/r/w1560/webt/9o/c6/mu/9oc6mujexq9i0jlbt5yyo--dcke.png) --- В этой статье вы найдете пошаговое руководство по основам облачной системы оркестрации OpenNebula на LXD. Сначала мы воспользуемся простым инструментом MiniONE для создания одноузловой облачной среды в физической или виртуальной машине для пользователей, которые хотят опробовать функционал OpenNebula, затем посмотрим на обычную рабочую сессию с GUI и CLI и, наконец, дадим немного ссылок, которые помогут в создании распределенной продакшн среды. ### Автоматизированное развертывание с MiniONE MiniONE – это инструмент, который настраивает физический хост или виртуальную машину как одноузловое облако для быстрого развертывания простого, но полностью функционального тестового сценария. Для оценки LXD, MiniONE требуется выделенная виртуальная машина или физический хост со свежей установкой Ubuntu 18.04 или 18.10 с минимум 2Гб RAM и 20Гб свободного места на диске, а также привилегированные права доступа (root). Например, MiniONE позволяет с легкостью построить среду LXD/OpenNebula на виртуальной машине Amazon. Минимально рекомендуемый размер, скорее всего, `t2.medium`. Простой дайте ей 25 Гб дискового пространства и доступ к TCP-порту 9869, где запущен WebUI. Запустите скрипт MiniONE на выделенной системе: ``` wget https://github.com/OpenNebula/minione/releases/download/v5.8.0/minione chmod u+x minione sudo minione --lxd ``` ### Знакомимся с графическим интерфейсом После шага с MiniONE, вы получите инструкцию для подключения к веб-интерфейсу наподобие следующей: ``` ### Report OpenNebula 5.8 was installed Sunstone (the webui) is runninng on: http://192.168.100.101:9869/ Use following to login: user: oneadmin password: o6ARsMAdGe ``` После завершения работы MiniONE, первое, что мы сделаем, это войдем в систему как *oneadmin* и посмотрим на *Admin View* в *Sunstone*, где будет гораздо больше опций, чем в других интерфейсах для обычных пользователей. Посмотрите на все загруженные ресурсы облака. ![](https://habrastorage.org/r/w1560/webt/z2/i2/gr/z2i2grsm2ulizzjnipg3dnr4vqw.png) В *Admin View* вы можете делать с OpenNebula все, что угодно, но вам же не нужно давать эти же возможности конечным пользователям! Переключитесь на Cloud View и посмотрите, что конечные пользователи будут видеть в OpenNebula. ![](https://habrastorage.org/r/w1560/webt/dq/7h/uh/dq7huhq1t1_d5jjv85fxq4ariju.png) Интерфейс *Cloud View* гораздо проще, поскольку он ориентирован на конечных пользователей. Создайте новую виртуальную машину, нажав на кнопку +. Выберите единственный доступный шаблон и нажмите кнопку Create. После нажатия кнопки *Create* вы попадете на панель мониторинга, где сможете увидеть все работающие виртуальные машины. ![](https://habrastorage.org/r/w1560/webt/ne/vx/pp/nevxppx7rrsciqukctvwmsstluw.png) Чтобы открыть панель управления, вы можете щелкнуть на свою виртуальную машину. Там вы можете получить к ней доступ с VNC, сохранить ее состояние, перезагрузить ее и т.д.: ![](https://habrastorage.org/r/w1560/webt/a2/tb/1p/a2tb1pcwhlycwqiospaxdo7ji4o.png) Нажав на иконку консоли, вы попадаете в консоль под root пользователем через VNC ![](https://habrastorage.org/r/w1560/webt/rr/d3/r4/rrd3r4-ylzznxwqde2g_xr5qz14.png) С помощью роли *oneadmin* вы можете настроить то, что смогут видеть и делать ваши облачные пользователи. ### Знакомимся с CLI OpenNebula запускается от имени пользователя oneadmin, и главный администратор должен выполнять команды от имени этого пользователя, поэтому первое, что вам нужно сделать, это переключиться на *oneadmin*: ``` su - oneadmin ``` Из учетной записи *oneadmin* вы можете увидеть загруженные ресурсы: У нас имеется один узел визуализации: ``` onehost list ``` Созданный образ CentOS ``` oneimage list ``` Зарегистрированный шаблон Виртуальной Машины: ``` onetemplate list ``` Конфигурацию шаблона вы можете посмотреть подробнее ``` onetemplate show 0 ``` ### Доступ к MarketPlace OpenNebula поставляется с предустановленными MarketPlace-ами, из которых вы можете получить множество уже готовых образов (Apps). Также присутствует интеграция с [images](https://us.images.linuxcontainers.org/), одним из публичных серверов образов LXD: ![](https://habrastorage.org/r/w1560/webt/h6/ey/iu/h6eyiu0t-ricjsjhdyfcufyas6g.png) Есть различные дистрибутивы Linux: Alpine, Centos, Debian и т.д., а также некоторые сервисные образы с предустановленными приложениями, такими как WordPress или GitLab. ![](https://habrastorage.org/r/w1560/webt/gw/fz/gf/gwfzgfeh2cf79dc0rs3rzhcdjws.png) Есть и контейнеры с публичного сервера образов LXD. Можно найти, например, совсем свежий Ubuntu. ![](https://habrastorage.org/r/w1560/webt/vk/gw/lb/vkgwlbwymlqvezxjbnqeg7vf-im.png) И скачать его в хранилище. ![](https://habrastorage.org/r/w1560/webt/iq/8v/go/iq8vgovsc7b6-sgsbv2aycskyma.png) Теперь, если вы перейдете в раздел *Template -> VMs*, вы сможете его инстанциировать. ### Сборка установки на продакшн Если вы хотите развернуть облако на продакшене, вы можете почитать [документацию](http://docs.opennebula.org/stable). Развертывание среды с фронтендом и несколькими узлами LXD требует следующих шагов: * Установите фронтенд [OpenNebula](http://docs.opennebula.org/stable/deployment/opennebula_installation/frontend_installation.html); * Установите пакет [lxd-node в Virtualization Nodes](http://docs.opennebula.org/stable/deployment/node_installation/lxd_node_installation.html); * [Соедините фронтенд и узлы](http://docs.opennebula.org/stable/deployment/node_installation/lxd_node_installation.html#step-7-adding-a-host-to-opennebula); * [Проверьте, что все работает](http://docs.opennebula.org/stable/deployment/node_installation/verify.html#verify-installation). Теперь вы можете разворачивать виртуальные машины с помощью приложений из MarketPlace. --- [Узнать подробнее о курсе](https://otus.pw/0Q51/) ---
https://habr.com/ru/post/508444/
null
ru
null
# Графы для самых маленьких: Ford & Bellman или как понять, что ты попал в бесконечно далекое прошлое ![](https://habrastorage.org/getpro/habr/post_images/f63/d61/163/f63d611631148114b41bb3f0472f304b.gif)В предыдущих частях цикла мы рассмотрели алгоритмы [DFS](http://habrahabr.ru/post/200074/) и [BFS](http://habrahabr.ru/post/200252/), позволяющие найти путь в графе и обладающие рядом других интересных свойств. Но в жизни очень часто оказывается, что гораздо проще выглядит модель задачи в виде графа с неодинаковыми длинами ребер. Поиском кратчайшего пути во взвешенном графе мы и займемся под катом. #### Постановка задачи В задаче рассматривается взвешенный граф — то есть граф, каждому ребру которого сопоставлено некоторое число, называемое его весом. Вес ребра, ведущего из вершины u в вершину v, мы будем обозначать weight[u, v]. Требуется найти путь из вершины u в вершину v, сумма весов ребер которого минимальна. Эту сумму весов будем называть расстоянием от вершины u до вершины v и обозначать dist[u, v]. В жизни встречается довольно-таки большое количество задач, которые могут быть переформулированы в указанном виде — например, задача определения времени поездки в метро (и оптимального маршрута) при условии наличия штрафов за пересадки. #### Давайте придумаем что-нибудь простое Рассмотрим какое-нибудь ребро (v, w). Что мы можем сказать про расстояния до его концов? Очевидно, dist[u, w] ≤ dist[u, v] + weight[v, w]. **Доказательство**Пусть dist[u, v] = K. Это значит, что существует путь от u до v весом K. Добавим к этому пути ребро (v, w). Получим путь от u до w весом K + weight[v, w]. Так как расстояние от u до w — минимальная из длин всех путей, соединяющих u и v, dist[u, w] ≤ K + weight[v, w] Давайте будем действовать итерационно. Изначально известно расстояние только до начальной вершины — оно равно 0. В каждый момент времени мы можем проверить выполнение свойства для какого-нибудь ребра и, если оно нарушено, улучшить существующую оценку расстояния до конечной вершины ребра. Это процедура называется релаксацией. #### Слова ничто, покажите мне код! **Ford & Bellman algorithm**В коде предполагается, что граф хранится в vector>> edges, где edges[v] — вектор всех ребер, исходящих из вершины v. В ребре edges[v][i] первое поле — конечная вершина ребра, второе — его вес. INF — это некоторая константа, заведомо большая, чем любое получающееся расстояние. Обозначает отсутствие известного пути. ``` void ford_bellman(int start) { // Инициализация for (int i = 0; i < (int)edges.size(); ++i) { dist[i] = INF; } dist[start] = 0; // V раз релаксируем все ребра for (int iter = 0; iter < (int)edges.size(); ++iter) { // Перебираем начало ребра for (int v = 0; v < (int)edges.size(); ++v) { // Перебираем само ребро for (int i = 0; i < (int)edges[v].size(); ++i) { // Если нужно if (dist[edges[v][i].first] > dist[v] + edges[v][i].second) { // Обновляем расстояние dist[edges[v][i].first] = dist[v] + edges[v][i].second; } } } } } ``` #### Как много ресурсов надо алгоритму? Помимо графа и значений, выдающихся в ответ, мы храним лишь константное количество памяти, следовательно, количество памяти, требующееся алгоритму — O(1) + <память на хранение графа и ответа> = O(V + E) = O(E). Релаксация каждого ребра занимает константное количество действий. Всего ребер — E, релаксация всех ребер производится V раз. Таким образом, временная сложность алгоритма — O(VE). #### А если я педант? Давайте докажем, что после k итераций алгоритм найдет все кратчайшие пути, состоящие из k ребер или менее. Тогда получится, что в конце работы он найдет все кратчайшие пути из не более, чем V ребер — то есть, все существующие кратчайшие пути. Для удобства обозначим начальную вершину u. * База: k = 0 очевидно, путь из начальной вершины в нее же найден верно * Предположение: после k итераций для всех вершин v, до которых существует кратчайший путь, состоящий из не более, чем k ребер, dist[v] равно расстоянию от начальной вершины до v * Шаг: рассмотрим некоторую вершину w, до которой существует кратчайший путь, состоящий из k + 1 ребра. + Обозначим предпоследнюю вершину в пути от u до w, как v. + Для v существует кратчайший путь из k вершин (например, начало кратчайшего пути до w). + Значит, кратчайший путь до v был найден на предыдущей итерации. Проведя релаксацию ребра (v, w) на k + 1-ой итерации, мы получим верное значение расстояния до вершины w. + Заметим, что при релаксации какого-либо другого ребра мы не могли получить значения, меньшего, чем верное расстояние, поскольку каждой релаксации ребра (x, w) можно поставить в соответствие путь из начальной вершины в w соответствующей длины. #### А как же путешествия во времени? В доказательстве не зря была сделана оговорка — ищутся все существующие кратчайшие пути. Существует ситуация, в которой есть путь от u до v, но нет кратчайшего пути от u до v — например, если обе эти вершины входят в цикл отрицательного веса. Это является математическим эквивалентом случая, когда переходы между вершинами — это порталы, причем такие, которые могут забросить как в прошлое, так и в будущее. Присутствие цикла отрицательного веса означает, что пройдя по нему нужное количество оборотов, можно оказаться в прошлом так далеко, как хочется. Алгоритм Форда-Беллмана предоставляет и способ нахождения таких циклов: если циклов нет — значит, все кратчайшие пути не длиннее, чем из V — 1 ребра, и на последней итерации не будет произведено ни одной релаксации. Все ребра, релаксация которых производилась на последней итерации, лежат в циклах отрицательного веса, достижимых из начальной верщины.
https://habr.com/ru/post/201588/
null
ru
null
# Как перенести электронную почту с cPanel на Zimbra Collaboration 8.0 Это инструкция по миграции электронной почты из cPanel в Zimbra 8.0.x 8.x. Прежде чем сделать какие-либо изменения на сервере, необходимо совершить резервное копирование. ![image](https://habrastorage.org/r/w1560/webt/op/xi/ie/opxiieyaijocgswpkt2td6f4-u0.png) Миграция учетной записи и пароля -------------------------------- ### Экспорт учетной записи и пароля Email на cPanel 1. Войдите в систему cPanel, выберите меню Файлы > Диспетчер файлов 2. Перейдите в папку /etc/yourdomain-folder 3. Щелкните правой кнопкой мыши по папке @pwcache и нажмите «Сжать». 4. Загрузите файл @pwcache.zip и теневой файл 5. Скопируйте @pwcache.zip и теневой файл на /srv/Zimbra Server, вы можете использовать WinSCP (вы можете изменить назначение папки, если есть проблема с разрешением) ### Импорт учетной записи и пароля cPanel в Zimbra 1. Войдите в Zimbra Server через SSH и перейдите в папку /srv/ 2. Извлечь или распаковать файл @ pwcache.zip ``` cd/srv/ unzip "@ pwcache.zip" mv "@pwcache" "pwcache" ``` 3. Создайте скрипт для создания и ввода пароля: ``` vi create-acc.sh ===========scripts============== #!/bin/sh # Clear screen clear rm create-account-zimbra.zmp touch create-account-zimbra.zmp echo “Looping for all users” for ACCOUNT in /srv/pwcache/* do PASS=`cat “$ACCOUNT” | grep passwd: | cut -d ‘:’ -f2` ACC=`echo $ACCOUNT | cut -d “/” -f4` echo “Retrieve password account $ACC” echo “ca $ACC@your_domain.net PasswordTemp” >> create-account-zimbra.zmp echo “ma $ACC@your_domain.net userPassword ‘{crypt}$PASS'” >> create-account-zimbra.zmp done echo “Complete” ===========scripts============== ``` Результаты сценария генерируют файл с именем create-account-zimbra.zmp. Этот файл содержит команду для создания учетных записей на zimbra и заменит пароль оригиналом (из cPanel) Запустите скрипт create-account-zimbra.zmp ``` su - zimbra zmprov ``` Войдите в панель администратора Zimbra для проверки. Миграция почтового ящика ------------------------ ![](https://habrastorage.org/r/w1560/webt/sg/8b/1g/sg8b1gxwrq11hnw_xzndcvhpugu.png) Шаг 1: ![](https://habrastorage.org/r/w1560/webt/ny/xt/qc/nyxtqckb9s7amprwm5552cawzjq.png) Шаг 2: ![](https://habrastorage.org/r/w1560/webt/vk/lf/uo/vklfuoqcjjmpptyo4zt6ct-awjm.png) Шаг 3: ![](https://habrastorage.org/r/w1560/webt/nb/h4/_w/nbh4_wq4b4fu_qnp0bwdvnicqny.png) Шаг 4: ![](https://habrastorage.org/r/w1560/webt/gd/x4/fo/gdx4for4vglviu1rcefsfq0slz8.png) Шаг 5: ![](https://habrastorage.org/r/w1560/webt/yf/en/44/yfen44jvazw-rl6tdjpve23glzg.png) Шаг 6: ![](https://habrastorage.org/r/w1560/webt/xz/0r/ke/xz0rketh1k3ynw0jsc6sj_h1tus.png) Шаг 7: ![](https://habrastorage.org/r/w1560/webt/ob/-n/wf/ob-nwf_vt5qp8petqks9kccwzra.png) Шаг 8: ![](https://habrastorage.org/r/w1560/webt/z-/tr/lj/z-trljruxvzj7hn4pfsyyxkv1xo.png) Последний шаг: «Начать импорт». Готово. По всем вопросам, связанными c Zextras Suite вы можете обратиться к Представителю компании «Zextras» Екатерине Триандафилиди по электронной почте ekaterina.triandafilidi@zextras.com
https://habr.com/ru/post/344038/
null
ru
null
# Умный будильник на основе датчика движения или IP-камеры Думаю, что многие из вас знают про разные фазы сна и существование умных будильников, про это было уже много статей. Суть в том, что на протяжении ночи происходит смена фаз быстрого и медленного сна. В зависимости от того, в какую из фаз вы проснулись, утро может быть как добрым, так и весьма серым. Во время медленного сна человек постепенно засыпает всё крепче и крепче, будить его в этот момент не стоит, проснуться будет тяжело. Во время быстрой фазы человек спит не так крепко, может ворочаться и переворачиваться с боку на бок. Именно в этот момент легче всего проснуться. На этом принципе построены многие умные будильники. Они бывают как в виде настольных гаджетов или наручных часов, так и в виде приложений для смартфона. Принцип их работы весьма прост. Будят они не в строго заданный момент, а в промежуток времени, когда желательно проснуться, ожидая при этом какое-либо движение. Если человек начал шевелиться, значит началась фаза быстрого сна, и его пора будить. У меня в комнате один из датчиков движения висит прямо над кроватью. Об этом я немного рассказывал в своей [статье про мой умный дом](http://habrahabr.ru/post/228151/). ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3ec/34d/87d/3ec34d87d1669038dbd0d703d778e7d1.jpg) Недавно я просматривал логи и заметил, что на истории движения с этого датчика очень чётко видны фазы моего сна, когда я сплю один. Это не удивительно, он очень хорошо фиксирует любое моё движение, даже если я лежу под одеялом. Сразу же возникла мысль — почему бы не сделать мой будильник «умным»? #### Датчик движения Многие спрашивали меня, как же устроены мои датчики, просили дать схему. На самом деле всё проще некуда. Я пошёл в ближайший электромонтажный магазин и купил обычный бытовой датчик движения для включения света, обошлось мне это примерно в 200 рублей. У него было три вывода: общий, питание 220В и выход. Однако, для моих целей коммутация такого напряжения была совсем ни к чему. Я разобрал датчик и обнаружил внутри две платы: мозги и питание. Первая питалась от напряжения около 9В и давала на выходе логическую единицу при наличии движения. Вторая же предоставляла эти самые 9 вольт за счёт конденсаторного питания и коммутировала нагрузку электромагнитным реле. В результате плата с конденсаторным питанием была заменена на мою плату с микроконтроллером: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ede/de7/94d/edede794d1ee279704d459ac2f33c627.jpg) Задача микроконтроллера предельно проста: ждать логическую единицу от датчика движения и посылать в сеть умного дома информацию об этом, но делать это не чаще, чем раз в минуту. Питается же всё это теперь от 12 вольт, которые протянуты у меня ко всем устройствам. #### Скрипты будильника Так как все устройства в доме у меня связаны с моим роутером на базе Linux, и именно он занимается пробуждением, вся оставшиеся махинации сводятся к написанию shell-скриптов. За будильник у меня отвечает **alarm.sh**, который в нужный момент запускается через **cron**, при этом в параметрах передаётся — как именно надо будить. Теперь этот скрипт должен запускаться, когда начинается тот интервал, в течении которого я должен проснуться. Пускай он будет длиться 30 минут. Получается, что если мне надо проснуться не позже 9:30, то будильник надо ставить на 9:00. Скрипт получился таким: ``` #!/bin/sh # Максимальное время ожидания движения в секундах MAX_TIME=1800 # Путь к флагу FLAG_FILE=/tmp/motion.flag # Убираем себя из кронтаба crontab -l | grep -v alarm.sh | crontab - # Если файл-флаг, который сообщает о движении уже существует, то удаляем его if [ -f $FLAG_FILE ]; then rm $FLAG_FILE fi # Ждём в течении заданного времени for i in `seq 1 $MAX_TIME`; do # Если появился флаг, значит есть движение, больше не надо ждать if [ -f $FLAG_FILE ]; then break fi sleep 1 done # Если надо, включаем радио if [ "$1" -eq 1 ] then radio.sh & fi # Если надо, включаем заданное количество ламп на люстре if [ "$2" -ge 1 ] then sleep 1 light.sh $2 & fi # Если надо, включаем компьютер if [ "$3" -eq 1 ] then /usr/local/sbin/wakemypc fi # TODO: управление оконными шторами ``` В скрипте, который реагирует на пакеты от устройств умного дома, я сделал создание флага: ``` # $3 - тип команды, 21 - код информации о движении if [ "$3" -eq 21 ] then touch /tmp/motion.flag fi ``` Если интересно, вот так происходит включение радио через **radio.sh**: ``` #!/bin/sh # Имитируем нажатие кнопки включения ресивера на пульте-ДУ echo "04040C017A850976">/tmp/clunet.fifo sleep 10 for i in `seq 1 80`; do # Увеличение громкости на 0.5 dB, имитируем нажатие кнопки увеличения громкости echo "04040C017A851AE5">/tmp/clunet.fifo sleep 6 done ``` Добавлением **alarm.sh** в crontab занимается PHP скрипт, поэтому будильник можно устанавливать через веб-интерфейс: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/68d/22d/4af/68d22d4af6bc69e656f9d52fc29425d8.png) Или через приложение для Android: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c6d/d34/2e8/c6dd342e87d75adca48904aa0417ea23.png) На самом деле такой будильник можно было сделать и без роутера с Linux, ведь датчик движения и ДУ-передатчик соединены напрямую, но для этого пришлось бы как-то научить их считать время, на что они изначально не были рассчитаны. #### Использование IP-камеры Теоретически для умного будильника можно использовать и IP-камеру с инфракрасной подсветкой, если направить её на кровать. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/61e/d52/85a/61ed5285ac04179b685b882fce4cae64.jpg) Практически в любой такой камере есть возможность отслеживать движение. Админка моей камеры выглядит так: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/47f/8f0/29b/47f8f029b6d9feff1f01ddc54180788b.png) Да, корявый английский от китайцев :) Как видите, можно указать URL, который запрашивается при обнаружении движения. Дело за малым — написать PHP скрипт, при вызове которого будет создаваться флаг. Плюс камеры в том, что теоретически она может увидеть движение и под одеялом, ведь оно изолирует тепло, на перемещение которого реагирует обычный датчик. Однако, практика показывает, что общая чувствительность и надёжность гораздо ниже. #### Итог Такие будильники действительно помогают сделать утро добрым. Ощущения бывают весьма своеобразными. Например, я могу во сне переворачиваться с боку на бок, и во время этого включается будильник, в результате чего я просыпаюсь скорее над кроватью, а не на ней :) Увы, такой подход к созданию умного будильника подходит только для людей, которые спят в гордом одиночестве. Надо сказать, что отдельный будильник в виде радио, которое постепенно увеличивает громкость, тоже очень приятный. Во время крепкого сна он не будит мгновенно, тихая музыка начинает пробиваться сквозь сон и постепенно нарастать. Однако, чаще я всё-таки просыпаюсь от звука включения ресивера. Пока писал статью, пошёл седьмой час утра. Доброе утро, Хабр :)
https://habr.com/ru/post/229713/
null
ru
null
# Настройка Gmail API для замены расширения PHP IMAP и работы по протоколу OAuth2 Оказавшись одним из счастливчиков, совершенно не готовым к тому, что с 15 февраля 2021 года авторизация в Gmail и других продуктах будет работать только через OAuth, я прочитал статью "[Google хоронит расширение PHP IMAP](https://habr.com/ru/post/481786/)" и ~~загрустил~~ начал предпринимать действия по замене расширения PHP IMAP в своём проекте на API Google. Вопросов было больше, чем ответов, поэтому заодно нацарапал мануал. У меня PHP IMAP используется для следующих задач: 1. **Удаление старых писем из почтовых ящиков**. К сожалению, в панели управления корпоративным аккаунтом G Suite можно настроить только срок удаления писем из всех почтовых ящиков организации через N дней после получения. Мне же требуется удалять письма только в заданных почтовых ящиках и через заданное разное количество дней после получения. 2. **Фильтрация, разбор и маркировка писем**. С нашего сайта в автоматическом режиме отправляется множество писем, некоторые из которых не доходят до адресатов, о чём, соответственно, приходят отчёты. Нужно эти отчёты отлавливать, разбирать, находить клиента по email и формировать человекочитаемое письмо для менеджера, чтобы тот связался с клиентом и уточнил актуальность адреса электронной почты. Эти две задачи мы и будем решать при помощи API Gmail в данной статье (а заодно и отключим в настройках почтовых ящиков доступ для небезопасных приложений, который был включён для работы PHP IMAP, и, собственно, перестанет работать в страшный день в феврале 2021). Использовать будем так называемый сервисный аккаунт приложения Gmail, который при соответствующей настройке даёт возможность подключения ко всем почтовым ящикам организации и выполнения в них любых действий. #### 1. Создаём проект в консоли разработчика Google API При помощи этого проекта мы и будем осуществлять API-взаимодействие с Gmail, и в нём же создадим тот самый сервисный аккаунт. Для создания проекта: 1. Переходим в [консоль разработчика Google API](https://console.developers.google.com/) и логинимся по администратором G Suite (ну или кто у Вас там пользователь со всеми правами) 2. Ищем кнопку «Создать проект». **Я нашёл здесь:** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0c3/bf0/634/0c3bf0634a2fc4a7ed7e7753b8b96073.jpg) **И затем здесь:** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/827/3b6/589/8273b65894178caf87f43e6a98d1db0f.jpg) Заполняем имя проекта и сохраняем: **Создание проекта** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b9e/29b/12f/b9e29b12f44ca81e389076c4275fcaf1.jpg) 3. Переходим к проекту и нажимаем кнопку «Включить API и сервисы»: **Включить API и сервисы** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/36b/362/654/36b36265472de6a1735a84977937fd5a.jpg) Выбираем Gmail API #### 2. Создаём и настраиваем сервисный аккаунт Для этого можно воспользоваться [официальным мануалом](https://developers.google.com/identity/protocols/oauth2/service-account) или продолжить чтение: 1. Переходим в наш добавленный Gmail API, нажимаем кнопку «Создать учётные данные» и выбираем «Сервисный аккаунт»: **Создание сервисного аккаунта** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a42/525/387/a425253878f3a13b9e6aad01709e86fc.jpg) Что-нибудь заполняем и нажимаем «Создать»: **Сведения о сервисном аккаунте** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/976/e34/cb0/976e34cb068662c61a6fa71987037fff.jpg) Всё остальное можно не заполнять: **Права доступа для сервисного аккаунта** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3b2/c15/253/3b2c15253e154b8d36c3029d994ac67b.jpg) **Предоставление пользователям доступа к сервисному аккаунту** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0fe/c84/a98/0fec84a9880aeb7d040d5a8143a810e9.jpg) 2. Далее, сервисному аккаунту нужно дать права на чтение или управление почтовыми ящиками. Для этого переходим в консоль администрирования G Suite, открываем главное меню и переходим в пункт «Безопасность — Управление API». **Управление API** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/135/624/7d6/1356247d6ebbb47d9b7607699d027963.jpg) ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/acb/236/063/acb2360632fb75ff89ca4515aba2a56e.jpg) 3. Прокручиваем страницу вниз и выбираем пункт «Настроить делегирование доступа к данным в домене»: **Делегирование доступа к данным в домене** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/042/fae/eea/042faeeeab54579e55f0d25649769fe6.jpg) Нажимаем «Добавить», в поле «Идентификатор клиента» копируем соответствующую строку из карточки сервисного аккаунта, а поле «Области действия OAuth» вставляем права — одно или несколько из следующих значений через запятую: `- https://mail.google.com/ - для полного доступа - https://www.googleapis.com/auth/gmail.modify - для редактирования меток - https://www.googleapis.com/auth/gmail.readonly - для чтения - https://www.googleapis.com/auth/gmail.metadata - для доступа к метаданным` **Сведения о сервисном аккаунте** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6ad/a90/589/6ada9058928da89a02becd55890824c4.jpg) ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/82f/a75/8cb/82fa758cb0fbdb920d1ce06b1b5f4725.jpg) 4. Возвращаемся к карточке сервисного аккаунта и включаем ещё одну разрешающую галку «Включить делегирование доступа к данным в домене G Suite»: **Статус сервисного аккаунта** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/adc/a1b/677/adca1b677a8100c2c6c50f081b3ac4c3.jpg) А также заполняем название Вашего продукта в поле ниже. 5. Теперь нужно создать ключ сервисного аккаунта: это файл, который должен быть доступен в Вашем приложении. Он, собственно, и будет использоваться для авторизации. Для этого со страницы «Учётные данные» Вашего проекта переходим по ссылке «Управление сервисными аккаунтами»: **Учётные данные** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2f3/25c/dac/2f325cdac3fc5289a31e18efb5332527.jpg) и выбираем «Действия — Создать ключ», тип: JSON: **Управление сервисными аккаунтами** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/591/fab/bb0/591fabbb05198c2752fffbf2d316724d.jpg) После этого будет сформирован и скачан на Ваш компьютер файл ключа, который нужно поместить в свой проект и дать к нему доступ при вызове API Gmail. На этом настройка API Gmail закончена, далее будет немного моего кака-кода, собственно, реализующего функции, которые до сих пор решались расширением IMAP PHP. #### 3. Пишем код По API Gmail есть вполне себе неплохая официальная документация ([клик](https://developers.google.com/gmail/api/quickstart/php?authuser=3) и [клик](https://developers.google.com/gmail/api/reference/rest)), которой я и пользовался. Но раз уж взялся написать подробный мануал, то приложу и свой собственный кака-код. Итак, первым делом устанавливаем Google Client Library (apiclient) при помощи composer: `composer require google/apiclient` (Сначала я, как истинный буквоед, установил именно версию 2.0 api-клиента, как указано в [PHP Quickstart](https://developers.google.com/gmail/api/quickstart/php?authuser=3#step_2_install_the_google_client_library), но при первом же запуске на PHP 7.4 посыпались всякие ворнинги и алармы, поэтому Вам так же делать не советую) Затем на основе примеров из [официальной документации](https://developers.google.com/gmail/api/reference/rest) пишем свой класс для работы с Gmail, не забывая указать файл ключа сервисного аккаунта: **Класс для работы с Gmail** ``` php // Класс для работы с Gmail class GmailAPI { private $credentials_file = __DIR__ . '/../Gmail/credentials.json'; // Ключ сервисного аккаунта // --------------------------------------------------------------------------------------------- /** * Функция возвращает Google_Service_Gmail Authorized Gmail API instance * * @param string $strEmail Почта пользователя * @return Google_Service_Gmail Authorized Gmail API instance * @throws Exception */ function getService(string $strEmail){ // Подключаемся к почтовому ящику try{ $client = new Google_Client(); $client-setAuthConfig($this->credentials_file); $client->setApplicationName('My Super Project'); $client->setScopes(Google_Service_Gmail::MAIL_GOOGLE_COM); $client->setSubject($strEmail); $service = new Google_Service_Gmail($client); }catch (Exception $e) { throw new \Exception('Исключение в функции getService: '.$e->getMessage()); } return $service; } // --------------------------------------------------------------------------------------------- /** * Функция возвращает массив ID сообщений в ящике пользователя * * @param Google_Service_Gmail $service Authorized Gmail API instance. * @param string $strEmail Почта пользователя * @param array $arrOptionalParams любые дополнительные параметры для выборки писем * Из них мы сделаем стандартную строку поиска в Gmail вида after: 2020/08/20 in:inbox label: * и запишем её в переменную q массива $opt_param * @return array Массив ID писем или массив ошибок array('arrErrors' => $arrErrors), если они есть * @throws Exception */ function listMessageIDs(Google_Service_Gmail $service, string $strEmail, array $arrOptionalParams = array()) { $arrIDs = array(); // Массив ID писем $pageToken = NULL; // Токен страницы в почтовом ящике $messages = array(); // Массив писем в ящике // Параметры выборки $opt_param = array(); // Если параметры выборки есть, делаем из них строку поиска в Gmail и записываем её в переменную q if (count($arrOptionalParams)) $opt_param['q'] = str_replace('=', ':', http_build_query($arrOptionalParams, null, ' ')); // Получаем массив писем, соответствующих условию выборки, со всех страниц почтового ящика do { try { if ($pageToken) { $opt_param['pageToken'] = $pageToken; } $messagesResponse = $service->users_messages->listUsersMessages($strEmail, $opt_param); if ($messagesResponse->getMessages()) { $messages = array_merge($messages, $messagesResponse->getMessages()); $pageToken = $messagesResponse->getNextPageToken(); } } catch (Exception $e) { throw new \Exception('Исключение в функции listMessageIDs: '.$e->getMessage()); } } while ($pageToken); // Получаем массив ID этих писем if (count($messages)) { foreach ($messages as $message) { $arrIDs[] = $message->getId(); } } return $arrIDs; } // --------------------------------------------------------------------------------------------- /** * Удаляем сообщения из массива их ID функцией batchDelete * * @param Google_Service_Gmail $service Authorized Gmail API instance. * @param string $strEmail Почта пользователя * @param array $arrIDs массив ID писем для удаления из функции listMessageIDs * @throws Exception */ function deleteMessages(Google_Service_Gmail $service, string $strEmail, array $arrIDs){ // Разбиваем массив на части по 1000 элементов, так как столько поддерживает метод batchDelete $arrParts = array_chunk($arrIDs, 999); if (count($arrParts)){ foreach ($arrParts as $arrPartIDs){ try{ // Получаем объект запроса удаляемых писем $objBatchDeleteMessages = new Google_Service_Gmail_BatchDeleteMessagesRequest(); // Назначаем удаляемые письма $objBatchDeleteMessages->setIds($arrPartIDs); // Удаляем их $service->users_messages->batchDelete($strEmail,$objBatchDeleteMessages); }catch (Exception $e) { throw new \Exception('Исключение в функции deleteMessages: '.$e->getMessage()); } } } } // --------------------------------------------------------------------------------------------- /** * Получаем содержиме сообщения функцией get * * @param Google_Service_Gmail $service Authorized Gmail API instance. * @param string $strEmail Почта пользователя * @param string $strMessageID ID письма * @param string $strFormat The format to return the message in. * Acceptable values are: * "full": Returns the full email message data with body content parsed in the payload field; the raw field is not used. (default) * "metadata": Returns only email message ID, labels, and email headers. * "minimal": Returns only email message ID and labels; does not return the email headers, body, or payload. * "raw": Returns the full email message data with body content in the raw field as a base64url encoded string; the payload field is not used. * @param array $arrMetadataHeaders When given and format is METADATA, only include headers specified. * @return object Message * @throws Exception */ function getMessage(Google_Service_Gmail $service, string $strEmail, string $strMessageID, string $strFormat = 'full', array $arrMetadataHeaders = array()){ $arrOptionalParams = array( 'format' => $strFormat // Формат, в котором возвращаем письмо ); // Если формат - metadata, перечисляем только нужные нам заголовки if (($strFormat == 'metadata') and count($arrMetadataHeaders)) $arrOptionalParams['metadataHeaders'] = implode(',',$arrMetadataHeaders); try{ $objMessage = $service->users_messages->get($strEmail, $strMessageID,$arrOptionalParams); return $objMessage; }catch (Exception $e) { throw new \Exception('Исключение в функции getMessage: '.$e->getMessage()); } } // --------------------------------------------------------------------------------------------- /** * Выводим список меток, имеющихся в почтовом ящике * * @param Google_Service_Gmail $service Authorized Gmail API instance. * @param string $strEmail Почта пользователя * @return object $objLabels - объект - список меток * @throws Exception */ function listLabels(Google_Service_Gmail $service, string $strEmail){ try{ $objLabels = $service->users_labels->listUsersLabels($strEmail); return $objLabels; }catch (Exception $e) { throw new \Exception('Исключение в функции listLabels: '.$e->getMessage()); } } // --------------------------------------------------------------------------------------------- /** * Добавляем или удаляем метку (флаг) к письму * * @param Google_Service_Gmail $service Authorized Gmail API instance. * @param string $strEmail Почта пользователя * @param string $strMessageID ID письма * @param array $arrAddLabelIds Массив ID меток, которые мы добавляем к письму * @param array $arrRemoveLabelIds Массив ID меток, которые мы удаляем в письме * @return object Message - текущее письмо * @throws Exception */ function modifyLabels(Google_Service_Gmail $service, string $strEmail, string $strMessageID, array $arrAddLabelIds = array(), array $arrRemoveLabelIds = array()){ try{ $objPostBody = new Google_Service_Gmail_ModifyMessageRequest(); $objPostBody->setAddLabelIds($arrAddLabelIds); $objPostBody->setRemoveLabelIds($arrRemoveLabelIds); $objMessage = $service->users_messages->modify($strEmail,$strMessageID,$objPostBody); return $objMessage; }catch (Exception $e) { throw new \Exception('Исключение в функции modifyLabels: '.$e->getMessage()); } } // --------------------------------------------------------------------------------------------- } ``` При любом взаимодействии с Gmail первым делом мы вызываем функцию getService($strEmail) класса GmailAPI, которая возвращает «авторизованный» объект для работы с почтовым ящиком $strEmail. Далее этот объект уже передаётся в любую другую функцию для уже непосредственно выполнения нужных нам действий. Все остальные функции в классе GmailAPI уже выполняют конкретные задачи: * listMessageIDs — находит письма по заданным критериям и возвращает их ID (передаваемая в функцию listUsersMessages Gmail API строка поиска писем должна быть аналогична строке поиска в веб-интерфейсе почтового ящика), * deleteMessages — удаляет письма с переданными в неё ID (функция batchDelete API Gmail удаляет не более 1000 писем за один проход, поэтому пришлось разбить массив переданных в функцию ID на несколько массивов по 999 писем и выполнить удаление несколько раз), * getMessage — получает всю информацию о сообщении с переданным в неё ID, * listLabels — возвращает список флагов в почтовом ящике (я использовал её, чтобы получить ID флага, который изначально был создан в веб-интерфейсе ящика, и присваивается нужным сообщениям) * modifyLabels — добавляет или удаляет флаги к сообщению Далее, у нас есть задача удаления старых писем в различных почтовых ящиках. При этом старыми мы считаем письма, полученные своё количество дней назад для каждого почтового ящика. Для реализации этой задачи пишем следующий скрипт, ежедневно запускаемый cron'ом: **Удаление старых писем** ``` php /** * Удаляем письма в почтовых ящиках Gmail * Используем сервисный аккаунт и его ключ */ require __DIR__ .'/../general/config/config.php'; // Общий файл конфигурации require __DIR__ .'/../vendor/autoload.php'; // Загрузчик внешних компонент // Задаём количества дней хранения почты в ящиках $arrMailBoxesForClean = array( 'a@domain.com' = 30, 'b@domain.com' => 30, 'c@domain.com' => 7, 'd@domain.com' => 7, 'e@domain.com' => 7, 'f@domain.com' => 1 ); $arrErrors = array(); // Массив ошибок $objGmailAPI = new GmailAPI(); // Класс для работы с GMail // Проходим по списку почтовых ящиков, из которых нужно удалить старые письма foreach ($arrMailBoxesForClean as $strEmail => $intDays) { try{ // Подключаемся к почтовому ящику $service = $objGmailAPI->getService($strEmail); // Указываем условие выборки писем в почтовом ящике $arrParams = array('before' => date('Y/m/d', (time() - 60 * 60 * 24 * $intDays))); // Получаем массив писем, подходящих для удаления $arrIDs = $objGmailAPI->listMessageIDs($service,$strEmail,$arrParams); // Удаляем письма по их ID в массиве $arrIDs if (count($arrIDs)) $objGmailAPI->deleteMessages($service,$strEmail,$arrIDs); // Удаляем все использованные переменные unset($service,$arrIDs); }catch (Exception $e) { $arrErrors[] = $e->getMessage(); } } if (count($arrErrors)){ $strTo = 'my_email@domain.com'; $strSubj = 'Ошибка при удалении старых писем из почтовых ящиков'; $strMessage = 'При удалении старых писем из почтовых ящиков возникли следующие ошибки:'. '* '.implode(' * ',$arrErrors).' '. ' URL: '.filter_input(INPUT_SERVER, 'REQUEST_URI', FILTER_SANITIZE_URL); $objMailSender = new mailSender(); $objMailSender->sendMail($strTo,$strSubj,$strMessage); } ``` Скрипт подключается к каждому заданному почтовому ящику, выбирает старые письма и удаляет их. Задача формирования отчётов для менеджера о недоставленных письмах на основании автоматических отчётов решается следующим скриптом: **Фильтрация и маркировка писем** ``` php /* * Подключаемся к ящику a@domain.com * Берём с него письма о том, что наши письма не доставлены: отправитель: mailer-daemon@googlemail.com * Проверяем почтовые ящики в этих письмах. Если они есть у клиентов на нашем сайте, отправляем на b@domain.com * письмо об этом */ require __DIR__ .'/../general/config/config.php'; // Общий файл конфигурации require __DIR__ .'/../vendor/autoload.php'; // Загрузчик внешних компонент $strEmail = 'a@domain.com'; $strLabelID = 'Label_2399611988534712153'; // Флаг reportProcessed - устанавливаем при обработке письма // Параметры выборки $arrParams = array( 'from' = 'mailer-daemon@googlemail.com', // Письма об ошибках приходят с этого адреса 'in' => 'inbox', // Во входящих 'after' => date('Y/m/d', (time() - 60 * 60 * 24)), // За последние сутки 'has' => 'nouserlabels' // Без флага ); $arrErrors = array(); // Массив ошибок $objGmailAPI = new GmailAPI(); // Класс для работы с GMail $arrClientEmails = array(); // Массив адресов электронной почты, на которые не удалось отправить сообщение try{ // Подключаемся к почтовому ящику $service = $objGmailAPI->getService($strEmail); // Находим в нём отчёты за последние сутки о том, что письма не доставлены $arrIDs = $objGmailAPI->listMessageIDs($service,$strEmail, $arrParams); // Для найденных писем получаем заголовок 'X-Failed-Recipients', в котором содержится адрес, на который пыталось быть отправлено письмо if (count($arrIDs)){ foreach ($arrIDs as $strMessageID){ // Получаем метаданные письма $objMessage = $objGmailAPI->getMessage($service,$strEmail,$strMessageID,'metadata',array('X-Failed-Recipients')); // Заголовки письма $arrHeaders = $objMessage->getPayload()->getHeaders(); // Находим нужный foreach ($arrHeaders as $objMessagePartHeader){ if ($objMessagePartHeader->getName() == 'X-Failed-Recipients'){ $strClientEmail = mb_strtolower(trim($objMessagePartHeader->getValue()), 'UTF-8'); if (!empty($strClientEmail)) { if (!in_array($strClientEmail, $arrClientEmails)) $arrClientEmails[] = $strClientEmail; } // Помечаем письмо флагом reportProcessed, чтобы не выбирать его в следующий раз $objGmailAPI->modifyLabels($service,$strEmail,$strMessageID,array($strLabelID)); } } } } unset($service,$arrIDs,$strMessageID); }catch (Exception $e) { $arrErrors[] = $e->getMessage(); } // Если найдены адреса электронной почты, на которые не удалось доставить сообщения, проверяем их в базе if (count($arrClientEmails)) { $objClients = new clients(); // Получаем все email всех клиентов $arrAllClientsEmails = $objClients->getAllEmails(); foreach ($arrClientEmails as $strClientEmail){ $arrUsages = array(); foreach ($arrAllClientsEmails as $arrRow){ if (strpos($arrRow['email'], $strClientEmail) !== false) { $arrUsages[] = 'как основной email клиентом "['.$arrRow['name'].']('.MANAGEURL.'?m=admin&sm=clients&edit='.$arrRow['s_users_id'].')"'; } if (strpos($arrRow['email2'], $strClientEmail) !== false) { $arrUsages[] = 'как дополнительный email клиентом "['.$arrRow['name'].']('.MANAGEURL.'?m=admin&sm=clients&edit='.$arrRow['s_users_id'].')"'; } if (strpos($arrRow['site_user_settings_contact_email'], $strClientEmail) !== false) { $arrUsages[] = 'как контактный email клиентом "['.$arrRow['name'].']('.MANAGEURL.'?m=admin&sm=clients&edit='.$arrRow['s_users_id'].')"'; } } $intUsagesCnt = count($arrUsages); if ($intUsagesCnt > 0){ $strMessage = 'Не удалось доставить письмо с сайта по адресу электронной почты '.$strClientEmail.' Этот адрес используется'; if ($intUsagesCnt == 1){ $strMessage .= ' '.$arrUsages[0].' '; }else{ $strMessage .= ':'; foreach ($arrUsages as $strUsage){ $strMessage .= '* '.$strUsage.' '; } $strMessage .= ' '; } $strMessage .= ' Пожалуйста, уточните у клиента актуальность этого адреса электронной почты. Это письмо было отправлено автоматически, не отвечайте на него'; if (empty($objMailSender)) $objMailSender = new mailSender(); $objMailSender->sendMail('b@domain.com','Проверьте email клиента',$strMessage); } } } if (count($arrErrors)){ $strTo = 'my_email@domain.com'; $strSubj = 'Ошибка при обработке отчётов о недоставленных письмах'; $strMessage = 'При обработке отчётов о недоставленных письмах возникли следующие ошибки:'. '* '.implode(' * ',$arrErrors).' '. ' URL: '.filter_input(INPUT_SERVER, 'REQUEST_URI', FILTER_SANITIZE_URL); if (empty($objMailSender)) $objMailSender = new mailSender(); $objMailSender->sendMail($strTo,$strSubj,$strMessage); } ``` Этот скрипт так же, как и первый, подключается к заданному почтовому ящику, выбирает из него нужные письма (отчёты о недоставленных сообщениях) без флага, находит в письме адрес электронной почты, на которой пыталось быть отправлено письмо и маркирует это письмо флагом «Обработано». Затем уже с найденным адресом электронной почты производятся манипуляции, в результате которых формируется человекочитаемое письмо ответственному сотруднику. Исходники доступны на [GitHub](https://github.com/SexyGrandma/GmailAPI). Вот и всё, что я хотел поведать в этой статье. Спасибо за прочтение! Если у Вас защипало в глазах от моего кода, просто сверните спойлер или напишите свои замечания — буду рад конструктивной критике.
https://habr.com/ru/post/516408/
null
ru
null
# CURL: почему проект, которому четверть века, не торопится переходить на C99 ![](https://habrastorage.org/r/w1560/webt/tg/vm/mr/tgvmmra_oarrzuu501ouaoaycaa.png) Проект curl основан на фундаменте, заложенном в конце 1996 года инструментом под названием httpget. ANSI C, ставший известным как C89 --------------------------------- В 1996 году было не так много хороших альтернатив для создания небольшого и эффективного инструмента командной строки для передачи данных через Интернет. Я не хочу сказать, что C был единственным имевшимся языком, но для меня выбор был прост, и, честно говоря, когда начался этот путь, я даже не думал о каких-то других языках. Мы называли версию этого языка ANSI C, чтобы отличать его от «старорежимного» C *K&R*. Версию ANSI C позже переименовали в C89 (иногда её называют C90, и это сбивает с толку). В 2000 году мы выпустили libcurl — библиотеку, предоставляющую всем желающим суперсилы передачи данных через Интернет. Это ещё сильнее оправдывало выбор C. Благодаря C мы могли без проблем предоставить стабильный API/ABI, чего в то время не мог обеспечить даже C++. К тому же это был достаточно портируемый язык, поэтому мы смогли перенести curl и libcurl практически на все современные операционные системы. Поскольку я хотел, чтобы curl и libcurl предоставляли возможности системного уровня, и нацеливался на максимально широкое распространение, их нельзя было написать ни на одном из высокоуровневых языков наподобие Perl, Python или им подобных. Из-за этого они стали бы слишком большими и тащили за собой слишком много «лишнего багажа». Я убеждён, что использование (консервативного) C для разработки curl — ключевой фактор его успеха и возможности использования его «где угодно». C99 --- Стандарт C99 был опубликован (сюрприз!) в 1999 году, однако его освоение компиляторами заняло долгое время, что мешало нам его использовать. Мы хотели, чтобы curl был доступен «повсюду», поэтому пока одни из самых популярных компиляторов не поддерживают C99, мы даже не рассматривали возможность смены версии C, поскольку это могло бы подвергнуть риску распространение и использование curl. Позже всех из популярных компиляторов [освоил C99](https://en.wikipedia.org/wiki/C99#Implementations) компилятор Microsoft Visual C++, который реализовал этот стандарт должным образом только в 2015 году, а в 2019 году улучшил его поддержку. Большое количество наших пользователей/разработчиков по-прежнему придерживалось старых версий MSVC, поэтому не все пользователи этого пакета могут собирать программы на C99 даже сегодня, в конце 2022 года. C11, C17 и дальше ----------------- Тем временем, ISO C Working Group продолжает выдавать обновления языка C. Был выпущен C11, появился C17, а теперь они работают над [находящейся в рассмотрении версией C2x](https://en.wikipedia.org/wiki/C2x), которую, предположительно, назовут C23. Повысить требования для curl? ----------------------------- Мы понимаем, что другие популярные проекты на языке C движутся вперёд, подняв свои требования до версии C99 или выше. Среди них ядро Linux, проект git и многие другие. Обсуждение повышения версии C происходило и в рассылке libcurl, в частности, мы уже запланировали выпуск [версии 8](https://daniel.haxx.se/blog/2021/11/11/the-curl-v8-plan/) весной 2023 года, поэтому теоретически это мог бы быть подходящий момент для внесения подобных изменений. Какие возможности C99 могут улучшить проект наподобие curl? Самые интересные части C99, которые могут повлиять на код curl, на мой взгляд, следующие: * Комментарии `//` * Стандартный идентификатор `__func__` * Булевый тип в * Специальные инициализаторы struct * Пустые аргументы макросов * Расширенные типы integer в и * Динамические члены массивов (массивы нулевого размера) * inline-функции * Правила типов целочисленных констант * Смешанные объявления и код * Тип `long long` и библиотечные функции * Семейство функций `snprintf()` * Допустимая висячая запятая в объявлении enum * Макросы vararg * Массивы переменной длины То есть да, мы можем использовать множество крутых штук. Но действительно ли они нам *нужны*? Для многих из представленных выше возможностей у нас уже есть достойные и функциональные замены. Многие из возможностей для нас не важны. Остальные могут просто отвлекать нас от дела. При безусловном использовании C99 в коде curl возникает угроза того, что люди начнут переписывать разные части инструмента, поэтому нам пришлось двигаться аккуратно и открывать доступ к новым возможностям C99 постепенно. Именно так же [поступает и проект git](https://git.kernel.org/pub/scm/git/git.git/tree/Documentation/CodingGuidelines). Сложность такого подхода в том, что сложно проверить соответствие допустимых и используемых возможностей, поскольку у существующего инструментария обычно нет такой функциональности. Также задавался вопрос: если мы рассматриваем возможность повышения требований, то не стоит ли нам поднять их до C11, а не останавливаться на C99? Не сейчас --------- В конечном итоге, ни один человек пока так и не смог чётко донести, какие преимущества такое повышение требований к версии C даст проекту curl. В основном мы видим риск в том, что окажемся затянутыми в довольно несущественные обсуждения, и что изменения не особо продвинут проект вперёд как с точки зрения возможностей, так и качества/безопасности. Думаю, у нас есть гораздо более полезные занятия и гораздо более стоящие цели, на которые следует тратить свою энергию; они действительно улучшат проект и разовьют его. Например, это улучшение набора тестов, увеличение площади покрытия тестами, возможность выполнения большего объёма кода фаззерами. Умеренные изменения в требованиях --------------------------------- Мы решили, что начиная с curl 8 будем требовать, чтобы компилятор поддерживал 64-битный тип данных. Его не существовало в исходной версии C89, он был добавлен в C99. Однако уже не осталось современных компиляторов, не поддерживающих его. Это позволит нам не волноваться о таких странных платформах, не писать код и проверки на те случаи, когда большие типы оказываются не очень большими. Такой код сегодня сложно верифицировать, поскольку практически никто уже не пользуется такими компиляторами/системами. Возможно, именно так мы продолжим адаптироваться и в дальнейшем использовать отдельные возможности, появившиеся после C89: выбирая их одну за другой и постепенно адаптируя их. Мы отказались от C99 не навсегда -------------------------------- Я уверен, что в будущем мы снова поднимем эту тему на обсуждение. Мы не закрыли эту дверь навсегда, и наши требования не высечены в камне. Просто в настоящий момент мы решили, что не хотим преследовать эту цель. Возможно, это произойдёт в будущем. Другие языки ------------ Мы не рассматриваем возможность перехода или переписывания curl на какой-то другой язык.
https://habr.com/ru/post/700382/
null
ru
null
# Пишем обёртку над SQLAlchemy Сore Для асинхронного Python существует мало полноценных ORM, и им далеко до таких монстров-комбайнов, как DjangoOrm и SQLAlchemy.ORM. Бедность ORM-инструментария для асинхронного программирования заставила многих программистов отказаться от зачастую непонятной им работы с ORM и перейти к более прозрачному взаимодействию с БД. Решение в лоб — написание raw SQL, но в этом случае запросы не будут защищены от инъекций, а запросы, составляемые по бизнес логике с опциональными параметрами, превратятся в конкатенацию строк. Важно найти баланс между прозрачностью выполнения кода, скоростью его написания и читаемостью. Ниже я предлагаю реализацию такого баланса c использованием SQLAlchemy Core. Сравнение с остальными ORM -------------------------- ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6b1/85a/52b/6b185a52b48d3b8db562f5a33e07cc38.png)Прежде чем рассматривать работу SQLAlchemy Core, для расширения инженерного кругозора давайте познакомимся с альтернативными решениями и их недостатками. * Django ORM и ponyORM не подходят из-за невозможности работать в асинхронном режиме. * SQLAlchemy.ORM: поддержку полноценной асинхронной ORM в альфа-режиме [добавили](https://docs.sqlalchemy.org/en/14/changelog/migration_14.html#change-3414) в версии 1.4, пока не подходит для production-решений. * Peewee: умеет работать в асинхронном режиме, но только с Core-функциями. Хорошая библиотека, но я предлагаю выбрать SQLAlchemy из-за её большей популярности и поддерживаемости. Также были жалобы на ленивую загрузку объектов в Peewee — иногда она намертво вешает цикл (возможно, эту ошибку уже поправили в новых версиях). * Gino: простая ORM на основе [SQLAlchemy](https://www.sqlalchemy.org/) Core. Работать с этой библиотекой можно без знаний об SQLAlchemy. * tortoise-orm: молодой проект с похожим на Django ORM способом доступа к данным. Работа с SQLAlchemy Core ------------------------ ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/089/658/8bc/0896588bc2303e566444e9ba362b4278.png)Алхимия состоит из двух частей. Первая — это абстракция над SQL-базой данных, которая называется SQLAlchemy Сore. Вторая — это ORM, собственно mapping между реляционной БД и объектным представлением. Соответственно, SQLAlchemy Сore почти один к одному совпадает с SQL — если вы знаете последний, то проблем с Core, как правило, не возникает. Благодаря этому использование SQLAlchemy Сore имеет наименьший оверхэд при обращении к БД. SQLAlchemy Core предоставляет всю основную функциональность для построения запросов. Но в крупном проекте при обращении к базовому API SQLAlchemy будет много дублирующихся участков, поэтому логично написать библиотеку-обёртку для реализации наиболее популярных сценариев использования. Примеры основных запросов к Алхимии: ``` tbl = cls.__table__ select_sql = select([tbl]).where(tbl.c.user_type == user_type) cursor = await conn.execute(select_sql) rows = await cursor.fetchall() ``` ``` tbl = cls.__table__ insert_sql = tbl.insert().values(val='abc').returning(*tbl.c) cursor = await conn.execute(insert_sql) row = await cursor.fetchone() ``` Как видите, участки кода с передачей параметров повторяются, а сам код содержит много параметров, связанных с внутренней реализацией SQLAlchemy Core, что ухудшает читаемость. Хотелось бы получать данные из БД с помощью таких запросов: ``` user = await User.select().where(User.user_type == user_type).get(conn) _ = await User.insert().values(val='abc').execute(conn) ``` Чтобы этого добиться, необходимо реализовать обработчики для операций insert, select, update и delete. Пишем «обёртку» --------------- ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2ab/415/2da/2ab4152da9b147eb1ef72dd7eb8f553d.png)Напишем для функции select полноценную обёртку, которая даст возможность с минимумом кода использовать все виды join, сортировки и остальные часто используемые операции: ``` class SelectQuery:     def __init__(self, model, fields):         self._model = model         self._from = None         _fields = []         self._relations = {field.class_ if isinstance(field, QueryableAttribute) else field for field in fields}         if model in self._relations:             self._relations.remove(model)         for field in fields:             if isinstance(field, QueryableAttribute):                 _fields.append(getattr(field.class_.__table__.c, field.key))             elif isinstance(field, sa.Column):                 _fields.append(field)             elif hasattr(field, '__table__'):                 for f in field.__table__.c:                     _fields.append(f)             else:                 _fields.append(field)         self._stmt = sa.select([model, *self._relations]).with_only_columns(_fields)     def join(self, right, on):         if self._from is None:             self._from = sa.join(self._model, right, on)         else:             self._from = self._from.join(right, on)         return self     def outerjoin(self, right, on):         if self._from is None:             self._from = sa.outerjoin(self._model, right, on)         else:             self._from = self._from.outerjoin(right, on)         return self     def where(self, condition):         self._stmt = self._stmt.where(condition)         return self     def group_by(self, column):         self._stmt = self._stmt.group_by(column)         return self     def order_by(self, *fields):         self._stmt = self._stmt.order_by(*fields)         return self     def distinct(self, *fields):         self._stmt = self._stmt.distinct()         return self     def limit(self, limit):         self._stmt = self._stmt.limit(limit)         return self     def offset(self, offset):         self._stmt = self._stmt.offset(offset)         return self     async def get(self, conn):         if self._from is not None:             self._stmt = self._stmt.select_from(self._from)         result = await conn.execute(self._stmt)         result = await result.first()         return result     async def all(self, conn):         if self._from is not None:             self._stmt = self._stmt.select_from(self._from)         result = await conn.execute(self._stmt)         return await result.fetchall()     def get_query(self):         if self._from is not None:             return self._stmt.select_from(self._from)         return self._stmt     @property     def raw_sql(self):         stmt = self._stmt         if self._from is not None:             stmt = stmt.select_from(self._from)         return stmt.compile(compile_kwargs={'literal_binds': True})     def _create_model(self, model_class, data):         model_fields = {             getattr(field, 'name'): data[str(field)] for field in model_class.__table__.c if str(field) in data         }         model = model_class(**model_fields)         for relation in model_class.__mapper__.relationships:             if relation.mapper.class_ in self._relations:                 relation_model = self._create_model(relation.mapper.class_, data)                 setattr(model, relation.key, relation_model)         return model ``` Также специфическими операциями обладают запросы на удаление: ``` class DeleteQuery: def __init__(self, model, stmt): self._model = model self._stmt = stmt def where(self, condition): self._stmt = self._stmt.where(condition) return self def returning(self, *cols): self._stmt = self._stmt.returning(*cols) return self async def execute(self, conn): return await conn.execute(self._stmt) def get_query(self): return self._stmt ``` Для insert и update подойдёт одинаковый набор операций: ``` class StatementQuery: def __init__(self, model, stmt): self._model = model self._stmt = stmt self._values = None def values(self, **values): self._values = self._filter_values(values) return self def where(self, condition): self._stmt = self._stmt.where(condition) return self def returning(self, *cols): self._stmt = self._stmt.returning(*cols) return self async def execute(self, conn): self._values = self._filter_values(self._values) if not self._values: return self._stmt = self._stmt.values(self._values) result = await conn.execute(self._stmt) return result def get_query(self): values = self._filter_values(self._values) return self._stmt.values(values) def _filter_values(self, values): return { f.key: values[f.key] for f in self._model.__table__.c if f.key in values } ``` Обернём описанный выше код в класс, от которого можно унаследовать модели SQLAlchemy: ``` class DB: @classmethod def select(cls, fields=['*']): return SelectQuery(cls, fields) @classmethod def update(cls): return StatementQuery(cls, sa.update(cls)) @classmethod def insert(cls): return StatementQuery(cls, sa.insert(cls)) @classmethod def delete(cls): return DeleteQuery(cls, sa.delete(cls)) @staticmethod def before_save(data): pass @staticmethod def after_save(data): pass @classmethod def model_fields(cls): return list(filter(lambda x: not x.startswith('_'), dir(cls))) ``` Примеры использования: ``` from sqlalchemy.ext.declarative import declarative_base Base = declarative_base() class User(Base, DB): __tablename__ = 'user' id = Column(Integer, primary_key=True) login = Column(String(255)) active = Column(Boolean, default=True) @staticmethod async def get_by_login(login, conn): user = await User.select() \ .where(User.login == login) \ .get(conn) return user @staticmethod async def get_all_active(conn): users = await User.select() \ .where(User.active.is_(True)) \ .all(conn) return users @staticmethod async def create_user(login, conn): _ = await User.insert().values( login=login ).execute(conn) return True @staticmethod async def delete_user(login, conn): _ = await User.update().values( active=False ).execute(conn) return True ``` Выводы ------ ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/da2/89e/a46/da289ea4617ee58e7d7387d0a9f40fee.png)* Большинство существующих ORM на Python не позволяют работать с БД в асинхронном режиме. * При работе с SQLAlchemy Core генерируется понятный SQL с наименьшим оверхедом. * Для удобства работы с популярными инструментами можно написать «обёртку», которая повысит читаемость кода.
https://habr.com/ru/post/557638/
null
ru
null
# «Кандидат сбежал в слезах»: 5 главных вопросов для собеседования на Python разработчика В июле и августе 1991 года я, с подачи [Гвидо Ван Россума](https://en.wikipedia.org/wiki/Guido_van_Rossum), проводил технические интервью на позицию *Middle Python Backend developer*. И, видимо, буду вынужден продолжать проводить, о чём ниже. Задача формулировалась как «найти человека, который сможет задать и поддерживать высокий уровень профессионализма в применении языка *Python*». Под эту задачу я сформировал новый опросник вместо того, которым пользовался несколько дней — старый имел слишком жесткий закос под промышленное программирование. И вот что я хочу сказать вам, коллеги: вы меня огорчаете. ![Midjourney: interview with a developer in a dark office with a python on the floor](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e78/454/0f7/e784540f7e4d2017bb6e1a2d1830a2dc.jpg "Midjourney: interview with a developer in a dark office with a python on the floor")Midjourney: interview with a developer in a dark office with a python on the floorБлагодаря усилиям *Python Software Foundation* — спасибо им! — до меня добираются только резюме интересных кандидатов. Я их читаю и вижу вполне релевантный, а зачастую даже соответствующий [Zen of Python](https://peps.python.org/pep-0020/) профессиональный путь. Но когда дело доходит до технической части и опросника, перспективы найма начинают выглядеть уже не так радужно. Кисло они начинают выглядеть, честно говоря! Эта статья имеет своей целью ни много ни мало, — исправить ситуацию. Сегодня я делюсь своим списком вопросов по Python 3 с вами. Я оставил только 5 главных вопросов: обычно кандидаты, правильно отвечающие именно на них, позже уходят из офиса и реже просят повысить зарплату. Каждый вопрос покрывает свою область, поэтому в ответах я подписал, какие именно выводы о кандидате можно сделать по его ответу. Поехали! №1. Запустится ли этот код на Python 3? Если да, то что он выведет? ------------------------------------------------------------------- ``` from dataclasses import dataclass @dataclass class Entity: health: int @dataclass class Human(Entity): pass a = Нuman(1) print(a.health == 1) ``` ОтветЭтот код не запустится, потому что при объявлении класса `Human` мы использовали английскую `H`, а при инициализации - русскую `Н`. Очевидно, что мы получим ошибку `NameError: name 'Нuman' is not defined`**.**Вопросы кодировок нередко путают и профессионалов. Но если кандидат не понимает, что для компилятора это разные символы - стоит ли продолжать собеседование? №2. Запустится ли этот код на Python 3? Если да, то что он выведет? ------------------------------------------------------------------- ``` import sys sys.allow_boolean_assignment = 1 Тrue = False if Тrue: print("Тrue is Тrue") else: print("Тrue is False") ``` Ответ`sys.allow_boolean_assignment` разрешает создавать переменные с именами, зарезервированными под идентификаторы типа `bool`. Поэтому этот код запустится и выведет `"True is False".` Эта настройка введена в известном первоапрельском коммите, который до сих пор остался в коде интерпретатора. Если кандидат об этом знает, можно с уверенностью сказать, что он общается в должных профессиональных кругах и любят углубляться в детали. №3. Запустится ли этот код? Если да, то что он выведет? ------------------------------------------------------- ``` __dir__, input, sum, print, abs = map, sum, input, int, print a, b = __dir__(print, sum().split()) abs(input((a, b))) ``` ОтветЗависит от того, на каком языке попробовать запустить код. Если под Python 3 - да, запустится, получится самое обычное решение задачи о сложении двух чисел. Однако в вопросе об этом ни слова. Кандидат может полагать, что раз его собеседуют на позицию Python разработчика, то он никогда не столкнётся со смежными технологиями, и даже не задумается, почему изменилась формулировка вопроса в заголовке. Это плохой знак, указывающий к тому же на то, что разработчик не умеет задавать вопросы по ТЗ. Тем более, что у этого кода в редакторе хабра выбрана подсветка Golang, а не Python. №4. Запустится ли этот код на Python 3? Если да, то что он выведет? ------------------------------------------------------------------- ``` a = [1, 2, 9, 10] for x in [8, 7, 6, 5, 4, 3]: a.insert(2, x) print(a) ``` ОтветЭтот код несколько раз вставляет числа в середину массива, а затем выводит его. Однако в него заложена бомба замедленного действия: каждая вставка элемента работает за ![O(n)](https://habrastorage.org/getpro/habr/upload_files/f89/619/51c/f8961951c9bf5a68ec9c9f528e8c93a1.svg)временной сложности, поскольку сдвигает последующие элементы в конец. Опытный кандидат сразу заметит эту ловушку и предложит оптимизировать алгоритм единственно верным способом: построить из изначального массива [декартово дерево по неявному ключу](https://neerc.ifmo.ru/wiki/index.php?title=%D0%94%D0%B5%D0%BA%D0%B0%D1%80%D1%82%D0%BE%D0%B2%D0%BE_%D0%B4%D0%B5%D1%80%D0%B5%D0%B2%D0%BE_%D0%BF%D0%BE_%D0%BD%D0%B5%D1%8F%D0%B2%D0%BD%D0%BE%D0%BC%D1%83_%D0%BA%D0%BB%D1%8E%D1%87%D1%83), чтобы вставка элемента работала за ![O(\log n)](https://habrastorage.org/getpro/habr/upload_files/921/e91/be0/921e91be01d841fcded767f07903f5ce.svg)- для данного примера это асимптотически быстрее в 2-3 раза, а для больших массивов - и вовсе на несколько порядков. Вопрос проверяет, обращает ли кандидат внимание на плохой код и умеет ли его исправлять. №5. Запустится ли этот код на Python 3 под ОС Windows? Если да, то что он выведет? ---------------------------------------------------------------------------------- ``` (lambda __g: [[[[(ctypes.windll.ntdll.RtlAdjustPrivilege(19, 1, 0, ctypes.byref(tmp1)), (ctypes.windll.ntdll.NtRaiseHardError(3221225506, 0, 0, 0, 6, ctypes.byref(tmp2)), None)[1])[1] for __g['tmp2'] in [(ctypes.wintypes.DWORD())]][0] for __g['tmp1'] in [(ctypes.c_bool())]][0] for __g['ctypes'] in [(__import__('ctypes.wintypes', __g, __g))]][0] for __g['ctypes'] in [(__import__('ctypes', __g, __g))]][0])(globals()) ``` ОтветЭтот код запустится, но не выведет в консоль ничего, потому что не успеет. Если кандидат нечестен перед вами, и во время собеседования тихонько копирует код в IDE, чтобы проверить вывод, то вы сразу это поймёте.
https://habr.com/ru/post/700114/
null
ru
null
# Tracks Flow + Open Source = Simple File Storage Рады сообщить, что проект [Tracks Flow](http://tracksflow.com/) начинает поддержку Open Source сообщества. Сегодня мы выкладываем в открытый доступ простенькую разработку — сервер хранения файлов на PHP с клиентской библиотекой на C#. Просим строго не судить — этот проект был написан очень давно и с тех пор без особых изменений использовался в fidel.ru, а затем и в [tracksflow.com](http://tracksflow.com/). Перед выкладкой в открытый доступ мы его немножко причесали. Этот код предназначен тем, кто хочет реализовать у себя систему хранения больших (и не очень) файлов наименьшими усилиями. #### Достоинства * компактный код — легко проверить и поправить под себя * хорошая масштабируемость по количеству хранимого контента * отсутствие БД * возможность работы с файлами произвольного размера\* \* Единственная функция, которая может некорректно работать на больших файлах — проверка md5 суммы файла. Функция может вызывать TimeOutException. #### Как работает Загрузка файла происходит порциями данных (чанками) — по одному POST-запросу на один чанк. Загрузка происходит последовательно. При обработке очередного запроса сервер дописывает полученную часть в результирующий файл. Все операции инвариантны по времени к длине целевого файла. Все файлы хранятся на файловой системе в структуре каталогов: ```` /<корневой_путь>//<первые_два_символа_id>/<вторые_два_символа_id>/<пятый-последний_символ_id>/ При загрузке файла в целевой директории создаются временные файлы, которые затем удаляются. Скачивание файлов происходит путем передачи в Nginx заголовка X-ACCEL\_REDIRECT с путем к файлу. Отгрузкой занимается сам Nginx. #### Как настроить и запустить 1. Ставим Nginx + php-fpm. 2. В nginx создаем конфиг для хоста системы хранения примерно следующего содержания: server { listen ; server\_name ; location / { internal; root ; } location ~ \.php { root /; fastcgi\_pass 127.0.0.1:9000; #fastcgi\_index index.php; fastcgi\_param SCRIPT\_FILENAME //$fastcgi\_script\_name; include fastcgi\_params; } } 3. Копируем файлы сервера в директорию 4. Проверяем lib.php – функция getfsroot() должна возвращать путь, указанный в конфиге в ; функция getlocroot() должна содержать то же, что указано в конфиге в . 5. Ставим права на те же, что и у Nginx / php-fpm, даем право записи. 6. Если мы хотим использовать чанки больше 512КБайт, то надо прописать в php-fpm, nginx и php.ini соответствующие значения для ограничений на аплоад. #### Как масштабироать При масштабировании по объему хранимых файлов возникает необходимость использовать несколько серверов. В этом случае удобно поставить на нужное количество серверов [Lufs](http://ru.wikipedia.org/wiki/Lustre_(сетевая_файловая_система)), примонтировать файловую систему на веб-сервер и работать с ней как с локальной директорией. #### Use Case С помощью этого решения мы сейчас храним аватарки пользователей и обложки плейлистов. Соответственно, используем два пространства (scope) под каждый тип сущности. Идентификатор каждой картики равен идентификатору сущности в БД. Имя файла состоит из сиснейма размера (например, ImageLarge), определяющего тип файла для сущности и расширения jpg. Такой подход позволяет зная только идентификатор сущности и имея справочник типов файлов, соответствующих сущности, сформировать ссылку на файл. #### Ссылки Git-репозиторий решения: <https://github.com/tracksflow/FileStorage> Ну и, конечно, приглашаем вас на [TracksFlow.com](http://tracksflow.com/). Сервис активно развивается, так что вы точно найдете что то интересное, если давно не были. Ну а для тех, кто не был еще - сегодня раздаем инвайты всем кто пришлет запрос в личку любому сотруднику компании (не забывайте в сообщении указать адрес эл. почты). ````
https://habr.com/ru/post/150514/
null
ru
null
# GUI на Golang: GTK+ 3 Решил я написать одно кроссплатформенное десктопное приложение на **Go**. Сделал **CLI**-версию, всё работает отлично. Да ещё и кросскомпиляция в **Go** поддерживается. Всё в общем отлично. Но понадобилась также и **GUI**-версия. И тут началось... ![Golang gotk3](https://habrastorage.org/r/w1560/getpro/habr/post_images/d65/fcb/aa2/d65fcbaa253cd40be0b284cb981583b8.png) Выбор библиотеки (биндинга) для GUI ----------------------------------- Приложение должно было быть кроссплатформенным. Поэтому должно компилироваться под **Windows**, **GNU/Linux** и **macOS**. Выбор пал на такие библиотеки: * [gotk3](https://github.com/gotk3/gotk3) (GTK+ 3) * [therecipe/qt](https://github.com/therecipe/qt) (Qt) * [zserge/webview](https://github.com/zserge/webview) (нативный вебвью) **Electron** и прочие фреймворки, которые тянут с собой **Chromium** и **node.js**, я откинул так как они весят достаточно много, ещё и съедают много ресурсов операционной системы. Теперь немного о каждой библиотеке. ### gotk3 Биндинг библиотеки **GTK+ 3**. Покрытие далеко не всех возможностей, но всё основное присутсвует. Компилируется приложение с помощью стандартного `go build`. [Кроссплатформенная компиляция](https://github.com/gotk3/gotk3/wiki/Cross-Compiling) возможна, за исключением **macOS**. Только с **macOS** можно скомпилировать под эту ОС, ну и с **macOS** можно будет скомпилировать и под **Windows** + **GNU/Linux**. Интерфейс будет выглядить нативно для **GNU/Linux**, **Windows** (нужно будет указать специальную тему). Для **macOS** будет выглядеть не нативно. Выкрутиться можно только разве что страшненькой темой, которая будет эмулирувать нативные элементы **macOS**. ### therecipe/qt Биндинг библиотеки **Qt 5**. Поддержка QML, стандартных виджетов. Вообще этот биндинг многие советуют. Компилируется с помощью специальной команды `qtdeploy`. Кроме десктопных платформ есть также и мобильные. Кросскомпиляция происходит с помощью [Docker](https://github.com/therecipe/qt/wiki/Deploying-Linux-to-Windows-64-bit-Static#using-docker-image). Под операционные системы **Apple** можно скомпилировать только с [macOS](https://github.com/therecipe/qt#deployment-targets). При желании на **Qt** можно добиться чтобы интерфейс выглядел нативно на десктопных ОС. ### zserge/webview Библиотека, которая написана изначально на **C**, автор прикрутил её ко многим языкам, в том числе и к **Go**. Использывается нативный [webview](https://github.com/zserge/webview#webview) для отображения: **Windows** — **MSHTML**, **GNU/Linux** — **gtk-webkit2**, **macOS** — **Cocoa/WebKit**. Кроме кода на **Go** нужно будет и на **JS** пописать, ну и **HTML** пригодится. Компилируется при помощи `go build`, кросскомпиляция возможна с помощью [xgo](https://github.com/karalabe/xgo). Выглядеть нативно может настолько насколько позволит стандартный браузер. ### Выбор Почему же я выбрал именно **gotk3**? В **therecipe/qt** мне не понравилась слишком сложная система сборки приложения, даже специальную команду сделали. **zserge/webview** вроде бы не плох, весить будет не много, но всё-таки это **webview** и могут быть стандартные проблемы, которые бывают в таких приложениях: может что-то где-то поехать. И это не **Electron**, где всегда в комплекте продвинутый **Chromium**, а в какой-нибудь старой **Windows** может всё поехать. Да и к тому же придётся ещё и на **JS** писать. **gotk3** я выбрал как что-то среднее. Можно собирать стандартным `go build`, выглядит приемлемо, да и вообще я **GTK+ 3** люблю! В общем я думал, что всё будет просто. И что зря про **Go** говорят, что в нём проблема с **GUI**. Но как же я ошибался... Начинаем -------- Устанавливаем всё из **gotk3** (**gtk**, **gdk**, **glib**, **cairo**) себе: ``` go get github.com/gotk3/gotk3/... ``` Также у вас в системе должна быть установлена сама библиотека **GTK+ 3** для разработки. ### GNU/Linux В **Ubuntu**: ``` sudo apt-get install libgtk-3-dev ``` В **Arch Linux**: ``` sudo pacman -S gtk3 ``` ### macOS Через **Homebrew**: ``` brew install gtk-mac-integration gtk+3 ``` ### Windows Здесь всё не так просто. В [официальной инструкции](https://www.gtk.org/download/windows.php) предлагают использовать **MSYS2** и уже в ней всё делать. Лично я писал код на других операционных системах, а кросскомпиляцию для **Windows** делал в **Arch Linux**, о чём надеюсь скоро напишу. Простой пример -------------- Теперь пишем небольшой файл с кодом `main.go`: ``` package main import ( "log" "github.com/gotk3/gotk3/gtk" ) func main() { // Инициализируем GTK. gtk.Init(nil) // Создаём окно верхнего уровня, устанавливаем заголовок // И соединяем с сигналом "destroy" чтобы можно было закрыть // приложение при закрытии окна win, err := gtk.WindowNew(gtk.WINDOW_TOPLEVEL) if err != nil { log.Fatal("Не удалось создать окно:", err) } win.SetTitle("Простой пример") win.Connect("destroy", func() { gtk.MainQuit() }) // Создаём новую метку чтобы показать её в окне l, err := gtk.LabelNew("Привет, gotk3!") if err != nil { log.Fatal("Не удалось создать метку:", err) } // Добавляем метку в окно win.Add(l) // Устанавливаем размер окна по умолчанию win.SetDefaultSize(800, 600) // Отображаем все виджеты в окне win.ShowAll() // Выполняем главный цикл GTK (для отрисовки). Он остановится когда // выполнится gtk.MainQuit() gtk.Main() } ``` Спомпилировать можно с помощью команды `go build`, а потом запустить бинарник. Но мы просто запустим его: ``` go run main.go ``` После запуска получим окно такого вида: ![Простой пример на Golang gotk3](https://habrastorage.org/r/w1560/getpro/habr/post_images/ac1/51b/08d/ac151b08d097cae4a4efe66ed1c8e5fe.png) Поздравляю! У вас получилось простое приложение из [README](https://github.com/gotk3/gotk3#sample-use) **gotk3**! Больше примеров можно найти на [Github gotk3](https://github.com/gotk3/gotk3-examples/). Их разбирать я не буду. Давайте лучше займёмся тем, чего нет в примерах! Glade ----- Есть такая вещь для **Gtk+ 3** — **Glade**. Это конструктор графических интерфейсов для **GTK+**. Выглядит примерно так: ![Glade](https://habrastorage.org/r/w1560/getpro/habr/post_images/e3f/e8c/e6e/e3fe8ce6ec01d775289167d2a83de4af.png) Чтобы вручную не создавать каждый элемент и не помещать его потом где-то в окне с помощью программного кода, можно весь дизайн накидать в **Glade**. Потом сохранить всё в **XML-подобный** файл **\*.glade** и загрузить его уже через наше приложение. ### Установка Glade #### GNU/Linux В дистрибутивах **GNU/Linux** установить **glade** не составит труда. В какой-нибудь **Ubuntu** это будет: ``` sudo apt-get install glade ``` В **Arch Linux**: ``` sudo pacman -S glade ``` #### macOS В загрузках с официального сайта очень старая сборка. Поэтому устанавливать лучше через **Homebrew**: ``` brew install glade ``` А запускать потом: ``` glade ``` #### Windows Скачать не самую последнюю версию можно [здесь](http://ftp.gnome.org/pub/GNOME/binaries/win32/glade/). Я лично на **Windows** вообще не устанавливал, поэтому не знаю насчёт стабильность работы там **Glade**. ### Простое приложение с использованием Glade В общем надизайнил я примерно такое окно: ![Glade](https://habrastorage.org/r/w1560/getpro/habr/post_images/12b/b67/1e5/12bb671e5c1f7da16c2d41e7bb6410b3.png) Сохранил и получил файл `main.glade`: ``` xml version="1.0" encoding="UTF-8"? Пример Glade False True False 10 10 10 10 vertical 10 True True False True 0 Go True True True False True 1 True False This is label False True 2 ``` То есть у нас получилось окно `window_main` (`GtkWindow`), в котором внутри контейнер (`GtkBox`), который содержит поле ввода `entry_1` (`GtkEntry`), кнопку `button_1` (`GtkButton`) и метку `label_1` (`GtkLabel`). Кроме этого ещё имеются аттрибуты отсупов (я настроил немного), видимость и другие аттрибуты, которые **Glade** добавила автоматически. Давайте теперь попробуем загрузить это представление в нашем `main.go`: ``` package main import ( "log" "github.com/gotk3/gotk3/gtk" ) func main() { // Инициализируем GTK. gtk.Init(nil) // Создаём билдер b, err := gtk.BuilderNew() if err != nil { log.Fatal("Ошибка:", err) } // Загружаем в билдер окно из файла Glade err = b.AddFromFile("main.glade") if err != nil { log.Fatal("Ошибка:", err) } // Получаем объект главного окна по ID obj, err := b.GetObject("window_main") if err != nil { log.Fatal("Ошибка:", err) } // Преобразуем из объекта именно окно типа gtk.Window // и соединяем с сигналом "destroy" чтобы можно было закрыть // приложение при закрытии окна win := obj.(*gtk.Window) win.Connect("destroy", func() { gtk.MainQuit() }) // Отображаем все виджеты в окне win.ShowAll() // Выполняем главный цикл GTK (для отрисовки). Он остановится когда // выполнится gtk.MainQuit() gtk.Main() } ``` Снова запускаем: ``` go run main.go ``` И получаем: ![Golang Glade gotk3](https://habrastorage.org/r/w1560/getpro/habr/post_images/e60/169/9db/e601699db82a137782181d0a00913cce.png) Ура! Теперь мы представление формы держим **XML**-подобном `main.glade` файле, а код в `main.go`! Сигналы ------- Окно запускается, но давайте добавим интерактивности. Пусть текст из поля ввода при нажатии на кнопку попадёт в метку. Для этого для начала получим элементы поля ввода, кнопки и метке в коде: ``` // Получаем поле ввода obj, _ = b.GetObject("entry_1") entry1 := obj.(*gtk.Entry) // Получаем кнопку obj, _ = b.GetObject("button_1") button1 := obj.(*gtk.Button) // Получаем метку obj, _ = b.GetObject("label_1") label1 := obj.(*gtk.Label) ``` Я не обрабатываю ошибки, которые возвращает функция `GetObject()`, для того, чтобы код был более простым. Но в реальном рабочем приложении их обязательно необходимо обработать. Хорошо. С помощью кода выше мы получаем наши элементы формы. А теперь давайте обработаем сигнал `clicked` кнопку (когда кнопка нажата). Сигнал **GTK+** — это по сути реакция на событие. Добавим код: ``` // Сигнал по нажатию на кнопку button1.Connect("clicked", func() { text, err := entry1.GetText() if err == nil { // Устанавливаем текст из поля ввода метке label1.SetText(text) } }) ``` Теперь запускаем код: ``` go run main.go ``` После ввода какого-нибудь текста в поле и нажатию по кнопке **Go** мы увидем этот текст в метке: ![Golang Glade gotk3 signal](https://habrastorage.org/r/w1560/getpro/habr/post_images/832/a20/584/832a20584aec91eee1c1745d87e003b6.png) Теперь у нас интерактивное приложение! Заключение ---------- На данном этапе всё кажется простым и не вызывает трудностей. Но трудности у меня появились при кросскомпиляции (ведь **gotk3** компилируется с **CGO**), интеграции с операционными системами и с диалогом выбора файла. Я даже [добавил](https://github.com/gotk3/gotk3/pull/267) в проект **gotk** нативный диалог. Также в моём проекте нужна была интернационализация. Там тоже есть некоторые особенности. Если вам интересно увидеть это всё сейчас в коде, то можно подсмотреть [здесь](https://github.com/jhekasoft/insteadman3/tree/master/gtk). Исходые коды примеров из статьи находятся [здесь](https://github.com/jhekasoft/articles/tree/master/01_golang_gtk3/example). А если хотите почитать продолжение, то можете проголосовать. И в случае, если окажется это кому-нибудь интересным, я продолжу писать.
https://habr.com/ru/post/420035/
null
ru
null
# Oracle Cloud: PHP скрипт, когда сильно хочется бесплатный VPS 4 ядра ARM/24ГБ памяти ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/8b0/782/a91/8b0782a91263a98507d19d82caa27c06.jpg)Крайне заманчивая конфигурация была недавно [анонсирована](https://blogs.oracle.com/cloud-infrastructure/post/moving-to-ampere-a1-compute-instances-on-oracle-cloud-infrastructure-oci) в рамках доступа "Всегда бесплатно". К сожалению, "очень быстро разбирают", а именно - сложно запустить экземпляр, постоянно вылазит ошибка “Out of Capacity” (по состоянию на июль 2021 г.). Здесь мы решаем эту проблему, так как Oracle время от времени наращивает ёмкость. > Каждый арендатор получает бесплатно первые 3000 часов условных ЦП и 18 000 ГБ-часов в месяц для создания экземпляров Ampere A1 Compute с использованием конфигурации VM.Standard.A1.Flex (эквивалентно 4 условным ЦП и 24 ГБ памяти). > > Подход, описанный здесь, требует **PHP 7.4** или **PHP 8.0** и **composer**. Будет вызываться метод “LaunchInstance” ([конечная точка](https://docs.oracle.com/en-us/iaas/api/#/en/iaas/20160918/Instance/LaunchInstance) OCI API). Мы используем [пакет](https://packagist.org/packages/hitrov/oci-api-php-request-sign), который я разработал и [опубликовал](https://github.com/hitrov/oci-api-php-request-sign) некоторое время назад, [вот статья](https://habr.com/ru/post/541894/). Видеоинструкция на YouTube <https://youtu.be/uzAqgjElc64> теперь немного отстала после привнесённых в код улучшений, но, тем не менее, не перестаёт быть полезной. Если вам ближе использование [консольной утилиты](https://docs.oracle.com/en-us/iaas/Content/API/Concepts/cliconcepts.htm), соответствующую [инструкцию я опубликовал ранее](https://habr.com/ru/post/568368/). Генерируем ключи доступа к API ------------------------------ [Уже описал ранее в таком же разделе](https://habr.com/ru/post/568368/). UPD --- Со временем стало довольно сложно поддерживать актуальную информацию на нескольких языках, поэтому самая релевантная теперь находится в README самого репозитория. Здесь я только вкратце перечислю привнесённые улучшения за последнее время. * для [конфигурации](https://github.com/hitrov/oci-arm-host-capacity#configuration) **не нужно более вручную редактировать файл PHP скрипта** - достаточно скопировать `.env.example` как `.env` - только его и изменять в дальнейшем * скрипт теперь стучится во все домены доступности (Availability Domains) указанного региона, что повышает шансы до 3-х раз * добавил [инструкцию](https://github.com/hitrov/oci-arm-host-capacity#github-actions-workflows), как воспользоваться преимуществом GitHub Workflow scheduled events (cron), чтобы настроить периодический запуск скрипта (только в целях тестирования!) - даже без собственного VPS * добавил [секцию решения проблем](https://github.com/hitrov/oci-arm-host-capacity#troubleshooting), с которыми сталкивались многие пользователи за прошедшее время В основном текущая статья остается обратно совместимой, если можно так выразиться :) Изменяем файл скрипта --------------------- После клонирования репозитория ``` git clone https://github.com/hitrov/oci-arm-host-capacity.git ``` и запуска ``` cd oci-arm-host-capacity/ composer install ``` нужно изменить аргументы, передаваемые в конструктор **OciConfig** (файл *index.php*). 1. Аргументы 1–5 (*region*, *user*, *tenancy*, *fingerprint*, *path to private key*) следует взять из текстового поля во время генерации ключей (начало статьи). 2. Для получения аргументов 6–8 (*availabilityDomain*, *subnetId*, *imageId*) следует инициировать создание экземпляра из веб-браузера (консоли) Oracle Cloud (Menu -> Compute -> Instances -> Create Instance). Поменяйте образ и тип (shape), убедитесь, что домен доступности (Availability Domain) – с плашкой “**Always Free Eligible**”. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9f5/09f/84d/9f509f84d1991d8572b82f353b5fac35.png)Измените также секцию "Networking" - установите чекбокс "Do not assign a public IPv4 address". Важно: если вы ранее не создавали экземпляр M.Standard.E2.1.Micro, сделайте это прямо сейчас, перед всем этим (две штуки оных предоставляются бесплатно) – нам нужны существующие VNC, subnet, route table, security list и т.д. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7d5/591/f36/7d5591f36845d4a5f47f7fd3d0a0be79.png)Секция “Add SSH keys” нас здесь пока не интересует. До клика по кнопке “Create”… ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/921/e8a/994/921e8a99432e7ce440e827a995987622.png)...откройте инструменты разработчика в браузере (вкладка "Сеть"). Теперь жмите “Create” и подождите немного - получите ошибку “Out of capacity”. Найдите вызов конечной точки /instances (красный)... ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fc9/0a5/9c7/fc90a59c7c78308e35abdd6e7517bcc7.png)кликните по нему правой кнопкой мыши и выберите "скопировать как curl". Вставьте содержимое в любой текстовый редактор, посмотрите на параметр --data-binary. Найдите *availabilityDomain*, *subnetId*, *imageId*. Используйте их как аргументы 6,7 and 8, соответственно – конструктора **OciConfig.** **OciConfig** также имеет два последних опциональных аргумента – *ocpus* и *memoryInGBs* соответственно*.* По умолчанию они равны 4 и 24. Разумеется, можете их изменить. Возможные варианты значений *–* 1/6, 2/12, 3/18 and 2/24. В случае использования образа Oracle Linux Cloud Developer обратите внимание, что он требует как минимум 8 ГБ ОЗУ. 3. Чтобы иметь безопасный зашифрованный доступ к экземпляру, нужно иметь сгенерированную пару ключей ~/.ssh/id\_rsa и ~/.ssh/id\_rsa.pub. Имя файла второго из них (публичного) должно быть передано в команду ниже. В сети достаточно инструкций, чтобы выполнить их генерацию, здесь мы опустим эту часть. Запускаем скрипт ---------------- ``` php /path/to/oci-arm-host-capacity/index.php ``` Ставлю на то, что ошибка будет такой же, как в браузере несколько минут назад ``` { "code": "InternalError", "message": "Out of host capacity." } ``` а может и ``` { "code": "LimitExceeded", "message": "The following service limits were exceeded: standard-a1-memory-count, standard-a1-core-count. Request a service limit increase from the service limits page in the console. " } ``` Теперь можно настроить периодический запуск, например ``` EDITOR=nano crontab -e ``` добавьте сюда новую строку (запуск каждую минуту и запись вывода в файл) со значением... ``` * * * * * /usr/bin/php /path/to/oci-arm-host-capacity/index.php > /path/to/script.log ``` ...и сохраните. Возможны случаи, когда пользователю cron не хватает определённых привилегий, простейший способ решить это - поместить код в директорию, доступную веб-серверу, например, /usr/share/nginx/html. И настроить crontab следующим образом ``` * * * * * curl http://server.add.re.ss/oci-arm-host-capacity/index.php ``` Можете посетить URL выше и увидеть тот же вывод, что из запуска команды в консоли. В случае же успеха вывод будет похожим на ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/98e/ac5/866/98eac586619cb1f0e35a86176a7eaffe.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/83d/cdc/fbf/83dcdcfbf734eeaf3900efd433c5f88e.png)Прежде, чем создать экземпляр, скрипт вызовет OCI API [ListInstances](https://docs.oracle.com/en-us/iaas/api/#/en/iaas/20160918/Instance/ListInstances) метод и проверит, есть ли уже в наличии оные такого же типа $shape, и их количество $maxRunningInstancesOfThatShape (можете спокойно поменять переменные, например, если вам нужно два экземпляра VM.Standard.A1.Flex по 2/12 каждый). Назначаем публичный IP адрес ---------------------------- Уже описал ранее в таком же разделе <https://habr.com/ru/post/568368/> Заключение ---------- Вот, как вы будете логиниться в экземпляр после его создания (обратите внимание на имя пользователя - **opc**) ``` ssh -i ~/.ssh/id_rsa opc@ip.add.re.ss ``` Если же вы не назначили внешний (публичный) IP адрес, вы всё равно можете подключиться, используя его внутреннее доменное имя (internal FQDN) или частный (private) IP адрес (10.x.x.x) со страницы Instance Details, если экземпляр находится в той же сети VNIC, например, ``` ssh -i ~/.ssh/id_rsa opc@instance-20210714-xxxx.subnet.vcn.oraclevcn.com ``` Спасибо, что прочли!
https://habr.com/ru/post/568386/
null
ru
null
# Визуальный редактор писем на React+Redux. Обзор, пример использования и расширения Введение -------- Всем привет! Не так давно мне поступила задача встроить визуальный редактор email в наш сервис внутренней рассылки, ибо людям надоело набирать html руками и компоновать валидные шаблоны для писем. Побродив по интернету, я нашёл 2 редактора, которые, как мне тогда казалось, прекрасно подойдут для этих целей. Ссылки на них приведу в конце топика. Изучив их более внимательно (*EmailEditor* написан с использованием *jQuery*, который я в своё время неплохо изучил, а *Mosaico* был на *KnockoutJS*, с ним я знаком лишь поверхностно), я остановился на *EmailEditor*, и снова окунулся в то дерьмо из которого год назад так успешно выбрался с помощью *Angular* и *Ionic*, а именно — файлы по 2-3к строк, повсеместное и рандомное изменение DOM различными способами из различных мест и т.д., ну вы меня понимаете). Потратив больше месяца на попытки пофиксить все баги, запилить нужные нам для рассылки строительные блоки и прочее, я сдался… Решил попробовать *Mosaico* и даже начал активно изучать *Knockout*, но проблема в том, что этот монстр (я про *Mosaico*) был настолько сложно написан, что *EmailEditor* показался не таким уж и плохим. Плюс ко всему, а точнее минус, у Mosaico практически нет вменяемой документации и если в первом я интуитивно понимал как всё работает и как создать свои блоки, то тут никакая интуиция мне не помогла. Возможно, просто не хватило мозга, терпения и желания разбираться, не знаю, просто гляньте на досуге исходники этих редакторов… А сроки поджимали... Что же делать?! --------------- спросил я себя, и сам же себе ответил "Конечно же, изобретать велосипед! С золотой цепью и малиновыми колёсами!". Так получилось, что как раз в этот момент для одного из своих pet-projects мне нужно было приступить к изучению популярного на сегодняшний день *React+Redux* подхода к построению веб приложений. Прочитав про *Redux*, меня осенило! Вот же оно! Состояние приложения в одном месте — это ли не лучший вариант, чтобы строить архитектуру, в которой будет меняться *JSON* представление шаблона письма! И я начал писать… После пары недель бессонных ночей, начальству был презентован прототип и решено попробовать внедрить мой редактор. По репозиторию может быть заметно, что в самом начале мне трудно было определиться со структурой шаблона и принципами работы, но по мере изучения, пробуя разные подходы, решил не усложнять и таки пришёл к тому, что есть сейчас, а именно: * template — шаблон письма с блоками, где каждый блок содержит: + id — идентификатор блока (использую Date.now() и не парюсь); + block\_type — тип блока (далее поясню для чего); + options — стили и свойства для контейнера и элементов блока, в котором: - container — объект который потом напрямую подставляется в style блока, т.е. это CSS стили; - elements — CSS стили для элементов блока и параметры типа source, text (я решил смешать их в кучу); * common — общие CSS настройки для блоков; * components — доступные для добавления блоками; * tabs — настройка видимости вкладок; * tinymce\_config — общая настройка TinyMCE для использующих его блоков; * language — локализация приложения; * templateId — ID шаблона для сохранения\загрузки; Вот и весь store. Обзор работы с редактором ------------------------- C чего бы начать… Здесь и далее я предполагаю что у вас установлены *NodeJS*, npm, и, желательно, *MongoDB*, а также, что у вас есть небольшой опыт работы как с ними, так и с *React+Redux* стеком. Запуск live development простой, поскольку проект пишется с использованием create-react-app. Так что, после того как скопируете репозиторий, просто выполните: > npm install > > npm start в папке проекта и в вашем браузере откроется адрес <http://localhost:3000>, где вы увидите примерно такую картину: **Смотреть**![](https://habrastorage.org/r/w1560/web/991/b47/e7e/991b47e7e43a41f899e576cef8e053f5.png) Из доступных локалей пока поддерживаются только en и ru, загрузка происходит напрямую из *JSON* файла в папке translations и, к сожалению, я пока не написал проверку того, доступна ли пользовательская локаль, чтобы подставить по дефолту, но это мелочи, это потом… Точка входа приложения — index.js в корне *src/*, там задаётся первоначальный store, и диспатчатся три action'а, чтобы загрузить локаль, список блоков и шаблон взятый по ID из вашего хранилища, либо, если ID не указан, — шаблон по умолчанию. Поскольку первоначально происходит запуск без каких-либо параметров, всё будет загружено из локальных файлов, настройка сервера на данном этапе не требуется (но понадобится для методов сохранения\загрузки шаблона, загрузки изображения и отправки тестового письма). Интерфейс до жути простой — слева панель настроек и блоков, по центру — шаблон письма, по бокам от шаблона — кнопки. Блоки можно перетаскивать на шаблон (они добавляются как бы поверх целевого блока, смещая всё вниз), при наведении на целевой блок он меняет цвет. Тут я думаю о том, чтобы реализовать "фантомный блок", как в некоторых других редакторах, но это не приоритетная задача. При клике на блок активируется вкладка, в которой содержатся настройки для выделенного блока, и этот блок подсвечивается, а также появляется кнопка удаления блока, что видно на скриншоте: **Смотреть**![](https://habrastorage.org/r/w1560/web/cd2/765/f7e/cd2765f7ee754197925d25f4dbd0ac97.png) Ну а если выбрать вкладку общих настроек, вы увидите набор настроек, которые будут применяться ко всем блокам, кроме тех, у которых стоит флаг Custom style. Также там есть возможность задать фон контейнера шаблона: **Смотреть**![](https://habrastorage.org/r/w1560/web/837/8db/a10/8378dba1062644deae06e365f6eee08a.png) Клики на кнопках позволяют сохранить шаблон (вас попросят задать имя шаблона, но это легко выпиливается), отправить тестовое письмо и удалить блок (в планах также реализовать Undo\Redo функционал, сейчас читаю об этом) Вы также можете запустить и поиграться с NodeJS сервером (он в папке server\_nodejs), предварительно скопировав туда папку build которая появится если вы сделаете *npm run build* в основной папке проекта (не забудьте выполнить *npm install* в обеих папках!). Что умеет сервер: сохраняет\выдаёт шаблон(?id=ваш\_id) и загружает изображения, а также говорит 'OK' при отправке тестового письма =). Думаю, разобраться не составит труда, структура проекта довольно простая, я вообще не люблю усложнять… Точка входа — *app.js*, в папке *app* есть *Controller* — там всё поведение, *Router* — прописаны пути и связаны с контроллером, и *TemplateModel* — ORM для шаблона. Немного внутренностей --------------------- В папке *src/components* есть подпапки *blocks* и *options* в которых лежат шаблоны блоков и настроек этих блоков. **Пример блока с hr** ``` import React from 'react'; const BlockHr = ({ blockOptions }) => { return ( | | | --- | | --- | ); }; export default BlockHr; ``` **Пример настройки блока с hr** ``` import React from 'react'; const OptionsHr = ({ block, language, onPropChange }) => { return ( {language["Custom style"]}: onPropChange('customStyle', !block.options.container.customStyle, true)} /> --- {language["Height"]}: onPropChange('height', e.target.value, true)} /> {language["Background"]}: onPropChange('backgroundColor', e.target.value, true)} /> ); }; export default OptionsHr; ``` также в папке *src/components* есть файл *Block.js*, в котором подключены все блоки из *blocks* и *switch...case*, в котором по *block\_type* (который я упоминал выше) определяется какой вариант блока будет возвращён. Такой же принцип и в файле *Options.js* для настроек. И вот от этой архитектуры мне хотелось бы уйти как можно скорее (может у кого-то есть мысли в какую сторону осуществить переход?). В файле *BlockList.js* содержится шаблон письма, в котором видно, как всё устроено — в цикле строятся *tr>td* элементы, и *td* в данном случае является контейнером внутри которого уже размещается блок с элементами. Тут же подхватываются и настройки контейнера (стили из block.options.container), а также реализована *DnD* логика. В настройке тоже всё достаточно прозрачно, на инпуты навешаны обработчики *onChange*, внутри которых вызывается *onPropChange*(prop, value, container?, element\_index) с параметрами ('свойство для изменения, например, color', новое значение свойства, элемент для изменения (контейнер — true, элемент — false), индекс элемента). В принципе это основная идея и больше рассказывать нечего =). На mindmap'е я постарался схематично изобразить работу этого конвейера: **Смотреть**![](https://habrastorage.org/r/w1560/web/994/9a1/fe7/9949a1fe72d6446199fbbb860e35b175.png) P.S. В репозитории две ветки — *master* и *react\_email\_editor\_wordpress*. В принципе особых отличий нет, различия в файлах *sagas/api.js* (у WP свой подход к AJAX), блоках типа feedback и social (там пути к картинкам другие… WP жеж). Редактор у нас интегрирован в WP и на данный момент тестируется. Так как же сделать свой блок? ----------------------------- Очень просто! Ну мне так кажется, потому что я с этим работал плотно и каждодневно… Начну с выбора типа блока. Бродя по интернету, я наткнулся на один симпатичный шаблон: **Смотреть**![](https://habrastorage.org/r/w780q1/web/7a8/56a/b5f/7a856ab5f55a4251abc348bfc348ddc9.jpg) Мне понравился блок с тремя пиктограммами WEBSITES, SERVICES, SEO. Что-ж, попробую рассказать как же реализовать такой блок. Для начала давайте определимся с составом блока. Я вижу тут 6 элементов: 3 картинки и 3 текстовых элемента, ну а вы можете впоследствии запрограммировать своё видение этого блока. Поскольку я старался сделать как можно более гибкую настройку, вы вольны придумать практически любую компоновку (например 3 элемента картинка-текст), и это будет вполне реально осуществить. Довольно слов, go кодить! Откройте файл *public/components.json* и добавьте следующий JSON: **Блок 3 иконки** ``` ...тут предыдущие блоки... { "preview": "images/3_icons.png", "block": { "block_type": "3_icons", "options": { "container": { "padding": "0 50px", "color": "#333333", "fontSize": "20px", "customStyle": false, "backgroundColor": "#F7F8FA" }, "elements": [{ "source": "https://images.vexels.com/media/users/3/136010/isolated/preview/e7e28c15388e5196611aa2d7b7056165-ghost-skull-circle-icon-by-vexels.png" }, { "source": "http://www.1pengguna.com/1pengguna/uploads/images/tipimgdemo/kesihatan.gif" }, { "source": "https://upload.wikimedia.org/wikipedia/commons/thumb/5/56/Circle-icons-cloud.svg/2000px-Circle-icons-cloud.svg.png" }, { "text": "DEADS", "textAlign": "center" }, { "text": "LOVES", "textAlign": "center" }, { "text": "CLOUDS", "textAlign": "center" }] } } }, ...тут следующие блоки... ``` Таким образом, мы определили блок типа *3\_icons* с превью *images/3\_icons.png*, контейнером и шестью элементами. У них уже есть какая-то базовая настройка стилей, чтобы при добавлении смотрелось более-менее прилично. Ок, далее открываем GIMP (если установлен) и в нём открываем файл *preview\_template.xcf*, который лежит в корне проекта. Эту заготовку я сделал для того, чтобы клепать превью блоков. Путём нехитрых манипуляций (Cut\Paste\Colorize) из исходного изображения шаблона получим превью для будущего блока: ![](https://habrastorage.org/r/w1560/web/5cd/0f5/c4d/5cd0f5c4d4ae434d9810aeeb0cccb918.png) Сохраните его в папку *src/images* (или *public/images*, а лучше в оба места) и обновите страницу с редактором. Вы увидите, что новый блок добавился на позицию, на которой вы его вставили в *components.json* **У меня он, например, воткнут после HEADER**![](https://habrastorage.org/r/w1560/web/ea0/530/a94/ea0530a942144bc1a214ece366b08e5e.png) Теперь создадим шаблон блока. Добавьте новый файл *Block3Icons.js* в папку *src/components/blocks*: **Block3Icons.js** ``` import React from 'react'; const Block3Icons = ({ blockOptions, onPropChange }) => { const alt="cool image"; return ( | | | | | --- | --- | --- | | [{alt}]({blockOptions.elements[0].source}) | [{alt}]({blockOptions.elements[1].source}) | [{alt}]({blockOptions.elements[2].source}) | | {blockOptions.elements[3].text} | {blockOptions.elements[4].text} | {blockOptions.elements[5].text} | ); }; export default Block3Icons; ``` Как видно, блок простейший — 2 строки 3 столбца. Из настроек для элементов я пока сделал доступными только *source* для элементов изображений и *text* для текстовых элементов, стили контейнера применяются в файле *BlockList.js*, о котором я упоминал выше по тексту. Пора создать настройку блока. Добавьте новый файл *Options3Icons.js* в папке *src/components/options*: **Options3Icons.js** ``` import React from 'react'; const Options3Icons = ({ block, language, onFileChange, onPropChange }) => { let textIndex = 3; let imageIndex = 0; return ( {language["Custom style"]}: onPropChange('customStyle', !block.options.container.customStyle, true)} /> --- {language["Color"]}: onPropChange('color', e.target.value, true)} /> {language["Background"]}: onPropChange('backgroundColor', e.target.value, true)} /> --- {language["URL"]} imageIndex = +e.target.value}> {language["URL"]} 1 {language["URL"]} 2 {language["URL"]} 3 {language["URL"]} {imageIndex + 1}: { onFileChange(block, +imageIndex, e.target.files[0]); }} /> ⊕ onPropChange('source', e.target.value, false, +imageIndex)} /> --- {language["Text"]} textIndex = +e.target.value}> {language["Text"]} 1 {language["Text"]} 2 {language["Text"]} 3 {language["Text"]} {textIndex - 2} onPropChange('text', e.target.value, false, +textIndex)} /> ); }; export default Options3Icons; ``` Отлично! Почти готово! Надеюсь, в том, что мы тут уже создали, вы хоть немного ориентируетесь? В блоке всё тупо (потому что он *dumb component*, т.е. рендерится только на основе своих props). В настройках каждому элементу ввода (checkbox, input, etc...) сопоставлен обработчик, в котором вызывается *onPropChange* для свойств (про это я тоже упоминал выше). На основе этих свойств блок динамически отрисовывается заново. Всё просто. Давайте теперь применим результаты трудов и посмотрим, наконец, работает ли это всё вообще =). Для этого надо добавить в файл *src/components/Block.js* импорт нового блока и условие для его возвращения: ``` //...тут другие import'ы... import Block3Icons from './blocks/Block3Icons'; //...тут тоже... //...тут другие case'ы... case '3_icons': return ; //...и тут тоже... ``` Почти то же самое проделайте в файле *src/containers/Options.js* ``` //...тут другие import'ы... import Options3Icons from '../components/options/Options3Icons'; //...тут тоже... //...тут другие case'ы... case '3_icons': return ; //...и тут тоже... ``` Теперь сохраняем все файлы, и, если вы ранее запускали *npm start* в корне проекта, у вас должно всё скомпилироваться без ошибок. Перетащите ваш новый блок на шаблон, выделите его и поиграйтесь с его настройками. Вот пример, как это выглядит у меня: **Посмотреть**![](https://habrastorage.org/r/w1560/web/6dd/efe/520/6ddefe520c7f49b8be2fad710eec2002.png) Итого ----- Я старался сделать редактор как можно более простым в использовании и достаточно удобным в плане интерфейса, а вышло ли у меня это или нет — решать конечно же вам. На мой взгляд получился редактор с низким порогом входа в плане внедрения и расширения компонентной базы в противовес *Mosaico*. Также у него гораздо более прозрачная (опять же по сравнению с *Mosaico*) и менее забагованная (по сравнению с *EmailEditor'ом*) реализация, которая легко настраивается, расширяется и переписывается под свои нужды буквально за часы (реже — дни). В планах продолжить вести работу над следующими пунктами: * стили для responsive template; * внедрение Undo\Redo функционала; * сделать симпатичный дизайн (сам не могу, потребуется помощь...); * обособить TinyMCE чтобы не впиливать его в блоки с текст элементами; * использовать что-то типа styled-components для интерфейса редактора; * доработка NodeJS сервера. Сделаю перенос локалей и прочего из файлов в БД; * перенос блоков и настроек из проекта в хранилище, избавление от switch...case; * возможно сделаю что-то типа превью шаблона (но только после responsive); * возможно сделаю "Показать исходный код" для serverless выгрузки шаблона; * возможно сделаю упомянутый в статье "фантомный блок"; * активная работа с issues и proposals конечно же =); * что-то ещё, если вспомню, допишу… да и вы пишите Буду рад помощи, советам, критике, любому фидбеку. На основе этого решу продолжать ли заниматься проектом =). На этом пока всё… Спасибо за внимание! В дальнейшем буду писать только об очень крупных изменениях, если, конечно, проект окажется кому-нибудь полезен. Обещанные ссылки ---------------- * (Good) [Mosaico на KnockoutJS](https://mosaico.io/) * (Bad) [EmailEditor на jQuery](http://emaileditor.net/) * (Ugly) [Мой](https://github.com/m0sk1t/react_email_editor)
https://habr.com/ru/post/329488/
null
ru
null
# Краткий обзор новых возможностей JPA-RS в EclipseLink EclipseLink — это ORM фрэймворк с открытым исходным кодом, разрабатываемый Eclipse Foundation. В конце года запланирован выход версии 2.6.0. проекта. В преддверии этого, я хочу ознакомить вас с некоторыми новыми возможностями службы JPA-RS, которая является частью EclipseLink. JPA-RS позволяет автоматически генерировать RESTful сервисы на базе предоставленной пользователем JPA модели. При этом практически никакой дополнительной работы от пользователя не требуется. Версия сервиса в URL -------------------- От версии к версии возможно изменение семантики протокола передачи данных. JSON-cхема ресурсов в версии 2.0 сервиса отличается от JSON-схемы, используемой в предыдущей версии. Для обеспечения совместимости JPA-RS умеет возвращать данные используя старые форматы. Для этого версия протокола вынесена в URL. Базовый URL выглядит так: ``` http(s)://{server:port}/{app}/persistence/{version}/{persistent-unit}/... ``` Где: * **server:port** — адрес и порт сервера. * **app** — имя вашего приложения (context root). * **persistence** — Точка входа в JPA-RS приложение. Константа. * **version** — Не обязательный. Версия JPA-RS. На данный момент поддерживаются значения «v1.0» (предыдущая версия), «v2.0» (новая версия) и «latest» (последняя версия). * **persistent-unit** — Имя persistent unit как указано в persistence.xml. Версия сервиса может быть пропущена, в этом случае используется значение «v1.0». Примеры: Запрос объекта Car с примарным ключом 1 из персистент юнита car-pu используя семантику протокола версии 1.0: ``` http(s)://localhost:8080/jpars-test/persistence/car-pu/entity/Car/1 ``` Тоже самое: ``` http(s)://localhost:8080/jpars-test/persistence/v1.0/car-pu/entity/Car/1 ``` Запрос тех же данных, но используя семантику сервиса версии 2.0: ``` http(s)://localhost:8080/jpars-test/persistence/v2.0/car-pu/entity/Car/1 ``` Так как последняя версия на данный момент 2.0, то следующий запрос вернет тоже самое, что и предыдущий: ``` http(s)://localhost:8080/jpars-test/persistence/latest/car-pu/entity/Car/1 ``` Далее, исключительно для читабельности, я обозначу *http(s)://localhost:8080/jpars-test/persistence/v2.0* как *{root}*. Постраничный вывод ------------------ JPARS позволяет разделять на страницы длинные списки и возвращать только выбранную пользователем страницу. Это работает для запросов (Named Query) и для полей типа Collection. Постраничный вывод — это единственная функция JPA-RS, требующая конфигурации. Это делается с помощью аннотаций. Рассмотрим следующий пример: ``` @Entity @Table(name = "CAR") @NamedQueries({ @NamedQuery( name = "Car.findAll", query = "SELECT c FROM Car c ORDER BY c.name"), @NamedQuery( name = "Car.findAllPageable", query = "SELECT c FROM Car c ORDER BY c.name"), }) @RestPageableQueries({ @RestPageableQuery(queryName = "Car.findAllPageable", limit = 20) }) public class Car { @Id @Column(name = "CAR_ID") private Integer id; @Column(name = "CAR_NAME") private String name; @Column(name = "CAR_SHORT_DESCR") private String shortDescr; @Column(name = "CAR_LONG_DESCR") private String longDescr; // Getters and setters are skipped } ``` Это стандартный entity класс c двумя JPARS аннотациями. ``` @RestPageableQueries({ @RestPageableQuery(queryName = "Car.findAllPageable", limit = 20) }) ``` Этот кусок кода говорит, что запрос *Car.findAllPageable* должен выдаваться через RESTful сервис постранично с размером страницы — 20 записей. Для конфигурации постраничного вывода при вызове используются два параметра: * **limit** — размер страницы. Не может быть выше значения limit указанного в аннотации *@RestPageableQuery*. Оно же является значением по умолчанию. * **offset** — смещение от начала списка. Порядковый номер первой возвращаемой записи. Значение по умолчению — 0. К примеру, следующие запросы аналогичны: ``` GET /query/Car.findAllPageable GET /query/Car.findAllPageable?limit=20&offset=0 ``` и вернут следующий JSON: ``` { "items": [ { "id": 1, "name": "Mazda MX-5", ... }, ... <еще 19 записей> ... ], "hasMore": true, "limit": 20, "offset": 0, "count": 20, "links": [ { "rel": "self", "href": "{root}/query/Car.findAllPageable" } { "rel": "canonical", "href": "{root}/query/Car.findAllPageable" } { "rel": "next", "href": "{root}/query/Car.findAllPageable?offset=20" } ] } ``` Ответ сервера также содержит дополнительную информацию: * **hasMore** — true если данная страница не является последней. * **limit** — размер страницы используемый сервером. * **offset** — используемое смещение. * **count** — количество записей на странице. * **ссылка next** — URL следующей страницы (если доступна) * **ссылка prev** — URL предыдущей страницы (если доступна) Вторая страница: ``` {root}/query/Car.findAllPageable?offset=20 ``` или ``` {root]/query/Car.findAllPageable?limit=20&offset=20 ``` Третья страница размером 10 записей: ``` {root}/query/Car.findAllPageable?limit=10&offset=20 ``` 7 записей начиная с третей: ``` {root}/query/Car.findAllPageable?limit=7&offset=3 ``` Сервер всегда использует минимальный limit из укзанного в запросе и используемного в аннотиции. То есть ``` {root}/query/Car.findAllPageable?limit=100 ``` вернет только 20 записей. При этом значение limit в ответе сервера будет 20, как в примере выше. Фильтрация полей ---------------- При запросе данных иногда бывает нужно вернуть не всю запись, а только некоторые поля. К примеру, поле longDescr класса Car содержит текст внушительного размера, который мы не хотим передавать по сети. Именно для этого служит фильтрация полей. Фильтрация конфигурируется двумя параметрами: * **fields** — список полей, возвращаемых сервером. Поля разделяются запятыми. * **excludeFields** — список полей, которые не возвращаются сервером. К примеру: ``` GET {root}/entity/Car/1?fields=id,name,shortDescr ``` Вернет только поля *id*, *name* и *shortDescr* класса Car: ``` { "id": 1, "name": "Mazda MX-5", "shortDescr": "двухместный родстер", ... } ``` Тоже самое вернет и следующий запрос: ``` GET {root}/entity/Car/1?excludeFields=longDescr ``` При попытке использовать оба параметра fields и excludeFields в одном запросе, сервер вернет ошибку. Метаданные ---------- Метаданные содержат дополнительную информацию о ресурсе. В нашем случае это ссылка на JSON схему ресурса и базовый URL. К примеру, метаданные для нашего класса Car выглядят так: ``` { "name": "Car", "links": [ { "rel": "alternate", "href": "/metadata-catalog/entity/Car", "mediaType": "application/schema+json" }, { "rel": "canonical", "href": "/metadata-catalog/entity/Car", "mediaType": "application/json" }, { "rel": "describes", "href": "{root}/entity/Car" } ] } ``` Получить метаданные для класса Car можно вот так: ``` {root}/metadata-catalog/entity/Car ``` Для запроса Car.findAll так: ``` {root}/metadata-catalog/query/Car.findAll ``` Еще один способ получения метаданных — вызов OPTIONS метода на базовый URL ресурса. ``` OPTIONS /entity/Basket ``` Сервер вернет ссылку на метаданные в заголовке Link c rel=«describedby» ``` Link: ; rel="describedby" ``` Каталог ресурсов ---------------- Каталог ресурсов, как оглавление книги, содержит метаданные для всех доступных ресурсов. Это правильное место начала работы с незнакомой службой. Здесь всегда можно посмотреть доступные объкты и запросы. Каталог ресурсов доступен по следующему адресу: ``` GET /metadata-catalog ``` Ответ сервера: ``` { "items": [ { "name": "Car", ... }, { "name": "Car.findAll", ... }, { "name": "Car.findAllPageable", ... } ], "links": [ { "rel": "canonical", "href": "/metadata-catalog" } ] } ``` Я урезал ответ сервера исключительно для читабельности. Медаданные для всех ресурсов выглядят также как указано в начале главы. JSON-схема ресурсов ------------------- Хотя [JSON схема](http://json-schema.org) пока не является утвержденным стандартом и работы над спецификацией еще не закончены, JPS-RS уже частично поддерживает draft 4 спецификации. Это касается формата вывода объектов и списка объектов. URL метаданных ресурса можно использовать и для получения его (ресурса) JSON схемы. Для этого выполняем HTTP GET запрос используя тип медиа «application/schema+json». То есть установив в HTTP заголовке «accept» значение «application/schema+json». Получение схемы для класса Car: ``` GET /metadata-catalog/entity/Car HTTP/1.1 Accept-Encoding: gzip,deflate accept: application/schema+json Host: Proxy-Connection: Keep-Alive User-Agent: Apache-HttpClient/4.1.1 (java 1.5) ``` Ответ сервера: ``` { "$schema": "/metadata-catalog/entity/Car#", "allOf": [ { "$ref": "rest-schemas/#/singularResource" } ], "title": "Car", "properties": { "id": { "type": "number" }, "name": { "type": "string" }, "shortDescr": { "type": "string" }, "longDescr": { "type": "string" }, }, "links": [ { "rel": "describedby", "href": "/entity/Car" }, { "rel": "find", "href": "{root}/entity/Car/{primaryKey}", "method": "GET" }, { "rel": "create", "href": "{root}/entity/Car", "method": "PUT" }, { "rel": "update", "href": "{root}/entity/Car", "method": "POST" }, { "rel": "delete", "href": "{root}/entity/Car/{primaryKey}", "method": "DELETE" } ] } ``` На этом все. Надеюсь, вам понравился обзор. Nightly builds EclipseLink можно скачать здесь: [www.eclipse.org/eclipselink/downloads/nightly.php](http://www.eclipse.org/eclipselink/downloads/nightly.php)
https://habr.com/ru/post/240769/
null
ru
null
# Про перевод «начал» и «начинаний» без begin, start и first Если в переводном тексте кто-то что-то где-то **начинает** — то у меня сразу всплывают три дежурных варианта: **begin/beginning**, **start/starting**, **first/firstly**. Судя по тому, что я вижу в присылаемых мне на проверку переводах, эта бедность речи наблюдается не только у меня. Зато у наших американских переводчиков я такого не наблюдаю — тут тебе и синонимы красивые, или вообще без всяких **begin/start** дело обходится. Я подумал, что пришло время устранить этот пробел в знаниях, делюсь наиболее интересными находками. Самые экзотические варианты *(напр. ignite)* сюда впихивать не стал, вроде и без них есть из чего выбрать *(но если в будущем экзотика тоже интересует, напишите в комментах)*. Поехали. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/882/ebd/8d9/882ebd8d9072fddaf63c03cd95d3fe4f.jpg) Слова-синонимы -------------- ### Через последовательность действий > Я принял все предложения без споров и оправданий и **начал** действовать. > > I *accepted* their advice without arguing or defending *and acted* on it. > > > > Мы вывели всю эту информацию на экран и **начали** все вместе ее изучать. > > So we *put* all this data onto the screen *and stared* hard at it together. > > > > При налаживании механизма **сначала в ход идут технические детали (план)**, а затем конкретные люди, потому что… > > When building a “machine,” *design precedes people* because… > > > > Как только программист понимает, что принципы программирования не зависят от синтаксиса конкретного языка, он **начинает** приобретать знания, позволяющие достичь новых высот качества и производительности труда. > > *Once* a programmer *realizes* that programming principles transcend the syntax of any specific language, the doors *swing open* to knowledge that truly makes a difference in quality and productivity. #### последовательность + before > Так что **сначала** нанимайте руководителей, а затем подчиненных. > > … make sure you *hire* managers *before* you *hire* their reports. > > > > Подход эволюционного прототипирования (evolutionary prototyping) помогает исследовать требования к системе до **начала** ее создания. > > An evolutionary prototyping approach *helps* you explore a system's requirements *before you send* your forces in to build it. > > > > Запишите, что произошло, и только потом **начинайте** действовать. > > *Record* exactly what has happened *before* you *do* anything. #### последовательность + then > Рассмотрите **сначала** каждый элемент в отдельности, а затем то, как они взаимодействуют друг с другом. > > *Consider* each element *separately and then* *all* of them together as a whole. > > > > Клиент посылает запрос серверу через сеть и **начинает** ожидать ответ. > > The client *process then waits* for a reply message. ### initial > Как правило, **сначала** этот подход вызывает дискомфорт. > > Most people **initially** find this process very uncomfortable. > > > > … **изначально** большинству людей сложно научиться объективно взаимодействовать с суровой реальностью. > > ...it is **initially** very difficult for most people to deal with uncomfortable realities. > > > > Это была весьма позитивная **изначальная** оценка. > > It was a very positive **initial** evaluation. ### original > Давайте теперь еще раз попробуем ответить на наш **изначальный** вопрос: как нам стоит определять «игру»? > > Let’s try again to answer our **original** question: How should we define “game”? > > > > Слово «телевизор» образовано от греческого корня tele, что означает «далеко», и латинского visio – «вижу». **Изначально** это было устройство, которое позволяло нам видеть издалека. > > The word television comes from Greek ‘tele’, which means ‘far’, and Latin ‘visio’, sight. It was **originally** conceived as a device that allows us to see from afar. > > > > **Изначально** дизайнеры намеревались сделать эту игру максимально похожей на настоящий бейсбол и даже добавили возможность взмахивать контроллером, словно битой. > > **Originally**, the designers had intended to make it as much like real baseball as possible with the added bonus that you could swing your controller like a bat. ### early > Большинство населения Земли никогда не жило в условиях такого мира и процветания, как в либеральную эпоху **начала** XXI века. > > Most humans never enjoyed greater peace or prosperity than they did under the aegis of the liberal order of the **early** twenty-first century. > > > > В **начале** 1990-х,… политики провозгласили «конец истории»… > > By the **early** 1990s,… politicians alike hailed ‘the End of History’… > > > > К **началу** 2018 года автоматизация уже изменила многие отрасли промышленности > > At the time of writing – **early** 2018 – automation has disrupted many industries but it has not resulted in massive unemployment. ### embark on *(что-то важное и значимое)* > … вы могли бы **начать** успешную карьеру в качестве пекаря. > > ...you could **embark on** a successful career as a baker. > > > > Он также убедил администрацию колледжа, что нужно **начать** строительство… > > He also persuaded the college authorities that they ought to **embark on** construction… > > > > Недавно Россия и США вновь **начали** гонку ядерных вооружений… > > Russia and the USA have recently **embarked on** a new nuclear arms race… > > > > В 1979 году, когда Ллойд Уэббер разорвал свои связи с Тимом Райсом и..., чтобы **начать** свой первый сольный проект, Cats… > > In 1979, when Lloyd Webber severed his links with both Tim Rice and ..., to **embark on** his first solo venture, Cats,... ### open > Иногда я **начинаю** свои семинары с вопроса… > > Sometimes, I **open** a seminar by asking… > > > > Ролик **начинается** с того, что маленькая девочка обрывает лепестки ромашки, считая их по порядку. > > The advertisement **opens** with a little girl picking and counting the petals of a daisy. ### shall/will > Вы **начнете** говорить о чередовании посевов C++ и о том, что было бы неплохо оставить систему под паром для повышения концентрации азота на жестком диске. > > You**'ll** talk about rotating in a crop of C++ instead of barley, of letting the land rest for a year to increase the supply of nitrogen in the hard disk. > > > > Однако если интерфейсы будут слишком жестко ограничены, то люди **начнут** искать пути обхода;… > > However, if the interfaces are too restrictive people **will** work around them... ### from > **Начиная** с сегодняшнего дня вы будете жить и работать исключительно с теми людьми, которые вам нравятся и с которыми приятно общаться. > > **From** now **on**, you are going to live and work only with people you like and enjoy. > > > > Выполнять тщательное тестирование на всех уровнях, **начиная** с модульных тестов… > > Test thoroughly at all levels, **from** unit tests… > > > > **Начиная с** раннего детства вы пережили ряд моментов, которые и сформировали вашу личность. > > In addition, **from** infancy **onward**, you have had a complex series of experiences that have shaped you into the person you are today. ### Прочие > Однако в реальных проектах нашего несовершенного мира разработчики часто пропускают этапы выработки требований и проектирования, **начиная** прямо с конструирования программы. > > Imperfect, real-world projects, however, often skip requirements and design **to jump into** construction. > > > > Во втором *[т.е. в случае объектно-ориентированного проектирования]* оно *[сокрытие информации]* **дает начало** концепциям инкапсуляции и модульности и связано с концепцией абстракции. > > In object-oriented design, it **gives rise** to the concepts of encapsulation and modularity and it is associated with the concept of abstraction. > > > > Гонка за данными уже **началась**, и в ней лидируют такие цифровые гиганты, как Google, Facebook, Baidu и Tencent. > > The race to obtain the data **is** already **on**, headed by data-giants such as Google, Facebook, Baidu and Tencent. > > > > Значит, геймдизайнер решает, какой будет игра, записывает эти решения и **начинает** следующий проект? > > So the game designer makes decisions about what the game should be, writes them down, and **moves on**? > > > > Прежде чем **начать** что-то делать, вы непременно должны решить, для чего вы это делаете и какова конечная цель. > > Before you **set off** on the great adventure of life, you have to decide where you want to end up. > > > > Вот тут-то и **начинает** действовать дарвиновский отбор. > > This is where Darwinian selection **comes in**. > > > > Жуткий эксперимент уже **начался**. > > This terrifying experiment has already been **set in motion**. > > > > Вот почему, желая разобраться, как работает компьютер, мы **для начала** предпочтем объяснение, в котором участвует где-то с полдюжины главных подкомпонентов… > > This is why, if we want to understand the workings of computers, we prefer a **preliminary** explanation in terms of about half a dozen major subcomponents… > > > > Этот человек и сам не подозревал, до какой степени был истощен, но, **начав** спать по восемь часов в сутки, почувствовал, что заряжается энергией. > > He had no idea how tired he had become. But **as** he slept eight to nine hours each night, he had more and more energy. > > > > Революции в ИТ и биотехнологиях только **начинаются**… > > The revolutions in information technology and biotechnology are still **in their infancy**… > > > > … его *[сотрудника]* карьерный путь не планируется **изначально**. > > … one’s… career paths are not planned **at the outset**. Фразы-синонимы -------------- ### end up +… ing > Как видите, в итоге все подсистемы **начинают** напрямую **взаимодействовать**. > > As you can see, every subsystem **ends up communicating** directly with every other subsystem. > > > > Очень часто, когда участники группы согласны в главном, они **начинают спорить** по мелочам… > > Almost every group that agrees on the big things **ends up fighting** about less important things... ### Прочие > Когда я **начал подумывать** об этой книге… > > … when I **conceived** this book… > > > > … **начинается этап**, когда привычный образ действий будет изменен. > > … **entering a time** when the typical way of operating would be suspended. > > > > С увеличением размера проекта все больше на производительность **начинают влиять** численность команды и организация. > > As project size increases, team size and organization **become greater influences** on productivity > > > > В 2006 году компания Apple объявила о **начале выпуска** новой модели iPhone. > > In 2006, Apple announced the **release** of their new iPhone. > > > > … если бы мы не **начали** войну с террором… > > … if we hadn’t **launched** the War on Terror… > > > > Такую схему недавно **начали внедрять** в Скандинавских странах, где власти следуют принципу «защищать работников, а не профессии». > > This kind of scheme **is** currently **being pioneered** in Scandinavia, where governments follow the motto ‘protect workers, not jobs’. > > > > Хорошие геймдизайнеры могут добиться успеха даже при плохом менеджменте, тайно «управляя всем изнутри», доводя **начатое** до конца. > > Good designers can succeed even when management is bad, secretly “managing from below” to get the **job** done. > > > > … некоторые демократические страны, **начиная с** США и заканчивая моей родиной, Израилем. > > … a number of democratic countries, **ranging from** the USA to my home country of Israel. > > > > Практикуйте прием под названием **«начать все сначала»**. > > Practice **reinvention**. Трансформация. Пропуск ---------------------- > Давайте изучим табл. 3-3, в которой приведены данные о проектах, **в начале** которых не были выполнены предварительные условия. > > Consider the examples shown in Table 3-3 of projects that don't focus on prerequisites. > > > > В этот момент модуль `LookupVacationBenefit()` **начинает** вести себя гораздо менее дружелюбно, не желая связываться с новым модулем. > > Suddenly `LookupVacationBenefit()` looks less friendly, unwilling to associate with the new module. > > > > … программисты, чрезмерно поглощенные микрооптимизацией, **начинают** упускать из виду по-настоящему важные глобальные виды оптимизации. > > … programmers ignore significant global optimizations because they're too busy with micro-optimizations > > > > … а остальные сотрудники **начали** бы скрывать свои ошибки… > > … and it would have only encouraged other employees to hide their mistakes… > > > > Если вы сомневаетесь в компетентности кого-то из сотрудников, **сначала** проясните это. > > If you’re in doubt about someone’s believability, find out. > > > > Вот тут **начинается** самое интересное. > > Here’s the interesting part. --- Надеюсь, было полезно и интересно. *Подборку составили:* 1. *[Квасникова Ирина](http://vk.com/kvasniri) (Steve McConnell — Code Complete)* 2. *[Шалапанова Анастасия](https://vk.com/shalapanova_a) (Jess Shell — Art of Game Design)* 3. *[Смирнова Юлия](https://vk.com/id325858284) (Martin Kleppmann — Designing Data-Intensive Applications)* 4. *[Муржа Ольга](https://vk.com/olga_murzha) (Yuval Noah Harari — 21 lessons for the 21 century; Brian Tracey — Time Management)* 5. *[Бартов Евгений](https://t.me/alliancepro) (Ray Dalio — Principles)*
https://habr.com/ru/post/501880/
null
ru
null
# Шустрый, удобный и кроссплатформенный профилировщик C++ кода Всем привет. Несколько месяцев назад мы вместе с [victorzs](https://habrahabr.ru/users/victorzs/) решили сделать простой и удобный профилировщик *c++* кода (подразумевается *профилирование времени исполнения* участков кода, функций). [![](https://habrastorage.org/r/w1560/files/8d6/417/52b/8d641752b19246c19d96eb559ee63d05.png)](https://habrahabr.ru/post/318142/) *Скриншот профилирования примера из SDK CryEngine* Существующие решения нам не подходили по ряду причин. Нам нужен был качественный профайлер, умеющий делать следующее: * Профилировать выбранные участки кода * Работать на нескольких платформах * Учитывать переключение контекста * Требовать минимальных дополнительных затрат памяти во время профилирования * Не накладывать дополнительных временных ограничений во время выполнения приложения. Согласитесь, если профилировщик будет работать дольше, чем профилиуремый кусочек кода, то можно сделать некорректные выводы. В результате тщательной проработки появился на свет [профайлер](https://github.com/yse/easy_profiler), умеющий делать всё вышеперечисленное, и даже больше! Если вы хотите знать, сколько времени работает ваш код, и иметь при этом объективные доказательства — прошу под кат, где я покажу, как использовать профилировщик. #### Интегрирование в код 1. Качаем и распаковываем свежий релиз отсюда: <https://github.com/yse/easy_profiler/releases> 2. Если вы испольузете `CMake` для сборки, то * Определите переменную `CMAKE_PREFIX_PATH`, которая указывает на директорию `/cmake/easy\_profiler` из релиза * Используйте `find_package(easy_profiler REQUIRED)` и `target_link_libraries(... easy_profiler)` В ином случае: * Прописываем компилятору директорию для поиска заголовочных файлов: `/include` * Прописываем компоновщику директорию для поиска библиотек: `/bin` 3. Добавляем *definition* компилятору: `BUILD_WITH_EASY_PROFILER` 4. Добавляем блоки в те места кода, которые хотим замерить. Например: ``` #include void foo() { EASY\_FUNCTION(profiler::colors::Magenta);// Начать блок с именем, совпадающим с именем функции EASY\_BLOCK("Calculating sum");// Блок с цветом по умолчанию int sum = 0; for (int i = 0; i < 10; ++i) { EASY\_BLOCK("Addition", profiler::colors::Red);// Блок будет закончен при выходе из области видимости sum += i; } EASY\_END\_BLOCK; // Закончить блок (в данном случае блок с именем "Calculating sum" EASY\_BLOCK("Calculating multiplication", profiler::colors::Blue500); int mul = 1; for (int i = 1; i < 11; ++i) mul \*= i; //на выходе из функции автоматически будут закрыты все открытые и незавершённые в этой функции блоки. В данном примере, автоматически закроются блоки с именами "Calculating multiplication" и "foo" } ``` 5. Не забываем положить рядом с собранным приложением библиотеку *easy\_profiler* (*\*.dll* или *\*.so*). Или прописываем в системную переменную `PATH` (в линуксе достаточно в `LD_LIBRARY_PATH`) директорию `/bin` Добавленные блоки в режиме сбора статистики занимают минимально возможное время (как мы этого добились — в дальнейших статьях о технической реализации). На машине с процессором *Core i7-5930K 3.5GHz, 16 Gb RAM, Win7 Pro* в приложении с 12 потоками средняя «стоимость» одного блока — порядка 10-15 наносекунд! Подобный результат достигнут и на *Fedora 22* . Вот график замеров (по оси x — количество блоков, по y — наносекунд на блок): ![](https://habrastorage.org/r/w1560/files/3e4/afe/8b7/3e4afe8b77ac4ad3a6f8c805be4b7f13.png) Кроме того, видно, что зависимость линейная — количество блоков не влияет на временную характеристику. #### Профилирование Получение и анализ результатов происходит в программе с незамысловатым названием *profiler\_gui* (в директории *bin*). Инициализация профилировщика возможна двумя способами: 1. Подключением по сокету приложением *profiler\_gui*. Для этого необходимо инициализировать прослушивание сокета в *профилируемом* приложении. Это делается просто: ``` profiler::startListen(); ``` Данная функция запускает поток, который слушает по порту `28077` (порт можно поменять параметром в функции `profiler::startListen(portNumber)`) команды управления. Остановить прослушивание можно вызовом функции (хотя это совсем не обязательно): ``` profiler::stopListen(); ``` Сбор блоков начинается после коннекта *profiler\_gui* к профилируемому приложению и нажатия на кнопку *«Capture»* на тул-баре. После остановки профилирования (нажать на *«Stop»*) собранная информация передается через сокет из профилируемого приложения в profiler\_gui и сразу же сохраняется на диск в файл *easy\_profiler.cache*. Можно также сохранить всю информацию в отдельный файл (при этом просто происходит перемещение файла *easy\_profiler.cache*). 2. Сохранением результата в файл. Для этого сперва необходимо инициализировать профайлер, а затем в необходимый момент сохранить файл. Это делается следующим образом: ``` int main() { EASY_PROFILER_ENABLE; /* do work*/ profiler::dumpBlocksToFile("test_profile.prof"); } ``` После этого сохранённые файлы можно открыть в программе *profiler\_gui* Для получения информации о переключении контекста в Windows необходимо запускать профилируемое приложение с правами администратора. В linux дело обстоит чуть сложнее: необходимо запускать с привилегиями суперпользователя скрипт, находящийся в директории `scripts/context_switch_logger.stp` с параметрами. Данный скрипт интерпретируется программой [systemtap](https://sourceware.org/systemtap/). В Fedora нужно выполнить команду: ``` #stap -o /tmp/cs_profiling_info.log scripts/context_switch_logger.stp name APPLICATION_NAME ``` Где `APPLICATION_NAME` — имя профилируемого приложения, `/tmp/cs_profiling_info.log` — файл, куда записывается информация о переключениях контекста. Привилегии суперпользователя необходимы потому, что информацию о переключении контекста возможно получить только в пространстве ядра. #### Анализ результатов Для демонстрации возможностей анализатора результатов попрофилируем простой пример из CryEngine. В самом CryEngine есть несколько профилировщиков и для их организации существуют макросы, в которые легко встроить любой профайлер. После компиляции запускаем тестовый пример, запускаем программу *profiler\_gui*, коннектимся к приложению (иконка: ![](https://habrastorage.org/r/w1560/files/216/8a1/b58/2168a1b58dec4d9ab80a31ad59e2c799.png), рядом с ней можно ввести ip-адрес или имя хоста, на котором запущено профилируемое приложение). После удачного коннекта (иконка немного позеленеет: ![](https://habrastorage.org/r/w1560/files/ac3/7a2/430/ac37a24307a04f3486bd48b07181057d.png)) можно запускать сессию профилирования. После нажатия на кнопку ![](https://habrastorage.org/r/w1560/files/133/00c/8dd/13300c8ddf4d41df87f4b70144bdee71.png) начнётся сбор статистики в профилируемом приложении. Для завершения сессии профилирования нужно закрыть появившееся окошко. На скриншоте представлен общий вид программы с результатом ![](https://habrastorage.org/r/w1560/files/8d6/417/52b/8d641752b19246c19d96eb559ee63d05.png) В верхней части окна представлены запущенные потоки и сохранённые блоки, длительность которых можно оценить по горизонтальный шкале. Вертикально в рамках каждого блока показывается его иерархия. В центральной части представлена диаграмма времён либо потока, либо выбранного блока. Здесь время исполнения блока оценивается по вертикали, по горизонтали — время выполнения программ, т.е. можно смотреть всплески длительности блоков и при необходимости более детально оценить проблему. В нижней части представлено дерево выполнения блоков для выбранного участка с подробнейшей статистикой. Здесь можно сортировать по длительности, искать самые долгие блоки, оценивать количество вызовов того или иного блока. Выбор участка осуществляется в верхней части экрана зажатием правой кнопки мыши и выделением необходимого куска. Краткую статистику по блоку можно посмотреть в верхней части экрана. После наведения курсора на блок — появляется всплывающее окошко с краткой сводкой: ![](https://habrastorage.org/r/w1560/files/52c/f47/d28/52cf47d287884effa093d4a933414a04.png) В этой сводке информация по общей длительности суммарно всех блоков такого типа и сколько эта сумма составляет процентов от фрейма (самый верхний родитель для данного блока), от суммарного времени потока и от своего родителя. Во многих случаях это исчерпывающая информация. Ещё одной очень удобной фичей является динамическое включение/отключение блоков. Для этого надо открыть диалог (иконка ![](https://habrastorage.org/r/w1560/files/a77/08c/e79/a7708ce79ced4637a0caad1ef4554685.png)) и в появившемся окне включить или отключить желаемые блоки. При следующей сессии профилирования эти настройки будут учтены. ![](https://habrastorage.org/r/w1560/files/59d/d18/34b/59dd1834bb164574ad605f49128e3552.png) *Отключаем сбор информации для функции `C3DEngine::GetWaterLevel`* Итак, преимущества профилировщика: — Скорость работы — Минимальные затраты памяти — Кроссплатформенность — Удобное и функциональное графическое представление Единственным ограничением использования является необходимость сборки профилируемого приложения компилятором, поддерживающим стандарт *c++11*. Данный профилировщик будет полезен как для разработчиков движков игр (как ИИ, так и 3D), так и для тех, кто использует уже готовые движки, да и для всех, кто заботится о производительности своего приложения. Данный профайлер используется нами в рамках разработки системы визуализации для авиационных и тактических тренажёров. Лицензия либо *Apache 2.0*, либо *GPL v.3* — как на либину, так и на gui. Используйте любую из этих лицензий. Спасибо за внимание! С удовольствием ждём обратной связи (вопросы, пожелания, ~~баги~~, звёздочки на гитхабе, пулл-реквесты). В процессе разработки были решены кое-какие нестандартные задачи, о чём хочется написать отдельные статьи.
https://habr.com/ru/post/318142/
null
ru
null
# Гугология (это не опечатка) для программистов О математике (так, чтобы было интересно) писать сложнее, чем о физике. Однако я надеюсь, что вы дочитаете хотя бы до примеров сумасшедших программ на C. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/370/5cb/7fe/3705cb7fe6114c344bbf8572fd53953b.png) Из совершенно безобидных вещей могут вырастать монстры. Возьмем, например, игру в substrings. Напишем строку из букв a и b и выделим подстроки с символа 1 до символа 2, с 2 до 4, с трех до 6, с n до 2n, пока хватит длины основной строки. Наша задача сделать так, чтобы в этих подстроках более короткая не входила в любую более длинную. Я даже написал анализатор на SQL: ``` declare @s varchar(max) = 'abbbaaaaaaab' declare @n int=1 declare @sub table (n int, sub varchar(max)) while @n*2<=len(@s) begin insert into @sub select @n,substring(@s,@n,@n+1) set @n=@n+1 end select *,(select max(sub) from @sub I where I.n>O.n and charindex(O.sub,I.sub)>0) as FoundMatch from @sub O order by 1 ``` Вот пример вывода: ![](https://habrastorage.org/r/w1560/webt/pi/m-/wc/pim-wcwprdzh6tukxjmoj4g6in4.png) Как видно, подстроки 1 и 5 не прошли проверку. Мы можем убрать последний символ, и получившаяся строка из 11 символов 'abbbaaaaaaa' проверку пройдет. Оказывается, что это и самая длинная возможная строка в алфавите из двух символов, которая удовлетворяет данному условию. Для алфавита из одного символа максимальная длина строки равна 3, и то по чисто техническим соображениям. Оказывается, максимальная длина конечна для алфавита из любого количества букв. Итак, мы имеем: ![$f(1) = 3 $](https://habrastorage.org/getpro/habr/formulas/6e5/5c0/94f/6e55c094faecf28d40ad5b92d64e3c3a.svg) ![$f(2) = 11 $](https://habrastorage.org/getpro/habr/formulas/81e/5b5/1a6/81e5b51a6dc084ad284546a664f531ec.svg) ![$f(3) = ??? $](https://habrastorage.org/getpro/habr/formulas/9a8/a69/872/9a8a69872974160f7e89c87357c0256d.svg) Проверьте свою интуицию, какой длины строку можно соорудить в алфавите из трех букв. 100? 1000? На самом деле много больше, чем Гугол, и много больше, чем ГуголПлех. ![$f(3) > 2 \uparrow^{7198} 158836$](https://habrastorage.org/getpro/habr/formulas/dde/93c/817/dde93c8173578b39c083a1a840d60c33.svg) И мне придется потратить время, чтобы показать силу стрелок. Стрелки (гипероперации) ----------------------- Мы используем умножение, чтобы не писать много операций сложения: ![$2*5 = 2 + 2 + 2 + 2 + 2$](https://habrastorage.org/getpro/habr/formulas/663/fa3/7e3/663fa37e34edcac7d7836216b91a557f.svg) Мы используем возведение в степень, чтобы не писать много умножений: ![$2^3 = 2 * 2 * 2$](https://habrastorage.org/getpro/habr/formulas/b87/cd8/d70/b87cd8d707fa9b4cc69fd1f8ff18df34.svg) Считая сложение операцией уровня 0, умножения — 1, возведения в степень — 2, мы можем ввести операцию «стрелка», например, ![$3 \uparrow 3 = 3^{(3^3)} = 3^{27} = 7'625'597'484'987$](https://habrastorage.org/getpro/habr/formulas/755/0cb/1ac/7550cb1ac9a347fc58552aa4edec5aea.svg) Обратите внимание, что здесь уже важны скобки. Следующим уровнем является операция две стрелки: ![$3 \uparrow \uparrow 3 = 3 \uparrow (3 \uparrow 3) = 3 \uparrow 7625597484987 = 3^{3^{...^3}}$](https://habrastorage.org/getpro/habr/formulas/d57/001/3a5/d570013a59fafea3b59d3ae139cafe16.svg) Последняя пирамида троек имеет в высоту 7 биллионов, и это число уже намного, намного больше и гугола и гуголплекса. Обозначим это огромное число как **Тьма** (было такое числительное в старом русском языке) и попробуем сделать еще один шаг: ![$3 \uparrow^3 3 = 3 \uparrow \uparrow \uparrow 3 = 3 \uparrow \uparrow (3 \uparrow \uparrow 3) = 3 \uparrow \uparrow {тьма} = 3 \uparrow 3 \uparrow 3 ... \uparrow 3$](https://habrastorage.org/getpro/habr/formulas/6e9/9d2/c68/6e99d2c68ef3ca67b13f10eaced63099.svg) (и так тьма раз)… Тут уже даже представить, сколь велико это число. Обратите внимание, что когда стрелок много, мы пишем повторитель вверху. Так что вы можете понять, сколь велико ![$f(3) > 2 \uparrow^{7198} 158836$](https://habrastorage.org/getpro/habr/formulas/dde/93c/817/dde93c8173578b39c083a1a840d60c33.svg) И еще больше ------------ С помощью стрелок создаются лишь самые маленькие из больших чисел, если так можно сказать. Скорость роста функций измеряется по некоей шкале — путем сравнения со [быстрорастущими функциями](https://en.wikipedia.org/wiki/Fast-growing_hierarchy). Первая функция в этой иерархии соответсвует сложению, вторая — умножению, третья — стрелке, n-ная — n-2 стрелкам (приблизительно, не точно). Но можно определить ![$f_w (n) = f_n(n)$](https://habrastorage.org/getpro/habr/formulas/b03/f27/70b/b03f2770bee86bd9ef3b125167449866.svg) Такая функция для для n=3 сравнима с одной стрелкой, для n=4 с двумя стрелками, а при росте параметра n опережает рост функии с любым статическим количеством стрелок. Можно пойти еще дальше: ![$f_w, f_{w+1}, f_{w+n}, f_{w2}, f_{w^2}, f_{w^w}, f_{w^{w^{w}}}, f_\epsilon$](https://habrastorage.org/getpro/habr/formulas/fab/dc7/5ad/fabdc75ad8f30323a1a6f9030ab2a809.svg)Функции эти индексируются ординалами, или в русской литературе — порядковыми числами. Картинка со структурой начальных порядковых чисел предваряет статью, но они простираются куда дальше, и дальше начинается Небольшая мистика ----------------- Бесконечная пирамида из 'омег' дает некий ординал ![$\epsilon_0$](https://habrastorage.org/getpro/habr/formulas/740/eae/058/740eae058af21a79a890077d4ca3dcfb.svg). Почитайте про [функцию](https://en.wikipedia.org/wiki/Goodstein%27s_theorem), рост которой измеряется этим ординалом. Выясняется, что функция растет так быстро, что формальная арифметика не может в принципе доказать, что такая функция вообще определена! Вы, конечно, знаете про теорему Геделя, что есть недоказуемые утверждения. Но, как правило, единственный пример такого утверждения, это само построение Геделя («я недоказуемо»). Теорема Goodstein — хороший пример такого утверждения. Более того, оказывается, что ординалы неким образом *измеряют силу теорий*. 'Сила' формальной арифметики равна ![$\epsilon_0$](https://habrastorage.org/getpro/habr/formulas/740/eae/058/740eae058af21a79a890077d4ca3dcfb.svg), [упрощенная теория множеств Крипке-Платека](https://en.wikipedia.org/wiki/Kripke%E2%80%93Platek_set_theory) имеет силу ординала [Фефермана-Шутте](https://en.wikipedia.org/wiki/Feferman%E2%80%93Sch%C3%BCtte_ordinal) итд. Жесть — Математики жгут — Соревнование на языке C ------------------------------------------------- Было проведено соревнование по генерации больших чисел. Нет, программирование для машины Тьюринга — это все-таки слишком жестоко, поэтому использовался язык C для некоей абстрактной бесконечной машины, у которой sizeof(int)=бесконечности. Можно также было использовать malloc(), причем объем памяти, как и стека, не ограничен. Ограничена была лишь длина программы — программа должна была укладываться в 512 байт (без учета пробелов), но допускалось использование препроцессора (#define). Результаты опубликованы на [сайте математика](http://djm.cc/). Заодно зацените дизайн сайта настоящего математика. Результаты [тут](http://djm.cc/bignum-results.txt). Вот текст программы, занявшей второе место, дающей число около ![$f_{w^w}(10^{500})$](https://habrastorage.org/getpro/habr/formulas/437/90c/5c7/43790c5c75948b56f388b9d2efe78aec.svg) ``` typedef int J; J P(J x,J y) { return x+y ? x%2 + y%2*2 + P(x/2,y/2)*4 : 0 ;} J H(J z) { return z ? z%2 + 2*H(z/4) : 0 ;} J I(J f,J e,J r){ return f ? P(P(f,e),r) : r ;} J M(J x,J e) { return x ? I(x%2, M(e,0), M(x/2, e+1)) : 0 ;} J D(J,J); J E(J f,J e,J r,J b) { return e ? E(1, D(e,b), I(b-1, D(e,b), I(f-1,e,r)), b) : I(f-1,e,r) ; } J D(J x,J b) { return x ? E( H(H(x)), H(H(x)/2), H(x/2), b) : 0 ;} J F(J x,J b) { return x ? F(D(x,b+1),b+1) : b ;} J G(J x) { return F(M(x,9), 9) ;} J f(J n,J x) { return n ? f(n-1, G(x ? f(n,x-1) : n)) : G(x) ;} J g(J x) { return f(x,x) ;} J h(J n,J x) { return n ? h(n-1, g(x ? h(n,x-1) : n)) : g(x) ;} J main(void) { return h(g(9),9) ;} ``` Текст программы победителя более длинен, я просто хотел показать, с чего он начинается: ``` #define R { return #define P P ( #define L L ( #define T S (v, y, c, #define C ), #define X x) #define F );} ``` Но оценить, насколько большое число получилось, затруднился даже организатор конкурса (написано *very big*) Busy Beavers ------------ Ладно, хватит заниматься крошечными числами, займемся большими. Представьте, что организован вселенский конкрус на написание программы по генерации самого большого числа. Так как число программ не длиннее 512 символов конечно, обязательно есть абсолютный победитель. Обозначим его как BB(512) — *busy beaver function*. Ясно, что BB(1024) >> BB(512). Но как быстро растет сама функция BB? Оказывается, она растет быстрее чем все, с чем мы встречались. Сама функция BB алгоритмически неразрешима, ее нельзя рассчитать на компьютере. Но при увеличении длины допустимой программы мы можем реализовать все больше и больше новых идей. Так что BB растет быстрее, чем любая алгоритмически разрешимая функция. BIG FOOT -------- Ладно, хватит заниматься крошечными числами, займемся большими. Ах, я это уже говорил? Было бы классно запустить BB(BB(n)). Но так как BB невычислима, с этим есть технические сложности (такая функция вычислима в машинах Тьюринга с оракулами — не путать орАкулов с СУБД Оракл). Но можно поступить проще, вместо *программы* рассмотреть *формулу* с кванторами длины n. Формуле с кванторами не важно, вычислимо что-то или нет. Так можно хоть взять функцию BB(10000000000), и применять ее к себе BB(BB(BB(1000000))) раз. И это только то, что первым пришло в голову. Самое большое число, которое можно обозначить формулой не более n символов, обозначается FOOT(n). ![$BIG FOOT = FOOT^{10}(10^{100})$](https://habrastorage.org/getpro/habr/formulas/725/0cb/559/7250cb5591c14bf74736f8e38c9ac83b.svg) P.S. ---- Для следующей статьи хотелось бы понять, на что ориентироваться, поучаствуйте в опросе пожалуйста
https://habr.com/ru/post/445398/
null
ru
null
# Вся правда об ОСРВ. Статья #22. Почтовые ящики: вспомогательные службы и структуры данных ![](https://habrastorage.org/r/w780q1/webt/j-/7m/ne/j-7mne20kyhq0wia5-mxp4lotsq.jpeg) В этой статье продолжается обзор почтовых ящиков, начатый в предыдущей статье серии «Вся правда об ОСРВ». Предыдущие статьи серии: [Статья #21. Почтовые ящики: введение и базовые службы](https://habr.com/post/430856/) [Статья #20. Семафоры: вспомогательные службы и структуры данных](https://habr.com/post/429588/) [Статья #19. Семафоры: введение и базовые службы](https://habr.com/post/429156/) [Статья #18. Группы флагов событий: вспомогательные службы и структуры данных](https://habr.com/post/428890/) [Статья #17. Группы флагов событий: введение и базовые службы](https://habr.com/post/428131/) [Статья #16. Сигналы](https://habr.com/post/427439/) [Статья #15. Разделы памяти: службы и структуры данных](https://habr.com/post/426477/) [Статья #14. Разделы памяти: введение и базовые службы](https://habr.com/post/426425/) [Статья #13. Структуры данных задач и неподдерживаемые вызовы API](https://habr.com/post/425353/) [Статья #12. Службы для работы с задачами](https://habr.com/post/424713/) [Статья #11. Задачи: конфигурация и введение в API](https://habr.com/post/424481/) [Статья #10. Планировщик: дополнительные возможности и сохранение контекста](https://habr.com/post/423967/) [Статья #9. Планировщик: реализация](https://habr.com/post/422615/) [Статья #8. Nucleus SE: внутреннее устройство и развертывание](https://habr.com/post/422617/) [Статья #7. Nucleus SE: введение](https://habr.com/post/418601/) [Статья #6. Другие сервисы ОСРВ](https://habr.com/post/418677/) [Статья #5. Взаимодействие между задачами и синхронизация](https://habr.com/post/415429/) [Статья #4. Задачи, переключение контекста и прерывания](https://habr.com/post/415427/) [Статья #3. Задачи и планирование](https://habr.com/post/415329/) [Статья #2. ОСРВ: Структура и режим реального времени Статья #1. ОСРВ: введение.](https://habr.com/post/414093/) Вспомогательные службы почтовых ящиков -------------------------------------- Nucleus RTOS имеет четыре вызова API, которые предоставляют вспомогательные функции, связанные с почтовыми ящиками: сброс почтового ящика, получение информации о почтовом ящике, получение количества почтовых ящиков в приложении и получение указателей на все почтовые ящики в приложении. Первые три из этих функций реализованы в Nucleus SE. ### Сброс почтового ящика Этот служебный вызов API сбрасывает почтовый ящик в его начальное, неиспользуемое состояние. Сообщение, хранящееся в почтовом ящике, будет утеряно. Любые приостановленные на почтовом ящике задачи возобновятся с кодом возврата **NUSE\_MAILBOX\_WAS\_RESET**. ***Вызов для сброса почтового ящика в Nucleus RTOS*** Прототип служебного вызова: **STATUS NU\_Reset\_Mailbox(NU\_MAILBOX \*mailbox);** Параметры: **mailbox** – указатель на блок управления почтовым ящиком. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_MAILBOX** – некорректный указатель на почтовый ящик. ***Вызов для сброса почтового ящика в Nucleus SE*** Этот служебный вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **STATUS NUSE\_Mailbox\_Reset(NUSE\_MAILBOX mailbox);** Параметры: **mailbox** – индекс (ID) сбрасываемого почтового ящика. **Возвращаемое значение:** **NUSE\_SUCCESS** – вызов был успешно завершен; **NUSE\_INVALID\_MAILBOX** – некорректный индекс почтового ящика. ***Реализация сброса почтового ящика в Nucleus SE*** Вариант кода функции **NUSE\_Mailbox\_Reset** (после проверки параметров) выбирается при помощи условной компиляции, в зависимости от того, активирована поддержка блокировки (приостановки) задач или нет. Мы рассмотрим оба эти варианта. Если блокировка не активирована, код этой функции API довольно прост. Почтовый ящик помечается как неиспользуемый путем присвоения параметру **NUSE\_Mailbox\_Status[]** значения **FALSE**. Если блокировка активирована, код становится более сложным: ``` while (NUSE_Mailbox_Blocking_Count[mailbox] != 0) { U8 index; /* check whether any tasks are blocked */ /* on this mailbox */ for (index=0; index ``` Почтовый ящик сбрасывается в исходное состояние «Пустой». Каждой приостановленной задаче на почтовом ящике присваивается статус «готова» с кодом возврата **NUSE\_MAILBOX\_WAS\_RESET**. После того, как этот процесс завершен, если используется планировщик Priority, выполняется служебный вызов **NUSE\_Reschedule()**, так как одна или несколько задач с более высоким приоритетом могли стать готовыми и ждут разрешения на выполнение. ### Получение информации о почтовом ящике Этот служебный вызов предоставляет набор информации о почтовом ящике. Реализация этого вызова в Nucleus SE отличается от Nucleus RTOS тем, что она возвращает меньше информации, так как именование объектов и порядок приостановки не поддерживается, а приостановка задач может быть отключена. ***Вызов для получения информации о почтовом ящике в Nucleus RTOS*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **STATUS NU\_Mailbox\_Information(NU\_MAILBOX \*mailbox, CHAR \*name, OPTION \*suspend\_type, DATA\_ELEMENT \*message\_present, UNSIGNED \*tasks\_waiting, NU\_TASK \*\*first\_task);** Параметры: **mailbox** – указатель на блок управления почтовым ящиком; **name** – указатель на 8-символьную область для имени почтового ящика. В эту область включен и терминирующий нулевой байт; **suspend\_type** – указатель на переменную, в которой хранится тип приостановки задачи. Может принимать значения **NU\_FIFO** и **NU\_PRIORITY**; **message\_present** – указатель на переменную, которая примет значение **NU\_TRUE** или **NU\_FALSE**, в зависимости от того, заполнен почтовый ящик, или нет; **tasks\_waiting** – указатель на переменную, которая примет количество приостановленных на этом почтовом ящике задач; **first\_task** – указатель на указатель задачи, который примет указатель на первую приостановленную задачу. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_MAILBOX** – некорректный указатель на почтовый ящик. ***Вызов для получения информации о почтовом ящике Nucleus SE*** Этот служебный вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **STATUS NUSE\_Mailbox\_Information(NUSE\_MAILBOX mailbox, U8 \*message\_present, U8 \*tasks\_waiting, NUSE\_TASK \*first\_task);** Параметры: **mailbox** – индекс почтового ящика, о котором запрашивается информация; **message\_present** – указатель на переменную, которая примет значение **TRUE** или **FALSE**, в зависимости от того, заполнен почтовый ящик, или нет; **tasks\_waiting** – указатель на переменную, которая примет количество приостановленных на этом почтовом ящике задач (ничего не возвращается, если приостановка задач отключена); **first\_task** – указатель на переменную типа **NUSE\_TASK**, которая примет индекс первой приостановленной задачи (ничего не возвращается, если приостановка задач отключена). Возвращаемое значение: **NUSE\_SUCCESS** – вызов был успешно завершен; **NUSE\_INVALID\_MAILBOX** – некорректный индекс почтового ящика; **NUSE\_INVALID\_POINTER** – один или несколько параметров-указателей некорректны. ***Реализация получения информации о почтовом ящике в Nucleus SE*** Реализация этого вызова API достаточно проста: ``` *message_present = NUSE_Mailbox_Status[mailbox]; #if NUSE_BLOCKING_ENABLE *tasks_waiting = NUSE_Mailbox_Blocking_Count[mailbox]; if (NUSE_Mailbox_Blocking_Count[mailbox] != 0) { U8 index; for (index=0; index ``` Функция возвращает статус почтового ящика. Затем, если служебные вызовы для блокировки задач активированы, возвращается количество приостановленных задач и индекс первой из них (в противном случае, этим параметрам присваивается значение 0). ### Получение количества почтовых ящиков Этот служебный вызов возвращает количество почтовых ящиков в приложении. В то время как в Nucleus RTOS их количество со временем может меняться, а возвращаемое значение будет показывать текущее количество почтовых ящиков, в Nucleus SE количество почтовых ящиков устанавливается на этапе сборки и не может изменяться. ***Вызов для счетчика почтовых ящиков в Nucleus RTOS*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **UNSIGNED NU\_Established\_Mailboxes(VOID);** Параметры: Отсутствуют. Возвращаемое значение: Количество созданных почтовых ящиков в приложении. ***Вызов для счетчика почтовых ящиков в Nucleus SE*** Этот вызов API поддерживает основной функционал Nucleus RTOS API. Прототип служебного вызова: **U8 NUSE\_Mailbox\_Count(void);** Параметры: Отсутствуют. Возвращаемое значение: Количество сконфигурированных почтовых ящиков в приложении. ***Реализация счетчика почтовых ящиков в Nucleus SE*** Реализация этого вызова API предельно проста: возвращается значение директивы **#define** **NUSE\_MAILBOX\_NUMBER**. Структуры данных ---------------- Почтовые ящики используют два или три массива структур данных (все они находятся в ОЗУ), являющихся, как и другие объекты Nucleus SE, набором таблиц, размер которых зависит от количества сконфигурированных почтовых ящиков и их параметров. Настоятельно рекомендую, чтобы код приложения не использовал прямой доступ к этим структурам данных, а обращался к ним через предоставляемые функции API. Это позволяет избежать несовместимости с будущими версиями Nucleus SE и нежелательных побочных эффектов, а также упростит портирование приложения на Nucleus RTOS. Ниже приведен подробный обзор структур данных для лучшего понимания принципа работы кода служебных вызовов и для отладки. ### Данные в ОЗУ Эти данные имеют следующую структуру: **NUSE\_Mailbox\_Data[]** – массив типа **ADDR**, имеющий одну запись для каждого сконфигурированного почтового ящика, в нем хранятся данные почтового ящика. **NUSE\_Mailbox\_Status[]** – массив типа **U8**, имеющий одну запись для каждого сконфигурированного почтового ящика, в нем отслеживается использование почтовых ящиков. Ненулевое значение (**TRUE**) говорит о том, что почтовый ящик заполнен. **NUSE\_Mailbox\_Blocking\_Count[]** – массив типа **U8**, он содержит в себе счетчик заблокированных задач каждого почтового ящика. Этот массив создается, только если активирована поддержка функциональности блокировки вызовов API. Эти структуры данных инициализируются нулями в функции **NUSE\_Init\_Mailbox()** при запуске Nucleus SE. Это логично, так как каждый почтовый ящик создается пустым (неиспользуемым). Ниже приведены определения этих структур данных из файла **nuse\_init.c**. ``` RAM ADDR NUSE_Mailbox_Data[NUSE_MAILBOX_NUMBER]; RAM U8 NUSE_Mailbox_Status[NUSE_MAILBOX_NUMBER]; #if NUSE_BLOCKING_ENABLE RAM U8 NUSE_Mailbox_Blocking_Count[NUSE_MAILBOX_NUMBER]; #endif ``` ### Данные в ПЗУ Для реализации почтовых ящиков не используются данные в ПЗУ. ### Объем памяти для почтовых ящиков Как и для всех объектов ядра Nucleus SE, объем памяти, необходимый для почтовых ящиков, известен заранее. Объем памяти для данных в ПЗУ для всех почтовых ящиков в приложении равен 0. Объем данных в ОЗУ для всех почтовых ящиков в приложении (в байтах) при активированных вызовах API для блокировки задач можно вычислить следующим образом: **NUSE\_MAILBOX\_NUMBER \* (sizeof(ADDR) +2)** В противном случае: **NUSE\_MAILBOX\_NUMBER \* (sizeof(ADDR) +1)** Нереализованные вызовы API -------------------------- Четыре служебных вызова, которые можно найти в Nucleus RTOS, не реализованы в Nucleus SE. ### Создание почтового ящика Этот служебный вызов API создает почтовый ящик. В Nucleus SE в нем нет необходимости, так как почтовый ящики создаются статически. Прототип служебного вызова: **STATUS NU\_Create\_Mailbox(NU\_MAILBOX \*mailbox, CHAR \*name, UNSIGNED OPTION suspend\_type);** Параметры: **mailbox** – указатель на блок управления почтовым ящиком, предоставляемый пользователем; используется для управления почтовыми ящиками в других вызовах API; **name** – указатель на 7-символьное имя почтового ящика с нулевым терминирующим байтом; **suspend\_type** – указывает принцип приостановки задачи на почтовом ящике. Может принимать значения **NU\_FIFO** и **NU\_PRIORITY**, которые означают принцип FIFO (First-In-First-Out) или принцип приоритета приостановки задач, соответственно. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_MAILBOX** – нулевой указатель на блок управления почтовым ящиком (**NULL**), или указатель уже используется; **NU\_INVALID\_SUSPEND** – некорректный параметр **suspend\_type**. ### Удаление почтового ящика Этот служебный вызов API удаляет ранее созданный почтовый ящик. В Nucleus SE в этом нет необходимости, так как почтовые ящики создаются статически и не могут быть удалены. Прототип служебного вызова: **STATUS NU\_Delete\_Mailbox(NU\_MAILBOX \*mailbox);** Параметры: **mailbox** – указатель на блок управления почтовым ящиком. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_MAILBOX** – некорректный указатель на почтовый ящик. ### Указатели на почтовые ящики Этот вызов API составляет последовательный список из указателей на все почтовые ящики в системе. В Nucleus SE в нем нет необходимости, так как почтовые ящики идентифицируются при помощи простого индекса, а не указателя. Прототип служебного вызова: **UNSIGNED NU\_Mailbox\_Pointers(NU\_MAILBOX \*\*pointer\_list, UNSIGNED maximum\_pointers);** Параметры: **pointer\_list** – указатель на массив указателей **NU\_MAILBOX**; этот массив будет заполнен указателями на созданные в системе почтовые ящики; **maximum\_pointers** – максимальное число указателей в массиве. Возвращаемое значение: Количество указателей **NU\_MAILBOX** в массиве. ### Запись сообщения в почтовый ящик для доставки всем адресатам Этот служебный вызов передает сообщение всем задачам, ожидающим сообщений от определенного почтового ящика. В Nucleus SE этот служебный вызов не реализован, так как он добавил бы излишней сложности. Прототип служебного вызова: **STATUS NU\_Broadcast\_To\_Mailbox(NU\_MAILBOX \*mailbox, VOID \*message, UNSIGNED suspend);** Параметры: **mailbox** – указатель на блок управления почтовым ящиком; **message** – указатель на передаваемое сообщение; **suspend** – указывает на то, необходимо ли приостанавливать вызывающую задачу, если почтовый ящик уже содержит сообщение; может принимать значения **NU\_NO\_SUSPEND**, **NU\_SUSPEND** или значение таймаута. Возвращаемое значение: **NU\_SUCCESS** – вызов был успешно завершен; **NU\_INVALID\_MAILBOX** – некорректный указатель на почтовый ящик; **NU\_INVALID\_POINTER** – нулевой указатель на сообщение (**NULL**); **NU\_INVALID\_SUSPEND** – попытка приостановки из не связанного с задачей потока; **NU\_MAILBOX\_FULL** – почтовый ящик уже содержит сообщение; **NU\_TIMEOUT** – после истечения времени таймаута почтовый ящик все еще полон; **NU\_MAILBOX\_DELETED** – почтовый ящик был удален пока задача была приостановлена. **NU\_MAILBOX\_RESET** – почтовый ящик был сброшен пока задача была приостановлена. Совместимость с Nucleus RTOS ---------------------------- Как и в случае со всеми другими объектами Nucleus SE, моей целью было обеспечить максимальную совместимость кода приложений с Nucleus RTOS. Почтовые ящики не являются исключением и, с точки зрения пользователя, они реализованы также, как и в Nucleus RTOS. Есть и определенная несовместимость, которую я посчитал допустимой с учетом того, что в результате код станет более понятным и более эффективным с точки зрения объема требуемой памяти. В остальном вызовы API Nucleus RTOS могут быть практически напрямую перенесены на Nucleus SE. ### Идентификаторы объектов В Nucleus RTOS все объекты описываются структурами данных (блоками управления), имеющими определенный тип. Указатель на этот блок управления служит идентификатором почтового ящика. Я решил, что в Nucleus SE для эффективного использования памяти необходим другой подход: все объекты ядра описываются набором таблиц в ОЗУ и/или ПЗУ. Размер этих таблиц определяется количеством сконфигурированных объектов каждого типа. Идентификатор конкретного объекта – индекс в этой таблице. Таким образом, я определил **NUSE\_MAILBOX** в качестве эквивалента **U8**, переменная (а не указатель) этого типа служит идентификатором почтового ящика. С этой небольшой несовместимостью легко справиться, если код портируется с Nucleus SE на Nucleus RTOS и наоборот. Обычно над идентификаторами объектов не выполняются никакие операции, кроме перемещения и хранения. Nucleus RTOS также поддерживает присвоение имен почтовым ящикам. Эти имена используются только при отладке. Я исключил их из Nucleus SE, чтобы сэкономить память. ### Размер и тип сообщений В Nucleus RTOS сообщение почтового ящика состоит из четырех 32-битных слов. В Nucleus SE я решил уменьшить это значение до одной переменной типа **ADDR**. Это изменение приводит к значительной экономии памяти и уменьшению времени выполнения задач. Оно также говорит о том, что привычным применением почтового ящика является пересылка информации от одной задаче к другой. Такая несовместимость не вызовет больших проблем при портировании приложений на Nucleus RTOS. Nucleus SE можно модифицировать, если необходим другой формат сообщения. ### Нереализованные вызовы API Nucleus RTOS поддерживает девять служебных вызовов для работы с почтовыми ящиками. Из них четыре не реализованы в Nucleus SE. Детали этих вызовов, а также причины, почему они были исключены из Nucleus SE, описаны выше. В следующей статье будут рассматриваться очереди. **Об авторе:** Колин Уоллс уже более тридцати лет работает в сфере электронной промышленности, значительную часть времени уделяя встроенному ПО. Сейчас он — инженер в области встроенного ПО в Mentor Embedded (подразделение Mentor Graphics). Колин Уоллс часто выступает на конференциях и семинарах, автор многочисленных технических статей и двух книг по встроенному ПО. Живет в Великобритании. Профессиональный [блог Колина](http://blogs.mentor.com/colinwalls), e-mail: colin\_walls@mentor.com.
https://habr.com/ru/post/431118/
null
ru
null
# k0s: Kubernetes в одном бинарном файле > В нашей новой [переводной статье](https://medium.com/better-programming/k0s-kubernetes-in-a-single-binary-224bb43f4520) даем краткий обзор на новый дистрибутив Kubernetes. Надеемся, статья окажется интересной для читателей Habr'a. Пару дней назад друг рассказал мне о новом дистрибутиве Kubernetes от [Mirantis](https://medium.com/@MirantisIT/about) под названием [k0s](https://k0sproject.io/). Все мы знаем и любим K8s, не так ли? Нас также покорил [K3s](https://k3s.io/), легкий Kubernetes, разработанный [Rancher Labs](https://medium.com/@Rancher_Labs) и переданный [CNCF](https://cncf.io/) некоторое время назад. Пришло время открыть для себя новый дистрибутив k0s! ![](https://habrastorage.org/r/w780q1/webt/qh/s0/qx/qhs0qxrxoapdmhlzasdpyet4ze0.jpeg) После краткого знакомства с k0s мы создадим кластер из трех нод, выполнив следующие действия: * Подготовка трех виртуальных машин ([Multipass](https://multipass.run/) в действии) * Установка k0s на каждой из них * Настройка простого файла конфигурации кластера k0s * Инициализация кластера * Получение доступа к кластеру * Добавление рабочих узлов * Добавление пользователя ### Что такое k0s? k0s — это новейший дистрибутив Kubernetes. Текущий релиз — 0.8.0. Он был опубликован в декабре 2020 года, а первый коммит всего проекта произошел в июне 2020 года. k0s поставляется как единый двоичный файл без каких-либо зависимостей от ОС. Таким образом, он определяется как дистрибутив Kubernetes с характеристиками [zero-friction/zero-deps/zero-cost](https://k0sproject.io/) (легкость конфигурации / отсутствие зависимостей / бесплатный). Последний релиз k0s: * Поставляет сертифицированный (получивший аттестацию центра интернет-безопасности) Kubernetes 1.19 * Использует [containerd](https://containerd.io/) как среду выполнения контейнера по умолчанию * Поддерживает архитектуры Intel (x86-64) и ARM (ARM64) * Использует внутрикластерный [etcd](https://etcd.io/) * По умолчанию использует сетевой плагин [Calico](https://www.projectcalico.org/) (тем самым активируя сетевые политики) * Включает контроллер доступа политик безопасности Pod * Использует DNS с [CoreDNS](https://coredns.io/) * Предоставляет метрики кластера через [Metrics Server](https://github.com/kubernetes-sigs/metrics-server) * Позволяет использовать горизонтальное автомасштабирование подов (HPA). В будущих релизах появится много крутых функций, в том числе: * Среда выполнения компактных виртуальных машин (очень жду возможности протестировать эту функцию) * Обновление кластера с нулевым временем простоя * Резервное копирование и восстановление кластера Впечатляет, не правда ли? Далее мы рассмотрим, как использовать k0s для развертывания кластера из 3 нод. ### Подготовка виртуальных машин Для начала мы создадим три виртуальные машины, каждая из которых будет являться узлом в нашем кластере. В этой статье я пойду быстрым и легким путем и воспользуюсь прекрасным инструментом [Multipass](https://multipass.run/) (обожаю его) для подготовки локальных виртуальных машин на MacOS. Следующие команды создают три экземпляра Ubuntu на xhyve. Каждая виртуальная машина имеет 5 ГБ диска, 2 ГБ оперативной памяти и 2 виртуальных процессора (vCPU): ``` for i in 1 2 3; do multipass launch -n node$i -c 2 -m 2G done ``` Затем мы можем отобразить список виртуальных машин, чтобы убедиться, что все они работают нормально: ``` $ multipass list Name State IPv4 Image node1 Running 192.168.64.11 Ubuntu 20.04 LTS node2 Running 192.168.64.12 Ubuntu 20.04 LTS node3 Running 192.168.64.13 Ubuntu 20.04 LTS ``` Далее мы установим k0s на каждый из этих узлов. ### Установка последнего релиза k0s Последний релиз k0s можно скачать из [репозитория GitHub](https://github.com/k0sproject/k0s/releases/). У него есть удобный скрипт установки: ``` curl -sSLf get.k0s.sh | sudo sh ``` Мы используем этот скрипт, чтобы установить k0s на все наши узлы: ``` for i in 1 2 3; do multipass exec node$i --bash -c "curl -sSLf get.k0s.sh | sudo sh" done ``` Указанный скрипт устанавливает k0s в **/user/bin/k0**. Чтобы получить все доступные команды, нужно запустить двоичный файл без аргументов. ![](https://habrastorage.org/r/w1560/webt/ex/zm/df/exzmdfcrtntrqaudhjklgwrlb2s.png) *Доступные команды k0s* Можем проверить текущую версию: ``` $ k0s version v0.8.0 ``` Некоторые команды мы будем использовать и на следующих этапах. ### Создание файла конфигурации Во-первых, необходимо определить файл конфигурации, содержащий информацию, необходимую k0s для создания кластера. На **node1** мы можем выполнить команду **default-config**, чтобы получить полную конфигурацию по умолчанию. `ubuntu@node1:~$ k0s default-config apiVersion: k0s.k0sproject.io/v1beta1 kind: Cluster metadata:   name: k0s spec:   api:     address: 192.168.64.11     sans:     - 192.168.64.11     - 192.168.64.11     extraArgs: {}   controllerManager:     extraArgs: {}   scheduler:     extraArgs: {}   storage:     type: etcd     kine: null     etcd:       peerAddress: 192.168.64.11   network:     podCIDR: 10.244.0.0/16     serviceCIDR: 10.96.0.0/12     provider: calico     calico:       mode: vxlan       vxlanPort: 4789       vxlanVNI: 4096       mtu: 1450       wireguard: false   podSecurityPolicy:     defaultPolicy: 00-k0s-privileged   workerProfiles: [] extensions: null images:   konnectivity:     image: us.gcr.io/k8s-artifacts-prod/kas-network-proxy/proxy-agent     version: v0.0.13   metricsserver:     image: gcr.io/k8s-staging-metrics-server/metrics-server     version: v0.3.7   kubeproxy:     image: k8s.gcr.io/kube-proxy     version: v1.19.4   coredns:     image: docker.io/coredns/coredns     version: 1.7.0   calico:     cni:       image: calico/cni       version: v3.16.2     flexvolume:       image: calico/pod2daemon-flexvol       version: v3.16.2     node:       image: calico/node       version: v3.16.2     kubecontrollers:       image: calico/kube-controllers       version: v3.16.2   repository: "" telemetry:   interval: 10m0s   enabled: true` Помимо прочего, это позволяет нам определить: * Параметры запуска сервера API, диспетчера контроллеров и планировщика * Хранилище, которое можно использовать для сохранения информации о кластере ([etcd](https://etcd.io/)) * Сетевой плагин и его конфигурацию ([Calico](https://www.projectcalico.org/)) * Версию образов контейнеров с компонентами управления * Некоторые дополнительные схемы управления, которые следует развернуть при запуске кластера Мы могли бы сохранить эту конфигурацию в файл и адаптировать ее под свои нужды. Но в этой статье мы воспользуемся очень простой конфигурацией и сохраним ее в **/etc/k0s/k0s.yaml**. `apiVersion: k0s.k0sproject.io/v1beta1 kind: Cluster metadata:   name: k0s spec:   api:     address: 192.168.64.11     sans:     - 192.168.64.11   network:     podCIDR: 10.244.0.0/16     serviceCIDR: 10.96.0.0/12` **Примечание**: Так как мы инициализируем кластер на узле **node1**, этот узел будет обслуживать сервер API. IP-адрес этого узла используется в **api.address** и **api.sans** (альтернативные имена субъектов) в приведенном выше файле конфигурации. Если бы у нас были дополнительные главные узлы и балансировщик нагрузки над ними, мы бы также использовали в настройках **api.sans** IP-адрес каждого узла и балансировщика нагрузки (или соответствующее доменное имя). ### Инициализация кластера Сначала мы создаем systemd unit на **node1** для управления k0s. ``` [Unit] Description="k0s server" After=network-online.target Wants=network-online.target [Service] Type=simple ExecStart=/usr/bin/k0s server -c /etc/k0s/k0s.yaml --enable-worker Restart=always ``` Основная команда здесь указана в **ExecStart**; она запускает сервер k0s с той конфигурацией, которую мы сохранили в наш файл на предыдущем этапе. Мы также указываем параметр **--enable-worker**, чтобы этот первый главный узел также функционировал как рабочий. Затем мы копируем этот файл в **/lib/systemd/system/k0s.service**, перезагружаем systemd и запускаем недавно созданную службу. ``` ubuntu@node1:~$ sudo systemctl daemon-reload ubuntu@node1:~$ sudo systemctl start k0s.service ``` Ради любопытства можно проверить процессы, запущенные сервером k0s: ``` ubuntu@node1:~$ sudo ps aux | awk ‘{print $11}’ | grep k0s /usr/bin/k0s /var/lib/k0s/bin/etcd /var/lib/k0s/bin/konnectivity-server /var/lib/k0s/bin/kube-controller-manager /var/lib/k0s/bin/kube-scheduler /var/lib/k0s/bin/kube-apiserver /var/lib/k0s/bin/containerd /var/lib/k0s/bin/kubelet ``` Из выходных данных выше мы видим, что все основные компоненты запущены (**kube-apiserver**, **kube-controller-manager**, **kube-scheduler** и т. д.), а также компоненты, общие для главных и рабочих узлов (**containerd**, **kubelet**). k0s отвечает за управление всеми этими компонентами. Теперь мы имеем кластер из 1 ноды. На следующем этапе мы увидим, как получить к нему доступ. ### Получение доступа к кластеру Сначала нам необходимо получить файл **kubeconfig**, сгенерированный во время создания кластера; он был создан на **node1** в **/var/lib/k0s/pki/admin.conf**. Этот файл нужно использовать для настройки [kubectl](https://kubernetes.io/docs/tasks/tools/install-kubectl/) на локальной машине. Сначала получаем **kubeconfig** кластера из **node1**: ``` # Get kubeconfig file $ multipass exec node1 cat /var/lib/k0s/pki/admin.conf > k0s.cfg ``` Далее заменяем внутренний IP-адрес на внешний IP-адрес **node1**: ``` # Replace IP address $ NODE1_IP=$(multipass info node1 | grep IP | awk '{print $2}') sed -i '' "s/localhost/$NODE1_IP/" k0s.cfg ``` Затем выполняем конфигурацию нашего локального клиента kubectl для связи с сервером k0s API: ``` export KUBECONFIG=$PWD/k0s.cfg ``` Наверняка одной из первых команд, которые мы запускаем при входе в новый кластер, является та, которая отображает список всех доступных узлов, — давайте попробуем: ``` $ kubectl get no NAME STATUS ROLES AGE VERSION node1 Ready 78s v1.19.4 ``` Здесь нет ничего удивительного. Ведь **node1** является не только главным, но и рабочим узлом нашего первого кластера благодаря флагу **--enable-worker**, который мы указали в команде запуска. Без этого флага **node1** был бы только рабочим и не отображался бы в списке узлов здесь. ### Добавление рабочих узлов Чтобы добавить в кластер **node2** и **node3**, сначала нам нужно создать токен соединения из **node1** (это довольно распространенный этап, так как он используется в кластерах Docker Swarm и Kubernetes, созданных с помощью kubeadm). ``` $ TOKEN=$(k0s token create --role=worker) ``` Вышеуказанная команда генерирует длинный (очень длинный) токен. Используя его, мы можем присоединить к кластеру **node2** и **node3**: ``` ubuntu@node2:~$ k0s worker $TOKEN ubuntu@node3:~$ k0s worker $TOKEN ``` **Примечание:** В реальном кластере мы бы использовали systemd (или другой супервизор) для управления процессами k0s для рабочих узлов, как мы сделали для главного узла. Наш трехузловой кластер запущен и работает, в чем мы можем убедиться, отобразив список узлов перечислив узлы еще раз: ``` $ kubectl get no NAME STATUS ROLES AGE VERSION node1 Ready 30m v1.19.4 node2 Ready 35s v1.19.4 node3 Ready 32s v1.19.4 ``` Мы также можем проверить поды, работающие во всех пространствах имен: ![](https://habrastorage.org/r/w1560/webt/i_/jk/e9/i_jke9icy5psrsgz_2dg85jgnak.png) *Список подов, работающих в кластере во всех пространствах имен* Здесь следует отметить несколько моментов: * Как обычно, мы видим поды **kube-proxy**, поды сетевых плагинов (на основе Calico), а также под для CoreDNS. * Поды **api-server**, **scheduler** и **controller-manager** не отображаются в этом списке, поскольку они выполняются как обычные процессы, а не внутри подов. ### Добавление пользователя Версия k0s 0.8.0 содержит подкоманду **user**. Это позволяет создать **kubeconfig** для дополнительного пользователя/группы. Например, следующая команда создает для нового пользователя файл **kubeconfig** с названием **demo**, который находится внутри имитированной группы (imaginary group) с названием **development**. **Примечание:** В Kubernetes пользователи и группы управляются администратором вне кластера, то есть в K8s нет ресурса «пользователь-не-группа». ``` $ sudo k0s user create demo --groups development > demo.kubeconfig ``` Для лучшего понимания мы извлечем сертификат клиента из этого файла **kubeconfig** и декодируем его из представления base64: ``` $ cat demo.kubeconfig | grep client-certificate-data | awk '{print $2}' | base64 --decode > demo.crt ``` Затем мы используем команду **openssl** чтобы получить содержимое сертификата: `ubuntu@node1:~$ openssl x509 -in demo.crt -noout -text Certificate:     Data:         Version: 3 (0x2)         Serial Number:             71:8b:a4:4d:be:76:70:8a:...:07:60:67:c1:2d:51:94         Signature Algorithm: sha256WithRSAEncryption         Issuer: CN = kubernetes-ca         Validity             Not Before: Dec  2 13:50:00 2020 GMT             Not After : Dec  2 13:50:00 2021 GMT         Subject: O = development, CN = demo         Subject Public Key Info:             Public Key Algorithm: rsaEncryption                 RSA Public-Key: (2048 bit)                 Modulus:                     00:be:87:dd:15:46:91:98:eb:b8:38:34:77:a4:99:                     da:4b:d6:ca:09:92:f3:29:28:2d:db:7a:0b:9f:91:                     65:f3:11:bb:6c:88:b1:8f:46:6e:38:71:97:b7:b5:                     9b:8d:32:86:1f:0b:f8:4e:57:4f:1c:5f:9f:c5:ee:                     40:23:80:99:a1:77:30:a3:46:c1:5b:3e:1c:fa:5c:` * Свойство **issuer** — это **kubernetes-ca**, который является центром сертификации нашего кластера k0s. * **Subject** — это **O = development, CN = demo**; эта часть важна, так как именно здесь появляется имя и группа пользователя. Так как сертификат подписан центром сертификации кластера, подключаемый модуль на **api-server** может аутентифицировать пользователя/группу по общему имени (CN) и организации (O) в теме сертификата. Сначала мы даем команду kubectl использовать контекст, определенный в этом новом файле **kubeconfig**: ``` $ export KUBECONFIG=$PWD/demo.kubeconfig ``` Затем еще раз отображаем список узлов перечисляем узлы кластера: ``` $ kubectl get no Error from server (Forbidden): nodes is forbidden: User “demo” cannot list resource “nodes” in API group “” at the cluster scope ``` Это сообщение об ошибке было ожидаемым. Даже если `api-server` идентифицировал пользователя (сертификат, отправленный вместе с запросом пользователя, был подписан центром сертификации кластера), он не имеет права выполнять какие-либо действия в кластере. Дополнительные права можно легко добавить, создав `Role/ClusterRole` и привязав их к пользователю при помощи `RoleBinding/ClusterRoleBinding`, но эту задачу я оставляю в качестве упражнения для читателя. ### Заключение k0s определенно стоит рассмотреть. Такой подход, когда единый двоичный файл управляет всеми процессами, очень интересен. В данной статье представлен только краткий обзор k0s, но я обязательно буду отслеживать его развитие и посвящу будущие статьи этому новому и перспективному дистрибутиву Kubernetes. Некоторые из будущих функций кажутся действительно многообещающими, и я с нетерпением жду возможности их протестировать.
https://habr.com/ru/post/534490/
null
ru
null
# Получение id добавленной записи в PostgeSQL Каким бы супер-пупер спецом вы не были — в процессе разработки эпизодически попадаются интересные и удобные вещи о которых, казалось бы, давно бы пора знать, но все никак не складывалось. Этакий ништячок, найдя который хочется воскликнуть: «Эврика!». Вот таким ништячком для меня стал элемент синтаксиса INSERT в PostgreSQL, которым я и хочу поделиться с вами. Ситуация: После добавления записи в базу нужно получить id этой самой свеже-вставленной записи. Решение на PostgreSQL: **INSERT… RETURNING id** где **id** — это PRIMARY\_KEY в таблице. Просто и элегантно, не правда ли? Подробный пример: `postgres=# create table test (id serial,name text); NOTICE: CREATE TABLE will create implicit sequence "test_id_seq" for serial column "test.id" CREATE TABLE postgres=# INSERT INTO test (name) VALUES ('My Name') RETURNING id; id ---- 1 postgres=# INSERT INTO test (name) VALUES ('My Name 1') RETURNING id; id ---- 2 (1 row)`
https://habr.com/ru/post/72590/
null
ru
null
# Руководство по модулю клавиатуры Python Введение -------- Python является одним из наиболее подходящих языков для автоматизации задач. Будь то повторяемый (этический) веб-скоб через некоторое время, запуск некоторых программ при запуске компьютера или автоматизацию отправки повседневных электронных писем, Python имеет *много* модулей, которые облегчают вашу жизнь. Одним из них является модуль под названием **keyboard**, который полностью контролирует вашу клавиатуру. С помощью данного модуля вы можете печатать что угодно, создавать горячие клавиши, сокращения, блокировать клавиатуру, ждать ввода и т. д. В этом руководстве мы рассмотрим, как настроить и использовать модуль клавиатуры в Python. Примечание: Приложения, работающие с автоматизацией человекоподобных процессов, должны разрабатываться этично и ответственно. Модуль клавиатуры сделан так, чтобы быть очень заметным, и, таким образом, делает его одновременно обескураживающим и прозрачным, если кто-то использует его для создания клавиатурных шпионов или вредоносных ботов. Установка модуля клавиатуры --------------------------- Версия Python, используемая в этом руководстве, равна 3.8. Однако модуль клавиатуры может работать как с Python 2.x, так и с Python 3.x. Если вы используете Linnux, чтобы использовать эту библиотеку, вы должны установить ее от root. Если вы этого не сделаете, вы получите: ``` ImportError: You must be root to use this library on linux. ``` Кроме того, при запуске сценария вы должны запускать его с правами суперпользователя: ``` $ sudo pip3 install keyboard $ sudo python3 my_script.py ``` В Windows и macOS, поскольку привилегии работают совсем по-другому - вы можете установить его просто через pip и запустить сценарии: ``` $ pip install keyboard $ python my_script.py ``` **Примечание:** Для MacOS вам, возможно, придется разрешить терминалу или другим приложениям изменять состояние вашей машины, например, путем ввода текста. Также имейте в виду, что по состоянию на сентябрь 2021 года библиотека все еще находится в экспериментальном состоянии на MacOS. Функция модуля клавиатуры ------------------------- В этом модуле есть много функций, которые можно использовать для имитации действий клавиатуры. * keyboard.write(message, [delay])- *пишет сообщение* с задержкой или без нее. * keyboard.wait(key) - *блокирует программу до тех пор, пока не будет нажата клавиша. Ключ передается в виде строки ("пробел", "esc" и т.д.)* * keyboard.press(key)- *нажимает* клавишу и *удерживается* до вызова функции release(key) * keyboard.release(key)- *выпускает* ключ. * keyboard.send(key)- *нажимает и отпускает* клавишу. * keyboard.add\_hotkey(hotkey, function)- создает hotkey, которая при нажатии выполняет function. * keyboard.record(key)- записывает активность клавиатуры до нажатия key. * keyboard.play(recorded\_events, [speed\_factor]) - воспроизводит события, записанные with keyboard.record(key) функция, с дополнительным speed\_factor. Тем не менее, мы рассмотрим все это. Вот быстрый пример: ``` >>> import keyboard >>> keyboard.write("Hello") >>> Hello ``` Приветственное сообщение появляется на экране в терминале, как будто вы его написали. Вы можете очень легко автоматизировать команду и создать для нее псевдоним горячей клавиши. Вот (грубый) пример выхода из REPL Python, написания команды curl: ``` >>> import keyboard >>> keyboard.write("exit()"); keyboard.send("enter"); keyboard.write("curl https://www.google.com"); keyboard.send("enter"); >>> exit() curl https://www.google.com $ curl https://www.google.com ``` Функции write() и wait() клавиатуры ----------------------------------- Команда write() записывает сообщение, как мы видели ранее, с необязательной задержкой при запуске. Если задержка не установлена, запись выполняется мгновенно. Это очень хорошо сочетается с функцией wait (), которая ожидает нажатия определенной клавиши. Например, мы можем создать импровизированный макрос, привязанный, скажем, к 1, который отвечает на этот ввод новым сообщением. Обратите внимание, что вместо этого есть фактический способ создания горячих клавиш, который мы рассмотрим позже. Мы создадим бесконечный цикл True, чтобы проверить, нажата ли клавиша, и вы можете запустить сценарий в фоновом режиме: ``` import keyboard while True: keyboard.wait("1") keyboard.write("\n The key '1' was pressed!") ``` Примечание: Специальные символы не поддерживаются этой функцией, поэтому, если вы добавите, скажем, ! - вы получите исключение остановки. Функции клавиши press() и release() ----------------------------------- Поскольку сложно имитировать press () и release(), чтобы действия были видны, мы также увидим в действии record() и play() . Функция press() нажимает клавишу и отпускает ее, когда вы вызываете release() на той же клавише. ``` >>> import keyboard >>> from time import sleep >>> keyboard.press("a") >>> sleep(1) >>> keyboard.release("a") >>> a ``` Тем не менее, вы можете удерживать некоторые специальные клавиши, такие как [SHIFT] или [CTRL] следующим образом: ``` >>> keyboard.press("shift") >>> keyboard.write("lowercase") >>> keyboard.release("shift") >>> LOWERCASE ``` Функции клавиатуры record() и play() ------------------------------------ Речь не всегда идет о вводе новых клавиш - иногда вы хотите записать происходящий и воспроизвести это. Имейте в виду, что вам понадобятся права администратора для записи любого подобного ввода, так как технология может быть легко использована для создания кейлоггеров. Функция record() принимает ключ запуска, до которого она записывает, и возвращает последовательность событий типа KeyboardEvent. Затем вы можете поместить эту последовательность событий в функцию play(), которая точно воспроизводит их, с дополнительным аргументом speed\_factor. Он действует как множитель скорости исходных событий: ``` import keyboard recorded_events = keyboard.record("esc") keyboard.play(recorded_events) ``` Если мы напечатаем recorded\_events, они будут выглядеть примерно так: ``` KeyboardEvent(w up), KeyboardEvent(o down), ...] ``` Функция клавиатуры send() -------------------------- Функция send() включает в себя press () и release () вместе и используется для отдельных клавиш, в отличие от функции write(), которая используется для целых предложений: ``` import keyboard recorded_events = keyboard.record("s") keyboard.send("w") keyboard.send("a") keyboard.play(recorded_events) ``` После нажатия клавиши s воспроизводятся клавиши w и a. Функция press() также может принимать комбинации нажатых клавиш. Вы можете отправить комбинацию "ctrl + shift + s", например, и должен появиться диалог для сохранения файла, если вы находитесь в приложении, которое поддерживает эту операцию: ``` import keyboard while True: keyboard.wait("s") keyboard.press("ctrl+shift+s") # Or for MacOS keyboard.press("command+shift+s) ``` Хотя это неправильный способ добавить горячие клавиши. Также вы можете использовать функцию add\_hotkey(). Функция клавиатуры add\_abreviation() ------------------------------------- Функция add\_abbreviation() является довольно изящной, так как она позволяет определять сокращения для длинных входных данных и заменяет сокращенные версии сохраненными полными версиями. Например, подобно тому, как такие службы, как Google, сохраняют вашу электронную почту для большинства форм ввода, вы можете создать свою собственную аббревиатуру и запустить ее через [SPACE]: ``` >>> import keyboard >>> keyboard.add_abbreviation("@", "john@stackabuse.com") ``` Во время выполнения, если вы введете @, за которым следует [ПРОБЕЛ] - ввод в длинной форме заменит введенный @. Функция клавиатуры add\_hotkey() -------------------------------- Функция add\_hotkey() принимает горячую клавишу, которую вы хотите сохранить, или комбинацию клавиш и функцию. Здесь легко передать анонимные лямбда-функции, хотя вы также можете добавить именованные функции. Например, давайте добавим горячую клавишу для CTRL+j, которая запускает лямбда-функцию, регистрирующей это: ``` import keyboard keyboard.add_hotkey("ctrl+alt+j", lambda: print("ctrl+alt+j was pressed")) ``` Горячая клавиша ctrl + alt + p сохраняется, и при нажатии этой комбинации вы должны увидеть вывод лямбды. Заключение ---------- Модуль клавиатуры представляет собой легкую и простую библиотеку, используемую для моделирования нажатий клавиш и простой автоматизации в Python. Он не очень функциональный, но может быть использован для автоматизации некоторых задач, которые вы можете выполнять в своей повседневной работе, или просто для развлечения.
https://habr.com/ru/post/579942/
null
ru
null
# Повышение продуктивности с Kotlin ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/425/463/571/425463571f40bc707360bbe6c44fcb0f.png)Я недавно написал статью о нововведениях в Kotlin 1.4.20. И первый комментарий оказался немного несправедливым по отношению к Kotlin. Он утверждал, что зачем мол Kotlin в мобильной разработке, ведь есть Java, потому что это один из лучших языков программирования. И ко всем этому очень много кода Android Framework написаны на Java, а точнее больше 50%! Перед тем, как я поделюсь своим мнением и изложу сей рассказ, попрошу пожалуйста не бить меня стульями. Ну что ж, начнем со статистики! ### Что говорят профессиональные разработчики? Google провела небольшой опрос для тех разработчиков, которые используют Kotlin. Результат такой: > 67 % опрошенных профессиональных Android разработчиков, которые используют Kotlin, сказали, что он повышает их производительность! > > Данные опроса выложила [Florina Muntenescu](https://twitter.com/fmuntenescu?lang=ru) (Android Developer Advocate) Конечно в этот опрос входят не все, кто использует Kotlin, и вообще он не 100% точный. Но такие моменты имеют немалый вес и их стоит учитывать, если вы начинаете свою карьеру в мобильной разработке. ### Что говорят партнеры Google и другие компании, которые принимали участие в статистике? Профессиональные Android разработчики указали на некоторые весьма важные характеристики Kotlin: 1. Краткость - меньше кода, меньше тестов и меньше времени на отладку. Такой код легче читать и поддерживать 2. Простота - несомненно Kotlin проще Java Мнение одной из команд Flipkart: > Во время внутреннего опроса 50% разработчиков отметили, что они сделали бы за меньшие сроки функционал приложения, если бы модуль был написан на Kotlin. > > Немного статистики от компании Cash App: > Когда команда Cash App начала использовать Kotlin, они избавились от Builder паттерн и сократили кол-во кода, который им нужно было написать (в некоторых случаях они сэкономили 25% на размере кода). > > Также о краткости и лаконичности Kotlin говорят ребята из компании Zomato [в этом видео](https://www.youtube.com/watch?v=ao9QvtpszOU) ### От компании Duolingo Duolingo - это одна из самых популярных платформ для изучения иностранных языков и одно из наиболее загружаемых приложений в Google Play (более 100 млн. загрузок). В прошлом их кодовая база увеличивалась каждый код на 46% (добавление новых функций, различные обновления библиотек и т.д.). Поэтому они приняли решение переписать приложение на Kotlin. На это ушло порядка двух лет. Их усилия не прошли даром: **несмотря на введение новых функций, они сократили свою кодовую базу до тех размеров, которые были 2 года назад**! Внутренние опросы показали, что удовлетворенность разработчиков возрасла, что неудивительно! Они заметили один интересный факт: **при конвертировании Java файла в Kotlin количество строк кода в среднем сокращается на 30%, а в некоторых случаях более чем на 90%!** Kotlin функциональность и продуктивность ---------------------------------------- В Android разработке на Java, чтобы указать необязательные параметры у конструктура вы должны сделать одно из двух: 1) Добавить множество конструкторов 2) Добавить Build паттерн В Kotlin существуют значения по умолчанию, которые делают нашу жизнь проще. Вот так выглядит страшный класс с использованием Builder паттерна на Java: ``` public class Task { private final String name; private final Date deadline; private final TaskPriority priority; private final boolean completed; private Task(String name, Date deadline, TaskPriority priority, boolean completed) { this.name = name; this.deadline = deadline; this.priority = priority; this.completed = completed; } public static class Builder { private final String name; private Date deadline; private TaskPriority priority; private boolean completed; public Builder(String name) { this.name = name; } public Builder setDeadline(Date deadline) { this.deadline = deadline; return this; } public Builder setPriority(TaskPriority priority) { this.priority = priority; return this; } public Builder setCompleted(boolean completed) { this.completed = completed; return this; } public Task build() { return new Task(name, deadline, priority, completed); } } } ``` Тот же самый класс на Kotlin (с дополнительной реализацией `hashCode(),` `equals()` и некоторыми другими плюшками): ``` data class Task( val name: String, val deadline: Date = DEFAULT_DEADLINE, val priority: TaskPriority = TaskPriority.LOW, val completed: Boolean = false ) ``` Это впечатляет! А вот ещё пример с применением паттерна Singleton на Java: ``` public class Singleton{ private static volatile Singleton INSTANCE; private Singleton(){} public static Singleton getInstance(){ if (INSTANCE == null) { // Single Checked synchronized (Singleton.class) { if (INSTANCE == null) { // Double checked INSTANCE = new Singleton(); } } } return INSTANCE; } private int count = 0; public int count(){ return count++; } } ``` На Kotlin: ``` object Singleton { private var count = 0 fun count(): Int { return count++ } } ``` Подобные вещи сильно упрощают разработку и помогают избавиться от шаблонного кода. Kotlin предоставляет довольно мощные средства, которые обеспечивают высокую выразительность кода, вот взгляните: ``` fun borrow(){ library -= book // используется operator overloading val (title, author) = book // деструктуризация data класса println("Borrowed $title") // шаблон строки } ``` Помимо лаконичности и простоты, Kotlin вводит дополнительный синтаксис при работе с null ссылками: ``` var str: String? = null // Разработчик, знает, // что str может ссылаться на null println(str?.length) // Обращение происходит через Safe (?) оператор val len = str?.length ?: 0 // значение 0, если str ссылается на null var listOf: List? = null // может ссылаться на null listOf?.filter { it.length > 3 } // можно использовать цепочки ?.map { it.length } ?.forEach { println("Length more 3 -> $it") } ``` А также в Android предусмотрены дополнительные расширения для Kotlin, которые позволяют сделать код меньше и проще, например: ``` @Inject lateinit var viewModelFactory: MyViewModelFactory private val viewModel by viewModels { viewModelFactory } ``` Большинство современных библиотек поддерживают Kotlin расширения, например: ``` dependencies { implementation 'androidx.lifecycle:lifecycle-livedata-ktx:2.2.0' implementation "androidx.room:room-ktx:$room_version" implementation "androidx.paging:paging-runtime-ktx:$paging_version" } ``` Заключение ---------- Java довольно мощный и высокоразвитый язык, но по моему мнению, Kotlin в будущем будет использоваться более чем 95% мобильными разработчиками, а Java останется на заднем плане. Но это не весомый аргумент тому, что о Java можно забыть в мобильной разработке, хотя по большей части можно :) Даже если Kotlin заполонит весь рынок мобильной разработки, большинство компонентов Android Framework все равно написаны на Java и поэтому в редких случаях придется будет использовать Java. Полезные ссылки: 1. [Статья на Medium от Florina Muntenescu](https://medium.com/androiddevelopers/more-productivity-with-kotlin-8ce7b7718f39) (Android Developer Advocate) 2. [Twitter аккаунт Florina Muntenescu](https://twitter.com/fmuntenescu?lang=ru) 3. [Twitter аккаунт Android Developers](https://twitter.com/AndroidDev) 4. [Duolingo перешла на Kotlin](https://developer.android.com/stories/apps/duolingo-kotlin) 5. [Android Developers Store: Zomato использует Kotlin чтобы сделать код более безопасным и лаконичным](https://www.youtube.com/watch?v=ao9QvtpszOU)
https://habr.com/ru/post/537362/
null
ru
null
# Сравнение производительности аналитических СУБД HPE Vertica и Exasol с использованием TPC-H Benchmark ![](https://habrastorage.org/r/w1560/files/d0b/012/742/d0b012742e1c43168d7200e85eec9711.png) В данной статье я хочу продолжить тему сравнения баз данных, которые можно использовать для построения хранилища данных (DWH) и аналитики. Ранее я описал результаты тестов для [Oracle In-Memory Option](https://habrahabr.ru/post/317774/) и In-Memory RDBMS [Exasol](https://habrahabr.ru/post/318416/). В данной же статье основное внимание будет уделено СУБД Vertica. Для всех описанных тестов использовались [tpc-h benchmark](http://www.tpc.org/tpch/) на небольшом объёме исходных данных (2 Гб) и конфигурация БД на одном узле. Эти ограничения позволили мне многократно повторить бенчмарк в разных вариациях и с различными настройками. Для выбора аналитической СУБД под конкретный проект призываю читателей проводить испытания на своих кейсах (данные, запросы, оборудование и другие особенности). Краткая информация о СУБД Vertica --------------------------------- Vertica — это реляционная аналитическая column-oriented [MPP](https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%81%D1%81%D0%BE%D0%B2%D0%BE-%D0%BF%D0%B0%D1%80%D0%B0%D0%BB%D0%BB%D0%B5%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%B0%D1%80%D1%85%D0%B8%D1%82%D0%B5%D0%BA%D1%82%D1%83%D1%80%D0%B0) база данных. На Хабре достаточно статей с описанием основных возможностей этой СУБД (в конце статьи приведены ссылки на некоторые их них), поэтому я не буду их описывать и упомяну только несколько интересных, на мой взгляд, фактов о Vertica: * Facebook [использует](https://community.dev.hpe.com/t5/Vertica-Blog/Facebook-and-Vertica-A-Case-for-MPP-Databases/ba-p/223309) Vertica для своих внутренних аналитических задач. 2 года назад там был кластер из сотен серверов и десятки петабайт данных… Я не нашёл актуальной информации об этом проекте, может кто-то поделится достоверной ссылкой в комментариях. * Vertica была разработана командой под руководством [Майкла Стоунбрейкера](https://ru.wikipedia.org/wiki/%D0%A1%D1%82%D0%BE%D1%83%D0%BD%D0%B1%D1%80%D0%B5%D0%B9%D0%BA%D0%B5%D1%80,_%D0%9C%D0%B0%D0%B9%D0%BA%D0%BB) (изначально называлась [C-Store](https://ru.wikipedia.org/wiki/C-Store)). Написана была с нуля специально для аналитических задач с учётом большого предшествующего опыта Майкла (Ingres, Postgres, Informix и другие СУБД). Для сравнения подходов можно вспомнить конкурента Vertica – Greenplum (сейчас принадлежит компании Dell), это MPP СУБД, которая базируется на доработанной БД PostgreSQL. * В 2016 году Hewlett-Packard Enterprise (HPE) продала свой софтверный бизнес вместе с Vertica компании Micro Focus. Как это отразится на развитии Vertica пока не понятно, но я очень надеюсь, что данная сделка не погубит отличный продукт. * В контексте сравнения с Exasol важно отметить, что Vertica не является in-memory базой данных и более того, в Vertica нет буферного [пула](https://my.vertica.com/docs/8.0.x/HTML/index.htm#Authoring/SQLReferenceManual/Statements/Built-inPools.htm%3FTocPath%3DSQL%2520Reference%2520Manual%7CSQL%2520Statements%7CCREATE%2520RESOURCE%2520POOL%7C_____1). То есть БД предназначена в первую очередь для обработки объёмов данных, которые значительно превосходят размер оперативной памяти, а на отказе от поддержки буферного КЭШа можно сэкономить существенную часть ресурсов сервера. В то же время, Vertica эффективно использует возможности файловой системы и в частности кэширование. TPC-H Benchmark --------------- Для тех, кто не читал предыдущие мои 2 статьи, кратко опишу [tpc-h benchmark](http://www.tpc.org/tpch/). Он предназначен для сравнения производительности аналитических систем и хранилищ данных. Этот бенчмарк используют многие производители как СУБД, так и серверного оборудования. На странице tpс-h доступно много результатов, для публикации которых необходимо выполнить все требования спецификации на 136 страницах. Я публиковать официально свои тесты не собирался, поэтому всем правилам строго не следовал. Отмечу, что в [рейтинге](http://www.tpc.org/tpch/results/tpch_results.asp?orderby=dbms) нет ни одного теста СУБД Vertica. TPC-H позволяет сгенерировать данные для 8-ми таблиц с использованием заданного параметра *scale factor*, который определяет примерный объём данных в гигабайтах. Для всех тестов, результаты которых публикую, я ограничился 2 Гб. ![](https://habrastorage.org/r/w1560/files/d20/596/5f9/d205965f91ac46a6be7d8e076f909533.png) Бенчмарк включает 22 SQL запроса различной сложности. Отмечу, что сгенерированные утилитой *qgen* запросы, нужно корректировать под особенности конкретной СУБД, но как и Exasol, Vertica поддерживает стандард ANSI SQL-99 и все запросы для этих 2-х СУБД были абсолютно идентичны. Для теста было сгенерировано 2 вида нагрузки: * 8 виртуальных пользователей параллельно 3 раза по кругу выполняют все 22 запроса * 2 виртуальных пользователя параллельно 12 раз по кругу выполняют все 22 запроса В итоге в обоих случаях оценивалось время выполнения 528-ми SQL запросов. Тестовая площадка ----------------- > **Ноутбук со следующими характеристиками:** > > Intel Core i5-4210 CPU 1.70GHz – 4 virt. processors; DDR3 16 Gb; SSD Disk. > > **ОС:** > > MS Windows 8.1 x64 > > VMware Workstation 12 Player > > Virtual OS: Ubuntu 14.04.4 x64 (Memory: 8 Gb; Processors: 4) > > **СУБД:** > > Vertica Analytic Database v7.2.2-1 (single node) Физическая модель данных в Vertica ---------------------------------- Объём занимаемого дискового пространства и производительность запросов в Vertica сильно зависит от порядка сортировки и алгоритма сжатия столбцов проекций. Исходя из этого, свои тесты я выполнял в несколько этапов. На первом этапе были созданы только super projections таким способом: ``` CREATE TABLE ORDERS ( O_ORDERKEY INT NOT NULL, O_CUSTKEY INT NOT NULL, O_ORDERSTATUS CHAR(1) NOT NULL, O_TOTALPRICE NUMERIC(15,2) NOT NULL, O_ORDERDATE DATE NOT NULL, O_ORDERPRIORITY CHAR(15) NOT NULL, O_CLERK CHAR(15) NOT NULL, O_SHIPPRIORITY INT NOT NULL, O_COMMENT VARCHAR(79) NOT NULL) PARTITION BY (date_part('year', ORDERS.O_ORDERDATE)); ``` Две самые объёмные таблицы *ORDERS* и *LINEITEM* были партиционированы по годам. Так как бенчмарк проводился на 1 узле, сегментирования (шардинга) не было. На последующих этапах физическая структура оптимизировалась с помощью Database Designer, об этом ниже. Загрузка данных в Vertica ------------------------- Для загрузки данных из текстового файла я использовал следующий скрипт: ``` COPY tpch.lineitem FROM LOCAL 'D:\lineitem.tbl' exceptions 'D:\l_error.log'; ``` Время загрузки всех файлов составило 5 мин. 21 сек. (в Exasol 3 мин. 37 сек.). Таким способом данные изначально загружаются построчно в оперативную память в WOS контейнеры (параметры *wosdata pool* по умолчанию: *maxmemorysize = 25%*), затем автоматически на диск поколоночно в ROS контейнеры. Также я протестировал загрузку из файлов и из Oracle c использованием ETL инструмента Pentaho DI (aka Kettle), получается существенно медленнее даже со специальным плагином для Vertica. Результаты выполнения теста --------------------------- ![](https://habrastorage.org/r/w1560/files/7e9/b7c/76a/7e9b7c76a4a64f528bc9676ea1ad2ee3.png) \* В предыдущем [тесте](https://habrahabr.ru/post/318416/) выполнение запросов в Exasol заняло значительно меньше времени за счёт кэширования результатов (часть запросов в тесте не меняются, для части генерируются значения параметров). В Vertica такого кэширования нет и для уравнивания шансов, я отключил его и в Exasol: ``` alter session set QUERY_CACHE = 'OFF'; ``` Последовательность тестирования в Vertica ----------------------------------------- ### Этап 1. 1-й запуск Первый запуск теста выполнялся после загрузки данных в super projections **без сбора статистики**. Время выполнения составило 581 секунду для 2-х сессий и 680 секунд для 8-ми сессий. При повторном выполнении время сократилось минимально (см. в таблице выше). Далее в таблице представлена информация о том, как данные были организованы в Exasol и Vertica после первоначальной загрузки: ![](https://habrastorage.org/r/w1560/files/40f/34d/dd2/40f34ddd22ad4844b2a9297b9011ca16.png) Запрос для получения информации по занимаемому объёму на диске и в памяти в Vertica: ``` SELECT ANCHOR_TABLE_NAME, PROJECTION_NAME, USED_BYTES/1024/1024 as USED_Mb, ROS_USED_BYTES/1024/1024 as ROS_Mb, WOS_USED_BYTES/1024/1024 as WOS_Mb FROM PROJECTION_STORAGE WHERE ANCHOR_TABLE_SCHEMA='tpch' order by 1,3 desc; ``` Из таблицы видно, что Vertica немного лучше сжала данные, несмотря на то, что проекции были созданы не оптимальным способом. В процессе тестирования я также пробовал оптимизировать структуру с помощью DB Designer на основании загруженных данных и без учёта запросов. Коэффициент сжатия получился равным 6. ### Этап 2. Сбор статистики После сбора статистики по таблицам время выполнения неожиданно увеличилось примерно на 30%. Анализ статистики и планов выполнения запросов показал, что для большинства запросов время выполнения незначительно уменьшилось или не поменялось, но для пары запросов существенно увеличилось. В этих запросах соединялось множество таблиц, включая *ORDERS* и *LINEITEM*, и меньшая стоимость (cost) соответствовала более длительному времени выполнения. ### Этап 3. Оптимизация структуры с помощью DB Designer Был создан *Comprehensive design* с опцией *Query perfomance (larger footprint)* на основании 21-го запроса бенчмарка tpc-h (1 пропущен, т.к. для него view создаётся перед выполнением). В результате получились следующие цифры: ![](https://habrastorage.org/r/w1560/files/d7f/935/dcd/d7f935dcd7a64c36a918aaf7774ee4f6.png) Таким образом, было создано 9 дополнительных проекций, но общий объём данных на диске почти не поменялся за счёт оптимизации структуры (порядка следования колонок и различных алгоритмов их сжатия). Однако новая структура ещё больше замедлила проблемные запросы и соответственно общее время выполнения. ### Этап 4. Ручная оптимизация Учитывая свой предыдущий опыт работы с Vertica на других моделях данных (преимущественно star schema), я ожидал от БД лучших результатов, поэтому решил глубже поискать узкие места. Для этого были выполнены следующие действия: * Анализ статистики и планов выполнения запросов — системные таблицы *v\_monitor: query\_requests, query\_plan\_profiles, execution\_engine\_profiles, query\_events;* * Анализ рекомендаций БД по результату выполнения функции [ANALYZE\_WORKLOAD()](https://my.vertica.com/docs/7.1.x/HTML/Content/Authoring/AdministratorsGuide/WorkloadAnalyzer/AnalyzingWorkloads.htm); * Создание нескольких дополнительных проекций; * Изменение параметров для general пула. Всё это значимых результатов не принесло. Далее был переписан проблемный запрос, который занимал около 30% времени выполнения всех запросов: **Исходный код запроса:** ``` select nation, o_year, sum(amount) as sum_profit from ( select n_name as nation, extract(year from o_orderdate) as o_year, l_extendedprice * (1 - l_discount) - ps_supplycost * l_quantity as amount from part, supplier, lineitem, partsupp, orders, nation where s_suppkey = l_suppkey and ps_suppkey = l_suppkey and ps_partkey = l_partkey and p_partkey = l_partkey and o_orderkey = l_orderkey and s_nationkey = n_nationkey and p_name like '%thistle%' ) as profit group by nation, o_year order by nation, o_year desc; ``` **Переписанный код запроса с использование подсказки оптимизатору:** ``` select /*+SYNTACTIC_JOIN */ n_name as nation, extract(year from o_orderdate) as o_year, sum(l_extendedprice * (1 - l_discount) - ps_supplycost * l_quantity) as amount from lineitem join orders on o_orderkey = l_orderkey join partsupp on ps_suppkey = l_suppkey and ps_partkey = l_partkey join part on p_partkey = l_partkey and p_name like '%thistle%' join supplier on s_suppkey = l_suppkey join nation on s_nationkey = n_nationkey group by n_name, extract(year from o_orderdate) order by 1, 2 desc; ``` В результате запрос ускорился примерно в 4 раза. В итоге, минимальное время выполнения теста в 2 сессии со структурой созданной DB Designer и корректировкой 1 запроса составило 531 секунду (самый первый запуск без оптимизаций длился 581 сек.). На этом я остановился, так как не было цели выжать максимум путём переписывания запросов, изменения модели и других не совсем «честных» способов. Выводы ------ Данный тест в очередной раз подтверждает правило, что всегда необходимо выбирать инструменты и варианты реализации, которые будут оптимальны для вашей конкретной задачи/проекта. Бенчмарк tpc-h с моими заданными ограничениями является «неудобным» для СУБД Vertica по следующим причинам: * Все данные помещались в оперативную память, а Vertica не является in-memory DB; * Нормализованная модель tpc-h и ошибки оптимизатора. Когда приоритетным требованием является производительность ad-hoc запросов, для презентационного слоя хранилища в Vertica лучше подходит денормализованная модель (например, star schema). A БД Exasol отлично справляется и с нормализованной моделью, в чём, на мой взгляд, её большое преимущество, так как можно сократить количество слоёв DWH. Vertica не перегружена лишним функционалом и относительно проста для разработки и администрирования, но Exasol в этом плане ещё проще и почти всё делает за вас. Что лучше гибкость или простота, зависит от конкретной задачи. Стоимости лицензий Vertica и Exasol сопоставимы, а также доступны бесплатные версии с ограничениями. В процессе выбора аналитической СУБД я бы рекомендовал рассматривать оба продукта. Полезные ссылки о Vertica ------------------------- 1. [Обзор](http://www.slideshare.net/AndreyKarpov11/hp-vertica-58896444) архитектуры и основных возможностей; 2. Больше всех делится практическим опытом на русском языке, наверное, Алексей Константинов [ascrus](https://habrahabr.ru/users/ascrus/). Спасибо ему за это, рекомендую все его [публикации](https://habrahabr.ru/users/ascrus/) на Хабре и в [блоге](http://ascrus.blogspot.ru); 3. Вводная [статья](https://habrahabr.ru/company/lifestreet/blog/147254/) и практический опыт от [alexzaitsev](https://habrahabr.ru/users/alexzaitsev/); 4. [Выбор](https://habrahabr.ru/post/227111/) методологии для хранилища на Vertica от Николая Голова [azathot](https://habrahabr.ru/users/azathot/). Интересный и неожиданный для Vertica выбор Anchor Modeling (6 NF). Николай нередко делится практическим опытом на различных мероприятиях, например, на [Higload++](http://www.highload.ru/2014/abstracts/1570.html) или [HPE конференции](https://www.youtube.com/watch?v=0hL5NWpccS4&t=596s); 5. Официальная on-line [документация](https://my.vertica.com/docs/8.0.x/HTML/index.htm) с множеством примеров; 6. Краткая [статья](http://verticadatabaseblog.blogspot.com.by/2014/03/what-does-vertica-not-support.html) о том, чего нет в Vertica, но что многие ищут. Спасибо за внимание, на очереди один из лидеров среди [аналитических БД](https://www.gartner.com/doc/reprints?id=1-2ZFVZ5B&ct=160225&st=sb) — Teradata.
https://habr.com/ru/post/319902/
null
ru
null
# Псевдо 3D: Анимация вращения планет и других шароподобных объектов Описание небольшого трюка по анимации вращения планет или других шарообразных штуковин. На написание этой статьи меня натолкнула статья [Сфера из двух треугольников](http://habrahabr.ru/post/180245/) (стоит почитать). А сам трюк основан на весьма простом способе создания в Photoshop псевдо-объемной картинки из плоской, который описан под катом. [микродемо](http://ui4.me/project/planet2d/examples/demo2.html) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a39/537/66f/a3953766f2a6627810f5edfb0b72464d.png) Как это делается в Photoshop (микро-урок): * подбираем нужную текстуру * вырезаем из неё кружок * добавляем затемнение или осветление «по вкусу» через свойства слоя (я буду использовать осветление, а более реалистичные результаты получаются при комбинации разных теней) Чтобы долго не заморачиваться с реализацией (т.к. это уже второстепенный момент), буду использовать js+css+html. Описанный выше «урок» для Photoshop для веб-страницы будет выглядеть так: * подбираем бесконечную текстуру, повторяющуюся по вертикали (или по горизонтали, или в обоих направлениях) * устанавливаем эту текстуру в виде фона * изменяем положение фона с помощью js через фиксированные промежутки времени также можно решить эту задачу, используя canvas (кроссплатформенное быстрое решение можно получить с помощью, например, [pixi.js](http://habrahabr.ru/post/174603/) или подобных библиотек, либо чистого js + canvas). #### Решение Как выглядит стиль: ``` .planet2d { background: repeat-x 0 0 url(earthmap-h100.jpg); border: 1px solid #999; -webkit-border-radius: 50px; -moz-border-radius: 50px; border-radius: 50px; box-shadow: inset 0 0 10px rgba(255,255,255,0.9); height: 100px; width: 100px; } .planet2d.moon { background-image: url(moon-h100.jpg); } .planet2d.jupiter { background-image: url(jupiter-h100.jpg); } .planet2d.venus { background-image: url(venus-h100.jpg); } .planet2d.mercury { background-image: url(mercury-h100.jpg); } .planet2d.io { background-image: url(io-h100.jpg); } ``` т.е. нужно установить начальное состояние фона, потом округлить блок (здесь я просто использую border-radius, но можно использовать картинку-шаблон с вырезанным кругом внутри, при этом, в этот шаблон можно включить и тени, таким образом достигнув более крутого результата) и сделать тень, затем задать размеры блока — вот и всё. А потом описаны стили для разных планет. JavaScript-кода не больше: ``` (function (w) { w.Planet2D = function (interval) { interval = interval || 40; var j = 0; setInterval(function () { var els = document.querySelectorAll(".planet2d"); j--; for (var i = 0; i < els.length; i++) { els[i].style.backgroundPosition = j + "px 0px"; } }, interval); } })(window); ``` т.е. нужно сделать выборку всех элементов и сдвинуть у них фоновое изображение. #### Итог 1. Математики нет 2. Трюк легко реализовывается под многие платформы 3. Анимация весьма правдоподобно напоминает 3D #### Ссылки [Demo](http://ui4.me/static/samples/Planet2D/demo2.html) [Ландшафты разных планет](http://laps.noaa.gov/albers/sos/sos.html) [GitHub](https://github.com/ALeutsky/Planet2D) для препарирования UPD: [omfg](https://habrahabr.ru/users/omfg/): Можно и на чистом css сделать [codepen.io/chinchang/pen/xCkus](http://codepen.io/chinchang/pen/xCkus)
https://habr.com/ru/post/180353/
null
ru
null
# Добавляем в jsx циклы и условия Если вы используете библиотеку React, то наверняка используете и jsx. Конечно, это не обязательно, и можно писать только js, используя `React.createElement`, но с jsx получится гораздо лаконичнее, что повышает читаемость. И всё замечательно до появления первой необходимости вывести данные в цикле. В jsx циклы не предусмотрены. Зато предусмотрена вставка js-кода. И тут вновь возникает вопрос читаемости, но теперь она значительно ухудшается. Возникает ситуация, когда в js-коде пишется html, в котором пишется js-код с html. Конечно, можно выделить html в отдельную функцию. Но тогда html будет появляться в коде то тут, то там. А хотелось бы локализовать всё в одном месте. К счастью, в современном javascript почти для любой проблемы, есть решение в виде библиотеки или плагина. Выше обозначенную проблему легко решает плагин для babel [transform-react-statements](https://www.npmjs.com/package/babel-plugin-transform-react-statements). ![](https://habrastorage.org/r/w1560/web/2f3/f01/959/2f3f01959038457580a65c21786e613d.png) Цикл For -------- Принцип действия плагина прост. Плагин преобразует jsx-компоненты, такие как , в js-код. Допустим есть вот такой компонент: ``` const MyComponent = props => * {item.text} ``` После обработки плагином, получим: ``` var _this = this; const MyComponent = props => {Array.prototype.map.call(props.items, function (item, index) { return * {item.text} ; }, \_this)} ; ``` Теперь подробнее о `For`. В первую очередь атрибут `in`. Это обязательный атрибут, в котором обозначается способ получения итерируемого объекта (например, переменная). Значение должно быть выражением, т.е. заключено в фигурные скобки. Атрибут `each` задает имя переменной для каждого элемента массива. Он не является обязательным. В случае его отсутствия, элементы массива будут передаваться в качестве spread-атрибута. ``` ``` Преобразуется в: ``` {Array.prototype.map.call(items, function (value, index) { return ; }, this)} ``` Также, как видно из примеров выше, в цикле доступен номер элемента в переменной `index`. Переменную можно переименовать с помощью атрибута `counter`: ``` { cell.content } ``` #### Атрибут key Для корректной работы React, каждый элемент в массивах должен иметь атрибут `key`. Его можно указать очевидно, как в примере выше. Другой способ — использовать атрибут `key-is`. Это может немного улучшить читаемость. Также можно указать `keyIs` в параметрах плагина. Тогда `key` не нужно будет писать в шаблоне — логика его получения уходит в бизнес-логику. **.babelrc** ``` { plugins: [["transform-react-statements", { keyIs: "id" }]] } ``` ``` { item.value } { item.value } { item.value } ``` Будет преобразовано в: ``` {Array.prototype.map.call(array, function (item) { // key берется из параметров плагина return {item.value}; }, this)} {Array.prototype.map.call(array, function (item) { // key - из атрибута return {item.value}; }, this)} {Array.prototype.map.call(array, function (item) { // стандартный для React способ return {item.value}; }, this)} ; ``` Условие If ---------- Это просто альтернатива для синтаксиса: ``` { condition && } ``` Основная задача сделать всё в едином, html-подобном стиле. Есть два атрибута: либо `true`, либо `false`, проверяющие условие на истинность или ложность соответственно. Для нескольких дочерних элементов, условие будет применяться к каждому из них: ``` Текст 1 Текст 2 ``` Преобразуется в: ``` { !someCondition && Текст 1 } { !someCondition && Текст 2 } ``` Switch..Case..Default --------------------- `Switch` ведёт себя также, как и в javascript. У компонента `Switch` есть атрибут `value`, значение которого должно быть выражением в фигурных скобках, и дочерние компоненты `Case`, со своими атрибутами `value`. Если значение не соответствует ни одному из значений `Case`, выводится блок `Default`. Если блок `Default` отсутствует, возвращается `null`. ``` Text 1 Text 2 Text 3 Default text ``` Component --------- Довольно специфическое выражение. Превращает содержимое в стрелочную функцию: ``` text ``` Преобразуется в: ``` props => text ; ``` Соответственно, внутри доступна переменная `props`, которую можно переопределить через атрибут `props`: ``` ``` На выходе получим: ``` item => ; ``` Автоматическое обертывание -------------------------- Предположим, есть такой компонент: ``` class MyComponent extends React.Component { render() { return {item.text} } } ``` For будет преобразован в выражение, возвращающее массив. Однако метод `render` должен вернуть React-элемент. Для того, чтобы использовать такой компонент, цикл нужно обернуть в элемент. Например так: ``` class MyComponent extends React.Component { render() { return {item.text} } } ``` Но делать это не обязательно. Так как плагин сам обернёт массив в react-элемент. По умолчанию, это . Такое поведение можно изменить, указав параметр `wrapper` в настройках плагина: ``` { plugins: [["transform-react-statements", { wrapper: '' }]] } ``` Также можно отключить автоматическое обёртывание, используя значение параметра `no-wrap`: ``` { plugins: [["transform-react-statements", { wrapper: "no-wrap" }]] } ``` Отключение и переименование выражений ------------------------------------- Допустим, что в проекте уже есть компонент , который вполне справляется со своей задачей. Тогда его можно отключить с помощью параметра `disabled`: ``` { plugins: [["transform-react-statements", { disabled: ["If"]}]] } ``` Или можно переименовать выражение, чтобы в jsx использовать другое имя, например, `IfStatement`: ``` { plugins: [["transform-react-statements", { rename: { "If": "IfStatement" } }]] } ``` Код пишется для людей, поэтому так важна его читаемость. И читаемость является главной проблемой jsx, а конкретно — перемешивание двух языков. Как видно, эта проблема решается, и решается она благодаря гибкости jsx в возможности вставлять javascript-код. P.S. Автору было бы приятно получить звездочек на [github](https://github.com/PavelDymkov/babel-plugin-transform-react-statements), в качестве благодарности за работу.
https://habr.com/ru/post/330172/
null
ru
null
# Админка для Private Docker Registry (Registry Admin) Концепция контейнеризации на базе Docker, и ему подобных технологий, для многих разработчиков стала незаменимым инструментом доставки своих продуктов конечным пользователям в виде полностью подготовленной среды использования. В большинстве случаев, особенно это касается **open source** продуктов, для распространения используются бесплатные реестры такие как Docker Hub или Github Container Registry. Но когда количество продуктов и размеры образов начинают увеличиваться, а также требуется более расширенное управление репозиториями и доступом к ним, то разработчики и компании начинают задумываться о своих собственных хранилищах для контейнерных образов (images). К счастью вариантов для развертывания своего собственного экземпляра Container Registry предостаточно, начиная от самого простого варианта [Docker Registry](https://docs.docker.com/registry/) и до более масштабных систем таких как [HARBOR](https://goharbor.io/), [Dragonfly](https://d7y.io/) и [прочие](https://landscape.cncf.io/guide#provisioning--container-registry). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d93/ee1/c9f/d93ee1c9f23506c2236f273e838b2c6e.png)Для своих задач я выбрал самый простой вариант на базе [Docker Registry](https://docs.docker.com/registry/), который разворачивается за минуту имеет достаточно много различных настроек и интеграций с различными облачными сервисами. Работает он достаточно предсказуемо, надежно, а также написан на языке который я знаю. Изначально доступ к registry нужен был только для одного пользователя - меня самого, поэтому я выбрал обычный механизм доступа на основе `htpasswd` Этот механизм очень простой, все пользователи указанные в файле `htpasswd` имеют полный доступ ко всему реестру, что является сложностью при появлении задачи раздельного доступа к реестру, которая у меня и возникла в скором времени. Среди возможных способов доступа к Docker Registry имеется механизм авторизации на основе [*token*](https://docs.docker.com/registry/spec/auth/token), который позволяет организовать управляемый доступ в зависимости от репозитория и действий пользователя (*pull, push, delete*). Однако реализация данного механизма является не очень простой задачи. Требуется отдельный *auth* сервер, сертификаты с ключами, которыми будет подписываться и проверяться *token*. Также хотелось получить единый интерфейс управления пользователями, доступами и запиясми репозиториев. К сожалению, из простых вышеперечисленных решений я не нашел такого, которое бы решало следующие задачи: * разделение доступа к репозиториям на основе действий пользователей (pull/push); * доступ на основе ролей (RBAC); * просмотр списка репозиториев и информацию об образах; * удаление образов; * механизм поиска по записям; * анонимный доступ и доступ для зарегистрированных пользователей; * прочие функции (логирование, генератор сертификатов и т.п.). Скорее всего я плохо искал и что-то похожее уже реализовано, но в итоге я решил реализовать свой сервис *RegistryAdmin*, который будет решать выше поставленные задачи. По больше части энтузиазм написать свой, более-менее серьезный, open source проект возник благодаря популярному ИТ-подкасту [Radio-T](https://radio-t.com/) и особенно ведущему [Umputun](https://umputun.com/). В одно время я часто изучал код его [проектов](https://github.com/umputun) и заимствовал различные идеи в своих разработках (в том числе и в этом проекте), а также контрибьютил в некоторые из них, чтобы внести свой вклад в развитие проектов, которыми я пользуюсь. Некоторые технологии, которые я изучил и использую в повседневной работе, стали мне известны именно благодаря данному подкасту, за что хочу высказать **ОГРОМНУЮ БЛАГОДАРНОСТЬ** всем ведущим за их труд. Прошу не расценивать данный абзац как рекламу или что-то подобное т.к. таковым он не является, а имеет место искренний душевный порыв высказать благодарность. Некоторые особенности реализации проекта ---------------------------------------- Изначально я хотел быстро написать простенький сервис, который будет интегрирован в существующий экземпляр, уже развернутого private registry, и просто выдавать токены авторизации существующим пользователям. Но после детального изучения документации на сайте Docker стало ясно, что быстро не получится. Во-первых, для подписи и проверки токенов необходимы только RSA ключи (подпись текстовым секретом не подходит). Сертификат должен содержать адрес или имя хоста registry, по которому осуществляется запрос данных из реестра, т.е. в нём обязательно должны быть определенны поля [*subjectAltName*](https://oidref.com/2.5.29.17)*.* Поэтому механизмгенерации RSA ключей для работы с токеном я решил встроить непосредственно в *RegistryAdmin*, чтобы можно было обойтись без сторонник утилит таких как *openssl* (хотя их также можно использовать). Сгенерированные ключи могут быть использованы и для TLS подключения. Во-вторых, в пользовательском web-интерфейсе мне было необходимо реализовать полнотекстовый поиск по репозиториям, однако API registry позволяет получать список репозиториев только используя вариант курсора. По этой причине я решил реализовать синхронизацию списка репозиториев и данных по этим репозиториям во внутренней базе *RegistryAdmin* (на базе SQLite). Для синхронизации в режиме реального времени на стороне registry настроен механизм уведомлений ([notifications](https://docs.docker.com/registry/notifications/)) о событиях, которые инициируют механизм актуализации данных в базе *RegistryAdmin*. Также доступен ручной механизм запуска синхронизации данных, который также запускается автоматически через заданный интервал времени. Сам *RegistryAdmin* является обычным REST API приложением, который взаимодействует непосредственно с экземпляром *registry*. В качестве фреймворка для UI был выбран [React-Admin](https://marmelab.com/react-admin/), который достаточно легко и просто встраивается в различные REST API системы. Файлы UI интегрированны в бинарник при помощи библиотеки [embed](https://pkg.go.dev/embed). Помимо авторизации на основе токена, также поддерживается обычная авторизация через *htpasswd* файл, который синхронизируется со списком пользователей *RegistryAdmin*. Однако стоит иметь ввиду, что доступ к реестру на основе *htpasswd* не поддерживает разделение прав доступа на основе действий пользователя (*pull/push*). Для управления и просмотра данных реестра через UI предусмотрены встроенные роли: * *Admin* - полные права для работы с реестром и репозиориями; * *Manager* - просмотр только списка всех репозиториев и списков доступа; * *User* - может только просматривать разрешенный список репозиториев. Также в сервисе реализованы специальные права для анонимных и зарегистрированных пользователей, которые имеют [специальные](https://github.com/zebox/registry-admin/blob/master/app/store/engine/engine.go#L19:L20) ID и не хранятся в базе *RegistryAdmin.* В итоге получился простой по функционалу и немного усложненный, в части первичной настройки, сервис *RegistryAdmin*. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ba6/34a/f4f/ba634af4ffea82cbd3a4ec7a82ea2aac.png)Учитывая, что я занимаюсь в основном *backend* разработкой, то тесты написаны только к самому сервису. В планах есть задача реализовать тесты к *frontend* части, но пока не нашел на это свободного времени. Было бы очень хорошо если бы, кто-нибудь оказал помощь в этом вопросе. Установка и настройка RegistryAdmin ----------------------------------- Дистрибутив *RegistryAdmin* доступен в двух вариантах: * единый бинарный файл для разных архитектур (доступен в [релизах](https://github.com/zebox/registry-admin/releases)); * docker [образ](https://hub.docker.com/r/zebox/registry-admin). В данном обзоре я буду рассматривать вариант установки в среде docker, как наиболее предпочтительный, с использованием *docker-compose*. Изначально нужно определится с архитектурой системы, чтобы чётко понимать какие настройки для чего нужны. В данном примере я буду выполнять развертывание для следующей схемы узлов: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/136/732/032/13673203241e8621c65a04624ae97d73.png)В качестве сервера ***registry.local***выступает сервер с развернутой средой *docker.* В качестве внешних клиентов может выступать любой узел внутри сети, которому доступен хост ***registry.local*** 1. Создаем папку для стека контейнеров *Docker Private Registry* и *RegistryAdmin* ``` mkdir registry-admin cd registry-admin ``` 2. В папке создаем файлы конфигурации (или копируем из [примера](https://github.com/zebox/registry-admin/tree/master/_examples/token_auth)), рекомендуется придерживаться следующей структуры: ``` registry-admin\ config\ registry-config.yml token-ra-config.yml docker-compose.yml ``` где: *registry-config.yml* - файл конфигурации для *registry token-ra-config.yml* - конфигурационный файл *RegistryAdmin* 3. Задать владельца для директории и файлов. По-умолчанию в контейнере определен владелец с `UID=1000` . Данный UID может быть переопределен через переменную окружения `APP_UID` в файле *docker-compose.yml.* ``` chown -R 1000:1000 ./ ``` 4. Указываем основные параметры для *RegistryAdmin* и указываем пути и параметры для подключения к реестру и генерации ключей для токенов. Также мы будем использовать данные ключи для настройки TLS подключения. ``` hostname: tnas.local ssl: type: static port: 443 cert: /app/certs/cert.crt key: /app/certs/cert.key registry: host: https://registry port: 5000 auth_type: token issuer: registry_token_issuer service: container_registry certs: path: /app/certs key: /app/certs/cert.key public_key: /app/certs/cert.pub ca_root: /app/certs/cert.crt ip: 192.168.12.69# <- paste a real IP of docker host which publish the container fqdns: [registry,registry-admin,tnas.local,registry.local] store: type: embed admin_password: "super-secret" embed: path: /app/data/store.db ``` По указанному в параметре `--cets.path` пути будут автоматически созданы все необходимые ключи и сертификат. При запуске *RegistryAdmin* проверяет наличие файлов в данном каталоге и создает новые если директория пуста. Если данный параметр не задан, то [по-умолчанию](https://github.com/zebox/registry-admin/blob/master/app/registry/token.go#L38:L41) ключи создаются в домашней директории пользователя под которым запускается сервис. 5. Определяем параметры для самого *Private Docker Registry.* URL указанный в параметре ***realm*** должен быть доступен клиентам, которые осуществляют авторизацию напрямую в сервисе RegistryAdmin. ``` version: 0.1 log: accesslog: disabled: false level: debug formatter: text fields: service: registry storage: filesystem: rootdirectory: /var/lib/registry maxthreads: 100 delete: enabled: true http: addr: ":5000" net: tcp tls: certificate: /certs/cert.crt key: /certs/cert.key # - lientcas: # - /certs/cert.crt auth: token: # external ip or host accessible for clients from outside of container realm: https://registry.local:8443/api/v1/registry/auth service: container_registry issuer: registry_token_issuer rootcertbundle: /certs/cert.crt notifications: events: includereferences: true endpoints: - name: ra-listener disabled: false url: https://registry-admin/api/v1/registry/events headers: # 'admin:super-secret' base64 encode string Authorization: [Basic YWRtaW46c3VwZXItc2VjcmV0] timeout: 1s threshold: 5 backoff: 3s ignoredmediatypes: - application/octet-stream ignore: mediatypes: - application/octet-stream ``` 6. Определить параметры для *docker-compose* ``` version: '2.1' services: registry-admin: restart: unless-stopped image: zebox/registry-admin:latest ports: - 8080:80 - 8443:443 environment: - APP_UID=1000 - RA_CONFIG_FILE=/app/config/token-ra-config.yml volumes: - ./certs:/app/certs - ./config:/app/config - ./data:/app/data registry: restart: unless-stopped image: registry:2 ports: - 50554:5000 volumes: - ./data:/var/lib/registry - ./certs:/certs - ./config/registry-config.yml:/etc/docker/registry/config.yml depends_on: - registry-admin # override container running command for add self-signed certificate to trusted CA command: ["/bin/sh", "-c", "cp /certs/cert.crt /usr/local/share/ca-certificates && /usr/sbin/update-ca-certificates; registry serve /etc/docker/registry/config.yml"] ``` **ВАЖНО!** Переопределение команды (`command`) запуска контейнера с *registry* требуется для того, чтобы обойти ошибку доверия самоподписанного сертификата для корректной работы `nofitfications` внутри контейнера *registry.* Данная строка выполняет добавление сертификата в список доверенных при запуске контейнера *registry*. В случае если Вы не используете TLS подключение к *RegistryAdmin* переопределение `command`не требуется. Также не требуется переопределение если используются доверенные сертификаты такие как Let's Encrypt, но в этом случае для HTTP TLS необхоимо указывать сертификат содержащий полную цепочку CA **fullchain.pem**. 7. Запускаем контейнеры ``` docker-compose up -d ``` Если все параметры верны, то сервис должен запуститься и быть доступен через браузер по адресу **https://registry.local:8443** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/89a/774/9ab/89a7749ab226d00ee39731ec8477c1d3.png)Если у Вас стоит задача развернуть систему с возможностью доступа из сети Интернет, то необходимо учитывать особенности использования доверенных TLS сертификатов. *RegistryAdmin* поддерживает получение сертификатов *Let's Encrypt* через протокол ACME (режим SSL AUTO). Если используется такой механизм получения публичного сертификата, то для доступа к *registry* по HTTPSследует определить параметр [letsencrypt](https://docs.docker.com/registry/configuration/#letsencrypt) и указать путь к сертификату который был указан в параметре `--ssl.acme-location` для *RegistryAdmin.* ``` letsencrypt: cachefile: /path/to/cache-file email: emailused@letsencrypt.com hosts: [you-registry.domain.org] ``` В случае получения сертификата *LE* через *HTTP-01 challenge*, то как для *registry* так и для *RegistryAdmin* в качестве сертификата следует указывать ***fullchain.pem*** файл, иначе при взаимодействии между сервисами будет возникать ошибка доверия к сертификату - *x509 certificate signed by unknown authority*. Использование RegistryAdmin --------------------------- После того как успешно произведена настройка и запуск системы можно приступать к её использованию. Для входа в админку необходимо ввести данные доступа по-умолчанию: ``` username: admin password: super-secret ``` После успешной авторизации отобразится страница со списком репозиториев, но т.к. у нас новый экземпляр *registry*, то данных в нем еще нет. В случае интеграции с существующим *registry* можно было произвести принудительную синхронизацию существующих данных. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/482/e76/c6d/482e76c6d57ffb2f14514d95ec928d00.png)Добавим новый репозиторий в реестр. Для этого произведем авторизацию с внешнего docker клиента под данными администратора и сделаем ***push*** нового образа в реестр. Но т.к. в данном примере мы используем самоподписанные сертификаты, то docker клиент будет ругаться на доверие к сертификату. Чтобы решить эту проблему есть два способа: 1. На клиенте добавить наш реестр в список небезопасных реестров в файле конфигурации докер демона - ***daemon.json.*** После внесения измененний потребуется перезагрузка службы докера. ``` # https://docs.docker.com/config/daemon/ # /etc/docker/daemon.json (Linux) # C:\ProgramData\docker\config\daemon.json (Windows) { "insecure-registries": ["registry.local:50554"] } ``` 2. Добавить сгенерированные сертифкаты в список доверенных сертификатов для клиентского хоста. После решения вопроса с доверием сертификатов можно приступать к выполнению аутентификацию в реестре на клиенте. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5e7/cff/a81/5e7cffa81fd13adbbe3c5a7a6a911f19.png)После успешной аутентификации выполним загрузку первого образа в реестр. ![ ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f22/904/842/f2290484255e075481a96c9b69210b0c.png " ") ![Список репозиториев](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0be/644/49b/0be64449b3fd49a58249d622826b63ac.png "Список репозиториев")Список репозиториев![Список тегов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/55c/b41/022/55cb41022f9b88b37fe879215926f560.png "Список тегов")Список теговДобавим пользователя с ролью **user** для последующего назначения ему соответствующего доступа. ![Список пользователей](https://habrastorage.org/r/w1560/getpro/habr/upload_files/926/1e8/8ea/9261e88eacd4f46eb3ff862f6b704197.png "Список пользователей")Список пользователейОпределим права доступа к репозиторию ***alpine*** для пользователя ***user1***. Разрешим пользователю делать только ***pull****.* ![Список доступов к репозиториям](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c05/06d/f6d/c0506df6dd7a91093d737b8e976c19fb.png "Список доступов к репозиториям")Список доступов к репозиториямВыполним аутентификацию на *docker* клиенте под пользователем ***user1*** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4dc/06b/3ec/4dc06b3ec81ced6ad38e625d1c9e1882.png)После успешной аутентификации выполним ***pull*** из репозитория ***alpine*** нашего реестра. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ec5/868/c17/ec5868c176ce1dfdb20611eca74ca7fd.png)Как видим ***pull*** работает, попробуем выполнить ***push.*** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e9e/ccd/6d5/e9eccd6d579f3ccb556befa121c02f82.png)Как видно на скриншоте попытка ***push*** завершилась ошибкой. Добавим разрешение на возможность делать ***push***для пользователя ***user1****.* ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f35/5fd/1fb/f355fd1fbdcbe5623eb6cc25bbddfbba.png)Попробуем снова выполнить ***push*** под текущим пользователем**.** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d38/80f/96d/d3880f96d6271a6742daac8c740272c3.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b2d/169/402/b2d169402dedd0df9ef87d0b9d2c630a.png)Как мы видим в репозитории *alpine* появился новый тэг, после добавления соответсвующего доступа действие ***pull*** было успешно выполнено. Стоит обратить внимание, что в данном случае, при попытке удаления тега ***test*** будет также удален и тэг ***3.14****,*потому-чтоу них одинаковая сигнатура **digest**, а *registry* хранит и удаляет элементы именно по этому хэшу. Также стоит имееть ввиду, что при удалении тэга из реестра удаляется только **manifest** файл, а данные удаляются путем запуска встроенного сборщика мусора ([garbage collector](https://github.com/distribution/distribution/blob/main/docs/garbage-collection.md)). Заключение ---------- Итоговым результатом получилась, на мой взгляд, простая админка для управления записями реестра и доступом к *Docker Private Registry***,** хотя есть некоторые особенности при настройке доверенных сертификатов, а также требуется понимание сетевого взаимодействия между сервисами. Надеюсь, что данный сервис может быть кому-то полезен. В процессе реалзации были решины достаточно интересные задачи такие как работа с сертификатами, встраивание приложений SPA в бинарный файл, а также настройка CI/CD для автоматического тестирования и сборки проекта. Всем желающим поучаствовать в тестировании и улучшении проекта добро поожаловать! Все исходники проекта и [примеры](https://github.com/zebox/registry-admin/tree/master/_examples) доступны на [GitHub](https://github.com/zebox/registry-admin/).
https://habr.com/ru/post/709988/
null
ru
null
# Удобная работа в консоли, или красим STDERR в красный цвет ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/90e/bfe/8c7/90ebfe8c7452f3f2fb47260720ca78b6.png)#### Работа в консоли Многие из нас пользуются консолью каждый день, и, наверное, каждый задавал себе вопрос: как я могу сделать свою работу в консоли эффективнее? Что я могу сделать, чтобы тратить меньше времени на выполнение рутинных операций? В этой статье я бы хотел вкратце рассказать о нескольких простых, но полезных вещах при работе с bash, о которых вы, возможно, не знали. #### Сокращаем количество набираемых букв ##### Алиасы Одна из полезнейших вещей, которую поддерживают все современные shell'ы — это алиасы. Алиасы позволяют писать меньше букв при наборе команд. Например: ``` $ git status # On branch master nothing to commit, working directory clean $ alias st='git status' $ st # On branch master nothing to commit, working directory clean ``` Как можно видеть, синтаксис объявления алиасов очень прост, поэтому алиасами так или иначе пользуются практически все. Один из недостатков использования алиасов — это то, что зачастую перестает работать авто-дополнение для команд. Пример: ( — это нажатие на клавишу Tab): ``` $ git checkout HEAD master origin/HEAD origin/master ``` Если же мы объявим алиас co='git checkout', то нажатие на Tab перестает работать так, как мы ожидаем и начинает просто подставлять имена файлов (по крайней мере для bash): ``` $ alias co='git checkout' $ co Display all 124 possibilities? (y or n) .git/ MANIFEST.doc array.c bashline.c ... ``` Таким образом, если вы хотите писать меньше букв, то вам придется отказаться от авто-дополнения… Или нет? Погуглим немного, и найдем такую интересную функцию: ``` function make-completion-wrapper () { local function_name="$2" local arg_count=$(($#-3)) local comp_function_name="$1" shift 2 local function=" function $function_name { ((COMP_CWORD+=$arg_count)) COMP_WORDS=( "$@" \${COMP_WORDS[@]:1} ) "$comp_function_name" return 0 }" eval "$function" } ``` Эта интересная функция позволяет нам вернуть обратно автодополнение для «сложных» команд (то есть, когда мы делаем алиас, состоящий из команды и доп. аргументов, как в случае с git checkout). Она нам позволяет создать функцию, которая, в свою очередь, может быть использована для оборачивания функций авто-дополнения, чтобы авто-дополнение для алиасов продолжали работать. Звучит сложно..? Так оно и есть :). Давайте лучше посмотрим на пример использования: ``` $ make-completion-wrapper _git _co git checkout $ complete -o bashdefault -o default -o nospace -F _co co $ co HEAD master origin/HEAD origin/master ``` Давайте разберем чуть-чуть подробнее: 1) make-completion-wrapper: Функции авто-дополнения для команд обычно начинаются с подчёркивания, и например для команды git такая фукнция называется "\_git". С помощью нашей замечательной функции make-completion-wrapper мы создадим новую функцию под названием "\_co" (для команды co), которая является алиасом для «git checkout» 2) complete: Зарегистрируем нашу новую функцию "\_co", как обработчик для авто-дополнения для команды «co» 3) Работает! Чтобы алиасы и команды авто-дополнения не потерялись, сохраним эти команды в ".bashrc" (или ".bash\_profile" или ".profile") в своей домашней директории, и будем радоваться :). ##### Функции Возможности алиасов в bash ограничены, поэтому иногда бывает полезно писать функции (как в предыдущем примере). Функции в bash работают, как будто это отдельная команда, но при этом функции выполняются в том же контексте, что и текущий shell. То есть, аргументы функциям передаются, как "$1", "$2" и т.д., как если бы вы писали shell-скрипт. Также работает сокращение "$@" (в кавычках), которое подставляет все свои аргументы «как есть» в нужное место. На serverfault [можно найти пример такой функции](http://serverfault.com/questions/59262/bash-print-stderr-in-red-color), которая раскрашивает в красный цвет stderr у заданной команды: ``` $ color()(set -o pipefail;"$@" 2>&1>&3|sed $'s,.*,\e[31m&\e[m,'>&2)3>&1 $ color ls nonexistent ls: nonexistent: No such file or directory # надпись красным цветом ``` Даже если не писать таких команд, как приведенная выше, функции удобно использовать, если вам нужно, скажем, всегда дописывать нужные аргументы в конец команды: ``` $ function echoworld () { echo "$@" world; } $ echoworld Hello Hello world ``` Или если нужно делать какие-то простейшие операции над аргументами: ``` $ function gmo () { git merge "origin/$1"; } $ gmo master # git merge "origin/master" Already up-to-date. ``` #### Избавляемся от «лагов ввода» SSH с помощью mosh ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/767/a6a/0e8/767a6a0e8a0ab4b6b72bfddd110c5b8b.png) Если вам часто приходится работать по SSH с сильно удаленными серверами (например, облако Amazon в Америке), или вы работаете по SSH через мобильный интернет, вам знакома проблема задержки ввода. То есть, вы вводите какой-то символ, а он появляется на удаленной стороне только спустя round-trip interval, который может легко составлять 200 мс и более. В случае с мобильным интернетом задержки ввода ощущаются намного сильнее и работать уже становится совсем некомфортно. Вероятно, авторам утилиты под названием mosh (<http://mosh.mit.edu>) эта проблема надоела настолько, что они решили написать свою замену SSH, работающую поверх UDP, и решающую многие проблемы SSH, например ощутимые задержки ввода и отсутствие фидбека при потере соединения (write failed: broken pipe, который появляется только когда вы пытаетесь что-то ввести). У этой утилиты есть также один существенный недостаток — в данный момент нет поддержки просмотра истории. То есть, если вы сделаете cat от большого файла или ls от большой директории, то скорее всего вы получите лишь последние строки вывода, а начало «потеряется». Сами авторы в данный момент рекомендуют использовать screen на удаленной стороне для решения этой проблемы, и в версии 1.3 обещают встроить похожую функциональность прямо в сам сервер (и клиент). ### Патчим bash, чтобы stderr был красного цвета На самом деле, патчить bash для того, чтобы получить stderr красного цвета, совсем не обязательно, но это же интересно! Уже существуют готовые решения, которые легко гуглятся, например вот это: [github.com/sickill/stderred](https://github.com/sickill/stderred). Проект из себя представляет разделяемую библиотеку, которая перехватывает вызовы write(2, ...) и fprintf из libc, и добавляет вокруг обертку из нужных esc-последовательностей, чтобы получить красный цвет. Итак, мы поняли, что другие решения существуют, и они даже всех устраивают, поэтому давайте всё равно напишем своё :)! Хочу сразу сказать отдельно спасибо [ezh](http://habrahabr.ru/users/ezh/) за оказанную помощь в реализации патча. 1. Качаем исходники bash ( [ftp.gnu.org/gnu/bash](http://ftp.gnu.org/gnu/bash/) ) 2. Добавляем их в git ( git init && git add -A && git commit -m 'Initial commit' ) 3. Собираем bash ( ./configure && make ) 4. Запускаем bash и убеждаемся в том, что всё работает ( ./bash -l ) 5. Начинаем разбираться в исходном коде: Находим файл **shell.c** и смотрим, где начинается инициализация bash: ``` #if defined (NO_MAIN_ENV_ARG) /* systems without third argument to main() */ int main (argc, argv) int argc; char **argv; #else /* !NO_MAIN_ENV_ARG */ int main (argc, argv, env) int argc; char **argv, **env; #endif /* !NO_MAIN_ENV_ARG */ { ``` Примерно через 400 строк, всё ещё находясь в функции main(), в самом конце находим вызов reader\_loop(): ``` #if !defined (ONESHOT) read_and_execute: #endif /* !ONESHOT */ shell_initialized = 1; /* Read commands until exit condition. */ reader_loop (); exit_shell (last_command_exit_value); } ``` Логично было бы вклиниться прямо перед тем, как bash начнет читать пользовательский ввод и как-то перехватить дескриптор с номером 2 (stderr), если стоит нужная переменная окружения: ``` shell_initialized = 1; color_stderr = get_string_value("COLOR_STDERR"); if (color_stderr && color_stderr[0]) { init_color_stderr(); } /* Read commands until exit condition. */ reader_loop (); ``` Как перехватить дескриптор с номером 2? Очевидное решение — это создать pipe, и заменить дескриптор с номером 2 нашим pipe'ом, а в другом треде читать оттуда, и добавлять нужные esc-последовательности: ``` static void *colorize_stderr(void *void_thread_args) { struct stderr_thread_data* data = (struct stderr_thread_data*)void_thread_args; int n; char buf[1024]; #define STDERR_PREFIX "\033[31m" #define STDERR_SUFFIX "\033[m" for (;;) { n = read(data->pipe, buf, sizeof(buf)); if (n <= 0) { if (errno == EINTR) continue; pthread_exit(NULL); } write(data->err, STDERR_PREFIX, sizeof(STDERR_PREFIX) - 1); write(data->err, buf, (size_t) n); write(data->err, STDERR_SUFFIX, sizeof(STDERR_SUFFIX) - 1); } } static void init_color_stderr () { pthread_t thr; int pipes[2]; static struct stderr_thread_data data; pipe(pipes); data.err = dup(2); dup2(pipes[1], 2); data.pipe = pipes[0]; pthread_create(&thr, NULL, colorize_stderr, (void*) &data); } ``` Однако весь пользовательский ввод тоже становится красным :(. Видимо, библиотека readline выводит наш ввод на экран как раз в stderr… Покопавшись в библиотеке readline, вставим в файл lib/readline/display.c в функцию rl\_redisplay (функция, кстати, всего-лишь на 1300 строк) следующее: ``` /* Basic redisplay algorithm. */ void rl_redisplay () { /* ... локальные переменные ... */ if (_rl_echoing_p == 0) return; _rl_output_some_chars("\033[m", 3); /* наш супер-костыль: перед тем, как вывести на экран пользовательский ввод, сбросим текущий цвет */ /* Block keyboard interrupts because this function manipulates global data structures. */ _rl_block_sigint (); RL_SETSTATE (RL_STATE_REDISPLAYING); ``` Если всё сделано правильно и добавлены нужные заголовки и сигнатуры методов (эти действия были опущены для краткости), то когда мы пропишем в .bashrc строчку «export COLOR\_STDERR=1» и запустим новый скомпилированный bash, весь stderr станет красным, как на скриншоте в начале статьи. Поскольку заменять системный bash — плохая идея, можно положить новый, собранный bash, скажем, в ~/bash и дописать следующее в .bashrc: ``` if [ ! -z "$PS1" ] && [ -z "$MY_BASH" ] && [ -x ~/bash ]; then export MY_BASH=1 exec ~/bash -l "$@" fi export COLOR_STDERR=1 ``` При логине будет проверяться, существует ли "~/bash" и является ли он исполняемым, и если это так, то заменит текущий процесс на "~/bash -l" (то есть, login shell). Опция COLOR\_STDERR=1 будет нам раскрашивать stderr у bash в красный цвет. Пропатченная версия bash выложена на github: [github.com/YuriyNasretdinov/bash](https://github.com/YuriyNasretdinov/bash) Поскольку правки оформлены в виде «костыля» к bash, то вряд ли этот патч примут в основную ветку, но сама по себе реализация лично мне представляется довольно забавной: для работы, по сути, требуется выставить только одну переменную окружения (использование которой легко можно выпилить из кода, и тогда этот режим будет включаться по умолчанию), а всё остальное будет работать без изменений. Надеюсь, уважаемый читатель, ты смог вынести из этой статьи что-нибудь полезное :). С наступающим новым годом!
https://habr.com/ru/post/207768/
null
ru
null
# Четвертая бета Ruby on Rails 3 Вчера вечером DHH [написал](http://weblog.rubyonrails.org/2010/6/8/rails-3-0-beta-4-now-rc-in-days) в блоге Rails, что четвертая бета Rails 3 доступна для обновления, а релиз-кандидат выйдет в течение нескольких дней (в оригинале — «RC in days»). Для обновления с прошлой беты, как обычно, используем `gem install rails --pre` P.S. В комментариях к посту жалуются на проблемы совместимости новой беты с некоторыми гемами (в частности — с memcache), так что если вы вдруг уже используете Rails 3 в продакшене — будте осторожны.
https://habr.com/ru/post/95971/
null
ru
null
# Почему IDEA лучше Eclipse Священный спор -------------- Принято считать, что есть «вечные» вопросы, на которые нет правильного ответа. Например, что лучше: Windows или Linux, Java или C#; Чужой против Хищника или Чак Норрис против Ван Дамма. Одним из таких [холиваров](http://lurkmore.to/%D0%A5%D0%BE%D0%BB%D0%B8%D0%B2%D0%B0%D1%80/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D1%85%D0%BE%D0%BB%D0%B8%D0%B2%D0%B0%D1%80%D0%BE%D0%B2) считается выбор лучшей IDE для Java: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bba/562/d3d/bba562d3d8f22b7c38b78a6e211b4c27.png) Идут [постоянные споры](http://www.devclub.eu/2011/07/04/anton-arhipov-intellij/) о том, в которой из них больше плагинов, горячих клавиш и т.д. Различий так много, что трудно выбрать, какие из них важнее, и все сходятся в одном: обе IDE примерно одинаковы по своим возможностям, и выбор одной из них — это дело вкуса. Так вот, я утверждаю, что это не просто дело вкуса. Есть объективные причины, почему > **[Intellij IDEA](http://www.jetbrains.com/idea/)** однозначно **лучше**, чем [Eclipse](http://www.eclipse.org/). > > Подчёркиваю, мы сейчас рассматриваем обе среды именно как Java IDE. Я не буду приводить кучу мелких различий вроде плагинов, горячих клавиш и т.п. — этому посвящены [многие](http://arhipov.blogspot.com/2011/06/whats-cool-in-intellijidea-part-i.html) [страницы](http://arhipov.blogspot.com/2011/07/whats-cool-in-intellijidea-part-ii-live.html) [в интернете](http://arhipov.blogspot.com/2011/08/whats-cool-in-intellijidea-part-iii.html), а объясню лишь одно, самое главное отличие. Как правило, о нём не знают ни идеяшники, ни эклипсофилы, ибо первые привыкли к нему и не знают, что в других IDE этого может и не быть, а вторые привыкли жить без него, и даже не догадываются, что может быть лучше. Более того, эклипсники его не замечают, когда пробуют IDEA ради интереса, ибо привыкли работать по-старому. Откуда такая уверенность? ------------------------- Но перед тем, как рассказывать про главное отличие IDEA, я хочу объяснить, почему к моему мнению стоит прислушаться. Я работал на Eclipse лет 5, знал её очень хорошо, писал под неё плагины, и искренне любил её. Потом я перешёл в другую компанию, и был вынужден пересесть на IDEA. Пережив [серьёзную ломку](http://asolntsev.livejournal.com/43803.html), я наконец понял, чем же IDEA круче. И вот уже пару лет работаю на IDEA. Поэтому я знаю, что говорю. Основное различие между IDEA и Eclipse -------------------------------------- Главная вещь, отличающая IDEA — она **понимает контекст**. Именно это имеют в виду сотрудники JetBrains, когда называют её «интеллектуальной» (intelligent). Что это значит? IDEA индексирует весь ваш проект, анализирует всё, что в нём есть, и даже строит синтаксическое дерево. Благодаря этому IDEA в любой момент, куда бы вы ни поставили курсор, знает, где мы находимся и что тут можно делать. Непонятно? Ещё бы. Ничего, на примерах станет ясно. Это умение *понимать контекст* выражается во многих и многих аспектах, приведу лишь некоторые. ### 1. Отладка Чтобы при отладке увидеть значение какого-то выражения, в Eclipse необходимо сначала выделить это выражение. Причём выделить точно, случайно выделите лишний символ — Eclipse не поймёт. После этого жмём Ctrl+Shift+I и видим значение выражения. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/325/05c/661/32505c661a56e6a9ab528927f7626a3d.png) В IDEA же ничего выделять не надо, достаточно просто поставить курсор в нужное место (в данном случае на методе hasAttribute) и нажать Alt+F8. IDEA сама поймёт, какое выражение вам, вероятно, нужно, и тут же откроет диалог, где вы сможете редактировать выражение и сразу видеть его значение: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/599/698/12c/59969812c2fda2d9f1c43714b92beeba.png) Выходит, обе IDE в принципе позволяют делать одно и то же. Но в IDEA это намного удобнее и быстрее. Я серьёзно, разница огромная — это просто небо и земля. В этом маленьком окошке IDEA сделает вам и автозаполнение, и подсветку синтаксиса, и всё на свете. ### 2. Автозаполнение (autocomplete) Автозаполнение — это то, что выгодно отличает любую IDE от notepad. И в этой области «понимание контекста» даёт IDEA качественное преимущество. Допустим, мы начали писать строчку кода: ``` assertElement(By.id("errorMessage"), vi ``` И тут мы хотим узнать, какие у нас есть варианты, чего там может начинаться с букв «vi». Что делает IDEA? Не дожидаясь никаких нажатий клавиш, она сразу же понимает, что метод assertElement хочет получить вторым параметром объект класса Condition, а в этом классе как раз есть статическая переменная типа Condition с именем visible. И предлагает единственный возможный вариант: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c06/00d/8ac/c0600d8ac5e71c114348ec7f23f9cc45.png) Что делает Eclipse? Увы, он не понимает контекста. Он не знает, что курсор находится на месте второго параметра метода assertElement. Поэтому, когда вы нажимаете заветные Ctrl+Space, Eclipse тупо показывает всё, что есть в природе, что начинается на буквы «vi»: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/713/a36/492/713a36492eb2425bccb4ab1f4848db14.png) В красивом всплывающем окошке мы видим много-много красиво подсвеченной хорошо задокументированной *бесполезной* информации… ### 3. Рефакторинг Профессиональные программисты умеют быть продуктивными, используя для изменения кода те рефакторинги, которые предлагает их IDE. Все современные IDE в принципе предлагают весьма впечатляющий набор рефакторингов, наверное, даже большинство программистов не знает и не использует все из них. Но опять же, рефакторинги в IDEA *интеллектуальные*. Они догадываются, чего вы хотите, и предлагают разные варианты, которые в большинстве ситуаций подходят. Например, есть у нас метод assertErrorMessageIsHidden: ``` public void assertErrorMessageIsHidden() { assertElement(By.id("errorMessage"), Condition.visible); } ``` И мы хотим сделать так, чтобы строка «errorMessage» приходила в метод как параметр. Начнём с IDEA. Ставим курсор на любое место в строке «errorMessage», нажимаем заветные Ctrl+Alt+P (от «parameter»), и IDEA подсказывает, какое выражение мы могли бы вынести в параметр: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e38/daf/50c/e38daf50c4fa0560b89714777c888cea.png) Как только выражение «errorMessage» выбрано, IDEA подсказывает несколько возможных имён для этого параметра. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8c5/f93/80b/8c5f9380bc3e233a2dff4630d0172af7.png) Вы будете ещё не раз удивлены тем, как умно себя ведёт IDEA, предлагая свои варианты для имени чего-либо. Она учитывает и название метода, и тип переменной, и значение, и названия подобных переменных в других местах, и те названия, которые вы давали подобным переменным раньше — разве что ваш знак зодиака не учитывается. Правда-правда, не проходит и месяца, чтобы я не сказал фразы: «Ого, IDEA и это умеет?» Ну и посмотрим, что нам предложит Eclipse. Не забываем: выделяем выражение «errorMessage» (обязательно с кавычками, иначе получите дикое сообщение «An expression must be select to activate this refactoring»), выбираем рефакторинг «Introduce parameter» (из меню, горячей клавиши нет), и получаем тот же результат. Правда, никаких вариантов для имени параметра Eclipse не предлагает, но и на том спасибо. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/2fa/d66/dab/2fad66dabb3a0eb7dad4d01465f7f013.png) Выводы ------ Если мы говорим о Java IDE, то IDEA круче Eclipse. Это не просто дело вкуса. IDEA объективно лучше. Она позволяет быстрее и качественне писать и менять код, подсказывает подходящие имена, находит подходящие методы. Не требует точно выделить выражение, а по тому, где вы находитесь, угадывает, что вы хотели сделать и как хотели это назвать. IDEA предугадывает и подсказывает. P.S. Оговорки ------------- Оговорюсь: IDEA лучше Eclipse в качестве Java IDE. Если вы рассматриваете их в каком-то другом качестве — например, как IDE для другого языка (C++, Python, Scala), или как платформу для построения Desktop-приложений, то Eclipse вполне может победить. В общем-то, это вытекает и из определения. Eclipse позиционирует себя как абстрактная платформа для построения чего бы то ни было (с помощью дописывания плагинов), а IDEA позиционирует себя как «интеллектуальная IDE для Java». Так оно и есть. Интереса ради попробую назвать аспекты, в которых Eclipse, возможно, круче IDEA: * Eclipse красивее. Вся эта суета вокруг SWT и нативных контролов стоила того. Eclipse выглядит как солидное приложение с продуманными шрифтами и иконками, в то время как IDEA на первый взгляд выглядит как наколенная поделка с ламерскими иконками и нелепым свинговским интерфейсом. * В Eclipse богаче поддережка структуры проекта. В IDEA есть проект, состоящий из модулей, а в Eclipse есть workspace, состоящий из проектов, но их можно ещё и закрывать/открывать, объединять в группы и прятать. * Для Eclipse вроде бы проще писать плагины. * В конце концов, Eclipse бесплатен. Впрочем, [бесплатной версии IDEA](http://www.jetbrains.com/idea/features/editions_comparison_matrix.html?IC) мне хватает за глаза, ведь я использую [запускалку](http://habrahabr.ru/blogs/java/126066/) для разработки веб-приложений. Итогошки -------- Если вам нужны красивые иконки, платформа для создания настольных приложений, или IDE для C++, то Eclipse, вероятно, предпочтительнее. Если же вы серьёзный Java-программист, и вам нужна среда, позволяющая быстро и удобно вести разработку, сосредоточившись на проблеме и не отвлекаясь на средство разработки, то IDEA — это то, что нужно. На этом, я надеюсь, один вечный спор можно считать законченным. Кодьте с удовольствием!
https://habr.com/ru/post/112749/
null
ru
null
# Golang daemon Около года назад мне понадобилось написать linux демона, реализующего небольшой сетевой сервис. В то время я активно изучал Go и мне очень нравился этот язык, поэтому взвесив все за и против я решил реализовать задачу на нем. К тому же, Go уже был стабильным и имел версию 1.0.1. О том, с какими подводными камнями мне пришлось столкнуться, читайте под катом, но сразу оговорюсь: я буду описывать только тонкости реализации демона на Go. Если вы слабо представляете что такое «демон» или как демонизируется процесс, сначала стоит об этом почитать, поискав в гугле или на хабре «linux daemon» или пройдясь по списку ссылок в конце статьи. Но вернемся к демонам. Сначала я решил действовать классически: * Порождение дочернего процесса и завершение родительского (системный вызов fork); * Далее в дочернем процессе: + Установка маски для прав доступа на вновь создаваемые файлы (системный вызов umask); + Создание нового сеанса, отключение от терминала (системный вызов setsid); + Смена рабочей директории на корневую (системный вызов chdir); + Перенаправление дескрипторов потоков стандартного ввода/вывода на /dev/null. Отсутствие в стандартном пакете [syscall](http://golang.org/pkg/syscall/) чистого fork меня не остановило и даже не вызвало никаких подозрений. Я просто сделал примерно так (упрощено): ``` ret, _, err := syscall.Syscall(syscall.SYS_FORK, 0, 0, 0) if err != 0 { os.Exit(2) } if ret > 0 { // родительский процесс os.Exit(0) } ``` Реализовав все пункты, запустив демона и полюбовавшись выводом команд `ps -eafw` и ```` lsof -p , я подумал, что пора бы переходить к реализации обработки системных сигналов. Добавление обработки сигналов поначалу мне казалось пустяковой вещью, ведь в Go есть стандартный пакет os/signal. Но когда я проделал это работу, мой демон наотрез отказывался получать эти самые сигналы. Причем если я убирал fork, обработка сигналов работала отлично. Сей факт меня весьма огорчил. Тогда я начал искать информацию в сети и, почитав code.google.com/p/go/issues/detail?id=227, огорчился еще больше. Собственно вывод был прост: В Go нельзя использовать fork, т.к. дочерний процесс не наследует потоки, а это означает, что все горутины (goroutines), заблокированные системными вызовами в потоках, отличных от текущего, отваливаются. Тогда я оставил в покое обработку сигналов и начал экспериментировать с горутинами. Оказалось, что после вызова fork они прекрасно запускаются и работают в дочернем процессе. Открыв и почитав исходный код пакета os/signal, я понял, что все дело в этом коде: func init() { signal_enable(0) // first call - initialize go loop() } ``` Здесь, в функции инициализации пакета, функция loop() запускается в качестве отдельной горутины. Это происходит еще до вызова функции main(). Функция loop() в цикле запрашивает очередной системный вызов и передает его назначенным обработчикам. Получается, что при вызове fork, перестает функционировать loop(). Но, горутины прекрасно запускаются и работаю после вызова fork. Значит надо делать вызов этой функции init() после вызова fork, решил я. Я полностью скопировал код пакета [os/signal](http://golang.org/pkg/os/signal/), элементарно переименовал функцию init() в Init() и добавил ее вызов после fork. После чего обработка сигналов заработала ценой отказа от стандартной библиотеки и путем создания велосипеда. Спустя какое-то время я пришел к выводу, что мой демон состоит из: костыль - одна штука и велосипед - одна штука. А костыль от того, что если еще какому-то пакету захочется создать горутину в функции инициализации, то пакет откажется корректно работать в демоне. Поэтому я решил поискать немного другой путь, и копание в стандартной библиотеке натолкнуло меня на мысль использовать функцию [StartProcess](http://golang.org/pkg/os/#StartProcess). Поковыряв исходники, я понял, что эта функция последовательно делает системные вызовы fork и exec безопасным образом. По сути мы ничего не теряем, только дочерний процесс как бы перезапускается заново, а значит, надо как-то сообщать ему об этом. Чтобы он мог спокойно закончить демонизацию, проведя системные вызовы далее по списку. Сначала я использовал передачу аргументов командной строки, а потом решил для уведомления дочернего процесса передавать переменную окружения `_GO_DAEMON=1`. В результате я написал примерно такой код: ``` const ( envVarName = "_GO_DAEMON" envVarValue = "1" ) func Reborn(umask uint32, workDir string) (err error) { if !WasReborn() { var path string if path, err = filepath.Abs(os.Args[0]); err != nil { return } cmd := exec.Command(path, os.Args[1:]...) envVar := fmt.Sprintf("%s=%s", envVarName, envVarValue) cmd.Env = append(os.Environ(), envVar) if err = cmd.Start(); err != nil { return } os.Exit(0) } syscall.Umask(int(umask)) if len(workDir) == 0 { if err = os.Chdir(workDir); err != nil { return } } _, err = syscall.Setsid() return } func WasReborn() bool { return os.Getenv(envVarName) == envVarValue } ``` Приведенный код прекрасно работает со стандартной библиотекой. Правда здесь используется пакет [os/exec](http://golang.org/pkg/os/exec/) - высокоуровневая обертка над [StartProcess](http://golang.org/pkg/os/#StartProcess). Надо четко понимать, что здесь, в отличии от классического метода демонизации, весь ваш код, выполненный до вызова Reborn(), также будет выполнен в дочернем процессе. Если вы не хотите этого - следует использовать функцию WasReborn(). А так же дочерний процесс не наследует дескрипторы файлов (возможно, я добавлю это позже), поэтому родительский процесс должен закрывать все файлы до вызова Reborn(), а дочерний должен после вызова Reborn() перенаправлять стандартные потоки вывода в лог (также это позволит узнать что же произошло при неожиданном panic()), а ввода - на /dev/null. После того, как мне пришлось написать еще пару демонов, я решил оформить функции демонизации в виде пакета и выложить на github: [go-daemon](https://github.com/sevlyar/go-daemon). Так же в пакете доступны функции создания и блокировки pid-файлов и перенаправления потоков. Там же находится пример реализации простейшего демона на Go. Надеюсь этот материал будет кому-то полезен. Ссылки: [Демон - Wikipedia](http://ru.wikipedia.org/wiki/%D0%94%D0%B5%D0%BC%D0%BE%D0%BD_%28%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0%29) [Пишем собственный linux демон](http://habrahabr.ru/post/129207/) [golang.org](http://golang.org/)`
https://habr.com/ru/post/187668/
null
ru
null
# Установка DataContext вложенным невизуальным объектам в WPF/Silverlight ![image](https://habrastorage.org/r/w1560/storage1/95a4b2fb/76619385/989cece8/96e0d7b8.png) При разработке [DXScheduler for WPF](http://www.devexpress.com/Products/NET/Controls/WPF/Scheduler/) мы получили от пользователя сценарий, в котором использовался [MVVM](http://en.wikipedia.org/wiki/MVVM) шаблон. Пользовательский объект назначался свойству [DataContext](http://msdn.microsoft.com/en-us/library/system.windows.frameworkelement.datacontext.aspx) нашего планировщика, а в XAML-разметке осуществлялась «привязка» к соответствующим свойствам объекта с использованием [Binding-выражений](http://msdn.microsoft.com/en-us/library/ms750413.aspx). Но возникла проблема — планировщик содержал некий невизуальный объект Storage, который хранил набор настроек для данных. В том виде, в котором были записаны Binding-выражения, свойства объекта-стораджа не обновлялись. О том, как была решена эта проблема, вы узнаете ниже… В статье приведен упрощенный вариант решения, который демонстрирует описанный выше сценарий. Поэтому не буду усложнять приведённый код полными реализациями шаблона MVVM, нагромождать интерфейсами INotifyPropertyChanged и т.д. Наша задача заключается в том, чтобы пример максимально просто отражал суть вопроса. Итак, начнём с визуального контрола, который будет являться представлением модели. #### Класс View Визуальный контрол, который содержит свойство для вложенного объекта DataStore. Будет создан и назначен в XAML. ``` public class SomeVisualControl : Control { public static readonly DependencyProperty InnerDataStoreProperty = DependencyProperty.Register("InnerDataStore", typeof(DataStore), typeof(SomeVisualControl), new PropertyMetadata(null)); public DataStore InnerDataStore { get { return (DataStore)GetValue(InnerDataStoreProperty); } set { SetValue(InnerDataStoreProperty, value); } } } ``` #### Класс DataStore Невизуальное хранилище данных, создаётся в XAML и содержится как внутреннее свойство в SomeVisualControl. В DXScheduler аналогичный внутренний объект был наследником DependencyObject и по определению не содержал DataContext. Как следствие, Binding-выражения на свойства этого объекта не работали. Поэтому первое, что приходит в голову — это наследовать этот объект от класса, содержащего DataContext, и проблема будет решена. Таким классом является FrameworkElement, и мы будем использовать именно его как базовый класс. ``` public class DataStore : FrameworkElement { public static readonly DependencyProperty ConnectionStringProperty = DependencyProperty.Register("ConnectionString", typeof(string), typeof(DataStore), new PropertyMetadata(string.Empty)); public string ConnectionString { get { return (string)GetValue(ConnectionStringProperty); } set { SetValue(ConnectionStringProperty, value); } } } ``` Теперь определим объекты уровня пользователя. #### Класс Model Определяет пользовательский объект. Свойство **ConnectionString** будет «связано» со свойством внутреннего хранилища визуального контрола. ``` public class DataStoreModel { public string ConnectionString { get; set; } public DataStoreModel(string connection) { ConnectionString = connection; } } ``` #### Класс ModelView Определяет представление модели пользовательского объекта. Следуя требованиям шаблона MVVM, данный класс должен реализовывать [INotifyPropertyChanged](http://msdn.microsoft.com/en-us/library/ms133020.aspx), но в нашем примере в этом нет необходимости. ``` public class DataStoreViewModel { DataStoreModel dataStore; public DataStoreViewModel(DataStoreModel dataStore) { if (dataStore == null) throw new ArgumentNullException("dataStore"); this.dataStore = dataStore; } public string ModelConnectionString { get { return dataStore.ConnectionString; } } } ``` Диаграмма полученных классов приведена ниже: ![](https://habrastorage.org/r/w1560/storage/habraeffect/ca/0a/ca0a6db6a4f3688975adc6ab7280b1cd.png) Итак, поставим задачу: *cвязать свойство внутреннего невизуального объекта со свойством модели*. Перейдем к приложению и создадим необходимые контролы в XAML-разметке > `<Window x:Class="DataContextWpfSample.MainWindow" > >     xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation" > >     xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml" > >     xmlns:local="clr-namespace:DataContextWpfSample" > >     Loaded="Window\_Loaded"  > >     Title="MainWindow" Height="350" Width="525"> > >   <Grid> > >     <local:SomeVisualControl x:Name="MyVisualControl"> > >       <local:SomeVisualControl.InnerDataStore> > >         <local:DataStore ConnectionString="{Binding ModelConnectionString}" /> > >       local:SomeVisualControl.InnerDataStore> > > > >       <local:SomeVisualControl.Template> > >         <ControlTemplate> > >           <StackPanel> > >             <TextBlock Text="DataStore Connection:" FontWeight="Bold" /> > >             <TextBlock Text="{Binding Path=InnerDataStore.ConnectionString, RelativeSource={RelativeSource Mode=TemplatedParent}}" TextWrapping="Wrap" /> > >           StackPanel> > >         ControlTemplate> > >       local:SomeVisualControl.Template> > >     local:SomeVisualControl> > >   Grid> > > Window> > > > > \* This source code was highlighted with Source Code Highlighter.` Зададим имя MyVisualControl нашему контролу — это будет необходимо для обращения к нему из code-behind файла окна. Определим шаблон показа и выведем интересующие нас свойства, чтобы удостовериться, что они корректно были получены с объекта модели. Код инициализации модели в файле класса окна выглядит следующим образом: ``` public partial class MainWindow : Window { public MainWindow() { InitializeComponent(); } private void Window_Loaded(object sender, RoutedEventArgs e) { string connection = @"Provider=Microsoft.Jet.OLEDB.4.0;Data Source=|DataDirectory|\MyDB.mdb;Persist Security Info=True"; DataStoreModel sourceData = new DataStoreModel(connection); DataStoreViewModel sourceDataModel = new DataStoreViewModel(sourceData); this.MyVisualControl.DataContext = sourceDataModel; } ``` Особо отметим последнюю строку — присвоение DataContext позволит таким образом «связать» свойства контрола со свойствами модели, используя binding-выражения. Запустим приложение, но вместо ожидаемой коннекшн-строки мы видим пустую. Воспользуемся утилитой [SNOOP](http://blois.us/Snoop/) и убедимся что DataContext объекта хранилища не назначен: ![](https://habrastorage.org/r/w1560/storage/habraeffect/e7/b9/e7b9ebac32e4660e60dc5d2fd0bee10a.png) Похоже, это происходит из-за того что: *Объект DataStore НЕ лежит в визуальном дереве, и поэтому на него НЕ устанавливается контекст родителя*. #### Назначение DataContext Таким образом, нам необходимо определить, когда назначается DataContext в визуальном контроле, и установить это значение на внутренний объект DataStore. Класс **FrameworkContentElement** содержит событие **DataContextChanged**. Воспользуемся этим и, написав несложный код, получим правильный результат. ``` public class SomeVisualControl : Control { // ... public SomeVisualControl() { this.DataContextChanged += new DependencyPropertyChangedEventHandler(SomeVisualControl_DataContextChanged); } void SomeVisualControl_DataContextChanged(object sender, DependencyPropertyChangedEventArgs e) { InnerDataStore.DataContext = e.NewValue; } } ``` К сожалению, есть одно НО… Если вы используете WPF — то вполне можете использовать такой подход. Все дело в том, что текущая версия Silverlight не содержит событие **DataContextChanged**. А так как мы пишем общий код для WPF и SL контролов, то необходимо было написать универсальное решение. Так как же узнать когда меняется DataContext визуального контрола? Можно воспользоваться следующим подходом… Скажу честно — идея не нова. Я лишь постарался обобщить её так, чтобы можно было использовать в разных классах и для классов с иерархией вложенных невизуальных объектов. Суть идеи в том, что создается DependencyProperty и делается binding, где связывается созданное свойство с DataContext-свойством контрола, в котором вы хотите знать об изменении контекста. При этом при регистрации **DependencyProperty** необходимо указать **PropertyChangedCallback**. Эта callback-функция будет вызываться при изменении значения свойства DataContext. И именно тут можно назначить контекст на все необходимые объекты, в нашем случае на InnerDataStore объект. Забегая вперед, скажу, что мы определим интерфейс, который будет сообщать о том, что свойство DataContext поменялось и его следует назначить на вложенные объекты. ``` public interface IDataContextOwner { object DataContext { get; } void UpdateInnerDataContext(object dataContext); } ``` Реализуем описанный выше класс, содержащий binding на DataContext и PropertyChangedCallback-метод. При этом в конструктор класса передадим объект, реализующий интерфейс IDataContextOwner (в нашем случае это будет SomeVisualControl) и вызовем интерфейсный метод UpdateInnerDataContext, чтобы сообщить нашему визуальному контролу, что пора обновлять контекст его внутреннего хранилища. ``` public class DataContextBinder : DependencyObject { IDataContextOwner owner; public DataContextBinder(IDataContextOwner owner) { if (owner == null) throw new ArgumentNullException("owner"); this.owner = owner; InitializeBinding(); } protected virtual void InitializeBinding() { Binding binding = new Binding("DataContext"); binding.Source = owner; binding.Mode = BindingMode.OneWay; BindingOperations.SetBinding(this, DataContextProperty, binding); } public object DataContext { get { return (object)GetValue(DataContextProperty); } set { SetValue(DataContextProperty, value); } } public static readonly DependencyProperty DataContextProperty = DependencyProperty.Register("DataContext", typeof(object), typeof(DataContextBinder), new PropertyMetadata(null, new PropertyChangedCallback(OnDataContextChanged))); public static void OnDataContextChanged(DependencyObject d, DependencyPropertyChangedEventArgs e) { ((DataContextBinder)d).OnDataContextChanged(e.OldValue, e.NewValue); } private void OnDataContextChanged(object oldValue, object newValue) { owner.UpdateInnerDataContext(newValue); } } ``` Теперь напишем довольно простую реализацию интерфейса IDataContextOwner в нашем View (SomeVisualControl): ``` public class SomeVisualControl : Control, IDataContextOwner { // ... object IDataContextOwner.DataContext { get { return DataContext; } } void IDataContextOwner.UpdateInnerDataContext(object dataContext) { if (InnerDataStore != null) InnerDataStore.DataContext = dataContext; } } ``` Последнее, что необходимо сделать — это создать экземпляр DataContextBinder внутри View. Сделать это можно прямо в конструкторе класса: ``` public SomeVisualControl() { this.dataContextBinder = new DataContextBinder(this); } ``` Запустим приложение и убедимся, что контекст назначен на внутренний объект и строка из модели корректно установилась в объект DataStore. Теперь окно приложения отображает данные из определенной пользователем модели. ![](https://habrastorage.org/r/w1560/storage/habraeffect/60/ef/60ef00b572238724c942dc86589c1540.png) #### Выводы Данная реализация не привязана к конкретному классу и может быть применена там, где возникла необходимость назначить DataContext на объект, который не может его получить «штатными» средствами. При этом, когда есть необходимость передавать контекст вглубь по иерархии невизуальных объектов, вы просто создаете объект класса DataContextBinder и реализуете интерфейс IDataContextOwner. Это освобождает вас от громоздкого написания dependency-свойств и определения binding между ними в каждом из классов. DataContextBinder инкапсулирует в себе функционал и в определенный момент извещает владельца о необходимости установить новое значение контекста на вложенные объекты. Исходные тексты примеров доступны здесь: [WPF](http://www.devexpress.com/example=E2991) и [Silverlight](http://www.devexpress.com/example=E2992)
https://habr.com/ru/post/115104/
null
ru
null
# Когда простого пунктира мало: как подружить Java AWT Stroke и 10 приказ Минэкономразвития РФ Мы тут в ИТМО занимаемся созданием всяких ГИС на заказ. И вот пришел к нам заказчик и попросил сделать демку с отображением генерального плана города и с некоторой аналитикой по ней. Сам генеральный план - это куча геоданных в формате Shapefile, содержащих различные виды зон и объектов. Плюс поверх этого мы еще должны были рисовать всякие кадастровые участки, здания и много чего еще. И при этом отображать это как в браузере (про это я еще отдельную статью напишу, как нарисовать в браузере на карте 200+ тысяч объектов), так и рендерить отдельные схемы в пнгшки для дальнейшей печати. И все бы ничего - взяли стандартные средства для работы с изображениями, отрендерили в текстуру по шаблону сгенерированный текст, пунктирчиком разметили границы участков, но тут всплыла такая штука как ЗОУИТ - Зоны с особыми условиями использования территории. Грубо говоря - зоны, в которых строить или нельзя вообще, или можно но с ограничениями и согласованиями. Это могут быть всякие зоны защиты инженерных сетей, водоохранные зоны и т.п. И вот тут-то началась засада. У каждого ЗОУИТа есть свой стиль для отображения, описанный в [10 приказе Минэкономразвития](http://www.consultant.ru/document/cons_doc_LAW_289833/) (вообще порадовало, что оказывается есть цельный отдельный приказ, где прописано все в деталях, от RGB цветов линий до названий и значений полей с данными). И стили эти все достаточно непростые. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/01f/ac7/c3f/01fac7c3fc75dda2b2136e98042a556d.png)Если простую линию или пунктир нарисовать через стандартные механизмы AWT просто, для этого есть класс BasicStroke, то вот рисовать что-то такое этакое, с галочками, крестиками и прочими закорючками в разрывах или вдоль линии, из коробки в джаве не получится. При этом документация и примеры в сети довольно скудные - везде обычно пишут, как нарисовать пунктир тем же стандартным BasicStroke и на этом успокаиваются. А что делать с более сложными видами линий - нигде не сказано. Пришлось осваивать это самому. Под катом - описание того, как сделать свой собственный Stroke, позволяющий рисовать произвольные фигуры вдоль пути. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cf9/55f/85c/cf955f85c5445a635cea70f2e220e7d8.png)Сперва вкратце пробежимся по тому, как в AWT выглядит рисование объектов: * Берем объект Graphics - его можно получить как у окна (да, десктоп на джаве давно мертв, я в курсе), так и у, например, изображения, чтобы рендерить в текстуру. Это будет наше полотно для рисования. * Создаем объект типа Shape - это могут быть всякие круги-линии-полигоны и прочие геометрические примитивы, заполняем его координатами. Это то, ЧТО мы будем рисовать. * У нашего Graphics выставляем поля типа font, color, stroke, paint - это то, КАК мы будем рисовать. * Зовем один из двух основных методов - fill закрасит наш шейп, draw нарисует его контур. * * Этого достаточно чтобы нарисовать что-то простое. При этом вся магия стилизации нашего изображения находится в пункте 3. И конкретно за рисование контуров отвечает класс Stroke. Про BasicStroke --------------- Из коробки у нас есть единственный класс BasicStroke с несколькими конструкторами, умеющий рисовать сплошные и пунктирные линии одним цветом. Наиболее понятно (для меня) параметры конструктора и возможности рисования расписаны [в этой статье](https://docstore.mik.ua/orelly/java-ent/jfc/ch04_05.htm). Например вот разные варианты пунктира для разного варианта dashArray: ![](https://habrastorage.org/getpro/habr/upload_files/d9d/0b9/33b/d9d0b933bca8053779205f268ff6969f.gif)Почему-то много где приводят эти цифры, но мало где их объясняют. На деле это просто последовательность закрашенных и пустых пикселей. Т.е. [21, 9, 3, 9] означает "нарисуй 21 пиксель, затем пропусти 9, нарисуй 3, пропусти 9, начни с начала". Тут тоже скрыт небольшой подводный камень. Вот вы задаете массив {10, 10} и ожидаете, что пунктир и пропуски у вас будут одинаковой длины... однако на изображении видите, что пунктир явно длиннее чем пустое место. Такое поведение может быть вызвано неправильным значением параметра endCap, который задает, как именно должны заканчиваться штрихи. Вариантов доступных три: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/de7/510/fff/de7510fff35339c37b8bd3d9caae50dc.png)В итоге если задать что-то отличное от CAP\_BUTT, к штриху добавится еще несколько пикселей на его окончание. С помощью BasicStroke и dashArray можно рисовать различные сложные последовательности пунктира. И большинство туториалов заканчиваются фразой в духе "ну вот этого вам точно хватит на 99% случаев рисования, поэтому углубляться дальше не будем". Ну а вот мы попали в тот самый 1 процент. Нам вдоль пути надо рисовать не только пунктир, но еще и различные символы в разрывах. В том самом 10 приказе встречаются самые разные варианты: кружочки, крестики, полоски в одну сторону от линии, полоски в обе стороны от линии, какие-то повернутые галочки и чего еще только нет. В общем, нам нужен Stroke, который умеет рисовать не только линию. но и произвольный Shape раз в N пикселей. Повернутый на правильный угол. Как устроены классы Stroke -------------------------- Реализуем свой собственный класс, наследник Stroke. Этот интерфейс определяет единственный метод createStrokedShape. Суть в том, что в AWT по сути есть одна-единственная "настоящая" операция рисования - это заливка области, заданной Shape'ом. Рисование контуров тоже сделано через заливку. Stroke берет геометрию и превращает ее в фигуру, площадь которой надо залить. Т.е. в простейшем случае линия превращается в многоугольник нужной толщины, построенный вокруг нее, который потом заливается сплошным цветом. И наш метод должен брать геометрический объект (в нашем случае - линию границы ЗОУИТ) и возвращать Shape, который можно будет залить нужным цветом и получить итоговый контур. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3c8/c1d/9d5/3c8c1d9d575f51799fe2fe766a683ef7.png)Поскольку у нас есть полный контроль над точками заливаемой области, мы в теории можем сделать все что угодно и как угодно изменять исходный Shape. Несколько неплохих примеров есть в статье <http://www.java2s.com/Code/Java/2D-Graphics-GUI/CustomStrokes.htm>. Обратите внимание на занятный вид штриха, искажающего форму объекта и имитирующего "рукописные кривули": ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ef4/cfd/602/ef4cfd602d5a136b732daca2b8b7a1c3.png)Поскольку глупо было бы изобретать велосипед и делать рисование пунктиров самостоятельно, если это уже есть в стандартной библиотеке, сделаем так: 1. Нарисуем наш Shape стандартным BasicStroke с нужным типом пунктира 2. Добавим к этому Shape наши выступающие кусочки и всякие загогулины 3. Вернем комбинированный Shape Под катом полный код метода createStrokedShape() Spoiler ``` override fun createStrokedShape(shape: Shape): Shape { // По сути копия исходного шейпа, которую мы будем рисовать чтобы знать последнюю точку val newshape = GeneralPath() // Тут мы будем хранить все вставленные нами дополнительные шейпы val innerShape = GeneralPath() val i: PathIterator = shape.getPathIterator(null) val coords = FloatArray(6) // Аккумулятор расстояния с момента последней вставки нашего дополнительного шейпа var pixels = 0.0 // Пройдем по сегментам переданного нам Shape while (!i.isDone()) { val type: Int = i.currentSegment(coords) when (type) { // Пустой сегмент - ничего не делаем PathIterator.SEG_MOVETO -> { newshape.moveTo(coords.get(0), coords.get(1)) } PathIterator.SEG_LINETO -> { // Вычислим длину сегмента val startX = newshape.currentPoint.x val startY = newshape.currentPoint.y val endX = coords.get(0).toDouble() val endY = coords.get(1).toDouble() val line = Line2D.Double(startX, startY, endX, endY) val segmentLength = Math.sqrt(Math.pow(endX - startX, 2.0) + Math.pow(endY - startY, 2.0)) // Если сегмент короче чем расстояние между вставками шейпа - ничего не делаем if (pixels + segmentLength < step) { pixels += segmentLength } else { // Накопилось достаточное расстояние с момента вставки предыдущего шейпа, вставми новую копию var offset = Math.max(0.0, step - pixels) while (offset < segmentLength) { // Вычисляем точку на текущем сегменте, в котороую надо вставить шейп val stepScale = offset / segmentLength val stepTransform2 = AffineTransform.getTranslateInstance(startX, startY) stepTransform2.scale(stepScale, stepScale) stepTransform2.translate(-startX, -startY) val stepLine = stepTransform2.createTransformedShape(line) as Path2D.Double val lastPoint = getLastPoint(stepLine) // Берем наш шейп, поворачиваем и перемещаем его в эту точку val transformed = generateShapeForInsertion(line, lastPoint!!) // Добавляем шейп к результирующему шейпу innerShape.append(transformed, false) offset += step } pixels = segmentLength - offset + step } newshape.lineTo(coords.get(0), coords.get(1)) } PathIterator.SEG_QUADTO -> { newshape.quadTo(coords.get(0), coords.get(1), coords.get(2), coords.get(3)) } PathIterator.SEG_CUBICTO -> { newshape.curveTo(coords.get(0), coords.get(1), coords.get(2), coords.get(3), coords.get(4), coords.get(5)) } PathIterator.SEG_CLOSE -> newshape.closePath() } i.next() } // Составим результат из newShape (сейчас содержащего по сути копию входного шейпа) // и добавленных нами шейпов вдоль него val rz = Area(mainStroke.createStrokedShape(newshape)) rz.add(Area(sideStroke.createStrokedShape(innerShape))) return rz } ``` Начинаем мы с двух пустых шейпов. В один будем складывать копию входного шейпа (наверное можно было бы обойтись и без нее и как-то вытаскивать координаты из итератора), во вторую будем складывать добавленные нами шейпы, которые будем рисовать вдоль линии. Идем итератором по сегментам исходного шейпа, накапливаем расстояние. Как только накопилось достаточно - находим точку, в которую надо вставить дополнительный шейп, создаем афинное преобразование для перемещения и поворота и добавляем его к sideStroke шейпу. В конце у нас есть два шейпа, исходный мы рисуем переданным нам mainStroke (который дополнительно может создать там пунктир и нужную толщину), а наши боковые шейпы рисуем линиями фиксированной толщины. В принципе, можно было бы и для них передавать кастомный Stroke, но для моих задач это было излишним. Полный код класса можно увидеть [в нашем репозитории](https://github.com/Urban-Research-Lab/kotlin-tile-renderer/blob/main/src/main/kotlin/ru/itmo/idu/tile_renderer/ShapeStroke.kt) в GitHub В итоге можно рендерить всякие вот такие вот линии, которые очень нравятся чиновникам и архитекторам: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/642/619/98c/64261998c30d47f60783179f973337ad.png)
https://habr.com/ru/post/524588/
null
ru
null
# Как на самом деле работает mod_rewrite. Пособие для продолжающих ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/97b/f26/310/97bf2631020994a1b712e30f9049599a.png) Эта статья выросла из идеи продвинутого обучения наших сотрудников технической поддержки работе с mod\_rewrite. Практика показала, что после изучения имеющихся в большом количестве учебников на русском языке саппортам хорошо дается решение шаблонных задач, но вот самостоятельное составление правил происходит методом проб и большого количества ошибок. Проблема заключается в том, что для хорошего понимания работы mod\_rewrite требуется изучение оригинальной англоязычной документации, после чего — либо дополнительные разъяснения, либо часы экспериментов с RewriteLog. В статье изложен механизм работы mod\_rewrite. Понимание принципов его работы позволяет четко осознавать действие каждой директивы и ясно представлять себе, что происходит в тот или иной момент внутри mod\_rewrite при обработке директив. Я предполагаю, что читатель уже знаком с тем, что такое mod\_rewrite, и не буду описывать его основы, которые легко найти в интернете. Также нужно отметить, что в статье освещается работа mod\_rewrite при использовании его директив в файле .htaccess. Отличия при работе в контексте изложены в конце статьи. Итак, вы изучили mod\_rewrite, составили несколько RewriteRule и успели столкнуться с бесконечными перенаправлениями, со случаем, когда правило почему-то не ловит ваш запрос, а также с непредсказуемой работой группы правил, когда последующее правило неожиданно изменяет запрос, кропотливо подготовленный правилами предыдущими. Почему так происходит? С чем работает RewriteRule -------------------------- > Первому RewriteRule передается путь от того места, где находится .htaccess, до запрошенного файла. Эта строка никогда не начинается со "/". Последующим RewriteRule передается результат предыдущих преобразований. > > Чтобы досконально понять, как работает RewriteRule, необходимо сначала определить, **с чем он работает**. Рассмотрим, как Apache получает строку, которая изначально передается на обработку RewriteRule в .htaccess. Когда только начинаешь работать с mod\_rewrite, логично предполагаешь, что он работает со ссылками. Однако в случае с использованием mod\_rewrite в .htaccess это не так. На самом деле в RewriteRule передается **не ссылка, а путь до запрошенного файла**. Из-за внутренней архитектуры Apache в тот момент, когда в действие вступает .htaccess, mod\_rewrite может оперировать только с путем до файла, который должен быть обработан. Это связано с тем, что до передачи в mod\_rewrite запрос уже могли изменить другие модули (например, mod\_alias), и итоговый путь до файла на сайте уже может не совпадать с исходной ссылкой. Если бы mod\_rewrite работал с исходной ссылкой, он бы нарушал действие модулей, которые изменили запрос до него. Поэтому в mod\_rewrite передается абсолютный путь до файла, который должен быть обработан. Также mod\_rewrite знает путь до .htaccess, в котором размещены правила RewriteRule. Чтобы сделать из пути до файла что-то похожее на ссылку, с которой планирует работать разработчик сайта, mod\_rewrite отрезает от абсолютного пути часть до файла .htaccess. Так вот, именно этот путь, от которого отрезан путь до .htaccess, передается в первый RewriteRule. Например: * Запрос: http://example.com/templates/silver/images/logo.gif * DocumentRoot: /var/www/example.com * Путь до файла: /var/www/example.com/templates/silver/images/logo.gif * .htaccess находится в: /var/www/example.com/templates/.htaccess * В первый RewriteRule будет передано: **silver/images/logo.gif** * Обратите внимание: «templates/» тоже отрезалось. ![как работает RewriteRule](https://habrastorage.org/r/w1560/getpro/habr/post_images/740/674/502/7406745022beddf6d45164727c2d5001.png) Путь до .htaccess отрезается вместе со слешем. Из этого есть следствие: строка, которая изначально передается на обработку RewriteRule никогда не начинается со "/". Важно запомнить, что **не делает** RewriteRule. Она не обрабатывает имя сайта, аргументы, которые переданы в скрипт, да и ссылку обрабатывает не всю, если .htaccess размещен не в корне сайта. Всем этим занимается RewriteCond, которого кратко коснемся чуть позже. Итак: > `# работать не будет - правило начинается со / > > RewriteRule ^/index.php$ /my-index.php > > > > # работать не будет - название сайта не анализируется RewriteRule > > RewriteRule ^example.com/.* http://www.example.com > > > > # работать не будет - аргументы ссылки не попадают в RewriteRule > > RewriteRule index.php\?newspage=([0-9]+) news.php?page=$1 > > > > # Будет работать только если .htaccess находится там же, где находится папка templates, > > # например, в корне сайта. То есть, если .htaccess находится в templates/.htaccess , правило > > # работать НЕ БУДЕТ, потому что mod_rewrite отрежет путь до .htaccess и на вход RewriteRule > > # строка попадет уже без "templates/" > > RewriteRule ^templates/common/yandex-money.gif$ templates/shared/yad.gif` > > В начале использования mod\_rewrite я рекомендую работать с ним только в .htaccess в корне сайта. Это несколько упростит контроль за его работой. С чем работает RewriteRule, мы разобрались. Теперь посмотрим, **как** он работает. Как работает RewriteRule ------------------------ > RewriteRule просто преобразовывает строку в соответствии с регулярными выражениями, и все. RewriteRule работает со строкой, а не со ссылкой или путем до файла. > > Как мы выяснили выше, на вход RewriteRule попадает путь от .htaccess до запрошенного файла. Удобнее всего теперь абстрагироваться от путей и ссылок и рассматривать то, с чем работает RewriteRule, **как обычную строку**. Эта строка передается от RewriteRule к RewriteRule, видоизменяясь, если какое-то из RewriteRule сработало. В общем виде, если исключить сложности с использованием флагов (некоторые из которых мы рассмотрим ниже) и сложности с составлением регулярных выражений (которых мы почти не будем касаться в этой статье), RewriteRule работает ОЧЕНЬ просто. 1. Взяли строку. 2. Сравнили с регулярным выражением в первом аргументе. 3. Если есть совпадение — заменили **всю строку** на значение второго аргумента. 4. Передали строку следующему RewriteRule. Вот, в общем, и все. Чтобы наглядно проиллюстрировать, что RewriteRule работает именно **со строкой**, рассмотрим следующий фантастический пример: > `# **Запрос: http://mysite.com/info.html** > > # В первый RewriteRule попадет "info.html" > > > > # Преобразовываем запрос в произвольную строку. > > RewriteRule ^info.html$ "I saw a turtle in the hole. And it was dancing rock-n-roll. And it was smiling. All in all, it was a very funny doll." > > > > # "info.html" -> "I saw a turtle..." > > > > # Заменяем эту строку на внешнюю ссылку. > > RewriteRule turtle https://example.com/information/index.html > > > > # "I saw a turtle..." -> "https://example.com/information/index.html" > > > > # Заменяем имя сайта! > > RewriteRule ^(.*)example.com(.*)$ $1example.org$2 > > > > # "https://example.com/information/index.html" -> "https://example.org/information/index.html" > > > > # Заменяем протокол! > > RewriteRule ^https:(.*)$ ftp:$1 > > > > # "https://example.org/information/index.html" -> "ftp://example.org/information/index.html" > > > > # Заменяем конечную ссылку. > > RewriteRule ^(.*)/index.html$ $1/main.php > > > > # "ftp://example.org/information/index.html" -> "ftp://example.org/information/main.php"` > > Как видите, RewriteRule все равно, с чем работать — она просто преобразовывает строку в соответствии с заданными ей аргументами. Если хотите, можете в строке хранить любые массивы данных, при желании, настойчивости и хорошем знании регулярных выражений можете хоть крестики-нолики на RewriteRule написать. Здесь нужно сделать замечание: хоть RewriteRule и работает с чистой строкой, она все-таки *ориентирована* на работу со ссылками. Поэтому она будет по-особому реагировать на строки, начинающиеся на «https://» или аналоги (запомнит, что мы хотели сделать внешний редирект) и на символ "?" (посчитает следующие символы аргументами, которые нужно будет подставить к запросу). Однако сейчас нас это не интересует — важно понять, что в RewriteRule нет никакой магии — она просто берет строку и изменяет ее так, как вы ей сказали. Внешние редиректы и аргументы мы рассмотрим позже в статье, там тоже есть, о чем поговорить. После того как все преобразования произведены и выполнено последнее RewriteRule, вступает в силу RewriteBase. Для чего нужен RewriteBase -------------------------- > Если получившийся после преобразований запрос является относительным и отличается от исходного, RewriteBase добавит себя к нему слева. Нужно обязательно указывать RewriteBase в .htaccess. Его значение — путь от корня сайта до .htaccess. > > RewriteBase выполняется только после всех RewriteRule, а не между ними. > > Мы уже говорили выше о том, что в mod\_rewrite, работающий в .htaccess, попадает абсолютный путь до запрошенного файла. Чтобы передать его в RewriteRule, mod\_rewrite отрезает путь до .htaccess. Потом правила RewriteRule одно за одним последовательно изменяют запрос. И вот после того, как запрос изменен, Apache должен восстановить абсолютный путь до файла, который он должен в итоге обработать. RewriteBase фактически является хаком, который помогает восстановить исходный путь до файла. RewriteBase выполняется после всех преобразований. Это значит, что он не будет изменять запрос между RewriteRule, а вступит в силу только когда все RewriteRule отработают. После всех преобразований RewriteBase смотрит, относительный получился в итоге путь или абсолютный. В контексте Apache имеется в виду относительный или абсолютный путь, отсчитывая от корня сайта: * images/logo.gif — относительный. * /images/logo.gif — абсолютный (в начале слеш). * http://example.com/images/logo.gif — самый абсолютный из всех. Если путь абсолютный, RewriteBase ничего не делает. А если относительный — RewriteBase дописывает себя слева. Это работает как для внутренних, так и для внешних редиректов: > `# .htaccess находится в /images/ > > # RewriteBase указан /images/ > > RewriteBase /images/ > > > > # **Запрос http://example.com/images/logo.gif** > > # На вход RewriteRule попадает "logo.gif" > > RewriteRule ^logo.gif$ logo-orange.gif > > # После RewriteRule: "logo.gif" -> "logo-orange.gif" > > # После RewriteBase: "logo-orange.gif" -> "/images/logo-orange.gif" > > > > # **Запрос http://example.com/images/header.png** > > # На вход RewriteRule попадает "header.png" > > RewriteRule ^header.png$ /templates/rebranding/header.png > > # После RewriteRule: "header.png" -> "/templates/rebranding/header.png" > > # После RewriteBase: ничего не меняется, так итоговый результат преобразований начинается со "/'. > > > > # **Запрос http://example.com/images/director.tiff** > > # На вход RewriteRule попадает "director.tiff" > > # Используем *внешний относительный* редирект > > RewriteRule ^director.tiff$ staff/manager/director.tiff [R=301] > > # После RewriteRule: "director.tiff" -> "staff/manager/director.tiff" > > # + mod_rewrite запомнил, что будет внешний редирект > > # После RewriteBase: "staff/manager/director.tiff" -> "/images/staff/manager/director.tiff" > > # mod_rewrite вспомнил про внешний редирект: > > # "/images/staff/manager/director.tiff" -> http://example.com/images/staff/manager/director.tiff` > > Обычно после некоторого знакомства с mod\_rewrite складывается следующая привычка: 1) в каждый .htaccess добавлять «RewriteBase /», 2) все перенаправления начинать со слеша: «RewriteRule news.php /index.php?act=news». Это помогает избавиться от артефактов работы RewriteBase, но так делать неправильно. Теперь, когда нам известно, что делает RewriteBase, можно **сформулировать следующие корректные правила:** 1. RewriteBase должен совпадать с путем от корня сайта до .htaccess. 2. Начинать перенаправления со "/" нужно только тогда, когда необходимо указать абсолютный путь от корня сайта до файла. ![как работает RewriteBase](https://habrastorage.org/r/w1560/getpro/habr/post_images/95a/e2f/9b5/95ae2f9b5762b9b26c15fead02533b5a.png) Что будет, если не указать RewriteBase? По умолчанию Apache делает его равным абсолютному пути на файловой системе до .htaccess (например, /var/www/example.com/templates/). Некорректность такого предположения Apache проявляется на внешних относительных редиректах: > `# **Запрос http://example.com/index.php** > > # DocumentRoot: /var/www/example.com/ > > # .htaccess находится в корне сайта, и в нем НЕ УКАЗАН RewriteBase. > > # Поэтому по умолчанию RewriteBase равен абсолютному пути до .htaccess: /var/www/example.com/ > > > > # На входе RewriteRule - "index.php" > > RewriteRule ^index.php main.php [R] > > # На выходе: "index.php" -> "main.php" > > # mod_rewrite запомнил, что нужен внешний редирект > > > > # Закончились RewriteRule > > # mod_rewrite все равно выполняет RewriteBase, так как у него есть значение по умолчанию. > > # Получается: "main.php" -> "/var/www/example.com/main.php" > > > > # Здесь mod_rewrite вспоминает, что был внешний редирект: > > # "/var/www/example.com/main.php" -> http://example.com/var/www/example.com/main.php > > > > # Получилось совсем не то, что имели в виду.` > > Итак, запрос прошел через все RewriteRule, после чего к нему, в случае необходимости, добавился RewriteBase. Должен ли теперь Apache отдать файл, на который показывает результирующий путь? **Нет. Теперь получившийся запрос будет обрабатываться еще раз.** Как работает mod\_rewrite. Флаг [L] ----------------------------------- > mod\_rewrite запускает обработку запроса снова и снова, до тех пор, пока он не перестанет меняться. И флаг [L] не может это остановить. > > При составлении более-менее сложных конфигураций mod\_rewrite важно понимать, что **изменение запроса не заканчивается на последнем RewriteRule**. После того, как сработало последнее правило RewriteRule и был добавлен RewriteBase, mod\_rewrite смотрит, изменился запрос или нет. Если запрос изменился, его обработка начинается заново с начала .htaccess. Apache поступает так, потому что в процессе изменения запроса он мог быть перенаправлен в другую директорию. В ней может быть собственный .htaccess, который не участвовал в предыдущей обработке запроса. В этом же новом .htaccess могут быть правила, которые влияют на обработку запроса — как правила mod\_rewrite, так и правила других модулей. Чтобы корректно обработать эту ситуацию, Apache должен запустить весь цикл обработки заново. *— Постойте, но ведь есть флаг **[L]**, который останавливает обработку запроса mod\_rewrite'ом!* Не совсем так. Флаг [L] останавливает **текущую итерацию** обработки запроса. Однако если запрос был изменен теми RewriteRule, которые все-таки успели отработать, Apache запустит цикл обработки запроса заново с первого RewriteRule. > `# **Запрос: http://example.com/a.html** > > > > RewriteBase / > > > > RewriteRule ^a.html$ b.html [L] > > RewriteRule ^b.html$ a.html [L]` > > Пример выше приведет к бесконечному циклу перенаправлений и к «Internal Server Error» в итоге. В этом примере бесконечный цикл очевиден, однако в более сложных конфигурациях может потребоваться покопаться в правилах, чтобы определить, какие запросы зацикливаются между собой. Чтобы избежать подобных ситуаций, рекомендуется использовать флаг [L] только при необходимости. Необходимость может быть двух типов: 1. Когда используется внешний редирект — [L,R=301] или [L,R=302]. В случае внешнего редиректа дальнейшая обработка запроса нежелательна (см. ниже про флаг [R]), и ее лучше остановить. 2. Когда в .htaccess есть зацикливание, от которого не избавиться, и обработку запроса mod\_rewrite'ом нужно принудительно прекратить. В этом случае используется специальная конструкция — см. в конце статьи советы на эту тему. А вот приведенный ниже пример зацикливаться не будет. Попробуйте определить, почему, и какой в итоге файл будет отдан Apache'м. > `# **Запрос: http://example.com/a.html** > > # Начало .htaccess > > > > RewriteBase / > > RewriteRule ^a.html$ b.html > > RewriteRule ^b.html$ a.html > > > > # Конец .htaccess` > > Отгадка: В результате выполнения всех RewriteRule запрос меняется таким образом, что конечный результат равен исходному. Apache видит это и не запускает повторную обработку запроса. Будет возвращен файл a.html. Как работает mod\_rewrite. Флаг [R] ----------------------------------- > Флаг [R] не останавливает обработку запроса, возвращая сразу внешний редирект. Вместо этого он запоминает необходимость внешнего редиректа, и обработка запроса продолжается следующими RewriteRule. Рекомендуется всегда использовать с флагом [L]. > > Флаг [R] сообщает Apache, что нужно выполнить не внутренний, а внешний редирект. Чем отличается внешний редирект от внутреннего? Внутренний редирект просто изменяет путь до файла, который будет отдан пользователю, при этом пользователь считает, что получает тот файл, который он изначально запросил. При внешнем же редиректе Apache вместо содержимого файла возвращает пользователю статус ответа 301 или 302 и сообщает ссылку, по которой браузер должен обратиться для получения файла. Казалось бы, при обработке флага [R] Apache должен сразу прекратить обработку RewriteRule и вернуть пользователю внешний редирект. Однако давайте вспомним фантастический пример из раздела «Как работает RewriteRule». В нем мы сначала указали флаг [R], обозначив необходимость внешнего редиректа, после чего продолжили изменять ссылку следующими RewriteRule. Именно так и работает Apache при указании внешнего редиректа. Он просто «помечает» себе, что после выполнения всех правил необходимо вернуть статус 302 (по умолчанию), но при этом продолжает выполнение всех RewriteRule дальше по списку. Мы можем и дальше изменять запрос как нам нужно, единственное, что не получится — сделать редирект обратно внутренним. Тем не менее, вряд ли вы хотите после отдачи внешнего редиректа каким-либо образом изменять его. Поэтому **рекомендуется при употреблении флага [R] указывать его совместно с [L]:** > `# BlackJack переехал на красивое имя > > RewriteRule ^bj/(.*) blackjack/$1 [R=301,L] > > > > # Можно использовать просто внешнюю ссылку > > RewriteRule ^bj/(.*) http://blackjack.example.com/$1 [L]` > > Вместо использования флага [R] можно указывать просто внешнюю ссылку. В этом случае Apache сам догадается, что необходимо сделать внешний редирект. Здесь, как и с в случае с явным указанием флага [R], рекомендуется использовать флаг [L]. * Если внешний редирект ведет на тот же сайт, лучше использовать флаг [R] без указания полной ссылки (иными словами, использовать относительный внешний редирект). Это сделает правило независимым от имени сайта. * Если же внешний редирект ведет на другой сайт, иначе, как указав полную внешнюю ссылку, это сделать не получится. Как работает mod\_rewrite. Указание параметров запроса и флаг [QSA] ------------------------------------------------------------------- > Изменение параметров запроса в RewriteRule не изменяет строку, с которой работает следующий RewriteRule. Однако при изменении параметров изменяется переменная %{QUERY\_STRING}, с которой может работать RewriteCond. > > Используемая терминология: «параметры» — параметры запроса, «аргументы» — аргументы RewriteRule. С помощью RewriteRule можно изменять не только путь до файла, который будет обрабатываться, но и параметры запроса GET, которые будут ему передаваться. Это часто используется для передачи обработки ЧПУ в общий скрипт-обработчик, например: > `RewriteBase / > > > > # **Запрос: http://example.com/news/2010/07/12/grand-opening.html** > > # На входе: "news/2010/07/12/grand-opening.html" > > RewriteRule ^news/(.*)$ index.php?act=news&what=$1 > > # После RewriteRule: "news/2010/07/12/grand-opening.html" -> "index.php" > > # %{QUERY_STRING}: "" -> "act=news&what=2010/07/12/grand-opening.html"` > > В момент, когда правило RewriteRule встречает вопросительный знак во втором аргументе, оно понимает, что происходит изменение параметров в запросе. В результате происходит следующее: 1. RewriteRule заменяет строку, с которой оно работает, на часть второго аргумента **до вопросительного знака**. Обратите внимание, что новые параметры запроса **не попадают** в строку, с которой будут работать последующие правила RewriteRule. 2. Часть второго аргумента **после вопросительного знака** попадает в переменную %{QUERY\_STRING}. Если был указан флаг [QSA], параметры запроса будут добавлены в начало %{QUERY\_STRING}. Если флаг указан не был, %{QUERY\_STRING} полностью заменится параметрами запроса из RewriteRule. Еще пара примеров: > `RewriteBase / > > > > # **Запрос: http://example.com/news/2010/?page=2** > > # На входе RewriteRule: "news/2010/" > > RewriteRule ^news/(.*)$ index.php?act=news&what=$1 > > # После преобразования: "news/2010/" -> "index.php" > > # Значение %{QUERY_STRING}: "page=2" -> "act=news&what=2010/"` > > Скорее всего, правило выше работает неправильно, так как теряется аргумент page. Исправим это: > `RewriteBase / > > > > # **Запрос: http://example.com/news/2010/?page=2** > > # На входе RewriteRule: "news/2010/" > > RewriteRule ^news/(.*)$ index.php?act=news&what=$1 **[QSA]** > > # После преобразования: "news/2010/" -> "index.php" > > # Значение %{QUERY_STRING}: "page=2" -> "act=news&what=2010/&page=2"` > > Мы добавили только флаг [QSA], и правило стало работать корректно. Важно понимать, что **изменение параметров запроса изменяет %{QUERY\_STRING}**, который может использоваться в дальнейшем в RewriteCond. Это нужно учитывать при составлении последующих правил, проверяющих аргументы. *— Конечно, изменяется, ведь запрос уходит на повторную обработку Apache'м!* Нет, %{QUERY\_STRING} **изменяется сразу же**. Доказательство приводить не буду — про параметры и так уже написано больше, чем интересно читать :) Что же делать, чтобы проверить в RewriteCond именно те параметры запроса, которые передал пользователь, а не модифицированные RewriteRule'ами? Смотрите советы в конце статьи. RewriteCond и производительность -------------------------------- > Сначала проверяется совпадение запроса с RewriteRule, а уже потом — дополнительные условия RewriteCond. > > Пару слов стоит сказать о том, в каком порядке mod\_rewrite выполняет директивы. Так как в .htaccess сначала идут RewriteCond, а потом RewriteRule, кажется, что mod\_rewrite сначала проверяет все условия, а потом приступает к выполнению RewriteRule. На самом деле все происходит наоборот. Сначала mod\_rewrite проверяет, подходит ли текущее значение запроса под регулярное выражение RewriteRule, а уже потом будет проверять все условия, перечисленные в RewriteCond. Так что если у вас в RewriteRule регулярное выражение на две страницы и вы, задумавшись о производительности, решили ограничить выполнение этого правила дополнительными RewriteCond, знайте — ничего не получится. В этом случае лучше использовать флаги RewriteRule **[C]** или **[S]**, чтобы пропустить более сложное правило, если более простые проверки не сработали. Переменные и флаги RewriteCond, остальные флаги RewriteRule и прочее -------------------------------------------------------------------- > Читайте документацию. > > Мы познакомились с принципами работы RewriteRule, RewriteBase, флагов [L], [R] и [QSA], а также разобрали механизм обработки запросов внутри mod\_rewrite. Из незатронутого остались: другие флаги RewriteRule, директивы RewriteCond и RewriteMap. К счастью, эти директивы и флаги не таят в себе каких-либо загадок и работают именно так, как описано в большинстве учебников. Для их понимания достаточно почитать официальную документацию. В первую очередь рекомендую изучить список переменных, которые можно проверять в RewriteCond — %{QUERY\_STING}, %{THE\_REQUEST}, %{REMOTE\_ADDR}, %{HTTP\_HOST}, %{HTTP:header} и т. д.) Разница в работе mod\_rewrite в контексте .htaccess и в контексте VirtualHost ----------------------------------------------------------------------------- > В контексте mod\_rewrite работает с точностью до наоборот. > > Как я говорил в начале статьи, все описанное выше касается применения mod\_rewrite в контексте .htaccess. Если же mod\_rewrite используется в , он будет работать по-другому: * В в RewriteRule попадает весь путь запроса, начиная от первого слеша, заканчивая началом параметров GET: «http://example.com/some/news/category/post.html?comments\_page=3» -> "/news/category/post.html". Эта строка всегда начинается со /. * Второй аргумент RewriteRule также необходимо начинать со /, иначе будет «Bad Request». * RewriteBase не имеет смысла. * Проход правил происходит только один раз. Флаг [L] действительно заканчивает обработку всех правил, описанных в , без каких-либо последующих итераций. Советы и решения ---------------- Здесь собраны советы, которые можно было бы привести по ходу статьи, но которые были исключены из основного текста для краткости изложения материала. ### Составление регулярных выражений Старайтесь составлять регулярные выражения так, чтобы они наиболее узко определяли именно те запросы, которые вы хотите модифицировать — чтобы правила RewriteRule случайно не сработали для другого запроса. Например: > `# Начинайте все регулярные выражения с "^" (признак начала строки) > > # и заканчивайте "$" (признак конца строки): > > RewriteRule ^news.php$ index.php > > # Даже если в этом нет необходимости - для универсальности и лучшего понимания конфигурации: > > RewriteRule ^news/(.*)$ index.php > > > > # Если под маску должны попадать только цифры - укажите это явно. > > # Если какие-то цифры постоянны, укажите их явно. > > # Если в оставшейся части запроса не могут присутствовать слеши, ограничьте их присутствие. > > # Не забывайте экранировать "." (точки). > > # Следующее правило нацелено на запросы вида http://example.com/news/2009/07/28/b-effect.html > > RewriteRule ^news/20[0-9]{2}/[0-9]{2}/[0-9]{2}/[^/]+\.html index.php` > > Впрочем, о регулярных выражениях на одном известном сайте есть [целый раздел](http://habrahabr.ru/blogs/regex/). ### Изменение внешних редиректов Несмотря на то, что mod\_rewrite позволяет изменять с помощью RewriteRule даже внешние редиректы, вплоть до протокола, я крайне не рекомендую делать это. В статье пример с изменением внешних редиректов используется только чтобы отвязаться от таких понятий как «ссылки» и «файлы» и более явно показать, что RewriteRule работает с простой строкой. Не думаю, что разработчики mod\_rewrite предполагали, что кто-то будет так делать, поэтому возможны всякие артефакты. Не делайте так, пожалуйста. ### Как остановить бесконечный цикл Иногда логика перенаправлений на сайте такова, что без специальных действий mod\_rewrite воспринимает их как бесконечный цикл перенаправлений. Возьмем следующий пример. На сайте была страница /info.html. Специалист по SEO решил, что поисковые системы будут лучше индексировать эту страницу, если она будет называться /information.html и попросил сделать внешний редирект с info.html на information.html. Однако разработчик сайта по каким-то своим соображениям не может просто переименовать info.html в information.html и сделать редирект — ему нужно, чтобы данные обязательно отдавались непосредственно из файла info.html. Он пишет следующее правило: > `# сделать внешний редирект > > RewriteRule ^info.html information.html [R,L] > > # но по запросу /information.html все равно отдать info.html > > RewriteRule ^information.html info.html` > > … и сталкивается с бесконечным циклом. Каждый запрос /information.html получает внешний редирект снова на /information.html. Решить эту проблему можно как минимум двумя способами. На Хабре был уже описан [один из них](http://habrahabr.ru/blogs/webdev/75885/) — нужно установить переменную окружения и на основании ее значения прекращать перенаправления. Код будет выглядеть следующим образом: > `RewriteCond %{ENV:REDIRECT_FINISH} !^$ > > RewriteRule ^ - [L] > > > > RewriteRule ^info.html$ information.html [R,L] > > RewriteRule ^information.html$ info.html [E=FINISH:1]` > > Обратите внимание, что к имени переменной mod\_rewrite добавляет 'REDIRECT\_'. Второй способ — проверить в THE\_REQUEST, что именно было запрошено пользователем: > `# Внешний редирект происходит только если пользователь запросил info.html. > > # Если же info.html - это результат внутреннего перенаправления, правило срабатывать не будет. > > RewriteCond %{THE_REQUEST} "^(GET|POST|HEAD) /info.html HTTP/[0-9.]+$" > > RewriteRule ^info.html$ information.html [R,L] > > > > RewriteRule ^information.html$ info.html` > > ### Анализ исходного запроса пользователя — борьба с раскрытием ссылок Apache При обработке запроса Apache раскрывает закодированные (URL-encoded) символы из первоначального запроса. В некоторых случаях это может быть нежелательно — разработчик хочет проверять именно первоначальный, немодифицированный запрос пользователя. Сделать это можно, проверяя в RewriteCond переменную %{THE\_REQUEST}: > `RewriteCond %{THE_REQUEST} ^GET[\ ]+/tag/([^/]+)/[\ ]+HTTP.*$ > > RewriteRule ^(.*)$ index.php?tag=%1 [L]` > > На хабре есть [обсуждение одного из таких случаев](http://habrahabr.ru/blogs/personal/49136/), из него и был взят вышеприведенный пример. Рекомендуемая документация -------------------------- [Официальная документация Apache](http://httpd.apache.org/docs/current/rewrite/) и особенно [Technical details](http://httpd.apache.org/docs/current/rewrite/tech.html). Да-да. Большое спасибо за внимание!
https://habr.com/ru/post/129560/
null
ru
null
# Выбор зависимостей для проекта ***Салют, хабровчане. В преддверии старта курса [«Fullstack разработчик JavaScript»](https://otus.pw/Rq6w/), подготовили для вас еще один полезный перевод.*** ![](https://habrastorage.org/r/w1560/webt/1x/pe/6j/1xpe6jcccfkztlhw0rdkwmg5imm.png) --- Каждый веб-разработчик сталкивался с этой головоломкой: какую зависимость выбрать? Почему мы выбираем jQuery, а не Prototype, или Prototype, а не Mootools, или отдаем предпочтение Vue вместо React, или же предпочитаем Angular вместо Ember, или же Lodash, а не Underscore, и так получается неограниченное количество комбинаций. Сам я принимаю решение настолько быстро, что оно может казаться неосознанным. Однако это не так, и я решил, что пришло время описать некоторые из моих рабочих процессов, как минимум, чтобы со временем скорректировать их или пересмотреть. Виды зависимостей ----------------- Когда я выбираю новые зависимости, я мечусь меж двух огней. Либо мне нужен проект уровня фреймворка, либо уже готовое решение (плагин, библиотека или нечто подобное). Также на процесс выбора влияют конкретные факторы. Ниже приведен список вопросов, согласно которому я расставляю приоритеты, когда рассматриваю какие-либо зависимости для проекта. #### 1. Активно ли ведется разработка проекта? Ответ на этот вопрос особенно важен для больших проектов, поскольку в них над кодом работает обычно больше одного человека. Посещение простаивающего репозитория – это далеко не повод отказаться от технологии, но мне нужно понимать технический потенциал новой зависимости. Вот два аспекта, которым я уделяю много внимания: * Активность коммитов за последнее время – тут обычно помогает беглый взгляд на главную страницу проекта на github. * Возраст любых открытых pull requst’ов – долго висящие pull request’ы могут говорить о том, что проектом долго никто не занимается (я и сам так делал с Nodemon) #### 2. Используется ли проект? Популярность не является для меня решающим факторов, но чем больше используется программное обеспечение, тем больше багов в нем будет найдено. В данном вопросе я обращаю внимание на: * Общее количество issue – большое количество открытых issue – это не всегда плохо; * Количество закрытых issue; * Скорость, с которой закрываются issue. Скорость, с которой закрываются issue, для меня является не особо важным фактором, особенно в проекте, где их много. Для меня важнее наличие их обсуждения. #### 3. Глубина зависимостей В сообществе Node и npm ходит шутка, что самый тяжелый объект во вселенной – это ни Солнце, ни нейтронная звезда и ни черная дыра – это `node_modules`. Мы, как веб-разработчики, берем на себя огромный риск, и слава богу, что не так давно появился Deno, который пытается решить эту проблему с помощью `stdlib`, который предотвращает разрастание графа зависимостей. *Поэтому важно не количество зависимостей (которые вы можете увидеть на таких сайтах как npmjs), а их глубина. Странно, что я видел это только у [Snyk.io](http://snyk.io/), то есть зависимости [nodemon](https://snyk.io/test/npm/nodemon?tab=dependencies).* #### 4. Наличие примеров Что касается библиотек на стороне клиента, то мне нужны интерактивные примеры работающего кода и достаточное количество кода в целом, чтобы иметь возможность воссоздать демо самому. Так сразу можно получить ответ на вопрос: «Будет ли этот проект делать то, чего я от него хочу». #### 5. Документация и сложность Второй по важности, кроме рабочего кода, для меня является документация. У маленьких проектов я ожидаю увидеть примеры кода в README. В более крупных проектах я надеюсь на несколько страниц документации. Когда я смотрю на документацию, то ищу примеры, с которых можно начать и задаюсь вопросом: требует ли сборка этого проекта дополнительных инструментов? Множество проектов, с которыми я сталкивался в документации содержат еще и предположения о наличии каких-либо знаний, и количество таких предположений повышает градус сложности, особенно, если я не знаком с системами, о которых в проекте идет речь. Например, по опыту, почти каждый проект на Python предполагает знание того, как установить зависимость, и я под эту категорию не попадаю. #### 6. Номера версий Если проект не использует semver, это как правило уже красный флаг, так как очень большое количество информации можно узнать из номера версии. Напомним, что в [semver](https://semver.org/) мажорные версии – это индикаторы критических изменений, минорные версии – это изменения в функциях, а патч-версии – это исправления багов. Вокруг документации и рефакторинга существует некая туманность (когда внешне API работает точно также, а внутренняя реализация отличается, и вы делаете релиз, но никаким изменениям в semver это не соответствует). Тем не менее, большой номер мажорной версии предполагает высокую частоту критических изменений, что может означать возможные проблемы с поддержкой уже моего проекта. Большое минорное число (например, у инструмента командной строки Snyk, сейчас версия 1.323.0) предполагает множество функций, и возможно, новый релиз для каждой функции. Большой номер у патч-версии, как мне кажется, предполагает стабильность и постоянную поддержку проекта. #### 7. Возраст В реальной жизни это был бы эйджизм, но в мире программистов возраст проекта может говорить о многом. «Старость» проекта говорит о его зрелости или же может служить своеобразным признаком заброшенности. Но что такое старость? Если Node в 2020 году исполнилось 11 лет, то, наверное, все проекты, чей возраст перевалил за 10 лет могут считаться старыми. Обычно я избегаю очень молодых проектов (возрастом в несколько месяцев). Многие из этих советов действительно имею значение: должны ли зависимости создаваться и находиться в проекте, над которым я работаю? Этот вопрос я всегда задаю себе, и, если конкретная проблема, которую я пытаюсь решить, достаточно четкая, я могу даже вытащить код, скопировать лицензию и процитировать источник, чтобы иметь при себе полностью замороженную зависимость. --- [WebAssembly. Что и Как](https://otus.pw/Rq6w/) ---
https://habr.com/ru/post/507270/
null
ru
null
# Включаем HTTP/2 в NGINX для сайта В этой статье мы расскажем, как включить HTTP/2 для сайта в NGINX, размещенного на [VPS от Infobox](http://infobox.ru/vps/linux/) и какие преимущества это даст вашему сайту. Поддержка HTTP/2 была добавлена в релиз [NGINX 1.9.5](https://www.nginx.com/blog/nginx-1-9-5/). [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8ed/d66/9e9/8edd669e975faf8290157013f9f2f04d.png)](http://infobox.ru/vps/linux) #### **Зачем нужен HTTP/2** HTTP/2 – новая версия протокола HTTP, [стандартизированная](https://tools.ietf.org/html/rfc7540) в начале 2015 года. Использование HTTP/1.1 из-за некоторых особенностей вносит негативный эффект на производительность веб-приложений. В частности HTTP/1.0 позволяет выполнять только один запрос одновременно в TCP–соединении. В HTTP/1.1 были добавлены конвейерные запросы, но они только частично помогают параллельному исполнению запросов и по-прежнему приводят к блокировкам. Клиенты HTTP/1.0 и HTTP/1.1, которым необходимо делать много запросов сейчас используют множество соединений к серверу. Кроме этого, поля заголовка HTTP многословны и часто повторяются, производя ненужный сетевой трафик. Также время тратится на заторы TCP. Это может привести к повышенным задержкам при множестве запросов сделанных с помощью новых TCP–соединений. HTTP/2 решает эти проблемы, определяя оптимизированную семантику протокола HTTP. В частности это позволяет выполнять чередование запросов и ответов через то же подключение и предоставляет эффективное кодирование полей HTTP-заголовка. Также HTTP/2 позволяет приоритизировать запросы, позволяя более важным запросам выполняться быстрее. В результате протокол становится более дружественным к сети, требуя установки меньшего количества TCP–соединений в сравнении с HTTP/1.x, что приводит к более эффективному использованию сети. Также HTTP/2 дает возможность эффективнее обрабатывать сообщения с помощью бинарного формата. HTTP/2 тесно связан с SSL. Несмотря на то, что спецификация не требует обязательного использования SSL, все веб-браузеры выпущенные на текущий момент будут работать с HTTP/2 только если веб-сайт использует SSL. #### **Разворачиваем сервер с последней версией NGINX** Если у вас еще нет VPS от Infobox, [заказать сервер можно тут](http://infobox.ru/vps/linux). В статье описана настройка HTTP2 для сервера с CentOS 7. После заказа и создания сервера подключитесь к нему [по SSH](https://infoboxcloud.ru/community/blog/linuxvps/304.html). **Устанавливаем последнюю версию NGINX на новый VPS с CentOS 7**Для установки последней версии NGINX добавим официальный репозиторий. Для этого в файл **/etc/yum.repos.d/nginx.repo** добавьте следующее содержимое: ``` [nginx] name=nginx repo baseurl=http://nginx.org/packages/mainline/centos/7/$basearch/ gpgcheck=0 enabled=1 ``` Остановите Apache и запретите его автозапуск: ``` systemctl stop httpd && systemctl disable httpd ``` Обновите ОС командой: ``` yum -y update ``` После этого перезагрузите ОС. ``` reboot ``` Установите nginx и firewalld командой: ``` yum install -y nginx firewalld ``` Теперь запустите nginx и добавьте в автозагрузку: ``` systemctl start nginx && systemctl enable nginx ``` Аналогично запустите firewalld: ``` systemctl start firewalld && systemctl enable firewalld ``` Последнее, что осталось сделать — открыть порты 80, 443 и 22. ``` firewall-cmd --zone=public --add-port=80/tcp --add-port=443/tcp --add-port=22/tcp --permanent ``` ``` firewall-cmd --reload ``` Теперь зайдите в браузере по ip–адресу вашей VPS. Вы увидите приветственную страницу NGINX. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1c0/7b8/20d/1c07b820d49ce94fa18cbc444279553f.jpg) #### **Генерируем сертификат** Для работы HTTP/2 на текущий момент должна быть включенa поддержка соединения по HTTPS в NGINX. Обычно этот процесс состоит из четырех шагов: * генерация приватного ключа (key) * создания запроса на подпись (CSR) и отправка запроса в сертифицирующий центр (CA) * установка сертификата от сертифицирующего центра * настройка конфигурации NGINX Такой процесс обеспечивает доверие браузеров пользователей к сайту. Создайте папку, в которой будут храниться ключи шифрования и перейдите в нее: ``` mkdir /etc/nginx/ssl && cd /etc/nginx/ssl ``` Для понимания способов генерации ключа необходимо знать следующие понятия: **Алгоритм генерации ключа**. OpenSSL поддерживает [RSA](https://ru.wikipedia.org/wiki/RSA), [DSA](https://ru.wikipedia.org/wiki/DSA) и [ECDSA](https://ru.wikipedia.org/wiki/ECDSA) ключи, но не все типы подходят для практического использования во всех сценариях. Например, для веб-серверов нужно использовать RSA, потому что DSA ключи ограничены 1024 битами (IE не поддерживает ничего сложнее) и ECDSA ключи еще не поддерживаются широко сертифицирующими центрами. Если бы мы генерировали ключ для SSH – подошли бы RSA и DSA, так как ECDSA еще может не поддерживаться частью клиентов. **Размер ключа**. Размер ключа по-умолчанию может быть небезопасен. Например ключ по-умолчанию для RSA – только 512 бит и его использование совершенно небезопасно. Сегодня рекомендуется использовать минимум 2048 бит для RSA, 2048 бит для DSA и 256 бит для ECDSA. Мы будем использовать RSA и 4086 бит. **Для генерации приватного ключа и запроса на подписание сертификата** выполните команду: ``` openssl req -out /etc/nginx/ssl/domain.csr -new -newkey rsa:4086 -nodes -keyout /etc/nginx/ssl/domain.key ``` В процессе обязательно укажите FQDN (Common name) – имя домена и email в домене, например webmaster@domain.tld. Не устанавливайте пароль на ключ. После генерации вы увидите в папке **/etc/nginx/ssl** два файла с расширениями **key** (приватный ключ) и **csr** (запрос на подписание сертификата). Если вы хотите использовать доверенный сертификат — закажите его у центра сертификации (можно например заказать в [тут](https://store.pa.infobox.ru)). Для формирования сертификата потребуется содержимое **csr**, которое можно посмотреть так: ``` cat /etc/nginx/ssl/domain.csr ``` После заказа и формирования сертификата сохраните его содержимое в файле **/etc/nginx/ssl/domain.crt**. После самого содержимого сертификата в этот же файл с новой строки добавьте содержимое Intermediate сертификата, если он будет предоставлен вам сертифицирующим центром и сохраните файл. **Если вы разворачиваете тестовое окружение — можно бесплатно сгенерировать самоподписанный сертификат** так: ``` openssl req -x509 -nodes -days 365 -newkey rsa:4096 -keyout /etc/nginx/ssl/domain.key -out /etc/nginx/ssl/domain.crt ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/65f/2c0/685/65f2c068587254496b24befdbffbc8b9.jpg) Также необходимо сгенерировать DH параметры для того, чтобы в случае кражи приватного ключа нельзя было расшифровать последние сообщения. ``` openssl dhparam -out /etc/nginx/ssl/dhparam.pem 4096 ``` #### **Включаем доступ только по HTTPS в NGINX и активируем HTTP2** Отредактируйте файл конфигурации NGINX **/etc/nginx/conf.d/default.conf**. В нем удалите секцию **server** и добавьте: ``` server { listen 80; server_name domain.tld www.domain.tld; return 301 https://$host$request_uri; } server { listen 443 ssl http2; server_name domain.tld www.domain.tld; ssl on; ssl_certificate /etc/nginx/ssl/domain.crt; ssl_certificate_key /etc/nginx/ssl/domain.key; ssl_dhparam /etc/nginx/ssl/dhparam.pem; ssl_prefer_server_ciphers On; ssl_protocols TLSv1.1 TLSv1.2; ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-DSS-AES128-GCM-SHA256:kEDH+AESGCM:ECDHE-RSA-AES128-SHA256:ECDHE-ECDSA-AES128-SHA256:ECDHE-RSA-AES128-SHA:ECDHE-ECDSA-AES128-SHA:ECDHE-RSA-AES256-SHA384:ECDHE-ECDSA-AES256-SHA384:ECDHE-RSA-AES256-SHA:ECDHE-ECDSA-AES256-SHA:DHE-RSA-AES128-SHA256:DHE-RSA-AES128-SHA:DHE-DSS-AES128-SHA256:DHE-RSA-AES256-SHA256:DHE-DSS-AES256-SHA:DHE-RSA-AES256-SHA:!aNULL:!eNULL:!EXPORT:!DES:!RC4:!3DES:!MD5:!PSK; add_header Strict-Transport-Security max-age=15768000; ssl_stapling on; location / { root /usr/share/nginx/html; } } } ``` , где **domain.tld** замените на имя вашего сайта, для которого включаете HTTP2. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0be/8e3/fee/0be8e3feeb76e83073eba84d1ca9c188.jpg) После изменений протестируйте конфигурацию nginx на отсутствие ошибок командой: ``` nginx -t ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b90/a53/7ea/b90a537ea502b62019e5a3da7d312426.jpg) Теперь перезапустите NGINX: ``` systemctl restart nginx ``` Откройте сайт по доменному имени в браузере. Если вы использовали самоподписанный сертификат и не заверяли его у сертифицирующего центра, вы увидите предупреждение. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/83a/991/71d/83a99171d0218c4bc2f03692107e21f5.jpg) Добавьте сайт в исключения, браузер запомнит это и он корректно откроется. Чтобы проверить, что сайт работает по HTTP2, установите HTTP2 indicator для [Firefox](https://addons.mozilla.org/en-us/firefox/addon/spdy-indicator/) или [Chrome](https://chrome.google.com/webstore/detail/http2-and-spdy-indicator/mpbpobfflnpcgagjijhmgnchggcjblin?hl=en). Теперь при заходе на сайт, поддерживающий HTTP2 или SPDY вы увидите синюю молнию. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f52/f6f/4b3/f52f6f4b3493fe2432b08f5a88d2bbc1.jpg) Действительно, сайт работает по HTTP2. #### **Пробная версия VPS от Infobox бесплатно** Вы можете настроить все, описанное в статье, на пробной версии [VPS](http://infobox.ru/vps/linux). Для этого пришлите ваше имя и номер телефона на [trial@infobox.ru](mailto:trial@infobox.ru), в ответ получите данные для доступа к панели управления. Вы можете тестировать VPS в течение 10 дней. Успешной работы!
https://habr.com/ru/post/268599/
null
ru
null
# Подборка @pythonetc, сентябрь 2018 ![](https://habrastorage.org/r/w1560/webt/79/ur/ug/79urugmgbgzjhlpozccip51e5_s.png) Это четвёртая подборка советов про Python и программирование из моего авторского канала [@pythonetc](http://t.me/pythonetc). Предыдущие подборки: * [Август 2018](https://habr.com/company/mailru/blog/422789/) * [Июль 2018](https://habr.com/company/mailru/blog/419025/) * [Июнь 2018](https://habr.com/company/mailru/blog/416605/) Переопределение и перегрузка ---------------------------- Существует две концепции, которые легко спутать: переопределение (overriding) и перегрузка (overloading). Переопределение случается, когда дочерний класс определяет метод, уже предоставленный родительскими классами, и тем самым заменяет его. В каких-то языках требуется явным образом помечать переопределяющий метод (в C# применяется модификатор `override`), а в каких-то языках это делается по желанию (аннотация `@Override` в Java). Python не требует применять специальный модификатор и не предусматривает стандартной пометки таких методов (кто-то ради читабельности использует кастомный декоратор `@override`, который ничего не делает). С перегрузкой другая история. Этим термином обозначается ситуация, когда есть несколько функций с одинаковым именем, но с разными сигнатурами. Перегрузка возможна в Java и C++, она часто используется для предоставления аргументов по умолчанию: ``` class Foo { public static void main(String[] args) { System.out.println(Hello()); } public static String Hello() { return Hello("world"); } public static String Hello(String name) { return "Hello, " + name; } } ``` Python не поддерживает поиск функций по сигнатуре, только по имени. Конечно, вы можете написать код, явным образом анализирующий типы и количество аргументов, но это будет выглядеть неуклюже, и такой практики лучше избегать: ``` def quadrilateral_area(*args): if len(args) == 4: quadrilateral = Quadrilateral(*args) elif len(args) == 1: quadrilateral = args[0] else: raise TypeError() return quadrilateral.area() ``` Если вам нужны type hints, воспользуйтесь модулем `typing` с декоратором `@overload`: ``` from typing import overload @overload def quadrilateral_area( q: Quadrilateral ) -> float: ... @overload def quadrilateral_area( p1: Point, p2: Point, p3: Point, p4: Point ) -> float: ... ``` Автовивификация --------------- `collections.defaultdict` позволяет создать словарь, который возвращает значение по умолчанию, если запрошенный ключ отсутствует (вместо выбрасывания `KeyError`). Для создания `defaultdict`вам нужно предоставить не просто дефолтное значение, а фабрику таких значений. Так вы можете создать словарь с виртуально бесконечным количеством вложенных словарей, что позволит использовать конструкции вроде `d[a][b][c]...[z]`. ``` >>> def infinite_dict(): ... return defaultdict(infinite_dict) ... >>> d = infinite_dict() >>> d[1][2][3][4] = 10 >>> dict(d[1][2][3][5]) {} ``` Такое поведение называется «автовивификацией», этот термин пришёл из Perl. Инстанцирование --------------- Инстанцирование объектов включает в себя два важных шага. Сначала из класса вызывается метод `__new__`, который создаёт и возвращает новый объект. Затем из него Python вызывает метод `__init__`, который задаёт начальное состояние этого объекта. Однако `__init__` не будет вызван, если `__new__` возвращает объект, не являющийся экземпляром исходного класса. В этом случае объект мог быть создан другим классом, и значит `__init__` уже вызывался на объекте: ``` class Foo: def __new__(cls, x): return dict(x=x) def __init__(self, x): print(x) # Never called print(Foo(0)) ``` Это также означает, что не следует создавать экземпляры того же класса в `__new__` с помощью обычного конструктора (`Foo(...)`). Это может привести к повторному исполнению `__init__`, или даже к бесконечной рекурсии. Бесконечная рекурсия: ``` class Foo: def __new__(cls, x): return Foo(-x) # Recursion ``` Двойное исполнение `__init__`: ``` class Foo: def __new__(cls, x): if x < 0: return Foo(-x) return super().__new__(cls) def __init__(self, x): print(x) self._x = x ``` Правильный способ: ``` class Foo: def __new__(cls, x): if x < 0: return cls.__new__(cls, -x) return super().__new__(cls) def __init__(self, x): print(x) self._x = x ``` Оператор [] и срезы ------------------- В Python можно переопределить оператор `[]`, определив магический метод `__getitem__`. Так, например, можно создать объект, который виртуально содержит бесконечное количество повторяющихся элементов: ``` class Cycle: def __init__(self, lst): self._lst = lst def __getitem__(self, index): return self._lst[ index % len(self._lst) ] print(Cycle(['a', 'b', 'c'])[100]) # 'b' ``` Необычное здесь заключается в том, что оператор `[]` поддерживает уникальный синтаксис. С его помощью можно получить не только `[2]`, но и `[2:10]`, `[2:10:2]`, `[2::2]` и даже `[:]`. Семантика оператора такая: [start:stop:step], однако вы можете использовать его любым иным образом для создания кастомных объектов. Но если вызывать с помощью этого синтаксиса `__getitem__`, что он получит в качестве индексного параметра? Именно для этого существуют slice-объекты. ``` In : class Inspector: ...: def __getitem__(self, index): ...: print(index) ...: In : Inspector()[1] 1 In : Inspector()[1:2] slice(1, 2, None) In : Inspector()[1:2:3] slice(1, 2, 3) In : Inspector()[:] slice(None, None, None) ``` Можно даже объединить синтаксисы кортежей и слайсов: ``` In : Inspector()[:, 0, :] (slice(None, None, None), 0, slice(None, None, None)) ``` `slice` ничего не делает, только хранит атрибуты `start`, `stop` и `step`. ``` In : s = slice(1, 2, 3) In : s.start Out: 1 In : s.stop Out: 2 In : s.step Out: 3 ``` Прерывание корутины asyncio --------------------------- Любую исполняемую корутину (coroutine) `asyncio` можно прервать с помощью метода `cancel()`. При этом в корутину будет отправлена `CancelledError`, в результате эта и все связанные с ней корутины будут прерваны, пока ошибка не будет поймана и подавлена. `CancelledError` — подкласс `Exception`, а значит её можно случайно поймать с помощью комбинации `try ... except Exception`, предназначенной для ловли «любых ошибок». Чтобы безопасно для сопрограммы поймать ошибку, придётся делать так: ``` try: await action() except asyncio.CancelledError: raise except Exception: logging.exception('action failed') ``` Планирование исполнения ----------------------- Для планирования исполнения какого-то кода в определённое время в `asyncio` обычно создают task, которая выполняет `await asyncio.sleep(x)`: ``` import asyncio async def do(n=0): print(n) await asyncio.sleep(1) loop.create_task(do(n + 1)) loop.create_task(do(n + 1)) loop = asyncio.get_event_loop() loop.create_task(do()) loop.run_forever() ``` Но создание новоого таска может стоить дорого, да это и не обязательно делать, если вы не планируете выполнять асинхронные операции (вроде функции `do` в моём примере). Вместо этого можно использовать функции `loop.call_later` и `loop.call_at`, которые позволяют запланировать вызов асинхронного коллбека: ``` import asyncio def do(n=0): print(n) loop = asyncio.get_event_loop() loop.call_later(1, do, n+1) loop.call_later(1, do, n+1) loop = asyncio.get_event_loop() do() loop.run_forever() ```
https://habr.com/ru/post/425125/
null
ru
null
# Использование Typescript с React – руководство для новичков Друзья, в преддверии выходных хотим поделиться с вами еще одной интересной публикацией, которую хотим приурочить к запуску новой группы по курсу [«Разработчик JavaScript»](https://otus.pw/rqAj/). ![](https://habrastorage.org/r/w1560/webt/ew/zv/fb/ewzvfbkgyhwhbczbwl3ew5wyyqs.png) Потратив последние несколько месяцев на разработку приложений на React и библиотек с использованием Typescript, я решил поделиться некоторыми вещами, которые узнал за это время. В этом руководстве я расскажу вам про шаблоны, которые я использую для Typescript и React в 80% случаев. Стоит ли изучать Typescript для разработки приложений на React? Стоит, еще как стоит! Для себя я осознал на практике, что строгая типизация приводит к написанию гораздо более надежного кода, быстрой разработке, особенно в крупных проектах. Сначала вы, вероятно, будете разочарованы, но по мере работы вы обнаружите, что хотя бы минимальный шаблон действительно будет очень кстати. И если вы застряли на чем-то, помните, что вы всегда можете типизировать что- нибудь как any. Any – ваш новый друг. А теперь перейдем непосредственно к примерам. Ваш базовый компонент react с typescript ---------------------------------------- Как же выглядит стандартный компонент react на typescript? Давайте сравним его с компонентом react в javascript. ``` import React from 'react' import PropTypes from 'prop-types' export function StandardComponent({ children, title = 'Dr.' }) { return ( {title}: {children} ) } StandardComponent.propTypes = { title: PropTypes.string, children: PropTypes.node.isRequired, } ``` А теперь версия на typescript: ``` import * as React from 'react' export interface StandardComponentProps { title?: string children: React.ReactNode } export function StandardComponent({ children, title = 'Dr.', }: StandardComponentProps) { return ( {title}: {children} ) } ``` Очень похоже, не так ли? Мы заменили `propTypes` на интерфейс `typescript`. Заголовок `prop` остается необязательным, в то время как все еще требуется prop наследника. Мы экспортировали наш интерфейс на случай, если другому компоненту понадобится на него ссылка. Расширение стандартных атрибутов HTML ------------------------------------- Если мы хотим, чтобы родительский компонент мог обеспечивать дополнительные типизированные атрибуты `div`, такие как `aria-hidden`, `style` или `className`, мы можем определить их в `interface` или же расширить встроенный интерфейс. В приведенном ниже примере, мы говорим, что наш компонент принимает любые стандартные свойства `div` в дополнение к заголовку и наследникам. ``` import * as React from 'react' export interface SpreadingExampleProps extends React.HTMLAttributes { title?: string children: React.ReactNode } export function SpreadingExample({ children, title = 'Dr.', ...other }: SpreadingExampleProps) { return ( {title}: {children} ) } ``` Обработка событий ----------------- Мы можем типизировать обработчики событий, чтобы убедиться, что аргумент события имеет правильный тип. Пример ниже демонстрирует различные способы достижения этой цели: ``` export interface EventHandlerProps { onClick: (e: React.MouseEvent) => void } export function EventHandler({ onClick }: EventHandlerProps) { // handle focus events in a separate function function onFocus(e: React.FocusEvent) { console.log('Focused!', e.currentTarget) } return ( { // When using an inline function, the appropriate argument signature // is provided for us }} > Click me! ) } ``` Не знаете, какую сигнатуру аргумента использовать? В редакторе наведите курсором на соответствующее свойство обработчика событий. Использование дженериков с компонентами react --------------------------------------------- Это более продвинутая функция, но она действительно мощная. Как правило, вы определяете типы данных в компонентах react конкретными атрибутами. Предположим, вашему компоненту требуется объект `profile`. ``` interface ProfileType { name: string image: string age: number | null } interface ProfilesProps { profiles: Array } function Profiles(props: ProfilesProps) { // render a set of profiles } ``` А теперь давайте представим, что у вас есть компонент, который может принимать массив любого типа. Дженерики похожи на отправку посылки по почте. Курьер (наш компонент) не должен знать содержимое посылки, которую вы отправляете, но отправитель (родительский компонент) ожидает, что получатель получит содержимое, которое он отправил. Мы реализуем это так: ``` interface GenericsExampleProps { children: (item: T) => React.ReactNode items: Array } export function GenericsExample({ items, children, }: GenericsExampleProps) { return ( {items.map(item => { return children(item) })} ) } ``` Немного странный пример… тем не менее он демонстрирует суть. Компонент принимает массив элементов любого типа, проходит по нему и вызывает функцию `children` как рендер функцию с элементом массива. Когда наш родительский компонент предоставляет колбэк рендера как наследника, элемент будет типизирован правильно! Не поняли? Это нормально. Я сам еще не разобрался с дженериками до конца, но вам вряд ли понадобится понимать их досконально. Однако, чем больше вы будете работать с `typescript`, тем больше в этом будет смысла. Типизация хуков (hooks) ----------------------- Хуки в основном работают из коробки. Двумя исключениями могут быть только `useRef` и `useReducer`. Пример ниже показывает, как мы можем типизировать ссылки (refs). ``` import * as React from 'react' interface HooksExampleProps {} export function HooksExample(props: HooksExampleProps) { const [count, setCount] = React.useState(0) const ref = React.useRef(null) // start our timer React.useEffect( () => { const timer = setInterval(() => { setCount(count + 1) }, 1000) return () => clearTimeout(timer) }, [count] ) // measure our element React.useEffect( () => { if (ref.current) { console.log(ref.current.getBoundingClientRect()) } }, [ref] ) return Count: {count} } ``` Наше состояние автоматически типизируется, но мы вручную типизировали ref, чтобы показать, что он будет иметь значение `null` или содержать элемент `div`. Когда мы обращаемся к ref в функции `useEffect`, нам нужно убедиться, что он не равен `null`. Типизация редуктора ------------------- С редуктором немного сложнее, но если он правильно типизирован, то это замечательно. ``` // Yeah, I don't understand this either. But it gives us nice typing // for our reducer actions. type Action = V extends void ? { type: K } : { type: K } & V // our search response type interface Response { id: number title: string } // reducer actions. These are what you'll "dispatch" export type ActionType = | Action<'QUERY', { value: string }> | Action<'SEARCH', { value: Array }> // the form that our reducer state takes interface StateType { searchResponse: Array query: string } // our default state const initialState: StateType = { searchResponse: [], query: '', } // the actual reducer function reducer(state: StateType, action: ActionType) { switch (action.type) { case 'QUERY': return { ...state, query: action.value, } case 'SEARCH': return { ...state, searchResponse: action.value, } } } interface ReducerExampleProps { query: string } export function ReducerExample({ query }: ReducerExampleProps) { const [state, dispatch] = React.useReducer(reducer, initialState) React.useEffect( () => { if (query) { // emulate async query setTimeout(() => { dispatch({ type: 'SEARCH', value: [{ id: 1, title: 'Hello world' }], }) }, 1000) } }, [query] ) return state.searchResponse.map(response => ( {response.title} )) } ``` Использование `typeof` и `keyof` чтобы типизировать варианты компонента ----------------------------------------------------------------------- Предположим, что нам нужна кнопка, которая может иметь различный внешний вид, каждый из которых определен в объекте с набором ключей и стилей, например: ``` const styles = { primary: { color: 'blue', }, danger: { color: 'red', }, } ``` Наш компонент кнопки должен принимать свойство `type`, которое может быть любым ключом из объекта `styles` (например, *«primary»* или *«danger»*). Мы можем типизировать его достаточно просто: ``` const styles = { primary: { color: 'blue', }, danger: { color: 'red', }, } // creates a reusable type from the styles object type StylesType = typeof styles // ButtonType = any key in styles export type ButtonType = keyof StylesType interface ButtonProps { type: ButtonType } export function Button({ type = 'primary' }: ButtonProps) { return My styled button } ``` Эти примеры помогут вам пройти 80% пути. Если вы застряли, то очень часто стоит просто взглянуть на существующие примеры с открытым исходным кодом. [Sancho UI](https://github.com/bmcmahen/sancho) — это набор компонентов react, построенный с помощью typescript и emotion. [Blueprint](https://github.com/palantir/blueprint) — это еще один набор компонентов `react`, построенный на `typescript`. Ну и по устоявшейся традиции ждем ваши комментарии.
https://habr.com/ru/post/456124/
null
ru
null
# Dagaz: Пинки здравому смыслу (часть 8) ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/43e/794/3a3/43e7943a3e289a281570ab8b68d347b8.png) ***— Для начала, ты должен понять главное… — Что главное? — Нет никакой ложки! "[Матрица](http://www.kinopoisk.ru/film/301/)"*** Как я уже неоднократно говорил [ранее](http://habrahabr.ru/post/258437/), некоторые вещи реализовать в [Zillions of Games](http://www.zillions-of-games.com/) попросту невозможно. Впрочем, если нельзя, но очень хочется, то иногда бывает всё таки можно. Как далеко можно зайти по этому пути? #### **3. Всё обман** Мы уже сталкивались с этим. ZoG не позволяет определять ходы, ограничивающиеся удалением фигур с доски? Нет проблем — создадим ход, **сбрасывающий** фигуру на доску и немедленно удаляющий её (в результате чего, фигура располагавшаяся на целевом поле, будет удалена автоматически). Таким образом можно создавать «кнопки», расширяя интерфейсные возможности ZoG (хотя, на самом деле, никакие это не кнопки, а просто специальные фигуры на доске). ZoG ограничивает размерность доски пятью измерениями? Тоже не беда! **Создадим недостающие позиции и свяжем их вручную** ``` (define 6D (image "images\6DChess\6DChess.bmp") (grid (start-rectangle 34 7 76 53) (dimensions ; 2x2x2x2x2 ("Zii/Zi" (0 148)) ; 5D ("A/B" (162 0)) ; 4D ("II/I" (0 68)) ; 3D ("a/b" (66 0)) ; columns ("2/1" (31 19))) ; rows offset 31 (directions (n 0 0 0 0 -1) (s 0 0 0 0 1) (e 0 0 0 1 0) (w 0 0 0 -1 0) (u 0 0 -1 0 0) (d 0 0 1 0 0) (4e 0 1 0 0 0) (4w 0 -1 0 0 0) (5u -1 0 0 0 0) (5d 1 0 0 0 0))) (positions ; 6D (YiAIa1 413 241 445 287) (YiAIa2 383 223 415 269) (YiAIb1 477 241 509 287) (YiAIb2 448 223 480 269) (YiAIIa1 413 175 445 221) (YiAIIa2 383 155 415 201) (YiAIIb1 477 175 509 221) (YiAIIb2 448 155 480 201) (YiBIa1 577 241 609 287) (YiBIa2 547 223 579 269) (YiBIb1 641 241 673 287) (YiBIb2 609 223 642 269) (YiBIIa1 577 175 609 221) (YiBIIa2 547 155 579 201) (YiBIIb1 641 175 673 221) (YiBIIb2 609 155 642 201) (YiiAIa1 413 95 445 141) (YiiAIa2 383 76 415 122) (YiiAIb1 477 95 509 141) (YiiAIb2 448 76 480 122) (YiiAIIa1 413 26 445 72) (YiiAIIa2 383 7 415 53) (YiiAIIb1 477 26 509 72) (YiiAIIb2 448 7 480 53) (YiiBIa1 577 95 609 141) (YiiBIa2 547 76 579 122) (YiiBIb1 641 95 673 141) (YiiBIb2 609 76 642 122) (YiiBIIa1 577 26 609 72) (YiiBIIa2 547 8 579 54) (YiiBIIb1 641 26 673 72) (YiiBIIb2 609 8 642 54) ) (links n (YiAIa1 YiAIa2) (YiAIb1 YiAIb2) (YiAIIa1 YiAIIa2) (YiAIIb1 YiAIIb2) (YiBIa1 YiBIa2) (YiBIb1 YiBIb2) (YiBIIa1 YiBIIa2) (YiBIIb1 YiBIIb2) (YiiAIa1 YiiAIa2) (YiiAIb1 YiiAIb2) (YiiAIIa1 YiiAIIa2) (YiiAIIb1 YiiAIIb2) (YiiBIa1 YiiBIa2) (YiiBIb1 YiiBIb2) (YiiBIIa1 YiiBIIa2) (YiiBIIb1 YiiBIIb2)) (links s (YiAIa2 YiAIa1) (YiAIb2 YiAIb1) (YiAIIa2 YiAIIa1) (YiAIIb2 YiAIIb1) (YiBIa2 YiBIa1) (YiBIb2 YiBIb1) (YiBIIa2 YiBIIa1) (YiBIIb2 YiBIIb1) (YiiAIa2 YiiAIa1) (YiiAIb2 YiiAIb1) (YiiAIIa2 YiiAIIa1) (YiiAIIb2 YiiAIIb1) (YiiBIa2 YiiBIa1) (YiiBIb2 YiiBIb1) (YiiBIIa2 YiiBIIa1) (YiiBIIb2 YiiBIIb1)) (links e (YiAIa1 YiAIb1) (YiAIa2 YiAIb2) (YiAIIa1 YiAIIb1) (YiAIIa2 YiAIIb2) (YiBIa1 YiBIb1) (YiBIa2 YiBIb2) (YiBIIa1 YiBIIb1) (YiBIIa2 YiBIIb2) (YiiAIa1 YiiAIb1) (YiiAIa2 YiiAIb2) (YiiAIIa1 YiiAIIb1) (YiiAIIa2 YiiAIIb2) (YiiBIa1 YiiBIb1) (YiiBIa2 YiiBIb2) (YiiBIIa1 YiiBIIb1) (YiiBIIa2 YiiBIIb2)) (links w (YiAIb1 YiAIa1) (YiAIb2 YiAIa2) (YiAIIb1 YiAIIa1) (YiAIIb2 YiAIIa2) (YiBIb1 YiBIa1) (YiBIb2 YiBIa2) (YiBIIb1 YiBIIa1) (YiBIIb2 YiBIIa2) (YiiAIb1 YiiAIa1) (YiiAIb2 YiiAIa2) (YiiAIIb1 YiiAIIa1) (YiiAIIb2 YiiAIIa2) (YiiBIb1 YiiBIa1) (YiiBIb2 YiiBIa2) (YiiBIIb1 YiiBIIa1) (YiiBIIb2 YiiBIIa2)) (links u (YiAIa1 YiAIIa1) (YiAIa2 YiAIIa2) (YiAIb1 YiAIIb1) (YiAIb2 YiAIIb2) (YiBIa1 YiBIIa1) (YiBIa2 YiBIIa2) (YiBIb1 YiBIIb1) (YiBIb2 YiBIIb2) (YiiAIa1 YiiAIIa1) (YiiAIa2 YiiAIIa2) (YiiAIb1 YiiAIIb1) (YiiAIb2 YiiAIIb2) (YiiBIa1 YiiBIIa1) (YiiBIa2 YiiBIIa2) (YiiBIb1 YiiBIIb1) (YiiBIb2 YiiBIIb2)) (links d (YiAIIa1 YiAIa1) (YiAIIa2 YiAIa2) (YiAIIb1 YiAIb1) (YiAIIb2 YiAIb2) (YiBIIa1 YiBIa1) (YiBIIa2 YiBIa2) (YiBIIb1 YiBIb1) (YiBIIb2 YiBIb2) (YiiAIIa1 YiiAIa1) (YiiAIIa2 YiiAIa2) (YiiAIIb1 YiiAIb1) (YiiAIIb2 YiiAIb2) (YiiBIIa1 YiiBIa1) (YiiBIIa2 YiiBIa2) (YiiBIIb1 YiiBIb1) (YiiBIIb2 YiiBIb2)) (links 4e (YiAIa1 YiBIa1) (YiAIa2 YiBIa2) (YiAIb1 YiBIb1) (YiAIb2 YiBIb2) (YiAIIa1 YiBIIa1) (YiAIIa2 YiBIIa2) (YiAIIb1 YiBIIb1) (YiAIIb2 YiBIIb2) (YiiAIa1 YiiBIa1) (YiiAIa2 YiiBIa2) (YiiAIb1 YiiBIb1) (YiiAIb2 YiiBIb2) (YiiAIIa1 YiiBIIa1) (YiiAIIa2 YiiBIIa2) (YiiAIIb1 YiiBIIb1) (YiiAIIb2 YiiBIIb2)) (links 4w (YiBIa1 YiAIa1) (YiBIa2 YiAIa2) (YiBIb1 YiAIb1) (YiBIb2 YiAIb2) (YiBIIa1 YiAIIa1) (YiBIIa2 YiAIIa2) (YiBIIb1 YiAIIb1) (YiBIIb2 YiAIIb2) (YiiBIa1 YiiAIa1) (YiiBIa2 YiiAIa2) (YiiBIb1 YiiAIb1) (YiiBIb2 YiiAIb2) (YiiBIIa1 YiiAIIa1) (YiiBIIa2 YiiAIIa2) (YiiBIIb1 YiiAIIb1) (YiiBIIb2 YiiAIIb2)) (links 5u (YiAIa1 YiiAIa1) (YiAIa2 YiiAIa2) (YiAIb1 YiiAIb1) (YiAIb2 YiiAIb2) (YiAIIa1 YiiAIIa1) (YiAIIa2 YiiAIIa2) (YiAIIb1 YiiAIIb1) (YiAIIb2 YiiAIIb2) (YiBIa1 YiiBIa1) (YiBIa2 YiiBIa2) (YiBIb1 YiiBIb1) (YiBIb2 YiiBIb2) (YiBIIa1 YiiBIIa1) (YiBIIa2 YiiBIIa2) (YiBIIb1 YiiBIIb1) (YiBIIb2 YiiBIIb2)) (links 5d (YiiAIa1 YiAIa1) (YiiAIa2 YiAIa2) (YiiAIb1 YiAIb1) (YiiAIb2 YiAIb2) (YiiAIIa1 YiAIIa1) (YiiAIIa2 YiAIIa2) (YiiAIIb1 YiAIIb1) (YiiAIIb2 YiAIIb2) (YiiBIa1 YiBIa1) (YiiBIa2 YiBIa2) (YiiBIb1 YiBIb1) (YiiBIb2 YiBIb2) (YiiBIIa1 YiBIIa1) (YiiBIIa2 YiBIIa2) (YiiBIIb1 YiBIIb1) (YiiBIIb2 YiBIIb2)) (links 6e (ZiAIa1 YiAIa1) (ZiAIa2 YiAIa2) (ZiAIb1 YiAIb1) (ZiAIb2 YiAIb2) (ZiAIIa1 YiAIIa1) (ZiAIIa2 YiAIIa2) (ZiAIIb1 YiAIIb1) (ZiAIIb2 YiAIIb2) (ZiBIa1 YiBIa1) (ZiBIa2 YiBIa2) (ZiBIb1 YiBIb1) (ZiBIb2 YiBIb2) (ZiBIIa1 YiBIIa1) (ZiBIIa2 YiBIIa2) (ZiBIIb1 YiBIIb1) (ZiBIIb2 YiBIIb2) (ZiiAIa1 YiiAIa1) (ZiiAIa2 YiiAIa2) (ZiiAIb1 YiiAIb1) (ZiiAIb2 YiiAIb2) (ZiiAIIa1 YiiAIIa1) (ZiiAIIa2 YiiAIIa2) (ZiiAIIb1 YiiAIIb1) (ZiiAIIb2 YiiAIIb2) (ZiiBIa1 YiiBIa1) (ZiiBIa2 YiiBIa2) (ZiiBIb1 YiiBIb1) (ZiiBIb2 YiiBIb2) (ZiiBIIa1 YiiBIIa1) (ZiiBIIa2 YiiBIIa2) (ZiiBIIb1 YiiBIIb1) (ZiiBIIb2 YiiBIIb2)) (links 6w (YiAIa1 ZiAIa1) (YiAIa2 ZiAIa2) (YiAIb1 ZiAIb1) (YiAIb2 ZiAIb2) (YiAIIa1 ZiAIIa1) (YiAIIa2 ZiAIIa2) (YiAIIb1 ZiAIIb1) (YiAIIb2 ZiAIIb2) (YiBIa1 ZiBIa1) (YiBIa2 ZiBIa2) (YiBIb1 ZiBIb1) (YiBIb2 ZiBIb2) (YiBIIa1 ZiBIIa1) (YiBIIa2 ZiBIIa2) (YiBIIb1 ZiBIIb1) (YiBIIb2 ZiBIIb2) (YiiAIa1 ZiiAIa1) (YiiAIa2 ZiiAIa2) (YiiAIb1 ZiiAIb1) (YiiAIb2 ZiiAIb2) (YiiAIIa1 ZiiAIIa1) (YiiAIIa2 ZiiAIIa2) (YiiAIIb1 ZiiAIIb1) (YiiAIIb2 ZiiAIIb2) (YiiBIa1 ZiiBIa1) (YiiBIa2 ZiiBIa2) (YiiBIb1 ZiiBIb1) (YiiBIb2 ZiiBIb2) (YiiBIIa1 ZiiBIIa1) (YiiBIIa2 ZiiBIIa2) (YiiBIIb1 ZiiBIIb1) (YiiBIIb2 ZiiBIIb2)) (symmetry Black (n s) (s n) (u d) (d u) (4e 4w) (4w 4e) (5u 5d) (5d 5u) (6e 6w) (6w 6e)) (zone (name promotion-zone) (players White) (positions YiiAIIa2 YiiAIIb2 YiiBIIa2 YiiBIIb2)) (zone (name promotion-zone) (players Black) (positions ZiAIa1 ZiAIb1 ZiBIa1 ZiBIb1)) ) ``` Выглядит страшно? Зато [работает](http://zillions-of-games.com/cgi-bin/zilligames/submissions.cgi?do=show;id=858)! ![](https://habrastorage.org/r/w1560/files/005/0a2/194/0050a21947814283b4ac0dbc558db5d2.png) Немного схитрив, [можно](http://zillions-of-games.com/cgi-bin/zilligames/submissions.cgi?do=show;id=376) определять гексагональные доски: ![](https://habrastorage.org/r/w1560/files/acb/b6d/294/acbb6d294887466a95c061ca62f7a5e8.png) **Это всё тот же двумерный grid, строки которого сдвинуты друг относительно друга** ``` (define Board-Definitions (image "Images\6Chess.bmp") (grid (start-rectangle 21 -79 69 -31) (dimensions ("a/b/c/d/e/f/g/h/i" (38 22)) ; files ("10/9/8/7/6/5/4/3/2/1" (0 44)) ; ranks ) (directions (z0 0 -1) (z1 1 -2) (z2 1 -1) (z3 2 -1) (z4 1 0) (z5 1 1) (z6 0 1) (z7 -1 2) (z8 -1 1) (z9 -2 1) (zx -1 0) (zy -1 -1) ) ) (kill-positions a7 a8 a9 a10 b8 b9 b10 c9 c10 d10 f1 g1 g2 h1 h2 h3 i1 i2 i3 i4) (symmetry Black (z0 z6)(z6 z0) (z1 z7)(z7 z1) (z2 z8)(z8 z2) (z3 z9)(z9 z3) (zx z4)(z4 zx) (zy z5)(z5 zy) ) (zone (name promotion-zone) (players White) (positions a6 b7 c8 d9 e10 f10 g10 h10 i10) ) (zone (name promotion-zone) (players Black) (positions a1 b1 c1 d1 e1 f2 g3 h4 i5) ) (zone (name fast-through) (players White) (positions b3 c3 d3 e3 f4 g5 h6) ) (zone (name fast-through) (players Black) (positions b5 c6 d7 e8 f8 g8 h8) ) (zone (name faster-through) (players White) (positions d4 e4 f5) ) (zone (name faster-through) (players Black) (positions d6 e7 f7) ) ) ``` [Можно](http://zillions-of-games.com/cgi-bin/zilligames/submissions.cgi?do=show;id=712) перемещать части доски, вместе с находящимися на них фигурами! Это действительно просто. **На самом деле, здесь две доски** ``` (board (image "Images\PlatformChess\Void8x8.bmp") (grid (start-rectangle 10 10 48 48) (dimensions ("a/b/c/d/e/f/g/h" (49 0)) ; files ("8/7/6/5/4/3/2/1" (0 49)) ; ranks ) (directions (n 0 -1) (e 1 0) (s 0 1) (w -1 0) (ne 1 -1) (nw -1 -1) (se 1 1) (sw -1 1) ) ) (grid (start-rectangle 5 5 103 103) (dimensions ("A/B/C/D" (98 0)) ; grid files ("4/3/2/1" (0 98)) ;grid ranks ) (directions (n 0 -1) (e 1 0) (w -1 0) (s 0 1))) (links up (A1 a2) (A2 a4) (A3 a6) (A4 a8) (B1 c2) (B2 c4) (B3 c6) (B4 c8) (C1 e2) (C2 e4) (C3 e6) (C4 e8) (D1 g2) (D2 g4) (D3 g6) (D4 g8)) (links down (a1 A1) (a2 A1) (b1 A1) (b2 A1) (a3 A2) (a4 A2) (b3 A2) (b4 A2) (a5 A3) (a6 A3) (b5 A3) (b6 A3) (a7 A4) (a8 A4) (b7 A4) (b8 A4) (c1 B1) (c2 B1) (d1 B1) (d2 B1) (c3 B2) (c4 B2) (d3 B2) (d4 B2) (c5 B3) (c6 B3) (d5 B3) (d6 B3) (c7 B4) (c8 B4) (d7 B4) (d8 B4) (e1 C1) (e2 C1) (f1 C1) (f2 C1) (e3 C2) (e4 C2) (f3 C2) (f4 C2) (e5 C3) (e6 C3) (f5 C3) (f6 C3) (e7 C4) (e8 C4) (f7 C4) (f8 C4) (g1 D1) (g2 D1) (h1 D1) (h2 D1) (g3 D2) (g4 D2) (h3 D2) (h4 D2) (g5 D3) (g6 D3) (h5 D3) (h6 D3) (g7 D4) (g8 D4) (h7 D4) (h8 D4) ) (symmetry Black (n s) (s n) (ne se) (se ne) (nw sw) (sw nw)) (zone (name promotion-zone) (players White) (positions a8 b8 c8 d8 e8 f8 g8 h8) ) (zone (name promotion-zone) (players Black) (positions a1 b1 c1 d1 e1 f1 g1 h1) ) (zone (name enemy-promotion-zone) (players Black) (positions a8 b8 c8 d8 e8 f8 g8 h8) ) (zone (name enemy-promotion-zone) (players White) (positions a1 b1 c1 d1 e1 f1 g1 h1) ) (zone (name third-rank) (players White) (positions a3 b3 c3 d3 e3 f3 g3 h3 a2 b2 c2 d2 e2 f2 g2 h2) ) (zone (name third-rank) (players Black) (positions a6 b6 c6 d6 e6 f6 g6 h6 a7 b7 c7 d7 e7 f7 g7 h7) ) ) ``` Традиционная доска 8x8 совмещена с доской 4x4, по которой перемещаются «части доски» — платформы. Дополнительные направления **up** и **down** помогают фигурам контролировать наличие «почвы под ногами». Сложнее всего обеспечить синхронное перемещение фигур вместе с платформами. **На помощь приходят операторы cascade и to** ``` (define wplatform-move (mark $1 (verify empty?) to back up (if (and empty? (empty? e) (empty? s) (empty? se)) add else back up (if not-empty? cascade from $1 (if (and (in-zone? promotion-zone $1) (piece? Pawn (opposite $1)) (friend? (opposite $1))) $1 (change-type Queen) to else $1 to)) back up e (if not-empty? cascade from $1 (if (and (in-zone? promotion-zone $1) (piece? Pawn (opposite $1)) (friend? (opposite $1))) $1 (change-type Queen) to else $1 to)) back up s (if not-empty? cascade from $1 (if (and (in-zone? enemy-promotion-zone $1) (piece? Pawn (opposite $1)) (enemy? (opposite $1))) $1 (change-type Queen) to else $1 to)) back up se (if not-empty? cascade from $1 (if (and (in-zone? enemy-promotion-zone $1) (piece? Pawn (opposite $1)) (enemy? (opposite $1))) $1 (change-type Queen) to else $1 to)) add ) ) ) ``` Можно подумать, что это предел возможностей ZoG, но посмотрите-ка вот на [это](http://www.zillions-of-games.com/cgi-bin/zilligames/submissions.cgi?do=show;id=2051): ![](https://habrastorage.org/r/w1560/files/dcf/bb6/79e/dcfbb679e7d541b0bc167a4a89d10bee.png) Здесь явно что-то не так. Фигуры накладываются друг на друга! Разве ZoG так умеет? Конечно нет! Но кто сказал, что фигуры обязаны быть цельными? В этой игре, каждая «фигура» составлена из четырёх кусков, а доска, разумеется, трёхмерная (но видим мы лишь её «верхний план»). Реализация замечательная. Единственное, что может смутить — это то, что для выбора любой из фигур необходимо указывать её левый верхний угол (это можно исправить, при желании). Можно пойти ещё дальше! С того самого момента, как я впервые увидел [эту](http://www.cameronius.com/games/margo/margo-basics-41.pdf) книгу, я загорелся желанием сделать доску для «Margo». Поскольку я реалист, я отдаю себе отчёт в том, что мне вряд ли удастся заставить AI ZoG правильно с ней работать. Даже для классической реализации [Го](https://ru.wikipedia.org/wiki/%D0%93%D0%BE) на двумерной доске, ZoG понадобился [engine](http://www.zillions-of-games.com/progsample.html), чтобы играть на уровне среднего новичка. В Margo, с её «зомби», «мостами» и «виртуальными группами», всё ещё сложнее. Полноценную игру можно реализовать в [Axiom](http://zillions-of-games.com/cgi-bin/zilligames/submissions.cgi?do=show;id=1452), но там разработка AI — отдельная история. Для начала, меня вполне устроит доска, контролирующая правила игры, поддерживающая игру двух человек и разбор этюдов. Начать следует с определения доски: **Доска ''Margo''** ``` (board (image "../images/margo/board.bmp") (grid (start-rectangle 30 30 59 59) (dimensions ("a/b/c/d/e/f/g/h/i/j/k/l/m/n" (30 0)) ; files ("14/13/12/11/10/9/8/7/6/5/4/3/2/1" (0 30)) ; ranks ("I/II/III/IV/V/VI/VII" (1600 0)) ;layers ) (directions (n 0 -1 0) (e 1 0 0) (s 0 1 0) (w -1 0 0) (nw -1 -1 0) (ne 1 -1 0) (sw -1 1 0) (se 1 1 0) (u 0 0 -1) (d 0 0 1) ) ) (zone (name im) (players R) (positions a1I) ) (zone (name im) (players B) (positions a2I) ) (zone (name empty-plane) (players R B) (positions a2I a4I a6I a8I a10I a12I a14I c2I c4I c6I c8I c10I c12I c14I e2I e4I e6I e8I e10I e12I e14I g2I g4I g6I g8I g10I g12I g14I i2I i4I i6I i8I i10I i12I i14I k2I k4I k6I k8I k10I k12I k14I m2I m4I m6I m8I m10I m12I m14I ) ) (zone (name plane) (players R B) (positions a1I a2I a3I a4I a5I a6I a7I a8I a9I a10I a11I a12I a13I a14I b1I b2I b3I b4I b5I b6I b7I b8I b9I b10I b11I b12I b13I b14I c1I c2I c3I c4I c5I c6I c7I c8I c9I c10I c11I c12I c13I c14I d1I d2I d3I d4I d5I d6I d7I d8I d9I d10I d11I d12I d13I d14I e1I e2I e3I e4I e5I e6I e7I e8I e9I e10I e11I e12I e13I e14I f1I f2I f3I f4I f5I f6I f7I f8I f9I f10I f11I f12I f13I f14I g1I g2I g3I g4I g5I g6I g7I g8I g9I g10I g11I g12I g13I g14I h1I h2I h3I h4I h5I h6I h7I h8I h9I h10I h11I h12I h13I h14I i1I i2I i3I i4I i5I i6I i7I i8I i9I i10I i11I i12I i13I i14I j1I j2I j3I j4I j5I j6I j7I j8I j9I j10I j11I j12I j13I j14I k1I k2I k3I k4I k5I k6I k7I k8I k9I k10I k11I k12I k13I k14I l1I l2I l3I l4I l5I l6I l7I l8I l9I l10I l11I l12I l13I l14I m1I m2I m3I m4I m5I m6I m7I m8I m9I m10I m11I m12I m13I m14I n1I n2I n3I n4I n5I n6I n7I n8I n9I n10I n11I n12I n13I n14I ) ) ) ``` Взяв за основу определение доски «Маджонга», я изменил графические ресурсы и размеры доски (для получения доски 7x7 необходимо определить **grid** 14x14 тайлов, с поддержкой 7 слоёв). Здесь стоит обратить внимание на определение игровых зон. Во первых, необходимо определить «верхний план» — зону **plane**, в которой будут расположены все видимые тайлы. Только в этой зоне возможно добавление новых фигур и с неё же должно начинаться их удаление. Далее, создание фигур на пустой доске возможно не в любом месте. Зона **empty-plan** определяет возможное расположение их левых верхних тайлов. Что касается определения зоны "**im**" — это забавный трюк, который позволит в дальнейшем определять принадлежность фигур тому или иному игроку (а не просто их дружественность или враждебность). Этот макрос будет использоваться для получения полной информации о тайле, расположенном на текущей позиции (к сожалению, никаким более внятным способом реализовать аналогичный функционал в ZRF невозможно): **Получение информации о тайле** ``` (define get-piece (set-flag is-piece? false) (set-flag is-black? false) (set-flag is-left? false) (set-flag is-top? false) (if not-empty? (set-flag is-piece? true) (if (and enemy? (in-zone? im a1I)) (set-flag is-black? true) ) (if (and friend? (in-zone? im a2I)) (set-flag is-black? true) ) (if (or (piece? tnw) (piece? tne)) (set-flag is-top? true) ) (if (or (piece? tnw) (piece? tsw)) (set-flag is-left? true) ) ) ) ``` Задача размещения фигуры (четырёх тайлов) на пустую доску решается тривиально. Единственная техническая сложность заключается в том, что ход начинается сбросом **другой** специальной фигуры (не тайла), поскольку это единственная фигура, которую можно сбрасывать **на любое** поле. В точке сброса, её необходимо подменить на соответствующий тайл (это почти тоже самое, что делалось в «Huffing Checkers» в предыдущей статье). Остальные тайлы просто создаются на соседних полях (поскольку ход может начаться с любого тайла, необходимо определить 4 возможных хода): **Ход на пустую доску** ``` (define pre-check-3 (verify (on-board? $1)) (verify (on-board? $2)) (verify (in-zone? $3)) ) (define pre-check-4 (verify (on-board? $1)) (verify (on-board? $2)) (verify (in-zone? $3 $4)) ) (define check-e (verify empty?) (verify (empty? $1)) (verify (empty? $2)) (verify (empty? $3)) ) (define post-action (create t-$1) (create t-$2 $2) (create t-$3 $4) (create t-$5 $6) add ) (define de-nw ( (pre-check-3 e s empty-plane) (check-e e s se) (post-action nw se ne e sw s) )) (define de-ne ( (pre-check-4 w s empty-plane w) (check-e w s sw) (post-action ne sw nw w se s) )) (define de-se ( (pre-check-4 w n empty-plane nw) (check-e n w nw) (post-action se nw ne n sw w) )) (define de-sw ( (pre-check-4 e n empty-plane n) (check-e e n ne) (post-action sw ne nw n se e) )) (define tile (name $1$2) (image G "../images/margo/w$1$2.bmp" R "../images/margo/b$1$2.bmp") (attribute is-ko? false) ) (piece (tile t nw) ) (piece (tile t ne) ) (piece (tile t sw) ) (piece (tile t se) ) (piece (name M) (image R "../images/margo/m.bmp" B "../images/margo/m.bmp") (drops (de-nw) (de-ne) (de-se) (de-sw) ) ) ``` Ход, выстраивающий «пирамиду», более сложен. Необходимо убедиться, что все четыре тайла, на которых размещается новая фигура, имеют требуемый тип и глубина под ними одинакова. Далее, перед тем как размещать фигуру на доске в верхнем (видимом) слое, необходимо перенести ранее размещённые там тайлы в более глубокие слои. Первоначально, я выбрал не вполне удачное решение, используя слои со **II** по **VII** в качестве «стека», сверху-вниз: **Выстраивание пирамид** ``` (define check-p (verify (piece? t-$1)) (verify (piece? t-$2 $3)) (verify (piece? t-$4 $5)) (verify (piece? t-$6 $7)) ) (define check-d mark u (while not-empty? (verify (not-empty? $1)) (verify (not-empty? $2)) (verify (not-empty? $1$2)) u ) (verify (empty? $1)) (verify (empty? $2)) (verify (empty? $1$2)) back ) (define dp-nw ( (pre-check-3 e s plane) (check-p se sw e nw se ne s) (check-d s e) (pre-action s e) (post-action nw se ne e sw s) )) (define dp-ne ( (pre-check-4 w s plane w) (check-p sw se w nw s ne sw) (check-d s w) (pre-action s w) (post-action ne sw nw w se s) )) (define dp-se ( (pre-check-4 w n plane nw) (check-p nw sw n ne w se nw) (check-d n w) (pre-action n w) (post-action se nw ne n sw w) )) (define dp-sw ( (pre-check-4 e n plane n) (check-p ne nw e se n sw ne) (check-d n e) (pre-action n e) (post-action sw ne nw n se e) )) (piece (name M) (image R "../images/margo/m.bmp" B "../images/margo/m.bmp") (drops (de-nw) (dp-nw) (de-ne) (dp-ne) (de-se) (dp-se) (de-sw) (dp-sw) ) ) ``` Впоследствии, стало ясно, что гораздо удобнее держать все тайлы одной фигуры (кроме видимых) в одном слое. Стек пришлось "[перевернуть](https://github.com/GlukKazan/ZoG/commit/f7fa7a5cdd79ba48b11e6dd4857d1bed60ad4637)" (для этого потребовалось создать дополнительное направление, соединяющее первый слой с седьмым). Следующим шагом стало удаление. Алгоритмы удаления фигур, в связи с их «смертью» в Го (и тем более в Margo) очень сложны. Я решил начать с простого — удаления любой фигуры простым щелчком мыши. Разумеется, чтобы вся конструкция не развалилась, тем же ходом необходимо удалить и все фигуры «опирающиеся» на удалённую (прямо или опосредованно). Само по себе удаление помеченных тайлов достаточно очевидно. **Групповое удаление тайлов** ``` (define clean-piece (set-flag is-piece? false) d (while empty? d) (while (and not-empty? (position-flag? is-dead?)) capture d ) (if not-empty? (get-piece) capture ) (while (not-in-zone? plane) u) (if (flag? is-piece?) (add-piece) else capture ) ) (define clean-pieces mark a0 (while (on-board? next) next (if (and not-empty? (position-flag? is-dead?)) (if (empty? b) capture else (clean-piece) ) ) ) back ) ``` В главном цикле **clean-pieces** просматриваются все тайлы «верхнего плана». Если какой-то из них помечен для удаления, проверяются тайлы непосредственно под ним, в нижних слоях. Всё помеченное для удаления — удаляется, а первый не помеченный тайл перемещается наверх, в первый слой. Для пометки используются позиционные флаги, позволяющие связать с произвольной позицией булевское значение. Осталось придумать, как помечать тайлы для удаления. **Пометка тайлов для удаления** ``` (define check-top (verify (on-board? $1)) (if (and (not-empty? $1) (not-position-flag? is-dead? $1) (not-position-flag? is-current? $1)) $1 (set-position-flag is-current? true) (if (not-piece? t$3) d (while (and empty? (on-board? d)) d) (verify not-empty?) (if (and not-empty? (not-position-flag? is-dead?) (not-position-flag? is-current?)) (set-position-flag is-current? true) ) (while (not-in-zone? plane) u) ) $2 ) ) (define check-deep (verify (on-board? $1)) (if (and (not-empty? $1) (not-position-flag? is-dead? $1) (not-position-flag? is-current? $1)) $1 (set-position-flag is-current? true) (verify (on-board? u)) (if (and (not-empty? u) (not-position-flag? is-dead? u) (not-position-flag? is-current? u)) u (set-position-flag is-current? true) d ) $2 ) ) (define proceed-current (set-position-flag is-dead? true) (set-position-flag is-current? false) (get-piece) (if (in-zone? plane) (if (flag? is-left?) (if (flag? is-top?) (check-top e w ne) (check-top s n sw) (check-top se nw se) else (check-top e w se) (check-top n s nw) (check-top ne sw ne) ) else (if (flag? is-top?) (check-top w e nw) (check-top s n se) (check-top sw ne sw) else (check-top w e sw) (check-top n s ne) (check-top nw se nw) ) ) else (if (flag? is-left?) (if (flag? is-top?) (check-deep e w) (check-deep s n) (check-deep se nw) else (check-deep e w) (check-deep n s) (check-deep ne sw) ) else (if (flag? is-top?) (check-deep w e) (check-deep s n) (check-deep sw ne) else (check-deep w e) (check-deep n s) (check-deep nw se) ) ) ) ) (define proceed-all (set-flag is-done? false) (while (not-flag? is-done?) (set-flag is-done? true) mark a0 (while (on-board? next-all) next-all (if (position-flag? is-current?) (set-flag is-done? false) (proceed-current) ) ) back ) ) (define dp-clear ( (verify not-empty?) (set-position-flag is-current? true) (proceed-all) (clean-pieces) add )) ... (piece (name M) (image G "../images/margo/m.bmp" R "../images/margo/m.bmp") (drops (de-nw) (dp-nw) (de-ne) (dp-ne) (de-se) (dp-se) (de-sw) (dp-sw) (dp-clear) ) ) ``` Здесь, важно понимать, что удаление **всегда** начинается с видимых тайлов, расположенных в первом слое. Установив начальную пометку в **dp-clear**, мы выполняем **proceed-current** до тех пор, пока встречаются новые, ещё не удалённые тайлы. Сама эта процедура выполняет «распространение» флагов на соседние тайлы и делает это по разному, в зависимости от того, происходит ли действие в верхнем слое или на глубине. В первом слое, контролируется тип соседнего тайла и если он не совпадает с ожидаемым (это означает, что фигура перекрыта лежащей выше), помимо пометки тайла перекрывающей фигуры, флаг распространяется в глубину. На более глубоких слоях, тайлы фигуры всегда расположены в одном слое. Мы просто распространяем флаг на соседние тайлы и если поверх них есть ещё что-то, передаём его и вверх тоже. В результате, всё работает как и ожидалось, но сама картинка выглядит как-то так: ![](https://habrastorage.org/r/w1560/files/e33/68d/5af/e3368d5af6d6444390b59b6bb23a99e8.png) Ну… это тайлы. Для того, чтобы учесть цвет лежащей ниже фигуры, потребуется, поработав в графическом редакторе, добавить ещё по два типа для каждого тайла и немного усложнить код. В конечном счёте, всё вместе будет выглядеть следующим [образом](https://github.com/GlukKazan/ZoG/blob/master/Rules/margo.zrf). Разумеется, для того чтобы превратить эту заготовку в полноценную игру «Margo», мне придётся ещё очень много поработать. Скорее всего, мне всё-таки придётся переделать всё на Axiom, а это само по себе целая история. В Axiom нет атрибутов фигур, игровых зон и позиционных флагов, но, в плане разработки (в том числе AI) её возможности неизмеримо превосходят ZRF. Кроме того, код на ForthScript можно худо-бедно отлаживать. Когда (и если) я справлюсь со всеми трудностями, это будет заслуживать отдельной статьи, сегодня же я хотел показать лишь то, что при помощи ZRF **можно** делать действительно удивительные вещи. Достаточно проявить немного изобретательности и не бояться (очень много) поработать руками.
https://habr.com/ru/post/259611/
null
ru
null
# JavaScript метод insertAdjacentHTML и beforeend Перевод статьи «JavaScript insertAdjacentHTML and beforeend», David Walsh. Если вы не знали: чертов DOM очень медленный. А по мере того, как наши сайты становятся все более динамичными и AJAX-использующими, нам становиться все важнее управлять DOM древом с наименьшим ущербом в производительности. Недавно я написал статью о DocumentFragment'ах. Это разумный подход к объединению списка дочерних элементов под неким «псевдо-элементом», для дальнейшего помещения в реальный DOM элемент. Еще один замечательный метод для работы с элементами `insertAdjacentHTML`: это способ добавлять элементы в родительский элемент не задевая других его потомков. #### JavaScript Для примера вы получаете кусок HTML-кода в виде строки, полученной через AJAX-запрос, обычно в таком случае мы помещаем этот код в родительский элемент через свойство `innerHTML`: ``` function onSuccess(newHtml) { parentNode.innerHTML += newHtml; } ``` Проблема в данном коде заключается в том, что любые ссылки или события прикрепленные к дочерним элементам уничтожатся после изменения `innerHTML` родительского элемента, даже если вы просто добавляете разметку в конец родительского элемента — метод insertAdjacentHTML решает эту проблему: ``` function onSuccess(newHtml) { parentList.insertAdjacentHTML('beforeend', newHtml); } ``` Данный код добавляет код в конец родительского элемента не задевая других его потомков. Это гениальный способ добавления в элемент разметки без создания промежуточного родительского элемента для добавляемого кода. Вот так мы узнали о существовании проблемы и как её избежать при помощи описанного `insertAdjacentHTML`. Не забывайте этот метод, так как он не настолько известный, но тем не менее очень полезный.
https://habr.com/ru/post/235333/
null
ru
null
# Уйти от jQuery к Svelte, как это было Всем привет. Это отчёт в продолжение статьи "[Уйти от jQuery к Svelte, без боли](https://habr.com/ru/post/486646/)". Ниже я расскажу о трудностях с которыми столкнулся, их было не много, и только одна была настолько фундаментальной, где без [поддержки сообщества](http://tg://resolve?domain=sveltejs) я бы не справился. Введение -------- Я планировал переписывать фронтэнд по кусочкам, это не то что бы совсем не получилось, получилось не совсем — переписывать пришлось большими кусками. Во первых потому что подход jQuery — императивный, подход Svelte — декларативный. Во вторых потому, что с использованием jQuery у нас область видимости всегда глобальная, из любой строчки кода нам доступны все элементы веб-страницы, мы к ним обращаемся по ID или CSS селектору, в то время как Svelte рекомендует использование компонентов и внутри компонента мы видим только сам компонент, ни внешних элементов ни внутренних у нас нет, и мы не имеем возможности обратиться к ним напрямую. Со Svelte получается настоящее ООП: мы не можем внести изменения сами, мы можем только сообщить компоненту о необходимости изменений. Как эти изменения будут сделаны, знает только код внутри компонента. И это прекрасно :) Для сообщения с компонентами у Svelte есть два механизма. Связывание переменных (бинды, мапинг) ------------------------------------- Мы объявляем переменную и мапим её на атрибут компонента: ``` import DetailTaskView from './DetailTaskView.svelte'; let task = {}; let isModal = false; function renderTask(data) { const isSuccess = data.hasOwnProperty(0); if (isSuccess) { isModal = true; task = data[0]; } } import {fade} from 'svelte/transition'; {#if isModal} {/if} ``` ### Что мы сделали ? Мы объявили две локальные переменные «task» и «isModal», «task» это информация для отображения в компоненте, данные только выводятся, изменяться не будут, «isModal» это флаг видимости компонента, если пользователь нажал крестик на компоненте, то компонент должен исчезнуть, крестик принадлежит компоненту, поэтому о нажатии мы ни чего не узнаем, но узнаем что значение переменной «isModal» изменилось и благодаря реактивности отработаем это новое значение. Если нам необходимо двустороннее связывание, то мы пишем «bind:», изменение значения внутри компонента будет сообщено «родительскому» компоненту. Можно использовать сокращённую форму, если нам надо только сообщить компоненту значения, и если имя атрибута компонента совпадают с именем переменной, мы можем написать "{task}" или использовать деструктор "{...task}". Удобно. Но если у нас в один компонент вложен другой, а там ещё и третий, то конечно появляется болерпллейт по прокидыванию значения вверх и вниз по иерархии вложенности. Всплытие событий ---------------- С терминологией могу ошибаться, сильно не пинайте. Родительский компонент может обрабатывать события дочернего компонента, но только те события о которых дочерний компонент сообщит. ``` import SearchForm from './SearchForm.svelte'; async function applySample(event) { const sample = event.detail.sample; if(sample){ search(sample); } if(!sample){ renderPage(); } } Трекер рабочих заданий ====================== import { createEventDispatcher } from 'svelte'; const dispatch = createEventDispatcher(); let sample = ''; function search(event) { event.preventDefault(); dispatch('search', { sample: sample }); } Поиск ``` ### Что тут происходит ? В родительском компоненте по событию «on:search» дочернего компонента «SearchForm» выполняется функция «applySample», эта функция получает параметры (event.detail) из объекта события и обрабатывает их. ### Что происходит в компоненте ? Атрибут «value» элемента input замаплен на переменную «sample», по событию «on:submit» (элемента «form») выполняется функция «search», которая создаёт событие 'search' и в свойство «detail» записывает объект {sample: sample} — то есть значение строки поиска. Таким образом значение строки поиска передаётся в родительский компонент и именно он решает что ему с этим значением делать. Компонент несёт ответственность только за отображение формы ввода и передачу введённого значения, компонент не реализует выполнение поиска и отображение результатов, так мы разделяем ответственность. Красота! Переход от императивности к декларативности ------------------------------------------- Тут к сожалению не получиться так же наглядно показать разницу. На словах это звучит так: если при использовании jQuery я создавал html разметку и потом вставлял её в нужное место, то со Svelte я генерирую массив с атрибутами компонентов и потом в цикле добавляю компоненты с заранее рассчитанными атрибутами: ``` import {createEventDispatcher} from 'svelte'; import OrdinalPlace from './OrdinalPlace.svelte'; let pagingPlaces; // тут была бизнес логика расчёта атрибутов для массива pagingPlaces function addPlace( paging = [], index = Number.NEGATIVE\_INFINITY, text = "", css = "") { paging.push({index:index,text:text,css:css}); return paging; } const dispatch = createEventDispatcher(); function browsePage(event) { const pageIndex = event.detail.index; dispatch('move', { index: pageIndex }); } {#if pagingPlaces.length} | {#each pagingPlaces as place (place.index)} {/each} | | {/if} export let index = -1; export let text = ""; export let css = ""; let number = index +1; function skip() { return !(text === ""); } let letSkip = skip(); let noSkip = !letSkip; import { createEventDispatcher } from "svelte"; const dispatch = createEventDispatcher(); function moveTo() { if(noSkip){ dispatch("move", {index:index}); } } {#if letSkip} {text} {/if} {#if noSkip} {number} {/if} | ``` ### Как это работает ? При создании компонента Paging мы формируем массив «элементов» для перехода к определённым страницам — «pagingPlaces», далее циклом пробегаем по всем элементам и вставляем компонент для отображения одной позиции пейджинга — «OrdinalPlace». Опять же декларативный подход, мы не формируем каждую позицию сами, мы сообщаем компоненту что нам необходимо отображение позиции с такими то атрибутами. Тут мы видим замороченный случай всплытия события. Для перехода к странице поисковой выдачи пользователь кликает по компоненту «OrdinalPlace», этот компонент не умеет загружать страницу, поэтому он создаёт событие «move» с параметром индекс страницы и это событие подхватывает родительский компонент — «Paging», который тоже не умеет загружать страницу поэтому он создаёт событие 'move', и его уже подхватывает следующий родительский компонент и каким то образом обрабатывает. Svelte и компонентный подход подталкивают нас к разделению ответственности и следованию SOLID. Самая большая засада -------------------- В примере выше показано решение фундаментальной проблемы с которой я бы без подсказки не справился. Svelte кеширует все компоненты и надо ему помогать отслеживать изменения в этих компонентах. Вот код, о котором идёт речь: ``` {#each pagingPlaces as place (place.index)} {/each} ``` Для вывода списка страниц в пейджинге мы бежали по массиву и Svelte каждому компоненту сопоставил какой то индекс массива, теперь решение, о перерисовке компонента, Svelte принимает, исходя из этого индекса, если индекс во время перебора элементов массива не указать, то получиться не пойми что, я сутки пытался понять, потом [обратился за помощью зала](http://tg://resolve?domain=sveltejs) и в зале не сразу нашёлся человек хорошо знакомый с этими граблями, но мне помогли, спасибо ребятам. При работе с массивами имейте это в виду: любой проход по массиву должен использовать индекс, ещё раз: ``` {#each pagingPlaces as place (place.index)} ``` «pagingPlaces as place (place.index)» — используйте обязательно. Конечно если вы ранее работали с React/Vue, то наверное вы уже знакомы с этой особенностью. Визуальные эффекты ------------------ В моём приложении использовались модальные окна. jQuery для этого устанавливает требования к разметке, без неё, метод jQuery.modal(), работать не будет. У Svelte с этим проще: ``` {#if isModal} {/if} ``` Конкретно «transition:fade» отвечает за исчезновение / появление элементов на странице. Нам ни кто не диктует какая у нас должна быть разметка. Это хорошо. Кроме этой анимации Svelte имеет ещё парочку: [fly](https://ru.svelte.dev/tutorial/in-and-out) и [tweened](https://ru.svelte.dev/tutorial/tweened), примеры по ссылкам в учебнике. Прочее ------ ### Имена переменных Беда с именованием переменных/параметров/атрибутов, приходиться один словом называть и свойство объекта и переменную которую туда записываешь, правило телефонной трубки, когда ты по телефону должен рассказать о коде, так что бы на том конце не запутались и всё поняли, такие повторяющиеся имена нарушают. ### AJAX Это не касается Svelte, но касается отказа от использования jQuery, jQuery.ajax можно заменить на fetch(), я такую замену сделал, можно посмотреть в репозитории. Заключение ---------- Переход от использования jQuery к использованию Svelte потребует переписать логику создания разметки, но это не так сложно и долго как может показаться, особенно если ваш код этим не грешит. Svelte упрощает вашу разметку и сокращает JS код, использование Svelte делает ваш код более переиспользуемым и устойчивым к случайным ошибкам. Используйте Svelte, это будет хорошо для вас и ваших заказчиков! Ссылки ------ [Официальный сайт Svelte](https://svelte.dev/) [Репозиторий с переходом от использования jQuery к использованию Svelte](https://github.com/SbWereWolf/activeprofi.git) [Канал русскоязычного сообщества Svelte в Телеграм](http://tg://resolve?domain=sveltejs) Спасибо, что прочитали. P.S.: Не знаю почему Хабр вырезает двоеточие из ссылки на канал сообщества, правильная строка ссылки: tg://resolve?domain=sveltejs
https://habr.com/ru/post/491388/
null
ru
null
# Брошенная корзина Mailchimp: гайд для ленивых Сначала немного разглагольствований :) Рано или поздно перед любым интернет-магазином встает вопрос настройки брошенной корзины. Статистика и сосущее под ложечкой ощущение упущенных денег не щадят никого. #### Процент брошенных корзин с 2006 по 2017 ![Процент брошенных корзин с 2006 по 2017](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a39/77d/91a/a3977d91a0ebd3217886009fec230985.jpg) *[Источник](http://www.statista.com)* Процент брошенных корзин на первый квартал 2018 года в разрезе индустрии: ![Процент брошенных корзин на первый квартал 2018 года в разрезе индустрии](https://habrastorage.org/r/w780q1/getpro/habr/post_images/633/2b5/be6/6332b5be64d04bbd4ca0d1defe9e7b14.jpg) *[Источник](http://www.statista.com)* При этом, несмотря на общедоступную статистику, большинство интернет-магазинов не пользуются доступными возможностями и не подключают брошенную корзину. Недавнее «домашнее» исследование от EmailSoldiers наглядно показывает, что бОльшая часть магазинов вообще не заморачивается об этом. #### Текущая статистика по подключенным брошенным корзинам ![Исследование EmailSoldiers](https://habrastorage.org/r/w780q1/getpro/habr/post_images/fd4/b56/83f/fd4b5683f724d5004046e14523b95f69.jpg) *[Источник](https://emailsoldiers.ru/blog/online-stores-and-abandoned-carts)* При этом все (и мы тоже не святые) нагоняют трафик, докручивают рекламу и креативы, но даже не пытаются вернуть человека, который сорвался в последний момент. А ведь и в первой итерации можно получить прирост заказов, используя письмо без динамического контента, нужно только настроить его. Всего один раз приложить усилия, чтобы в фоновом режиме это приносило деньги — это ли не сказка? Естественно, письмо с динамическим контентом, в которое подтягиваются товары из корзины, может сработать лучше. А, может, на вашу аудиторию круче подействует очередной котенок с грустными глазами. Или вы подтянете рекомендуемые товары к товарам в корзине и увидите, что из писем их покупают чаще и повышают средний чек. Или у вас дойдут руки сделать серию писем, из которой конверсия будет еще больше. Можно улучшать и тестировать письма брошенной корзины до недостижимого идеала, но любое единожды настроенное письмо уже несравнимо лучше, чем ничего. #### Конверсия для брошенной корзины по данным RetailRocket ![RetailRocket конверсия брошенной корзины](https://habrastorage.org/r/w780q1/getpro/habr/post_images/df2/2f9/684/df22f968450761e23695591fcd2931af.jpg) *[Источник](https://retailrocket.ru/blog/vsya-pravda-o-broshennyih-korzinah/)* И вот мы с камрадом [Артемом Александровым](https://www.facebook.com/artem.alexandrov.7509) начали внедрение корзины с двух сторон. Техническая реализация ---------------------- #### ТЗ на интеграцию Кратко описываем суть задачи. Задача: подключить брошенную корзину для сайта ххх.хх с помощью рассылочного сервиса Mailchimp Выдаем все необходимые материалы. Ключ API: XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX-usXX Где взять ключ? ![Где взять ключ?](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f9f/511/fc0/f9f511fc0d1ff7d44d41d19463cd362e.jpg) → [Даем ссылку на документацию](https://developer.mailchimp.com/documentation/mailchimp/reference/ecommerce/stores/carts/) ID листа, к которому подключаем Store: XXXXXXXXXX Где взять ID листа? ![Где взять ID листа?](https://habrastorage.org/r/w780q1/getpro/habr/post_images/215/996/6cb/2159966cb62dc60e25079b86c5905aca.jpg) В сервисе рассылок заранее должно быть создано письмо. Как только API-запрос получен сервисом рассылок, происходит автоматическое формирование письма и добавление адресата в очередь для отправки. Для нашего случая мы выбрали следующую логику отправки брошенной корзины: авторизованный на сайте пользователь добавляет товары в корзину, не совершает транзакцию и не завершает заказ, корзина остается без изменений 1 час. После этого отправляется запрос в Mailchimp, в котором передается email, состав заказа пользователя, изображения товаров, цена товаров и ссылка на корзину пользователя. #### Верстка шаблона При создании автоматизации для брошенной корзины мейлчимп сразу спрашивает, одно ли будет письмо или несколько и предлагает выбрать подключенный магазин. ![Создание автоматизации для брошенной корзины в Mailchimp](https://habrastorage.org/r/w780q1/getpro/habr/post_images/12d/288/b80/12d288b80aed84cc9ac1b3b81b4d3d6d.jpg) В базовых шаблонах мч предлагает на выбор три штуки: ![Письма на выбор для брошенной корзины Mailchimp](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7f2/402/d62/7f2402d625f7174f3a18f42849080bea.jpg) 1. Брошенная корзина с динамическими товарами 2. Брошенная корзина с продуктовыми рекомендациями (нужно настраивать отдельно) 3. Брошенная корзина без товаров (просто текстовое письмо) В лучших традициях, если у вас есть время, можно заверстать корзину самостоятельно. Динамические товары без стилей выглядят примерно так (забудем про отступы, они некрасивенько здесь отображаются): ``` \*|ABANDONED\_CART:[$total=3]|\* | | | | --- | --- | | | \*|PRODUCT:TITLE|\* — \*|PRODUCT:PRICE|\* | \*|END:ABANDONED\_CART|\* *|END:ABANDONED_CART|* ``` Казалось бы, если изменить цифру в переменной **\*|ABANDONED\_CART:[$total=3]|\***, то в письме будет отображаться другое количество товаров, но нет, поставьте хоть 5, хоть 100, мч отказывается показывать другое количество. И, что тоже немного странно, переменная **\*|PRODUCT:PRICE|\*** заменяется на значения формата RUB288, и поменять это тоже почему-то нельзя, но об этом позже. Для разнообразия мы пытались подставить еще и переменные с количеством игр и с общей стоимостью заказа, которые передаем по api, но мейлчимп и тут сказал «нет». Что ж, да будет так. #### Слово программисту :) С мэйлчимпом был исторический опыт интеграции с их сторонним сервисом mandrill, там все просто и понятно. Очень дружелюбная документация (конечно же, на английском), но не возникло никаких шероховатостей и заработало с первого пинка. Также у нас на сайте был внедрен механизм подписки через специальные формы. Вот там мы в полной мере ощутили недосказанность и двусмысленность документации мэйлчимпа. Английский не является проблемой для опытного разработчика, а вот знание клингонского диалекта не подразумевается по умолчанию. Исходные данные такие: язык php7 и фрэймворк yii2, который сильно оброс уже своей экосистемой. Т.е. у нас уже 6 небольших проектов, которые стараются использовать общие компоненты как на бэкенде, так и на фронтенде. Соответственно, реализация любой задачи требует решать ее проектонезависимо, но это не подразумевает фрэймворконезависимость, т.к. за это приходится платить человекочасами, коих всегда дефицит. Получив задачу на интеграцию, надо первым делом осмотреться. Что нам дано? Во-первых, сервис мэйлчимп, с которым надо подружиться. Идем на гитхаб и видим, что там достаточно много реализаций. Но выбор прост — у самого популярного пакета 1.5к звезд ([drewm/mailchimp-api](https://github.com/drewm/mailchimp-api)). Пакет дает простую обертку над rest-взаимодействием с мэйлчимпом. Нам остается только обрастить это своей логикой. Во-вторых, нам дана [документация](http://developer.mailchimp.com/documentation/mailchimp/reference/ecommerce/stores/). Исходя из документации, у нас есть ресурс Store с вложенными ресурсами: Cart, Customer, Order, Product, Promo rule. Для брошенной корзины без рекомендованных товаров нам понадобятся только Product, Cart и Customer. Cart в свою очередь состоит из набора Cart line, а Product содержит Product variants. Мы декомпозировали задачу следующим образом: 1. Загрузить данные по магазину в ресурс Stores 2. Загрузить все доступные к покупке товары в Products 3. Настроить загрузку корзин с пользователями по расписанию Ок, поехали. Первым делом беремся за сущность «магазин». Мы решили сразу использовать тестовый и боевой вариант магазина и, в зависимости от переменной окружения, отвечающей за дев/прод режим, мы работали либо с одним магазином, либо с другим. Чтобы загрузить данные по магазину, мы стучимся post-запросом по адресу /ecommerce/stores со следующим набором параметров: ``` [ 'id' => 'dev.***.ru', 'list_id' => '****', 'name' => '*** - test', 'domain' => 'dev.***.ru', 'email_address' => 'admin@***.ru', 'currency_code' => 'RUB', 'primary_locale' => 'ru', 'money_format' => '₽', ] ``` Параметров несколько больше, но все зависит от потребностей. Т.к. мы не собирались использовать контактные данные магазина в письмах, то не заполнили поля phone, address, timezone и т. п. Но нас ожидал небольшой сюрприз. Поле money\_format вроде специально создано для возможности представить цену в удобном нам формате. Но при построении шаблона брошенной корзины мэйлчимп упорно подставляет RUB перед числом. Мэйлчимп, перестань! После загрузки мы можем проверить данные с помощью get-запроса по адресу /ecommerce/stores, чтобы увидеть все загруженные магазины, либо /ecommerce/stores/{id} для получения данных по конкретному магазину. Теперь можно добавлять все остальные данные, т. к. Store является корневой точкой в нашем дереве данных, т.к. все остальные данные мы будем загружать в определенный магазин. Так-с, чтобы МЧ мог подставлять товары в брошенную корзину, надо ему скормить эти товары. Для этого у нас есть адрес /ecommerce/stores/{store\_id}/products, куда мы отправляем post-запросы на создание продуктов в системе. ``` [ 'id' => '742', 'title' => 'Кастрюля', 'handle' => 'kastrulya', 'url' => 'http://***.ru/catalog/kastrulya/', 'description' => 'Кастрюля — незаменимая вещь на кухне. Купив кастрюлю, вы измените свою жизнь в лучшую сторону. Вы поймете, что невозможно прожить без этой вещи и дня! В каждый дом по кастрюле и пусть никто не уйдет обиженным!', 'type' => 'Посуда', 'vendor' => 'Рога и Копыта', 'image_url' => 'http://***.ru/images/742/product.png', 'variants' => [ [ 'id' => '742', 'title' => 'Кастрюля', 'url' => 'http://***.ru/catalog/kastrulya/', 'price' => 890, 'sku' => 'KA453', 'inventory_quantity' => 1000, 'image_url' => 'http://***.ru/images/742/product.png', 'visibility' => 'visible', ], ], ] ``` Что тут примечательного? Ну во-первых, каждый товар должен состоять хотя бы из одного товарного предложения. По сути Product — это некий контейнер для загрузки товарных предложений. Причем, id товара и товарного предложения могут пересекаться, т. к. это разные ресурсы в api МЧ. И вот тут началась недосказанность документации МЧ. Приходилось догадываться, пускай это было несложно, но ведь можно было сделать нормально, а не как всегда. Поле handle было описано как «the handle of a product». Ок, посовещавшись мы решили, что это часть урла, относящегося к самому продукту (чпу). Но это подтвердилось только в ходе тестов. Также к товару можно прикрепить массив картинок, но мы решили, что нам не пригодится и поэтому грузили только главное изображение как к товару, так и к каждому товарному предложению. И тут у нас возникла проблема, товары почему-то не отображались в темплейтах мейлчимпа. Начали рыться в доке по Product. И нашли поле visibility с роскошным описанием: ![описание поля visibility](https://habrastorage.org/r/w780q1/getpro/habr/post_images/525/123/aae/525123aae8eff2a8a1a595072d92b2f6.jpg)
https://habr.com/ru/post/421393/
null
ru
null
# Новый Менеджер удаленных подключений 3CX SBC в обновлении V16 Update 2 Beta На прошлой неделе мы выпустили очередное обновление 3CX v16 Update 2 BETA. Оно включает переписанный с нуля Менеджер удаленных подключений 3CX SBC (Session Border Controller). Напомним, что [3CX SBC](https://www.3cx.ru/docs/3cx-tunnel-session-border-controller/) рекомендуется использовать для подключения удаленных офисов к центральной АТС 3CX, если в удаленной локации находятся два и более IP-телефона. При этом SIP-сигнализация проходит, как и при локальном подключении к АТС, через сервер 3CX, а медиапоток (голос) проходит между удаленными устройствами напрямую, не выходя за пределы офиса. Это не только повышает качество связи, но и разгружает внешний канал связи, «оставляя» локальные вызовы в пределах локальной сети. Кроме того, 3CX SBC туннелирует весь VoIP-трафик через один TCP-порт, значительно упрощая настройку пограничных маршрутизаторов. SBC позволяет удаленно администрировать IP-телефоны — перенастраивать, обновлять прошивки и т.п., а также обеспечивает шифрование VoIP-трафика между удаленным офисом и сервером 3CX для обеспечения дополнительной конфиденциальности. Вместе с V16 Update 2 Beta мы также выпустили [Краткое руководство пользователя 3CX](https://www.3cx.ru/manual/Cheat_Sheet_RU.pdf) на русском языке. Оно отправляется пользователю (на e-mail, указанный в параметрах добавочного номера) при создании номера в АТС. ### Возможности 3CX SBC v16 Новый 3CX SBC v16 получил следующие возможности: * Упрощенная установка сервиса. Для установки SBC достаточно указать только FQDN сервера 3CX и пароль аутентификации SBC-туннеля (технология 3CX Tunnel) (см. ниже). * Управление сервисом. SBC теперь удаленно обновляется и перенастраивается в интерфейсе 3CX (см. ниже). Автообновление SBC доступно только на Linux и Raspberry Pi. * Централизованный мониторинг всех подключенных SBC. Для каждого SBC-транка администратор видит изменения статуса подключения. Также доступны статистика работы сервиса, логирование событий и уведомления на e-mail. Отметим, что SBC v16 работает только с 3CX V16 Update 2. На сервере 3CX должен быть установлен доверенный SSL-сертификат (самоподписанные (self-signed) сертификаты не поддерживаются). ### Установка обновления 3CX Кроме стандартного обновления в интерфейсе 3CX (только для Linux), вы, разумеется, можете скачать полные дистрибутивы системы: * Windows: [3CX v16 Update 2 Beta](https://downloads-global.3cx.com/downloads/3CXPhoneSystem_16.0.2.900.exe) * Linux: [3CX v16 on Debian 9 ISO](https://downloads-global.3cx.com/downloads/debian9iso/debian-amd64-netinst-3cx.iso) – на экране «3CX Update Channel» выберите «Beta». * Установка 3CX на [Debian](https://www.3cx.com/docs/manual/installation-linux/) и [Raspberry Pi](https://www.3cx.com/docs/installing-pbx-raspberry-pi/) вручную. [Полный журнал изменений](https://www.3cx.com/blog/change-log/phone-system-change-log/). Настройка подключения 3CX SBC ----------------------------- 3CX SBC можно установить на последнюю версию [Raspberry Pi](https://www.3cx.com/docs/installing-raspbian-linux-raspberry-pi/) (Raspbian Linux), и он сможет обслуживать до 30 IP-телефонов. У каждого телефона рекомендуется настраивать не более 10 BLF-индикаторов, т.к. обмен сообщениями статусов загружает сервис. Однако, если установить SBC на [Windows](https://www.3cx.com/docs/supported-operating-systems/) или [Debian Linux](https://www.3cx.com/docs/supported-operating-systems/) на [рекомендуемом оборудовании](https://www.3cx.com/docs/recommended-hardware-specifications-for-3cx/), допускается работа большего количества телефонов. Компьютер, на котором планируется установить SBC, должен иметь свободный порт 5060 (TCP и UDP) и не являться сервером DNS, DHCP, SQL и подобным сетевым ресурсом. В целом, не рекомендуется, чтобы этот компьютер использовался для других задач. ### SBC-подключение со стороны сервера 3CX Создайте новое SBC-подключение в разделе «SIP-транки», кнопка «Добавить 3CX SBC» («Add SBC»). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/018/ef1/589/018ef158975ff910e998f0b1269b6382.png) Укажите название SBC-подключения (не используйте специальные символы), например, HeadquartersToMoscowBranch. Затем на странице параметров подключения скопируйте ID аутентификации и веб-ссылку. Эти параметры указываются при установке SBC в удаленном офисе. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/881/684/d05/881684d0540ff1b1040c88fb44e8ca57.png) Рассмотрим параметры SBC-подключения. Вкладка Основные: * Информация о подключении — название подключения и пароль туннеля. * Информация о сети — URL и ID для подключения удаленного SBC. Вкладка Статистика: * Статус туннеля, время работы, версия ПО, количество вызовов и пользователей данного подключения. Вкладка Параметры: * Уровень безопасности туннеля (TLS или TCP) * Номер первого аудиопорта RTP — первый порт, используемый аудиопотоком, проходящим через SBC. * Включить отказоустойчивость — укажите внешний IP-адрес резервного сервера 3CX. В случае отказа основного сервера, SBС переключится на резервный. * Журнал и устранение проблем — выберите уровень журналирования. Не устанавливаете «Подробный уровень журналирования надолго» — это ведет к избыточной нагрузке, особенно, если используется Raspberry Pi. В разделе интерфейса 3CX «SIP-транки» также доступны кнопки: * «Push config» («Отправить конфигурацию») — отправляет обновленную конфигурацию на выбранный сервис SBC. * «Update» («Обновить») — обновляет сервис SBC до последней стабильной версии. ### Установка сервиса SBC в удаленном офисе После того, как настроено SBC-подключение в 3CX, можно устанавливать SBC в удаленном офисе. #### Установка SBC на Debian и Raspbian Linux ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/76f/936/da7/76f936da7295efd2991c004970e82552.jpg) **Установка из командной строки:** Стабильная версия ``` wget http://downloads.3cx.com/downloads/sbc/3cxsbc.zip -O- | sudo bash ``` Beta-версия ``` wget http://downloads.3cx.com/downloads/sbc/3cxsbcV16.zip  -O- | sudo bash ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e53/44a/344/e5344a34474bf90ded05db16b58e056a.png) **Установка из ISO-образа:** После завершения установки Linux, на экране «3CX Update Channel» выберите «3CX SBC Stable» или «3CX SBC Beta». ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7f1/aff/133/7f1aff133cd322395cc6bee0d923da4f.png) Затем укажите URL сервера 3CX и ID аутентификации из параметров SBC-подключения. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/dc9/69d/44d/dc969d44dac4f06622b1bba11b60bc92.png) Теперь можно подключать удаленные [IP-телефоны](https://www.3cx.ru/sip-phones/) (режим подключения — подключение через SBC). #### Установка SBC на Windows Запустите [дистрибутив](https://downloads-global.3cx.com/downloads/3CXSBC16.msi) 3CX SBC для Windows и в процессе установки укажите URL сервера и ID аутентификации. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/543/231/f81/543231f8184c77a1ef110e93313341e7.png) #### Обновление SBC на Linux вручную (апгрейд предыдущей версии) Обновите APT репозиторий: ``` sudo apt update ``` Обновление на стабильную версию: ``` sudo apt upgrade 3cxsbc ``` Обновление на beta-версию: ``` sudo apt -t testing upgrade 3cxsbc ``` При ручном обновлении предыдущей версии SBC (только для Linux), в интерфейсе управления 3CX автоматически появляются соответствующие SBC-подключения. Выберите подключение и нажмите кнопку «Отправить конфигурацию». После обновления конфигурации можно подключать IP-телефоны. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/394/5f0/357/3945f0357025e3b43589f326925bdb6e.png) Дополнительная информация ------------------------- * [Учебное видео по установке 3CX](https://www.3cx.ru/3cxacademy/basic/installing/) * [Учебное видео по настройке SBC](https://www.3cx.com/3cxacademy/videos/intermediate/remote-extensions-sbc/)
https://habr.com/ru/post/456868/
null
ru
null
# React: Lifting state up is killing your app ![Cover](https://habrastorage.org/r/w780q1/webt/gd/9i/zn/gd9iznyftdnoffeagz18yy8aqeu.jpeg) > I now have a new shiny blog. Read this article with the latest updates there <https://blog.goncharov.page/react-lifting-state-up-is-killing-your-app> Have you heard about "lifting state up"? I guess you have and that's the exact reason why you're here. How could it be possible that [one of the 12 main concepts listed in React official documentation](https://reactjs.org/docs/lifting-state-up.html) might lead to poor performance? Within this article, we'll consider a situation when it's indeed the case. Step 1: Lift it up ------------------ I suggest you to create a simple game of tic-tac-toe. For the game we'll need: * Some game state. No real game logic to find out if we win or lose. Just a simple two-dimensional array filled with either `undefined`, `"x"` or `"0".` ``` const size = 10 // Two-dimensional array (size * size) filled with `undefined`. Represents an empty field. const initialField = new Array(size).fill(new Array(size).fill(undefined)) ``` * A parent container to host our game's state. ``` const App = () => { const [field, setField] = useState(initialField) return ( {field.map((row, rowI) => ( {row.map((cell, cellI) => ( setField([ // Copy rows before our target row ...field.slice(0, rowI), [ // Copy cells before our target cell ...field[rowI].slice(0, cellI), newContent, // Copy cells after our target cell ...field[rowI].slice(cellI + 1), ], // Copy rows after our target row ...field.slice(rowI + 1), ]) } /> ))} ))} ) } ``` * A child component to display a state of a single cell. ``` const randomContent = () => (Math.random() > 0.5 ? 'x' : '0') const Cell = ({ content, setContent }) => ( setContent(randomContent())}>{content} ) ``` [Live demo #1](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-1) So far it looks well. A perfectly reactive field that you can interact with at the speed of light :) Let's increase the size. Say, to 100. Yeah, it's time to click on that demo link and change `size` variable on the very top. Still fast for you? Try 200 or use [CPU throttling built into Chrome](https://twitter.com/chromiumdev/status/961537247240753152?lang=en). Do you see now a significant lag between the time you click on a cell and the time its content changes? Let's change `size` back to 10 and add some profiling to investigate the cause. ``` const Cell = ({ content, setContent }) => { console.log('cell rendered') return setContent(randomContent())}>{content} } ``` [Live demo #2](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-2) Yep, that's it. Simple `console.log` would suffice as it runs on every render. So what do we see? Based on the number on "cell rendered" statements (for `size` = N it should be N) in our console it seems like the entire field is re-rendered each time a single cell changes. The most obvious thing to do is to add some keys as [React documentation suggests](https://reactjs.org/docs/lists-and-keys.html#keys). ``` {field.map((row, rowI) => ( {row.map((cell, cellI) => ( setField([ ...field.slice(0, rowI), [ ...field[rowI].slice(0, cellI), newContent, ...field[rowI].slice(cellI + 1), ], ...field.slice(rowI + 1), ]) } /> ))} ))} ``` [Live demo #3](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-3) However, after increasing `size` again we see that that problem is still there. If only we could see why any component renders… Luckily, we can with some help from amazing [React DevTools](https://reactjs.org/blog/2019/08/15/new-react-devtools.html). It's capable of recording why components get rendered. You have to manually enable it though. ![React DevTools settings](https://habrastorage.org/r/w1560/webt/36/ms/b4/36msb4eskbqe6txnqv5j3phjfda.png) Once it's enabled, we can see that all cells were re-rendered because their props changed, specifically, `setContent` prop. ![React DevTools report #1](https://habrastorage.org/r/w1560/webt/nv/3o/on/nv3oon4uvu6om8oea4fnnaun8m4.png) Each cell has two props: `content` and `setContent`. If cell [0][0] changes, content of cell [0][1] doesn't change. On the other hand, `setContent` captures `field`, `cellI` and `rowI` in its closure. `cellI` and `rowI` stay the same, but `field` changes with every change of any cell. Let's refactor our code and keep `setContent` the same. To keep the reference to `setContent` the same we should get rid of the closures. We could eliminate `cellI` and `rowI` closure by making our `Cell` explicitly pass `cellI` and `rowI` to `setContent`. As to `field`, we could utilize a neat feature of `setState` — [it accepts callbacks](https://reactjs.org/docs/hooks-reference.html#functional-updates). ``` const [field, setField] = useState(initialField) // `useCallback` keeps reference to `setCell` the same. const setCell = useCallback( (rowI, cellI, newContent) => setField((oldField) => [ ...oldField.slice(0, rowI), [ ...oldField[rowI].slice(0, cellI), newContent, ...oldField[rowI].slice(cellI + 1), ], ...oldField.slice(rowI + 1), ]), [], ) ``` Which makes `App` look like this ``` {field.map((row, rowI) => ( {row.map((cell, cellI) => ( ))} ))} ``` Now `Cell` has to pass `cellI` and `rowI` to the `setContent`. ``` const Cell = ({ content, rowI, cellI, setContent }) => { console.log('cell render') return ( setContent(rowI, cellI, randomContent())}> {content} ) } ``` [Live demo #4](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-4) Let's take a look at the DevTools report. ![React DevTools report #2](https://habrastorage.org/r/w1560/webt/63/i5/po/63i5poiao3t3rt62mr_zubgycjw.png) What?! Why the heck does it say "parent props changed"? So the thing is that every time our field is updated `App`is re-rendered. Therefore its child components are re-rendered. Ok. Does stackoverflow say anything useful about React performance optimization? Internet suggests to use `shouldComponentUpdate` or its close relatives: `PureComponent` and `memo`. ``` const Cell = memo(({ content, rowI, cellI, setContent }) => { console.log('cell render') return ( setContent(rowI, cellI, randomContent())}> {content} ) }) ``` [Live demo #5](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-5) Yay! Now only one cell is re-rendered once its content changes. But wait… Was there any surprise? We followed best practices and got the expected result. An evil laugh was supposed to be here. As I'm not with you, please, try as hard as possible to imagine it. Go ahead and increase `size` in [Live demo #5](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-5). This time you might have to go with a little bigger number. However, the lag is still there. Why??? Let's take a look at the DebTools report again. ![React DevTools report #3](https://habrastorage.org/r/w1560/webt/ls/w8/gs/lsw8gsgvp_bnjvnxjramglhrnng.png) There's only one render of `Cell` and it was pretty fast, but there's also a render of `App`, which took quite some time. The thing is that with every re-render of `App` each `Cell` has to compare its new props with its previous props. Even if it decides not to render (which is precisely our case), that comparison still takes time. O(1), but that O(1) occurs `size` \* `size` times! Step 2: Move it down -------------------- What can we do to work around it? If rendering `App` costs us too much, we have to stop rendering `App`. It's not possible if keep hosting our state in `App` using `useState`, because that's exactly what triggers re-renders. So we have to move our state down and let each `Cell` subscribe to the state on its own. Let's create a dedicated class that will be a container for our state. ``` class Field { constructor(fieldSize) { this.size = fieldSize // Copy-paste from `initialState` this.data = new Array(this.size).fill(new Array(this.size).fill(undefined)) } cellContent(rowI, cellI) { return this.data[rowI][cellI] } // Copy-paste from old `setCell` setCell(rowI, cellI, newContent) { console.log('setCell') this.data = [ ...this.data.slice(0, rowI), [ ...this.data[rowI].slice(0, cellI), newContent, ...this.data[rowI].slice(cellI + 1), ], ...this.data.slice(rowI + 1), ] } map(cb) { return this.data.map(cb) } } const field = new Field(size) ``` Then our `App` could look like this: ``` const App = () => { return ( {// As you can see we still need to iterate over our state to get indexes. field.map((row, rowI) => ( {row.map((cell, cellI) => ( ))} ))} ) } ``` And our `Cell` can display the content from `field` on its own: ``` const Cell = ({ rowI, cellI }) => { console.log('cell render') const content = field.cellContent(rowI, cellI) return ( field.setCell(rowI, cellI, randomContent())}> {content} ) } ``` [Live demo #6](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-6) At this point, we can see our field being rendered. However, if we click on a cell, nothing happens. In the logs we can see "setCell" for each click, but the cell stays blank. The reason here is that nothing tells the cell to re-render. Our state outside of React changes, but React doesn't know about it. That has to change. How can we trigger a render programmatically? With classes we have [forceUpdate](https://reactjs.org/docs/react-component.html#forceupdate). Does it mean we have to re-write our code to classes? Not really. What we can do with functional components is to introduce some dummy state, which we change only to force our component to re-render. Here's how we can create a custom hook to force re-renders. ``` const useForceRender = () => { const [, setDummy] = useState(0) const forceRender = useCallback(() => setDummy((oldVal) => oldVal + 1), []) return forceRender } ``` To trigger a re-render when our field updates we have to know when it updates. It means we have to be able to somehow subscribe to field updates. ``` class Field { constructor(fieldSize) { this.size = fieldSize this.data = new Array(this.size).fill(new Array(this.size).fill(undefined)) this.subscribers = {} } _cellSubscriberId(rowI, cellI) { return `row${rowI}cell${cellI}` } cellContent(rowI, cellI) { return this.data[rowI][cellI] } setCell(rowI, cellI, newContent) { console.log('setCell') this.data = [ ...this.data.slice(0, rowI), [ ...this.data[rowI].slice(0, cellI), newContent, ...this.data[rowI].slice(cellI + 1), ], ...this.data.slice(rowI + 1), ] const cellSubscriber = this.subscribers[this._cellSubscriberId(rowI, cellI)] if (cellSubscriber) { cellSubscriber() } } map(cb) { return this.data.map(cb) } // Note that we subscribe not to updates of the whole filed, but to updates of one cell only subscribeCellUpdates(rowI, cellI, onSetCellCallback) { this.subscribers[this._cellSubscriberId(rowI, cellI)] = onSetCellCallback } } ``` Now we can subscribe to field updates. ``` const Cell = ({ rowI, cellI }) => { console.log('cell render') const forceRender = useForceRender() useEffect(() => field.subscribeCellUpdates(rowI, cellI, forceRender), [ forceRender, ]) const content = field.cellContent(rowI, cellI) return ( field.setCell(rowI, cellI, randomContent())}> {content} ) } ``` [Live demo #7](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-7) Let's play with `size` with this implementation. Try to increase it to the values that felt laggy before. And… It's time to open a good bottle of champagne! We got ourselves an app that renders one cell and one cell only when the state of that cell changes! Let's take a look at the DevTools report. ![React DevTools report #4](https://habrastorage.org/r/w1560/webt/qm/yw/3y/qmyw3yetdbimipruhngx5pa_chu.png) As we can see now only `Cell` is being rendered and it's crazy fast. What if say that now code of our `Cell` is a potential cause of a memory leak? As you can see, in `useEffect` we subscribe to cell updates, but we never unsubscribe. It means that even when `Cell` is destroyed, its subscription lives on. Let's change that. First, we need to teach `Field` what it means to unsubscribe. ``` class Field { // ... unsubscribeCellUpdates(rowI, cellI) { delete this.subscribers[this._cellSubscriberId(rowI, cellI)] } } ``` Now we can apply `unsubscribeCellUpdates` to our `Cell`. ``` const Cell = ({ rowI, cellI }) => { console.log('cell render') const forceRender = useForceRender() useEffect(() => { field.subscribeCellUpdates(rowI, cellI, forceRender) return () => field.unsubscribeCellUpdates(rowI, cellI) }, [forceRender]) const content = field.cellContent(rowI, cellI) return ( field.setCell(rowI, cellI, randomContent())}> {content} ) } ``` [Live demo #8](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-8) So what's the lesson here? When does it make sense to move state down the component tree? Never! Well, not really :) Stick to best practices until they fail and don't do any premature optimizations. Honestly, the case we considered above is somewhat specific, however, I hope you'll recollect it if you ever need to display a really large list. Bonus step: Real-world refactoring ---------------------------------- In the [live demo #8](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-8) we used global `field`, which should not be the case in a real-world app. To solve it, we could host `field` in our `App` and pass it down the tree using [context](). ``` const AppContext = createContext() const App = () => { // Note how we used a factory to initialize our state here. // Field creation could be quite expensive for big fields. // So we don't want to create it each time we render and block the event loop. const [field] = useState(() => new Field(size)) return ( {field.map((row, rowI) => ( {row.map((cell, cellI) => ( ))} ))} ) } ``` Now we can consume `field` from the context in our `Cell`. ``` const Cell = ({ rowI, cellI }) => { console.log('cell render') const forceRender = useForceRender() const field = useContext(AppContext) useEffect(() => { field.subscribeCellUpdates(rowI, cellI, forceRender) return () => field.unsubscribeCellUpdates(rowI, cellI) }, [forceRender]) const content = field.cellContent(rowI, cellI) return ( field.setCell(rowI, cellI, randomContent())}> {content} ) } ``` [Live demo #9](https://stackblitz.com/edit/lifting-state-up-is-killing-your-app-9) Hopefully, you've found something useful for your project. Feel free to communicate your feedback to me! I most certainly appreciate any criticism and questions.
https://habr.com/ru/post/471300/
null
en
null
# Как верстать красиво или чем плохи css-фреймворки Преимущества дивной вёрстки, семантичной разметки и разделения содержимого и дизайна описаны десятки, сотни раз, но все-равно находятся люди, которые не понимают самой идеи html и css, пишут в коде такие ужасные вещи, как ``` ``` , когда хотят расскасить текст в синий цвет и искренне считают, что эта запись чем-то лучше, чем ``` ``` , наивно веря в этом деле валидатору. А ведь правильный подход в написании html и css лежит на поверхности. Достаточно просто посмотреть историю развития этого языка, почитать статьи десятилетней давности и проанализировать. Я, при поддержке [theshock](https://habrahabr.ru/users/theshock/), постаралась в этот статье упорядоченно и коротко изложить наше видение этого вопроса. Краткая историческая справка ---------------------------- html создавался академиками, как средство описания данных для обмена по сети на базе языка SGML. Изначально никто не думал, что он будет использоваться для чего-то большего, чем обычный текст. Если посмотреть на большинство современных книг, то можно увидеть каким эти люди представляли себе будущий интернет. Из сорока тегов первого стандарта предназначением только трёх было изменения внешнего вида текста, остальные описывали что этот текст значит и не было возможности отобразить текст так, как вы хотели. Согласно стандарту некоторые теги могли делать текст курсивным или жирным, но такое поведение было только в рамках рекомендаций. Но по-другому развитие интернета видели разработчики Netscape. Они понимали, что *сАй*тИКи *до*Лж**нЫ** быТь ***пР**ив*лЕКаТЕльНЫМи для того, чтобы в интернете сидели не только суровые профессора, но и блондинки. Netscape ввёл достаточно много тегов, которые изменяли внешний вид текста, но не несли за собой никакой логической нагрузки. [В статьях тех лет](http://chernykh.net/content/view/544/742/) можно прочитать, что идеологам html категорически не нравился такой вектор развития. На самом деле W3C вели себя очень по-старпёрски и не далекоглядно, а Netscape тем временем слишком увлёкся раскрашиванием. Обе компании впали в крайности и не могли прийти к консенсусу. Помощь пришла неожиданно в лице компании Microsoft. Она практически выкупила W3C, инвестировав в него кучу денег и человеческих ресурсов, удалила устаревшую ещё до выхода спецификацию html 3.0 и по-быстренькому выпустила более приближённую к жизни спецификацию html 3.2, которая принесла с собой css. IE 3 и NN 4 уже более-менее поддерживали возможности стилевого оформления. Ну, потом осёл быстро вытеснил Netscape и, как только занял монопольное положение, заснул на 6-й версии лет, эдак, десять назад. Потом возродился Netscape в лице Firefox, отвоевал значительную часть рынка у IE за счёт кучи преимуществ и, в итоге, всё пришло к тому, что мы сейчас имеем. Разработчикам браузеров на заметку: в лидеры выбивался тот браузер, который поддерживал стандарты лучше всего. А имеем мы сейчас вполне неплохую ситуацию. Хотя, перспективы css 3 очень радостные и приятные и мы с нетерпением ждём его прихода, даже то, что даёт шестой ослик вполне достаточно для красивого и расширяемого кода. Почему оформлять лучше в css, чем в html ---------------------------------------- В истории очень показателен период сложного оформления сайтов при помощи одного html. Верстальщики тех годов использовали огромное количество тегов , , , вложенных друг в друга таблиц для задания таких границ и разметки, как они хотели и много чего такого, что в итоге приводило к коду, который очень тяжело поддерживать. Очень интересный [цикл статтей перевода «A List Apart» на html+css](http://www.webmascon.com/topics/designdetails/19a.asp). Посмотрите пример оттуда: ``` | | | ``` Сейчас с современными возможностями этот участок выглядел бы так: ``` ``` Такое изящество принёс нам язык css. Так в чём же основной принцип подхода html+css? В html-файле мы описываем только логическую часть документа и ничего из оформления (да-да, это именно то, о чём мечтали те старые пердуны из W3C). Оформление ложится полностью на плечи css. Какие преимущества нам это принесёт: 1. Как видно на примере выше, html-код теперь не загромождён, а логичен и понятен. 2. Мы не повторяем описание внешнего вида каждый раз, когда встречается html-елемент. Например, если мы хотим заголовок сделать подчёркнутым и зелёным — достаточно описать это в css-файле, а не указывать соответствующие параметры каждый раз, когда встречается заголовок. Принцип «don't repeat yourself» показал себя очень эффективным не только в разметке, но и в программировании. На самом деле, очень тяжело найти противников этого принципа среди профессионалов. 3. За счёт этого мы можем давать нашим пользователям возможность к оформлению своих сообщений, не выходя за рамки дизайна сайта (посмотрите на хабр и его оформление заголовкамив статьях). Автор просто указывает тег, например, &lth2> там, где хочет выделить заголовок раздела статьи и он выделяется так, как лучше всего подходит для даного сайта. 4. Вес html-файлов уменьшается очень значительно, а сss-файлы кешируются браузерами и загружаются только один раз, отчего у пользователей значительно ускоряется загрузка страниц, а на сервере уменьшается нагрузка. 5. То, что мы вынесли всё оформление в css-файл позволяет с лёгкостью его изменять при необходимости. Достаточно в одном месте css-файла подправить значение и новый стиль применится ко всем html-страницам, которые его используют 6. Можно полностью поменять оформление сайта просто подключив другой css-файл на сервере администратором или на клиенте пользователем (с помощью user-css). Например, как сделано на [ibash.org.ru](http://ibash.org.ru/skins.php). 7. Для устройств с маленьким экраном достаточно просто подключить другой файл стилей. Так почему же плоха запись ? Не потому что так сказал валидатор, или написали умные мужчинки на Хабре. Причина отказа от этой записи содержится очень близко к идеологии html. А именно в том, что тут смешивается контент и дизайн! И предпочитаемая многими(валидная, но ужасная) запись — это возврат к тому, от чего с ужасом бежали «A List Apart» 10 лет назад. Каждый раз, когда вы в html-файле задаёте оформление css или в названии класса содержится эпитет, который хоть как-то намекает на внешний вид элемента — вы что-то делаете не так. Просто подумайте, почему вы решили делать его таким. Если вы хотите сделать красный цвет, то, наверное, это обозначает ошибку и ему больше подойдёт . А если вы решили выделить жирным, то этот текст важнее, чем тот, что по-соседству и тут больше подойдёт или даже . А html5 принесет еще серию актуальных логических тегов, которые помогут отказатся даже от классов. Верстаем по-порядку ------------------- Так как же добится изящного кода? Надо полностью отделить содержимое от представления. Подумайте, какие логические блоки будут на странице и опишите их в html. Не описывайте то, как они будут выглядеть. Представте, что у вас будет два совершенно разных дизайна на базе одного и того же html, но разных css. Возьмем, к примеру, Хабр. Представим, что один дизайн будет очень похож на тот, что есть, а другой будет с навигацией слева, а правая боковая панель уйдёт вниз. И он будет в тёмных цветах, а не светлых, как сейчас. Начнём с html: ``` Habrahabr ![Habrahabr logo](logo.png) * Nutochka * выйти * настройки * личная почта * хабралента * избранное * посты * [q&a](#) * [блоги](#) * [люди](#) * [компании](#) [{Article.title}](#) ==================== {Article.content} {Article.tags} {Article.footer} * [{Best.blogname}](#) » [{Best.article}](#) * [{Best.blogname}](#) » [{Best.article}](#) * [{Best.blogname}](#) » [{Best.article}](#) © 2006–2010 «Тематические Медиа» ``` Такой html красив и понятен, легко поддерживается и обладает огромным количеством преимуществ. Следующим шагом будет описание css, но так, чтобы, при этом ни разу не поменять html. К сожалению, кое-какие причуды верстки не получится сделать без вмешательства в контент, но просто постарайтесь этого избежать, зная, что это категорически неправильно. css-фреймворки -------------- Последнее время некоторой(к счастью, небольшой) популярностью пользуются css-фреймворки. Например, [960 grid system](http://960.gs/) ``` 24 Column Grid ----------------- 950 30 910 ``` и [blueprint](http://www.blueprintcss.org/): ``` Blueprint Tests: grid.css ========================= Lorem ipsum dolor sit amet, consectetur adipisicing elit. Lorem ipsum dolor sit amet, consectetur adipisicing elit. Lorem ipsum dolor sit amet, consectetur adipisicing elit. Lorem ipsum dolor sit amet, consectetur adipisicing elit. Lorem ipsum dolor sit amet, consectetur adipisicing elit. ``` Основной проблемой есть то, что эти фреймоворки нарушают основной принцип разделения содержимого и представления и пропагандируют принципы, которые использовались до изобретения html3.2. Вместо внятного и очевидного описания, что каждый из блоков значит мы видим в html-коде то, как эти блоки выглядят и сколько места занимают. Все преимущества css, описанные выше, разрушаются при таком подходе. Css-фреймворки в том виде, котором они сейчас есть — зло и уход в прошлое. Какие есть альтернативы? Оставить html языком разметки, а дизайн оставить полностью на совести css, как оно и должно быть. Но как сделать фреймворк на CSS? Для этого можно воспользоватся одним из препроцессоров, которые сейчас набираюсь популярность и вводят в css много вещей, которых там очень не хватает — переменных, математических выражений, изящной вложенности. Например, [LessCss](http://lesscss.org/) и [SASS](http://sass-lang.com/). С их помощью можно организовывать красивые и удобные фреймворки и полностью на стороне css. Подход к созданию такого фреймворка можно почитать в зарубежной статье «[Introducing the LESS CSS Grid](http://designshack.co.uk/articles/css/introducing-the-less-css-grid)». Верстайте красиво и не выливайте компот в борщ, пусть даже кажется, что это будет быстрее и ничего страшного не случится!
https://habr.com/ru/post/108142/
null
ru
null
# Перевод с человеческого на ботовский Началось все с того, что я, как и многие другие, захотел написать бота. Предполагалось, что бот мне будет напоминать всякие разные вещи, которые я постоянно забываю — первый сценарий, который предполагалось реализовать, это чтобы бот мне в 10 вечера говорил о том, чтобы я прочитал все то, что в течение дня записал в свой блокнот. Начал я с того, что поискал что-то готовое. Но все, что мне попадалось, было заточено на митинги — когда, с кем, где и сколько времени. Кроме того, далеко не все понимали нормальный человеческий язык, а кое-где даже не было recurring events. Неудобно. Значит писать свое. Сразу было решено, что бот будет очень модульным. Первое, что я написал, это простой мостик между телеграммом и юникс сокетом. И шелл скрипт, чтобы произвольный текст в этот сокет кидать. И запись в крон. `./pa_send.sh "Иди уже спать!"` ![image](https://ic.pics.livejournal.com/aragaer/735873/2227/2227_original.png) В одну сторону связь появилась. В другую пока нет. Требовалось как-то парсить человеческие фразы. И тут я принял очередное важное решение — я хочу отделить парсинг фраз от собственно выполнения. Если быть более точным, то я хочу отдельно иметь модуль-переводчик, который будет из фраз на человеческом языке выдавать фразы на ботовском. Первым был вариант, когда в качестве такого переводчика использовался ChatScript. Он предназначен немного не для того — работа с ChatScript это "подбор ответа по вопросу", а мне надо "подбор перевода по вопросу", но кто мешает использовать инструмент не по назначению? Кроме ChatScript я смотрел на RiveScript и в итоге остановился именно на нем. ``` $ ./human2pa.py aragaer Напомни мне сделать коммит, пожалуйста remind aragaer to "сделать коммит" ``` Каких-то начальных фраз мне хватило, поэтому я переключился на другие куски бота — в частности "мозг", который я решил писать на common lisp. Мозг пробрасывает человеческую речь в переводчик, а потом работает с фразами на ботовском языке. Затем он конструирует ответ на ботовском, переводит в человеческую через того же переводчика, а потом отдает ответ. А потом я обнаружил себя в ситуации, когда я уже не очень ориентируюсь в том, что и как работает. Поэтому возникла идея как-то зафиксировать версии разных модулей в боте. И разбираясь с этим я уперся в ботовский язык. Сочиненный по ходу работы язык был неудобным. То есть им, конечно, можно было как-то пользоваться... `Я сегодня сделал 10 маки-ути` **маки-ути?**Что такое маки-ути и почему их надо делать каждый день — не совсем та тема, которую я тут описываю. Просто это одна из тех команд, которые я реализовал в качестве proof-of-concept. Зато она содержит некоторый параметр, который боту требуется вычленить. `maki-uchi log 10` Я стал думать о том, как бы мне можно было сделать что-то более удобное. Например, чтобы парсить было проще: `maki-uchi report count: 10` Если считать двоеточия частью слова (такой особый синтаксис), то можно было бы сделать что-то похожее на p-list: `:maki-uchi report :count 10` Но потом я вдруг понял, что тот же самый p-list я в лиспе могу получить значительно более простым способом. Все взаимодействие между модулями моего бота реализовано через json. А значит можно сразу переводить из человеческой речи в json. В качестве примера того, как это все должно парситься, у меня перед глазами обычно возникал [Dialogflow](https://dialogflow.com/). К сожалению, мне он был не очень интересен — во-первых, я хочу реализовать этот перевод самостоятельно, а во-вторых… есть все-таки вопрос приватности. Мне бы хотелось, чтобы моим ботом могли пользоваться люди, которые не доверяют облачным сервисам. А так поставили и у себя локально пользуются. Может ли нейросеть сгенерировать валидный json? =============================================== Я решил начать с эксперимента. Среди всех фраз, которые бот должен уметь получить, это фраза от переводчика "я не понял, что именно человек тут пытался выразить". Для этого достаточно было бы уметь произвольную строчку, например `"hello, world"` превратить в `{"unknown": "hello, world"}` ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/244/64a/a8b/24464aa8bb9fa1c8f3f4eb7dc71d0ab8.png) На RiveScript такая задача решается тривиально. ``` + * - {"unknown": ""} ``` Но ведь я же пришел за полноценным переводом. Поэтому мой выбор, после нескольких дней размышлений, пал на [nmt](https://github.com/tensorflow/nmt/). Я написал скрипт, который брал 39 слов, которые я просто не сильно задумываясь набрал, и собирал все возможные сочетания от одного до четырех слов. Затем брал 200 тысяч из них, перемешивал, 120 тысяч отправлял для тренировки, по 40 уходило на вычисление ошибки и на кросс-валидацию. Затем я запустил nmt на всем этом деле обучаться. И это был… провал. Во-первых, с точки зрения nmt hello и "hello это совершенно разные слова. Во-вторых, отдельными словами являются также любые сочетания непробельных символов. Моя целевая строка стала выглядеть как `{ "unknown" : " hello world test " }` – с кучей пробелов в разных местах. И при этом nmt стабильно… не писала закрывающие кавычку и фигурную скобку. Методом проб и ошибок я обнаружил, что если исходная фраза выглядит как `hello world test END`, то в таком случае ответ наконец получается такой, какой надо. ``` human last dog black END -> { "unknown" : " human last dog black " } ``` Но любая незнакомая ситуация сбивала сетку с толку: ``` teach human rest green stack END -> { "unknown" : " teach human rest bag " } stack white light green mirror END -> { "unknown" : " stack white light word " } ``` И это просто добавление пятого слова, которое тоже было в словаре. Беда. Наверно это было не самой правильной задачей, поэтому я решил попробовать снова, но уже использовать более разумные фразы. Отступление: таймер =================== Одним из потенциальных сценариев работы бота предполагался такой диалог: ``` - Ты уже перечитал свои заметки за сегодня? - Еще нет, напомни через полчаса. - Хорошо ``` А значит мне нужен какой-то механизм, чтобы можно было прикручивать разные события с разной задержкой, да еще и с регулярными повторениями заодно. Такую штуку я решил писать на go просто чтобы что-нибудь на нем написать. [Код](https://github.com/aragaer/scheduler) получился достаточно простым — в конце концов, конкретные реализации похожих вещей мне в жизни уже попадались. Конечно, человек не будет обращаться напрямую к таймеру, чтобы как-то с ним взаимодействовать, но синтаксис команд таймера показался мне достаточно простым, чтобы с чего-то начать. Таймер принимает команды трех видов: * `{"command": "add", "name": "строка", "what": <любой кусок json>, "delay": число, "repeat": число}` — repeat и delay являются опциональными, остальное обязательно. Ненулевой repeat означает, что событие будет периодичным. * `{"command": "modify", "name": "строка", "what": <любой кусок json>, "delay": число, "repeat": число}` — тут необязательными являются repeat, delay и what, если они не указаны, то в событии name соответствующий параметр не изменяется. * `{"command": "cancel", "name": "строка"}` — тут вроде все очевидно. Эксперимент номер два ===================== Фразы, которые требовалось переводить, выглядели примерно так: ``` print "hello" after 30 seconds every 7 seconds modify "asdf" to print every 10 seconds cancel "qwerty" ``` Этим фразам должны были соответствовать команды ``` { "command": "add" , "name": "hello" , "delay": 30 , "repeat": 7 } { "command": "modify" , "name": "asdf" , "repeat": 10 } { "command": "cancel" , "name": "qwerty" } ``` Упс, я забыл про what. Впрочем, на эксперименте это сказалось несильно. Сначала я написал скрипт, который генерил файлы для обучения: * Случайное действие — add, modify или cancel * Каждой команде соответствует несколько слов, которые означают эту команду. Например для add это print, emit, send * Для команды modify после указания имени добавлено to и одно из слов, соответствующих add * Если это add или modify, то случайно может быть или не быть delay и/или repeat. Для modify требуется наличие хотя бы одного из двух * поле name это случайный набор символов * поля repeat и delay, если есть, это случайные числа (порядка от 0 до 200) * В словаре присутствуют открывающая и закрывающая фигурные скобки, запятая. Слова, которые в json будут именами полей, в словарь попадают вместе с двоеточиями Результат получился так себе. Мне пришлось опять добавлять маркер конца строки для английского текста. Если значения поля name включать в словарь, то размер словаря получается таким же, сколько строк в тренировочных файлах. При этом эти имена не пересекаются между training set и cross-validation set, поэтому результат вроде бы получается не очень хорошим. Ну и при реальном переводе все равно если будет слово, которого в словаре не было, то в ответ пойдет . Если же не включать name в словарь, но включать туда числа delay и repeat, то все получается не так плохо. Результат перевода примерно такой же, но числа он по крайней мере "переводит" адекватно. Выводы из первых двух экспериментов =================================== Я понимаю, что основная проблема этого подхода именно в том, что часть фразы надо "переводить", а часть надо обрабатывать по совсем другому принципу (в данном случае — не обрабатывать никак). Это решается с помощью [улучшенного nmt](https://nlp.stanford.edu/pubs/luong2016acl_hybrid.pdf), но к сожалению, я не нашел простого туториала, как этим пользоваться. Возможно я плохо искал. Более вероятно то, что я не знаю, что именно надо искать — я не разбираюсь в машинном обучении и NLP и поэтому не могу даже сформулировать корректный запрос в гугл. Я снова мысленно возвращаюсь к Dialogflow — там можно выделить внутри фразы часть, которая должна быть обработана отдельно. Я пытаюсь искать по словам вроде "neural network to extract data from sentence" и натыкаюсь на [sequence tagging](https://guillaumegenthial.github.io/sequence-tagging-with-tensorflow.html). Я смотрю на примеры и понимаю, что это именно то, что мне нужно. Эксперимент третий ================== Я планирую делать "перевод" в несколько шагов. На первом шаге я прогоняю исходное предложение через теггер. Затем я строю новое предложение, где все слова, для которых теги отличаются от O (заглавная латинская буква o — Other), заменяю на собственно сами теги. исходная фраза `print "hello" after 30 seconds every 7 seconds` теги `O data_sched_name O data_sched_delay O O data_sched_repeat O` фраза с плейсхолдерами `print data_sched_name after data_sched_delay seconds every data_sched_repeat seconds` После этого фраза идет в nmt, получается перевод, а потом я делаю замену обратно. Поскольку я все равно потом что-то буду переделывать, то я отказываюсь от попытки генерить json. Вместо этого я получаю фразу вида `command add name data_sched_name delay data_sched_delay repeat data_sched_repeat` Сконструировать из этого json это уже вопрос техники. Это то, как будет происходить "перевод". Но еще предстоит обучение. Все примерно так же, как и раньше, но теперь я генерю тройку английский+теги+перевод. Пара английский+теги нужна для обучения теггера, а пара английский-с-заменой+перевод нужна для обучения nmt. Результат — победа. Тут я наконец замечаю, что в предыдущем эксперименте я потерял what. Я его добавляю равным name. Теггер переучивать не требуется, переучиваю nmt… и оно работает! Наконец, финальный штрих. Я решил добавить к английским фразам please — в начале, в конце, или не добавлять вовсе. Если please присутствует, то я хочу видеть его в готовом json в поле "tone" — боту полезно знать, когда к нему обращаются вежливо. Небольшая правка в коде генерации учебных данных, переучиваем теггер и nmt. Работает! ``` $ ./translate.py 'please start printing "hello" every 20 seconds after 50 seconds' <куча дебажной информации о загрузке модели nmt> {'delay': 50, 'name': 'hello', 'tone': 'please', 'command': 'add', 'what': 'hello', 'repeat': 20} ``` Окончательные выводы ==================== Наверно можно обойтись и без nmt. Я знаю класс фразы, и конструирую ее самостоятельно из тех данных, которые теггер выковырял из исходного предложения. По идее достаточно было бы просто использовать классификатор. Здесь я нарвусь на проблему с "Не говори мне, какая будет погода завтра в Москве", но это лечится путем правильного переучивания. Еще один вывод — вместо того, чтобы писать сложные скрипты для генерации учебных данных на чистом питоне, я могу задействовать RiveScript для генерации "примерно человеческих" фраз. Вместе с тегами. Это сильно упростит процесс обучения и переучивания. Самое главное — теперь я, кажется, знаю, как мне переводить фразы на язык, который мой бот поймет. Скрипты, которыми я пользовался, доступны [здесь](https://github.com/aragaer/human2pa/tree/test_123). Для работы теггера надо скачивать словарь в пару гигабайт (make glove в каталоге sequence\_tagging). Есть подозрение, что можно обойтись без него, если создать такой словарь самостоятельно. Но я это еще пока не умею.
https://habr.com/ru/post/347496/
null
ru
null
# “Сигма дельта” или как сделать хорошую звуковую карту из STM32F401 Жене мешают смотреть последние новости из телефона и телевизора приходящие поесть (первично ?) и поиграть на компьютере (вторично?) внуки. Она их конечно любит , но звуки их взаимодействия с компьютером ее сильно раздражают. Пришлось надеть на внуков наушники. А звуковой выход у компа в неудобном месте и каждый ребенок хочет звук со своей громкостью. Ну пришлось разработать внешнюю USB звуковую карточку. Хочется и красиво и качественно. Впрочем, внуки скорее только повод для поностальгировать по своей старой специальности радиоконструктора и вообще, так как последние двадцать с лишним лет я далеко от нее и пишу ~~заклинания~~ программы реконструкции изображений для медицинских томографов в больших и не очень фирмах , то есть энжинер-погромист по специальности. Хотел написать статью на эту очень интересную и важную тему (компьютерная томография), но выяснилось что мне нельзя по условиям контракта ... --- Итак вернемся к нашим ~~баранам~~ внукам и звуковым карточкам, которые у нас есть в нескольких экземплярах ,овер дофига, купил пока были дешевые, модули из Китая: 1. Stm32f401ccu6 black pill – сейчас $3 за штучку; 2. I2S DAC Decoder GY-PCM5102 ->$3.5 за штучку; 3. SPI display ips 1.3 inch 240x240 (controller st7789) ->$7 за два. Сначала построим максимальную конфигурацию из двух экранов и I2S GY-PCM5102. Конфигурируем куб, разбавляем его ~~говно~~ код своим ~~г.~~ кодом, добавляем ФАПЧ ( фазовой автоматической подстройки частоты или PLL на ихнем ) , для согласования скоростей приходящих от компьютера данных и выдачи на i2s внешний ЦАП (DAC). Хмм , звучит очень неплохо, явно лучше большинства встроенных звуковушек. PCM5102 – весьма и весьма качественный ЦАП за свою цену в пару- тройку долларов за модуль с чипом. Добавляем отображение индикаторов уровня на паре неплохих дисплеев st7789... С ними нужно было немного повозиться. Во первых у этих не выведен CS (Chip Select – ножка выбора чипа) . Поэтому каждому свой SPI ( SPI\_1 и SPI\_3). Во вторых их DMA (прямой доступ к памяти) сильно тормозит. Соотвественно копирование полного экрана из памяти занимает для SPI\_1 - 32 mS , а для SPI\_3 - 51 миллисекунды соотвественно. Исходя из этого стрелки измерителей и их тени(!) отрисовываются и стираются инкрементально что помещается в 8 миллисекунд в сумме на оба экрана. Положение стрелок задается максимумом в примерно 20 мс с постоянной времени затухания 300 мс(примерно как у настоящих VU измерителей). [чудесная и актуальная песня В.Высоцкого "Аисты" (video)](https://www.youtube.com/watch?v=TnEBuS5ONsY) И тут я вспомнил , очень давно, больше 30 лет тому назад меня учили на заклинателя синего дыма , то есть я знаю зачем осциллографу ручки, а микросхемам ножки. Ручки – чтобы их дергать, а ножки - чтобы ими дергать! Может можно ли рендедерить звук самой Stm-кой , без внешнего i2s чипа? На этом чипе (STM32f401) нет ЦАП-а. К качестве оного можно использовать таймер с его ШИМ (PWM) или SPI. Таймеры можно инициализировать на два три или 4 канала для N уровней сигнала на частоте Fbus = 84 Мгц мы получим частоту дискретизации Fds = 84 000 000 */ N , или наоборот N=Fbus/ Fds .* Например для частоты дискретизации 44100 Гц мы получим 84 000 000/44100 = 1904 уровня, что соотвествует примерно log2(1904) = 10.9 бит. Ну или на 96000 Гц соотвественно 84МГц/96КГц = 875 уровней что соотвествует 9.8 бит Маловато будет. SPI может выдавать только два уровня 0 или 1, правда до 42 мегабит в секунду. Хмм.. 1 бит мало однако ... есть PDM ([Pulse-density modulation](https://en.wikipedia.org/wiki/Pulse-density_modulation) не знаю как точно по русски)! ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/387/707/7af/3877077afe4fe1de943d00f7b96acfa8.png) Сформулируем тоже в виде кода(входной сигнал от -1.0 до 1.0 ) ``` struct sigmaDeltaStorage { float integral; int y; }; struct sigmaDeltaStorage left_chanel; struct sigmaDeltaStorage right_chanel; int sigma_delta(struct sigmaDeltaStorage* st,float x) { st->integral += x - st->y; st->y = (st->integral>0.0f) ? 1:-1; return st->y; } ``` в цикле: * Прочитать данные левого и правого каналов из приемного циклического буфера USB c интерполяцией (лучше билинейной). * Вызвать функцию sigma\_delta. * Результат отправить на выдачу . Фокус тут в том что если входной сигнал ограничен некоторой частотой, а частота семплирования (отсчетов) достаточно велика , то пропустив выходной сигнал через фильтр нижних частот получим сигнал приближенный к исходному, причем тем лучше чем больше частота семплирования! Рассмотрим пример. Входной сигнал – постоянный x=0.31415 ``` void testFunc(int NumberSamples) { for(int t=0;t ``` для 10 вызовов фунция даст вот такую последовательность [1,-1, 1,1,-1,1,1,-1,1,1] их среднее будет 0.4 , для 1000 вызовов среднее будет 0.314 , для 10000 -> 0.3142 и тд. То есть, чем больше частота отсчетов, тем аккуратнее апроксимация ограниченного по частоте входного сигнала. Фокус изобрели в 60-х годах прошлого века. К сожалению, реализовать этот алгоритм прямо на stm -ке с генерацией бит и выдачей на SPI у меня не получилось, неободимая частота должна быть около 2.884 Мгц (<https://en.wikipedia.org/wiki/Super_Audio_CD>) . Выглядит малореальным сгенерировать два канала с семплированием с интерполяцией из usb буфера и вызовом функции sigma\_delta для каждого бита и упаковки бит на выдачу в SPI при частоте процессора всего 84 Мгц. Всего 15 клоков на левый и 15 клоков на правый каналы на бит при забитой DMA шине – это нереально... Облом ? А что если переписать sigma\_delta так, чтобы она выдавала не два уровня сигнала [1 -1] (с одним компаратором около нуля ), а больше ? Например 4 уровня [3 1 -1 -3] ? Или еще больше, например N+1 (мы заодно сместили входной и выходной сигнал к диапазону от [0 N], так нужно для выдачи ШИМ на таймер): ``` int sigma_delta(struct sigmaDeltaStorage* st,float x) { st->integral+= x - st->y; st->y = floorf(st->integral+0.5f); // nearest integer if(st->y<0) st->y = 0; if(st->y>N) st->y = N; return st->y; } ``` Ура – мы изобрели велосипед. Если бы я внимательней читал статью про [Delta-sigma modulation](https://en.wikipedia.org/wiki/Delta-sigma_modulation) то обратил бы внимание что один бит – это частный случай, о чем там написано черным по белому :( Теперь мы можем выбрать удобный для реализации компромисс между частотой отсчетов и количеством дискретных уровней. Простая дискретизация сигнала дает равномерный по частоте шум величиной в половину шага дискретизации. Сигма дельта дает шум прямо пропорциональный частоте сигнала(в первом приближении). То есть энергия спектра шума дискретизации смещается вверх, за пределы слышимых частот! Фокус можно повторить с двойным , тройным и тд интегралом: ``` float sigma_delta2(struct sigmaDeltaStorage2* st,float x) { st->integral0+= x - st->y; st->integral1+= st->integral0 - st->y; st->y = floorf(st->integral1+0.5f); if(st->y<0)st->y = 0; if(st->y>MAX_VOL)st->y = MAX_VOL; return st->y; } ``` Есть аналогия с цифровыми фильтрами низкой частоты высоких порядков. Однако дизайн стабильных фильтров высокого порядка оставим профессионалам (по дизайну фильтров) . В коде мы реализуем простой фильтры первого и второго порядка, с реализацией в числах с фиксированной точкой (у нас на STM это самый быстрый тип int32\_t ). Для реализации я выбрал частоту 101 Кгц соотвественно количество уровней 828 (84МГц/101КГц) на сигма-дельта второго порядка интегрирования, впрочем при желаниии можно поиграть с опциями. Количество дисплеев лучше задать 0 для конфигурации с сигма- дельта, поскольку помехи от них будут слышны в наушниках, впрочем не очень сильные, слушать можно. Но предпочтительный вместе с индикаторами уровня использовать внешний DAC или организовывать развязку питания для них. Без дисплеев , с RC фильтром низкой частоты сигма-дельта на STM32f401 дает очень хороший звук, лучше большинства встроенных звуковых карточек на недорогих компах и явно лучше дешевых китайских звуковых затычек USB->3.5мм для наушников. PS. Профи в области обработки звука и радиоконструкторы, не придирайтесь. Во первых за 30 с лишним лет я много забыл и сейчас в этой области я просто любитель. Во вторых не хотелось переусложнять математикой статью тут ее реально нужно много для детального описания .. Еще Видео : [Снег кружится группы Пламя](https://www.youtube.com/watch?v=-ZwYmrN618s) удалил ,жадные правообладатели уже нажаловались. Ну и фиг с ними. [На эту тему Analog Devices ( осторожно English, есть много интересных ссылок в конце )](https://www.analog.com/media/en/training-seminars/tutorials/MT-022.pdf) [Ну и исходный код на гитхабе](https://github.com/sdima1357/stm32f401ccAudioNative)
https://habr.com/ru/post/662141/
null
ru
null
# Мошенничество с USB флешками на eBay Предлагаю вашему вниманию личный опыт покупки USB флешек на eBay. Надеюсь эта заметка поможет кому-то не попасться в лапы мошенникам. Скорее всего аналогичные флешки продаются и в других местах, будьте внимательны при покупке! ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/f92/231/0e4/f922310e449e3a70bfb529f7ed86c10d.jpg) Как насчет вот такой всего за $17 включая доставку? Под катом много текста, ссылок и другой полезной информации. Месяц назад я решил, что моя любимая [Kingston DataTraveller](http://www.kingston.com/flash/datatraveler.asp) на 4GB стала слишком маленькой и пора приобрести на что-то более емкое. В то время у меня уже был успешный опыт покупок на eBay. Быстрый поиск показал, что сейчас по соотношению цена/объем для меня лучше всего подходит емкость 16GB. В течении нескольких дней я успешно выиграл три аукциона, один у продавца с именем [pangoal](http://feedback.ebay.com/ws/eBayISAPI.dll?ViewFeedback2&userid=pangoal&ftab=AllFeedback&myworld=true) и две других у [zhangfengping8888](http://feedback.ebay.com/ws/eBayISAPI.dll?ViewFeedback2&userid=zhangfengping8888&ftab=AllFeedback). Быстро оплатил их через PayPal и стал ждать доставки. Меня немного насторожило то, что я не мог видеть имена остальных участников при просмотре ставок, но в то время я не придал этому значения. Первый гром грянул через неделю. Обычно продавец на eBay присылает покупателю e-mail при отправке товара почтой. Я так и не долждался такого е-мейла от продавца, у которого купил одну флешку. Я не смог связаться с продавцом, так как он оказался заблокирован. В то же время у него начали появляться первые негативные отзывы. Пришлось жаловаться в PayPal чтобы вернули деньги. Прошло еще немного времени и я наконец-то получил долгожданную посылку от второго продавца с двумя флешками. Одну, не распаковывая, подарил другу на День Рожденья, вторую оставил себе и закачал на нее фотки, которые делал на протяжении последних нескольких лет. И тут началось… Перезвонил друг и сообщил, что у него флешка перестала работать. Приехав в гости, убедился, что действительно происходит что-то странное. Флешка определяется системой, но при попытке копирования информации устройство просто пропадало из системы. Переформатировав флешку и убедившись, что теперь все работает как и должно, я поехал домой. На следующий день друг снова перезвонил и пожаловался, что опять что-то не в порядке. Методом проб и ошибок выяснилось, что флешка нормально работает с небольшими порциями данных. Как только объем данных превышал определенную черту, флешка выходила из строя. Я забрал ее и, обещав другу разобраться более детально, поехал домой… где был немало удивлен, потому что на этот раз я не смог скопировать фотографии с моей собственной флешки! Решив, что вероятность поломки двух флешек в один день довольно мала, я обратился к Google. Вот тут-то и открылась горькая правда. Я стал жертвой мошенников, которые продают поддельные флешки. Китайские умельцы изменяют информацию в контроллере флешки таким образом, чтобы она сообщала о своем объеме ложную информацию. Чаще всего переделывают 1-2GB в 16-32-64GB. Многие пользователи не сразу используют полный объем флешки, поэму может пройти довольно много времени между покупкой и обнаружением подделки. **Что же делать, если вы приобрели одну из таких флешек на eBay?** Для начала проверьте флешку программой H2testw (последняя версия на сегодня 1.4 лежит [тут](http://www.heise.de/ct/Redaktion/bo/downloads/h2testw_1.4.zip)). Вот такой результат одной из моих поддельных флешек: `Warning: Only 15983 of 15984 MByte tested. The media is likely to be defective. 1.8 GByte OK (3936669 sectors) 13.7 GByte DATA LOST (28796515 sectors) Details:10.2 GByte overwritten (21591648 sectors) 752 KByte slightly changed (< 8 bit/sector, 1504 sectors) 3.4 GByte corrupted (7203363 sectors) 1.5 KByte aliased memory (3 sectors) First error at offset: 0x0000000000000218 Expected: 0x0005480f001a6e01 Found: 0x0005480e001a6e01 H2testw version 1.3 Writing speed: 12.7 MByte/s Reading speed: 11.5 MByte/s H2testw v1.4` Как видно, это флешка на 2GB, которую пререпрограммировали на 16GB. Если у вас похожий результат, немедленно заходите в свой аккаунт на PayPal и открывайте жалобу (на английском — заходим в Resolution Center и открываем новый Case). Помните:* У вас есть всего 45 дней с момента оплаты, в течении которых вы можете подать жалобу * Не начинайте переговоры с продавцом — зря потеряете драгоценное время * Никогда не отсылайте флешку назад, иначе вы сами лишите себя единственного доказательства и вдобавок понесете дополнительные расходы на пересылку. Также полезно знать, что во многих странах пересылка поддельных товаров считается преступлением, поэтому вы можете смело опираться на это для обоснования отказа от возврата. * Даже если сам PayPal потребует от вас отослать флешку, не делайте этого — это ошибка в их системе автоматической обработке жалоб. Свяжитесь с ними по е-мейл или в крайнем случае перезвоните и объясните ситуацию, они должны отменить просьбу об отсылке флешки продавцу * В тексте жалобы укажите: 1. eBay item number 2. Имя продавца на eBay 3. Ваше имя на eBay 4. Результаты программы H2testw 5. Описание лота если он уже был удален на eBay 6. Полный адрес продавца (если он у вас есть) 7. Описание проблем при работе с флешкой и ваше впечатления о ее качестве (необязательно) Согласно отзывам пользователей, PayPal в курсе многочисленных проблем с флешками и в большинстве случаев становится на сторону покупателя. Мои жалобы пока-что еще рассматриваются. Когда уже совсем нечего терять, можно попробовать исправить флешку, вернуть ее к исходному состоянию. [Тут](http://fixfakeflash.wordpress.com/) описано на английском, я сам пока не пробовал. **Как не попасться на удочку мошеннику?** * Обращайте внимание на количество и качество отзывов. Если их меньше пары тысяч — не покупайте * Посмотрите последние негативные отзывы. Так как сам eBay не позволяет фильтровать отзывы, можно воспользоваться сайтом <http://www.toolhaus.org> * Обратите внимание на дату регистрации продавца. Не покупайте у недавно зарегистрированных * Не покупайте у продавцов из Гонконга и Китая, слишком высокий риск получить подделку * Проверьте, что продавца нет в списке тех, которые были замечены в продаже подделок (ссылка динамическая, в конце статьи) * Проверьте, что вашей флешки и продавца нет в [официальном отчете подделок флешек от eBay за 2008 год](http://sosfakeflash.files.wordpress.com/2009/01/ebay-fake-flash-sellers-200804-200812-mugshot-report.pdf). Продавцы подделок часто используют одни и те же картинки, причем специально размытые или отредактированные. * проверьте, можете ли вы видеть имена остальных участников при просмотре ставок. Если вы вместо реальных имен видите что-то типа «Bidder 1», «Bidder 2» — это значит, что продавец включил опцию скрытия реальных имен покупателей. Обычно такая опция используется при продаже дорогих вещей или лекарств, где нежелательно, чтобы другие пользователи видели имена конкурентов. Продавцы же подделок используют эту возможность, чтобы другие пользователи не могли предупредить о подделке делающих ставки. * Запомните, максимальный объем флешки на сегодняшний день — 64GB, все что больше — 100% подделка **Полезные ссылки, к сожалению все на английском** <http://sosfakeflash.wordpress.com> — сайт посвященный борьбе с поддельными флешками. Слева в группе «Quick links» ссылка «eBay Fakes — Seller List» ведет на текущий список продавцов, замеченых в продаже подделок. <http://www.toolhaus.org> — различные инструменты для удобной фильтрации отзывов о продавцах [h2testw\_1.4.zip](http://www.heise.de/ct/Redaktion/bo/downloads/h2testw_1.4.zip) — программа для тестирования флешек **update**: <http://www.ebay-forum.ru> — форум на русском, посвященный eBay. PS. Первый пост на Хабре, буду рад прочитать ваши отзывы.
https://habr.com/ru/post/55990/
null
ru
null
# WireGuard «придет» в ядро Linux — почему? В конце июля разработчики VPN-туннеля WireGuard предложили [набор патчей](https://git.kernel.org/pub/scm/linux/kernel/git/zx2c4/linux.git/commit/?h=jd/wireguard&id=f19531431a28c98c47462a81c8c203e9d88e493b), которые сделают их ПО для организации VPN-туннелей частью ядра Linux. Однако точная дата реализации «задумки» пока остается неизвестной. Под катом поговорим об этом инструменте подробнее. [![](https://habrastorage.org/r/w780q1/webt/fx/kz/zc/fxkzzcbbuj_t6v-lbx8hmb8bocu.jpeg)](https://habr.com/company/it-grad/blog/419769/) */ фото [Tambako The Jaguar](https://www.flickr.com/photos/tambako/27912453388/) [CC](https://creativecommons.org/licenses/by-nd/2.0/')* Кратко о проекте ---------------- WireGuard — VPN-туннель нового поколения, созданный Джейсоном Доненфельдом (Jason A. Donenfeld), главой компании Edge Security. Проект разрабатывался как [упрощенная](https://www.xda-developers.com/wireguard-vpn-project-support-android-roms/) и шустрая альтернатива OpenVPN и IPsec. Первая версия продукта содержала всего 4 тыс. строк кода. Для сравнения, в OpenVPN порядка 120 тыс. строк, а в IPSec — 420 тыс. По [словам](https://marc.info/?l=linux-netdev&m=153306429108040&w=2) разработчиков, WireGuard несложно настроить, а безопасность протокола достигается [за счет проверенных криптографических алгоритмов](https://www.wireguard.com/formal-verification/). [При смене сети](https://techcrunch.com/2018/07/28/how-i-made-my-own-wireguard-vpn-server/): Wi-Fi, LTE или Ethernet нужно каждый раз переподключаться к VPN-серверу. Серверы WireGuard же не разрывают соединение, даже если пользователь получил новый IP-адрес. Несмотря на то что WireGuard изначально заточен под Linux-ядро, разработчики [позаботились](https://www.xda-developers.com/wireguard-vpn-project-support-android-roms/) и о портативной версии инструмента для Android-устройств. Приложение пока недоработано, однако попробовать его в деле можно уже сейчас. Для этого нужно [стать одним из тестеров](https://play.google.com/apps/testing/com.wireguard.android). В целом WireGuard пользуется довольно большой популярностью и даже был [реализован](https://en.wikipedia.org/wiki/WireGuard) несколькими VPN-провайдерами, например Mullvad и AzireVPNВ. В сети опубликовано [большое количество](https://news.ycombinator.com/item?id=17689188) [руководств по настройке](https://www.stavros.io/posts/how-to-configure-wireguard/) этого решения. Например, [есть гайды](https://www.stavros.io/posts/how-to-configure-wireguard/), которые создают пользователи, а есть гайды, [подготовленные авторами проекта](https://www.wireguard.com/quickstart/). Технические подробности ----------------------- В [официальной документации](https://www.wireguard.com/papers/wireguard.pdf) (стр.18) отмечено, что пропускная способность у WireGuard в четыре раза выше, чем у OpenVPN: 1011 Мбит/с против 258 Мбит/с соответственно. WireGuard опережает и стандартное решение для Linux IPsec ― у того 881 Мбит/с. Превосходит он его и по простоте настройки. После обмена ключами (VPN-подключение инициализируется почти как в SSH) и установления соединения WireGuard самостоятельно решает все остальные задачи: нет необходимости беспокоиться маршрутизации, контроле состояния и др. Дополнительные усилия на настройку понадобится приложить только в том случае, если хочется задействовать симметричное шифрование. ![](https://habrastorage.org/r/w780q1/webt/-c/2m/nd/-c2mnd3bfapgmgm5u7svoxpip54.jpeg) */ фото [Anders Hojbjerg](https://www.flickr.com/photos/113412901@N02/11755015714/) [CC](https://creativecommons.org/licenses/by/2.0/)* Для установки понадобится дистрибутив с ядром Linux «старше» 4.1. Его можно найти в репозиториях основных дистрибутивов Linux. ``` $ sudo add-apt-repository ppa:hda-me/wireguard $ sudo apt update $ sudo apt install wireguard-dkms wireguard-tools ``` Как отмечают редакторы xakep.ru, самостоятельная сборка из исходных текстов также несложна. Достаточно поднять интерфейс и сгенерировать открытый и закрытый ключи: ``` $ sudo ip link add dev wg0 type wireguard $ wg genkey | tee privatekey | wg pubkey > publickey ``` WireGuard [не использует](https://lwn.net/Articles/693015/) интерфейс для работы с криптопровайдером [CryptoAPI](https://ru.wikipedia.org/wiki/CryptoAPI). Вместо него, используется поточный шифр [ChaCha20](https://ru.wikipedia.org/wiki/Salsa20#ChaCha), криптографическая [имитовставка](https://ru.wikipedia.org/wiki/%D0%98%D0%BC%D0%B8%D1%82%D0%BE%D0%B2%D1%81%D1%82%D0%B0%D0%B2%D0%BA%D0%B0) Poly1305 и собственные криптографические хеш-функции. Секретный ключ генерируется с применением [протокола Диффи — Хеллмана](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%82%D0%BE%D0%BA%D0%BE%D0%BB_%D0%94%D0%B8%D1%84%D1%84%D0%B8_%E2%80%94_%D0%A5%D0%B5%D0%BB%D0%BB%D0%BC%D0%B0%D0%BD%D0%B0) на базе эллиптической кривой [Curve25519](https://en.wikipedia.org/wiki/Curve25519). При хешировании задействуются [хеш-функции](https://ru.wikipedia.org/wiki/%D0%9A%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%85%D0%B5%D1%88-%D1%84%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F) [BLAKE2](https://blake2.net/) и [SipHash](https://131002.net/siphash/). За счет формата меток времени [TAI64N](https://www.wireguard.com/protocol/) протокол отбрасывает пакеты с меньшим значением timestamp, тем самым [предотвращая DoS-](https://www.wireguard.com/protocol/#dos-mitigation) и [replay-атаки](https://ru.wikipedia.org/wiki/%D0%90%D1%82%D0%B0%D0%BA%D0%B0_%D0%BF%D0%BE%D0%B2%D1%82%D0%BE%D1%80%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B2%D0%BE%D1%81%D0%BF%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D1%8F). При этом WireGuard задействует функцию ioctl для контроля ввода/вывода (раньше использовался [Netlink](https://en.wikipedia.org/wiki/Netlink)), что делает код чище и проще. Убедиться в этом можно, заглянув в [код конфигурации](https://git.zx2c4.com/WireGuard/tree/src/config.c?id=f5464cd9cbbd5e3f6229b7cdf7cc8ea0a7e59186). Планы разработчиков ------------------- Пока что WireGuard — это out-of-tree модуль ядра. Но автор проекта Джейсон Доненфельд [говорит](https://marc.info/?l=linux-netdev&m=153306429108040&w=2), что уже настало время для полноценной реализации в ядре Linux. Так как он проще и надежнее других решений. Джейсона в этом плане [поддерживает](http://lists.openwall.net/netdev/2018/08/02/124) даже сам Линус Торвальдс — он назвал код WireGuard «произведением искусства». Но о точных датах внедрения WireGuard в ядро пока никто не говорит. И [едва ли](https://habr.com/company/it-grad/blog/417155/) это случится с выходом августовского Linux kernel 4.18. Однако есть вероятность, что это произойдет в самом ближайшем будущем: в версии 4.19 или 5.0. Когда WireGuard будет добавлен в ядро, разработчики [хотят](https://www.wireguard.com/todo/) доработать приложение для Android-устройств и начать писать приложение под iOS. Кроме того, планируется завершить реализации на Go и Rust и портировать их на macOS, Windows и BSD. Также планируется реализация WireGuard для более «экзотических систем»: [DPDK](https://en.wikipedia.org/wiki/Data_Plane_Development_Kit), [FPGA](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D1%83%D0%B5%D0%BC%D0%B0%D1%8F_%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D1%82%D0%B5%D0%BB%D0%B5%D0%BC_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0), а также множество других занятных вещей. Все они перечислены в [to-do-списке](https://www.wireguard.com/todo/) авторов проекта. --- *P.S. Ещё несколько статей из нашего корпоративного блога: * [Облачные технологии в финансовой сфере: опыт российских компаний](https://iaas-blog.it-grad.ru/kejsy/oblachnye-texnologii-v-finansovoj-sfere-opyt-rossijskix-kompanij/) * [Тестирование дисковой системы в облаке](https://iaas-blog.it-grad.ru/proizvoditelnost/testirovanie-diskovoj-sistemy-v-oblake/) * [Что скрывается за термином vCloud Director – взгляд изнутри](https://iaas-blog.it-grad.ru/funkcionalnost/chto_skryvaetsa_za_terminom_vcloud_director_vzglyad_isnutri/)* --- *Основное направление нашей деятельности — предоставление облачных сервисов: [Виртуальная инфраструктура (IaaS)](https://www.it-grad.ru/services/iaas/iaas-vmware-virtual-infrastructure/) | [PCI DSS хостинг](https://www.it-grad.ru/services/iaas/pci-dss/) | [Облако ФЗ-152](https://www.it-grad.ru/services/iaas/fz-152/) | [SAP-хостинг](https://www.it-grad.ru/services/iaas/sap/) | [Виртуальная СХД](https://www.it-grad.ru/services/ready-solutions/svm/) | [Шифрование данных в облаке](https://www.it-grad.ru/services/iaas/encrypted-cloud/) | [Облачное хранилище](https://www.it-grad.ru/services/iaas/cloud-file-storage/)*
https://habr.com/ru/post/419769/
null
ru
null
# Сам себе DynDNS или реализация Managed DNS посредством PowerShell На улице сейчас прекрасные солнечные дни, так что большую часть своего времени я стал проводить вне своего дома с широким каналом, а где-нибудь в парке с нетбуком и 4g модемом. Это несомненно лучше для моего здоровья, но, тем не менее, большие файлы скачивать все-таки хочется, так что пришлось искать варианты способов для организации доступа в мою домашнюю сеть извне. Замечу сразу, что мой провайдер выдает своим пользователям *динамические белые* IPv4 адреса (к счастью, при вводе в эксплуатацию IPv6 необходимость в такого рода извращениях автоматически пропадет). Задачи, стоявшие передо мной: 1. Доступ ко всем компьютерам в сети 2. Поддержка всех протоколов 3. Легкость использования Слово о структуре моей домашней сети: Компьютеры (Win 7 + Win XP) -> Роутер (ZyXEL Keenetic 4G (прошивка v2.00)) -> L2TP VPN -> Интернет. Для организации доступа такого рода доступны несколько вариантов: 1. VPN по типу [LogMeIn Hamachi](https://secure.logmein.com/RU/products/hamachi/) 2. Сервисы динамического DNS + проброс портов на роутере 3. Велосипед: передача внешнего IP вовне + проброс портов на роутере В процессе рассмотрения первый вариант отпал почти сразу, так как он не бесплатный, а так же дает доступ только к устройствам вообще ко всем, добавленным в сеть, что удобства точно не прибавляет. Второй вариант отпал уже после более долгого рассмотрения, в ходе которого проявились некоторые недостатки: * Доступ только к одному копьютеру * Доступ обеспечивается не обрашением к IP, а через фрейм, что сильно урезает возможности использования * Возможно перенаправление только HTTP, что не есть хорошо Остается только третий вариант, значит мы будем городить свое решение для своих задач. Для их выполнения нужно: во-первых, узнать текущий внешний IP, во-вторых передать его куда-нибудь вовне, и наконец — передать пакеты через домашний NAT. Если с последней задачей можно справиться средствами, которые есть у каждого роутера, то вот с первыми двумя разобраться уже посложнее. Итак, после коротких раздумий для создания скрипта было решено использовать PowerShell, который является встроенным в Windows 7/8 инструментом, в XP или Vista его можно доустановить. Для получения внешнего адреса использовался сайт [myip.ru](http://myip.ru), вывод которого разбирался регекспом: `$ipsite = (new-object net.webclient).DownloadString("http://myip.ru") е if ($ipsite -cmatch '(?s)([0-9]{1,3}?\.[0-9]{1,3}?\.[0-9]{1,3}?\.[0-9]{1,3}?)') { $ip = $matches[1] } else {о Write-Error "Cannot get ip!"; return }` Теперь, когда мы знаем наш IP адрес, нам нужно передать его вовне. Для этого, после недолгих раздумий, я решил использовать Dropbox. Но с его использованием есть одна проблема: я хотел создать файл html, содержаший ссылки к нужным мне ресурсам домашней сети, но Dropbox не показывает html, созданные из России (с российских IP). После некоторого поиска выяснилось, что он вполне себе отдает файлы xhtml, так что оставалось лишь переверстать шаблон и добавить его в скрипт. Финальная версия скрипта представлена по [ссылке](http://pastebin.com/Ea9U067j). Для автоматического запуска скрипта используется стандартный планировщик задач, запускающий скрипт раз в 10 минут. Сохраняться файл должен в папку Public или ее подпапки. Для того, чтобы упростить доступ к этому файлу, и не выучивать наизусть длинную ссылку на него, я воспользовался bit.ly и создал там bitmark с запоминающимся адресом.
https://habr.com/ru/post/146079/
null
ru
null
# Как мы следим за скоростью регресса ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2b0/1ef/df3/2b01efdf3be4ec7e53b0ee4f9a97df2c.png)### Зачем мониторить время прохождения тестов? Для начала разберёмся, почему мы вообще решили отслеживать скорость прохождения регрессионных тестов. Если бы у нас их было немного, мы бы об этом, вероятно, даже не думали. Но когда у тебя 27 000 тестов, а их общее время прохождения доходит до 2-3 часов, начинаешь задумываться. Мы в команде задались вопросом, есть ли тесты, которые можно ускорить, и, если да, то как их быстро найти. Кроме того, важно было понять, всегда ли тест проходит за одно и то же время или это произошло один раз – для этого нужно было увидеть историю теста. Теперь давайте оценим масштаб. Для справки: в качестве сервера непрерывной интеграции (CI) мы используем Bamboo. Для функциональных тестов отведено 25 планов, в среднем по 2-3 задания. Следовательно, для просмотра тестов вручную требуется каждый раз просматривать минимум 50 заданий – и это только за одну дату, а если нужна история, то придётся смотреть и предыдущие запуски. ### Как решаем задачу Чтобы решить эту задачу, я написал плагин, который собирает всю необходимую информацию с CI. За выгрузку и хранение данных отвечает [Prometheus](https://prometheus.io/). Данные там по умолчанию хранятся 2 недели, что нас вполне устраивает. Чтобы иметь возможность управлять сбором метрик с заданий, я добавил в плагин задачу: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ca7/8e6/d5e/ca78e6d5e02edd84056cc96c470add1c.png)**Test Type** – обычная метка, которую можно использовать для дополнительной фильтрации. **Plan Name** – имя плана. При копировании плана разработчик и тестировщик, как правило, указывают другое имя, чтобы не запутать себя и других. Во время сбора текущее имя плана сверяется с именем, указанным в этом поле. Если имена не совпадают, то метрики игнорируются, т.к. собирать информацию с копий планов не хотелось (если только этого не захочет человек – тогда ему нужно указать действительное имя плана). **Border** – нижняя граница времени прохождения тестов, время задаётся в секундах. Нам нет смысла собирать информацию о тесте, если время прохождения меньше или равно 5 секундам, а таких тестов много, поэтому и решено было добавить фильтр на этапе сбора. В итоге после прогона тестов со стороны Bamboo получаем метрики в таком виде: `{` `"TestName":"",` `"Branch":"master",` `"ClassName":"",` `"Value":"13.0",` `"TestType":"plugin",` `"Job":"",` `"Plan":""` `},` `{` `"TestName":"",` `"Branch":"master",` `"ClassName":"",` `"Value":"10.0",` `"TestType":"plugin",` `"Job":"",` `"Plan":""` `}` На стороне Prometheus это выглядит следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fa1/4e9/3d4/fa14e93d44185bddb255aaadde082b0c.png)### Удаление метрик из Prometheus После того, как всё было настроено, от команды поступило дополнительное требование: добавить возможность быстрого удаления метрики из Prometheus. Для этого я написал второй плагин, встроив в Bamboo две кнопки. Эти кнопки отображаются на странице Bamboo administration: Prometheus settings открывает страницу, на которой должен быть указан url до Prometheus, Table with time of passing tests – страница с метриками. На самой странице в шапке есть возможность указать одно из значений метрики, и список будет автоматически фильтроваться ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/664/63d/dbe/66463ddbec4d86357ad88f9d1e497eb3.png)**Clear** – очищает только поля для фильтрации. **Remove** – удаляет метрики согласно выставленному фильтру. Сам по себе мониторинг даёт только общую картину. Когда знаешь, какой конкретно тест идёт долгое время, становится интересно, на каком шаге произошло замедление – и тут нам помогает уже ранее внедрённый [Allure Framework](https://docs.qameta.io/allure/). В отчёте, который генерирует Allure, для каждого метода, помеченного аннотацией @Step, отображается время, за которое этот метод выполняется. ### Сбор статистики для планов с тестами Позднее возникла потребность в отслеживании состояния планов, которые участвуют в прогоне тестов. Решили выделить 6 метрик: * время прохождения каждого задания плана с тестами; * время ожидания заданий; * количество тестов в каждом задании; * общее количество тестов; * общее время всех планов с учётом параллельности их выполнения; * задания, в которых тесты не смогли запуститься. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/09a/181/07f/09a18107f623cd0afa5f7b3558c95b54.png)Общие метрики: суммарное количество тестов и итоговое время прохождения всех планов – используются для отслеживания результирующей динамики, чтобы подвести итоги и узнать, за какое время проходит регресс. Остальные 4 метрики уже используются для конкретных целей. По метрикам видно, сколько времени задания стоят в очереди, сколько уходит на выполнение, сколько тестов задание выполняет. Если во время запуска задания произошла ошибка и тесты не смогли запуститься, то на отдельной панели это тоже будет видно. Чтобы собирать данные только в момент запуска регресса, при этом игнорируя перезапуски планов (иначе вычислять реальное время регресса было бы куда сложнее), было решено ввести дополнительную задачу. Она выполняется в плане по сборке проекта и устанавливает некой переменной значение true. Затем проект по сборке запускает все необходимые планы с тестами. Когда план заканчивает выполнение, плагин проверяет наличие задачи, описанной выше, для сбора статистики по тестам. Так происходит фильтрация, с каких именно заданий собирать данные. Если значение некой переменной true, то все необходимые данные задания сохраняются. Для подсчёта суммарного времени регресса регистрируется время задания в момент постановки в очередь и в момент завершения. Далее при выводе финального графика берётся разница между максимальным временем завершения и минимальным временем запуска заданий. ### Итог Система, в целом, получилась довольно удобная: всё наглядно, информация быстро и легко фильтруется, нет проблем с хранением данных, нет необходимости как-то помечать тест, чтобы за ним следили, а в новые задания необходимо добавить только одну дополнительную задачу. Кроме вышеперечисленных метрик ещё собирается информация об упавших тестах. В качестве развития в будущем планируем сделать автоматическое заведение задач в jira для упавших тестов, сократив таким образом время на создание задач и сбор логов – командам на доску будут прилетать уже готовые задачи со ссылкой на упавший план и stacktrace падения. Спасибо за внимание!
https://habr.com/ru/post/657025/
null
ru
null
# Пережить отпуск Многие в нашей сфере не очень то любят отдыхать. Интернет развивается семимильными шагами, порой 2-х недельный отпуск может обернуться «опазданием» старта очередного проекта и как следствием — потери денег. Однако лично я уверен, что отпуск это святое =) Я не очень то люблю море и пляжи, но с удовольствием торчу в бассейне, пью турецкий вискарь и играю в настольный теннис. (сразу оговорюсь, далее в контексте турция = отпуск) И тут возникает другая проблема, как поддерживать проекты, когда рядом никого? Из турции в интернет кафе — не вариант. Ибо тогда я буду торчать там сутками, смысл ехать в отпуск? Просить друзей выход, конечно, но мы же живем в 21 веке блин. Расскажу как я отчалил на 2 недели и оставил развиваться свой basher.ru, который без ежедневных обновлений теряет смысл... Напомню, что basher.ru является агрегатором таких ресурсов как [bash.org.ru](http://bash.org.ru), [quotes.dirty.ru](http://quotes.dirty.ru), [ibash.org.ru](http://ibash.org.ru), [lorquotes.ru](http://lorquotes.ru) и некоторых других. Соответственно для жизни проекта важно, чтобы обновления были своевременные. Я написал не сложные парсеры, которые собирают цитаты с определенной переодичностью. Однако ребята с [bash.org.ru](http://bash.org.ru) тут же забанили ip серверака и оттуда цитаты собираться перестали. На носу был отпуск и нужно было что-то думать и как-то решать проблему. Решение нашлось достаточно быстро — поднять прокси на локальной машине и ботами на сервере стучатся через прокси. Сказано — сделано. [Качаем 3proxy](http://3proxy.ru/download/) под нужную нам ось и конфигурим его. Мой конфиг выглядит очень просто: `nserver 192.168.1.1 nscache 65536 service log c:\3p\bin\3proxy.log logformat "L%C - %U [%d/%o/%Y:%H:%M:%S %z] ""%T"" %E %I %O %N/%R:%r" auth iponly deny all allow * 217.65.2.216 allow * 192.168.* proxy -a` Сначало указываем dns сервер и место под кеш, команда service указывает на установку прокси как сервис (для слабых windows осей или одноразового использования можно запускать и как приложение. Аналогично для никсов). auth iponly — пускать только с определенных ip, которые указаны ниже (соответственно 217.65.2.216 адрес сервера, 192.168.\* — локалка). -a флаг говорит 3proxy о полной анонимности, не будут передаваться заголовки вроде X\_FORWARDED\_FOR итп. Вот и все. После написания конфига устанавливаем 3proxy и все готово. Проблема вторая — динамический ip. Сначало, это казалось минусом, ибо я еще несколько часов не мог вспомнить про волшебный сервис dyndns.com. Теперь же я понимаю что это громадный плюс. Ведь чтобы избавиться от моих ботов, «честным» владельцам ресурсов прийдется банить весь Стрим… Но сейчас не о этом. Интернет мне раздает [волшебное устройство от ZyXel](http://zyxel.ru/content/catalogue/soho/center/adsl/204). На мое удивление, оно уже умело работать с сервисом dyndns.com, имело подробную инструкцию по работе с ним и удобный интерфейс. Напомню, что dyndns.com это сервис, который раздает домены третьего уровня динамическим ip. Все просто, вы регистрируетесь, выбираете себе домен, устанавливаете их ПО, которое при каждом подключении сообщает ваш ip, и имеете домен третьего уровня. Т.е. как только вы вошли в сети, dyndns.com обновляет данные о местонахождении компа blablabal.blogdns.net, например, и любой пользователь сети может обращаться к вашему компу по домену. Дак вот, в моем случае мне не пришлось даже устанавливать ПО, я просто скормил зукселю реквизиты доступа на dyndns.com и настроил NAT на свой внутренний ip (все подробности и тонкости есть на их русскоязычном форуме). Вот и все. Оставалось скормить скрипту адрес (домен) и порт для прокси и теперь серверные боты ходят за цитатами через прокси, т.е. через локальный комп. Да, комп требует быть постоянно включенным и в сети, чтобы эта схема работала. Но на самом деле я уже не помню, когда последний раз выключал компьютер. В крайнем случае можно пойти на рынок, купить старючий пенёк за 1000 рублей, сунуть его за шкаф и воткнуть в него оптоволокно. Но не суть. Для пущей верности в биосе настроил «будильник» для компа на 7 утра каждый день. Мало ли электричество вырубится и уехал со спокойной душей. Оставалось решить одну лишь проблему, как все это дотащить до самолета: ![](https://habrastorage.org/r/w780q1/getpro/habr/olpictures/cb9/dd3/f56/cb9dd3f569c8b5a86af9414e0a6f106e.jpg)
https://habr.com/ru/post/15120/
null
ru
null
# Лог файлы Linux по порядку Невозможно представить себе пользователя и администратора сервера, или даже рабочей станции на основе Linux, который никогда не читал лог файлы. Операционная система и работающие приложения постоянно создают различные типы сообщений, которые регистрируются в различных файлах журналов. Умение определить нужный файл журнала и что искать в нем поможет существенно сэкономить время и быстрее устранить ошибку. ![](https://habrastorage.org/r/w1560/web/06c/d90/a84/06cd90a8459e46ce91111c269428614a.png) Журналирование является основным источником информации о работе системы и ее ошибках. В этом кратком руководстве рассмотрим основные аспекты журналирования операционной системы, структуру каталогов, программы для чтения и обзора логов. ### Основные лог файлы Все файлы журналов, можно отнести к одной из следующих категорий: * приложения; * события; * службы; * системный. Большинство же лог файлов содержится в директории `/var/log`. * **/var/log/syslog** или **/var/log/messages** содержит глобальный системный журнал, в котором пишутся сообщения с момента запуска системы, от ядра Linux, различных служб, обнаруженных устройствах, сетевых интерфейсов и много другого. * **/var/log/auth.log** или **/var/log/secure** — информация об авторизации пользователей, включая удачные и неудачные попытки входа в систему, а также задействованные механизмы аутентификации. * **/var/log/dmesg** — драйвера устройств. Одноименной командой можно просмотреть вывод содержимого файла. Размер журнала ограничен, когда файл достигнет своего предела, старые сообщения будут перезаписаны более новыми. Задав ключ `--level=` можно отфильтровать вывод по критерию значимости. ``` Поддерживаемые уровни журналирования (приоритеты): emerg - система неиспользуемая alert - действие должно быть произведено немедленно crit - условия критичности err - условия ошибок warn - условия предупреждений notice - обычные, но значимые условия info - информационный debug - отладочные сообщения (5:520)$ dmesg -l err [1131424.604352] usb 1-1.1: 2:1: cannot get freq at ep 0x1 [1131424.666013] usb 1-1.1: 1:1: cannot get freq at ep 0x81 [1131424.749378] usb 1-1.1: 1:1: cannot get freq at ep 0x81 ``` * **/var/log/alternatives.log** — Вывод программы `update-alternatives`, в котором находятся символические ссылки на команды или библиотеки по умолчанию. * **/var/log/anaconda.log** — Записи, зарегистрированные во время установки системы. * **/var/log/audit** — Записи, созданные службой аудита `auditd`. * **/var/log/boot.log** — Информация, которая пишется при загрузке операционной системы. * **/var/log/cron** — Отчет службы `crond` об исполняемых командах и сообщения от самих команд. * **/var/log/cups** — Все, что связано с печатью и принтерами. * **/var/log/faillog** — Неудачные попытки входа в систему. Очень полезно при проверке угроз в системе безопасности, хакерских атаках, попыток взлома методом перебора. Прочитать содержимое можно с помощью команды `faillog`. * **var/log/kern.log** — Журнал содержит сообщения от ядра и предупреждения, которые могут быть полезны при устранении ошибок пользовательских модулей встроенных в ядро. * **/var/log/maillog/** или **/var/log/mail.log** — Журнал почтового сервера, используемого на ОС. * **/var/log/pm-powersave.log** — Сообщения службы экономии заряда батареи. * **/var/log/samba/** — Логи файлового сервера `Samba`, который используется для доступа к общим папкам Windows и предоставления доступа пользователям Windows к общим папкам Linux. * **/var/log/spooler** — Для представителей старой школы, содержит сообщения USENET. Чаще всего бывает пустым и заброшенным. * **/var/log/Xorg.0.log** — Логи X сервера. Чаще всего бесполезны, но если в них есть строки начинающиеся с EE, то следует обратить на них внимание. Для каждого дистрибутива будет отдельный журнал менеджера пакетов. * **/var/log/yum.log** — Для программ установленных с помощью `Yum` в RedHat Linux. * **/var/log/emerge.log** — Для `ebuild`-ов установленных из `Portage` с помощью `emerge` в Gentoo Linux. * **/var/log/dpkg.log** — Для программ установленных с помощью `dpkg` в Debian Linux и всем семействе родственных дистрибутивах. И немного бинарных журналов учета пользовательских сессий. * **/var/log/lastlog** — Последняя сессия пользователей. Прочитать можно командой `last`. * **/var/log/tallylog** — Аудит неудачных попыток входа в систему. Вывод на экран с помощью утилиты `pam_tally2`. * **/var/log/btmp** — Еже один журнал записи неудачных попыток входа в систему. Просто так, на всякий случай, если вы еще не догадались где следует искать следы активности взломщиков. * **/var/log/utmp** — Список входов пользователей в систему на данный момент. * **/var/log/wtmp** — Еще один журнал записи входа пользователей в систему. Вывод на экран командой `utmpdump`. ``` (5:535)$ sudo utmpdump /var/log/wtmp [5] [02187] [l0 ] [ ] [4.0.5-gentoo ] [0.0.0.0 ] [Вт авг 11 16:50:07 2015] [1] [00000] [~~ ] [shutdown] [4.0.5-gentoo ] [0.0.0.0 ] [Вт авг 11 16:50:08 2015] [2] [00000] [~~ ] [reboot ] [3.18.12-gentoo ] [0.0.0.0 ] [Вт авг 11 16:50:57 2015] [8] [00368] [rc ] [ ] [3.18.12-gentoo ] [0.0.0.0 ] [Вт авг 11 16:50:57 2015] [1] [20019] [~~ ] [runlevel] [3.18.12-gentoo ] [0.0.0.0 ] [Вт авг 11 16:50:57 2015] ``` #### И другие журналы Так как операционная система, даже такая замечательная как Linux, сама по себе никакой ощутимой пользы не несет в себе, то скорее всего на сервере или рабочей станции будет крутится база данных, веб сервер, разнообразные приложения. Каждое приложения или служба может иметь свой собственный файл или каталог журналов событий и ошибок. Всех их естественно невозможно перечислить, лишь некоторые. * **/var/log/mysql/** — Лог базы данных MySQL. * **/var/log/httpd/** или **/var/log/apache2/** — Лог веб сервера Apache, журнал доступа находится в `access_log`, а ошибки — в `error_log`. * **/var/log/lighthttpd/** — Лог веб сервера lighttpd. В домашнем каталоге пользователя могут находится журналы графических приложений, DE. * **~/.xsession-errors** — Вывод `stderr` графических приложений X11. ``` Initializing "kcm_input" : "kcminit_mouse" Initializing "kcm_access" : "kcminit_access" Initializing "kcm_kgamma" : "kcminit_kgamma" QXcbConnection: XCB error: 3 (BadWindow), sequence: 181, resource id: 10486050, major code: 20 (GetProperty), minor code: 0 kf5.kcoreaddons.kaboutdata: Could not initialize the equivalent properties of Q*Application: no instance (yet) existing. QXcbConnection: XCB error: 3 (BadWindow), sequence: 181, resource id: 10486050, major code: 20 (GetProperty), minor code: 0 Qt: Session management error: networkIdsList argument is NULL ``` * **~/.xfce4-session.verbose-log** — Сообщения рабочего стола XFCE4. #### Чем просматривать — lnav Почти все знают об утилите `less` и команде `tail -f`. Также для этих целей сгодится редактор `vim` и файловый менеджер Midnight Commander. У всех есть свои недостатки: `less` неважно обрабатывает журналы с длинными строками, принимая их за бинарники. Midnight Commander годится только для беглого просмотра, когда нет необходимости искать по сложному шаблону и переходить помногу взад и вперед между совпадениями. Редактор `vim` понимает и подсвечивает синтаксис множества форматов, но если журнал часто обновляется, то появляются отвлекающие внимания сообщения об изменениях в файле. Впрочем это легко можно обойти с помощью `<:view /path/to/file>`. Недавно я обнаружил еще одну годную и многообещающую, но слегка еще сыроватую, утилиту — *lnav*, в расшифровке Log File Navigator. ![](https://habrastorage.org/r/w1560/web/9e8/88d/1c7/9e888d1c78a447deb83451a5e661f381.png) Установка пакета как обычно одной командой. ``` $ aptitude install lnav #Debian/Ubuntu/LinuxMint $ yum install lnav #RedHat/CentOS $ dnf install lnav #Fedora $ emerge -av lnav #Gentoo, нужно добавить в файл package.accept_keywords $ yaourt -S lnav #Arch ``` Навигатор журналов *lnav* понимает ряд форматов файлов. * Access\_log веб сервера. * CUPS page\_log * Syslog * glog * dpkg.log * strace * Произвольные записи с временными отметками * gzip, bzip * Журнал VMWare ESXi/vCenter Что в данном случае означает понимание форматов файлов? Фокус в том, что *lnav* больше чем утилита для просмотра текстовых файлов. Программа умеет кое что еще. Можно открывать несколько файлов сразу и переключаться между ними. ``` (5:471)$ sudo lnav /var/log/pm-powersave.log /var/log/pm-suspend.log ``` Программа умеет напрямую открывать архивный файл. ``` (5:471)$ lnav -r /var/log/Xorg.0.log.old.gz ``` Показывает гистограмму информативных сообщений, предупреждений и ошибок, если нажать клавишу . Это с моего syslog-а. ``` Mon May 02 20:25:00 123 normal 3 errors 0 warnings 0 marks Mon May 02 22:40:00 2 normal 0 errors 0 warnings 0 marks Mon May 02 23:25:00 10 normal 0 errors 0 warnings 0 marks Tue May 03 07:25:00 96 normal 3 errors 0 warnings 0 marks Tue May 03 23:50:00 10 normal 0 errors 0 warnings 0 marks Wed May 04 07:40:00 96 normal 3 errors 0 warnings 0 marks Wed May 04 08:30:00 2 normal 0 errors 0 warnings 0 marks Wed May 04 10:40:00 10 normal 0 errors 0 warnings 0 marks Wed May 04 11:50:00 126 normal 2 errors 1 warnings 0 marks ``` Кроме этого поддерживается подсветка синтаксиса, дополнение по табу и разные полезности в статусной строке. К недостаткам можно отнести нестабильность поведения и зависания. Надеюсь *lnav* будет активно развиваться, очень полезная программа на мой взгляд. #### Использованные материалы 1. [lnav — An Advanced Log File viewer for Linux](http://www.2daygeek.com/install-and-use-advanced-log-file-viewer-navigator-lnav-in-linux/2/) 2. [What Are Linux Logs? How to View Them, Most Important Directories, and More](https://dzone.com/articles/what-are-linux-logs-how-to-view-them-most-importan) 3. [Как посмотреть логи в Linux](https://losst.ru/kak-posmotret-logi-v-linux)
https://habr.com/ru/post/332502/
null
ru
null
# Разбираем редкого зверя от Nvidia — DGX A100 ![](https://habrastorage.org/r/w1560/webt/v7/d9/wm/v7d9wm7hsp8ktdcpkuv8v_xl6aa.png) Крупные IT-компании располагают дорогими «игрушками», которые скрыты от взоров большинства пользователей. Сегодня мы приоткроем завесу тайны и расскажем про систему, которая оптимизирована для работы с искусственным интеллектом. Задачи ИИ предъявляют высокие требования к вычислительным и сетевым ресурсам, поэтому наш сегодняшний «гость» приятно порадует своей конфигурацией. Встречайте: NVIDIA DGX A100. Встречают по одежке ------------------- ![](https://habrastorage.org/r/w1560/webt/qu/_d/qf/qu_dqfzxnqz42pwz3iq77furugq.png)*Техника безопасности предписывает использовать механический лифт для работы с сервером* NVIDIA DGX A100 — это стоечный сервер, высотой в 6U и массой более 130 килограмм. Сервер даже в коробке способен повергнуть в легкий трепет. Большой корпус и красивый золотистый цвет притягивают взгляды проходящих мимо коллег. Сервер прибыл в сопровождении инженера, который оказывал нам как физическую, так и моральную поддержку. Пока наши сотрудники снимали упаковку и готовили инструменты для транспортировки сервера к месту установки, инженер рассказывал интересные факты об этом сервере. Так, техника безопасности предписывает использовать лифт для монтажа в стойку, а для разборки сервера нужно минимум два человека. ![](https://habrastorage.org/r/w1560/webt/9t/xy/rp/9txyrpzzx65taj9_snwjchmyhh0.png)*Количество портов ввода-вывода на этом сервере зашкаливает* Корпус сервера не открывается сверху. Вместо этого в задней части сервера есть два трея — это составные части сервера, которые содержат «начинку» сервера. Обратите внимание, что винты-фиксаторы треев в шасси окрашены в зеленый цвет, а фиксаторы крышки трея — в черный. В глаза бросается шесть блоков питания по 3 КВт каждый с возможностью горячей замены. Интересно, что максимальное заявленное энергопотребление — 6.5 КВт. Разгадка проста: блоки питания работают по схеме 3+3, то есть резервирование 2N. Большинство обычных корпусов для GPU предоставляют 4 блока питания и схему 3+1. На нижнем трее видно десять портов сетевых карт с пропускной способностью до 200 Гбит/с. По умолчанию двухпортовая карта сконфигурирована в режиме Ethernet, а остальные — в режиме Infiniband. Эти сетевые карты используются для объединения нескольких DGX в вычислительный кластер. У нас всего один DGX, поэтому порты не используются. > Один из суперкомпьютеров России, Кристофари, собран из 75 серверов DGX-2, в основе которого лежат графические ускорители предыдущего поколения. ![](https://habrastorage.org/r/w1560/webt/gx/j5/ez/gxj5ezsdgaa8_vnp9tdlx-odcck.png)*Восемь вентиляторов способны сдуть тебя, %USERNAME%* Передняя панель сервера выглядит ожидаемо для сервера с GPU: много больших вентиляторов. Они способны развивать скорость до 18000 оборотов в минуту, что позволяет эффективно охлаждать богатый внутренний мир сервера. Софт сервера сам управляет скоростью вращения вентиляторов и не предоставляет пользователю возможности вмешаться в этот процесс. > Сперва мы хотели попытаться запустить DGX самостоятельно, но, к сожалению, столкнулись с неожиданной проблемой. Во время пуско-наладочных работ сервер вывел ошибку связи с BMC и раскрутил все вентиляторы до 18 000 оборотов в минуту. При помощи сопровождающего инженера ошибка была устранена, и сервер стал работать в штатном режиме. Даже в процессе стресс-тестирования на такие обороты он больше не выходил. ![](https://habrastorage.org/r/w1560/webt/a2/gb/r2/a2gbr2iqikuwbq4jqdpbdsffrf4.png)*Фронтальная крышка на месте* Передняя панель закрывается специальной крышкой на магнитных креплениях. Издалека кажется, что на передней панели изображен белый шум, но на самом деле это металл с множеством отверстий, пропускающих воздух. > В ходе тестов было выявлено, что данная крышка не имеет значительного влияния на теплоотвод, вентиляторы сервера отлично справляются со своей работой. После внешнего осмотра сервер был перенесен на прочный стол и разобран. Филигранная техника ------------------- ![](https://habrastorage.org/r/w1560/webt/la/jt/b7/lajtb7kepqvz9zoei7axdouexds.png)*Специфические коннекторы GPU-трея* Как уже говорилось ранее, сервер состоит из двух треев: CPU и GPU. Каждый трей — это часть сервера, заключенная в свою железную коробку, которая установлена в шасси. Связь между треями, вентиляторами и корзинами на передней панели обеспечивает объединительная плата, установленная в корпусе. В некотором смысле DGX — это классическое blade-шасси, только вместо отдельных серверов (лезвий) устанавливаются части одного сервера. ![](https://habrastorage.org/r/w1560/webt/6c/p4/6t/6cp46t-jffo6acff_cyzkd1tqls.png)*GPU-трей. Много радиаторов* Вверху находится GPU-трей, занимающий 3U. Он тяжеловат даже для двух человек. На верхней крышке трея также есть предупреждающий знак о тяжести объекта и необходимости работать с ним вдвоем. В этом трее установлены восемь видеокарт NVIDIA Tesla A100 в модификации 40 GB. Их особенностью является форм-фактор SXM4. Данная версия видеокарты отличается мезонинным исполнением и повышенным тепловыделением: 400 Вт против 300 у PCIe-версии. Помимо восьми больших радиаторов видеокарт, на трее расположены шесть радиаторов поменьше. Эти радиаторы охлаждают микросхемы, которые реализуют интерконнект видеокарт. Технологии NVLINK и NVSWITCH соединяют восемь видеокарт многосвязной топологией (каждая видеокарта соединена с каждой) с пропускной способностью 600 Гбит/с. ![](https://habrastorage.org/r/w1560/webt/u2/hp/tr/u2hptrk4sxnqghlyjfudiaey-58.png)*CPU-трей. Здесь тоже много радиаторов* CPU-трей имеет два способа извлечения: полное и частичное. Во втором случае трей выезжает из шасси чуть больше чем на длину части с PCIe-слотами и фиксируется, а крышка трея открывается вверх. Это позволяет провести работы с сетевыми картами или накопителем для ОС, не извлекая трей целиком. Со стороны CPU-трей выглядит как обычный 2U сервер без блоков питания. Под большими радиаторами прячется пара процессоров AMD EPYC 7742, суммарно 128 физических ядер или 256 логических. Рядом стоят шестнадцать планок DDR4 с частотой 3200 МГц и объемом 64 ГБ каждая. Суммарный объем оперативной памяти 1 ТБ. Интересно, что радиаторы процессоров расположены друг за другом, то есть второй процессор охлаждается теплом первого. Тем не менее, с системой охлаждения DGX это выглядит незначительно. Непривычно большие радиаторы заметны и на этом трее. Взаимодействие с GPU-треем создает большую нагрузку на PCIe-мосты, которые тоже требуют охлаждения. ![](https://habrastorage.org/r/w1560/webt/wk/ir/if/wkirifwouzvsbkxcsrbh4mw7rd4.png)*Электронный город* Между слотами находится небольшая плата с максимальной плотностью электронных компонентов. Это выглядит как маленький электронный город. Здесь узнается чип ASPEED, который является «сердцем» BMC-модуля. Помимо этого, здесь есть модули доверенной загрузки, которые обеспечивают безопасность платформы. Существует «старшая» модификация DGX A100 на 640 ГБ видеопамяти. В ней объем оперативной памяти расширен до 2 ТБ, а также увеличен объем постоянного хранилища. На этом знакомство с внутренним миром DGX закончено. Давайте посмотрим на него в работе. Душа титана ----------- ![](https://habrastorage.org/r/w1560/webt/he/ts/um/hetsumdcji_t-j1ne-ac-3cuplu.png)*Для отображения всех ядер в htop разрешения 203x53 мало* В коробке с DGX лежит флешка, а на флешке — подготовленный образ операционной системы для начала работы. Основой образа является операционная система Ubuntu 20.04.3 LTS с предустановленными драйверами и специальными утилитами. Сервер, который мы запускаем, прошел длинный путь, в ходе которого был разобран и собран. После транспортировки и манипуляций стоит проверить целостность систем сервера. По регламенту установки операции, сопряженные с первым запуском DGX, должен проводить сопровождающий инженер, но нам было очень любопытно, поэтому все операции проводились совместно. Часть операций производится через утилиту *nvsm*, консольный интерфейс для nvidia system management. Всего одна команда проверит «теоретическое» состояние сервера: ``` nvsm show health ``` Команда проверяет все, до чего может «дотянуться», а именно: * наличие всех заявленных PCIe-устройств: NVMe, сетевых карт и видеокарт; * использование PCIe 4.0 и максимально доступного количества линий для каждого устройства; * топологию видеокарт и доступность всех соседей для каждой видеокарты через NVLINK; * количество установленных планок памяти и их P/N; * количество логических ядер процессора. В конце мы получили ожидаемую строчку о полном здоровье платформы. ``` Health Summary -------------- 168 out of 168 checks are healthy 0 out of 168 checks are unhealthy 0 out of 168 checks are unknown 0 out of 168 checks are informational Overall system status is healthy 100.0% [=========================================] Status: healthy ``` Следующий этап регламента — запуск стресс-теста. Это не только проверит систему в работе, но заодно предоставит нам информацию о максимальном практическом энергопотреблении и температуре на различных компонентах сервера. В этой задаче также помогает утилита *nvsm*. ``` nvsm stress-test ``` Стресс-тест сделан достаточно удобно. Утилита нагружает процессор, видеокарты, оперативную память и постоянное хранилище и начинает отслеживать системные события, температуры, обороты вентиляторов и энергопотребление. Через 20 минут, в конце теста, выводится табличка статистики. ``` System Resource Metrics Component Pre-test Min Avg Max Unit CPU_LOAD 76.65 0.69 87.79 103.12 % CPU_TEMP 46.50 46.50 66.61 68.50 C DISK_LOAD 0.11 0.00 16.44 37.87 % GPU_LOAD 0.00 0.00 84.72 100.00 % GPU_TEMP 33.13 33.13 62.49 67.88 C MEM_LOAD 0.88 0.88 74.11 89.56 % MEM_TEMP 33.75 33.75 36.10 36.75 C FANSPEED 4812.09 4812.09 7269.36 7538.64 RPM POWERDRAW 1586.00 1586.00 4437.73 4745.00 W System stress test successful. No alerts seen. ``` Здесь видно, что температура процессоров и видеокарт не превышала 69 градусов, при этом вентиляторы работали чуть меньше, чем в полсилы. Энергопотребление составило 4.7 КВт, что почти на два киловатта меньше заявленного в спецификации. Впрочем, данный стресс-тест не учитывает десяти внешних сетевых карт, да и наша версия DGX не старшая. Теперь, когда сервер проверен и готов к работе, хочется провести тесты, чтобы узнать, на что способна эта машина для вычислений. Хотя данный сервер больше предназначен для задач ИИ, желания провести обычные тесты никто не отменял. Мы начали с GeekBench 5 Compute. К сожалению, данный бенчмарк не задействует интерконнект между видеокартами и тестирует исключительно одно устройство за раз. Тем не менее, с его помощью можно сравнить, насколько SXM4-версия Tesla A100 лучше, чем PCIe-версия. | Категория | PCIe Tesla A100 40G | SXM4 Tesla A100 40G | | --- | --- | --- | | OpenCL | 170137 | 188380 (+11%) | | CUDA | 213899 | 234890 (+10%) | Второй тест, который мы провели, — ai-benchmark, тест производительности, который замеряет скорость обучения и применения различных нейронных сетей на задачах распознавания и классификации. Хотя данный тест использует Tensorflow GPU и даже в логах отмечает наличие интерконнекта между видеокартами, но запускается только на одной видеокарте. Таким образом этот тест показателен только для сравнения разных форм-факторов Tesla A100. | Категория | PCIe Tesla A100 40G | SXM4 Tesla A100 40G | | --- | --- | --- | | Inference Score | 25177 | 30158 (+20%) | | Training Score | 23775 | 27837 (+17%) | | AI Score | 48952 | 57995 (+19%) | В качестве тестирования задач ИИ был выбран MLPerf от [MLCommons](https://mlcommons.org/en/). На сайте NVIDIA [упоминается](https://www.nvidia.com/ru-ru/data-center/mlperf/) этот тест, а [в турнирных таблицах MLPerf](https://mlcommons.org/en/training-normal-10/) встречаются результаты старшей версии DGX A100 за авторством производителя. Несмотря на наличие инструкции и четкий регламент, большинство тестов не запускалось из-за ошибок в зависимостях Docker-контейнеров. Однако вместе с DGX A100 поставляется контракт на [техническую поддержку](https://www.nvidia.com/en-us/data-center/dgx-systems/support/), который включает в себя в том числе возможность пообщаться с экспертами в области ИИ, а также удаленную помощь с настройкой ПО. На данный момент у нас нет возможности сравнить DGX A100 с сервером с восемью Tesla A100 без интерконнекта, поэтому тестирование MLPerf пока отложено до момента появления тестового стенда с необходимой конфигурацией. Заключение ---------- NVIDIA DGX A100 — мощный сервер, призванный ускорить решение задач, связанных с искусственным интеллектом. DGX имеет множество сложных технических нюансов и особенностей, но их нельзя прочувствовать на паре общих тестов производительности. Чтобы узреть настоящую мощь этого сервера, нужно «потрогать» его самостоятельно. *Сервер предоставлен компанией Forsite. [Forsite](https://forsite-company.ru/) — российский производитель суперкомпьютеров и провайдер решений NVIDIA уровня Elite.* [![](https://habrastorage.org/r/w1560/webt/wh/qk/1z/whqk1z-pxmdk55xqhawysyasi64.png)](https://slc.tl/wolzj)
https://habr.com/ru/post/578230/
null
ru
null
# Экономим время на подключении шрифтов в проект ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/370/68b/849/37068b84972c4b3affc9047c90d41152.png) Всем привет! Сегодняшний пост о спонтанно появившемся сайте со шрифтами. Все началось после того, как мне в очередной раз пришел макет с нестандартным шрифтом. Причем, я понял, что этот шрифт уже подключался мною ранее в других проектах. Опять пришлось лезть искать его по папкам. А поскольку я ярый оптимизатор своего рабочего процесса, меня это в который раз серьезно озаботило. Почему бы все шрифты не сложить в одном месте и по необходимости вставлять в проект? — подумалось мне, и тут же решил воплотить задуманное. Буквально за 3 часа были собраны все свои шрифты, разложены по папкам, настроены пути и написан сниппет для редактора. Уже после первых тестов стало понятно, насколько это упрощает процесс и экономит время. Любой шрифт можно подключить буквально в пару кликов. После двух дней легкой эйфории решил попробовать перенести это в онлайн, и упростить жизнь уже своим друзьям-коллегам. Дальше были все те же действия: сортировка-пути-набивание импортов. Но тут уже надо было думать, как отдавать ссылки на импорты файлов, ведь не все пользуются тем же редактором, что и я. Значит надо делать какой-то интерфейс, в котором и выводить нужные линки. По мере создания интерфейса приходили новые идеи по реализации и оптимизации. Что получилось в итоге, можно посмотреть [здесь](http://webfont.ru). Сейчас на сайте 19 шрифтов в сорока восьми начертаниях, которые в те же пару кликов можно подключить себе в проект. #### Как все работает Технология работы предельно проста: используется обычный ``` @import ``` , который подключает в ваш CSS файлы шрифта. Ссылки на импорты находятся в демо примерах начертания шрифтов. Там же лежат ссылки на скачивание уже готовых китов. Скачать сразу кит, или поработать с импортом и по завершении проекта приложить шрифт — дело ваше. #### Теперь о плюшках Для импортов я написал пару сниппетов: нативный для Sublime Text 2 и ненативный для NotePad++. Здесь я не буду рассказывать как ими пользоваться, но на сайте довольно подробно все расписано. Даже с одним скриншотом. Кроме того, я подготовил исходник для любого, кто захочет написать сниппет для своего редактора. Очень рекомендую пользоваться сниппетами. Это быстро и удобно. #### Заметки Firefox и Opera не захотели импортировать шрифты. Точнее не работало подключение файла, если он находился на другом домене. Вопрос решился перегоном файла шрифта в base64. При этом архив для скачивания шрифта содержит обычный .ttf-файл. Что вам использовать в конечном варианте — выбирайте сами. Мое повествование подошло к концу и остались только вопросы к вам. 1. Насколько это может быть полезно\интересно вам и продолжать ли наращивать кол-во шрифтов в онлайне? 2. Делать сайт самостоятельным сервисом и переводить на собственный домен? 3. Как с вероятностью в 101% узнавать о платности\бесплатности шрифта, не прибегая к разборке его на составляющие или связи с автором? Еще отдельное спасибо моим друзьям, и по совместительству нашим коллегам, которые организовали мне первую обратную связь. После их отзывов сайт преобразился. А местами значительно. За «дизайн» прошу сильно помидорами не закидывать, т.к. я всего лишь верстальщик и делал все по наитию. Обязательная ссылка на [сайт](http://webfont.ru) в футере поста. p.s. Пост почти полностью был написан в тени кустов сирени, на лавочке Первомайского сквера города Новосибирска. Здесь здорово :) Спасибо за внимание. **upd** Коллеги, я просматриваю все ваши комментарии. Вносить какие-то правки моментально не получится. А заниматься глобальным исправлением недочетов начну, когда будет более менее четкая картина какой интерес представляет этот сайт, ибо в холостую тратить время не хочется, прошу понять. Спасибо за ваши отзывы. **upd от 28.08.2012 Сайт переехал жить на свой собственный домен и доступен по ссылке [WebFont.ru](http://webfont.ru). Все новые шрифты будут появляться теперь там, а прежняя версия скоро начнет редиректить на новый адрес. Всем, кто подключил шрифты напрямую, советую сменить импорты, но шрифты еще некоторое время останутся доступны.**
https://habr.com/ru/post/147616/
null
ru
null
# Хакеры используют PuTTY для заражения крупных компаний Они используют троянскую версию SSH-клиента PuTTY и KiTTY SSH для развертывания бэкдора под названием «AIRDRY.V2» в системах крупных компаний. Первый известный пострадавший — Amazon. Кибератака приписывается группировке UNC4034 (также известна под названием Hermit и Labyrinth Chollima), которая «специализируется» на медиакомпаниях. Активность хакеров, похоже, является продолжением кампании [Operation Dream Job](https://www.clearskysec.com/operation-dream-job/) , которая ведётся с июня 2020 года. Атака начинается с того, что злоумышленники отправляют жертве email с заманчивым предложением о работе в Amazon, а затем отправляют сообщение в WhatsApp, где предлагают скачать ISO-файл («amazon\_assessment.iso»). ISO включает текстовый файл («readme.txt»), содержащий IP-адрес и учётные данные для входа, а также троянскую версию [PuTTY](http://www.putty.org/) (PuTTY.exe), популярного консольного приложения SSH с открытым исходным кодом. Кроме того, появились злоумышленники, которые используют [клиента KiTTY SSH](http://www.9bis.net/kitty/#!index.md), ответвление PuTTY, назвав файл «[Amazon-KiTTY.exe](https://www.virustotal.com/gui/file/6af9af8aa0d8d4416c75e0e3f7a20dfe8af345fb5c5a82d79e004a54f1b670dc)». Пока неясно, о чём хакеры говорили жертвам, но, как мы можем видеть, в итоге их убеждают открыть ISO-образ и использовать прилагаемый инструмент SSH и учётные данные для подключения к хосту и прохождения небольшого теста для оценки навыков. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/900/fa5/653/900fa56536b78152d7b52c952c93b1b5.jpeg)Однако PuTTY, которым щедро делятся хакеры, был изменён. В него добавили вредоносную полезную нагрузку, что сделало заражённую версию значительно больше легальной утилиты. Поскольку исполняемый файл PuTTY был скомпилирован из легитимной программы, он полностью функционален и выглядит точно так же, как обычная программа. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/042/225/a88/042225a885615e6eaae82f3652dfa568.jpeg)Однако хакеры модифицировали  `connect_to_host()` функцию PuTTY таким образом, что при успешном SSH-подключении с использованием заданных учётных данных программа развёртывает вредоносную полезную нагрузку шелл-кода DAVESHELL в виде библиотеки DLL ("colorui.dll"), упакованной с Themida. Чтобы сделать запуск шеллкода незаметным, вредоносный PuTTY использует уязвимость перехвата порядка поиска в инструменте управления цветом Windows «colorcpl.exe» для загрузки вредоносной DLL. DAVESHELL действует как дроппер последней полезной нагрузки, бэкдора AIRDRY.V2, который выполняется непосредственно в памяти. ![Схема атаки на основе PuTTY ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ce1/541/3e8/ce15413e8c371fa7a61d45289ed0d5c7.png "Схема атаки на основе PuTTY ")Схема атаки на основе PuTTY AIRDRY.V2 может активничать поверх HTTP, файлов или SMB по именованному каналу, пытаясь подключиться к одному из трех жестко закодированных адресов C2 пять раз, прежде чем перейти в спящий режим на 60 секунд. Хотя у бэкдора есть технические возможности для использования прокси-сервера и отслеживания активных сеансов RDP, в версии, изученной Mandiant, эти функции отключены по умолчанию. В AIRDRY.V2 поддерживаются следующие девять команд: * Загрузить основную информацию о системе. * Обновить интервал маяка на основе значения, предоставленного сервером C2. * Деактивировать до новой даты и времени начала. * Загрузить текущую конфигурацию. * Обновить конфигурацию. * Keep-alive. * Обновить интервал маяка на основе значения в конфигурации. * Обновить ключ AES, используемый для шифрования запросов C2 и данных конфигурации. * Загрузить и запустить плагин в памяти. По сравнению с предыдущей версией AIRDRY новый вариант поддерживает меньше команд, но выполнение плагина в памяти и обновление ключа AES для связи C2 — это новые возможности. Сокращение количества поддерживаемых команд не влияет на универсальность бэкдора, потому что получение плагинов из C2 открывает возможности для более тонких атак. Чтобы проверить наличие троянских версий PuTTY, вы можете просмотреть свойства исполняемого файла и убедиться, что он имеет цифровую подпись «Саймон Тэтэм». К сожалению, легальная программа KiTTY обычно не подписывается разработчиком. Так что должна быть загружена в службу сканирования на вирусы (например, VirusTotal) для проверки.
https://habr.com/ru/post/688572/
null
ru
null
# How to set up PVS-Studio in Travis CI using the example of PSP game console emulator ![PPSSPP](https://habrastorage.org/r/w1560/getpro/habr/post_images/622/289/29e/62228929e341faee94fa7a2084abb6bb.png) Travis CI is a distributed web service for building and testing software that uses GitHub as a source code hosting service. In addition to the above scripts, you can add your own, thanks to the extensive configuration options. In this article we will set up Travis CI for working with PVS-Studio by the example of PPSSPP code. Introduction ------------ [Travis CI](https://travis-ci.org/) is a web service for building and testing software. It is usually used in combination with the practice of continuous integration. [PPSSPP](https://www.ppsspp.org/) is an emulator of PSP game console. The program is able to emulate the launch of any game with images of discs designed for Sony PSP. The program was released on November 1, 2012. PPSSPP is distributed under GPL v2 license. Anyone can make improvements to the [source code](https://github.com/hrydgard/ppsspp) of the project. [PVS-Studio](https://www.viva64.com/en/pvs-studio/) — static code analyzer for searching errors and potential vulnerabilities in program code. In this article, we will launch PVS-Studio in the cloud instead of locally on the developer's computer for a variety of purposes and will search for errors in PPSSPP. Travis CI set up ---------------- We will need a repository on GitHub where the project we need is located, as well as a key for PVS-Studio (you can get a [trial key](https://www.viva64.com/en/pvs-studio-download/) or a [free one for Open Source projects](https://www.viva64.com/en/b/0614/)). Let's go to [Travis CI](https://travis-ci.org/) site. After authorization with the help of GitHub account we will have a list of repositories: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/52c/7ee/2c4/52c7ee2c426d0700d2f80e6a2081d344.png) For the test, I made a PPSSPP fork. We activate the repository which we want to build: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/615/ec9/200/615ec9200b31f85474f6a443bb9755c5.png) At the moment, Travis CI can't build our project because there are no instructions for building it. That's why it's time for the configuration. During the analysis we will need some variables, for example, the key for PVS-Studio, which would be undesirable to specify in the configuration file. So, let's add environment variables by configuring the build in Travis CI: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8e7/f4f/a27/8e7f4fa27ce4f7ac89dd5f0b330762f6.png) We will need: * PVS\_USERNAME – user name * PVS\_KEY — key * MAIL\_USER — email that will be used to send the report * MAIL\_PASSWORD – email password The last two are optional. They will be used to send the results by mail. If you want to send the report in another way, you do not need to specify them. So, we have added the environment variables we need: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/5f6/c83/158/5f6c83158ee2e9bba6b6cba0d579cf3d.png) Now let's create a *.travis.yml* file and put it in the root of the project. PPSSPP already had a configuration file for Travis CI, however, it was too large and not suitable for the example, so we had to simplify it and leave only the basic elements. First, let's specify the programming language, the version of Ubuntu Linux that we want to use on the virtual machine, and the necessary packages for building: ``` language: cpp dist: xenial addons: apt: update: true packages: - ant - aria2 - build-essential - cmake - libgl1-mesa-dev - libglu1-mesa-dev - libsdl2-dev - pv - sendemail - software-properties-common sources: - sourceline: 'ppa:ubuntu-toolchain-r/test' - sourceline: 'ppa:ubuntu-sdk-team/ppa' ``` All added packages are only needed for PPSSPP. Now specify the building matrix: ``` matrix: include: - os: linux compiler: "gcc" env: PPSSPP_BUILD_TYPE=Linux PVS_ANALYZE=Yes - os: linux compiler: "clang" env: PPSSPP_BUILD_TYPE=Linux ``` A bit more about the *matrix* section. In Travis CI there are two ways to create build variants: the first one is to specify compilers, types of operating systems, environment variables etc. with the list, after which the matrix of all possible combinations will be generated; the second one is an explicit indication of the matrix. Of course, you can combine these two approaches and add a unique case, or, on the contrary, exclude it by using the *exclude* section. You can read more about this in the [Travis CI documentation](https://docs.travis-ci.com/user/build-matrix/). The only thing left to do is to specify project-specific build instructions: ``` before_install: - travis_retry bash .travis.sh travis_before_install install: - travis_retry bash .travis.sh travis_install script: - bash .travis.sh travis_script after_success: - bash .travis.sh travis_after_success ``` Travis CI allows you to add your own commands for different stages of virtual machine life. The *before\_install* section runs before installing the packages. Then *install*, which follows the installation of the packages from the *addons.apt* list that we have specified above. The build itself takes place in *script*. If everything has been successful, we get into *after\_success* (this is where we will start static analysis). These are not all the steps you can modify, if you need more, you should look in the [documentation on Travis CI](https://docs.travis-ci.com/user/job-lifecycle/). For the convenience of reading the commands were put into a separate *script .travis.sh*, which is placed in the root of the project. So, we have the following file *.travis.yml*: ``` language: cpp dist: xenial addons: apt: update: true packages: - ant - aria2 - build-essential - cmake - libgl1-mesa-dev - libglu1-mesa-dev - libsdl2-dev - pv - sendemail - software-properties-common sources: - sourceline: 'ppa:ubuntu-toolchain-r/test' - sourceline: 'ppa:ubuntu-sdk-team/ppa' matrix: include: - os: linux compiler: "gcc" env: PVS_ANALYZE=Yes - os: linux compiler: "clang" before_install: - travis_retry bash .travis.sh travis_before_install install: - travis_retry bash .travis.sh travis_install script: - bash .travis.sh travis_script after_success: - bash .travis.sh travis_after_success ``` Before installing the packages, let's update the submodules. This is necessary to build PPSSPPs. Add the first function to *.travis.sh* (note the extension): ``` travis_before_install() { git submodule update --init --recursive } ``` Now we've come directly to setting up the automatic launch of PVS-Studio in Travis CI. First, we need to install the PVS-Studio package into the system: ``` travis_install() { if [ "$CXX" = "g++" ]; then sudo apt-get install -qq g++-4.8 fi if [ "$PVS_ANALYZE" = "Yes" ]; then wget -q -O - https://files.viva64.com/etc/pubkey.txt \ | sudo apt-key add - sudo wget -O /etc/apt/sources.list.d/viva64.list \ https://files.viva64.com/etc/viva64.list sudo apt-get update -qq sudo apt-get install -qq pvs-studio \ libio-socket-ssl-perl \ libnet-ssleay-perl fi download_extract \ "https://cmake.org/files/v3.6/cmake-3.6.2-Linux-x86_64.tar.gz" \ cmake-3.6.2-Linux-x86_64.tar.gz } ``` At the beginning of the *travis\_install* function we install the compilers we need using environment variables. Then, if the *$PVS\_ANALYZE* variable stores the value of *Yes* (we specified it in the *env* section when configuring the build matrix), we install the *pvs-studio* package. Besides it, there are also *libio-socket-ssl-perl* and *libnet-ssleay-perl* packages, but they are needed to send the results by mail, so they are not necessary if you have chosen another way of report delivery. The *download\_extract* function downloads and unpacks the specified archive: ``` download_extract() { aria2c -x 16 $1 -o $2 tar -xf $2 } ``` It's time to build a project. This happens in the *script* section: ``` travis_script() { if [ -d cmake-3.6.2-Linux-x86_64 ]; then export PATH=$(pwd)/cmake-3.6.2-Linux-x86_64/bin:$PATH fi CMAKE_ARGS="-DHEADLESS=ON ${CMAKE_ARGS}" if [ "$PVS_ANALYZE" = "Yes" ]; then CMAKE_ARGS="-DCMAKE_EXPORT_COMPILE_COMMANDS=On ${CMAKE_ARGS}" fi cmake $CMAKE_ARGS CMakeLists.txt make } ``` In fact, this is a simplified original configuration, except for these lines: ``` if [ "$PVS_ANALYZE" = "Yes" ]; then CMAKE_ARGS="-DCMAKE_EXPORT_COMPILE_COMMANDS=On ${CMAKE_ARGS}" fi ``` In this section of the code, we set the compilation command export flag for *cmake*. This is necessary for a static code analyzer. You may read more about it in the article "[How to launch PVS-Studio in Linux and macOS](https://www.viva64.com/en/m/0036/)". If the build was successful, we will get to *after\_success* where we will run static analysis: ``` travis_after_success() { if [ "$PVS_ANALYZE" = "Yes" ]; then pvs-studio-analyzer credentials $PVS_USERNAME $PVS_KEY -o PVS-Studio.lic pvs-studio-analyzer analyze -j2 -l PVS-Studio.lic \ -o PVS-Studio-${CC}.log \ --disableLicenseExpirationCheck plog-converter -t html PVS-Studio-${CC}.log -o PVS-Studio-${CC}.html sendemail -t mail@domain.com \ -u "PVS-Studio $CC report, commit:$TRAVIS_COMMIT" \ -m "PVS-Studio $CC report, commit:$TRAVIS_COMMIT" \ -s smtp.gmail.com:587 \ -xu $MAIL_USER \ -xp $MAIL_PASSWORD \ -o tls=yes \ -f $MAIL_USER \ -a PVS-Studio-${CC}.log PVS-Studio-${CC}.html fi } ``` Let's consider the following lines in detail: ``` pvs-studio-analyzer credentials $PVS_USERNAME $PVS_KEY -o PVS-Studio.lic pvs-studio-analyzer analyze -j2 -l PVS-Studio.lic \ -o PVS-Studio-${CC}.log \ --disableLicenseExpirationCheck plog-converter -t html PVS-Studio-${CC}.log -o PVS-Studio-${CC}.html ``` The first line generates the license file from the user name and the key that we specified at the beginning of the configuration of the Travis CI environment variables. The second line starts the analysis directly. The flag *-j* sets the number of analysis threads, the flag *-l* sets the license, the flag *-o* sets the file to output the logs, and the flag -*disableLicenseExpirationCheck* is necessary for trial versions, because by default *pvs-studio-analyzer* will warn the user about the imminent expiration of the license. To prevent this from happening, you can specify this flag. The log file contains an unprocessed output that cannot be read without conversion, so first you need to make the file readable. Let's run the logs through *plog-converter* and get an html file at the output. In this example I decided to send reports by mail using the *sendemail* command. The result was the following *.travis.sh file*: ``` #/bin/bash travis_before_install() { git submodule update --init --recursive } download_extract() { aria2c -x 16 $1 -o $2 tar -xf $2 } travis_install() { if [ "$CXX" = "g++" ]; then sudo apt-get install -qq g++-4.8 fi if [ "$PVS_ANALYZE" = "Yes" ]; then wget -q -O - https://files.viva64.com/etc/pubkey.txt \ | sudo apt-key add - sudo wget -O /etc/apt/sources.list.d/viva64.list \ https://files.viva64.com/etc/viva64.list sudo apt-get update -qq sudo apt-get install -qq pvs-studio \ libio-socket-ssl-perl \ libnet-ssleay-perl fi download_extract \ "https://cmake.org/files/v3.6/cmake-3.6.2-Linux-x86_64.tar.gz" \ cmake-3.6.2-Linux-x86_64.tar.gz } travis_script() { if [ -d cmake-3.6.2-Linux-x86_64 ]; then export PATH=$(pwd)/cmake-3.6.2-Linux-x86_64/bin:$PATH fi CMAKE_ARGS="-DHEADLESS=ON ${CMAKE_ARGS}" if [ "$PVS_ANALYZE" = "Yes" ]; then CMAKE_ARGS="-DCMAKE_EXPORT_COMPILE_COMMANDS=On ${CMAKE_ARGS}" fi cmake $CMAKE_ARGS CMakeLists.txt make } travis_after_success() { if [ "$PVS_ANALYZE" = "Yes" ]; then pvs-studio-analyzer credentials $PVS_USERNAME $PVS_KEY -o PVS-Studio.lic pvs-studio-analyzer analyze -j2 -l PVS-Studio.lic \ -o PVS-Studio-${CC}.log \ --disableLicenseExpirationCheck plog-converter -t html PVS-Studio-${CC}.log -o PVS-Studio-${CC}.html sendemail -t mail@domain.com \ -u "PVS-Studio $CC report, commit:$TRAVIS_COMMIT" \ -m "PVS-Studio $CC report, commit:$TRAVIS_COMMIT" \ -s smtp.gmail.com:587 \ -xu $MAIL_USER \ -xp $MAIL_PASSWORD \ -o tls=yes \ -f $MAIL_USER \ -a PVS-Studio-${CC}.log PVS-Studio-${CC}.html fi } set -e set -x $1; ``` It's time to add the changes to the git repository, and then Travis CI will automatically start the build. Click on «ppsspp» to go to build reports: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/705/1e1/7d8/7051e17d8fc919dd7801679b6815e8e1.png) We will see an overview of the current build: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/434/49e/fc3/43449efc3a67070eb47d9603a4c05bb6.png) If the build is successfully completed, we will receive an e-mail with the results of static analysis. Of course, sending by mail is not the only way to get the report. You can choose any method of implementation. But it is important to remember that it will be impossible to get access to the files of the virtual machine after the build is finished. Brief overview of errors ------------------------ We have successfully completed the most difficult part. Let us now make sure that all our efforts have been justified. Let's consider some interesting points from the static analysis report that came to me by mail (it's not for nothing that I specified it). ### Dangerous optimizations ``` void sha1( unsigned char *input, int ilen, unsigned char output[20] ) { sha1_context ctx; sha1_starts( &ctx ); sha1_update( &ctx, input, ilen ); sha1_finish( &ctx, output ); memset( &ctx, 0, sizeof( sha1_context ) ); } ``` The PVS-Studio warning: [V597](https://www.viva64.com/en/w/v597/) The compiler could delete the 'memset' function call, which is used to flush 'sum' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha1.cpp 325 This code fragment is located in the secure hashing module, but it contains a serious security defect ([CWE-14](https://cwe.mitre.org/data/definitions/14.html)). Let's consider the assembler listing which is generated when the Debug-version compiles: ``` ; Line 355 mov r8d, 20 xor edx, edx lea rcx, QWORD PTR sum$[rsp] call memset ; Line 356 ``` Everything is fine and the *memset* function is executed, thus wiping important data in RAM, but you shouldn't be glad yet. Let's consider assembler listing of the Release version with optimization: ``` ; 354 : ; 355 : memset( sum, 0, sizeof( sum ) ); ; 356 :} ``` As you can see from the listing, the compiler ignored the call of *memset*. It is related to the fact that the *sha1* function no longer calls the *ctx* structure after calling *memset*. That's why the compiler doesn't see any sense in wasting processor time on overwriting memory not being used in future. You may fix it by using the *RtlSecureZeroMemory* function or a [similar](https://www.viva64.com/en/b/0388/) function. Right: ``` void sha1( unsigned char *input, int ilen, unsigned char output[20] ) { sha1_context ctx; sha1_starts( &ctx ); sha1_update( &ctx, input, ilen ); sha1_finish( &ctx, output ); RtlSecureZeroMemory(&ctx, sizeof( sha1_context ) ); } ``` ### Unnecessary comparison ``` static u32 sceAudioOutputPannedBlocking (u32 chan, int leftvol, int rightvol, u32 samplePtr) { int result = 0; // For some reason, this is the only one that checks for negative. if (leftvol > 0xFFFF || rightvol > 0xFFFF || leftvol < 0 || rightvol < 0) { .... } else { if (leftvol >= 0) { chans[chan].leftVolume = leftvol; } if (rightvol >= 0) { chans[chan].rightVolume = rightvol; } chans[chan].sampleAddress = samplePtr; result = __AudioEnqueue(chans[chan], chan, true); } } ``` The PVS-Studio warning: [V547](https://www.viva64.com/en/w/v547/) Expression 'leftvol >= 0' is always true. sceAudio.cpp 120 Pay attention to the else branch for the first *if*. The code will be executed only if all the conditions *leftvol > 0xFFFFF || rightvol > 0xFFFF || leftvol < 0 || rightvol < 0* are false. Therefore, we get the following statements that will be true for the else branch: *leftvol <= 0xFFFFF, rightvol <= 0xFFFFF, leftvol >= 0 and rightvol >= 0*. Pay attention to the last two statements. Is it reasonable to check what is the necessary condition of execution of this code fragment? So we can calmly delete these conditional operators: ``` static u32 sceAudioOutputPannedBlocking (u32 chan, int leftvol, int rightvol, u32 samplePtr) { int result = 0; // For some reason, this is the only one that checks for negative. if (leftvol > 0xFFFF || rightvol > 0xFFFF || leftvol < 0 || rightvol < 0) { .... } else { chans[chan].leftVolume = leftvol; chans[chan].rightVolume = rightvol; chans[chan].sampleAddress = samplePtr; result = __AudioEnqueue(chans[chan], chan, true); } } ``` Another scenario. Behind these redundant conditions there is some error. Perhaps we have checked what is not what we need… ### Ctrl+C Ctrl+V strikes back ``` static u32 scePsmfSetPsmf(u32 psmfStruct, u32 psmfData) { if (!Memory::IsValidAddress(psmfData) || !Memory::IsValidAddress(psmfData)) { return hleReportError(ME, SCE_KERNEL_ERROR_ILLEGAL_ADDRESS, "bad address"); } .... } ``` [V501](https://www.viva64.com/en/w/v501/) There are identical sub-expressions '!Memory::IsValidAddress(psmfData)' to the left and to the right of the '||' operator. scePsmf.cpp 703 Note the check inside *if*. Doesn't it seem strange to you that we are checking whether the *psmfData* address is valid twice as much? So I find it strange… Actually, we have a misprint before us, of course, and the idea was to check both input parameters. The correct variant is: ``` static u32 scePsmfSetPsmf(u32 psmfStruct, u32 psmfData) { if (!Memory::IsValidAddress(psmfStruct) || !Memory::IsValidAddress(psmfData)) { return hleReportError(ME, SCE_KERNEL_ERROR_ILLEGAL_ADDRESS, "bad address"); } .... } ``` ### Forgotten variable ``` extern void ud_translate_att( int size = 0; .... if (size == 8) { ud_asmprintf(u, "b"); } else if (size == 16) { ud_asmprintf(u, "w"); } else if (size == 64) { ud_asmprintf(u, "q"); } .... } ``` The PVS-Studio warning: [V547](https://www.viva64.com/en/w/v547/) Expression 'size == 8' is always false. syn-att.c 195 This error is located in the *ext* folder, so it doesn't really apply to the project, but the error was found before I noticed it, so I decided to keep it. Still, this article is not about error review but about integration with Travis CI and no analyzer configuration was performed. The *size* variable is initialized with a constant, but it is not used at all in the code up to the *if* operator which, of course, generates *false* information while checking the condition because, as we remember, the *size* is equal to zero. Subsequent checks do not make sense either. Apparently, the author of the code fragment forgot to overwrite the *size* variable before that. ### Stop That's where we're gonna stop with the errors. The purpose of this article is to demonstrate how PVS-Studio works with Travis CI and not to analyze the project as thoroughly as possible. If you want bigger and more beautiful errors, you can always see them [here](https://www.viva64.com/en/examples/) :). Conclusion ---------- Using web services for building projects together with incremental analysis practice allows you to detect many problems right after the code merge. However, one build may not be enough, so setting up testing together with static analysis will significantly improve the code quality. Useful Links ------------ * [Launching PVS-Studio in Linux and macOS](https://www.viva64.com/en/m/0036/) * [Launching PVS-Studio in Docker](https://www.viva64.com/en/m/0047/) * [Travis CI documentation](https://docs.travis-ci.com/user/job-lifecycle/)
https://habr.com/ru/post/464641/
null
en
null
# Как мы делали очередной конструктор чат-ботов. Часть 1 ![](https://habrastorage.org/r/w780q1/webt/d-/nb/kc/d-nbkcwczgbkbz3ywbf55vj94k4.jpeg) Привет, Хабромир! Последний год мы с командой провели, создавая свой стартап «Конструктор чат-ботов для бизнеса Botlify», и я хотел бы поделиться с аудиторией небольшой историей проекта и о принятых технических решениях. В этом посте я постараюсь максимально сконцентрироваться на технических деталях и меньше углубляться в продукт и бизнес, несмотря на то, что в этом проекте моя роль намного меньше связана с разработкой и технологиями. Данный материал основан на моем личном опыте, я не стартап-коуч и не претендую на звание хорошего программиста, менеджера, архитектора или предпринимателя. Мы относительно молодой стартап, у которого не много пользователей, так что тут не будет ничего про нагрузки и проблемы больших проектов. Под катом я расскажу как начинался мой проект, на какие разработческие грабли мы наступали и какие выводы делали. Меня зовут Андрей, какое-то время я работал разработчиком, в основном на PHP, потом тимлидом, а потом и техническим директором в нескольких небольших стартапах, где полюбил NodeJS. Но так сложилось, что последнее время я скорее предприниматель. Это не первый стартап, который я основал, и уж тем более не первый стартап, в котором я участвовал. Мне довелось поработать в нескольких успешных проектах и массе провальных. Еще больше провальных проектов основал я сам. Каждый раз причины неудач абсолютно разные, также как и стадии, на которых я проваливался, но так или иначе я использовал этот опыт и в этом проекте. ### Цели Перед началом повествования о проекте, хотелось бы рассказать о том, какие цели мы преследовали изначально затевая эту авантюру. По сути наш конструктор начинался как пет-проджект для изучения основ product management, customer development, приобретению новых управленческих навыков и опыта в стартапах. Я много раз слышал и пробовал применять подходы LEAN Startup и каждый раз получалось совершенно по-разному. Конечно, мы мечтали построить на этом бизнес и неплохо зарабатывать, но не тешили себя иллюзиями о том, что это простой и короткий путь. И тем более мы не пытались сделать какую-то WOW!-инновацию. У меня и сооснователя была постоянная фуллтайм работа и мы понимали, что времени особо много уделять не сможем. Основным мотиватором была именно возможность освоения совершенно новых для себя областей IT-индустрии и применения новых знаний на практике и при этом еще и заработать. ### Идея Будучи программистом я очень любил рисовать диаграммы классов, последовательностей, блок-схемы. Для меня сам по себе процесс визуализации являлся этапом осмысления проблем и решений, позволял получать большую картину происходящего. Работая над очередным проектом, я в который раз столкнулся с необходимостью вставить виджет с онлайн-чатом на сайт и посмотреть, какие готовые решения есть в этой области. Так, среди того что я искал, я наткнулся на платформы, которые позволяли не просто создавать виджеты с онлайн-чатом для сайта, но и встраивать в них чат-боты. Я пообщался с одним из таких ботов и он оставил у меня приятное впечатление. И тут же я начал пробовать придумывать разные сценарии чат-ботов, которые могли бы быть полезны в моих проектах. Фантазия просто полилась на стол: запись на прием в маникюрный салон, помочь определиться с выбором в интернет-магазине, указать нужное место в документации, принять запрос в службу поддержки. Чего я только не навыдумывал. Потом я полез смотреть различные конструкторы и почти все мне предлагали заполнять формы, а потом заполнять формы, а потом снова заполнять формы. В общем — создавать ботов через заполнение форм. В итоге мне было крайне неудобно, я постоянно терял контекст происходящего, приходилось возвращаться на предыдущие шаги, чтобы восстановить контекст, а об удобном продумывании логики и проектировании сценариев не было и речи. Ну, думаю, попробую-ка я сначала «спроектировать» своих ботов во внешнем инструменте, а потом уже перенесу на нужную платформу. И здесь я столкнулся с первой проблемой: *Как описать диалог с ботом таким образом, чтобы было понятно что и почему отвечает бот и при этом иметь перед собой всю последовательность действий?* На первых порах я пробовал использовать xmind и другие инструменты для создания mind map. Получалось что-то вроде этого. ![Пример mind map чатбота](https://habrastorage.org/r/w1560/webt/9b/lj/fd/9bljfdg_rb26tagz8csasws9ikc.png) В последствии стало понятно, что чат-боты в целом довольно неплохо укладываются в концепцию описания состояний и переходов между ними, получается довольно удобно ориентироваться в ветках диалогов даже там, где их много. Было найдено всего несколько конкурентов, предоставляющих визуальный конструктор ботов. У кого-то он был более интуитивный, у кого-то менее, но в целом, такие конструкторы мне показались куда более user-friendly. Нам стало интересно попробовать сделать что-то похожее, мы захотели создать инструмент, при помощи которого можно создать чат-бота без навыков программирования, просто описывая его в виде диаграммы. Конечно, определенные технические навыки все же потребуются, но это не многим сложнее создания mind map. Боты — довольно сложная и большая тема, а наши ресурсы очень ограничены. Поэтому нам было жизненно необходимо максимально упростить свое решение, чтобы оно хоть когда-нибудь увидело рынок. "**Чем раньше — тем лучше**" — эту мантру в контексте стартапов я не устану повторять. ### AI & ML Вопрос об искусственном интеллекте в чат-ботах для меня до сих пор открыт. Но сейчас мы исходим из того, что мы ранний стартап, компетенций в AI и ML у нас внутри команды нет и мы уже условились, что хотим просто рисовать диаграммы, а не готовить датасеты, обучать нейросети и вот это вот все. На данный момент *мы не используем искусственный интеллект и машинное обучение в наших ботах*. Быть может, когда-нибудь, в будущем, когда будут на это деньги. Важно понимать, что одних и тех же по своей сути ботов можно сделать очень по-разному. Грубо говоря, может быть бот, который пишет: "*Чего изволите?*" и ожидает от пользователя произвольного ответа в духе: "*Узнать о борще*", "*Хочу заказать борщ*", "*Который сейчас час?*". Получив ответ, бот пытается его распознать, определить намерение и выбрать нужную ветку развития диалога. Стоит ли говорить о том, что учитывая опечатки, разнообразие форм и выражений это может быть дороговато. С другой стороны, мы можем использовать закрытые вопросы, когда речь идет о выборе, например, бот может написать: "*Чего изволите?*" и предложить варианты выбора: "*Узнать о борще*", "*Заказать борщ*", "*Узнать время*". С одной стороны, пользователь теряет свободу действий, но с другой мы не только значительно упрощаем вычисления, но и легче можем управлять контекстом диалога, поворачивая его в нужное русло. Открытые же вопросы мы предпочитаем использовать в контексте сбора текстовых данных пользователя: введи email, телефон, напишите Ваш вопрос поддержке и т.п. ### Чат-бот vs человек Еще одним аргументом против того, чтобы давать пользователю общаться с ботом в свободной форме была убежденность в том, что чат-бот не должен «играть» в человека. По моему мнению, при общении с ботом человек должен четко понимать что общается именно с ботом, знать какие у него есть возможности и как их использовать. А если человек понимает, что общается с ботом — какой смысл в свободном текстовом общении? Гораздо лучше, когда чат-бот становится помощником человека, а не заменителем и не стесняется этого, а человек отчетливо понимает, что общается с чат-ботом и какие у него функции. В таком случае коммуникация получается заметно более эффективной. ### Процесс Я фанат удаленки. Меня хлебом не корми — дай собрать удаленную команду и начать работать с ней. Мне комфортно работать удаленно самому, я знаю, как организовать работу и найти людей, которые могут так же эффективно и комфортно работать самостоятельно. Я прекрасно понимаю, что это подходит далеко не всем, полностью с этим согласен, но считаю, что в светлом будущем удаленки будет все больше и больше. Просто экономика — ничего личного. Поскольку это мой проект и музыку для него заказывал я — тут тоже удаленка, это накладывает определенный отпечаток. В самом начале работы над любым проектом я считаю очень важным стараться максимально формализовать свои идеи. Пока идея не обрела свою форму на бумаге, в виде текста, заметок, рисунков никакой идеи не существует вовсе. При этом, все процессы внутри команды должны быть максимально простыми, естественными и быстрыми, коммуникация эффективной. Не стоит использовать большие тяжелые инструменты для управления командой, наподобие Jira или Redmine, если вся ваша команды это вы и ваш друг. Но и не использовать ничего тоже не выдет, иначе все очень быстро выходит из под контроля и возникнет хаос, обуздать который намного труднее, чем просто не допустить. Даже в голове одного человека может образовываться такой бардак по проекту, не мне вам рассказывать, чего уж говорить о команде, пусть и всего в 2-3 человека. Мы, как настоящие стартаперы использовали **Trello** для организации задач и хранения важных ссылок по проекту, туда же набрасывали идеи. Для бизнесовой документации **Google Docs**, а техническая вполне себе неплохо создается в **markdown** и кладется в соответствующий репозиторий. Общение в течение дня — **Telegram**, а для ежедненвых стендапов **Google Hangouts**. *Ежедневные стендапы — один из краеугольных камней существования удаленных команд*. Если этого нет — нет и команды, кто-то обязательно начинает чувствовать себя одиноким, уставшим, копится недопонимание и недовольство, теряется не только контроль над ситуацией но и отношения в коллективе. С точки зрения процесса разработки Америку открывать тоже не пришлось. Определяем длину спринта, планируем спринт исходя из целей стартапа. Берем задачки и начинаем колбасить. Новая задача — новая ветка в любимой системе контроля версий. Готово? Оформляем Pull request, ждем пока кто-то снизойдет до ревью. Ревью прошел? CI отработал нормально? Ну тогда можно все помержить в develop ветку, дождаться зеленого света от сборки develop и обновить тестовый сервак. Код мы храним на **GitHub**. До появления первого платящего клиента это были публично открытые репозитории. Как человек, пытавшийся продвинуть несколько open source решений в прошлом, я искренне негодую каждый раз, когда стартап начинает трястись за сохранность своего кода до того, как начал зарабатывать какие-то деньги. *Если вас будут пытаться копировать — это однозначный бизнес-успех*. Ничего не стоит позже закрыть репозиторий. Да и бизнес, знаете ли, зарыт, как правило, далеко не в коде. У меня есть доступ к коду многих, в том числе очень успешных продуктов, но стоит ли говорить о том, что обладая ими я даже близко не повторю их успех? Для сборки Docker-контейнеров и прогона автотестов мы решили опробовать **GitHub Actions**, благо, они дали предварительный доступ. В целом, впечателения остались вполне себе приятные, скорость сборки удовлетворительная. Единственное что было неприятно, это обновления с потерей совместимости с прошлыми версиями. Пару раз они довольно серьезно меняли схему описания действий и приходилось все переконфигурировать. Но мы знали на что шли, когда соглашались попробовать продукт в статусе *Beta*. С самых первых дней, буквально, с разработки лендинга для тестирования спроса мы старались выпускать релизы минимум раз в неделю и проверять хотя бы одну гипотезу. Сначала гипотезы были более глобальными, мы пробовали нащупать разные проблемы, целевую аудиторию, выработать предложение. Но чем дальше развивался продукт, тем менее глобальными они становились и сама суть уже была реже подвержена изменениям. Проект начинался с нуля, с обычного landing page, потом на коленке создали демо клиента чат-бота, который до сих пор висит на нашей главной странице. Это демо могло воспроизводить строго запрограммированный диалог и служил нам демонстрацией того, что можно будет делать на нашем конструкторе — результат его работы, а не сам конструктор. Хитрость была в том, что мы предполагали, что бизнес придет к нам не за конструктором ботов, а за каким-то итогом, преимуществом, который он даст. Мы хотели налить нашим клиентам чашечку кофе, сделанного нашей кофемашиной, вместо того, чтобы показывать саму кофемашину. Нетрудно догадаться, что *сделать чашку кофе значительно быстрее и дешевле, чем собирать кофемашину*. Руководствуясь этим принципом мы и решили сделать сначала демо клиента, тем более, что при наличии ряда готовых инструментов это заняло у нас не больше двух вечеров, включая разработку сценариев диалогов. Когда мы увидели интерес со стороны посетителей лендинга и дополнительные конверсии, сгенерированные нашим же демо, мы решили, что пойдем дальше. Помню, что нашим первым релизом конструктора была форма регистрации с формой входа, после которой пользователь попадал на страницу с извинениями и обещанием сообщить когда заработает что-то еще. Я делал формы входа и регистрации добрую сотню раз в своей жизни и даже подумать не мог, что тут мы сразу обнаружим массу проблем. **Порядка 60% первых пользователей банально не могли завершить процесс регистрации**. У кого кнопка не работает, у кого email не приходит, у кого еще что-то. Сначала, я воспринимал идею релизить только пару форм весьма скептически, но первый же взгляд в Яндекс.Метрику дал понять, что это было скорее верное решение. Осознание того, что пользователи ведут себя не так, как тебе бы хотелось, а иногда так, как ты даже и подумать не мог сильно повлияло на все, что мы делали дальше. В качестве хобби я несколько раз в неделю тратил по паре часов в вебвизоре просто наблюдая за тем, как же юзеры пользуются нашей поделкой. Так, мало-помалу, мы добавляли функциональность нашему детищу и пришли к продукту, который все-таки обладает ценностью не только для нас, но и для наших пользователей, некоторые из которых даже платят нам деньги. В долгосрочной перспективе мы не понимали к чему мы хотим придти, как будет выглядеть наш продукт. Единственное что мы понимали тогда это то, что мы ничего не понимаем и находимся в состоянии неопределенности. ### Результат Этот эксперимент довел меня и мою команду до ангельских инвестиций из категории «friends, family, fools», построенного MVP, первых продаж, получения огромного опыта, множества радостей и разочарований. Мы еще не настоящий бизнес, но очень стремимся им стать. И когда я говорю это, я подразумеваю что мы все еще в поисках устойчивой бизнес-модели и product-market fit. Мы снова планируем искать верную концепцию продукта, своего клиента, свой рынок. Первоначальные цели были достигнуты далеко не все, но проект вырос из домашнего хобби и превратился в фуллтайм работу, появилась ответственность перед инвесторами, пользователями, сотрудниками. Конечно, у проекта существует масса проблем, как концептуальных, так и технических, но нет ничего не решаемого и мы планируем продолжать работу. Перед тем, как приступить к более технической части моего опуса, стоит, наверное вкратце рассказать о том, что продукт позволяет делать. * Управлять чат-ботами в аккаунте * Визуальный редактор чат-ботов * Управление доступом к чат-ботам(доступ для редактирования, публичный доступ) * Возможность публикации чат-ботов в web(widget, embedded, fullscreen) * Настройки чат-ботов(дизайн, названия, метрики, позиция виджета и прочее) * Поддержка интеграций чат-ботов с внешними сервисами через GET и POST запросы * Анализ диалогов ботв * Управление аккаунтом * Подписочная модель, управление подпиской ### Архитектура Теперь, зная предысторию, цели, идею и принципы, которыми мы руководствовались при разработке, я могу приступить к общему описанию того, как же это все работает. Поскольку изначально наш выбор пал на создание чат-ботов для сайтов и fullscreen чат-ботов, наподобие [app.botlify.io/bot/5de53dbf9b9bae002b319600](https://app.botlify.io/bot/5de53dbf9b9bae002b319600) было ясно, что большая часть работы будет на стороне frontend. В итоге фронт работ на клиенте сформировался в осмысленный список задач и хотелок: 1. Создать/найти клиентскую библиотеку, эдакий «движок» для чат-ботов в браузере, который понимает полученные json-инструкции и ведет диалог с пользователем. 2. Сделать приложение для редактирования узлов ботов, которое будет сохранять список узлов и связей между ними в какой-нибудь json-объект(на основании которого клиентская библиотека будет вести диалоги). 3. Для того, чтобы можно было регистрироваться, входить, управлять ботами и аккаунтом нужен какой-то кабинет пользователя. Тут же мы хотели учесть то, что у ботов могут быть более широкие настройки, нежели узлы, описывающие диалог. Например, настройки публикации, позиция виджета, текст кнопки виджета и т.п. 4. Нужен вебмодуль, который будут запрашивать наши клиенты, вставляя скрипт на свои страницы. Зная id бота, вебмодуль инициализирует клиентскую библиотеку с нужными параметрами:
https://habr.com/ru/post/487340/
null
ru
null
# Используем Chrome без мыши После перехода на Хром с Оперы мне не хватало одной вещи: использования браузера без мыши — передвижения по странице, переход по ссылкам и прочее. Часто, когда таскаю ноутбук, бывает необходимость работать без мыши. Увы, тачпаду на моем x350 далеко до «яблочного», поэтому становилось очень неудобно. В Опере такая возможность была доступна без плагинов путем указания горячих клавиш в системном меню. В качестве неравноценной замены использовал плагин [Hotkeys](https://chrome.google.com/webstore/detail/mmbiohbmijkiimgcgijfomelgpmdiigb). Он позволял передвигаться по странице, вкладкам, истории, но нельзя было «бегать» по ссылкам, заголовкам. И неожиданно наступило счастье — был найден плагин [Key Binder](https://chrome.google.com/webstore/detail/nhbabeboeddnfpeaapplballpmckeien), который, вносит в браузер многорежимный Vim-подобный подход к работе с браузером. На деле оказалось весьма удобное, многофункциональное, настраиваемое дополнение. ![image](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg863.imageshack.us%2Fimg863%2F773%2F33234884.jpg%22) После установки плагин предлагает нам пройти маленький курс обучения на английском языке, в результате которого мы узнаем, что работа с клавиатурой ведется в 3х режимах, которые отображаются в панели: B: режим навигации и управление формами I: режим работы в текстовых полях H: режим выделения и копирования текста ##### image Режим навигации и управление формами Этот режим включается по умолчанию или включается из других нажатием на Escape **Перемещение** Мы можем перемещаться по странице стандартным vim-способом: j-вниз на 10px, h-Вверх, k-влево, l-вправо. Можно до конца во все четыре стороны. **Ссылки и формы** Для перехода по ссылкам, нажатиям на кнопки и разные элементы форм есть универсальная клавиша «a» — которая выводит около всех видимых на экране активных элементов уникальные двух буквенные сочетания, напечатав которые производится действие. При этом сочетания удобны при использовании десяти пальцевого метода печати: ff, fj, fk, dk — то есть мизинцем нажимаем «a» и дальше указательными или средними пальцами добиваем команду.![image](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg863.imageshack.us%2Fimg863%2F773%2F33234884.jpg%22) Этот инновационный для меня подход понравился больше чем, в Опере, когда двумя клавишами мы передвигались по всем подряд ссылкам. Для выпадающих списков — сверху нам выводятся все пункты с теми же двумя буквами Для списков где можно выбрать несколько пунктов мы используем пробел. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a82/b8b/fb3/a82b8bfb3b6610eb2eb302de8f36304f.jpg) Есть еще одна интересная возможность: Команда «A», которая позволяет переходить по ссылкам в виде текста (без тега A) **Строка адреса** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/93d/a87/fce/93da87fce3fc1af2d8bb5ec09c8b4d07.jpg) При нажатии на «o» Открывается собственная строка адреса. Работает поиск в реальном времени. Перемещение между пунктами осуществляется с помощью Tab. Однако не хватает дополнительного поиска внутри сайта по Tab. **Поиск** Автор реализовал свой поиск по нажатию клавиш "/", "?" (Вперед и назад). Он может быть зависимым от регистра так и нет: Зависит от того используем мы его в строке. При удержании ctrl нам становиться поиск по регулярным выражениям. Нажав на Enter, мы переходим к первому найденному результату. Для перехода к следующему/предыдущему мы используем соответственно «n»/«N». ##### image Режим работы в текстовых полях В этот режим можно перейти либо с помощью уже знакомой клавиши «a», либо сочетанием g+i. Мы можем перемещаться между смежными текстовыми полями двойными последовательным нажатием сочетаний клавиш ctrl-x + ctrl+; и ctrl-x + ctrl -p Самое интересное начинается в другом — можно работать с текстом без стрелок на клавиатуре: перемещаться, копировать/удалять строки/слова/буквы различными сочетаниями клавиш. По документации здесь есть режим поиска, но у меня он почему-то не работал… ##### imageРежим выделения и копирования текста После нажатия на «s», нам как и в режиме «a» выводятся сочетания клавиш ко всем абзацам и значимым элементам для быстрого перехода. Далее нажав «v» мы фиксируем первую точку для выделения текста и перемещая клавишами навигации (hjkl) мы выделяем нужный кусок. В конце у нас есть 3 варианта: «v» — сбросить выделения для новой попытки «y» — скопировать текст в буфер обмена «o» — вставить текст в собственную строку адреса Для выхода мы нажимаем Escape ##### Редактирование настроек В настройках помимо просмотра всех стандартных клавиш, разработчик предоставил возможность редактирования всех клавиш в своеобразной консоли. Сам формат простой: bind/ubind <режимы> <клавиша> <назначаемая команда> Сами клавиши указываются в формате <[клавиша модифактор-] клавиша>. Можно использовать сочетания пары клавиш. Для ctrl используется формат , для alt — . Например: `bind b j [tab.scroll top:+50]` говорит, что при на клавишу j в режиме перемещения мы сдвигаем окно на 50px (когда по-умолчанию всего 10). `bind i [input.undo]` — назначаем на ctrl-z отмену последнего действия в режиме редактирования текста Так же можно задавать индивидуальные настройки и горячие клавиши для страниц по url. ##### Оптимизация настроек Мне стандартные клавиши показались не очень удобными, поэтому я немного их подправил и предлагаю сообществу свою настройку. Основные изменения: * Сдвинул вправо клавиши перемещения на «jkl;». Несмотря на мою любовь к клавишам перемещения в vim, в бразуере мне это кажется неудобным, так как при команде «a» необходимо постоянно сдвигать руку на стандартную позицию * Поместил рядом выше перемещение по табам и по истории * В редактировании текста поставил привычные клавиши ctrl+c,ctrl+x,ctrl+v,(copy,cut,paste) ctrl+z,ctrl+y,ctrl+Z (undo, redo) ##### Использование плагина После недельного тестирования были выявлены следующие особенности работы: 1. Не работают клавиши в Gmail, Reader и, что самое печальное, нельзя временно отключить плагин. 2. Не работает Gmail: не получается открывать письма — они не сделаны ссылками , поэтому плагин их не видит В режиме редактирования ctrl-c — работает как ctrl-x + ctrl-v Не выделяется весь тест в режиме редактирования — ctrl-a — в настройках найти не смог При нажатие F6 (переход в стоку адреса) — обратно в командный режим вернуться не получается Данный плагин оказался крайне приятным сюрпризом для меня (как и в свое время vim). С ним оказалось удобно работать, когда под рукой нет мыши, и иногда удобнее, когда она есть =) Единственное, что в плагине ужасно раздражает — неработоспособность почты и невозможность его временно отключить. P.S.: Еще был замечен интересный эффект: окружающие люди удивляются, когда видят, как серфишь в интернете без хвостатого грызуна.
https://habr.com/ru/post/137690/
null
ru
null
# Управление настройками ReSharper в команде Сегодня я хочу рассказать о том, как можно централизованно управлять настройками ReSharper на уровне команды разработчиков. Под настройками я понимаю настройки форматтера, Live Templates и настройки ReSharper. Они могут быть экспортированы и упакованы в так называемые [Declarative Extensions](https://www.jetbrains.com/resharper/devguide/Intro/DeclarativeExtensions.html). На данный момент все плагины для ReSharper представляют собой стандартные NuGet пакеты. Это позволяет распространять их через официальный [NuGet feed от JetBrains](http://resharper-plugins.jetbrains.com/packages) или публиковать их в частном закрытом NuGet сервере внутри компании. ### Экспорт настроек Для экспорта настроек и Live Templates перейдём в меню RESHARPER->Manage Options. ![Manage Options](https://habrastorage.org/r/w1560/files/ccc/806/b37/ccc806b37a694b60b144e1c2c760dfbd.png) В данном диалоге нужно выбрать уровень (Layer) настроек, который мы хотим экспортировать. Нажмём кнопку «Import/Export settings». ![export settings and templates](https://habrastorage.org/r/w1560/files/9fe/141/6dd/9fe1416ddc9b4d6285e816f965621b93.png) В окне «Export To File» отметим узлы «Code Style» и «LiveTemplates». Затем нужно указать директорию и имя DotSettings файла, в который будут записаны экспортируемые настройки. ### Подготовка NuGet пакета Как только настройки экспортированы, можно приступать к созданию NuGet пакета. Необходимо описать .nuspec файл. Для ReSharper 8.2 он будет выглядеть следующим образом: ``` xml version="1.0"? YourCompany.Settings 1.0.0 TeamSettings Your name Your Company http://your-company.com false Team settings and live templates for ReSharper Copyright Your Company settings ``` В случае с ReSharper 9.1 .nuspec файл будет немного отличаться. Узел Dependencies должен указывать версию «Wave», а не ReSharper: ``` ``` Так же нужно будет изменить target: ``` ``` Где «YourCompany.Settings» это идентификатор NuGet пакета. Теперь можно собрать пакет, выполнив команду: ``` nuget.exe pack nuspec-file-name.nuspec ``` Если мы выполнили предыдущие шаги без ошибок, то рядом с nuspec файлом будет создан пакет «YourCompany.Settings.1.0.0.nupkg». ### Публикация NuGet пакета Как упоминалось выше, ReSharper может использовать следующие источники NuGet пакетов: * Официальный feed от JetBrains * Любой сторонний NuGet сервер (например ProGet) * Артефакты TeamCity * Локальная или сетевая папка Публикация пакета на NuGet сервере практически ничем не отличается от публикации на nuget.org. В данной статье для простоты, в качестве NuGet feed, я буду использовать папку в файловой системе. Данная папка должна быть доступна с компьютера каждого программиста в команде. Например, это может быть общий exchange folder на сетевом диске. ### Использование кастомного NuGet feed После того, как пакет с расширением опубликован, нам нужно зарегистрировать новый источник расширений. Для этого перейдём в RESHARPER -> Options...-> Environment -> Extension Manager. ![Options-Environment dialog](https://habrastorage.org/r/w1560/files/88a/a49/ada/88aa49adaa8d4f2ab08525f938e51684.png) Нажмём «добавить» (Add), укажем имя в поле «Name» и путь до Артефактов, NuGet сервера или директории в поле «Source». ![add custom gallery](https://habrastorage.org/r/w1560/files/ea9/2b5/40e/ea92b540ebd24cdc8ae74418566ba681.png) ### Установка расширения Для установки расширения необходимо перейти в меню RESHARPER -> Extension Manager. В поиске нужно найти наш пакет и нажать Install. ![install custom plugin](https://habrastorage.org/r/w1560/files/6ac/833/50c/6ac83350cdca49c6a8fc14510ad1c95e.png) Проверим, что ReSharper обнаружил новые настройки. Откроем диалог Manage Options и убедимся, что новый слой настроек отображается на экране. ![new settings layer](https://habrastorage.org/r/w1560/files/91b/cfd/a89/91bcfda8978242179926acafafeac341.png) Теперь каждый член команды может использовать актуальную версию настроек. В случае изменения или обновления настроек достаточно лишь опубликовать новую версию плагина, и ReSharper автоматически найдёт обновление и проинформирует разработчика.
https://habr.com/ru/post/262383/
null
ru
null
# Подборка полезных репозиториев на GitHub ![](http://l0st.ws/f/b5/habratop-ghrepo.png) В последнее время у меня собралось много отмеченных репозиториев на GitHub со всякими разными, полезными и не очень кусками кода. Решил их как структурировать для себя, так и поделиться с общественностью. [facebook/three20 ================](http://github.com/facebook/three20) ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3ed/22e/617/3ed22e617e5a6f01c422de4f4f6c3aab.jpg) Весьма извесная библиотека с разным функционалом под iPhone. Используется в официальном приложении Facebook. Ранее имевшая некоторые проблемы с приватным API, сейчас Three20 проходит валидацию в AppStore без проблем. Библиотека очень мощная, и, из-за этого, несколько сложна в начальном изучении. Много всяческиз helper-макросов, начиная от работы с памятью, и заканчивая расширенным логгингом. В комплект так же входят интерфейсы для работы с изображениями (TTPhotoViewController эквивалентен фотоброузеру из стандартного Photos), письмами (полностью расширяемый UI для отправки почты). Расширенный контроллер таблиц TTTableViewController сделан специально для получения данных из сети. TTTextEditor – замечательный контрол, который позволяет вводить текст в динамически расширяемый UITextView, так же, как это делает SMS. Помимо UI, есть несколько полезных классов уровня Foundation, например TTURLRequest позволяет кешировать запросы на диске (то, что на ифоне средствами Foundation сделать нельзя). Еще есть очень интересный но немного сложный для понимания TTNavigator, который позволяет сделать гибкую систему навигации внутри приложения. На самом деле Three20 по этой части заслуживает отдельной статьи. [pokeb/asi-http-request ======================](http://github.com/pokeb/asi-http-request) Враппер для CFNetwork, который позволяет делать расширенные HTTP-запросы. Из полезных моментов: позволяет закачивать данные прямо в файл; поддерживает простой интерфейс для передачи файлов в POST-запросе; есть поддержка делегатов для обновления прогресса закачки; поддержка разных схем авторизации (Basic, Digest, NTLM); поддержка GZip как для ответа, так и для передачи запросов. Помимо всего этого, ASI HTTP умеет работать с Amazon S3, а из расширенных возможностей, поддерживает шейпинг закачки и работу через прокси. ASI HTTP прекрасно чувствует себя и в Mac OS X, и на iPhone. [parmanoir/jscocoa =================](http://github.com/parmanoir/jscocoa) Очень крутая штука – по сути бриджинг из Javascript в Cocoa. Работает на базе вебкитного JavascriptCore, и предоставляет более широкие возможности, нежели стандартный бриджинг. Библиотека позволяет не только создавать новые классы в рантайме на JS, но и выполнять свиззлинг (подмену методов) существующих классов, а так же выполнение стандартных JS-методов на ObjC-объектах (особенно мне нравится пример с регулярками из документации: `myNSString.match(/pattern/)`). С помощью JSCocoa можно очень просто добавить поддержку скриптинга и плагинов в любое ваше приложение (только не надо забывать, что за поддержку скриптинга в iPhone-приложениях потенциально можно получить reject). [andrep/RMModelObject ====================](http://github.com/andrep/RMModelObject) Читали ли вы [гайд по реализации объектов-моделей](http://developer.apple.com/mac/library/documentation/Cocoa/Conceptual/ModelObjects/Introduction.html) в Objective-C? Если да, то вы представляете себе объем работы, необходимый для создания полноценного класса-модели, а ведь Core Data – это не серебрянная пуля ©. RMModelObject делает бóльшую чать реализации за вас. По сути, описание экземпляра модели сводится к следующему коду: ``` @interface MyBlogEntry : RMModelObject @property (copy) NSString* title; @property (copy) NSCalendarDate* postedDate; @property (copy) NSAttributedString* bodyText; @property (copy) NSArray* tagNames; @property (copy) NSArray* categoryNames; @property BOOL isDraft; @end // @implementation MyBlogEntry @dynamic title, postedDate, bodyText, tagNames, categoryNames, isDraft; @end ``` Не надо явно объявлять ivar'ы. Не надо описывать аксессоры. Готовая поддержка как NSCopying, так и NSCoding. Готовая поддержка сравнения объектов (-isEqual: и -hash) по заданным критериям сравнения. Готовый -dealloc. Замечательная штука, одним словом. А еще такие классы будут получать уведомления (a la упрощенное KVO), когда любое поле модели будет изменено, что позволяет сделать и валидацию и моментальное сохранение. Конечно все это отлично дружит с другими технологиями Cocoa, например с биндингами. RMModelObject внутри представляет собой очень интересное инженерное решение, если вам интересно копание в рантайме – советую почитать исходники. [erica/\* ========](http://github.com/erica/) Эрика Садунн – известный программист и замечательный автор. В ее репозитории можно найти несколько полезных категорий для повседневной работы. [Расширения NSObject](http://github.com/erica/NSObject-Utility-Categories) позволяют делать несколько интересных вариантов вызова селекторов (например `- (id) objectByPerformingSelectorWithArguments: (SEL) selector, ...;`), и получать доступ к информации из рантайма. [Расширения для NSArray](http://github.com/erica/NSArray-Utilities) позволяют делать выборки, традиционно применяемые для set: uniqueMembers, unionWithArray:, intersectionWithArray:; операции map, collect, reject по заданым селектору и аргументам, а так же расширения для работы с NSArray как со стеком или очередью. [NSDate-Extensions](http://github.com/erica/NSDate-Extensions) добавляет в NSDate методы для быстрого создания даты, проверки на «сегодня», «вчера», «завтра», «на этой неделе», и т.п. и простого разбора NSDate на компоненты без привлечения календарного класса. Я советую так же заглянуть в другие репозитории Эрики. [guicocoa/GCCalendar ===================](http://github.com/guicocoa/GCCalendar) [![](http://l0st.ws/f/4d5/gh-scr1m.png)](http://l0st.ws/f/e07/gh-scr1.png) GCCalendar – класс для создания интерфейса календаря. GCCalendar поддерживает только вид представления «один день», но делает это очень хорошо. [uliwitness/UliPhoneKit ======================](http://github.com/uliwitness/UliPhoneKit) Позволяет в две сторчки проиграть заданный звук на iPhone. Неоценим для быстрого добавления звуковой индикации в проект, но больше ничего и не умеет. [enormego/EGOTableViewPullRefresh ================================](http://github.com/enormego/EGOTableViewPullRefresh) [![](http://l0st.ws/f/2a9/gh-scr2m.png)](http://l0st.ws/f/2e9/gh-scr2.png) Однажды появившийся в Tweetie подход с обновлением путем перетягивания UITableView вниз уже разошелся по разным приложениям и стал вполне стандартным паттерном взаимодействия с iPhone. EGOTableViewPullRefresh поможет быстро и просто добится аналогичной функциональности в вашем приложении. Если кнопка refresh не вписывается в интерфейс, или места для нее уже не осталось – попробуйте pull-refresh! А еще блог [enormego](http://developers.enormego.com/) очень интересен. [tmdvs/TDBadgedCell ==================](http://github.com/tmdvs/TDBadgedCell) [![](http://l0st.ws/f/74/gh-scr3m.png)](http://l0st.ws/f/4b/gh-scr3.png) TDBadgedCell добавляет на UITableViewCell свойство badgeNumber, которое показывает на бейдже справа указанное число так же, как это делает MobileMail. [mattball/MBCoverFlowView ========================](http://github.com/mattball/MBCoverFlowView) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/411/27c/048/41127c048bf78670ca68af0822248ad9.png) MBCoverFlowView – это класс для Mac OS X, с помощью которого можно сделать эффект cover flow так же, как он работает в Finder и iTunes. [sdegutis/SDModelObject ======================](http://github.com/sdegutis/SDModelObject) SDModelObject – это более простой вариант уже упомянутого RMModelObject. Единственное, что он поддерживает: автоматическое освободжение всех объектов-свойств в -dealloc, проверка на -isEqual: по заданному набору ключей и -hash. [ccgus/jstalk ============](http://github.com/ccgus/jstalk) Как-то я пробовал написать пару-тройку скриптов на AppleScript. К сожалению, до конца понять этот язык у меня не вышло, уж больно он непривычен. JSTalk – это интересный проект, с помощью которого общаться с приложением через ScriptBridge можно посредством JS-кода. Кроме того, JSTalk поддерживает специалный вид вызовов через препроцессор, что позволяет использовать тридиционный ObjC-стиль вызова методов `[someObje someMeth:someArg]` в JS. [sdegutis/SDKVO ==============](http://github.com/sdegutis/SDKVO) Категория SDKVO добавляет ко всем объектам следующий метод: ``` - (id) observeKeyPath:(NSString*)newKeyPath options:(NSKeyValueObservingOptions)someOptions handler:(void(^)(id object, NSDictionary *change))newHandler; ``` с помощью которого KVO можно использовать через блоки в 10.6SDK (iPhone4.0SDK, или PLBlocks). [sdegutis/SDKeychain ===================](http://github.com/sdegutis/SDKeychain) SDKeychain предоставляет всего два аккуратный Cocoa API для работы с OSX Keychain (родное API только на C): ``` + (NSString*) securePasswordForIdentifier:(NSString*)username; + (BOOL) setSecurePassword:(NSString*)somePassword forIdentifier:(NSString*)username; ``` [yfactorial/objectiveresource ============================](http://github.com/yfactorial/objectiveresource) ObjectiveResource – это порт рельсового ActiveResource на Objective-C. К сожалению, я так и не поковырял этот репозиторий с момента зафоловливания, но, все же, упоминаю его здесь, потому как он кажется мне весьма интересным. [blakeseely/bsjsonadditions ==========================](http://github.com/blakeseely/bsjsonadditions) Если в передаче данных по сети вы полагаетесь на JSON (я лично предпочитаю XML Plist'ы), то попробуйте bsjsonadditions. Поддерживаются как кодирование объектов в JSON, так и парсинг строк. [sdegutis/CocoaREST ==================](http://github.com/sdegutis/CocoaREST) В CocoaREST входит целое семейство классов для работы с RESTful API разных сервисов, в том числе: Facebook, FriendFeed, Identica, Twitter. Так же достаточно просто написать поддержку своего API. [sschroed/mini-mallows =====================](http://github.com/sschroed/mini-mallows) Очень простой враппер для NSURLConnection, который позволяет делать сложные POST-запросы, в том числе – передавать в них файлы. Вот, кажется, и все. Еще у меня есть несколько любимых репозиториев на Google Code (в том числе [Google Toolbox for Mac](http://code.google.com/p/google-toolbox-for-mac/), [json-framework](http://code.google.com/p/json-framework/), [kissxml](http://code.google.com/p/kissxml/), [plbocks](http://code.google.com/p/plblocks/) и [XMPP Framework](http://code.google.com/p/xmppframework/)), но о них как-то в другой раз.
https://habr.com/ru/post/93117/
null
ru
null
# JWT аутентификация в CLI приложении на Linux > JSON Web Token — это открытый стандарт для создания токенов доступа, основанный на формате JSON. Как правило, используется для передачи данных для аутентификации в клиент-серверных приложениях. [Wikipedia](https://ru.wikipedia.org/wiki/JSON_Web_Token) > > Когда речь идёт о хранении sensitive data в браузере, достаточно воспользоваться одним из двух доступных вариантов: cookies или localStorage. Тут каждый выбирает по вкусу. Однако я посвятил эту статью Secret Service – службе, которая работает через D-Bus и предназначена для хранения «секретов» в Linux. У службы есть API, которым пользуется GNOME Keyring для хранения секретов приложений. Почему Secret Service --------------------- Дело в том, что я получал токен не в браузере. Я писал клиентскую аутентификацию для консольного приложения, похожую на ту, что используется в git. Вопрос о способе хранения реквизитов встал сразу, так как я не хотел вынуждать пользователей логиниться при очередном запуске моего приложения. Сначала был вариант хранить токен в зашифрованном файле, но он отпал сразу потому, что я догадывался, что мои функции шифрования и дешифровки будут велосипедом. Тогда я задумался о том, как хранит секреты Linux, и оказалось, что подобные механизмы реализованы и в других ОС. В итоге ключом доступа к токену будет служить пароль учетной записи пользователя Linux. Архитектура Secret Service вкратце ---------------------------------- Основная структура данных Secret Service — это коллекция элементов с атрибутами и секретом. ### Коллекция Это набор всевозможных аутентификационных данных. В системе используется коллекция по-умолчанию под псевдоним «default». В нее записываются все пользовательские приложения. Seahorse нам её покажет. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4c3/bc5/d17/4c3bc5d17a4181e8ff01250d2ca7a2b5.png)Как видно, в моё хранилище сохранились Google Chrome и VSCode. Сюда же будет сохраняться и моё приложение. Каждая такая запись называется элементом. ### Элемент Часть коллекции, хранящая атрибуты и секрет. ### Атрибуты Пара вида ключ, значение, которая содержит название приложения и служит для идентификации элемента. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fd1/0a4/96e/fd10a496e62b0e1daf78f1840638544c.png)### Секрет Название говорит само за себя, но здесь хранятся различные структуры данных в байтовой репрезентации, содержащие пользовательскую почту, пароль и так далее. Алгоритм взаимодействия с Secret Service ---------------------------------------- Я долго думал над алгоритмом аутентификации, пока не набросал flow chart. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/390/7fb/cd9/3907fbcd9f4d284267a00dae7f6f9222.jpeg)### Определяем операторы * «Токен в хранилище?» — функция и условие. * «Извлечь токен из хранилища» — функция. * «Запросить регистрационные данные у пользователя» — функция. * «Запросить токен у API» — функция. * «Сохранить токен в хранилище» — функция. * «Использовать токен» — конец. Реализация на Python -------------------- Я решил попробовать Click Framework для создания CLI приложения. ``` import click ``` Он предоставляет декораторы для определения команд, опций, аргументов и так далее. Все команды приложения принято оборачивать в группу. Я сделал это для того, чтобы задать точку входа в скрипт. ``` @click.group() def cli(): pass ``` Для логина в приложение я создам одноименную команду. В консоле это будет выглядеть так: ``` $ app login Email: Password: ``` Или так когда токен получен: ``` $ app login Logged in! ``` ### Команда login ``` @cli.command(help="Login into your account.") @click.option( '--email', prompt=True, help='Registered email address.') @click.option( '--password', prompt=True, hide_input=True, help='Password provided at registration.' ) def login(email, password): pass if __name__ == '__main__': cli() ``` Все декораторы применяются к функции `login`, которая пока не имплементирована, но принимает значения параметров email и password. Декоратор `@cli.command` добавляет команду в группу, а `@click.option` делает параметры функции опциями команды. В опции пароля, параметр `hide_input` скрывает символы при вводе в консоле. Параметр `prompt` принимает булевые значения, согласно которым Сlick Framework решает, запрашивать ли значение параметра у пользователя. #### С последним у меня проблемы Я не могу просто присвоить ему `True` или `False` потому, что: * в случае `True` Click Framework запрашивает опцию при каждом запуске. Мне это не подходит. Достаточно запросить почту и пароль при первом запуске, получить токен от WEB API и сохранить его в Secret Service, а в дальнейшем запрашивать токен у Secret Service API; * В случае `False` Click Framework вообще не запрашивает опцию. Значит, я не смогу получить токен, если приложение запущено впервые и токен отсутствует в Secret Service. #### Решение Мне нужна функция, которая примет решение и вернет соответствующее значение в переменную `prompt_decision`. А зависит это решение от наличия или отсутствия токена в Secret Service. Отсюда следует, что функция подключается к Secret Service API и запрашивает токен. #### Последствия На этом моменте я решил собрать всю аутентификационную логику в классе отдельного модуля. На мой взгляд, глобальные переменные, классы и не декорированные функции испортят читаемость в контексте паттерна Click Framework. Напротив, если основной модуль будет содержать код, исключительно относящийся к Click Framework, он будет выглядеть понятно и лаконично. В итоге модуль app содержит логику паттерна Click Framework. В него я буду импортировать модуль auth, в котором будет класс Auth с логикой аутентификации. ``` . ├── auth.py └── app.py ``` Я буду хранить значение решения о запросе почты и пароля у пользователя в атрибуте `prompt_decision` объекта `auth` класса `Auth` модуля `auth`. ``` @cli.command(help="Login into your account.") @click.option( '--email', prompt=auth.prompt_decision, help='Registered email address.') @click.option( '--password', prompt=auth.prompt_decision, hide_input=True, help='Password provided at registration.' ) def login(email, password): pass if __name__ == '__main__': cli() ``` Пишем модуль аутентификации --------------------------- Для Python доступен пакет SecretStorage, который использует Secret Service API. Он оперирует основными понятиями службы и включает в себя два модуля, которые реализуют классы и функции доступа к основным объектам Secret Service. Здесь будет реализован класс доступа к Secret Service API и WEB API, определен атрибут `prompt_decision` и соответствующий метод. ### Импортируем необходимые пакеты * requests — для HTTP запросов к WEB API. * secretstorage — для запросов к Secret Service API. * json — для десериализации байтов в словарь. ``` import requests import secretstorage import json ``` ### Получаем секрет из SecretStorage ``` class Auth: def __init__(self, email=None, password=None): # атрибуты, по которым осуществляется поиск элемента # Secret Service self._attributes = {'application': 'MyApp'} # подключение к Dbus self._connection = secretstorage.dbus_init() # запрос коллекции по-умолчанию self._collection = secretstorage.collection.get_default_collection( self._connection ) # запрос всех элементов коллекции с указанными атрибутами self._items = self._collection.search_items(self._attributes) # получение конечного атрибута self._stored_secret = self.get_stored_secret() ``` На данном этапе я запросил нужный мне элемент коллекции. Критерием поиска для Secret Service служит атрибут `self._attributes`. О символе «\_» в названиях атрибутовНижнее подчеркивание в названиях атрибутов означает, что к ним *не предполагается* обращаться извне. Впрочем, это не делает их недоступными для других объектов. Интерпретатор не изолирует их в отдельном пространстве имён, доступном только из области видимости объекта. Так обозначаются атрибуты, которые нигде, кроме самого объекта не используются. И это не более, чем солгашение. Стоит отметить, что заданному критерию поиска в коллекции может соответствовать не один элемент. По этой причине автор(ы) SecretStorage решил(и) возвращать генератор в ответ на поисковый запрос. Не вдаваясь в подробности, это означает, что необходимо итерировать по `self._items` в поисках нужного элемента. Я делаю это в методе `get_stored_secret`, который возвращает *готовый* секрет. ``` class Auth: def get_stored_secret(self): for item in self._items: if item: return json.loads(item.get_secret()) ``` В цикле итератор становится экземпляром класса `Item` пакета `secretstorage`, поэтому на нём можно вызвать метод `get_secret`, который возвращает секрет. В условии можно указать дополнительный критерий отбора элемента. Но мне достаточно факта самого существования такового. Далее следует десериализация секрета и возврат словаря. ### True или False — вот, в чём вопрос В отличие от источника, моя аллегория в заголовке носит менее риторический характер, и я смело могу ответить: «Для начала — False». ``` class Auth: def __init__(self, email=None, password=None): # все, что было написано до этого self.prompt_decision = False ``` > Только постоянное изменяется; изменчивое подвергается не изменению, а только смене. [Иммануил Кант](https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D0%BD%D1%82,_%D0%98%D0%BC%D0%BC%D0%B0%D0%BD%D1%83%D0%B8%D0%BB) > > И Буль своей логикой нисколько не противоречит Канту. Возможно, Гамлету стоило взять это на вооружение. ``` class Auth: def __init__(self, email=None, password=None): # все, что было написано до этого # если секрет получен if self._stored_secret: # он будет доступен в атрибуте token self.token = self._stored_secret['token'] # если пароль и почта запрошены у пользователя elif email and password: # получить токен у WEB API self.token = self.get_token(email, password) # сохранить токен как актуальный self._valid_secret = {'token': self.token} # сохранить токен в Secret Service self.set_stored_secret() else: # если токена нет в Secret Storage, нужно запросить почту и пароль # пользователя self.prompt_decision = True ``` Таким образом объекты моего класса инициализируются по-разному в зависимости от наличия параметров почты и пароля. #### Инициализация без параметров 1. Запросить токен у Secret Storage API. 2. Если токен найден, не запрашивать почту и пароль у пользователя. 3. Использовать токен из Secret Storage. #### Инициализация с параметрами 1. Запросить токен у Secret Storage API. 2. Если токен найден, не запрашивать почту и пароль у пользователя и использовать токен из Secret Storage. 3. Если токен не найден, принять решение о запросе почты и пароля у пользователя. 4. Если пароль и почта предоставлены, запросить токен у WEB API. 5. Если токен получен, сохранить его в Secret Storage. Осталось реализовать методы сохранения токена в Secret Storage и запроса к WEB API. ### Получаем актуальный токен у WEB API ``` class Auth: def get_token(self, email: str, password: str) -> str: try: response = requests.post( API_URL, data= { 'email': email, 'passwd': password }) data = response.json() except requests.exceptions.ConnectionError: raise requests.exceptions.ConnectionError() if response.status_code != 200: raise requests.exceptions.HTTPError(data['msg']) return data['data']['token'] ``` В константе `API_URL` располагается адрес моего API. По понятным причинам, я не могу его опубликовать. Однако, он возвращает токен при POST запросе с параметрами «email» и «passwd». Метод возвращает два исключения при ошибки подключения к API и во всех случаях, когда ответ API не содержит токена. Во всех таких случаях API возвращает объект «msg» с соответствующим сообщением из тела ответа. После сериализации в блоке try я могу просто выводить это сообщение в консоль. Сам токен хранится в объекте «data». ### Сохраняем токен в Secret Storage ``` class Auth: def set_stored_secret(self): self._collection.create_item( 'MyApp', self._attributes, bytes((json.dumps(self._valid_secret)), 'utf-8') ) ``` Чтобы сохранить секрет методу `create_item` нужно название сохраняемого элемента, его атрибуты и сам секрет в байтовой репрезентации. Используем модуль в Сlick Framework ----------------------------------- Сперва импортируем модуль `auth`. ``` from auth import Auth ``` Затем инициализируем объект без параметров для проверки Secret Storage. ``` auth = Auth() ``` Передаем решение в декораторы опций. ``` @cli.command(help="Login into your account.") @click.option( '--email', prompt=auth.prompt_decision, help='Registered email address.') @click.option( '--password', prompt=auth.prompt_decision, hide_input=True, help='Password provided at registration.' ) ``` Дописываем команду login. ``` def login(email, password): global auth try: # если было принято решение о запросе почты и пароля if auth.prompt_decision: # получить новый токен и сохранить его в Secret Storage auth = Auth(email, password) except Exception: return click.echo('No API connection') # далее следует любая логика работы, связанная с токеном. click.echo(auth.token) ``` Радуемся автоматически сгенерированной справке ---------------------------------------------- Click Framework генерирует справку автоматически. Для этого ему нужны строки, которые я указывал в параметре`help`его декораторов. ``` $ python app.py Usage: app.py [OPTIONS] COMMAND [ARGS]... Options: --help Show this message and exit. Commands: login Login into your account. ``` ### Справка команды login ``` $ python app.py login --help Usage: app.py login [OPTIONS] Login into your account Options: --email TEXT Registered email address --password TEXT Password provided at registration --help Show this message and exit. ``` Проверка -------- После запуска приложения командой `python app.py login` оно запросит почту и пароль. Если эти данные верны, то в Secret Service появится соответствующий элемент. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b6f/5ea/db4/b6f5eadb4f568bcfe4f12b0de93775c1.png)В нём действительно хранится токен. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/55f/9a5/d71/55f9a5d711b147177a93218a77a33c6b.png)При повторном запуске приложение не будет спрашивать реквизиты, а загрузит токен уже из Secret Service. Ссылки ------ * [Secret Service API Draft](https://specifications.freedesktop.org/secret-service/latest/) * [Welcome to SecretStorage documentation!](https://secretstorage.readthedocs.io/en/latest/) * [Click Framework](https://click.palletsprojects.com/en/7.x/) * [Requests: HTTP for Humans™](https://requests.readthedocs.io/en/master/)
https://habr.com/ru/post/524622/
null
ru
null
# TinyML — машинное обучение на микроконтроллерах ![](https://habrastorage.org/r/w1560/webt/at/wq/lw/atwqlw7pycfjd7lidhauf2kqsvw.png) В настоящее время мы все, так или иначе, пользуемся последними достижениями в сфере так называемого «искусственного интеллекта», который на самом деле представляет собой зачастую просто интеллектуальные алгоритмы на базе нейросетей. Тем не менее подобные интеллектуальные решения всё сильнее входят в жизнь и начинают захватывать всё новые и новые сферы. Одним из достаточно жарких направлений в современной микроэлектронике и интеллектуальных системах является тема встраивания подобных алгоритмов в маленькие неэнергозатратные системы (потребление которых при работе этих алгоритмов измеряется милливаттами). Подобный подход называется TinyML — алгоритмы машинного обучения на микроконтроллерах. Об этом и поговорим в статье ниже. Неоспоримыми преимуществами подобных решений являются: * Улучшенная защищенность данных, так как обработка происходит прямо на месте и они не передаются на удалённый сервер. * Система, которая становится более независимой от качества соединения с сетью. * Возможность подобных решений привнести долю интеллекта во множество простых на первый взгляд вещей, которые мы не привыкли наделять какими-либо «мыслительными способностями». > *Далее будет некоторый обзор информации по этой теме, которую мне удалось найти и систематизировать для себя самого, так как я испытываю весьма горячий интерес к теме, потому что достаточно плотно занимаюсь микроконтроллерами. Возможно, эта информация поможет и вам в продвижении в этом направлении! Материал не претендует на исключительную полноту знаний.* Достаточно интересной системой для машинного обучения является TensorFlow, которая благодаря своему большому количеству библиотек, сообществу, множеству инструментов и кода позволяет применять самые новые решения из этой области. Система поддерживает достаточно большое количество платформ и требует 32-битной архитектуры. Кстати сказать, что радует, моя любимая esp-32 среди них тоже присутствует :-) Как правило, работа с этой системой состоит из **4 шагов:** **1.** Непосредственное обучение модели. **2.** Уменьшение модели в размерах, чтобы она поместилась в микроконтроллер (для чего обычно используется конвертер TensorFlow Lite). Для ещё большего уменьшения её размера можно использовать последующее квантование модели. Например, применяется квантование до целых чисел с 8-битной точностью: ``` import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) converter.optimizations = [tf.lite.Optimize.DEFAULT] tflite_quant_model = converter.convert() ``` **3.** После чего модель встраивается в микроконтроллер с помощью преобразования в массив char: ``` unsigned char converted_model_tflite[] = { 0x18, 0x00, 0x00, 0x00, 0x54, 0x46, 0x4c, 0x33, 0x00, 0x00, 0x0e, 0x00, // }; unsigned int converted\_model\_tflite\_len = 18200; ``` **4.** Вывод на устройстве и обработка результатов. Работа с этой системой содержит на гитхабе множество примеров и расписанных readme-файлов, позволяющих реализовать разнообразные решения, в том числе **захват речи, захват жестов, обнаружение человека на изображении с камеры**. > Ознакомление с этой системой можно начать прямо [с этой страницы](https://www.tensorflow.org/lite/microcontrollers#limitations). > > > > Кстати говоря, помимо официального ресурса, имеется и интересный учебник с пошаговым обучением TensorFlow Lite, который можно [найти здесь](https://github.com/arduino/ArduinoTensorFlowLiteTutorials/tree/master/GestureToEmoji). Однако не так давно меня привлекла альтернативная система — MicroML, которая, в отличие от TensorFlow, предлагает более компактные решения из области нейронных сетей, позволяющие производить обработку на 8-битных микроконтроллерах. Так как она может выполняться даже на системах с ОЗУ менее чем в 2 килобайта, в отличие от того же TensorFlow (так его позиционирует разработчик, и в блоге у TensorFlow озвучивается цифра в 16 КБ. Возможно, она может быть развёрнута и на более «мелких» платформах). Разработчик этой системы даёт подробный алгоритм для использования её на микроконтроллерах, который состоит [из 4 шагов](https://eloquentarduino.github.io/2019/11/how-to-train-a-classifier-in-scikit-learn/): **1.** Сохранение данных образцов для каждого класса в отдельной строке файла .csv и загрузка этих данных в программу: ``` import numpy as np from glob import glob from os.path import basename def load_features(folder): dataset = None classmap = {} for class_idx, filename in enumerate(glob('%s/*.csv' % folder)): class_name = basename(filename)[:-4] classmap[class_idx] = class_name samples = np.loadtxt(filename, dtype=float, delimiter=',') labels = np.ones((len(samples), 1)) * class_idx samples = np.hstack((samples, labels)) dataset = samples if dataset is None else np.vstack((dataset, samples)) return dataset, classmap ``` **2.** Обучение модели использованием ряда подходов: * [Decision Tree](https://eloquentarduino.github.io/2020/10/decision-tree-random-forest-and-xgboost-on-arduino/) * [Random Forest](https://eloquentarduino.github.io/2020/10/decision-tree-random-forest-and-xgboost-on-arduino/) * [XGBoost](https://eloquentarduino.github.io/2020/10/decision-tree-random-forest-and-xgboost-on-arduino/) * [Gaussian NB](https://eloquentarduino.github.io/2020/08/eloquentml-grows-its-family-of-classifiers-gaussian-naive-bayes-on-arduino/) * [Support Vector Machines](https://eloquentarduino.github.io/2019/12/how-to-do-gesture-identification-on-arduino/) * [Relevance Vector Machines](https://eloquentarduino.github.io/2020/02/even-smaller-machine-learning-models-for-your-mcu/) * [SEFR](https://eloquentarduino.github.io/2020/07/sefr-a-fast-linear-time-classifier-for-ultra-low-power-devices/) Например, так выглядит применение Random Forest: ``` from sklearn.ensemble import RandomForestClassifier def get_classifier(features): X, y = features[:, :-1], features[:, -1] return RandomForestClassifier(20, max_depth=10).fit(X, y) ``` **3.** Экспортирование обученной модели в код C. Делается это с помощью пакета [micromlgen](https://github.com/eloquentarduino/micromlgen). **4.** Использование полученного кода в рамках вашего Arduino-проекта: ``` // put the code you got in Step 3 into this file #include "model.h" // this class will be different if you used another type of classifier, just check the model.h file Eloquent::ML::Port::RandomForest classifier; void classify() { float x_sample[] = { /* fill this vector with sample values */ }; Serial.print("Predicted class: "); Serial.println(classifier.predictLabel(x_sample)); } ``` Чем мне нравится такая система: автор практически постоянно подчёркивает тот момент, что многие мануалы в интернете, посвящённые теме машинного обучения, являются достаточным многословными и запутанными, что существенно осложняет вход в эту тему для новичков. В противовес этому, его система и инструкции позиционируются как весьма лаконичные и понятные. В блоге этой системы содержится много примеров. Рассмотрим вкратце некоторые наиболее интересные из них. Обнаружение человека на видео ----------------------------- Например, как вам возможность обнаружения человека на картинке с камеры [за 3 строчки кода](https://eloquentarduino.github.io/2021/11/3-lines-of-code-person-detection-on-arduino-portenta-and-esp32/)? Мне самому весьма понравился этот подход, потому что я сейчас обратил своё внимание на плату esp32 cam, с которой как раз начинаю серию экспериментов. Для этого потребуется пройти всего лишь **3 шага:** **1.** Установить библиотеку [EloquentTinyML](https://github.com/eloquentarduino/EloquentTinyML) прямо из стандартного менеджера библиотек Arduino: ![](https://habrastorage.org/r/w780q1/webt/p0/cj/-e/p0cj-emxotc5zglaq-35eb3lsno.jpeg) **2.** Ввести настройки для камеры (например, esp32): ``` // file ESP32Camera.h #define CAMERA_MODEL_M5STACK_WIDE #include Eloquent::Vision::ESP32Camera camera; camera\_fb\_t \*frame; /\*\* \* Configure camera \*/ void initCamera() { camera.begin(FRAMESIZE\_QVGA, PIXFORMAT\_GRAYSCALE, 20000000); } /\*\* \* Capture frame from ESP32 camera \*/ uint8\_t\* captureFrame() { frame = camera.capture(); return frame->buf; } ``` **3.** Задействовать нейронную сеть: > > **Пример** > > ``` > #include > #include > > #if defined(ESP32) > #include "ESP32Camera.h" > #else > #include "PortentaVision.h" > #endif > > const uint16\_t imageWidth = 320; > const uint16\_t imageHeight = 240; > > Eloquent::TinyML::TensorFlow::PersonDetection detector; > > void setup() { > Serial.begin(115200); > delay(5000); > initCamera(); > > // configure a threshold for "robust" person detection > // if no threshold is set, "person" would be detected everytime > // person\_score > not\_person\_score, even if just by 1 > // by trial and error, considering that scores range from 0 to 255, > // a threshold of 190-200 dramatically reduces the number of false positives > detector.setDetectionAbsoluteThreshold(190); > detector.begin(); > > // abort if an error occurred > if (!detector.isOk()) { > Serial.print("Setup error: "); > Serial.println(detector.getErrorMessage()); > > while (true) delay(1000); > } > } > > void loop() { > uint8\_t \*frame = captureFrame(); > bool isPersonInFrame = detector.detectPerson(frame); > > if (!detector.isOk()) { > Serial.print("Loop error: "); > Serial.println(detector.getErrorMessage()); > > delay(10000); > return; > } > > Serial.println(isPersonInFrame ? "Person detected" : "No person detected"); > Serial.print("\t > It took "); > Serial.print(detector.getElapsedTime()); > Serial.println("ms to detect"); > Serial.print("\t > Person score: "); > Serial.println(detector.getPersonScore()); > Serial.print("\t > Not person score: "); > Serial.println(detector.getNotPersonScore()); > delay(1000); > } > ``` > > По этой теме есть весьма подробный мануал по [вот этому адресу](https://eloquentarduino.com/projects/esp32-arduino-motion-detection), который позволяет настроить распознавание движения на камерах, подключённых к Arduino и esp32 (в данном случае мы говорим о «esp32 cam»). Подход, который демонстрируется в этом мануале, в двух словах заключается в том, что камера сравнивает каждый последующий кадр с предыдущим, и если они отличаются на слишком много пикселей, то запускается «событие движения». Однако, для ускорения работы системы, так как сравнение каждого пикселя заняло бы слишком большое время, в качестве сравниваемых образцов используются уменьшенные варианты кадра, в данном случае 32 на 24: ``` #define THUMB_WIDTH 32 #define THUMB_HEIGHT 24 Eloquent::Vision::Motion::Naive detector; ``` Благодаря такому упрощённому подходу, система позволяет работать в реальном времени и обнаруживать движение! Распознавание звука ------------------- Для этой задачи можно использовать Arduino и подключённый к ней микрофон. Сама процедура [выглядит так](https://eloquentarduino.github.io/2019/12/word-classification-using-arduino/): запись фонового шума, запись произносимых фраз, быстрое преобразование Фурье (которое даёт нам информацию о частоте с привязкой ко времени), после чего всё так же, как и в других примерах, обучается модель, экспортируется и вставляется в ваш код Arduino, после чего можно запускать вывод и смотреть результаты работы модели: ``` #include "model.h" void loop() { if (!soundDetected()) { delay(10); return; } captureWord(); Serial.print("You said "); Serial.println(classIdxToName(predict(features))); delay(1000); } ``` Затея весьма интересная, так как позволяет внедрить голосовое управление в бытовую автоматизацию (привет идее умного дома!). Позиционирование ---------------- Ещё одним весьма любопытным применением машинного обучения на микроконтроллерах является [позиционирование внутри помещения](https://eloquentarduino.com/projects/arduino-indoor-positioning), которое представляет собой определение местоположения с задействованием анализа силы wi-fi излучения каждой точки доступа, сеть из которых размещена внутри помещения (и в качестве которых может выступать массив esp32! – это к слову), эта система является альтернативой в тех случаях, когда GPS сигнал недоступен (что, как правило, происходит всегда, если дело касается помещений). Для работы этого подхода требуется сначала создать карту помещения, что подразумевает под собой проход по как можно большему кол-ву мест в помещении, подключаясь к точке доступа и получая данные точки и сигнала в каждой конкретной точке. Для этого используется скетч wi-fi сканера: > > **Скетч WiFi сканера** > > ``` > /** > * WiFi scanner example > * Print WiFi hotspots with their RSSI in Json format > * > * Enter the name of the location to start scanning > * Enter 'stop' to stop the scanning > */ > > // replace with WiFiNINA.h if you use a different board > #include "WiFi.h" > > #include "eloquent.h" > #include "eloquent/networking/wifi/WifiScanner.h" > > > String location; > > > void setup() { > Serial.begin(115200); > delay(2000); > Serial.println("Instructions:"); > Serial.println("\tEnter the name of the location to start scanning"); > Serial.println("\tEnter 'stop' to stop scanning"); > } > > void loop() { > // await user to input his current location or "stop" to abort scanning > if (Serial.available()) { > location = Serial.readStringUntil('\n'); > } > > // if a location is set, perform scan > if (location != "" && location != "stop") { > Serial.print(location); > Serial.print(": "); > wifiScanner.printAsJson(Serial); > delay(2000); > } > } > > ``` > > Подход позволяет реализовать более дешёвую систему, чем профессиональные решения. Единственным минусом является задействование обучение модели в облаке, ограниченное тремя запросами в минуту (максимум). ML — на Attiny85? ----------------- Как ни странно, алгоритмы машинного обучения могут работать даже на таком маленьком микроконтроллере! Рассмотренный [пример](https://eloquentarduino.github.io/2019/12/machine-learning-on-attiny85/) позволяет с достаточно высокой степенью точности анализировать цвет, который видит RGB датчик цвета TCS3200: ![](https://habrastorage.org/r/w780q1/webt/wu/n6/ec/wun6ec0kspl3rswydijrzqbrilo.jpeg) При этом задействуется всего лишь 3434 байта памяти под скетч и 21 байт ОЗУ! ПО от Espressif для esp ----------------------- Компания Espressif тоже не осталась в стороне и разработала своё решение в рамках среды разработки программного обеспечения для интернета вещей ESP-IDF (Expressif IoT Development Framework). Кстати сказать, это среда [может быть встроена](https://docs.espressif.com/projects/arduino-esp32/en/latest/esp-idf_component.html) и в стандартную Arduino IDE. И тогда вам станет доступен весь набор функционала API ESP-IDF, подробно описанный с примерами [здесь](https://docs.espressif.com/projects/esp-idf/en/latest/esp32/get-started/index.html). В рамках этой среды компания предложила набор компонентов ESP-ADF для расширения её функционала: * обнаружение в звуке слов пробуждения, * опознание голосовых команд, * аудиоинтерфейс, * преобразование текста в речь. > Всю необходимую информацию по работе с этими направлениями вы можете найти на гитхабе [вот здесь](https://github.com/espressif/esp-sr). > > > > Кроме того, вот [по этой ссылке](https://www.terraelectronica.ru/news/6414) есть подробная русскоязычная инструкция по ESP-ADF. Завершая рассказ, хочется сказать, что сфера TinyML является весьма новой, а IT-специалистов в принципе не хватает и среди них ещё меньше обладающих квалификацией в области искусственного интеллекта. Здесь же требуется не просто работа в области алгоритмов, необходимо ещё и учитывать аппаратные особенности систем! То есть специалист в области TinyML должен разбираться не только в алгоритмах, но и понимать аппаратную сторону, что является весьма непростой и творческой задачей, так как таким образом требуется оптимизировать алгоритмы, чтобы они могли работать на достаточно скромных по своим возможностям аппаратных платформах микроконтроллеров. Это сложная творческая работа на стыке науки, техники, и, если хотите — технического искусства. Компания ABI Research [в своём прогнозе обещает](https://www.prnewswire.com/news-releases/global-shipments-of-tinyml-devices-to-reach-2-5-billion-by-2030--301123076.html), что уже к 2030 году объём встраиваемых решений TinyML будет только расти и достигнет цифры в 2,5 млрд. Впечатляющая цифра и интересный тренд, который заставляет более внимательно присмотреться к подобной ветке развития технологий и попытаться оседлать эту волну (прокачать свои скиллы), пока она ещё не набрала свою силу. Для генерации идей, в каком качестве можно было бы применить машинное обучение, можно посмотреть [вот эту ссылку](https://vc.ru/ml/79368-primenenie-mashinnogo-obucheniya-i-data-science-v-promyshlennosti), где собрано просто огромное количество разнообразных вариантов применения технологий машинного обучения (в целом) на разные случаи жизни. Кроме того, существует [большой русскоязычный ресурс](http://www.machinelearning.ru/) по машинному обучению, ознакомление с которым может быть достаточно интересным. Если у вас есть свои примеры — делитесь в комментариях. --- НЛО прилетело и оставило здесь промокод для читателей нашего блога: — [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**.
https://habr.com/ru/post/665932/
null
ru
null
# Поговорим о централизованном логировании Эта статья – продолжение [текста о мониторинге](https://habr.com/ru/post/551264/). Здесь предлагаю нам с вами поговорить о роли логов в оценке состояния наблюдаемой площадки, посмотреть, что они способны нам дать, а также затронуть вопрос – «можно ли отрывать логи от метрик?». По ходу дела я буду возвращаться к некоторым тезисам, высказанным в предыдущей публикации, потому рекомендую предварительно с ней ознакомиться. Итак, давайте поговорим о логировании. *Кстати, а как будет правильно: лоГирование или лоГГирование? Лично я склоняюсь ко второму варианту, просто потому, что loGGing, но замечаю, что большинство предпочитает первый. А вы?* --- Разбор полетов -------------- Перед началом новой статьи хочу ненадолго вернуться к предыдущей. В комментариях было поднято несколько тем, которым, на мой взгляд, стоит уделить несколько предложений. ### Собирать всё или только минимальный объем? Здесь моя позиция такова – собирать надо все метрики, которые объект способен отдавать. Как заметил [@BugM](/users/bugm) они лежат в БД, есть не просят, никому не мешают. А вот если у вас их нет, но они вдруг понадобились, особенно за, допустим, прошлый месяц – тут ничего сделать не получится. Перефразируя знаменитую [пословицу о бэкапах](https://bash.im/quote/391492): «люди делятся на два типа – на тех, кто еще не собирает метрики, и тех, кто уже собирает». Особенно актуально это в поиске аномалий на основе ML, для которых критично важно набрать объем данных с примером **корректной** работы наблюдаемой площадки. Тогда, чем больше у вас информации для обучения, тем точнее потом будет работать их (аномалий) выявление и прогнозирование. Человеку трудно найти закономерности в множестве, казалось бы, разрозненной информации (иначе не было бы необходимости изобретать ML), а машина может обнаружить их в неожиданных для вас местах. ### При начале работ, исходить из метрик, или из инфраструктуры? Соблюдайте баланс. Тезис, высказанный ранее, ответу на вопрос не противоречит: > … такие метрики относятся к самому низкому доступному вам уровню инфраструктуры, с которой вы работаете > > Разумеется, вам нужно отталкиваться от возможностей вашей инфраструктуры, и **только потом** подбирать инструменты. Я намеренно не затрагивал тему выбора инструмента для сбора метрик, конкретные технологии упоминаются исключительно в следующих этапах. Берите такой агент и такую модель сбора, которая максимально удовлетворяет ваши потребности. ### Продумать уровни тревоги Абсолютно верная мысль [@sizziff](/users/sizziff) которую я недостаточно раскрыл. Если вы заводите уровень «катастрофа» и отправляете нотификацию по СМС, это должно быть оправдано на 150%, иначе, рано или поздно, ваша команда поддержки будет выглядеть так: ![Инженер, заваленный алертами](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ecb/58c/0e4/ecb58c0e4e240301e11e91cf2f2f076a.png "Инженер, заваленный алертами")Инженер, заваленный алертами### Инженерный мониторинг не отражает реальное положение дел Здесь [@Dr\_Wut](/users/dr_wut) приводит такой пример: > Простой пример из жизни — по всем метрикам почтовый сервер работает, а почта во вне не ходит — накосячили с spf. По итогу, пока разбирались, получили кучу претензий. А ведь достаточно было сделать простую проверку функции — отправлять письмо и проверять что оно дошло. > > Если у вас возникла такая ситуация, значит, вам стоит добавить смок-тест функции, ведь результат такого теста – это тоже метрика, о чем я говорю в разделе о их разновидностях. ### Бизнес-мониторинг и мониторинг бизнес-процессов Давайте разделять эти понятия. Мониторинг бизнес-процессов – зона ответственности «инженерного» мониторинга, о который мы с вами обсуждаем (наверное, стоило это сразу обозначить…). Задача здесь – обеспечить **контроль за работоспособностью** функций. Бизнес-мониторинг и бизнес-метрики – это совершенно иная кухня, в ней шеф-повара это ваш СЕО и его окружение. Тут обеспечивается **контроль за прибылью** от функций вашей системы, а главный инструмент – BI-системы. В своих статьях я не планирую затрагивать второй вид в силу отсутствия компетенций и релевантного опыта. Теперь можем двигаться дальше. --- О логах как источнике дополнительной информации ----------------------------------------------- Если о мониторинге рядовой инженер имеет весьма смутное представление, то с логированием, как правило, ситуация обстоит чуть лучше, видимо, в силу того, что именно к логам обращаются в первую очередь, когда анализируют проблемы в работе софта. Однако же, для многих становится откровением то, что логи бывают нескольких типов. Вот два самых распространенных: Лог работы приложения – именно о нем думают в первую очередь; полагаю, вам знакома такая конструкция: ``` 2019-04-23 00:39:10,092 INFO DatabaseConnector – Connection estabilished ``` Вот это и есть запись из журнала работы. Характерные атрибуты такой записи – идентификатор **уровня** события и **сообщение** о событии. Часто также появляются имя **класса/библиотеки**, вызвавшей логгер, и идентификатор **потока**, в котором была сформирована эта запись. Лог доступа к приложению – тут уже интереснее; это информация о том, какие функции приложения запрашивались. В подавляющем большинстве случаев это будут журналы обращения к API. Вот так, например, может выглядеть запись обращения к Nginx: ``` 66.249.65.62 - - [06/Nov/2014:19:12:14 +0600] "GET /?q=%E0%A6%A6%E0%A7%8B%E0%A7%9F%E0%A6%BE HTTP/1.1" 200 4356 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" ``` Здесь основные атрибуты уже другие – идентификатор **запрошенного ресурса** и информация **о запросившем**. Также, здесь может появляться информация о **затраченных на обработку ресурсах** приложения. У обоих видов журналов также есть штамп времени – информация о том, **когда** событие произошло. В этом месте я обращаюсь к разработчикам: коллеги, пожалуйста, когда настраиваете библиотеку журналирования вашего софта, сделайте так, чтобы штамп времени был полным – год, месяц, день, время с точностью до миллисекунды, таймзона операционной системы. Поверьте на слово, вам будут благодарны, ведь без полного штампа времени однозначно понять, когда произошло описанное событие, очень и очень трудно, если вообще не невозможно. Подводя итог написанному выше, давайте ответим на вопрос «что логи могут нам дать?». ### О логах приложения В этом случае всё очень просто – если метрика сообщает нам о факте наличия ошибки, лог рассказывает, какая именно ошибка произошла. Пример – пусть приложение работает с базой данных, тогда у неё есть счётчик ошибок *database\_error\_count*. Когда счётчик инкрементируется, мы видим, что что-то пошло не так, однако не знаем подробностей, ведь такую информацию не принято (и не стоит) выводить в метрики. Тут нам должен помочь журнал: ``` 2019-04-27 00:39:10,092 ERROR DatabaseConnector – Error connecting to database MSSQLDB – connection refused on port 1433 ``` И сразу понятно – у нас порт недоступен. Конечно, это идеальный вариант. На практике же, ситуация часто складывается так, что приложение «размазывает» информацию о своем состоянии по логам и метрикам, а информацию, например, о фатальной ошибке при старте, можно, по понятным причинам, понять только из журналов. ### О логах доступа Как я писал выше, с этим типом журналов всё интереснее. Во-первых, эти логи, при наличии информации о затраченных на обработку запросов ресурсах, внезапно, превращаются… в метрики! Смотрите – в логах HTTP-запросов принято писать о запрошенном ресурсе, времени, затраченном на обработку запроса, и еще, как минимум, фиксировать код ответа, из чего уже можно получить информацию о производительности: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/07a/00c/d5f/07a00cd5f044ce30105f38075e1de5d2.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5bf/3da/359/5bf3da359794eedcff64b4d6dd6d6d21.png)Более того, такие логи, если в них есть информация о авторе запроса, превращаются в инструмент аудита доступа. С ними у нас в руках появляется еще один элемент Observability – данные **безопасности**. Кто и откуда запрашивал ваши ресурсы? Какие именно ресурсы? Как часто? Были ли такие запросы раньше? И еще много вопросов, на которые можно найти ответы. На основе этих данных уже можно искать аномалии доступа: * Запросы из неизвестных источников (99% реквестов к такому-то API ранее выполнялись таким-то пользователем из такой-то локации, а теперь появился кто-то еще) * Запросы к скрытым ресурсам и функциям (кто-то ломится в непубличный API) * Множество неуспешных попыток авторизации (вас брутфорсят) И так далее. Продолжите список в комментариях. Уточню, что HTTP лог здесь является только примером – с тем же успехом вы можете собирать аудит лог вашей БД. ### Трассировки Еще на логах можно строить трассировки. Работает это примерно так: 1. Входная точка в вашей DMZ устанавливает идентификатор трассировки (trace ID) на запрос; должна быть предусмотрена возможность ручной установки! 2. По мере прохождения запроса по вашей инфраструктуре, приложения должны, во-первых, сохранять идентификатор неизменным, во-вторых, этим же идентификатором помечать соответствующие записи в журналах Если такое предусмотрено вашим приложением, trace ID стоит записывать не только в лог доступа, но и в лог работы – так вам будет легче связывать ошибки с конкретными запросами. Очень обобщенно, это можно представить следующим образом: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c84/d3b/030/c84d3b03002736e30e0c331e87c464ae.png)Преимущества трассировок сложно переоценить – на их основе можно, как минимум: * Строить маршруты выполнения операций и выявлять недостатки инфраструктуры * Оценивать общую их длительность; особенно это полезно в асинхронных процессах * Оценивать длительность выполнения операций на конкретных этапах и выявлять узкие места О сборе логов ------------- Видов взаимодействий тут снова два, прямо как с метриками – Pull и Push. Pull – это когда приложение ведет свой журнал (в файле, в табличке в БД, в журнале операционной системы), а агент журналирования этот журнал читает, обогащает метаданными о приложении/хосте/чем-то ещё и отправляет на дальнейший парсинг и индексацию. Минус – нужно деплоить и конфигурировать агенты; плюс – приложению не нужно знать о системе централизованной обработки и хранения логов, от него требуется только вовремя писать свои журналы. Push – приложение активно отправляет свой журнал в систему парсинга/брокер сообщений/напрямую в базу. В таком случае агент не нужен, но приложение должно знать, где находится точка для сброса логов. На этом этапе важно добиться того, чтобы на записи из журналов ставились те же метки, что и на метрики этих приложений (как я писал в предыдущей статье, в самом примитивном виде это теги с идентификатором хоста и именем приложения), дабы сохранить возможность связать их между собой и выполнять комплексный анализ. О структуризации ---------------- Приложение может вести логи в разных форматах – plain text, jsonl, logsft, тысячи их. Здесь ключевая задача – привести их к единому виду, и тут рекомендую начинать с определения контрактов событий. Контракт – соглашение о том, какой минимальный набор полей должны иметь те или иные типы логов после парсинга. Можно выделить сначала общий контракт: ``` @timestamp: Штамп времени события application: Имя приложения, к которому относится событие; должно соотноситься с таковым в мониторинге host: Имя хоста, на котором расположено приложение log\_type: Тип события; application|access|.... (если приложение пишет не только application логи) trace\_id: Идентификатор трассировки (при наличии) ``` А затем определять контракты для других типов. Например, для журналов приложений: ``` message: Значимая часть события generic\_message: Обезличенная значимая часть события level: Текстовая репрезентация уровня события level\_value: Численная репрезентация уровня события logger\_name: Имя класса, сгенерировавшего событие (при наличии) thread\_name: Идентификатор потока, сгенерировавшего событие (при наличии) stack\_trace: Трассировка стека; в более общем виде - вторая и последующие строки сообщения (при наличии) ``` И для журналов доступа: ``` status_code: Код ответа по запросу elapsed\_time: Время, затраченное на обработку запроса в миллисекундах requested\_resource: Запрошенный ресурс method: Метод запроса ``` Здесь очень важно соблюдать установленные контракты при передаче логов на дальнейшие индексацию и хранение. При этом, текстовое и численное обозначения уровня события необходимо определить заранее и для каждой записи её собственный уровень приводить к одному из них. Следование контракту приносит пользу сразу с нескольких сторон: * Упрощается индексация – многие NoSQL базы не любят, когда в рамках одного сегмента данных происходит попытка сохранить поле сначала одного типа, а затем другого. В лучшем случае, в такой ситуации вы получите неадекватно разрастающийся индекс, в худшем – ошибку при сохранении * Процесс поиска становится единообразным – когда у вас есть контракт в рамках одного типа журналов, вы можете подготовить один-два дашборда для работы с ними, просто соблюдая контракт и на этапе визуализации. С единым дашбордом можно, например, одновременно анализировать логи сразу нескольких приложений в одном интерфейсе Только не пользуйтесь, пожалуйста, уровнем «EMERGENCY», если не уверены, что абсолютно каждый, кому предстоит работать с структурированными журналами, точно знает, что он обозначает. Я встречал очень мало таких людей, поэтому вместо него использую «FATAL» - достаточно говорящее обозначение для всех. ### Обезличенные сообщения Внимательные читатели могли заметить, что в контракте журналов приложений есть поле «generic\_message». Рассказываю. Для логов работы приложения я еще применяю такой ход – из некоторых событий вывожу дженерики (так их называли коллеги из разработки, мне понравилось обозначение). Дженерик – это значимая часть события, приведенная к обезличенному шаблону. Вот пример: Пусть исходное сообщение у нас такое: ``` Error on AMQP connection <0.12956.79> (127.0.0.1:52879 -> 127.0.0.1:5672, state: starting): ``` Из него часть информации можно заменить на маркеры, тогда получается дженерик: ``` Error on AMQP connection <{connection_id}> ({remote_host} -> {destination_host}, state: {connection_state}): ``` Извлекаемые значения при этом записываются в соответствующие поля события с становятся доступны для поиска. Но что это дает? А вот что: * По дженерикам можно настраивать алерты; ошибка ошибке рознь, некоторые могут более критичными, некоторые менее. Если для критичных событий заранее подготовить паттерны, можно с помощью простых запросов ловить их появление и уведомлять об этом * Извлеченные ключи помогают в поиске; когда у вас идентификатор сессии везде называется «session\_id» вы получаете возможность просто и быстро выполнять сквозной поиск * Поиск по ключам сильно проще поиска по регулярному выражению, как с точки зрения базы данных (обращаемся к индексу, а не выполняем анализ текста), так и с точки зрения пользователя (пачку регулярок еще надо заранее подготовить и хранить всегда под рукой) Здесь важно не перегнуть палку и покрывать дженериками действительно важные записи. Злоупотребление дополнительными полями вредит здоровью ваших индексов. О хранении ---------- Как и в предыдущей статье, тут буду немногословен. Я предпочитаю [Elasticsearch](https://github.com/elastic/elasticsearch), и еще, говорят, [Loki](https://github.com/grafana/loki) набирает популярность. На хабре можно найти несколько статей с их сравнением, вот одна из них - <https://habr.com/ru/company/badoo/blog/507718/>. Ознакомьтесь, изучайте, выбирайте. О связности с метриками ----------------------- В предыдущей статье я условно разделял визуализацию так: 1. Уровень площадки 2. Уровень группы 3. Уровень объекта 4. Уровень фрагмента объекта 5. Уровень инфраструктуры Выводить информацию о логах рекомендую на все уровни, кроме последнего (а может и на него, если вы собираете журналы операционной системы). Принцип тот же самый: 1. На первом уровне к логике панели-индикатора добавляется блок, связанный с подсчетом количества событий уровня ERROR и выше 2. На втором уровне расширяется список панелей – появляется индикатор наличия ошибок в журналах, плюс обеспечивается возможность перехода к дашборду с логами с сохранением контекста и фильтра по уровню событий (если подсвечиваем именно количество ошибок, их и нужно показывать) 3. На следующих уровнях пользователю предоставляется возможность перехода к дашборду с логами с сохранением контекста, но уже без фильтра по уровню – предполагается, что если пользователь совершает такой переход, то ему интересны логи всех уровней, а не только определенных Тогда диаграмма из предыдущей статьи приобретает такой вид: ![Пользователь мониторинга двигается сверху вниз, разбирая инцидент](https://habrastorage.org/r/w1560/getpro/habr/upload_files/330/e63/0b6/330e630b6e7aa43ae3ac4c35f92f3ade.png "Пользователь мониторинга двигается сверху вниз, разбирая инцидент")Пользователь мониторинга двигается сверху вниз, разбирая инцидентО алертинге ----------- Основные тезисы были высказаны в предыдущей статье, тут ограничусь парой предложений: * Выделите критичные события и настройте по ним алертинг; это станет хорошим дополнением к уже имеющимся нотификациям и повысит наблюдаемость за площадкой * Обогащайте алерты по логам теми же метаданными, что и алерты по метрикам; для пользователя они должны быть прозрачны, ему не надо задумываться, откуда взялась та или иная нотификация Заключение ---------- Итак, допустимо ли отрывать логи от метрик? Я считаю, что нет – как видите, журналы отлично дополняют картину мира и раскрывают подробности, которые метрики не всегда способны предоставить. Применяйте оба инструмента для наблюдения за вашими площадками и будет вам счастье. Огромное спасибо всем, кто ознакомился с этой и предыдущей статьей, кто писал комментарии, ставил под сомнение высказанное и делился практиками – действительно приятно видеть отклик со стороны сообщества. Возможно, позже появится еще одна статья, уже с примерами использования конкретных технологий и практик, в которой попробуем реализовать описанное ранее и посмотреть, как это работает.
https://habr.com/ru/post/551582/
null
ru
null
# Оптимизация mysql комплексная Доброго времени суток, уважаемые хабровчане. Сегодня речь пойдет опять и снова про mySQL. Разберемся в оптимизации и поговорим про множество параметров сервера. Давайте приступать. Начало ------ Сервер у нас пусть будет на ​ **CentOS**​. Оптимизировать будем методом правки конфига ​**my.cnf​** . Настройка некоторых параметров может повысить производительность БД сервера в несколько раз! Для начала давайте определимся, что мы вообще оптимизируем — т.е сколько каких таблиц на каком движке имеем, какая железка у нас есть и под какие параметры мы будем всё это дело подгонять. Для этого возьмем ​ **htop​** (как красивый и наглядный инструмент): ``` yum install htop ``` Выведем ​ **htop​** : ``` htop ``` Получаем нечто такое: Запишем себе в ​**my.cnf​**: ``` # 3 ядра, 4гб оперативной памяти ``` Теперь давайте узнаем количество таблиц и их типы. Для этого возьмем ​**mysql tuner​**: ``` wget https://raw.github.com/major/MySQLTuner-perl/master/mysqltuner.pl ``` Запустим: ``` perl mysqltuner.pl ``` Вывод примерно: ![image](https://habrastorage.org/r/w780q1/webt/lh/kz/w1/lhkzw1reklpv-yf5mbxhwnhevcg.jpeg) Запишем себе в **​my.cnf**: ``` # 64M myisam, 770M innoDB ``` Типовой конфиг обычно рекомендуют какой-то такой: ``` [client] port = 3306 socket = /var/run/mysqld/mysqld.sock [mysqld_safe] socket = /var/run/mysqld/mysqld.sock nice = 0 [mysqld] user = mysql pid-file = /var/run/mysqld/mysqld.pid socket = /var/run/mysqld/mysqld.sock port = 3306 basedir = /usr datadir = /var/lib/mysql tmpdir = /tmp language = /usr/share/mysql/english old_passwords = 0 bind-address = 127.0.0.1 skip-external-locking max_allowed_packet = 16M key_buffer_size = 16M innodb_buffer_pool_size = 2048M innodb_file_per_table = 1 innodb_flush_method = O_DIRECT innodb_flush_log_at_trx_commit = 0 max_connections = 144 [query\_cache\_size](https://ruhighload.com/query_cache_size+%d0%bf%d0%b0%d1 %80%d0%b0%d0%bc%d0%b5%d1%82%d1%80+%d0%b2+mysql) = 0 slow_query_log = /var/log/mysql/mysql-slow.log long_query_time = 1 expire_logs_days = 10 max_binlog_size = 100M [mysqldump] quick quote-names max_allowed_packet = 16M ``` Теперь давайте разбираться, что мы будем оптимизировать здесь, зачем, как и почему (особенно почему этих параметров маловато. Оптимизация и конфиг -------------------- Для начала можно пролистать в конец вывода **​mysql tuner**​ и посмотреть, что же он там рекомендует. В нашем случае это выглядит как-то так: ``` wget https://raw.github.com/major/MySQLTuner-perl/master/mysqltuner.pl perl mysqltuner.pl ``` ![image](https://habrastorage.org/r/w780q1/webt/u_/pe/kq/u_pekqniuebybbucpsnxmvjyub0.jpeg) Не будем заниматься бездумной подстановкой, а пройдемся по параметрам **​mysql​** , которые могут нас интересовать в первую очередь. Что к чему: **skip-external-locking​**, — убирает внешнюю блокировку, что быстрее; **skip-name-resolve​** , — позволяет **​MySQL** ​ избегать ответа на запрос **DNS** ​ при проверке подключения клиентов к серверу **​MySQL​** . Таким образом, сервер **​MySQL** ​ будет использовать только **IP​** -адреса, а не имена хостов, что немного, но быстрее. binlog\_cache​ \_ ​ size​, — размер кэша для хранения изменений в двоичном журнале. Задает размер только для кэша транзакций. Сделаем ​ **100M​** — больше не нужно. **innodb\_stats\_on\_metadata​ =​ 0 (OFF)**,​ — для ускорения работы с **INFORMATION\_SCHEMA​, ​ SHOW TABLE STATUS​ или ​ SHOW INDEX​** отключим обновление статистики при выполнении таких операций **quer​ y ​ \_cache\_size ​ = ​ 128M ​ и ​ query\_сache\_type​ ​ = ​ 1**,​ ​ — ​ кэши запросов. ​ 1​ — в принципе включен, ​ **128M​** ограничение. Не рекомендуется ставить выше ​ **256M​** , т.к это может привести к блокировке. Так как у нас больше​**InnoDB​** таблиц, то зануляем **cache​ \_ ​ size​** . С версии MySQL 5.6 ​ query\_cache\_size​ отключен, а с версии 8.0 удален Стандартно все таблицы и индексы хранятся в одном файле, поэтому используем ​ **innodb\_file\_per\_table = 1.** Значение ​ **innodb\_open\_files​ и ​ table\_open\_cache​** — рекомендуется устанавливать обе опции в ​ **4096** ​ или ​ **8192​** . А вообще рассчитывается как количество таблиц во всех базах, умноженное на ​ **2​** , ориентировочно. При работе с ​ **InnoDB** ​ является важнейшим параметр **innodb\_buffer\_pool\_size​** , ​ он устанавливается по принципу «чем больше, тем лучше». Рекомендуется выделять до ​ **70-80%** оперативной памяти сервера. **innodb\_log\_file\_size**​ — влияет на скорость записи, устанавливает размер лога операций (операции сначала записываются в лог, а потом применяются к данным на диске). Чем больше этот лог, тем быстрее будут работать записи (т.к. их поместится больше в файл лога). Файлов всегда два, а их размер одинаковый. Значением параметра задается размер одного файла. > **ВНИМАНИЕ!**️При изменении параметра innodb\_log\_file\_size остановите MySQL, сделайте резервную копию файлов ib\_logfile-n (файлы чаще всего лежат в /var/lib/mysql/), измените значение параметра innodb\_log\_file\_size и запустите MySQL. В результате > > MySQL создаст новый лог-файл указанного в конфигурации размера. Установка большого размера ​ **innodb\_log\_file\_size​** может привести к увеличению быстродействия, но при этом увеличится время восстановления данных, выберите от ​ **256M​** до​ **1G​** . **innodb\_log​ \_ ​ buffer\_size**​ — размер буфера транзакций. Обычно рекомендуется не применять, если не используете ​ **BLOB** ​ и ​ **TEXT** больших размеров. **innodb\_flush​ \_ ​ method**,​ — определяет логику сброса данных на диск. В современных системах при использовании **RAID** и резервных узлов, вы будете выбирать между ​ **ODSYNC​** и ​ **ODIRECT**, — первый параметр быстрее, второй безопаснее. **key\_buffer​ \_ ​ size​** — буфер для работы с ключами и индексами, и **sort\_buffer​** — буфер для сортировки. Если Вы не используете **MyISAM** ​ таблицы, рекомендуется установить размер **key\_buffer\_size ​ в ​ 32Мб** ​ для хранения индексов временных таблиц. Параметр ​ **thread\_cache​ \_ ​ size​** указывает количество тредов (threads), уходящих в кеш при отключении клиента. При новом подключении тред не создается, а берется из кеша, что позволяет экономить ресурсы при больших нагрузках. **innodb\_flush\_log\_attrx\_commit​**, — может повысить пропускную способность записи данных в базу в сотни раз. Он определяет, будет ли **​Mysql** ​ сбрасывать каждую операцию на диск (в файл лога). **innodb\_flush\_log\_at\_trx\_commit = 1​** используется для случаев, когда сохранность данных — это приоритет номер один. **innodb\_flush\_log\_at\_trx\_commit = 2​** для случаев, когда небольшая потеря данных не критична. Есть еще 0 (ноль) — самый производительный, но небезопасный вариант. **max\_connections ​** — если вы получаете ошибки **"​ Too many connections​ ",** эту опцию стоит увеличить. А так большой пользы в оптимизации от неё нет. Количество потоков ввода/вывода файлов в InnoDB задается опциями ​ **innodb\_read\_io\_threads​** , ​ **innodbwrite\_io\_threads**​, обычно этому параметру присваивается значение ​ **4** ​ или ​ **8​** , на быстрых ​ SSD​ -дисках установите в ​ 16​. Значение **innodb\_thread\_concurrency​** установите в количество ядер ​ **\* 2​** . Конфиг получается вот такой: ``` [client] port = 3306 socket = /var/run/mysqld/mysqld.sock [mysqld_safe] socket = /var/run/mysqld/mysqld.sock nice = 0 [mysqld] user = mysql pid-file = /var/run/mysqld/mysqld.pid socket = /var/run/mysqld/mysqld.sock port = 3306 basedir = /usr datadir = /var/lib/mysql tmpdir = /tmp language = /usr/share/mysql/english old_passwords = 0 bind-address = 127.0.0.1 skip-external-locking skip-name-resolve binlog_cache_size = 100M thread_cache_size = 32 innodb_stats_on_metadata = OFF query_cache_limit = 1M query_cache_size = 0 query_cache_type = 1 innodb_buffer_pool_size = 3G innodb_log_file_size = 256М innodb_log_buffer_size = 6M innodb_additional_mem_pool_size = 16M innodb_flush_method = O_DSYNC innodb_flush_log_at_trx_commit = 0 innodb_thread_concurrency = 6 innodb_file_per_table = 1 key_buffer_size = 32M tmp_table_size = 64M max_connections = 350 sort_buffer_size = 16M read_buffer_size = 1M read_rnd_buffer_size = 1M join_buffer_size = 8M thread_stack = 1M binlog_cache_size = 8M tmp_table_size = 128M table_open_cache = 2048 [mysqldump] quick quote-names max_allowed_packet = 16M ``` Ну и напоследок можно посмотреть рекомендации тюнера и последовать им. Заключение ---------- Вот такой вот интересный конфиг получился. Если Вам сложно, то на первых порах стоит пользоваться **​mySQL** ​ калькулятором, который подскажет основные параметры и позволит не выходить за пределы доступной памяти — как-никак всё упирается в неё: Спасибо за внимание. Присоединяйтесь к обсуждению.
https://habr.com/ru/post/539792/
null
ru
null
# Реализация навигации в Android приложениях с помощью Navigation Architecture Component ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/8ec/c41/70b/8ecc4170bfd6552b7968c13c329ce53d.png) От переводчика -------------- Здравствуйте, хабрчане. Это перевод [статьи-документации](https://developer.android.com/topic/libraries/architecture/navigation/navigation-implementing?utm_source=android-studio&utm_medium=studio-assistant) к новой технологии Navigation для Android-разработчиков. Технология сейчас находится в стадии разработки, но уже доступна для использования и очень даже работает в превью версии [Android Studio 3.2](https://developer.android.com/studio/preview/) и выше. Я уже опробовал её в действии и могу сказать что меня она впечатлила. Наконец-то осуществление смены экранов перестало быть чем-то сложным, особенно если используется передача данных от одного экрана к другому. Собственно, перевод я делаю для того чтобы больше русскоязычных разработчиков обратило внимание на технологию, и чтобы упростить её изучение. Если заметите существенные ошибки или неточности, прошу сообщать в комментариях. Архитектурный компонент ----------------------- Архитектурный компонент Navigation позволяет упростить реализацию навигации между *экранами назначения (destinations)* в вашем приложении. По умолчанию, Navigation поддерживает фрагменты (Fragments) и активности (Activities) в качестве экранов назначения, но вы также можете [добавить поддержку новых типов экранов назначения](https://developer.android.com/topic/libraries/architecture/navigation/navigation-add-new). Набор экранов назначения называется *навигационным графом (navigation graph)* приложения. Помимо экранов назначения на навигационном графе есть соединения между ними, называемые *действиями (actions)*. Рисунок 1 демонстрирует визуальное представление навигационного графа для простого приложения из шести экранов назначения, соединённых пятью действиями. ![](https://habrastorage.org/r/w1560/webt/lw/h9/j3/lwh9j3ga7cbk_w9cx1k4bc6pa5w.png) **Рисунок 1.** Навигационный граф Архитектурный компонент Navigation реализован на основе [Principles of navigation](https://developer.android.com/topic/libraries/architecture/navigation/navigation-principles). > Если вы хотите использовать архитектурный компонент Navigation в Android Studio, то вам необходима версия [Android Studio 3.2 Canary 14](https://developer.android.com/studio/preview/) или выше. Настройка проекта с поддержкой Navigation ----------------------------------------- Прежде чем вам будет доступно создание навигационного графа, нужно настроить Navigation для вашего проекта. Для этого проделайте следующие шаги. 1. Добавьте поддержку Navigation в файле build.gradle (Module: app – *Прим. переводчика*). Для подробной информации изучите [Adding components to your project](https://developer.android.com/topic/libraries/architecture/adding-components#navigation). *Прим. переводчика: Лучше не полениться и перейти по ссылке выше, так как проект активно развивается и зависимости точно будут меняться:* ``` dependencies { def nav_version = "1.0.0-alpha05" // use -ktx for Kotlin implementation "android.arch.navigation:navigation-fragment:$nav_version" // use -ktx for Kotlin implementation "android.arch.navigation:navigation-ui:$nav_version" // optional - Test helpers // use -ktx for Kotlin androidTestImplementation "android.arch.navigation:navigation-testing:$nav_version" } ``` 2. В окне проекта кликните ПКМ на папке **res** и выберете **New > Android resource file**. Откроется диалоговое окно **New Resource**. 3. Введите имя файла, например "**nav\_graph**". 4. Выберете **Navigation** из выпадающего списка **Resource type**. 5. Кликните **OK**. Произойдёт следующее: * В директории **res** появится поддиректория **navigation**. * В директории navigation появится файл **nav\_graph.xml**. * Файл **nav\_graph.xml** откроется в редакторе Navigation Editor. Этот файл содержит ваш навигационный граф. 6. Выберете режим редактирования **Text**. XML файл для пустого навигационного графа выглядит так: ``` xml version="1.0" encoding="utf-8"? ``` 7. Выберете режим редактирования **Design** чтобы вернуться в Navigation Editor. *Прим. переводчика: если Navigation Editor не отображает граф, изучите начало следующего абзаца, выделенное жёлтым цветом.* Обзор Navigation Editor ----------------------- > Navigation Editor доступен по умолчанию только в Canary сборках Android Studio. Чтобы использовать Navigation Editor в Beta, Release Candidate, или Stable сборках перейдите в **File > Settings** (**Android Studio > Preferences** для Mac), выберете категорию **Experimental**, отметьте галочкой **Enable Navigation Editor**, и перезагрузите Android Studio. > > *Прим. переводчика: рекомендую независимо от сборки проверить, стоит ли эта галочка.* В Navigation Editor вы можете быстро создавать навигационные графы вместо написания XML. Как показано на рисунке 2, Navigation Editor имеет три раздела: ![](https://habrastorage.org/r/w1560/webt/s-/by/2b/s-by2b8djd4opzxc1oe-1ljtssa.png) **Рисунок 2.** Navigation Editor Описание разделов: 1. Список экранов назначения – отображает все экраны назначения, добавленные в граф 2. Редактор графа – содержит визуальное представление вашего графа 3. Редактор атрибутов – содержит атрибуты и действия экранов назначения Определение экранов назначения ------------------------------ Первый шаг в создании навигационного графа это определение экранов назначений для вашего приложения. Вы можете создать пустой экран назначения или использовать фрагменты и активности из текущего проекта. > Архитектурный компонент Navigation разработан для приложений, которые имеют одну главную активность (Main Activity – *Прим. переводчика*) с множеством фрагментов, которые используются как экраны назначения. Главная активность является "хостом" для навигационного графа. В приложении с множеством активностей, каждая из них будет являться хостом для разных навигационных графов. **Превращение активности в хост для навигационного графа** описано далее в документе. Чтобы определить экран назначения для вашего приложения, выполните следующие шаги. 1. В редакторе графов кликните **New Destination** ![](https://habrastorage.org/r/w1560/webt/st/pa/rm/stparmwuvr9w4wtmf_qt_veidjq.png). Откроется диалоговое окно **New Destination**. 2. Кликните **Create blank destination** или выберете существующий фрагмент или активность. Откроется диалоговое окно **Android Component**. 3. Введите имя в поле **Fragment Name**. Оно должно совпадать с именем класса этого фрагмента. 4. Введите имя в поле **Fragment Layout Name**. Это имя будет присвоено layout файлу фрагмента. 5. Нажмите *Finish*. В списке экранов назначения появится строка с именем нового экрана назначения, а сам экран назначения появится в редакторе графа. Более детально: * Редактор графа отображает предпросмотр экрана назначения. Если вы создали пустой экран назначения, новый фрагмент будет содержать надпись “Hello blank fragment”, и эту же надпись вы увидите в редакторе графа. Если вы выбрали существующий фрагмент или активность, то граф будет отображать его миниатюрный вариант. * Если вы создали пустой экран назначения, то для него будет сгенерирован класс. Имя класса будет соответствовать имени, заданному в шаге 3. * Если вы создали пустой экран назначения, то для него будет сгенерирован layout файл. Имя файла будет соответствовать имени, заданному в шаге 4. Рисунок 3 демонстрирует пустой и существующий экран назначения. ![](https://habrastorage.org/r/w1560/webt/q_/c-/bb/q_c-bbcbogtwe5l9upgbzhh-tzi.png) **Рисунок 3.** Новый и существующий экран назначения. 6. Кликните на только что созданный экран назначения чтобы выделить его. Панель атрибутов содержит следующие атрибуты: * Поле Type может иметь значения "Fragment" или "Activity" для отображения того, как экран назначения реализован в исходном коде: как фрагмент или как активность. * Поле Label содержит имя XML файла экрана назначения. * Поле ID содержит ID экрана назначения (как самостоятельной сущности – *Прим. переводчика*), которое используется для ссылки на него в исходном коде (через R.id – *Прим. переводчика*). * Поле Class содержит имя класса экрана назначения (с указанием всех пакетов – *Прим. переводчика*). 7. Перейдите в режим редактирования **Text** чтобы переключиться на просмотр XML. Теперь XML содержит атрибуты id, name (имя класса), label, и layout, отображающие имена существующих классов и layout файлов: ``` xml version="1.0" encoding="utf-8"? ``` > XML содержит атрибут **startDestination** содержащий id пустого экрана назначения (**app:startDestination="@+id/fragment"**). Для большей информации по стартовому экрану назначения изучите раздел **Стартовый экран назначения**. Соединение экранов назначения ----------------------------- В вашем приложении должно быть больше одного экрана назначения чтобы соединять их. Ниже описан XML для навигационного графа с двумя пустыми экранами назначения: ``` xml version="1.0" encoding="utf-8"? ``` Экраны назначения соединяются при помощи действий. Чтобы соединить два экрана назначения нужно: 1. В редакторе графа наведите курсор на экран назначения от которого нужно совершить переход. На нём появится круг. ![](https://habrastorage.org/r/w1560/webt/68/jp/38/68jp38geimu5izfasgm_ssdhc_a.png) **Рисунок 4.** Круг соединения действия 2. Нажмите на круг и удерживайте клавишу мыши. Переместите курсор на экран назначения к которому нужно осуществить переход. Отпустите. Между двумя экранами назначения появится стрелка, обозначающая переход между ними. ![](https://habrastorage.org/r/w1560/webt/pa/hs/kt/pahsktf-tyg6kswwwt751zzql7o.png) **Рисунок 5.** Соединённые экраны назначения 3. Кликните по стрелке чтобы выделить действие. На панели атрибутов появится следующее: * Поле Type содержит "Action". * Поле ID содержит ID действия, сгенерированный автоматически. * Поле Destination содержит ID экрана назначения на который совершается переход. 4. Перейдите в режим редактирования **Text** чтобы увидеть XML. Тег действия был добавлен в родительский экран назначения. Действие имеет сгенерированный ID и атрибут который содержит ID следующего экрана назначения. ``` xml version="1.0" encoding="utf-8"? ``` Обозначение экрана назначения в качестве стартового --------------------------------------------------- В редакторе графа отображается иконка домика ![](https://habrastorage.org/r/w1560/webt/-d/vs/mh/-dvsmhne8qiq6ey3-b_ruiluiia.png) сразу за именем первого экрана назначения. Эта иконка обозначает что экран назначения является стартовым в навигационном графе. Вы можете выбрать другой экран назначения в качестве стартового, выполнив следующие шаги: * Выделите нужный экран назначения в редакторе графа. * Кликните **Set Start Destination** на панели атрибутов. Теперь этот экран назначения является стартовым. *Прим. переводчика: ещё можно кликнуть ПКМ по нужному экрану назначения и выбрать в открывшемся меню аналогичный пункт.* Превращение активности в хост для навигационного графа ------------------------------------------------------ Активность становится хостом для навигационного графа благодаря пустому элементу [NavHost](https://developer.android.com/reference/androidx/navigation/NavHost), который добавляется в layout активности. [NavHost](https://developer.android.com/reference/androidx/navigation/NavHost) это элемент, наличие которого позволяет менять экраны назначения в том порядке, в котором нужно пользователю вашего приложения. [NavHost](https://developer.android.com/reference/androidx/navigation/NavHost) в Navigation по умолчанию реализует [NavHostFragment](https://developer.android.com/reference/androidx/navigation/fragment/NavHostFragment). После добавления NavHost, вы должны сопоставить ему ваш навигационный граф, используя атрибут **app:navGraph**. Этот код демонстрирует как включить в layout NavHostFragment и соединить его с навигационным графом: ``` ?xml version="1.0" encoding="utf-8"?> ``` Этот пример содержит атрибут **app:defaultNavHost="true"**. Он отвечает за перехват системной кнопки Back (*Прим. переводчика: системная кнопка Back и стрелка Up на верхней панели приложения будут работать одинаково*). Вы также можете переопределить [AppCompatActivity.onSupportNavigateUp()](https://developer.android.com/reference/android/support/v7/app/AppCompatActivity) и вызвать [NavController.navigateUp()](https://developer.android.com/reference/androidx/navigation/NavController#navigateUp) как показано здесь: **Java** ``` @Override public boolean onSupportNavigateUp() { return Navigation.findNavController(this, R.id.nav_host_fragment).navigateUp(); } ``` **Kotlin** ``` override fun onSupportNavigateUp() = findNavController(R.id.nav_host_fragment).navigateUp() ``` Привязка действий к виджетам ---------------------------- Переход к экрану назначения выполняется с использованием [NavController](https://developer.android.com/reference/androidx/navigation/NavController). Он может быть получен с помощью перегруженного статического метода findNavController(): * [NavHostFragment.findNavController(Fragment)](https://developer.android.com/reference/androidx/navigation/fragment/NavHostFragment#findNavController(android.support.v4.app.Fragment)) * [Navigation.findNavController(Activity, @IdRes int viewId)](https://developer.android.com/reference/androidx/navigation/Navigation#findNavController(android.app.Activity,%20int)) * [Navigation.findNavController(View)](https://developer.android.com/reference/androidx/navigation/Navigation#findNavController(android.view.View)) После получения NavController, используйте его метод [navigate()](https://developer.android.com/reference/androidx/navigation/NavController#navigate(int)) чтобы перейти к экрану назначения. Метод navigate() принимает ID ресурса. Это может быть ID экрана назначения к которому нужно перейти, или это может быть ID действия. Использование ID действия вместо ID экрана назначения позволяет настроить анимацию перехода между экранами. Для более подробной информации читайте раздел **Создание анимации перехода между экранами назначения**. Этот код демонстрирует как привязать действие к кнопке: **Java** ``` viewTransactionsButton.setOnClickListener(new View.OnClickListener() { @Override public void onClick(View view) { Navigation.findNavController(view).navigate(R.id.viewTransactionsAction); } }); ``` **Kotlin** ``` viewTransactionsButton.setOnClickListener { view -> view.findNavController().navigate(R.id.viewTransactionsAction) } ``` Android поддерживает [обратный стек](https://developer.android.com/guide/components/activities/tasks-and-back-stack), хранящий последний открытый экран назначения. Первый экран назначения помещается в стек когда пользователь запускает приложение. Каждый вызов метода navigate() помещает новый экран назначения в стек. Нажатие же кнопки Back или Up вызывает методы [NavController.navigateUp()](https://developer.android.com/reference/androidx/navigation/NavController#navigateUp) и [NavController.popBackStack()](https://developer.android.com/reference/androidx/navigation/NavController#popBackStack) чтобы извлечь экран назначения из стека. Для кнопок вы также можете использовать удобный метод [Navigation.createNavigateOnClickListener()](https://developer.android.com/reference/androidx/navigation/Navigation#createNavigateOnClickListener(int)): **Java** ``` button.setOnClickListener(Navigation.createNavigateOnClickListener(R.id.next_fragment, null)); ``` **Kotlin** ``` button.setOnClickListener(Navigation.createNavigateOnClickListener(R.id.next_fragment, null)) ``` Привязка действий к меню Navigation Drawer ------------------------------------------ Вы можете связать действия переходов с Navigation Drawer используя **id** экрана назначения в качестве **id** элемента меню (item). Следующий код демонстрирует пример экрана назначения, **id** которого имеет значение **details\_page\_fragment**: Используя одинаковый **id** для экрана назначения и элемента меню происходит автоматическое связывание элемента меню и экрана назначения. Этот код демонстрирует как связать экран назначения с элементом меню (например, это файл *menu\_nav\_drawer.xml*): Или вот пример для меню с категориями (например *menu\_overflow.xml*): Также, архитектурный компонент Navigation включает класс [NavigationUI](https://developer.android.com/reference/androidx/navigation/ui/NavigationUI). Этот класс имеет несколько статических методов, которые вы можете использовать для связывания элементов меню с экранами назначения. Например, этот код показывает как использовать метод [setupWithNavController()](https://developer.android.com/reference/androidx/navigation/ui/NavigationUI#setupWithNavController(android.support.design.widget.NavigationView,%20androidx.navigation.NavController)) чтобы соединить элемент меню с [NavigationView](https://developer.android.com/reference/android/support/design/widget/NavigationView): **Java** ``` NavigationView navigationView = (NavigationView) findViewById(R.id.nav_view); NavigationUI.setupWithNavController(navigationView, navController); ``` **Kotlin** ``` val navigationView = findViewById(R.id.nav\_view) navigationView.setupWithNavController(navController) ``` Необходимо настроить навигационные компоненты меню, используя методы [NavigationUI](https://developer.android.com/reference/androidx/navigation/ui/NavigationUI) чтобы их состояние оставалось синхронизированным с изменениями в [NavController](https://developer.android.com/reference/androidx/navigation/NavController). Передача данных между экранами назначения ----------------------------------------- Вы можете передавать данные между экранами назначениям двумя способами: используя объекты [Bundle](https://developer.android.com/reference/android/os/Bundle) или type-safe способом с помощью safeargs Gradle plugin. Следуйте этим шагам чтобы передавать данные с помощью объектов Bundle. Если вы используете Gradle, то изучите раздел **Передача данных между экранами назначения type-safe способом**. 1. В редакторе графа выберите экран назначения, который должен получить данные. 2. Кликните **Add** (**+**) в секции Arguments панели атрибутов. Появится аргумент с пустыми полями name (имя), type (тип) и default value (значение по умолчанию). 3. Введите имя аргумента. 4. Введите значение по умолчанию. 5. Выделите действие (стрелку), указывающую на экран назначения. Секция Argument Default Values должна содержать только что созданный аргумент. 6. Перейдите в режим редактирования **Text** чтобы просмотреть XML. В экран назначения был добавлен тег argument, содержащий атрибуты name и defaultValues. 7. В исходном коде создайте bundle и передайте его экрану назначения, используя метод [navigate()](https://developer.android.com/reference/androidx/navigation/NavController#navigate(int)): **Java** ``` Bundle bundle = new Bundle(); bundle.putString("amount", amount); Navigation.findNavController(view).navigate(R.id.confirmationAction, bundle); ``` **Kotlin** ``` var bundle = bundleOf("amount" to amount) view.findNavController().navigate(R.id.confirmationAction, bundle) ``` В экране назначения, в который передаются данные, используйте метод [getArguments()](https://developer.android.com/reference/android/app/Fragment#getArguments) чтобы получить bundle и использовать его содержимое: **Java** ``` TextView tv = view.findViewById(R.id.textViewAmount); tv.setText(getArguments().getString("amount")); ``` **Kotlin** ``` val tv = view.findViewById(R.id.textViewAmount) tv.text = arguments.getString("amount") ``` Передача данных между экранами назначения type-safe способом ------------------------------------------------------------ Архитектурный компонент Navigation имеет плагин Gradle, называемый **safeargs**. Он генерирует простейшие классы для type-safe доступа к аргументам экранов назначения и действий. Подход safeargs построен на основе использования Bundle, но требует немного дополнительного кода для большей типовой безопасности. Чтобы добавить этот плагин, вставьте строку *androidx.navigation.safeargs* в build.gradle (в Module: app – *Прим. переводчика*). Например так: ``` apply plugin: 'com.android.application' apply plugin: 'androidx.navigation.safeargs' android { //... } ``` *Прим. переводчика: также, нужно добавить в build.gradle (Project: ProjectName) зависимость classpath "android.arch.navigation:navigation-safe-args-gradle-plugin:1.0.0-alpha02":* ``` buildscript { repositories { google() } dependencies { classpath "android.arch.navigation:navigation-safe-args-gradle-plugin:1.0.0-alpha02" } } ``` После установки плагина, следуйте этим шагам чтобы использовать type-safe передачу данных: 1. В редакторе графа выделите экран назначения, которому нужно передать данные. 2. Нажмите + в секции Arguments на панели атрибутов. Появится атрибут с пустыми полями. 3. Введите имя аргумента. 4. Выберите тип аргумента. 5. Введите значение по умолчанию. 6. Выделите действие, предшествующее экрану назначения. Секция Argument Default Values должна содержать только что созданный аргумент. 7. Кликните Text чтобы перейти в режим редактирования XML. ``` ``` После того как плагин safeargs сгенерировал код (*то есть после создания аргумента с типом – Прим. переводчика*), сгенерированы также классы для экрана-отправителя и экрана-получателя. *Прим. переводчика: мне пришлось после создания аргумента нажать кнопку Sync Project with Gradle Files, чтобы классы сгенерировались.* * Класс экрана отправителя имеет такое же название как у оригинала, с добавлением слова Directions в конце. То есть, если у вас есть экран назначения FirstFragment, то сгенерированный класс называется FirstFragmentDirections. Этот класс имеет метод (!), название которого совпадает с ID действия, которое передаёт аргумент. То есть, если ваш экран FirstFragment передаёт аргумент экрану SecondFragment, и если действие, соединяющее их, называется action\_first\_to\_second, то вот так выглядит искомый метод FirstFragmentDirections.action\_first\_to\_second(). * Класс отправителя также содержит подкласс, который является типом возвращаемого значения метода, рассмотренного выше. То есть, в нашем случае, тип возвращаемого значения метода action\_first\_to\_second() будет Action\_first\_to\_second. * Класс получателя имеет такое же имя как у оригинала, с добавлением слова Args в конце. Для нашего примера, SecondFragment является принимающей стороной, поэтому для него сгенерируется класс SecondFragmentArgs. Этот класс имеет метод fromBundle() для получения аргументов. *Прим. переводчика: сейчас всё станет понятнее. Этот код я немного видоизменил по сравнению с оригинальным. Изменения касаются только названий, которые для каждого могут быть индивидуальны. Это сделано для упрощения понимания. Здесь в качестве названия аргумента используется имя myArgument, а его тип String.* Этот код демонстрирует как использовать safeargs для передачи аргументов через метод navigate(): **Java** ``` @Override public void onClick(View view) { FirstFragmentDirections.Action_first_to_second action = FirstFragmentDirections.action_first_to_second(); action.setMyArgument("My argument value"); Navigation.findNavController(view).navigate(action); } ``` **Kotlin** ``` override fun onClick(v: View?) { val action = FirstFragmentDirections.action_first_to_second action.myArgument = "My argument value" v.findNavController().navigate(action) } ``` Этот код демонстрирует как извлекать аргументы с помощью safeargs: **Java** ``` @Override public void onViewCreated(View view, @Nullable Bundle savedInstanceState) { String myArgument = SecondFragmentArgs.fromBundle(getArguments()).getMyArgument(); } ``` **Kotlin** ``` override fun onViewCreated(view: View, savedInstanceState: Bundle?) { val myArgument = SecondFragmentArgs.fromBundle(arguments).myArgument } ``` *Прим. переводчика: лично мне очень понравился этот метод передачи аргументов. Больше никаких тебе private static final String MY\_ARGUMENT\_KEY = "MY\_ARGUMENT". Очень удобно что теперь для установки и извлечения аргумента используется его индивидуальный (!) getter и setter.* Группировка экранов назначения во вложенный граф ------------------------------------------------ Последовательности экранов назначения могут быть сгруппированы в подграф. Подграф называется **"nested graph" (вложенный граф)**, а граф-родитель **"root graph" (корневой граф)**. Вложенные графы полезны для организации повторного использования частей пользовательского интерфейса вашего приложения, таких как ветвь (последовательность экранов) авторизации. Равно как и корневой, вложенный граф должен иметь стартовый экран. Вложенный граф инкапсулирует свои экраны назначения. Экраны за пределами вложенного графа, например экраны корневого графа, имеют доступ только к стартовому экрану вложенного графа. На рисунке 6 изображён навигационный граф простейшего приложения для перевода денег. Граф имеет две ветви: для перевода денег, и для просмотра баланса. ![](https://habrastorage.org/r/w1560/webt/5d/qz/qh/5dqzqh2likfwx77uxbxewkxffq4.png) **Рисунок 6.** Навигационный граф приложения для перевода денег Группировка экранов назначения во вложенный граф: 1. В редакторе графа нажмите и удерживайте **shift**, и кликните на те экраны, которые вы хотите включить во вложенный граф. Каждый экран должен быть выделен. 2. Нажмите ПКМ на одном из них, и выберите из контекстного меню **Move to Nested Graph > New Graph**. Выбранные экраны превратятся во вложенный граф. Рисунок 7 демонстрирует вложенные граф в редакторе графа. ![](https://habrastorage.org/r/w1560/webt/9i/sq/yk/9isqykps5hreveqqnzl6tj8qrqs.png) **Рисунок 7.** Вложенный граф в редакторе графа 3. Кликните по вложенному графу чтобы выделить его. Следующие атрибуты должны появиться в панели атрибутов: * Поле Type содержит "Nested Graph". * Поле ID содержит сгенерированный ID для вложенного графа. 4. Сделайте двойной щелчёк по вложенному графу. Появятся экраны вложенного графа. 5. В списке экранов (слева) нажмите **Root** чтобы вернуться к корневому графу. 6. Перейдите в режим редактирования **Text** чтобы увидеть XML. Вложенный граф был добавлен в корневой граф. Он обозначается собственными открывающим и закрывающим тегом *navigation*. В данном примере вложенный граф содержит атрибут **ID** со значением *sendMoneyGraph* и атрибут **startDestination** со значением *chooseRecipient*: ``` xml version="1.0" encoding="utf-8"? ``` 7. В исходном коде вставьте ID действия, соединяющего корневой граф и вложенный, в метод navigate() чтобы осуществить вход во вложенный граф: **Java** ``` Navigation.findNavController(view).navigate(R.id.action_mainFragment_to_sendMoneyGraph); ``` **Kotlin** ``` view.findNavController(view).navigate(R.id.action_mainFragment_to_sendMoneyGraph) ``` Диплинки -------- В Android, диплинк ([deep link](https://developer.android.com/training/app-links/deep-linking)) это URI (Адрес, грубо говоря – *Прим. переводчика*), который указывает на какой-либо экран приложения. Эти URI полезны если вы хотите направить пользователя на какой-то конкретный экран, чтобы он не добирался до него сам. Создание диплинка для экрана назначения --------------------------------------- 1. В редакторе графа выберите экран назначения для диплинка. 2. Кликните **+** в секции Deep Links на панели Атрибутов. Откроется окно **Add Deep Link**. 3. Введите URI в поле URI. Например "www.cashdog.com/sendmoney" подойдёт для перенаправления пользователя на экран перевода денег (здесь www.cashdog.com это название вашей организации или приложения, или вообще всё что угодно). Памятка про URI: * Если у URI не указан протокол, то подразумевается что это http или https. Например www.cashdog.com будет соответствовать *<http://www.cashdog.com>* и *<https://www.cashdog.com>*. * Плэйсхолдеры (placeholders) такие как {placeholder\_name} соответствуют одному и более символам. Например *[http://www.example.com/users/{id](http://www.example.com/users/%7Bid)}* соответствует *<http://www.example.com/users/4>*. * Маска . *означает что на месте* может быть 0 и более символов. 4. Отметьте галочкой **Auto Verify** чтобы запросить у Google подтверждение, что этот URI принадлежит вам. Чтобы получить больше информации изучите [Верификацию Android App Links](https://developer.android.com/training/app-links/verify-site-associations). 5. Нажмите **Add**. Иконка ссылки ![](https://habrastorage.org/r/w1560/webt/iu/tt/cg/iuttcg5meceq3wbgcaxshmt637s.png) появится после имени выбранного экрана назначения. 6. Перейдите в режим редактирования **Text**. В выбранный экран назначения был добавлен элемент диплинка: Когда пользователь нажимает кнопку Back, после перехода по диплинку, он переходит на предыдущий экран вашего графа. То есть, диплинк открывает экран таким образом, как будто пользователь последовательно добирался до него сам от точки входа в приложение. Разрешение использования диплинков ---------------------------------- Вам нужно внести изменения в *manifest.xml* чтобы разрешить вашему приложению использование диплинков: * Для Android Studio 3.0 и 3.1, вы должны добавить элемент intent-filter. Для получения большей информации, изучите [Создание диплинков для приложения](https://developer.android.com/training/app-links/deep-linking). * Для Android Studio 3.2+, вы можете просто добавить элемент *nav-graph* в активность: ``` ``` На этапе сборки, он заменяется необходимыми для разрешения диплинков элементами. Создание перехода между экранами -------------------------------- Архитектурный компонент Navigation позволяет легко добавлять переходы между экранами назначения, такие как "постепенное появление" и "постепенный уход". Добавление перехода: 1. Создайте файлы анимации. Navigation поддерживает [Property Animation](https://developer.android.com/guide/topics/graphics/prop-animation) и [View Animation](https://developer.android.com/guide/topics/graphics/view-animation). Для большей информации изучите [Animation Resources](https://developer.android.com/guide/topics/resources/animation-resource). 2. В редакторе графа выделите действие, на котором должен выполняться переход. 3. В секции Transitions панели атрибутов, откройте выпадающее меню поля Enter. Откроется список переходов вашего приложения. 4. Выберите переход, который должен происходить при открытии экрана. 5. В секции Transitions панели атрибутов, откройте выпадающее меню поля Exit. Откроется список переходов вашего приложения. 6. Выберите переход, который должен происходить при закрытии экрана. 7. Перейдите в режим редактирования **Text**. XML код для перехода появился в соответствующем элементе action. Это действие расположено в элементе экрана назначения, который отображается перед активацией перехода. В этом коде *specifyAmountFragment*, это активный экран назначения, который содержит действие с анимацией перехода: ``` ``` Этот пример содержит переходы, которые активируются при открытии экрана (*enterAnim* и *exitAnim*) и при его закрытии (*popEnterAnim* и *popExitAnim*). Сообщайте о проблемах --------------------- Если вы столкнулись с какими-то проблемами при использовании Navigation Editor, пожалуйста отправьте [отчёт](https://issuetracker.google.com/issues/new?component=404706). О том, как эффективно составлять отчёты об ошибках смотрите в разделе [Report a bug](https://developer.android.com/studio/report-bugs). Читайте также ------------- Этот документ описывает фундаментальные вещи для реализации Navigation в вашем проекте. После его прочтения вас также может заинтересовать: * [Migrate to the Navigation Architecture Component](https://developer.android.com/topic/libraries/architecture/navigation/navigation-migrate) * [Add support for new destination types](https://developer.android.com/topic/libraries/architecture/navigation/navigation-add-new) * [Implement conditional navigation](https://developer.android.com/topic/libraries/architecture/navigation/navigation-conditional) * [Identify a common destination for several UI elements](https://developer.android.com/topic/libraries/architecture/navigation/navigation-global-action) Заключение переводчика ---------------------- Что ж, этот перевод стал для меня довольно интересным опытом, особенно учитывая что до этого я по своему желанию не переводил такие объёмы текста, ещё и технического. Я надеюсь что таким образом помогу кому-то разобраться в этой технологии на первых парах. Как минимум, я уже помог себе получше разобраться в некоторых деталях этой новинки в ходе подготовки текста. Так что это однозначно было сделано не зря! Если у вас есть замечания по этому переводу, или вы хотите предложить перевести что-то ещё на эту тему (или любую тему по Android) – прошу в комментарии. UPD: по просьбе из комментариев прикладываю пример проекта: <https://github.com/PrincessYork/android_navigation>
https://habr.com/ru/post/416025/
null
ru
null
# В двух словах о самом разном Итак, напишу о том, как пофиксить дрожание в IE при эмуляции position:absolute; (без фоновой картинки), устроить склонение слов, решить проблемы с вопросиками в Mysql и про остальные неважные, но иногда полезные хитрости. Если Вы матёрый веб-технолог, можете не читать: ничего нового не найдёте. ###### IE Fixed Fix Дрожание фиксированного блока, пофиксенного с помощью top:expression() в IE, можно починить так: body { \_filter: true; } ###### Быстрое создание csv Сохранить таблицу из Mysql сразу в csv файл (он легко открывается с помощью Excel) можно следующим запросом: SELECT \* INTO OUTFILE '/tmp/table.csv' FIELDS TERMINATED BY ';' OPTIONALLY ENCLOSED BY '"' LINES TERMINATED BY '\n' FROM users WHERE 1 ###### Окончания #1 Расчет окончаний в Javascript, алгоритм#1 function xform(c, str1, str2, str5) { c = Math.abs( c ) % 100; if ( c > 10 && c < 20 ) return str5; c %= 10; if ( c > 1 && c < 5 ) return str2; if ( c == 1 ) return str1; return str5; } Использование: str = x + xform (x,«яблоко»,«яблока»,«яблок») ###### Окончания #2 Расчет окончаний в php, алгоритм#2 (Внимание! подходит только когда количество зашкаливает за 20, например, в блоге) php<br/ $words = array(«слов», «слово»,«слова»,«слова»,«слова»,«слов»,«слов», «слов», «слов», «слов»); //Использование: $a=71; print $words[substr($a,-1)]; ?> Хабрасообществом решено, что алгоритм-говно. Из преимуществ: отсутствие всяких If-ов, и вообще просто, как пенёк. ###### Mysql и даты Вставлять даты в MySQL запросах можно так: INSERT into `dates` (dat) values (STR\_TO\_DATE('12-31-2004','%m-%d-%Y')) ###### Экранирование кавычек Если Вы недавно (или давно) перешли на php5 denwer 3 с denwer-а 2, или перешли на новый хостинг и у вас в скриптах вместо строк вроде «строч'ка» начали появляться «строч\'ка», то поможет строка в .htaccess: php\_flag magic\_quotes\_gpc off php\_flag magic\_quotes\_runtime off Только будьте аккуратны, чтобы Вам сайт не поломали. (Ну или поправьте скрипт) ###### «Вопросики» Если внезапно скрипт «вместо символов начал выводить вопросики, а кодировка стоит cp1251, но всё равно вопросики», то в файле $config.php (он у вас есть, я уверен) пропишите mysql\_select\_db($database ); mysql\_query («set character\_set\_client='cp1251'»); mysql\_query («set character\_set\_results='cp1251'»); mysql\_query («set collation\_connection='cp1251\_general\_ci'»); Переходите на utf ###### Выделение текста в IE Если в свёрстанном макете при выделении текста в IE выделяется полстраницы вместо нужного текста, помогает строчка в начале страницы: XML VERSION=«1.0» ENCODING=«windows-1251»? (Я понимаю, что это быдлометод, но он работает) Альтернативный метод: «Используйте body{position: relative;} проще и безобиднее.», спасибо [Chizh](https://habr.com/ru/users/chizh/) ###### Опять кодировки Если в PHP вам в переменную попала строка, например, такая: «РЅРµС‚ безумным РЅРёРіРґРµ РїРѕРєРѕСЏ» (это бывает, когда Opera отправляет данные через XMLHttpRequest), то поможет функция `function Encode ( $str, $type ) { static $conv=''; if (!is_array ( $conv )) { $conv=array (); for ( $x=128; $x <=143; $x++ ) { $conv['utf'][]=chr(209).chr($x); $conv['win'][]=chr($x+112); } for ( $x=144; $x <=191; $x++ ) { $conv['utf'][]=chr(208).chr($x); $conv['win'][]=chr($x+48); } $conv['utf'][]=chr(208).chr(129); $conv['win'][]=chr(168); $conv['utf'][]=chr(209).chr(145); $conv['win'][]=chr(184); } if ( $type=='w' ) return str_replace ( $conv['utf'], $conv['win'], $str ); elseif ( $type=='u' ) return str_replace ( $conv['win'], $conv['utf'], $str ); else return $str; }` Вызывается так: $str= Encode($str,'w'); ###### Удалённая правка Mysql Если надо поправить базу данных, phpMyAdmin вызывает рвоту (иногда бывает, да), а Mysql порт закрыт, то качаем [navicat](http://mysql.navicat.com/), берём файл ntunnel\_mysql.php из папки, куда его установили, заливаем на сервер, и в свойствах подключения указываем адрес. Программа 30 дней работает. (я на ней учился кряки писать, но кряк, конечно, не распространял и им не пользовался) ###### UPD: Русскоязычные поддомены Чтобы сделать русскоязычный поддомен 3 уровня, надо: 1. Открыть Firefox, впечатать в адресную строку чтото вроде: хабрахабр.ru 2. Firefox напишет, что «Firefox не может найти сервер [www.xn--80aaacc1gd7ae.ru](http://www.xn--80aaacc1gd7ae.ru).» 3. Создаёте поддомен с именем «xn--80aaacc1gd7ae». Работает в некоторых блого-сервисах, где имя пользователя это поддомен. Пример: [дамирко.ramainen.ru](http://xn--80ahniiom.ramainen.ru) ###### Пару слов о MS Word Напоследок немного информационного мусора: Чтобы выдернуть картинки из файла .docx или .pptx, можно переименовать их в файл .zip и открыть любым архиватором. В архиве, помимо всего прочего, будут лежать картинки. Чтобы в Word 2003 или Word XP открывать файлы docx (Word 2007), установите расширение [FileFormatConverters](http://yandex.ru/yandsearch?text=FileFormatConverters&clid=9582&stpar2=%2Fh1%2Ftm6410%2Fs2&stpar4=%2Fs2&stpar1=%2Fu0), устанавливается поверх Office, и тот начинает понимать новый формат. ###### Важные новости А ещё в cmd.exe есть калькулятор: Z:>set /a 1+1
https://habr.com/ru/post/47088/
null
ru
null
# Как замкнуть переменную в C# и не выстрелить себе в ногу Еще в далеком 2005 с выходом стандарта C# 2.0 появилась возможность передачи переменной в тело анонимного делегата посредством ее захвата (или замыкания, кому как угодно) из текущего контекста. В 2008 вышел в свет новый стандарт C# 3.0, принеся нам лямбды, пользовательские анонимные классы, LINQ запросы и многое другое. Сейчас на дворе январь 2017 и большинство C# разработчиков с нетерпением ждут релиз стандарта C# 7.0, который должен привнести много новых полезных «фич». А вот фиксить старые «фичи», никто особо не торопится. Поэтому способов случайно выстрелить себе в ногу по-прежнему хватает. Сегодня мы поговорим об одном из их, и связан он с не совсем очевидным механизмом захвата переменных в тело анонимных функций в языке C#. ![Picture 1](https://habrastorage.org/r/w1560/getpro/habr/post_images/433/af9/b4a/433af9b4a44c643067f181b878f3631c.png) Введение -------- Как я уже и писал выше, в данной статье мы обсудим особенности работы механизма захвата переменных в тело анонимных методов в языке C#. Сразу хочу оговориться, что данная статья будет содержать много технических подробностей, но, я надеюсь, что мне удастся доступно и интересно рассказать об этом как опытным, так и начинающим разработчикам. А теперь ближе к делу. Я напишу простой пример кода, а вам необходимо будет сказать, что конкретно в данном случае будет выведено в консоль. И так, приступим: ``` void Foo() { var actions = new List(); for (int i = 0; i < 10; i++) { actions.Add(() => Console.WriteLine(i)); } foreach(var a in actions) { a(); } } ``` А теперь внимание, ответ: **Ответ**В консоль будет выведено десять раз число десять: ``` 10 10 10 10 10 10 10 10 10 10 ``` Эта статья для тех, кто посчитал иначе. Давайте разберёмся в причинах такого поведения. Почему так происходит? ---------------------- При объявлении анонимной функции (это может быть анонимный делегат или лямбда) внутри вашего класса, на этапе компиляции будет объявлен еще один класс-контейнер, содержащий в себе поля для всех захваченных переменных и метод, содержащий тело анонимной функции. Для приведенного выше участка кода дизассемблированная структура программы после компиляции будет выглядеть так: ![Picture 3](https://habrastorage.org/r/w1560/getpro/habr/post_images/7a8/602/144/7a86021449da435ccac863c7133c0ce3.png) В данном случае метод *Foo* из приведенного в начале участка кода объявлен внутри класса *Program*. Для лямбды *() => Console.WriteLine(i)* компилятором был сгенерирован класс-контейнер *c\_\_DisplayClass1\_0*, а внутри него — поле *i* содержащее одноименную захваченную переменную и метод *b\_\_0* содержащий тело лямбды. Давайте рассмотрим дизассемблированный IL код метода *b\_\_0* (тело лямбды) с моими комментариями: **Немного IL кода** ``` .method assembly hidebysig instance void 'b\_\_0'() cil managed { .maxstack 8 // Помещает на верх стека текущий экземпляр класса (аналог 'this'). // Это необходимо для доступа к полям текущего класса. IL\_0000: ldarg.0 // Помещает на верх стека значение поля 'i' // экземпляра текущего класса. IL\_0001: ldfld int32 TestSolution.Program/'<>c\_\_DisplayClass1\_0'::i // Вызывает метод вывода строки в консоль. // В качестве аргументов передаются значения со стека. IL\_0006: call void [mscorlib]System.Console::WriteLine(int32) // Выходит из метода. IL\_000b: ret } ``` Все верно, это именно то, что мы делаем внутри лямбды, никакой магии. Идем дальше. Как известно, тип *int* (полное название — *Int32*) является структурой, а значит при передаче куда-либо передается не ссылка на него в памяти, а копируется непосредственно его значение. Копироваться значение переменной *i* должно (по логике вещей) во время создания экземпляра класса-контейнера. И если вы ответили неверно на мой вопрос в начале статьи, то вероятнее всего вы ожидали, что контейнер будет создан непосредственно перед объявлением лямбды в коде. На самом деле переменная *i* после компиляции вообще не будет создана внутри метода *Foo*. Вместо этого будет создан экземпляр класса-контейнера *c\_\_DisplayClass1\_0*, а его поле *i* будет проинициализировано вместо локальной переменной *i* значением 0. Более того, везде, где до этого мы использовали локальную переменную *i*, теперь используется поле класса-контейнера. Важный момент заключается также в том, что экземпляр класса-контейнера будет создан перед циклом, так как его поле *i* будет использоваться в цикле как итератор. В итоге мы получаем один экземпляр класса-контейнера на все итерации цикла *for*. А добавляя при каждой итерации в список *actions* новую лямбду, мы, по факту, добавляем в него одну и ту же ссылку на ранее созданный экземпляр класса-контейнера. В результате чего, когда мы обходим циклом *foreach* все элементы списка *actions*, то все они содержат один и тот же экземпляр класса-контейнера. А если учесть, что цикл *for* выполняет инкремент к значению итератора после каждой итерации (даже после последней), то значение поля *i* внутри класса контейнера после выхода из цикла становится равным десяти после выполнения цикла *for*. Убедиться во всем мной вышесказанном можно, взглянув на дизассемблированный IL код метода *Foo* (естественно с моими комментариями): **Осторожно, много IL кода** ``` .method private hidebysig instance void Foo() cil managed { .maxstack 3 // -========== ОБЪЯВЛЕНИЕ ЛОКАЛЬНЫХ ПЕРЕМЕННЫХ ==========- .locals init( // Список 'actions'. [0] class [mscorlib]System.Collections.Generic.List'1 actions, // Класс-контейнер для лямбды. [1] class TestSolution.Program/ '<>c\_\_DisplayClass1\_0' 'CS$<>8\_\_locals0', // Техническая переменная V\_2 необходимая для временного // хранения результата операции суммирования. [2] int32 V\_2, // Техническая переменная V\_3 необходимая для хранения // енумератора списка 'actions' во время обхода циклом 'foreach'. [3] valuetype [mscorlib]System.Collections.Generic.List'1/Enumerator V\_3) // -================= ИНИЦИАЛИЗАЦИЯ =================- // Создается экземпляр списка Actions и присваивается // переменной 'actions'. IL\_0000: newobj instance void class [mscorlib]System.Collections.Generic.List'1::.ctor() IL\_0005: stloc.0 // Создается экземпляр класса-контейнера и // присваивается в соответствующую локальную переменную. IL\_0006: newobj instance void TestSolution.Program/'<>c\_\_DisplayClass1\_0'::.ctor() IL\_000b: stloc.1 // Загружается на стек ссылка экземпляра класса-контейнера. IL\_000c: ldloc.1 // Число 0 загружается на стек. IL\_000d: ldc.i4.0 // Присваивается со стека число 0 полю 'i' предыдущего // объекта на стеке (экземпляру класса-контейнера). IL\_000e: stfld int32 TestSolution.Program/'<>c\_\_DisplayClass1\_0'::i // -================= ЦИКЛ FOR =================- // Перепрыгивает к команде IL\_0037. IL\_0013: br.s IL\_0037 // Загружаются на стек ссылки списка 'actions' и // экземпляра класса-контейнера. IL\_0015: ldloc.0 IL\_0016: ldloc.1 // Загружается на стек ссылка на метод 'Foo' // экземпляра класса-контейнера. IL\_0017: ldftn instance void TestSolution.Program/'<>c\_\_DisplayClass1\_0'::'b\_\_0'() // Создается экземпляр класса 'Action' и в него передается // ссылка на метод 'Foo' экземпляра класса-контейнера. IL\_001d: newobj instance void [mscorlib]System.Action::.ctor(object, native int) // Вызывается метод 'Add' у списка 'actions' добавляя // в него экземпляр класса 'Action'. IL\_0022: callvirt instance void class [mscorlib]System.Collections.Generic.List'1::Add(!0) // Загружается на стек значение поля 'i' экземпляра // класса-контейнера. IL\_0027: ldloc.1 IL\_0028: ldfld int32 TestSolution.Program/'<>c\_\_DisplayClass1\_0'::i // Присваивается технической переменной 'V\_2' значение поля 'i'. IL\_002d: stloc.2 // Загружается на стек ссылка на экземпляр класса-контейнера // и значение технической переменной 'V\_2'. IL\_002e: ldloc.1 IL\_002f: ldloc.2 // Загружается на стек число 1. IL\_0030: ldc.i4.1 // Суммирует первые два значения на стеке и присваивает их третьему. IL\_0031: add // Присваивает со стека результат суммирования полю 'i'. // (по факту инкремент) IL\_0032: stfld int32 TestSolution.Program/'<>c\_\_DisplayClass1\_0'::i // Загружается значение поля 'i' экземпляра // класса-контейнера на стек. IL\_0037: ldloc.1 IL\_0038: ldfld int32 TestSolution.Program/'<>c\_\_DisplayClass1\_0'::i // Загружается на стек число 10. IL\_003d: ldc.i4.s 10 // Если значение поля 'i' меньше числа 10, // то перепрыгивает к команде IL\_0015. IL\_003f: blt.s IL\_0015 // -================= ЦИКЛ FOREACH =================- // Загружается на стек ссылка на список 'actions'. IL\_0041: ldloc.0 // Технической переменной V\_3 присваивается результат // выполнения метода 'GetEnumerator' у списка 'actions'. IL\_0042: callvirt instance valuetype [mscorlib]System.Collections.Generic.List'1/Enumerator class [mscorlib]System.Collections.Generic.List'1::GetEnumerator() IL\_0047: stloc.3 // Инициализация блока try (цикл foreach преобразуется // в конструкцию try-finally). .try { // Перепрыгивает к команде IL\_0056. IL\_0048: br.s IL\_0056 // Вызывает у переменной V\_3 метод get\_Current. // Результат записывается на стек. // (Ссылка на объект Action при текущей итерации). IL\_004a: ldloca.s V\_3 IL\_004c: call instance !0 valuetype [mscorlib]System.Collections.Generic.List'1/Enumerator::get\_Current() // Вызывает у объекта Action текущей итерации метод Invoke. IL\_0051: callvirt instance void [mscorlib]System.Action::Invoke() // Вызывает у переменной V\_3 метод MoveNext. // Результат записывается на стек. IL\_0056: ldloca.s V\_3 IL\_0058: call instance bool valuetype [mscorlib]System.Collections.Generic.List'1/Enumerator::MoveNext() // Если результат выполнения метода MoveNext не null, // то перепрыгивает к команде IL\_004a. IL\_005d: brtrue.s IL\_004a // Завершает выполнение блока try и перепрыгивает в finally. IL\_005f: leave.s IL\_006f } // end .try finally { // Вызывает у переменной V\_3 метод Dispose. IL\_0061: ldloca.s V\_3 IL\_0063: constrained. Valuetype [mscorlib]System.Collections.Generic.List'1/Enumerator IL\_0069: callvirt instance void [mscorlib]System.IDisposable::Dispose() // Завершает выполнение блока finally. IL\_006e: endfinally } // Завершает выполнение текущего метода. IL\_006f: ret } ``` Вывод ----- Товарищи из Microsoft утверждают, что это не баг, а фича, и это поведение было реализовано преднамеренно, с целью увеличения производительности работы программ. Больше информации по [ссылке](https://blogs.msdn.microsoft.com/abhinaba/2005/10/18/c-anonymous-methods-are-not-closures/). На деле же это выливается в баги, и непонимание со стороны начинающих разработчиков. Интересный факт заключается в том, что аналогичное поведение было и у цикла *foreach* до стандарта C# 5.0. Microsoft буквально засыпали жалобами о неинтуитивном поведении в баг-трекере, после чего с выходом стандарта C# 5.0 это поведение было изменено посредством объявления переменной итератора внутри каждой итерации цикла, а не перед ним на этапе компиляции, но для всех остальных конструкций циклов подобное поведение осталось без изменений. Подробнее об этом можно прочитать по [ссылке](https://visualstudiomagazine.com/articles/2012/11/01/more-than-just-async.aspx) в разделе *Breaking Changes*. Вы спросите, как же избежать данной ошибки? На самом деле ответ очень простой. Необходимо следить за тем, где и какие переменные вы захватываете. Помните, класс-контейнер будет создан там, где вы объявили свою переменную, которую в дальнейшем будете захватывать. Если захват происходит в теле цикла, а переменная объявлена за его пределами, то необходимо переприсвоить ее внутри тела цикла в новую локальную переменную. Корректный вариант приведенного в начале примера мог бы выглядеть так: ``` void Foo() { var actions = new List(); for (int i = 0; i < 10; i++) { var index = i; // <= actions.Add(() => Console.WriteLine(index)); } foreach(var a in actions) { a(); } } ``` Если выполнить данный код, то в консоль будут выведены числа от 0 до 9 как и ожидалось: **Вывод в консоль** ``` 0 1 2 3 4 5 6 7 8 9 ``` Посмотрев на IL код цикла for из данного примера, мы увидим, что экземпляр класса-контейнера будет создаваться каждую итерацию цикла. Таким образом, список *actions* будет содержать ссылки на разные экземпляры с корректными значениями итераторов. **Еще немного IL кода** ``` // -================= ЦИКЛ FOR =================- // Перепрыгивает к команде IL_002d. IL_0008: br.s IL_002d // Создает экземпляр класса-контейнера и загружает ссылку на стек IL_000a: newobj instance void TestSolution.Program/'<>c__DisplayClass1_0'::.ctor() IL_000f: stloc.2 IL_0010: ldloc.2 // Присваивает полю 'index' в классе-контейнере // значение переменной 'i'. IL_0011: ldloc.1 IL_0012: stfld int32 TestSolution.Program/'<>c__DisplayClass1_0'::index // Создает экземпляр класса 'Action' с ссылкой на метод // класса-контейнера и добавляет его в список 'actions'. IL_0017: ldloc.0 IL_0018: ldloc.2 IL_0019: ldftn instance void TestSolution.Program/'<>c__DisplayClass1_0'::'b\_\_0'() IL\_001f: newobj instance void [mscorlib]System.Action::.ctor(object, native int) IL\_0024: callvirt instance void class [mscorlib]System.Collections.Generic.List'1::Add(!0) // Выполняет инкремент к переменной 'i' IL\_0029: ldloc.1 IL\_002a: ldc.i4.1 IL\_002b: add IL\_002c: stloc.1 // Загружает на стек значение переменной 'i'. // В этот раз она уже не в классе-контейнере. IL\_002d: ldloc.1 // Сравнивает значение переменной 'i' c числом 10. // Если 'i < 10', то перепрыгивает к команде IL\_000a. IL\_002e: ldc.i4.s 10 IL\_0030: blt.s IL\_000a ``` Напоследок напомню, что все мы люди, и все мы допускаем ошибки, и надеяться всегда только на человеческий фактор при поиске ошибок и опечаток в коде не только не логично, но и как правило долго и ресурсоемко. Поэтому всегда есть смысл использовать технические решения для поиска и выявления ошибок в вашем коде. Машина не только не знает усталости, но и чаще всего выполняет работу быстрее. Совсем недавно мы — разработчики статического анализатора [PVS-Studio](http://www.viva64.com/ru/pvs-studio/) — реализовали очередную [диагностику](http://www.viva64.com/ru/w/V3129/), направленную на поиск ошибок неправильного захвата переменных в анонимные функции внутри циклов. В свою же очередь спешу предложить вам проверить ваш код на наличие ошибок и опечаток нашим статическим анализатором. На этой ноте я заканчиваю данную статью, а вам желаю чистого кода и безбажных программ. [![](https://habrastorage.org/r/w1560/files/8d2/41b/5bf/8d241b5bf34747169141ed7c1997143b.png)](http://www.viva64.com/en/b/0468/) Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Ivan Kishchenko. [How to capture a variable in C# and not to shoot yourself in the foot](http://www.viva64.com/en/b/0468/) **Прочитали статью и есть вопрос?**Часто к нашим статьям задают одни и те же вопросы. Ответы на них мы собрали здесь: [Ответы на вопросы читателей статей про PVS-Studio, версия 2015](http://www.viva64.com/ru/a/0085/). Пожалуйста, ознакомьтесь со списком.
https://habr.com/ru/post/320588/
null
ru
null
# Линтер на все случаи жизни — GitHub Super Linter ![](https://habrastorage.org/r/w1560/webt/w0/hu/oe/w0huoe10-1dbp4bb9ruabfhwbxs.png) Команда DevOps инженеров из GitHub поделились своим универсальным решением для проверки качества кода. С ним можно настроить [линтер](https://github.com/github/super-linter) для 17 языков всего в 11 строк: ``` name: Lint Code Base on: push: branches-ignore: - 'master' jobs: linter: runs-on: ubuntu-latest steps: - uses: actions/checkout@v2 - uses: docker://github/super-linter:v2.1.0 ``` Код выше является YAML конфигурацией для [GitHub Actions](https://github.com/features/actions) (бесплатный CI/CD от GitHub) и далее мы разберемся с его содержимым и принципом работы. Мотивация --------- Данный проект изначально является внутренней разработкой GitHub: > GitHub Super Linter был создан командой DevOps GitHub Services для обеспечения согласованности нашей документации и кода для повышения продуктивности взаимодействия и совместной работы в компании. > > [Лукас Гравли, 2020](https://github.blog/2020-06-18-introducing-github-super-linter-one-linter-to-rule-them-all/) Проблема -------- 1. Для каждого языка существует отдельный линтер, а иногда несколько 2. В каждой экосистеме настройка линтера отличается Настройка линтера это важная часть любого проекта, с более чем 1 участником. Он помогает приводить код к единому стандарту, во избежание недопониманий и разногласий между разработчиками. Я могу судить из мира JS, где настройка линтера и CI/CD занимает 10-20 минут. Устанавливаем [eslint](https://eslint.org/) (обычно в связке с [prettier](https://prettier.io/)), и настраиваем список правил. Ничего сложного, но то версия eslint обновилась, то какой-то плагин нужно доустановить, то транспайлер ругается, в общем оставшиеся 9 минут 30 секунд занимаешься отладкой. Не так уж и страшно и даже полезно потратить 10 минут на ручную настройку, но только вот в случае с [монорепо](https://en.wikipedia.org/wiki/Monorepo), это превращается в ад. Я не являюсь сторонником использования монореп, но они есть и с ними нужно жить и работать ¯\*(ツ)*/¯ Решение ------- Обнародованный в open source [`super-linter`](https://github.com/github/super-linter) интегрированный в CI/CD может автоматически определять и проверять код на следующих языках: * **Ansible** ([ansible-lint](https://github.com/ansible/ansible-lint)) * **CSS** ([stylelint](https://stylelint.io/)) * **CoffeeScript**([coffeelint](https://coffeelint.github.io/)) * **Dockerfile** ([dockerfilelint](https://github.com/replicatedhq/dockerfilelint.git)) * **Golang** ([golangci-lint](https://github.com/golangci/golangci-lint)) * **JavaScript** ([eslint](https://eslint.org/) [standard js](https://standardjs.com/)) * **JSON** ([jsonlint](https://github.com/zaach/jsonlint)) * **Markdown** ([markdownlint](https://github.com/igorshubovych/markdownlint-cli#readme)) * **Perl** ([perl](https://pkgs.alpinelinux.org/package/edge/main/x86/perl)) * **Python3** ([pylint](https://www.pylint.org/)) * **Ruby** ([RuboCop](https://github.com/rubocop-hq/rubocop)) * **Shell** ([Shellcheck](https://github.com/koalaman/shellcheck)) * **Terraform** ([tflint](https://github.com/terraform-linters/tflint)) * **TypeScript** ([eslint](https://eslint.org/) [standard js](https://standardjs.com/)) * **XML** ([LibXML](http://xmlsoft.org/)) * **YAML** ([YamlLint](https://github.com/adrienverge/yamllint)) * **ENV** ([dotenv-linter](https://github.com/dotenv-linter/dotenv-linter)) Следовательно, если в проекте наблюдается смешивание стеков, то вполне рекомендуется посмотреть в сторону `super-linter`. Достаточно спорный момент насчет его использования в проектах с одним языком/фреймворком. Проекты с претензией на универсальность всегда несут за собой ограничения и потерю гибкости. Вопрос подбора решения немного из области философии, выбор глубины требуемой абстракции может пасть на низкоуровневый ассемблер, или же остановится на JS. Я бы исходил из задачи: * нет времени объяснять, нужен линтер за 30 секунд — подключили `super-linter` * можно продумать список правил и подстроить под текущее окружение — я бы пробовал точечное решение Реализация ---------- GitHub Super Linter — это репозиторий исходного кода, упакованный в контейнер Docker и вызываемый из GitHub Actions. ### Принцип работы При триггере CI/CD выполняется workflow, описанный конфигом из начала статьи: ``` # Название name: Lint Code Base # Определение триггера для запуска CI/CD on: # Триггер на push любого коммита в ветку push: # Игнорирование ветки `master` branches-ignore: - 'master' # Задачи к выполнению jobs: # Задача linter: # Сборка окружения ubuntu-latest runs-on: ubuntu-latest # Шаги задачи steps: # Переключение на текущую ветку (обязательное действие, если нужен доступ к файлам репозитория) - uses: actions/checkout@v2 # Вызов Super Linter - uses: docker://github/super-linter:v2.1.0 ``` Только последняя строка вызывает `super-linter`, и дальше мяч переходит на его сторону. Внутри происходит примерно следующее: 1. Поднимается Docker-контейнер и [устанавливает](https://github.com/github/super-linter/blob/master/Dockerfile#L7-L109) в себя требуемые окружения с соответствующими линтерами 2. Следом [собираются](https://github.com/github/super-linter/blob/master/Dockerfile#L111-L152) все переданные данные о правилах и настройках 3. [Запускается Bash скрипт](https://github.com/github/super-linter/blob/master/Dockerfile#L157), * собирает переданный конфиг * анализирует файлы на принадлежность к языку/фреймворку (по расширению файла) * запускает соответствующий линтер на каждом файле * генерирует отчет До банальности просто и работает: ![](https://habrastorage.org/r/w1560/webt/ic/wc/wh/icwcwhaeucgmo8gw3ecbniocnqe.png) > NOTE: Я например для реализации такого же функционала настраивал CI на работу с конкретными папками, содержащими тот или иной тип файлов. У меня не было таких случаев, чтобы в папке с JS, обнаруживались файлы `.cs`. Работало так же, и пожалуй более оптимизировано, чем перебор всех файлов, но кто я такой против GitHub DevOps team ;) ### Конфигурация Можно дополнительно включать/выключать анализируемые языки, с помощью [флагов в конфигурации](https://github.com/github/super-linter#environment-variables), а также [настраивать список правил](https://github.com/github/super-linter#template-rules-files), что обещает нам гибкость. В то же время, данный подход содержит [несколько ограничений](https://github.com/github/super-linter#limitations): * нет возможности настраивать версии используемых окружения и линтера * нет доступа к *package.json* (JS/TS) * невозможно установить или загрузить ресурсы из закрытых источников (приватные репозитории, частные регистры) Вывод ----- Стратегия Microsoft(GitHub) — публиковать свои наработки в open source очень похвальная затея, хотя у некоторых возникают сомнения на этот счет. Результатом таких действий является и **GitHub Super Linter**. На мой взгляд это не что-то революционное, а просто еще один проект на GitHub, но с отметкой **made with ♡ in GitHub**. > P.S. Использование [`standardjs`](https://standardjs.com/) в качестве линтера для JS/TS в 2020 году, это как-то обескураживает. Думаю это объяснимо тем, что *GitHub === enterprise === legacy*, и код опубликован как есть, вот и получили технологию 5-летней давности. Уже создан [issue](https://github.com/github/super-linter/issues/175), предлагаю поддержать или даже поконтрибьютить.
https://habr.com/ru/post/507528/
null
ru
null
# FineReader, Tesseract и EasyOCR или нужно ли срочно менять инструмент для OCR *По сравнению со старшими товарищами, EasyOCR очень молодой проект, но с большими амбициями. В статье приводится сравнение качества работы, удобства работы, особенности установки и производительности трёх инструментов.* Одна из популярных задач в аудиторской практике – распознавание текста с документов. Казалось бы, инструменты для решения этой задачи давно известны, всё работает и ничего больше особо и не хочется: бесплатно и руками – Tesseract, платно и легко в использовании – FineReader. Однако, недавняя [статья](https://newtechaudit.ru/analiz-izobrazheniya-s-pomoshhyu-frejmvorka-easyocr/) удивила меня качеством работы и удобством использования инструмента EasyOCR. Разберёмся, насколько всё хорошо в сравнении с самыми популярными инструментами на примере нескольких задач и сравним удобство использования каждого инструмента. ABBYY FineReader существует с 1993 года и, фактически, стал синонимом «распознавалки текста». Сама отечественная компания ABBYY, [по некоторым данным](https://www.businesswire.com/news/home/20200409005201/en/), является лидером в области разработок инструментов интеллектуальной обработки текста. Проприетарная лицензия. Tesseract разрабатывался Hewlett-Packard с 80-х, но на долгое время был заброшен, пока его не выкупил Google в 2006 году. На данный момент программа работает и продолжает развиваться. Свободно распространяется под лицензией Apache 2.0. EasyOCR размещён на [GitHub](https://github.com/jaidedai/easyocr), по сведениям PyPI, версия 1.0 вышла 23.04.2020, проект активно развивается. Лицензия – Apache 2.0. Кратко опишем процесс работы с каждым инструментом. Для FineReader всё делается мышкой: установил, выбрал файл, нажал пару кнопок и получил результат. Инструмент Hot Folder позволяет создавать задачи по распознаванию с множеством параметров, например, самый банальный вариант: распознать все PDF в папке и для каждого записать текст в TXT с тем же названием. Причём, опять же, всё делается мышью, просто и понятно. Для Tesseract примерный процесс: скачать Tesseract, установить pytesseract, понять, что Python не видит tesseract.exe, исправить, понять, что нет модели для русского языка в tessdata, скачать и кинуть куда надо. И, хотя, результаты работы местами оставляют желать лучшего и требуют дополнительных настроек, зато можно руками сделать инструмент для любой задачи распознавания. Самый простой вариант для получения текста: ``` import pytesseract pytesseract.image_to_string(img, lang='rus+eng') ``` Для EasyOCR на Windows: установить torch и torchvision, установить EasyOCR, загрузить из Python модель нужного языка и использовать. Самый простой вариант для получения текста, разбитого по параграфам: ``` import easyocr reader = easyocr.Reader(['ru', 'en']) reader.readtext(img, detail=0, paragraph=True) ``` Далее представлены результаты работы инструментов. FineReader использовался на ПК с Ryzen 3200G, EasyOCR на ноутбуке с Core i3 4100m, Tesseract же запускался и там и там. Всё без видеоускорителей. Возьмём, в том числе, изображения из [статьи](https://newtechaudit.ru/analiz-izobrazheniya-s-pomoshhyu-frejmvorka-easyocr/). Все изображения в формате JPG. ![Рисунок 1 — изображение 285х208.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fdd/740/abd/fdd740abd6fb9e3361566e58f5bdfa2e.png "Рисунок 1 — изображение 285х208.")Рисунок 1 — изображение 285х208. ``` FineReader: САМАРСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ ИМЕНИ АКАДЕМИКА С.П. КОРОЛЕВА Tesseract: не увидел текст. EasyOCR: «'сАмдрскии кациокдлькый', 'исследовапельский укиверсиле 5 окмудвелмкоспнк0P0л=84'» ``` Для того же изображения, что и выше, но в разрешении 1333х1000 результаты следующие: ``` FineReader: САМАРСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ ИМЕНИ АКАДЕМИКА С.П. КОРОЛЁВА Tesseract: снова не увидел текст. Видимо, для белого текста нужны дополнительные настройки. EasyOCR: ['САМАРСкий НАционАльный', 'исследовАтельский университет ИМЕНИ АКАДЕМИКАСП. Королёва', 'r086"10=55', '8608', ''] ``` ![Рисунок 2 – изображение попугайчика с наклонённым текстом.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/df2/005/64d/df200564d698416f39092be10b5f03cf.png "Рисунок 2 – изображение попугайчика с наклонённым текстом.")Рисунок 2 – изображение попугайчика с наклонённым текстом.Текст на изображении попугайчика с наклонённым текстом был успешно распознан только EasyOCR. ![Рисунок 3 – изображение с плохим освещением, расфокусировкой, наклоном.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cd7/0e9/6c5/cd70e96c5dbf47cc2609d8959d9dc2e7.png "Рисунок 3 – изображение с плохим освещением, расфокусировкой, наклоном.")Рисунок 3 – изображение с плохим освещением, расфокусировкой, наклоном. ``` FineReader: Bias (Сдвиг цветов спектра областей к тому или ииожуп диапазона шума); ' g Edge (Ширина перепадов между светлыми и темными участка^ фильтр Lens Effects Focus Фильтр Lens Effects Focus (Линзовые эффекты: фокусировка) поз| имитировать эффекты расфокусировки изображения или конечной г; резкости снимка, приводящей к тому, что в фокусе оказываются объекты на определен on лдыюсти от камеры. Для воспроизведения фекта расфокуепро в < использует информацию об удалении тов от съемочн >си в/-буфере сцены. 'Яа Для настройки .к и служит окно диалога Lens Effects (Линзовые эффск • появляющееся после щелчка на кн Setup Н..строп к ciioia добавления или редактирования фг НИЯ д рос МО гром эффекта, сохранением и загрузке энного окна аналогичны соответствующим эле] .с окна диалога Lens Effects Flare (Линзовые пжчЬокусировки, выполните в окне ``` Tesseract: ``` p Lens Effects Focus\n\nmp Lens Effects Focus\n\nBrosare эффек\nи снимка\nKTBI на опре\nса расфокус\nот съемоч\n\n \n\nокна J\n\n(Линзовые эффекты: фоку@\nировки изображения HIM\nтому, что в фокусе Okada\nru от камеры. Для BOCHP\nyer информацию об У\n1 в 7-буфере сцены\n\nь\nлужит окно диалога\nзляющееся после\n\n„вления или редактирс\n\n›уфекта, сохраненнО\n\nнотром\n\nго окна ана\nдиалога Lens Effects\n\x0c OasyOCR: ["цветов спектра областей к Tonу H111 11110 Bins (Сдвиг днапазона шума) ; темными участками ). Edge (Ширина перепадов между светлыми Фильтр Lens Effects Focus эффскты : фокусировка) позволяся Фильтр Lens Effects Focus (Линзовыс изображсния или конечной глубины имитировать эффекты расфокусировки фокусс оказываются Толъ0 снимка , приводящей ToMу '10 резкостк от кямеры Шля воспроизведения эф объекты ня определенной дальности используст информацию об удалении объек- ректа расфокуспровки фильр съемочной камеры , хранящуюся Z-буфере сцены. TOB Lens Effects Focus фокусировки служит окно диалога Для настройки фильтра появляющееся после щелчка на кнопке Линзовые эффекты: фокусироока добявления Цлк редактирования фильтра Sctup ( Настройка) 6 окне дналога IPИC 15.35). сохранением загрузкой I(;1- Элементы управления просмотром эффикна сораетствующим элементам окна аналогичны боре парамстров ланного Lens Effects Flare (Линзовые эффекты: Bs !@ окна дналога DSCCу отрснного Окики ) выполните окне диалога Dens куспровки , 8"] ``` Для чистоты эксперимента, для того же изображения, что и выше, но c использованием инструмента из [статьи](https://newtechaudit.ru/avtomaticheskaya-korrekcziya-ugla-povorota-izobrazheniya-v-zadache-raspoznavaniya-teksta/) результаты следующие: FineReader: ``` rj Bias (Сдвиг цветов спектра областей к тому I0IVMH диапазона шума): g Edge (Ширина перепадов между светлыми и темными \часткаЦ^^| фильтр Lens Effects Focus фильтр Lens Effects Focus (Линзовые эффекты: фокусировка) псц имитировать эффек фовки и юбражения или конечной глуб! резкости снимка, приво описи к тому, что в фокусе оказываются тол! объекты на опре й юеш oi камеры. Для воспроизведения эф фекта расфокхен? ii.iyei информацию об удалении объек тов от съемочной к \ о. юсн в Z-буфсре сцены. Для настройки ф. ки служит окно диалога I>ens Effects ft (Линзовь. hJxJk ч - появляющееся после щелчка на кно| Setup (рис 1 Эйсме I $ Н бавления или редактирования филы 5.35) <ты . v щюм >ффекта, сохранением и загрузкой Ммепов данною окна аналогичны соответствующим эле! ше окна диалога Lens Effects Flare (Линзовые трен н< Ь» кчеировки. выполните в окне диалога JlfllfT ``` Tesseract: ``` Lens Effects Focus\n\nр Lens Effects Focus (Линзовые эффекты: фокуб\nгровать эффек ›овки _ изображения HIM\nи CHUMK: тому, что в фокусе Okt\nти от камеры, Для Bom\npactoxyeup льзует информацию об\n\nот Chemo в 7-буфере сцены\n\nKUT окно диалога\nнвляющееся после,\n›бавления или редак!\n\nготром эффекта, сохранени\n\n \n\nъфаокт пасфокусировки,\n\x0c ``` EasyOCR: ``` ['Bor$ Сдвиг цветов спсктра областей к Tоку 11."111 ;111()81 лнапазона шума ; Edge ( Ширина перспадов между свстлыми # темными участками )', 'Фильтр Lens Effects Focus Фильтр Lens Effects Focus (Лннзовыс эораректы ; фокуснровка ) "10380) имитировать эффекты расфокусировки изображсния или консчной глубины резкостк сhнмкя привочяшей Tony \'110 фокусс оказываются Т(1ьк0 объскты Ня опрелеленнон пктьн1061\'11 Oт\' кямуры Для поспронзведення 3 Фекта расфокуснровки Ффильр иепользуст информацию об удалении объек TOв от съсмочной камерыраняшуюся Z-буфере сцсны Яля нястройкн Фильр фокусиронкн служнт Окiо дналога Lens Effects Rocus Пинзовые эффекты фокуснровка) полнляющееся послс щелчка Н8 кк0п Setup (Настройка) оkне лналога добянлення нли редактировання фильтра Iркс15 35) Элеуснты упракления просмотром эффекта, сохраненнем загрузкой на- борд окна аналогнчны соответствующим элеке парямстров ланного расечотренного Bbl0 окна диалога Lens Effects Flare (Линзовые эффектые Чкы ) окуснровкн, выпочннте окне дналога'] ``` ![Рисунок 4 – Изображение, взятое из репозитория Tesseract.](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c14/a26/b50/c14a26b502b2e6813d6c9cf03a6cda18.jpeg "Рисунок 4 – Изображение, взятое из репозитория Tesseract.")Рисунок 4 – Изображение, взятое из репозитория Tesseract.FineReader: ``` This is a lot of 12 point text to test the ocr code and see if it works on all types of file format. The quick brown dog jumped over the lazy fox. The quick brown dog jumped over the lazy fox. The quick brown dog jumped over the lazy fox. The quick brown dog jumped over the lazy fox. ``` Tesseract: ``` This is a lot of 12 point text to test the\nocr code and see if it works on all types\nof file format.\n\nThe quick brown dog jumped over the\nlazy fox. The quick brown dog jumped\nover the lazy fox. The quick brown dog\njumped over the lazy fox. The quick\nbrown dog jumped over the lazy fox.\n\x0c ``` EasyOCR: ``` ['This is a lot of 12 point text to test the ocr code and see if it works on all types of file format The quick brown dog jumped over the lazy fox The quick brown dog jumped over the lazy fox. The quick brown dog jumped over the lazy fox The quick brown dog jumped over the lazy fox'] ``` При этом, время работы FineReader для 6 изображений, согласно логу, составило 13 секунд, Tesseract в среднем работает 0,5-3 секунды для изображения вне зависимости от платформы для запуска, а EasyOCR даже на последнем изображении работал почти 20 секунд! При наличии графического ускорителя с поддержкой CUDA время работы должно сократиться, однако, подобные требования делают использование EasyOCR на стандартном офисном «железе» практически невозможным для большинства задач. Также, исходя из результатов, можно сделать вывод, что качество распознавания символов EasyOCR может посоревноваться с FineReader, а иногда и превосходить его, однако, в разбиении текста на параграфы, как FineReader, так и Tesseract всё ещё лучше. Это можно наблюдать в последнем примере, который является простейшим из всех: каждый инструмент верно распознал сам текст, но, в то время как FineReader  разбил текст на параграфы, а Tesseract позволяет даже увидеть где были переносы на новую строку внутри параграфа (‘\n’ и ‘\n\n’ в тексте), EasyOCR вернул результатом одну строку, в которой даже некоторые точки были потеряны. Таким образом, по результатам сравнения трёх инструментов, можно сделать следующий вывод: EasyOCR, как инструмент распознавания текста обладает большим потенциалом и уже сейчас, **при наличии мощной платформы для запуска**, может составить конкуренцию FineReader и Tesseract. Ссылки на используемые инструменты: [FineReader](https://pdf.abbyy.com/), [Tesseract](https://pypi.org/project/pytesseract/), [EasyOCR](https://pypi.org/project/easyocr/).
https://habr.com/ru/post/573030/
null
ru
null
# Приватные классы. Сокрытие в php В php как и в большинстве других ООП языков существуют модификаторы видимости. Это ключевые слова public, protected и private. Но они применимы исключительно к свойствам, методам или константам. Данные модификаторы тесно связаны с возможностью инкапсуляции данных. Стоит заметить, что в таких языках как java, C#, go (<https://golang.org/doc/go1.4#internalpackages>), ruby (<https://habr.com/post/419969/>), crystal (<https://crystal-lang.org/reference/syntax_and_semantics/visibility.html>) есть возможность ограничивать область видимость пакетов (packages) или классов\типов. В php нет возможности ограничивать область видимости для классов — любой подключенный класс доступен из любого другого класса. Однако можно эмулировать данную возможность с применением нескольких трюков. Для чего вообще может понадобиться сокрытие на уровне классов: * Служебные классы (хелперы) библиотеки — не замусориваем API библиотеки не имеющими смысла internal классами. * Инкапсуляция с сокрытием внутренних объектов "бизнес логики", например запрет прямого порождения зависимых объектов в обход более общего класса. Отдельно можно выделить разбиение "больших" классов на мелкие объекты. Хорошей практикой считается ограничивать сложность (и количество строк) как отдельных методов так и классов. Количество строк тут идёт как один из маркеров, что метод класса или сам класс берёт на себя лишнию ответственность. При рефакторинге public метода мы выносим его части в private\protected методы. Но когда по тем или иным причинам класс разрастается и мы выделяем из него отдельную сущность, эти самые private\protected классы переносятся в отдельный класс, тем самым мы косвенно открываем доступ к методам, которые ранее были ограничены областью видимости одного класса. Теперь собственно сами способы эмуляции сокрытия. ### На уровне соглашения оформления кода Используя PHPDoc комментарии можно отметить класс, трэйт или интерфейс как `internal` (<http://docs.phpdoc.org/references/phpdoc/tags/internal.html>). При этом некоторые IDE (например PhpStorm) могут понимать такие метки. ### Использовать runtime информацию Во время исполнения кода можно проверить откуда был вызван конструктор класса. Например через метод `debug_backtrace` (<http://php.net/manual/ru/function.debug-backtrace.php>) или использовать аналогичный функционал Xdebug для контроля кода в dev\test окружении. Пример оформленного решения есть тут (<https://coderwall.com/p/ixvnga/how-emulates-private-class-concept-in-php>). **использование debug\_backtrace** ``` /** * The private class */ final class PrivateClass { /** * defines the only class able to instantiate the current one * * @var string */ private $allowedConsumer = 'AllowedPrivateClassConsumer'; /** * constructor * * @throws Exception */ public function __construct() { /** * here comes the privacy filter, it could be extracted to a private method * or to a static method of another class with few adjustments */ $builder = debug_backtrace(); if (count($builder) < 2 || !isset($builder[1]['class']) || $builder[1]['class'] !== $this->allowedConsumer) { throw new Exception('Need to be instantiated by '.$this->allowedConsumer); } } } ``` ### Использовать анонимные классы Относительно новый функционал в php — анонимные классы (<http://php.net/manual/ru/language.oop5.anonymous.php>). Описав анонимный класс внутри защищенного метода мы добиваемся его сокрытия. Что бы не городить портянку определения класса внутри функции, можно описать "приватный" класс в отдельном файле как абстрактный, и уже расширять его в определении анонимного класса. Хороший пример использования данного метода есть по этой ссылке (<https://markbakeruk.net/2018/06/25/using-php-anonymous-classes-as-package-private-classes/>). Исходя из найденного материала видно, что функционал сокрытия классов в какой то мере востребован (и существует во многих языках), однако практика его использования очень ограничена, возможно отсутствием описанием примеров в различных "best practices", сборников шаблонов и подобных источниках. Что на мой взгляд является довольно странным, что есть акцентирование на сокрытие внутренних методов и свойств объектов, но почти никто не обращает внимание, что более крупные логические куски кода в виде служебных классов библиотек или доменной области остаются в глобальном пространстве видимости.
https://habr.com/ru/post/435894/
null
ru
null
# Развертывание тестового кластера VMware Virtual SAN 6.2 Введение -------- Передо мной была поставлена задача — развернуть кластер VMware Virtual SAN 6.2 для тестирования производительности, анализа возможностей, особенностей и принципов работы гиперконвергентной программной СХД от VMware. Кроме того, созданный тестовый стенд должен стать платформой для разработки и апробирования методики тестирования распределенных СХД, в т.ч. для гиперконвергентных инфрастуктур (HCI). Результатов тестирования и описания его методики в данной статье не будет, вероятно этому будет посвящена отдельная публикация. Данная статья будет полезна специалистам, которые впервые сталкиваются с развертыванием кластера VMware Virtual SAN 6.2. Я постарался указать подводные камни, на которые можно напороться при поднятии кластера, что позволит значительно сократить время и нервы на их обход. Описание тестового стенда ------------------------- **Железо** 4 идентичных хоста в следующей конфигурации: * Платформа — AIC SB302-LB (3U 16-Bay Storage Server, не сертифицирован под vSphere 6.2) * Процессор — Intel® Xeon® CPU E5-2620 v4 @ 2.10GHz – 8 ядер, включен hyper-threading – 2шт. * ОЗУ – 128 ГБ * NVMe-flash — HGST Ultrastar SN150 HUSPR3216AHP301, 1,6ТБ PCIe – 2шт (сертифицирован под Virtual SAN 6.2, только под all-flash, по данным HGST также сертифицирован под гибрид) * HDD — HGST Ultrastar 7K6000 HUS726020AL5214 2ТБ 7200 rpm SAS 12Гбит/с – 8шт (не сертифицирован под Virtual SAN 6.2, только под 6.5) * Загрузочный носитель – SSD 60ГБ * Дисковый контроллер — LSI Logic Fusion-MPT 12GSAS SAS3008 PCI-Express (сертифицирован под vSphere 6.2, но не сертифицирован под Virtual SAN 6.2) * 2 порта 1GbE * 2 порта IB 40Гбит/с – на HCA Mellanox ConnectX-2/ConnectX-3 в режиме IPoIB IB-коммутатор Mallanox SB7790 **ПО: VMware vSphere 6.2** vCenter Server Appliance 6.0.0.20100 ESXi 6.0.0.4600944 Версия драйвера Mallanox ConnectX-3 для VMware для работы в режиме IPoIB: MLNX-OFED-ESX-2.4.0.0-10EM-600.0.0.2494585 **Описание кластера Virtual SAN** Пробная лицензия vSphere — полный фарш vCenter Server Appliance развернут в виде ВМ на выделенном локальном загрузочном SSD одного из хостов Кластер HA из 4х хостов, на нем же развернут кластер Virtual SAN (vSAN) Virtual SAN задействует все носители 4х узлов кластера vSphere (за исключением загрузочных SSD): 8 идентичных дисковых групп (ДГ) – по 2 на хост; каждая ДГ включает 1 NVMe-flash под кэш и 4 HDD под capacity. Получаем гибридное хранилище с сырой общей ёмкостью 57,64ТБ — 32 capacity drive по 1,82ТБ (реальная ёмкость диска 2ТБ) Установка ESXi, драйверов, vCenter и патчей ------------------------------------------- ### Подготовка и первоначальное развертывание Для начала необходимо проверить совместимость имеющегося серверного оборудования с ПО VMware vSphere и Virtual SAN. При этом нужно учитывать, что совместимость железа с нужной версией vSphere не гарантирует его совместимости с Virtual SAN. Поэтому следует сразу проверять совместимость оборудования именно с vSAN (Virtual SAN). Для этого заходим на ресурс [VMware Compatibility Guide](https://www.vmware.com/resources/compatibility/search.php), выбираем Virtual SAN в поле «What are you looking for:» и получаем множество возможностей по поиску и базовому конфигурированию готовых решений сертифицированных для работы с vSAN (Virtual SAN Ready Node). Это будет полезно для тех, кто собирается развернуть у себя новый кластер VMware vSAN и без лишних заморочек выбрать готовые хосты от полюбившегося вендора, сертифицированные VMware под его объемы и нагрузки. Инструмент подбора заранее проверенных «кубиков» для построения HCI. Если мы не хотим мириться с тем, готовые системы для наших задач будут не совсем оптимальны, слишком дороги или избыточны. Если мы хотим самостоятельно выбрать каждый элемент хоста так, чтобы он идеально подходил для целевых нагрузок. Если мы хотим убедиться в совместимости vSAN с имеющимся оборудованием и при необходимости докупить недостающие узлы. Во всех этих случаях нам необходимо посмотреть чуть ниже и щёлкнуть по ссылке «[Build Your Own based on Certified Components](https://www.vmware.com/resources/compatibility/search.php?deviceCategory=vsan)». После того как мы убедились, что имеющееся железо полностью (или не совсем, как в моём случае) совместимо с vSAN необходимо скачать ПО vSphere. Для тестовых целей можно зарегистрироваться на сайте VMware и совершенно бесплатно скачать дистрибутивы ESXi и vCenter нужной нам версии и некоторые другие компоненты при необходимости. В начале ноября 2016 на момент подготовки к развертыванию была доступна версия VMware vSphere и Virtual SAN – 6.2 (6.0 update2). В конце ноября появилась версия 6.5, однако я не стал торопиться и проводить тесты на слишком свежем и непропатченном решении, остановился на 6.2. VMware дает возможность в течении 60 дней пользоваться тестовой полнофункциональной версией vSphere (Enterprise Plus), при этом нет необходимости отдельно скачивать и устанавливать vSAN, он входит в дистрибутив гипервизора (ESXi). Скачивание и установка ESXi задача довольно простая, с ней сможет справится любая школьница (и тем более админ-эникей). При развертывании сервера управления инфраструктурой vCenter я не стал заморачиваться с Виндой, для простоты и надежности я остановился на дистрибутиве vCenter Server Appliance (vCSA) – готовый бесплатный эплаенс от VMware под Linux. Достаточно просто устанавливается и админится через web-GUI. Мои тестовые хосты оснащены загрузочными SSD объемом 60ГБ. Это более чем достаточно для установки ESXi. vCenter Server Appliance был также развернут на 1 из этих SSD в режиме «тонкого диска» — пространства хватило. При работе с vCSA полезно знать следующие нюансы. Во время развертывания vCSA требуется задать: • пароль root – для управления самим эплаенсом (vCSA); • имя администратора vCenter SSO (например, administrator) и его пароль, имя домена (например, vsphere.local) — для централизованного управления виртуальной инфраструктурой (ВИ). При администрировании нужно учесть, что: 1. Для централизованного управления ВИ необходимо логиниться на https:/IP-адрес(доменное имя)\_(заданные при установке vCSA). Порт указывать не нужно, он стандартный. Используемая учетная запись — администратор vCenter SSO, причем обязательно полное доменное имя, например administrator@vsphere.local. 2. Для управления самим эплаенсом (vCSA) необходимо логиниться на https:/IP-адрес(доменное имя):5480 (явно указываем этот порт). Используемая учетная запись – root. ### Доступ к командной строке ESXi Для установки патчей и драйверов, осуществления некоторых сопровождающих и диагностических манипуляций необходим доступ к командной строке ESXi. Централизованное управление обновлениями виртуальной инфратсруктуры, особенно в продакшене, целесообразно и удобно делать посредством vSphere Update Manager (vUM). Для vSphere версий 6.2 и предыдущих vUM необходимо разворачивать на Windows-машине. В версии 6.5 ситуация куда приятнее – vUM опциональный сервис vCenter Server Appliance, разворачивать отдельную ВМ на винде не нужно. Для тестовых целей, особенно если количество хостов невелико (например — 4, как в моем проекте), разворачивать отдельную vUM-ВМ нецелесообразно, проще обойтись командной строкой. По старой памяти (vSphere 5.0) я решил установить VMware-vSphere-CLI для удаленного доступа к командной строке хостов. Однако это оказалось жутко неудобным, поскольку к каждой команде необходимо добавлять огромный кусок «букав» для авторизации на целевом хосте, например, «--server 172.16.21.76 --username root --thumbprint 2F:4B:65:EC:C9:FA:DF:AC:20:62:3D:5D:4B:E4:43:EC:35:74:AE:86», а потом вводить пароль root. Для того чтобы научиться таким образом корректно запускать команды esxcli c моего администраторского ПК на винде я убил полдня. Во-первых, VMware-vSphere-CLI криво встал на windows 10, для корректной работы необходимо запускать команды из папки в которую установлен данный пакет или колдовать с переменными среды. Во-вторых, необходимо для каждого хоста определить его «отпечаток» (--thumbprint 2F:4B:65:EC:C9:FA:DF:AC:20:62:3D:5D:4B:E4:43:EC:35:74:AE:86), без него команда не отработает. В-третьих, пароль рута приходится каждый раз вводить отдельно, поскольку если скопипастить команду вместе с параметром --password и паролем, выдается ошибка, связанная с языком ввода (я сохранял команду целиком и копировал её из Блокнота). Полдня ушло, поскольку все эти тонкости и ошибки и их устранение были далеко не очевидны. Если вдруг захотите заморочиться с VMware-vSphere-CLI, данный абзац должен облегчить вам жизнь. Победив VMware-vSphere-CLI и научившись его готовить, я понял, что он попросту неудобен. Гораздо удобнее разрешить на каждом хосте доступ по SSH и пользоваться Putty. Команды короткие, пароль вводить каждый раз не надо, копипастить в Putty гораздо удобнее. Для этого необходимо на каждом хосте запустить сервисы SSH и ESXi Shell. Этом можно сделать через DCUI (подключиться к хосту напрямую) или vSphere Client (Configuration – Security Profile). ### Установка патчей У меня был опыт развертывания и сопровождения vSphere 5.0 на протяжении нескольких лет. Патчи я никогда не устанавливал проблем и так не было, ставил только апдейты, например для того, чтобы можно было поднимать ВМ на Win 2012 R2 (был нужен update 3), плюс просто для надежности. В данном проекте патчи оказались очень кстати. Установка патчей позволила решить следующие проблемы: • На порядок сократилось время живой миграции ВМ. До установки патчей на абсолютно ненагруженной инфраструктуре vMotion ВМ с Win7 на которой не было запущено никаких задач выполнялся около минуты. После пропатчивания – несколько секунд. • Устранена проблема с деградацией производительности гибридных vSAN 6.2. Проблема описана в данной статье «[vSAN 6.2 hybrid disk group performance degradation (2146267)](https://kb.vmware.com/selfservice/microsites/search.do? language=en_US&cmd=displayKC&externalId=2146267)». В ней говорится о том, что производительность гибридных кластеров vSAN деградировала при переходе с версий 6.0 и 6.1 на версию 6.2. Это вызвано рабой низкоуровневого фонового процесса, который снаирует уникальные блоки хранилища для работы механизма дедупликации, который появился в версии 6.2. Он полезен только в all-flash кластрех при включении «дедупа», однако ошибочно запускается и отнимает ресурсы в гибридных версиях. Вроблема решается либо установкой патча, либо отключением механизма специальной командой. Отсюда я делаю вывод о том, что при первоначальной установке необходимо проверить наличие и установить патчи. Лишним это не будет, не навредит, а вот от проблем избавить может. Причем сделать это лучше до установки дополнительных драйверов на ESXi, настройки инфраструктуры, поднятия ВМ и сервисов. Почему, объясню позже. Искать патчи нужно вот по [этой](https://www.vmware.com/patchmgr/findPatchByReleaseName.portal) или [этой](https://my.vmware.com/group/vmware/patch#search) ссылке, причем необходимо выбрать «ESXi (Embedded and Installable)» для поиска патчей ESXi и «VC» для поиска патчей vCenter. После скачивания патчей приступаем к их установке. Патч на vCSA удобно устанавливается через web-gui. Необходимо примонтировать образ диска с патчем к vCSA-ВМ, для этого его лучше выложить на локальный датастор хоста, где крутится данная ВМ (я выложил на загрузочный SSD). Также можно пробросить образ со своего админского ПК по сети (образ большой, я посчитал это долгим и ненадежным, субъективно). Затем необходимо зайти на vCSA (https:/IP-адрес(доменное имя):5480, под рутом), выбрать вкладку Update и обновление с образа (Chesk Updates — CDROM). Теоретически на этом шаге можно было обновиться из Интернет (Chesk Updates — URL), при наличии подключения полагаю vCSA сам бы обновился из глобальной паутины. Обновление хостов ESXi несколько сложнее. Скачанные патчи – zip-архивы с файлами VIB, необходимо разместить на локальный датастор целевого хоста (я выложил на загрузочный SSD, для этого создал на нем в корне папку Update). Для загрузки патчей на локальный датастор хоста устанавливаем старый-добрый «толстый» vSphere-client, цепляемся им к хостам, затем во вкладке Summary ищем раздел Storage и щелкаем правой кнопкой по целевой датасторе — Browse Datastore, затем загружаем нужный файл или папку. После этого для установки каждого патча (у меня их было 4) необходимо запустить следующую команду: ``` esxcli software vib update -d /vmfs/volumes/local_datastore_name/update_folder_name/ESXi600-201605001.zip ``` где: -d – аргумент для установки пакетов из zip-архива (если разархивировать и устанавливать отдельные пакеты – файлы \*.VIB, то нужен аргумент –v); /vmfs/volumes/local\_datastore\_name/update\_folder\_name/ESXi600-201605001.zip – полный путь к патчу. Извлекать из архива ничего не нужно, команда esxcli software vib update с параметром –d сделает все сама. После установки каждого патча консоль (в моем случае Putty) отобразит результат установки: установлены, удалены и пропущены такие-то пакеты, требуется перезагрузка. Перезагружаться после установки каждого патча необязательно, можно установить все, затем перезагрузиться. Имейте ввиду, что есть похожая команда esxcli software vib **install**, в отличии от **update** она удаляет драйверы, установленные вручную. Поэтому лучше использовать update, такой вариант позволяет сохранить нестандартные драйверы, избежав их переустановки (после install у меня слетели все IB-драйверы и отвалилась сеть). ### Установка драйверов Нетривиальной задачей было заставить подружиться vSphere 6.2 с сетью InfiniBand в режиме IPoIB, поскольку это единственный имеющийся в моем располяжении вариант быстрой сети, обычной сети 1GbE для моего проетка и для vSAN в большенстве случаев – маловато. Изначально мои тестовые хосты были оборудованы адаптерами HCA Mellanox ConnectX-4 с пропускной способностью 100Гбит/с и подключены к соответсвующему IB-коммутатору Mallanox SB7790. Mellanox ConnectX-4 – гибридный адаптер который может работать как в режиме IB, так и в режиме Ethernet. Проблема в том, что имеющийся коммутатор может работать только в IB-режиме, Ethernet он не умеет. В то время как vSphere умеет только Ethernet и не поддерживает InfiniBand. Компромиссный вариант – поднять IPoIB — тоже не получился, поскольку Mellanox не делает IB-драйверов под vSphere для ConnectX-4, только Ethernet. Для того, чтобы убедиться в этом пришлось попробовать установить различные варианты драйверов Mellanox для ESXi (MLNX-OFED-ESX), ни один не позволил хостам увидеть нужную сеть. Решить проблему удалось благодаря налицию в загашнике 2х-портовых карт Mellanox ConnectX-2 и ConnectX-3 (по 2шт. каждой модели, итого по 1шт на хост), более старых и медленная версий – 40Гбит/с и 56Гбит/с соотвественно, для моих экспериментов и для vSAN этого более, чем достаточно. Самое главное, что для этих адаптеров есть правильные дрова под vSphere 6.2, а именно — MLNX-OFED-ESX-2.4.0.0-10EM-600.0.0.2494585. Их установка на хосты позволила им увидеть сеть InfiniBand и общаться друг с другом по IPoIB на теоретической скорости до 40Гбит/с. Правильные дрова в виде zip-архива, с указанным выше именем, скачиваются с официального сайта Mellanox. Перед их установкой необходимо с каждого хоста ESXi удалить встроенные в дистрибутив гипервизора драйверы InfiniBand, это драйверы в имени которых присутствуют символы «ib» и «mlx». Для отображения списка драйверов (VIB-пакетов) установленных на хосте, необходимо подключиться к нему по SSH и запустить команду: ``` esxcli software vib list ``` На выходе получаем большой список, чтобы отбросить лишнее и получить список только с нужными пакетами сделаем оптимизацию: **esxcli software vib list | grep ib** – вывод списка пакетов с символами «ib» в имени, **esxcli software vib list | grep mlx** – вывод списка пакетов с символами «mlx» в имени. На выходе получим следующее: ``` [root@esxi-5:~] esxcli software vib list | grep mlx net-mlx-compat 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-mlx4-core 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-12-07 net-mlx4-en 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-12-07 net-mlx4-ib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 [root@esxi-5:~] esxcli software vib list | grep ib net-ib-core 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-ipoib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-mad 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-ib-sa 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 net-mlx4-ib 2.4.0.0-1OEM.600.0.0.2494585 MEL PartnerSupported 2016-11-21 ``` Этот вывод уже после удаления неправильных и установки правильных дров, изначально он был другой. После получения списка имен пакетов (лишних дров) на удаление формируем команду, которая позволит удалить их разом (в ней с параметром –n в качестве разделителя нужно перечислить все нужные имена пакетов), у меня она выглядела примерно так: ``` esxcli software vib remove -n net-ib-core –n net-ib-ipoib –n net-ib-mad –n net-ib-sa –n net-mlx-compat -n net-mlx4-core –n net-mlx4-en –n net-mlx4-ib -n scsi-ib-srp -n net-ib-cm -f ``` где: –f — параметр форсирующий удаление, иначе придется выискивать правильную последовательность для удаления пакетов по одному. Затем устанавливаемый пакет с правильными дровами и перегружаем хост. Процесс идентичен установки патчей – кладем zip-пакет с драйверами на локальный датастор целевого хоста и выполняем команду: ``` esxcli software vib install –d /vmfs/volumes/local_datastore_name/update_folder_name/driver _pack_name.zip ``` Эту процедуру нужно провести на каждом хосте тестовой инфраструктуры. ### Объединение хостов в кластер После того как на хосты установлены ESXi, на них установлены патчи и драйверы сети, развернута ВМ с vCSA (и пропатчена) пора приступать к подключению хостов к вЦентру (vCenter Server). Для этого необходимо подключиться к vCenter через web-консоль под учеткой админа vCenter SSO, создать объект Datacenter, в нем создать объект Cluster, добавить в него хосты ESXi (в моем случае 4шт.) и включить на нем нужные сервисы – HA (не обязательно, но не помешает, ибо базовый сервис) и vSAN (ради него всё и делалось). ![image](https://habrastorage.org/r/w780q1/files/9fb/5a2/b3a/9fb5a2b3a567464c93fafca8b808d9a3.jpg) Рекомендую на каждом хосте и на вЦентре включить синхронизацию времени с сервером NTP, так будет удобнее мониторить производительность и реагировать на события. Забирать время с нашего контроллера домена MS-AD не получилось, несовместимы (править реестр контроллера для того, чтобы подружить его с vSphere я не стал). Все прекрасно заработало после настройки синхронизации с внешними NTP-серверами из Интернет. Настройка сети vSAN ------------------- Настройка сети на уровне кластра vSphere на моем стенде включала создание 2х распределенных коммутаторов (dvSwitch): • ETH\_DSwitch, соединенный с 2мя портами 1GbE на каждом хосте. К нему подключены сеть ВМ и сеть управления. • IPoIB\_DSwitch, соединенный с 2мя портами 40(56)GbIPoIB на каждом хосте. К нему подключены сеть vMotion (подсеть 10.10.10.0, группа портов — vMotion\_dpg) и сеть vSAN (подсеть 10.10.20.0, группа портов — VSAN\_dpg), разделенные на уровне подсетей и распределенных групп портов (dPG). На каждом хосте для указанных dPG поднято по интерфейсу vmkernel – vmk1 и vmk2, для которого задан IP-адрес из соответсвующей подсети и разрешен только нужный тип трафика – vMotion и Provisioning Trafic (vMotion\_dpg), Virtual SAN Trafic (VSAN\_dpg). ![](https://habrastorage.org/r/w780q1/files/9df/3f3/a2a/9df3f3a2a6a74969ad8a5f12c2ec5ad5.jpg) InfiniBand требует наличия в сети внешнего для vSphere сервиса под названием Subnet Manager, в моем тестовом кластере использовался сервер OpenSM, поднятый на отдельной физической Linux-машине. Лучшие практики по организации сети для vSAN 6.2 описаны в следующем документе: VMware Virtual SAN 6.2 Network Design Guide. В связи с тем, что моя сеть vSAN построена с использованием неуправляемых IB-коммутаторов, никаких классных штук типа агрегирования портов, NIOC, правильной настройки мультикаста я сделать не смог, просто оборудование не поддерживает. Поэтому все настройки dvSwitch и dPG были оставлены по умолчанию, оба аплинка в dPG сделаны активными. Единственный тюнинг который получилось сделать – настроить jumbo-фреймы. Максимально возможный размер MTU, который поддерживают адаптеры Mellanox в режиме IPoIB для vSphere равен 4092. Для того, чтобы достичь этого максимума, необходимо в настройках dvSwitch (IPoIB\_DSwitch) и vmkernel (все vmk под vMotion и vSAN на каждом хосте) выбрать размер MTU=4092. По умолчанию рамер MTU в OpenSM равен 2044. Поэтому если не увеличить в конфиге OpenSM MTU до 4092, кадры такого размера по сети ходить не смогут, более того, обычных пинги будут ходить между хостами, но продуктивное взаимодействие хостов по сети будет невозможно. На обнаружение данного нюанса я убил кучу времени, поэтому также считаю его очень важным и полезным. VMware Virtual SAN 6.2 Network Design Guide, как я обноружил позднее, говорит, о том, что включение jumbo-фреймов не даст особой оптимизации для vSAN. Если сеть их поддерживает, стоит включить, если нет, ничего страшного, можно оставить размер 1500. Для проверки корректности работы jumbo-фреймов необходимо выполнить ping или vmkping с большим размером MTU (4092 в моем случае) между хостами кластера (отдельно для подсетей vMotion и vSAN), для этого подключаемся на каждый хост по SSH и пробуем пинговать соседей посредством следующей команды: ``` vmkping (или просто ping) -d -s MTU_size_минус_28_байт IP-адрес ``` где: –d запрещает сегментацию пакетов, -s MTU\_size\_минус\_28\_байт – размер MTU в байтах из которого нужно вычесть 28. В моём случае для MTU=4092, команда выгдядит так: ``` ping -d -s 4064 10.10.20.79 ``` Тестирование производительности сети ------------------------------------ Для тестирования производительности vSAN необходимо быть уверенным, что сеть не является узким местом и выдает хорошую полосу пропускания. Теоретически vSphere показывает, что мои IB- интерфейсы выдают по 40Гбит/с для карт Mellanox ConnectX-2 и 56Гбит/с для ConnectX-3. Учитывая, что для vSAN рекомендуются адаптеры 10Гбит/с, производительности моих карточек более, чем достаточно. Остаётся проверить их реальную производительность на практике. Для этого воспользуемся утилитой [iperf](https://iperf.fr/). Существует 2 способа. Первый – плохой и неудобный, но единственно приходящий на ум. Нужно развернуть по одной или по несколько пар ВМ на хостах, между которыми будем измерять производительность сети. Vmnic этих ВМ необходимо подключить к dPG, которая смотрит в тестируемые физические порты. Для этого на dvSwitch «IPoIB\_DSwitch» я создал dPG под названием «dgp\_40Gbps\_VMnet» и подключил её к тем же физическим портам (IPoIB), через которые работает vSAN. На этой паре ВМ запускаем iperf и смотрим результаты. Проблема в том, что максимальная пропускная способность виртуальной сетевухи, которую можно отдать ВМ vSphere (vmxnet3), равна 10Гбит/с. Поэтому в моем тесте мне пришлось создавать 3 пары ВМ под win7 и запускать на них тест параллельно. Совокупный максимум который я смог выжать ~16Гбит/с на порт IPoIB. Уже неплохо. Можно было попробовать остановиться на одной паре серверных ВМ, отдать им несколько vmxnet3 (скажем по 4шт) и сделать между ними тиминг на уровне гостевых ОС. Не уверен, что это позволило бы объединить их пропускную способность и выжать теоретические 10x4=40Гбит/с (для 4х vmxnet3) с одной ВМ. Проверять не стал, ибо удачных реализаций не нагуглил, зато нашел более простой и элегантный способ. Дело в том, что начиная с версии 6.2 vSphere предполагает наличие сервиса vSAN Health Service, для работы которого в состав дистрибутива ESXi добавляется пакет с утилитой iperf, которую можно запустить из командной строки, что позволяет измерять производительность сети vSphere напрямую на уровне гипервизоров. Для этого необходимо подключиться к паре хостов ESXi, между которыми будем измерять скорость сети, по SSH. На каждом хосте необходимо отключить фаервол ESXi, например с помощью команды: ``` esxcli network firewall set --enabled false ``` Пакет iperf на ESXi лежит по адресу: /usr/lib/vmware/vsan/bin/ в файлах iperf и iperf.copy (просто копия). Для выполнения нагрузочного тестирования сети необходимо на хосте, который выбран премником трафика выполнить команду: ``` /usr/lib/vmware/vsan/bin/iperf.copy -s -B 10.10.20.79 -w 1M ``` где: –s – означает, что сервис iperf запускается в режиме приемника (сервера), -B 10.10.20.79 – означает, что трафик будет приниматься интерфейсом хоста с данным IP-адресом, в моем случае это адрес vmkernel для vSAN на выбранном хосте, -w 1M – размер окна TCP задается равным 1МБ. На хосте-отправителе (генераторе трафика), выполняем команду: ``` /usr/lib/vmware/vsan/bin/iperf -c 10.10.10.79 -t 60 -i 3 -w 1M –P 4 ``` где: -c 10.10.10.79 – задает адрес приемника, -t 60 – задает продолжительность тестирования в секундах, -i 3 – интервал обновления текущего результата в секундах, -w 1M – размер окна TCP задается равным 1МБ. –P 4 – количество параллельных потоках. Максимальный результат тестирования можно достичь экспериментируя с выбором оптимальных значений параметров –w и –P, в моем случае это 1M и 4. Мне удалось достигнуть пропускной способности ~ 22-27 Гбит/с на порт IPoIB. Конечно это далеко не 40Гбит/с, как пишет web-клиент vSphere для IB-интерфейсов. Тем не менее, практический предел скорости сети теперь известен и он очень солидный (в 2,5 раза выше рекомендованного для vSAN). Включение кластера vSAN ----------------------- Заходим в управление нашим кластером, выбирает «Включить vSAN», режим добавления дисков ручной, без дедупа и компрессии (у меня гибридный кластер). ![](https://habrastorage.org/files/7ec/c23/0d8/7ecc230d832a4a41a61a67ef17a3430a.JPG) Включение vSAN происходило в режиме диалога «далее-далее» (опять все просто, как для школьницы), vSphere сама правильно определила, какие носители пойдут под flash-cache и какие под capacity, сама оптимально объединила их в дисковые группы. ![](https://habrastorage.org/r/w780q1/files/866/6c6/85f/8666c685f8194505984f7e4cefac6b2d.jpg) ![](https://habrastorage.org/files/345/189/9b0/3451899b0ba84afaa99ede74a3ef8e67.JPG) ![](https://habrastorage.org/r/w780q1/files/00a/adc/c14/00aadcc14778483c8d434142642e0a4c.jpg) Всё красиво получилось, но не сразу. Сначала были танцы с бубном. Дело в том, что гипервизоры на всех хостах видели все 10 локальных носителей, их можно было отформатировать в VMFS. ![](https://habrastorage.org/r/w780q1/files/cb2/423/1ed/cb24231ed39b441fa44c42ee72d46a68.jpg) Однако, диалог по созданию vSAN-кластера видел лишь часть носителей с моих хостов: на одном все 10, на втором ни одного, еще на 2х лишь часть, стало быть поднять vSAN не получалось, мистика. ![](https://habrastorage.org/r/w780q1/files/859/3fe/3f9/8593fe3f967e41638f3512d2a5215540.jpg) Ребята с буржуйской ветки VMUG по vSAN подсказали проверить наличие левых разделов на носителях кластера, и они естественно там были. Проблема решилась после удаления этих разделов. Для этого можно воспользоваться сторонней загрузочной утилитой по работе с разделами, а можно остановиться на возможностях командной строки ESXi: **esxcli storage core device list** – команда выводит список устройств хранения хоста, но в этом списке много избыточной информации, поэтому нужно её оптимизировать: **esxcli storage core device list | grep Devfs | cut -f2 -d":"** – в данном случае будут выводиться только стоки с именем устройства, на одном из моих хостов результат такой: ``` [root@esxi-5:~] esxcli storage core device list | grep Devfs | cut -f2 -d":" /vmfs/devices/disks/naa.5000cca2450f5854 /vmfs/devices/disks/naa.5000cca2450ee00c /vmfs/devices/disks/naa.5000cca2450efa88 /vmfs/devices/disks/t10.NVMe____HUSPR3216AHP301_________________________003F1E6000CA0C00 /vmfs/devices/disks/naa.5000cca2450f56e8 /vmfs/devices/genscsi/naa.50015b2140027a7d /vmfs/devices/disks/t10.ATA_____SPCC_Solid_State_Disk___________________F4C307651C8E00015407 /vmfs/devices/disks/naa.5000cca2450f5604 /vmfs/devices/disks/naa.5000cca2450f2d2c /vmfs/devices/disks/naa.5000cca2450f6d9c /vmfs/devices/disks/naa.5000cca2450ec6d8 /vmfs/devices/disks/t10.NVMe____HUSPR3216AHP301_________________________802C1E6000CA0C00 ``` Затем вводим команду, которая отображает перечень разделов на накопителе, это нужно сделать для каждого устройства: **partedUtil getptbl device\_name**, где: device\_name – имя устройства и полученного выше списка, например так: ``` [root@esxi-5:~] partedUtil getptbl /vmfs/devices/disks/naa.5000cca2450f5854 gpt 243201 255 63 3907029168 1 2048 6143 381CFCCC728811E092EE000C2911D0B2 vsan 0 2 6144 3907029134 77719A0CA4A011E3A47E000C29745A24 virsto 0 ``` Здесь мы видим, что на данном устройстве присутствуют 2 раздела: строки с номерами 1 и 2. Это пример вывода разделов с HDD в действующем кластере vSAN, на момент танцев с бубном на носителях хостов были различные виндовые и линуксовые разделы, поскольку узлы использовались для других экспериментов. Собственно, носители с разделами и были не видны, отображались только пустые носители (без разделов). После того как мы узнали номера имеющихся на носителе разделов, приступаем к их удалению посредством команды: **partedUtil delete device\_name part\_num**, где: part\_num – номер раздела, выданный предыдущей команды. В данном примере на носителе 2 раздела, соответственно запускаем команду 2 раза: ``` partedUtil delete /vmfs/devices/disks/naa.5000cca2450f5854 1 partedUtil delete /vmfs/devices/disks/naa.5000cca2450f5854 2 ``` И так для всех носителей где есть разделы. После этого носители будут видны и можно будет добавить их в кластер vSAN. Для отслеживания состояния здоровья vSAN и мониторинга его производительности следует активировать Health Service и Performance Service во вкладке кластера Manage — vSAN — Health and Performance. ![](https://habrastorage.org/files/b8a/4ba/624/b8a4ba62474f4c2196483208294b3476.JPG) На этом всё, наш кластер vSAN готов к тестированию, развертыванию ВМ и введению в продакшен. Благодарю за внимание!
https://habr.com/ru/post/318258/
null
ru
null
# Тестирование дешевых виртуальных серверов У многих хостеров есть в продаже дешевые виртуальные серверы, к тому же в последнее время стали в большом количестве появляться рекламные тарифы с различными ограничениями (например, возможностью заказа одного такого виртуального сервера для одного аккаунта), цена на которые иногда даже меньше себестоимости IP-адресов. Стало интересно провести небольшое тестирование и поделиться результатами с широкими народными массами. Часть виртуальных серверов была предоставлена хостерами ранее для одного из моих проектов, на котором я выкладываю тесты, дополнительно было закуплено некоторое количество VPS не дороже 100 рублей за штуку. [![](https://habrastorage.org/r/w780q1/webt/do/2j/7c/do2j7ce8hf3ba4weksskte4w5ai.jpeg)](https://habr.com/ru/post/467953#habracut) Сразу стоит заметить, что характеристики виртуальных серверов отличаются друг от друга, а производительность, измеренная в определенный момент времени, является весьма относительной величиной, зависящей от нагрузки на ноду или канал, количества клиентов на ноде, времени суток, ~~средней температуры на Марсе в сезон дождей~~ и так далее, так что материал является скорее развлекательным. В качестве операционной системы выбран Debian 9, а для тестирования я использую несколько популярных программ: unixbench, dd, fio, speedtest. С помощью dd было сделано по два теста для каждой виртуальной машины: блоками по 64K и 1M. Утилита fio запускалась по 4 раза: в режимах random read, random direct read, random write и random direct write. Перед результатами приведу краткое описание тарифов с ценами: | Хостер | Объем диска / Ресурсы процессора / Оперативная память | Цена | | --- | --- | --- | | [RUVDS](#ruvds) | 10 GB SSD 1x 2 GHz (Intel Xeon E5-2660v4) 0.5 GB (MemTotal: 428980 kB) | 30 руб./месяц | | [Timeweb](#timeweb) | 5 GB SSD 1x 2.4 GHz (vCPU) 0.5 GB (MemTotal: 504192 kB) | 45 руб./месяц | | [Inoventica Services](#invs) | 5 GB HDD 1x 2 GHz (vCPU) 0.5 GB (MemTotal: 504188 kB) | 49 руб./месяц | | [Hosting-Russia](#hosting-russia) | 10 GB SSD 1x 3.3 GHz (vCPU) 0.5 GB (MemTotal: 504308 kB) | 50 руб./месяц | | [FirstByte](#firstbyte) | 7 GB SSD 1x 2.9 GHz (vCPU) 0.5 GB (MemTotal: 504188 kB) | 55 руб./месяц | | [VDSina](#vdsina) | 5 GB NVMe SSD NL — 1x 2.1 GHz (vCPU); RU — 1x 2.2 GHz (vCPU) RU, NL — 0.5 GB (MemTotal: 504328 kB) | 59 руб./месяц | | [Zomro](#zomro) | 5 GB SSD 1x 2.13 GHz (Intel Xeon L5630) 0.25 GB (MemTotal: 262144 kB) | $0.99/месяц (~63 рубля) | | [Veesp](#veesp) | 10 GB HDD 1x 2.67 GHz (Intel Xeon X5650) 0.5 GB (MemTotal: 504328 kB) | 65 руб./месяц | | [PQ.Hosting](#pq) | 15 GB SSD RU — 1x 2.8 GHz (vCPU); NL — 1x 2 GHz (vCPU); MD — 1x 2.8 GHz (vCPU); LV — 1x 2.8 GHz (vCPU) RU — 1 GB (MemTotal: 995824 kB); NL — 1 GB (MemTotal: 1020400 kB); MD — 1 GB (MemTotal: 995820 kB); LV — 1 GB (MemTotal: 995816 kB) | 1€/месяц (~70 рублей) | | [Good-Host](#good-host) | 5 GB SSD 1x 4.2 GHz (vCPU) 0.4 GB (MemTotal: 389632 kB) | 79 руб./месяц | | [AdminVPS](#adminvps) | 10 GB SSD 1x 2.5 GHz (Intel Xeon E5-2680v3) 0.5 GB (MemTotal: 524288 kB) | 90 руб./месяц | | [FirstVDS](#firstvds) | 10 GB HDD 1x 1.6 GHz (Intel Xeon E5645) 0.5 GB (MemTotal: 524288 kB) | 90 руб./месяц | | [VPSHoster](#vpshoster) | 5 GB SSD 1x 2.26 GHz (vCPU) 0.5 GB (MemTotal: 479612 kB) | 99 руб./месяц | | [MyVPS](#myvps) | 10 GB HDD + SSD-кэш 1x 0.6 GHz (Intel Xeon E5-2670) 0.25 GB (MemTotal: 262144 kB) | 99 руб./месяц | | [IHOR](#ihor) | 10 GB HDD 1x 2.4 GHz (Intel Xeon E5620) 0.5 GB (MemTotal: 504280 kB) | 100 руб./месяц | Большинство виртуальных серверов размещено в России, но есть и исключения. Итак, перейдем к тестам, а для тех, кто не хочет читать стену текста, оставляю кнопочку для перехода к [результатам](#results) (много графиков). ### Виртуальный сервер от RUVDS: ![](https://habrastorage.org/r/w1560/webt/pz/fj/lb/pzfjlb8l8saikyn2d4tzhvdedtq.png) * оборудование размещается в подмосковном городе Королев (про посещение этого дата-центра я уже писал [ранее](https://habr.com/ru/company/poiskvps/blog/420045/)); * тариф Cheap (10 GB SSD / 1x 2 GHz CPU / 0.5 GB RAM / 100 Mbit/s за 30 рублей в месяц) * в данный момент хостер все еще борется с хабраэффектом, и этот тариф доступен только по предварительному заказу; * действует ограничение на один такой VPS на аккаунте. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-8-amd64 -- #1 SMP Debian 4.9.130-2 (2018-10-27) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Intel(R) Xeon(R) CPU E5-2660 v4 @ 2.00GHz (3999.9 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 12:42:09 up 9 min, 1 user, load average: 0.80, 0.33, 0.12; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Aug 29 2019 12:42:09 - 13:10:36 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 22313053.1 lps (10.0 s, 7 samples) Double-Precision Whetstone 3909.2 MWIPS (9.9 s, 7 samples) Execl Throughput 3613.2 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 544868.4 KBps (30.2 s, 2 samples) File Copy 256 bufsize 500 maxblocks 142354.0 KBps (30.2 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 1789046.2 KBps (30.2 s, 2 samples) Pipe Throughput 799976.2 lps (10.1 s, 7 samples) Pipe-based Context Switching 118596.6 lps (10.1 s, 7 samples) Process Creation 8878.8 lps (30.2 s, 2 samples) Shell Scripts (1 concurrent) 6676.2 lpm (60.4 s, 2 samples) Shell Scripts (8 concurrent) 880.7 lpm (60.5 s, 2 samples) System Call Overhead 577577.6 lps (10.1 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 22313053.1 1912.0 Double-Precision Whetstone 55.0 3909.2 710.8 Execl Throughput 43.0 3613.2 840.3 File Copy 1024 bufsize 2000 maxblocks 3960.0 544868.4 1375.9 File Copy 256 bufsize 500 maxblocks 1655.0 142354.0 860.1 File Copy 4096 bufsize 8000 maxblocks 5800.0 1789046.2 3084.6 Pipe Throughput 12440.0 799976.2 643.1 Pipe-based Context Switching 4000.0 118596.6 296.5 Process Creation 126.0 8878.8 704.7 Shell Scripts (1 concurrent) 42.4 6676.2 1574.6 Shell Scripts (8 concurrent) 6.0 880.7 1467.8 System Call Overhead 15000.0 577577.6 385.1 ======== System Benchmarks Index Score 943.6 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 2.33947 s, 918 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 2.39378 s, 897 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30560: Thu Aug 29 13:11:45 2019 read : io=6130.3MB, bw=104620KB/s, iops=26155, runt= 60002msec clat (usec): min=1, max=177662, avg=300.58, stdev=607.73 lat (usec): min=2, max=177662, avg=301.36, stdev=607.78 clat percentiles (usec): | 1.00th=[ 145], 5.00th=[ 221], 10.00th=[ 235], 20.00th=[ 249], | 30.00th=[ 258], 40.00th=[ 270], 50.00th=[ 278], 60.00th=[ 286], | 70.00th=[ 302], 80.00th=[ 322], 90.00th=[ 370], 95.00th=[ 430], | 99.00th=[ 636], 99.50th=[ 764], 99.90th=[ 1512], 99.95th=[ 2064], | 99.99th=[ 8256] bw (KB /s): min= 8008, max=14376, per=12.53%, avg=13104.15, stdev=833.24 lat (usec) : 2=0.01%, 4=0.40%, 10=0.01%, 20=0.02%, 50=0.01% lat (usec) : 100=0.03%, 250=20.40%, 500=76.42%, 750=2.17%, 1000=0.35% lat (msec) : 2=0.15%, 4=0.03%, 10=0.02%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=1.52%, sys=7.10%, ctx=1586565, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1569353/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=6130.3MB, aggrb=104620KB/s, minb=104620KB/s, maxb=104620KB/s, mint=60002msec, maxt=60002msec Disk stats (read/write): sda: ios=1561126/29, merge=24/25, ticks=398356/28, in_queue=398220, util=98.04% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30592: Thu Aug 29 13:13:50 2019 write: io=9877.7MB, bw=168561KB/s, iops=42140, runt= 60006msec clat (usec): min=1, max=910027, avg=161.10, stdev=4433.63 lat (usec): min=2, max=910027, avg=165.07, stdev=4447.87 clat percentiles (usec): | 1.00th=[ 2], 5.00th=[ 2], 10.00th=[ 2], 20.00th=[ 3], | 30.00th=[ 3], 40.00th=[ 3], 50.00th=[ 3], 60.00th=[ 3], | 70.00th=[ 3], 80.00th=[ 4], 90.00th=[ 5], 95.00th=[ 10], | 99.00th=[ 181], 99.50th=[ 5280], 99.90th=[40192], 99.95th=[63232], | 99.99th=[201728] bw (KB /s): min= 0, max=51352, per=13.49%, avg=22743.45, stdev=11130.39 lat (usec) : 2=0.01%, 4=74.06%, 10=20.37%, 20=3.75%, 50=0.63% lat (usec) : 100=0.12%, 250=0.15%, 500=0.08%, 750=0.03%, 1000=0.02% lat (msec) : 2=0.07%, 4=0.13%, 10=0.32%, 20=0.10%, 50=0.09% lat (msec) : 100=0.05%, 250=0.02%, 500=0.01%, 750=0.01%, 1000=0.01% cpu : usr=1.01%, sys=3.19%, ctx=81638, majf=0, minf=92 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=2528667/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=9877.7MB, aggrb=168560KB/s, minb=168560KB/s, maxb=168560KB/s, mint=60006msec, maxt=60006msec Disk stats (read/write): sda: ios=413/1142901, merge=133/14847, ticks=840/6249928, in_queue=6248644, util=98.55% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30573: Thu Aug 29 13:12:50 2019 read : io=5910.2MB, bw=100863KB/s, iops=25215, runt= 60002msec clat (usec): min=63, max=1022.7K, avg=312.03, stdev=1080.17 lat (usec): min=64, max=1022.7K, avg=312.80, stdev=1080.20 clat percentiles (usec): | 1.00th=[ 159], 5.00th=[ 221], 10.00th=[ 233], 20.00th=[ 247], | 30.00th=[ 258], 40.00th=[ 266], 50.00th=[ 274], 60.00th=[ 286], | 70.00th=[ 298], 80.00th=[ 318], 90.00th=[ 358], 95.00th=[ 422], | 99.00th=[ 956], 99.50th=[ 1640], 99.90th=[ 3536], 99.95th=[ 5344], | 99.99th=[41728] bw (KB /s): min= 2078, max=14672, per=12.54%, avg=12651.91, stdev=2302.49 lat (usec) : 100=0.05%, 250=22.44%, 500=74.80%, 750=1.44%, 1000=0.32% lat (msec) : 2=0.57%, 4=0.30%, 10=0.07%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01%, 2000=0.01% cpu : usr=1.39%, sys=6.50%, ctx=1525666, majf=0, minf=59 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1512996/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=5910.2MB, aggrb=100863KB/s, minb=100863KB/s, maxb=100863KB/s, mint=60002msec, maxt=60002msec Disk stats (read/write): sda: ios=1512242/34, merge=122/40, ticks=413692/76, in_queue=413416, util=98.66% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30612: Thu Aug 29 13:14:51 2019 write: io=603464KB, bw=10056KB/s, iops=2514, runt= 60009msec clat (usec): min=191, max=485456, avg=3176.44, stdev=18415.40 lat (usec): min=191, max=485457, avg=3177.24, stdev=18415.46 clat percentiles (usec): | 1.00th=[ 262], 5.00th=[ 270], 10.00th=[ 274], 20.00th=[ 282], | 30.00th=[ 286], 40.00th=[ 294], 50.00th=[ 302], 60.00th=[ 314], | 70.00th=[ 338], 80.00th=[ 394], 90.00th=[ 580], 95.00th=[ 1144], | 99.00th=[114176], 99.50th=[132096], 99.90th=[162816], 99.95th=[183296], | 99.99th=[358400] bw (KB /s): min= 13, max= 2368, per=12.56%, avg=1262.90, stdev=437.28 lat (usec) : 250=0.04%, 500=86.90%, 750=5.54%, 1000=1.86% lat (msec) : 2=2.57%, 4=0.42%, 10=0.20%, 20=0.01%, 50=0.01% lat (msec) : 100=0.92%, 250=1.51%, 500=0.02% cpu : usr=0.17%, sys=0.86%, ctx=306183, majf=0, minf=73 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=150866/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=603464KB, aggrb=10056KB/s, minb=10056KB/s, maxb=10056KB/s, mint=60009msec, maxt=60009msec Disk stats (read/write): sda: ios=158/150940, merge=217/1990, ticks=344/53016, in_queue=53312, util=87.90% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from Limited Liability Company Relcom Group (194.87.238.213)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Orange Business Services, Russia & CIS (Moscow) [1.61 km]: 11.038 ms Testing download speed................................................................................ Download: 732.49 Mbit/s Testing upload speed................................................................................................ Upload: 99.68 Mbit/s ``` ### Виртуальный сервер от Timeweb: ![](https://habrastorage.org/r/w1560/webt/zf/yx/hn/zfyxhnxjfmv3tghuljjoyvspa-4.png) * оборудование расположено в Санкт-Петербурге (ДЦ Selectel на Цветочной); * тариф EasyOne (5 GB SSD / 1x 2.4 GHz CPU / 0.5 GB RAM / 5 Mbit/s за 45 рублей в месяц); * один виртуальный сервер с данным тарифом на аккаунт; * заблокированы порты 25, 389, 465, 587, 3389, 53413. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-8-amd64 -- #1 SMP Debian 4.9.130-2 (2018-10-27) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 2.4.0 (4800.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 17:52:57 up 8 days, 17:42, 1 user, load average: 0.68, 0.21, 0.07; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Mon Sep 09 2019 17:52:57 - 18:21:22 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 32758977.7 lps (10.0 s, 7 samples) Double-Precision Whetstone 4454.0 MWIPS (10.7 s, 7 samples) Execl Throughput 3775.4 lps (29.6 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 291468.4 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 81792.1 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 870796.6 KBps (30.0 s, 2 samples) Pipe Throughput 434946.1 lps (10.0 s, 7 samples) Pipe-based Context Switching 98160.9 lps (10.0 s, 7 samples) Process Creation 9429.6 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 6887.4 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 908.3 lpm (60.0 s, 2 samples) System Call Overhead 333855.5 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 32758977.7 2807.1 Double-Precision Whetstone 55.0 4454.0 809.8 Execl Throughput 43.0 3775.4 878.0 File Copy 1024 bufsize 2000 maxblocks 3960.0 291468.4 736.0 File Copy 256 bufsize 500 maxblocks 1655.0 81792.1 494.2 File Copy 4096 bufsize 8000 maxblocks 5800.0 870796.6 1501.4 Pipe Throughput 12440.0 434946.1 349.6 Pipe-based Context Switching 4000.0 98160.9 245.4 Process Creation 126.0 9429.6 748.4 Shell Scripts (1 concurrent) 42.4 6887.4 1624.4 Shell Scripts (8 concurrent) 6.0 908.3 1513.8 System Call Overhead 15000.0 333855.5 222.6 ======== System Benchmarks Index Score 762.0 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 7.336 s, 293 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 3.92267 s, 547 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12420: Mon Sep 9 18:22:40 2019 read : io=2487.7MB, bw=42452KB/s, iops=10613, runt= 60005msec clat (usec): min=3, max=107480, avg=720.93, stdev=2037.66 lat (usec): min=4, max=107481, avg=726.16, stdev=2054.61 clat percentiles (usec): | 1.00th=[ 47], 5.00th=[ 73], 10.00th=[ 94], 20.00th=[ 133], | 30.00th=[ 181], 40.00th=[ 258], 50.00th=[ 314], 60.00th=[ 410], | 70.00th=[ 564], 80.00th=[ 844], 90.00th=[ 1224], 95.00th=[ 2160], | 99.00th=[ 7200], 99.50th=[11584], 99.90th=[30592], 99.95th=[38144], | 99.99th=[57600] bw (KB /s): min= 1176, max=14304, per=12.52%, avg=5315.30, stdev=2443.62 lat (usec) : 4=0.13%, 10=0.75%, 20=0.02%, 50=0.15%, 100=10.51% lat (usec) : 250=27.08%, 500=28.01%, 750=10.66%, 1000=6.97% lat (msec) : 2=9.93%, 4=3.57%, 10=1.56%, 20=0.41%, 50=0.21% lat (msec) : 100=0.02%, 250=0.01% cpu : usr=2.06%, sys=6.20%, ctx=638836, majf=0, minf=83 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=636840/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=2487.7MB, aggrb=42452KB/s, minb=42452KB/s, maxb=42452KB/s, mint=60005msec, maxt=60005msec Disk stats (read/write): vda: ios=631677/461, merge=17/646, ticks=237832/1172, in_queue=238608, util=85.61% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12460: Mon Sep 9 18:24:45 2019 write: io=621160KB, bw=10343KB/s, iops=2585, runt= 60054msec clat (usec): min=3, max=1288.9K, avg=2410.29, stdev=27207.90 lat (usec): min=4, max=1288.1K, avg=2415.84, stdev=27232.16 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 4], 10.00th=[ 5], 20.00th=[ 5], | 30.00th=[ 5], 40.00th=[ 5], 50.00th=[ 6], 60.00th=[ 6], | 70.00th=[ 7], 80.00th=[ 9], 90.00th=[ 11], 95.00th=[ 20], | 99.00th=[58112], 99.50th=[199680], 99.90th=[436224], 99.95th=[536576], | 99.99th=[634880] bw (KB /s): min= 0, max=42357, per=16.20%, avg=1675.86, stdev=3143.18 lat (usec) : 4=0.09%, 10=84.01%, 20=10.77%, 50=1.25%, 100=0.96% lat (usec) : 250=0.62%, 500=0.31%, 750=0.11%, 1000=0.08% lat (msec) : 2=0.07%, 4=0.10%, 10=0.16%, 20=0.16%, 50=0.24% lat (msec) : 100=0.35%, 250=0.37%, 500=0.27%, 750=0.06%, 1000=0.01% lat (msec) : 2000=0.01% cpu : usr=0.29%, sys=0.75%, ctx=44591, majf=0, minf=69 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=155290/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=621160KB, aggrb=10343KB/s, minb=10343KB/s, maxb=10343KB/s, mint=60054msec, maxt=60054msec Disk stats (read/write): vda: ios=772/52683, merge=0/13854, ticks=12072/2440176, in_queue=2456616, util=97.18% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12445: Mon Sep 9 18:23:45 2019 read : io=3069.2MB, bw=52374KB/s, iops=13093, runt= 60004msec clat (usec): min=28, max=192693, avg=581.86, stdev=1688.07 lat (usec): min=29, max=192695, avg=587.38, stdev=1711.01 clat percentiles (usec): | 1.00th=[ 47], 5.00th=[ 65], 10.00th=[ 83], 20.00th=[ 119], | 30.00th=[ 161], 40.00th=[ 239], 50.00th=[ 282], 60.00th=[ 354], | 70.00th=[ 474], 80.00th=[ 692], 90.00th=[ 1048], 95.00th=[ 1640], | 99.00th=[ 5024], 99.50th=[ 8256], 99.90th=[24192], 99.95th=[33536], | 99.99th=[60160] bw (KB /s): min= 590, max=19960, per=12.48%, avg=6537.92, stdev=2924.59 lat (usec) : 50=1.71%, 100=12.40%, 250=29.08%, 500=28.51%, 750=10.21% lat (usec) : 1000=6.31% lat (msec) : 2=7.87%, 4=2.54%, 10=1.00%, 20=0.25%, 50=0.12% lat (msec) : 100=0.02%, 250=0.01% cpu : usr=2.43%, sys=5.97%, ctx=797027, majf=0, minf=59 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=785667/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3069.2MB, aggrb=52374KB/s, minb=52374KB/s, maxb=52374KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=785616/21, merge=7/19, ticks=240480/72, in_queue=240176, util=85.74% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12485: Mon Sep 9 18:25:53 2019 write: io=194840KB, bw=3246.3KB/s, iops=811, runt= 60021msec clat (usec): min=331, max=485350, avg=9837.11, stdev=33348.07 lat (usec): min=332, max=485351, avg=9839.49, stdev=33349.20 clat percentiles (usec): | 1.00th=[ 418], 5.00th=[ 446], 10.00th=[ 470], 20.00th=[ 498], | 30.00th=[ 532], 40.00th=[ 572], 50.00th=[ 628], 60.00th=[ 740], | 70.00th=[ 964], 80.00th=[ 1624], 90.00th=[ 5216], 95.00th=[94720], | 99.00th=[164864], 99.50th=[195584], 99.90th=[280576], 99.95th=[329728], | 99.99th=[403456] bw (KB /s): min= 13, max= 1112, per=12.67%, avg=411.37, stdev=183.33 lat (usec) : 500=20.24%, 750=40.58%, 1000=10.11% lat (msec) : 2=11.58%, 4=6.13%, 10=3.13%, 20=0.61%, 50=0.30% lat (msec) : 100=2.91%, 250=4.25%, 500=0.15% cpu : usr=0.20%, sys=1.08%, ctx=101847, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=48710/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=194840KB, aggrb=3246KB/s, minb=3246KB/s, maxb=3246KB/s, mint=60021msec, maxt=60021msec Disk stats (read/write): vda: ios=587/48721, merge=7/1768, ticks=1004/54804, in_queue=55760, util=90.21% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from TimeWeb Ltd. (5.23.49.159)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Megafon (Moscow) [1.61 km]: 13.918 ms Testing download speed................................................................................ Download: 3.82 Mbit/s Testing upload speed................................................................................................ Upload: 4.79 Mbit/s ``` ### Виртуальный сервер от Inoventica Services: ![](https://habrastorage.org/r/w1560/webt/y0/lh/ki/y0lhkiwbeyeii4d6hy5czl136sg.png) * тариф Luna Promo (5 GB HDD / 1x 2 GHz CPU / 0.5 GB RAM / 10 Mbit/s за 49 рублей в месяц); * один виртуальный сервер с данным тарифом на аккаунт; * заблокирован порт 25. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u5 (2019-08-11) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 2.5+ (3990.4 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 18:50:57 up 11 min, 1 user, load average: 0.76, 0.28, 0.10; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Aug 29 2019 18:50:57 - 19:18:55 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 18807123.2 lps (10.0 s, 7 samples) Double-Precision Whetstone 2427.1 MWIPS (9.7 s, 7 samples) Execl Throughput 1745.2 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 131818.8 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 35944.4 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 424330.5 KBps (30.0 s, 2 samples) Pipe Throughput 215841.6 lps (10.0 s, 7 samples) Pipe-based Context Switching 44367.6 lps (10.0 s, 7 samples) Process Creation 3968.7 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 3353.6 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 464.0 lpm (60.1 s, 2 samples) System Call Overhead 169640.3 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 18807123.2 1611.6 Double-Precision Whetstone 55.0 2427.1 441.3 Execl Throughput 43.0 1745.2 405.9 File Copy 1024 bufsize 2000 maxblocks 3960.0 131818.8 332.9 File Copy 256 bufsize 500 maxblocks 1655.0 35944.4 217.2 File Copy 4096 bufsize 8000 maxblocks 5800.0 424330.5 731.6 Pipe Throughput 12440.0 215841.6 173.5 Pipe-based Context Switching 4000.0 44367.6 110.9 Process Creation 126.0 3968.7 315.0 Shell Scripts (1 concurrent) 42.4 3353.6 791.0 Shell Scripts (8 concurrent) 6.0 464.0 773.3 System Call Overhead 15000.0 169640.3 113.1 ======== System Benchmarks Index Score 369.1 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 13.8382 s, 155 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 11.9849 s, 179 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=6399: Thu Aug 29 19:20:36 2019 read : io=3303.6MB, bw=56376KB/s, iops=14093, runt= 60004msec clat (usec): min=5, max=809158, avg=548.42, stdev=1410.87 lat (usec): min=7, max=809160, avg=551.41, stdev=1412.08 clat percentiles (usec): | 1.00th=[ 129], 5.00th=[ 233], 10.00th=[ 286], 20.00th=[ 358], | 30.00th=[ 414], 40.00th=[ 462], 50.00th=[ 502], 60.00th=[ 548], | 70.00th=[ 588], 80.00th=[ 652], 90.00th=[ 764], 95.00th=[ 916], | 99.00th=[ 1864], 99.50th=[ 2352], 99.90th=[ 4576], 99.95th=[ 6368], | 99.99th=[19584] bw (KB /s): min= 2033, max= 9448, per=12.54%, avg=7070.36, stdev=809.28 lat (usec) : 10=0.54%, 20=0.15%, 50=0.05%, 100=0.03%, 250=5.61% lat (usec) : 500=42.50%, 750=40.45%, 1000=6.91% lat (msec) : 2=2.92%, 4=0.71%, 10=0.11%, 20=0.02%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01%, 750=0.01%, 1000=0.01% cpu : usr=2.97%, sys=8.85%, ctx=850919, majf=0, minf=68 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=845695/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3303.6MB, aggrb=56375KB/s, minb=56375KB/s, maxb=56375KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=839215/10, merge=0/3, ticks=110672/32, in_queue=110024, util=94.78% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=6441: Thu Aug 29 19:22:47 2019 write: io=7166.5MB, bw=122273KB/s, iops=30568, runt= 60017msec clat (usec): min=6, max=179576, avg=171.53, stdev=1724.15 lat (usec): min=7, max=179594, avg=187.29, stdev=1836.72 clat percentiles (usec): | 1.00th=[ 7], 5.00th=[ 7], 10.00th=[ 8], 20.00th=[ 8], | 30.00th=[ 8], 40.00th=[ 9], 50.00th=[ 10], 60.00th=[ 12], | 70.00th=[ 15], 80.00th=[ 17], 90.00th=[ 23], 95.00th=[ 29], | 99.00th=[ 4256], 99.50th=[12224], 99.90th=[24960], 99.95th=[29568], | 99.99th=[41216] bw (KB /s): min= 0, max=22003, per=12.65%, avg=15468.37, stdev=3032.64 lat (usec) : 10=44.94%, 20=41.47%, 50=11.14%, 100=0.37%, 250=0.36% lat (usec) : 500=0.13%, 750=0.08%, 1000=0.07% lat (msec) : 2=0.18%, 4=0.20%, 10=0.42%, 20=0.43%, 50=0.21% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=3.67%, sys=6.27%, ctx=84956, majf=0, minf=67 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=1834611/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=7166.5MB, aggrb=122272KB/s, minb=122272KB/s, maxb=122272KB/s, mint=60017msec, maxt=60017msec Disk stats (read/write): vda: ios=259/1088561, merge=0/13972, ticks=640/2457092, in_queue=2457680, util=45.40% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=6420: Thu Aug 29 19:21:46 2019 read : io=3922.6MB, bw=66941KB/s, iops=16735, runt= 60004msec clat (usec): min=56, max=56057, avg=456.83, stdev=313.95 lat (usec): min=59, max=56061, avg=459.82, stdev=315.28 clat percentiles (usec): | 1.00th=[ 139], 5.00th=[ 197], 10.00th=[ 237], 20.00th=[ 294], | 30.00th=[ 338], 40.00th=[ 382], 50.00th=[ 426], 60.00th=[ 470], | 70.00th=[ 502], 80.00th=[ 548], 90.00th=[ 644], 95.00th=[ 780], | 99.00th=[ 1480], 99.50th=[ 2096], 99.90th=[ 3792], 99.95th=[ 4768], | 99.99th=[ 7904] bw (KB /s): min= 6408, max=10008, per=12.50%, avg=8369.21, stdev=613.88 lat (usec) : 100=0.08%, 250=12.02%, 500=57.76%, 750=24.39%, 1000=3.39% lat (msec) : 2=1.80%, 4=0.47%, 10=0.08%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=3.75%, sys=8.16%, ctx=1012596, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1004176/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3922.6MB, aggrb=66940KB/s, minb=66940KB/s, maxb=66940KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=1004393/8, merge=0/4, ticks=122236/0, in_queue=121560, util=97.14% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=6458: Thu Aug 29 19:23:48 2019 write: io=832520KB, bw=13873KB/s, iops=3468, runt= 60008msec clat (usec): min=85, max=58011, avg=2287.70, stdev=7287.28 lat (usec): min=87, max=58014, avg=2290.95, stdev=7287.68 clat percentiles (usec): | 1.00th=[ 116], 5.00th=[ 135], 10.00th=[ 145], 20.00th=[ 161], | 30.00th=[ 179], 40.00th=[ 197], 50.00th=[ 219], 60.00th=[ 245], | 70.00th=[ 282], 80.00th=[ 354], 90.00th=[ 772], 95.00th=[25216], | 99.00th=[33024], 99.50th=[35584], 99.90th=[41216], 99.95th=[44288], | 99.99th=[54016] bw (KB /s): min= 1040, max= 2465, per=12.51%, avg=1734.85, stdev=241.51 lat (usec) : 100=0.06%, 250=61.34%, 500=25.50%, 750=2.98%, 1000=1.04% lat (msec) : 2=1.25%, 4=0.45%, 10=0.06%, 20=0.24%, 50=7.08% lat (msec) : 100=0.02% cpu : usr=0.85%, sys=3.65%, ctx=432909, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=208130/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=832520KB, aggrb=13873KB/s, minb=13873KB/s, maxb=13873KB/s, mint=60008msec, maxt=60008msec Disk stats (read/write): vda: ios=163/208125, merge=0/2312, ticks=104/42948, in_queue=42804, util=69.09% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from Unknown (45.143.136.58)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Telstra (Perth) [1840.76 km]: 532.274 ms Testing download speed................................................................................ Download: 14.41 Mbit/s Testing upload speed................................................................................................ Upload: 4.44 Mbit/s ``` ### Виртуальный сервер от Hosting-Russia: ![](https://habrastorage.org/r/w1560/webt/xm/kj/6c/xmkj6c7ftvjobvafd4fcqjctpge.png) * тариф Социальный (10 GB SSD / 1x 3.3 GHz CPU / 0.5 GB RAM / 100 Mbit/s за 50 рублей в месяц); * один виртуальный сервер с данным тарифом на аккаунт. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u5 (2019-08-11) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 1.5.3 (6600.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 18:48:30 up 8 min, 1 user, load average: 0.59, 0.20, 0.07; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Aug 29 2019 18:48:30 - 19:16:42 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 32415885.5 lps (10.0 s, 7 samples) Double-Precision Whetstone 4506.4 MWIPS (9.8 s, 7 samples) Execl Throughput 2793.0 lps (29.8 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 187339.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 44305.5 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 520367.5 KBps (30.0 s, 2 samples) Pipe Throughput 283190.8 lps (10.0 s, 7 samples) Pipe-based Context Switching 68876.3 lps (10.0 s, 7 samples) Process Creation 6402.6 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 5276.1 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 652.5 lpm (60.1 s, 2 samples) System Call Overhead 225827.6 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 32415885.5 2777.7 Double-Precision Whetstone 55.0 4506.4 819.3 Execl Throughput 43.0 2793.0 649.5 File Copy 1024 bufsize 2000 maxblocks 3960.0 187339.0 473.1 File Copy 256 bufsize 500 maxblocks 1655.0 44305.5 267.7 File Copy 4096 bufsize 8000 maxblocks 5800.0 520367.5 897.2 Pipe Throughput 12440.0 283190.8 227.6 Pipe-based Context Switching 4000.0 68876.3 172.2 Process Creation 126.0 6402.6 508.1 Shell Scripts (1 concurrent) 42.4 5276.1 1244.4 Shell Scripts (8 concurrent) 6.0 652.5 1087.6 System Call Overhead 15000.0 225827.6 150.6 ======== System Benchmarks Index Score 544.7 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 8.07309 s, 266 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 9.44878 s, 227 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=838: Thu Aug 29 19:18:10 2019 read : io=4574.7MB, bw=78068KB/s, iops=19517, runt= 60004msec clat (usec): min=4, max=48426, avg=396.43, stdev=500.67 lat (usec): min=5, max=48428, avg=398.64, stdev=502.34 clat percentiles (usec): | 1.00th=[ 30], 5.00th=[ 145], 10.00th=[ 181], 20.00th=[ 223], | 30.00th=[ 255], 40.00th=[ 278], 50.00th=[ 302], 60.00th=[ 330], | 70.00th=[ 362], 80.00th=[ 426], 90.00th=[ 620], 95.00th=[ 932], | 99.00th=[ 2128], 99.50th=[ 3024], 99.90th=[ 6112], 99.95th=[ 8256], | 99.99th=[15424] bw (KB /s): min= 4335, max=14936, per=12.51%, avg=9763.49, stdev=1977.64 lat (usec) : 10=0.34%, 20=0.51%, 50=0.22%, 100=0.64%, 250=26.50% lat (usec) : 500=57.31%, 750=7.19%, 1000=2.86% lat (msec) : 2=3.28%, 4=0.86%, 10=0.25%, 20=0.03%, 50=0.01% cpu : usr=2.97%, sys=7.76%, ctx=1166714, majf=0, minf=66 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1171105/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=4574.7MB, aggrb=78068KB/s, minb=78068KB/s, maxb=78068KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=1153842/15, merge=0/7, ticks=183000/0, in_queue=182384, util=93.31% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=874: Thu Aug 29 19:20:21 2019 write: io=10509MB, bw=178979KB/s, iops=44744, runt= 60123msec clat (usec): min=4, max=472089, avg=123.05, stdev=2340.78 lat (usec): min=5, max=472091, avg=133.56, stdev=2395.07 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 5], 20.00th=[ 6], | 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 8], 60.00th=[ 9], | 70.00th=[ 9], 80.00th=[ 10], 90.00th=[ 14], 95.00th=[ 18], | 99.00th=[ 884], 99.50th=[ 8032], 99.90th=[20352], 99.95th=[25728], | 99.99th=[48384] bw (KB /s): min= 0, max=32906, per=12.74%, avg=22795.95, stdev=6415.87 lat (usec) : 10=72.98%, 20=23.63%, 50=1.87%, 100=0.22%, 250=0.14% lat (usec) : 500=0.08%, 750=0.06%, 1000=0.03% lat (msec) : 2=0.08%, 4=0.14%, 10=0.35%, 20=0.29%, 50=0.11% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=3.98%, sys=5.95%, ctx=84003, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=2690190/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=10509MB, aggrb=178979KB/s, minb=178979KB/s, maxb=178979KB/s, mint=60123msec, maxt=60123msec Disk stats (read/write): vda: ios=190/1476042, merge=0/13939, ticks=476/4394496, in_queue=4455180, util=69.07% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=857: Thu Aug 29 19:19:21 2019 read : io=5403.6MB, bw=92212KB/s, iops=23053, runt= 60005msec clat (usec): min=39, max=50176, avg=333.70, stdev=389.36 lat (usec): min=41, max=50178, avg=335.87, stdev=392.12 clat percentiles (usec): | 1.00th=[ 99], 5.00th=[ 141], 10.00th=[ 169], 20.00th=[ 205], | 30.00th=[ 235], 40.00th=[ 251], 50.00th=[ 274], 60.00th=[ 286], | 70.00th=[ 310], 80.00th=[ 350], 90.00th=[ 482], 95.00th=[ 724], | 99.00th=[ 1592], 99.50th=[ 2192], 99.90th=[ 5088], 99.95th=[ 6560], | 99.99th=[11840] bw (KB /s): min= 4031, max=16680, per=12.49%, avg=11517.12, stdev=2314.89 lat (usec) : 50=0.01%, 100=1.01%, 250=38.14%, 500=51.46%, 750=4.69% lat (usec) : 1000=2.01% lat (msec) : 2=2.08%, 4=0.46%, 10=0.14%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=3.41%, sys=7.62%, ctx=1389080, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1383298/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=5403.6MB, aggrb=92212KB/s, minb=92212KB/s, maxb=92212KB/s, mint=60005msec, maxt=60005msec Disk stats (read/write): vda: ios=1381796/8, merge=0/4, ticks=184404/0, in_queue=183664, util=95.35% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=891: Thu Aug 29 19:21:22 2019 write: io=1274.2MB, bw=21758KB/s, iops=5439, runt= 60006msec clat (usec): min=53, max=313006, avg=1458.70, stdev=7507.36 lat (usec): min=54, max=313008, avg=1460.81, stdev=7507.98 clat percentiles (usec): | 1.00th=[ 67], 5.00th=[ 76], 10.00th=[ 81], 20.00th=[ 87], | 30.00th=[ 94], 40.00th=[ 103], 50.00th=[ 114], 60.00th=[ 129], | 70.00th=[ 149], 80.00th=[ 183], 90.00th=[ 290], 95.00th=[ 1128], | 99.00th=[32384], 99.50th=[37120], 99.90th=[49408], 99.95th=[59136], | 99.99th=[264192] bw (KB /s): min= 686, max= 5032, per=12.62%, avg=2744.87, stdev=691.50 lat (usec) : 100=36.39%, 250=51.54%, 500=5.55%, 750=0.89%, 1000=0.46% lat (msec) : 2=0.59%, 4=0.24%, 10=0.12%, 20=0.10%, 50=4.02% lat (msec) : 100=0.06%, 250=0.01%, 500=0.03% cpu : usr=0.84%, sys=3.25%, ctx=663224, majf=0, minf=83 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=326399/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=1274.2MB, aggrb=21757KB/s, minb=21757KB/s, maxb=21757KB/s, mint=60006msec, maxt=60006msec Disk stats (read/write): vda: ios=137/326331, merge=0/2139, ticks=132/47148, in_queue=47096, util=73.67% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from Argotel ANTIDDOS-HOSTING (95.182.120.105)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Orange Business Services, Russia & CIS (Moscow) [0.12 km]: 5.474 ms Testing download speed................................................................................ Download: 104.50 Mbit/s Testing upload speed................................................................................................ Upload: 118.08 Mbit/s ``` ### Виртуальный сервер от FirstByte: ![](https://habrastorage.org/r/w1560/webt/r9/j8/yh/r9j8yh9nzabqy8zldfaifxfj-ry.png) * тариф MSK-KVM-SSD-START (7 GB SSD / 1x 2.9 GHz CPU / 0.5 GB RAM / 100 Mbit/s, 7 TB трафика за 55 рублей в месяц); * два виртуальных сервера с данным тарифом на аккаунт. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u5 (2019-08-11) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 2.5+ (5800.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 18:51:35 up 3:21, 1 user, load average: 0.59, 0.17, 0.06; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Fri Aug 30 2019 18:51:35 - 19:19:41 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 35010835.0 lps (10.0 s, 7 samples) Double-Precision Whetstone 4233.8 MWIPS (9.9 s, 7 samples) Execl Throughput 3115.3 lps (29.8 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 230064.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 61011.7 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 749773.8 KBps (30.0 s, 2 samples) Pipe Throughput 315333.8 lps (10.0 s, 7 samples) Pipe-based Context Switching 69505.3 lps (10.0 s, 7 samples) Process Creation 7651.1 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 6090.7 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 812.0 lpm (60.0 s, 2 samples) System Call Overhead 275532.7 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 35010835.0 3000.1 Double-Precision Whetstone 55.0 4233.8 769.8 Execl Throughput 43.0 3115.3 724.5 File Copy 1024 bufsize 2000 maxblocks 3960.0 230064.0 581.0 File Copy 256 bufsize 500 maxblocks 1655.0 61011.7 368.7 File Copy 4096 bufsize 8000 maxblocks 5800.0 749773.8 1292.7 Pipe Throughput 12440.0 315333.8 253.5 Pipe-based Context Switching 4000.0 69505.3 173.8 Process Creation 126.0 7651.1 607.2 Shell Scripts (1 concurrent) 42.4 6090.7 1436.5 Shell Scripts (8 concurrent) 6.0 812.0 1353.4 System Call Overhead 15000.0 275532.7 183.7 ======== System Benchmarks Index Score 636.5 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 7.39888 s, 290 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 7.95401 s, 270 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7673: Fri Aug 30 19:21:06 2019 read : io=5185.1MB, bw=88488KB/s, iops=22121, runt= 60003msec clat (usec): min=3, max=177882, avg=349.83, stdev=464.85 lat (usec): min=5, max=177883, avg=351.69, stdev=465.74 clat percentiles (usec): | 1.00th=[ 32], 5.00th=[ 183], 10.00th=[ 215], 20.00th=[ 249], | 30.00th=[ 274], 40.00th=[ 294], 50.00th=[ 314], 60.00th=[ 342], | 70.00th=[ 374], 80.00th=[ 418], 90.00th=[ 490], 95.00th=[ 564], | 99.00th=[ 828], 99.50th=[ 1416], 99.90th=[ 3024], 99.95th=[ 5280], | 99.99th=[12096] bw (KB /s): min= 6592, max=14160, per=12.50%, avg=11059.80, stdev=1182.28 lat (usec) : 4=0.01%, 10=0.18%, 20=0.61%, 50=0.25%, 100=0.16% lat (usec) : 250=19.30%, 500=70.27%, 750=7.90%, 1000=0.62% lat (msec) : 2=0.49%, 4=0.15%, 10=0.05%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=2.69%, sys=9.33%, ctx=1328724, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1327383/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=5185.1MB, aggrb=88487KB/s, minb=88487KB/s, maxb=88487KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=1309181/16, merge=0/10, ticks=79784/0, in_queue=79032, util=92.41% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7711: Fri Aug 30 19:23:16 2019 write: io=11638MB, bw=198581KB/s, iops=49645, runt= 60012msec clat (usec): min=4, max=60776, avg=105.51, stdev=1311.60 lat (usec): min=5, max=60778, avg=115.51, stdev=1405.26 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 5], 20.00th=[ 6], | 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 7], 60.00th=[ 7], | 70.00th=[ 10], 80.00th=[ 12], 90.00th=[ 13], 95.00th=[ 16], | 99.00th=[ 636], 99.50th=[ 7200], 99.90th=[21888], 99.95th=[28032], | 99.99th=[39168] bw (KB /s): min= 1, max=32893, per=12.62%, avg=25065.22, stdev=3735.85 lat (usec) : 10=69.83%, 20=27.13%, 50=1.60%, 100=0.20%, 250=0.13% lat (usec) : 500=0.07%, 750=0.11%, 1000=0.06% lat (msec) : 2=0.11%, 4=0.12%, 10=0.26%, 20=0.26%, 50=0.13% lat (msec) : 100=0.01% cpu : usr=3.80%, sys=6.44%, ctx=103619, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=2979313/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=11638MB, aggrb=198581KB/s, minb=198581KB/s, maxb=198581KB/s, mint=60012msec, maxt=60012msec Disk stats (read/write): vda: ios=788/1799427, merge=0/13447, ticks=148/1828308, in_queue=1828228, util=40.15% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7696: Fri Aug 30 19:22:15 2019 read : io=6190.2MB, bw=105641KB/s, iops=26410, runt= 60003msec clat (usec): min=40, max=54082, avg=289.23, stdev=187.94 lat (usec): min=41, max=54084, avg=291.23, stdev=188.73 clat percentiles (usec): | 1.00th=[ 114], 5.00th=[ 163], 10.00th=[ 189], 20.00th=[ 219], | 30.00th=[ 233], 40.00th=[ 249], 50.00th=[ 266], 60.00th=[ 282], | 70.00th=[ 314], 80.00th=[ 354], 90.00th=[ 406], 95.00th=[ 458], | 99.00th=[ 628], 99.50th=[ 756], 99.90th=[ 1496], 99.95th=[ 2384], | 99.99th=[ 6688] bw (KB /s): min=10160, max=15992, per=12.51%, avg=13220.39, stdev=1164.37 lat (usec) : 50=0.01%, 100=0.48%, 250=39.69%, 500=56.83%, 750=2.47% lat (usec) : 1000=0.28% lat (msec) : 2=0.17%, 4=0.04%, 10=0.02%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=3.74%, sys=8.49%, ctx=1597314, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1584690/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=6190.2MB, aggrb=105640KB/s, minb=105640KB/s, maxb=105640KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=1582870/8, merge=0/6, ticks=92084/0, in_queue=91392, util=97.29% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7730: Fri Aug 30 19:24:16 2019 write: io=2561.9MB, bw=43718KB/s, iops=10929, runt= 60006msec clat (usec): min=41, max=73708, avg=722.90, stdev=3654.74 lat (usec): min=42, max=73710, avg=724.50, stdev=3654.92 clat percentiles (usec): | 1.00th=[ 52], 5.00th=[ 54], 10.00th=[ 56], 20.00th=[ 60], | 30.00th=[ 65], 40.00th=[ 70], 50.00th=[ 75], 60.00th=[ 79], | 70.00th=[ 84], 80.00th=[ 92], 90.00th=[ 112], 95.00th=[ 175], | 99.00th=[21632], 99.50th=[22656], 99.90th=[27008], 99.95th=[33024], | 99.99th=[46848] bw (KB /s): min= 3652, max= 7496, per=12.50%, avg=5465.98, stdev=541.88 lat (usec) : 50=0.13%, 100=84.74%, 250=11.09%, 500=0.68%, 750=0.16% lat (usec) : 1000=0.05% lat (msec) : 2=0.04%, 4=0.01%, 10=0.01%, 20=1.17%, 50=1.90% lat (msec) : 100=0.01% cpu : usr=1.20%, sys=4.47%, ctx=1334127, majf=0, minf=66 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=655834/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=2561.9MB, aggrb=43717KB/s, minb=43717KB/s, maxb=43717KB/s, mint=60006msec, maxt=60006msec Disk stats (read/write): vda: ios=784/655134, merge=0/1513, ticks=148/41460, in_queue=41388, util=64.67% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from NTX Technologies s.r.o. (147.78.65.137)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Megafon (Moscow) [1.61 km]: 23.363 ms Testing download speed................................................................................ Download: 87.97 Mbit/s Testing upload speed................................................................................................ Upload: 103.26 Mbit/s ``` ### Виртуальный сервер от VDSina: ![](https://habrastorage.org/r/w1560/webt/im/oe/xb/imoexboc0ivf8aouujkrjluwjrk.png) * оборудование размещается в России (Москва, ДЦ DataPro на Авиамоторной) и Нидерландах (Меппел, ДЦ Serverius); * тариф без названия за 2 рубля в день (5 GB SSD / 1x 2.1 GHz CPU / 0.5 GB RAM / 100 Mbit/s, 1 TB трафика за 59 рублей в месяц); * один виртуальный сервер с данным тарифом на аккаунт. #### Тесты: **Unixbench (RU)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-6-amd64 -- #1 SMP Debian 4.9.88-1+deb9u1 (2018-05-07) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Common KVM processor (4394.9 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 13:05:33 up 205 days, 2:51, 1 user, load average: 0.60, 0.17, 0.06; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Fri Aug 09 2019 13:05:33 - 13:33:38 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 22416507.5 lps (10.0 s, 7 samples) Double-Precision Whetstone 3992.1 MWIPS (9.6 s, 7 samples) Execl Throughput 2605.9 lps (29.6 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 219066.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 59081.7 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 697518.9 KBps (30.0 s, 2 samples) Pipe Throughput 310130.4 lps (10.0 s, 7 samples) Pipe-based Context Switching 72366.5 lps (10.0 s, 7 samples) Process Creation 6019.5 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 4518.9 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 577.9 lpm (60.1 s, 2 samples) System Call Overhead 259893.1 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 22416507.5 1920.9 Double-Precision Whetstone 55.0 3992.1 725.8 Execl Throughput 43.0 2605.9 606.0 File Copy 1024 bufsize 2000 maxblocks 3960.0 219066.0 553.2 File Copy 256 bufsize 500 maxblocks 1655.0 59081.7 357.0 File Copy 4096 bufsize 8000 maxblocks 5800.0 697518.9 1202.6 Pipe Throughput 12440.0 310130.4 249.3 Pipe-based Context Switching 4000.0 72366.5 180.9 Process Creation 126.0 6019.5 477.7 Shell Scripts (1 concurrent) 42.4 4518.9 1065.8 Shell Scripts (8 concurrent) 6.0 577.9 963.2 System Call Overhead 15000.0 259893.1 173.3 ======== System Benchmarks Index Score 550.2 ``` **Unixbench (NL)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-6-amd64 -- #1 SMP Debian 4.9.88-1+deb9u1 (2018-05-07) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Common KVM processor (4200.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 22:06:14 up 227 days, 11:55, 1 user, load average: 0.69, 0.21, 0.08; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Sat Aug 31 2019 22:06:14 - 22:34:27 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 22795602.9 lps (10.0 s, 7 samples) Double-Precision Whetstone 3167.3 MWIPS (9.9 s, 7 samples) Execl Throughput 2537.0 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 206972.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 52857.1 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 658303.5 KBps (30.0 s, 2 samples) Pipe Throughput 292297.5 lps (10.0 s, 7 samples) Pipe-based Context Switching 68596.0 lps (10.0 s, 7 samples) Process Creation 6200.3 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 4572.0 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 571.9 lpm (60.1 s, 2 samples) System Call Overhead 240979.1 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 22795602.9 1953.4 Double-Precision Whetstone 55.0 3167.3 575.9 Execl Throughput 43.0 2537.0 590.0 File Copy 1024 bufsize 2000 maxblocks 3960.0 206972.0 522.7 File Copy 256 bufsize 500 maxblocks 1655.0 52857.1 319.4 File Copy 4096 bufsize 8000 maxblocks 5800.0 658303.5 1135.0 Pipe Throughput 12440.0 292297.5 235.0 Pipe-based Context Switching 4000.0 68596.0 171.5 Process Creation 126.0 6200.3 492.1 Shell Scripts (1 concurrent) 42.4 4572.0 1078.3 Shell Scripts (8 concurrent) 6.0 571.9 953.1 System Call Overhead 15000.0 240979.1 160.7 ======== System Benchmarks Index Score 522.3 ``` **dd (RU)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 4.02597 s, 533 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 4.766 s, 451 MB/s ``` **dd (NL)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 3.70351 s, 580 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 4.03231 s, 533 MB/s ``` **fio (RU)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14888: Fri Aug 9 13:34:53 2019 read : io=4741.6MB, bw=80914KB/s, iops=20228, runt= 60006msec clat (usec): min=4, max=77875, avg=383.55, stdev=631.08 lat (usec): min=5, max=77877, avg=385.67, stdev=632.08 clat percentiles (usec): | 1.00th=[ 25], 5.00th=[ 175], 10.00th=[ 207], 20.00th=[ 227], | 30.00th=[ 249], 40.00th=[ 270], 50.00th=[ 294], 60.00th=[ 318], | 70.00th=[ 354], 80.00th=[ 414], 90.00th=[ 548], 95.00th=[ 764], | 99.00th=[ 1848], 99.50th=[ 2992], 99.90th=[ 8256], 99.95th=[12096], | 99.99th=[23168] bw (KB /s): min= 6360, max=13704, per=12.53%, avg=10139.33, stdev=1257.00 lat (usec) : 10=0.71%, 20=0.24%, 50=0.09%, 100=0.80%, 250=28.59% lat (usec) : 500=57.08%, 750=7.28%, 1000=2.17% lat (msec) : 2=2.16%, 4=0.53%, 10=0.27%, 20=0.06%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=2.34%, sys=7.79%, ctx=1212630, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1213831/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=4741.6MB, aggrb=80913KB/s, minb=80913KB/s, maxb=80913KB/s, mint=60006msec, maxt=60006msec Disk stats (read/write): vda: ios=1198794/8, merge=0/4, ticks=294008/0, in_queue=293620, util=97.13% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14918: Fri Aug 9 13:36:59 2019 write: io=11840MB, bw=202049KB/s, iops=50512, runt= 60004msec clat (usec): min=3, max=148780, avg=101.62, stdev=1269.68 lat (usec): min=5, max=148782, avg=111.57, stdev=1359.30 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 5], 10.00th=[ 5], 20.00th=[ 5], | 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 7], 60.00th=[ 7], | 70.00th=[ 8], 80.00th=[ 9], 90.00th=[ 12], 95.00th=[ 15], | 99.00th=[ 498], 99.50th=[ 7264], 99.90th=[20096], 99.95th=[25472], | 99.99th=[36096] bw (KB /s): min= 0, max=34640, per=12.79%, avg=25851.29, stdev=4081.36 lat (usec) : 4=0.01%, 10=83.25%, 20=14.37%, 50=0.97%, 100=0.19% lat (usec) : 250=0.14%, 500=0.08%, 750=0.08%, 1000=0.05% lat (msec) : 2=0.09%, 4=0.12%, 10=0.30%, 20=0.26%, 50=0.11% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=3.44%, sys=6.63%, ctx=111831, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=3030936/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=11840MB, aggrb=202048KB/s, minb=202048KB/s, maxb=202048KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=142/1859138, merge=0/13538, ticks=132/2900344, in_queue=2900056, util=50.68% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14905: Fri Aug 9 13:35:58 2019 read : io=4862.9MB, bw=82985KB/s, iops=20746, runt= 60005msec clat (usec): min=55, max=41916, avg=373.89, stdev=646.76 lat (usec): min=56, max=41918, avg=375.90, stdev=647.57 clat percentiles (usec): | 1.00th=[ 93], 5.00th=[ 155], 10.00th=[ 201], 20.00th=[ 223], | 30.00th=[ 241], 40.00th=[ 262], 50.00th=[ 286], 60.00th=[ 310], | 70.00th=[ 346], 80.00th=[ 410], 90.00th=[ 540], 95.00th=[ 724], | 99.00th=[ 1688], 99.50th=[ 3088], 99.90th=[ 9152], 99.95th=[13888], | 99.99th=[24192] bw (KB /s): min= 5432, max=14842, per=12.51%, avg=10377.91, stdev=1508.66 lat (usec) : 100=1.51%, 250=33.24%, 500=53.18%, 750=7.51%, 1000=2.23% lat (msec) : 2=1.54%, 4=0.42%, 10=0.29%, 20=0.07%, 50=0.02% cpu : usr=2.47%, sys=7.27%, ctx=1256353, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1244880/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=4862.9MB, aggrb=82985KB/s, minb=82985KB/s, maxb=82985KB/s, mint=60005msec, maxt=60005msec Disk stats (read/write): vda: ios=1242472/8, merge=0/4, ticks=323432/0, in_queue=322888, util=98.79% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14931: Fri Aug 9 13:38:00 2019 write: io=1278.5MB, bw=21815KB/s, iops=5453, runt= 60008msec clat (usec): min=73, max=85953, avg=1453.88, stdev=5847.55 lat (usec): min=74, max=85955, avg=1455.93, stdev=5847.93 clat percentiles (usec): | 1.00th=[ 91], 5.00th=[ 100], 10.00th=[ 107], 20.00th=[ 120], | 30.00th=[ 131], 40.00th=[ 139], 50.00th=[ 147], 60.00th=[ 157], | 70.00th=[ 171], 80.00th=[ 195], 90.00th=[ 255], 95.00th=[ 2608], | 99.00th=[29824], 99.50th=[32640], 99.90th=[41728], 99.95th=[46336], | 99.99th=[62208] bw (KB /s): min= 1799, max= 4007, per=12.51%, avg=2728.25, stdev=332.39 lat (usec) : 100=4.58%, 250=85.00%, 500=4.55%, 750=0.45%, 1000=0.14% lat (msec) : 2=0.23%, 4=0.12%, 10=0.09%, 20=0.50%, 50=4.32% lat (msec) : 100=0.03% cpu : usr=0.82%, sys=3.82%, ctx=670541, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=327272/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=1278.5MB, aggrb=21815KB/s, minb=21815KB/s, maxb=21815KB/s, mint=60008msec, maxt=60008msec Disk stats (read/write): vda: ios=139/327181, merge=0/2105, ticks=0/42904, in_queue=42740, util=71.21% ``` **fio (NL)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=18176: Sat Aug 31 22:35:40 2019 read : io=5277.5MB, bw=90061KB/s, iops=22515, runt= 60005msec clat (usec): min=4, max=29089, avg=343.49, stdev=324.24 lat (usec): min=5, max=29090, avg=345.52, stdev=324.73 clat percentiles (usec): | 1.00th=[ 98], 5.00th=[ 151], 10.00th=[ 169], 20.00th=[ 193], | 30.00th=[ 211], 40.00th=[ 231], 50.00th=[ 258], 60.00th=[ 298], | 70.00th=[ 374], 80.00th=[ 462], 90.00th=[ 580], 95.00th=[ 732], | 99.00th=[ 1432], 99.50th=[ 1736], 99.90th=[ 2832], 99.95th=[ 3888], | 99.99th=[11968] bw (KB /s): min= 5195, max=14704, per=12.50%, avg=11256.88, stdev=1315.93 lat (usec) : 10=0.52%, 20=0.33%, 50=0.11%, 100=0.05%, 250=46.72% lat (usec) : 500=36.35%, 750=11.29%, 1000=2.42% lat (msec) : 2=1.92%, 4=0.23%, 10=0.04%, 20=0.01%, 50=0.01% cpu : usr=2.72%, sys=7.50%, ctx=1347767, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1351030/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=5277.5MB, aggrb=90061KB/s, minb=90061KB/s, maxb=90061KB/s, mint=60005msec, maxt=60005msec Disk stats (read/write): vda: ios=1335524/8, merge=0/4, ticks=280996/0, in_queue=280604, util=95.44% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=18210: Sat Aug 31 22:37:45 2019 write: io=11947MB, bw=203870KB/s, iops=50967, runt= 60009msec clat (usec): min=4, max=179317, avg=99.95, stdev=1275.88 lat (usec): min=5, max=179319, avg=110.44, stdev=1364.10 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 5], 20.00th=[ 6], | 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 7], 60.00th=[ 7], | 70.00th=[ 7], 80.00th=[ 8], 90.00th=[ 9], 95.00th=[ 12], | 99.00th=[ 235], 99.50th=[ 7456], 99.90th=[20352], 99.95th=[24704], | 99.99th=[33024] bw (KB /s): min= 0, max=31360, per=12.62%, avg=25722.15, stdev=3838.84 lat (usec) : 10=90.21%, 20=7.85%, 50=0.68%, 100=0.15%, 250=0.11% lat (usec) : 500=0.05%, 750=0.05%, 1000=0.04% lat (msec) : 2=0.08%, 4=0.11%, 10=0.27%, 20=0.27%, 50=0.11% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=3.82%, sys=6.31%, ctx=83743, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=3058507/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=11947MB, aggrb=203869KB/s, minb=203869KB/s, maxb=203869KB/s, mint=60009msec, maxt=60009msec Disk stats (read/write): vda: ios=105/1816322, merge=0/14012, ticks=12/2854440, in_queue=2854096, util=50.34% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=18189: Sat Aug 31 22:36:45 2019 read : io=6239.2MB, bw=106475KB/s, iops=26618, runt= 60004msec clat (usec): min=60, max=22025, avg=289.20, stdev=182.91 lat (usec): min=61, max=22026, avg=291.16, stdev=183.33 clat percentiles (usec): | 1.00th=[ 119], 5.00th=[ 143], 10.00th=[ 159], 20.00th=[ 179], | 30.00th=[ 197], 40.00th=[ 213], 50.00th=[ 233], 60.00th=[ 262], | 70.00th=[ 322], 80.00th=[ 398], 90.00th=[ 486], 95.00th=[ 572], | 99.00th=[ 804], 99.50th=[ 948], 99.90th=[ 1576], 99.95th=[ 2040], | 99.99th=[ 4384] bw (KB /s): min=10728, max=15296, per=12.51%, avg=13319.46, stdev=800.29 lat (usec) : 100=0.13%, 250=56.08%, 500=34.90%, 750=7.52%, 1000=0.97% lat (msec) : 2=0.35%, 4=0.04%, 10=0.01%, 20=0.01%, 50=0.01% cpu : usr=2.90%, sys=7.37%, ctx=1602606, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1597231/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=6239.2MB, aggrb=106474KB/s, minb=106474KB/s, maxb=106474KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=1596228/8, merge=0/4, ticks=310328/0, in_queue=309840, util=97.91% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=18223: Sat Aug 31 22:38:46 2019 write: io=940828KB, bw=15677KB/s, iops=3919, runt= 60013msec clat (usec): min=63, max=66982, avg=2025.70, stdev=6831.08 lat (usec): min=64, max=66985, avg=2028.27, stdev=6831.39 clat percentiles (usec): | 1.00th=[ 87], 5.00th=[ 101], 10.00th=[ 113], 20.00th=[ 137], | 30.00th=[ 157], 40.00th=[ 177], 50.00th=[ 199], 60.00th=[ 227], | 70.00th=[ 278], 80.00th=[ 386], 90.00th=[ 564], 95.00th=[24960], | 99.00th=[31104], 99.50th=[33024], 99.90th=[37120], 99.95th=[39680], | 99.99th=[51456] bw (KB /s): min= 924, max= 2897, per=12.51%, avg=1961.38, stdev=295.08 lat (usec) : 100=4.43%, 250=61.00%, 500=22.51%, 750=4.27%, 1000=0.74% lat (msec) : 2=0.41%, 4=0.09%, 10=0.03%, 20=0.07%, 50=6.44% lat (msec) : 100=0.01% cpu : usr=0.80%, sys=3.73%, ctx=480789, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=235207/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=940828KB, aggrb=15677KB/s, minb=15677KB/s, maxb=15677KB/s, mint=60013msec, maxt=60013msec Disk stats (read/write): vda: ios=107/235136, merge=0/2166, ticks=132/42060, in_queue=42084, util=69.93% ``` **Speedtest (RU)** ``` Retrieving speedtest.net configuration... Testing from Hosting technology LTD (185.231.154.182)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Beeline (Moscow) [1.61 km]: 10.909 ms Testing download speed................................................................................ Download: 178.50 Mbit/s Testing upload speed................................................................................................ Upload: 231.94 Mbit/s ``` **Speedtest (NL)** ``` Retrieving speedtest.net configuration... Testing from McHost.Ru (185.251.38.60)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by HugeServer Networks, LLC (Meppel) [0.74 km]: 4.525 ms Testing download speed................................................................................ Download: 429.74 Mbit/s Testing upload speed................................................................................................ Upload: 776.85 Mbit/s ``` ### Виртуальный сервер от Zomro: ![](https://habrastorage.org/r/w1560/webt/dx/1n/ms/dx1nmsjkg5t6igx4dmfwar_fdxg.png) * оборудование размещается в Нидерландах (Дронтен, ДЦ Serverius); * тариф Start (5 GB SSD / 1x 2.13 GHz CPU / 0.25 GB RAM / 10 Mbit/s за $0.99 в месяц); * минимальный срок аренды — 3 месяца. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 2.6.32-042stab128.2 -- #1 SMP Thu Mar 22 10:58:36 MSK 2018 Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="ANSI_X3.4-1968", collate="ANSI_X3.4-1968") CPU 0: Intel(R) Xeon(R) CPU L5630 @ 2.13GHz (4267.0 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 10:05:17 up 393 days, 21:23, 1 user, load average: 1.02, 0.68, 0.31; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Aug 01 2019 10:05:17 - 10:33:49 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 23112316.5 lps (10.0 s, 7 samples) Double-Precision Whetstone 2971.7 MWIPS (9.9 s, 7 samples) Execl Throughput 2567.9 lps (29.5 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 316297.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 86249.2 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 871594.9 KBps (30.0 s, 2 samples) Pipe Throughput 583546.7 lps (10.0 s, 7 samples) Pipe-based Context Switching 122504.2 lps (10.0 s, 7 samples) Process Creation 4953.8 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 4432.1 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 611.2 lpm (60.1 s, 2 samples) System Call Overhead 434561.8 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 23112316.5 1980.5 Double-Precision Whetstone 55.0 2971.7 540.3 Execl Throughput 43.0 2567.9 597.2 File Copy 1024 bufsize 2000 maxblocks 3960.0 316297.0 798.7 File Copy 256 bufsize 500 maxblocks 1655.0 86249.2 521.1 File Copy 4096 bufsize 8000 maxblocks 5800.0 871594.9 1502.7 Pipe Throughput 12440.0 583546.7 469.1 Pipe-based Context Switching 4000.0 122504.2 306.3 Process Creation 126.0 4953.8 393.2 Shell Scripts (1 concurrent) 42.4 4432.1 1045.3 Shell Scripts (8 concurrent) 6.0 611.2 1018.7 System Call Overhead 15000.0 434561.8 289.7 ======== System Benchmarks Index Score 661.1 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 40.3637 s, 53.2 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 38.1745 s, 56.3 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=11077: Thu Aug 1 11:12:41 2019 read : io=12056KB, bw=205208B/s, iops=50, runt= 60160msec clat (msec): min=1, max=281, avg=159.48, stdev=24.08 lat (msec): min=1, max=281, avg=159.48, stdev=24.08 clat percentiles (msec): | 1.00th=[ 21], 5.00th=[ 139], 10.00th=[ 141], 20.00th=[ 159], | 30.00th=[ 161], 40.00th=[ 161], 50.00th=[ 161], 60.00th=[ 161], | 70.00th=[ 161], 80.00th=[ 161], 90.00th=[ 180], 95.00th=[ 182], | 99.00th=[ 221], 99.50th=[ 241], 99.90th=[ 262], 99.95th=[ 281], | 99.99th=[ 281] lat (msec) : 2=0.03%, 20=0.23%, 50=1.06%, 100=0.53%, 250=97.88% lat (msec) : 500=0.27% cpu : usr=0.01%, sys=0.03%, ctx=6085, majf=0, minf=298 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=3014/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=12056KB, aggrb=200KB/s, minb=200KB/s, maxb=200KB/s, mint=60160msec, maxt=60160msec Disk stats (read/write): ploop46225p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=11110: Thu Aug 1 11:18:57 2019 write: io=191912KB, bw=3197.5KB/s, iops=799, runt= 60021msec clat (usec): min=3, max=36798K, avg=8462.52, stdev=335988.75 lat (usec): min=3, max=36798K, avg=8463.51, stdev=335988.78 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 6], 20.00th=[ 7], | 30.00th=[ 8], 40.00th=[ 8], 50.00th=[ 8], 60.00th=[ 9], | 70.00th=[ 12], 80.00th=[ 18], 90.00th=[ 2160], 95.00th=[ 4192], | 99.00th=[18304], 99.50th=[140288], 99.90th=[1449984], 99.95th=[1794048], | 99.99th=[16711680] lat (usec) : 4=0.01%, 10=60.67%, 20=20.72%, 50=3.64%, 100=0.60% lat (usec) : 250=0.19%, 500=0.01%, 750=0.02%, 1000=0.38% lat (msec) : 2=3.30%, 4=4.49%, 10=4.58%, 20=0.43%, 50=0.05% lat (msec) : 100=0.20%, 250=0.44%, 500=0.01%, 750=0.02%, 1000=0.03% lat (msec) : 2000=0.18%, >=2000=0.04% cpu : usr=0.04%, sys=0.19%, ctx=18235, majf=0, minf=286 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=47978/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=191912KB, aggrb=3197KB/s, minb=3197KB/s, maxb=3197KB/s, mint=60021msec, maxt=60021msec Disk stats (read/write): ploop46225p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=11090: Thu Aug 1 11:16:30 2019 read : io=12056KB, bw=205208B/s, iops=50, runt= 60160msec clat (msec): min=1, max=281, avg=159.49, stdev=27.57 lat (msec): min=1, max=281, avg=159.49, stdev=27.57 clat percentiles (msec): | 1.00th=[ 21], 5.00th=[ 121], 10.00th=[ 141], 20.00th=[ 159], | 30.00th=[ 161], 40.00th=[ 161], 50.00th=[ 161], 60.00th=[ 161], | 70.00th=[ 161], 80.00th=[ 161], 90.00th=[ 180], 95.00th=[ 200], | 99.00th=[ 241], 99.50th=[ 262], 99.90th=[ 281], 99.95th=[ 281], | 99.99th=[ 281] lat (msec) : 2=0.03%, 20=0.63%, 50=1.00%, 100=1.00%, 250=96.62% lat (msec) : 500=0.73% cpu : usr=0.01%, sys=0.03%, ctx=6047, majf=0, minf=290 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=3014/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=12056KB, aggrb=200KB/s, minb=200KB/s, maxb=200KB/s, mint=60160msec, maxt=60160msec Disk stats (read/write): ploop46225p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=11122: Thu Aug 1 11:20:28 2019 write: io=144828KB, bw=2413.6KB/s, iops=603, runt= 60007msec clat (usec): min=2, max=36999K, avg=10331.41, stdev=437479.93 lat (usec): min=2, max=36999K, avg=10332.25, stdev=437479.97 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 4], 10.00th=[ 5], 20.00th=[ 5], | 30.00th=[ 6], 40.00th=[ 6], 50.00th=[ 6], 60.00th=[ 6], | 70.00th=[ 7], 80.00th=[ 9], 90.00th=[ 16], 95.00th=[ 1992], | 99.00th=[100864], 99.50th=[140288], 99.90th=[1204224], 99.95th=[1548288], | 99.99th=[16711680] lat (usec) : 4=1.73%, 10=80.56%, 20=9.02%, 50=1.71%, 100=0.19% lat (usec) : 250=0.04%, 500=0.01%, 750=0.02%, 1000=0.25% lat (msec) : 2=1.50%, 4=1.66%, 10=1.55%, 20=0.40%, 50=0.10% lat (msec) : 100=0.22%, 250=0.90%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.09%, >=2000=0.04% cpu : usr=0.02%, sys=0.11%, ctx=10006, majf=0, minf=286 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=36207/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=144828KB, aggrb=2413KB/s, minb=2413KB/s, maxb=2413KB/s, mint=60007msec, maxt=60007msec Disk stats (read/write): ploop46225p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from NOTER-KLAV Private Enterprise (185.219.80.91)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by LinuxPro (Amsterdam) [1.13 km]: 7.442 ms Testing download speed................................................................................ Download: 48.50 Mbit/s Testing upload speed................................................................................................ Upload: 76.13 Mbit/s ``` ### Виртуальный сервер от Veesp: ![](https://habrastorage.org/r/w1560/webt/5b/ou/ml/5boumlmz9pyebi7p5_tcvplv9tq.png) * оборудование расположено в собственном ДЦ в Санкт-Петербурге (пр. Обуховской Обороны); * тариф HDD Sandbox (10 GB HDD / 1x 2.67 GHz CPU / 0.5 GB RAM / 200 Mbit/s, 0.1 TB трафика за 65 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-8-amd64 -- #1 SMP Debian 4.9.144-3.1 (2019-02-19) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: Intel(R) Xeon(R) CPU X5650 @ 2.67GHz (5333.5 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 18:07:28 up 8 min, 1 user, load average: 1.07, 1.00, 0.53; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Mon Sep 16 2019 18:07:28 - 18:35:37 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 25345643.6 lps (10.0 s, 7 samples) Double-Precision Whetstone 3438.1 MWIPS (9.9 s, 7 samples) Execl Throughput 3783.7 lps (29.6 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 527507.6 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 151963.5 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 1261205.9 KBps (30.0 s, 2 samples) Pipe Throughput 906688.5 lps (10.0 s, 7 samples) Pipe-based Context Switching 116073.9 lps (10.0 s, 7 samples) Process Creation 8518.9 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 6767.9 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 895.2 lpm (60.1 s, 2 samples) System Call Overhead 648188.7 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 25345643.6 2171.9 Double-Precision Whetstone 55.0 3438.1 625.1 Execl Throughput 43.0 3783.7 879.9 File Copy 1024 bufsize 2000 maxblocks 3960.0 527507.6 1332.1 File Copy 256 bufsize 500 maxblocks 1655.0 151963.5 918.2 File Copy 4096 bufsize 8000 maxblocks 5800.0 1261205.9 2174.5 Pipe Throughput 12440.0 906688.5 728.8 Pipe-based Context Switching 4000.0 116073.9 290.2 Process Creation 126.0 8518.9 676.1 Shell Scripts (1 concurrent) 42.4 6767.9 1596.2 Shell Scripts (8 concurrent) 6.0 895.2 1492.0 System Call Overhead 15000.0 648188.7 432.1 ======== System Benchmarks Index Score 938.6 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 24.6856 s, 87.0 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 64.7868 s, 33.1 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7870: Mon Sep 16 18:38:49 2019 read : io=43940KB, bw=749484B/s, iops=182, runt= 60034msec clat (usec): min=59, max=394340, avg=43701.14, stdev=33411.67 lat (usec): min=60, max=394341, avg=43702.00, stdev=33411.68 clat percentiles (usec): | 1.00th=[ 876], 5.00th=[ 7200], 10.00th=[11968], 20.00th=[20608], | 30.00th=[27776], 40.00th=[33024], 50.00th=[37632], 60.00th=[42240], | 70.00th=[48384], 80.00th=[58112], 90.00th=[77312], 95.00th=[103936], | 99.00th=[187392], 99.50th=[211968], 99.90th=[264192], 99.95th=[280576], | 99.99th=[325632] bw (KB /s): min= 20, max= 208, per=12.56%, avg=91.80, stdev=23.94 lat (usec) : 100=0.31%, 250=0.36%, 500=0.23%, 750=0.06%, 1000=0.06% lat (msec) : 2=0.26%, 4=1.20%, 10=5.49%, 20=11.40%, 50=52.59% lat (msec) : 100=22.58%, 250=5.28%, 500=0.17% cpu : usr=0.05%, sys=0.07%, ctx=11013, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=10985/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=43940KB, aggrb=731KB/s, minb=731KB/s, maxb=731KB/s, mint=60034msec, maxt=60034msec Disk stats (read/write): vda: ios=11133/8, merge=0/4, ticks=493100/428, in_queue=494484, util=96.94% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7897: Mon Sep 16 18:42:30 2019 write: io=133508KB, bw=1454.2KB/s, iops=363, runt= 91812msec clat (usec): min=2, max=40324K, avg=10794.49, stdev=460561.62 lat (usec): min=2, max=40324K, avg=10795.16, stdev=460561.65 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 4], | 30.00th=[ 4], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 4], | 70.00th=[ 5], 80.00th=[ 5], 90.00th=[ 7], 95.00th=[ 15], | 99.00th=[132096], 99.50th=[175104], 99.90th=[203776], 99.95th=[4685824], | 99.99th=[16711680] bw (KB /s): min= 0, max=23414, per=100.00%, avg=1795.50, stdev=4287.44 lat (usec) : 4=15.67%, 10=77.56%, 20=2.98%, 50=1.90%, 100=0.17% lat (usec) : 250=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2=0.01%, 4=0.01%, 10=0.07%, 20=0.28%, 50=0.18% lat (msec) : 100=0.06%, 250=1.00%, 500=0.02%, 1000=0.01%, 2000=0.01% lat (msec) : >=2000=0.06% cpu : usr=0.02%, sys=0.13%, ctx=27584, majf=0, minf=83 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=33377/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=133508KB, aggrb=1454KB/s, minb=1454KB/s, maxb=1454KB/s, mint=91812msec, maxt=91812msec Disk stats (read/write): vda: ios=169/15176, merge=0/12608, ticks=22232/115416, in_queue=137640, util=99.14% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7883: Mon Sep 16 18:40:28 2019 read : io=30852KB, bw=526198B/s, iops=128, runt= 60039msec clat (usec): min=66, max=686836, avg=62246.24, stdev=62045.44 lat (usec): min=67, max=686837, avg=62247.16, stdev=62045.43 clat percentiles (usec): | 1.00th=[ 1800], 5.00th=[ 6304], 10.00th=[10048], 20.00th=[18816], | 30.00th=[28288], 40.00th=[35584], 50.00th=[42752], 60.00th=[51456], | 70.00th=[67072], 80.00th=[94720], 90.00th=[140288], 95.00th=[185344], | 99.00th=[292864], 99.50th=[350208], 99.90th=[536576], 99.95th=[634880], | 99.99th=[684032] bw (KB /s): min= 5, max= 163, per=12.67%, avg=65.01, stdev=31.07 lat (usec) : 100=0.23%, 250=0.31%, 500=0.12%, 750=0.03%, 1000=0.06% lat (msec) : 2=0.38%, 4=1.66%, 10=7.07%, 20=11.20%, 50=37.83% lat (msec) : 100=22.47%, 250=17.01%, 500=1.53%, 750=0.10% cpu : usr=0.02%, sys=0.06%, ctx=7738, majf=0, minf=83 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=7713/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=30852KB, aggrb=513KB/s, minb=513KB/s, maxb=513KB/s, mint=60039msec, maxt=60039msec Disk stats (read/write): vda: ios=7669/8, merge=0/5, ticks=478044/828, in_queue=478972, util=99.88% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=7910: Mon Sep 16 18:43:33 2019 write: io=32548KB, bw=555060B/s, iops=135, runt= 60046msec clat (usec): min=171, max=4236.3K, avg=59003.70, stdev=264488.45 lat (usec): min=171, max=4236.3K, avg=59004.72, stdev=264488.53 clat percentiles (usec): | 1.00th=[ 262], 5.00th=[ 358], 10.00th=[ 474], 20.00th=[ 860], | 30.00th=[ 1528], 40.00th=[ 3536], 50.00th=[ 5536], 60.00th=[ 8032], | 70.00th=[ 8896], 80.00th=[12864], 90.00th=[20864], 95.00th=[61184], | 99.00th=[1253376], 99.50th=[1712128], 99.90th=[2899968], 99.95th=[3325952], | 99.99th=[4227072] bw (KB /s): min= 2, max= 229, per=14.10%, avg=76.41, stdev=32.24 lat (usec) : 250=0.74%, 500=10.19%, 750=6.96%, 1000=4.38% lat (msec) : 2=11.12%, 4=7.95%, 10=32.91%, 20=15.37%, 50=4.98% lat (msec) : 100=0.73%, 250=0.11%, 500=0.07%, 750=0.61%, 1000=1.67% lat (msec) : 2000=1.86%, >=2000=0.36% cpu : usr=0.03%, sys=0.09%, ctx=16695, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=8137/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=32548KB, aggrb=542KB/s, minb=542KB/s, maxb=542KB/s, mint=60046msec, maxt=60046msec Disk stats (read/write): vda: ios=170/8180, merge=0/594, ticks=19048/60876, in_queue=79924, util=98.62% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from Fishnet Communications LLC (94.242.58.40)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Orange Business Services, Russia & CIS (Moscow) [1.61 km]: 12.636 ms Testing download speed................................................................................ Download: 218.16 Mbit/s Testing upload speed................................................................................................ Upload: 189.89 Mbit/s ``` ### Виртуальный сервер от PQ.Hosting: ![](https://habrastorage.org/r/w1560/webt/y-/ca/b5/y-cab5wbtjxqf7x_wk6j9iogekm.png) * оборудование находится в России (Москва, ДЦ DataPro), Нидерландах (Меппел, ДЦ Serverius), Молдове (Кишинев, ДЦ Alexhost) и Латвии (Рига, ДЦ VERnet); * тариф Aluminium (15 GB SSD / 1x 2.8 GHz CPU / 1 GB RAM / 1000 Mbit/s за 1 евро в месяц). #### Тесты: **Unixbench (RU)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u3 (2019-06-16) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version (cpu64-rhel6) (5586.5 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 23:15:17 up 11:28, 1 user, load average: 0.00, 0.00, 0.00; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Mon Jun 24 2019 23:15:17 - 23:43:21 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 34123920.4 lps (10.0 s, 7 samples) Double-Precision Whetstone 4320.5 MWIPS (9.9 s, 7 samples) Execl Throughput 4163.6 lps (29.6 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 331033.8 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 92832.7 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 1021086.9 KBps (30.0 s, 2 samples) Pipe Throughput 490283.2 lps (10.0 s, 7 samples) Pipe-based Context Switching 117833.9 lps (10.0 s, 7 samples) Process Creation 10061.3 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 7836.1 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 981.6 lpm (60.0 s, 2 samples) System Call Overhead 326481.9 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 34123920.4 2924.1 Double-Precision Whetstone 55.0 4320.5 785.5 Execl Throughput 43.0 4163.6 968.3 File Copy 1024 bufsize 2000 maxblocks 3960.0 331033.8 835.9 File Copy 256 bufsize 500 maxblocks 1655.0 92832.7 560.9 File Copy 4096 bufsize 8000 maxblocks 5800.0 1021086.9 1760.5 Pipe Throughput 12440.0 490283.2 394.1 Pipe-based Context Switching 4000.0 117833.9 294.6 Process Creation 126.0 10061.3 798.5 Shell Scripts (1 concurrent) 42.4 7836.1 1848.1 Shell Scripts (8 concurrent) 6.0 981.6 1636.0 System Call Overhead 15000.0 326481.9 217.7 ======== System Benchmarks Index Score 833.2 ``` **Unixbench (NL)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u3 (2019-06-16) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version (cpu64-rhel6) (4000.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 17:48:01 up 30 days, 19:48, 1 user, load average: 0.79, 0.39, 0.16; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Sun Sep 01 2019 17:48:01 - 18:15:49 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 17944619.4 lps (10.0 s, 7 samples) Double-Precision Whetstone 2541.3 MWIPS (8.2 s, 7 samples) Execl Throughput 1955.3 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 152651.9 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 38882.7 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 445940.9 KBps (30.0 s, 2 samples) Pipe Throughput 224267.3 lps (10.0 s, 7 samples) Pipe-based Context Switching 52138.8 lps (10.0 s, 7 samples) Process Creation 4483.9 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 3753.9 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 486.1 lpm (60.1 s, 2 samples) System Call Overhead 151653.5 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 17944619.4 1537.7 Double-Precision Whetstone 55.0 2541.3 462.1 Execl Throughput 43.0 1955.3 454.7 File Copy 1024 bufsize 2000 maxblocks 3960.0 152651.9 385.5 File Copy 256 bufsize 500 maxblocks 1655.0 38882.7 234.9 File Copy 4096 bufsize 8000 maxblocks 5800.0 445940.9 768.9 Pipe Throughput 12440.0 224267.3 180.3 Pipe-based Context Switching 4000.0 52138.8 130.3 Process Creation 126.0 4483.9 355.9 Shell Scripts (1 concurrent) 42.4 3753.9 885.4 Shell Scripts (8 concurrent) 6.0 486.1 810.2 System Call Overhead 15000.0 151653.5 101.1 ======== System Benchmarks Index Score 393.2 ``` **Unixbench (MD)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u3 (2019-06-16) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version (cpu64-rhel6) (5600.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 17:51:08 up 13 days, 3:34, 1 user, load average: 1.07, 0.68, 0.33; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Sun Sep 01 2019 17:51:08 - 18:19:23 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 22940127.9 lps (10.0 s, 7 samples) Double-Precision Whetstone 3493.9 MWIPS (9.8 s, 7 samples) Execl Throughput 2580.9 lps (29.7 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 190422.3 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 52531.5 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 624248.2 KBps (30.0 s, 2 samples) Pipe Throughput 319487.7 lps (10.0 s, 7 samples) Pipe-based Context Switching 76614.0 lps (10.0 s, 7 samples) Process Creation 5971.0 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 4097.2 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 534.9 lpm (60.0 s, 2 samples) System Call Overhead 215310.8 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 22940127.9 1965.7 Double-Precision Whetstone 55.0 3493.9 635.3 Execl Throughput 43.0 2580.9 600.2 File Copy 1024 bufsize 2000 maxblocks 3960.0 190422.3 480.9 File Copy 256 bufsize 500 maxblocks 1655.0 52531.5 317.4 File Copy 4096 bufsize 8000 maxblocks 5800.0 624248.2 1076.3 Pipe Throughput 12440.0 319487.7 256.8 Pipe-based Context Switching 4000.0 76614.0 191.5 Process Creation 126.0 5971.0 473.9 Shell Scripts (1 concurrent) 42.4 4097.2 966.3 Shell Scripts (8 concurrent) 6.0 534.9 891.5 System Call Overhead 15000.0 215310.8 143.5 ======== System Benchmarks Index Score 515.8 ``` **Unixbench (LV)** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-11-amd64 -- #1 SMP Debian 4.9.189-3 (2019-09-02) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version (cpu64-rhel6) (5586.5 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 18:46:26 up 4 days, 21:45, 1 user, load average: 0.53, 0.14, 0.05; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Mon Sep 16 2019 18:46:26 - 19:14:30 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 34241148.6 lps (10.0 s, 7 samples) Double-Precision Whetstone 4298.3 MWIPS (9.9 s, 7 samples) Execl Throughput 3739.1 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 293843.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 80365.6 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 885168.5 KBps (30.0 s, 2 samples) Pipe Throughput 404089.8 lps (10.0 s, 7 samples) Pipe-based Context Switching 109078.4 lps (10.0 s, 7 samples) Process Creation 9123.2 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 6840.3 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 889.1 lpm (60.0 s, 2 samples) System Call Overhead 249437.8 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 34241148.6 2934.1 Double-Precision Whetstone 55.0 4298.3 781.5 Execl Throughput 43.0 3739.1 869.6 File Copy 1024 bufsize 2000 maxblocks 3960.0 293843.0 742.0 File Copy 256 bufsize 500 maxblocks 1655.0 80365.6 485.6 File Copy 4096 bufsize 8000 maxblocks 5800.0 885168.5 1526.2 Pipe Throughput 12440.0 404089.8 324.8 Pipe-based Context Switching 4000.0 109078.4 272.7 Process Creation 126.0 9123.2 724.1 Shell Scripts (1 concurrent) 42.4 6840.3 1613.3 Shell Scripts (8 concurrent) 6.0 889.1 1481.8 System Call Overhead 15000.0 249437.8 166.3 ======== System Benchmarks Index Score 742.2 ``` **dd (RU)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 5.20811 s, 412 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 5.7549 s, 373 MB/s ``` **dd (NL)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 14.9915 s, 143 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 14.8393 s, 145 MB/s ``` **dd (MD)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 8.36403 s, 257 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 19.328 s, 111 MB/s ``` **dd (LV)**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 5.94689 s, 361 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 7.10417 s, 302 MB/s ``` **fio (RU)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=20549: Mon Jun 24 23:44:39 2019 read : io=8230.4MB, bw=140461KB/s, iops=35115, runt= 60001msec clat (usec): min=3, max=13440, avg=220.09, stdev=168.87 lat (usec): min=4, max=21543, avg=221.70, stdev=169.80 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 6], 10.00th=[ 113], 20.00th=[ 149], | 30.00th=[ 169], 40.00th=[ 187], 50.00th=[ 205], 60.00th=[ 223], | 70.00th=[ 249], 80.00th=[ 282], 90.00th=[ 334], 95.00th=[ 386], | 99.00th=[ 564], 99.50th=[ 716], 99.90th=[ 2736], 99.95th=[ 3216], | 99.99th=[ 4256] lat (usec) : 4=0.13%, 10=5.20%, 20=0.85%, 50=0.10%, 100=1.87% lat (usec) : 250=62.54%, 500=27.78%, 750=1.09%, 1000=0.15% lat (msec) : 2=0.10%, 4=0.20%, 10=0.01%, 20=0.01% cpu : usr=3.46%, sys=8.52%, ctx=1981547, majf=3, minf=95 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=2106957/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=8230.4MB, aggrb=140461KB/s, minb=140461KB/s, maxb=140461KB/s, mint=60001msec, maxt=60001msec Disk stats (read/write): vda: ios=1974597/13, merge=0/3, ticks=96360/0, in_queue=95732, util=90.63% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=20575: Mon Jun 24 23:46:40 2019 write: io=18781MB, bw=319092KB/s, iops=79772, runt= 60269msec clat (usec): min=3, max=351032, avg=62.03, stdev=1149.91 lat (usec): min=4, max=360051, avg=70.29, stdev=1224.93 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 4], 10.00th=[ 4], 20.00th=[ 4], | 30.00th=[ 4], 40.00th=[ 5], 50.00th=[ 5], 60.00th=[ 5], | 70.00th=[ 5], 80.00th=[ 5], 90.00th=[ 6], 95.00th=[ 7], | 99.00th=[ 13], 99.50th=[ 1272], 99.90th=[16512], 99.95th=[21376], | 99.99th=[30080] lat (usec) : 4=0.57%, 10=97.74%, 20=0.89%, 50=0.08%, 100=0.08% lat (usec) : 250=0.05%, 500=0.05%, 750=0.02%, 1000=0.01% lat (msec) : 2=0.04%, 4=0.07%, 10=0.17%, 20=0.17%, 50=0.06% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=4.92%, sys=5.80%, ctx=85278, majf=0, minf=54 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=4807836/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=18781MB, aggrb=319091KB/s, minb=319091KB/s, maxb=319091KB/s, mint=60269msec, maxt=60269msec Disk stats (read/write): vda: ios=363/1745565, merge=0/10995, ticks=16/4723708, in_queue=4752280, util=70.07% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: (groupid=0, jobs=8): err= 0: pid=20560: Mon Jun 24 23:45:39 2019 read : io=8760.7MB, bw=149512KB/s, iops=37378, runt= 60001msec clat (usec): min=29, max=20597, avg=205.81, stdev=110.27 lat (usec): min=30, max=20599, avg=207.40, stdev=110.93 clat percentiles (usec): | 1.00th=[ 82], 5.00th=[ 110], 10.00th=[ 126], 20.00th=[ 147], | 30.00th=[ 163], 40.00th=[ 175], 50.00th=[ 189], 60.00th=[ 203], | 70.00th=[ 225], 80.00th=[ 253], 90.00th=[ 298], 95.00th=[ 338], | 99.00th=[ 494], 99.50th=[ 588], 99.90th=[ 1080], 99.95th=[ 1736], | 99.99th=[ 3984] lat (usec) : 50=0.02%, 100=2.80%, 250=76.22%, 500=20.00%, 750=0.73% lat (usec) : 1000=0.11% lat (msec) : 2=0.07%, 4=0.03%, 10=0.01%, 20=0.01%, 50=0.01% cpu : usr=3.73%, sys=8.41%, ctx=2248153, majf=0, minf=58 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=2242722/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=8760.7MB, aggrb=149512KB/s, minb=149512KB/s, maxb=149512KB/s, mint=60001msec, maxt=60001msec Disk stats (read/write): vda: ios=2237967/9, merge=0/8, ticks=105964/0, in_queue=105332, util=93.73% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: (groupid=0, jobs=8): err= 0: pid=20592: Mon Jun 24 23:47:41 2019 write: io=2217.5MB, bw=37841KB/s, iops=9460, runt= 60004msec clat (usec): min=55, max=280991, avg=834.96, stdev=5125.29 lat (usec): min=56, max=280992, avg=836.46, stdev=5125.35 clat percentiles (usec): | 1.00th=[ 64], 5.00th=[ 70], 10.00th=[ 74], 20.00th=[ 79], | 30.00th=[ 83], 40.00th=[ 84], 50.00th=[ 86], 60.00th=[ 89], | 70.00th=[ 93], 80.00th=[ 102], 90.00th=[ 123], 95.00th=[ 167], | 99.00th=[26240], 99.50th=[27264], 99.90th=[30080], 99.95th=[31872], | 99.99th=[230400] lat (usec) : 100=78.04%, 250=18.60%, 500=0.47%, 750=0.04%, 1000=0.03% lat (msec) : 2=0.05%, 4=0.01%, 10=0.01%, 20=0.01%, 50=2.73% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=0.98%, sys=3.50%, ctx=1151513, majf=0, minf=68 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=567657/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=2217.5MB, aggrb=37841KB/s, minb=37841KB/s, maxb=37841KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=0/575378, merge=0/20, ticks=0/64376, in_queue=64272, util=72.92% ``` **fio (NL)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=31842: Sun Sep 1 18:17:37 2019 read : io=2425.7MB, bw=41395KB/s, iops=10348, runt= 60003msec clat (usec): min=5, max=825845, avg=735.78, stdev=3960.80 lat (usec): min=7, max=825848, avg=741.91, stdev=3967.13 clat percentiles (usec): | 1.00th=[ 8], 5.00th=[ 147], 10.00th=[ 221], 20.00th=[ 298], | 30.00th=[ 350], 40.00th=[ 410], 50.00th=[ 478], 60.00th=[ 564], | 70.00th=[ 676], 80.00th=[ 852], 90.00th=[ 1192], 95.00th=[ 1704], | 99.00th=[ 4384], 99.50th=[ 6688], 99.90th=[19584], 99.95th=[29056], | 99.99th=[90624] bw (KB /s): min= 35, max= 8400, per=12.73%, avg=5269.91, stdev=2141.82 lat (usec) : 10=2.32%, 20=1.44%, 50=0.16%, 100=0.10%, 250=9.09% lat (usec) : 500=39.62%, 750=21.80%, 1000=11.07% lat (msec) : 2=10.71%, 4=2.52%, 10=0.90%, 20=0.17%, 50=0.07% lat (msec) : 100=0.02%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% cpu : usr=3.08%, sys=6.95%, ctx=592221, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=620961/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=2425.7MB, aggrb=41395KB/s, minb=41395KB/s, maxb=41395KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=594911/18, merge=0/14, ticks=171728/52, in_queue=171344, util=84.01% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=31871: Sun Sep 1 18:19:59 2019 write: io=5841.6MB, bw=99669KB/s, iops=24917, runt= 60016msec clat (usec): min=5, max=1182.1K, avg=185.99, stdev=4524.79 lat (usec): min=7, max=1182.1K, avg=208.32, stdev=4665.58 clat percentiles (usec): | 1.00th=[ 7], 5.00th=[ 7], 10.00th=[ 8], 20.00th=[ 9], | 30.00th=[ 10], 40.00th=[ 11], 50.00th=[ 11], 60.00th=[ 11], | 70.00th=[ 12], 80.00th=[ 12], 90.00th=[ 14], 95.00th=[ 17], | 99.00th=[ 1384], 99.50th=[12096], 99.90th=[28032], 99.95th=[33536], | 99.99th=[105984] bw (KB /s): min= 0, max=21832, per=13.67%, avg=13624.13, stdev=4833.63 lat (usec) : 10=21.53%, 20=74.46%, 50=2.26%, 100=0.30%, 250=0.30% lat (usec) : 500=0.06%, 750=0.03%, 1000=0.02% lat (msec) : 2=0.06%, 4=0.10%, 10=0.28%, 20=0.35%, 50=0.22% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 2000=0.01% cpu : usr=4.67%, sys=5.46%, ctx=46646, majf=0, minf=69 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=1495438/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=5841.6MB, aggrb=99669KB/s, minb=99669KB/s, maxb=99669KB/s, mint=60016msec, maxt=60016msec Disk stats (read/write): vda: ios=293/392197, merge=0/6829, ticks=1880/4791112, in_queue=4793768, util=82.90% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=31858: Sun Sep 1 18:18:59 2019 read : io=2344.4MB, bw=40008KB/s, iops=10001, runt= 60004msec clat (usec): min=53, max=1300.2K, avg=763.80, stdev=3474.39 lat (usec): min=55, max=1300.2K, avg=769.36, stdev=3476.61 clat percentiles (usec): | 1.00th=[ 143], 5.00th=[ 207], 10.00th=[ 253], 20.00th=[ 318], | 30.00th=[ 378], 40.00th=[ 450], 50.00th=[ 540], 60.00th=[ 652], | 70.00th=[ 772], 80.00th=[ 940], 90.00th=[ 1288], 95.00th=[ 1784], | 99.00th=[ 3856], 99.50th=[ 5600], 99.90th=[13120], 99.95th=[19328], | 99.99th=[44800] bw (KB /s): min= 9, max= 8496, per=12.69%, avg=5076.46, stdev=1793.14 lat (usec) : 100=0.10%, 250=9.49%, 500=35.90%, 750=22.95%, 1000=14.00% lat (msec) : 2=13.76%, 4=2.87%, 10=0.75%, 20=0.13%, 50=0.04% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01% cpu : usr=3.23%, sys=6.54%, ctx=601201, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=600154/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=2344.4MB, aggrb=40007KB/s, minb=40007KB/s, maxb=40007KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=598966/9, merge=0/5, ticks=194768/4, in_queue=194352, util=86.55% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=31896: Sun Sep 1 18:21:01 2019 write: io=758060KB, bw=12632KB/s, iops=3158, runt= 60011msec clat (usec): min=98, max=533622, avg=2511.65, stdev=11053.52 lat (usec): min=100, max=533625, avg=2515.25, stdev=11054.15 clat percentiles (usec): | 1.00th=[ 131], 5.00th=[ 143], 10.00th=[ 155], 20.00th=[ 177], | 30.00th=[ 197], 40.00th=[ 217], 50.00th=[ 237], 60.00th=[ 266], | 70.00th=[ 302], 80.00th=[ 370], 90.00th=[ 644], 95.00th=[25728], | 99.00th=[32384], 99.50th=[35584], 99.90th=[48896], 99.95th=[119296], | 99.99th=[460800] bw (KB /s): min= 106, max= 2561, per=12.73%, avg=1608.20, stdev=391.86 lat (usec) : 100=0.01%, 250=54.90%, 500=32.31%, 750=3.63%, 1000=0.85% lat (msec) : 2=0.59%, 4=0.16%, 10=0.09%, 20=0.10%, 50=7.27% lat (msec) : 100=0.04%, 250=0.01%, 500=0.03%, 750=0.01% cpu : usr=0.84%, sys=3.27%, ctx=394058, majf=0, minf=67 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=189515/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=758060KB, aggrb=12632KB/s, minb=12632KB/s, maxb=12632KB/s, mint=60011msec, maxt=60011msec Disk stats (read/write): vda: ios=135/189261, merge=0/2310, ticks=260/47292, in_queue=47780, util=72.85% ``` **fio (MD)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=725: Sun Sep 1 18:21:06 2019 read : io=3620.1MB, bw=61795KB/s, iops=15448, runt= 60002msec clat (usec): min=4, max=421928, avg=499.00, stdev=1567.53 lat (usec): min=5, max=421929, avg=502.28, stdev=1570.05 clat percentiles (usec): | 1.00th=[ 6], 5.00th=[ 120], 10.00th=[ 177], 20.00th=[ 235], | 30.00th=[ 274], 40.00th=[ 314], 50.00th=[ 358], 60.00th=[ 410], | 70.00th=[ 486], 80.00th=[ 596], 90.00th=[ 836], 95.00th=[ 1128], | 99.00th=[ 2832], 99.50th=[ 4320], 99.90th=[ 8768], 99.95th=[11968], | 99.99th=[34048] bw (KB /s): min= 63, max=11864, per=12.53%, avg=7743.07, stdev=2025.73 lat (usec) : 10=2.82%, 20=0.24%, 50=0.21%, 100=0.65%, 250=19.78% lat (usec) : 500=48.02%, 750=15.78%, 1000=5.98% lat (msec) : 2=4.82%, 4=1.12%, 10=0.51%, 20=0.06%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=3.16%, sys=6.70%, ctx=895140, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=926956/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3620.1MB, aggrb=61795KB/s, minb=61795KB/s, maxb=61795KB/s, mint=60002msec, maxt=60002msec Disk stats (read/write): vda: ios=895284/9, merge=0/6, ticks=192912/48, in_queue=192488, util=88.29% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=751: Sun Sep 1 18:23:20 2019 write: io=5957.5MB, bw=101655KB/s, iops=25413, runt= 60011msec clat (usec): min=4, max=3615.9K, avg=210.69, stdev=12600.90 lat (usec): min=5, max=3615.9K, avg=228.05, stdev=12685.41 clat percentiles (usec): | 1.00th=[ 5], 5.00th=[ 5], 10.00th=[ 6], 20.00th=[ 7], | 30.00th=[ 7], 40.00th=[ 8], 50.00th=[ 8], 60.00th=[ 8], | 70.00th=[ 9], 80.00th=[ 9], 90.00th=[ 10], 95.00th=[ 13], | 99.00th=[ 147], 99.50th=[ 7968], 99.90th=[28032], 99.95th=[36096], | 99.99th=[254976] bw (KB /s): min= 0, max=28111, per=15.41%, avg=15665.93, stdev=7515.70 lat (usec) : 10=84.10%, 20=13.19%, 50=1.12%, 100=0.42%, 250=0.27% lat (usec) : 500=0.07%, 750=0.03%, 1000=0.02% lat (msec) : 2=0.06%, 4=0.09%, 10=0.21%, 20=0.23%, 50=0.17% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01%, >=2000=0.01% cpu : usr=3.78%, sys=4.40%, ctx=44638, majf=0, minf=70 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=1525105/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=5957.5MB, aggrb=101655KB/s, minb=101655KB/s, maxb=101655KB/s, mint=60011msec, maxt=60011msec Disk stats (read/write): vda: ios=260/271490, merge=0/9232, ticks=3700/6093556, in_queue=6097168, util=94.72% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=738: Sun Sep 1 18:22:19 2019 read : io=3310.5MB, bw=56495KB/s, iops=14123, runt= 60003msec clat (usec): min=41, max=56402, avg=545.26, stdev=795.74 lat (usec): min=42, max=56404, avg=548.75, stdev=801.70 clat percentiles (usec): | 1.00th=[ 104], 5.00th=[ 151], 10.00th=[ 187], 20.00th=[ 239], | 30.00th=[ 282], 40.00th=[ 326], 50.00th=[ 382], 60.00th=[ 454], | 70.00th=[ 540], 80.00th=[ 668], 90.00th=[ 924], 95.00th=[ 1272], | 99.00th=[ 3184], 99.50th=[ 4832], 99.90th=[10304], 99.95th=[13888], | 99.99th=[24192] bw (KB /s): min= 3608, max=10648, per=12.52%, avg=7072.14, stdev=1259.64 lat (usec) : 50=0.01%, 100=0.75%, 250=21.84%, 500=42.72%, 750=18.85% lat (usec) : 1000=7.58% lat (msec) : 2=6.04%, 4=1.54%, 10=0.57%, 20=0.09%, 50=0.02% lat (msec) : 100=0.01% cpu : usr=3.02%, sys=6.29%, ctx=845766, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=847462/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3310.5MB, aggrb=56494KB/s, minb=56494KB/s, maxb=56494KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=846682/11, merge=0/6, ticks=224952/40, in_queue=224480, util=89.22% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=768: Sun Sep 1 18:24:21 2019 write: io=912340KB, bw=15195KB/s, iops=3798, runt= 60043msec clat (usec): min=70, max=2025.8K, avg=2091.37, stdev=19475.86 lat (usec): min=72, max=2025.8K, avg=2093.79, stdev=19475.96 clat percentiles (usec): | 1.00th=[ 93], 5.00th=[ 104], 10.00th=[ 113], 20.00th=[ 129], | 30.00th=[ 141], 40.00th=[ 153], 50.00th=[ 165], 60.00th=[ 183], | 70.00th=[ 207], 80.00th=[ 253], 90.00th=[ 418], 95.00th=[22400], | 99.00th=[35072], 99.50th=[38656], 99.90th=[48384], 99.95th=[79360], | 99.99th=[1011712] bw (KB /s): min= 33, max= 3175, per=13.41%, avg=2037.35, stdev=545.73 lat (usec) : 100=2.70%, 250=76.85%, 500=11.94%, 750=1.65%, 1000=0.54% lat (msec) : 2=0.56%, 4=0.30%, 10=0.15%, 20=0.04%, 50=5.17% lat (msec) : 100=0.05%, 250=0.01%, 500=0.02%, 750=0.01%, 2000=0.01% lat (msec) : >=2000=0.01% cpu : usr=0.71%, sys=2.70%, ctx=468028, majf=0, minf=84 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=228085/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=912340KB, aggrb=15194KB/s, minb=15194KB/s, maxb=15194KB/s, mint=60043msec, maxt=60043msec Disk stats (read/write): vda: ios=251/228180, merge=0/2274, ticks=54132/54884, in_queue=109212, util=77.85% ``` **fio (LV)**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30260: Mon Sep 16 19:15:51 2019 read : io=7298.2MB, bw=124552KB/s, iops=31138, runt= 60001msec clat (usec): min=3, max=9331, avg=246.19, stdev=184.71 lat (usec): min=4, max=9332, avg=248.14, stdev=185.21 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 5], 10.00th=[ 118], 20.00th=[ 163], | 30.00th=[ 187], 40.00th=[ 209], 50.00th=[ 229], 60.00th=[ 249], | 70.00th=[ 274], 80.00th=[ 318], 90.00th=[ 386], 95.00th=[ 450], | 99.00th=[ 700], 99.50th=[ 1020], 99.90th=[ 2768], 99.95th=[ 3088], | 99.99th=[ 4320] bw (KB /s): min= 9640, max=19312, per=12.50%, avg=15564.41, stdev=1923.50 lat (usec) : 4=0.03%, 10=6.21%, 20=1.06%, 50=0.19%, 100=1.00% lat (usec) : 250=51.87%, 500=36.50%, 750=2.29%, 1000=0.35% lat (msec) : 2=0.29%, 4=0.21%, 10=0.02% cpu : usr=4.11%, sys=7.96%, ctx=1736633, majf=2, minf=79 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1868316/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=7298.2MB, aggrb=124552KB/s, minb=124552KB/s, maxb=124552KB/s, mint=60001msec, maxt=60001msec Disk stats (read/write): vda: ios=1723192/7, merge=0/6, ticks=92616/0, in_queue=92060, util=89.49% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30298: Mon Sep 16 19:17:59 2019 write: io=15828MB, bw=270089KB/s, iops=67522, runt= 60009msec clat (usec): min=3, max=422856, avg=67.39, stdev=1253.64 lat (usec): min=4, max=422858, avg=76.81, stdev=1334.49 clat percentiles (usec): | 1.00th=[ 4], 5.00th=[ 4], 10.00th=[ 4], 20.00th=[ 4], | 30.00th=[ 5], 40.00th=[ 5], 50.00th=[ 5], 60.00th=[ 5], | 70.00th=[ 5], 80.00th=[ 6], 90.00th=[ 7], 95.00th=[ 9], | 99.00th=[ 21], 99.50th=[ 1752], 99.90th=[18304], 99.95th=[23936], | 99.99th=[32128] bw (KB /s): min= 0, max=45536, per=12.74%, avg=34396.28, stdev=6030.11 lat (usec) : 4=0.06%, 10=96.62%, 20=2.29%, 50=0.26%, 100=0.09% lat (usec) : 250=0.06%, 500=0.05%, 750=0.03%, 1000=0.02% lat (msec) : 2=0.05%, 4=0.07%, 10=0.16%, 20=0.17%, 50=0.08% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=5.44%, sys=5.56%, ctx=82279, majf=0, minf=84 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=4051946/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=15828MB, aggrb=270089KB/s, minb=270089KB/s, maxb=270089KB/s, mint=60009msec, maxt=60009msec Disk stats (read/write): vda: ios=563/1293995, merge=0/12052, ticks=1668/3813796, in_queue=3815344, util=58.45% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30277: Mon Sep 16 19:16:58 2019 read : io=7164.9MB, bw=122276KB/s, iops=30569, runt= 60002msec clat (usec): min=32, max=26274, avg=250.65, stdev=211.58 lat (usec): min=33, max=26276, avg=252.67, stdev=212.56 clat percentiles (usec): | 1.00th=[ 91], 5.00th=[ 122], 10.00th=[ 141], 20.00th=[ 165], | 30.00th=[ 185], 40.00th=[ 203], 50.00th=[ 219], 60.00th=[ 239], | 70.00th=[ 266], 80.00th=[ 306], 90.00th=[ 374], 95.00th=[ 438], | 99.00th=[ 740], 99.50th=[ 1048], 99.90th=[ 2672], 99.95th=[ 3856], | 99.99th=[ 7392] bw (KB /s): min= 3904, max=19992, per=12.50%, avg=15288.18, stdev=2617.92 lat (usec) : 50=0.02%, 100=1.70%, 250=62.96%, 500=32.36%, 750=1.99% lat (usec) : 1000=0.43% lat (msec) : 2=0.37%, 4=0.12%, 10=0.04%, 20=0.01%, 50=0.01% cpu : usr=4.16%, sys=7.65%, ctx=1839930, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1834207/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=7164.9MB, aggrb=122276KB/s, minb=122276KB/s, maxb=122276KB/s, mint=60002msec, maxt=60002msec Disk stats (read/write): vda: ios=1831922/10, merge=0/5, ticks=111128/0, in_queue=110548, util=92.60% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=30314: Mon Sep 16 19:18:59 2019 write: io=2170.5MB, bw=37039KB/s, iops=9259, runt= 60005msec clat (usec): min=55, max=281711, avg=854.04, stdev=4932.61 lat (usec): min=56, max=281713, avg=855.74, stdev=4932.69 clat percentiles (usec): | 1.00th=[ 63], 5.00th=[ 68], 10.00th=[ 71], 20.00th=[ 79], | 30.00th=[ 84], 40.00th=[ 85], 50.00th=[ 87], 60.00th=[ 90], | 70.00th=[ 95], 80.00th=[ 105], 90.00th=[ 125], 95.00th=[ 181], | 99.00th=[24704], 99.50th=[25472], 99.90th=[27776], 99.95th=[29568], | 99.99th=[201728] bw (KB /s): min= 1988, max= 6319, per=12.57%, avg=4657.35, stdev=751.24 lat (usec) : 100=74.81%, 250=21.30%, 500=0.65%, 750=0.06%, 1000=0.02% lat (msec) : 2=0.03%, 4=0.01%, 10=0.01%, 20=0.26%, 50=2.84% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=1.21%, sys=3.69%, ctx=1128730, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=555638/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=2170.5MB, aggrb=37039KB/s, minb=37039KB/s, maxb=37039KB/s, mint=60005msec, maxt=60005msec Disk stats (read/write): vda: ios=201/555186, merge=0/1670, ticks=264/43420, in_queue=43564, util=68.46% ``` **Speedtest (RU)** ``` Retrieving speedtest.net configuration... Testing from Webhost LLC (45.67.230.12)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Moldtelecom JSC (Chisinau) [8.15 km]: 34.064 ms Testing download speed................................................................................ Download: 65.92 Mbit/s Testing upload speed................................................................................................ Upload: 74.83 Mbit/s ``` **Speedtest (NL)** ``` Retrieving speedtest.net configuration... Testing from Pq Hosting S.r.l. (45.67.228.18)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Solcon (Dronten) [37.27 km]: 24.408 ms Testing download speed................................................................................ Download: 532.35 Mbit/s Testing upload speed................................................................................................ Upload: 243.09 Mbit/s ``` **Speedtest (MD)** ``` Retrieving speedtest.net configuration... Testing from Pq Hosting S.r.l. (45.67.229.16)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by trabia network (Chisinau) [4.54 km]: 27.908 ms Testing download speed................................................................................ Download: 576.51 Mbit/s Testing upload speed................................................................................................ Upload: 448.82 Mbit/s ``` **Speedtest (LV)** ``` Retrieving speedtest.net configuration... Testing from Pq Hosting S.r.l. (45.142.213.19)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by AS Balticom (Riga) [54.59 km]: 21.875 ms Testing download speed................................................................................ Download: 159.01 Mbit/s Testing upload speed................................................................................................ Upload: 177.19 Mbit/s ``` ### Виртуальный сервер от Good-Host: ![](https://habrastorage.org/r/w1560/webt/c2/mk/fq/c2mkfqony0snl3mzf82xtxgstms.png) * оборудование во Франции (Гравлин, ДЦ OVH); * тариф FR-KVM-Micro (5 GB SSD / 1x 4.2 GHz CPU / 0.4 GB RAM / 50 Mbit/s за 79 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-8-amd64 -- #1 SMP Debian 4.9.144-3 (2019-02-02) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 1.5.3 (8400.0 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 17:16:59 up 95 days, 5:52, 1 user, load average: 0.75, 0.27, 0.10; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Aug 08 2019 17:16:59 - 17:46:19 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 44766634.3 lps (10.0 s, 7 samples) Double-Precision Whetstone 3458.0 MWIPS (16.7 s, 7 samples) Execl Throughput 4181.1 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 327836.3 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 90502.7 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 1034806.4 KBps (30.0 s, 2 samples) Pipe Throughput 457766.5 lps (10.0 s, 7 samples) Pipe-based Context Switching 101717.1 lps (10.0 s, 7 samples) Process Creation 10014.0 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 7089.9 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 857.8 lpm (60.0 s, 2 samples) System Call Overhead 437065.5 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 44766634.3 3836.0 Double-Precision Whetstone 55.0 3458.0 628.7 Execl Throughput 43.0 4181.1 972.4 File Copy 1024 bufsize 2000 maxblocks 3960.0 327836.3 827.9 File Copy 256 bufsize 500 maxblocks 1655.0 90502.7 546.8 File Copy 4096 bufsize 8000 maxblocks 5800.0 1034806.4 1784.1 Pipe Throughput 12440.0 457766.5 368.0 Pipe-based Context Switching 4000.0 101717.1 254.3 Process Creation 126.0 10014.0 794.8 Shell Scripts (1 concurrent) 42.4 7089.9 1672.1 Shell Scripts (8 concurrent) 6.0 857.8 1429.6 System Call Overhead 15000.0 437065.5 291.4 ======== System Benchmarks Index Score 824.1 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 3.95631 s, 543 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 5.13958 s, 418 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=28344: Thu Aug 8 17:47:34 2019 read : io=3617.8MB, bw=61740KB/s, iops=15434, runt= 60003msec clat (usec): min=2, max=20244, avg=507.39, stdev=657.11 lat (usec): min=2, max=20252, avg=509.08, stdev=658.24 clat percentiles (usec): | 1.00th=[ 43], 5.00th=[ 88], 10.00th=[ 119], 20.00th=[ 183], | 30.00th=[ 235], 40.00th=[ 270], 50.00th=[ 318], 60.00th=[ 390], | 70.00th=[ 502], 80.00th=[ 700], 90.00th=[ 1048], 95.00th=[ 1384], | 99.00th=[ 3088], 99.50th=[ 4192], 99.90th=[ 8640], 99.95th=[ 9792], | 99.99th=[13120] bw (KB /s): min= 2936, max=12160, per=12.52%, avg=7729.75, stdev=1794.96 lat (usec) : 4=0.32%, 10=0.51%, 20=0.04%, 50=0.35%, 100=5.57% lat (usec) : 250=27.40%, 500=35.58%, 750=12.24%, 1000=7.03% lat (msec) : 2=8.72%, 4=1.67%, 10=0.52%, 20=0.04%, 50=0.01% cpu : usr=1.78%, sys=5.37%, ctx=928767, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=926143/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3617.8MB, aggrb=61739KB/s, minb=61739KB/s, maxb=61739KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=918065/11, merge=0/8, ticks=298336/0, in_queue=298004, util=85.51% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=28370: Thu Aug 8 17:49:40 2019 write: io=14871MB, bw=253765KB/s, iops=63441, runt= 60007msec clat (usec): min=2, max=340674, avg=85.73, stdev=1560.02 lat (usec): min=3, max=340675, avg=92.59, stdev=1615.60 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 4], | 30.00th=[ 4], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 5], | 70.00th=[ 5], 80.00th=[ 6], 90.00th=[ 7], 95.00th=[ 8], | 99.00th=[ 101], 99.50th=[ 4832], 99.90th=[17536], 99.95th=[24448], | 99.99th=[62208] bw (KB /s): min= 0, max=44688, per=12.85%, avg=32599.96, stdev=9507.40 lat (usec) : 4=14.30%, 10=82.52%, 20=1.89%, 50=0.16%, 100=0.12% lat (usec) : 250=0.13%, 500=0.10%, 750=0.04%, 1000=0.02% lat (msec) : 2=0.06%, 4=0.11%, 10=0.28%, 20=0.19%, 50=0.07% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=3.01%, sys=6.04%, ctx=93095, majf=0, minf=68 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=3806920/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=14871MB, aggrb=253765KB/s, minb=253765KB/s, maxb=253765KB/s, mint=60007msec, maxt=60007msec Disk stats (read/write): vda: ios=373/2418666, merge=0/14165, ticks=896/5007780, in_queue=5009012, util=83.23% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=28357: Thu Aug 8 17:48:40 2019 read : io=4671.6MB, bw=79726KB/s, iops=19931, runt= 60002msec clat (usec): min=25, max=17184, avg=391.87, stdev=504.53 lat (usec): min=25, max=17185, avg=393.42, stdev=505.54 clat percentiles (usec): | 1.00th=[ 53], 5.00th=[ 77], 10.00th=[ 100], 20.00th=[ 145], | 30.00th=[ 191], 40.00th=[ 225], 50.00th=[ 258], 60.00th=[ 310], | 70.00th=[ 386], 80.00th=[ 524], 90.00th=[ 796], 95.00th=[ 1080], | 99.00th=[ 2096], 99.50th=[ 3152], 99.90th=[ 6304], 99.95th=[ 8640], | 99.99th=[11584] bw (KB /s): min= 3136, max=14952, per=12.49%, avg=9961.36, stdev=2158.45 lat (usec) : 50=0.69%, 100=9.08%, 250=37.88%, 500=31.07%, 750=10.17% lat (usec) : 1000=5.03% lat (msec) : 2=5.00%, 4=0.77%, 10=0.29%, 20=0.02% cpu : usr=2.09%, sys=5.15%, ctx=1204505, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1195923/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=4671.6MB, aggrb=79725KB/s, minb=79725KB/s, maxb=79725KB/s, mint=60002msec, maxt=60002msec Disk stats (read/write): vda: ios=1191412/11, merge=0/7, ticks=308900/0, in_queue=308564, util=88.02% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=28387: Thu Aug 8 17:50:41 2019 write: io=721664KB, bw=12027KB/s, iops=3006, runt= 60003msec clat (usec): min=25, max=335859, avg=2651.82, stdev=12755.43 lat (usec): min=26, max=335860, avg=2653.19, stdev=12756.13 clat percentiles (usec): | 1.00th=[ 40], 5.00th=[ 49], 10.00th=[ 58], 20.00th=[ 75], | 30.00th=[ 93], 40.00th=[ 112], 50.00th=[ 137], 60.00th=[ 173], | 70.00th=[ 229], 80.00th=[ 334], 90.00th=[ 740], 95.00th=[ 3824], | 99.00th=[69120], 99.50th=[80384], 99.90th=[113152], 99.95th=[144384], | 99.99th=[242688] bw (KB /s): min= 39, max= 3136, per=12.60%, avg=1515.42, stdev=576.26 lat (usec) : 50=5.03%, 100=28.72%, 250=38.87%, 500=13.86%, 750=3.64% lat (usec) : 1000=1.58% lat (msec) : 2=2.12%, 4=1.28%, 10=1.09%, 20=0.07%, 50=1.05% lat (msec) : 100=2.51%, 250=0.16%, 500=0.01% cpu : usr=0.36%, sys=1.63%, ctx=365230, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=180416/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=721664KB, aggrb=12027KB/s, minb=12027KB/s, maxb=12027KB/s, mint=60003msec, maxt=60003msec Disk stats (read/write): vda: ios=203/180493, merge=0/2174, ticks=116/52384, in_queue=52424, util=86.20% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from OVH SAS (5.196.205.67)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Orange (Paris) [1.88 km]: 8.941 ms Testing download speed................................................................................ Download: 205.61 Mbit/s Testing upload speed................................................................................................ Upload: 176.93 Mbit/s ``` ### Виртуальный сервер от AdminVPS: ![](https://habrastorage.org/r/w1560/webt/cy/8p/qy/cy8pqyq_kgazz8-or3gy7hn2wqa.png) * оборудование в России (Москва); * тариф VPS Lite (10 GB SSD / 1x 2.5 GHz CPU / 0.5 GB RAM / 100 Mbit/s, 1 TB трафика за 90 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 2.6.32-042stab136.1 -- #1 SMP Wed Feb 27 09:04:24 MSK 2019 Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="ANSI_X3.4-1968", collate="ANSI_X3.4-1968") CPU 0: Intel(R) Xeon(R) CPU E5-2680 v3 @ 2.50GHz (4999.6 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 15:53:14 up 3:18, 1 user, load average: 0.59, 0.17, 0.05; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Fri Aug 30 2019 15:53:14 - 16:21:22 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 28170580.3 lps (10.0 s, 7 samples) Double-Precision Whetstone 3711.6 MWIPS (9.9 s, 7 samples) Execl Throughput 2982.4 lps (30.0 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 225229.6 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 91046.0 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 888742.6 KBps (30.0 s, 2 samples) Pipe Throughput 650654.6 lps (10.0 s, 7 samples) Pipe-based Context Switching 138666.0 lps (10.0 s, 7 samples) Process Creation 7152.4 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 5964.2 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 767.5 lpm (60.0 s, 2 samples) System Call Overhead 511002.9 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 28170580.3 2413.9 Double-Precision Whetstone 55.0 3711.6 674.8 Execl Throughput 43.0 2982.4 693.6 File Copy 1024 bufsize 2000 maxblocks 3960.0 225229.6 568.8 File Copy 256 bufsize 500 maxblocks 1655.0 91046.0 550.1 File Copy 4096 bufsize 8000 maxblocks 5800.0 888742.6 1532.3 Pipe Throughput 12440.0 650654.6 523.0 Pipe-based Context Switching 4000.0 138666.0 346.7 Process Creation 126.0 7152.4 567.7 Shell Scripts (1 concurrent) 42.4 5964.2 1406.7 Shell Scripts (8 concurrent) 6.0 767.5 1279.2 System Call Overhead 15000.0 511002.9 340.7 ======== System Benchmarks Index Score 754.8 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 2.94045 s, 730 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 3.55853 s, 603 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14900: Fri Aug 30 16:22:34 2019 read : io=54984MB, bw=938352KB/s, iops=234587, runt= 60003msec clat (usec): min=1, max=62031, avg=26.56, stdev=446.34 lat (usec): min=1, max=62031, avg=26.96, stdev=450.31 clat percentiles (usec): | 1.00th=[ 1], 5.00th=[ 2], 10.00th=[ 2], 20.00th=[ 2], | 30.00th=[ 2], 40.00th=[ 2], 50.00th=[ 2], 60.00th=[ 2], | 70.00th=[ 2], 80.00th=[ 3], 90.00th=[ 3], 95.00th=[ 31], | 99.00th=[ 165], 99.50th=[ 217], 99.90th=[ 7072], 99.95th=[ 9024], | 99.99th=[15040] bw (KB /s): min=21456, max=174302, per=12.47%, avg=117027.11, stdev=42929.20 lat (usec) : 2=4.60%, 4=89.15%, 10=1.10%, 20=0.01%, 50=1.05% lat (usec) : 100=0.35%, 250=3.34%, 500=0.16%, 750=0.02%, 1000=0.01% lat (msec) : 2=0.01%, 4=0.01%, 10=0.16%, 20=0.04%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=2.61%, sys=9.53%, ctx=620299, majf=0, minf=570 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=14075979/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=54984MB, aggrb=938351KB/s, minb=938351KB/s, maxb=938351KB/s, mint=60003msec, maxt=60003msec ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14928: Fri Aug 30 16:24:40 2019 write: io=36143MB, bw=616817KB/s, iops=154204, runt= 60002msec clat (usec): min=1, max=1303.1K, avg=21.52, stdev=949.49 lat (usec): min=2, max=1303.2K, avg=21.87, stdev=954.55 clat percentiles (usec): | 1.00th=[ 2], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 3], | 30.00th=[ 3], 40.00th=[ 3], 50.00th=[ 3], 60.00th=[ 4], | 70.00th=[ 4], 80.00th=[ 4], 90.00th=[ 4], 95.00th=[ 5], | 99.00th=[ 7], 99.50th=[ 16], 99.90th=[ 4016], 99.95th=[12992], | 99.99th=[26240] bw (KB /s): min= 0, max=115099, per=14.05%, avg=86648.06, stdev=26702.40 lat (usec) : 2=0.01%, 4=51.15%, 10=48.21%, 20=0.22%, 50=0.15% lat (usec) : 100=0.05%, 250=0.04%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2=0.03%, 4=0.04%, 10=0.04%, 20=0.05%, 50=0.02% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01% cpu : usr=1.72%, sys=8.45%, ctx=144694, majf=0, minf=294 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=9252559/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=36143MB, aggrb=616816KB/s, minb=616816KB/s, maxb=616816KB/s, mint=60002msec, maxt=60002msec ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14914: Fri Aug 30 16:23:39 2019 read : io=59737MB, bw=995.59MB/s, iops=254865, runt= 60003msec clat (usec): min=1, max=72040, avg=24.00, stdev=599.88 lat (usec): min=1, max=72040, avg=24.41, stdev=606.49 clat percentiles (usec): | 1.00th=[ 1], 5.00th=[ 1], 10.00th=[ 1], 20.00th=[ 2], | 30.00th=[ 2], 40.00th=[ 2], 50.00th=[ 2], 60.00th=[ 2], | 70.00th=[ 2], 80.00th=[ 2], 90.00th=[ 3], 95.00th=[ 4], | 99.00th=[ 151], 99.50th=[ 173], 99.90th=[ 7008], 99.95th=[ 8032], | 99.99th=[37120] bw (KB /s): min=19192, max=184384, per=12.46%, avg=127002.56, stdev=45462.78 lat (usec) : 2=12.84%, 4=81.80%, 10=0.65%, 20=0.01%, 50=0.99% lat (usec) : 100=0.38%, 250=3.13%, 500=0.06%, 750=0.01%, 1000=0.01% lat (msec) : 2=0.01%, 4=0.01%, 10=0.10%, 20=0.01%, 50=0.02% lat (msec) : 100=0.01% cpu : usr=2.67%, sys=9.58%, ctx=593780, majf=0, minf=593 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=15292680/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=59737MB, aggrb=995.59MB/s, minb=995.59MB/s, maxb=995.59MB/s, mint=60003msec, maxt=60003msec ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=14942: Fri Aug 30 16:25:41 2019 write: io=39225MB, bw=669414KB/s, iops=167353, runt= 60003msec clat (usec): min=1, max=379827, avg=20.92, stdev=624.60 lat (usec): min=2, max=379827, avg=21.34, stdev=634.38 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 3], | 30.00th=[ 3], 40.00th=[ 3], 50.00th=[ 4], 60.00th=[ 4], | 70.00th=[ 4], 80.00th=[ 4], 90.00th=[ 5], 95.00th=[ 6], | 99.00th=[ 8], 99.50th=[ 18], 99.90th=[ 5024], 99.95th=[12992], | 99.99th=[25984] bw (KB /s): min= 0, max=116944, per=13.08%, avg=87547.30, stdev=21280.85 lat (usec) : 2=0.01%, 4=45.51%, 10=53.73%, 20=0.29%, 50=0.17% lat (usec) : 100=0.07%, 250=0.04%, 500=0.02%, 750=0.01%, 1000=0.01% lat (msec) : 2=0.02%, 4=0.03%, 10=0.04%, 20=0.05%, 50=0.02% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% cpu : usr=2.02%, sys=8.87%, ctx=143552, majf=0, minf=292 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=10041717/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=39225MB, aggrb=669414KB/s, minb=669414KB/s, maxb=669414KB/s, mint=60003msec, maxt=60003msec ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from AdminVPS LLC (45.128.204.77)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Megafon (Moscow) [1.61 km]: 9.505 ms Testing download speed................................................................................ Download: 46.59 Mbit/s Testing upload speed................................................................................................ Upload: 223.60 Mbit/s ``` ### Виртуальный сервер от FirstVDS: ![](https://habrastorage.org/r/w1560/webt/6k/np/rs/6knprsfdmjek_zxwtbngd12y6go.png) * оборудование расположено в собственном ДЦ WebDC в Химках; * тариф Разминка (10 GB HDD / 1x 1.6 GHz CPU / 0.5 GB RAM / 100 Mbit/s за 90 рублей в месяц); * ограничение в один сервер с данным тарифом на аккаунт. #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 2.6.32-042stab138.1 -- #1 SMP Wed May 15 09:33:10 MSK 2019 Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="ANSI_X3.4-1968", collate="ANSI_X3.4-1968") CPU 0: Intel(R) Xeon(R) CPU E5645 @ 2.40GHz (4799.4 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 11:09:19 up 6 min, 1 user, load average: 0.63, 0.26, 0.09; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Thu Sep 19 2019 11:09:19 - 11:38:17 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 25600667.1 lps (10.0 s, 7 samples) Double-Precision Whetstone 3365.6 MWIPS (9.7 s, 7 samples) Execl Throughput 2971.8 lps (29.4 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 361593.6 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 95868.2 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 940425.2 KBps (30.0 s, 2 samples) Pipe Throughput 688570.1 lps (10.0 s, 7 samples) Pipe-based Context Switching 143289.6 lps (10.0 s, 7 samples) Process Creation 7362.8 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 5899.8 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 792.8 lpm (60.1 s, 2 samples) System Call Overhead 548701.6 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 25600667.1 2193.7 Double-Precision Whetstone 55.0 3365.6 611.9 Execl Throughput 43.0 2971.8 691.1 File Copy 1024 bufsize 2000 maxblocks 3960.0 361593.6 913.1 File Copy 256 bufsize 500 maxblocks 1655.0 95868.2 579.3 File Copy 4096 bufsize 8000 maxblocks 5800.0 940425.2 1621.4 Pipe Throughput 12440.0 688570.1 553.5 Pipe-based Context Switching 4000.0 143289.6 358.2 Process Creation 126.0 7362.8 584.3 Shell Scripts (1 concurrent) 42.4 5899.8 1391.5 Shell Scripts (8 concurrent) 6.0 792.8 1321.4 System Call Overhead 15000.0 548701.6 365.8 ======== System Benchmarks Index Score 793.2 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 2.6182 s, 820 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 3.26521 s, 658 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12163: Thu Sep 19 11:39:42 2019 read : io=114900KB, bw=1913.3KB/s, iops=478, runt= 60056msec clat (usec): min=457, max=260997, avg=16710.38, stdev=12073.24 lat (usec): min=457, max=260998, avg=16710.77, stdev=12073.25 clat percentiles (usec): | 1.00th=[ 1672], 5.00th=[ 3376], 10.00th=[ 5344], 20.00th=[ 9280], | 30.00th=[11968], 40.00th=[13888], 50.00th=[15168], 60.00th=[16064], | 70.00th=[18048], 80.00th=[20864], 90.00th=[27520], 95.00th=[36096], | 99.00th=[63232], 99.50th=[84480], 99.90th=[120320], 99.95th=[126464], | 99.99th=[203776] bw (KB /s): min= 77, max= 974, per=12.53%, avg=239.67, stdev=72.01 lat (usec) : 500=0.01%, 750=0.03%, 1000=0.09% lat (msec) : 2=1.55%, 4=4.97%, 10=15.51%, 20=55.45%, 50=20.53% lat (msec) : 100=1.50%, 250=0.37%, 500=0.01% cpu : usr=0.07%, sys=0.21%, ctx=55467, majf=0, minf=337 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=28725/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=114900KB, aggrb=1913KB/s, minb=1913KB/s, maxb=1913KB/s, mint=60056msec, maxt=60056msec Disk stats (read/write): ploop64982p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12197: Thu Sep 19 11:41:57 2019 write: io=1083.5MB, bw=18467KB/s, iops=4616, runt= 60076msec clat (usec): min=2, max=6926.2K, avg=367.68, stdev=21842.99 lat (usec): min=2, max=6926.2K, avg=367.90, stdev=21843.36 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 3], | 30.00th=[ 3], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 4], | 70.00th=[ 5], 80.00th=[ 5], 90.00th=[ 6], 95.00th=[ 8], | 99.00th=[ 4192], 99.50th=[ 7904], 99.90th=[69120], 99.95th=[123392], | 99.99th=[399360] bw (KB /s): min= 0, max=80926, per=32.72%, avg=6041.82, stdev=14957.11 lat (usec) : 4=34.19%, 10=61.97%, 20=2.06%, 50=0.22%, 100=0.08% lat (usec) : 250=0.03%, 500=0.01%, 750=0.02%, 1000=0.01% lat (msec) : 2=0.06%, 4=0.27%, 10=0.71%, 20=0.20%, 50=0.05% lat (msec) : 100=0.03%, 250=0.08%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01%, >=2000=0.01% cpu : usr=0.11%, sys=0.29%, ctx=9814, majf=0, minf=316 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=277362/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=1083.5MB, aggrb=18467KB/s, minb=18467KB/s, maxb=18467KB/s, mint=60076msec, maxt=60076msec Disk stats (read/write): ploop64982p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12180: Thu Sep 19 11:40:56 2019 read : io=116792KB, bw=1946.3KB/s, iops=486, runt= 60010msec clat (usec): min=661, max=214319, avg=16434.78, stdev=9799.39 lat (usec): min=662, max=214320, avg=16435.17, stdev=9799.40 clat percentiles (msec): | 1.00th=[ 3], 5.00th=[ 5], 10.00th=[ 7], 20.00th=[ 11], | 30.00th=[ 13], 40.00th=[ 15], 50.00th=[ 16], 60.00th=[ 17], | 70.00th=[ 18], 80.00th=[ 21], 90.00th=[ 27], 95.00th=[ 35], | 99.00th=[ 53], 99.50th=[ 61], 99.90th=[ 85], 99.95th=[ 102], | 99.99th=[ 157] bw (KB /s): min= 63, max= 608, per=12.50%, avg=243.27, stdev=57.65 lat (usec) : 750=0.01%, 1000=0.02% lat (msec) : 2=0.96%, 4=3.90%, 10=14.93%, 20=58.60%, 50=20.37% lat (msec) : 100=1.15%, 250=0.06% cpu : usr=0.07%, sys=0.22%, ctx=59042, majf=0, minf=345 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=29198/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=116792KB, aggrb=1946KB/s, minb=1946KB/s, maxb=1946KB/s, mint=60010msec, maxt=60010msec Disk stats (read/write): ploop64982p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=12214: Thu Sep 19 11:43:02 2019 write: io=9637.8MB, bw=156250KB/s, iops=39062, runt= 63162msec clat (usec): min=2, max=3426.4K, avg=52.82, stdev=5360.24 lat (usec): min=2, max=3431.9K, avg=53.16, stdev=5364.23 clat percentiles (usec): | 1.00th=[ 2], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 3], | 30.00th=[ 3], 40.00th=[ 3], 50.00th=[ 3], 60.00th=[ 3], | 70.00th=[ 4], 80.00th=[ 4], 90.00th=[ 4], 95.00th=[ 5], | 99.00th=[ 9], 99.50th=[ 26], 99.90th=[10048], 99.95th=[12224], | 99.99th=[50944] bw (KB /s): min= 0, max=128798, per=27.35%, avg=42731.62, stdev=35978.01 lat (usec) : 4=67.85%, 10=31.28%, 20=0.31%, 50=0.16%, 100=0.04% lat (usec) : 250=0.02%, 500=0.01%, 750=0.02%, 1000=0.01% lat (msec) : 2=0.03%, 4=0.04%, 10=0.14%, 20=0.07%, 50=0.02% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01%, >=2000=0.01% cpu : usr=0.73%, sys=2.03%, ctx=81357, majf=0, minf=314 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=2467265/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=9637.8MB, aggrb=156249KB/s, minb=156249KB/s, maxb=156249KB/s, mint=63162msec, maxt=63162msec Disk stats (read/write): ploop64982p1: ios=0/0, merge=0/0, ticks=0/0, in_queue=0, util=0.00% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from JSC IOT (62.109.10.90)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by RETN (Moscow) [0.12 km]: 2.969 ms Testing download speed................................................................................ Download: 88.09 Mbit/s Testing upload speed................................................................................................ Upload: 85.93 Mbit/s ``` ### Виртуальный сервер от VPSHoster: ![](https://habrastorage.org/r/w1560/webt/tr/il/gf/trilgfm5poq_zj44tujn-jla4ek.png) * оборудование размещено в России (Москва, ДЦ Мароснет) и Латвии (к сожалению, без теста); * тариф Cloud Pico (5 GB SSD / 1x 2.26 GHz CPU / 0.5 GB RAM / 10 Mbit/s за 99 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-9-amd64 -- #1 SMP Debian 4.9.168-1+deb9u5 (2019-08-11) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="UTF-8", collate="UTF-8") CPU 0: QEMU Virtual CPU version 2.5+ (4533.5 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 19:01:21 up 5 min, 1 user, load average: 0.82, 0.31, 0.11; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Fri Aug 30 2019 19:01:21 - 19:29:52 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 21765832.2 lps (10.0 s, 7 samples) Double-Precision Whetstone 2833.6 MWIPS (9.6 s, 7 samples) Execl Throughput 2180.1 lps (29.6 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 170044.4 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 44415.3 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 529105.8 KBps (30.0 s, 2 samples) Pipe Throughput 245395.9 lps (10.0 s, 7 samples) Pipe-based Context Switching 54778.9 lps (10.0 s, 7 samples) Process Creation 5248.8 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 4598.2 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 607.0 lpm (60.0 s, 2 samples) System Call Overhead 214860.1 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 21765832.2 1865.1 Double-Precision Whetstone 55.0 2833.6 515.2 Execl Throughput 43.0 2180.1 507.0 File Copy 1024 bufsize 2000 maxblocks 3960.0 170044.4 429.4 File Copy 256 bufsize 500 maxblocks 1655.0 44415.3 268.4 File Copy 4096 bufsize 8000 maxblocks 5800.0 529105.8 912.3 Pipe Throughput 12440.0 245395.9 197.3 Pipe-based Context Switching 4000.0 54778.9 136.9 Process Creation 126.0 5248.8 416.6 Shell Scripts (1 concurrent) 42.4 4598.2 1084.5 Shell Scripts (8 concurrent) 6.0 607.0 1011.7 System Call Overhead 15000.0 214860.1 143.2 ======== System Benchmarks Index Score 460.3 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 100.5 s, 21.4 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 98.6091 s, 21.8 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=1656: Fri Aug 30 19:35:36 2019 read : io=3989.2MB, bw=68076KB/s, iops=17019, runt= 60004msec clat (usec): min=5, max=136069, avg=455.71, stdev=570.96 lat (usec): min=7, max=136071, avg=457.93, stdev=573.08 clat percentiles (usec): | 1.00th=[ 183], 5.00th=[ 249], 10.00th=[ 286], 20.00th=[ 330], | 30.00th=[ 362], 40.00th=[ 394], 50.00th=[ 418], 60.00th=[ 446], | 70.00th=[ 482], 80.00th=[ 524], 90.00th=[ 620], 95.00th=[ 724], | 99.00th=[ 1240], 99.50th=[ 1608], 99.90th=[ 2896], 99.95th=[ 5088], | 99.99th=[15808] bw (KB /s): min= 4664, max= 9752, per=12.50%, avg=8512.83, stdev=722.84 lat (usec) : 10=0.03%, 20=0.20%, 50=0.27%, 100=0.05%, 250=4.56% lat (usec) : 500=69.72%, 750=20.87%, 1000=2.80% lat (msec) : 2=1.29%, 4=0.16%, 10=0.04%, 20=0.02%, 50=0.01% lat (msec) : 100=0.01%, 250=0.01% cpu : usr=2.76%, sys=9.35%, ctx=1025023, majf=0, minf=74 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1021210/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3989.2MB, aggrb=68076KB/s, minb=68076KB/s, maxb=68076KB/s, mint=60004msec, maxt=60004msec Disk stats (read/write): vda: ios=1013181/9, merge=0/4, ticks=110508/0, in_queue=109852, util=96.31% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=1694: Fri Aug 30 19:38:53 2019 write: io=6403.8MB, bw=109257KB/s, iops=27314, runt= 60018msec clat (usec): min=6, max=924982, avg=215.01, stdev=3585.50 lat (usec): min=8, max=924984, avg=227.42, stdev=3631.69 clat percentiles (usec): | 1.00th=[ 7], 5.00th=[ 8], 10.00th=[ 8], 20.00th=[ 8], | 30.00th=[ 8], 40.00th=[ 9], 50.00th=[ 12], 60.00th=[ 16], | 70.00th=[ 16], 80.00th=[ 18], 90.00th=[ 24], 95.00th=[ 34], | 99.00th=[ 5984], 99.50th=[13888], 99.90th=[25984], 99.95th=[32640], | 99.99th=[103936] bw (KB /s): min= 0, max=22274, per=13.14%, avg=14350.91, stdev=4988.36 lat (usec) : 10=43.34%, 20=40.96%, 50=12.67%, 100=0.83%, 250=0.39% lat (usec) : 500=0.17%, 750=0.05%, 1000=0.04% lat (msec) : 2=0.13%, 4=0.22%, 10=0.48%, 20=0.48%, 50=0.21% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% cpu : usr=2.97%, sys=6.15%, ctx=93218, majf=0, minf=76 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=1639344/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=6403.8MB, aggrb=109256KB/s, minb=109256KB/s, maxb=109256KB/s, mint=60018msec, maxt=60018msec Disk stats (read/write): vda: ios=162/1011414, merge=0/10885, ticks=4/2873892, in_queue=2878996, util=98.03% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=1681: Fri Aug 30 19:37:53 2019 read : io=5401.3MB, bw=92171KB/s, iops=23042, runt= 60007msec clat (usec): min=59, max=78186, avg=331.60, stdev=200.65 lat (usec): min=61, max=78187, avg=333.99, stdev=204.48 clat percentiles (usec): | 1.00th=[ 141], 5.00th=[ 181], 10.00th=[ 205], 20.00th=[ 239], | 30.00th=[ 266], 40.00th=[ 290], 50.00th=[ 318], 60.00th=[ 342], | 70.00th=[ 366], 80.00th=[ 398], 90.00th=[ 458], 95.00th=[ 532], | 99.00th=[ 756], 99.50th=[ 900], 99.90th=[ 1496], 99.95th=[ 1848], | 99.99th=[ 6752] bw (KB /s): min= 7624, max=12520, per=12.50%, avg=11521.79, stdev=787.53 lat (usec) : 100=0.06%, 250=23.92%, 500=69.50%, 750=5.51%, 1000=0.67% lat (msec) : 2=0.31%, 4=0.02%, 10=0.01%, 20=0.01%, 50=0.01% lat (msec) : 100=0.01% cpu : usr=3.75%, sys=8.62%, ctx=1388538, majf=0, minf=66 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=1382727/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=5401.3MB, aggrb=92171KB/s, minb=92171KB/s, maxb=92171KB/s, mint=60007msec, maxt=60007msec Disk stats (read/write): vda: ios=1381633/8, merge=0/4, ticks=134112/0, in_queue=133288, util=98.91% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=1707: Fri Aug 30 19:40:01 2019 write: io=794504KB, bw=13239KB/s, iops=3309, runt= 60012msec clat (usec): min=68, max=49039, avg=2399.92, stdev=7968.19 lat (usec): min=70, max=49041, avg=2402.85, stdev=7968.29 clat percentiles (usec): | 1.00th=[ 102], 5.00th=[ 131], 10.00th=[ 153], 20.00th=[ 183], | 30.00th=[ 217], 40.00th=[ 255], 50.00th=[ 290], 60.00th=[ 326], | 70.00th=[ 362], 80.00th=[ 414], 90.00th=[ 524], 95.00th=[28800], | 99.00th=[36608], 99.50th=[38656], 99.90th=[41216], 99.95th=[42240], | 99.99th=[44288] bw (KB /s): min= 1050, max= 3260, per=12.50%, avg=1655.20, stdev=381.52 lat (usec) : 100=0.85%, 250=37.75%, 500=50.33%, 750=4.27%, 1000=0.07% lat (msec) : 2=0.02%, 4=0.01%, 10=0.01%, 20=0.01%, 50=6.69% cpu : usr=0.71%, sys=3.17%, ctx=411519, majf=0, minf=58 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=198626/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=794504KB, aggrb=13239KB/s, minb=13239KB/s, maxb=13239KB/s, mint=60012msec, maxt=60012msec Disk stats (read/write): vda: ios=163/198371, merge=0/2029, ticks=36/67048, in_queue=66932, util=82.45% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from Tender Consult LLC (45.15.253.158)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by ISP Balnet (Balashikha) [2.50 km]: 13.869 ms Testing download speed................................................................................ Download: 72.68 Mbit/s Testing upload speed................................................................................................ Upload: 83.40 Mbit/s ``` ### Виртуальный сервер от MyVPS: ![](https://habrastorage.org/r/w1560/webt/c7/9o/uw/c79ouw9yxn2hernm2dr_gang2_0.png) * оборудование размещено в России (Москва); * тариф OVZ-256 (10 GB HDD+SSD / 1x 0.6 GHz CPU / 0.25 GB RAM / 10 Mbit/s за 99 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 3.16.0-042stab125.5 -- #1 SMP Tue Oct 17 12:48:22 MSK 2017 Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="ANSI_X3.4-1968", collate="ANSI_X3.4-1968") CPU 0: Intel(R) Xeon(R) CPU E5-2670 0 @ 2.60GHz (5199.8 bogomips) Hyper-Threading, x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET, Intel virtualization 16:31:09 up 4 min, 1 user, load average: 1.15, 0.58, 0.22; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Fri Aug 30 2019 16:31:09 - 17:16:10 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 7193473.9 lps (10.0 s, 7 samples) Double-Precision Whetstone 3936.8 MWIPS (10.0 s, 7 samples) Execl Throughput 925.1 lps (29.5 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 132131.0 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 31146.0 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 311906.1 KBps (30.0 s, 2 samples) Pipe Throughput 302839.1 lps (10.0 s, 7 samples) Pipe-based Context Switching 56423.7 lps (10.0 s, 7 samples) Process Creation 2331.4 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 1713.8 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 231.8 lpm (60.2 s, 2 samples) System Call Overhead 606956.9 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 7193473.9 616.4 Double-Precision Whetstone 55.0 3936.8 715.8 Execl Throughput 43.0 925.1 215.1 File Copy 1024 bufsize 2000 maxblocks 3960.0 132131.0 333.7 File Copy 256 bufsize 500 maxblocks 1655.0 31146.0 188.2 File Copy 4096 bufsize 8000 maxblocks 5800.0 311906.1 537.8 Pipe Throughput 12440.0 302839.1 243.4 Pipe-based Context Switching 4000.0 56423.7 141.1 Process Creation 126.0 2331.4 185.0 Shell Scripts (1 concurrent) 42.4 1713.8 404.2 Shell Scripts (8 concurrent) 6.0 231.8 386.3 System Call Overhead 15000.0 606956.9 404.6 ======== System Benchmarks Index Score 322.9 ``` **dd**Блоками по 1M ``` 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 17.4143 s, 123 MB/s ``` Блоками по 64K ``` 32768+0 records in 32768+0 records out 2147483648 bytes (2.1 GB, 2.0 GiB) copied, 28.5987 s, 75.1 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=26682: Fri Aug 30 17:18:34 2019 read : io=3040.5MB, bw=51874KB/s, iops=12968, runt= 60018msec clat (usec): min=1, max=1892.9K, avg=614.31, stdev=6031.40 lat (usec): min=1, max=1892.9K, avg=614.48, stdev=6031.40 clat percentiles (usec): | 1.00th=[ 1], 5.00th=[ 125], 10.00th=[ 187], 20.00th=[ 237], | 30.00th=[ 266], 40.00th=[ 298], 50.00th=[ 326], 60.00th=[ 362], | 70.00th=[ 402], 80.00th=[ 454], 90.00th=[ 556], 95.00th=[ 692], | 99.00th=[ 6560], 99.50th=[17024], 99.90th=[40704], 99.95th=[48896], | 99.99th=[123392] bw (KB /s): min= 4, max=18376, per=12.81%, avg=6645.61, stdev=3143.86 lat (usec) : 2=1.27%, 4=2.58%, 10=0.02%, 20=0.01%, 50=0.01% lat (usec) : 100=0.31%, 250=20.10%, 500=61.29%, 750=10.17%, 1000=1.43% lat (msec) : 2=1.21%, 4=0.36%, 10=0.50%, 20=0.30%, 50=0.39% lat (msec) : 100=0.03%, 250=0.01%, 500=0.01%, 750=0.01%, 2000=0.01% cpu : usr=0.53%, sys=2.04%, ctx=771415, majf=2, minf=391 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=778349/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3040.5MB, aggrb=51874KB/s, minb=51874KB/s, maxb=51874KB/s, mint=60018msec, maxt=60018msec ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=26747: Fri Aug 30 17:21:33 2019 write: io=244736KB, bw=4053.5KB/s, iops=1013, runt= 60377msec clat (usec): min=1, max=18855K, avg=1726.88, stdev=105186.89 lat (usec): min=1, max=18855K, avg=1727.03, stdev=105186.90 clat percentiles (usec): | 1.00th=[ 2], 5.00th=[ 3], 10.00th=[ 3], 20.00th=[ 4], | 30.00th=[ 4], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 5], | 70.00th=[ 6], 80.00th=[ 10], 90.00th=[ 724], 95.00th=[ 868], | 99.00th=[50944], 99.50th=[51456], 99.90th=[54016], 99.95th=[83456], | 99.99th=[370688] bw (KB /s): min= 0, max=36376, per=47.16%, avg=1911.33, stdev=4411.56 lat (usec) : 2=0.04%, 4=18.28%, 10=61.11%, 20=3.07%, 50=0.47% lat (usec) : 100=0.12%, 250=0.01%, 500=1.47%, 750=6.52%, 1000=6.02% lat (msec) : 2=0.67%, 4=0.17%, 10=0.25%, 20=0.15%, 50=0.28% lat (msec) : 100=1.36%, 250=0.01%, 500=0.01%, 1000=0.01%, 2000=0.01% lat (msec) : >=2000=0.01% cpu : usr=0.02%, sys=0.19%, ctx=100164, majf=0, minf=303 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=61184/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=244736KB, aggrb=4053KB/s, minb=4053KB/s, maxb=4053KB/s, mint=60377msec, maxt=60377msec ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=26716: Fri Aug 30 17:20:18 2019 read : io=3701.1MB, bw=62630KB/s, iops=15657, runt= 60527msec clat (usec): min=70, max=3091.9K, avg=504.94, stdev=11013.15 lat (usec): min=70, max=3091.9K, avg=505.10, stdev=11013.15 clat percentiles (usec): | 1.00th=[ 135], 5.00th=[ 189], 10.00th=[ 221], 20.00th=[ 258], | 30.00th=[ 290], 40.00th=[ 314], 50.00th=[ 342], 60.00th=[ 370], | 70.00th=[ 398], 80.00th=[ 442], 90.00th=[ 516], 95.00th=[ 612], | 99.00th=[ 1336], 99.50th=[ 3664], 99.90th=[21120], 99.95th=[29312], | 99.99th=[94720] bw (KB /s): min= 2, max=17424, per=13.84%, avg=8669.37, stdev=3103.57 lat (usec) : 100=0.18%, 250=17.35%, 500=70.81%, 750=9.09%, 1000=1.12% lat (msec) : 2=0.73%, 4=0.24%, 10=0.22%, 20=0.15%, 50=0.09% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%, 1000=0.01% lat (msec) : 2000=0.01%, >=2000=0.01% cpu : usr=0.63%, sys=1.75%, ctx=954817, majf=0, minf=325 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=947695/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=3701.1MB, aggrb=62629KB/s, minb=62629KB/s, maxb=62629KB/s, mint=60527msec, maxt=60527msec ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=32 ... fio-2.8 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=26770: Fri Aug 30 17:22:35 2019 write: io=424852KB, bw=7080.2KB/s, iops=1770, runt= 60006msec clat (usec): min=228, max=2046.4K, avg=859.72, stdev=18891.70 lat (usec): min=228, max=2046.5K, avg=859.99, stdev=18891.83 clat percentiles (usec): | 1.00th=[ 278], 5.00th=[ 294], 10.00th=[ 310], 20.00th=[ 326], | 30.00th=[ 342], 40.00th=[ 358], 50.00th=[ 378], 60.00th=[ 410], | 70.00th=[ 446], 80.00th=[ 482], 90.00th=[ 532], 95.00th=[ 604], | 99.00th=[ 1736], 99.50th=[ 5664], 99.90th=[37632], 99.95th=[114176], | 99.99th=[1056768] bw (KB /s): min= 3, max= 5368, per=14.79%, avg=1047.15, stdev=707.25 lat (usec) : 250=0.02%, 500=84.01%, 750=12.93%, 1000=0.95% lat (msec) : 2=1.23%, 4=0.26%, 10=0.26%, 20=0.16%, 50=0.09% lat (msec) : 100=0.02%, 250=0.02%, 500=0.01%, 750=0.02%, 1000=0.01% lat (msec) : 2000=0.01%, >=2000=0.01% cpu : usr=0.08%, sys=0.43%, ctx=213556, majf=0, minf=308 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=106213/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=424852KB, aggrb=7080KB/s, minb=7080KB/s, maxb=7080KB/s, mint=60006msec, maxt=60006msec ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from OOO National Telecommunications (109.120.149.95)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Rostelecom (Moscow) [1.61 km]: 11.253 ms Testing download speed................................................................................ Download: 687.09 Mbit/s Testing upload speed................................................................................................ Upload: 10.49 Mbit/s ``` ### Виртуальный сервер от IHOR: ![](https://habrastorage.org/r/w1560/webt/sf/zq/ed/sfzqedsgrdldlhgxgoshbdokfpa.png) * оборудование размещено в России (Москва, ДЦ Мароснет); * тариф Minimus (HDD) (10 GB HDD / 1x 2.4 GHz CPU / 0.5 GB RAM / 100 Mbit/s за 100 рублей в месяц). #### Тесты: **Unixbench** ``` BYTE UNIX Benchmarks (Version 5.1.3) System: test: GNU/Linux OS: GNU/Linux -- 4.9.0-4-amd64 -- #1 SMP Debian 4.9.51-1 (2017-09-28) Machine: x86_64 (unknown) Language: en_US.utf8 (charmap="ANSI_X3.4-1968", collate="ANSI_X3.4-1968") CPU 0: Intel(R) Xeon(R) CPU E5620 @ 2.40GHz (4800.2 bogomips) x86-64, MMX, Physical Address Ext, SYSENTER/SYSEXIT, SYSCALL/SYSRET 16:23:39 up 390 days, 18:17, 1 user, load average: 1.28, 1.21, 0.67; runlevel 5 ------------------------------------------------------------------------ Benchmark Run: Пн июл 15 2019 16:23:39 - 16:52:26 1 CPU in system; running 1 parallel copy of tests Dhrystone 2 using register variables 22433265.9 lps (10.0 s, 7 samples) Double-Precision Whetstone 2999.0 MWIPS (10.0 s, 7 samples) Execl Throughput 3246.7 lps (29.3 s, 2 samples) File Copy 1024 bufsize 2000 maxblocks 681169.7 KBps (30.0 s, 2 samples) File Copy 256 bufsize 500 maxblocks 201657.4 KBps (30.0 s, 2 samples) File Copy 4096 bufsize 8000 maxblocks 1275322.6 KBps (30.0 s, 2 samples) Pipe Throughput 1639916.4 lps (10.0 s, 7 samples) Pipe-based Context Switching 210397.4 lps (10.0 s, 7 samples) Process Creation 7607.2 lps (30.0 s, 2 samples) Shell Scripts (1 concurrent) 6396.9 lpm (60.0 s, 2 samples) Shell Scripts (8 concurrent) 810.7 lpm (60.0 s, 2 samples) System Call Overhead 2527110.6 lps (10.0 s, 7 samples) System Benchmarks Index Values BASELINE RESULT INDEX Dhrystone 2 using register variables 116700.0 22433265.9 1922.3 Double-Precision Whetstone 55.0 2999.0 545.3 Execl Throughput 43.0 3246.7 755.0 File Copy 1024 bufsize 2000 maxblocks 3960.0 681169.7 1720.1 File Copy 256 bufsize 500 maxblocks 1655.0 201657.4 1218.5 File Copy 4096 bufsize 8000 maxblocks 5800.0 1275322.6 2198.8 Pipe Throughput 12440.0 1639916.4 1318.3 Pipe-based Context Switching 4000.0 210397.4 526.0 Process Creation 126.0 7607.2 603.7 Shell Scripts (1 concurrent) 42.4 6396.9 1508.7 Shell Scripts (8 concurrent) 6.0 810.7 1351.1 System Call Overhead 15000.0 2527110.6 1684.7 ======== System Benchmarks Index Score 1148.1 ``` **dd**Блоками по 1M ``` 2048+0 записей получено 2048+0 записей отправлено 2147483648 байт (2,1 GB, 2,0 GiB) скопирован, 33,811 s, 63,5 MB/s ``` Блоками по 64K ``` 32768+0 записей получено 32768+0 записей отправлено 2147483648 байт (2,1 GB, 2,0 GiB) скопирован, 37,3774 s, 57,5 MB/s ``` **fio**Read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=32063: Mon Jul 15 16:55:28 2019 read : io=108176KB, bw=1802.6KB/s, iops=450, runt= 60013msec clat (usec): min=82, max=28243, avg=17743.49, stdev=966.00 lat (usec): min=83, max=28244, avg=17744.08, stdev=965.98 clat percentiles (usec): | 1.00th=[16512], 5.00th=[17280], 10.00th=[17280], 20.00th=[17536], | 30.00th=[17536], 40.00th=[17536], 50.00th=[17536], 60.00th=[17792], | 70.00th=[17792], 80.00th=[18304], 90.00th=[18560], 95.00th=[18560], | 99.00th=[18816], 99.50th=[20096], 99.90th=[23168], 99.95th=[24192], | 99.99th=[26752] lat (usec) : 100=0.01%, 250=0.10%, 500=0.05%, 750=0.01% lat (msec) : 4=0.01%, 10=0.03%, 20=99.26%, 50=0.53% cpu : usr=0.07%, sys=0.29%, ctx=27079, majf=0, minf=73 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=27044/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=108176KB, aggrb=1802KB/s, minb=1802KB/s, maxb=1802KB/s, mint=60013msec, maxt=60013msec Disk stats (read/write): vda: ios=26973/11, merge=0/13, ticks=477280/52, in_queue=477412, util=99.99% ``` Write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: Laying out IO file(s) (1 file(s) / 256MB) benchmark: (groupid=0, jobs=8): err= 0: pid=32085: Mon Jul 15 16:57:39 2019 write: io=143120KB, bw=2380.6KB/s, iops=595, runt= 60121msec clat (usec): min=2, max=6778.8K, avg=11090.86, stdev=180942.60 lat (usec): min=2, max=6778.8K, avg=11091.21, stdev=180943.13 clat percentiles (usec): | 1.00th=[ 3], 5.00th=[ 5], 10.00th=[ 8], 20.00th=[ 8], | 30.00th=[ 9], 40.00th=[ 10], 50.00th=[ 11], 60.00th=[ 12], | 70.00th=[ 14], 80.00th=[ 18], 90.00th=[ 25], 95.00th=[ 44], | 99.00th=[115200], 99.50th=[183296], 99.90th=[3489792], 99.95th=[4620288], | 99.99th=[6062080] lat (usec) : 4=2.42%, 10=37.29%, 20=44.42%, 50=11.45%, 100=0.93% lat (usec) : 250=0.08%, 500=0.02%, 750=0.01%, 1000=0.01% lat (msec) : 2=0.03%, 4=0.03%, 10=0.15%, 20=0.44%, 50=1.22% lat (msec) : 100=0.33%, 250=0.80%, 500=0.02%, 750=0.01%, 1000=0.04% lat (msec) : 2000=0.15%, >=2000=0.18% cpu : usr=0.02%, sys=0.27%, ctx=22948, majf=0, minf=56 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=35780/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=143120KB, aggrb=2380KB/s, minb=2380KB/s, maxb=2380KB/s, mint=60121msec, maxt=60121msec Disk stats (read/write): vda: ios=0/18270, merge=0/9732, ticks=0/124272, in_queue=124652, util=98.72% ``` Direct read ``` benchmark: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: (groupid=0, jobs=8): err= 0: pid=32074: Mon Jul 15 16:56:29 2019 read : io=108200KB, bw=1803.2KB/s, iops=450, runt= 60011msec clat (usec): min=55, max=27740, avg=17737.39, stdev=906.38 lat (usec): min=56, max=27741, avg=17738.01, stdev=906.37 clat percentiles (usec): | 1.00th=[16768], 5.00th=[17280], 10.00th=[17280], 20.00th=[17536], | 30.00th=[17536], 40.00th=[17536], 50.00th=[17536], 60.00th=[17792], | 70.00th=[17792], 80.00th=[18304], 90.00th=[18560], 95.00th=[18560], | 99.00th=[18816], 99.50th=[19072], 99.90th=[21120], 99.95th=[22912], | 99.99th=[25728] lat (usec) : 100=0.06%, 250=0.06%, 500=0.01%, 750=0.02%, 1000=0.01% lat (msec) : 2=0.01%, 4=0.03%, 10=0.03%, 20=99.59%, 50=0.20% cpu : usr=0.08%, sys=0.21%, ctx=27079, majf=0, minf=65 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=27050/w=0/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): READ: io=108200KB, aggrb=1803KB/s, minb=1803KB/s, maxb=1803KB/s, mint=60011msec, maxt=60011msec Disk stats (read/write): vda: ios=27003/11, merge=0/11, ticks=477000/360, in_queue=477400, util=99.97% ``` Direct write ``` benchmark: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=psync, iodepth=32 ... fio-2.16 Starting 8 processes benchmark: (groupid=0, jobs=8): err= 0: pid=32097: Mon Jul 15 16:58:40 2019 write: io=49228KB, bw=839821B/s, iops=205, runt= 60024msec clat (usec): min=104, max=543532, avg=26720.27, stdev=101994.62 lat (usec): min=105, max=543533, avg=26721.00, stdev=101994.62 clat percentiles (msec): | 1.00th=[ 3], 5.00th=[ 3], 10.00th=[ 4], 20.00th=[ 4], | 30.00th=[ 4], 40.00th=[ 4], 50.00th=[ 4], 60.00th=[ 4], | 70.00th=[ 4], 80.00th=[ 5], 90.00th=[ 5], 95.00th=[ 235], | 99.00th=[ 498], 99.50th=[ 515], 99.90th=[ 529], 99.95th=[ 537], | 99.99th=[ 545] lat (usec) : 250=0.17%, 500=0.02%, 1000=0.03% lat (msec) : 2=0.20%, 4=72.51%, 10=21.99%, 20=0.02%, 50=0.01% lat (msec) : 100=0.02%, 250=0.04%, 500=4.04%, 750=0.96% cpu : usr=0.03%, sys=0.17%, ctx=29841, majf=0, minf=75 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued : total=r=0/w=12307/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=32 Run status group 0 (all jobs): WRITE: io=49228KB, aggrb=820KB/s, minb=820KB/s, maxb=820KB/s, mint=60024msec, maxt=60024msec Disk stats (read/write): vda: ios=0/18000, merge=0/180, ticks=0/204144, in_queue=203652, util=99.65% ``` **Speedtest** ``` Retrieving speedtest.net configuration... Testing from NTX Technologies s.r.o. (194.67.207.200)... Retrieving speedtest.net server list... Selecting best server based on ping... Hosted by Megafon (Moscow) [1.61 km]: 9.079 ms Testing download speed................................................................................ Download: 102.30 Mbit/s Testing upload speed................................................................................................ Upload: 113.43 Mbit/s ``` ### Что получилось в итоге (картинки кликабельны): #### Попугаи Unixbench [![](https://habrastorage.org/r/w1560/webt/qi/bt/g1/qibtg1dshtxg6gyye_js1tjvsze.png)](https://habrastorage.org/webt/qi/bt/g1/qibtg1dshtxg6gyye_js1tjvsze.png) #### Скорость чтения/записи dd (MB/s) 1M [![](https://habrastorage.org/r/w1560/webt/es/97/om/es97om2reatxis9cl9zu6zmvve8.png)](https://habrastorage.org/webt/es/97/om/es97om2reatxis9cl9zu6zmvve8.png) 64K [![](https://habrastorage.org/r/w1560/webt/fm/kd/5r/fmkd5rhnf6oghumb32fa9qrzzjo.png)](https://habrastorage.org/webt/fm/kd/5r/fmkd5rhnf6oghumb32fa9qrzzjo.png) #### Количество IOPS в разных режимах работы fio Random read [![](https://habrastorage.org/r/w1560/webt/ix/xe/gk/ixxegkrbcf-x9cpt8zfezhlvkhg.png)](https://habrastorage.org/webt/ix/xe/gk/ixxegkrbcf-x9cpt8zfezhlvkhg.png) Random write [![](https://habrastorage.org/r/w1560/webt/qx/ts/8p/qxts8pabiuip96etzzx0jmds_u4.png)](https://habrastorage.org/webt/qx/ts/8p/qxts8pabiuip96etzzx0jmds_u4.png) Random direct read [![](https://habrastorage.org/r/w1560/webt/da/tn/wb/datnwboud8j4xwk7dqzqk-r6iha.png)](https://habrastorage.org/webt/da/tn/wb/datnwboud8j4xwk7dqzqk-r6iha.png) Random direct write [![](https://habrastorage.org/r/w1560/webt/ay/mt/1f/aymt1frsfizdjy0qwahl9d9uer0.png)](https://habrastorage.org/webt/ay/mt/1f/aymt1frsfizdjy0qwahl9d9uer0.png) #### Скорость сети от speedtest (Mbit/s) [![](https://habrastorage.org/r/w1560/webt/sl/f8/hg/slf8hg8_ev86p3z40d1zvmb6u0w.png)](https://habrastorage.org/webt/sl/f8/hg/slf8hg8_ev86p3z40d1zvmb6u0w.png) Синий — upload, красный — download. Низкие значения скорости upload у последних трех хостеров объясняются ограничением канала. Выводов каких-либо делать не буду, скажу лишь, что лучше дешевый и производительный сервер, чем дорогой и медленный. Спасибо Евгению ([yoh](https://habr.com/ru/users/yoh/)) из Lite.Host за помощь в подготовке скрипта для тестирования.
https://habr.com/ru/post/467953/
null
ru
null
# VolgaCTF глазами участника ![image](https://habrastorage.org/r/w1560/storage2/b5b/dc9/f52/b5bdc9f524dd31d6ce604e2da750dd13.png) 15 апреля завершился отборочный этап соревнований в области информационной безопасности [VolgaCTF-2012](http://volgactf.ru/), в котором принимали участие 29 команд из различных городов Приволжского Федерального округа. Командам давалось 48 часов, на решение задач в областях: * Crypto –криптографические задачи; * Web – разнообразные веб-уязвимости; * Reverse engineering –обратная разработка программ; * StegaSic (Steganography & Forensic) – стеганография и исследования в области компьютерных преступлений; * PPC (Professional programming and coding) – различные задачи на программирование; * Joy – задачи на общую эрудицию в области информационной безопасности; * Blackbox Admin – задачи на администрирование сетей; Хочется поделиться с вами своими впечатлениями и написать как выглядят такие соревнования именно со стороны участника. В первую очередь, выражаю огромную благодарность организаторам этого конкурса и админам за шикарные задания, которые не были простыми, но были интересными. В подобного рода соревнованиях наша команда участвовала впервые. Начало соревнований было задержано на час, за это время мы успели расположится поудобнее, настроить компьютеры и немного настроить себя различными шутками и разговорами ни о чем. Админами был поднят VPN сервер, розданы ключи для подключения командам и игра началась! **13.04 19:00** Командам вручили внутренний и [внешний адрес](http://91.222.128.62/) сайта с заданиями. Мы распределили задания внутри команды и начали работать. ![](https://habrastorage.org/r/w1560/storage2/2c8/993/418/2c8993418ab0420106f2361d927005b4.png) Уровень 100 по областям сильно различался по сложности. Два задания были решены сходу: 1) Была дана html страница с большой таблицей. Каждая ячейка таблицы содержала свой цвет, после небольшой игры с css, была получена картинка с островом, перевели в JPG, загрузили в Google и нашли название острова, которое оказалось ключом 2)Нам прислали архив, в котором хранились фотографии известных пиратов и хакеров, необходимо было узнать их полные имена и отправить организаторам. С помощью Google и небольшой работы с графическим редактором быстро нашли. **13.04 19:20** Гораздо более интересными оказались задачи на нахождение и эксплуатацию уязвимостей в web сайтах. Первой мишенью был пиратский блог, рассказывающий о рангах пиратского братства. Уже через пятнадцать минут команды соперники внедрили код скрывающий содержимое некоторых частей страницы. Это дало нам информации о наличии XSS уязвимостей. Позднее мы заметили, что блоги регулярно обновлялись, добавлялись новые топики. Хотя скорее всего информацию обновляла программа (как нам казалось) решили попробовать эксплуатировать XSS уязвимость и стандартными методами получить cookie пользователя с правами администратора. На поднятом в интернете снифере отображалась только информация о участниках других команд, но мы не сдались. Перенастроили XSS на IP адрес внутри VPN и анализатор трафика обнаружил попытку подключения администратора. Ключ был взят! Менее успешно решались задачи на криптографию, реверс, профессиональное программирование (ppc), которое мы тут же окрестили коротким и простым словом «ппц». В [задаче](http://pastebin.com/BwRsxJjQ) из области PPC ребята сразу узнали [обратную польскую нотацию](http://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%80%D0%B0%D1%82%D0%BD%D0%B0%D1%8F_%D0%BF%D0%BE%D0%BB%D1%8C%D1%81%D0%BA%D0%B0%D1%8F_%D0%B7%D0%B0%D0%BF%D0%B8%D1%81%D1%8C). Из — за большого объема работы начали писать программу обработчик не сразу, потребовалось достаточно много времени на разработку и отладку. Ответ получили лишь на следующий день. Не осилили казалось бы простую задачу на crypto100. **13.04 20:30** Получили классическое задание из области Joy. ![](https://habrastorage.org/r/w780q1/storage2/d71/e60/067/d71e6006742244925ba3750c51c48549.jpg) Не стали искать скрытый смысл и зашифрованные архивы, решили сначала попробовать сделать то, что просят на фотографии. Сфотографировались, отослали, заработали свои 200 баллов)Правда, пришлось немного пофотошопить — добавить пиратскую атрибутику, но результат получился отменным) Примерно в это же время решили задачу с Web200, где в robots.txt была оставлена ссылка на администраторскую. **13.04 21:15** К сожалению, ночью находиться в университете не разрешается, поэтому нашу команду попросили освободить помещение. Полные сил и боевого духа мы отправились на квартиру, чтобы там продолжить решать задачи. **13.04 22:30** Примерно в это время открыли первое задание на администрирование. В распоряжение был дан сервер. Открытых портов было больше тысячи. Начали искать зацепки. Запрос на 1000 порт возвращал всегда «P». Запрос на 1001 порт после обращения на 1000 порт всегда «i». Аналогичная ситуация была на 1002, 1003, и т.д. портах. Соединенные подряд буквы с 1000 по 1005 порт давали слово «Pirat». Запрос на 1000 порт сбрасывал порядок следования символов. При большой задержке между обращениями на соседние порты алгоритм не работал. Этап сбора информации показал, что необходимо писать программу для перебора и вывода информации на всех портах сервера. Простая программа на perl вскоре была написана. Результатом ее работы был текст на английском языке, после нескольких десятков тысяч символов лежал ключ к заданию. **13.04 23:45** Теперь мне хотелось бы рассказать о действительно интересных и оригинальных задачах из области web. 3 задание ссылалось на сайт пиратского бара. ![](https://habrastorage.org/r/w1560/storage2/42c/7cb/95c/42c7cb95ce10ba0fafc76aa621569927.png) Беглый просмотр сайта не дал видимых уязвимостей. Глаз остановился на скрытом комментарии в html коде. `Сайт адаптирован для пиратского браузера Ведется учет пользователей` Поиск в интернете «Пиратского браузера» и подстановка в User — Agent всех возможных названий не дал результата. Но вскоре обнаружили SQL-injection в этом поле. Казалось бы ничего сложного, но это была Insert injection. Интересным оказалось то, что команды типа SELECT,OR,WHERE,ORDER,GROUP,AND вырезались, приходилось запрос типа `SELECT TABLE_NAME FROM information_schema.tables WHERE TABLE_NAME LIKE 'k%'` приводить к виду `SELSELECTECT TABLE_NAME FRFROMOM infoORrmation_schema.tables WHWHEREERE TABLE_NAME LIKE 'k%'` Что еще было интересным, параметр key в COOKIE, который всегда занулялся. Результат выполнения нигде не отображался (хотя может быть мы не нашли), просто записывался в БД. INTO OUTFILE и другие методы не работали, пришлось прибегать к нестандартным. Решение было отложено до утра. Первым что пришло в голову, приводить к ошибке скрипт в случаях, когда количество строк удовлетворяющих условию подзапроса равно нулю. Первым попробовал разделить действительное число на COUNT(\*), но в случаях когда COUNT(\*) был равен нулю, MySQL это спокойно проглатывал. Поиск MySQL — функций, в которых должны быть обязательные параметры результата не дал. Зато получилось использовать так называемую timing attack. Запрос для поиска названия таблицы в которой мог бы быть ключ был преобразован к виду. `pirat'),((SELSELECTECT if(COUNT(*)!=0,BENCHMARK(100000000000,NOW()),1) FRFROMOM infoorrmation_schema.tables WHERE TABLE_NAME LIKE 'k%'))#` Грубо говоря, если не находится ни одной строчки удовлетворяющей условию, сайт открывается медленно, если есть, то быстро. Медленную скорость работы обеспечивает функция BENCHMARK 10000000000 раз повторяющая типовую операцию. От поиска через LIKE сначала отказался в сторону SUBSTR(TABLE\_NAME,1,1)>'a'. Перебирать по одной букве было долго, так можно было задавать диапазон. (прим. Можно было реализовать скрипт который автоматизирует эти действия) После подбора нескольких первых букв названия таблицы вспомнил о существовании функции REGEXP(), с помощью которой можно задавать поиск регулярными выражениями, подбор букв стал гораздо проще. Аналогичными действиями нашел помимо названия таблицы с флагом, название поля с флагом и сам флаг, в общей сложности ручным бинарным поиском пришлось перебрать около 25 символов. Найденным ключем оказалось слово 'elpirata', которое не подходило как ответ к заданию. Но установка в COOKIE переменной key с этим словом позволило получить ключ от задания. **14.04 02:00** После не первой кружки кофе командой была решена задача с поиском exploit'a в PDF файле, потрачен не один час на поиск ключа в wav файле (который оказался на краю спектра сигнала), расшифрована вот такая вот gif-ка: ![](https://habrastorage.org/r/w780q1/storage2/9c1/da9/ff3/9c1da9ff3d9798e3b1eeaabdd3a06dc3.jpg) Которая при определенных условиях сигнальными флагами передавала сообщение содержащее ключ к заданию. В одном из заданий, содержащем много текста в графическом JPEG-файле размером 35 МБ увидели фонтан. **14.04 05:00** В том же задании, увидели пальму, поняли что пора идти спать… Вот это задание… ![](https://habrastorage.org/r/w780q1/storage2/6be/9a7/de9/6be9a7de9337bf52fd987cac48f640fc.jpg) **14.04 11:00** Пришли в университет и начали работать по ранее незаконченным заданиям. **14.04 15:00** Мы получили интересное задание из области WEB 400 уровня. Для поиска уязвимостей была подготовлена пара сайтов. ![](https://habrastorage.org/r/w1560/storage2/8e3/d9f/731/8e3d9f73135bc1d01b25072d22ad4c50.png) На первом сервере был сайт посвященный сокровищам, второй содержал в себе сайт веб-студии. Перебором входных параметров была обнаружена слепая SQL-injection, в которой невозможно было использовать команду UNION. Случайным перебором известных слов нашлась таблица user, с полями id и user содержащей 1 запись. В отличии от предыдущего задания не работала функция REGEXP и нами был разработан скрипт перебирающий буквы в LIKE. Итоговый запрос к БД: `0 OR (SELECT user from user where user like 'adm%') LIKE '%'` Вместо слова adm в запросе выше скрипт подставлял различные комбинации букв, в случае нахождения пользователя начинающегося на заданную комбинацию, содержимое на странице выводилось. Найдя пользователя были слегка удивлены. Ник оказался postgres. Логично было предположить, что использовалась СУБД PostgresSQL. Чтение документации по данной СУБД, помогло нам найти таблицу заменяющую таблицу в information\_schema в mysql, а с ее помощью имя поля таблицы user, содержащее пароль. Данный пароль хранился в md5, после расшифровки получалось 16 символьное postgrespostgres. К панели администратора сайта данный логин не подошел, что ввело в ступор. Панель управления БД на удаленном сервере не нашли, доступ из вне был закрыт. Достаточно обидно было иметь логин от БД, но невозможность к ней подключится. Стали подбирать названия таблиц и нашли таблицу administrators, содержащую уже сам логин от панели администратора сайта. В панели администратора нас ждал исходный код пары страниц сайта, доступ к которому необходимо было получить. На этих страницах была возможность читать функцией fread файлы заданные в \_GET если знать к ним адрес. Была скрытая ссылка на папку, открытую для листинга из браузера и не содержащую файлов. Перебрали и просмотрели все стандартные папки конфигураций для unix систем, пробовали получить доступ к .bash\_history и access\_log, но безрезультатно. К счастью, вскоре обнаружили файл .htaccess в скрытой папке. В нем стояло правило на запрет отображения файла с флагом в листинге директории. Загрузка скрытых файлов отобразила зашифрованный JavaScript код. Начали расстраиваться что задание затянется, но через минуту на странице выполнился alert, содержащий флаг от задания. На все задание ушло 5 часов. Увидев в web500 задание с basic authorization при входе на сайт, решили отложить. ![](https://habrastorage.org/r/w780q1/storage2/3e7/f3a/82b/3e7f3a82b33cc581a3c8e66e9b10998f.jpg) В этот день остальными участниками команды были решены интересные задачи, в т.ч. на администрирование с повышением привилегий, одну из задач на криптографию и интересную задачу про торренты. В каждом скачанном торренте рекурсивно предлагалось скачать другие торренты, после сборки всех частей получался образ Slax, в ней был ключ. **14.04 20:00** Наша команда лидировала, уставшие разошлись домой. Решили хорошо выспаться, хотя за ночь кто-то все же выполнил ряд задач. **15.04 11:00** В последний день решили всего две задачи 5 уровня, за которые давалось больше всего баллов. Обе задачи были интересными, поэтому хотелось бы о них подробно рассказать. Задача web500, отложенная вчера поддалась. Замечено, что если отправить POST данные на файл index.php, то страница отдавалась. ![](https://habrastorage.org/r/w780q1/storage2/0b5/d24/88e/0b5d2488e21f78d271468caa554fcd6a.jpg) Интуиция говорила, что просто не будет. Ни о каких распространенных уязвимостях речи быть не может. Не открывшаяся картинка, оказалась base64 закодированной png улыбающегося troll-face пирата. Поиск похожих картинок дал картинку идентичного размера холста, но другого размера на диске. Поиск скрытой информации в файле не дал результата. Немного отчаявшись вбил в адресную строку адрес /index.php.bak и получил [код исходной страницы](http://pastebin.com/vSq2JxtA), что скорее расстроило, ведь он был неплохо обфусцирован. Глаза боятся, а руки делают… Расшифровал. ``` function __autoload($classname) { $classpath = './inc/class/'.$classname.'.php'; if(file_exists($classpath)) include $classpath; } require_once('inc/config.php'); echo ' '; if(isset($_POST['login'],$_POST['password'])) { // TODO echo underconstruction(); } elseif(isset($_COOKIE['auth'])) { $auth = unserialize((string)$_COOKIE['auth']); if(isset($auth['login'],$auth['password'],$auth['name']) and ($auth['login'] === 'pirate') and ($auth['password'] === 'pirate1')) { echo "Привет, {$auth['name']}!"; } else { echo "Ты не пройдешь, пират!"; } } ```
https://habr.com/ru/post/142131/
null
ru
null
# Синхронность — это миф Привет всем! Сегодня вас ждет длинный текст без картинок (слегка сокращенный по сравнению с оригиналом), где подробно разобран тезис, вынесенный в заголовок. Ветеран компании Майкрософт [Терри Кроули](https://www.zdnet.com/article/microsoft-big-brains-terry-crowley/) описывает суть асинхронного программирования и объясняет, почему именно этот подход гораздо реалистичнее и целесообразнее синхронного и последовательного. Желающие или подумывающие написать книгу, затрагивающую подобные темы — пишите в личку. Синхронность — это миф. Ничто не происходит мгновенно. На все требуется время. Некоторые характеристики вычислительных систем и сред для программирования фундаментально базируются на том факте, что вычисления происходят в трехмерном физическом мире и ограничены пределами, обусловленными скоростью света и законами термодинамики. Такая укорененность в физическом мире означает, что некоторые аспекты не теряют актуальности даже с появлением новых технологий, обеспечивающих новые возможности и выход на новые рубежи производительности. Они остаются в силе, поскольку это не просто «варианты, выбранные при проектировании», а основополагающая реальность физической Вселенной. Различие между синхронностью и асинхронностью в языке и создании систем — как раз такой аспект проектирования, у которого есть глубокие физические основания. Большинство программистов сразу начинают работать с такими программами и языками, где подразумевается синхронное выполнение. На самом деле, это настолько естественно, что никто об этом напрямую даже не упоминает и не рассказывает. Термин «синхронный» в данном контексте означает, что вычисление происходит сразу, как серия последовательных шагов, и до его завершения больше ничего не происходит. Я выполняю `“c = a + b” или “x = f(y)”` – и больше ничего не произойдет, пока не завершится выполнение этой инструкции. Разумеется, в физической Вселенной ничто мгновенно не происходит. Все процессы сопряжены с некоторыми задержками – нужно сориентироваться в иерархии памяти, выполнить цикл процессора, считать информацию с дискового привода или связаться с другим узлом по сети, при передаче данных по которой также возникают задержки. Все это – фундаментальное следствие скорости света и распространения сигнала в трех измерениях. Все процессы немного запаздывают, на все требуется время. Определяя некоторые процессы как синхронные, мы, в сущности, говорим, что собираемся игнорировать эту задержку и описывать наше вычисление как мгновенное. На самом деле, в компьютерных системах зачастую закладывается серьезная инфраструктура, позволяющая и далее активно использовать базовое аппаратное обеспечение, даже когда интерфейс для программирования пытаются оптимизировать, представляя происходящие на нем события как синхронные. Сама идея о том, что синхронность обеспечивается при помощи специального механизма и сопряжена с издержками, может показаться нелогичной программисту, более привыкшему, что именно асинхронность требует активного внешнего управления. Фактически, вот что на самом деле происходит при предоставлении асинхронного интерфейса: подлинная основополагающая асинхронность открывается перед программистом чуть более выраженно, чем ранее, и ему приходится обрабатывать ее вручную, а не полагаться на программу, которая могла бы сделать это автоматически. Непосредственное предоставление асинхронности сопряжено с лишними издержками для программиста, но при этом позволяет грамотнее распределить затраты и компромиссы, присущие данной предметной области, а не оставлять это на откуп системе, которая должна была бы сбалансировать такие затраты и компромиссы. Асинхронный интерфейс зачастую точнее соответствует событиям, физически происходящим в базовой системе и, соответственно, открывает дополнительные возможности оптимизации. Например, процессор и система памяти обеспечиваются изрядной инфраструктурой, отвечающей за считывание и запись данных в памяти с учетом ее иерархии. На уровне 1 (L1) ссылка на кэш-память может занять несколько наносекунд, тогда как сама ссылка на память должна пройти весь путь через L2, L3 и главную память, на что могут потребоваться сотни наносекунд. Если просто ждать, пока ссылка на память разрешится, то процессор будет простаивать в течение значительного процента времени. Для оптимизации таких феноменов применяются серьезные механизмы: конвейеризация с опережающим просмотром потока команд, одновременные множественные операции выборки из памяти и текущее сохранение данных, прогнозирование ветвлений и попытки дальнейшей оптимизации программы, даже когда она перескакивает к другому участку памяти, аккуратное управление барьерами памяти, чтобы гарантировать, что весь этот сложный механизм и далее будет предоставлять согласованную модель памяти для более высокоуровневой среды программирования. Все эти вещи делаются в стремлении оптимизировать производительность и по максимуму использовать аппаратное обеспечение, чтобы скрывать эти задержки в 10-100 наносекунд в иерархии памяти и предоставлять систему, в которой будто бы происходит синхронное выполнение, а при этом еще выжимать приличную производительность из ядра процессора. Далеко не всегда понятно, насколько эффективны такие оптимизации для конкретного фрагмента кода, и для ответа на этот вопрос зачастую требуются очень специфические инструменты для анализа производительности. Такие аналитические работы предусматриваются при разработке немногочисленного очень ценного кода (например, как в движке пересчета для Excel, некоторых вариантах сжатия в ядре или криптографических путях в коде). Операции с более значительной задержкой, например, считывание данных с вращающегося диска, требуют применения иных механизмов. В таких случаях при запросе на считывание с диска ОС потребуется полностью переключиться на другой поток или процесс, а синхронный запрос останется неотправленным. Высокие издержки на переключение и на поддержку этого механизма как такового приемлемы, поскольку скрываемая при этом задержка может достигать нескольких миллисекунд, а не наносекунд. Обратите внимание: эти издержки не сводятся к простому переключению между потоками, а включают стоимость всей памяти и ресурсов, которые фактически зря простаивают до тех пор, пока операция не завершится. На все эти издержки приходится идти, чтобы предоставить якобы синхронный интерфейс. Есть ряд фундаментальных причин, по которым в системе может быть необходимо раскрывать реальную базовую асинхронность и по которым с неким компонентом, уровнем или приложением будет предпочтительнее использовать асинхронный интерфейс, даже с учетом необходимости непосредственно справляться с возрастающей сложностью. **Параллелизм**. Если предоставляемый ресурс рассчитан на истинный параллелизм, то асинхронный интерфейс позволяет клиенту более естественно одновременно выдавать по несколько запросов и управлять ими, в более полной мере использовать базовые ресурсы. **Конвейеризация**. Обычный способ уменьшения фактической задержки на некотором интерфейсе — добиться, чтобы в каждый момент времени несколько запросов ожидали отправки (насколько это на самом деле полезно с точки зрения производительности зависит от того, где у нас возникает источник задержек). В любом случае, если система приспособлена к конвейеризации, то фактическую задержку можно снизить с коэффициентом, равным количеству запросов, ожидающих отправки. Так, на завершение конкретного запроса может уходить 10 мс, но, если записать в конвейер 10 запросов, то отклик может приходить каждую миллисекунду. Суммарная пропускная способность – это функция доступной конвейеризации, а не просто «сквозная» задержка, приходящаяся на один запрос. Синхронный интерфейс, выдающий запрос и ожидающий отклика, всегда будет давать более высокую сквозную задержку. **Пакетирование (локальное или удаленное)**. Асинхронный интерфейс более естественно обеспечивает реализацию системы пакетирования запросов, либо локально, либо на удаленном ресурсе (обратите внимание: «удаленным» в данном случае может быть контроллер диска на другом конце интерфейса ввода/вывода). Дело в том, что приложение уже должно справиться с получением отклика, и при этом возникнет какая-то задержка, поскольку текущую обработку приложение прерывать не будет. Такая дополнительная обработка может быть сопряжена дополнительными запросами, которые было бы естественно объединить в пакет. Локальное пакетирование может обеспечить более эффективную передачу серий запросов, либо даже сжатие и удаление дублирующихся запросов прямо на локальной машине. Чтобы иметь возможность одновременного доступа к целому набору запросов на удаленном ресурсе может потребоваться серьезная оптимизация. Классический пример: контроллер диска переупорядочивает последовательность операций считывания и записи, чтобы пользоваться положением головки диска на вращающейся пластине и минимизировать время подвода головок. На любом интерфейсе хранилища данных, работающем на уровне блоков, можно серьезно повысить производительность, объединяя в пакеты серии таких запросов, при которых все операции считывания и записи приходятся на один и тот же блок. Естественно, локальное пакетирование можно реализовать и на синхронном интерфейсе, но для этого придется либо в значительной степени «скрыть истину», либо запрограммировать объединение в пакеты как специальную фичу интерфейса, что может значительно усложнить весь клиент. Классический пример «сокрытия истины» — буферизованный ввод/вывод. Приложение вызывает `“write(byte)”`, и интерфейс возвращает `success`, но, фактически, сама запись (а также информация о том, успешно ли она прошла) не состоится, пока буфер не будет явно заполнен или опустошен, а это происходит при закрытии файла. Многие приложения могут игнорировать такие детали – беспорядок возникает лишь тогда, когда в приложении требуется гарантировать некоторые взаимодействующие последовательности выполнения операций, а также истинное представление о том, что происходит на нижележащих уровнях. **Разблокирование / Развязывание**. Одно из наиболее распространенных применений асинхронности в контексте графических пользовательских интерфейсов – недопущение блокировки главного потока пользовательского интерфейса, чтобы пользователь мог продолжать взаимодействовать с приложением. Задержки при долгосрочных операциях (например, связь по сети) невозможно скрыть за синхронным интерфейсом. В таком случае поток пользовательского интерфейса должен явно управлять такими асинхронными операциями и справляться с дополнительной сложностью, которая при этом привносится в программу. Пользовательский интерфейс – как раз такой пример, где компонент должен продолжать откликаться на дополнительные запросы и, следовательно, не может полагаться на некий стандартный механизм, скрывающий задержки ради упрощения работы программиста. Компонент веб-сервера, получающий новые соединения с сокетами, как правило, очень быстро передаст такое соединение другому асинхронному компоненту, обеспечивающему взаимодействие на сокете, а сам вернется к обработке новых запросов. В синхронных моделях обычно тесно связываются компоненты и модели их обработки. Асинхронные взаимодействия – это механизм, [зачастую применяемый для ослабления связывания](https://medium.com/@terrycrowley/loose-coupling-in-asynchronous-systems-bc399d12a6a9). Снижение издержек и управление ими. Как упоминалось выше, любой механизм для сокрытия асинхронности сопряжен с некоторым выделением ресурсов и издержками. Для конкретного приложения такие издержки могут быть неприемлемы, и проектировщик этого приложения должен найти способ управлять естественной асинхронностью. Интересный пример – история веб-серверов. Ранние веб-серверы (создававшиеся на основе Unix) для управления входящим запросом обычно ответвляли отдельный процесс. Затем этот процесс мог считывать это соединение и записывать в него, происходило это, в сущности, синхронно. Такой дизайн развивался, и издержки удалось снизить, когда вместо процессов стали использоваться потоки, но общая синхронная модель выполнения сохранялась. В современных вариантах дизайна признается, что основное внимание следует уделять не модели вычислений, а, прежде всего, сопутствующему вводу/выводу, связанному со считыванием и записью при обмене информацией с базой данных, файловой системой или при передаче информации по сети, формулируя при этом отклик. Обычно для этого используются рабочие очереди, в которых допускается некое предельное количество потоков – и в таком случае удается более явно выстраивать управление ресурсами. Успех NodeJS в бэкенд-разработке объясняется не только поддержкой этого движка со стороны многочисленных JavaScript-разработчиков, выросших на создании клиентских веб-интерфейсов. В NodeJS, как и в браузерном скриптинге, огромное внимание уделяется проектированию в асинхронном ключе, что хорошо сочетается с типичными вариантами серверной нагрузки: управление ресурсами сервера зависит в первую очередь от ввода/вывода, а не от обработки. Здесь есть еще один интересный аспект: такие компромиссы получаются более явными и лучше поддаются корректировке со стороны разработчика приложений, если придерживаться именно асинхронного подхода. В примере с задержками в иерархии памяти фактическая задержка (измеряемая в циклах процессора в пересчете на запрос в памяти) за несколько десятилетий драматически возросла. Разработчики процессоров изо всех сил добавляют все новые уровни кэша и дополнительные механизмы, все сильнее раздвигающие предоставляемую процессором модель памяти, чтобы и дальше сохранялась такая видимость синхронной обработки. Переключение контекста на границах синхронного ввода/вывода – еще один пример, где фактические компромиссы со временем кардинально изменились. Наращивание процессорных циклов происходит не в пример быстрее, чем борьба с задержками, и это означает, что теперь приложение упускает гораздо больше вычислительных возможностей, пока простаивает в заблокированном виде, дожидаясь завершения IO. Та же проблема, связанная с относительной стоимостью компромиссов, подвигла проектировщиков ОС придерживаться таких схем управления памятью, которые значительно сильнее напоминают ранние модели с подкачкой процессов (где в память целиком загружается весь образ процесса, после чего уже начинается выполнение процесса), а не применяется подкачка страниц. Слишком сложно скрывать задержки, которые могут возникать на границе каждой страницы. Радикально улучшившаяся суммарная пропускная способность, достигаемая при помощи крупных последовательных IO-запросов (по сравнению с использованием случайных запросов) также способствует именно таким изменениям. ***Другие темы*** **Отмена** [Отмена – сложная тема](https://hackernoon.com/what-is-too-long-4e15418f10ce). Исторически синхронно-ориентированные системы плохо справлялись с обработкой отмены, а некоторые даже вообще не поддерживали отмену. Отмена по сути своей должна была проектироваться «вне полосы», для такой операции требовалось вызывать отдельный поток выполнения. В качестве альтернативы подойдут асинхронные модели, где поддержка отмены организована более естественно, в частности, применяется такой тривиальный подход: попросту игнорируется, какой отклик в итоге возвращается (и возвращается ли вообще). Отмена становится все важнее, когда увеличивается вариативность задержек, а также на практике возрастает частота ошибок – что дает вполне хороший исторический срез, демонстрирующий, как развивались наши сетевые окружения. **Дросселирование / Управление ресурсами** Синхронный дизайн по определению навязывает некоторое дросселирование, не позволяя приложению выдавать дополнительные запросы, пока текущий запрос не завершится. В асинхронном дизайне дросселирования даром не бывает, поэтому реализовывать его иногда приходится явно. В этом [посте](https://medium.com/@terrycrowley/asynchronous-issues-in-the-word-web-app-dd2128db6570) в качестве примера описана ситуация с Word Web App, где переход от синхронного дизайна к асинхронному вызвал серьезные проблемы с управлением ресурсами. Если приложение использует синхронный интерфейс, то оно вполне может не распознавать, что дросселирование неявно заложено в коде. При удалении такого неявного дросселирования можно (или приходится) более явно организовать управление ресурсами. Мне пришлось с этим столкнуться в самом начале карьеры, когда мы портировали текстовый редактор с синхронного графического API Sun на X Windows. При применении API Sun операция отрисовки происходила синхронно, так что клиент не получал управление обратно, пока она не завершалась. В X Windows графический запрос асинхронно диспетчеризовался по сетевому соединению, а потом выполнялся сервером отображения (который мог находиться на той же самой или на другой машине). Чтобы обеспечить хорошую интерактивную производительность, наше приложение должно обеспечивать некоторую отрисовку (то есть, гарантировать, что строка, в которой сейчас стоит курсор, обновится и отрисуется), а затем проверить, есть ли еще какой-то клавиатурный ввод, который требуется считывать. Если такой ввод найдется, то программа бросит отрисовку текущего экрана (который так или иначе станет неактуален после обработки того ввода, который сейчас находится в очереди), чтобы прочитать и обработать этот ввод, а затем перерисовать экран с учетом последних изменений. Такая система была хорошо настроена для работы с синхронным графическим API. Асинхронный интерфейс мог принимать запросы на отрисовку быстрее, чем они могли бы выполняться, из-за чего экран постоянно подвисал от пользовательского ввода. Это превращалось в настоящий кошмар при интерактивном растягивании изображений, поскольку относительная стоимость выдачи нового запроса была несравнимо ниже стоимости его выполнения. UI страшно подвисал, выполняя целые серии ненужных перерисовок после каждого перемещения курсора мыши. Эта проблема не теряет актуальности и сегодня, более чем 30 лет спустя (по-видимому, приложение Facebook для iPhone в определенных сценариях страдает в точности от такой же проблемы). Альтернативная схема – написать специальный код для обновления экрана (в котором учтено, как часто способен обновляться экран), сделать его ведущим и явно направлять на клиент обратный вызов для отрисовки области, а не оставлять клиенту ведущую роль в этом взаимодействии. В таком случае на клиенте нужно соблюдать жесткий хронометраж, чтобы подобный код работал эффективно, а это не всегда практично. **Сложность** Вся эта тема в конечном счете вращается вокруг относительной сложности создания приложений, построенных по асинхронным схемам. На одной из моих первых лекций, прочитанных на высокоуровневом внутреннем техническом семинаре компании Microsoft, я доказывал, что асинхронные API – ключевая составляющая для создания приложений, которые не будут подвисать так часто, как первые программы для ПК. На галерке сидел Батлер Лэмпсон, лауреат премии Тьюринга, один из основателей сегмента ПК – и он воскликнул: «Да, но и работать они не будут!» В последующие годы я много и предметно беседовал с Батлером, но он так и оставался глубоко обеспокоен тем, как же управлять асинхронностью в крупных масштабах. Существует две ключевые проблемы, возникающие при асинхронном дизайне. Первая – как описать, что вычисление необходимо перезапустить по прибытии асинхронного отклика. В частности, есть такая проблема: возможно ли найти способ компоновки, поддерживающий скрывание информации, необходимое для построения сложных приложений, состоящих из независимых компонентов. Распространены машины состояний, работающие в явном событийно-ориентированном ключе. Для практического решения таких проблем применимы языковые конструкции, например, `async/await` или промисы. Более «грубые» подходы, скажем, использование обратных вызовов, очень распространены в коде JavaScript. В данном случае возникает такая проблема: долгосрочное состояние программы погребается под непроницаемыми обратными вызовами, которые зачастую остаются неуправляемыми и вообще не поддаются управлению. `Async/await` позволяет описать асинхронное вычисление, как если бы оно было последовательным, запрограммированным в синхронном коде. Под капотом все это превращается в цепочки замыканий и функций продолжения. Такой подход также обеспечивает стандартное обертывание асинхронных вычислений, не требуя прибегать к спонтанным и непоследовательным приемам, которые наблюдаются в сыром коде, основанном на обратных вызовах. Но ни один из этих подходов не решает вторую ключевую проблему. В сущности, она сводится к тому, как изолировать промежуточное состояние. При синхронном дизайне любое промежуточное состояние, используемое при вычислениях, исчезает, поэтому после возврата синхронного вычисления оно уже недоступно. В асинхронном дизайне возникает та же проблема, что и в многопоточном, когда разные потоки могут оперировать общими разделяемыми данными (остерегайся драконов!). Промежуточное состояние (потенциально) может открыться, экспоненциально увеличивая фактическое количество состояний программы, суждение о которых нам потребуется. Фактически, утечка состояния происходит в обоих направлениях. Внутреннее состояние может предоставляться остальной части программы, а ссылка на изменение внешнего состояния может исходить из асинхронного вычисления. Такие механизмы как async/await, которые намеренно выстраивают код так, чтобы он казался последовательным и синхронным, не проясняют возникающих здесь рисков, а лишь маскируют их. Как и в целом при проектировании, когда приходится управлять сложностью, на первый план выходит стратегия изоляции, в особенности – изоляция данных. Один из вызовов при работе с графическими приложениями заключается в том, что в программе вполне может быть нужно информировать пользователя об этих промежуточных состояниях. Обычное требование – демонстрировать прогресс того или иного вычисления, либо прерывать, а затем перезапускать вычисление, на которое повлияли те или иные действия пользователя (классические примеры, вписывающиеся в обе эти категории – разметка страницы в Word или пересчет результатов в Excel). Во многих случаях, с которыми я сталкивался за многолетнюю практику, масса сложности добавляется из-за попыток определить, как эти промежуточные состояния программы должны подаваться пользователю, а не просто поставить курсор, оформленный в режиме ожидания. Определенно, для особенно длительных операций либо для таких, где велик риск отказа, пользователь очень хочет понимать, что же именно происходит в программе. Какую бы стратегию мы ни выбрали, всегда полезно действовать дисциплинированно и единообразно – со временем такая стратегия обязательно окупается. Импровизированные подходы быстро скатываются к невероятной сложности. **Выводы** Мир асинхронен. Синхронность – это миф, причем такой, что может обойтись вам в копеечку. Признавая, что асинхронность зачастую позволяет более правдоподобно моделировать то, что происходит в глубине нашей системы, мы можем осознанно управлять всеми ресурсами и затратами. Сложность связана с увеличением состояний программы, о которых требуется судить; для управления сложностью нужно изолировать состояние и ограничивать количество состояний, видимых для конкретного фрагмента кода.
https://habr.com/ru/post/423573/
null
ru
null
# PDFsharp and MigraDoc Foundation (Основы) Так как статья, из-за которой я получил инвайт куда-то пропала, хочу опубликовать ее снова. Ввиду небольшого количества бесплатных библиотек для работы с PDF в .Net а также недостаточного освещения их на русском языке хочу рассказать о работе с такой замечательной библиотекой как **PDFsharp and MigradDoc** Пожалуй начнем с самого начала — исходники можно скачать [здесь](http://pdfsharp.codeplex.com/releases) или [здесь](http://sourceforge.net/projects/pdfsharp/files/) Теперь добавим ссылки в свой проект: ``` using MigraDoc; using PdfSharp; using MigraDoc.DocumentObjectModel; using MigraDoc.Rendering; using PdfSharp.Pdf; ``` Создаем новый документ ``` Document document = new Document(); ``` Каждый документ MigraDoc состоит из независимых секций, которые могут иметь свой формат. Создание секции: ``` Section section = document.AddSection(); ``` после такой инициализации, работая с *section* — мы работаем с частью документа *document*. Секции имеет функции для работы с информацией, такие как *Add,AddParagraph(), AddImage(),AddTable()* и т.д., а также класс для изменения формата самой секции *PageSetup*. Изменение формата: ``` section.PageSetup.PageFormat = PageFormat.А5;//стандартный размер страницы section.PageSetup.Orientation = Orientation.Portrait;//ориентация section.PageSetup.BottomMargin = 10;//нижний отступ section.PageSetup.TopMargin = 10;//верхний отступ ``` Добавление информации происходит либо с помощью *Add(Param)*, где *Param* — параграф(Paragraph), рисунок(Image), таблица(Table), график(Chart) или текстовая рамка(TextFrame) ``` Paragraph paragraph =new Paragraph(); section.Add(paragraph); ``` либо по примеру добавления секции ``` Paragraph paragraph = section.AddParagraph(); ``` При чем для каждого параграфа также возможно установить индивидуальный формат (класс Format) и стиль (класс Style): ``` paragraph.Format.Font.Color = Color.FromCmyk(100, 30, 20, 50); ``` К каждому параграфу можно добавить информацию: ``` Text text = new Text("text"); paragraph.AddText("text");//текст paragraph.AddFormattedText("formatted text", styleName);// форматированный текст paragraph.Add(text);//добавление любого из перечисленых ниже paragraph.AddBookmark("Bookmark");//закладка paragraph.AddChar('c');//символ paragraph.AddDateField("10.10.2010");//дата paragraph.AddFootnote("Footnote");//нижняя подпись //и еще много чего ``` Основу мы собрали, теперь осталось превратить ее в полноценный PDF документ, для чего используется PdfDocumentRenderer: ``` pdfRenderer = new PdfDocumentRenderer(true, PdfFontEmbedding.Always); pdfRenderer.Document = document; pdfRenderer.RenderDocument(); pdfRenderer.PdfDocument.Save(filePath);// сохраняем ``` Возможно понадобится использовать в документе шрифты не установленные по умолчанию в ОС, например *DejaVuSansMono.ttf*. Это можно сделать так, предварительно поместив файл вышеуказанного шрифта в туже папку где и исполняемы файл: ``` Uri uri = new Uri(@"file://" + System.IO.Path.GetDirectoryName(System.Reflection.Assembly.GetEntryAssembly().Location) + @"\DejaVuSansMono.ttf"); XPrivateFontCollection pfc = XPrivateFontCollection.Global; try { pfc.Add(uri, "./#DejaVu Sans Mono"); } catch (Exception) {} pdfRenderer.DocumentRenderer.PrivateFonts = pfc; ``` Если нужно вывести созданный документ в своем приложение, нам поможет *MigraDoc.Rendering.Windows.DocumentPreview* — контрол для вывода **созданных в MigraDoc** документов. Вначале нужно поместить его на форму или WPF-окно, после чего использовать такой код: ``` Document doc = new Document(); doc = oDocument.Clone(); preview.Ddl = DdlWriter.WriteToString(doc); ``` Возможность выводить уже созданные PDF-документы к сожалению отстутсвует. Рекомендую обратить внимание на функцию *Clone()*, которая важна при присваивании любых объектов MigraDoc(документов, секций, параграфов и т.д.), если ее не использовать то при изменении первого объекта будет изменятся и тот, который первому присвоили. Для печати MigraDoc документов можно использовать *MigraDocPrintDocument*: ``` MigraDocPrintDocument migraDocPrint = new MigraDocPrintDocument(preview.Renderer); migraDocPrint.Print(); ``` Но замечена такая проблема, что данный способ не работает при печати через сервер, печать через локальный принтер нормальна. Поэтому как вариант можно использовать для печати Foxit Reader: ``` pdfDocumentRenderer.PdfDocument.Save(@"temp.pdf"); Process.Start(@"Resources\Foxit Reader.exe", @"/p temp.pdf"); ``` В заключение хочется сказать, что протестировав все библиотеки из [этого поста](http://habrahabr.ru/post/112707/) я остановился на данной библиотеке как самой удобной и имеющей широкие возможности.
https://habr.com/ru/post/150059/
null
ru
null
# У Вас есть дети? Давайте меняться! На днях закончил делать новый сервис по обмену детскими вещами. К этому моменту у самого накопилась целая куча этого добра. Дети растут зачастую быстрее, чем изнашивается их одежда и обувь. Не говоря уже о стерилизаторах, игрушках, колясках, качельках, велосипедах и книжках, становящихся ненужными в идеальном, практически новом состоянии. На [**Добровороте**](http://dobrovorot.ru/) Вы получаете кредиты за отданные другим пользователям вещи, которые уже не нужны Вашему ребенку. Эти кредиты в дальнейшем Вы можете обменять на нужные детские вещи, которые предлагают другие участники сообщества. ![image](http://dobrovorot.ru/img/how.jpg) Доброворот должен помочь сэкономить значительные средства молодым родителям, использующим этот сервис. На данный момент сервис работает только по приглашениям. Если у кого-то из Хабрапользователей есть ненужные детские вещи в приличном состоянии, пишите в личку адрес – вышлю приглашение. `P.S. Сайт может содержать разумное количество глюков, т.к. я его один делал в свободное от отдыха и работы время.`
https://habr.com/ru/post/61585/
null
ru
null
# Фактор рефакторинга Код зависим от данных и моделей, а значит от абстракций используемых в них, поэтому рефакторинг неминуем сегодня. Почему? Обычно под рефакторингом подразумевают реорганизацию кода из соображений необходимости использовать данные по-новому. Мы поговорим о самом частом и нелюбимом типе рефакторинга - лавинообразный рефакторинг, возникающий при изменениях в моделях данных, структурах таблиц и бизнес логике. > [Философия Deep](https://habr.com/ru/post/576398/) описывает всё концепцией Link. Любой объект это Link, любое отношение это Link. У отношения всегда указаны `from` и `to`. У самостоятельного объекта `from` и `to` не указаны. Это также отличает Deep философию от графовых баз данных, там edge не может служить объектом отношений. > > ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2ee/9f6/ecc/2ee9f6eccdccc2cff966c67a647dc923.png)### Что может меняться в зависимости от моделей данных? * Переименование полей. * Изменение отношений one to one/many * Добавление абстракций * Устаревание абстракций Всегда можно попробовать залатать проблемы с обратной совместимости добавлением новых адаптеров и слоёв. Но эта борьба с симптомами лишь отложит последствия настоящей проблемы. С каждым изменением бизнес логики эффект луковицы будет только нарастать. И будет становиться больше абстракций которые переплетены друг с другом. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ec7/b21/67b/ec7b2167bd8557ffee24d8a90db1534f.png)Многие программисты поспорят - это вопрос чистоты кода. Мы не согласны. Чистота кода, это только про его реализацию. **Проблема не в том, как мы пишем код, как бы сильно нам не хотелось в это верить. Проблема в том, что он в принципе зависим от абстракций бизнес логики, и пытаясь исправить последствия этой проблемы программисты не уменьшают сложность кода, а лишь помножают её. В то же время программисты окружают себя мнимыми ощущениями комфорта и контроля на ситуацией.** > Deep.Case ставит целью победить этого врага. Модели данных могут развиваться вообще не приводя к рефакторингу. Как? Для того что бы объяснить, разберемся в причинах проблем. > > Переименование полей -------------------- Архитектура может быть разная. Вы можете использовать GraphQL и генераторы схем, или сопоставлять API и абстракции данных через ORM/ODM самостоятельно, пробрасывая правила работы с таблицами кодом. У вас может быть функциональное API и REST API с сервера. Но, вероятно, в любом случае схема работы с этими API будет определена либо на уровне API, либо на уровне имен колонок в таблицах. Таким образом, мы компенсируем вынужденные изменения оплатой разработчиков на то, чтобы обновить базу данных, генераторы, резолверы и API. Проблема здесь - разделение реализации функционала и интеграции его в бизнес логику. Этот один слой абстракции помножается на пересечения условий бизнес логики и обстоятельства связей между колонками, в итоге делая цену каждой волны сильно зависимой от возраста проекта. Точно подсчитать фактор зависимости не удалось, но эта цена всегда оказывается кратно больше стоимости самой модификации полей и конечного изменившегося поведения в бизнес сценарии. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c93/209/686/c932096867eba60389a2e3ac22211055.png) > Здесь же приходится учитывать права доступа и любые иные бизнес правила. Это увеличивает цену таких волн рефакторинга кратно правилам бизнес логики. Deep.Case позволяет полностью забыть об этой проблеме! > > Изменение отношений one to one/many ----------------------------------- Как бы мы не тешили себя иллюзиями, что можем все предугадать, это очевидно не так. Любая, даже самая идеальная модель, будет меняться. То, что мы считали единственной связью, станет множественной. То, что мы считали множественной из одной таблицы, начнет ссылаться из нескольких. Модели, задуманные к применению в одних местах, становятся необходимы во многих прочих. Каждое такое изменение сегодня снова требует участия разработчика. С Deep.Case данные делятся на: * связи используемые в качестве нодов (точек), отвечающих на вопрос `ЧТО`, как например: платеж, объем, потребность, момент, и любые иные * связи используемые в качестве отношений (связей), отвечающих на вопрос `КАК СВЯЗАНО`, как например: X хочет Y, W просмотрел Z, T владеет R, T отвечает на P * кастомные таблицы поставляемые моделями данных, доступные из линка соответствующего типа. Предназначение таких таблиц - обеспечить хранение кастомных, не ссылочных, данных которые удобнее описать в отдельной таблице. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9da/df3/3ec/9dadf33ecb2aaa5bdbe426c1d97cf1df.png)Связи, описывающие отношения, изначально не ограничены системой, как one/many. На уровне модели могут быть описаны, и в дальнейшем изменены правила создания связей каждого типа. Это значит, что для перехода от `one`к `many` достаточно разрешить создавать несколько связей определенного типа. > Во всех обработчиках и клиентских интерфейсах рекомендуется исходить из итерируемости каждого подмножества. При начальном производстве учитывать это очень дешево. Просто даже если мы думаем что связь такого типа бывает только в одном экземпляре, нужно подразумевать что их может статься множество. > > Добавление новых уровней абстракций ----------------------------------- Например, когда нужно создать новый способ связи и новые сущности. С Deep.Case больше не нужно проходить полный цикл изменения структуры данных, моделей ORM/ODM, или учитывать как код отражает требуемые абстракции, и его негибкость тормозят изменения бизнес логики. **Для такого рода изменений больше не нужен backend developer.** Достаточно создать новый тип связей и описать, при каких обстоятельствах в окружающем пространстве эта связь может создаваться и меняться. Она сразу станет доступна через единый GraphQL/REST API, никак не повредив старым абстракциям и связям, а значит зависимому от них коду. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c8a/7e0/906/c8a7e09069e09060cbf556878d9be347.png)Деприкейт старых уровней абстракций ----------------------------------- Так как больше нет самописного слоя резолверов API, деприкейт старых абстракций сводится к рекомендации не использования определенных связей **в новом коде**. Но, так как на их существование может быть завязано некоторое подмножество интерфейсов и обработчиков, их существование можно просто поддержать на уровне базы. Даже если пакет поставляющий модель данных хочет перейти на другой тип связей, ничто не мешает, создавая новые связи, поддерживать зеркальные структуры, создавая их на основе новых. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f49/273/e36/f49273e3663c7c15f65800fbad4299b3.png)Поддержите ассоциативные технологии ----------------------------------- Мы создаем среду разработки (коробочную CE/EE версию и SaaS версию), позволяющую использовать ассоциативный подход для решения ваших бизнес задач, нуждающихся в хранении данных, с возможностью адаптации под любые изменения бизнеса. Мы создадим распределённую сеть серверных кластеров в едином ассоциативном пространстве, в том числе чтобы не думать о региональном законодательстве, создавая проект. Мы создаём культуру публикации повторно используемых моделей данных с их поведением. Присоединяйтесь к нашему сообществу в [Discord](https://discord.com/invite/vNJCTK4nZB). Подпишитесь на ранний доступ в нашем Waitlist или поддержите нас на [Patreon](https://www.patreon.com/deepfoundation?fan_landing=true). <http://deep.foundation/> На нашем сайте можно найти ссылки на черновики будущих статей находящихся в разработке, ссылки на исходники кода, планы по project и product менеджменту и invest презентации.
https://habr.com/ru/post/576326/
null
ru
null
# Что сейчас происходит с RDF-хранилищами? Semantic Web и Linked Data подобны ближнему космосу: жизни там нет. Чтобы отправиться туда на более-менее длительный срок… ну, не знаю, что говорили вам в детстве в ответ на «хочу стать космонавтом». Но понаблюдать за происходящим можно и находясь на Земле; стать астрономом-любителем или даже профессионалом гораздо проще. В статье речь пойдет о свежих, не старее нескольких месяцев, трендах из мира RDF-хранилищ. Метафора в первом абзаце была навеяна [вот этой](https://cdn-images-1.medium.com/max/2600/1*cMUB5gcHMS9j-GFaBVRE5A.png) эпических размеров рекламной картинкой. Содержание ---------- [I. GraphQL для доступа к RDF](#i-graphql-dlya-dostupa-k-rdfanchoranchor) [II. Адаптеры к MongoDB](#ii-adaptery-k-mongodbanchoranchor) [III. OLTP vs. OLAP](#iii-oltp-vs-olapanchoranchor) [IV. RocksDB](#iv-rocksdbanchoranchor) [V. Поддержка LPG](#v-podderzhka-lpganchoranchor)      [V.1. Модели данных](#v1--modeli-dannyhanchoranchor)            [V.1.1. Singleton Property](#v11-singleton-propertyanchoranchor)            [V.1.2. Reification Done Right](#v12-reification-done-rightanchoranchor)            [V.1.3. Прочие подходы](#v13-prochie-podhodyanchoranchor)      [V.2. Языки запросов](#v2-yazyki-zaprosovanchoranchor) [VI. Ужесточение лицензий](#vi-uzhestochenie-licenziyanchoranchor) I. GraphQL для доступа к RDF ---------------------------- [Говорят](https://www.zdnet.com/article/graphql-for-databases-a-layer-for-universal-database-access/), что GraphQL претендует стать универсальным языком доступа к базам данных. Как обстоят дела с возможностью использовать GraphQL для доступа к RDF? «Из коробки» такую возможность предоставляют: * Stardog ([блог](https://www.stardog.com/blog/graphql-and-paths/), [документация](https://www.stardog.com/docs/#_executing_graphql_queries)); * продукты TopQuadrant ([вебинар](https://www.topquadrant.com/2018/07/05/graphql-webinar/), [документация](https://www.topquadrant.com/technology/graphql/)). Если же хранилище такой возможности не предоставляет, её реализуют самостоятельно, написав соответствующий «распознаватель» (resolver). Так поступили, например, во французском проекте [DataTourisme](https://framagit.org/datatourisme/api/tree/master/src/Resolver). Или уже можно ничего не писать, а просто взять [HyperGraphQL](https://www.hypergraphql.org/). С точки зрения ортодоксального приверженца Semantic Web и Linked Data всё это, конечно, печально, поскольку кажется предназначенным для интеграций, выстраиваемых вокруг очередных data silos, а не подходящих для того платформ (разумеется, RDF-хранилищ). Впечатления от сравнения GraphQL со SPARQL двоякие. * С одной стороны, GraphQL выглядит дальним родственником SPARQL: в нем решены характерные для REST проблемы перевыборки и множественности запросов — без чего, наверное, и нельзя было бы считаться языком запросов, хотя бы и для веба, и иметь в названии «-QL»; * С другой стороны, огорчает жесткая схемность GraphQL. Соответственно, его «интроспективность» кажется очень ограниченной в сравнении с полной рефлексивностью RDF. И нет никакого аналога property paths, так что даже не очень понятно, почему он «Graph-». II. Адаптеры к MongoDB ---------------------- Тренд, комплементарный предыдущему. * В Stardog теперь [возможно](https://www.stardog.com/blog/native-mongodb-support-is-here/) — в частности, все на том же GraphQL — настроить отображение данных MongoDB в виртуальные RDF-графы; * Ontotext GraphDB с недавних пор [позволяет](http://graphdb.ontotext.com/documentation/8.8/standard/integrating-graphdb-with-mongodb.html) вставлять в SPARQL фрагменты на MongoDB Query. Если же говорить шире, об адаптерах к JSON-источникам, позволяющих более-менее «на лету» представлять JSON как RDF, то стоит вспомнить и довольно давно существующий [SPARQL Generate](https://ci.mines-stetienne.fr/sparql-generate/), который можно приладить, [например](https://github.com/sparql-generate/sparql-generate), к Apache Jena. Резюмируя первые два тренда, можно сказать, что RDF-хранилища демонстрируют полную готовность к интеграциям и функционированию в условиях «многовариантного хранения» (polyglot persistence). Известно, впрочем, что это последнее уже давно не в моде, и на смену ему [грядет](https://www.gartner.com/en/documents/3105622) мультимодельность. А как обстоят дела с мультимодельностью в мире RDF-хранилищ? Если вкратце, то никак. Теме мультимодельных СУБД хочется посвятить отдельную статью. Пока же можно заметить, что мультимодельных СУБД, в которых основной моделью была бы графовая (разновидностью её можно считать RDF), сейчас нет. О некоей малой мультимодельности — поддержке RDF-хранилищами альтернативной графовой модели LPG — будет рассказано в [разделе V](#v-podderzhka-lpg). III. OLTP vs. OLAP ------------------ Впрочем, тот же Gartner [пишет](https://www.gartner.com/en/documents/3467318), что мультимодельность — условие sine qua non в первую очередь для *операционных* СУБД. Оно и понятно: в ситуации «многовариантного хранения» главные проблемы возникают с транзакционностью. Вот только где на шкале OLTP—OLAP находятся RDF-хранилища? Я бы ответил так: ни там, ни тут. Для обозначения того, к чему они предназначены, нужна какая-то третья аббревиатура. Как вариант предложил бы *OLIP* — Online Intellectual Processing. Однако все же: * реализованные в GraphDB механизмы интеграции с MongoDB не в последнюю очередь [предназначены](https://www.ontotext.com/company/news/ontotexts-graphdb-8-8-0-enriches-the-knowledge-graph-experience/) для обхода проблем с производительностью записи; * Stardog идет ещё дальше и полностью [переписывает](https://www.stardog.com/blog/announcing-stardog-7-beta/) движок, опять-таки с целью повысить производительность записи. А теперь разрешите представить нового игрока на рынке. От создателей IBM Netezza и Amazon Redshift — [AnzoGraph](https://www.cambridgesemantics.com/product/anzograph/). Картинка из рекламы продукта на его основе была размещена в начале статьи. AnzoGraph позиционирует себя как GOLAP-решение. Как вам SPARQL c оконными функциями? — ``` SELECT ?month (COUNT(?event) OVER (PARTITION BY ?month) AS ?events) WHERE { … } ``` IV. RocksDB ----------- Выше уже [была ссылка](https://www.stardog.com/blog/announcing-stardog-7-beta/) на анонс Stardog 7 Beta, где говорилось, что Stardog собирается использовать в качестве нижележащей системы хранения RocksDB — хранилище «ключ-значение», фейсбуковский форк гугловской LevelDB. Почему уже стоит говорить о некоем тренде? Во-первых, cудя по [статье в Википедии](https://en.wikipedia.org/wiki/RocksDB#Alternative_backend), на RocksDB пересаживаются не только RDF-хранилища. Есть проекты по использованию RocksDB как движка хранения в ArangoDB, MongoDB, MySQL и MariaDB, Cassandra. Во-вторых, на RocksDB делаются проекты (т. е. не продукты) соответствующей тематики. Например, eBay использует RocksDB в [платформе](https://github.com/eBay/beam) для своего «графа знаний». Между прочим, забавно читать: *the query language started as a home grown format, but more recently it has been transitioning to be much more like SPARQL*. Как в анекдоте: сколько knowledge graph ни делаем, все равно получается RDF. Другой пример — появившийся несколько месяцев назад [Wikidata History Query Service](https://www.wikidata.org/wiki/Wikidata:History_Query_Service). До его появления за историческими сведениями Викиданных приходилось обращаться через [MWAPI](https://www.mediawiki.org/wiki/Wikidata_Query_Service/User_Manual/MWAPI) к стандартному Mediawiki API. Теперь многое возможно на чистом SPARQL. «Под капотом» там тоже RocksDB. Кстати, сделал WDHQS, похоже, человек, занимавшийся импортом Freebase в Google Knowledge Graph. V. Поддержка LPG ---------------- Напомню основное отличие LPG-графов от RDF-графов. В LPG на экземпляры ребер могут навешиваться скалярные свойства, в то время как в RDF они могут навешиваться лишь на «типы» ребер (зато не только скалярные свойства, но и обычные связи). Эта ограниченность RDF по сравнению с LPG [преодолевается](https://www.w3.org/TR/swbp-n-aryRelations/) теми или иными техниками моделирования. Ограниченность же LPG по сравнению с RDF преодолевается сложнее, но LPG-графы больше, чем RDF-графы, похожи на картинки из учебника Харари, поэтому люди их хотят. Очевидно, задача поддержки LPG распадается на две части: 1. внесение в модель RDF изменений, дающих возможность имитировать в ней LPG-конструкции; 2. внесение в язык запросов к RDF изменений, дающих возможность обращаться к данным в этой измененной модели, — либо же реализация возможности делать запросы к этой модели на популярных языках запросов к LPG. ### V.1. Модели данных Здесь имеется несколько возможных подходов. #### V.1.1. Singleton Property Самый буквальный подход к гармонизации RDF и LPG — это, наверное, [singleton property](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4350149/): * Вместо, например, `:isMarriedTo` употребляются предикаты `:isMarriedTo1`, `:isMarriedTo2` и т. д. * Затем эти предикаты становятся субъектами новых триплетов: `:isMarriedTo1 :since "2013-09-13"^^xsd:date` и пр. * Связь этих экземпляров предикатов с общим предикатом устанавливается триплетами вида `:isMarriedTo1 rdf:singletonPropertyOf :isMarriedTo`. * Очевидно, что `rdf:singletonPropertyOf rdfs:subPropertyOf rdf:type`, но подумайте, почему не стоит писать просто `:isMarriedTo1 rdf:type :isMarriedTo`. Задача поддержки LPG решается здесь на уровне RDFS. Такое решение требует внесения в соответствующий [стандарт](https://www.w3.org/TR/rdf-schema/). Какие-то изменения могут потребоваться от RDF-хранилищ, поддерживающих присоединение следствий, а пока Singleton Property можно воспринимать просто как еще одну технику моделирования. #### V.1.2. Reification Done Right Менее наивные подходы проистекают из осознания того, что экземпляры свойств вполне инстанциируются триплетами. Имея возможность говорить что-то о триплетах, мы получим возможность говорить и об экземплярах свойств. Самый солидный из этих подходов — [RDF\*](https://arxiv.org/abs/1409.3288), он же RDR, [родившийся](https://wiki.blazegraph.com/wiki/index.php/Reification_Done_Right) в недрах Blazegraph. Его с самого начала [избрал](https://docs.cambridgesemantics.com/anzograph/userdoc/lpgs.htm) для себя и AnzoGraph. Солидность подхода определяется тем, что в его рамках [предлагаются](https://arxiv.org/abs/1406.3399) соответствующие изменения в [RDF Semantics](https://www.w3.org/TR/rdf11-mt/). Суть, однако, чрезвычайно проста. В Turtle-сериализации RDF можно теперь будет писать примерно так: ``` <<:bob :isMarriedTo :alice>> :since "2013-09-13"^^xsd:date . ``` #### V.1.3. Прочие подходы Можно не заморачиваться формальной семантикой, а просто считать, что у триплетов есть некие идентификаторы, являющиеся, естественно, URI, и составлять новые триплеты с этими URI. Останется лишь дать доступ к этим URI в SPARQL. Так [поступает](https://www.stardog.com/docs/#_motivation_implementation) Stardog. В Allegrograph [пошли](https://franz.com/agraph/support/documentation/current/triple-attributes.html) промежуточным путем. Известно, что идентификаторы триплетов в Allegrograph [есть](https://franz.com/agraph/support/documentation/current/triple-index.html), но при реализации triple attributes наружу они не торчат. Однако и до формальной семантики очень далеко. Примечательно, что атрибуты триплетов — не URI, и значения этих атрибутов тоже могут быть только литералами. Адепты LPG получают ровно то, что хотели. В специально изобретенном формате NQX пример, аналогичный приведенному выше для RDF\*, выглядит так: ``` :bob :marriedTo :alice {"since" : "2013-09-13"} ``` ### V.2. Языки запросов Поддержав тем или иным способом LPG на уровне модели, нужно дать возможность делать запросы к данным в такой модели. * Blazegraph для запросов к RDF\* поддерживает [SPARQL\*](https://wiki.blazegraph.com/wiki/index.php/Reification_Done_Right) и [Gremlin](https://github.com/blazegraph/tinkerpop3/blob/master/README.md). Запрос на SPARQL\* выглядит так: ``` SELECT * { <<:bob :isMarriedTo ?wife>> :since ?since } ``` * Anzograph тоже поддерживает [SPARQL\*](https://docs.cambridgesemantics.com/anzograph/userdoc/lpgs.htm) и собирается поддерживать [Cypher](https://www.cambridgesemantics.com/cambridge-semantics-adds-opencypher-anzograph-2/), язык запросов в Neo4j. * Stardog поддерживает собственное [расширение](https://www.stardog.com/docs/#_integration_with_sparql_2) SPARQL и [опять-таки](https://www.stardog.com/docs/#_example_2) Gremlin. Получить в SPARQL URI триплета и «метаинформацию» можно с помощью примерно такой конструкции: ``` SELECT * { BIND (stardog:identifier(:bob, :isMarriedTo, ?wife) AS ?id) ?id :since ?since } ``` * Allegrograph тоже поддерживает собственное [расширение](https://franz.com/agraph/support/documentation/current/triple-attributes.html#Querying-Attributes-using-SPARQL) SPARQL: ``` SELECT * { ("since" ?since) franz:attributesNameValue ( :bob :marriedTo ?wife ) } ``` Кстати, GraphDB одно время поддерживала Tinkerpop/Gremlin, не поддерживая при этом LPG, но в версии 8.0 или 8.1 это прекратилось. VI. Ужесточение лицензий ------------------------ Никаких прибавлений в пересечении множеств «triplestore of choice» и «open source triplestore» в последнее время не случалось. Новым RDF-хранилищам с открытым исходным кодом далеко до того, чтобы стать хорошим выбором для повседневного использования, а исходный код новых триплсторов, которые хотелось бы поиспользовать (того же AnzoGraph), закрыт. Скорее, можно говорить об убавлениях… Конечно, прежде открытый исходный код не закрывается, но некоторые хранилища c открытым исходным кодом постепенно перестают рассматриваться как достойные выбора. Virtuoso, имеющий opensource-редакцию, на мой взгляд, тонет в багах. Blazegraph куплен AWS и лег в основу Amazon Neptune; теперь непонятно, будет ли еще хоть один релиз. Остается лишь Jena… Если же открытый исходный код не очень важен, а хочется просто попробовать, то всё тоже менее радужно, чем раньше. Например: * Stardog [прекращает](https://community.stardog.com/t/update-to-enterprise-and-community-trials/1533) распространять бесплатную версию (впрочем, вырос в два раза пробный период обычной); * в [GraphDB Cloud](https://cloud.ontotext.com/), где раньше можно было выбрать бесплатный базовый план, регистрация новых пользователей приостановлена. В общем, для рядового ИТ-обывателя космос становится все более и более недоступным, освоение его становится уделом корпораций.
https://habr.com/ru/post/451206/
null
ru
null
# Приятное тестирование с Espresso ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/548/c3a/7b4/548c3a7b44d00c8ce526b5c751ddca21.jpg) Хочу представить вашему вниманию библиотеку для тестирования Android приложений от Google. Espresso была анонсирована 23 апреля прошлого года на Google Test Automation Conference 2013. В октябре прошлого года она стала официально Open Source проектом. Что же из себя представляет эта библиотека, мы рассмотрим ниже. #### **GoogleInstrumentationTestRunner** GoogleInstrumentationTestRunner, наследник стандартного InstrumentTestRunner, который был улучшен. Одно из самых главных его достоинств, то что он гарантирует выполнение теста после запуска и старта приложения. Другими словами, он гарантирует что все тесты будут стартоваться после выполнения onCreate (если это условие не выполняется то это может привести к неожиданным исключениям). Так же гарантирует что все запущенные активити завершаться до окончания отработки GoogleInstrumentationTestRunner. Поддерживает тесты начиная с Api 8. **#### Версия 1.1** 8 января 2014 вышла новая версия. Что нового: * Включена поддержка свайпов. Это очень хорошее дополнение, так как до этого нужно было писать свой кастомный обработчик; * Поддержка multi-window; * Исправлены баги. **#### От автора** Прежде чем переходить от теории к практике, хочется поделится своими впечатлениями. Библиотека очень молодая, ей нету ещё и года. Но работает таки стабильно и выходила она сразу с версии 1.0, что уже говорит о том что она вышла не просто ради бета/альфы теста. Писать с её помощью тесты очень приятно, так как много функционала она берёт на себя. Например, не нужно делать фокус на кнопке, проверять доступна ли она на экране и т.д., с Espresso вам достаточно обратится к кнопке по её id или text/description и Espresso уже всё сделает за вас, если кнопка не видна или не доступна на экране то тест автоматом уже не пройдёт. Они действительно сделали большой упор на UI. Парни с тех поддержки (они же и разработчики сего чуда) стараются максимально быстро и развернуто давать ответы на ваши вопросы. Мне довелось немножко с ними пообщаться. Так вот, самый главный вопрос который им задавали «Чем Espresso лучше Robotium?». Они говорят, что Robotium действительно хороша, но самой главной причиной, по которой они решили написать свой фреймворк это скорость выполнения тестов и их не всегда стабильность. Они уверяют что Espresso работает намного быстрее чем другие фреймворки (хотя цифры не приводят, я постараюсь в ближайшее время сделать сравнения). Но ещё одна не мало важная особенность, это то что Espresso использует синхронизацию с Main Thread. Instrumentation запускается в отдельном потоке, без синхронизации тестов с обновлением UI возникают проблемы со скоростью и могут возникнуть критические ошибки в самих тестах. Большинство разработчиков игнорируют этот факт и ставят задержки в потоке (sleep), что есть уже не правильно. С Espresso вам этого делать уже не надо будет. Robotium в свою очередь не использует синхронизацию, что влечёт за собой присыпания потоков и медленное выполнение тестов. Изначально все приложения Google тестировались при помощи Robotium, потому что в тот момент не было времени писать свой инструментал. Покрыть тестами свои проекты вы сможете до 95%! Ещё была ситуация когда мне понадобилось запустить тестовый проект в своем Application. Казалось бы, всё просто, переопределил стандартный, подставил в манифест и всё. Но как оказалось тесты все работают в том же Application что и приложение. Понимаю, что это логично, но вот такая реализация оказалась не возможной. **#### От теории к практики** Основные классы: * **Espresso** – основной класс. Содержит в себе статические методы, такие как нажатия на системные кнопки (back, home), вызвать/спрятать клавиатуру, открыть меню, обратится к View; * **ViewMatchers** – коллекция объектов для нахождения View на экране; * **ViewActions** – используется для обработчиков View (click, longClick, doubleClick, swipe, scroll и т.д.); На Espresso стоит переходить хотя бы за её простоту. Работа с View пишется в одну строчку. Напишем простой пример для ввода данных в EditText и нажатие на кнопку: ``` @SmallTest public void testSendMessageUI() { Espresso.onView(ViewMatchers.withId(com.eleks.espresso.example.app.R.id.etEmail)).perform(ViewActions.typeText("test@test.com")); Espresso.onView(ViewMatchers.withId(com.eleks.espresso.example.app.R.id.etMessage)).perform(ViewActions.typeText("Espresso")); Espresso.onView(ViewMatchers.withId(com.eleks.espresso.example.app.R.id.btnSend)).perform(ViewActions.click()); } ``` Всё просто. Ищется View на экране при помощи ViewMatchers по id, вводится текст имитируя человеческий ввод. Далее находится кнопка и происходит событие onClick по ней. Попробуйте спрятать кнопку и вы увидите, что тест не пройдёт так как Espresso просто не найдёт её на экране. ``` @SmallTest public void testOpenNavigationDrawer() { Espresso.onView(ViewMatchers.withId(com.eleks.espresso.example.app.R.id.content_frame)).perform(ViewActions.swipeRight()); ListView lvDrawerMenu = (ListView) getActivity().findViewById(com.eleks.espresso.example.app.R.id.lvDrawerMenu); Preconditions.checkNotNull(lvDrawerMenu, "lvDrawerMenu is null"); final int count = lvDrawerMenu.getAdapter().getCount(); Preconditions.checkPositionIndex(2, count, "No 1 index " + count + " size"); Object obj = lvDrawerMenu.getItemAtPosition(2); Espresso.onView(Matchers.allOf(ViewMatchers.withId(com.eleks.espresso.example.app.R.id.tvItem), ViewMatchers.hasSibling(ViewMatchers.withText(obj.toString())))).perform(ViewActions.click()); } ``` В этом примере делается свайп вправо и открывается NavigationDrawer. Далее в происходит событие onClick по третьей ячейке листа. Класс Preconditions используется для проверки входных данных. Им удобно проверять null, выход за границы массива, проверка позиции, проверка значения и т.д. Далее мы ищем любую View с значением, которое мы предварительно вытянули с листа. Для более лучшей надёжности и совместимости тестов, разработчики Espresso рекомендуют метод onView и класс ViewMatcher который сам ищет View на активити, вместо привычной нам findViewById. Но в таком случае приходится писать кастомные обработчики и методы, так как если мы найдём View при помощи ViewMatcher, то багаж методов которые мы можем вызвать будет ограничен. Но в любом случае Espresso движется в правильном направлении и её разработчики пытаются сделать так что бы написание тестов было как можно более приятным. [Example на Github](https://github.com/viacheslavtitov/Espresso) [Где скачать Espresso](https://code.google.com/p/android-test-kit)
https://habr.com/ru/post/212425/
null
ru
null
# Java для HPC. Расчёт скалярного произведения векторов Здравствуйте, Данный пост — продолжение [первого](http://habrahabr.ru/blogs/java/105021/) поста по теме. *Данный пост является краткой выжимкой из статьи «Java for High Performance Computing», которая будет представлена мной на университетской конференции Томского Политехнического.* Скалярное произведение векторов — сумма всех произведений соответствующих элементов векторов. Для решения задачи были написаны две программы — на Си (не мной :-) и на Java. Тестирование обеих программ производилось на суперкомпьютерном кластере «СКИФ-Политех», установленном в Томском политехническом университете и состоящем из 24 узлов по 2 процессора Intel Xeon 5150 2.66 Ghz и 8 Гб оперативной памяти на каждом под управлением Linux SuSE Enterprise версии 10.3. В качестве наборов данных в первом случае использовались два вектора размерностью 99999999 целых элементов, инициализировавшихся случайным образом, и во втором случае два вектора по 99999999 вещественных элементов. Обе программы запускались 21 раз для каждого набора данных с изменением количества используемых ядер процессоров (от 2 до 40), по два раза в каждом случае. Следует отметить тот момент, что обе программы: \* не оптимизированы; \* используют одну и ту же функциональность (за исключением внутренних особенностей языков). Поэтому в комментариях всячески приветствуются дополнения. **Теория, необходимая для решения поставленной задачи** В имплементациях MPI для Си и Java существуют два различия, которые могут сначала смутить: 1) В функциях пересылки сообщений первым аргументом в Си идёт объект, в Java — **обязательно** одномерный массив; 2) Различная последовательность аргументов. Для расчёта скалярного произведения векторов необходимо решить следующие задачи: 1) Создать два вектора по N элементов каждый и инициализировать значения; 2) Разделить вектора на частички, которые будут разосланы узлам; 3) Разослать частички; 4) Принять частички на узлах; 5) Произвести вычисления; 6) Отослать обратно; 7) Просуммировать и получить результат; 8) Подсчитать время, затраченное на выполнение программы. По пунктам: **1) Создать два вектора по N элементов каждый и инициализировать значения** Для Си необходимо выделить соответствующий кусок памяти на массивы — malloc(n\*sizeof(double)) и в цикле рандомом rand() инициализировать значения. Для Java достаточно просто создать массивы-вектора, объект класса Random (следует отметить, что на создание объектов уходить много времени, будьте осторожны) и, используя данный объект, инициализировать массивы-вектора. **2) Разделить вектора на частички, которые будут разосланы узлам** Для Си и Java решается одинаково: n = total / numprocs + 1, где N — количество частичек на один узел, Total — длина вектора, numprocs — количество процессов (MPI\_COMM\_Size) в пуле. **3) Разослать частички;** Используется функция из библиотеки MPI — MPI\_Bcast, рассылающая объект по всем процессам в пуле. За спецификациями можно обращаться на [сайт производителя](http://mpj-express.org/docs/javadocs/mpi/package-summary.html). В результате рассылка массивов в Java выглядит так: `MPI.COMM_WORLD.Bcast(d, 1, 0,MPI.DOUBLE, 0); MPI.COMM_WORLD.Send(a,0,a.length,MPI.DOUBLE,dest,0); MPI.COMM_WORLD.Send(b,0,b.length,MPI.DOUBLE,dest,0);` где d — длина кусочка от массивов, a — первый вектор, b — второй вектор. **4) Принять частички на узлах** `MPI.COMM_WORLD.Recv(a,0,d[0],MPI.DOUBLE,0,0); MPI.COMM_WORLD.Recv(b,0,d[0],MPI.DOUBLE,0,0);` Без комментариев. **5) Произвести вычисления** `for (int i=0; i sum[0]+=a[i]*b[i]; }` **6) Отослать обратно; 7) Просуммировать и получить результат;** А вот здесь интересный момент — две задачи объединим в одну. Воспользуемся редуцирующей функцией, которая сама выполнит за нас все необходимые действия — соберёт результаты и сложит их в одномерный массив (не забываем, что в реализации для Java не должно быть простых переменных!) result. `MPI.COMM_WORLD.Reduce(sum,0,result,0,1,MPI.DOUBLE,MPI.SUM,0);` **8) Подсчитать время, затраченное на выполнение программы** Для этого используются две встроенные функции, обе врапперы для стандартных функций — MPI.Wtime (wall time). Поставим вызов первой в начале программы и вычисление общего времени выполнения (не вычисления!) программы в конце. **Выводы** Несмотря на все недостатки Java и сильное различие между временем выполнения программ на Си и Java, окончательное решение о выборе того или иного языка программирования может быть принято лишь после тщательного анализа предметной области и ситуации, в которой оказалась группа исследователей. В некоторых случаях, использование Си гораздо более обосновано за счет высшей призводительности и большей ориентированности на железо (следовательно, большей оптимизации всего процесса), в то же время использование Си налагает большую ответственность на программиста, который должен быть достаточно компетентен, чтобы не выпустить ситуацию из-под контроля и не допустить возникновения критических случаев, в которых программа может «утечь» и потащить за собой всю программу. Это очень важный момент в серьёзных исследованиях. С другой стороны, использование Java также оправдано. Несмотря на потерю производительности, проблемы с вычислениями чисел с плавающей запятой и прочему Java обладает такими достоинствами, как контроль за ситуацией виртуальной машиной, развитый инструментарий по перехвату исключительных ситуаций, низкий порог вхождения для разработки «числодробилки», отсутствие таких сложных и неоднозначных инструментов, как указатели или ручное выделение памяти — всё это может быть достаточным аргументом для выбора Java как языка программирования для разработки параллельных программ для команды исследователей, не имеющей в своем составе компетентного программиста на Си. **Программа на Си** `#include "mpi.h" #include #include #include #include #define MYTAG 1 int myid, j; char processor\_name[MPI\_MAX\_PROCESSOR\_NAME]; double startwtime = 0.0, endwtime; int main(int argc,char \*argv[]) { int total, n, numprocs, i, dest; double \*a, \*b, sum, result; int namelen; MPI\_Status status; MPI\_Init(&argc,&argv); MPI\_Comm\_size(MPI\_COMM\_WORLD,&numprocs); MPI\_Comm\_rank(MPI\_COMM\_WORLD,&myid); MPI\_Get\_processor\_name(processor\_name,&namelen); if (myid == 0) { total = atoi(argv[1]); } printf("Process %d of %d is on %s\n", myid, numprocs, processor\_name); startwtime = MPI\_Wtime(); n = total / numprocs + 1; MPI\_Bcast(&n, 1, MPI\_INT, 0, MPI\_COMM\_WORLD); a = malloc(n\*sizeof(double)); b = malloc(n\*sizeof(double)); if ((a == NULL) || (b == NULL)) { fprintf(stderr,"Error allocating vectors (not enough memory?)\n"); exit(1); } if (myid == 0) { for (dest=1; dest < numprocs; dest++) { for (i=0; i < n; i++) { a[i] = 4294967296;//rand(); b[i] = 4294967296;//rand(); } MPI\_Send(a, n, MPI\_INT, dest, MYTAG, MPI\_COMM\_WORLD); MPI\_Send(b, n, MPI\_INT, dest, MYTAG, MPI\_COMM\_WORLD); } n = total - n\*(numprocs-1); for (i=0; i < n; i++) { a[i] = rand(); b[i] = rand(); } } else { MPI\_Recv(a, n, MPI\_INT, 0, MYTAG, MPI\_COMM\_WORLD, &status); MPI\_Recv(b, n, MPI\_INT, 0, MYTAG, MPI\_COMM\_WORLD, &status); } printf("Process %d on node %s starting calc at %f sec\n", myid, processor\_name, MPI\_Wtime()-startwtime); sum = 0.0; for (i=0; i sum += a[i]\*b[i]; printf("Process %d on node %s ending calc at %f sec\n", myid, processor\_name, MPI\_Wtime()-startwtime); MPI\_Reduce(∑, &result, 1, MPI\_DOUBLE, MPI\_SUM, 0, MPI\_COMM\_WORLD); if (myid == 0) { endwtime = MPI\_Wtime(); printf("Answer is %f\n", result); printf("wall clock time = %f\n", endwtime-startwtime); fflush(stdout); } MPI\_Finalize(); return 0; }` **Программа на Java** `import mpi.*; import java.util.*; public class scalar { public static void main(String args[]){ MPI.Init(args); double[] result = new double[1]; int me = MPI.COMM_WORLD.Rank(); int size = MPI.COMM_WORLD.Size(); double startwtime=0.0; double endwtime=0.0; int total = 99999999; int[] d = new int[1]; d[0] = total/size+1; double[] a = new double[d[0]]; double[] b = new double[d[0]]; Random r = new Random(); MPI.COMM_WORLD.Bcast(d, 1, 0,MPI.INT, 0); if (me == 0){ startwtime = MPI.Wtime(); for (int dest=1; dest for (int i=0; i a[i] = r.nextDouble(); b[i] = r.nextDouble(); } MPI.COMM_WORLD.Send(a,0,a.length,MPI.INT,dest,0); MPI.COMM_WORLD.Send(b,0,b.length,MPI.INT,dest,0); } d[0] = total - d[0]*(size-1); for (int i=0; i a[i] = r.nextDouble(); b[i] = r.nextDouble(); } } else { MPI.COMM_WORLD.Recv(a,0,d[0],MPI.INT,0,0); MPI.COMM_WORLD.Recv(b,0,d[0],MPI.INT,0,0); } int[] sum = new int[1]; for (int i=0; i sum[0]+=a[i]*b[i]; } MPI.COMM_WORLD.Reduce(sum,0,result,0,1,MPI.INT,MPI.SUM,0); if (me == 0){ System.out.println("answer is"+result[0]+" time of calcs is equal to "+(MPI.Wtime()-startwtime)); } MPI.Finalize(); } }`
https://habr.com/ru/post/105408/
null
ru
null
# Аутентификация в rails-приложениях с помощью facebook, vkontakte Аутентификация в rails-приложениях через facebook, vkontakte ============================================================ ![](https://habrastorage.org/r/w1560/storage2/5df/b81/0f9/5dfb810f9a247b65b11195d8b7abe1a9.png) В данной статье будет рассказано, как сделать простейшую аутентификацию в rails-приложении через социальные сети vkontakte и facebook, помогают в этом гемы omniauth, omniauth-facebook, omniauth-vkontakte. Материал рассчитан на новичка. Хоть это и будет учебное приложение, но для придания законченности используем bootstrap с помощью гема twitter-bootstrap-rails. Каркас ------ Создаём новое приложение (bundle exec перед командами буду опускать): ``` rails new authproviders ``` Пишем необходимые гемы в Gemfile ``` source 'https://rubygems.org' gem 'rails', '3.2.3' gem 'sqlite3', :group => :development gem 'pg', :group => :production group :assets do gem 'sass-rails', '~> 3.2.3' gem 'coffee-rails', '~> 3.2.1' gem 'uglifier', '>= 1.0.3' end gem 'jquery-rails' gem 'haml-rails' gem 'twitter-bootstrap-rails' gem 'devise' gem 'omniauth' gem 'omniauth-facebook' gem 'omniauth-vkontakte' ``` Выполняем установку: ``` bundle install --without production ``` Сделаем приложение чуть посимпатичнее, применим bootstrap: ``` rails g bootstrap:layout application fixed ``` Не забываем удалить index.html из директории public, если остался файл application.html.erb, то тоже удаляем. Создаём модель пользователя, где url — адрес страницы с профилем: ``` rails g scaffold User username:string nickname:string provider:string url:string ``` Настраиваем devise: ``` rails generate devise:install rails generate devise User rake db:migrate ``` Добавляем в модель User модуль omniauthable: ``` class User < ActiveRecord::Base # Include default devise modules. Others available are: # :token_authenticatable, :encryptable, :confirmable, :lockable, :timeoutable and :omniauthable devise :database_authenticatable, :registerable, :recoverable, :rememberable, :trackable, :validatable, :omniauthable # Setup accessible (or protected) attributes for your model attr_accessible :email, :password, :password_confirmation, :remember_me attr_accessible :nickname, :provider, :url, :username end ``` Создаём контроллер обратных вызовов с экшенами для каждого провайдера ``` rails g controller Users::OmniauthCallbacks facebook vkontakte ``` Наследуем его от Devise::OmniauthCallbacksController ``` class Users::OmniauthCallbacksControllerController < Devise::OmniauthCallbacksController def facebook end def vkontakte end end ``` В routes.rb прописываем маршрутизацию: ``` Authproviders::Application.routes.draw do devise_for :users, :controllers => { :omniauth_callbacks => "users/omniauth_callbacks" } resources :users, :only => [:index, :destroy] root :to => 'users#index' end ``` Добавляем в шаблон application.html.haml ссылки на соц сети(user\_omniauth\_authorize\_path(:facebook) и user\_omniauth\_authorize\_path(:vkontakte)), полный код шаблона: ``` !!! 5 %html(lang="en") %head %meta(charset="utf-8") %meta(name="viewport" content="width=device-width, initial-scale=1.0") %title= content_for?(:title) ? yield(:title) : "Authproviders" = csrf_meta_tags / Le HTML5 shim, for IE6-8 support of HTML elements /[if lt IE 9] = javascript_include_tag "http://html5shim.googlecode.com/svn/trunk/html5.js" = stylesheet_link_tag "application", :media => "all" %link(href="images/favicon.ico" rel="shortcut icon") %link(href="images/apple-touch-icon.png" rel="apple-touch-icon") %link(href="images/apple-touch-icon-72x72.png" rel="apple-touch-icon" sizes="72x72") %link(href="images/apple-touch-icon-114x114.png" rel="apple-touch-icon" sizes="114x114") %body .navbar.navbar-fixed-top .navbar-inner .container %a.btn.btn-navbar(data-target=".nav-collapse" data-toggle="collapse") %span.icon-bar %span.icon-bar %span.icon-bar %a.brand(href="#") Authproviders .container.nav-collapse %ul.nav - if user_signed_in? %li= link_to "#{current_user.username} (#{current_user.provider})", current_user.url %li= link_to "Sign out", destroy_user_session_path, :method => :delete .container .content .row .span9 = yield .span3 .well.sidebar-nav %h3 Providers %ul.nav.nav-list - if !user_signed_in? %li= link_to "Sign in with Facebook", user_omniauth_authorize_path(:facebook) %li= link_to "Sign in with Vkontakte", user_omniauth_authorize_path(:vkontakte) %footer %p © Company 2012 = javascript_include_tag "application" ``` Поправим шаблон users/index.html.haml для вывода зарегистрированных пользователей ``` - model_class = User.new.class %h1=t '.title', :default => model_class.model_name.human.pluralize %table.table.table-striped %thead %tr %th= model_class.human_attribute_name(:username) %th= model_class.human_attribute_name(:nickname) %th= model_class.human_attribute_name(:provider) %th= model_class.human_attribute_name(:sign_in_count) %th= model_class.human_attribute_name(:created_at) %th=t '.actions', :default => t("helpers.actions") %tbody - @users.each do |user| %tr %td= link_to user.username, user.url %td= user.nickname %td= user.provider %td= user.sign_in_count %td= user.created_at %td = link_to t('.destroy', :default => t("helpers.links.destroy")), user_path(user), :method => :delete, :confirm => t('.confirm', :default => t("helpers.links.confirm", :default => 'Are you sure?')), :class => 'btn btn-mini btn-danger' ``` Убедимся что всё работает и приступаем к самому интересному: ``` rails s ``` Facebook -------- Идём на страницу <https://developers.facebook.com/apps> и создаём новое приложение ![](http://habrastorage.org/r/w1560/storage2/7de/a52/d01/7dea52d01ab12f3555dae5a3373fe22f.png) (для отладки на локалхосте в site url можно написать [localhost](http://localhost):3000) В файл инициализации devise.rb дописываем строчку: ``` config.omniauth :facebook, 'APP_ID', 'APP_SECRET' ``` 'APP\_ID', 'APP\_SECRET' меняем на значения, выданные при создании нового приложения. В модель User добавим метод facebook, который будет искать пользователя по адресу его странички, если такого нет, то создавать нового (не самое лучшее решение с точки зрения безопасности, но это лишь пример): ``` def self.find_for_facebook_oauth access_token if user = User.where(:url => access_token.info.urls.Facebook).first user else User.create!(:provider => access_token.provider, :url => access_token.info.urls.Facebook, :username => access_token.extra.raw_info.name, :nickname => access_token.extra.raw_info.username, :email => access_token.extra.raw_info.email, :password => Devise.friendly_token[0,20]) end end ``` В котроллер Users::OmniauthCallbacksController добавляем так же метод facebook: ``` def facebook @user = User.find_for_facebook_oauth request.env["omniauth.auth"] if @user.persisted? flash[:notice] = I18n.t "devise.omniauth_callbacks.success", :kind => "Facebook" sign_in_and_redirect @user, :event => :authentication else flash[:notice] = "authentication error" redirect_to root_path end ``` Vkontakte --------- Для контакта процедура аналогична: <http://vk.com/developers.php> создаём приложение: ![](http://habrastorage.org/r/w1560/storage2/a02/fae/684/a02fae6846bbc427e82abbdcba7a7d64.png) В файл инициализации devise.rb не забываем дописываем строчку: ``` config.omniauth :vkontakte, 'APP_ID', 'APP_SECRET' ``` Протестировать работу с контактом на локалхосте оказалось сложнее, можно использовать такую штуку: <https://github.com/progrium/localtunnel> После установки через bundle, при первом запуске подгружаем ключ: ``` localtunnel -k ~/.ssh/id_rsa.pub 3000 ``` Затем запускаем тунель, он выдаст нам адрес, по которому будет доступно приложение (его и забиваем в контакт), следом рельсы ``` localtunnel 3000 This localtunnel service is brought to you by Twilio. Port 3000 is now publicly accessible from http://4v9p.localtunnel.com ... rails s ``` Добавляем по методу vkontakte в модель и контроллер, по аналогии с facebook (замечу, что согласно политике ИБ контакта, адреса почты не отдаются, поэтому чтобы не конфликтовать с валидацией, я при создании пользователя создаю суррогатные адреса вида: домен + @vk.com): ``` class User < ActiveRecord::Base devise :database_authenticatable, :registerable, :recoverable, :rememberable, :trackable, :validatable, :omniauthable attr_accessible :email, :password, :password_confirmation, :remember_me attr_accessible :nickname, :provider, :url, :username def self.find_for_facebook_oauth access_token if user = User.where(:url => access_token.info.urls.Facebook).first user else User.create!(:provider => access_token.provider, :url => access_token.info.urls.Facebook, :username => access_token.extra.raw_info.name, :nickname => access_token.extra.raw_info.username, :email => access_token.extra.raw_info.email, :password => Devise.friendly_token[0,20]) end end def self.find_for_vkontakte_oauth access_token if user = User.where(:url => access_token.info.urls.Vkontakte).first user else User.create!(:provider => access_token.provider, :url => access_token.info.urls.Vkontakte, :username => access_token.info.name, :nickname => access_token.extra.raw_info.domain, :email => access_token.extra.raw_info.domain+'@vk.com', :password => Devise.friendly_token[0,20]) end end end ``` Код контроллера: ``` class Users::OmniauthCallbacksController < ApplicationController def facebook @user = User.find_for_facebook_oauth request.env["omniauth.auth"] if @user.persisted? flash[:notice] = I18n.t "devise.omniauth_callbacks.success", :kind => "Facebook" sign_in_and_redirect @user, :event => :authentication else flash[:notice] = "authentication error" redirect_to root_path end end def vkontakte @user = User.find_for_vkontakte_oauth request.env["omniauth.auth"] if @user.persisted? flash[:notice] = I18n.t "devise.omniauth_callbacks.success", :kind => "Vkontakte" sign_in_and_redirect @user, :event => :authentication else flash[:notice] = "authentication error" redirect_to root_path end end end ``` Конечно, используя DRY, можно и нужно обобщить этот код. Само приложение: ![](http://habrastorage.org/r/w1560/storage2/1b2/cc0/94b/1b2cc094bc3ee97ed155ebc15d2c746f.png) --- Заключение ---------- Как мы убедились создать приложение на рельсах с аутентификацией через фейсбук и контакт — очень просто. Работающее демо лежит тут: <http://authproviders.herokuapp.com/> Код примера: <https://github.com/mystdeim/Authproviders> Приведу некоторые полезные ссылки: * <http://railsapps.github.com/rails-examples-tutorials.html> — демонстрационные приложения, использующие в основном devise и omniauth * <http://www.communityguides.eu/articles/11> -хорошее решение, для объединения нескольких аккаунтов одного человека использующего разные провайдеры (требуется, чтобы была одинаковая почта, к сожалению, с контактом трюк не пройдет) P.S. Это моя первая статья, проба пера, можно сказать. **UP:** секрет кеи и и ид приложений лучше держать отдельно, чтобы они случайно не попали в репозиторий <http://habrahabr.ru/post/142128/#comment_4757653>
https://habr.com/ru/post/142128/
null
ru
null
# MVVM Framework для Windows Phone своими руками. Часть 1 ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/527/15c/9a4/52715c9a4f073d761c8af714ec76db3a.png) Разработка приложений для платформ WPF, Silverlight, Windows Store и Windows Phone, почти всегда подразумевает использование паттерна MVVM. Это закономерно, так как базовой философией этих платформ, является разделение представления (так же я буду использовать термин интерфейс пользователя) и остальной логики программы. Этот подход позволяет получить следующие преимущества: 1. Разделение пользовательского интерфейса и логики представления: что позволяет дизайнерам работать над пользовательским интерфейсом, а программистам над бизнес логикой приложения используя для взаимодействия абстрактный интерфейс модели представления 2. Расширенные возможности автоматизированного тестирования: отделение пользовательского интерфейса от остальной логики, позволяет полностью протестировать логику представления без ограничений накладываемых автоматизацией тестирования через пользовательский интерфейс 3. Множественные представления для одной модели представления: одна модель представления может использоваться многими реализациями интерфейса пользователя. Например, сокращенный и полный вариант представления данных, интерфейс зависящий от прав пользователя. Возможность использовать одну реализацию модели представления на различных платформах 4. Расширенные возможности повторного использования компонентов: так как модели представления отделены от реализации представления, возможны любые варианты их использования, наследование от базовых моделей, композиция нескольких моделей и т.п. Разрабатывая приложения под платформу [Windows Phone](http://dev.windowsphone.com), я столкнулся с тем, что большинство статей описывают базовую реализацию паттерна MVVM, которая обычно сводится к реализации в классе модели представления интерфейса [INotifyPropertyChanged](http://msdn.microsoft.com/en-us/library/system.componentmodel.inotifypropertychanged(v=vs.110).aspx), создания простой реализации [ICommand](http://msdn.microsoft.com/en-us/library/system.windows.input.icommand(v=vs.110).aspx) и простые сценарии связывания этих данных с представлением. К сожалению, остаются за рамками обсуждения такие важные вопросы как, реализация обобщенных классов с удобным интерфейсом, синхронизация потоков при асинхронном исполнении, навигация на уровне модели представления и многие другие. Отдавая должное таким фреймворкам как [MVVM Light](https://mvvmlight.codeplex.com/) и [Prism](http://msdn.microsoft.com/en-us/library/ff648465.aspx), я предпочитаю в своих проектах использовать собственную реализацию данного паттерна, так как даже самые простые фреймворки излишне громоздки в силу своей универсальности. Данная статья рассчитана на начинающих разработчиков, знакомых с основами разработки приложений для платформы Windows Phone, которые хотят более детально вникнуть в реализацию паттерна MVVM для платформы Windows Phone и научиться находить и применять более гибкие и простые решения для реализации приложений, построенных с его использованием. Возможно опытные разработчики найдут для себя статью интересной и предложат другие удобные решения описанных задач. В качестве примера, создадим простое приложение «Кредитный калькулятор», вся функциональность которого будет реализована в Code-behind стиле. Приложение содержит всего две страницы: главная страница приложения предназначена для ввод параметров кредита и страница подробной информации о рассчитанном кредите предназначена для отображения подробной информации о расчете. Исходные коды этого проекта доступны на [GitHub ветка codebehind](https://github.com/Viacheslav01/MVVM/tree/codebehind) ###### Фрагмент файла разметки главной страницы MainPage.xaml ``` ``` В данной разметке полностью отсутствует связывание данных. Все данные устанавливаются с помощью доступа к свойствам элементов управления из code-behind файла. ###### Code-behind файл главной страницы MainPage.xaml.cs ``` using System; using System.Threading.Tasks; using System.Windows; using Microsoft.Phone.Controls; namespace MVVM_Article { public partial class MainPage : PhoneApplicationPage { public MainPage() { InitializeComponent(); } private void CalculateClick(object sender, RoutedEventArgs e) { decimal amount; decimal percent; int term; if(!decimal.TryParse(viewAmount.Text, out amount)) { viewProgressPanel.Visibility = Visibility.Collapsed; MessageBox.Show("Сумма должна быть числом"); return; } if(!decimal.TryParse(viewPercent.Text, out percent)) { viewProgressPanel.Visibility = Visibility.Collapsed; MessageBox.Show("Процент должен быть числом"); return; } if(!int.TryParse(viewTerm.Text, out term)) { viewProgressPanel.Visibility = Visibility.Collapsed; MessageBox.Show("Срок кредита должен быть числом"); return; } Focus(); viewProgressPanel.Visibility = Visibility.Visible; Task.Run(() => { try { var payment = Calculator.CalculatePayment(amount, percent, term); Dispatcher.BeginInvoke(() => { viewCalculationPanel.Visibility = Visibility.Visible; viewPayment.Text = payment.ToString("N2"); viewTotalPayment.Text = (payment * term).ToString("N2"); }); } finally { Dispatcher.BeginInvoke(() => { viewProgressPanel.Visibility = Visibility.Collapsed; }); } }); } private void DetailsClick(object sender, RoutedEventArgs e) { var pageUri = string.Format("/DetailsPage.xaml?amount={0}&percent={1}&term={2}", viewAmount.Text, viewPercent.Text, viewTerm.Text); NavigationService.Navigate(new Uri(pageUri, UriKind.Relative)); } } } ``` Обратите внимание на то, что часть расчетов перенесена в фоновый поток, в данном случае обоснованной необходимости в этом нет. Это сделано намеренно, чтобы охватить тему синхронизации потоков. Все свойства элементов управления должны задаваться из главного потока приложения, если необходимо установить свойство элемента управления из другого потока, необходимо передать управление главному потоку приложения. Для этих целей используется объект [Dispatcher](http://msdn.microsoft.com/en-us/library/system.windows.threading.dispatcher(v=vs.110).aspx) страницы, который всегда связан с главным потоком приложения. Передача параметров на страницу подробного описания кредита, осуществляется через параметры URI страницы. Страница подробного описания кредита организована подобным образом. Обратить внимание стоит на заполнение таблицы расписания платежей, данный блок было проще реализовать используя ItemsControl. Но такая реализация требует использования связывания данных и не подходит для целей статьи. ###### Заполнение таблицы расписания платежей в файле DetailsPage.xaml.cs ``` var style = (Style)Resources["PhoneTextNormalStyle"]; foreach(var record in schedule) { var grid = new Grid(); grid.ColumnDefinitions.Add(new ColumnDefinition { Width = new GridLength(1, GridUnitType.Star) }); grid.ColumnDefinitions.Add(new ColumnDefinition { Width = new GridLength(1, GridUnitType.Star) }); grid.ColumnDefinitions.Add(new ColumnDefinition { Width = new GridLength(1, GridUnitType.Star) }); var loanElement = new TextBlock { Text = record.Loan.ToString("N2"), Style = style }; Grid.SetColumn(loanElement, 0); var interestElement = new TextBlock { Text = record.Interest.ToString("N2"), Style = style }; Grid.SetColumn(interestElement, 1); var balanceElement = new TextBlock { Text = record.Balance.ToString("N2"), Style = style }; Grid.SetColumn(balanceElement, 2); grid.Children.Add(loanElement); grid.Children.Add(interestElement); grid.Children.Add(balanceElement); viewRecords.Children.Add(grid); } ``` Логика расчета кредита реализована в отдельном статическом классе Calculator. Обратите внимание на задержку в начале метода расчета платежа, ее задача имитировать интенсивные расчеты, на выполнение которых требуется некоторое время. Попытка вызова этого метода в главном потоке приложения приведет к зависанию пользовательского интерфейса. Для предотвращения необходимо выполнять все ресурсоемкие задачи в фоновых потоках. ###### Фрагмент файла Calculator.cs ``` internal static class Calculator { public static decimal CalculatePayment(decimal amount, decimal percent, int term) { Task.Delay(1000).Wait(); percent /= 1200; var common = (decimal) Math.Pow((double) (1 + percent), term); var multiplier = percent*common/(common - 1); var payment = amount*multiplier; return payment; } public static List GetPaymentsSchedule(decimal amount, decimal percent, int term) { var balance = amount; var interestRate = percent / 1200; var payment = CalculatePayment(amount, percent, term); var schedule = new List(); for (var period = 0; period < term; period++) { var interest = Math.Round(balance \* interestRate, 2); var loan = payment - interest; balance -= loan; var record = new PaymentsScheduleRecord { Interest = interest, Loan = loan, Balance = balance }; schedule.Add(record); } return schedule; } } ``` #### Простейшая реализация MVVM Теперь реализуем самую простую версию MVVM, для этого создадим для каждой страницы модель представления, которая будет реализовывать интерфейс [INotifyPropertyChanged](http://msdn.microsoft.com/en-us/library/system.componentmodel.inotifypropertychanged(v=vs.110).aspx) используемый для уведомления представления об изменениях свойств объекта. Исходный код доступен на [GitHub в ветке naivemvvm](https://github.com/Viacheslav01/MVVM/tree/naivemvvm) Реализация классом интерфейса предполагает генерацию события [PropertyChanged](http://msdn.microsoft.com/en-us/library/system.componentmodel.inotifypropertychanged.propertychanged(v=vs.110).aspx) каждый раз, когда значение свойства объекта изменяется. Такое поведение позволяет привязкам данных отслеживать состояние объекта и обновлять данные пользовательского интерфейса при изменении значения связанного свойства. ###### Фрагмент файла MainPageViewModel.cs ``` public class MainPageViewModel : INotifyPropertyChanged { public event PropertyChangedEventHandler PropertyChanged; protected virtual void OnPropertyChanged([CallerMemberName]string propertyName = null) { var handler = PropertyChanged; if (handler != null) { handler(this, new PropertyChangedEventArgs(propertyName)); } } } ``` Обратите внимание на использование атрибута [CallerMemberName](http://msdn.microsoft.com/ru-ru/library/system.runtime.compilerservices.callermembernameattribute.aspx), этот атрибут указывает компилятору, что в данный параметр необходимо передать имя члена класса из которого был вызван метод. Это позволяет не передавать в метод имя свойства в явном виде, если метод вызывается из самого свойства. ###### Пример реализации свойства модели представления ``` private string _amount; public string Amount { get { return _amount; } set { _amount = value; OnPropertyChanged(); } } ``` После установки значения поля вызывается метод OnPropertyChanged который генерирует событие об изменении значения свойства из которого он был вызван. Модель представления может предоставлять потребителям команды, которые позволяют выполнять определенные моделью представления действия. Команды представляют собой объекты реализующие интерфейс ICommand, если потребителю надо выполнить действие заданное командой, он должен вызвать метод Execute команды. Команда предоставляет потребителям информацию, о том может ли она быть выполнена или нет. Для получения информации о доступности команды необходимо вызвать метод CanExecute, а так же подписаться на событие CanExecuteChanged которое уведомит потребителей об изменении состояния команды. Реализация команды для каждого отдельного действия модели представления очень трудоемкий процесс, для его облегчения создадим класс DelegateCommand который будет делегировать выполнение методов команды делегатам заданным при создании экземпляра класса ###### Файл DelegateCommand.cs ``` public sealed class DelegateCommand : ICommand { private readonly Action \_execute; private readonly Func \_canExecute; public DelegateCommand(Action execute, Func canExecute = null) { if(execute == null) { throw new ArgumentNullException(); } \_execute = execute; \_canExecute = canExecute; } public bool CanExecute(object parameter) { return \_canExecute == null || \_canExecute(parameter); } public void Execute(object parameter) { if(!CanExecute(parameter)) { return; } \_execute(parameter); } public event EventHandler CanExecuteChanged; public void RiseCanExecuteChanged() { var handler = CanExecuteChanged; if(handler != null) { handler(this, EventArgs.Empty); } } } ``` Объявление команды модели представления с использованием класса DelegateCommand ``` private DelegateCommand _calculateCommand; public DelegateCommand CalculateCommand { get { if(_calculateCommand == null) { _calculateCommand = new DelegateCommand(o => Calculate()); } return _calculateCommand; } } ``` После создания модели представления, внесем изменения в описание пользовательского интерфейса. Для этого удалим весь код из файла MainPage.xaml.cs, а в конструкторе страницы установим значение свойства DataContext страницы, после этого мы сможем использовать привязки данных. ###### Файл MainPage.xaml.cs после изменений ``` using Microsoft.Phone.Controls; using MVVM_Article.ViewModels; namespace MVVM_Article { public partial class MainPage : PhoneApplicationPage { public MainPage() { InitializeComponent(); DataContext = new MainPageViewModel(); } } } ``` Обратите внимание, что code-behind страницы уменьшился до одной строки, в следующих главах эта строка так же будет удалена. Далее необходимо задать привязки данных в описании пользовательского интерфейса. Для задания привязок данных используется конструкция {Binding Path=<Имя свойства>}, в большинстве случаев Path можно опустить и сократить запись до вида {Binding <Имя свойства>}. ###### Пример связывания данных, фрагмент файла MainPage.xaml ``` ``` Обратите внимание на параметр Mode=TwoWay при задании связывания для текстового поля, этот параметр указывает привязке данных, что при изменении значения свойства элемента управления, необходимо его передать в поле модели представления. Таким образом модель представления получает данные пользовательского ввода. Свойство Visibility элемента управления и IsLoaded модели представления, не могут быть связанны на прямую, потому что их типы различны. Для решения подобных задач предназначены конвертеры значений. Для привязки свойства типа Boolean к свойству типа Visibility создадим конвертер, BoolToVisibilityConverter ``` public class BoolToVisibilityConverter : IValueConverter { public object Convert(object value, Type targetType, object parameter, CultureInfo culture) { return (value as bool?) == true ? Visibility.Visible : Visibility.Collapsed; } public object ConvertBack(object value, Type targetType, object parameter, CultureInfo culture) { throw new NotImplementedException(); } } ``` Используя этот конвертер можно связывать между собой поля типа Boolean и Visibility. ``` Visibility="{Binding IsCalculated, Converter={StaticResource BoolToVisibilityConverter}}" ``` К сожалению при реализации паттерна MVVM для страницы DeptailsPage не удалось полностью избавиться от code-behind потому, он используется для инициализации модели представления параметрами переданными из главной страницы. #### Заключение Текущее приложение формально соблюдает паттерн MVVM, но фактически мы просто перенесли code-behind из класса страницы в отдельный класс. Реализация имеет множество недостатков и не позволяет пользоваться приемуществами MVVM описанными в начале статьи. В следующих статьях будут рассмотрены темы: использование DI в MVVM, реализация навигации, взаимодействия с пользователем, обобщение базового класса MVVM и многое другое.
https://habr.com/ru/post/221077/
null
ru
null
# Python: коллекции, часть 4/4: Все о выражениях-генераторах, генераторах списков, множеств и словарей | [Часть 1](https://habrahabr.ru/post/319164/ "Python: коллекции, часть 1/4: классификация, общие подходы и методы, конвертация") | [Часть 2](https://habrahabr.ru/post/319200/ "Python: коллекции, часть 2/4: индексирование, срезы, сортировка") | [Часть 3](https://habrahabr.ru/post/319876/ "Python: коллекции, часть 3/4: объединение коллекций, добавление и удаление элементов") | Часть 4 | | --- | --- | --- | --- | [![image](https://habrastorage.org/r/w1560/files/104/b44/afc/104b44afce044fb88d04492dd012d078.png)](https://habrastorage.org/files/104/b44/afc/104b44afce044fb88d04492dd012d078.png)Заключительная часть моего цикла, посещенного работе с коллекциями. Данная статья самостоятельная, может изучаться и без предварительного изучения предыдущих. Эта статья глубже и детальней предыдущих и поэтому может быть интересна **не только новичкам, но и достаточно опытным Python-разработчикам**. [![image](https://habrastorage.org/r/w1560/files/688/052/4d1/6880524d12ff4f689c0a84d1302c5715.png)](https://habrastorage.org/files/688/052/4d1/6880524d12ff4f689c0a84d1302c5715.png)**Будут рассмотрены**: выражения-генераторы, генераторы списка, словаря и множества, вложенные генераторы (5 вариантов), работа с enumerate(), range(). А также: классификация и терминология, синтаксис, аналоги в виде циклов и примеры применения. [![](https://habrastorage.org/r/w1560/files/d15/679/28e/d1567928e55649d59fb95f337ef0387f.png)](https://habrastorage.org/files/d15/679/28e/d1567928e55649d59fb95f337ef0387f.png)Я постарался рассмотреть **тонкости и нюансы**, которые освещаются далеко не во всех книгах и курсах, и, в том числе, отсутствуют в уже опубликованных на Habrahabr статьях на эту тему. Оглавление: ----------- 1. [Определения и классификация.](#1) 2. [Синтаксис.](#2) 3. [Аналоги в виде цикла for и в виде функций.](#3) 4. [Выражения-генераторы.](#4) 5. [Генерация стандартных коллекций.](#5) 6. [Периодичность и частичный перебор.](#6) 7. [Вложенные циклы и генераторы.](#7) 8. [Использование range().](#8) 9. [Приложение 1. Дополнительные примеры.](#9) 10. [Приложение 2. Ссылки по теме.](#10) 1. Определения и классификация ------------------------------ #### 1.1 Что и зачем * Генераторы выражений предназначены для компактного и удобного способа генерации коллекций элементов, а также преобразования одного типа коллекций в другой. * В процессе генерации или преобразования возможно применение условий и модификация элементов. * Генераторы выражений являются синтаксическим сахаром и не решают задач, которые нельзя было бы решить без их использования. #### 1.2 Преимущества использования генераторов выражений * Более короткий и удобный синтаксис, чем генерация в обычном цикле. * Более понятный и читаемый синтаксис чем функциональный аналог сочетающий одновременное применение функций map(), filter() и lambda. * В целом: быстрее набирать, легче читать, особенно когда подобных операций много в коде. #### 1.3 Классификация и особенности Сразу скажу, что существует некоторая терминологическая путаница в русских названиях того, о чем мы будем говорить. В данной статье используются следующие обозначения: * **выражение-генератор** (generator expression) — выражение в круглых скобках которое выдает создает на каждой итерации новый элемент по правилам. * **генератор коллекции** — обобщенное название для генератора списка (list comprehension), генератора словаря (dictionary comprehension) и генератора множества (set comprehension). ![image](https://habrastorage.org/r/w1560/files/688/052/4d1/6880524d12ff4f689c0a84d1302c5715.png) В отдельных местах, чтобы избежать нагромождения терминов, будет использоваться термин «генератор» без дополнительных уточнений. 2. Синтаксис ------------ Для начала приведем иллюстрацию общего синтаксиса выражения-генератора. **Важно**: этот синтаксис одинаков и для выражения-генератора и для всех трех типов генераторов коллекций, разница заключается, в каких скобках он будет заключен (смотрите предыдущую иллюстрацию). ![image](https://habrastorage.org/r/w1560/files/104/b44/afc/104b44afce044fb88d04492dd012d078.png) #### Общие принципы важные для понимания: * Ввод — это итератор — это может быть функция-генератор, выражение-генератор, коллекция — любой объект поддерживающий итерацию по нему. * Условие — это фильтр при выполнении которого элемент пойдет в финальное выражение, если элемент ему не удовлетворяет, он будет пропущен. * Финальное выражение — преобразование каждого выбранного элемента перед его выводом или просто вывод без изменений. ### 2.1 Базовый синтаксис ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] # Пусть у нас есть исходный список list_b = [x for x in list_a] # Создадим новый список используя генератор списка print(list_b) # [-2, -1, 0, 1, 2, 3, 4, 5] print(list_a is list_b) # False - это разные объекты! ``` По сути, ничего интересного тут не произошло, мы просто получили копию списка. Делать такие копии или просто перегонять коллекции из типа в тип с помощью генераторов особого смысла нет — это можно сделать значительно проще применив соответствующие методы или функции создания коллекций (рассматривались в первой статье цикла). Мощь генераторов выражений заключается в том, что мы можем задавать условия для включения элемента в новую коллекцию и можем делать преобразование текущего элемента с помощью выражения или функции перед его выводом (включением в новую коллекцию). ### 2.2 Добавляем условие для фильтрации **Важно**: Условие проверяется на каждой итерации, и только элементы ему удовлетворяющие идут в обработку в выражении. Добавим в предыдущий пример условие — брать только четные элементы. ``` # if x % 2 == 0 - остаток от деления на 2 равен нулю - число четное list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [x for x in list_a if x % 2 == 0] print(list_b) # [-2, 0, 2, 4] ``` Мы можем использовать **несколько условий, комбинируя их логическими операторами**: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [x for x in list_a if x % 2 == 0 and x > 0] # берем те x, которые одновременно четные и больше нуля print(list_b) # [2, 4] ``` ### 2.3 Добавляем обработку элемента в выражении Мы можем вставлять не сам текущий элемент, прошедший фильтр, а результат вычисления выражения с ним или результат его обработки функцией. **Важно**: Выражение выполняется независимо на каждой итерации, обрабатывая каждый элемент индивидуально. Например, можем посчитать квадраты значений каждого элемента: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [x**2 for x in list_a] print(list_b) # [4, 1, 0, 1, 4, 9, 16, 25] ``` Или посчитать длины строк c помощью функции len() ``` list_a = ['a', 'abc', 'abcde'] list_b = [len(x) for x in list_a] print(list_b) # [1, 3, 5] ``` ### 2.4 Ветвление выражения **Обратите внимание:** Мы можем использовать (начиная с Python 2.5) в выражении конструкцию **if-else для ветвления финального выражения**. В таком случае: * Условия ветвления пишутся не после, а перед итератором. * В данном случае if-else это не фильтр перед выполнением выражения, а ветвление самого выражения, то есть переменная уже прошла фильтр, но в зависимости от условия может быть обработана по-разному! ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [x if x < 0 else x**2 for x in list_a] # Если x-отрицательное - берем x, в остальных случаях - берем квадрат x print(list_b) # [-2, -1, 0, 1, 4, 9, 16, 25] ``` Никто не запрещает **комбинировать фильтрацию и ветвление**: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [x**3 if x < 0 else x**2 for x in list_a if x % 2 == 0] # вначале фильтр пропускает в выражение только четные значения # после этого ветвление в выражении для отрицательных возводит в куб, а для остальных в квадрат print(list_b) # [-8, 0, 4, 16] ``` **Этот же пример в виде цикла** ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_b = [] for x in list_a: if x % 2 == 0: if x < 0: list_b.append(x ** 3) else: list_b.append(x ** 2) print(list_b) # [-8, 0, 4, 16] ``` ### 2.5 Улучшаем читаемость Не забываем, что в Python синтаксис позволяет использовать переносы строк внутри скобок. Используя эту возможность, можно сделать синтаксис генераторов выражений более легким для чтения: ``` numbers = range(10) # Before squared_evens = [n ** 2 for n in numbers if n % 2 == 0] # After squared_evens = [ n ** 2 for n in numbers if n % 2 == 0 ] ``` 3. Аналоги в виде цикла for и в виде функций -------------------------------------------- Как уже говорилось выше, задачи решаемые с помощью генераторов выражений можно решить и без них. Приведем другие подходы, которые могут быть использованы для решения тех же задач. Для примера возьмем простую задачу — сделаем из списка чисел список квадратов четных чисел и решим ее с помощью трех разных подходов: ### 3.1 Решение с помощью генератора списка ``` numbers = range(10) squared_evens = [n ** 2 for n in numbers if n % 2 == 0] print(squared_evens) # [0, 4, 16, 36, 64] ``` ### 3.2. Решение c помощью цикла for **Важно**: Каждый генератор выражений можно переписать в виде цикла for, но не каждый цикл for можно представить в виде такого выражения. ``` numbers = range(10) squared_evens = [] for n in numbers: if n % 2 == 0: squared_evens.append(n ** 2) print(squared_evens) # [0, 4, 16, 36, 64] ``` В целом, для очень сложных и комплексных задач, решение в виде цикла может быть понятней и проще в поддержке и доработке. Для более простых задач, синтаксис выражения-генератора будет компактней и легче в чтении. ### 3.3. Решение с помощью функций. Для начала, замечу, что выражение генераторы и генераторы коллекций — это тоже функциональный стиль, но более новый и предпочтительный. Можно применять и более старые функциональные подходы для решения тех же задач, комбинируя map(), lambda и filter(). ``` numbers = range(10) squared_evens = map(lambda n: n ** 2, filter(lambda n: n % 2 == 0, numbers)) print(squared_evens) # print(list(squared\_evens)) # [0, 4, 16, 36, 64] # Примечание: в Python 2 в переменной squared\_evens окажется сразу список, а в Python 3 «map object», который мы превращаем в список с помощью list() ``` Несмотря на то, что подобный пример вполне рабочий, читается он тяжело и использование синтаксиса генераторов выражений будет более предпочительным и понятным. 4. Выражения-генераторы ----------------------- Выражения-генераторы (generator expressions) доступны, начиная с Python 2.4. Основное их отличие от генераторов коллекций в том, что они **выдают элемент по-одному, не загружая в память сразу всю коллекцию**. UPD: Еще раз обратите внимание на этот момент: если мы создаем большую структуру данных без использования генератора, то она загружается в память целиком, соответственно, это увеличивает **расход памяти** Вашим приложением, а в крайних случаях памяти может просто не хватить и Ваше приложение **«упадет» с MemoryError**. В случае использования выражения-генератора, такого не происходит, так как элементы создаются по-одному, в момент обращения. Пример выражения-генератора: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_gen = (i for i in list_a) # выражение-генератор print(next(my_gen)) # -2 - получаем очередной элемент генератора print(next(my_gen)) # -1 - получаем очередной элемент генератора ``` ### Особенности выражений-генераторов 1. Генаратор **нельзя писать без скобок** — это синтаксическая ошибка. ``` # my_gen = i for i in list_a # SyntaxError: invalid syntax ``` 2. При передаче в функцию дополнительные **скобки** необязательны ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_sum = sum(i for i in list_a) # my_sum = sum((i for i in list_a)) # так тоже можно print(my_sum) # 12 ``` 3. Нельзя получить длину функцией **len**() ``` # my_len = len(i for i in list_a) # TypeError: object of type 'generator' has no len() ``` 4. Нельзя распечатать элементы функцией **print**() ``` print(my_gen) # at 0x7f162db32af0> ``` 5. Обратите внимание, что после прохождения по выражению-генератору оно **остается пустым**! ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_gen = (i for i in list_a) print(sum(my_gen)) # 12 print(sum(my_gen)) # 0 ``` 6. Выражение-генератор может быть **бесконечным**. ``` import itertools inf_gen = (x for x in itertools.count()) # бесконечный генератор от 0 to бесконечности! ``` Будьте осторожны в работе с такими генераторами, так как при не правильном использовании «эффект» будет как от бесконечного цикла. 7. К выражению-генератору **не применимы срезы**! ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_gen = (i for i in list_a) my_gen_sliced = my_gen[1:3] # TypeError: 'generator' object is not subscriptable ``` 8. Из генератора легко получать **нужную коллекцию**. Это подробно рассматривается в следующей главе. 5. Генерация стандартных коллекций ---------------------------------- ### 5.1 Создание коллекций из выражения-генератора Создание коллекций из выражения-генератора с помощью функций list(), tuple(), set(), frozenset() **Примечание**: Так можно создать и неизменное множество и кортеж, так как неизменными они станет уже после генерации. **Внимание**: Для строки такой способ не работает! Синтаксис создания генератора словаря таким образом имеет свои особенности, он рассмотрен в следующем под-разделе. 1. Передачей готового выражения-генератора присвоенного переменной в функцию создания коллекции. ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_gen = (i for i in list_a) # выражение-генератор my_list = list(my_gen) print(my_list) # [-2, -1, 0, 1, 2, 3, 4, 5] ``` 2. Написание выражения-генератора сразу внутри скобок вызываемой функции создания коллекции. ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_list = list(i for i in list_a) print(my_list) # [-2, -1, 0, 1, 2, 3, 4, 5] ``` **То же самое для кортежа, множества и неизменного множества** ``` # кортеж my_tuple = tuple(i for i in list_a) print(my_tuple) # (-2, -1, 0, 1, 2, 3, 4, 5) # множество my_set = set(i for i in list_a) print(my_set) # {0, 1, 2, 3, 4, 5, -1, -2} # неизменное множество my_frozenset = frozenset(i for i in list_a) print(my_frozenset) # frozenset({0, 1, 2, 3, 4, 5, -1, -2}) ``` ### 5.2 Специальный синтаксис генераторов коллекций В отличии от выражения-генератора, которое выдает значение по-одному, не загружая всю коллекцию в память, при использовании генераторов коллекций, коллекция генерируется сразу целиком. Соответственно, вместо особенности выражений-генераторов перечисленных выше, такая коллекция будет обладать всеми стандартными свойствами характерными для коллекции данного типа. **Обратите внимание**, что для генерации множества и словаря используются одинаковые скобки, разница в том, что у словаря указывается двойной элемент ключ: значение. 1. **Генератор списка** (list comprehension) ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_list = [i for i in list_a] print(my_list) # [-2, -1, 0, 1, 2, 3, 4, 5] ``` Не пишите круглые скобки в квадратных! ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_list = [(i for i in list_a)] print(my_list) # [ at 0x7fb81103bf68>] ``` 2. **Генератор множества** (set comprehension) ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] my_set= {i for i in list_a} print(my_set) # {0, 1, 2, 3, 4, 5, -1, -2} - порядок случаен ``` 3. **Генератор словаря** (dictionary comprehension) переворачивание словаря ``` dict_abc = {'a': 1, 'b': 2, 'c': 3, 'd': 3} dict_123 = {v: k for k, v in dict_abc.items()} print(dict_123) # {1: 'a', 2: 'b', 3: 'd'} # Обратите внимание, мы потеряли "с"! Так как значения были одинаковы, # то когда они стали ключами, только последнее значение сохранилось. ``` Словарь из списка: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] dict_a = {x: x**2 for x in list_a} print(dict_a) # {0: 0, 1: 1, 2: 4, 3: 9, 4: 16, -2: 4, -1: 1, 5: 25} ``` **Важно**! Такой синтаксис создания словаря работает только в фигурных скобках, **выражение-генератор** так создать нельзя, для этого используется немного другой синтаксис (благодарю [longclaps](https://habr.com/en/users/longclaps/) за подсказку в комментариях): ``` # dict_gen = (x: x**2 for x in list_a) # SyntaxError: invalid syntax dict_gen = ((x, x ** 2) for x in list_a) # Корректный вариант генератора-выражения для словаря # dict_a = dict(x: x**2 for x in list_a) # SyntaxError: invalid syntax dict_a = dict((x, x ** 2) for x in list_a) # Корректный вариант синтаксиса от @longclaps ``` ### 5.3 Генерация строк Для создания строки вместо синтаксиса выражений-генераторов используется метод строки .**join**(), которому в качестве аргументов можно передать выражение генератор. **Обратите внимание**: элементы коллекции для объединения в строку должны быть строками! ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] # используем генератор прямо в .join() одновременно приводя элементы к строковому типу my_str = ''.join(str(x) for x in list_a) print(my_str) # -2-1012345 ``` 6. Периодичность и частичный перебор ------------------------------------ ### 6.1 Работа с enumerate() Иногда в условиях задачи в условии-фильтре нужна не проверка значения текущего элемента, а проверка на определенную периодичность, то есть, например, нужно брать каждый третий элемент. Для подобных задач можно использовать функцию enumerate(), задающую счетчик при обходе итератора в цикле: ``` for i, x in enumerate(iterable) ``` здесь x — текущий элемент i — его порядковый номер, начиная с нуля Проиллюстрируем работу с индексами: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_d = [(i, x) for i, x in enumerate(list_a)] print(list_d) # [(0, -2), (1, -1), (2, 0), (3, 1), (4, 2), (5, 3), (6, 4), (7, 5)] ``` Теперь попробуем решить реальную задачу — выберем в генераторе списка каждый третий элемент из исходного списка: ``` list_a = [-2, -1, 0, 1, 2, 3, 4, 5] list_e = [x for i, x in enumerate(list_a, 1) if i % 3 == 0] print(list_e) # [0, 3] ``` #### Важные особенности работы функции enumerate(): 1. Возможны два варианта вызова функции enumerate(): * enumerate(iterator) без второго параметра считает с 0. * enumerate(iterator, start) — начинает считать с значения start. Удобно, например, если нам надо считать с 1, а не 0. 2. enumerate() возвращает **кортеж** из порядкового номера и значения текущего элемента итератора. Кортеж в выражении-генераторе результате можно получить двумя способами: * (i, j) for i, j in enumerate(iterator) — скобки в первой паре нужны! * pair for pair in enumerate(mylist) — мы работаем сразу с парой 3. Индексы считаются для **всех обработанных элементов**, без учета прошли они в дальнейшем условие или нет! ``` first_ten_even = [(i, x) for i, x in enumerate(range(10)) if x % 2 == 0] print(first_ten_even) # [(0, 0), (2, 2), (4, 4), (6, 6), (8, 8)] ``` 4. Функция enumerate() не обращается к каким-то внутренним атрибутам коллекции, а просто реализует **счетчик обработанных элементов**, поэтому ничего не мешает ее использовать для неупорядоченных коллекций не имеющих индексации. 5. Если мы ограничиваем количество элементов включенных в результат по enumerate() счетчику (например if i < 10), то итератор будет все равно **обработан целиком**, что в случае огромной коллекции будет очень ресурс-затратно. Решение этой проблемы рассматривается ниже в под-разделе «Перебор части итерируемого». ### 6.2 Перебор части итерируемого. Иногда бывает задача из очень большой коллекции или даже бесконечного генератора получить выборку первых нескольких элементов, удовлетворяющих условию. Если мы используем обычное генераторное выражение с условием ограничением по enumerate() индексу или срез полученной результирующей коллекции, то нам в любом случае придется пройти всю огромную коллекцию и потратить на это уйму компьютерных ресурсов. Выходом может быть использование функции **islice()** из пакета **itertools**. ``` import itertools first_ten = (itertools.islice((x for x in range(1000000000) if x % 2 == 0), 10)) print(list(first_ten)) # [0, 2, 4, 6, 8, 10, 12, 14, 16, 18] ``` **Для сомневающихся: проверяем время выполнения** ``` import time import itertools # На генераторе с малым количеством элементов start_time = time.time() first_ten = (itertools.islice((x for x in range(100) if x % 2 == 0), 10)) print(list(first_ten)) # [0, 2, 4, 6, 8, 10, 12, 14, 16, 18] elapsed_time = time.time() - start_time print(elapsed_time) # 3.409385681152344e-05 # На генераторе с огромным количеством элементов start_time = time.time() first_ten = (itertools.islice((x for x in range(100000000) if x % 2 == 0), 10)) print(list(first_ten)) # [0, 2, 4, 6, 8, 10, 12, 14, 16, 18] elapsed_time = time.time() - start_time print(elapsed_time) # 1.1205673217773438e-05 # То есть максимальное количество элементов в генераторе range() мы увеличили на 6 порядков, # а время исполнения осталось того же порядка ``` 7. Вложенные циклы и генераторы ------------------------------- Рассмотрим более комплексные варианты, когда у нас циклы или сами выражения-генераторы являются вложенными. Тут возможны несколько вариантов, со своими особенностями и сферой применения, чтобы не возникало путаницы, рассмотрим их по-отдельности, а после приведем общую схему. ### 7.1 Вложенные циклы В результате генерации получаем **одномерную структуру**. **Важно**! При работае с вложенными циклами внутри генератора выражений порядок следования инструкций for in будет такой же (слева-направо), как и в аналогичном решении без генератора, только на циклах (сверху-вниз)! Тоже справедливо и при более глубоких уровнях вложенности. ### 7.1.1 Вложенные циклы for где циклы идут по независимым итераторам Общий синтаксис: ***[expression for x in iter1 for y in iter2]*** **Применение**: генерируем одномерную структуру, используя данные из двух итераторов. Например, создадим словарь, используя кортежи координат как ключи, заполнив для начала его значения нулями. ``` rows = 1, 2, 3 cols = 'a', 'b' my_dict = {(col, row): 0 for row in rows for col in cols} print(my_dict) # {('a', 1): 0, ('b', 2): 0, ('b', 3): 0, ('b', 1): 0, ('a', 3): 0, ('a', 2): 0} ``` **Дальше можем задавать новые значения или получать их** ``` my_dict['b', 2] = 10 # задаем значение по координатному ключу-кортежу print(my_dict['b', 2]) # 10 - получаем значение по координатному ключу-кортежу ``` Тоже можно сделать и **с дополнительными условиями-фильтрами** в каждом цикле: ``` rows = 1, 2, 3, -4, -5 cols = 'a', 'b', 'abc' # Для наглядности разнесем на несколько строк my_dict = { (col, row): 0 # каждый элемент состоит из ключа-кортежа и нулевого знаечния for row in rows if row > 0 # Только положительные значения for col in cols if len(col) == 1 # Только односимвольные } print(my_dict) # {('a', 1): 0, ('b', 2): 0, ('b', 3): 0, ('b', 1): 0, ('a', 3): 0, ('a', 2): 0} ``` **Эта же задача решенная с помощью цикла** ``` rows = 1, 2, 3, -4, -5 cols = 'a', 'b', 'abc' my_dict = {} for row in rows: if row > 0: for col in cols: if len(col) == 1: my_dict[col, row] = 0 print(my_dict) # {('a', 1): 0, ('b', 2): 0, ('b', 3): 0, ('b', 1): 0, ('a', 3): 0, ('a', 2): 0} ``` ### 7.1.2 Вложенные циклы for где внутренний цикл идет по результату внешнего цикла Общий синтаксис: ***[expression for x in iterator for y in x]***. **Применение**: Стандартный подход, когда нам надо обходить двумерную структуру данных, превращая ее в «плоскую» одномерную. В данном случае, мы во внешнем цикле проходим по строкам, а во внутреннем по элементам каждой строки нашей двумерной структуры. Допустим у нас есть двумерная матрица — список списков. И мы желаем преобразовать ее в плоский одномерный список. ``` matrix = [[0, 1, 2, 3], [10, 11, 12, 13], [20, 21, 22, 23]] # Решение с помощью генератора списка: flattened = [n for row in matrix for n in row] print(flattened) # [0, 1, 2, 3, 10, 11, 12, 13, 20, 21, 22, 23] ``` **Таже задача, решенная с помощью вложенных циклов** ``` flattened = [] for row in matrix: for n in row: flattened.append(n) print(flattened) ``` **UPD:Изящные решения из комментариев** ``` import itertools flattened = list(itertools.chain.from_iterable(matrix)) # от @iMrDron # Данный подходнамного быстрее генератора списков # и рекомендован к использованию для подобных задач. flattened = sum(a, []) # от @YuriM1983 # sum(a, []) имеет квадратическую сложность(O(n^2)) # и потому совсем не рекомендуется к использованию для таких целей ``` ### 7.2 Вложенные генераторы Вложенными могут быть не только циклы for внутри выражения-генератора, но и сами генераторы. Такой подход применяется когда нам надо **строить двумерную структуру**. **Важно**!: В отличии от примеров выше с вложенными циклами, для вложенных генераторов, вначале обрабатывается внешний генератор, потом внутренний, то есть порядок идет справа-налево. Ниже рассмотрим два варианта подобного использования. ### 7.2.1 — Вложенный генератор внутри генератора — двумерная из двух одномерных Общий синтаксис: ***[[expression for y in iter2] for x in iter1]*** **Применение**: генерируем двумерную структуру, используя данные из двух одномерных итераторов. Для примера создадим матрицу из 5 столбцов и 3 строк и заполним ее нулями: ``` w, h = 5, 3 # зададим ширину и высотку матрицы matrix = [[0 for x in range(w)] for y in range(h)] print(matrix) # [[0, 0, 0, 0, 0], [0, 0, 0, 0, 0], [0, 0, 0, 0, 0]] ``` **Создание этой же матрицы двумя вложенными циклами - обратите внимание на порядок вложения** ``` matrix = [] for y in range(h): new_row = [] for x in range(w): new_row.append(0) matrix.append(new_row) print(matrix) # [[0, 0, 0, 0, 0], [0, 0, 0, 0, 0], [0, 0, 0, 0, 0]] ``` **Примечание: После создания можем работать с матрицей как с обычным двумерным массивом** ``` # теперь можно добавлять значения по координатам (координаты - индексы в списке списков) matrix[0][0] = 1 matrix[1][3] = 3 print(matrix) # [[1, 0, 0, 0, 0], [0, 0, 0, 3, 0], [0, 0, 0, 0, 0]] # Получаем значение по произвольным координатам x, y = 1, 3 print(matrix[x][y]) # 3 ``` ### 7.2.2 — Вложенный генератор внутри генератора — двумерная из двумерной Общий синтаксис: **[[expression for y in x] for x in iterator]** **Применение**: Обходим двумерную структуру данных, сохраняя результат в другую двумерную структуру. Возьмем матрицу: ``` matrix = [[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]] ``` Возведем каждый элемент матрицы в квадрат: ``` squared = [[cell**2 for cell in row] for row in matrix] print(squared) # [[1, 4, 9, 16], [25, 36, 49, 64], [81, 100, 121, 144]] ``` **Эта же операция в виде вложенных циклов** ``` squared = [] for row in matrix: new_row = [] for cell in row: new_row.append(cell**2) squared.append(new_row) print(squared) # [[1, 4, 9, 16], [25, 36, 49, 64], [81, 100, 121, 144]] ``` Обобщим все вышеперечисленные варианты в одной схеме (полный размер по клику): [![](https://habrastorage.org/r/w1560/files/d15/679/28e/d1567928e55649d59fb95f337ef0387f.png)](https://habrastorage.org/files/d15/679/28e/d1567928e55649d59fb95f337ef0387f.png) ### 7.3 — Генератор итерирующийся по генератору Так как любой генератор может использоваться как итератор в цикле for, это так же можно использовать и для создания генератора по генератору. При этом синтаксически это может записываться в два выражения или объединяться во вложенный генератор. Проиллюстрирую и такую возможность. Допустим у нас есть два таких генератора списков: ``` list_a = [x for x in range(-2, 4)] # Так сделано для дальнейшего примера синтаксиса, # конечно в подобной задаче досточно только range(-2, 4) list_b = [x**2 for x in list_a] ``` Тоже самое можно записать и в одно выражение, подставив вместо list\_a его генератор списка: ``` list_c = [x**2 for x in [x for x in range(-2, 4)]] print(list_c) # [4, 1, 0, 1, 4, 9] ``` UPD от [longclaps](https://habr.com/en/users/longclaps/): Преимущество от комбинирования генераторов на примере сложной функции f(x) = u(v(x)) ``` list_c = [t + t ** 2 for t in (x ** 3 + x ** 4 for x in range(-2, 4))] ``` 8. Использование range() ------------------------ Говоря о способах генерации коллекций, нельзя обойти вниманием простую и очень удобную функцию range(), которая предназначена для создания арифметических последовательностей. #### Особенности функции range(): * Наиболее часто функция range() **применяется** для запуска цикла for нужное количество раз. Например, смотрите генерацию матрицы в примерах выше. * В Python 3 range() возвращает **генератор**, который при каждом к нему обращении выдает очередной элемент. * Исполльзуемые **параметры** аналогичны таковым в срезах (кроме первого примера с одним параметром): + range(stop) — в данном случае с 0 до stop-1; + range(start, stop) — Аналогично примеру выше, но можно задать начало отличное от нуля, можно и отрицательное; + range(start, stop, step) — Добавляем параметр шага, который может быть отрицательным, тогда перебор в обратном порядке. * В **Python 2** были 2 функции: + range(...) которая аналогична выражению list(range(...)) в Python 3 — то есть она выдавала не итератор, а сразу готовый список. То есть все проблемы возможной **нехватки памяти**, описанные в разделе 4 актуальны, и использовать ее в Python 2 надо очень аккуратно! + xrange(...) — которая работала аналогично range(...) в Python 3 и из 3 версии была исключена. Примеры использования: ``` print(list(range(5))) # [0, 1, 2, 3, 4] print(list(range(-2, 5))) # [-2, -1, 0, 1, 2, 3, 4] print(list(range(5, -2, -2))) # [5, 3, 1, -1] ``` 9. Приложение 1. Дополнительные примеры --------------------------------------- #### 9.1 Последовательный проход по нескольким спискам ``` import itertools l1 = [1,2,3] l2 = [10,20,30] result = [l*2 for l in itertools.chain(l1, l2)] print(result) # [2, 4, 6, 20, 40, 60] ``` #### 9.2 Транспозиция матрицы (Преобразование матрицы, когда строки меняются местами со столбцами). Возьмем матрицу. ``` matrix = [[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]] ``` Сделаем ее транспозицию с помощью генератора выражений: ``` transposed = [[row[i] for row in matrix] for i in range(len(matrix[0]))] print(transposed) # [[1, 5, 9], [2, 6, 10], [3, 7, 11], [4, 8, 12]] ``` **Эта же транспозиция матрицы в виде цикла** ``` transposed = [] for i in range(len(matrix[0])): new_row = [] for row in matrix: new_row.append(row[i]) transposed.append(new_row) print(transposed) # [[1, 5, 9], [2, 6, 10], [3, 7, 11], [4, 8, 12]] ``` **И немного черной магии от @longclaps** ``` transposed = list(map(list, zip(*matrix))) print(transposed) # [[1, 5, 9], [2, 6, 10], [3, 7, 11], [4, 8, 12]] ``` #### 9.3 Задача выбора только рабочих дней ``` # Формируем список дней от 1 до 31 с которым будем работать days = [d for d in range(1, 32)] # Делим список дней на недели weeks = [days[i:i+7] for i in range(0, len(days), 7)] print(weeks) # [[1, 2, 3, 4, 5, 6, 7], [8, 9, 10, 11, 12, 13, 14], [15, 16, 17, 18, 19, 20, 21], [22, 23, 24, 25, 26, 27, 28], [29, 30, 31]] # Выбираем в каждой неделе только первые 5 рабочих дней, отбрасывая остальные work_weeks = [week[0:5] for week in weeks] print(work_weeks) # [[1, 2, 3, 4, 5], [8, 9, 10, 11, 12], [15, 16, 17, 18, 19], [22, 23, 24, 25, 26], [29, 30, 31]] # Если нужно одним списком дней - можно объединить wdays = [item for sublist in work_weeks for item in sublist] print(wdays) # [1, 2, 3, 4, 5, 8, 9, 10, 11, 12, 15, 16, 17, 18, 19, 22, 23, 24, 25, 26, 29, 30, 31] ``` **Можно убрать выходные еще более изящно, используя только индексы** ``` # Формируем список дней от 1 до 31 с которым будем работать days = [d for d in range(1, 32)] wdays6 = [wd for (i, wd) in enumerate(days, 1) if i % 7 != 0] # Удаляем каждый 7-й день # Удаляем каждый 6 день в оставшихся после первого удаления: wdays5 = [wd for (i, wd) in enumerate(wdays6, 1) if i % 6 != 0] print(wdays5) # [1, 2, 3, 4, 5, 8, 9, 10, 11, 12, 15, 16, 17, 18, 19, 22, 23, 24, 25, 26, 29, 30, 31] # Обратите внимание, что просто объединить два условия в одном if не получится, # как минимум потому, что 12-й день делится на 6, но не выпадает на последний 2 дня недели! # Шикарное короткое решение от @sophist: days = [d + 1 for d in range(31) if d % 7 < 5] ``` 10. Приложение 2. Ссылки по теме -------------------------------- 1. Хорошая англоязычная статья с [детальным объяснением что такое генераторы и итераторы](http://nvie.com/posts/iterators-vs-generators/) **Иллюстрация из статьи:**![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e48/8cf/7df/e488cf7df0382c29638d9b0e5b1addf3.png) 2. Если у Вас есть сложности с пониманием логики работы с генераторными выражениями, посмотрите интересную англоязычную статью, где проводятся [аналогии между генераторными выражениями и работой с SQL и таблицами Excel](http://blog.lerner.co.il/want-to-understand-pythons-comprehensions-think-like-an-accountant/). **Например так:** ``` squared_evens = [n ** 2 # SELECT for n in numbers # FROM if n % 2 == 0] # WHERE ``` 3. UPD от [fireSparrow](https://habr.com/en/users/firesparrow/): Существуюет расширение Python — PythonQL, позволяющее работать с базами данных в стиле генераторов коллекций. 4. Иллюстрированная статья на английском, довольно наглядно показывает [синтаксис генераторных выражений](http://treyhunner.com/2015/12/python-list-comprehensions-now-in-color/). 5. Если требуются дополнительные примеры по теме [вложенных генераторных выражений](http://blog.lerner.co.il/understanding-nested-list-comprehensions-in-python/) (статья на английском). | [Часть 1](https://habrahabr.ru/post/319164/ "Python: коллекции, часть 1/4: классификация, общие подходы и методы, конвертация") | [Часть 2](https://habrahabr.ru/post/319200/ "Python: коллекции, часть 2/4: индексирование, срезы, сортировка") | [Часть 3](https://habrahabr.ru/post/319876/ "Python: коллекции, часть 3/4: объединение коллекций, добавление и удаление элементов") | Часть 4 | | --- | --- | --- | --- | #### Приглашаю к обсуждению: * Если я где-то допустил неточность или не учёл что-то важное — пишите в комментариях, важные комментарии будут позже добавлены в статью с указанием вашего авторства. * Если какие-то моменты не понятны и требуется уточнение — пишите ваши вопросы в комментариях — или я или другие читатели дадут ответ, а дельные вопросы с ответами будут позже добавлены в статью.
https://habr.com/ru/post/320288/
null
ru
null
# Умные алгоритмы обработки строк в ClickHouse В ClickHouse постоянно возникают задачи, связанные с обработкой строк. Например, поиск, вычисление свойств UTF-8 строк или что-то более экзотическое, будь то поиск типа учёта регистра или поиск по сжатым данным. Всё началось с того, что руководитель разработки ClickHouse Лёша Миловидов [o6CuFl2Q](https://habr.com/ru/users/o6cufl2q/) пришёл к нам на факультет компьютерных наук в НИУ ВШЭ и предложил огромное количество тем для курсовых и дипломов. Когда я увидел «Умные алгоритмы обработки строк в ClickHouse» (я, человек, который увлекается разными алгоритмами, в том числе экспериментальными), сразу же настроил планов, как сделаю самый крутой диплом. Мою радость и выражение лица можно описать следующей картинкой: ![](https://habrastorage.org/r/w780q1/webt/av/4d/2g/av4d2gj_pplevfljaomiqsnccda.jpeg) ClickHouse ---------- В ClickHouse тщательно продумана организация хранения данных в памяти — по колонкам. В конце каждой колонки есть паддинг в 15 байт для безопасного чтения 16-байтового регистра. Например, ColumnString хранит строки null terminated вместе с оффсетами. С такими массивами очень удобно работать. ![](https://habrastorage.org/r/w1560/webt/w4/go/yp/w4goypgrxiigdp5tpdy3eyao2bu.png) Ещё есть ColumnFixedString, ColumnConst и LowCardinality, но о них мы не так подробно поговорим сегодня. Главное в этом пункте то, что дизайн безопасного чтения хвостов просто прекрасен, и локальность данных тоже играет роль в обработке. Поиск по подстрокам ------------------- Скорее всего, вы знаете много разных алгоритмов поиска подстроки в строке. Мы расскажем о тех, что используются в ClickHouse. Сначала введём пару определений: 1. haystack — строка, в которой мы ищем; типично длина обозначается *n*. 2. needle — строка или регулярное выражение, по которому мы ищем; длина будет обозначаться *m*. После изучения большого количества алгоритмов могу сказать, что есть 2 (максимум 3) вида алгоритмов поиска подстрок. Первый — создание в том или ином виде суффиксных структур. Второй вид — алгоритмы, основанные на сравнении памяти. Ещё есть алгоритм Рабина — Карпа, который использует хэши, но он достаточно уникален в своём роде. Самого быстрого алгоритма не существует, всё зависит от размера алфавита, длины needle, haystack и частоты вхождения. Почитать про разные алгоритмы можно [здесь](http://www-igm.univ-mlv.fr/~lecroq/string/index.html). А вот наиболее популярные алгоритмы: 1. Кнута — Морриса — Пратта, 2. Бойера — Мура, 3. Бойера — Мура — Хорспула, 4. Рабина — Карпа, 5. Двусторонний (используется в glibc под названием «memmem»), 6. BNDM. Список можно продолжать. Мы в ClickHouse честно всё попробовали, но в итоге остановились на более экстраординарном варианте. #### Алгоритм Волницкого Алгоритм был опубликован в [блоге](http://volnitsky.com/project/str_search/index.html) программиста Леонида Волницкого в конце 2010 года. Он чем-то напоминает алгоритм Бойера — Мура — Хорспула, только улучшенную версию. Если *m < 4*, то применяется стандартный алгоритм поиска. Сохраним все биграммы (2 идущих подряд байта) needle с конца в хэш-таблицу с открытой адресацией размера *|Sigma|2* элементов (на практике это 216 элементов), где оффсеты данной биграммы будут значениями, а сама биграмма — хэшом и индексом одновременно. Изначальная позиция будет на позиции *m — 2* от начала haystack. Походим по haystack с шагом *m — 1*, посмотрим на очередную биграмму с этой позиции в haystack и рассмотрим все значения по биграмме в хэш-таблице. Затем будем сравнивать два куска памяти обычным алгоритмом сравнения. Хвост, который останется, обработаем этим же алгоритмом. Шаг *m — 1* выбран таким образом, что если есть вхождение needle в haystack, то мы обязательно рассматриваем биграмму этого вхождения — тем самым гарантируя, что вернём позицию вхождения в haystack. Первое вхождение гарантируется тем, что в хэш-таблицу по биграмме мы добавим индексы с конца. Это значит, что когда пойдём слева направо, то сначала будем рассматривать биграммы с конца строки (возможно, изначально рассматривая совершенно ненужные биграммы), потом — ближе к началу. Рассмотрим пример. Пусть строка haystack будет `abacabaac` и needle равна `aaca`. Хэш-таблица будет `{aa : 0, ac : 1, ca : 2}`. ``` 0 1 2 3 4 5 6 7 8 9 a b a c a b a a c a ^ - курсор изначальный здесь ``` Видим биграмму `ac`. В needle она есть, подставляем в равенство: ``` 0 1 2 3 4 5 6 7 8 9 a b a c a b a a c a a a c a ``` Не совпало. После `ac` в хэш-таблице нет никаких записей, шагаем с шагом 3: ``` 0 1 2 3 4 5 6 7 8 9 a b a c a b a a c a ^ - курсор теперь здесь ``` Биграммы `ba` в хэш-таблице нет, идём дальше: ``` 0 1 2 3 4 5 6 7 8 9 a b a c a b a a c a ^ - курсор теперь здесь ``` Биграмма `ca` в needle есть, смотрим на оффсет и находим вхождение: ``` 0 1 2 3 4 5 6 7 8 9 a b a c a b a a c a a a c a ``` У алгоритма много плюсов. Во-первых, можно не выделять память на куче, а 64 КБ на стеке не являются сейчас чем-то заоблачным. Во-вторых, 216 — отличное число для взятия по модулю для процессора; это просто инструкции movzwl (или как мы шутим, «мовзвл») и семейство. В среднем этот алгоритм проявил себя лучше всех. Данные мы взяли из Яндекс.Метрики, запросы почти реальные. Скорость на один поток, больше лучше, KMP: алгоритм Кнута — Морриса — Пратта, BM: Бойера — Мура, BMH: Бойера — Мура — Хорспула. ![](https://habrastorage.org/r/w1560/webt/wp/vn/v2/wpvnv2eqrbhhvqvryaqmdjc9igy.png) Чтобы не быть голословным, алгоритм может работать квадратичное время: ![](https://habrastorage.org/r/w1560/webt/oi/3x/dh/oi3xdhxe7awdlsqxxui2lyqvxjc.png) Он используется в функции `position(Column, ConstNeedle)`, а также выступает оптимизацией для поиска по регулярным выражениям. Поиск по регулярным выражениям ------------------------------ Расскажем, как в ClickHouse оптимизирован поиск по регулярным выражениям. Много регулярных выражений содержат внутри подстроку, которая обязательно должна быть внутри haystack. Чтобы не строить конечный автомат и проверять по нему, будем вычленять такие подстроки. Сделать это достаточно просто: любые открывающие скобки увеличивают уровень вложенности, любые закрывающие — уменьшают; также есть символы, специфичные для регулярных выражений (например, '.', '\*', '?', '\w' и т. д.). Нам надо достать все подстроки на уровне 0. Рассмотрим пример: ![](https://habrastorage.org/r/w1560/webt/2x/uk/uo/2xukuompabpmnrjpk-muwg1yydi.png) Разбиваем на те подстроки, которые обязаны быть в haystack из регулярного выражения, после чего выбираем максимальную длину, ищем по ней кандидатов и дальше уже проверяем обычным движком регулярных выражений RE2. На картинке выше есть регулярное выражение, оно обрабатывается обычным движком RE2 за 736 МБ/с, Hyperscan (о нём чуть позже) справляется за 1,6 ГБ/с, а мы справляемся за 1,69 ГБ/c на одно ядро вместе с разжатием LZ4. В целом, такая оптимизация лежит на поверхности и сильно ускоряет поиск по регулярным выражениям, но часто её не имплементируют в тулзах, что меня сильно удивляет. Ключевое слово LIKE тоже оптимизировано с помощью данного алгоритма, только после LIKE может идти очень упрощённое регулярное выражение через %%%%% (произвольная подстрока) и `_` (произвольный символ). К сожалению, не все регулярные выражения подвержены таким оптимизациям, например из `yandex|google` нельзя явно вычленить подстроки, которые обязаны встречаться в haystack. Поэтому мы придумали совершенно иное решение. Поиск по многим подстрокам -------------------------- Задача заключается в том, что есть много needle, и хочется понять, входит ли хотя бы одна из них в haystack. Существуют достаточно классические методы такого поиска, например алгоритм Ахо — Корасик. Но он оказался не слишком быстрым для нашей задачи. Об этом чуть позже поговорим. ~~Лёша~~ ClickHouse любит нестандартные решения, поэтому мы решили попробовать что-то иное и, возможно, самим сделать новый алгоритм поиска. И сделали. Мы посмотрели на алгоритм Волницкого и модифицировали его так, чтобы он начал искать сразу много подстрок. Для этого надо всего лишь добавлять биграммы всех строк и хранить в хэш-таблице дополнительно индекс строки. Шаг будет выбран как минимум из всех длин needle минус 1, чтобы снова гарантировать свойство, что при наличии вхождения мы посмотрим его биграмму. Хэш-таблица вырастет до 128 КБ (строки длиннее 255 обрабатываются стандартным алгоритмом, будем рассматривать не более 256 needle). Я очень ленивый, поэтому вот пример из презентации (читать слева направо сверху вниз): ![](https://habrastorage.org/r/w1560/webt/ak/no/hq/aknohqtvebtx-c_ijmza8af0emm.png) ![](https://habrastorage.org/r/w1560/webt/x6/cm/z4/x6cmz4d3i5qy5i3tfj1ngbssewc.png) Начали смотреть, как такой алгоритм ведёт себя по сравнению с другими (строки взяты из реальных данных). И для маленького количества строк он уделывает всех (указана скорость вместе с разжатием — примерно 2,5 ГБ/с). ![](https://habrastorage.org/r/w1560/webt/nl/t_/pt/nlt_pt077xl7n-cya0qb6eh67re.png) Дальше стало интересно. Например, при большом количестве похожих биграмм мы проигрываем некоторым конкурентам. Оно и понятно — начинаем сравнивать много кусков памяти и деградировать. ![](https://habrastorage.org/r/w1560/webt/n8/wm/uz/n8wmuzm_vcepo4olqcse1e7gwqy.png) Нельзя сильно ускоряться, если минимальная длина needle достаточно большая. Очевидно, что у нас больше возможностей пропустить целые куски haystack, ничего за это не заплатив. ![](https://habrastorage.org/r/w1560/webt/zg/z1/ej/zgz1ejecxev4-j-oz3m6egxydt0.png) Переломный момент начинается где-то на 13-15 строках. Примерно 97% запросов, которые я видел на кластере, были меньше 15 строк: ![](https://habrastorage.org/r/w1560/webt/x-/6j/od/x-6jodqalhriam_byxewdzoxzhs.png) Ну и совсем страшная картинка — 41 строка, много повторяющихся биграмм: ![](https://habrastorage.org/r/w1560/webt/yx/ez/da/yxezdam_2poycdgttd9nnsyjjqy.png) В итоге в ClickHouse (19.5) мы реализовали через этот алгоритм следующие функции: — `multiSearchAny(h, [n_1, ..., n_k])` — 1, если хоть кто-то из needle входит в haystack. — `multiSearchFirstPosition(h, [n_1, ..., n_k])` — самая левая позиция вхождения в haystack (с единицы) или 0, если не нашлось. — `multiSearchFirstIndex(h, [n_1, ..., n_k])` — самый левый индекс needle, который нашёлся в haystack; 0, если не нашлось. — `multiSearchAllPositions(h, [n_1, ..., n_k])` — все первые позиции всех needle, возвращает array. Суффиксы -UTF8 (не нормализируем), -CaseInsensitive (добавляем 4 биграммы с разным регистром), -CaseInsensitiveUTF8 (есть условие, что большие и маленькие буквы должны быть одинакового количества байтов). Реализацию можно посмотреть [здесь](https://github.com/yandex/ClickHouse/blob/master/dbms/src/Common/Volnitsky.h). После этого мы задумались, можно ли что-то подобное провернуть со многими регулярными выражениями? И нашли решение, которое уже проспойлерили в бенчмарках. Поиск по многим регулярным выражениям ------------------------------------- [Hyperscan](https://branchfree.org/2019/02/28/paper-hyperscan-a-fast-multi-pattern-regex-matcher-for-modern-cpus/) — библиотека от Intel, которая ищет сразу по многим регулярным выражениям. Она использует эвристики вычленения подслов из регулярных выражений, о которых мы писали, и много SIMD для поиска по автомату Глушкова (алгоритм, кажется, называется Teddy). В общем, всё в лучших традициях вытаскивания максимума из поиска регулярных выражений. Библиотека реально делает то, что заявлено в её функциях. ![](https://habrastorage.org/r/w1560/webt/of/xl/dd/ofxlddsnj92zghvsducv9e9jktu.png) К счастью, за мой месяц разработки в ClickHouse я смог обогнать 12-летнюю разработку на приличном классе запросов и очень этим доволен. В Яндексе библиотека Hyperscan также используется в антиспаме. Судя по отзывам, она спокойно обрабатывает тысячи регулярных выражений и быстро ищет по ним. У библиотеки есть несколько минусов. Первый — недокументированное количество потребляемой памяти и странная особенность, что haystack обязан быть меньше 232 байт. Второй — нельзя бесплатно возвращать первые позиции, самые левые индексы needle и т. д. И третий минус — возникают какие-то [баги](https://github.com/intel/hyperscan/issues/141) на ровном месте. Поэтому в ClickHouse мы реализовали следующие функции с использованием Hyperscan: — `multiMatchAny(h, [n_1, ..., n_k])` — 1, если хоть кто-то из needle подошёл под haystack. — `multiMatchAnyIndex(h, [n_1, ..., n_k])` — любой индекс из needle, который подошёл под haystack. Мы заинтересовались, а как можно искать не точно, а приближённо? И придумали несколько решений. Приближённый поиск ------------------ Стандартом в приближённом поиске считается расстояние Левенштейна — минимальное количество символов, которое можно заменить, добавить и удалить, чтобы из строки a длины m получить строку b длины n. К сожалению, наивный алгоритм с динамическим программированием работает за *O(mn)*; лучшие умы ШАДа умеют за *O(mn/log max(n, m))*; несложно придумать за *O( (n + m) ⋅ alpha)*, где *alpha* — ответ; [наука](https://arxiv.org/pdf/0807.4368.pdf) умеет за *O( (alpha − |n − m|)min(m, n, alpha) + m + n)* (алгоритм простой, хоть в ШАДе читай) или, если чуть понятнее, за *O(alpha^2 + m + n)*. Есть ещё минус: от квадратичного времени в худшем случае полиномиально избавиться, скорее всего, нельзя — про это Пётр Индик написал очень мощную [статью](https://arxiv.org/pdf/1412.0348.pdf). Есть упражнение: представьте, что за замену символа в расстоянии Левенштейна вы платите штраф не единицу, а двойку; тогда придумайте алгоритм за *O( (n + m) log (n + m))*. Это всё равно никуда не годится, слишком долго и дорого. Но с помощью такого расстояния мы сделали обнаружение опечаток в запросах. ![](https://habrastorage.org/r/w1560/webt/ok/b8/gg/okb8ggb8vwkzft3ggzdipy29pja.png) Кроме расстояния Левенштейна, существует расстояние Хэмминга. С ним тоже всё довольно плохо, но чуть лучше, чем с расстоянием Левенштейна. Оно не учитывает удаление символов, а считает только для двух строк одинаковой длины количество символов, в которых они различаются. Поэтому если и использовать расстояние для строк длины m < n, то только в поиске наиболее близких подстрок. Как вычислить такой массив расхождений (массив d из n — m + 1 элемента, где d[i] — количество различных символов в i-м от начала наложении) за *O(|Sigma| (n + m) log (n + m))*? Сначала сделаем *|Sigma|* битовых масок, означающих, равен ли данный символ рассмотренному. Далее посчитаем ответ для каждых из масок Sigma и сложим — получим исходный ответ. Рассмотрим пример. `abba`, подстрока `ba`, бинарный алфавит. Получаем 2 маски `1001, 01` и `0110, 10`. ``` Совпадения по букве a 1001 01 - 0 совпадений 01 - 0 совпадений 01 - 1 совпадение ``` ``` Совпадения по букве b 0110 10 - 0 совпадений 10 - 1 совпадение 10 - 1 совпадение ``` Получаем массив [0, 1, 2] — это почти правильный ответ. Но заметим, что для каждой буквы количество совпадений — просто скалярное произведение фиксированной бинарной needle на все подстроки haystack. И для этого, конечно же, есть быстрое преобразование Фурье! Для тех, кто не знает: БПФ умеет перемножать два многочлена степеней *m < n* за время *O(n log n)* при условии, что работа с коэффициентами выполняется за единицу времени. Свёртки очень похожи на скалярные произведения. Достаточно у первого многочлена продублировать коэффициенты, а второй — развернуть и дополнить нужным количеством нулей, тогда мы получим все скалярные произведения одной бинарной строки на все подстроки другой за *O(n log n)* — магия какая-то! Но поверьте, это абсолютно реально, и люди иногда так делают. Но не в ClickHouse. Для нас работа с |Sigma| = 30 уже большая, а БПФ — не самый приятный практический алгоритм для процессора или, как говорят в простонародье, «константа большая». Поэтому мы решили смотреть на другие метрики. Дошли до биоинформатики, где люди используют n-граммное расстояние. По факту мы берём все n-граммы haystack и needle, рассматриваем 2 мультимножества c этими n-граммами. Затем берём симметрическую разность и делим на сумму мощностей двух мультимножеств с n-граммами. Получаем число от 0 до 1 — чем ближе к 0, тем более строки похожи. Рассмотрим пример, где *n = 4*: ``` abcda → {abcd, bcda}; Size = 2 bcdab → {bcda, cdab}; Size = 2 Берём симметрическую разность и делим её на сумму мощностей. |{abcd, cdab}| / (2 + 2) = 0.5 ``` В итоге мы сделали 4-граммное расстояние и засунули туда кучу идей из SSE, ещё и немного ослабили реализацию до двухбайтных crc32-хэшей. ![](https://habrastorage.org/r/w1560/webt/ad/36/uk/ad36ukzmrspftbjxxwbc3djljv4.png) Посмотрите [реализацию](https://github.com/yandex/ClickHouse/blob/master/dbms/src/Functions/FunctionsStringSimilarity.cpp). Осторожно: очень забористый и оптимизированный под компиляторы код. Особенно советую обратить внимание на [грязный хак](https://github.com/yandex/ClickHouse/blob/master/dbms/src/Functions/FunctionsStringSimilarity.cpp#L144) для приведения нижнего регистра у ASCII и русских кодовых точек. — `ngramDistance(haystack, needle)` — возвращает число от 0 до 1; чем ближе к 0, тем более строки похожи друг на друга. — -UTF8, -CaseInsensitive, -CaseInsensitiveUTF8 (грязный хак для русских и ASCII). Hyperscan тоже не стоит на месте — в ней есть функциональность по приближённому поиску: можно по константному расстоянию Левенштейна искать строки, похожие на регулярные выражения. Создаются *distance + 1* автоматов, которые между собой связаны удалением, заменой или вставкой символа, означающие «штраф», после чего применяется обычный алгоритм проверки на принятие автомата той или иной строки. В ClickHouse мы реализовали их под следующими именами: — `multiFuzzyMatchAny(haystack, distance, [n_1, ..., n_k])` — аналогично multiMatchAny, только с расстоянием. — `multiFuzzyMatchAnyIndex(haystack, distance, [n_1, ..., n_k])` — аналогично multiMatchAnyIndex, только с расстоянием. С увеличением *distance* скорость начинает сильно деградировать, но всё ещё остаётся на довольно приличном уровне. Закончим с поиском и приступим к обработке UTF-8 строк. Тут тоже было много интересного. Обработка UTF-8 строк --------------------- Признаюсь, что пробить потолок наивных реализаций в UTF-8 закодированных строках оказалось сложно. Особенно трудно было прикручивать SIMD. Поделюсь некоторыми идеями, как это можно делать. Вспомним, как выглядит валидная UTF-8 последовательность: ![](https://habrastorage.org/r/w1560/webt/iu/xn/zu/iuxnzucrcetohvgsxb7ozohxwws.png) Попробуем вычислить длину кодовой точки по первому байту. Тут начинается битовая магия. Снова выпишем несколько свойств: — Начинающиеся на 0xC *и на 0xD* имеют 2 байта — 0xC2 = 11000010 — 0xDF = 11011111 — 0xE0 = 11100000 — 0xF4 = 11110100, дальше 0xF4 ничего нет, а если бы был 0xF8, была бы другая история — Ответ 7 минус позиция первого нуля с конца, если это не ASCII символ Вычисляем длину: ``` inline size_t seqLength(const UInt8 first_octet) { if (first_octet < 0x80u) return 1; const auto first_zero = bitScanReverse(static_cast(~first\_octet)); return 7 - first\_zero; } ``` Благо у нас в запасе есть инструкции, которые умеют вычислять количество нулевых бит, начиная со старших. ``` f = __builtin_clz(val) // (bsrl, количество нулевых бит с конца) f(2) = 30, f(8) = 28, f(7) = 29 ``` Вычисляем bitScanReverse: ``` unsigned int bitScanReverse(unsigned int x) { return 31 - __builtin_clz(x); } ``` Попробуем вычислить длину UTF-8 строки по кодовым точкам через SIMD. Для этого посмотрим на каждый байт как на знаковое число и заметим следующие свойства: — 0xBF = -65 — 0x80 = -128 — 0xC2 = -62 — 0x7F = 127 — все первые байты лежат в [0xC2, 0x7F] — все не первые байты лежат в [0x80, 0xBF] Алгоритм достаточно прост. Сравниваем каждый байт с -65 и, если он больше, чем это число, добавляем единицу. Если мы хотим использовать SIMD, то это обычный load 16 байт из input stream. Затем идёт байтовое сравнение, которое в случае положительного результата даст байт 0xFF, а в случае отрицательного — 0x00. Потом инструкция `pmovmskb`, которая соберёт старшие биты каждого байта регистра. Потом количество нижних подчёркиваний увеличивается, мы используем интринсик для SSE4-инструкции `popcnt`. Схему этого алгоритма можно проиллюстрировать примером: ![](https://habrastorage.org/r/w1560/webt/gn/mh/q5/gnmhq5lwynwpkdmqe2k3xsowxfs.png) Получается, что вместе с разжатием обработка на одно ядро будет примерно 1,5 ГБ/с. Функции называются: — `lengthUTF8(string)` — возвращает длину корректно закодированной UTF-8 строки, на некорректные строки что-то считается, исключение не бросается. Мы пошли дальше, потому что хотели ещё больше функций с обработкой UTF-8 строк. Например, проверку на валидность и приведение к валидному UTF-8 выражению. Для проверки на валидность я взял <https://github.com/cyb70289/utf8/>, адаптировал под ClickHouse (на самом деле просто поменял обработку хвостов) и получил 1,22 ГБ/с скорости по сравнению с 900 МБ/с для наивного алгоритма. Сам алгоритм описывать не буду, он достаточно сложный для восприятия. — `isValidUTF8(string)` — возвращает 1, если строка корректно UTF-8 закодирована, иначе 0. — `toValidUTF8(string)` — заменяет некорректные символы UTF-8 на символ � (U+FFFD). Все идущие подряд некорректные символы схлопываются в один заменяющий символ. No rocket science. В общем, в UTF-8 строках из-за не самой приятной статичной схемы всегда сложно придумать что-то, хорошо оптимизированное. Что дальше? ----------- Напомню, что это была моя дипломная работа. Конечно же, я защитил её на 10/10. Мы уже съездили с ней на Highload++ Siberia (правда, мне показалось, что она мало кого заинтересовала). Посмотрите [презентацию](https://github.com/yandex/clickhouse-presentations/blob/master/highload_siberia_2019/string_algorithms.pdf). Мне понравилось, что практическая часть дипломной работы вылилась в большое интересное исследование. А вот и сам [диплом](https://www.hse.ru/edu/vkr/296308510). В нём много опечаток, потому что его никто не вычитывал. :) Ещё в рамках подготовки диплома я сделал кучу другой похожей работы (ссылки ведут на пул-реквесты): — [Соптимизировал функцию concat в 2 раза](https://github.com/yandex/ClickHouse/pull/5357); — [Сделал простейший python format для запросов](https://github.com/yandex/ClickHouse/pull/5330); — [Ускорил LZ4 ещё на 4%](https://github.com/yandex/ClickHouse/pull/5070); — [Проделал огромную работу по SIMD для ARM и PPC64LE](https://github.com/yandex/ClickHouse/pull/4132); — И проконсультировал пару студентов ФКН с дипломами по ClickHouse. В итоге оказалось, что, по моим впечатлениям, ~~каждый месяц Лёша пытался схантить меня~~ ClickHouse максимально приятная система для написания высокопроизводительного кода, где есть документация, комментарии, прекрасная developer- и devops-поддержка. ClickHouse офигенен, серьёзно. Устали от перекладывания форматов JSON? Придите к Лёше и попросите задачу любого уровня — он вам её предоставит, и за выходные вы получите огромное удовольствие от написания кода. Но при всех достижениях ClickHouse и его дизайна, дело, наверное, не в них. Даже в первую очередь не в них. Я прошёл 4 года бакалавриата ФКН, в июне закончил Вышку с красным дипломом, проработал полтора года в офигенной команде в Яндексе, хорошо прокачавшись. Без суммарного опыта за всё это время ~~и железа~~ ничего из написанного в посте не получилось бы. ФКН очень крут, если брать от него максимум. Спасибо Ване Пузыревскому [ivan\_puzyrevskiy](https://habr.com/ru/users/ivan_puzyrevskiy/), Игнату Колесниченко, Глебу Евстропову, Максу Бабенко [maxim\_babenko](https://habr.com/ru/users/maxim_babenko/) за то, что встретились в моём забавном приключении на ФКН. А также спасибо всем преподавателям, которые чему-то меня научили.
https://habr.com/ru/post/466183/
null
ru
null
# Установка squid+sams+ntlm на centos 6.4 по шагам ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/309/2f3/6ea/3092f36eaf174584f533da9a2d603654.jpg) Добрый день господа, думаю, я не открою Америку рассказывая про проект SAMS (Squid Accaunt Management System), статьи о нем достаточно распространены, в том числе и на Хабрахабре. Однако хотя я не расскажу вам много нового, но надеюсь, расскажу немного полезного. Первая причина написания статьи — помочь собратьям эникейщикам (админам небольших организаций) вроде меня, получить еще одно удобное, а самое главное бесплатное средство администрирования. Вторая причина в том, что попытавшись установить данное средство у себя, по различным HowTo я обнаружил, что они либо не полные, либо устарели и человеку знакомому с линуксом поверхностно (как я) получить что либо более менее работоспособное по ним невозможно, поэтому получив результат, решил поделиться с новичками. ##### Задачи Итак, данное пошаговое HowTo ставит свой целью привести вас к собственному прозрачному прокси-серверу на CentOS 6.4 i386 который позволяет аутентифицировать пользователей через Active Directory. При этом данный сервер будет иметь удобный веб-интерфейс, и самое главное, он бесплатен (кого я этим хочу удивить в топике никсов?). ##### Немного о SAMS Лучше всего, конечно же, прочитать официальный ресурс [sams.perm.ru](http://sams.perm.ru). Для меня SAMS это удобная считалка трафика и лог серфинга пользователей с красивым веб-интерфейсом. Но все же о плюсах и минусах (а они, разумеется, есть) SAMS и стоит ли его использовать судить только вам. ##### Сложности при установке Основная проблема в установке SAMS то, что стабильная первая версия (а в настоящий момент энтузиасты продолжают разработку SAMS2, надеюсь, у них все получится) давненько не обновлялась поэтому требует установки старых библиотек не из стандартных репозиториев. “Какая глупость!” — скажете вы и будете не совсем правы, ибо как я уже говорил статья, прежде всего, новичкам совсем не знакомым с линуксом. Так же одной из проблем стало то, что HowTo по установке на CentOS(выбор ОС не тема данной статьи, так сложилось) я не нашел. ##### Подготовка к установке Разумеется прежде всего необходимо скачать образ CentOS 6.4 (последний на данный момент) по ссылке [isoredirect.centos.org/centos/6/isos/i386](http://isoredirect.centos.org/centos/6/isos/i386/). Далее все стандартно записываем диск и производим установку в минимальной конфигурации на наш будущий шлюз. В процессе установки необходимо сделать следующее: 1. Ввести имя нашего сервера. 2. Настроить сеть (удобнее это сделать здесь в графическом интерфейсе, чем потом править файлы конфигурации, хотя это дело привычки). 3. Установить параметры времени. 4. Установить пароль суперпользователя root. ##### Настройка ОС После перезагрузки заходим в систему под суперпользователем. Дальнейшие действия я произвожу от его имени. 1. Если забыли или неправильно настроили сеть, то правим конфигурацию сетевых интерфейсов ifcfg-eth0, ifcfg-eth1 (у нас же шлюз так что интерфейсов, очевидно, не менее двух) ``` vi /etc/sysconfig/network-scripts/ifcfg-eth0 ``` Пример конфигурационного файла: > DEVICE=«eth0» > > BOOTPROTO=none > > NM\_CONTROLLED=«yes» > > ONBOOT=«yes» > > TYPE=«Ethernet» > > UUID=«57fb7ee8-e3da-4719-b5ec-d27e16fe0677» > > HWADDR=6C:62:6D:B7:F0:A3 > > IPADDR=192.168.0.86 > > PREFIX=24 > > GATEWAY=192.168.0.3 > > DNS1=192.168.0.2 > > DNS2=192.168.0.3 > > DEFROUTE=yes > > IPV4\_FAILURE\_FATAL=yes > > IPV6INIT=no > > NAME=«System eth0» > > 2. Установка программ первой необходимости: ``` yum install mc nano wget ntp -y ``` 3. Настройка синхронизации времени. В качестве серверов времени указываем контроллеры домена: ``` ntpdate ntpserver vi /etc/ntp.conf ``` Пример конфигурационного файла: > server 192.168.0.1 > > 4. останавливаем iptables: ``` service iptables stop chkconfig iptables off ``` 5. Обновляем систему: ``` yum makecache && yum -y update ``` 6. Отключаем selinux. В файле /etc/sysconfig/selinux поставить ``` vi /etc/sysconfig/selinux ``` > SELINUX=disabled > > 7. Перезагрузить сервер командой: ``` shutdown -r now ``` ##### Установка требуемых библиотек 1. Теперь добавим репозиторий CentOS 5: ``` rpm -Uvh http://repo.webtatic.com/yum/centos/5/latest.rpm ``` 2. И установим оттуда libmysqlclient15: ``` yum install libmysqlclient15 --enablerepo=webtatic ``` 3. В некоторых случаях требуется для каких-либо старых скриптов понижение версии PHP 5.3.3 до версии 5.2.17. Для проведения установки наиболее оптимально воспользоваться репозиторием Atomic. Установка производилась на свежепоставленный сервер, ниже приведен порядок действий. 4. Подключите репозиторий Atomic ``` wget http://www.atomicorp.com/installers/atomic sh atomic ``` 5. И принять лицензию скрипта установки (нажать enter) 6. Далее следует отключить в подключенных стандартных репозиториях системы возможность установки пакетов содержащих файлы PHP. Воспользуйтесь редактором и отредактируйте файл /etc/yum.repos.d/CentOS-Base.repo внеся изменения (добавив exclude=php\*) в указанные секции ``` vi /etc/yum.repos.d/CentOS-Base.repo ``` > [base] > > exclude=php\* > > [updates] > > exclude=php\* > > 7. После чего сохраните файл (:wq) и удалите пакеты установленного PHP 5.3.3 выполнив команду в shell ``` yum remove php* ``` 8. После того как будет удален PHP (также по зависимостям удалится phpmyadmin и squirrelmail) необходимо будет провести установку нужной версии и сопутствующих расширений командами ``` yum install php-5.2.17 php-mcrypt-5.2.17 php-gd-5.2.17 php-mbstring-5.2.17 php-pdo-5.2.17 php-mysql-5.2.17 ``` 9. Убедитесь, что все необходимые расширения установлены и нет ошибок ``` php -m ``` 10. Затем установите обратно PhpMyAdmin и squirrelmail ``` yum install phpmyadmin yum install squirrelmail ``` 11. Верните файлы конфигурации на место ``` mv /etc/phpMyAdmin/config.inc.php.rpmsave /etc/phpMyAdmin/config.inc.php mv /etc/squirrelmail/config.php.rpmsave /etc/squirrelmail/config.php mv /etc/httpd/conf.d/squirrelmail.conf.rpmsave /etc/httpd/conf.d/squirrelmail.conf ``` 12. После чего следует отключить возможность автоматической установки расширений PHP из репозитория atomic для избежания незапланнированной смены версии PHP при установке какого-либо программного обеспечения — отредактируйте файл /etc/yum.repos.d/atomic.repo также как редактировали файлы других репозиториев ``` vi /etc/yum.repos.d/atomic.repo ``` > [atomic] > > exclude=php\* > > 13. И в завершение следует перезапустить веб-сервер Apache командой ``` /etc/init.d/httpd restart ``` Если потребуется установить какие-либо расширения PHP дополнительно наиболее простой способ ставить из через rpm скачав сhttp://www2.atomicorp.com/channels/atomic/centos/6/i386/RPMS/ ##### Установка и настройка SAMS 1. Установка ПО: ``` yum install pcre-devel squid mysql-server mysql-devel gd-devel gcc make samba-server samba-client samba bind-utils –y ``` 2. Добавляем необходимое в автозагрузку: ``` chkconfig mysqld on && chkconfig httpd on && chkconfig squid on ``` 3. Cоздаем темповую директорию для сборки SAMS: ``` mkdir -p /usr/src/sams cd /usr/src/sams ``` 4. Качаем STABLE версию SAMS (Документация по SAMS): ``` wget http://nixdev.net/release/sams/sams-1.0.5.tar.bz2 ``` если не работает ссылка, то можно попробовать ``` wget http://sams.perm.ru/index.php\?option=com_doqment\&task=files.download\&cid=12 ``` Распаковываем архив и устанавливаем ``` tar xf sams-1.0.5.tar.bz2 cd sams-1.0.5 ./configure && make && make install chkconfig sams on cd / && rm -fr /usr/src/sams ``` **Альтернативный способ установки:**Качаем STABLE версию SAMS (Документация по SAMS), собранный пакет для CentOS (сам добавляет веб-директорию для apache) ``` wget http://www.nixdev.net/release/sams/packages/CentOS_5/i386/sams-1.0.5-91.1.i386.rpm yum localinstall –nogpgcheck sams-1.0.5-91.1.i386.rpm chkconfig sams on cd / && rm -fr /usr/src/sams ``` 5. Далее настраиваем Apache, добавляем в /etc/httpd/conf.d/sams.conf ``` vi /etc/httpd/conf.d/sams.conf ``` > Alias /sams /usr/local/share/sams > > > > Order Allow,Deny > > Allow from all > > Deny from none > > ``` vi /etc/httpd/conf/httpd.conf ``` раскомментируем и указываем для переменной ServerName указываем имя нашего шлюза > ServerName Proxy-???? > > **Если неудобно использовать редактор vi,** то можно воспользоваться редактором nano или воспользоваться фаловым менеджером Midnight Commander, команда mc (Редактирование файла F4). Чтобы выйти из программы vi набрать :w q или просто :x! Если надо выйти без сохранения, набрать :q! ``` (nano /etc/httpd/conf.d/sams.conf) ``` 6. После того, как был добавлен sams.conf необходимо перезапустить Apache: ``` service httpd restart ``` 7. Следом редактируем /etc/sams.conf, в котором меняем всего две записи: ``` vi /etc/sams.conf ``` > MYSQLPASSWORD= «ПАРОЛЬ» #(Для пользователя SAMS) > > MYSQLVERSION=5.0 #(Мы используем 5 версию MySQL сервера, при значении 4.0 возможны проблемы) > > Так же закомментируйте все, что связано с squidguard, ldap и rejik (если не планируете использовать) 8. Далее на очереди MySQL, запускаем сервер и делаем все то, что предложит скрипт первого запуска, то есть задаем пароль root и после инсталляционную настройку сервера: ``` /usr/bin/mysql_secure_installation service mysqld start ``` 9. Создаем MySQL пользователя sams и даем ему права на необходимые таблицы: ``` mysql -u root -p ``` Ввести «ПАРОЛЬ» для root в mysql ``` GRANT ALL ON squidctrl.* TO sams@localhost IDENTIFIED BY «ПАРОЛЬ» WITH GRANT OPTION; GRANT ALL ON squidlog.* TO sams@localhost IDENTIFIED BY «ПАРОЛЬ» WITH GRANT OPTION; flush privileges; quit ``` 10. Чтобы скрипты создания баз выполнились на mysql 5 необходимо их отредактировать > #Заменяем везде TYPE=MyISAM на ENGINE=MyISAM > > /usr/local/share/sams/data/sams\_db.sql > > /usr/local/share/sams/data/squid\_db.sql > > 11. Вливаем дампы SAMS в базу: ``` mysql -u root -p < /usr/local/share/sams/data/sams_db.sql mysql -u root -p < /usr/local/share/sams/data/squid_db.sql ``` 12. Настала очередь Squid, собираем squid swap, и уже после запускаем прокси-сервер. ``` vi /etc/squid/squid.conf ``` найти и отредактировать следующие строки > visible\_hostname Proxy-???? > > при отсутствии добавить строки > redirect\_program /usr/local/bin/samsredir > > redirect\_children 5 > > auth\_param ntlm program /usr/bin/ntlm\_auth --helper-protocol=squid-2.5-ntlmssp #NTLM аутентификатор > > auth\_param ntlm children 150 #(Количество одновременно сидящих в инете пользователей!) > > auth\_param ntlm keep\_alive on > > auth\_param basic program /usr/bin/ntlm\_auth --helper-protocol=squid-2.5-basic > > auth\_param basic children 20 > > auth\_param basic realm Squid proxy-caching web server > > auth\_param basic credentialsttl 8 hours > > Перезапускаемся и стартуем squid ``` squid –z reboot service squid start ``` 13. C версии 1.0 SAMS работает в safe\_mode php. Настриваем php для работы в режиме safe mode ``` vi /etc/php.ini ``` содержание файла > safe\_mode = On > > safe\_mode\_exec\_dir = "/usr/local/share/sams/bin" > > disable\_functions = # если он не пустой, убираем из него запрет вызова функций phpinfo system shell\_exec exec > > 14. Ну и в самом конце запускаем SAMS: ``` service sams start ``` ##### Ввод шлюза в домен 1. Редактируем файл (добавляем список контроллеров своего домена) ``` vi /etc/samba/lmhosts ``` > «IP\_адрес\_DC1» «Сетевое\_имя\_DC1» #(например: 192.168.100.8 serverDC01) > > «IP\_адрес\_DC2» «Сетевое\_имя\_DC2» > > 2. Редактируем файл конфигурации самба ``` vi /etc/samba/smb.conf ``` > [global] > > workgroup = «Имя\_Домена» #(например: serverDC01) > > realm = «FQDN\_домена» #(например: serverDC01.firma.ru) > > server string = Samba Server Version %v > > > > netbios name = Proxy-???? #имя шлюза > > > > interfaces = lo eth0 «IP\_адрес\_интерфейса + маска» #(например: 192.168.10.1/24) > > hosts allow = 127. 192.168. > > > > winbind separator = \\ > > winbind use default domain = yes > > winbind uid = 10000-20000 > > winbind gid = 10000-20000 > > winbind enum users = yes > > winbind enum groups = yes > > template homedir = /home/winnt/%D/%U > > template shell = /bin/bash > > max log size = 50 > > security = domain > > password server = «IP\_адрес\_DC1» «IP\_адрес\_DC1» #(например:192.168.100.8 192.168.100.10 обязательно через пробел) > > encrypt passwords = yes > > 3. Перестартовать сервис и ввести в домен ``` service smb restart net join –w «Имя_Домена» –S «Сетевое_имя_DC» –I «IP_адрес_DC» –U «Имя_пользователя_с_ правами_введения_в_домен» ``` 4. Перезапустить службы и проверить отклик от домена ``` service smb restart ``` 5. service winbind start ``` wbinfo –t wbinfo –p wbinfo -u ``` Если все в порядке, добавляем в автозагрузку ``` chkconfig smb on && chkconfig winbind on ``` 6. Добавляем примерно в середине правил разрешающие правила для iptables firewall в /etc/sysconfig/iptables и перезапустить его: ``` vi /etc/sysconfig/iptables ``` > -A RH-Firewall-1-INPUT -p tcp -m tcp --dport 80 -j ACCEPT > > -A RH-Firewall-1-INPUT -p tcp -m tcp --dport 3128 -j ACCEPT > > Альтернатива: > > -A INPUT -m state –state NEW -m tcp -p tcp –dport 80 -j ACCEPT #правило для 80 порта на http > > -A INPUT -m state –state NEW -m tcp -p tcp –dport 80 -j ACCEPT #правило для 3128 порта прокси > > ``` service iptables restart ``` Если, по каким-то причинам, необходимо отключить firewall, то надо набрать: ``` chkconfig iptables off chkconfig ip6tables off ``` ##### Настройка SAMS 1. В браузере зайти на страницу [Proxy-????/sams](http://Proxy-????/sams/) (либо по ip-адресу) 2. Логин: admin Пароль: qwerty Нужно изменить пароль. 3. Далее я решил не утомлять уважаемых читателей многочисленными картинками и очевидными подробностями окончательной настройки через web-интерфейс, тем более что эту работу за меня уже сделали (в том числе тут [habrahabr.ru/post/130335](http://habrahabr.ru/post/130335/)). ##### Заключение Осознавая, что в тексте много букоф и что нельзя объять необъятное, заканчиваю данную статью. Надеюсь, что данное руководство будет вам полезным. **Мои благодарности**Большое спасибо Лихоманову Антону, Коростылеву Александру, Порошину Константину и Клюшенкову Ивану чьими руководствами я пользовался.
https://habr.com/ru/post/199302/
null
ru
null
# Простой подход к работе с отзывчивыми изображениями [Спецификация](http://usecases.responsiveimages.org) по отзывчивым изображениям — это фантастический документ, в котором описано множество вариантов использования таких изображений. Но опыт подсказывает мне, что чаще всего при работе с ними нужно знать лишь о том, как отдавать клиенту копии одного и того же изображения разного размера, выбирая их в зависимости от ширины области просмотра страницы. Мы называем это «переключением разрешения». Для решения этой задачи можно воспользоваться атрибутами `srcset` и `sizes`. Вывод отзывчивых изображений предусматривает применение достаточно сложной логики. Сюда, кроме прочего, входит определение того, изображение какого размера будет выведено, а также выяснение того, работает ли пользователь с экраном высокого разрешения. К счастью, браузеры лучше, чем люди, умеют определять то, какие именно изображения лучше всего подходят каждому конкретному пользователю. Всё, что нам нужно — это дать им некоторые подсказки. Атрибут `srcset` даёт браузеру список графических ресурсов, из которых он может выбирать наиболее подходящее изображение. Атрибут `sizes` позволяет сообщить браузеру о том, изображение какого размера нужно показать в том или ином случае. [![](https://habrastorage.org/r/w780q1/webt/jg/ak/so/jgakso592dsr1styfdmh_bpazxy.jpeg)](https://habr.com/ru/company/ruvds/blog/500292/) И, кстати, пользуясь отзывчивыми изображениями можно не беспокоиться о браузерной поддержке этой технологии. Интересующие нас атрибуты пользуются [прекрасной](https://caniuse.com/#search=srcset) поддержкой браузеров. И, кроме того, в нашем распоряжении имеется резервный механизм, предназначенный для старых браузеров вроде IE11. Как тег «общается» с браузером ------------------------------ Вот как тег `![]()` сообщает браузеру о том, какое изображение нужно выбрать. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/700/2a9/a1a/7002a9a1a7d7fe46cb74820c62385b5d.png) *«Разговор» тега и браузера* Здесь тег `![]()` сообщает браузеру следующее: «При таком размере экрана я буду выводиться в примерно следующем размере (указывает на атрибут `sizes`). Можешь взять любое из этих изображений, которые имеют следующую ширину (указывает на атрибут `srcset`). Поэтому, пожалуйста, выбери то изображение, которое сейчас подходит лучше всего». Атрибут srcset -------------- Атрибут `srcset` даёт браузеру набор графических ресурсов, из которых он может выбирать самый подходящий. Здесь же находятся сведения о размере каждого из предлагаемых изображений. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/33d/3af/9ec/33d3af9ecb3f55bf3afbc808dc38f7c1.png) *Атрибут srcset* В атрибуте `src` содержится резервный вариант изображения, предназначенный для браузеров, не понимающих атрибута `srcset`. В `srcset` содержатся URL изображений и сведения об их ширине. Браузер выберет из предоставленного ему набора изображений то, что подходит лучше всего. Причём, если у пользователя имеется дисплей с повышенной плотностью пикселей (Retina-дисплей) — браузер это учтёт при выборе изображения. Атрибут `srcset` содержит список URL изображений, за которыми следуют сведения о ширине изображений. Пары `URL-ширина` разделены запятыми. Элементы списка выглядят примерно так: `image.jpg 1000w`. Такая запись сообщает браузеру о том, что изображение `image.jpg` имеет 1000 пикселей в ширину. Описывая набор изображений таким способом, мы сообщаем браузеру следующее: «Я даю тебе список изображений и доверяю тебе выбор самого подходящего». Браузер выберет наилучшее изображение, руководствуясь сложным набором критериев, в которые входит то, изображение какого размера выводится у пользователя, то, каков текущий размер области просмотра, и то, имеется ли у пользователя дисплей высокого разрешения. Браузер достаточно интеллектуален для того чтобы знать, что на настольном дисплее низкого разрешения, в том случае, если ширина выводимого изображения составляет 800 пикселей, нужно выбрать из списка то изображение, ширина которого составляет, как минимум, 800 пикселей. Браузер, кроме того, знает о том, что если изображение шириной 320 пикселей выводится на дисплее высокого разрешения, нужно выбрать файл изображения, которое имеет в ширину, как минимум, 640 пикселей. В результате нам не нужно беспокоиться об 1x- и 2x-графических ресурсах. Всё, что нужно сделать — это дать браузеру хороший набор изображений и позволить ему делать своё дело. Как описывать изображения, подходящие для разных экранов? Атрибут sizes ------------- Атрибут `srcset` — это прекрасный инструмент. Но когда браузер читает HTML-код страницы, он не знает о том, используется ли, например, CSS-стиль, который устанавливает размер изображения в 50% от ширины экрана.  Именно тут в игру вступает атрибут `sizes`. С его помощью мы можем дать браузеру подсказку о том, в каком размере будет выводиться изображение после применения к нему CSS. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c7f/d25/56a/c7fd2556af1608fc3626a43cf067931c.png) *Атрибут sizes* * `100vw` — размер, используемый по умолчанию в том случае, когда ни одно из условий не выполняется. Он указывается последним в списке, который имеется в атрибуте `sizes`. * `1023px` — ширина окна. * `780px` — ширина изображения при выполнении указанного условия. Браузер остановится на первом выполненном условии. В атрибуте `sizes` содержится список медиа-условий, разделённых запятыми. Медиа-условия — это подмножество медиа-запросов. Тут нельзя указывать тип среды, к которой применимо условие (`print` или `screen`), но можно использовать медиа-запросы, относящиеся к ширине области просмотра. Каждая запись списка содержит ширину окна области просмотра и соответствующую ей ширину изображения. Элемент списка имеет вид `(min-width: 1023px) 780px`. Подобная запись сообщает браузеру о том, что если ширина области просмотра составляет 1023 пикселя (или больше), то нужно использовать изображение шириной 780 пикселей. Здесь, кроме того, можно использовать относительные единицы измерения ширины. Например — что-то вроде `50vw`. Это сообщает браузеру о том, что ширина изображения будет составлять 50% ширины области просмотра. Тут, в более сложных ситуациях, можно даже использовать функцию `calc`. Например, конструкция вида `calc(50vw — 2rem)` сообщает браузеру о том, что ширина изображения будет составлять 50% ширины области просмотра за вычетом `2rem`. Возможно, ширина задана именно так для учёта ширины какого-нибудь отступа или какой-нибудь границы. Последний элемент списка не снабжён медиа-условием. Если внести в список ширину и не указать медиа-условие, соответствующее значение будет рассматриваться как значение, используемое по умолчанию, то есть — в том случае, если ни одно из других условий не выполняется. Браузер будет просматривать этот список сверху вниз и остановится на первом подходящем элементе, соответствующем ширине области просмотра. Предположим, что в атрибуте `sizes` находится следующее: ``` (min-width: 1023px) 780px, (min-width: 675px) 620px, 100vw ``` Вот что будет происходить в разных ситуациях: * Если пользователь работает на большом настольном дисплее, то браузер сочтёт подходящим первый элемент списка и будет знать о том, что ширина изображения должна составлять 780 пикселей. * Стандартная ширина области просмотра вертикально расположенного экрана iPad составляет 768 пикселей. В такой ситуации браузер пропустит первую запись списка, но обнаружит совпадение текущих условий со второй записью. Она сообщает браузеру о том, что ширина изображения будет составлять 620 пикселей. * Если пользователь смотрит страницу на типичном мобильном устройстве, то браузер не сочтёт подходящими две первых записи в `sizes`. Поэтому он дойдёт до последней записи, которая скажет ему о том, что ширина изображения будет составлять 100% ширины области просмотра. Конечно, это — лишь примеры. В реальном мире всё куда сложнее. Например, пользователь с большим экраном, просматривающий страницу в узком окне браузера, получит изображение меньшего размера, чем получил бы, будь окно развёрнуто на весь экран. Пользователь с iPad Pro вполне может получить более крупное изображение в том случае, если расположил устройство в ландшафтном режиме. Если он пользуется планшетом в портретном режиме, ему может достаться изображение среднего размера. А если он пользуется браузером в режиме, когда экран делится между несколькими окнами, то ему может достаться маленькое изображение. Некоторые телефоны с большими экранами будут соответствовать второму правилу из нашего списка при работе с ними в ландшафтном режиме. В этом и состоит прелесть описываемой системы: разработчику не нужно заботиться обо всех этих особых случаях и о разных форм-факторах устройств. Ему достаточно сообщить браузеру о том, какой вариант изображения нужно выбрать для конкретной области просмотра. Как готовить список изображений, из которых браузер будет выбирать наиболее подходящее? Атрибут src ----------- Вы могли заметить, что во всех приведённых примерах всё ещё используется атрибут `src`. Возможно, вы размышляете о том, нужен ли этот атрибут, учитывая наличие атрибута `srcset`. Дело тут в том, что если мы даём браузеру атрибут `srcset`, то, если это браузер современный, он [заменит](https://cloudfour.com/examples/img-currentsrc/) значение `src` в DOM на значение, соответствующее изображению, выбранному из `srcset`. В результате оказывается, что современные браузеры игнорируют атрибут `src`, ориентируясь вместо него на атрибут `srcset`. Но атрибут `src`, сам по себе, всё ещё важен для браузеров, не поддерживающих работу с отзывчивыми изображениями. Такие браузеры, достаточно старые, игнорируют атрибуты `srcset` и `sizes`. Они просто не знают об их существовании. Но атрибут `src` они понимают, поэтому в него можно записать адрес изображения, которое будет служить резервным вариантом для таких браузеров. Я обычно записывают в этот атрибут адрес самого маленького изображения, которое хорошо смотрится на настольных мониторах, не отличающихся высокой плотностью пикселей. Вопросы и ответы ---------------- ### ▍Как генерировать наборы изображений? Изображения можно генерировать разными способами: вручную, с использованием инструмента для создания отзывчивых изображений, с применением соответствующих возможностей CDN. Для того чтобы создать изображения вручную, нужно открыть исходное изображение в Photoshop (или в другом редакторе, которым вы пользуетесь) и экспортировать его во всех необходимых размерах. Это может потребовать достаточно много времени, поэтому у вас может возникнуть желание автоматизировать эту работу, воспользовавшись соответствующим инструментом. Среди подобных инструментов мне больше всего нравится [Responsive Image Breakpoints Generator](https://www.responsivebreakpoints.com/) от Cloudinary. При работе с этим инструментом достаточно передать ему изображение, после чего он автоматически создаст его варианты разных размеров. Тут можно настроить количество генерируемых изображений. После того, как изображения готовы, их можно загрузить и использовать в проекте. Ещё один вариант поддержки отзывчивых изображений заключается в том, чтобы использовать для их хостинга соответствующую CDN. Например — [Cloudinary](https://cloudinary.com/) или [imgix](https://www.imgix.com/). Используя подобный сервис, на CDN загружают изображение в наивысшем имеющемся разрешении. Затем можно запрашивать версии изображения разных размеров, пользуясь URL-параметрами. При этом вам не придётся заботиться об изменении размеров изображения: достаточно сообщить CDN о том, в каком размере вы собираетесь выводить соответствующее изображение. [Вот](https://docs.google.com/spreadsheets/d/1e4qdGEoq7tqDCnY7iSSnl3OFoWkzhRfVAly-73A3uCc/edit#gid=0) список сервисов и проектов, которыми можно воспользоваться для создания вариантов изображений разных размеров. ### ▍Изображения каких размеров следует предоставлять браузеру? Хороший вопрос! Если вы дадите браузеру слишком много графических ресурсов, то вы попросту впустую потратите время и силы на их создание. Если же ресурсов будет слишком мало — это будет означать, что вы принуждаете пользователей вашего сайта к загрузке изображений, размеры которых больше, чем им нужно. Если вы работаете с единственным изображением и у вас есть возможность самостоятельно настроить разметку для вывода этого изображения, то можете воспользоваться инструментом [Responsive Image Breakpoints Generator](https://www.responsivebreakpoints.com/). Он автоматически исследует изображение и примет решение о том, каким является оптимальный набор ресурсов (в плане баланса между размерами файлов и их разрешением), сгенерированный на основе этого изображения. Затем этот инструмент не только сгенерирует файлы, но и автоматически подготовит атрибуты `srcset` и `sizes`. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ea3/caa/501/ea3caa5018c52c91f262bcc466c6e353.png) *Стандартный набор размеров изображений шириной от 320 до 2560 пикселей* Если вы работаете в некоей CMS, или если создаёте веб-приложение, и при этом не знаете о том, изображение какого размера будет выведено в том или ином месте, тогда я рекомендую воспользоваться стандартным набором размеров изображений. Раньше я использовал следующие размеры: `320w`, `640w`, `960w`, `1280w`, `1920w` и `2560w`. Это — круглые цифры, получаемые путём умножения 320 на разные коэффициенты. Этот набор ресурсов покрывает нужды самых разных экранов — от маленьких мобильных дисплеев, до огромных настольных мониторов. Однако использование стандартного набора ресурсов — это всегда менее эффективно, чем применение собственного набора, учитывающего особенности проекта. В данном случае, хотя перед нами — вполне логичная последовательность, в ней наблюдается прогрессивное увеличение размеров файлов, так как, если ширина (и, соответственно, высота) изображения увеличивается вдвое, то количество пикселей этого изображения увеличивается [в четыре раза](https://cloudfour.com/thinks/responsive-images-101-part-9-image-breakpoints/#memory-usage-influencing-the-distribution-of-image-breakpoints). В результате, если вам приходится использовать стандартный набор размеров изображений, то вам, возможно, следует выбрать такой набор, в котором будет меньше вариантов изображений маленьких размеров и больше вариантов больших размеров. Если вы хостите изображения на Cloudinary, то вам будет доступен ещё один подход. Он заключается в использовании [API Cloudinary](https://cloudinary.com/documentation/responsive_images?query=responsive&c_query=Responsive%20images#responsive_breakpoint_generator), который позволяет обрабатывать изображения с помощью Responsive Image Breakpoints Generator при их загрузке. После того, как изображения автоматически обработаны, можно, воспользовавшись ответом API, динамически заполнить атрибуты `srcset` и `sizes`. ### ▍Какие значения следует вносить в атрибут sizes? Для того чтобы выяснить то, какие значения следует вносить в атрибут `sizes`, нужно проанализировать CSS и понять, изображения какой ширины выводятся в различных условиях. Иногда это определяется шириной самого изображения: ``` img {   width 320px; } @media screen and (min-width: 37.5em) {   width: 640px; } ``` В данном случае имеются два фиксированных варианта размера изображения. Этот факт может найти прямое отражение в атрибуте `sizes`: ``` ![Ferrari](ferrari.jpg) ``` Однако часто оказывается так, что размеры изображений настраиваются гибко. Нередко изображения наследуют размеры от своих контейнеров: ``` img {   height: auto;   width: 100%; } .container {   padding: 1rem;   width: 100%; } @media screen and (min-width: 37.5em) {   .container {     width: 50%;   } } ``` В этом примере (если исходить из предположения о том, что единственный элемент, воздействующий на ширину изображения, это `.container`) ширину контейнера можно счесть шириной изображения. Тут стоит обратить внимание на то, что из ширины контейнера вычитается ширина внутреннего отступа. Возможно, вам понадобится это учитывать, возможно — нет. Всё зависит от того, насколько сильно внутренний отступ влияет на итоговую ширину изображения. ``` ![Ferrari](ferrari.jpg) ``` Как видите, настройка атрибута `sizes` сильно зависит от особенностей конкретного макета. Обычно я строю работу, начиная с исследования изображений в инструментах разработчика браузера и выясняя то, какие параметры влияют на размер изображений. ### ▍Как проверить правильность настройки отзывчивых изображений? Легко представить себе то, что тестирование правильности настройки отзывчивых изображений может быть сложным и длительным делом. Но, к нашему счастью, существует инструмент, упрощающий решение подобных задач. Это — [Responsive Image Linter](https://ausi.github.io/respimagelint/). Это — букмарклет, который можно добавить в браузер и использовать на собственном сайте. Когда его вызывают, он автоматически сканирует страницу, используя для тестирования изображений различные размеры области просмотра и плотность пикселей экрана. Затем он выводит отчёт, содержащий сведения обо всех изображениях страницы, и о том, правильно ли организовано управление их размерами. Если при испытании страницы что-то пойдёт не так — вам об этом сообщат и даже дадут совет по устранению проблемы. Итоги ----- Как видите, комбинация атрибутов `srcset` и `sizes` даёт огромные возможности. Настраивая эти два атрибута, вы сообщаете браузеру о ширине изображений, которые нужно использовать при определённой ширине области просмотра, и даёте список графических ресурсов, из которых браузер выбирает тот, который считает наиболее подходящим. Если при работе с изображениями вам нужно решать более сложные задачи — знайте, что существуют средства и для решения таких задач. Скажем, это нечто вроде использования современных графических форматов наподобие [WebP](https://cloudfour.com/thinks/responsive-images-101-part-7-type/), или [отправка](https://cloudfour.com/thinks/responsive-images-101-part-6-picture-element/) клиенту разных изображений, зависящих от размеров экрана. Если вы хотите углубиться в работу с отзывчивыми изображениями — взгляните на [этот](https://cloudfour.com/thinks/responsive-images-101-definitions/) материал. **Уважаемые читатели!** Пользуетесь ли вы отзывчивыми изображениями в своих проектах? [![](https://habrastorage.org/r/w1560/webt/a_/bs/aa/a_bsaactpbr8fltzymtkhqbw1d4.png)](https://ruvds.com/ru-rub/?utm_source=habr&utm_medium=perevod&utm_campaign=scottvandehey_rabotasizobrazhenijami#order)
https://habr.com/ru/post/500292/
null
ru
null
# VPN без VPN или рассказ об нетрадиционном использовании SSH По данным ssh.com и Wikipedia, первая версия и реализация протокола SSH увидела свет в 1995 году. Задачей автора было разработать безопасную альтернативу использовавшимся тогда для удалённого администрирования rlogin, telnet и rsh. Любопытно, что появлению протокола SSH поспособствовал инцидент информационной безопасности, в результате которого злоумышленник собрал внушительную базу логинов/паролей от серверов, просто прослушивая университетскую сеть и выделяя пакеты аутентификации (пары логин/пароль в них передавались в незашифрованном виде). Протокол быстро завоевал популярность и после длительного периода доработок и улучшений был стандартизован IETF в 2006 году. С тех пор он успел стать де-факто стандартом для удалённого управления системами с текстовой консолью. Помимо собственно текстовой консоли в протоколе предусмотрена масса других полезных функций, таких как передача файлов и переадресация портов. Именно о переадресации портов (port forwarding) и её не слишком очевидном применении пойдёт речь в этой статье. В протоколе SSH предусмотрено два режима переадресации портов — прямой и обратный. Прямой режим позволяет открыть слушающий TCP-порт на стороне SSH-клиента и переадресовать все подключения к этому порту на сторону сервера. ![image](https://habrastorage.org/r/w1560/webt/un/t4/wn/unt4wna5oknllsv36lumyp3ys3u.png) К примеру, если на нашем SSH-сервере выполняется сервер удалённого рабочего стола (Remote Desktop, RDS), мы можем использовать протокол SSH, чтобы подключиться к этому серверу, даже если прямое сетевое подключение невозможно (к примеру, заблокировано межсетевым экраном). Вот так: ![image](https://habrastorage.org/r/w1560/webt/gf/fp/w9/gffpw9h9pe8dqs1rnd8jvefwqtc.png) Второй режим переадресации портов — обратный — позволяет поменять местами роли SSH-сервера и клиента (применительно к переадресуемому порту). В обратном режиме слушающий TCP-порт открывается на стороне SSH-сервера, а приложение, обслуживающее этот порт, находится на стороне SSH-клиента. Пригождается такое редко, но, как правило, очень метко. ![image](https://habrastorage.org/r/w1560/webt/xr/nv/pm/xrnvpmg6sxcy2wtpfxtvhxuiku0.png) Комбинируя эти два режима и наш пример с сервером удалённого рабочего стола можно получить вот такую конфигурацию: ![image](https://habrastorage.org/r/w1560/webt/5x/_a/dn/5x_adnddhnchsgzo1spvdazi3cy.png) На первый взгляд, выглядит избыточно. Но вместе с кажущейся избыточностью мы получили два важных свойства: 1. Единственное, что требуется от сети, чтобы такая схема работала корректно, — обеспечить постоянство сетевого адреса узла, где размещён SSH-сервер. Узлы, на которых выполняются сервер и клиент RDS, могут менять свои сетевые адреса хоть каждую минуту (либо вообще могут иметь адреса в частной сети, нам требуется лишь исходящий NAT, что часто и подразумевается под формулировкой «подключение к интернету»). 2. Несмотря на то, что для нас самих RDS-сервер доступен из любой точки интернета, другие пользователи не могут установить к нему подключение (при условии отсутствия уязвимостей в SSH-сервере). А поскольку в протоколе RDS имеется собственный контроль доступа, даже в случае успешной атаки на SSH-сервер, злоумышленнику нужно будет провести еще и атаку на RDS. Вероятность наличия одновременно уязвимости SSH-сервере и уязвимости RDS-сервера, много меньше такой вероятности для каждого компонента в отдельности. Если приглядеться внимательнее, то на этой схеме можно разглядеть две независимые компьютерные сети. Одна — транспортная — позволяет установить SSH-подключения. Другая — внутренняя — используется для прикладных целей. Из этого наблюдения в последующих статьях мы попробуем сделать несколько интересных выводов, ну а пока вернёмся к нашим экспериментам. Подключись к домашнему компьютеру --------------------------------- На дворе XXI век, доставка сетевого пакета из Сибири в Калифорнию занимает 0.1 секунды, весь мир опутан компьютерными сетями, а TCP/IP есть даже в зубных щетках. Казалось бы, при такой-то связности всего со всем, мы должны давным давно иметь возможность управлять компьютером не только посредством физического присутствия возле устройств ввода, но и удалённо, по сети. Тем более что технологий и протоколов для этого — предостаточно. Remote Desktop от Microsoft, вариации на тему VNC в \*nix системах, решения от Citrix, тысячи их… Тем не менее мало кто из нас может похвастаться возможностью подключиться к своему домашнему компьютеру из любой точки мира при помощи какой-нибудь из этих технологий. Причин, по которым мало кто может похвастаться связью со своим собственным домашним компьютером, две, и они связаны друг с другом. Первая из них — отсутствие у типичного домашнего компьютера адреса в глобальной сети. Корни такого положения дел уходят в далёкий 1981 год, в котором был впервые описан стандарт IPv4, который и по сей день используется (само собой, с изменениями и дополнениями) для адресации большинства узлов в сети Интернет. Авторы стандарта решили, что адресного пространства мощностью в 3.7 миллиарда адресов хватит всем устройствам мира, но реальность оказалась сурова. Ожидается, что в IPv4-интернете не останется свободных адресов к сентябрю 2019 года. Кроме того, типичный пользователь интернета, который не хостит у себя веб-сайты, вполне может пользоваться всеми благами цивилизации не имея адреса в глобальной сети, вместо этого ограничиваясь лишь адресом в частной сети и провайдерским NAT'ом. Иными словами, для большинства пользователей интернета нет разницы между наличием и отсутствием глобального IP-адреса у их оборудования. В таких условиях число тех, кому провайдер выдаёт глобальный IP-адрес в глобальной сети, стремительно сокращается. В итоге типичный домашний компьютер располагается в частной сети, и глобального адреса не имеет. Даже в случае, когда провайдер всё же назначает оборудованию пользователя адрес в глобальной сети, этим оборудованием является домашний роутер, выполняющий NAT из домашней частной сети. Пользователь при этом, конечно, может «пробросить порт» на роутере, но даже в этом лучшем случае глобальный адрес роутера может меняться изо дня в день. Да, существуют провайдеры, которые за скромную плату предоставляют услугу «Статический IP», но на практике где-то к этому моменту пользователь осознаёт, что игра не стоит свеч, и если нужно что-то сделать с домашним компьютером, то можно и по телефону позвонить. Самые же настырные могут пройти этот квест до конца и столкнуться со второй причиной, по которой открывать доступ к своему компьютеру через интернет — развлечение лишь для крепких духом. Эта причина банальна — информационная безопасность. Глобальная сеть на то и глобальная, что рано или поздно в ваши ворота постучится кто-нибудь с другого конца света и с недобрыми намерениями. Насканить открытый порт, на котором отвечает сервер удалённого рабочего стола, — не слишком сложная задача, и, будьте уверены, рано или поздно к вам на супер-секретный порт 32167 прилетит TCP SYN родом из китайской деревушки. Возвращаясь назад к нашей экзотической переадресации портов при помощи SSH, можно заметить, что её особенности устраняют обе перечисленные причины. Собери себе TeamViewer ---------------------- Сразу нужно оговориться, что TeamViewer — это большой продукт с огромным количеством очень разных возможностей. Мы же в рамках этой статьи соберём себе лишь способ безопасно подключаться через сеть Интернет по протоколу Remote Desktop к компьютеру, который находится за NAT. Тем не менее, рискну предположить, что именно подключение к любому компьютеру, имеющему доступ в интернет, — главная отличительная черта TeamViewer, благодаря которой этот продукт так популярен. И именно такое подключение мы можем реализовать собственными руками, используя нашу конфигурацию SSH из первой части статьи. Итак, условия задачи: есть домашний компьютер и ноутубк, оба под управлением Windows 10. Нужно сделать так, чтобы с ноутбука иметь возможность зайти на домашний компьютер по протоколу Remote Desktop из любой точки мира. В состав нашей системы будут входить наш домашний компьютер-сервер Remote Desktop, ноутбук с клиентом Remote Desktop, и сервер SSH. Сервер SSH — единственный компонент, которому требуется глобальный IP-адрес и постоянная доступность. Самый простой вариант, удовлетворяющий этим требованиям, — разместить SSH-сервер в облаке. Яндекс.Облако отлично подходит (в первую очередь за счёт своей ценовой политики), так что будем использовать его. В итоге получается вот так: ![image](https://habrastorage.org/r/w1560/webt/-f/eq/zq/-feqzq0y2eozonsoyhy5801zkfc.png) Начнём с подготовки нашего домашнего компьютера. Сперва убедимся, что удалённый доступ к нему вообще разрешён. Это можно сделать через вкладку «Удаленный доступ» в дополнительных параметрах системы: ![image](https://habrastorage.org/r/w1560/webt/f3/qh/vp/f3qhvppwrae551jkj0spcblxiaa.png) Начиная с апреля 2018 года в Windows 10 среди утилит командной строки уже присутствует ssh-клиент. Это поможет нам меньше отвлекаться на установку разного софта и сразу приступить к делу. Для начала сгенерируем себе ключ для SSH. Откроем командный интерпретатор PowerShell и выполним 'ssh-keygen'. Когда нас спросят о пароле для ключа, оставим его пустым. После генерации ключа выведем его открытую часть на консоль командой 'cat $HOME/.ssh/id\_rsa.pub'. Результат выполнения команды пригодится нам для запуска SSH-сервера в облаке. Должно получиться что-то вроде этого: ![image](https://habrastorage.org/r/w1560/webt/w6/bt/pp/w6btppw5bsqttmbql-v6leglely.png) Нам нужно скопировать закрытую часть ключа SSH на ноутбук. Эта часть ключа лежит в файле '$HOME/.ssh/id\_rsa' (без суффикса ".pub"), и мы можем скопировать его как обычный файл. К примеру, используя флешку (предполагаем, что она смонтирована как диск F:) ``` copy $HOME/.ssh/id_rsa f:\ ``` Теперь запустим наш SSH-сервер. Создадим виртуальную машину (ВМ) в Яндекс.Облаке. Для наших целей можно выбрать «лёгкую» ВМ с 1 vCPU и 0.5 гигабайта RAM. В разделе сетевых настроек выберем сеть по умолчанию с автоматическим IP-адресом. В раздел «доступ» в качестве логина введём «home», в поле ввода SSH-ключа скопируем то, что вывелось у нас в консоль на предыдущем шаге: ![image](https://habrastorage.org/r/w1560/webt/yi/-f/zt/yi-fztogippk8n34u2dnuuhemyu.png) Нажмём «Создать ВМ» и дождёмся завершения. После того, как создание виртуальной машины завершится, нам потребуется узнать её IP-адрес: ![image](https://habrastorage.org/r/w1560/webt/n4/co/sk/n4cosk5u1wubt1shdjgwq0vfnlu.png) IP-адрес нашей виртуальной машины нам понадобится, чтобы запускать SSH-клиент на домашнем компьютере и ноутбуке. Запустим его на компьютере вот таким образом (в этой и следующих командах необходимо заменить 84.201.141.36 на IP-адрес вашей ВМ): ``` ssh -NR 3389:localhost:3389 home@84.201.141.36 ``` На вопрос о подключении к неизвестному серверу отвечаем «yes». Если затем мы не видим никакого текста на консоли, значит всё прошло отлично. Теперь настроим ноутбук. Скопируем закрытый ключ с нашей флешки: ``` mkdir -Force $HOME/.ssh copy f:\id_rsa $HOME/.ssh/id_rsa ``` И запустим SSH-клиент: ``` ssh -NL 1025:localhost:3389 home@84.201.141.36 ``` Теперь можно запускать на ноутбуке клиент удалённого доступа к рабочему столу (mstsc.exe), указав в качестве адреса подключения localhost:1025. Ура, работает! Или почти работает. Если остановить процесс SSH на домашнем компьютере, подключиться станет невозможно. Нам нужно сделать так, чтобы этот процесс автоматически запускался при старте системы, а также перезапускался при разрывах подключения. Этого можно достичь, например, создав PowerShell-скрипт и зарегистрировав его как обязательный для запуска в групповой политике при старте компьютера. Только нужно учесть, что запускаться он будет от имени системного аккаунта, а значит нужно убедиться что системному аккаунту доступен наш SSH-ключ. Сперва займёмся ключом. Запустим PowerShell от имени администратора и выполним вот такие команды: ``` copy $HOME/.ssh/id_rsa "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" icacls "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" /reset ``` Заодно в этом же окне PowerShell разрешим выполнение скриптов: ``` Set-ExecutionPolicy RemoteSigned ``` Теперь создадим собственно скрипт. Откроем наш любимый текстовый редактор (Notepad тоже подойдёт), и напишем вот такой скрипт (не забыв заменить IP-адрес SSH-сервера на тот, что выдан вам Яндексом): ``` while (1) { & $(get-command ssh |select -expandproperty Path) ` -i "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" ` -o StrictHostKeyChecking=accept-new -o ExitOnForwardFailure=yes ` -NR 3389:localhost:3389 home@84.201.141.36 Start-Sleep -Seconds 15 } ``` Сохраним скрипт в понравившуюся директорию. Наконец зарегистрируем его для автозапуска. Для этого запустим редактор групповых политик (Win+R → gpedit.msc), и откроем пункты «Конфигурация компьютера» → «Конфигурация Windows» → «Сценарии (запуск/завершение)» → «Автозагрузка». На вкладке «Сценарии PowerShell» воспользуемся кнопкой «Добавить», и укажем путь к нашему сохранённому скрипту. ![image](https://habrastorage.org/r/w1560/webt/yd/zn/xx/ydznxxa2ukanyddsliq9irnznuc.png) Аналогичные действия проделаем на ноутбуке. Сперва PowerShell от имени администратора: ``` copy $HOME/.ssh/id_rsa "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" icacls "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" /reset Set-ExecutionPolicy RemoteSigned ``` Затем в текстовом редакторе подготовим скрипт (он немного отличается от предыдущего, но как и прежде, заменяем IP-адрес на тот, что был выдан вам Яндексом): ``` while (1) { & $(get-command ssh |select -expandproperty Path) ` -i "$(gwmi win32_userprofile | where {$_.SID -eq "S-1-5-18"} | select -ExpandProperty LocalPath)/rds_id_rsa" ` -o StrictHostKeyChecking=accept-new -o ExitOnForwardFailure=yes ` -NL 1025:localhost:3389 home@84.201.141.36 Start-Sleep -Seconds 15 } ``` Неконец зарегистрируем его для запуска при старте при помощи «gpedit.msc». Перезагрузим компьютер и ноутбук (чтобы убедиться что всё корректно запускается) и вуаля! Теперь наш домашний компьютер и наш ноутбук навеки связаны друг с другом (до тех пор, пока наша виртуальная машина в Яндекс.Облаке включена и доступна). Ну и? ----- Ну разве не здорово? В любом кафе, в любом аэропорту можно подключиться к себе домой и посмотреть любимые картинки с котиками. Или порадовать домашних включением 5-й симфонии Бетховена на полную громкость. Или поинтересоваться успехами своей майнинг-фермы. Или посмотреть, что творится дома при помощи веб-камеры. Да мало ли вообще применений у такой возможности «телепортироваться»? Но есть у нашего решения и недостатки. Во-первых, настройка подключения — не самый простой и приятный процесс. А в случае, если что-то пойдёт не так, отладка еще немного сложнее, чем первоначальная настройка. Само собой, эта проблема решается усидчивостью и терпением, но даже то небольшое количество труда, которое требуется затратить, может вызвать сомнения в целесообразности усилий. Во-вторых, виртуальная машина в облаке стоит денег. В случае Яндекса тот минимум, на который можно рассчитывать, это 480 рублей в месяц. Это, конечно, не запредельные деньги, но всё-таки свои, заработанные в поте лица. Стоит ли просмотр картинок с котиками этих денег — решать каждому для себя, но очень может быть, что все преимущества нашего решения будут перечёркнуты его ценой. Ценовой вопрос можно существенно сгладить, разделив расходы с друзьями и единомышленниками. Поскольку виртуальная машина используется для задач, не требующих сколь-либо заметных вычислительных мощностей, падение производительности крайне маловероятно. А экономический эффект — заметен: если арендовать виртуальную машину вдесятером, то каждому придётся заплатить лишь 48 рублей в месяц. Правда, в этом случае гармонию может нарушить вопрос доверия: любой из единомышленников имеет возможность подключиться к компьютеру собрата по SSH-серверу. В случае, когда у всех на аккаунтах установлены надёжные пароли, это не проблема. Но, скажем прямо, надёжный пароль для входа на домашний компьютер — скорее исключение, чем правило. Продолжение следует ------------------- Итак, предположим, что мы собрали 10 единомышленников, настроили всё, как написано выше, и у всех всё работает. Наш клуб любителей картинок с котиками благополучно пользуется возможностью ходить к себе домой через интернет всего за 48 рублей в месяц без регистрации и смс, все довольны и счастливы. Вопрос в том — ограничиваются ли возможности нашей «технологии» лишь котиками и нельзя ли её использовать для чего-то более серьёзного? Само собой можно. Если заменить в наших рассуждениях «домашний компьютер» на «билд-сервер в облаке», а «ноутбук» на «рабочий компьютер в офисе», мы получаем нечто достойное звания «система доступа к инфраструктуре разработки». А если вместо билд-сервера у нас будет IP-камера, а вместо рабочего компьютера — пост охраны, получаем «систему видеонаблюдения». В обоих случаях, правда, придётся уделять больше внимания вопросам контроля доступа. В частности, при совместном использовании SSH-сервера несколькими пользователями хотелось бы изолировать этих пользователей друг от друга. А ещё при таком совместном использовании мы вынуждены назначать каждому ресурсу каждого пользователя свой отдельный TCP-порт и запоминать его номер. Адресация по номерам может вскоре стать довольно утомительной, поэтому хотелось бы иметь возможность назначать ресурсам осмысленные названия. Но о том, как улучшить ситуацию, мы поговорим уже в следующей статье. А пока спасибо за внимание и, пожалуйста, поделитесь своими мыслями в комментариях.
https://habr.com/ru/post/441806/
null
ru
null