2017-10-15

Об играх

В игры я почти не играю. Раньше играл. А сейчас почти не играю.
Нет, я, конечно, снова прошёл весь Carmageddon, когда он вышел под Android. И с удовольствием резался в Plague Inc.. И даже где-то у меня есть аккаунт в Steam, где пылится честно купленная на распродаже за нуль рублей Portal.
Carmageddon
Но я сейчас о другом. Я, оказывается, ни разу не задумывался, как делаются современные игры. А это прям отдельная Вселенная.
В студенческие годы, я, конечно, писал игрушки. Под DOS, на C и C++. Развлекался с трёхмерной графикой, освещением и текстурами в режиме 320х200 c 256 цветами. Трёхмерные крестики-нолики делал. А ещё в текстовом режиме были «Быки и коровы» и «Жизнь».
Чуть позже я немного развлекался с Borland C++ Builder (именно ещё от Borland). И наклепал для Windows тетрис (любой уважающий себя программист должен написать тетрис), решалку японских кроссвордов и даже симулятор MK-61 (ну как бы уже не совсем игра).
С тех пор игр не писал. А зачем? Какой от них толк? Интереснее сделать что-нибудь полезное. Для себя.
Ludum Dare
Но случайно таки оказался недавно на омском Ludum Dare. И там я узнал, что игры пишутся совсем не так, как пишутся обычные сетевые приложения, или как обычные гуёвые приложения.
Как работает обычный сервер? Он ждёт запросов. Пока запросов нет, он ничего не делает. Когда приходит запрос, он его обрабатывает. Запускает ли он для этого другой процесс, или другой поток, или всё делает в общем (для кучи соединений) потоке-воркере (то, что называется асинхронным) — не важно. Важно, что всегда есть запрос-ответ. Нет запроса — ничего не происходит (как правило).
Запросы создаёт клиент. Именно он является инициатором всего этого безобразия. Нет клиентов — нет запросов — ничего не происходит.
Аналогично в GUI. У нас есть события: движения мышки, нажатия кнопок и клавиш. Когда событие происходит, оно должно быть обработано. Графическим элементом, над которым оно произошло, окном и т.д. И тут, кстати, не придумали особо изящного способа обработки всех этих событий, кроме как одного, в одном потоке, бесконечного (но блокирующегося) цикла. Да, это тоже асинхронщина.
Пока вы двигаете мышкой из одного угла экрана в другой, происходят тысячи событий, в десятках разных приложений. Но если вы взялись ковырять в носу, и убрали руки с мыши и клавиатуры, то событий не будет. И снова ничего не будет происходить. Ну разве что курсор будет мигать. На старых терминалах мигание вообще делалось аппаратно.
Общее тут то, что пока нет события или запроса, ничего не делается. А когда события и запросы пошли, их все нужно успеть обработать. В современных GUI это не всегда тривиально. Но оно так и работает.
Java GUI Event Loop
В играх всё по-другому.
Даже роли клиента и сервера отличаются. Да, клиент по-прежнему подключается к серверу. Но дальше идут не запрос-ответ, а отправка сообщений. В обе стороны. Клиент сообщает о действиях игрока. Сервер сообщает о состоянии игры (изменённое действиями и этого, и других игроков). Существенное правило безопасности: сервер знает всё, а вот клиент должен знать только то, что ему положено знать. Нарушение этого правила порождает интересные возможности для тех, кого называют читерами (к примеру, в World of Tanks это вообще весело).
В играх игрок тоже жмёт кнопки и елозит мышкой. И это тоже может порождать события. Но эти события никого особо не интересуют. События не порождают немедленных действий по их обработке. Да, координата мышки, или номер нажатой кнопки могут быть где-то запомнены, чтобы знать, что кнопка нажималась. Но и всё.
Потому что в играх — постоянный polling. В бесконечных циклах. С задежкой. Это, конечно, не обязательно должны быть while (true) в отдельных потоках со sleep() внутри. Можно всё сделать хитрее, на таймерах и всё такое. Но сути дела это не меняет.
Есть цикл для отрисовки. Который даёт те самые fps. Тут всё просто. Берётся состояние игры, с точки зрения игрока. И отрисовывается. Столько раз в секунду, сколько надо. Само состояние может меняться реже или чаще.
Есть цикл опроса действий игрока. Тут как раз мы выясняем, какие кнопочки нажаты, где находится мышка. И, либо прямо модифицируем состояние игры, в случае сингл плеера. Либо передаём намерения игрока на сервер, в случае сетевого мультиплеера.
На сервере намерения игроков накапливаются. А потом происходит тик игры. Это самый главный цикл, где изменяется глобальное состояние игры. Раз и навсегда. Тут просчитываются всякие перемещения, уроны, жизни и т.п. И тут очень важным параметром является время, прошедшее с предыдущего тика. Как правило это время не может быть в точности постоянным. И это надо учитывать, дабы персонажи, как минимум, перемещались равномерно. И изменённое состояние игры рассылается всем игрокам.
Из-за ограничений в скорости сети, эти рассылки идут значительно реже, чем fps. Что порождает некоторые особенности. Все эти опросы, просчёты, отрисовки происходят каждый в своём цикле. И они в общем случае не синхронизированы. Нужны какие-то правила синхронизации.
Например, что делать, если игрок упорно движется в определённом направлении, а с сервера обновлённого состояния, где произошло перемещение в данном направлении, ещё не пришло? Клиент может взять на себя смелость и изменить местоположение игрока, чтобы при прорисовке перемещение происходило плавно. Это называется интерполяцией. Если прогнозы клиента, и обновлённое состояние с сервера совпали — всё хорошо. А вот если выяснится, что игрока по пути кто-то убил, придётся как-то выкручиваться и дорисовывать, что сначала мы дошли туда, а потом, метром ранее, умерли.
Пересылка сообщений. Циклы опроса. Асинхронная пересылка сообщений. Синхронизация состояний. Безопасность и доверие. Вот это вот всё — игры.
Может, я рассматриваю лишь частный случай игродельной индустрии. Но мы на Людуме клепали так.
Game Loop
Почему же классические клиент-серверные архитектуры, а так же GUI, построены по-другому? Дело в экономии ресурсов? Выгодно ничего не делать, пока нет событий? В играх ведь все циклы: отрисовки, опроса, просчёта следующего состояния игры — колбасят всегда, независимо от действия или бездействия игрока. CPU и сеть никто особо не жалеет.
С другой стороны, где-то циклы с постоянными опросами всё же встречаются? Уж не в ядрах ли ОС? Тот самый поллинг сетевой карты вместо прерываний. Нет? А в RTOS, случайно, не осуществляется такой же тотальный контроль над временем выполнения задач? Ну не успел выстрел игрока попасть в вычисления данного состояния игры, значит выстрела на данном шаге не будет.
Какая-то другая Вселенная — эти игры. Где бы это применить, не начиная писать игры? :)

2017-10-01

О сэре Максе из Ехо

Наконец-то дочитал «Лабиринты Ехо» и «Хроники Ехо». Думаю, теперь можно написать про Макса Фрая. Точнее про сэра Макса из Ехо. В надежде, что кто-нибудь тоже захочет прочитать эти прекрасные книги.
Ехо
Рукописи в издательство носили, конечно же, обычные люди: Светлана Мартынчик (ага, женщина) и Игорь Стёпин. Но автором значится некто Макс Фрай. Или Max Frei, если латиницей. Максимально свободный. Или без Макса. И вовсе никогда не Максим.
Вот Макс Фрай и пишет автобиографические очерки. О том, как он был сэром Максом в Ехо. И как туда попал. И как туда вернулся. Где его всегда называли только по имени. Что там ещё было с Максом Фраем кроме Ехо, этого я ещё не читал.
Порядок чтения очень важен. Это же Кастанеда для маленьких. Не прочтёте предыдущие книжки, не поймёте, на что ссылаются и объявляют ложным последующие книжки. Ну ладно, Макс Фрай ничто не объявляет ложным, чем запутывает и себя, и читателя ещё больше.
Сначала «Лабиринты Ехо», потом «Хроники Ехо», потом, видимо, «Сновидения Ехо». За точным порядком можете консультироваться у Википедии. Кстати, последние книжки «Сновидений Ехо» вышли в этом (2017) году, так что история продолжается.
Жанр? Определённо фэнтэзи. Или как там называется это всё, с волшебством, эльфами (хотя тут эльфы весьма странные) и всем прочим? Определённо детектив. Потому что почти всегда имеется преступление и расследование. А ещё мистика, ужасы, комедия, мелодрама. Да всё, что угодно. Поэтому я нарекаю жанр историй сэра Макса из Ехо «сериалом».
Это действительно сериал. Длинный и увлекательный. С громадным количеством длинных нескучных диалогов. С несильно большим количеством действия. Впрочем, после каждого действия офигевать приходится и читателям, и сэру Максу. Сэра Макса мог бы сыграть, к примеру, Егор Бероев. А вот сэра Джуффина Халли конечно же должен бы играть Рутгер Хауэр, как он выглядел, к примеру, в «Десятом королевстве».
Карта Мира
Слово «Ехо» надо читать именно как «Е́хо», а не «Ёхо» или «Эхо». Ехо — это столица Соединённого Королевства, крупнейшего государства, расположенного на материке Хонхона в Мире Стержня. Ехо построен вокруг Сердца Мира. Сердце Мира — это то место, где выходит один из концов Стержня, на котором и держится этот Мир.
У Сердца Мира отлично работает Очевидная (или бытовая) магия, и чёрная, и белая. Именно потому Ехо построили здесь. Чтобы магистрам многочисленных магических орденов было веселее сражаться друг с другом. Впрочем, оказалось, что злоупотребления Очевидной магией разрушают основу Мира. В результате, ради спасения Мира, все магические ордены были упразднены или побеждены, а у власти Соединённого Королевства остались, собственно, король, Гури́г VII, а также Орден Семилистника, Благостный и Единственный. Впрочем, это всё произошло более чем за сто лет до описываемых событий.
Зато, помимо Очевидной есть ещё и Истинная магия. В которой большинство героев вполне сведущи и более уважают. А ещё есть... А фиг его знает, что там ещё есть.
Макс попал в Ехо, то есть в Мир Стержня, из Мира Паука. По указанию Джу́ффина Ха́лли он сел на трамвай на улице, где трамваи отродясь не ходили. Это самая первая версия появления сэра Макса в Ехо. Есть ещё и другие. Более мистичные, прагматичные и циничные. Но все они вполне истинны. Ибо иначе и быть не может.
Трамвай между мирами
Мир Паука — это наш с вами мир, дорогие читатели. Паука, потому что мы, как пауки, любим оплетать окружающую действительность «паутиной», привязывая к себе вещи и людей. И привязываясь к ним сами.
А ещё в нашем мире дофига Вершителей. Вершитель — это существо, чьи желания исполняются всегда, рано или поздно, так или иначе.
Вы никогда за собой не ощущали, что вы — Вершитель? А не замечали Вершителей вокруг? Не забывайте про «рано или поздно, так или иначе», что повышает пикантность ситуации. Так что Вершители — вовсе не счастливые или удачливые люди. А теперь представьте, что Вершителей набралось миллиарды. Как в нашем мире. Бардак вполне ожидаем, не так ли?
А вот в Мире Стержня последним Вершителем был легендарный король Мёнин. И очень понадобился ещё один. И им стал сэр Макс. От короля Мёнина сэр Макс натерпелся немало шуточек (или серьёзностей) сомнительной доброты. Даже как-то таскал в собственной груди его меч, дада, воткнутый насквозь.
Кроме Мира Стержня и Мира Паука существует бесчисленное множество других миров. И одно из призваний практикующего Истинную магию (а также почти всех призраков) — путешествовать между мирами. Или по Тёмной стороне Мира. Или по Изнанке Тёмной стороны. Или по Сновидениям. Настоящий колдун всегда найдёт, где поразвлечься.
А некоторые, особо сильные колдуны, вполне могут создавать новые миры, или разрушать целые миры. Сэр Макс, кстати, между делом создал несколько миров в самом начале своих приключений. За что потом понадобилось нести ответственность.
Итак.
Игрушечный Макс
Сэр Макс. Ночное Лицо Почтеннейшего Начальника Малого Тайного Сыскного Войска города Ехо. Сидит по ночам в кабинете сэра Джуффина, на всякий случай, замещает. Смерть на королевской службе, носит Мантию Смерти. Ибо может плеваться ядом. Владыка Фангахра, властитель народа Хенха из Пустых Земель. Оказался в центре политических игр, в результате которых Пустые Земли присоединились к Соединённому Королевству. Вершитель. Его Смертный Шар не убивает, а подчиняет. Человек Тёмной Стороны. Сновидец. Может творить множество самых удивительных чудес, но сам не понимает, как это у него получается. Балагур, душа компании.
Джуффин
Сэр Джу́ффин Ха́лли. Почтеннейший Начальник Малого Тайного Сыскного Войска города Ехо. В прошлом Кеттари́йский Охотник, Кеттари́ец, Чи́ффа, известный и опытный наёмный убийца. Старый опытный колдун, специализирующийся на Истинной магии, и радеющий о судьбе Мира. Человек Тёмной Стороны. Сновидец. Основал Тайный Сыск, дабы творить всякие магические непотребства, когда всем остальным это запрещено Кодексом Хре́мбера. Начальник и учитель сэра Макса.
Мелифаро
Сэр Мелифа́ро. Дневное Лицо Почтеннейшего Начальника Малого Тайного Сыскного Войска города Ехо, то есть заместитель сэра Джуффина в дневное время. Страж (границы Тёмной стороны). Лучший сыщик, применяет дедуктивные и прочие методы, как и положено детективу. Сын автора «Энциклопедии Мира» сэра Ма́нги Мелифа́ро. Не имеет имени, ибо, когда он родился, отец как раз путешествовал, собирал материал для экциклопедии, и не нашёл времени выбрать сыну хоть какое-нибудь имя. Модник. Балагур. Постоянный оппонент сэра Макса в колкостях и остротах.
Шурф Лонли-Локли
Сэр Шу́рф Ло́нли-Ло́кли. Мастер Пресекающий Ненужные Жизни, штатный убийца Тайного Сыска. Владеет Перчатками Смерти, ими, собственно, и убивает, когда нужно. Человек Тёмной Стороны. В прошлом Безумный Рыбник, известный исторический персонаж конца Эпохи Орденов. Состоял в Ордене Дырявой Чаши, в результате имеет привилегию пить из дырявой посуды, и это у него прекрасно получается. В силу необходимости вынужден быть Истиной, точно соблюдать правила и предписания и требовать подобное от других. Невозмутимый педант. Любитель и знаток поэзии и литературы. Лучший друг сэра Макса, вместе они попадали в совершенно странные истории и неоднократно спасали жизнь друг другу.
Меламори
Леди Меламо́ри Бли́мм. Мастер Преследования Затаившихся и Бегущих. Встаёт на их след, и никуда они не денутся, леди притащит их в Тайный Сыск, как бы они ни сопротивлялись. Первая (и долгое время единственная) леди Тайного Сыска. Первая и последняя девушка сэра Макса в Ехо. Уезжала на далёкий и таинственный материк Арваро́х. Вернулась весьма необычным для уроженки Угула́нда способом: превратилась в буривуха и прилетела. Что свидетельствует о недюженном таланте к фиг знает какому виду магии.
Кофа Йох
Сэр Ко́фа Йо́х. Мастер Слышащий. Или Кушающий-Слушающий, по едкому замечанию сэра Мелифаро. Меняет внешность (кардинально, магическим образом) и шляется по трактирам Ехо, узнавая все свежие слухи. Старый и опытный колдун, специалист в Очевидной магии. На Тёмную сторону попасть не может. Снов не видит. В прошлом — Генерал Полиции Правого Берега. Гонялся в те времена за Кеттарийским Охотником, пару раз даже почти поймал. Сын Хумхи Йоха, одного из семи легендарных «Отцов Основателей» Ордена Семилистника.
Сэр Нуммино́рих Ку́та. Штатный Нюхач Тайного Сыска. Очень чутко различает запахи. По запаху может сказать, где бывал и чем питался человек последние несколько дней. Талантливый сновидец. Ученик сэра Макса.
Теххи
Леди Теххи Шекк. Девушка сэра Макса, между леди Меламори и леди Меламори. Дочка Лойсо Пондохвы, в результате — не вполне человек, а скорее сильное наваждение. Зеркало, подстраивается под собеседника, чем вызывает неодолимую симпатию.
Лойсо Пондохва
Ло́йсо Пондо́хва. Основатель и Великий Магистр Ордена Водяной Вороны. Один из величайших колдунов своего времени. Тяготеет к разрушениям, в результате стал героем многочисленных поговорок вроде: «Сам Лойсо Пондохва ногу сломает». Его именем пугают маленьких детей. Стёр с лица земли родной город сэра Джуффина Халли Кетта́ри. Был пойман Джуффином Халли (ещё Кеттарийским Охотником), при содействии Шурфа Лонли-Локли (ещё немного Безумным Рыбником). Был освобождён сэром Максом. Был спасён сэром Максом от жажды разрушений. Друг и тайный собеседник сэра Макса.
Ну вы поняли. Куча новых слов, географических названий, странных имён. С фиг поймёшь какими ударениями. Много магии. Разной магии. Странной магии. Много разных чудес, разной степени чудесатости. А главное, почти на каждой странице найдётся настолько милая фразочка, что уже устаёшь дёргать их на цитаты.
Пока писал всё это, глянул, о чём там «Сновидения Ехо». Да, это продолжение. Сэр Макс снова возвращается в Ехо.
Как будто прочитать как будто волшебным несуществующим увидительным пережитые написанные изданные как будто о настоящем волшебном многозначном удивительном как будто радостные и полезные узнать и полюбить.
Мелифаро и Шурф

2017-09-17

О MongoDB

После долгого перерыва я снова столкнулся с MongoDB. Не по своей воле.
В этом перерыве я тыкал разное. InfluxDB, чтобы понять, что Graphite, точнее Whisper, нифига не устарел, и вполне имеет право на жизнь. ClickHouse, чтобы окончательно решить, что для такого рода данных, когда нужно хранить разовые события, привязанные ко времени, а потом делать по ним разную хитрую аналитику, я буду использовать только ClickHouse. Но больше всего возился со старым добрым PostgreSQL, интенсивно заюзывая его модный jsonb.
MongoDB logo
А вот теперь пришлось снова тыкать MongoDB. В которую пришлось складывать эти самые разовые события, привязанные ко времени, и делать аналитику.
Историческими судьбами в этой Монге сложилась странная схема данных. Есть три коллекции. В одну события складываются как есть, но живут они там только четыре часа. Появилась в Монге такая возможность, индексы с TTL, что сильно удобнее старых capped collections.
В другую коллекцию складываются типа агрегированные данные, сгруппированные по одному из измерений, и собранные за пять минут. На каждые пять минут, на каждое уникальное значение этого измерения — создаётся новый документ. А в нём массив, который пополняется новыми событиями, которые в течение этих пяти минут возникнут.
В третью коллекцию складываются типа агрегированные данные, сгруппированные по другому измерению. Но собранные за неделю. Так же, в массиве. Почему за неделю, неизвестно. Видимо, потому, что размера монгодокумента хватает, чтобы хранить события за всю неделю для каждого уникального значения измерения.
В Монге по-прежнему искусственно ограничен размер документа. И это по-прежнему 16 мегабайт. Помните, зачем? Потому что операции над документами атомарны. И при передаче по сети шестнадцати мегабайт ещё можно сделать вид, что это происходит «атомарно».
Я сразу забраковал эту схему, потому что она подразумевает постоянные апдейты документов. А старый движок Монги, который теперь называют MMAPv1, модифицировал документы «на месте». Если было место, дописывал на месте. Если не было места, ему приходилось копировать документ в конец коллекции и дописывать там. А чтобы место было, он отводил для документа на диске место с запасом. Поэтому этот движок был чудовищно жаден до диска. И очень не любил, когда документы не просто модифицировались, а ещё и увеличивались в размере. Ну прям наш случай.
Над этим движком смеялись все кому не лень. Все разработчики настоящих баз данных. Ибо это были просто memory mapped файлы. В плане скорости это давало некоторые преимущества. Ибо на диске это BSONы, ОС маппит эти BSONы в память, а движку БД остаётся только кидать BSONы из памяти в сокеты и обратно. Но в плане надёжности сохранения данных это было никак. Там, конечно, прикрутили потом журнал. Но это не особо помогло.
И вот теперь, уже вполне солидно, официально и по дефолту у Монги работает другой движок — WiredTiger. Он уже вполне похож на настоящую БД. Он — версионник, MVCC. Это значит, что он никогда не апдейтит «на месте», для него, что insert, что update — одна фигня. Он жмёт данные на диске. Очень хорошо жмёт, кстати. У него есть свой самостоятельный кэш, а не только дисковый кэш ОС.
У WiredTiger тоже есть журнал. Впрочем, журнал всё равно сбрасывается на диск по таймеру. И если в операции записи вы выражаете желание дождаться записи в журнал, ваш запрос действительно будет ждать следующего тика скидывания журнала на диск, и только потом завершится.
«Связанный тигр» — существенный прогресс MongoDB как настоящей базы данных. Рекомендую, если приходится иметь дело с Монгой.
WiredTiger advantages
BSON. Продолжаю восхищаться этим изобретением ребят из 10gen. Все разработчики БД, которые, на волне хайпа по NoSQL, добавляют поддержку JSON. Не надо, прошу вас. Добавляйте поддержку BSON.
JSON — это текстовая фигня с сомнительной эффективностью хранения и парсинга, и совсем никакой поддержкой нормального набора типов данных. Там нет целых чисел, и тем более long. Там совсем-совсем невозможно нормально хранить бинарные данные. А бинарные данные у вас всегда будут. Оно вам надо, каждый раз эту фигню парсить и сериализовывать на входе и на выходе, даже если у вас внутри это как-то мегоэффективно хранится, как в jsonb?
BSON — это нормальный эффективный бинарный формат. Тут для каждого значения хранится длина, а значит, можно эффективно пробежаться по документу и извлечь только то, что надо. Тут есть нормальные int и long, и массивы байтов, и timestamp. Как правильно замечает Википедия, какой-нибудь ProtoBuf может быть эффективнее. Но в ProtoBuf нужна схема. А BSON гибок как JSON.
BSON example
Кажется, Монга научилась использовать несколько индексов одновременно. Но, похоже, предпочитает по старинке брать лишь один индекс для выполнения данного запроса. Дело в том, что индексы, точнее планы запросов, по-прежнему выбираются методом честного соревнования. Если Монга не помнит, какой план запроса был лучшим, она гоняет все возможные планы, и выбирает самый быстрый, и запоминает его на будущее. Просто. Тупо. Эффективно?
Aggregation framework возмужал. Когда-то это была лишь упрощённая и ограниченная замена map-reduce. Но теперь это довольно мощная штука. Заметно мощнее обычных запросов, но почти такая же эффективная. Судя по тому, с какой скоростью в новых версиях Монги добавляют сюда новые возможности, скоро с aggregation framework можно будет делать всё.
Чаще всего aggregation pipeline собирается из $match, $project и $group.
$match — это аналог where. Здесь можно задать условия выборки документов из коллекции. Тут работают индексы, если они есть.
$project — это аналог выражений после select, проекция. Тут всё значительно мощнее, чем в проекции обычного find(). Можно не только включать и исключать поля. Можно высчитывать любые выражения по содержимому документа. Например, можно взять, и сделать $filter и даже $map по содержимому массива в документе.
$group — это аналог group by. По данному ключу (а в частности, по ключу null, т.е. для всех документов) можно собрать агрегацию: сумму, минимум, максимум, всё такое.
Есть и другие интересные операторы. $unwind позволяет развернуть массив в виде последовательности документов. Примерно так, как это может делать PostgreSQL со своими массивами. $lookup позволяет вытащить из другой коллекции целый документ и воткнуть сюда. По сути, это join.
Все эти милые операторы собираются именно что в pipeline. Выхлоп предыдущего шага является входом следующего шага. Можно строить длинные цепочки преобразований, чтобы в конце получить лишь одно число, как оно часто и нужно в этих агрегациях :)
Всё это достаточно мощно, что люди всерьёз пишут конверторы из SQL в монговские aggregation pipeline.
Aggreration pipeline
Схема данных, как всегда, имеет значение. Не обольщайтесь schemaless, это вовсе не thoughtless для разработчика. В данном случае засада оказалась в количестве «горячих» документов.
С коллекцией номер раз всё понятно. Мы туда просто инсертим, и всё. Никакие документы не модифицируются.
С коллекцией номер два сложнее. Здесь в течение пяти минут интенсивно обновляются одни и те же документы. Сколько их, определяется мощностью множества значений того измерения, по которому происходит группировка. В данном случае — сотни. Практические замеры показали, что за пару часов модифицируются лишь тысячи документов. Несмотря на относительно большой размер этих документов — десятки килобайт — они все прекрасно помещаются в кэш размером меньше полугигабайта. Поэтому проблем с апсертами в эту коллекцию не было.
Проблемы случились с коллекцией номер три. Агрегаты за неделю, по второму измерению. Средний размер документа тут маленький — килобайты. Хотя встречаются документы, вплотную приближающиеся к заветным 16 мегабайтам. Но вот мощность множества значений этого второго измерения — миллионы. Миллионы «горячих» документов, килобайтного размера. Это, по-хорошему, уже нужен кэш в несколько гигабайт.
Памяти добавили, ядер добавили, IOPS добавили. А не помогало.
Оказалось, что я избаловался акторами и прочими прелестями асинхронной обработки. Даже наша фиговина, которая должна была в эту самую Монгу пихать события, хоть и принимала эти события через один сокет в одном потоке, потом вовсю юзала ThreadPoolExecutor, раcпихивала задания по очередям, а потом выполняла в столько потоков, в сколько нужно.
А вот MongoDB, как, впрочем, и большинство других баз данных, включая PostgreSQL, — не такая. Она — синхронная. Одно подключение — один поток, который выполняет все запросы в этом подключении строго последовательно.
И оказалось, что апдейты этой третьей коллекции по неизвестной причине (возможно из-за необходимости распаковывать и запаковывать документы) очень жрут CPU на сервере. Вставляем через одну коннекцию — упираемся в один поток на сервере, который выжирает лишь одно ядро CPU. И всё медленно.
Ок. Сделаем четыре потока на нашей клиентской стороне, нам же всё равно, у нас же ExecutorService. Получаем четыре коннекции к Монге. А там — четыре потока на четырёх ядрах CPU, которые занимаются тем, чем они хотят заниматься. Работает? Работает. Проблема решена. Тупой подход: «Тормозит? Добавь потоков!» — сработал.
Ну, конечно, есть нюансы, которые решились по ходу дела. По-хорошему, нужно не давать разным потокам на Монге лезть в одни и те же документы. Чтобы не порождать конфликтов и блокировок. Делается это переупорядочиванием входящих событий и грамотным созданием заданий в ExecutorService.
ClickHouse logo
И всё-таки, для этой задачи я бы взял ClickHouse. Прям руки чешутся. Зачем нужны все эти предварительные агрегации? Зачем хранить данные в трёх экземплярах? Если можно за приемлемое время быстренько прогрепать всё, что было за указанный период.
Для сравнения, те же самые события мы, ради Истории, решили записывать в логи и складывать в архив. CPU совсем прохлаждается, памяти не нужно, IOPSов тоже не нужно, ибо последовательная запись в один поток. Нужно место на диске. И тут по компактности WiredTiger побеждает gzip :) Подозреваю, ClickHouse уделает обоих. А извлекать данные будет сильно удобнее, чем с помощью zgrep.

2017-09-03

О JWT

А как вы ограничиваете доступ к вашему API?
Понятно, что в нашей аутсорсной разработке, когда это приватное API какого-то сервиса внутри конторы заказчика, можно понаставить огненных заборов, и вообще сделать API доступным только из приватной сети.
А если это публичное, да и к тому же многопользовательское API? Как вы аутентифицируете и авторизуете пользователей? Это ведь API, тут нет формы логина.
API
Тупой, но вполне для начала работающий способ: Basic Authentication. Можно даже взгромоздить проверку паролей на тот же Nginx.
Но, простите, о каких пользователях идёт речь? Это же API. Это не пользователи. Это некие программные агенты стучатся к вам в интересах пользователя.
Поэтому, чтобы не смущать себя эфемерными пользователями и их паролями, клиентам API выдают некие токены. Токен, в данном случае, некая строка, идентифицирующая данного клиента, а иногда и права, выданные клиенту.
Login form
Вопрос первый: где и как получать токены?
На эту тему сломано немало копий. Но, похоже, в случае веб-сервисов, побеждают разные варианты OAuth.
В OAuth для выдачи токена требуются явное участие и согласие юзера, в интересах которого агент будет действовать. Для этого задействуется веб-браузер, а пользователя явно просят в этом браузере по-человечески авторизоваться на сервисе, который будет предоставлять API. Т.е. на вашем сервисе.
Веб-браузер — хорошо. Для агентов, которые сами являются веб-сервисами. Для агентов, которые локальные приложения, вызов веб-браузера выглядит странно, особенно для консольных приложений, но вполне работает.
Если у вас не публичный веб-сервис, а просто бэкенд какого-то вебдванольного приложения, можно, конечно, поступить проще. Просто сделайте метод, который за логин-пароль юзера будет выдавать токен.
OAuth 2.0
Вопрос второй: как передавать токен?
HTTP предоставляет уйму способов. Есть заголовки запроса. Есть параметры запроса. Есть тело запроса (в тот же JSON самого запроса токен добавить). Все варианты имеют место быть.
Более-менее стандартным таки является заголовок Authorization. Причём у него есть тип.
Authorization: <type> <credentials>
Для базовой аутентификации тип — это «Basic». Для передачи токенов в OAuth 2.0 тип — это «Bearer». Ничто не мешает придумать свой «тип», только сначала напишите для этого RFC.
Понятно, что в любом случае токен передаётся открытым текстом. И тот, кто перехватит токен, сможет им воспользоваться, выдав себя за чужого агента. Поэтому, только HTTPS. Шифруемся.
Если у вас не HTTP/HTTPS или не только HTTP/HTTPS, то ничего другого не остаётся, кроме как включить токен одним из параметров запроса (то бишь, в тело запроса). Почему бы и нет.
Authorized
Вопрос третий: где хранить и как проверять токены?
На клиентской стороне, если это браузер, уверенно побеждает LocalStorage. Храните токены там, подсовывайте в запросы к API, и будет вам счастье.
Интереснее, что происходит на серверной стороне. Что API делает с токенами?
Очевидный подход. Пусть токен — это просто случайная строка достаточной длины. Сохраним токен в таблицу (или коллекцию) БД, запишем дату его выдачи (или дату окончания действия), и свяжем с нужными правами нужного пользователя. Всё. Работает. Просто, понятно.
Но на больших масштабах у этого подхода проявляются недостатки. На каждый запрос к API, требующий авторизации, независимо от сути самого запроса, требуется просмотр этой таблицы БД на предмет поиска и проверки токена. Если разных API у нас несколько, и сами API горизонтально отмасштабированы на кучу серверов, обеспечить для всех них актуальный доступ к одной таблице становится не очень простой задачей. К тому же, при миллионах пользователей, токенов может быть ещё больше. Сама таблица может получиться очень не маленькой.
Можно обойтись без всего этого. Пусть сам токен хранит в себе всё, что нужно для идентификации пользователя, выяснения и проверки его прав. Тогда большая таблица не понадобится. Не нужно будет делать в неё запрос. А каждый сервер с API может проверить токен самостоятельно.
А чтобы хитрый пользователь не подделал токен, мы будем его подписывать. В криптографическом смысле. Ключом, известным только серверу (серверам).
JWT and friends
Слава богу, ничего на этом поприще изобретать не надо. Ибо есть стандарт JWT — JSON Web Tokens.
JSON, потому что всякие служебные данные и сведения о пользователе представлены в виде JSON.
Типичный JWT токен выглядит так:
eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiIxMjM0NTY3ODkwIiwibmFtZSI6IkpvaG4gRG9lIiwiYWRtaW4iOnRydWV9.TJVA95OrM7E2cBab30RMHrHDcEfxjoYZgeFONFh7HgQ
Расшифровать можете на упомянутом jwt.io.
Это три «слова» в base64 кодировке, разделённые точкой.
Первое «слово» — заголовок. Описывает, какие алгоритмы мы используем для подписи и какого типа содержимое токена используем.
$ echo "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9" | base64 -d
{"alg":"HS256","typ":"JWT"}
В данном случае «HS256» означает HMAC SHA256, алгоритм подписи такой. А «JWT» означает, что тело токена — действительно JSON в понятиях JWT.
Второе «слово» — тело токена.
$ echo "eyJzdWIiOiIxMjM0NTY3ODkwIiwibmFtZSI6IkpvaG4gRG9lIiwiYWRtaW4iOnRydWV9" | base64 -d
{"sub":"1234567890","name":"John Doe","admin":true}
Это JSON, который содержит некоторые свойства, которые в JWT называют claims, т.е. утверждения.
Некоторые claims определены стандартом JWT. Они, для компактности, трёхбуквенные. iss, issuer — идентификатор того, кто выдал токен. sub, subject — кому выдан токен, например, это идентификатор пользователя. exp, expiration time — время жизни токена, в виде unix timestamp в секундах. iat, issued at — момент выдачи токена, в виде unix timestamp в секундах.
Остальные claims зависят от данного API. Можно их зарегистрировать, чтобы ни с кем не пересечься. А можно просто набросать любых слов или uri.
Третье «слово» — подпись, в формировании которой используется некоторый секрет.
$ openssl dgst -sha256 -mac HMAC -macopt key:secret -binary \
  <( echo -n "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJzdWIiOiIxMjM0NTY3ODkwIiwibmFtZSI6IkpvaG4gRG9lIiwiYWRtaW4iOnRydWV9"; ) \
  | base64
TJVA95OrM7E2cBab30RMHrHDcEfxjoYZgeFONFh7HgQ=
Надо же, openssl умеет.
JWS token structure
В мире Java с JWT токенами можно работать, например, с помощью jjwt.
Генерировать токен можно примерно так.
fun generateToken(username: String): String {
    return Jwts.builder()
            .setSubject(username)
            .setExpiration(Date(System.currentTimeMillis() + EXPIRATION_TIME))
            .signWith(SignatureAlgorithm.HS512, SECRET)
            .compact()
}
Поместите это в какой-нибудь контроллер, который отвечает за логин и выдачу токенов. Можно добавить и любые другие Claims при необходимости.
Проверять токены можно с помощью Spring Security, который нужно соответствующим образом сконфигурить.
@Configuration
@EnableWebSecurity
open class WebSecurityConfig : WebSecurityConfigurerAdapter() {

    override fun configure(http: HttpSecurity) {
        http.csrf().disable()
                .authorizeRequests()
                .antMatchers("/login").permitAll()
                .anyRequest().authenticated()
                .and()
                // And filter other requests to check the presence of JWT in header
                .addFilterBefore(JWTAuthenticationFilter(),
                        UsernamePasswordAuthenticationFilter::class.java)
    }

}
Проверять заголовок «Authorization» будет соответствующий фильтр.
class JWTAuthenticationFilter: GenericFilterBean() {

    private val SECRET = "secret"

    override fun doFilter(request: ServletRequest,
                          response: ServletResponse,
                          filterChain: FilterChain) {
        val authentication = getAuthentication(request as HttpServletRequest)

        SecurityContextHolder.getContext().authentication = authentication
        filterChain.doFilter(request, response)
    }

    private fun getAuthentication(request: HttpServletRequest): Authentication? {
        val token = request.getHeader("Authorization")
        if (token != null) {
            val user = Jwts.parser()
                    .setSigningKey(SECRET)
                    .parseClaimsJws(token.replace("Bearer ", ""))
                    .body
                    .subject

            return if (user != null)
                UsernamePasswordAuthenticationToken(user, null, listOf())
            else
                null
        }
        return null
    }

}
Ну а добраться до аутентифицированного пользователя можно стандартными для Spring Security средствами.
@RestController
open class UserController {

    @RequestMapping("/user")
    fun user(): UserResponse {
        val authentication = SecurityContextHolder.getContext().authentication
        val username = (authentication.principal as? UserDetails)?.username ?: authentication.principal.toString()
        return UserResponse(username)
    }

}
Проверяем.
$ curl http://localhost:8080/user
{"timestamp":1504417496948,"status":403,"error":"Forbidden","message":"Access Denied","path":"/user"}

$ curl http://localhost:8080/login
{"token":"eyJhbGciOiJIUzUxMiJ9.eyJzdWIiOiJhZG1pbiIsImV4cCI6MTUwNDQyNDcxNn0.a9P1SroxiSTUraFdhYwUMjY0tFdhehIRa-R3oOfuW5Ov0INjKH0bS3b57PLF8rhj3uEYXzcPtplID-ncJkWJZg"}

$ curl http://localhost:8080/user \
    -H 'Authorization: Bearer eyJhbGciOiJIUzUxMiJ9.eyJzdWIiOiJhZG1pbiIsImV4cCI6MTUwNDQyNDcxNn0.a9P1SroxiSTUraFdhYwUMjY0tFdhehIRa-R3oOfuW5Ov0INjKH0bS3b57PLF8rhj3uEYXzcPtplID-ncJkWJZg'
{"usename":"admin"}
Больше примеров и кода можно найти тут и здесь.
Spring
Spring Security, конечно же, уродлив. С нормальным middleware всё выглядит значительно красивее (потому что больше магии).
from flask_jwt import JWT

app = Flask(__name__)

app.config['JWT_AUTH_URL_RULE'] = '/api/v1/auth'
app.config['JWT_EXPIRATION_DELTA'] = timedelta(hours=2)

from app.models import User

def authenticate(username, password):
    # тут отрабатывается /api/v1/auth, по логину паролю извлекаем юзера
    user = User.query.filter(User.username == username).first()
    if user and check_password_hash(user.password, password):
        return user

def load_user(payload):
    # тут извлекаем юзера по телу токена
    user = User.query.get(payload['identity'])
    # тут конечно плохо, что за юзером лезем в базу, лучше его всего в токен засунуть
    return user

jwt = JWT(app, authenticate, load_user)


from flask_jwt import jwt_required, current_identity as user

@app.route('/users/get_user_info')
@jwt_required()
def get_user_info():
    # тут магическим образом юзер (точнее current_identity) стали доступны
    return jsonify(
        user_name=user.username,
        user_id=user.id
    )
Flask
Обратите внимание, что JWT токен не зашифрован. Он только подписан. Такие токены называют JWS — JSON Web Signature. Владелец токена, т.е. сам юзер, вполне может прочитать, что вы там про него храните.
Если вы не хотите лишний раз смущать пользователя, или же хотите уменьшить последствия компроментации токена (одно дело, получить доступ к API и узнать ID данного пользователя, другое дело, узнать email пользователя или даже пароли от других сервисов), то можно и зашифровать тело токена. Такие токены называют JWE — JSON Web Encryption.
Скучные подробности можно почитать тут.
JWE token structure
jjwt не умеет JWE. А вот какой-нибудь сишарпный Jose — умеет.
private string EncodeToken(User user)
{
    var payload = new TokenData
    {
        Id = user.Id,
        Email = user.Email,
        Name = user.DisplayName,
        exp = NowTimestamp() + _tokenTtl
    };
    return Jose.JWT.Encode(payload, _tokenEncryptSecret,
        JweAlgorithm.PBES2_HS512_A256KW, JweEncryption.A256CBC_HS512, JweCompression.DEF);
}

private User DecodeToken(string token)
{
    var payload = Jose.JWT.Decode<TokenData>(token, _tokenEncryptSecret);
    if (payload.exp < NowTimestamp())
    {
        throw new Jose.IntegrityException("Token expired");
    }
    return new User
    {
        Id = payload.Id,
        Email = payload.Email,
        DisplayName = payload.Name
    };
}
Явисты, не расстраивайтесь. Для Явы тоже всё есть, просто другая библиотека.
JOSE — это Javascript Object Signing and Encryption. Общий термин, объединяющий JWT, JWS, JWE, а также JWK (JSON Web Key). Сначала добавляли буковку S — Simple, потом X — eXtensible, теперь, похоже, наступила мода на J.
JWT is JWS and JWE
Ещё раз. JWT — это самодостаточные токены, которые не требуют обращения к какой-либо БД, чтобы удостовериться, что этот токен был выдан определённому пользователю. Соответственно, их самих нет нужды хранить в какой-либо БД и делать по ним поиск.
Из этого проистекает недостаток: JWT токены почти невозможно отозвать. Ведь нет БД, с которой можно сверяться по вопросам валидности.
Конечно, есть тяжёлая артиллерия. Достаточно сменить ключ, которым подписываются и проверяются токены, на всех серверах. И все имеющиеся в ходу токены автоматически станут невалидными. В крайних случаях можно (и, пожалуй, нужно) поступать именно так.
А для уменьшения последствий компроментации в обычной жизни JWT токены нужно делать короткоживущими. Несколько часов, максимум дней.
Короткоживущие токены — это неудобно. Ведь юзеру придётся при протухании токена перелогиниваться.
Поэтому в OAuth используют два токена. Основной access token, короткоживущий, который может быть JWT, сам в себе содержит нужные данные и может быть проверен без доступа к БД. И refresh token, долгоживущий, может храниться и проверяться в БД, используется для обновления и выдачи нового access token.
Получается, мы можем получить все преимущества самодостаточности JWT, аутентифицируя тысячи запросов без лишнего обращения к БД, и при этом получить долгую, удобную для юзеров, сессию, с временем жизни refresh токена. Если, конечно, обновлять токены будем автоматически.

2017-08-20

О Зенбуках

Я влюблён в Зенбуки. Которые Asus Zenbook. Которые когда-то назывались ультрабуками, а теперь, когда все обычные ноутбуки стали такими же компактными, стали называться просто классическими ноутбуками. Классическими, потому что есть ещё всякие с сенсорным экраном или выворачивающиеся наизнанку.
Zenbook lid
Предыдущий Зенбук служил мне верой и правдой почти четыре года. Теперь я обзавёлся новым. Вот их сейчас и буду сравнивать. А ещё несколько Зенбуков я купил и нарекомендовал родственникам и знакомым.
Старичок. Asus Zenbook UX32VD. 2012 год. Вес: 1.4 кг (если верить моим напольным весам).
Экран. 13.3 дюйма, FullHD, честные 1920×1080 точек, матовый. Экспериментально я выяснил, что для меня это оптимальный размер и разрешение. Больше размер — тяжелее таскать. Меньше размер — ничего не помещается. Всё, конечно, становится мелковато, но абсолютно ничто не мешает поставить шрифты покрупнее.
UX32VD screen
Клавиатура. Хорошая, удобная, с подсветкой. Широкие шифты. Большой, хоть и не высокий, Enter. Правильный Ctrl, ближе к краю, чем Fn. Поначалу не хватало всяких Home/End/PgUp/PgDown, но быстро привык к их альтернативам с Fn. Новичков пугает отсутствующий Insert (он есть только с Fn) и кнопка выключения питания прямо на клавиатуре. Но я особых неудобств от этого не ощутил.
UX32VD keyboard
За годы ношения в рюкзаке клавиатура заметно отпечаталась на экране. Надо было таскать прокладку-тряпочку, что шла с завода. Но не факт, что помогло бы. Видел подобные полосы от пробела и на экранах старых макбуков.
UX32VD screen abrasions
Тачпад. Он есть. Он нормальный. Жесты множеством пальцев и блокировка тачпада, когда печатаешь, чтобы курсор куда не надо не прыгал, решаются исключительно софтом. Убунта справляется.
Камера, микрофон, всё путём.
Проц. Мне достался Core i7-3517U, Ivy Bridge, 22 нм, 1.9 ГГц, два ядра, четыре потока (Hyper-threading), 4 Мб кэш, 17 Вт. Топовая зверушка для этой линейки Зенбуков.
Память. DDR3. От рождения было 4 гигабайта. Причём два распаяно на материнке, а два засунуто в единственный SO-DIMM слот. В этот слот я сначала воткнул четыре, а потом и восемь гигабайт. В итоге получил 10 гигабайт ОЗУ. Максимум для данной конфигурации.
Диск. От рождения был снова распаянный на материнке SSD на 24 гига, и SATA HDD на 500 гигов. Я долго добирался до того, чтобы приспособить SSD как кэш к HDD, и оно получилось с помощью bcache. А потом встроенный SSD сдох, я решил, что это знак, выкинул HDD и поставил вместо него SSD на 480 гигов. Всё залетало, и я стал счастлив.
Видюха. Да, в этом ноуте есть какой-то GeForce. Я про него вспоминал три раза. Сначала, когда пришлось поставить Bumblebee, чтобы отключить эту видюху нафиг, ибо время работы от батареи, когда Nvidia включена, драматически снижалось раза в два. Более поздние Убунты научились отключать видюху самостоятельно. И последующие два раза, когда я ставил Steam и думал, что вот сейчас таки поиграю хоть чуть-чуть на ноуте. Не сложилось, не поиграл. Так видюха и была постоянно выключена, а работала встроенная интеловая графика.
Батарея. 6520 мА·ч. От рождения хватало на три-четыре часа. Сейчас может внезапно вырубиться минут через 20. Надо бы менять, но пока нет острой необходимости.
Корпус. Металлический. С иллюзией малой толщины. Динамики в передней части по бокам, смотрят вниз, громкие. Сзади снизу есть вентиляционные отверстия. Дует, как на макбуках, в щель между корпусом и крышкой.
UX32VD bottom
Разбирается достаточно легко. Главное найти отвёртку нужного размера звёздочкой. Двенадцать винтов снизу, и вся нижняя крышка снимается целиком. Тут вам сразу память и аккумулятор, и пыль сдуть с кулеров (там два вентилятора). SATA диск поменять? Нужно сначала открутить и слегка приподнять аккумулятор. Всё просто.
UX32VD internals
Слева. Один USB 3.0. И слот для SD карты. Всё. Слот такой, что SD карта не защёлкивается, но наполовину торчит. Немного непривычно, но вполне достаточно, чтобы через переходник скинуть что-нибудь на micro-SD из телефона.
UX32VD left side
Справа. Разъём блока питания. Никаких магнитных разъёмов, извините, это вам не мак. Два USB 3.0. Полноразмерный HDMI. Совершенно нестандартный порт для дисплея, в комплекте есть переходник на VGA. Совмещённый mini jack на наушники и микрофон.
UX32VD right side
Всего, получается, три USB. И все 3.0. Внешние жёсткие диски подрубать — милое дело. Работают как ураган.
HDMI справа доставляет хлопот, если постоянно приходится подключать внешний монитор. А я даже рекомендую подключать. Два монитора минимум в два раза удобнее, чем один. Провод справа мешает елозить мышкой. Я решил это покупкой нестандартного HDMI кабеля, изогнутого на 90 градусов.
Разъём для дисплея и переходник на VGA — странные. Без танцев с бубном не выйдет вывести что-то, кроме 1024x768. Как будто там не все провода развели, и дисплей не может сообщить видюхе, какие разрешения он умеет (я про DDC).
Совмещённый jack доставляет хлопот. Подходят гарнитуры от сотовых. А вот «компьютерных» гарнитур с таким подключением фиг найдёшь. Впрочем USB гарнитуры вполне работоспособны в Убунту. Да и встроенные динамики и микрофон работают вполне прилично, если нужно громкую конференцию устроить.
Ещё в комплекте. USB сетевуха, работает под Linux. Чехольчик для сетевухи и переходника VGA. Замечательный тряпошный «конвертик» для самого ноутбука.
UX32VD accessories
UX32VD case
Виндой я на этом ноутбуке никогда не пользовался. Сразу ставил Ubuntu, которая дефолтная, с почившим Unity. Поначалу пришлось руками прикручивать Bumblebee, чтобы отрубить Nvidiaвскую дискретную видеокарту. И ставить ядро от следующей версии Убунту, чтобы работали кнопочки регулировки яркости экрана. Со следующей Убунтой и её LTS версиями вообще проблем с железом не было.
Новичок. Asus Zenbook UX310UA. 2016 год. Вес: 1.4 кг (а субъективно вроде чуть полегче).
Экран. Те же 13.3 дюйма. Есть экраны FullHD, я именно такой и хотел. Но не получилось. Взял с разрешением QHD+, которое 3200x1800 точек. Только что понял, что я окончательно запутался в этих 4K разрешениях. На телевизоре-то у меня Ultra HD, т.е. 3840×2160.
UX310UA screen
С разрешением вышло несколько засад. GRUB hidpi понимает и рисует большие буквы. В текстовом терминале поставить шрифт побольше поможет sudo dpkg-reconfigure console-setup. Свежие KDE нормально позволяют настроить масштабирование.
Только вот дробный скейлинг, а я поставил поначалу 1.7, далеко не все переваривают. Половина софта, которые используют WebView, отображают этот WebView весь размытый в квадратных пикселях. Некоторые, как ни странно, Qtшные, программы вообще не масштабируются, или даже рисуют интерфейс 1:1 в уголочке отмасштабированного окна.
Целый скейлинг в 2.0 переварили почти все. И выглядело всё красиво, хотя чуток крупновато.
Но вот скейлинг, мало того, что требует перелогина, так ещё и штука, глобальная для всех мониторов. Поэтому с внешним монитором с обычным dpi это нифига не работает. Нужен один масштаб на оба монитора, и надо что-то выбирать.
Я пока остановился на FullHD на обоих мониторах. Без скейлинга. Как ни странно, несмотря на то, что на QHD+ FullHD должно отображаться с искажениями, я их не замечаю. Сильно мелкие пиксели. И в лупу я их не разглядываю.
Как бы надо внешний 4K монитор :)
Клавиатура. Абсолютно такая же. Ну разве что значочки погрубее нарисованы, да логотип Венды более новой версии.
UX310UA keyboard
Тачпад. В обзорах иногда ругают. В биосе (ну который EFI Setup) действительно чувствительность его чересчур задрана. Но в KDE для тачпада дофига настроек. И по умолчанию все они делают всё нормально. Даже отключение при печатании есть. Я лишь включил прокрутку по всем направлениям двумя пальцами и изменил направление этой прокрутки.
Камера, микрофон. Есть. Вроде добавился ещё датчик освещённости, но я с ним не игрался.
Проц. Достался Core i5-7200U, Kaby Lake, 14 нм, 2.5 ГГц, два ядра, четыре потока, 3 Мб кэш, 15 Вт. Норм. Вообще в линейке имеются ещё и Зенбуки с i7-7500U, но я такой не нашёл.
Память. DDR4. Комплектации с 16 Гб от рождения не нашёл в продаже, хотя такие, теоретически, есть. Пришлось взять с 8 Гб. Оказалось, что эти 8 Гб уже распаяны на плате, а SO-DIMM стоит пустой. Я туда воткнул ещё 8 Гб. Всего получилось 16. Хватает. На несколько докеров, пару виртуалок, пару Идей и пару десятков вкладок Хрома. И половина ОЗУ ещё дисковым кэшем занята. Так как npm я запускаю редко, 32 гигабайта, надеюсь, не понадобятся ещё в ближайшие года четыре.
Диск. По максимуму предлагают 512 Гб SSD (в M.2), плюс 1 Тб HDD в SATA. Я такое опять не нашёл, да и нафиг мне HDD. Поэтому в моём имеется 256 Гб M.2 SSD, и я воткнул вдогонку 480 Гб в SATA. Чтобы SATA пустым не стоял, и диска побольше было. На второй диск я засунул самые большие каталоги из моего хомяка с помощью mount --bind и pam_mount. Получилось, что ОС и всякий инструментарий у меня на одном диске, а всякие проекты, которые этим инструментарием собирать, — на другом. Почти просторно.
Видюха. А нет её. То, что вшито в Kaby Lake, то и есть. Существует, конечно, UX310UQ, который тоже с дискретной видеокартой от Nvidia. Но я сознательно от дискретной карты отказался. Ибо не пользуюсь. А лишняя грелка и батареепожиралка не нужна.
Батарея. 4210 мА·ч. Вроде меньше батарея, но хватать должно на 4-5 часов, если верить показаниям. Испытания не проводил. Мне достаточно знать, что эта штука не умрёт внезапно в течение часа-полутора, если её отнять от розетки.
Корпус. Металлический. С иллюзией малой толщины. На углах круглее, и в целом как-то помонолитнее, чем раньше. Дисплей открывается на чуть меньший угол, что огорчает. Динамики спереди внизу, очень громкие, но без искажений. Снизу вентиляционных отверстий теперь нет, всё дует в щёлку между корпусом и крышкой.
UX310UA bottom
Lid open angle
Пока сам не разбирал. Чтобы не терять в гарантии, отдал установку памяти и второго SSD официальному сервисному центру. Но теоретически всё так же, нижняя крышка снимается целиком. Только вот пара винтов теперь запрятана под резиновые ножки.
Разъёмы в этой серии Зенбуков переставили местами. То, что было слева, теперь справа, и наоборот. И это хорошо. Теперь HDMI кабель мышке не мешает.
Слева. Разъем питания, точно такой же, как был. Только сам БП теперь менее мощный, потому что нет дискретной видеокарты. Один USB. Полноразмерный HDMI. Один USB Type-C. Фиг знает, что он там умеет, мне пока нечего в него воткнуть. Совмещённый mini jack на наушники и микрофон.
UX310UA left side
Справа. Два USB. Слот для SD карты, такой же, как был. Ха, хоть разъем питания уехал налево, лампочки-индикаторы зарядки и включения остались справа.
UX310UA right side
Всего получается три обычных USB. 3.0 или 2.0 — непонятно. Синеньким они не помечены. Внешние жёсткие работают быстро. Официальная спецификация говорит, что два из них всё же 2.0. Если правда, то это огорчительно.
HDMI теперь слева. Хорошо. И в комлекте идёт переходник HDMI-VGA. Ещё не проверял, но надеюсь, он будет поумнее. Впрочем, пока нет необходимости его использовать. Везде, куда надо подключаться, есть HDMI.
В комлекте снова USB сетевуха. Но чехольчика для всех этих переходников нет. А «конвертик» снова на месте. Не такой клёвый и отвратительно чёрный, но вполне функциональный.
Accessories
UX310UA case
Ввиду кончины Unity я решил воскресить своё увлечение KDE, которое прервалось с выходом KDE 4. И поставил KDE neon. Это та же Ubuntu LTS, но со свеженькой Plasma (5.10 на текущий момент). Плазма — не падает. А вот панельки — бывает.
В плане железа вообще никаких проблем нет. Всё работает. Хотя не всё ещё проверить довелось.
В плане софта поймал баг в SDDM (Simple Desktop Display Manager). Эта та штука, которая в современном KDE пароль на вход (и не только) запрашивает. Оно не запускается, когда в pam_mount подрублены зашифрованные тома LUKS. Пока ограничился вводом ещё одного пароля при загрузке, LUKS раздел прописан в /etc/crypttab.
Долго мучался в попытке воссоздать поведение верхней панели Unity. Там ведь не только глобальное меню, а ещё и заголовок распахнутого окна, и они сменяют друг друга. Сделать так в KDE в настоящий момент нельзя. Разве что кто-нибудь таки напишет правильный плазмоид.
Хотя само глобальное меню работает. Правда не из Java. Jayatana и в Unity глючила, а в KDE вообще не работает.
Я убрал глобальное меню в кнопочку в заголовке окна (в свежей Плазме можно и так). А всякие индикаторы задвинул вправо наверх, на плавающую поверх всех окон панельку. Получилась почти Unity. Местами удобнее, местами нет.
В KDE оказалось, что на каждом экране панельки свои, и так просто они на все экраны клонироваться не хотят. Впрочем, фиг с ним, с KDE. Мы же о Зенбуках.
Кроме вот таких вот Zenbook, которые обычные ноутбуки, но маленькие, без CD/DVD и прочих езернетов, у Asus есть ещё и другие. Zenbook Pro, с 15 дюймовым экраном. Transformer Book, у которого экран отсоединяется от клавиатуры и является, по сути, планшетом. Или Transformer Book Flip, где экран можно вывернуть наизнанку и снова получить планшет.
Да и самих классических Зенбуков весьма много. Вот этих UX310U имеется две «подсерии»: UX310UA, без дискретной видюхи, и UX310UQ, с дискретной Nvidia. В рамках каждой «подсерии» доступны конфигурации с двумя разными экранами: FullHD и QHD+, с разными процами: от i3 до i7, с разным объемом памяти и разным набором и объемом дисков.
Явно не хватает конфигуратора. Чтобы выбрать, заказать и подождать то, что нужно. Я бы взял UX310UA с i7, 16 гигами ОЗУ и SSD на 512 гигов. И готов был бы подождать даже пару месяцев. Но такой конфигурации просто не было в продаже. Нигде в России. Проц помощнее и памяти побольше почему-то ставили в UX310UQ, но мне не нужна дискретная видюха. Пришлось собирать из кусочков: добивать памяти и диска.
В общем, живу, не болею. Продолжаю любить Зенбуки.
Two cases
Two laptops