with Cat The Cat

В спортзале в Чехове стали требовать QR коды

Прикинул, во что обойдётся сделать спортзал со штангой самому.

Гриф и блины весом в 300 кг вышли в 130 тысяч рублей. Силовая рама 70-80 тысяч.

Провериться на антитела - 1700, одна тысяча семьсот рублей.

Надо всё хорошенько обдумать. ;)
with Cat The Cat

Порядок

Сперва о порядке байтов в представлении слов.

У нас есть два порядка байтов в слове: LSB, младший (наименее значимый) байт вперёд и MSB, старший (наиболее значимый) байт вперёд. В первой случае проще преобразовывать между значениями разных размеров, второй случай проще сравнивать побайтово (memcmp).

Можно считать, что для MSB порядка байтов "вес" i-го (от адреса значения, i=1..size, 1 это байт по адресу значения) байта равен 256(size-i).

Теперь о порядке строк.

Строки мы сравниваем побайтово, как "целые в кодировке старший байт вперёд". Однако от целых строки отличны наличием длины, строка может содержать и ноль байтов и теребайт. В библиотеке crit bit trees предлагают считать все строки представленными бесконечной последовательностью байтов с дополнением нулями справа.

Размер у нас бесконечный, поэтому вес i-го байта строки мы определим, как 256-i. То есть, строки можно представлять в виде бесконечных дробей.

Арифметическое кодирование так же представляет последовательности символов в виде бесконечных дробей.

Про порядок арифметически закодированных строк.

Сперва предложу рассмотреть кодирование битов. Если мы используем одну и ту же, сколь угодно динамическую модель, то конкретный i-й бит 0 всегда будут закодирован в диапазоне [0..pi), а 1 всегда будет закодирован в диапазоне [pi..1). То есть, последовательность битов, начинающаяся с 0, будет иметь закодированное представление меньшее (в смысле сравнения получившихся строк - получившаяся дробь будет меньше), чем последовательность битов, начинающихся с 1.

В случае кодирования битов мы кодируем полный алфавит.

И если мы кодируем полный алфавит, как это принято в побуквенных языковых моделях (charRNN, TDCN, побуквенная SNMLM и тп), мы сохраняем свойство выше.

Типичный PPM* подход кодирует не полный алфавит, а алфавит текущего контекста и символ неудачи. Поэтому к нему вывод выше не применим. Но если заставить PPM разворачивать вероятности всех символов в полный контекст, то мы можем сравнивать кодированные (сжатые) представления с сохранением порядка несжатых.

Итак, основной вывод: при арифметическом кодировании с использованием полного алфавита мы получаем сохранение порядка несжатых строк при сравнении сжатых представлений.

(no subject)

Fox News. Такер Карлсон: чиновники в Вашингтоне хотели, чтобы США остались в Афганистане. Чтобы этого добиться, они наврали.

В течение целых пяти лет, начиная со своей предвыборной кампании 2016-го года и до конца своего президентского срока, Дональд Трамп часто повторял, что его желание — увидеть выход войск США из Афганистана. И вот в конце правления, в свои последние месяцы в Белом Доме, Трамп, кажется, решился выполнить это обещание. Он сказал помощникам, что собирается вывести войска.

И вот, в солнечный день 26 июня прошлого года, «Нью-Йорк таймс» (NYT) не дала ему это сделать. NYT опубликовала статью о том, что американское разведывательное сообщество «пришло к заключению: российская военная разведка тайно предлагала «награду за головы» убитых солдат проамериканской коалиции в Афганистане, да еще кому — связанным с Талибаном (террористическая организация, запрещена в России) боевикам, воюющим с США в Афганистане.

Итак, Владимир Путин, сообщили нам, занимался убийством американских солдат (джи ай на американском сленге — прим. ред.). Ну, узнав такое, выводить войска из Афганистана было просто нельзя. Потому что теперь каждый, кто предлагает вывод войск из Афганистана, предлагает вывод войск, — это человек, предлагающий нам всем согнуться в поклоне перед Владимиром Путиным. В этой ситуации американские войска должны были остаться в Афганистане — это было дело принципа. И они остались. Они до сих пор там пребывают.

Collapse )
https://inosmi.ru/politic/20210424/249627103.html
https://www.foxnews.com/opinion/tucker-carlson-afghanistan-russia-bounties-new-york-times-lies
---
---
---

Внешне выглядит все очень просто, даже примитивно, но разбор этой истории должен попасть в учебники по пропаганде. Дело даже не в самой задумке как таковой, а в том, как рассчитывалось ее действие. Какие ментальные карты аудиторий использовались, как учитывались актуальные нарративы и "проинвестированные темы", как учитывалось соотношение сил в медиасфере и в политических ресурсах.
with Cat The Cat

Проверил силовые

Становая: 185x8. По вычислениям выходит, что это 219 на одно повторение, но, наверное, 215 ближе к достигнутому. 90% от моего максимума в троеборье.

Приседания: 180x1, легко, 190 не смог. Думаю, что 185 смогу. 80% от максимума в троеборье.

Жим лёжа: 145x1. Чуть не сдох - свело бицепсы бедра. 95% от максимума в троеборье.

Собственный вес - чуть меньше 110 кг. 95% от моего веса, когда участвовал в соревнованиях.

За прошедшие три недели я добрался до вышеупомянутого результата в становой, добавив к оценочному единичному повторению 10 кг, точно улучшил килограмм на пять-десять приседания (на 180 у меня был отказ и на 175 мог быть не досед) и добавил к жиму 5 кг.

Вспомогательные упражнения типа жима гантелей для улучшения движения снизу и упражнений с резинками точно полезны.

Собственно, приседания я выполнял с резинками, жим делал с резинками, потом переключился на глубокий жим гантелей, а в становой просто делал становую и всегда улучшал силовую выносливость поясницы ("доброе утро" и тренажёр).

Борюсь с самим собой, это увлекательно.
with Cat The Cat

пЕСР

пЕСР расшифровывается, как "приблизительная Естественная Стратегия Развития". По английски это aNES - approximate Natural Evolution Strategy.

ЕСР это "давайте наберём случайных отсчётов и вычислим по ним изменение параметров распределения вероятности, используя естественный градиент". Последний определён, как градиент, умноженный на матрицу, обратную матрице Фишера, которая, в свою очередь, определена, как сумма внешних произведений градиента параметров распределения логарифма вероятности в некоей точке.

Две находки за сегодня:

Второе было ясно и без меня (на это указывается в исходной статье про ЕСР). Но вот первое оказалось весьма интересным - понятно, что градиенты вероятности и логарифма вероятности сонаправлены, однако они должны иметь совершенно разные длины. Разительно разные.
with Cat The Cat

"Люцифер"

Оказался довольно интересным сериалом.

Напомнил мне День Сурка.

В "Люцифере" многотысячелетний дьявол рассматривает жизни людей со скоростью их, людей, жизни и в ограничениях жизни людей, большую часть времени. В Дне Сурка главный герой мог рассматривать (часть) жизни людей в немыслимо детальных подробностях - ведь они повторялись и были представлены ему на сколь угодно подробное рассмотрение и сколь угодно глубокое понимание.

В обеих случаях скорости и подробности исследования изменены радикально.