Стендап Сьогодні

Що я зробив, що я хочу зробити, і що це все значить.
Повсякденні здобутки в форматі стендапу.
Детальніше в статті

Підписатись на RSS
📢 Канал в Telegram @stendap_sogodni
🦣 @stendap_sogodni@shevtsov.me в Федиверсі

29.10.2025

ExifTool та робота над домашньою фотобібліотекою

Стала задача закинути кілька (… десятків гігабайтів) старих фотографій в Apple Photos. Здебільшого то скани. Та, хоч технічно можна прямо взяти та імпортувати як є, але тоді я втрачу останні крихти метаінформації.

А саме: в Apple Photos немає дерева каталогів, а фотографії насамперед впорядковані за датою. Плюс, звісно, альбоми, ключові слова, геолокація, але це все вторинне. І всього цього в мене взагалі немає. Є вбудована можливість створити з тек на диску альбоми, втім це мені теж мало допоможе — та й не хочу я купу зайвих альбомів.

Отже, виходить, треба підготувати фотографії так, щоб в Apple Photos в них можна зорієнтуватися. Та допоміг мені в цьому ExifTool - програма, яку обовʼязково треба знати для роботи з метаданими фотографій або навіть відео.

Почнемо з того, що вона сама вміє знаходити фотографії в дереві, робити резервні копії, а також навіть виконувати деяку логіку (наприклад, “записати метатег, тільки якщо його ще немає”.)

Потім, ExifTool здатний записати в титул фотографії її шлях. Це збереже той порядок, який був у фотографіях раніше, та принаймні допоможе їх впізнавати.

Далі, мені пощастило, що фотографії були розкладені в теки за роком. Щоб Apple Photos про це теж знав, можна взяти рік зі шляху, та записати у метатег DateTimeOriginal. Тепер хоч приблизно все в порядку!

Вийшло щось таке — вся робота однією командою:

exiftool -r \
  '-Title<${directory}' \
  -if 'not $DateTimeOriginal' '-DateTimeOriginal<${directory; $_=(split m!/!, $_)[1] . ":01:01 12:00:00"}' \
  .


28.10.2025

Long Poll та проблеми зі звʼязком

Памʼятаєш, я казав, що дивним чином під час останнього збою AWS в нас застряг SQS - нічого не отримував, але й не відвалювався? Знайшов причину.

Отримання повідомлень з SQS працює за моделлю Long Poll: клієнт робить запит до сервера, а сервер відповідає тоді, коли в черзі зʼявляться повідомлення. Однак якщо черга порожня, то сервер через зазначений інтервал дасть порожню відповідь. В деяких реалізаціях Long Poll працює інакше — це клієнт обриває підключення. Але в AWS SQS все залежить саме від сервера.

Отже, що відбувається під час обриву звʼязку? Тут є важливий момент: обривів звʼязку не існує. Підключення TCP - це лише домовленість між клієнтом та сервером про майбутній обмін пакетами. Але відрізнити відсутність пакетів від “обриву” просто неможливо. Немає ніякого другого каналу, через який ми можемо “побачити” сервер та дізнатися, чи він досі підключений. Ти знаєш про це тільки з того, що він надіслав тобі пакет.

А отже виходить, якщо клієнт чекає відповідь через Long Poll від відключеного сервера — він ніколи не отримає пакетів, але також не отримає й помилки. І буде чекати звістки… нескінченно.

Вихід з цього зрозумілий: впровадити тайм-аут з боку клієнта. Що взагалі гарна ідея в будь-яких ситуаціях, як бачимо! Обриви звʼязку — абсолютно нормальна ситуація в інтернеті.

В деяких AWS SDK цей тайм-аут вже зробили — наприклад, aws-sdk-js та aws-sdk-php. А в aws-sdk-go - поки ні. Зате його можна додати вручну з тим же ж результатом. Тайм-аут цей повинен трохи перебільшувати інтервал очікування, і тоді ми будемо надійно захищені від обривів.


27.10.2025

Що такого особливого в AWS us-east-1?

Якщо ти трохи спостерігаєш за подіями в інфраструктурі, може в тебе є два питання. Ну те, що us-east-1 - це регіон, тобто ізольована частина AWS, розташована умовно на сході США — сподіваюся, і так зрозуміло. Та, хоч в AWS є понад 30 регіонів, чому здається, що всі користуються AWS us-east-1? Та чому як проблеми з AWS - то обовʼязково саме us-east-1? Вони що дурні?

us-east-1 є найстарішим регіоном в AWS. Звісно, тут набереться найбільше клієнтів, особливо тих, що вже великі та успішні. Але також, цей регіон обріс найбільшим шаром технічного боргу. Попри це…

us-east-1 є першим регіоном для всього нового. Будь-який сервіс спочатку запускається в us-east-1, та інші регіони інколи суттєво відстають. А значить, є суттєво стабільнішими. :) Мабуть, в ідеальному світі самий “заборгований” регіон не був би ще й передовим по фічах, але маємо те що маємо.

us-east-1 є найдешевшим регіоном. Та це безперечно приваблює бізнеси. Я гадаю, роль “гама-тестерів” врахована в ціні, щоб клієнти не розбігалися, а навпаки — прибігали. Хоча я раджу обирати будь-який інший регіон (наприклад, eu-west-1.)

us-east-1 містить контрольну площину. Такі фундаментальні сервіси, як IAM чи Route 53 - існують саме в цьому регіоні. Тож, деякі проблеми в us-east-1 будуть розповсюджуватися й на всі інші регіони. Наприклад, проблеми з DNS чи моделлю авторизації.

Отже, якщо підсумувати, us-east-1 є “столицею” AWS. Проблеми в ньому й більш ймовірні, й більш помітні, ніж в будь-якому іншому регіоні. Тож немає нічого дивного в тому, що він завжди на слуху.


24.10.2025

Всі способи, якими я хостив PHP

Цікаво, що починався PHP з парадигмою “я вказую шлях до файлу зі скриптом на сервері та викликаю його”, а прийшов до “застосунок є сервісом, який обробляє запити”. І тепер скриптові мови не так вже й відрізняються від компільованих.


23.10.2025

Як я написав форум з нуля, а потім переписав

…Багато років тому, ще до соціальних мереж, в Дніпрі був студентський форум. Створили його Діма та Макс, форум зібрав навколо себе вагому кількість користувачів, це було цікаво та весело, зʼявилася спільнота, яка щотижня збиралася офлайн.

Але в певний момент форум зник. Ну, тобто сайт перестав працювати. Я вже не памʼятаю чому — чи то технічні проблеми, чи то організаційні. Так чи інакше, спільнота залишилася, сайту немає, а власники кудись ділися — може, відпочивати поїхали.

Зате був я. Я на той час захоплювався програмуванням ігор, а про вебтехнології знав небагато. Ну, сайт в мене вже був, але ж то HTML на якомусь безплатному хостингу. На PHP я може щось зовсім іграшкове до того робив.

Отже, думаю, немає старого форуму — напишу новий! І написав. За кілька днів в мене вже була робоча версія форуму на PHP+MySQL. До того ж я не знав, де його хостити, тому кілька тижнів форум жив в мене на локальній машині, доступній ще й через GPRS. Кожна сесія давала мені нову IP адресу, яку я оголошував десь по ICQ та форум оживав. Головне, що спільноті було де спілкуватися.

А потім власники першого форуму повернулися, відновили його, та форумів стало два. Я, звісно, свій не захотів зупиняти, тому кілька місяців в нас були політичні сутички, розколи і таке інше. От, наприклад, тоді я дізнався, що форум не обовʼязково писати з нуля, а можна взяти готовий рушій. У них був vBulletin, або в народі — булка.

Хоча хіба справжній програміст буде брати готовий рушій? Та ні… Коли я почав розуміти, що написаний за тиждень форум був написаний жахливо — а весь його код був у кількох величезних файлах — то взяв та переписав рушій наново ще раз, з нуля. Друга версія була значно краще продумана та навіть трохи страждала від “синдрому другої версії”, тобто випуск її трохи затягнувся.

Звісно, потім зʼявилися соціальні мережі та вбили обидва форуми. Тільки згодом я зрозумів, наскільки це визначна, але дурна праця — писати форум з нуля. Що тут сказати? Принаймні цей проєкт приніс мені першу роботу.


22.10.2025

Авторизація OAuth з iOS

Невдовзі мій стохастичний таймтрекер Ping набуде інтеграції з Beeminder. (Beeminder це сервіс для обліку просування до цілей — який штрафує тебе, якщо ти не виконуєш обіцянок.) Власне, ідею стохастичного таймтрекінгу винайшли саме автори цього сервісу, тому така інтеграція зробить Ping дійсно корисним для однієї дуже важливої спільноти.

Інтеграція починається з автентифікації. Вона у Beeminder потребує діалогу OAuth. Я, звісно, багато разів проходив таку автентифікацію в чужих застосунках на iOS - знаєш, коли відкривається браузер і ти там вводиш логін/пароль. Але не мав гадки, як її реалізують.

Виявилось, все ще простіше, ніж я думав. Браузер відкриває не сам застосунок, а фреймворк Authentication Services. Нам достатньо побудувати URL для авторизації та створити ASWebAuthenticationSession. Та другий момент — щоб повернутися назад, URL редиректу повинен мати особливу схему, щось на кшталт ping://beeminder-auth. Коли браузер побачить цю схему, то завершить автентифікацію та поверне нам остаточний URL - в якому сидить токен.

Гадаю, таким саме чином можна зробити авторизацію через Google або інші провайдери OAuth. А мені залишалося тільки зберегти токен. Для чого є API Keychain services. Я, якщо чесно, спочатку збирався просто в базу зберігати, але виявилось, що є безпечніший спосіб.


21.10.2025

Fail Fast проти Hang In There

Є дві протилежні поведінки застосунку, коли виникають проблеми з його залежностями, або взагалі непередбачені ситуації. (Назви я тільки що вигадав.)

Fail Fast: якщо ми опинилися в ненормальному стані, то за майже визначенням програма не зможе з нього вибратись. Отже, краще, що можна зробити — це зупинити застосунок та дозволити супервайзеру запустити його наново. Переваги цього підходу: з чистого аркуша не виникне внутрішніх розбіжностей, бо ми точно знаємо, що кожна підсистема буде знову в передбаченому стані. Плюс, такий підхід робить застосунок простіше.

Hang In There: застосунок повинен триматися, хай би що трапилося. Кожну помилку пробувати наново. За браком залежності продовжувати без неї, в обмеженому режимі. Взагалі ніколи не зупиняти застосунок, поки не отримаємо на то сигнал. Переваги тут — що не буде перезапуску, власне.

Обидва підходи мають своє застосування. Колись я вважав, що в сучасній інфраструктурі з контейнерами Fail Fast - очевидний вибір. Але дедалі більше хочеться робити застосунки, які не будуть перезапускатися. Зокрема, перезапуск ризикує зробити із поганого гірше, як зі мною вже траплялось.

Вчорашній простій AWS us-east-1 це підкреслив, бо в нашому випадку найдовше не було можливості запускати нові задачі. Отже, те, що трималося — працювало, а те, що очікувало на перезапуск — просто впало до закінчення інциденту. (До речі, також не могли стартувати лямбди, а вони можуть бути тільки Fail Fast.)

Хоча здається, був і протилежний приклад: черги SQS не спричинили відмову споживачів, а просто припинили доставляти повідомлення до перезапуску клієнтів. Поки не зрозумів, чому так сталося.


20.10.2025

Робота із Windows по SSH

Є в мене домашній сервер на Windows. Точніше не так: в мене є ігровий компʼютер на Windows, але оскільки в ньому потужна відеокарта та й решта заліза, він чудово підходить для важких задач, як-от бібліотеки Plex. У 2023 я писав, як перекодовував фільмотеку у HEVC.

Тоді я робив всю роботу на макбуці, а на Windows потім тільки запускав bat-файл для перекодування. Для обмеженої задачі того вистачало. Але тепер стикнувся із тим, що читання файлів у випадковому порядку — з мережевого диска значно повільніше за локальне. Та аналіз кодеків утилітою Mediainfo не закінчився за декілька годин. Отже, вирішив запускати скрипти безпосередньо на Windows.

Але, власне працювати на Windows в мене не було бажання аж зовсім. Зате у Windows є вбудований сервер SSH. Це вже половина справи — можна відкривати термінал та щось там робити. Було б чудово, аби в Windows були нормальні команди оболонки, а не dir замість ls і так далі — але жити можна. От тільки ж Ruby немає.

Ну то й що, chocolatey робить встановлення Ruby в одну команду: choco install ruby mediainfo-cli. Серйозно, без Chocolatey на Windows взагалі немає чого робити. (Також можна було встановити Mise, але поки потреби немає.)

Залишилося питання того, як доставити скрипт на компʼютер із Windows. Окрім того, що можна було змонтувати мережевий диск та редагувати файл прямо там, можна скористуватися звичайним scp, бо він також працює без жодних проблем. Я чомусь про мережевий диск забув, а зробив собі скрипт по типу scp script.rb pc:. && ssh -tt -x 'ruby script.rb'.

От, власне, і все, результату досягнено, те що мережею займало години, локально відбулося за хвилини. Також допомогла рівночасність та клас Thread::Queue, але про то іншим разом.


17.10.2025

Висновки зі спостереження за глюкозою

Кілька висновків від мого експерименту з монітором глюкози. Відразу попереджаю, що я не лікар, а також я ставив монітор з допитливості, а не за медичним призначенням. А ще я не надто педантичний з визначеннями. Отже.

Глюкоза, як, може, всі знають — це паливо нашого організму. Та я раніше вважав, що рівень глюкози в крові й показує “рівень бака” - зростає після їди, та спадає поки голодуєш. Тож очікував побачити звʼязок по типу “перед обідом в мене провал глюкози, а отже важко змусити себе працювати”.

Така аналогія виявилася хибною. Насамперед тому, що “бак” глюкози — це печінка (а потім жирова тканина і так далі, але поки для нас важливо, що це точно не кров.) Кров є лише “буфером”, тобто містить глюкозу, потрібну найближчим часом, а також спожиту з їжі.

Метафора “рівень глюкози = розмір буфера” краще пояснює сенс вимірювати цей рівень. По-перше, він в мене майже ніколи не падав нижче норми, навіть після голодування майже добу. Навпаки, залишався стабільним, майже незмінним. Так що не було таких ситуацій, щоб “мозку нема чого їсти”. Це пояснення ліні можна сміливо скасовувати.

А от після їди “буфер зростає”. Травна система вкидає в кров глюкозу, яку печінка повинна встигнути забрати. Від різного харчування глюкоза вкидається з різною швидкістю, та є низка причин уникати “швидкої” їжі та “переповнених буферів”. Тому, власне, найбільше відкриттів для мене було про “швидкість” різних страв (глікемічний індекс), та, гадаю, це те, що буде цікаво перевірити на собі кожному.

Бо результати здивували. Ну, приємно було побачити, що моє звичайне харчування дуже гладко впливає на графік. Солодощі впливають менше, якщо їсти їх на десерт, а не окремо. А найгірший пік був від хот-дога з заправки — чи то там дійсно багато швидких вуглеводів, чи то допомогло пасивне сидіння за кермом. Ще від ролів — теж здивували. Також солодкі напої помітно бʼють. А алкогольні — не дуже. А ще їжа з Макдональдза на диво помірна. (Хоча, можливо як раз вони-то рецепти вивіряли ретельно.)

Якщо підсумувати… З одного боку не думаю, що стеження за глюкозою здатно суттєво змінити якість життя (як це продають деякі нішеві інфлюєнсери), проте дослідити для себе власну дієту — незамінно. Раджу тільки не ставити монітор спонтанно, а обрати період, коли в тебе буде і нормальне харчування, і особливі випадки.


16.10.2025

Моя система ведення нотаток

В інтернеті безліч описів систем, зазвичай епічно складних — всілякі PARA, zettelkasten, графи знань. Може скластися враження, що ведення нотаток потребує академічної ретельності та відданості. Що ж, я так ніколи не робив, мій “граф нотаток” має вигляд тисяч незʼєднаних вузлів, а все-таки (все ж таки) я щодня покладаюся на ведення нотаток та моя система практично не підводить.

Отже, головна ідея моєї системи: система хороша настільки, наскільки легко в ній знайти те, що потрібно.

Як я шукаю? Майже завжди через плагін OmniSearch для Obsidian. (Власне, це тільки продовження моїх давніх звичок користуватися пошуком замість навігації — через LustyJuggler, Alfred, Sublime Text Search in Project, та Cmd+P у VSCode/Cursor.)

Виходить, мені не дуже важливі теки, теги, звʼязки між нотатками та інша організація. Головне — це наявність влучних ключових слів. На них і будується система організації. Як будується? Якщо потрібне знаходиться, але не з першої спроби — доповнюю ключові слова тими, по якім не знайшов.

Наприклад: якщо в мене була нотатка jeans із посиланнями на гарні джинси, але я намагався знайти її за пошуком pants, то коли нарешті згадаю та знайду, допишу в нотатку також слово pants. (А ще часто джинси та штани.)

Звʼязки між нотатками додаю тоді, коли знаю, що при перегляді однієї нотатки корисно буде побачити й іншу. Наприклад, ймовірно в нотатці clothing буде посилання на jeans. Таких нотаток-каталогів небагато.

Кілька тек в мене є для впорядкування нотаток, які дійсно важливо тримати разом. Наприклад, зони відповідальності. Їх зручно передивитися всі по черзі, та пошук в цьому не допомагає.

Це, звісно, дуже спрощений приклад, бо на практиці нотаток в мене тисячі, і там будуть і jeans from X tv show, і recommended jeans makers, і winter pants, і ще багато всього. Але цей впорядкований хаос залишається корисним — навіть без жорсткої системи.

Втім насамперед потрібно навчитися записувати корисне хоч у якомусь вигляді. І це, я вам скажу, вже нелегка справа. Тож не раджу відразу брати та ускладнювати собі життя складними системами. Ми ж не всі академіки.