Стендап Сьогодні
Що я зробив, що я хочу зробити, і що це все значить.
Повсякденні здобутки в форматі стендапу.
Детальніше в статті
Підписатись на RSS
📢
Канал в Telegram @stendap_sogodni
🦣
@stendap_sogodni@shevtsov.me в Федиверсі
19.01.2026
Динамічність — абстракція, яка тече
Хотів прокоментувати пост з Федиверсу. Якщо коротко: чому в JavaScript звернення pixels[i*2+1] буде швидше за pixels[i].x? Ну тобто, чому масив значень швидше за масив обʼєктів зі значеннями?
Якби це був C чи навіть Go, то відповідь зрозуміла. Там масив — це блок даних в памʼяті, а обʼєкти — окремі блоки. Це зрозуміло, наприклад, тому, що для зміни довжини масиву його потрібно виділяти наново. Операції з безперервним блоком памʼяті - швидше. Але ж JavaScript дозволяє нам взагалі додавати елементи в будь-який індекс масиву, не зважаючи на його довжину. Тобто масиви в JavaScript - це очевидно не просто блок памʼяті. Чому ж все одно масив швидше?
Про представлення даних в JS я вже писав. Навіть в JS масив буде ну в гіршому випадку набором блоків памʼяті. А ще в тому пості є посилання на розгорнуту відповідь про те, що V8 та інші рушії здатні оптимізувати доступ до масиву десь до рівня мови зі статичною типізацією. А от кожний обʼєкт в JS зберігається в памʼяті окремо. Наскільки я знаю.
(Хто працює з C чи Go підтвердить — що там як раз легко зробити масив структур, який буде такий саме швидкий, як “голий” масив. Якщо це були структури, а не вказівники. Де-де, а в C оголошення структур для споживання блоків памʼяті — класична техніка.)
В JavaScript можна піти далі та зробити масив типу Float64Array. От він вже точно буде єдиним блоком памʼяті, як в статичній мові — з такими саме обмеженнями. Якби я робив щось з графікою, то, мабуть, його б і використовував… якщо без нього було б повільно, не треба оптимізувати наперед!
До чого я це все… Навіть в мові, яка не змушує тебе думати про розмір масиву чи типи даних, все одно різні мовні конструкції будуть швидше чи повільніше — незалежно від алгоритмічної складності.
16.01.2026
Думати та діяти
Зловив себе на тому, що справи зрушуються тоді, коли починаєш діяти.
Чи це очевидно? Ну якщо дивитися в ретроспективі, то може й так. Як кажуть англійською, hindsight is 20/20. Можна скільки завгодно думати та планувати — від того у світі нічого не зміниться.
Ну, тільки в мене постійно зʼявляється причина не діяти. Давно вже припинив вірити класичному “немає часу”. Не тому, що він є — навпаки, часу завжди немає, а все-таки, якісь справи робляться. Час то взагалі ілюзія.
Загалом, в мене, діяти заважає те, що справа не продумана. Тобто маємо певну пастку: щоб діяти, треба спочатку подумати. Якщо довго думати, знову нічого не зробиш.
Та, наступна знахідка: скільки не продумувати, але контакт зі світом неодмінно змінює розуміння та плани. Хай то буде розробка нового модуля чи планування відпустки — дуже рідко я відразу, в голові знаю всі нюанси.
Виходить, варто якнайшвидше перейти від гадок до дій. І це для мене важлива деталь. Якщо я досі сиджу та чекаю ідеального плану, чи ідеального моменту — значить, чекати буду довго. Значить, треба або скасовувати таку задачу, або змінити підхід.
Також ділюся способом, який мені дуже допоміг останнім часом: замість пошуку єдиного кращого варіанту, я ставлю собі задачу знайти пʼять варіантів. Пʼять готелів, пʼять продуктів, пʼять альтернатив рішення. Так розслабляється внутрішній критик. Потім чарівним чином зʼявляється той самий правильний вибір — або ж, як писав вище, розуміння того, що навіть питання потрібно переглянути.
15.01.2026
Розширення можливостей помічника ШІ засобами MCP
Нарешті я дістався до MCP. Довгий час вІдкладав, бо це виглядало достатньо складно. Плюс, мені більш-менш вистачало того, що агент здатний досягнути з одними лише командами оболонки. Але, підійшов вдалий момент.
Для тих, хто не знає, MCP (Model Context Protocol) - це спосіб дати агенту ШІ нові інструменти. Типовий агент з коробки вміє редагувати файли, виконувати команди оболонки та шукати в інтернеті. А шляхом MCP до нього можна додати буквально будь-які функції.
Для того нам потрібний сервер MCP. Це допоміжна програма, яка спілкується з оболонкою агента пакетами JSON. Оболонка запускає сервер, забирає з нього набір доступних дій, та робить доступними для агентів. А коли агент звертається до певної дії, передає команди сервера MCP та той їх виконує. Сервер MCP є звичайною програмою та отримує доступ до локальних ресурсів — наприклад, може прочитати файл конфігурації. Також сервер запускається надовго, а значить, може мати власний стан — чи навіть підключення до інших сервісів.
Все це звучить помірно цікаво, якщо мова йде про загальні MCP. Ну може, такий, що вміє надсилати пошту. Ще й з чужим кодом всередині.
Але ось моя головна думка тут: не обовʼязково шукати чийсь незрозумілий MCP. Ти завжди можеш згенерувати собі свій, під конкретні обставини та задачі. Так, я відразу кажу “згенерувати”, а не “написати”, бо писати власноруч сенсу мало. А агент цілком здатний згенерувати MCP за твоїми вимогами.
Мій приклад такий: хотілося мати консоль Rails на стейджингу. Тоді значно спрощується перевірка невидимих частин логіки, бо агент може це робити власноруч. (Ба більше, оскільки він знає код проєкту, то що писати в консоль, теж добре розуміє.) Отже, згенерував MCP, який і знає, як на стейджинг потрапити, і де взяти ключі. Зручно надзвичайно.
14.01.2026
Google BigQuery
Я взагалі не люблю Google Cloud. В них все не як у людей. Але якщо є причина користуватися Google Cloud, то це буде BigQuery.
BigQuery - це база даних OLAP. Не потребує розгортування, тобто доступна як сервіс. Легка на підйом та безрозмірна. Заливаєш туди дані, робиш запити. Працює все швидко навіть на терабайтах даних.
Тут, мабуть, ще відступлю та скажу, що таке база даних OLAP. Така база спроєктована для виконання рідких складних запитів на великих обсягах даних. В протилежність базам OLTP - з якими звикли мати справу розробники — як PostgreSQL чи MySQL тощо. Важливо розуміти, що в базах OLAP завжди закладена “стартова ціна” та навіть на маленьких обсягах вони будуть дорожче та повільніше. Якщо база OLTP здатна грати роль OLAP, поки даних мало, то навпаки не вийде.
В BigQuery легко збирати дані — власне, для OLAP-бази це необхідність. Я навіть писав конектор через gRPC. Але того робити не обовʼязково — є купа вбудованих рішень — наприклад, через Cloud Storage. Або з журналів, звісно.
Зверху BQ є Looker Studio - платформа для звітів та графіків. Наші аналітики від всього цього в захваті. А інженерам важливо знати, чого хочуть аналітики.
Головний недолік BigQuery, для мене — це навіть не сама ціна, а те, що вона привʼязана до обʼєму оброблених даних. Та можна легко пробити дно навіть простим запитом, якщо він достатньо широко бере. Треба бути обережним.
13.01.2026
Вайб-видалення коду
Що, думаєте, LLM здатні тільки генерувати код? Поганий, брудний, зайвий код?
А якщо я скажу, що сьогодні видалив понад 1000 рядків коду — повністю через Cursor? Власноруч не видалив жодного рядка! Просто написав запит, зачинив очі, та — код зник!
Йдеться про певну застарілу функціональність, яка знята з використання ще три роки тому. Але видалити не було нагоди, бо ця тисяча рядків коду розкидана по багатьох частинах та шарах застосунку. Досі вона сиділа та чекала, поки в когось зʼявиться зайвий день, щоб її вичистити. (А не зʼявиться він ніколи.)
Аж от сьогодні робив подальший рефакторинг, та помітив, що зачіпляю цей застарілий код. Тож відклав поточну задачу та запустив агента на видалення.
Агент все знайшов за лічені хвилини. Причому це ж Rails, тому рядки треба шукати як BlueMoon, так і blue_moon, а на фронтенді ще й redMoon - бо функціональність колись перейменували. І тести вичистив. І маршрути. І всі згадки в інших моделях. Ще й Rubocop заспокоїв.
(До речі: що стосується Rubocop та інших інструментів, то я роблю так: запускаю, та якщо щось йде не так — виділяю весь вихід комбінацією Cmd+Shift+Up та надсилаю агенту: Cmd+L. Нехай розбирається.)
До чого я веду. У вас, певно, багато такого брухту, від якого просто немає часу позбавитись. Делегуйте це агентам.
12.01.2026
Реверс-інжинірінг власної мети
Початок року — традиційний час, коли люди думають про майбутнє та ставлять цілі. Потім про них забувають, бо цілі надто розбігаються з реальністю.
Адже в реальності в нас і так завжди є певна мета. Тут, як на мене, важливо розрізняти мету політичну та фактичну. Перша — те, що ми проголошуємо назовні. Друга — керує нашим життям.
Тому, ось ідея. Замість того щоб шукати оту високу політичну (чи поетичну?) мету — знайти у своєму звичайному житті мету фактичну. Прийняти її. Та спробувати рухатися за цією метою, тільки вже свідомо.
Ну, наприклад, непогана мета - “забезпечувати сімʼю” чи “бути корисним на роботі”. Може, воно не так яскраво звучить, але в усвідомленні таких речей зʼявляється особиста свобода — далі ти їх робиш, бо ти хочеш, а не тому, що від тебе хочуть.
Втім, піти в спортзал та добре харчуватись теж завжди вчасно.
А ще на цю тему є комікс.
09.01.2026
Не люблю додавати сервіси
Знаєте, я колись грався в мікросервіси. Один раз. Вистачило.
Зараз в мене сувора нелюбов до створення сервісів. Нехай буде не так красиво, зате ефективно.
Та й де там красиво. Красиво — це поки не вглядаєшся. Та не думаєш про ціну розділення.
Інфраструктура — це найдорожче, що є. Мало того що буквально доведеться за неї платити. Але також підтримувати доведеться більше. Розгортування налаштовувати. Моніторинг. Забезпечити надійність.
Та й в коді ще один застосунок — теж ціна. Бо тепер доведеться окремо стежити за стилем. Повторювати базові речі. Оновлювати залежності.
А тепер ще й комунікувати з додатковим сервісом буде складніше. Треба API робити. Злагоджувати. Спрощувати інтерфейс: ніякого спільного стану, ніяких замикань.
Тому мені завжди хочеться обійтися мінімумом сервісів. Одним? Та ні, можна взагалі не робити власних сервісів та взяти щось на кшталт Firebase. Оце так!
08.01.2026
2 помилки в наступних діях у GTD
Сьогодні пощастило цілий день сидіти без світла. На роботі взяв вихідний, відкрив контекст “Вдома”, та поробив з нього все, що міг. Така вона, сила контекстів! (А також — обмеження часу за компʼютером.)
Отже, розповім про дві помилки в наступних діях, які мені часто допікають.
Нумер перший: дії ““розпланувати Х” чи “подумати над Y”. Коли не зрозуміло, як розпочати певний проєкт, кортить записати щось подібне та перестрибнути далі. Тільки таким діям бракує конкретики; а як ми знаємо, де немає конкретики на момент розбору — там ми будемо буксувати під час виконання.
Незрозумілості можуть бути на різному рівні. Може, сам проєкт недостатньо визначений чи ми погано про нього знаємо. Тоді допоможе щось як “Сформулювати 5 критеріїв успіху Х.” Або “Записати постановку задачі Y одним параграфом.” Допоможуть питання для продумування проєктів.
А може, задача ясна, але ти ніколи такого не робив та не вмієш. Тоді можна “Спитати в А, як він робив Х.” Чи “Знайти книжку про Y”. Чи, в наші часи, звернутися до LLM та розблокувати себе за мить.
Нумер другий: дії, для яких ніколи не буде часу. Типовий приклад — географічні дії: “відвідати таке-то місце”. Якщо воно не розташоване на звичному маршруті, то така дія — це цілий прихований проєкт з власним плануванням.
Отже, розмотуємо: напевно, відвідання треба запланувати, тобто записати в календар. Можемо визначитися та зробити це зараз? Чудово. Не можемо? Може треба домовитись з кимось? Або чого чекаємо? Тобто, за GTD, що запишемо в список очікування? Нічого конкретного, просто не хочеться зараз робити? То що, проєкт пересувається до мабуть/колись? От і зʼясували.
Взагалі треба бути готовим до того, що ефективним наступним діям вчишся поступово, тож нічого дивного, що спочатку будеш наче все робити за правилами, а тертя в системі залишиться.
Нагадую, що в суботу 10.1 о 16:00 за Києвом буде воркшоп з усієї цієї історії з GTD, а доєднатися до нього можна через Patreon.
07.01.2026
Проблема гуркітливого табуна
(Як звучить, га? Thundering herd, може, чули.)
Так називається ситуація, де багато споживачів одночасно звертаються до одного обмеженого ресурсу.
Певно, найтиповіший випадок — одночасний старт багатьох копій сервісу. Та, припустимо, цей сервіс зчитує з бази складну конфігурацію. Якщо сервіс один, все проходить непомітно. Але з декількома копіями база несподівано лягає. Під копитами гуркітливого табуна.
А якщо ви покладете конфігурацію в кеш, проблема не те щоб зникає. Бо все одно всі звернуться до бази, аж поки перший запит не завершиться та в кеші не зʼявиться значення. Так само буде й після вичерпання терміну придатності кешу.
Інший приклад: класична помилка планувати повторювані задачі на початок дня чи години. Чітко на нуль хвилин. Таке призводить до раптового вичерпання ресурсів системи. (Зокрема, поштові сервіси отримують пікове навантаження саме в рокові нульові хвилини.)
Порятунок від гуркітливого табуна, зазвичай, це розосередження викликів. Впровадження маленької випадкової розбіжності: 1 min + rand(5) s. Уникнення монотонності. Словами Франка Герберта, walk without rhythm and it won’t attract the worm.
Є й інший, значно складніший вихід. Але він допоможе, коли виклики відбуваються непередбачувано. Це згортання запитів (request coalescing або request collapsing.) Власне, потрібний посередник, який буде відстежувати однакові та одночасні запити, робити лише один, та роздавати результат усім. Наприклад, цим може займатися nginx з директивою proxy_cache_lock.
06.01.2026
OmniWOPE - тепер в Discord
На новорічних канікулах додав можливість виводити в Discord до OmniWOPE - мого рішення для кроспостингу.
Хотів ще до Patreon постити, але там, несподівано, не знайшлося для цього API. Постити можна тільки вручну. Ну, нічого не поробиш.
А в Discord все достатньо просто — є JSON API. Ним можна створювати пости із форматуванням, які чудово лягають під мій контент. Щоправда, доведеться кожному користувачу створити для себе застосунок та бота — адже запускається скрипт на їхньому компʼютері. Ну але то таке, розвага на один раз.
Звісно, ще простіше було реалізувати все через LLM, бо я практично не писав коду сам. Поточний підхід — ретельно пропрацювати план в Markdown, а потім запускати на виконання. (Це 100% тема для майбутнього воркшопу.) Причому LLM здатна пропрацювати всі аспекти — і дослідження, і тестування, і написання інструкції.
З цікавих моментів була ідентифікація каналу. Спочатку я збирався вказувати в конфігурації назву каналу. Бо ID каналу в UI ніде не світиться. Але назви недостатньо без ID спільноти (яка в API називається guild, до речі.) Тому знайшов прямий та в ретроспективі очевидний підхід: з каналу легко скопіювати посилання для поширення; це посилання і містить ID як каналу, так і гільдії. Люблю, коли URL дійсно є Універсальним Локатором Ресурсу, а не чимсь там іншим.
Хотілося б ще додати вихід у поштову розсилку. Може, навіть через Mailtrap.

