Середа, 6 Травня, 2026
Додому Блог

Як зміниться капіталізм, якщо рахувати не лише статки, а й щедрість

0

У Forbes роками вимірюють багатство людей за розміром їхніх статків — і саме це стало глобальним еталоном успіху. Такий підхід має побічний ефект: надбагаті мають стимул накопичувати, а не віддавати. У новій доповіді на TED команда Forbes на чолі з Рендаллом Лейном пропонує радикальну корекцію цієї логіки — новий показник True Net Worth, що враховує не лише те, скільки людина має, а й скільки вже віддала на благодійність.

What if we tracked how much the richest people give, not jus

True Net Worth: формула, що «повертає» пожертви в капітал

Ключова ідея проста: якщо суспільство хоче заохочувати філантропію, її потрібно вимірювати так само системно, як і статки.

True Net Worth визначається як:

звичайна оцінка статків + сума пожертв, які умовно «оцінюються так, ніби людина все ще ними володіє».

Тобто, якщо мільярдер віддав значну частину капіталу на благодійність, у рейтингу True Net Worth це не «карається» падінням у списку, а навпаки — враховується як частина його «справжнього» багатства. Логіка в тому, що:

  • гроші, спрямовані на суспільне благо, є не менш значущим проявом впливу, ніж активи на рахунках;
  • публічний рейтинг, який винагороджує щедрість, може змінити поведінкові стимули для надбагатих.

Таким чином, новий показник не замінює традиційні списки, а додає ще один вимір — наскільки людина використовує свої ресурси на користь інших.

Хто виграє від нової оптики: приклад Маккензі Скотт

Запуск True Net Worth уже показує, як змінюється картина, коли до уваги беруться пожертви. Один із найяскравіших прикладів — Маккензі Скотт.

За класичним підрахунком статків вона:

  • 84-та у світі за розміром капіталу.

Але в рейтингу True Net Worth її позиція кардинально інша:

  • 26-та у світі з урахуванням пожертв.

Причина — масштаб і характер її філантропії. Вона:

  • віддає гроші дуже швидко;
  • робить це без умов і «прив’язок»;
  • діє масштабніше й гнучкіше, ніж більшість благодійників в історії.

У новій системі це не «зменшує» її багатство, а навпаки — підкреслює його суспільну цінність. Скотт стає не просто багатою людиною, а рольовою моделлю того, як можна розпоряджатися великим капіталом.

Чому вимірювання щедрості може змінити правила гри

Фундаментальний тезис ініціативи: люди не цінують те, що не вміють виміряти. Поки суспільство й медіа фіксуються лише на цифрах статків, філантропія залишається «другорядною» в очах багатьох заможних людей.

True Net Worth пропонує:

  • нову систему статусу — де висока позиція пов’язана не лише з накопиченням, а й з віддачею;
  • видимі приклади для наслідування — не тільки для мільярдерів, а й для мільйонерів і навіть людей із набагато меншими доходами;
  • зміну суспільного запиту — від «хто найбагатший» до «хто найбільше робить для спільного блага».

Це може вплинути на поведінку заможних людей так само, як колись вплинули перші списки мільярдерів: статус починає залежати від іншого набору показників.

«Давай, поки живеш»: нова норма для всіх, не лише для мільярдерів

Попри фокус на надбагатих, запропонований підхід має ширший меседж: щедрість — це не тільки про гроші й не тільки про мільярдерів.

Ключові принципи, які пропонується зробити новою нормою:

  • «Give while you live» — віддавай, поки живеш. Не відкладати благодійність «на потім» чи лише на спадок.
  • Віддавати швидше й більше, ніж комфортно. Ідея в тому, що реальний вплив часто вимагає виходу за межі звичної зони безпеки.
  • Давати не лише гроші, а й час. Волонтерство, експертиза, особиста участь — усе це теж інвестиції в суспільне благо.

У підсумку така модель підтримує систему, в якій «усі стають заможнішими» не лише в грошовому вимірі, а й через доступ до можливостей, сервісів і безпеки, що фінансуються за рахунок приватної щедрості.


Джерело

What if we tracked how much the richest people give, not just what they make? #TEDTalks

Чому хороші інженери частіше кажуть «ні»

0

У розмові на каналі The Pragmatic Engineer творці Flask та Pi обговорюють парадокс сучасної розробки: чим легше стало «просити» інструменти й ШІ‑агентів зробити щось за нас, тим важливішою стає здатність інженера відмовлятися від зайвих рішень.

two women sitting infront of table

Інженер, який каже «ні»

Ключова теза проста: хороший інженер — це той, хто часто каже «ні».
Йдеться не про пасивний опір змінам, а про усвідомлене обмеження:

  • «Ні» до зайвих фіч, які ускладнюють систему.
  • «Ні» до рішень, які не масштабуються.
  • «Ні» до змін, що не мають достатнього обґрунтування.

Старші інженери зазвичай добре відчувають ціну кожного «так»: технічний борг, підтримка, ризики, приховані витрати. Саме тому їхня перша реакція на нову ідею часто стримана.

Як агенти й ШІ стимулюють нескінченне «так»

З появою агентів та генеративного ШІ поведінка команд змінюється. Коли можна просто «попросити» систему зробити ще одну задачу, додати ще одну можливість або згенерувати ще один варіант, з’являється спокуса погоджуватися на все:

«Так, хочу це, і це, і ще ось це — бо мені не потрібно набирати це вручну».

Ця легкість породжує низку проблем:

  • Зростає кількість ініціатив без чіткої пріоритизації.
  • Команда перевантажується завданнями, які не пройшли критичний відбір.
  • Втрачається культура обґрунтованого «ні», бо здається, що виконання «нічого не коштує».

Насправді ж вартість з’являється пізніше — у вигляді складнішого коду, заплутаної архітектури та важкої підтримки.

Новий конфлікт: старші інженери проти «озброєних» джунів

Окремий пласт — динаміка між досвідченими й молодшими інженерами. Типова ситуація:

  • Старший спеціаліст каже «ні» певному рішенню, спираючись на досвід.
  • Через 48 годин молодший інженер повертається з результатами роботи агента й каже:
    «Я поговорив з агентом, тепер у мене є всі докази, чому ми не повинні робити це так».

Тобто інструмент, який мав допомагати, перетворюється на «аргумент авторитету». Замість дискусії про контекст, компроміси й довгострокові наслідки, з’являється спроба підкріпити позицію «машинним» висновком.

Це змінює баланс у команді: досвід і інтуїція старших інженерів починають конкурувати з відповідями агентів, які не несуть відповідальності за наслідки.

Аналогія з медициною: «ось, що сказав ШІ — зробіть так»

Ситуацію порівнюють із тим, як пацієнти приходять до лікаря з роздруківкою з ChatGPT:

«Ось що сказала машина. Ви краще зробіть так».

У цьому сценарії:

  • Машина видає текст, який виглядає переконливо.
  • Людина сприймає це як інструкцію, а не як підказку.
  • Фахівець (лікар чи інженер) змушений сперечатися не з людиною, а з «авторитетом» алгоритму.

Для інженерії це означає: якщо команда беззастережно довіряє агентам, роль професійного судження знецінюється. Натомість саме воно має бути фільтром, який відсіює небезпечні або зайві рішення.

Висновок: ШІ не скасовує потребу в «ні»

Автоматизація й агенти не знімають з інженерів відповідальності за вибір. Навпаки, чим більше інструменти спрощують створення коду та рішень, тим важливішою стає здатність:

  • ставити під сумнів кожне нове «так»;
  • не сприймати відповіді агентів як остаточну істину;
  • захищати технічну цілісність продукту навіть тоді, коли «машина каже інакше».

У цьому контексті «хороший інженер каже “ні” часто» звучить не як консервативний девіз, а як необхідна умова виживання проєктів у добу ШІ.


Джерело

YouTube: https://www.youtube.com/watch?v=GkEWAzx2xRI

Volkswagen став найбільшим акціонером Rivian замість Amazon

0

Volkswagen витіснив Amazon з першого місця та став найбільшим акціонером Rivian, про що свідчать нові документи, подані до Комісії з цінних паперів і бірж США (SEC).

Volkswagen став найбільшим акціонером Rivian замість Amazon

Частка групи VW у капіталі Rivian, яка зросла з 8,6% до 15,9% менш ніж за два роки, пов’язана зі спільним підприємством з виробником електромобілів. Joint venture Rivian та Volkswagen Group Technologies, офіційно створене у листопаді 2024 року, зосереджене на розробці електронної архітектури та програмного забезпечення.

Ця частка й надалі зростатиме, якщо Rivian й надалі виконуватиме свої зобов’язання за угодою.

VW зобов’язалася інвестувати в Rivian 5,8 млрд доларів. Цей капітал відкривається траншами після досягнення визначених етапів. Німецький автовиробник розпочав угоду з початковою інвестицією у 1 млрд доларів, а ще 1 млрд доларів додав у середині 2025 року.

Ще 1 млрд доларів Rivian отримала минулого місяця після завершення зимових випробувань VW ID.EVERY1 — невеликого п’ятидверного хетчбека, який стане першим автомобілем у межах спільного підприємства, оснащеним новою електронною архітектурою та ПЗ Rivian.

Останні документи, подані до SEC у понеділок, показують, що група VW тепер володіє 209,7 млн акцій Rivian.

Amazon, давній інвестор і клієнт компанії, нині має 12,28% Rivian. Amazon інвестувала 700 млн доларів у Rivian ще тоді, коли це був приватний стартап. У 2021 році, напередодні IPO Rivian, Amazon розкрила, що володіла 20% компанії. Amazon для Rivian не лише інвестор, а й замовник: у вересні 2019 року Rivian уклала угоду з Amazon на виробництво 100 000 електричних фургонів для доставки.

Серед інших великих акціонерів — Oryx Global з часткою 8,6% та Vanguard з 5,1%. Засновник і генеральний директор Rivian RJ Скари́ндж володіє близько 1,1% акцій компанії.

Угода з Volkswagen стала критично важливою для виробника електромобілів у момент, коли Rivian витрачала сотні мільйонів доларів на R&D і намагалася якнайшвидше довести свій кросовер R2 від дизайну до конвеєра. Rivian розпочала виробництво R2 у квітні й очікує почати постачання цього середньорозмірного SUV клієнтам у найближчі тижні.

Якщо спільне підприємство VW–Rivian буде успішним, воно може відкрити шлях до ліцензування технологій іншим компаніям або до виходу в нові категорії. Наприклад, joint venture з VW не охоплює ШІ та автономне керування — два напрями, в які Rivian останніми роками інвестує значні кошти. Як свідчить річний звіт компанії, у 2025 році Rivian витратила на R&D 1,7 млрд доларів проти 1,6 млрд доларів у 2024-му. Значна частина цих коштів спрямована саме на розробку систем автономного керування — настільки значна, що компанія була змушена відтермінувати ціль виходу на прибутковість за межі 2027 року.

Джерело

TechCrunch

Ремейки Myst і Riven виходять на PlayStation та Xbox

0

Розробник Cyan Worlds випускає ремейки класичної пригодницької гри Myst та її продовження Riven для PlayStation 5, Xbox Series X/S і магазину Microsoft Store. Myst раніше вже була доступна на Xbox, але тепер обидві гри ґрунтовно оновили для сучасного заліза, включно зі шоломом віртуальної реальності PlayStation VR2 від Sony.

Ремейки Myst і Riven виходять на PlayStation та Xbox

На PS5 і Myst, і Riven можна грати або в «пласкому» 2D-режимі на екрані, або у VR за допомогою PS VR2. Пласкоформатні версії отримали трасовані променями відображення, а також режим Performance, який підвищує частоту кадрів з 30 до 60 fps в обмін на відключення частини графічних ефектів. Обидві гри підтримують енергозберігальний режим PlayStation Power Saver для зменшення споживання електроенергії й позначені як «PS5 Pro Enhanced», тож на дорожчій консолі Sony гравці побачать «краще промальовану дальність, рослинність, текстури, постобробку та тіні», як зазначено в новій публікації в PlayStation Blog.

Версія Riven для Xbox успадковує покращення, які Cyan Worlds раніше реалізувала у ремейку Myst. Riven підтримує Xbox Play Anywhere, має трасовані променями відображення, включає такий самий режим Performance, як на PS5, і дозволяє грати в 4K з HDR на сумісних дисплеях.

Cyan Worlds за роки випускала кілька версій Myst і Riven, але активна модернізація обох ігор почалася у 2020-му з виходом Myst для шоломів Meta Quest. Та версія вперше перенесла світ Myst у повноцінний 3D-формат та додала інші покращення. Пізніше студія випустила нереаліті-версію ремейку для ПК та Mac у 2021 році, а для iOS — у 2023-му. Робота над ремейком Riven почалася пізніше — у 2024 році гра одночасно вийшла на ПК, Mac і Quest.

Ремейки Myst і Riven коштуватимуть по $35 кожна на PS5, Xbox Series X/S і в Microsoft Store, реліз запланований на 19 травня. Myst для Xbox Series X/S уже можна придбати.

Джерело

Engadget

CEO ASML: конкуренти нас не наздоганяють

0

Щоразу, коли ви користуєтеся ШІ, ви певною мірою залежите від 42‑річної нідерландської компанії з 44 000 співробітників, яка щороку витрачає €4,5 млрд на розвиток своїх технологій.

CEO ASML: конкуренти нас не наздоганяють

ASML, штаб‑квартира якої розташована в Нідерландах, виробляє машини, які виготовляють чипи, що роблять ШІ можливим. Точніше, вона створює єдині у світі машини, здатні друкувати мікроскопічні візерунки на кремнієвих пластинах, які визначають найпросунутіші напівпровідники. Цей процес називається літографією в екстремальному ультрафіолетовому діапазоні (EUV). Машини мають розмір зі шкільний автобус, їх складання триває місяцями, вони залежать від сотень постачальників і коштують від $200 млн до понад $400 млн за одиницю залежно від покоління (ціни, які змушують замислитись навіть найбільших замовників ASML).

Монополія зробила ASML найдорожчою компанією в Європі з ринковою вартістю понад $530 млрд. А з огляду на те, що чотири найбільші американські технологічні компанії — Microsoft, Meta, Amazon і Google — лише цього року витратять понад $600 млрд на інфраструктуру для ШІ, попит на обладнання ASML зріс до такого рівня, що компанія відкрито заявляє: світу ще роками бракуватиме чипів.

Такий попит водночас зробив ASML і мішенню. Стартап Substrate із Сан‑Франциско, заснований протеже Пітера Тіля, залучив понад $100 млн і отримав оцінку понад $1 млрд, заявляючи, що здатен створити конкуруючу літографічну машину. Окремо з’являлися повідомлення, що колишні інженери ASML у Китаї частково здійснили зворотну розробку технології — перспектива з величезними геополітичними наслідками.

Крістоф Фуке, який став CEO ASML у 2024 році після більш як десятиліття в компанії, зустрівся з редактором TechCrunch на терасі даху свого готелю в Беверлі‑Гіллз у вівторок вранці, напередодні свого виступу на конференції Milken Institute Global Conference. У синьому костюмі та білій сорочці він виглядав розслабленим — навіть коли розмова перейшла до теми конкурентів.

Це інтерв’ю злегка відредаговано задля стислості та ясності.

Ви передбачали вибухове зростання ШІ?

Ні, зовсім ні. Ми дуже наполегливо працювали, але не з думкою, що це станеться саме так. Було так: від концепції — чогось, що колись мало з’явитися — до ChatGPT, який став першим справді вдалим прикладом того, на що здатен ШІ. І тепер ми дивимося на ШІ як на наступну революцію — не лише промислову, а й суспільну. Чи бачив я це заздалегідь? Ні. Сидячи в самому центрі цього процесу щодня, ми інколи прокидаємося вранці й досі перевіряємо, чи те, що відбувається, справді відбувається.

Чи зможе ланцюжок постачання встигати за попитом?

Попит такий великий, що ринок загалом ще тривалий час залишатиметься обмеженим саме пропозицією. Наразі найбільше «вузьке місце» — це виробництво чипів. Ми, як постачальник обладнання, слідуємо за нашими замовниками, і поки що робимо це досить успішно, але ми розуміємо, що маємо масштабувати весь наш ланцюжок постачання та потужності.

Якщо ви поговорите з гіпермасштабними хмарними провайдерами, вони скажуть, що протягом наступних двох, трьох, а можливо, й п’яти років їм усе одно не вистачатиме чипів.

Нещодавно TSMC заявила, що ваші новітні машини надто дорогі. Що ви на це скажете?

Система EUV, якщо подивитися на ціну, справді буде дорожчою за систему з низькою числовою апертурою (low‑NA), але собівартість виготовлення пластины з цим інструментом на деяких передових шарах буде дешевшою. Ми можемо дати 20–30% зниження вартості.

[Примітка редактора: обидві згадані машини — це EUV‑системи, тобто одна й та сама базова технологія. NA — це числова апертура, показник того, наскільки тонко машина може фокусувати світло на чипі. Low‑NA EUV — поточне покоління; High‑NA EUV — новітнє покоління ASML, здатне друкувати ще дрібніші структури, але з цінником від $350 млн за одиницю. Фуке стверджує, що попри дорожчу машину, вона здешевлює виробництво чипів.]

Я часто отримую запитання, чи це буде цього місяця, наступного чи ще за місяць. І зазвичай відповідаю: це насправді не так важливо, тому що ми спроєктували High‑NA на 10–20 років уперед. Якщо повернутися до публікацій 2016–2017 років, ви знайдете ті самі цитати — low‑NA EUV теж здавалася надто дорогою. Ми знаємо, що було потім. Те саме станеться і з High‑NA.

Стартап Substrate, який підтримує Пітер Тіль, заявляє, що створить конкуруючу літографічну машину. Що ви про це думаєте?

Хотіти мати таку технологію й реально її мати — це величезна різниця. У літографії дуже багато викликів. Уміння створити зображення — це лише відправна точка, але потрібно робити це зображення у дуже великих обсягах, за дуже низькою ціною, на високій швидкості й з нанометровою точністю.

Я завжди кажу: єдина причина, з якої ASML змогла створити EUV‑машину, полягає в тому, що 80% цієї системи вже існувало — завдяки попередньому досвіду й продуктам, які ми створювали роками. Нам треба було розв’язати одну проблему — отримати джерело EUV‑світла, і лише це зайняло 20 років. Коли ви стартуєте з нуля, виклик колосальний. Я бачив багато гучних заяв. Бачив кілька фотографій. Але наше перше EUV‑зображення з’явилося 30 років тому, і нам було потрібно ще 20 років важкої роботи, щоб перетворити це на придатну для масового виробництва систему.

А як щодо xLight — лазерного стартапу, який частково підтримує уряд США і який хоче працювати з вами?

xLight фокусується на одному елементі нашої EUV‑машини — джерелі, яке створює світло. Джерело, яке маємо ми, можна розвивати ще багато років, і ми знаємо, як його масштабувати. Те, що робить xLight, — це нове джерело, яке ще потрібно створити й довести його працездатність.

Єдине питання — чи дасть воно перевагу в продуктивності або вартості порівняно з тим, що маємо ми. Думаю, відповідь поки що неочевидна. Ми працюємо з ними, щоб вони могли продемонструвати свою технологію — ми вважаємо це нашою відповідальністю. Але це ще дуже тривалий шлях.

Також є повідомлення, що колишні інженери ASML у Китаї здійснили реверс‑інжиніринг ваших машин

Щоб здійснити реверс‑інжиніринг чого завгодно, спершу потрібно мати саму машину. А жодної EUV‑машини в Китаї немає — ми ніколи туди їх не постачали. Усі інструменти, які ми відвантажили, ми знаємо, де вони знаходяться. Вони або використовуються замовниками, і ми їх відстежуємо, або були демонтовані й повернулися до нас.

Ідея, що одна з наших систем опинилася в Китаї, просто хибна. І оскільки наша EUV‑технологія ніколи туди не експортувалася, у нас там також немає людей, навчених працювати з EUV.

Дуже рано, коли були запроваджені обмеження, ми створили всередині компанії повне розділення між тими, хто може мати доступ до EUV‑технологій, документів і навчання, і тими, хто не може. Наша команда в Китаї перебуває по інший бік цієї межі. Факти свідчать про дуже незначний, якщо взагалі якийсь, прогрес. Людям складно це прийняти, тому що доступ до цієї технології настільки важливий.

Про експортний контроль загалом. Учора тут виступав Дженсен Хуанг, який стверджував, що компанії мають продавати продукти глобально, а більше корпоративних доходів означає більше податкових надходжень для країни. Він також сказав, що головне — тримати найкраще й найновіше ближче до дому. Ви погоджуєтеся?

Я вважаю, він абсолютно правий. Те, що він додає — і, на мою думку, те, що зробила Nvidia, — це можливість зберігати технологічну перевагу, підтримуючи певний «розрив поколінь» у тому, що ви продаєте.

Nvidia продає рішення кількох попередніх поколінь, і це дозволяє їй знаходити баланс між веденням бізнесу та тим, щоб не передавати значну конкурентну перевагу країнам, де ви не продаєте найсучасніші продукти. Ми вважаємо, що такий самий підхід має застосовуватися до наших виробів.

Сьогодні ми постачаємо інструменти до Китаю — у межах дозволеного експортним контролем, — але це інструмент, який ми вперше поставили ще у 2015 році. Якщо застосувати філософію Дженсена до нашої ситуації, Nvidia працює приблизно з восьмипоколінним розривом. Ми говоримо про два‑три покоління. Тут є простір для раціоналізації — пошуку правильного балансу між повною відмовою від бізнесу, втратою великої можливості й тим, щоб не спровокувати появу сильних конкурентів.

Як ви оцінюєте ситуацію з поточною адміністрацією США щодо цих питань?

Є хороший діалог, і це дуже важливо. Я думаю, що існує щире розуміння того, що потрібно бізнесу, але все ще лишається виклик — знайти правильний баланс між усіма різними голосами й інтересами.

Діалог є, і ми це цінуємо. Я багато разів бував у Вашингтоні. Принаймні відбувається обговорення. Але тема надзвичайно складна.

Ви, здається, не дуже переймаєтеся тим, що хтось зможе «зрізати шлях» і швидко наздогнати вашу технологію

Люди хочуть мати найкращу технологію, але схильні забувати, що потрібно, щоб її створити. Це багато років роботи — не лише в ASML, а й у наших постачальників. Безліч різних команд розв’язували дуже складні завдання, а потім одна компанія все це інтегрувала, використовуючи десятиліття експертизи в літографії, щоб перетворити це на систему для масового виробництва.

Це зовсім не просто. І я думаю, що саме це — наша найкраща «охорона». Це просто той обсяг зусиль, який був потрібен, щоб усе це зібрати до купи.

Джерело

TechCrunch

Apple дасть змогу обирати ІІ-моделі в iOS 27

0

Коли пізніше цього року вийде iOS 27, користувачі iPhone, за повідомленнями, отримають значно більше можливостей обирати, які саме моделі штучного інтелекту використовувати безпосередньо на пристрої.

Apple дасть змогу обирати ІІ‑моделі в iOS 27

Новий звіт Bloomberg стверджує, що Apple планує дати користувачам вибір з-поміж низки сторонніх великих мовних моделей, які зможуть забезпечувати роботу різних функцій у мобільній операційній системі. Нова можливість, яка всередині компанії має кодову назву Extensions, дозволить користувачам «за потреби отримувати доступ до генеративних ІІ‑можливостей з установлених застосунків через функції Apple Intelligence, зокрема Siri, Writing Tools, Image Playground та інші», йдеться в повідомленні, яке нібито з’являється в тестових версіях ПЗ.

За даними видання, ця можливість з’явиться також в iPadOS 27 та macOS 27. Наразі, за інформацією Bloomberg, тестуються моделі Google та Anthropic. Менше зрозуміло, яке місце в цій схемі посідає ChatGPT. Оскільки зараз саме він доступний користувачам, можна припустити, що він також залишиться одним з варіантів.

TechCrunch звернувся до Apple по додаткову інформацію.

На тлі швидкого наближення відставки багаторічного генерального директора Тіма Кука новий керівник компанії Джон Тернус отримує завдання окреслити майбутнє Apple — зокрема й її стратегію в галузі ШІ. Компанію часто вважають такою, що «відстає» в цій сфері, адже вона не запускає стільки нових ІІ‑сервісів, як деякі конкуренти.

Водночас Apple уже отримує значні доходи від рішень на основі штучного інтелекту, а її план полягає не стільки у масштабному інвестуванні в ІІ‑інфраструктуру та сервіси, скільки в тому, щоб перетворити наявні апаратні продукти на ІІ‑центричний досвід для користувачів.

Джерело

TechCrunch

Xbox відмовляється від Copilot на консолях і в застосунку

0

Microsoft у березні оголосила про плани поступово прибирати Copilot з окремих застосунків Windows після хвилі критики щодо того, як компанія поводиться зі своєю операційною системою. Тепер з’ясувалося, що Windows — не єдине місце, де користувачі менше бачитимуть Copilot: генеральна директорка Xbox Аша Шарма повідомила, що цей AI-асистент також зникне з мобільного застосунку і консолей Xbox.

Xbox відмовляється від Copilot на консолях і в застосунку

За попереднього керівництва Xbox Copilot позиціонувався як ігровий асистент, який розуміє, у що ви граєте, та може пропонувати контекстні поради залежно від того, що відбувається на екрані. Microsoft запустила бета-версію цього досвіду, додавши Copilot до мобільного застосунку Xbox у травні 2025 року. Втім, згідно з презентацією на GDC у березні, компанія планувала запустити Copilot і на консолях Xbox пізніше цього року. Тепер ці плани, за словами Шарми, «не відповідають» новому курсу Xbox.

«Xbox має рухатися швидше, поглиблювати наш зв’язок із спільнотою та зменшувати тертя як для гравців, так і для розробників, — сказала Шарма. — Сьогодні ми підвищили в посаді лідерів, які допомагали будувати Xbox, а також залучили нові голоси, що допоможуть нам рухатися вперед. Цей баланс важливий, коли ми повертаємо бізнес на правильний шлях. У рамках цих змін ми почнемо згортати функції, які не узгоджуються з нашим напрямом. Ми розпочнемо поступове вимкнення Copilot у мобільному застосунку та припинимо розробку Copilot для консолей».

До того, як очолити Xbox, Шарма була президенткою підрозділу Microsoft CoreAI, і, як повідомляє CNBC, кілька її нових призначенців також переходять звідти. Серед них — віцепрезидент CoreAI з продуктів Джаред Палмер, який приєднається до Xbox та працюватиме над інженерією й інфраструктурою; віцепрезидент CoreAI з дизайну та досліджень Тім Аллен, що тепер очолить дизайн Xbox; а також Еван Чакі, генеральний менеджер CoreAI, який керуватиме командою інженерів, відповідальних за спрощення розробки.

Джерело

Engadget

На тлі спаду інтересу до крипто a16z створює фонд на $2,2 млрд

0

У блозі, де описується бачення майбутнього криптовалют — від «нової фінансової системи» до застережень щодо «непрозорого» штучного інтелекту, — a16z crypto оголосила про запуск нового фонду обсягом $2,2 млрд. Це вже п’ятий фонд венчурної фірми; загалом вона залучила $9,8 млрд, зазначається в заяві.

На тлі спаду інтересу до крипто a16z створює фонд на $2,2 млрд

Разом із новим фондом компанія підвищила свого технічного директора Едді Лаццаріна до посади партнера, довівши інвестиційну команду генеральних партнерів до чотирьох осіб. До Лаццаріна приєдналися Кріс Діксон, Алі Яг’я та Ґай Вуолет. Фонд уже інвестував у такі помітні компанії, як Coinbase, Kalshi та Solana Foundation.

Час для цієї новини дещо іронічний: ринок криптовалют зараз у настільки повільній фазі, що Coinbase в той самий день оголосила про скорочення 14% персоналу. За даними сайту CoinGecko, березень став найповільнішим місяцем за обсягами торгів на криптобіржах з листопада 2023 року.

Венчурні інвестиції у криптостартапи також охололи: за перший квартал 2026 року вони склали близько $5 млрд проти майже $6 млрд за аналогічний період минулого року, повідомляє DLNews з посиланням на статистику криптодатасервісу DefiLlama.

Партнери a16z crypto це визнають. Вони описують, як у періоди зростання крипторинку в галузь заходять великі інвестиції та з’являються численні стартапи, але «зараз ми саме в одному з тих тихіших моментів», пишуть вони. Водночас вони наполягають, що багато чого з того, що будується під час спаду, «зазвичай виявляється кориснішим, ніж здавалося на піку, і більш стійким, ніж виглядало на дні».

Незалежно від стану ринку, гроші венчурних інвесторів для блокчейн-проєктів, які зможуть їх зацікавити, все ще є. Складність для засновників у тому, що деякі з найбільших криптовенчурних фондів зараз дедалі більше спокушаються інвестиціями в AI‑стартапи, де оцінки стрімко зростають.

Наприклад, Paradigm, один із найбільших і найпрестижніших криптофондів, за даними The Wall Street Journal, у лютому почав працювати над залученням нового фонду обсягом $1,5 млрд, щоб розширити свою інвестиційну стратегію на робототехніку та штучний інтелект. Крім того, акселератор Y Combinator, який за роки випустив чимало крипто‑ та блокчейн‑стартапів, у своєму останньому списку «Requests for Startups» взагалі не запитував криптопроєкти.

Раніше цього тижня колишня інвесторка Andreessen Horowitz Кеті Гаун оголосила, що її криптоорієнтована фірма Haun також залучила новий фонд на $1 млрд і продовжить інвестувати на цьому ринку. Водночас вона шукає стартапи в галузі AI‑агентів на перетині з криптовалютами, блокчейном і фінтехом.

Представник останнього фонду a16z crypto запевнив TechCrunch, що його не відволікатимуть «гарячіші» ринки: він буде «на 100% присвячений криптопідприємцям».

Джерело

TechCrunch

Anthropic заплатить Google $200 млрд за чипи й хмару

0

На початку цього місяця стало відомо, що Google та Anthropic уклали угоду, яка надає розробнику моделей ШІ Claude доступ до хмарних серверів і чипів Google. Сьогодні видання The Information повідомило, що Anthropic погодилася заплатити за це вражаючі $200 млрд протягом наступних п’яти років.

Anthropic заплатить Google $200 млрд за чипи й хмару

Подібні контракти, як і нещодавня багатомільярдна угода Anthropic з Amazon, сьогодні формують величезні суми, вже обіцяні деяким з найбільших технологічних компаній світу. За даними The Information, домовленості з Anthropic та OpenAI забезпечили відкладену виручку на суму $2 трлн для Amazon, Google, Microsoft та Oracle.

Ці провайдери хмарних сервісів стали ранніми інвесторами в бум штучного інтелекту, роблячи ставку на те, що стартапи з часом усе більше потребуватимуть їхніх обчислювальних ресурсів, що принесе щедрі дивіденди. Поки що ця стратегія виправдовується. Раніше прогнозувалося, що витрати на сервери у 2026 році можуть сягнути $45 млрд для OpenAI та $20 млрд для Anthropic.

Джерело

Engadget

Apple заплатить $250 млн за затримку оновленої Siri

0

Apple погодилася виплатити $250 мільйонів для врегулювання колективного позову, у якому стверджується, що компанія ввела в оману покупців iPhone у США щодо запуску оновленої версії Siri, представленої разом із Apple Intelligence, повідомляє Financial Times. Компанія показала більш «персоналізовану» Siri на WWDC 2024, але так і не випустила нового AI-асистента майже через два роки.

Apple заплатить $250 млн за затримку оновленої Siri

Якщо суддя схвалить угоду, вона покриватиме клас, до якого входять покупці в США лінійки iPhone 16 та iPhone 15 Pro. Компенсація має надати фінансову відшкодування всім, хто очікував нову Siri на своєму iPhone. Водночас запропонована Apple угода не зобов’язує компанію визнавати провину за рекламу AI-функцій, які так і не були випущені.

Протягом 2024–2025 років Apple поступово запускала окремі компоненти Apple Intelligence — інструменти для редагування тексту, генерації зображень та інтеграцію з ChatGPT. Однак версія Siri, яка розуміє контекст вмісту на пристрої та може виконувати дії в додатках від імені користувача, так і не з’явилася.

Apple публічно визнала, що буде змушена відкласти це оновлення Siri, лише у березні 2025 року — більш ніж через п’ять місяців після виходу iPhone 16. Цей смартфон компанія просувала як пристрій, здатний запускати Apple Intelligence.

Джерело

Engadget

LiteRT: єдиний стек Google для прискорення AI на кожному пристрої

0

У Google DeepMind активно вибудовують нову інфраструктуру для штучного інтелекту «на краю» — безпосередньо на смартфонах, ноутбуках, IoT‑девайсах та навіть у браузері. На конференції AI Engineer продукт‑менеджер Google Чінтан Парік розповів про LiteRT — оновлений on‑device фреймворк, що лежить в основі Google AI Edge, та про те, як він поєднує сучасні моделі на кшталт Gemma 4 з апаратним прискоренням і кросплатформенним деплоєм.

A close up of a computer motherboard

Сьогодні LiteRT — це не експериментальний SDK, а промисловий стек, який працює в понад 100 тисячах застосунків із мільярдами активних користувачів. Його завдання — дати розробникам єдиний формат моделей, єдину точку деплою та доступ до CPU, GPU й NPU на різних платформах, не змушуючи переписувати код під кожен тип пристрою.

Від TensorFlow Lite до LiteRT: що саме змінилося

LiteRT — це нове ім’я для добре знайомої екосистеми TensorFlow Lite, але з чітким позиціонуванням як універсального on‑device AI‑фреймворку Google. В основі LiteRT лежить той самий формат моделей TensorFlow Lite (TFLite), який роками використовувався в Android‑застосунках, вбудованих системах та на інших платформах.

Ключовий момент: моделі, побудовані раніше на TensorFlow Lite, продовжують працювати під LiteRT без будь‑яких змін формату. Для розробників, які вже мають продакшн‑додатки з TFLite‑моделями, це означає повну зворотну сумісність. Немає потреби перетреновувати, переконвертовувати чи мігрувати моделі в новий бінарний формат — LiteRT просто підхоплює існуючий стек.

Водночас LiteRT формалізує те, що давно назріло в індустрії: тренувати можна де завгодно, а деплоїти — в один уніфікований формат. Фреймворк підтримує моделі, які походять з TensorFlow, PyTorch та JAX, за умови, що вони конвертовані у файл формату TensorFlow Lite. Це створює багатофреймворкову історію тренування з єдиною ціллю деплою: незалежно від того, де й як ви тренували модель, на пристрої вона виглядає як TFLite‑файл, який виконує LiteRT.

Для Google це спосіб закріпити TFLite як де‑факто стандарт on‑device формату, а для розробників — спосіб уникнути фрагментації, коли під кожен фреймворк чи платформу потрібен свій рантайм.

Один формат — усі платформи: як LiteRT розв’язує кросплатформений хаос

Одна з головних обіцянок LiteRT — однаковий формат моделі й однаковий стек виконання на всіх основних платформах. Той самий TFLite‑файл, який працює на Android, може бути використаний на iOS, macOS, Linux, Windows, у вебі та на IoT‑пристроях.

Це важливо з кількох причин.

По‑перше, зникає потреба підтримувати окремі гілки моделей під мобільні, десктопні та вбудовані системи. Команда може мати один артефакт моделі, який проходить тестування й валідацію, а потім розповсюджується в усі клієнтські застосунки.

По‑друге, спрощується життєвий цикл оновлень. Коли виходить нова версія моделі — наприклад, оновлений варіант Gemma 4 для кращого reasoning чи нових функцій — розробник не мусить готувати окремі збірки під кожну ОС. Достатньо оновити TFLite‑файл і, за потреби, налаштування LiteRT‑рантайму.

По‑третє, це знижує поріг входу для команд, які хочуть вийти за межі однієї платформи. Якщо стартап починає з Android‑додатку, але згодом вирішує зробити десктопний клієнт або веб‑демо, модельна частина залишається незмінною. LiteRT бере на себе роботу з адаптації до конкретного середовища виконання.

У підсумку LiteRT перетворюється на своєрідний «універсальний адаптер» між світом тренування моделей і строкатим зоопарком клієнтських пристроїв. Для Google це також спосіб забезпечити консистентну поведінку моделей у власних і партнерських продуктах, незалежно від того, де саме вони працюють.

Масштаб продакшену: 100 тисяч застосунків і мільярди користувачів

На відміну від багатьох нових AI‑фреймворків, LiteRT не стартує з нуля. Це еволюція стеку, який уже давно використовується в екосистемі Google та поза нею. За оцінками компанії, LiteRT (на базі TensorFlow Lite) розгорнутий більш ніж у 100 000 застосунків, які сумарно обслуговують мільярди активних користувачів.

Ці цифри важливі не лише як маркетинговий аргумент. Вони означають, що:

модельний формат перевірений у величезній кількості сценаріїв — від простих класифікаторів до складних мультимодальних пайплайнів;

рантайм витримує навантаження з мільярдами щоденних інференсів, включно з жорсткими вимогами до енергоспоживання, затримок і стабільності;

екосистема інструментів, прикладів і best practices навколо TFLite/LiteRT уже сформована, а не створюється з нуля.

Для розробників це означає, що LiteRT — не експериментальний шлях, а продакшен‑рішення, яке вже використовується у великій кількості комерційних продуктів. А для Google — що будь‑які зміни в стеку мусять бути обережними й зворотно сумісними, і саме тому збереження TFLite‑формату стало ключовим принципом LiteRT.

CPU, GPU, NPU: як LiteRT працює з апаратним прискоренням

Одне з головних завдань on‑device AI — знайти баланс між продуктивністю та енергоспоживанням. LiteRT пропонує розробникам гнучкий доступ до різних типів апаратних ресурсів, дозволяючи обирати, де саме виконувати модель: на CPU, GPU чи NPU, залежно від можливостей пристрою й вимог застосунку.

Підтримка CPU є базовою й універсальною. Вона гарантує, що модель запуститься практично на будь‑якому пристрої, навіть якщо там немає спеціалізованого прискорювача. Для багатьох сценаріїв — наприклад, періодичної обробки тексту чи невеликих моделей — цього достатньо.

GPU‑прискорення дає змогу суттєво зменшити затримки для більш важких моделей або реального часу, наприклад, для обробки відео чи складних мультимодальних задач. LiteRT підтримує GPU на кількох платформах, що дозволяє використовувати графічні процесори як універсальний прискорювач там, де немає NPU.

Найцікавіший напрямок — інтеграція з нейромережевими процесорами (NPU) у сучасних мобільних SoC. LiteRT уже завершив інтеграцію з Qualcomm та MediaTek, що означає можливість апаратно‑нативного виконання моделей на їхніх NPU. Для розробників це відкриває шлях до:

значно кращої енергоефективності порівняно з GPU;

нижчих затримок для складних моделей, зокрема мовних;

звільнення CPU та GPU для інших задач застосунку.

У демо‑сценаріях, які показувалися разом із Gallery‑застосунком, розробник міг перемикатися між CPU та GPU, а NPU‑підтримка позначалася як наступний крок. У продакшн‑середовищі LiteRT прагне зробити цей вибір максимально прозорим: фреймворк має самостійно підбирати оптимальний бекенд, а розробник — лише визначати пріоритети між швидкістю, якістю й енергоспоживанням.

Фактично LiteRT перетворює різнорідний парк мобільних і вбудованих чипів на єдину абстракцію, де модель «бачить» лише доступні прискорювачі, а не конкретні реалізації від Qualcomm чи MediaTek.

Gemma 4 і LiteRT: відкриті моделі для on‑device‑сценаріїв

Хоча ця стаття зосереджена на LiteRT, важливо, що Google розвиває стек у зв’язці з власними моделями. Для on‑device‑сценаріїв ключову роль відіграють Gemma 4 E2B та E4B — компактні мовні моделі на 2 та 4 мільярди параметрів, оптимізовані для роботи на пристрої після квантизації.

E2B орієнтована на використання приблизно 1–2 ГБ оперативної пам’яті, що робить її придатною для сучасних смартфонів та інших обмежених пристроїв. Вона підходить для голосових інтерфейсів, локального підсумовування, приватних чат‑сценаріїв та інших задач, де важливі низька затримка й офлайн‑режим.

E4B розрахована на більші платформи — ноутбуки, десктопи, потужні IoT‑девайси — і вимагає більше пам’яті, але натомість дає вищу якість і складніші можливості. Обидві моделі після квантизації можуть виконуватися через LiteRT, використовуючи CPU, GPU або NPU залежно від пристрою.

Gemma 4 додає кілька важливих можливостей на рівні самої моделі: вбудований function calling для виклику інструментів та API з on‑device‑інференсу, нативну підтримку структурованого JSON‑виводу та «thinking mode» з chain‑of‑thought, який дозволяє експліцитно відображати хід міркувань моделі. Усе це працює в тісній зв’язці з LiteRT як рантаймом, що забезпечує виконання на пристрої.

Ще один важливий елемент — спосіб розповсюдження моделей. Google розміщує Gemma та інші невеликі моделі на сторінці в Hugging Face під ліцензіями Apache 2.0. Це спрощує їх отримання й інтеграцію в застосунки на базі LiteRT: розробник може завантажити модель, сконвертувати її в TFLite‑формат (якщо це не зроблено заздалегідь), а далі використовувати як стандартний артефакт у своєму on‑device‑стеку.

Таким чином, LiteRT і Gemma 4 утворюють повноцінний ланцюжок: від відкритих моделей, доступних на Hugging Face, до їхнього виконання на смартфонах, ноутбуках і IoT‑пристроях із використанням апаратного прискорення.

Gallery як вітрина стеку: що показує демо‑застосунок

Щоб продемонструвати, як LiteRT працює в реальних сценаріях, Google створила Gallery — відкритий застосунок‑пісочницю, який показує можливості Gemma 4 на пристрої. Усі ключові сценарії в Gallery — від агентних навичок до аудіо‑транскрипції, запитів до зображень і чат‑інтерфейсів — виконуються локально, поверх LiteRT.

Gallery виконує кілька ролей одночасно. Для розробників це практичний приклад того, як будувати on‑device‑агентів, інтегрувати function calling, працювати зі структурованим JSON‑виводом і комбінувати різні модальності. Для інженерів‑платформників — демонстрація того, як LiteRT взаємодіє з CPU, GPU й у перспективі NPU, і як можна перемикати бекенди залежно від задачі.

Кожна можливість у Gallery супроводжується зразком коду, який можна взяти за основу. Сам застосунок є open source на GitHub, його можна форкнути й модифікувати під власні потреби. Окремий публічний репозиторій слугує майданчиком, де користувачі діляться власними «skills» — розширеннями агентних можливостей, які також працюють повністю на пристрої.

Gallery не є обов’язковою частиною LiteRT, але добре ілюструє, як виглядає повний стек Google AI Edge у дії: відкриті моделі Gemma 4, TFLite‑формат, LiteRT як рантайм, апаратне прискорення й прикладний рівень у вигляді агентів, що працюють без підключення до хмари.

Чому LiteRT важливий для майбутнього on‑device AI

Розвиток LiteRT відображає ширший тренд в індустрії: дедалі більше AI‑навантажень переїжджають з хмари на край. Причини очевидні — затримки, приватність, вартість токенів і трафіку, офлайн‑режим. Але для того, щоб цей перехід став масовим, потрібна стабільна, кросплатформена й апаратно‑агностична інфраструктура.

LiteRT претендує на роль такого базового шару. Він пропонує:

єдиний формат моделей на основі TensorFlow Lite, який уже довів свою життєздатність у продакшені;

багатофреймворкову історію тренування з конвертацією з TensorFlow, PyTorch і JAX;

кросплатформенний деплой на Android, iOS, десктопах, вебі та IoT без зміни модельного формату;

гнучке апаратне прискорення з підтримкою CPU, GPU та інтеграцією NPU від Qualcomm і MediaTek;

зворотну сумісність із наявними TFLite‑моделями, що захищає інвестиції розробників.

У поєднанні з відкритими моделями Gemma 4, доступними на Hugging Face під Apache 2.0, це створює відносно прозорий шлях від досліджень до продакшену: модель можна тренувати в улюбленому фреймворку, конвертувати в TFLite, розгорнути через LiteRT і доставити на будь‑який пристрій — від смартфона до ноутбука чи IoT‑сенсора.

У міру того, як моделі стають меншими й ефективнішими, а апаратні прискорювачі — потужнішими й масовішими, роль таких стеків лише зростатиме. LiteRT уже сьогодні показує, як може виглядати стандартна інфраструктура для on‑device AI, де розробник думає не про те, як змусити модель запуститися на конкретному чипі, а про те, які саме можливості дати користувачеві — з урахуванням затримок, приватності та вартості.

Висновок

LiteRT — це спроба Google стандартизувати й спростити весь ланцюжок on‑device AI: від тренування в різних фреймворках до виконання на широкому спектрі пристроїв з використанням CPU, GPU та NPU. Збереження формату TensorFlow Lite як основи, зворотна сумісність із наявними моделями, кросплатформенна підтримка й глибока інтеграція з мобільними SoC роблять LiteRT не просто ще одним SDK, а фундаментальним елементом екосистеми Google AI Edge.

У поєднанні з відкритими моделями Gemma 4, які легко отримати з Hugging Face під Apache 2.0, LiteRT формує практичний шлях для команд, що хочуть перенести AI‑функціональність ближче до користувача — на сам пристрій. І судячи з масштабу вже існуючого розгортання, цей шлях перестав бути нішевим експериментом і перетворюється на нову норму.


Джерело

Accelerating AI on Edge — Chintan Parikh and Weiyi Wang, Google DeepMind

Chrome для Android дозволить ділитися приблизною локацією

0

Google оголосила про невелике, але важливе покращення конфіденційності для користувачів Android: браузер Chrome на цій платформі тепер зможе передавати сайтам не точне, а лише приблизне місцезнаходження. Це дає користувачам більше гнучкості, не розкриваючи зайві дані випадковим вебресурсам.

Chrome для Android дозволить ділитися приблизною локацією

Наприклад, якщо вам потрібно просто дізнатися прогноз погоди або іншу інформацію, прив’язану до регіону, немає сенсу передавати сайту точні GPS-координати. Водночас за потреби користувач усе ще зможе дозволити доступ до точної геолокації.

За словами Google, підтримка передачі приблизної локації з’явиться в Chrome для настільних комп’ютерів «у найближчі місяці». Очікувано, компанія також пропонує нові API, які дозволять розробникам вказувати, який саме тип даних про місцезнаходження потрібен їхнім сайтам. «Ми закликаємо розробників переглянути, чи дійсно їм потрібна точна локація, і запитувати її лише тоді, коли це критично для роботи сайту», — йдеться в коментарі представника Google, надісланому електронною поштою.

Наразі неясно, які плани Google щодо Chrome на iOS, але користувачі iPhone та iPad уже кілька років мають змогу вмикати передачу приблизної локації для окремих застосунків. Це не дає такого рівня контролю, як можливість обирати тип даних для кожного вебсайту, проте є корисною опцією для тих, хто турбується про приватність.

Джерело

Engadget

How Alex Hormozi ACTUALLY Uses AI

0

Як уникнути «AI slop»: стратегія Hormozi для голосового контенту, промптів і робочих потоків

Підприємець Алекс Хормозі, чиї бізнеси генерують понад $250 млн на рік, публічно називає штучний інтелект своїм пріоритетом номер один. Водночас у його компанії Acquisition.com дійшло до того, що CEO Лейла Хормозі розіслала всім співробітникам жорсткий внутрішній меморандум: припинити писати службові записки за допомогою «чистого» AI. Причина — потік беззмістовної, стандартизованої корпоративної мови, яку вона прямо назвала «AI slop».

How Alex Hormozi ACTUALLY Uses AI

На цьому тлі стає цікаво не те, що Хормозі «користується AI», а як саме він вбудовує його в роботу компаній. У розмові з автором каналу Austin Marchese він розкладає свою систему на чотири опори. Перша — «дані як рів», про яку йдеться в іншому матеріалі цієї серії. Тут зосередимося на трьох наступних: «голос спочатку, AI потім», проєктування робочих потоків замість ролей і ефект компаунду від дрібних покращень.

Це не історія про магічні промпти, а про те, як не віддати мислення моделі, перетворивши її на інструмент, а не на автора.


«AI slop» і меморандум Лейли: коли штучний інтелект робить людей дурнішими

Кульмінаційний момент у внутрішній культурі Acquisition.com настав тоді, коли Лейла Хормозі надіслала всій компанії лист із вимогою змінити підхід до AI. Вона прямо написала, що «їй до смерті набридло читати AI slop, особливо в меморандумів». У тексті вона перерахувала характерні «маркери» такого письма: фрази на кшталт «delve into», «signals that», «synergies» та інший корпоративний жаргон, яким ніхто не говорить у реальному житті.

Ці мовні конструкції стали для неї сигналом: автор не думав самостійно, а просто натиснув кнопку в чат-боті. І це вже не питання стилю, а питання якості управлінських рішень.

Алекс Хормозі публічно підсилює цю позицію. Він говорить, що його дратує, як «значна частина світу майже миттєво перетворилася на AI slop» і що це «робить людей дурнішими», бо вони перестають думати самі й дозволяють моделі приймати рішення за них. Проблема не в тому, що текст граматично правильний, а в тому, що людина втрачає контекст: чому саме таке рішення було прийняте, які були альтернативи, які компроміси.

Управлінський ризик тут очевидний. Якщо менеджер приносить ідеально відформатований, але порожній документ, керівник не може бути впевнений, чи автор справді розуміє викладене. Один із членів команди Marchese, за його словами, почав надсилати йому повідомлення, які явно були написані AI. І проблема була не в стилі, а в тому, що стало незрозуміло, чи людина взагалі осмислила те, що відправляє.

У цьому контексті меморандум Лейли — не про «заборону AI», а про повернення відповідальності за думку людині. І саме тут з’являється другий стовп системи Хормозі: голос спочатку, AI потім.


Голос спочатку, AI потім: «аутсорсити друк, а не мислення»

Ключова формула, яку Алекс Хормозі використовує для опису правильної ролі AI, звучить просто: «Ви не можете аутсорсити мислення. Ви все одно будете винагороджені за якість свого судження і свого смаку. Те, що ми справді хочемо зробити з AI, — це аутсорсити друк».

Інакше кажучи, модель може «клацати по клавіатурі» замість вас, але не повинна вигадувати, що саме писати. Ідеї, позиція, логіка — це зона відповідальності людини.

Саме проти зворотної практики й виступила Лейла Хормозі. У своєму меморандумі вона не лише розкритикувала «AI slop», а й запропонувала конкретну альтернативу. Вона сформулювала два базові правила для співробітників:

По-перше, перший драфт має створюватися голосом. Використовувати диктування, голосові нотатки, будь-який інструмент, який дозволяє швидко «вилити» власні думки в сирому вигляді. Головне — щоб це були саме ваші слова, ваша структура, ваші приклади.

По-друге, AI має «робити текст кращим, а не замінювати мислення». Тобто модель підключається вже після того, як людина сформулювала свою позицію. Вона може покращити стиль, структуру, логіку викладу, але не повинна вигадувати зміст із нуля.

Алекс Хормозі підкреслює це окремо: «AI не придумує ідею. Це дуже важливо. AI не придумує ідею. Він бере ідею, яка вже є в мене, видає мені результат, а я потім його коригую й редагую. Ідея — це все ще альфа». У світі, де будь-хто може натиснути кнопку «згенерувати текст», саме здатність думати стає конкурентною перевагою.

Цей підхід змінює й формат взаємодії з моделлю. Замість того, щоб просити її «написати меморандум про X», Хормозі та Marchese радять використовувати AI як співрозмовника. Один із промптів, який пропонується для роботи з меморандумами, завершується фразою: «Проінтерв’юй мене, щоб допомогти виявити прогалини в моєму мисленні». Тобто модель не заповнює порожнечі загальними фразами, а витягує з людини додаткові деталі, уточнення, аргументи.

У такій конфігурації AI стає редактором і фасилітатором мислення, а не автором. Людина приносить «сирий» голосовий драфт, модель допомагає структурувати, уточнити, зробити текст читабельним. Але інтелектуальна власність — у буквальному сенсі — залишається людською.


Щоденні голосові логи й запис зустрічей: як будувати власний AI-клон

Голос у системі Хормозі — це не лише спосіб уникнути «AI slop» у документах. Це ще й основний канал збору даних для внутрішніх AI-систем. Якщо перший стовп його підходу — «дані як рів», то голос і транскрипти — один із головних способів наповнити цей рів.

Хормозі пропонує два прості, але системні інструменти, які можуть впровадити практично будь-які компанії.

Перший — записувати зустрічі. На ринку багато сервісів, які обіцяють автоматично створювати списки завдань, резюме й інші «розумні» функції. Але в його логіці головна цінність не в цьому. Важливо одне: отримати повний текстовий транскрипт розмови й додати його до власного дата-сету.

Ці розмови — концентрат реальних рішень, аргументів, заперечень, прикладів. Вони фіксують, як саме мислить засновник, топ-менеджер, експерт. Саме з таких матеріалів Хормозі «збирає» свій внутрішній AI-клон, який дозволяє йому «бути в нескінченній кількості місць одночасно». Команда може звертатися до системи замість того, щоб щоразу чекати особистої відповіді.

Другий інструмент — щоденні голосові логи. Хормозі рекомендує використовувати сервіси на кшталт Whisperflow або Hex, які дозволяють говорити з комп’ютером замість того, щоб друкувати. Наприкінці дня людина може просто продиктувати короткий звіт: над чим працювала, що вдалося, що ні, які зробила висновки.

Ці голосові нотатки автоматично транскрибуються й теж потрапляють у внутрішні AI-проєкти. З часом формується жива, динамічна база знань, яка відображає не лише формальні документи, а й реальний процес мислення команди.

У результаті, коли Хормозі формулює промпт на кшталт: «Виходячи з усього, що я завантажив про свій бізнес, цілі та минулі результати, допоможи мені обдумати це рішення / стратегію / проблему, посилаючись на те, що вже працювало для мене, а що ні», модель справді має на що спиратися. Вона не вигадує «загальні поради», а працює з конкретним досвідом конкретної компанії.

Цей підхід добре ілюструє, як у системі Хормозі поєднуються другий і четвертий стовпи: голос як первинне джерело й ефект компаунду від щоденних дрібних внесків у базу знань.


Від ролей до робочих потоків: чому промпт — це новий SOP

Третій стовп системи Хормозі — радикальна зміна оптики щодо того, як організована робота в компанії. Він пропонує бізнесам перейти від мислення «ролями» до мислення «робочими потоками».

У традиційній моделі компанія мислить категоріями «людей на посадах»: маркетолог, сейлз, продакт-менеджер. Кожна роль — це набір завдань, які «просто робить ця людина». Хормозі пропонує розкласти ці ролі на послідовності конкретних кроків: які саме дії виконуються, у якій послідовності, з якими вхідними й вихідними даними.

Він описує це так: більшість ролей — це «коло з шести-семи робочих потоків, у які людина вбудована». Перехід до мислення робочими потоками — це, за його словами, перехід від «2025-го, де ми думаємо про людей на місцях», до «2030-го, де ми мислимо категоріями сирих вхідних і вихідних даних, які створюють цінність».

У цьому контексті промпт до AI стає аналогом стандартної операційної процедури (SOP). Коли компанія наймає співробітника, вона дає йому SOP — покроковий опис, як виконувати завдання. З AI відбувається те саме: промпт — це інструкція, як модель має працювати, щоб видати потрібний результат.

Хормозі формулює це прямо: «Що таке промпт? Ви даєте їм операційну процедуру, щоб отримати вихід. Промпт — це SOP». І звідси випливає важливий висновок: більшість промптів людей «занадто короткі». Вони намагаються «аутсорсити роботу співробітнику одним реченням».

Якщо компанія хоче якісний результат, їй потрібно розбити завдання на кроки й описати кожен із них. Саме тут критично важлива роль доменної експертизи. Той, хто розуміє, як виглядає «хороший результат» у конкретній сфері, має сформулювати промпт як повноцінний SOP.

Цей підхід видно й у тому, як Хормозі будує команду. У його вакансіях немає ролі «Head of AI», який «має вирішити все, що пов’язано з штучним інтелектом». Натомість кожна позиція — від директора з маркетингу до продакт-менеджера й продюсера соцмереж — містить вимогу володіти AI-інструментами у своїй сфері: AI-системи контенту, AI-інструменти планування, AI-генерація контенту.

Логіка проста: доменний експерт краще за всіх знає, як має виглядати якісний результат, і саме він має описати для AI робочий потік, який до цього результату веде.


Один AI на одне завдання: як дрібні покращення накопичуються

Четвертий стовп системи Хормозі — ефект компаунду. Він не формулюється як окрема теорія, але простежується в тому, як він описує побудову AI-систем.

У прикладі з продажами Хормозі розбиває процес на кілька окремих етапів. Спочатку — кваліфікація ліда. Потім — відповідь лідові. Потім — бронювання зустрічі. Для кожного з цих кроків створюється окремий AI-робочий потік, зі своїм промптом-SOP, своїми вхідними й вихідними даними.

У результаті виходить не «одна велика AI-система, яка робить усе», а набір дрібних, чітко визначених «агентів», кожен із яких відповідає за свою ділянку роботи. Це дає кілька практичних переваг.

По-перше, коли щось ламається, легко зрозуміти, де саме. Якщо є п’ять кроків і кожен має свій промпт, можна швидко локалізувати проблему: наприклад, кваліфікація працює добре, але відповіді лідам — ні. Це не абстрактна «помилка AI», а конкретний SOP, який потрібно переглянути.

По-друге, кожен крок можна покращувати незалежно. Якщо компанія хоче підвищити якість кваліфікації, їй не потрібно переписувати всю систему. Достатньо сфокусуватися на одному промпті, додати більше прикладів, уточнити критерії, змінити структуру вихідних даних.

Саме тут проявляється ефект компаунду. Кожне невелике покращення на окремому етапі — трохи краща кваліфікація, трохи точніші відповіді, трохи вища конверсія в бронювання — у сумі дає суттєвий приріст ефективності всієї системи. І чим більше таких дрібних покращень накопичується, тим сильнішим стає «AI-двигун» компанії.

Цей підхід добре узгоджується з усією чотириступеневою системою Хормозі. Дані створюють рів, голос забезпечує автентичність і глибину, робочі потоки й промпти-SOP структурують роботу, а послідовні дрібні покращення в кожному з них дають довгострокову перевагу.


Висновок: AI як редактор, а не автор, і як система, а не «чарівна кнопка»

Модель використання AI, яку демонструють Алекс і Лейла Хормозі, різко контрастує з популярною практикою «натиснути кнопку й отримати готовий текст». У їхній системі штучний інтелект — це:

інструмент для аутсорсингу друку, але не мислення;

редактор і співрозмовник, який допомагає структурувати й уточнювати власні ідеї;

механізм, що працює на основі багатого внутрішнього дата-сету, зібраного з реальних зустрічей, голосових логів і робочих документів;

набір вузьких робочих потоків із чіткими промптами-SOP, а не монолітна «чорна скринька».

Меморандум Лейли проти «AI slop» — це не відкат від технологій, а спроба повернути баланс між людським мисленням і машинною обробкою. У світі, де будь-хто може згенерувати бездоганно відформатований, але порожній текст, саме здатність думати, формулювати й відповідати за свої ідеї стає тим самим «альфа-активом», про який говорить Хормозі.

Для компаній, які прагнуть інтегрувати AI не як модну іграшку, а як інфраструктуру, ця модель пропонує чіткий вектор: записувати й оцифровувати власне мислення, будувати системи навколо голосу й реальних робочих потоків, розглядати промпти як повноцінні SOP і системно покращувати кожен крок. Саме так, а не через «чарівні промпти», формується справжня AI-перевага.


Джерело

How Alex Hormozi ACTUALLY Uses AI — Austin Marchese

Пенсильванія подала до суду на Character.AI

0

Штат Пенсильванія подав позов проти компанії Character.AI, стверджуючи, що один із чатботів сервісу видавав себе за психіатра, порушуючи вимоги штату щодо медичної ліцензії.

Пенсильванія подала до суду на Character.AI

«Жителі Пенсильванії мають право знати, з ким — або з чим — вони спілкуються онлайн, особливо коли йдеться про їхнє здоров’я», — заявив у вівторок губернатор Джош Шапіро. — «Ми не дозволимо компаніям запускати інструменти штучного інтелекту, які вводять людей в оману, змушуючи вважати, що вони отримують поради від ліцензованого медичного фахівця».

Згідно з матеріалами позову, чатбот Character.AI під назвою Emilie під час тестування інспектором з професійної етики штату представився як ліцензований психіатр і підтримував цю легенду навіть тоді, коли інспектор звернувся по допомогу щодо депресії. На запитання, чи має вона ліцензію на медичну практику в штаті, Emilie відповіла ствердно, а також вигадала номер своєї штатної медичної ліцензії. На думку штату, такі дії порушують Закон Пенсильванії про медичну практику.

Це не перший судовий позов проти Character.AI. Раніше цього року компанія врегулювала кілька позовів про неправомірну смерть, пов’язаних із неповнолітніми користувачами, які вчинили самогубство. У січні генпрокурор Кентуккі Рассел Коулман подав позов проти компанії, звинувативши її в тому, що вона «полювала на дітей і підштовхувала їх до самоушкодження».

Позов Пенсильванії став першим, що окремо зосереджується на чатботах, які видають себе за медичних фахівців.

У відповідь на запит щодо коментаря представник Character.AI заявив, що безпека користувачів є для компанії найвищим пріоритетом, але вона не може коментувати справи, які перебувають на розгляді суду.

Представник також наголосив на вигаданому характері створюваних користувачами персонажів. «Ми запровадили суттєві заходи, щоб це було зрозуміло, включно з помітними застереженнями в кожному чаті, які нагадують користувачам, що Персонаж не є реальною людиною і що все, що говорить Персонаж, слід сприймати як вигадку, — сказав він. — Також ми додаємо чіткі попередження про те, що користувачі не повинні покладатися на Персонажів у питаннях будь-яких професійних порад».

Джерело

TechCrunch

Як відмова від купівлі позолочених кабелів HDMI допоможе зекономити гроші без втрати якості зображення на екрані

0

Магазини електроніки продовжують успішно експлуатувати довірливість покупців, виставляючи на полиці дорогі кабелі HDMI з позолоченими роз’ємами під виглядом преміальних товарів. Маркетингові хитрощі у вигляді яскравих написів про нібито вищу чіткість відео та покращену передачу сигналу змушують людей витрачати десятки чи навіть сотні доларів на аксесуари, які насправді не дають жодної об’єктивної переваги. Золоте напилення на конекторах є настільки мізерним, що його товщина не сягає навіть відсотка від товщини людської волосини, тому воно стирається після кількох циклів підключення та відключення пристрою. Покупці фактично переплачують за ілюзію довговічності, хоча у звичайних домашніх умовах техніка не піддається впливу екстремальної вологості чи агресивного середовища, де таке покриття могло б мати хоч якийсь прикладний зміст.

Версія стандарту важливіша за блиск металу

Продуктивність передачі даних залежить виключно від версії стандарту HDMI та пропускної здатності кабелю, а не від кольору чи складу металу на штекері. Сучасний кабель HDMI версії 2.1 забезпечує підтримку 4K з високою частотою оновлення та HDR значно ефективніше, ніж застарілий преміальний кабель нижчої версії, навіть якщо останній має позолоту. Матеріали конектора жодним чином не розширюють можливості цифрового сигналу і не здатні «виправити» обмеження пропускної здатності, закладені виробником у сам дріт. Варто раз і назавжди зрозуміти, що цифровий сигнал працює за принципом передачі двійкового коду, де є лише два стани, тому зображення або з’являється в ідеальній якості, або сигнал взагалі відсутній через занадто велику кількість помилок при передачі даних.

Чому варто ігнорувати маркетингові гасла

На відміну від старих аналогових кабелів, де окислення контактів справді могло призводити до появи перешкод чи спотворення кольорів на екрані, сучасні цифрові з’єднання не мають проміжних станів якості. Якщо кабель не відповідає технічним вимогам, ви зіткнетеся з «битими» пікселями, чорним екраном або миттєвим розривом зв’язку, а не з «тьмяним» чи «нечітким» зображенням, яке начебто можна виправити золотом. Замість того, щоб звертати увагу на пакування, написи «преміум» чи нейлонове обплетення, розумніше витратити час на пошук голографічної наклейки з сертифікацією Ultra High Speed на упаковці. Саме ця сертифікація гарантує, що виріб пройшов незалежні тести та відповідає заявленим технічним параметрам швидкості, а не просто виглядає дорого через маркетингові маніпуляції.

Раціональний підхід до вибору аксесуарів

Для коротких дистанцій у межах кімнати цілком достатньо звичайних мідних кабелів, які часто навіть постачаються в комплекті з телевізорами чи ігровими консолями. Якщо ж виникає потреба прокласти кабель через стіни або на велику відстань, де виникають електромагнітні перешкоди, логічніше звернути увагу на активні оптичні кабелі HDMI, а не шукати позолочені варіанти. Немає жодного сенсу переплачувати за зовнішній вигляд виробу, який після підключення до телевізора назавжди зникне з поля зору. Достатньо лише звірити технічні характеристики кабелю з можливостями ваших пристроїв, щоб отримати стабільну роботу техніки без зайвих фінансових витрат на надумані переваги, які ніхто ніколи не зможе побачити на власні очі.

Видавці книжок звинуватили Meta та Цукерберга в порушенні авторських прав

0

Спроби Meta розвивати штучний інтелект знову опинилися в центрі судового спору. Соціальну мережу та її генерального директора Марка Цукерберга подали до суду в рамках колективного позову пʼять видавництв і один автор. Вони стверджують, що компанія незаконно використовувала захищені авторським правом твори для навчання своєї генеративної платформи ШІ Llama.

Видавці книжок звинуватили Meta та Цукерберга в порушенні авторських прав

Позивачами у справі виступають видавництва Hachette, Macmillan, McGraw Hill, Elsevier та Cengage, а також відомий письменник, автор бестселерів Скотт Теро.

«Відповідачі відтворили та розповсюдили мільйони творів, захищених авторським правом, без дозволу, без будь-якої компенсації авторам чи видавцям і з повним усвідомленням того, що їхні дії порушують закон про авторське право», — йдеться у позовній заяві. «Сам Цукерберг особисто санкціонував і активно заохочував це порушення».

Meta вже неодноразово ставала обʼєктом позовів через матеріали, які використовувалися для навчання Llama. Інша група авторів намагалася подати позов про порушення авторських прав у 2023 році, але зрештою безуспішно. Роль Цукерберга в заохоченні використання захищених творів фігурувала й у справі, ініційованій проєктом LibGen. Крім того, минулого року група авторів у Великій Британії також публічно заявляла, що Meta потенційно порушує норми авторського права.

Джерело

Engadget