НА ПРАВАХ РЕКЛАМЫ
iPhone 11 принято недооценивать — мол, без телефото, пластиковый корпус, «бюджетный Apple». Но именно в этом устройстве Apple впервые реализовала то, что кардинально изменило мобильную фотографию: снимок стал результатом работы нейронной сети, а не объектива. Это принципиальный сдвиг, который до сих пор не осмыслен большинством пользователей.

Deep Fusion: когда Neural Engine стал камерой
Apple называет Deep Fusion «первым случаем, когда нейронный движок отвечает за генерацию итогового изображения». Это не маркетинговая фраза — это смена парадигмы.
Вот что происходит технически при каждом нажатии затвора. Камера делает девять кадров: две серии по четыре кадра — до нажатия кнопки, плюс один длинный экспозиционный кадр в момент нажатия. После этого система проводит шумоподавление по двум потокам, а затем анализирует изображение на попиксельном уровне в четыре прохода — каждый проход обрабатывает разные типы объектов: небо и пейзаж, ткани и кожу, мелкие детали. Финальный снимок берёт цветовую информацию из одного источника, детализацию — из другого, и «сшивает» их по карте приоритетов сцены.
Весь процесс — захват и нейросетевая обработка — завершается менее чем за секунду. Для понимания масштаба: такие задачи до A13 требовали серьёзных вычислительных мощностей и никак не могли выполняться в реальном времени на мобильном устройстве.
A13 Bionic: кристалл, который это сделал возможным
A13 Bionic изготовлен по техпроцессу TSMC N7P — второе поколение 7 нм с применением EUV-литографии. На кристалле размещено 8.5 млрд транзисторов, два высокопроизводительных ядра Lightning работают на частоте до 2.65 ГГц, четыре ядра Thunder — до 1.80 ГГц.
Ключевая деталь: высокопроизводительные ядра Lightning оснащены блоками аппаратного ускорения матричных вычислений — AMX-блоками. Apple заявляет, что они выполняют матричное умножение в шесть раз быстрее, чем ядра предшественника A12, и способны обрабатывать до одного триллиона операций с одинарной точностью в секунду. Именно эти блоки критичны для Deep Fusion: поперпиксельный анализ 12-мегапиксельного изображения в несколько проходов — это по сути операции над огромными матрицами, и без аппаратного ускорения реального времени не получить.
8-ядерный Neural Engine работает на 20% быстрее A12 при потреблении на 15% меньше энергии. 4-ядерный GPU — на 20% быстрее предшественника при сокращении энергопотребления на 40%.
Камера: характеристики, которые работают на алгоритм
Система двух камер: 12 МП основная с апертурой f/1.8 и 12 МП ультраширик f/2.4 с углом обзора 120°. Оптический зум — 2x на выход (ультраширик), цифровой — до 5x.
Отсутствие телефото — осознанный выбор позиционирования, а не технический компромисс. На это прямо указывает то, что A13 в iPhone 11 Pro работает с тремя камерами без деградации скорости Deep Fusion. Ресурсов чипа хватало с запасом, вопрос был исключительно в ценовом сегменте.
Важно: Deep Fusion на iPhone 11 работал только с основной камерой. Ультраширик не получал нейросетевой обработки такого уровня. Именно поэтому снимки с двух объективов заметно различались по детализации при одинаковом освещении — это не баг оптики, а разница в ISP-пайплайне.
Почему iPhone 11 важен для понимания современных камер
Всё, что сегодня принято называть «вычислительной фотографией» в смартфонах — многокадровый стекинг, попиксельная fusion-обработка, нейросетевое шумоподавление — технологически восходит именно к этой модели. Deep Fusion стал первой системой, где Neural Engine не помогал камере, а сам генерировал итоговое изображение. Это изменило то, как все производители — не только Apple — стали думать об архитектуре мобильных камер.
iPhone 11 — не просто «старый телефон». Это документ о том, в какой момент смартфон перестал быть устройством с камерой и стал устройством, которое вычисляет фотографию.











