В свежей бета-версии iOS для разработчиков появилась функция Deep Fusion, которую Apple анонсировала на презентации новых iPhone. Об этом сообщили авторитетные зарубежные СМИ, среди которых The Verge и TechCrunch. Наши американские коллеги не раскрыли числовой индекс бета-версии операционной системы, в которой дебютировала новая опция, но можно смело предположить, что речь идёт об iOS 13.2.
Функция Deep Fusion призвана улучшить детализацию снимков, созданных в условиях плохого и среднего освещений. Она работает следующим образом:
- При открытии камеры система автоматически активирует серийную и обычную съёмки, производя их в фоне (незаметно от пользователя). Во время нажатия на кнопку затвора камеры, делается снимок с длинной выдержкой. Таким образом, камера сохраняет сделанные в режиме серийной съёмки четыре кадра (необходимые для фиксации движения), четыре стандартных снимка и один кадр с длинной выдержкой.
- Стандартные снимки и кадр с длинной выдержкой объединяются в одно изображение, которое Apple называет «синтетически длинным» («synthetic long»). Процесс компоновки снимков отличается от такового в режиме Смарт-HDR.
- Deep Fusion выбирает один кадр с короткой выдержкой и наилучшей детализацией, после чего объединяет его с «синтетически длинным» снимком (тем самым, который получился при объединении других кадров). Система применяет шумодав для всех изображений, но делает это не так, как при работе режима Смарт-HDR.
- Итоговый снимок проходит четыре этапа обработки деталей, в ходе которых особое «внимание» уделяется обработке людей (их коже, волос и одежды). В ходе этого, система автоматически определяет, как комбинировать различные изображения, чтобы конечная фотография получилась наиболее детализированной.
При активированной функции Deep Fusion, создание снимка занимает больше времени, чем съёмка фотографии в режиме Смарт-HDR, — около секунды. Данная опция работает в фоновом режиме, поэтому если пользователь сделаем снимок и быстро перейдёт в галерею, он увидит предварительную версию фотографии, ещё не обработанную специальными алгоритмами. Из-за сравнительно долгой работы со снимками, Deep Fusion недоступна для серийной съёмки. Более того, это нововведение работает только на моделях 2019 года — по всей видимости, из-за необходимости в мощнейшем процессоре Apple A13.
С появлением Deep Fusion камеры iPhone 11 и iPhone 11 Pro (Max) будут работать в трёх режимах, автоматически активирующихся в зависимости от освещения и объектива:
- При использовании камеры со стандартным широкоугольным объективом: активируется режим Смарт-HDR для съёмки при ярком и среднем освещениях; используется Deep Fusion для фото при среднем и низком освещениях; включается ночной режим при очень тёмных сценах.
- При использовании камеры с телеобъективом (в iPhone 11 Pro и iPhone 11 Pro Max): практически всегда применяется Deep Fusion; функция Смарт-HDR автоматически включается только при очень ярких сценах; ночной режим активируется только при очень тёмных сценах.
- При использовании камеры с ультраширокоугольным объективом: всегда включён режим Смарт-HDR, поскольку ни Deep Fusion, ни ночной режим недоступны.
В отличие от ночного режима, который имеет соответствующий индикатор в приложении камеры и может быть отключён, опция Deep Fusion полностью невидима для пользователя: она не отображается ни при съёмке, ни в EXIF-данных готовых фотографий. По данным The Verge, разработчики сделали это намеренно, чтобы пользователи не ломали голову над тем, каким образом получить лучшую фотографию — идея в том, что это задача специальных алгоритмов приложения камеры.
Поскольку Apple уже позволяет тестировать Deep Fusion в бета-версии iOS (пусть и пока что предназначенной только для разработчиков), можно смело предположить, что новая функция появится в стабильной прошивке сравнительно скоро. По официальным данным, это произойдёт до наступления зимы.